BR112023001200B1 - Método e aparelho de transmissão de múltiplos feixes - Google Patents

Método e aparelho de transmissão de múltiplos feixes Download PDF

Info

Publication number
BR112023001200B1
BR112023001200B1 BR112023001200-7A BR112023001200A BR112023001200B1 BR 112023001200 B1 BR112023001200 B1 BR 112023001200B1 BR 112023001200 A BR112023001200 A BR 112023001200A BR 112023001200 B1 BR112023001200 B1 BR 112023001200B1
Authority
BR
Brazil
Prior art keywords
beams
outputs
linear
attenuation
linear encoder
Prior art date
Application number
BR112023001200-7A
Other languages
English (en)
Other versions
BR112023001200A2 (pt
Inventor
Yiqun Ge
Wuxian Shi
Wen Tong
Original Assignee
Huawei Technologies Co., Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co., Ltd filed Critical Huawei Technologies Co., Ltd
Publication of BR112023001200A2 publication Critical patent/BR112023001200A2/pt
Publication of BR112023001200B1 publication Critical patent/BR112023001200B1/pt

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/02Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas
    • H04B7/04Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas
    • H04B7/06Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station
    • H04B7/0686Hybrid systems, i.e. switching and simultaneous transmission
    • H04B7/0695Hybrid systems, i.e. switching and simultaneous transmission using beam selection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/02Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas
    • H04B7/04Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas
    • H04B7/0408Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas using two or more beams, i.e. beam diversity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/02Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas
    • H04B7/04Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas
    • H04B7/06Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station
    • H04B7/0613Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station using simultaneous transmission
    • H04B7/0615Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station using simultaneous transmission of weighted versions of same signal
    • H04B7/0617Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station using simultaneous transmission of weighted versions of same signal for beam forming

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Radio Transmission System (AREA)
  • Error Detection And Correction (AREA)

Abstract

rede neural de aprendizado profundo baseada em algoritmo de passagem de mensagem híbrida para um sistema de formação de feixe massivo. um método de transmissão multifeixe é fornecido para transmitir usando um transmissor de n feixes para um receptor tendo k feixes de recebimento. no transmissor, um codificador não linear implementado por um bloco de aprendizado de máquina e um codificador linear são treinados usando retropropagação descendente de gradiente que depende da realimentação a partir do receptor. para cada entrada a ser transmitida, o bloco de aprendizado de máquina é usado para processar a entrada para produzir n/k conjuntos de l saídas. o codificador linear é usado para desempenhar codificação linear em cada conjunto de l saídas para produzir um respectivo conjunto de k saídas de modo a produzir n/k conjuntos de k saídas codificadas em geral e n saídas codificadas em geral. um dos n/k conjuntos de k saídas a partir de cada conjunto de k feixes. a fim de permitir uma generalização para diferentes snrs e permitir condições de canal variáveis no tempo, as camadas não lineares, implementadas no codificador não linear, são responsáveis por extrair recursos e regenerar os recursos, enquanto as camadas lineares implementadas no codificador linear, são responsáveis por mais generalização.

Description

REFERÊNCIA CRUZADA
[001] Este pedido reivindica prioridade para o Pedido de Patente dos EUA No. de Série 16/937.863, depositado em 24 de julho de 2020, intitulado “Hybrid Message-Passing-Algorithm-Based Deep Learning Neural Network for a Massive Beam-Forming System”, cujo conteúdo está incorporado por referência no presente documento em sua totalidade.
CAMPO
[002] O pedido se relaciona a aprendizado de máquina e, mais particularmente, a aprendizado de máquina aplicado a sistemas de formação de feixe. No presente documento, a palavra “codificação” deve ser entendida ou como a etapa inversa à etapa de decodificação, ou como o conjunto destas etapas, englobando assim os significados de codificação propriamente dita e de decodificação.
ANTECEDENTES Aprendizado profundo para sistemas sem fio
[003] O aprendizado profundo é um subconjunto de aprendizado de máquina onde há mais de duas camadas de neurônios não lineares entre entradas e saídas. Aprendizado profundo é um ramo da inteligência artificial que tem visto avanços significativos em termos de sua aplicação a problemas muito complexos.
[004] Existem vários problemas fundamentais quando técnicas de aprendizado profundo são aplicadas a sistemas sem fio. Um primeiro problema é a incapacidade de generalizar sobre diferentes relações sinal-ruído (SNRs). Uma rede neural profunda está fortemente relacionada às propriedades estatísticas (por exemplo, expectativa e variância e assim por diante) dos dados de informações, ou seja, o sinal e hostilidades aleatórias no sistema sem fio. Uma vez que a SNR muda, os neurônios da rede neural profunda precisam ser sintonizados (tuned) para se adaptar aos diferentes ruídos, muitas vezes levando a um retreinamento completo. Na prática, como o canal de rádio, incluindo a relação sinal-ruído e a relação sinal-interferência, é variável e difícil de estimar de forma confiável, é impraticável usar uma rede neural de aprendizado profundo para processar o sinal variante no tempo.
Comunicação de mmWAVE sem fio
[005] 5G propõe usar comunicação de onda milimétrica (mmWAVE) para prover taxa de transferência no nível de Gbps. Estritamente falando, comunicações de mmWAVE de 5G podem usar comprimentos de onda de cm ou de mm.
[006] Uma comunicação típica de mmWAVE ou de alta frequência tem condições e cenários de canal diferentes daqueles abaixo de 6 GHz. Uma perda de percurso nas bandas de mmWAVE é muito mais severa do que aquelas abaixo de 6 GHz. Para endereçar isso, uma técnica chamada de formação de feixe foi adotada por sistemas 5G para “concentrar” a energia do sinal por várias antenas de transmissão em um ponto ou área (em ordem de cm ou de mm) de modo a produzir um sinal de SNR suficientemente alto dentro do ponto ou área alvo. Em termos sem fio, a intensidade de sinal deve atender ao nível de sensibilidade do receptor.
[007] No entanto, quanto mais altas as frequências de uma banda usada por um sistema sem fio, maior a perda de percurso a qual um feixe de rádio está sujeito. Sistemas sem fio futuros podem adotar bandas acima de 100 GHz de frequência. A sensibilidade de recebimento de um feixe de rádio futuro seria significativamente restrita pela perda de percurso sobre o ar. Para compensar a perda de percurso, uma opção é aumentar a potência de transmissão por um feixe de rádio. Por um lado, o uso de uma banda de frequência mais alta resulta em comprimento de onda mais curto e em um tamanho de antena menor; e por outro lado, uma maior perda de percurso devido à banda de frequência mais alta aumentaria o nível de sensibilidade de recebimento do sinal sobre cada feixe de rádio.
[008] Para endereçar esses problemas, um sistema de feixes em chip (beams-on-chip) pode ser usado, o qual acomoda muitos (por exemplo, milhares) de feixes de rádio simultaneamente em uma área de pastilha de chip. Quando inteligência artificial é usada para desempenhar formação de feixe em tais sistemas, retreinamento geralmente é necessário quando o receptor se move. Pode ser que o retreinamento não possa ser desempenhado com rapidez suficiente para acompanhar as mudanças de canal, em particular, onde há um grande número de feixes. Além disso, a sobrecarga de sinalização associada ao treinamento é muito grande.
SUMÁRIO
[009] Para alcançar a generalização para diferentes relações sinal-ruído, algumas camadas lineares são inseridas em uma estrutura (framework) de autocodificador. Essas camadas lineares fortalecem a generalização para diferentes relações sinal-ruído. Na arquitetura de aprendizado profundo provida, as camadas de codificação não lineares f (■) se comportam como um extrator de atributo que extrai N/K atributos diferentes a partir de uma imagem ou um símbolo ou amostra de uma distribuição. As camadas lineares são N/K codificadores lineares de fase (w)/bias (b)/potência (c). Os N/K atributos podem ser considerados como as diferentes N/K perspectivas ou observações de um símbolo, e as camadas lineares os codificariam em paralelo. N sinais de rádio somariam naturalmente diferentes N/K atributos codificados no ar, o que forma um compositor de K classificações. As camadas de decodificação não lineares g (■) são um sintetizador do tipo full-connective que regenera os símbolos a partir do sinal de dimensão K após a distorção e a adição de ruído.
[010] A fim de permitir uma generalização para diferentes SNRs e para permitir condições de canal variáveis no tempo, as camadas não lineares são responsáveis por extrair atributos e regenerar os atributos, enquanto as camadas lineares são responsáveis por mais generalização. As camadas não lineares por conta própria podem ter um baixo grau de tolerância a incertezas de canal variáveis no tempo, como SNR e atenuações que normalmente exigiriam um retreinamento completo das camadas não lineares com mudança em tais condições. A inclusão das camadas lineares tem o efeito, sobre o sistema como um todo, de introduzir tolerância adicional (mais generalização); as camadas lineares podem ser facilmente ajustadas quando há uma mudança nas incertezas do canal, como SNR ou atenuação, sem exigir um retreinamento das camadas lineares.
[011] Em algumas modalidades, as camadas não lineares são implementadas usando aprendizado de máquina. Mais especificamente, em algumas modalidades, uma rede neural profunda é usada para as camadas não lineares. A solução geral pode se aproximar de uma solução ótima. Em algumas modalidades, o sistema é transparente para o receptor.
[012] Em algumas modalidades, um algoritmo de passagem de mensagem (MPA) ou algoritmo de propagação de crença (belief) é aplicado antes de cada transmissão para sintonizar os fatores de controle de potência.
[013] Para atenuação de canal variável: Em algumas modalidades, uma camada de controle de potência adicional é adicionada para permitir fatoração de atenuação de canal variável. Durante um treinamento inicial, é desempenhado um treinamento em tandem que inclui tanto a retropropagação das camadas incluindo as camadas não lineares e as camadas de codificação lineares (<f (),g (),w,b>) e um algoritmo de passagem de mensagem para controle de potência <c>. Para aplicar MPA, um conceito de usuário virtual é introduzido. Informações úteis sobre o símbolo são direcionadas ao usuário “verdadeiro” (“true”); enquanto as informações inúteis são direcionadas ao usuário “virtual”. Durante a inferência (transmissão), antes de cada transmissão de símbolo, MPA no transmissor executa para sintonizar <c> com base no símbolo de entrada atual e nas atenuações de canal atuais, mas outras camadas de codificação (<f (),g (),w,b>) permanecem. Durante treinamento, as atenuações são amostradas a partir de uma distribuição. Durante transmissão real, os coeficientes de canal estimados com algumas incertezas são usados para atualizar a distribuição.
[014] Para endereçar incompatibilidade e incerteza de canal, tanto no treinamento inicial quanto no MPA de inferência, a atenuação <h> é inserida na rede neural profunda, e <h> são amostras a partir das distribuições. As camadas de decodificação não lineares g (■) têm o poder de aprender essas <h>. Na realidade, se uma atenuação real cair na distribuição ou até mesmo um pouco fora da distribuição, a g () ainda pode lidar com essa situação. Em alguns casos, nenhum piloto é necessário ou, alternativamente, são necessários menos pilotos do que seria exigido.
[015] Em algumas modalidades, as abordagens providas são aplicadas para implementar um sistema de feixe massivo.
[016] Em algumas modalidades, os sistemas e métodos providos são, adicionalmente, adaptados para prover um ganho de codificação e solicitação de repetição automática híbrida de redundância incremental (IR-HARQ). É bem conhecido que não há ganho de codificação, mas há ganho de potência para codificar um símbolo com uma taxa de codificação na teoria de codificação. A taxa de codificação traria apenas ganho de potência em um canal de ruído gaussiano branco aditivo (AWGN) e pode resultar em algum ganho de MRC em um canal seletivo. Um sistema e método são providos para realizar um codec para codificar um símbolo com uma determinada taxa de codificação para alcançar ganho de codificação.
[017] A atenuação seletiva é hostil. O codec provido pode aprender a atenuação em grande escala e tolerar a atenuação aleatória em pequena escala por uma lógica integrada, de modo que nenhum ou menos pilotos sejam necessários.
[018] A redundância incremental tem sido válida com o sistema linear. Um sistema e método são providos para incluir ganho de codificação de IR através do uso de transmissão de IR com o codec provido.
BREVE DESCRIÇÃO DOS DESENHOS
[019] Modalidades da divulgação serão agora descritas com referência aos desenhos anexos nos quais: A Figura 1 é um diagrama de blocos retratando um grande número de feixes compensando a perda de percurso significativa nas bandas de mmWAVE; A Figura 2A é um diagrama de blocos ilustrando configurações de Feixes em Chip; A Figura 2B é um diagrama de blocos ilustrando configurações de 2 Feixes em Chip em união para entrega de um sinal de boa qualidade; A Figura 3 é um diagrama de blocos retratando um exemplo de transmissão de um símbolo 64QAM por 1000 feixes usando uma configuração de Feixes em Chip da Figura 2B; A Figura 4 é um diagrama de blocos retratando propagação de feixes atenuados de forma desigual de uma configuração de Feixes em Chip da Figura 2B; A Figura 5 é um diagrama de blocos ilustrando um exemplo de configuração de um receptor com K=3 dimensões de recebimento não correlacionadas; A Figura 6 é um diagrama de blocos ilustrando um Exemplo Genérico de sistema MIMO para Alocar MCS em termos de Classificações; A Figura 7 é um diagrama de blocos retratando a capacidade de transmissão de um grande número de feixes para tolerar o bloqueio completo de alguns feixes por bloqueadores aleatórios; A Figura 8 é um diagrama de blocos retratando a capacidade de transmissão de um grande número de feixes para tolerar o Efeito Doppler; A Figura 9A é um diagrama de blocos retratando uma transmissão de Round-Robin para medir o coeficiente de canal; A Figura 9B é um diagrama de blocos retratando uma transmissão de Round-Robin para medir o coeficiente de canal; A Figura 10 é um gráfico medindo a Taxa de Erro de Símbolo (SER) versus Es/N0 de 64QAM em AWGN; A Figura 11 é um gráfico medindo a Taxa de Erro de Símbolo (SER) versus Eb/N0 de 64QAM em AWGN; A Figura 12 é um gráfico retratando o Ganho de Codificação Esperado no gráfico da Figura 11 ao usar K=3 dimensões para transmitir bits de entrada de um símbolo 64 QAM; A Figura 13 é um diagrama de blocos retratando delimitação teórica e os efeitos do ganho de codificação ao usar K=3 dimensões para transmitir bits de entrada de um símbolo 64-QAM; A Figura 14 é um diagrama de blocos retratando a capacidade do Esquema de Codificação de Símbolo para tolerar atenuação seletiva; A Figura 15 é um diagrama de blocos retratando um transmissor de dimensão N e um receptor de dimensão K; A Figura 16 é um diagrama de blocos retratando um exemplo de transmissão de um 64 QAM usando o transmissor e o receptor da Figura 15; A Figura 17 é um diagrama de blocos ilustrando uma visão de alto nível de um transceptor; A Figura 18 é um diagrama de blocos retratando uma rede neural profunda formada por um transceptor compreendendo um codificador de três estágios; A Figura 19 é um diagrama de blocos retratando as camadas lineares e não lineares de uma rede neural profunda híbrida linear/não linear; A Figura 20 é um diagrama de blocos retratando uma rede neural profunda com controle de potência; A Figura 21A é um diagrama de blocos retratando a recepção de combinações “inúteis” por um usuário virtual; A Figura 21B é um diagrama de blocos retratando a recepção de combinações “inúteis” por um usuário virtual; A Figura 22 é um diagrama de blocos ilustrando as iterações de um Algoritmo de Passagem de Mensagem (MPA) para treinar o fator de potência; A Figura 23A é um diagrama de blocos ilustrando um exemplo de configuração de Treinamento em Tandem em que retropropagação sintoniza <f,g, w,b> e MPA sintoniza a (vetor de controle de potência); A Figura 23B é um diagrama de blocos ilustrando um exemplo de configuração de Treinamento em Tandem em que retropropagação sintoniza <f,g, w,b> e MPA sintoniza a (vetor de controle de potência); A Figura 24A é um diagrama de blocos retratando uma transmissão em que as camadas treinadas por retropropagação são congeladas e as camadas por MPA são mantidas sintonizadas; A Figura 24B é um diagrama de blocos retratando uma transmissão em que as camadas treinadas por retropropagação são congeladas e as camadas por MPA são mantidas sintonizadas; A Figura 25 é um gráfico medindo o desempenho da SER de um 64QAM de codificação em três complexos com R=1/3; A Figura 26 é um diagrama de blocos retratando a decomposição da incerteza de atenuação de canal variável no tempo; A Figura 27A é um diagrama de blocos retratando um transceptor com atenuação de canal aleatória; A Figura 27B é um diagrama de blocos retratando um transceptor com atenuação de canal aleatória; A Figura 28A é um diagrama de blocos retratando a recepção de transmissões por um usuário virtual atenuado de canal; A Figura 28B é um diagrama de blocos retratando a recepção de transmissões por um usuário virtual atenuado de canal; A Figura 28C é um diagrama de blocos retratando a recepção de transmissões por um usuário virtual atenuado de canal; A Figura 29 é um diagrama de blocos ilustrando as iterações do MPA durante o estágio de treinamento com atenuação de canal; A Figura 30A é um diagrama de blocos ilustrando o Treinamento em Tandem da Figura 23A e 23B com a adição de atenuação de canal; A Figura 30B é um diagrama de blocos ilustrando o Treinamento em Tandem da Figura 23A e 23B com a adição de atenuação de canal; A Figura 30C é um diagrama de blocos ilustrando o Treinamento em Tandem da Figura 23A e 23B com a adição de atenuação de canal; A Figura 31A é um diagrama de blocos retratando uma transmissão com atenuação de canal durante a qual o MPA continua executando; A Figura 31B é um diagrama de blocos retratando uma transmissão com atenuação de canal durante a qual o MPA continua executando; A Figura 31C é um diagrama de blocos retratando uma transmissão com atenuação de canal durante a qual o MPA continua executando; A Figura 32 é um diagrama de blocos ilustrando as iterações do MPA com atenuação de canal variável no tempo durante a transmissão; A Figura 33 é um gráfico mostrando as simulações de um 64QAM atenuado, com incerteza, codificado com taxa de 1/3; A Figura 34 é um diagrama de blocos retratando um exemplo de configuração de Feixes em Chip; A Figura 35 é um diagrama de blocos retratando uma estação base enviando uma rede neural de decodificador g () pré-treinada e armazenada para o receptor em termos da posição do terminal; A Figura 36A é um diagrama de blocos retratando a transmissão por um sistema OFDM para atingir alta taxa de transmissão; A Figura 36B é um diagrama de blocos retratando a transmissão por um sistema OFDM para atingir alta taxa de transmissão; A Figura 37A é um diagrama de blocos retratando treinamento com retransmissão de informações incrementais; A Figura 37B é um diagrama de blocos retratando treinamento com retransmissão de informações incrementais; A Figura 37C é um diagrama de blocos retratando treinamento com retransmissão de informações incrementais; A Figura 38 é um gráfico mostrando simulações do ganho de codificação (Eb/No) com retransmissão de informações incrementais; A Figura 39 mostra um exemplo de uma rede para implementar uma ou mais modalidades da divulgação; A Figura 40A é um diagrama de blocos de um dispositivo eletrônico de exemplo; e A Figura 40B é um diagrama de blocos de um dispositivo eletrônico de exemplo.
DESCRIÇÃO DETALHADA
[020] A aplicabilidade de um sistema que usa um número muito grande de antenas é baseada na Lei dos Grandes Números (LLN): mesmo que um feixe atenuado seja bastante fraco, centenas ou milhares deles podem se acumular até uma energia de sinal forte o suficiente para atingir o nível de sensibilidade do receptor. Um exemplo é ilustrado na Figura 1. Em um primeiro exemplo 300, quando há um único feixe a partir de uma antena para um terminal, uma perda de percurso significativa sobre o único feixe de rádio resulta em uma SNR muito baixa no terminal. Em um primeiro exemplo 302, quando há um grande número N de feixes a partir de um arranjo de antenas para um terminal, mesmo que muitos dos feixes sejam fracos devido à perda de percurso, eles podem se acumular para resultar em uma SNR aceitável no terminal. A Figura 2A mostra um exemplo de múltiplos feixes em chip, geralmente indicados em 400. A Figura 2B mostra dois dos chips 400 que são usados em um sistema de 2 feixes em chip de união, geralmente indicado em 402, para entrega de uma sensibilidade de recebimento aceitável. Os dois chips 400 podem estar localizados em uma única estação base ou em estações base cooperantes separadas.
[021] O projeto de tal feixe em chip de alta densidade traz vários desafios importantes de projeto, fabricação e escalonamento. Em primeiro lugar, densidade de potência torna-se tão crítica que a energia de transmissão de cada feixe precisa ser reduzida para contrabalancear o aumento do número de feixes de rádio no chip, porque a energia total desse chip é limitada por tecnologia de semicondutor. Em segundo lugar, roteamento (árvore de relógio, linha de potência) é tão difícil que o sistema precisará tolerar alguns deslocamentos de tempo entre feixes diferentes, devido à limitação da tecnologia de semicondutor. Em terceiro lugar, um algoritmo de escalonamento (controle de potência e avanço de tempo) é necessário para todos os feixes.
[022] Uma capacidade do sistema de formação de feixe massivo é delimitada pela potência de sinal de transmissão igualmente em cada feixe de rádio (Pbeam) e potência de sinal total (Ptotai)• Se o número total de feixes de rádio efetivos for N, então Ptotaí = N • Pbeam.
[023] Em um canal AWGN, essa delimitação de N feixes de rádio de igual potência é o ganho de potência. Por exemplo, N =2 impulsionaria 3dB (=10*log10 (3) na potência de sinal recebida; N = 3 impulsionaria 4,77dB (=10*log10 (3)); N = 100 impulsionaria 20dB; e N = 1000 impulsionaria 30dB. Em aplicações de mmWAVE futuras, há um interesse em aplicações de alta taxa de transferência para que o esquema de modulação de ordem mais alta provavelmente seja usado. Por exemplo, embora um único feixe produza cerca de -5dB de SNR (Pbeam), sistema de formação de feixe de rádio de N = 1000 poderia teoricamente diminuí-lo para 25dB (=-5dB +30dB) de SNR no nível de sensibilidade de receptor, suficiente para este receptor decodificar um símbolo 64QAM. A Figura 3 é um diagrama de blocos retratando uma transmissão de exemplo de um símbolo 64QAM por 1000 feixes usando a configuração de Feixes em Chip da Figura 2^.
[024] No entanto, um ambiente verdadeiro é muito mais complexo do que o AWGN atenuado por igual ideal. Nem todos os feixes estão sujeitos a igual atenuação de canal (distorção), resultando em diferentes incertezas de canal em diferentes percursos. Especialmente na banda de mmWAVE, um feixe sem visada direta (NloS) é normalmente submetido a uma atenuação muito alta (ou seja, o sinal nesse percurso dificilmente atinge o receptor). Mesmo entre os feixes de visada direta (LoS), suas atenuações de canal variam significativamente de um para outro, geralmente em termos de ângulos de transmissão e ângulo de chegada. Adicionalmente, nem todos os feixes atingem seu receptor comum de forma síncrona. Os atrasos resultantes do roteamento dos feixes em chip mais diferentes percursos de rádio seriam diferentes de um percurso (ou feixe) para outro. Em um canal não AWGN, é melhor usar o ganho de combinação de relação máxima (MRC) em vez do ganho de potência para indicar essa delimitação de capacidade de acordo com a teoria da informação. A grosso modo, o sistema deve favorecer os feixes “bons” (menos hostilidades de canal significa que os sinais transmitidos têm mais probabilidade de atingir o receptor) sobre os feixes “ruins” (mais hostilidades de canal significam que os sinais transmitidos têm menos probabilidade de atingir o receptor) ao escalonar N feixes. A Figura 4 é um diagrama de blocos retratando propagação de feixes atenuados de forma desigual de uma configuração de Feixes em Chip da Figura 2B. Claramente, para configurar uma estratégia de MRC, o transmissor (no presente documento a estação base de formação de feixe) precisa estimar a condição de canal em cada feixe antes de fazer a alocação de recurso proporcional.
[025] Como o tamanho de antena está em função do comprimento de onda, o número K de antenas de recebimento não correlacionadas que um terminal pode acomodar (K é a classificação na terminologia sem fio) está relacionado ao comprimento de onda e esse número pode ser aumentado quando o comprimento de onda é reduzido para nível de cm ou de mm em bandas de mmWAVE. Consequentemente, uma estação base de N feixes poderia agrupar seus feixes em N/K grupos, cada um com K feixes. Um grupo tem K feixes não correlacionados, [feixe-1, feixe-2,..., feixe-K], destinados às K antenas de recebimento, respectivamente. Os N/K grupos seriam somados no receptor. A Figura 5 é um diagrama de blocos ilustrando uma configuração de exemplo de um receptor com K = 3 dimensões de recebimento não correlacionadas ou K usos de canal independentes (pode ser tempo, espaço, código e qualquer outro método para um receptor explorar o canal independentemente).
[026] Nesta divulgação, diferentes antenas de recebimento em uma configuração de múltiplas entradas e múltiplas saídas (MIMO) são usadas como um exemplo específico de uso de canal independente (não correlacionado). No entanto, essa abordagem provida também está aberta para qualquer outro uso de canal independente.
[027] Em um método existente empregado em alguns sistemas MIMO, K usos de canal independentes são estimados com medição de canal (Hm-por-n m<n) e por decomposição de valor único (SVD) na matriz de covariância m-por-m (H^HH) do canal estimado. Os K autovalores mais importantes ordenados e determinados através de SVD indicam os graus de importância ou pesos das K classificações ou componentes desse canal. Com base nas qualidades determinadas, esquemas de modulação e codificação (MCS) são selecionados de forma adaptativa para as classificações. Por exemplo, se a classificação 1 for a melhor, uma modulação mais alta e uma taxa de codificação mais alta seriam escolhidas para essa classificação. O desempenho obtido com o uso das K classificações depende da granularidade do MCS. Para um exemplo simplificado de transmissão de 6 bits ao longo de 3 classificações: - Se houver uma classificação após SVD, um símbolo 64QAM é transmitido nessa classificação; - Se houver duas classificações (similares entre si), são transmitidos dois símbolos 8QAM, um sobre cada classificação; - Se houver três níveis (similares entre si), são transmitidos três símbolos QPSK, um sobre cada classificação;
[028] A Figura 6 é um diagrama de blocos ilustrando um exemplo genérico de um sistema MIMO para alocar MCS em termos de classificações.
[029] Este sistema é ineficiente por uma série de razões. Em primeiro lugar, a qualidade das classificações deve ser estimada e rastreada de forma confiável. Uma alta densidade de pilotos é necessária para isso, o que resulta em uma significativa sobrecarga de piloto. Para transmissão de piloto, um transmissor transmite sinais de referência em alguma porcentagem dos recursos totais, e um receptor deve medi-los em cada porta de recebimento e enviar realimentação ao transmissor, como informações de estado de canal (CSI). Em segundo lugar, um grande número de MCSs é definido como MCSs candidatos (milhares de MCSs são definidos em um sistema 5G), o que significa que tanto BTS quanto o eu precisam armazenar essas tabelas, parâmetros e as formas d15uscacá-los. Em terceiro lugar, a sinalização de controle deve ser usada para garantir que o transmissor e o receptor sigam o mesmo arranjo. Tanto o transmissor quanto o receptor devem saber qual MCS está sendo usado em qual classificação. Mais importante, uma vez que as atenuações de canal variam até certo ponto, a qualidade das classificações pode mudar tanto que todo arranjo estabelecido (MCS) se torna obsoleto.
[030] Em mmWAVE, as atenuações sobre os feixes são polarizadas. Mais especificamente, um feixe é criado por um conjunto de antenas. Este conjunto de antenas é configurado para apontar sua energia para uma direção específica, de modo que possa compensar amplamente a perda de percurso nessa direção para formar um forte sinal de transmissão nessa direção. Para recepção, este conjunto de antenas tem o efeito de diminuir a sensibilidade de recebimento também. A operação às vezes é referida como polarização. Feixes de LoS teriam atenuação de perda de percurso sobre o ar em termos de distância; alguns feixes de NLoS estariam sujeitos a severa atenuação; e outros feixes de NLoS podem ser reforçados positivamente por reflexões de metal. De modo geral, um modelo de atenuação (distribuição) é sensível à sua posição geográfica. Pela estatística, o modelo de atenuação em termos de posições no espaço pode se tornar disponível para uma janela de tempo coerente, chamada de tempo coerente. No entanto, quando uma banda de alta frequência é usada para transmissão de sinal, uma pequena mobilidade levaria a graves desvios Doppler e deslocamentos de tempo. Seu tempo de janela coerente é pequeno.
[031] Um número muito grande de feixes pode ser usado para proteger o ganho de codificação dessas hostilidades. Por exemplo, se alguns feixes fossem bloqueados (atenuação infinita, feixe morto), um sistema ajustaria a potência de transmissão entre os feixes “sobreviventes” e os feixes “mortos” para compensar a perda. Como os desvios Doppler e os deslocamentos de tempo dependem dos ângulos da trajetória de movimento, suas hostilidades podem ser compensadas acomodando a potência de transmissão entre os feixes “vantajosos” e “desvantajosos”.
[032] A Figura 7 é um diagrama de blocos retratando como a transmissão de um grande número de feixes pode ser usada para prover tolerância a alguns feixes sendo completamente bloqueados por bloqueadores aleatórios. A Figura 8 é um diagrama de blocos retratando a capacidade de transmissão de um grande número de feixes para tolerar o Efeito Doppler.
[033] O controle de potência e a sincronização entre os N feixes seriam os mais críticos em um cenário de mmWAVE. Mas é extremamente difícil de alcançar. Em primeiro lugar, as atenuações precisam ser conhecidas. Embora o modelo de distribuição estatística da atenuação em função de uma posição espaçosa possa ser conhecido, a própria atenuação é uma variável aleatória. Para capturar a atenuação instantânea, o sistema precisa medir os canais de N/K- por-K, total de N percursos, o que significa um grande número de recursos de referência de enlace descendente (porque um receptor só vê a dimensão K resultante dos N feixes sobrepostos no ar, uma dimensão de recebimento precisa medir os N/K feixes de forma round robin para evitar interferências de piloto.) e uma grande quantidade correspondente de recursos de relatório de enlace ascendente que funcionam como sobrecarga. As Figuras 9A e 9B são diagramas de blocos retratando uma transmissão de Round-Robin para medir coeficientes de canal. No momento de medição t retratado na Figura 9A, apenas os K feixes são permitidos a enviar seus pilotos no enlace descendente. No momento de medição t+1 retratado na Figura 9B, outros K feixes são permitidos a enviar seus pilotos no enlace descendente.
[034] Outro método é baseado na suposição de que os canais de enlace descendente e enlace ascendente são recíprocos. Mas sempre há algum deslocamento entre a reciprocidade na realidade. Em segundo lugar, mesmo que o sistema soubesse perfeitamente, tivesse conhecimento perfeito da atenuação de canal, seria um desafio computar os deslocamentos de potência combinada de relação máxima proporcional (MRC) para N/K feixes em um curto intervalo de tempo.
Ganho de desempenho com extensão dimensional Ganho de Codificação
[035] Em um sistema de comunicação moderno, redundância é amplamente usada para superar atenuação e ruído de canal. Por exemplo, a correção de erro antecipada (FEC) é um tipo de método de dimensão estendida que não apenas injeta alguns bits redundantes, mas também cria alguma dependência entre os bits codificados (da palavra-código). Para outro exemplo, um codificador de MIMO é um método de dimensão estendida que estende vários símbolos complexos em múltiplas dimensões espaciais para obter um ganho de codificação. Em geral, embora uma extensão de dimensão traga um ganho dimensional, tal ganho dimensional deve incluir um ganho de potência, mas pode não resultar necessariamente em qualquer ganho de codificação.
[036] Um ganho de potência é um ganho de combinação de ganho igual (EGC) em um canal AWGN. Em um canal AWGN igualmente atenuado, se um pedaço de informação (um bit ou um símbolo QAM, por exemplo) for repetido (ou combinado linearmente) nas K dimensões, isso naturalmente resultará em um ganho de potência de 10*log10 (K) dB. Como exemplo, um ganho de EGC de transmissões repetidas sobre 3 ganhos de dimensões igualmente atenuadas é igual a 4,77dB (=10*log10 (3)) conforme mostrado na Figura 10.
[037] Um ganho de codificação está além do ganho de EGC. Por exemplo, codificar um símbolo em 3 dimensões para alcançar um ganho de 3 dB além do ganho de ECG permitiria que o transmissor cortasse a potência pela metade ou dobrasse a distância de cobertura. Para demonstrar um ganho de codificação, é melhor medir a taxa de erro de símbolo (SER) em termos de uma relação de energia por Bit (Eb) para a densidade de ruído espectral (No) (Eb/No) em vez de uma relação de energia por símbolo (Es) para a densidade de ruído espectral (Es/No). Um esquema de repetição simples (ou qualquer combinação linear) leva a ganho de codificação zero, conforme mostrado na Figura 11.
[038] Para obter um ganho de codificação, um codificador de canal convencional (FEC) injeta (K-M) bits redundantes para M bits de informações ou estende N (K>M>1) dimensões para K dimensões. Essencialmente, o ganho de codificação é em termos de taxa de codificação: M/K. Uma taxa de codificação mais baixa traz mais ganho de codificação. Quando a dimensão (M = 1) é estendida para as K dimensões, resultando em uma taxa de codificação de 1/K, de acordo com a teoria de codificação, não há ganho de codificação se a dimensão de entrada for um (M = 1) em um canal AWGN igualmente atenuado. Seria vantajoso alcançar um ganho de codificação para tal sistema em um canal AWGN de igual atenuação.
[039] Ao contrário do ganho de MRC, a disponibilidade de ganho de codificação com um canal AWGN é bem compreendida. Se houvesse um ganho de codificação para uma extensão de dimensão 1->K na Figura 12, seria possível obter vantagens no nível de sistema em condições de canal mais complexas.
Ganho de Diversidade
[040] Os bits de entrada para o símbolo 64QAM podem ser transmitidos usando K=3 dimensões, pela transmissão de 3 símbolos QSPK independentes, cada um portando 3 bits. É bem conhecido que uma constelação QPSK é ótima em relação à distância de codificação (distância de Hamming, por exemplo) devido à distância Euclidiana constante entre quaisquer dois pontos vizinhos da constelação e magnitude constante dos pontos de constelação. Existem outras maneiras pelas quais os 6 bits podem ser transmitidos usando K=3 dimensões, e a curva QPSK pode servir como uma delimitação teórica para o ganho potencial de codificação usando K=3 dimensões.
[041] A Figura 13 mostra um espaço de ganho de codificação potencial de ~8dB para usar K=3 dimensões para transmitir 6 bits em comparação com a transmissão de um símbolo 64QAM em uma dimensão. O espaço de ganho de codificação é equivalente a reduzir a potência de transmissão para ~16% ou aumentar a cobertura em ~36 vezes. Note-se que o exemplo de transmissão de 6 bits de um símbolo 64QAM usando três dimensões foi escolhido simplesmente para tornar o exemplo comparável com a constelação QPSK que é comprovada como ótima em um espaço de Hilbert complexo de 2D. No entanto, este não é um caso geral: permanecem não comprovadas e desconhecidas quais são as delimitações teóricas com ordens de modulação mais altas (512-QAM, 1024- QAM ou 4096-QAM etc.) com uma taxa de codificação arbitrária de 1/K. O método provido demonstrou ser a solução ótima para QPSK, 16QAM. O método provido também pode ser aplicado a modulações de ordens mais altas. Especula- se que o método provido, quando aplicado a modulação de ordem mais alta, pode se aproximar de uma solução ótima. Isso contrasta com os esquemas convencionais de modulação de ordens mais altas que foram projetados não para o desempenho ótimo, mas para fácil implementação.
[042] Não é possível garantir que, dada a ordem do modulador e a taxa de codificação arbitrária, isso levaria a log2 (ordem de modulador)/K a ser um número inteiro. No caso de usar 3 símbolos para transmitir 6 bits, isso equivale a uma taxa de código de 1/3, e log2 (64)/3 = 2 (-> QPSK); enquanto que em outro caso de aplicação de taxa de codificação de 1/3 aos bits de entrada (10) de um símbolo 1024-QAM, isso leva a log2 (1024)/3 = 10/3 bits por dimensão, que não é um número inteiro. Na prática, pode haver números variados de dimensões de recebimento K. Por exemplo, é muito provável que apenas 3 antenas de recebimento permaneçam não correlacionadas para um terminal equipado com no máximo 4 antenas de recebimento. Na realidade, o número de canais não correlacionados disponíveis em uma determinada instância é uma função das condições ambientais e não é prontamente controlável de maneira precisa.
[043] Seria vantajoso alcançar um ganho de diversidade ou ganho de MRC em uma condição de canal de múltiplos percursos. K dimensões não correlacionadas podem estar sujeitas a K atenuações independentes e diferentes. Suponha que o transmissor divida os 6 bits de um símbolo 64QAM em 3 conjuntos de 2 bits para transmissão em 3 símbolos QPSK e os envie através de 3 dimensões não correlacionadas, respectivamente. Se uma das três dimensões sofrer uma atenuação negativa severa (enfraquecida) e as outras duas dimensões forem reforçadas, o símbolo QPSK da dimensão enfraquecida pode ser perdido, impossibilitando a recuperação do símbolo 64QAM original. Em contraste, se um símbolo 64QAM foi codificado nas 3 dimensões de alguma forma, o receptor pode recuperar este símbolo 64QAM principalmente das duas dimensões restantes reforçadas pelo canal de rádio, conforme mostrado na Figura 14. Isso é ganho de diversidade ou ganho de MRC.
Retransmissão de Redundância Incremental
[044] Em um sistema sem fio, IR-HARQ tem sido amplamente usado com o código de canal para aumentar a confiabilidade (ou ampliar a cobertura) ao custo da taxa de transferência média. Alguns códigos de canal como códigos Turbo, códigos de convolução e de verificação de paridade de baixa densidade (LDPC) permitem que o transmissor transmita uma palavra-código parcial (bloco codificado) para um receptor em um intervalo de transmissão. Se a condição atual do canal for boa o suficiente, um receptor pode ser capaz de recuperar todo o bloco de informações, mesmo a partir desta palavra-código parcial; caso contrário, o receptor pode enviar uma realimentação ao transmissor para uma retransmissão. Em vez de retransmitir o que foi transmitido anteriormente (retransmissão do tipo chase-combination), o transmissor transmitiria uma parte redundante incremental da palavra-código para que o receptor combinasse a parte redundante incremental com a recebida anteriormente em uma palavra- código mais longa para seu decodificador de canal. Desta forma, ganho de codificação adicional pode ser obtido além do ganho de potência pura (repetição).
[045] IR-HARQ é um método oportunista que é sensível às condições de canal variáveis no tempo (às vezes uso de canal exibe uma condição positiva, às vezes mostra uma condição negativa). Se a primeira transmissão ocorrer com condição positiva, o recurso de retransmissão é salvo. Além disso, em algumas aplicações de latência crítica e confiabilidade crítica, como comunicações ultraconfiáveis de baixa latência (URLLC), um transmissor tende a fazer uma retransmissão cega em vez de esperar pela realimentação, porque um ciclo de realimentação pode ser muito longo para suas exigências de latência. Em ambos os cenários, as informações mais essenciais ou úteis devem ser incluídas na (s) retransmissão (ões) incremental (is) para produzir um ganho de codificação.
[046] Até agora, a retransmissão baseada em redundância incremental é feita apenas com alguns esquemas de código de canal, por exemplo, esquemas que usam códigos de canal específicos, como Turbo, de convolução e de verificação de paridade de baixa densidade (LDPC). Nenhum outro algoritmo baseado em extensão dimensional, como MIMO, código de espalhamento, relatou retransmissão similar (a maioria deles suporta apenas chasecombination, ou seja, ganho de potência).
[047] Com o desenvolvimento do sistema 5G, houve um aumento no número de dimensões de uso de canal, como frequência (subportadora, bandas diferentes), espaço (MIMO, conectividade dupla), tempo e código (códigos PN, códigos pseudoaleatórios). Um bom sistema deve ser capaz de integrar múltiplas dimensões disponíveis para entregar um ganho de sistema geral que seja eficiente em termos de uso dos recursos disponíveis. Entre as fontes de ganho de sistema, o ganho de codificação é o mais procurado em termos de seu efeito na eficiência de espectro de sistema.
[048] No entanto, uma das razões pelas quais apenas alguns esquemas de código de canal poderiam alcançar a retransmissão de redundância incremental (IR) com algum ganho de codificação é devido às ortonormalidades dessas dimensões. Tal esquema de código de canal suportado por IR se beneficia de sua suposição de que M bits de informações são independentes e identicamente distribuídos (IID) e K bits codificados estão sujeitos a ruído AWGN. Em outras palavras, a entrada é uma entidade ortonormal de dimensão M e a saída também é uma entidade ortonormal de dimensão K. Na verdade, normalmente são feitos esforços para “manter” esse ambiente ideal para um código de canal através do uso de pilotos, estimativa de canal e equalização. Infelizmente, este NÃO é o caso para a maioria dos algoritmos de extensão dimensional, pois ortonormalidades na entrada e na saída não podem ser garantidas o tempo todo. Por exemplo, não é possível garantir que as duas antenas permaneçam não correlacionadas o tempo todo. Em outro exemplo, duas subportadoras podem ser submetidas a atenuações de canal muito diferentes em um canal seletivo de frequência devido ao desvanecimento de múltiplos percursos ou efeito Doppler.
[049] Diante dessas dificuldades, a maioria dos sistemas da técnica anterior recorre a esquemas de combinação de relação máxima (MRC) para superar as diversidades passivamente. Embora um receptor baseado em MRC possa obter um ganho de MRC em alguns casos devido à transmissão de diversidade, o ganho não pode ser garantido o tempo todo.
Aprendizado de máquina
[050] Foi sugerido o uso de técnicas de aprendizado de máquina para resolver os dois problemas acima e criar um esquema de codificação para codificar M símbolos QAM legados para K dimensões pelos N/K feixes de rádio de potência controlada. A proposta mais direta é usar um Autocodificador, em que a entrada são M símbolos QAM, a saída são símbolos QAM decodificados, existe uma camada latente com K dimensões, a atenuação é modelada por multiplicadores nesta camada latente de dimensão K, e ruído AWGN é adicionado a esta camada latente de dimensão K. A perda ou alvo deste Autocodificador é minimizar o erro quadrado (MSE) entre a entrada e a saída.
[051] Um problema com esta solução é que a rede neural de decodificação (após a camada latente de dimensão K) tentará maximizar matematicamente a probabilidade de verossimilhança dependente da camada latente de dimensão K. No entanto, essa camada latente de dimensão K está sujeita a ruídos e atenuações variáveis. Com SNR e atenuações variáveis, a propriedade estatística da camada latente de dimensão K muda, de modo que a rede neural de decodificação precisa ser retreinada. Na prática, é impraticável retreinar uma rede neural profunda completa em situações em que SNR ou atenuação varia com o tempo.
[052] Outra questão é que, para ter N feixes, a arquitetura de autocodificador incluiria uma camada de N neurônios logo antes de uma camada de K neurônios (N>>>K) e as conexões entre as duas camadas são multiplicadas pelos coeficientes de atenuação dados e adicionadas por ruído aleatório. Em tal rede neural profunda, o treinamento tenderia a “desligar” a maioria dos feixes e “concentrar” a potência de transmissão de Ptotal em muitos poucos restantes, o que não é um resultado desejado, porque isso exigiria que cada feixe fosse projetado para ter uma potência máxima de transmissão muito maior, o que resulta em um custo mais alto e tamanho de pastilha de chip maior.
[053] Uma das principais razões pelas quais as redes neurais de aprendizado profundo são difíceis de aplicar em aplicações de telecomunicações sem fio é que a rede neural de aprendizado profundo é uma função não linear. Em comparação com as funções lineares tradicionais (a maioria dos algoritmos de processamento de sinal sem fio é linear ou quase linear), uma função não linear tem uma tendência de over-fitting, de modo que sua generalização é severamente limitada.
[054] Outro problema resulta da presença de atenuações de canal variáveis em sistemas sem fio. Um canal de rádio varia com o tempo, é seletivo em frequência e desvanece. Sua existência torna a propriedade estatística do sinal recebido (sinal transmitido distorcido por canal) variável no tempo e também seletiva em frequência. Os neurônios da rede neural profunda precisam ser sintonizados para se adaptarem às atenuações variáveis e seletivas de canal, muitas vezes levando a um retreinamento completo.
Modalidade 1 Modelo de N feixes para K sistema de recebimento
[055] Com referência agora à Figura 15, é mostrado um modelo de um cenário de transceptor. Um transmissor de dimensão N envia uma amostra específica "a" 1504, amostrada usando o método de amostragem F 1502 a partir de uma variedade A (uma distribuição de probabilidade) 1500 sobre um espaço de Hilbert rç através de um ambiente hostil, e um receptor de dimensão K incluindo estimativas de decodificador 1550 que amostram “a” a partir dos sinais recebidos distorcidos e ruidosos. O transmissor codifica a amostra com o codificador 1506 para produzir K x N/K saídas (isto é, N/K vetores de dimensão K), em que N é a dimensionalidade do transmissor e K é a dimensionalidade do receptor (isto é, esses N/K vetores de dimensão K são acumulados em um vetor de dimensão K para o receptor). Em um exemplo específico, as N dimensões de transmissão são alcançadas com N feixes de transmissão de N elementos de antena de transmissão e as K dimensões de recebimento são alcançadas com K elementos de antena de recebimento.
[056] Mais especificamente, o transmissor amostra a partir da variedade A para obter o símbolo a usando o método de amostragem F 1502 e codifica o símbolo a com o codificador 1506 no vetor, em que f (■) é o codificador de transmissor desconhecido para o receptor. O vetor [s1, s2, ...,sN] é transmitido por N percursos de transmissão, somados naturalmente no ar, e resulta no vetor recebido a 1520 no receptor. O receptor usa o decodificador g (■) 1550 para decodificar os sinais recebidos para produzir:
[057] A topologia incluindo o espaço rç, variedade A e método de amostragem F são especificados e padronizados e conhecidos tanto pelo transmissor quanto pelo receptor.
[058] O transmissor tem N dimensões de transmissão independentes ou não correlacionadas cada uma das quais transmite uma onda senoidal, representada por um valor complexo. OS N componentes de são agrupados em N/K grupos:. Cada grupo tem K componentes: e é destinado para as K dimensões de recebimento não correlacionadas de um receptor. Sem perda de generalidade, uma dimensão de transmissão sí(1 representa uma conexão a partir do i-esimo grupo de transmissão para a 1- porta de recebimento; si2 representa uma conexão a partir do i-esimo grupo de transmissão para a 2^ porta de recebimento, e assim por diante. Por exemplo, a Figura 15 mostra $1 transmitida em uma primeira K dimensão de transmissão em 1510.
[059] Existe um total de N conexões que conectam as N dimensões de transmissão às K dimensões de recebimento. Cada conexão tem seus próprios coeficientes de atenuação, cada um dos quais e representado por um valor complexo (I,Q), e sua amplitude (I2+Q2) representa a atenuação de potência e o ângulo (produto interno <I,Q>) representa o deslocamento de fase, ou seja, deslocamento de tempo. Seguindo o agrupamento de pode ser agrupado em N/K grupos, cada um dos quais possui K elementos complexos: . As atenuações são geralmente indicadas em 1512 na Figura 15.
[060] Da mesma forma, cada conexão possui um coeficiente de controle de potência normalizado (valor real)para evitar saturação de potência de transmissão. Seguindo o agrupamento de pode ser agrupado em N/K grupos, cada um dos quais possui K elementos reais: Para evitar concentração excessiva de potência, limitamos: , o que implica que a potência total seja menor que N/K, ou seja,. A potência total máxima de um grupo e N/K para garantir nenhum dano devido ao excesso de concentração de energia. Os coeficientes de controle de potência são aplicados em 1514 na Figura 15. A saída de controle de potência 1514 e o que e transmitido pelo ar.
[061] Na k-ésima dimensão de recebimento, as N/K conexões são somadas no ar: Para o receptor, recebe um vetor complexo de K elementos , cada um dos quais transmite uma onda senoidal, representada por um complexo (I,Q): é multiplicação elemento a elemento.
[062] Um ruído AWGN n é adicionado em . A adição de ruído é indicada em 1516 na Figura 15.
[063] Note que se K=1, o modelo é reduzido para N dimensões de transmissão independentes para 1 dimensão de recebimento. Nesse caso, não há mais ganho de codificação, mas ainda pode haver ganho de potência.
[064] Um exemplo específico do modelo da Figura 15 será agora descrito com referência à Figura 16. Neste exemplo, o espaço de Hilbert rç é um espaço bidimensional com partes reais e imaginárias. A constelação 64-QAM é uma variedade padronizada A que define posições de probabilidade diferente de zero (chamadas de suporte) neste rç. Codificação de Gray F é um método para amostrar essa variedade, garantindo que cada ponto de constelação seja amostrado com uma probabilidade igual, ou seja, 1/64. Quando amostrado, um símbolo 64-QAM a= (aI, aQ) (porque amostrado a partir do espaço bidimensional rç) é codificado. O transmissor neste exemplo tem 768 feixes independentes. O receptor possui 3 (K=3) antenas de recebimento independentes de forma que os 768 feixes são agrupados em 256 grupos (cada grupo possui 3 feixes). Um grupo dos 3 feixes é direcionado para as 3 portas de antena de recebimento respectivamente e em paralelo. Como existem 256 grupos, a perda de percurso significativa para um único grupo pode ser compensada (melhoria de 256 -> 24dB de SNR nesta antena de recebimento).Como resultado, o receptor possuie usa um decodificador g () para estimar o símbolo: Este exemplo é usado na descrição abaixo, mas deve ser entendido que os sistemas e métodos providos são válidos para qualquer espaço de Hilbert, variedade e método de amostragem.
Problema de ganho de codificação
[065] Com a finalidade de encontrar f (■) e g (■), os coeficientes de atenuação de canal são fixos (por exemplo, definire o controle de potência é fixo (por exemplo, fixando . O problema se reduz a: . Dado um rç, A e F, bem como N e K, encontre f (■) e g (■) para entregar o ganho de codificação máximo.
[066] Usando o exemplo anterior da Figura 16, um transmissor gostaria de transmitir um símbolo 64QAM para um receptor. Ele sabe que o receptor possui 3 antenas de recebimento independentes. O transmissor tem um número muito grande de feixes disponíveis para esta transmissão. Sabe-se que a repetição ou outra expansão linear de 1 símbolo para 3 em N feixes traria não mais do que ganho de potência (EGC) em um canal AWGN igualmente atenuado. Seria desejável encontrar um esquema de codificação de nível de símbolo que pudesse atingir ganho de codificação máximo além do ganho EGC em um canal AWGN de dimensão K de igual atenuação.
Problema de controle de potência
[067] Outro problema diz respeito à definição do controle de potência em N feixes em um contexto onde existem atenuações e deslocamentos de tempo variáveis. Uma atenuação (h) sobre um feixe é composta de três componentes: incerteza estática (hs), incerteza dinâmica (Δhd) e incerteza de incompatibilidade (Δ'hm): h = hs+ Δhd+ Δ'hm. O componente estático tem uma forte correlação com a posição espacial de um terminal e características de entorno, por exemplo, edifícios, árvores, montanhas, alguns fatores ambientais de fixação. Δhd é principalmente devido aos eventos aleatórios, como mobilidade e bloqueio, um jitter aleatório sobre hs. Δ'hm é uma incerteza de medição inevitável, um jitter aleatório sobre Δhd. Pode-se supor que os jitters Δhd e Δ'hm são menos significativos que hs. Controle de potência dinâmico sobre N feixes pode ser usado para compensar as incertezas de atenuação variáveis. Os controles de potência podem ser rastreados e adaptados, mas com ganho de codificação significativo. O modelo do problema é:ou sejaé multiplicador elemento a elemento).
[068] Uma solução geral endereça tanto o problema de codificação quanto o problema de controle de potência, e pode ser dividida nas subtarefas: Primeira tarefa: Dado um rç, A, F, N, K e atenuação estática encontre um codec, f (■) e g (■) para entregar o máximo ganho de codificação e encontre um controle de potência [CI, c2, ..., CN] para compensar a atenuação estática. Segunda tarefa: Dada uma atenuação variável no tempo ajuste dinamicamente o controle de potência para compensar a atenuação dinâmica sem alterar g (■).
[069] É importante manter o mesmo decodificador g (■) para a atenuação de canal variável no tempo e SNR para alta taxa de transferência e latência curta.
[070] Continuando com o exemplo anterior, uma estação base gostaria de transmitir um símbolo 64QAM para um receptor. Ela sabe que o receptor tem 3 antenas de recebimento que pode aproveitar. A estação base tem um número muito grande N de feixes disponíveis para esta transmissão. As atenuações de canal sobre os N feixes não são iguais e são variáveis aleatórias variáveis no tempo. A estação base pode estimar as distribuições das atenuações de canal; a visão convencional seria que isso só seria possível transmitindo pilotos. No entanto, isso exigiria um grande número de pilotos em um sistema com grande dimensionalidade. Seria vantajoso evitar a transmissão de um grande número de pilotos.
[071] Um terceiro problema diz respeito a como obter o codec, f (■) e g (■) e controle de potênciaem termos de atenuação de canal variável no tempo e dados rç, A, F, N, K e atenuação estática Técnicas de aprendizado de máquina podem ser usadas, mas algoritmos de retropropagação demorados são impraticáveis para comunicação em tempo real em aplicações de mmWAVE.
[072] Outro problema com o exemplo descrito acima é que os receptores de destino precisam ser atualizados e não há uma maneira prática e eficiente de fazer isso. Isso envolve a transmissão dos novos coeficientes de g () para os receptores novamente, o que consome recursos de rádio significativos.
Decompositor e Recompositor
[073] Para investigar o problema de ganho de codificação puro, uma condição de canal AWGN de dimensão K igualmente atenuada é considerada em primeiro lugar, ou seja, atenuação de canalcomo uma constante 1+0j. Ruído AWGN é adicionado no .
[074] Para fins de comparação e implementação prática, rk é normalizado como:, para garantir que a energia média de, de modo que a energia média de seja 1 (=1/K *K).
[075] Com referência agora à Figura 17, o codificador f (•) e os N feixes podem ser vistos como um codificador de caixa preta 1700; este codificador de caixa preta insere um símbolo a e emite um vetor complexo de K elementos com uma energia media de 1. Após ser combinado com o ruído branco n em termos de Es/N0, é emitido para o decodificador g (■). A partir desta perspectiva, um símbolo a é codificado em Kuk. Seguindo o exemplo detalhado anterior, um símbolo 64QAM pode ser codificado em 3 símbolos complexos. Também é mostrado o decodificador de caixa preta 1702.
[076] Em alguns sistemas da técnica anterior (como aqueles que usam pré-codificação MIMO), em que w é a matriz de codificador K por 1. Em uma condição de canal AWGN, esta combinação linear não tem ganho de codificação, mas entrega um ganho de potência (EGC) (10*log10 (K) dB). Um ganho de codificação existe quando um conjunto de símbolos é codificado em um conjunto de valores complexos de 2K. Este é um esquema de codificação de canal. No entanto, o foco no presente documento está na codificação de um símbolo sobre múltiplas dimensões.
[077] Com referência agora à Figura 18, o "codificador" de caixa preta da Figura 17 é dividido em três estágios: decompositor não linear 1800, codificador linear 1802 e (re)compositor linear 1804, com base em duas noções:o símbolo a é considerado como uma portadora de informações e não as próprias informações. Nas abordagens da técnica anterior, o transceptor usa todos os meios para maximizar a potência de sinal recebida do símbolo a. Como resultado, o transceptor tradicional tem ganho de potência. No entanto, no sistema descrito no presente documento, o foco é orientado para as informações, em que a ênfase é colocada nas informações portadas pelo símbolo a no lado do receptor, porque o decodificador g () pode fazer a decodificação. de elemento K é visto como uma entidade atômica de dimensão K, em vez de um vetor divisível composto pelos K elementos complexos. Nos sistemas da técnica anterior, um decodificador é um redutor de redundância que recupera ou deduz o símbolo a a partir de .
[078] Com base nas duas noções, o codificador f (■) é um decompositor que extrai N/K atributosde um símbolo a. Cada atributo é uma entidade complexa de dimensão L:. A função f (■) é uma função não linear implementada por um bloco de aprendizado de máquina. Em um exemplo específico, o bloco de aprendizado de máquina é uma rede neural profunda com kernels específicos e ativação não linear como ReLU, Sigmoid e assim por diante. O bloco de aprendizado de máquina, por exemplo, rede neural profunda, f (■) está aberto para implementações individuais, dado diferentes rç (Espaço de Hilbert), A (variedade) e F (método de amostragem), N (número de dimensões de transmissão não correlacionadas) e K (número de dimensões de recebimento não correlacionadas).
[079] Após o codificador f () decompor um símbolo a em N/K entidades de dimensão L, cada entidade é codificada por seu próprio código linear independentemente (em paralelo):em que wL é uma matriz complexa L por K e bLé uma matriz complexa 1 por K. O resultado é uma entidade complexa de dimensão K: No total, temos N/K entidades complexas de dimensão K:
[080] Um transmissor de N feixes recompõe N/K entidades complexas de dimensão K em umasimplesmente por um somatório:
[081] Após o normalizado e ruído adicionado, o unitário é inserido no decodificador g (■) para estimar a. O g (■) é um bloco de aprendizado de máquina, como uma rede neural profunda com kernels específicos e ativação não linear como ReLU, Sigmoid e assim por diante. O bloco de aprendizado de máquina g (■) está aberto para implementação individual, dados diferentes rç (Espaço de Hilbert), A (variedade) e F (método de amostra), N (número de dimensões de transmissão não correlacionadas) e K (número de dimensões de recebimento não correlacionadas). Na Figura 18, o procedimento geral no canal AWGN é:
[082] O procedimento geral pode ser visto como uma rede neural profunda completa 1900, conforme retratado na Figura 19. As amostras de entrada a são amostradas a partir de um determinado rç (Espaço de Hilbert), A (variedade) e F (método de amostra), N (número de dimensões de transmissão não correlacionadas) e K (número de dimensões de recebimento não correlacionadas). O codificador f (■) e o decodificador g (■) são as camadas não lineares dessa rede neural profunda.são camadas lineares dessa rede neural profunda. A perda ou recompensa de treinamento é para minimizar o erro quadrado (MSE): . A rede neural é f.g.w.b diferenciável. Nesta modalidade, retropropagação por gradiente descendente é usada para sintonizar as camadas f (■), camadas g (■), wL camada e camada para se aproximarem do ponto ótimo de MSE.
[083] Uma vez que f (■) e g (■) são camadas de rede neural não lineares wL e são camadas lineares, esta rede neural profunda é uma arquitetura de rede neural híbrida linear/não linear, diferente das redes neurais profundas não lineares tradicionais. As camadas lineares (wL e são usadas para auxiliar f (■) e g (■) a serem mais tolerantes a variações nas condições de canal e nos níveis de ruído.
Modalidade 2 - Ponderando as Saídas
[084] Nesta modalidade, são providas várias abordagens para ponderar as saídas do codificador linear, com o objetivo de aumentar a quantidade de informações úteis transmitidas ao receptor.
[085] Com referência, novamente, à Figura 18, no conjunto dos N/K atributos decompostosnem todos ut são igualmente importantes. Alguns atributos seriam mais importantes que outros no sentido de que portam mais informações essenciais que outros para que o receptor g () recupere as informações transmitidas. A distribuição da importância depende dos dados rç (Espaço de Hilbert), A (variedade) e F (método de amostragem), N (número de dimensões de transmissão não correlacionadas) e K (número de dimensões de recebimento não correlacionadas). É difícil separar os atributos mais importantes.
[086] Na modalidade descrita acima, a convergência éo que implica que os atributos estão sendo combinados de maneira igual ou igualmente importante. Em outra modalidade, o sistema é modificado de modo a permitir que menos ênfase seja colocada nesses atributos menos importantes e mais ênfase seja colocada nos atributos mais importantes.
[087] Para esta modalidade, um vetor de controle de potência adicionalé introduzido e, em uma modalidade especifica, isso é simplificado para incluir um fator de controle de potência (valor real) por atributo: . Quando o vetor de controle de potência tem um valor maior para um dado atributo, relativamente mais ênfase é colocada nesse atributo, enquanto que quando o vetor de controle de potência tem um valor menor para um determinado atributo, relativamente menos ênfase é colocada nesse atributo. Então a convergência torna -se N/K.
[088] Um exemplo de implementação é mostrado na Figura 20, que é igual à Figura 18, exceto que enquanto na Figura 18 o compositor linear não aplicou nenhuma ponderação, de modo que a função composta era a soma das entradas, na Figura 20, o conjunto de pesos a partir do vetor de controle de potência:é aplicado às saídas do codificador linear 1802.
[089] Portanto, na Figura 20, o procedimento geral pode ser resumido por:
[090] O objetivo é determinarcom f,g,w,b,c uma restrição de treinamento.
[091] Quão bem o controle de potência funciona depende principalmente dos dados rç (espaço de Hilbert), A (variedade) e F (método de amostragem). Se as amostras se concentrassem em uma área do espaçoseria relativamente estático e fácil de ser treinado. Se as amostras se dispersassem em uma área “mais ampla” do espaço seria dinâmico, levando a dificuldade ou maior tempo de treinamento.
[092] No sistema sem fio, é melhor que as amostras sejam amplamente dispersivas; uma distância média maior entre as amostras funciona melhor contra o ruído. A distribuição da importância de atributo pode variar drasticamente de uma amostra (símbolo) para outra.
Terceira Modalidade - Usuário Virtual
[093] De acordo com outra modalidade, o sistema é adicionalmente modificado para implementar um usuário virtual de modo que, em efeito, em vez de direcionar toda a saída para um único receptor, as saídas de codificação linear sz são separadas entre um usuário verdadeiro e o usuário virtual usando diferentes vetores de controle de potência para o usuário verdadeiro e o usuário virtual. O sistema é treinado para direcionar os atributos mais importantes (também referidos no presente documento como informações “úteis”) para o usuário verdadeiro e os atributos menos importantes (também referidos no presente documento como informações “inúteis”) para o usuário virtual, definindo apropriadamente os dois vetores de controle de potência.
[094] Saídas de codificador ponderadas são enviadas para o usuário verdadeiro e saídas de codificador ponderadas são enviadas para o usuário “virtual”. Os dois usuários compartilham a potência: porta informações mais importantes sobre o símbolo a, então aL > βL; caso contrário, aL < βi. O vetor de controle de potência original no caso pode ser definido como . Cada $j tem duas conexões: uma conexão com o usuário verdadeiro com um fator real de controle de potência aL e outra com o usuário virtual com um fator real de controle de potência 1 — aL. Com esta definição do vetor de controle de potência original, é satisfeita.
[095] O sistema geral pode ser resumido da seguinte forma:
[096] As Figuras 21A e 21B juntas são um diagrama de blocos desse sistema. As Figuras 21A e 21B são estreitamente baseadas na Figura 20, mas no lugar do bloco de controle de potência 2004, há um bloco de controle de potência 2104 que aplica os pesos aL às saídas do codificador linear 1802 para produzir as saídas direcionadas ao usuário verdadeiro, e aplica os pesos βL às saídas do codificador linear 1802 para produzir as saídas direcionadas ao usuário virtual.
[097] Note que as saídas para o usuário virtual não são de fato transmitidas. O usuário virtual é construído para auxiliar na otimização e treinamento.
[098] Tendo construído tal sistema, o objetivo é treinar o sistema para determinarcom uma restrição de f,g,w,b,a treinamento aL < 1. Se retropropagação por gradiente descendente tradicional for empregada, NÃO está incorporado no treinamento.
[099] De acordo com uma modalidade da divulgação, o treinamento é composto por dois subtreinamentos:Retropropagação por gradiente descendente para,algoritmo de passagem de mensagem para aL. Para atender aL + βL = 1, use -se a seguinte função softmax: em que é a distância métrica entre e é a distância entre
[100] Para minimizar a distância métrica média entre a distância é definida como o produto interno entre O seguinte é um exemplo de um algoritmo de passagem de mensagem (MPA) que pode ser usado para determinar os pesos:
[101] Isso é retratado graficamente na Figura 22. A parte de topo da Figura 22 mostra uma iteração de N/K nós sf para dois nós r (verdadeiro e virtual). Em cada nó S, existem duas entradas. Cada nó computa os pesos de potência e, em seguida, transmite para o usuário verdadeiro e para o usuário virtual. Note que todos os N/K nós fazem a mesma coisa. No entanto, seus pesos aL são diferentes, porque si são diferentes. A parte de fundo da Figura 22 mostra uma iteração dos dois r nós (verdadeiro e virtual) para os N/K nós si. O r nó verdadeiro soma todos os partir dos N/K nós , e transmite de volta para todos os N/K nós . O r nó virtual soma todos os a partir dos N/K nós , e transmite de volta para todos os N/K nós . Agora, todos os N/K nós pegam o atualizados e, em seguida, todo o processo é repetido para múltiplas iterações.
[102] Este é um algoritmo de passagem de mensagem típico. Em uma iteração, (3) é computado para todos os grupos em paralelo no lado de transmissão. Em seguida, cada transmissão ajustaria a potência em termos de aL e (1 — aL) atualizados e em seguida atualiza. Na próxima iteração, atualizados seriam usados para atualizar todos os aL por (3). Após r iterações, o a.L resultante é o fator de controle de potência.
[103] Este algoritmo de passagem de mensagem é diferenciável (devido à função softmax empara que possa ser incorporado à rede neural profunda:
[104] O objetivo é determinar
[105] Para a retropropagação por gradiente descendente, [a1, a2,... MN/K] são constantes. MPA treina [a1, a2,... MN/K] enquanto tratacomo constantes. As metodologias de treinamento em tandem estão retratadas nas Figuras 23A e 23B, que mostram o treinamento de retropropagação e o treinamento de MPA.
[106] As camadas treinadas através de retropropagação assumem valores fixos/congelados para as camadas de controle de potência ([a1, a2,... aN/K ]), e as camadas ([«1, a2,... aN/K ]) treinadas através de MPA (controle de potência) assumem valores fixos para as camadas treinadas através de retropropagação. Em algumas modalidades, ao transmitir, as camadas de controle de potência são mantidas sintonizadas continuamente, enquanto as camadas treinadas através de retropropagação são congeladas, conforme representado nas Figuras 24A e 24B.
[107] Com referência, novamente, ao exemplo introduzido anteriormente que codifica um símbolo 64QAM em 3 dimensões no canal AWGN, em uma implementação particular, o transmissor executa o algoritmo de passagem de mensagem sobre 100 símbolos 64QAM com 3 iterações. A fim de demonstrar o ganho de codificação, a taxa de erro de símbolo versus Eb/N0 é determinada e plotada na Figura 25. Há um ganho de codificação de ~8dB além do ganho de potência. Na Figura 25, a curva está bem próxima da delimitação teórica em uma ampla faixa de SNR sem piso de erro, embora para o exemplo tenha sido treinada um Es/N0 fixo de 10dB.
[108] Pode-se ver que o sistema geral não sofre do problema de generalização que existe para a abordagem de autocodificador convencional. Se houver 3 classificações de igual qualidade para 6 bits, então o sistema produzirá 3 símbolos QPSK. Sem intervir e alterar o decodificador g (), o sistema pode se aproximar da solução ótima em uma ampla faixa de SNR.
[109] O exemplo mostra que essa arquitetura de rede neural profunda permite aproximar-se da delimitação teórica, dado o número de bits a serem transmitidos e o número de classificações igualmente importantes disponíveis. Na prática, o número de bits a serem transmitidos pode ser 5,7, ou outros valores, e principalmente não precisa ser uma potência de 2. E o número das classificações é arbitrário. Por exemplo, no caso de 7 bits em 5 classificações, não há delimitação heurística da maneira convencional. A rede neural profunda se aproximaria da solução ótima.
Modalidade 4 - Aplicações de canal de múltiplos percursos Descrição detalhada de Modalidade 3
[110] Embora haja alguma utilidade em ter um ganho de codificação sobre um canal AWGN igualmente atenuado (K classificações de qualidade igual), transmissão de múltiplas classificações fazem mais sentido quando as qualidades das classificações são diferentes. Nas abordagens da técnica anterior, as qualidades das K classificações devem ser estimadas por SVD e classificadas; em termos de qualidades, um símbolo é separado em K formas proporcionalmente. Esse mecanismo envolve sobrecarga significativa (piloto, mensagens de controle e primitivo) e um grande conjunto de candidatos padronizados. É assim que alguns sistemas MIMO atuais são projetados: Etapa 1: um transmissor transmite vários sinais de referência sobre diferentes percursos; Etapa 2: um receptor mede a condição de canal sobre os diferentes percursos e os combina em um indicador de qualidade de canal (CQI); Etapa 3: um receptor transmite os CQIs de volta ao transmissor; Etapa 4, o transmissor executa o SVD para encontrar os autovalores e autovetores a partir dos CQIs; Etapa 5, o transmissor classifica os autovalores do maior para o menor e elimina alguns autovalores muito pequenos. De acordo com os autovalores (qualidade da classificação), ele aloca o esquema de modulação e codificação. Etapa 6, o transmissor transmite o MCS para cada classificação e a matriz de decodificação (autovetores) para o receptor.
[111] Em um cenário de aplicação de mmWAVE, um canal AWGN é uma simplificação exagerada; um canal de desvanecimento de múltiplos percursos, ou seja, canais de desvanecimento variáveis no tempo e de frequência seletiva, pode ser usado em vez disso, o que introduz complexidade adicional. Na prática, os N feixes atingem as K antenas de recebimento independentemente e seus sinais recebidos são somados ou interferidos. Os feixes podem estar correlacionados de alguma forma. Cada feixe tem uma atenuação de desvanecimento diferente, seletiva de frequência e variável no tempo. A seletividade se deve a múltiplos percursos sobre um feixe, que é determinado principalmente pelo entorno físico. Durante algum período de comunicação sem fio, a atenuação devido à seletividade pode ser vista como sendo estática: hs. A atenuação variável no tempo é devida à mobilidade, não apenas do terminal móvel, mas também dos bloqueios móveis próximos. A atenuação variável no tempo pode ser considerada como jitter sobre a atenuação estática: Δhd (t), que pode ser medida e estimada. Além disso, a atenuação de canal variável no tempo nunca é estimada com precisão, causando uma inevitável incompatibilidade de estimativa. Ou a atenuação de canal variável no tempo ficará desatualizada após algum tempo, causando outra inevitável incompatibilidade desatualizada. Esta incompatibilidade pode ser considerada como jitter sobre Δd m (t): Δ'd m (t).
[112] Em um cenário N-para-K (N>>K), pilotos (sinais de referência) sobre N/K grupos de feixes seriam somados no receptor, de modo que um algoritmo de medição round-robin sobre N/K grupos de feixes se torna necessário. Infelizmente, para um determinado grupo de feixes, suas duas medições consecutivas de canal de enlace descendente ocorrem pelo menos a cada (N/K- 1) intervalos de medição. Como N pode ser um número muito maior que K, esse intervalo seria muito longo para explicar as mudanças em Δhd(t). Além disso, esse método exigiria sobrecarga significativa tanto no enlace descendente (sinais piloto e de sondagem) quanto no enlace ascendente (relatório e realimentação).
[113] Uma abordagem alternativa depende da propriedade recíproca de UL/DL no modo TDD: uma estação base (transmissor) estimaria a atenuação de canal sobre os sinais de UL enviados a partir do receptor e, em seguida, os consideraria como as atenuações de canal sobre o próximo DL (transmissor ao receptor). Essa suposição recíproca é imperfeita, devido à potencial incompatibilidade entre o UL e o DL.
[114] Em aplicações de mmWAVE, a confiança na reciprocidade de UL/DL é preferida, porque ocupa menos sobrecarga do que a abordagem baseada em round-robin. Além disso, para suportar taxa de transferência extremamente alta e latência ultrabaixa, é preferível usar um decodificador simples g (■) em vez de uma cascata de sincronização tradicional, estimativa de canal e equalização.
[115] Em algumas modalidades, uma abordagem para endereçar a atenuação h (t)= (h s + Δh d (t) + Δh m (t) é baseada em: - Como resultado da recomposição rtrue, sua lógica de composição inerente ajuda o transceptor a tolerar a atenuação h (t)= (hs+ Δhd (t) + Δhm (t)). - Como o aprendizado de máquina é uma função de ajuste (não linear), as camadas são treinadas e fixadas por várias amostras de atenuação de canal. Em algum grau (limitado), podem lidar com atenuações de canal que nunca encontraram antes. - Depois de treinar as camadas fixas são as camadas treinadas e fixas), o transmissor continua executando MPA para atualizar o vetor de controle de potência . Com o conhecimento de hs + Δhd (t), pode ajudar o transceptor a adaptar a atenuação de canal variável no tempo.
[116] Para fins de treinamento, a atenuação de canal é dividida em três partes, conforme retratado na Figura 26: - A atenuação de canal estática (grande escala) (hs) 2600 deve-se principalmente aos deslocamentos de tempo estáticos entre diferentes antenas de feixe e múltiplos percursos sobre feixes em termos da posição do receptor. Uma estação base (transmissor) geralmente tem um bom conhecimento da atenuação de canal estática. - Atenuação de canal dinâmica (média escala) (Δhd (t)) 2602 é principalmente devido à mudanças do entorno (por exemplo, um passageiro aleatório) e baixa mobilidade (por exemplo, um pequeno movimento). Uma estação base continua medindo Δhd (t) no enlace ascendente e usa essas medições para o enlace descendente com base na suposição recíproca de UL/DL. - Atenuação de canal de incompatibilidade (pequena escala) (Δhm (t)) 2604 é principalmente devido à incompatibilidade entre a estimativa e medição de canal. Pode ser a incompatibilidade entre os canais de UL e DL quando reciprocidade é assumida, ou uma incompatibilidade que se acumula ao longo do tempo.
[117] Essas atenuações podem ser incluídas no modelo de sistema da seguinte forma: em que é estático e sempre conhecido pelo transmissor; é variável no tempo, mas é conhecido pelo transmissor; é variável no tempo, mas teoricamente desconhecido pelo transmissor; é a multiplicação complexa elemento a elemento.
[118] Embora variem no tempo, suas distribuições podem ser conhecidas ou estimadas por algumas estatísticas. Durante um estágio de treinamento, os valores de não estão imediatamente disponíveis, mas uma estimativa para pode estar disponível. Para endereçar isso, os valores são assumidos para fins de treinamento. No exemplo a seguir, são usadas duas distribuições gaussianas conhecidas para N/K grupos de feixes, ou seja, Essas distribuições são explicadas com mais detalhes a seguir.
[119] Então, no modelo acima, é substituído por é substituído por
[120] O sistema da Figura 20, modificado para mostrar a atenuação de canal, é retratado nas Figuras 27A e 27B, em que o componente de atenuação de canal é introduzido em 2700.
[121] As Figuras 28A, 28B e 28C mostram o sistema das Figuras 21A e 21B, que inclui o usuário virtual, em que o usuário virtual é definido como um usuário ideal sem atenuação, seja negativa ou positiva. O sistema das Figuras 28A, 28B e 28C mostra atenuações de canal 2800 aplicadas às saídas apenas para o usuário verdadeiro. Toda a rede neural é:em que durante o estágio de treinamento.
[122] Durante treinamento, a seguinte abordagem é adotada:
[123] O exemplo descrito acima não assume nenhuma atenuação no usuário virtual; em outra modalidade, a mesma atenuação do usuário verdadeiro é assumida para o usuário virtual. De acordo com as simulações, não há uma diferença significativa de desempenho entre as duas abordagens.
[124] O treinamento é o mesmo descrito acima para o canal AWGN. O objetivo é A retropropagação por gradiente f.g.w.b descendente está treinando enquanto fixa [a1t a2,... aN/KJ; MPA está treinando [a1, a2,... aN/K] enquanto fixa . Este MPA durante a fase de treinamento com atenuação está resumido na Figura 29.
[125] Após o treinamento, as camadassão congeladas. O transmissor as usará para codificar uma amostra a em . O transmissor continuará usando MPA para gerar [a1, a2,... aN/K] contra a atenuação de canal. A cada intervalo de transmissão t, o transmissor recebe uma atenuação de canal Quanto à incompatibilidade, o MPA continua usando a amostraque é atualizada por durante o estágio de transmissão.
[126] As Figuras 30A, 20B e 30C mostram como o treinamento é separado entre retropropagação e MPA, conforme descrito anteriormente para a modalidade das Figuras 23A e 23B. Conforme mostrado nas Figuras 31A, 31B e 31C, as camadas por gradiente descendente são congeladas enquanto o MPA é usado para transmissão para atualizar os coeficientes de controle de potência.
[127] Após o treinamento, a seguinte abordagem é adotada:
[128] A operação do MPA após o estágio de treinamento, durante transmissão com atenuação, está resumida na Figura 32.
[129] Voltando ao exemplo de um 64QAM codificado em 3 dimensões, numa primeira simulação, apenassão considerados. Durante o estágio de treinamento, a atenuação é é a amostrada de uma distribuição conhecida . Durante a transmissão, o MPA usa a atenuação , em que Δhdi(t) é uma variável aleatória variável no tempo, mas conhecida pelo transmissor. Nem tampouco é conhecido pelo receptor que simplesmente usa o decodificador g (■).
[130] Em uma segunda simulação, são considerados. Durante o estágio de treinamento, a atenuação é , em que é a amostrada de uma distribuição conhecida é a amostrada de uma distribuição conhecida . Durante a transmissão, o MPA usa a atenuação é uma variável aleatória variável no tempo, mas conhecida pelo transmissor e é a amostrada da distribuição atualizada por . Os resultados da simulação são mostrados na Figura 33.
[131] Em um canal atenuado aleatoriamente, o usuário virtual (sem atenuação) desempenha um papel importante para o MPA gerar os fatores de controle de potência [a1t a2,... ^///J. Para cada grupo (incluindo K feixes), o MPA possui duas conexões: uma para o usuário verdadeiro com atenuação e outra para o virtual sem atenuação. O objetivo do MPA é mover o máximo de informações para o usuário verdadeiro e o restante para o virtual.
[132] Mais importante, no cenário N-a-K, conforme descrito anteriormente, é difícil ou impraticável inserir os pilotos em cada feixe, porque todos os feixes são somados no receptor (os pilotos dos feixes estão interferindo uns nos outros). Com a abordagem descrita, nenhum (ou muito menos) pilotos são necessários. Todas as atenuações variáveis são transparentes para o receptor que usa o g (■) como decodificador para estimar o a. Nenhuma sincronização, estimativa de canal e equalização são necessárias para o receptor, de modo que uma taxa de transferência muito alta e uma latência curta podem ser alcançadas.
Modalidade 5 - Aplicações para mmWAVE
[133] Em algumas modalidades, uma ou mais das abordagens descritas acima são adaptadas para aplicações de mmWAVE.
[134] Em algumas modalidades, a estação base inclui um sistema de feixe em chip. Um chip inclui um grande número (por exemplo, centenas ou milhares) de antenas de mmWAVE.
[135] A fim de endereçar problemas de roteamento que podem levar ao deslocamento de tempo entre antenas, vários circuitos de antenas próximos no chip podem ser coordenados em um conjunto para gerar um feixe. As antenas de um feixe são fisicamente próximas e sincronizadas entre si porque podem ser conectadas ao mesmo nó de árvore de relógio. A fim de endereçar a densidade de potência, as antenas de um feixe podem ser escolhidas dentro da mesma ilha de potência. Um exemplo é retratado na Figura 34, que mostra conjuntos de K feixes vizinhos agrupados. Para um determinado grupo de feixes, seu relógio é derivado do mesmo nó de árvore de relógio, e eles estão dentro da mesma ilha de potência. Para uma ilha de potência, há um sintonizador de controle de potência que controla todos os K feixes nesta ilha. Na Figura 34, um grupo é indicado em 3400, que possui um sintonizador de controle de potência 3402 que controla todos os K feixes e possui uma árvore de relógio 3404 conectada a todos os feixes. Um grupo de K feixes são sempre escalonados juntos para apontar para o mesmo receptor. Apesar de estarem próximos um do outro, eles estariam “sincronizados”, uniformemente e igualmente alimentados por potência, e paralelos no espaço (sem interferência). Um grupo de feixes é a granularidade de escalonamento básica. Um feixe em chip pode conter centenas ou milhares de grupos de feixes. Se um grande número de feixes for implementado em um chip ou sistema em chip (SoC), os métodos convencionais para sincronizar os relógios de todos eles representariam um desafio para o projeto do chip, em particular no projeto de uma árvore de relógio de roteamento. Como resultado, um chip grande e totalmente sincronizado consumiria uma porção significativa de potência (mais de 30%) para a árvore de relógio de roteamento. E o grande consumo de potência inevitavelmente aumentaria a área do chip para fins de ventilação. Portanto, para o projeto de chip, se uma grande árvore de relógio totalmente sincronizada puder ser dividida em várias subárvores de relógio não sincronizadas, isso reduziria drasticamente a potência, a área e o custo. Isso ocorre porque os deslocamentos de tempo devido ao roteamento de chip entre esses grupos de feixes são permitidos para que o problema de roteamento possa ser significativamente aliviado. No entanto, os deslocamentos de tempo entre os grupos são diferentes de um chip para outro. Eles são fixos e podem ser medidos. Os deslocamentos de tempo estáticos podem ser incluídos na atenuação estática que será integrada em.
[136] Múltiplos feixes em chips podem ser usados juntos para alcançar grupos de N/K feixes simultâneos. Os deslocamentos de tempo entre os feixes em chips são estáticos e podem ser medidos e levados em consideração para a atenuação estática que será integrada em. Múltiplos feixes em chips podem ser instalados separadamente e conectados por conexões com fio. Dada a posição de um terminal, os atrasos no ar podem ser determinados e levados em consideração para a atenuação estática que será integrada em .
[137] Um exemplo é mostrado na Figura 35 que mostra uma estação base 3500 e dois terminais, incluindo o primeiro terminal 3502 localizado no Ponto-A 3503 e o segundo terminal 3504 localizado no Ponto-B 3505.
[138] A posição de um terminal é conhecida pela estação base. Dada sua posição, tipo de usuário e K dimensões não correlacionadas disponíveis, o (atrasos e atenuações estáticas), distribuições de podem ser obtidos. Em algumas modalidades, estes são armazenados na memória da estação base ou em um banco de dados; alternativamente, eles são previstos, por exemplo, usando uma rede neural profunda. Em algumas modalidades, pode já ser treinado em termos de posição, tipo de usuário e K dimensões não correlacionadas disponíveis, e armazenados na memória. Um exemplo é mostrado na Figura 35, em que um banco de dados 3510 armazena g () pré-treinado para vários pontos dentro da área de cobertura da estação base. Nesse caso, a estação base não precisa treinar g () novamente, mas simplesmente enviar os coeficientes e a arquitetura de g () para o terminal. Se o terminal se mover para um ponto diferente, os coeficientes e a arquitetura precisam ser atualizados. Idealmente, as áreas de cobertura associadas a cada ponto são grandes o suficiente para que isso não aconteça com muita frequência.
[139] Em operação, o receptor começa enviando sinais de referência pelo enlace ascendente que serão detectados/recebidos por N feixes da estação base. A estação base então estima a atenuação de canal sobre cada feixe. A estação base aplica a suposição de reciprocidade de UL/DL para formar A estação base usa o MPA para calcular a potência [a1(t), a2(t),... aN/K(t)] de cada grupo de K feixes contra a atenuação atual ou, o transmissor executa f (), wL, bf e sintoniza potência para a granularidade de grupo de feixes e, finalmente, envia os sinais pelo ar no enlace descendente. O receptor recebe os sinais a partir das K antenas não correlacionadas e os insere em g (). Em seguida, o terminal continua transmitindo os sinais de referência no enlace ascendente para que a estação base tenha valores atualizados para a próxima iteração.
[140] Em operação, a estação base armazena para sintonizar a distribuição de N (mhd, ohd) por um método estatístico convencional ou um método baseado em rede neural profunda. A estação base usa para sintonizar a distribuição de N (mhm, ohm) por um método estatístico convencional ou um método baseado em rede neural profunda.
[141] A estação base monitora computando sua relatividade para
[142] Se yd(t) estava além de uma limitação predefinida e o usuário permaneceu na posição,pode não ser representativo o suficiente para esta posição, de modo que deve ser atualizado por mais recente . No entanto, um atualizado acionaria um retreinamento de . Em algumas modalidades, um conceito de aprendizado de transferência é usado: isso envolve o treinamento a partir dos neurônios atuais em vez de um conjunto de neurônios indefinidos. Se retreinamento convergiu, a estação base envia o novo g () para o receptor. Se retreinamento não convergiu, é possível que esta posição seja um “ponto cego”, ou seja, N feixes podem ser insuficientes e mais feixes devem ser usados para se comunicar com um receptor naquela parte da área de cobertura. Neste caso, a estação base pode alocar mais feixes para esta área. Como a dimensão geral do sistema é mudada, um retreinamento é necessário. Essas situações de “ponto cego” podem ocorrer no período de inicialização de uma nova estação base.
[143] Se ym (í) estiver além da limitação predefinida, são necessários pilotos mais frequentes e/ou mais. Se mais pilotos frequentes e mais não ajudarem a situação, então N feixes podem ser insuficientes e mais feixes podem ser alocados para este receptor. Porque a dimensão mudou, é necessário um novo treinamento.
[144] Embora os exemplos detalhados tenham focado em um símbolo, em algumas modalidades OFDM é usado, e múltiplos símbolos são transmitidos em paralelo pelo sistema OFDM. Cada símbolo tem o seu. Em algumas modalidades, é usado um codificador que codifica mais de um símbolo para ter mais ganho de codificação. O procedimento é o mesmo quando dois símbolos QAM são tratados como um “símbolo”. Um exemplo de um sistema baseado em OFDM é mostrado nas Figuras 36A e 36B.
Modalidade 6 - Redundância Incremental
[145] Nesta modalidade, um sistema e método de retransmissão baseados em redundância incremental são providos. A retransmissão pode ser um conceito geral, não limitado ao domínio do tempo. A “retransmissão” significa que as informações incrementais são transmitidas a partir de outra dimensão independente. Por exemplo, a 1^ transmissão é sobre as 3 dimensões; e a retransmissão está na 4- dimensão. Embora possa haver várias retransmissões, os exemplos abaixo empregam uma retransmissão como exemplo. Na realidade, pode haver três, quatro ou até mais retransmissões.
[146] Definir o número máximo de dimensões para serem K. Na primeira transmissão, as primeiras (K-1) dimensões são usadas; na 2^ transmissão (primeira retransmissão), informações incrementais são transmitidas na K-ésima dimensão. A rede neural profunda é quase a mesma sem a retransmissão, exceto que existem dois decodificadores (DNN): g1 () para a primeira dimensão (K-1) e g2 () para a K-ésima dimensão que combina a K-ésima dimensão com as K-1 dimensões anteriores.
[147] O objetivo do treinamento é , em que Y é um coeficiente de peso usado no receptor para ponderar a transmissão, e (1-Y) é um coeficiente de peso para a segunda transmissão. Com um valor de y maior, por exemplo, 0,9, a expectativa seria que na maioria das vezes a primeira transmissão pudesse ser decodificada com sucesso. Se houver mais de 2 transmissões, a soma de seus pesos deve ser 1.
[148] Após o treinamento, o receptor terá dois decodificadores, g1 () e g2 (). Durante a 1- transmissão, o receptor receberá o sinal de dimensão K-1-e o inserirá em g1 () para estimar o símbolo a. Durante a retransmissão, o receptor receberá o K-ésimo sinal dimensional e o combinará com as K-1 dimensões anteriores em um vetor de dimensão K para g2 (). O treinamento pode ser usado para controlar a probabilidade de que a primeira transmissão seja decodificada com sucesso. Ao definir o parâmetro Y mais alto, isso resultará em mais informações essenciais sendo enviadas para serem incluídas no sinal processado por g1 ().
[149] Em um exemplo de simulação específico, y=0,8 para a transmissão inicial, e (1-y) =0,2 é usado para uma retransmissão. O resultado de simulação é mostrado na Figura 38.
[150] O resultado mostra cerca de 0,3 dB de ganho de codificação a partir das informações incrementais na dimensão 1.
[151] A Figura 39 ilustra um exemplo de sistema de comunicação 100 no qual as modalidades da presente divulgação podem ser implementadas. Em geral, o sistema de comunicação 100 habilita que vários elementos sem fio ou com fio comuniquem dados e outros conteúdos. A finalidade do sistema de comunicação 100 pode ser prover conteúdo (voz, dados, vídeo, texto) via broadcast, narrowcast, dispositivo de usuário para dispositivo de usuário, etc. O sistema de comunicação 100 pode operar compartilhando recursos como largura de banda.
[152] Neste exemplo, o sistema de comunicação 100 inclui dispositivos eletrônicos (ED) 110a-110c, redes de acesso via rádio (RANs) 120a-120b, uma rede núcleo 130, uma rede telefônica pública comutada (PSTN) 140, a internet 150 e outras redes 160. Embora certos números desses componentes ou elementos sejam mostrados na Figura 39, qualquer número razoável desses componentes ou elementos pode ser incluído no sistema de comunicação 100.
[153] Os EDs 110a-110c são configurados para operar, comunicar ou ambos, no sistema de comunicação 100. Por exemplo, os EDs 110a-110c são configurados para transmitir, receber ou ambos via canais de comunicação sem fio ou com fio. Cada ED 110a-110c representa qualquer dispositivo de usuário final adequado para operação sem fio e pode incluir tais dispositivos (ou pode ser referido) como um equipamento/dispositivo de usuário (UE), unidade de transmissão/recebimento sem fio (WTRU), estação móvel, unidade de assinante fixa ou móvel, telefone celular, estação (STA), dispositivo de comunicação tipo máquina (MTC), assistente digital pessoal (PDA), smartphone, laptop, computador, tablet, sensor sem fio ou dispositivo eletrônico de consumidor.
[154] Na Figura 39, as RANs 120a-120b incluem estações base 170a-170b, respectivamente. Cada estação base 170a-170b é configurada para fazer interface de modo sem fio com um ou mais dos EDs 110a-110c para habilitar o acesso a qualquer outra estação base 170a-170b, a rede núcleo 130, a PSTN 140, a internet 150 e/ou outras redes 160. Por exemplo, as estações base 170a-170b podem incluir (ou ser) um ou mais de vários dispositivos bem conhecidos, como uma estação transceptora base (BTS), um Node-B (NóB), um NodeB evoluído (eNodeB), um eNodeB Doméstico, um gNodeB, um ponto de transmissão (TP), um controlador local, um ponto de acesso (AP) ou um roteador sem fio. Qualquer ED 110a-110c pode ser alternativamente ou adicionalmente configurado para fazer interface, acessar ou se comunicar com qualquer outra estação base 170a-170b, a internet 150, a rede núcleo 130, a PSTN 140, as outras redes 160 ou qualquer combinação dos anteriores. O sistema de comunicação 100 pode incluir RANs, como RAN 120b, em que a estação base correspondente 170b acessa a rede núcleo 130 via internet 150, conforme mostrado. As modalidades detalhadas descritas no presente documento fazem referência a TPs, mas de forma mais geral, qualquer tipo de estação base pode ser usado para qualquer uma das modalidades descritas no presente documento.
[155] Os EDs 110a-110c e as estações base 170a-170b são exemplos de equipamentos de comunicação que podem ser configurados para implementar algumas ou todas as funcionalidades e/ou modalidades descritas no presente documento. Na modalidade mostrada na Figura 39, a estação base 170a faz parte da RAN 120a, que pode incluir outras estações base, controlador (es) de estação base (BSC), controlador (es) de rede de rádio (RNC), nós de retransmissão, elementos e/ou dispositivos. Qualquer estação base 170a, 170b pode ser um único elemento, como mostrado, ou múltiplos elementos, distribuídos na RAN correspondente, ou de outra forma. Além disso, a estação base 170b faz parte da RAN 120b, que pode incluir outras estações base, elementos e/ou dispositivos. Cada estação base 170a-170b transmite e/ou recebe sinais sem fio dentro de uma determinada região ou área geográfica, às vezes referida como uma "célula" ou " área de cobertura". Uma célula pode ainda ser dividida em setores de célula e uma estação base 170a-170b pode, por exemplo, empregar múltiplos transceptores para prover serviço a múltiplos setores. Em algumas modalidades, pode haver pico ou femtocélulas estabelecidas onde a tecnologia de acesso via rádio as suporta. Em algumas modalidades, múltiplos transceptores podem ser usados para cada célula, por exemplo, usar a tecnologia de múltiplas entradas e múltiplas saídas (MIMO). O número de RAN 120a-120b mostrado é apenas exemplar. Qualquer número de RAN pode ser contemplado ao conceber o sistema de comunicação 100.
[156] As estações base 170a-170b se comunicam com um ou mais dos EDs 110a-110c através de uma ou mais interfaces aéreas 190 usando enlaces de comunicação sem fio, por exemplo, radiofrequência (RF), micro-ondas, infravermelho, etc. As interfaces aéreas 190 podem utilizar qualquer tecnologia de acesso via rádio adequada. Por exemplo, o sistema de comunicação 100 pode implementar um ou mais métodos de acesso de canal, como acesso múltiplo por divisão de código (CDMA), acesso múltiplo por divisão de tempo (TDMA), acesso múltiplo por divisão de frequência (FDMA), FDMA ortogonal (OFDMA) ou FDMA de portadora única (SC-FDMA) nas interfaces aéreas 190.
[157] Uma estação base 170a-170b pode implementar Acesso de Rádio Terrestre (UTRA) de Sistema de Telecomunicações Móveis Universal (UMTS) para estabelecer uma interface aérea 190 usando CDMA de banda larga (WCDMA). Ao fazer isso, a estação base 170a-170b pode implementar protocolos como HSPA, HSPA+ opcionalmente incluindo HSDPA, HSUPA ou ambos. Alternativamente, uma estação base 170a-170b pode estabelecer uma interface aérea 190 com Acesso de Rádio Terrestre de UTMS Evoluído (E-UTRA) usando LTE, LTE-A, LTE-B e/ou Novo Rádio (NR). É contemplado que o sistema de comunicação 100 pode usar a funcionalidade de acesso de múltiplos canais, incluindo tais esquemas descritos acima. Outras tecnologias de rádio para implementação de interfaces aéreas incluem IEEE 802.11, 802.15, 802.16, CDMA2000, CDMA2000 1X, CDMA2000 EV-DO, IS-2000, IS-95, IS-856, GSM, EDGE e GERAN. Claro, outros esquemas de acesso múltiplo e protocolos sem fio podem ser utilizados.
[158] As RANs 120a-120b estão em comunicação com a rede núcleo 130 para prover aos EDs 110a-110c vários serviços, como voz, dados e outros serviços. As RANs 120a-120b e/ou a rede núcleo 130 podem estar em comunicação direta ou indireta com uma ou mais outras RANs (não mostradas), que podem ou não ser servidas diretamente pela rede núcleo 130, e podem ou não empregar a mesma tecnologia de acesso via rádio como RAN 120a, RAN 120b ou ambas. A rede núcleo 130 também pode servir como um gateway de acesso entre (i) as RANs 120a-120b ou EDs 110a-110c ou ambas e (ii) outras redes (como PSTN 140, internet 150 e outras redes 160). Além disso, alguns ou todos os EDs 110a-110c podem incluir funcionalidade para comunicação com diferentes redes sem fio em diferentes enlaces sem fio usando diferentes tecnologias e/ou protocolos sem fio. Em vez de comunicação sem fio (ou além disso), os EDs podem se comunicar via canais de comunicação com fio para um provedor de serviços ou comutador (não mostrado) e para a Internet 150. PSTN 140 pode incluir redes telefônicas comutadas por circuito para prover serviço telefônico antigo simples (POTS). Internet 150 pode incluir uma rede e sub-redes de computadores (intranets) ou ambas, e incorporar protocolos, como IP, TCP, UDP. Os EDs 110a-110c podem ser dispositivos de múltiplos modos capazes de operar de acordo com múltiplas tecnologias de acesso via rádio, e incorporar múltiplos transceptores necessários para suportar tal.
[159] A Figura 40A e a Figura 40B ilustram exemplos de dispositivos que podem implementar os métodos e ensinamentos de acordo com esta divulgação. Em particular, a Figura 40A ilustra um exemplo de ED 110, e a Figura 40B ilustra um exemplo de estação base 170. Esses componentes podem ser usados no sistema de comunicação 100 ou em qualquer outro sistema adequado.
[160] Conforme mostrado na Figura 40A, o ED 110 inclui pelo menos uma unidade de processamento 200. A unidade de processamento 200 implementa várias operações de processamento do ED 110. Por exemplo, a unidade de processamento 200 pode desempenhar codificação de sinal, processamento de dados, controle de potência, processamento de entrada/saída, ou qualquer outra funcionalidade que habilite o ED 110 a operar no sistema de comunicação 100. A unidade de processamento 200 também pode ser configurada para implementar algumas ou todas as funcionalidades e/ou modalidades descritas em mais detalhes acima. Cada unidade de processamento 200 inclui qualquer dispositivo de processamento ou computação adequado configurado para desempenhar uma ou mais operações. Cada unidade de processamento 200 pode, por exemplo, incluir um microprocessador, microcontrolador, processador de sinal digital, arranjo de portas programáveis em campo ou circuito integrado de aplicação específica.
[161] O ED 110 também inclui pelo menos um transceptor 202. O transceptor 202 é configurado para modular dados ou outro conteúdo para transmissão por pelo menos uma antena ou Controlador de Interface de Rede (NIC) 204. O transceptor 202 também é configurado para demodular dados ou outro conteúdo recebido por pelo menos uma antena 204. Cada transceptor 202 inclui qualquer estrutura adequada para gerar sinais para transmissão sem fio ou com fio e/ou processar sinais recebidos de maneira sem fio ou por fio. Cada antena 204 inclui qualquer estrutura adequada para transmitir e/ou receber sinais sem fio ou com fio. Um ou múltiplos transceptores 202 podem ser usados no ED 110. Uma ou múltiplas antenas 204 podem ser usadas no ED 110. Embora mostrado como uma única unidade funcional, um transceptor 202 também pode ser implementado usando pelo menos um transmissor e pelo menos um receptor separado.
[162] O ED 110 inclui adicionalmente um ou mais dispositivos de entrada/saída 206 ou interfaces (como uma interface com fio para a internet 150). Os dispositivos de entrada/saída 206 permitem a interação com um usuário ou outros dispositivos na rede. Cada dispositivo de entrada/saída 206 inclui qualquer estrutura adequada para prover informações ou receber informações de um usuário, como um alto-falante, microfone, teclado numérico, teclado, display, ou tela sensível ao toque, incluindo comunicações de interface de rede.
[163] Além disso, o ED 110 inclui pelo menos uma memória 208. A memória 208 armazena instruções e dados usados, gerados ou coletados pelo ED 110. Por exemplo, a memória 208 pode armazenar instruções de software ou módulos configurados para implementar algumas ou todas as funcionalidades e/ou modalidades descritas acima e que são executadas pela (s) unidade (s) de processamento 200. Cada memória 208 inclui qualquer armazenamento volátil e/ou não volátil e dispositivo (s) de recuperação adequado. Qualquer tipo adequado de memória pode ser usado, como memória de acesso aleatório (RAM), memória somente de leitura (ROM), disco rígido, disco óptico, cartão do módulo de identidade de assinante (SIM), cartão de memória, cartão de memória digital seguro (SD), e semelhantes.
[164] Como mostrado na Figura 40B, a estação base 170 inclui pelo menos uma unidade de processamento 250, pelo menos um transmissor 252, pelo menos um receptor 254, uma ou mais antenas 256, pelo menos uma memória 258 e um ou mais dispositivos de entrada/saída ou interfaces 266. Um transceptor, não mostrado, pode ser usado em vez do transmissor 252 e do receptor 254. Um escalonador 253 pode ser acoplado à unidade de processamento 250. O escalonador 253 pode ser incluído ou operado separadamente da estação base 170. A unidade de processamento 250 implementa várias operações de processamento da estação base 170, como codificação de sinal, processamento de dados, controle de potência, processamento de entrada/saída ou qualquer outra funcionalidade. A unidade de processamento 250 também pode ser configurada para implementar algumas ou todas as funcionalidades e/ou modalidades descritas em mais detalhes acima. Cada unidade de processamento 250 inclui qualquer dispositivo de processamento ou computação adequado configurado para desempenhar uma ou mais operações. Cada unidade de processamento 250 pode, por exemplo, incluir um microprocessador, microcontrolador, processador de sinal digital, arranjo de portas programáveis em campo ou circuito integrado de aplicação específica.
[165] Cada transmissor 252 inclui qualquer estrutura adequada para gerar sinais para transmissão sem fio ou com fio para um ou mais EDs ou outros dispositivos. Cada receptor 254 inclui qualquer estrutura adequada para processar sinais recebidos sem fio ou por fio de um ou mais EDs ou outros dispositivos. Embora mostrado como componentes separados, pelo menos um transmissor 252 e pelo menos um receptor 254 podem ser combinados em um transceptor. Cada antena 256 inclui qualquer estrutura adequada para transmitir e/ou receber sinais sem fio ou com fio. Embora uma antena comum 256 seja mostrada no presente documento como sendo acoplada ao transmissor 252 e ao receptor 254, uma ou mais antenas 256 podem ser acopladas ao (s) transmissor (es) 252, e uma ou mais antenas separadas 256 podem ser acopladas ao receptor (s) 254. Cada memória 258 inclui qualquer armazenamento volátil e/ou não volátil e dispositivo (s) de recuperação adequado, como aqueles descritos acima em conexão com o ED 110. A memória 258 armazena instruções e dados usados, gerados ou coletados pela estação base 170. Por exemplo, a memória 258 pode armazenar instruções de software ou módulos configurados para implementar algumas ou todas as funcionalidades e/ou modalidades descritas acima e que são executadas pela (s) unidade (s) de processamento 250.
[166] Cada dispositivo de entrada/saída 266 permite interação com um usuário ou outros dispositivos na rede. Cada dispositivo de entrada/saída 266 inclui qualquer estrutura adequada para prover informações ou para receber/prover informações a partir de um usuário, incluindo comunicações de interface de rede.
[167] Detalhes adicionais relativos aos EDs 110 e às estações base 170 são conhecidos pelos versados na técnica. Como tal, esses detalhes são omitidos no presente documento para maior clareza.
[168] Numerosas modificações e variações da presente divulgação são possíveis à luz dos ensinamentos acima. Portanto, deve ser entendido que dentro do escopo das reivindicações anexas, a divulgação pode ser praticada de outra forma que não especificamente descrita no presente documento.

Claims (21)

1. Método de transmissão de múltiplos feixes para transmitir usando um transmissor de N feixes para um receptor tendo K feixes de recebimento, o método caracterizado pelo fato de que compreende: treinar um bloco de aprendizado de máquina e um codificador linear usando retropropagação por gradiente descendente que depende de realimentação do receptor, em que o bloco de aprendizado de máquina implementa um codificador não linear; para cada entrada a ser transmitida: usar o bloco de aprendizado de máquina para processar uma entrada para produzir N/K conjuntos de L saídas; usar o codificador linear para desempenhar codificação linear em cada conjunto de L saídas para produzir um respectivo conjunto de K saídas codificadas de modo a produzir N/K conjuntos de K saídas codificadas no total e de N saídas codificadas no total; e transmitir uma transmissão que compreende um respectivo conjunto dentre os N/K conjuntos de K saídas codificadas a partir de um respectivo conjunto de K feixes.
2. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que o bloco de aprendizado de máquina é uma rede neural profunda.
3. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que o dito treinamento do codificador linear é desempenhado para cada entrada a ser transmitida.
4. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que: onde "a" é uma entrada a ser transmitida; f (d) é uma operação de codificação não linear executada pelo codificador não linear; é uma saída da operação de codificação não linear; são parametros do codificador linear; é um conjunto de K entidades recompostas produzidas na saída do transmissor de N feixes; é ruído; é uma operação de decodificação não linear executada por um bloco de aprendizado de máquina no receptor; e é uma entrada para a operação de decodificação não linear.
5. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende adicionalmente: aplicar um respectivo peso para cada conjunto dentre os N/K conjuntos de K saídas codificadas para produzir um conjunto ponderado de K saídas codificadas; em que transmitir um respectivo conjunto dentre os N/K conjuntos de K saídas codificadas a partir de cada feixe compreende transmitir o respectivo conjunto ponderado de K saídas codificadas; o método compreendendo, adicionalmente, treinar os pesos usando um algoritmo de passagem de mensagem.
6. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende adicionalmente: acionar cada grupo de K antenas a partir de uma respectiva árvore de relógio comum; e fornecer potência para cada grupo de K antenas com uma respectiva potência uniforme.
7. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que transmitir um respectivo conjunto dentre os N/K conjuntos de K saídas codificadas a partir de um respectivo conjunto de K feixes compreende: em uma primeira transmissão, transmitir T do respectivo conjunto de K saídas codificadas a partir de T feixes do respectivo conjunto de K feixes, onde T<K; em uma segunda transmissão, transmitir K-T restantes do respectivo conjunto de K saídas codificadas a partir de K-T feixes restantes do respectivo conjunto de K feixes.
8. Método, de acordo com a reivindicação 5, caracterizado pelo fato de que: onde "a" é uma entrada a ser transmitida; f(a) é uma operação de codificação não linear executada pelo codificador não linear; é uma saída da operação de codificação não linear; são parametros do codificador linear; é um conjunto de K entidades recompostas produzidas na saída do transmissor de N feixes; é ruído; são os pesos que são treinados usando o algoritmo de passagem de mensagem; é uma operação de decodificação não linear executada por um bloco de aprendizado de máquina no receptor; e é uma entrada para a operação de decodificação não linear.
9. Método, de acordo com a reivindicação 5, caracterizado pelo fato de que aplicar, adicionalmente, um respectivo peso para cada conjunto dentre os N/K conjuntos de K saídas codificadas para produzir um conjunto ponderado de K saídas codificadas compreende aplicar um respectivo peso aL para um i-ésimo conjunto dentre os N/K conjuntos de K saídas codificadas; e determinar aL usando um algoritmo de passagem de mensagem de modo a otimizar, com base em um critério de otimização, uma quantidade de informações úteis nas saídas do codificador linear que estão incluídas na transmissão em comparação com uma quantidade de informações úteis nas saídas do codificador linear que estão incluídas em outro sinal virtual calculado usando pesos 1-«t.
10. Método, de acordo com a reivindicação 9, caracterizado pelo fato de que compreende adicionalmente: durante o treinamento inicial: fixar os pesos aL enquanto treina o bloco de aprendizado de máquina e o codificador linear; tratar os parâmetros do bloco de aprendizado de máquina e do codificador linear como constantes enquanto treina os pesos aL; após treinar, usar o algoritmo de passagem de mensagem para atualizar os pesos para cada transmissão.
11. Método, de acordo com a reivindicação 10, caracterizado pelo fato de que durante o treinamento inicial fixar os pesos aL, enquanto treina o bloco de aprendizado de máquina e o codificador linear, compreende: desempenhar o treinamento inicial com base em uma estimativa para atenuação de canal = uma estimativa para atenuação de canal estática + uma distribuição de probabilidade para atenuação dinâmica + uma distribuição de probabilidade para atenuação de canal de incompatibilidade; após treinar, usar algoritmo de passagem de mensagem para atualizar os pesos para cada transmissão com base em valores atualizados para atenuação de canal.
12. Método, de acordo com a reivindicação 11, caracterizado pelo fato de que compreende adicionalmente: armazenar os resultados de treinamento para o bloco de aprendizado de máquina e para o codificador linear para cada parte dentre uma pluralidade de partes diferentes de uma área de cobertura do transmissor de N feixes, os resultados de treinamento compreendendo parâmetros para a operação de codificação não linear do transmissor e parâmetros do codificador linear do transmissor e parâmetros para um decodificador não linear localizado dentro da parte da área de cobertura; e determinar uma localização do receptor; em que usar o bloco de aprendizado de máquina e o codificador linear compreende usar os resultados de treinamento armazenados com base na localização determinada do receptor.
13. Método, de acordo com a reivindicação 12, caracterizado pelo fato de que compreende adicionalmente: transmitir os parâmetros para o decodificador não linear para a localização determinada para o receptor.
14. Método, de acordo com a reivindicação 13, caracterizado pelo fato de que compreende adicionalmente: com base em uma análise de atenuação dinâmica em comparação com a atenuação estática, determinar que um valor para atenuação estática não é representativo da parte da área de cobertura; atualizar o valor para atenuação estática para uma estimativa mais recente de atenuação estática; retreinar o codificador não linear e o codificador linear usando a estimativa mais recente; se o retreinamento não convergir, aumentar um número de feixes, e retreinar o codificador não linear e o codificador linear para o maior número de feixes.
15. Método, de acordo com a reivindicação 13, caracterizado pelo fato de que compreende adicionalmente: com base em uma análise de atenuação de incompatibilidade em comparação com a atenuação estática, aumentar um número e/ou frequência de pilotos.
16. Método, de acordo com a reivindicação 15, caracterizado pelo fato de que compreende adicionalmente: com base em uma análise adicional de atenuação de incompatibilidade em comparação com a atenuação estática após aumentar o número e/ou frequência de pilotos, determinar mais feixes; aumentar um número de feixes; e retreinar o codificador não linear e o codificador linear para o maior número de feixes.
17. Aparelho para transmitir para um receptor tendo K feixes de recebimento, o aparelho caracterizado pelo fato de que compreende: um processador e memória; em que o processador e memória implementam um bloco de aprendizado de máquina com um codificador não linear e implementam um codificador linear; em que o processador e memória são configurados para: treinar o bloco de aprendizado de máquina e o codificador linear usando retropropagação por gradiente descendente que depende de realimentação do receptor; para cada entrada a ser transmitida: usar o bloco de aprendizado de máquina para processar uma entrada para produzir N/K conjuntos de L saídas; e usar o codificador linear para desempenhar codificação linear em cada conjunto de L saídas para produzir um respectivo conjunto de K saídas codificadas de modo a produzir N/K conjuntos de K saídas codificadas no total e de N saídas codificadas no total; o aparelho compreendendo, adicionalmente, um transmissor de N feixes para transmitir uma transmissão que compreende um respectivo conjunto dentre os N/K conjuntos de K saídas codificadas a partir de um respectivo conjunto de K feixes.
18. Aparelho, de acordo com a reivindicação 17, caracterizado pelo fato de que é adicionalmente configurado para: aplicar um respectivo peso para cada conjunto dentre os N/K conjuntos de K saídas codificadas para produzir um conjunto ponderado de K saídas codificadas; em que transmitir um respectivo conjunto dentre os N/K conjuntos de K saídas codificadas a partir de cada feixe compreende transmitir o respectivo conjunto ponderado de K saídas codificadas; o aparelho configurado, adicionalmente, para treinar os pesos usando um algoritmo de passagem de mensagem.
19. Aparelho, de acordo com a reivindicação 17, caracterizado pelo fato de que é adicionalmente configurado para: acionar cada grupo de K antenas a partir de uma respectiva árvore de relógio comum; e fornecer potência para cada grupo de K antenas com uma respectiva potência uniforme.
20. Aparelho, de acordo com a reivindicação 17, caracterizado pelo fato de que é configurado para transmitir um respectivo conjunto dentre os N/K conjuntos de K saídas codificadas a partir de um respectivo conjunto de K feixes ao: em uma primeira transmissão, transmitir T do respectivo conjunto de K saídas codificadas a partir de T feixes do respectivo conjunto de K feixes, onde T<K; em uma segunda transmissão, transmitir K-T restantes do respectivo conjunto de K saídas codificadas a partir de K-T feixes restantes do respectivo conjunto de K feixes.
21. Aparelho, de acordo com a reivindicação 18, caracterizado pelo fato de que é configurado para aplicar um respectivo peso para cada conjunto dentre os N/K conjuntos de K saídas codificadas para produzir um conjunto ponderado de K saídas codificadas ao: aplicar um respectivo peso aL para um i-ésimo conjunto dentre os N/K conjuntos de K saídas codificadas; e determinar aL usando um algoritmo de passagem de mensagem de modo a otimizar, com base em um critério de otimização, uma quantidade de informações úteis nas saídas do codificador linear que estão incluídas na transmissão em comparação com uma quantidade de informações úteis nas saídas do codificador linear que estão incluídas em outro sinal virtual calculado usando pesos 1-𝛼𝑖.
BR112023001200-7A 2020-07-24 2021-06-25 Método e aparelho de transmissão de múltiplos feixes BR112023001200B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/937,863 US11361223B2 (en) 2020-07-24 2020-07-24 Hybrid message-passing-algorithm-based deep learning neural network for a massive beam-forming system
US16/937,863 2020-07-24
PCT/CN2021/102520 WO2022017122A1 (en) 2020-07-24 2021-06-25 Hybrid message-passing-algorithm-based deep learning neural network for a massive beam-forming system

Publications (2)

Publication Number Publication Date
BR112023001200A2 BR112023001200A2 (pt) 2023-03-28
BR112023001200B1 true BR112023001200B1 (pt) 2024-02-15

Family

ID=79729677

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112023001200-7A BR112023001200B1 (pt) 2020-07-24 2021-06-25 Método e aparelho de transmissão de múltiplos feixes

Country Status (6)

Country Link
US (1) US11361223B2 (pt)
EP (1) EP4173155A4 (pt)
JP (1) JP2023535198A (pt)
CN (1) CN115836480A (pt)
BR (1) BR112023001200B1 (pt)
WO (1) WO2022017122A1 (pt)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11625610B2 (en) * 2019-03-12 2023-04-11 Samsung Electronics Co., Ltd Multiple-input multiple-output (MIMO) detector selection using neural network
CN114866119B (zh) * 2022-04-15 2023-09-26 电子科技大学长三角研究院(湖州) 一种非完美信道状态信息条件下的混合波束成形方法
CN117256172A (zh) * 2022-04-18 2023-12-19 北京小米移动软件有限公司 基于ai的csi上报方法、接收方法、装置及存储介质
CN115664471B (zh) * 2022-08-31 2024-01-02 东南大学 基于宽学习的毫米波mimo基站协作波束选择方法
CN115935261A (zh) * 2022-12-30 2023-04-07 马鞍山思凯科技有限公司 基于工业互联网的群体设备非绝对正向反馈方法
CN117095188B (zh) * 2023-10-19 2023-12-29 中国南方电网有限责任公司 一种基于图像处理的电力安全加强方法及系统

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4845640B2 (ja) 2006-08-23 2011-12-28 富士通株式会社 無線通信システムおよび無線通信方法
CN104539329B (zh) 2014-12-11 2018-07-03 上海华为技术有限公司 一种天线及有源天线系统
US10425878B2 (en) 2017-01-09 2019-09-24 Qualcomm Incorporated Techniques to identify sets of multiple beams compatible with configurations for routing signals in a user equipment
US10187721B1 (en) * 2017-06-22 2019-01-22 Amazon Technologies, Inc. Weighing fixed and adaptive beamformers
WO2019100220A1 (en) 2017-11-21 2019-05-31 Zte Corporation Methods, apparatus and systems for performing channel measurement in a multi-beam wireless communication network
EP3959848A4 (en) * 2019-04-23 2022-06-22 Deepsig Inc. COMMUNICATION SIGNAL PROCESSING BY MEANS OF A MACHINE LEARNING NETWORK
US20210266875A1 (en) * 2020-02-24 2021-08-26 Qualcomm Incorporated MACHINE LEARNING FOR ADDRESSING TRANSMIT (Tx) NON-LINEARITY

Also Published As

Publication number Publication date
CN115836480A (zh) 2023-03-21
EP4173155A1 (en) 2023-05-03
US11361223B2 (en) 2022-06-14
BR112023001200A2 (pt) 2023-03-28
JP2023535198A (ja) 2023-08-16
WO2022017122A1 (en) 2022-01-27
US20220036171A1 (en) 2022-02-03
EP4173155A4 (en) 2024-01-03

Similar Documents

Publication Publication Date Title
BR112023001200B1 (pt) Método e aparelho de transmissão de múltiplos feixes
US10587369B1 (en) Cooperative subspace multiplexing
US8942082B2 (en) Cooperative subspace multiplexing in content delivery networks
US9225471B2 (en) Cooperative subspace multiplexing in communication networks
US9270421B2 (en) Cooperative subspace demultiplexing in communication networks
CN114175051A (zh) 关于深度神经网络的基站-用户设备消息传递
CN114642019A (zh) 一种信道信息获取的方法
Karjalainen et al. EXIT chart-based power allocation for iterative frequency domain MIMO detector
US20230171023A1 (en) Estimation method of discrete digital signals in noisy overloaded wireless communication systems with csi errors
Pérez-Romero et al. A tutorial on the characterisation and modelling of low layer functional splits for flexible radio access networks in 5g and beyond
Boby et al. A wireless precoding technique for millimetre-wave MIMO system based on SIC-MMSE
Wang Galois meets Euclid: FEC code anchored robust design of wireless communication receivers
Shin et al. High-throughput low-complexity link adaptation for MIMO BIC-OFDM systems
Kuang et al. Adaptive modulation and joint temporal spatial power allocation for OSTBC MIMO systems with imperfect CSI
EP4374294A1 (en) Hybrid wireless processing chains that include deep neural networks and static algorithm modules
Liang et al. Piggyback retransmissions over wireless mimo channels: Shared Hybrid-ARQ (SHARQ) for bandwidth efficiency
JP2023502488A (ja) 大規模多次元無線システムのための無線x2xアクセス及び受信機についての方法
Yu et al. Performance analysis of variable-power adaptive modulation with antenna selection over Rayleigh fading channels
Gómez-Cuba et al. Full-stack hybrid beamforming in mmWave 5G networks
Alqahtani et al. Adaptive Communication: A Systematic Review.
Huusko Communication performance prediction and link adaptation based on a statistical radio channel model
Priya et al. H∞-dCNN: Enhancing the SNR using Deep Learning Algorithm in Wireless Communication System
Kim AI-Enabled Physical Layer
Jiang et al. Practical analysis of codebook design and frequency offset estimation for virtual‐multiple‐input–multiple‐output systems
Ivanov et al. Performance of 5G SU-MIMO Employing OFDM Bandwidth and Per-Subcarrier Precoding

Legal Events

Date Code Title Description
B15K Others concerning applications: alteration of classification

Free format text: AS CLASSIFICACOES ANTERIORES ERAM: H04B 7/0408 , H04B 7/04

Ipc: H04B 7/06 (2006.01), H04B 7/0408 (2017.01), G06N 3

B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 25/06/2021, OBSERVADAS AS CONDICOES LEGAIS