CN109379752B - Massive MIMO的优化方法、装置、设备及介质 - Google Patents

Massive MIMO的优化方法、装置、设备及介质 Download PDF

Info

Publication number
CN109379752B
CN109379752B CN201811049938.7A CN201811049938A CN109379752B CN 109379752 B CN109379752 B CN 109379752B CN 201811049938 A CN201811049938 A CN 201811049938A CN 109379752 B CN109379752 B CN 109379752B
Authority
CN
China
Prior art keywords
optimization
network
function
massive mimo
actor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811049938.7A
Other languages
English (en)
Other versions
CN109379752A (zh
Inventor
乔勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Mobile Communications Group Co Ltd
China Mobile Group Jiangsu Co Ltd
Original Assignee
China Mobile Communications Group Co Ltd
China Mobile Group Jiangsu Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Mobile Communications Group Co Ltd, China Mobile Group Jiangsu Co Ltd filed Critical China Mobile Communications Group Co Ltd
Priority to CN201811049938.7A priority Critical patent/CN109379752B/zh
Publication of CN109379752A publication Critical patent/CN109379752A/zh
Application granted granted Critical
Publication of CN109379752B publication Critical patent/CN109379752B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/02Arrangements for optimising operational condition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/02Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas
    • H04B7/04Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas
    • H04B7/0413MIMO systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/10Scheduling measurement reports ; Arrangements for measurement reports

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本发明实施例提供的Massive MIMO的优化方法、装置、设备及介质,根据专家经验模式对状态信息矩阵的特征进行识别和判断,确定优化策略,在线强化学习生成多个马克可夫决策过程MDP训练序列,并将MDP训练序列存入每个波束扇区的处理缓存中;根据异步优势加权的行动者‑评论家Actor‑Critic深度增强学习网络并行计算MDP训练序列,并将学习到的最优的优化策略函数和状态值函数的权值信息,通过全局共享模式进行更新和复制;根据行动者‑评论家深度增强学习网络学习到的优化策略,确定Massive MIMO系统最优的天线权值和无线参数配置组合,实现优化调整与现网性能评估的在线实时交互,实时采用最优的天线权值和无线参数配置组合,实现网络性能最佳。

Description

Massive MIMO的优化方法、装置、设备及介质
技术领域
本发明涉及通信技术领域,尤其涉及一种大规模多输入多输出(MassiveMultiple Input Multiple Output,Massive MIMO,MM)的优化方法、装置、设备及介质。
背景技术
Massive MIMO技术是第五代移动通信技术5G中提高网络覆盖和系统容量的关键技术。在大规模MIMO系统中,基站配置有大量的天线,数目通常有几十、几百甚至几千根,是现有MIMO系统天线数目的数倍、数十倍以上。Massive MIMO充分利用大规模天线阵列和空间自由度,改进了长期演进(Long Term Evolution,LTE)的广播机制,通过波束赋形的机制发射多个波束扇区,提高发射电磁波的功率密度,增强了覆盖范围。但是,Massive MIMO系统的权值参数,随着波束扇区数目和动态扫描维度的增加,波束扇区天线权值和无线参数的组合数由200多个增加至10000多个,再加上小区重选参数、小区切换参数,使波束扇区天线权值和无线参数的组合数量更多,导致Massive MIMO系统的优化调整变得异常复杂。
已有的针对Massive MIMO网络扇区的优化方案大致有三种,以下分别做简要介绍:
第一种,按照网络规划中的仿真模型进行Massive MIMO网络扇区优化调整。
按照网络规划中使用的地图匹配,利用热点场景模型进行业务预测、覆盖仿真和干扰仿真等处理,模型可输出规划仿真后的波束扇区天线权值。规划仿真的目的是尽量使Massive MIMO基站的各个扇区的主瓣方向指向用户需求集中的方向,使用户获得尽可能强的信号,同时还可规划仿真同频、邻频扇区的无线参数,使用户在使用业务过程中获得尽可能大的增益。
第二种,通过人工调整的方式进行Massive MIMO网络扇区优化调整。
通过Massive MIMO网络统计得到不同方向的业务分布数据、覆盖数据和干扰数据等,大致判断用户业务的聚集程度,再使用测试仪表,进行实地测试,发现覆盖、干扰较差的区域,然后通过人工调整的方式修改Massive MIMO网络的天线权值和无线参数,实现对Massive MIMO网络扇区的权值和无线参数的优化调整。
第三种,基于轮询迭代方式进行Massive MIMO网络扇区优化调整。
使Massive MIMO网络的每个波束扇区对所有天线权值、无线参数进行轮询遍历,对采集到的海量网络数据进行存储、评估和测试,并以Massive MIMO网络的性能增益为目标,对采集到的样本数据与天线权值以及无线参数的不同组合进行寻优迭代,最终得到Massive MIMO网络扇区最佳的参数组合,从而可实现Massive MIMO网络扇区优化调整。
虽然上述这些方案能够在一定程度上实施Massive MIMO网络扇区优化调整,但是,对于快速发展的5G通信技术而言,移动通信基站的建设更新速度很快,已有的方案已远远不能满足实际应用的需求。
具体而言,对于第一种,按照网络规划中的仿真模型进行Massive MIMO网络扇区优化调整的方案,仿真模型中每一批新增入网的Massive MIMO基站的网络规划都是严格按照规划仿真计算出的天线方位角、下倾角、半功率角、参考信号功率等参数设置。但是,当不断有新增基站入网时,已经入网的相邻Massive MIMO基站就需要相应地优化调整;且由于新的基站入网后可使无线环境发生变化,这导致按照规划仿真的参数配置缺乏可持续性,后期网络性能下降。
对于第二种,通过人工调整的方式进行Massive MIMO网络扇区优化调整的方案,由于Massive MIMO网络波束扇区天线权值和无线参数的组合数超过10000,基于人工调整的方案不但严重依赖操作人员的经验,而且需要后台数据分析和实地测试,分问题类型、分时间段、分批次地调整网络参数,每次优化评估均要耗费大量人力成本。特别是在MassiveMIMO网络规模入网后,需要优化调整的参数数量巨大,人工调整方式显然已无法满足应用需求,效率极低。
对于第三种,基于轮询迭代方式进行Massive MIMO网络扇区优化调整,处理时需要对所有天线权值、无线参数进行逐个轮询遍历,采集得到的海量样本数据需要存储和计算,对存储器和计算能力均有很高要求;通过采集到的历史样本数据,再迭代得到最优的权值参数组合是基于旧的优化策略得到的结果,一旦网络环境发生变化,需要采集新的数据才能迭代更新优化策略;并且,由于每个Massive MIMO网络的扇区的无线环境不同,往往需要逐个轮询迭代进行优化配置,即使应用基于有效样本得出的预测模型进行参数组合配置,仍存在误差,仍需要返回现网继续测试和评估,后期还需要进行多次参数修正,整个过程耗时耗力。
发明内容
本发明实施例提供了一种Massive MIMO系统优化方案,使Massive MIMO系统不仅在优化效率和网络评估能力可以在线同时提升,而且实现优化调整与现网性能评估的在线实时交互,实时采用最优的天线权值和无线参数配置组合,实现网络性能最佳。
第一方面,本发明实施例提供了一种Massive MIMO系统优化方法,方法包括:
为用户设备UE配置多个波束扇区,接收UE上报的测量报告MR数据和统计波束扇区性能KPI数据,并根据所述MR数据和所述KPI数据生成波束扇区状态信息矩阵;
根据专家经验模式对所述状态信息矩阵的特征进行识别和判断,确定优化策略,在线强化学习生成多个马克可夫决策过程MDP训练序列,并将所述MDP训练序列存入每个波束扇区的处理缓存中;
根据异步优势加权的行动者-评论家Actor-Critic深度增强学习网络并行计算所述MDP训练序列,并将学习到的最优的优化策略函数和状态值函数的权值信息,通过全局共享模式进行更新和复制;
根据所述行动者-评论家深度增强学习网络学习到的优化策略,确定MassiveMIMO系统最优的天线权值和无线参数配置组合。
在第一方面的一些实施例中,采用波束赋形的方式形成多个所述波束扇区覆盖不同空间区域的UE;
根据所述波束扇区的参考信号接收功率强度,确定所述UE接入的波束扇区。
在第一方面的一些实施例中,所述波束扇区状态信息矩阵的方程为:
Xt={X_throughput,X_rsrp,X_Ni,X_TA,X_AOA,...}T
其中,X_throughput为波束扇区的吞吐量效率,X_rsrp为波束扇区的覆盖水平,X_Ni为波束扇区的干扰水平,X_TA为在该波束扇区下UE用于调整其主小区物理上行链路控制信道PUCCH/物理上行链路共享信道PUSCH/探测参考信号SRS上行发送的时间,X_AOA为确定UE的波达角度,t为时刻,t=1,2,3…T。
在第一方面的一些实施例中,所述根据专家经验模式对所述状态信息矩阵的特征进行识别和判断,确定优化策略,包括:
根据专家经验模式对所述波束扇区不同状态信息进行识别和判断;
从天线权值和无线参数的集合中选取相应的天线权值和无线参数;
对选取的所述天线权值和无线参数进行优化;
根据贪婪算法进行所述优化,确定优化策略。
在第一方面的一些实施例中,所述天线权值和无线参数的集合的方程为:
A={ɑ_SS-RSRP/CSI-RSRP_power,ɑ_azimuth_angle,ɑ
_elevation_angle,ɑ_horizontal_HPBW,ɑ_vertical_HPBW,ɑ
_handover_parameter,ɑ_reselection_parameter,…},
其中,ɑ_SS-RS/CSI_RS_power为同步信号参考信号接收功率SS-RSRP/信道信息状态参考信号接收功率CSI_RSRP功率参数优化调整,ɑ_azimuth_angle为波束方位角优化调整,ɑ_elevation_angle为波束俯仰角优化调整,ɑ_horizontal_HPBW为波束水平波瓣宽度优化调整,ɑ_vertical_HPBW为波束垂直波瓣宽度优化调整,ɑ_handover_parameter为Massive MIMO小区切换参数优化调整,ɑ_reselection_parameter为Massive MIMO小区重选参数的优化调整;
所述优化策略的表达式为:
π(ɑt|St),
其中,π为优化策略函数,ɑt为天线权值和无线参数优化调整,St为波束扇区的网络状态函数。
在第一方面的一些实施例中,所述MDP训练序列的方程为:(S1,ɑ1,S2,r1,…,St,ɑt,St+1,rt,…,ST-1,ɑT-1,ST,rT),
其中,rt为性能回报,ɑt为选取的所述天线权值和无线参数优化调整,St为波束扇区的网络状态函数。
在第一方面的一些实施例中,所述性能回报的方程为:
rt=η×r_CASEt+(1-η)×r_CESEt
其中,r_CASEt为小区平均吞吐效率,r_CESEt为小区边缘吞吐效率,η为小区平均吞吐效率和小区边缘吞吐量频谱效率的期望平衡的权重系数,且0≤η≤1。
在第一方面的一些实施例中,所述根据专家经验模式对所述状态信息矩阵的特征进行识别和判断,确定优化策略,包括:
根据专家经验模式对有助于优化网络性能的特征进行识别和判断,确定优化策略;
其中,所述有助于优化网络性能的特征包括所述波束扇区的弱覆盖特征、波束扇区间干扰特征、波束扇区方向与业务UE分布特征。
在第一方面的一些实施例中,所述异步优势加权的行动者-评论家深度增强学习网络并行计算所述MDP训练序列,并将学习到的最优的优化策略函数和状态值函数的权值信息,通过全局共享模式进行更新和复制,包括:
根据深度神经网络,构造基于行动者-评论家Actor-Critic结构的深度增强学习网络,其中,所述深度增强学习网络包括Actor网络模块和Critic网络模块,其中,Actor网络模块用于优化策略函数和调整天线权值和无线参数,所述Critic网络模块用于估计状态值函数;
判断各个所述波束扇区的网络性能是否最佳;
若各个所述波束扇区的网络性能是最佳,则保持当前的天线权值和无线参数配置;
若各个所述波束扇区的网络性能不是最佳,则进入深度增强学习模式。
在第一方面的一些实施例中,所述则进入深度增强学习模式,包括:
根据所述MDP训练序列,并行计算基于优势加权的k步k-step时序差分误差,通过评估所述状态值函数逼近实际回报的程度来评估所述优化策略函数下的优化程度;
所述Critic网络模块根据所述状态值函数,确定所述Critic网络模块的梯度信息,并将所述Critic网络模块的梯度信息反馈至所述Massive MIMO系统共享的Critic网络模块;
根据所述Critic网络模块的评估标准,累计更新所述Actor网络模块的优化策略梯度,并将所述Actor网络模块的梯度信息反馈至所述Massive MIMO系统共享的Actor网络模块;
所述Massive MIMO系统共享的Actor-Critic网络汇总所有所述梯度信息,并异步生成对应的权值参数;
将所述权值参数复制到所述波束扇区的Actor-Critic结构的深度增强学习网络中,直至所有所述波束扇区能够学习到所述Massive MIMO系统的优化策略函数和评估能力。
在第一方面的一些实施例中,所述优化策略函数的表达式为:
Π(ɑt|St;u),
所述状态值函数的表达式为:
V(St;v),
其中,Π为优化策略函数,u和v分别为优化策略函数和状态值函数的深度增强学习网络权值参数。
在第一方面的一些实施例中,所述根据所述MDP训练序列,并行计算基于优势加权的k步k-step时序差分误差,通过评估所述状态值函数逼近实际回报的程度来评估所述优化策略函数下的优化程度,还包括:
采用基于优势加权的k步k-step时序差分误差作为各个所述波束扇区的优势函数,所述优势函数的方程为:
Figure BDA0001794263900000071
其中,Wi为加权函数,γ为性能回报的折扣因子,且γ∈[0,1]。
在第一方面的一些实施例中,所述Actor网络模块的优化策略的目标函数为:
Figure BDA0001794263900000072
其中,Π(ɑt|St;u)为优化策略函数,V(St;v)为状态值函数,
Figure BDA0001794263900000073
为基于优势加权的k-step时序差分误差的目标函数。
在第一方面的一些实施例中,所述根据所述行动者-评论家深度增强学习网络学习到的优化策略,确定Massive MIMO系统最优的天线权值和无线参数配置组合之后,还包括:
判断整个Massive MIMO系统的性能回报是否达到最大;
若是,则保持最优的天线权值和无线参数配置组合;
若否,则进入深度增强学习模式,直到整个Massive MIMO系统的性能回报达到最大。
第二方面,本发明实施例提供了一种Massive MIMO系统优化装置,装置包括:
矩阵生成模块,用于为用户设备UE配置多个波束扇区,接收UE上报的测量报告MR数据和统计波束扇区性能KPI数据,并根据所述MR数据和所述KPI数据生成波束扇区状态信息矩阵;
训练序列生成模块,用于根据专家经验模式对所述状态信息矩阵的特征进行识别和判断,确定优化策略,在线强化学习生成多个马克可夫决策过程MDP训练序列,并将所述MDP训练序列存入每个波束扇区的处理缓存中;
深度增强学习模块,用于根据异步优势加权的行动者-评论家Actor-Critic深度增强学习网络并行计算所述MDP训练序列,并将学习到的最优的优化策略函数和状态值函数的权值信息,通过全局共享模式进行更新和复制;
优化模块,用于根据所述行动者-评论家深度增强学习网络学习到的优化策略,确定Massive MIMO系统最优的天线权值和无线参数配置组合。
本发明实施例提供了一种Massive MIMO系统优化设备,包括:至少一个处理器、至少一个存储器以及存储在存储器中的计算机程序指令,当计算机程序指令被处理器执行时实现如上述实施方式中第一方面的方法。
第四方面,本发明实施例提供了一种计算机可读存储介质,其上存储有计算机程序指令,当计算机程序指令被处理器执行时实现如上述实施方式中第一方面的方法。
本发明实施例提供的Massive MIMO系统优化方法、装置、设备及介质,为用户设备UE配置多个波束扇区,各个波束扇区接收UE上报的测量报告MR数据和统计波束扇区性能KPI数据,并根据所述MR数据和所述KPI数据生成波束扇区状态信息矩阵;根据专家经验模式对所述状态信息矩阵的特征进行识别和判断,确定优化策略,在线强化学习生成多个马克可夫决策过程MDP训练序列,并将所述MDP训练序列存入每个波束扇区的处理缓存中;根据异步优势加权的行动者-评论家Actor-Critic深度增强学习网络并行计算所述MDP训练序列,并将学习到的最优的优化策略函数和状态值函数的权值信息,通过全局共享模式进行更新和复制;根据所述行动者-评论家深度增强学习网络学习到的优化策略,确定Massive MIMO系统最优的天线权值和无线参数配置组合,使Massive MIMO系统不仅在优化效率和网络评估能力可以在线同时提升,而且实现优化调整与现网性能评估的在线实时交互,实时采用最优的天线权值和无线参数配置组合,实现网络性能最佳。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例中所需要使用的附图作简单地介绍,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了本发明实施例提供的Massive MIMO的优化方法的示意流程图;
图2示出了本发明一个示例中Massive MIMO系统中天线模块示意图;
图3示出了本发明一个示例中Massive MIMO系统波束扇区示意图;
图4示出了本发明实施例提供的行动者-评论家深度增强学习网络的示意流程图;
图5示出了本发明一个示例中Massive MIMO系统波束扇区优化示意图;
图6示出了本发明一个示例中Massive MIMO系统中多个波束扇区优化示意图;
图7示出了本发明实施例提供的Massive MIMO的优化装置的结构示意图;
图8示出了本发明实施例提供的Massive MIMO的优化设备的硬件结构示意图。
具体实施方式
下面将详细描述本发明的各个方面的特征和示例性实施例,为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细描述。应理解,此处所描述的具体实施例仅被配置为解释本发明,并不被配置为限定本发明。对于本领域技术人员来说,本发明可以在不需要这些具体细节中的一些细节的情况下实施。下面对实施例的描述仅仅是为了通过示出本发明的示例来提供对本发明更好的理解。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
下面结合附图,详细描述根据本发明实施例的Massive MIMO系统优化方法、装置、设备及介质。应注意,这些实施例并不是用来限制本发明公开的范围。
图1是示出根据本发明实施例的Massive MIMO系统优化方法的示意流程图。如图1所示,本发明实施例中的Massive MIMO系统优化方法包括以下步骤:
S110,为用户设备(User Equipment,UE)配置多个波束扇区,接收UE上报的测量报告MR数据和统计波束扇区性能KPI数据,并根据所述MR数据和所述KPI数据生成波束扇区状态信息矩阵。
S120,根据专家经验模式对所述状态信息矩阵的特征进行识别和判断,确定优化策略,在线强化学习生成多个马克可夫决策过程MDP训练序列,并将所述MDP训练序列存入每个波束扇区的处理缓存中。
S130,根据异步优势加权的行动者-评论家Actor-Critic深度增强学习网络并行计算所述MDP训练序列,并将学习到的最优的优化策略函数和状态值函数的权值信息,通过全局共享模式进行更新和复制。
S140,根据所述行动者-评论家深度增强学习网络学习到的优化策略,确定Massive MIMO系统最优的天线权值和无线参数配置组合。
其中,用户设备UE也可以被称为终端,用户设备可以是手机、平板电脑、笔记本电脑等。
在S110中,作为一个示例,采用波束赋形的方式为UE配置N个波束扇区(Sector_1、Sector_2、…Sector_i、…Sector_n),其中,N为正整数,N个波束扇区覆盖不同空间、不同区域的UE,每个波束扇区都拥有不同的波束索引,覆盖一个UE的多个波束扇区的参考信号接收功率(Reference Signal Receiving Power,RSRP)的强度是不同的。UE从多个波束扇区中选择一个波束扇区的RSRP强度最强的接入,其中,RSRP可以是信道信息状态参考信号接收功率(Channel Status Information_Reference Signal Receiving Power,CSI_RSRP),也可以是同步信号参考信号接收功率(Synchronous Signal_Reference SignalReceiving Power,SS_RSRP)。
图2示出了本发明一个示例中Massive MIMO系统中天线模块示意图,如图2所示,Massive MIMO系统中天线由Mg×Ng个子天线模块组成,各子天线模块的中心的水平方向间距为dg,H,各子天线模块的中心的垂直方向间距为dg,V,每个子天线模块包括M×N×Q个天线阵子,该M×N×Q个天线阵子组成一个收发单元(Transceiver Unit,TXRU),每个TXRU对应一个波束扇区(Sector),其中,M是每个列中具有相同极化的天线元件的数目,N是列数,Q表示极化数量,其中Q取1表示单极化,Q取2表示双极化。
图3示出了本发明一个示例中Massive MIMO系统波束扇区示意图,如图3所示,Massive MIMO天线结构实现空间分集、空间复用和波束赋形功能都是以子天线块为单位,每个子天线摸块相当于多天线中的每个子天线;图3中以子天线块为单位实现波束赋形功能,因为每个子天线块实际上是一个阵元数为M×N×Q个的阵列模块,由N×M个子天线块组成的多天线是一个二维系统,由M×N×Q个阵元组成的阵列是一个三维系统,所以,MassiveMIMO天线中的总阵元数为Mg×Ng×M×N×Q个。
在S110中,作为一个示例,MM系统中的每个波束扇区Sector_i,可根据波束扇区接收UE上报的测量报告(Measurement Report,MR)数据和波束扇区性能(Key PerformanceIndicators,KPI)数据,生成对应时刻的波束扇区的状态信息矩阵Xt。例如,在时刻t,根据Massive MIMO系统中各个波束扇区Sector的吞吐量效率、覆盖水平、干扰水平、UE分布等状态信息,可以用表达式(1)来表示单个波束扇区的状态信息矩阵,如下:
Xt={X_throughput,X_rsrp,X_Ni,X_TA,X_AOA,...}T (1)
其中,Xt表示时刻t(t=1,2,3,…T)当前波束扇区的状态信息矩阵;
X_throughput表示波束扇区的吞吐量效率,这里,波束扇区的吞吐量效率包括小区平均吞吐量效率X_throughput_averager和小区边缘吞吐量效率;
X_rsrp表示波束扇区的覆盖水平,其中,X_rsrp_serving_sector表示在该波束扇区下UE上报测量的服务扇区的参考信号接收功率情况,X_rsrp_neighbor_sector_1、X_rsrp_neighbor_sector_2、X_rsrp_neighbor_sector_3、…、X_rsrp_neighbor_sector_n表示在该波束扇区下UE上报测量的所有相邻波束扇区的参考信号接收功率情况,其中,n表示相邻波束扇区的个数,且相邻波束扇区的参考信号接收功率情况按照信号强度由强到弱降序排列;
X_Ni表示波束扇区的干扰水平,其中,X_Ni_UL sinr表示所有UE上报测量的波束扇区的上行信号链路质量,X_Ni_DL sinr表示所有UE上报测量波束扇区的下行信号链路质量;X_TA表示在该波束扇区下UE用于调整其主小区物理上行链路控制信道(Physical UplinkControl Channel,PUCCH)/物理上行链路共享信道(Physical Uplink Shared Channel,PUSCH)/探测参考信号(Sounding Reference Signal,SRS)上行发送的时间,进而确定UE距离Massive MIMO视频系统的远近;
X_AOA表示确定UE的波达角度,其中,在Massive MIMO系统的立体空间中包括水平波达角度X_Horizontal_AOA和垂直波达角度X_Vertical_AOA
在本发明的实施例中,每个波束扇区都有对应的状态信息矩阵,其他波束扇区的状态信息矩阵都可以根据上述表达式(1)来确定。
在本发明的实施例中,波束扇区的状态信息矩阵不仅仅包括波束扇区的吞吐量效率、覆盖水平、干扰水平、UE分布等状态信息,还可以包括其他对优化网络性能有用的特定的状态信息,其他特定的状态信息可根据实际需求进行设置。
在本发明的某些实施例中,可将MR数据和KPI数据进行归一化处理,即将MR数据和KPI数据统一映射到[0,1]的区间上,形成标准化数值,便于进行相关数据处理。
举例来说,根据测量报告MR数据和波束扇区性能KPI数据,生成波束扇区的状态信息矩阵,并将涉及到的数据进行归一化处理,每个波束扇区都有对应的状态信息矩阵,便于特征的识别和判断,便于对波束扇区的并行处理,且数据进行归一化处理,能够防止参数异常,计算速度快。
在S120中,作为一个示例,根据专家经验模式对Massive MIMO系统下,各自不同的波束扇区的状态信息矩阵Xt的不同网络状态St的特征进行识别和判断,并针对性地从Massive MIMO系统优化调整所涉及的天线权值和无线参数的集合中,选取相应的天线权值和无线参数,并对选取的天线权值和无线参数进行优化动作ɑ,为了获取该优化策略下的最大性能回报r,采取贪婪算法进行优化调整,进而形成专家经验模式下的特定优化策略π(ɑt|St);根据特定优化策略,在线强化学习生成马克可夫决策过程(Markov DecisionProcesses,MDP)训练序列,MDP训练序列为(S1,ɑ1,S2,r1,…,St,ɑt,St+1,rt,…,ST-1,ɑT-1,ST,rT)。
在本发明实施例中,特定优化策略π(ɑt|St)是每个波束扇区(Sector_i)不同的网络状态通过专家经验模式对状态信息矩阵Xt中的特征进行自动识别和判断,选取相应的天线权值和无线参数组合进行优化动作ɑ,形成的专家经验模式下的特定优化策略π。其中,S表示MM系统下波束扇区的网络环境或网络性能的状态函数,Xt为时刻t波束扇区的状态信息矩阵Xt,对应的St+1=(St,ɑt,Xt+1),对应的St=[Xt],即,S1是波束扇区的状态信息矩阵X1的状态函数,St是波束扇区的状态信息矩阵Xt的状态函数。
A为Massive MIMO小区优化调整所涉及的天线权值和无线参数的设置的集合,优化动作ɑ∈A,集合A中天线权值和无线参数的所有优化动作ɑ均被专家经验模式下的特定优化策略π所映射。
作为一个示例,可以用表达式(2)来表示集合A。
A={ɑ_SS-RS/CSI-RS_power,ɑ_azimuth_angle,ɑ_elevation_angle,ɑ_horizontal_HPBW,ɑ_vertical_HPBW,ɑ_handover_parameter,ɑ_reselection_parameter,…} (2)
其中,ɑ_SS-RS/CSI_RS_power为SS-RS/CSI_RS功率参数优化调整,ɑ_azimuth_angle为波束方位角优化调整,ɑ_elevation_angle为波束俯仰角优化调整,ɑ_horizontal_HPBW为波束水平波瓣宽度优化调整,ɑ_vertical_HPBW为波束垂直波瓣宽度优化调整,ɑ_handover_parameter为Massive MIMO小区切换参数优化调整,ɑ_reselection_parameter为Massive MIMO小区重选参数优化调整,等。
在本发明的实施例中,集合A不仅仅包括覆盖功率参数、波束方位角、波束俯仰角、波束垂直波瓣宽度、小区切换参数、小区重选参数等天线权值和无线参数的优化动作,还包括其他优化调整所涉及的天线权值和无线参数的优化动作,其他优化调整所涉及的天线权值和无线参数可根据实际需求进行设置。
作为一个示例,为了在执行优化动作后获得波束扇区的最大性能回报奖励,采用贪婪算法调整优化动作,r表示针对St下执行优化动作ɑt后的性能回报,即r(St,ɑt,St+1)为标量函数,即Massive MIMO系统中波束扇区根据当前的网络状态执行优化动作ɑ之后,波束扇区得到的性能回报,可以通过表达式(3)来计算波束扇区的性能回报:
rt=η×r_CASEt+(1-η)×r_CESEt (3)
其中,r_CASEt为小区平均吞吐量效率的性能回报,r_CESEt为小区边缘吞吐量效率的性能回报,η为小区平均吞吐量效率和小区边缘吞吐量效率的平衡的权重系数,且,0≤η≤1。例如,UE数量相对较少推荐取值95%,UE数量相对较多推荐取值60%。η的取值可以根据UE数量进行设置。
其中,
Figure BDA0001794263900000151
Figure BDA0001794263900000152
其中r_CASEt=traffic.throughput.BitRate.为波束扇区业务在统计周期t内统计到业务吞吐率;
Figure BDA0001794263900000153
为波束扇区业务在统计周期进行采样,获取到低信道质量指示(Channel Quality Indicator,CQI)时的业务吞吐率的平均速率,其中,LowCQI≤7,根据实际支持CQI表格决定,取对应的正交相移键控(Quadrature Phase Shift Keying,QPSK)调制的CQI指示。
在本发明的实施例中,通过UE反馈的CQI指标反馈无线信道质量,把信道质量量化成0~15的序列(4bit数来承载),并定义为CQI,演进型基站(Evolved Node B,eNodeB)根据上报的CQI来决定编码方式。
作为一个示例,表1是4-bit CQI Table数据信息表,CQI index等于15,对于CQI指示对应的QPSK的格式,可等效为小区边缘环境。
表1
Figure BDA0001794263900000154
Figure BDA0001794263900000161
作为一个示例,根据专家经验模式对波束扇区的弱覆盖特征进行识别和判断,确定特定优化策略,并生成MDP训练序列过程包括:
根据专家经验模式在波束扇区的状态信息矩阵Xt中,识别和判断出覆盖特征,在该波束扇区下所有UE上报测量的服务扇区参考信号(SS_RS/CSI_RS)的平均接收功率X_rsrp_serving_sector小于一定的门限X_min_rsrp_threshold,即服务扇区参考信号平均接收功率:
Figure BDA0001794263900000162
对选取的覆盖功率参数SS-RS/CSI-RS_power进行优化动作ɑ,即ɑ_SS-RS/CSI-RS_power,以0.5dB为调整步进,为了获取特定优化策略下的最大性能回报r,采用贪婪算法调整覆盖功率,覆盖功率调整范围为[0,P_max dB],进而形成专家经验模式下的特定优化策略,通过在线强化学习将专家模式下的特定优化策略生成MDP训练序列,MDP训练序列为(S1,ɑ1,S2,r1,…,St,ɑt,St+1,rt,…,ST-1,ɑT-1,ST,rT)。
在本发明实施例中,门限X_min_rsrp_threshold可以根据经验进行设置。
作为另一个示例,根据专家经验模式下对波束扇区间的干扰特征进行识别和判断,确定特定优化策略,并生成MDP训练序列过程包括:
根据专家经验模式在波束扇区的状态信息矩阵Xt中,识别和判断出干扰特征,在该波束扇区下UE上报测量的服务扇区参考信号(SS_RS/CSI_RS)平均接收功率X_rsrp_serving_sector与该波束扇区下所有UE上报测量的第N个最强相邻波束参考信号平均接收功率的差值小于一定的门限D_rsrp,且所有UE上报测量波束扇区的下行信号链路质量X_Ni_Dl_sinr小于一定的门限X_min_Dl_sinr,即(X_rsrp_serving_sector-X_rsrp_neighbor_sector_N)<D_rsrp且X_Ni_Dl_sinr<X_min_Dl_sinr
对选取的扇区水平方向半功率波瓣宽度horizontal_HPBW,或,扇区垂直方向半功率波瓣宽度vertical_HPBW进行优化动作ɑ,即ɑ_horizontal_HPBW或ɑ_vertical_HPBW,以1-3度为调整步进,为了获取特定优化策略下的最大性能回报r,采用线性递减的贪婪算法调整波瓣宽度,调整范围为[3,65]度,进而形成专家经验模式下的特定优化策略,通过在线强化学习将专家经验模式下的特定优化策略生成MDP训练序列,MDP训练序列为(S1,ɑ1,S2,r1,…,St,ɑt,St+1,rt,…,ST-1,ɑT-1,ST,rT)。
在本发明实施例中,门限D_rsrp和门限X_min_Dl_sinr可以根据经验进行设置,如,D_rsrp为3dB,X_min_Dl_sinr为-3dB。
作为另一个示例,根据专家经验模式对波束扇区的方向与业务UE分布偏差特征识别和判断,确定特定优化策略,并生成MDP训练序列过程包括:
在波束扇区的状态信息矩阵Xt中,根据UE的业务服务质量(Quality of Service,QOS)等级和业务量需求标记方式的上行物理信号入射方向、UE上行传输时间提前量(Timing Advanced,TA)分布与Massive MIMO基站天面法线水平(垂直)面夹角
Figure BDA0001794263900000171
取均值计算,即
Figure BDA0001794263900000172
Figure BDA0001794263900000173
确定标记有业务量UE范围,其中,QOS等级包括,11为高优先级有业务量需求的UE,10为低优先级有业务量需求的UE,01为高优先级零业务量需求的UE,00为低优先级零业务量需求的UE。对波束扇区的方位角进行优化动作,即ɑ_azimuth_angle,为了获取特定优化策略下的最大性能回报r,采用贪婪算法调整波束扇区的方位角,调整范围为
Figure BDA0001794263900000174
对波束扇区的俯仰角进行优化动作,即ɑ_elevation_angle,为了获取特定优化策略下的最大性能回报r,采用贪婪算法调整波束扇区的俯仰角,调整范围为[-2×θZOA,2×θZOA],进而形成专家经验模式下的特定优化策略,通过在线强化学习将专家模式下的特定优化策略生成MDP训练序列,MDP训练序列为(S1,ɑ1,S2,r1,…,St,ɑt,St+1,rt,…,ST-1,ɑT-1,ST,rT)。
作为一个示例,根据每个波束扇区的特定优化策略,在线强化学习生成马克可夫决策过程MDP训练序列,并将MDP训练序列存到各自的波束扇区的强化学习网络架构的处理缓存中。
在本发明的实施例中,专家经验模式对所述波束扇区的状态信息特征不仅仅包括弱覆盖特征、波束扇区间干扰特征、波束扇区方向与业务UE分布特征,还可以包括其他对有助于优化网络性能的状态信息特征,其他特征同样可以根据实际需求设置特征条件和优化动作,通过专家经验模式进行识别和判断,形成优化策略;在线强化学习生成多个马克可夫决策过程MDP训练序列,并将MDP训练序列存到各自的波束扇区的强化学习网络架构的处理缓存中。
在本发明实施例中,根据专家经验模式对Massive MIMO系统下各自不同的波束扇区的状态信息矩阵Xt的不同网络状态的特征进行识别和判断,并针对性地从Massive MIMO系统优化调整所涉及的天线权值和无线参数的集合中,选取相应的天线权值和无线参数,并对选取的天线权值和无线参数进行优化动作ɑ,为了获取波束扇区的最大性能回报r,采取贪婪算法进行优化调整,进而形成专家经验模式下的特定优化策略π(ɑt|St);根据特定优化策略,在线强化学习生成马克可夫决策过程MDP训练序列,并将MDP训练序列存入各个波束扇区的处理缓存中,既避免了需要大量存储空间来存储历史样本数据,节约了存储空间,可以加速MM系统优化策略的探索和收敛,使Massive MIMO系统的网络性能快速进入局部最优的状态,调整效率快,减少了人工成本,并能够保证Massive MIMO系统网络稳定性。
图4示出了本发明实施例提供的行动者-评论家深度增强学习网络的示意流程图。如图4所示,行动者-评论家深度增强学习网络,包括如下步骤:
S131,根据深度神经网络,构造基于行动者-评论家Actor-Critic结构的深度增强学习网络,其中,所述深度增强学习网络包括Actor网络模块和Critic网络模块,其中,Actor网络模块用于优化策略函数和调整天线权值和无线参数,所述Critic网络模块用于估计状态值函数。
S132,判断各个所述波束扇区的网络性能是否最佳。
S133,根据所述MDP训练序列,并行计算基于优势加权的k步k-step时序差分误差,通过评估所述状态值函数逼近实际回报的程度来评估所述优化策略函数下的优化程度。
S134,所述Critic网络模块根据所述状态值函数,确定所述Critic网络模块的梯度信息,并将所述Critic网络模块的梯度信息反馈至所述Massive MIMO系统共享的Critic网络模块。
S135,根据所述Critic网络模块的评估标准,累计更新所述Actor网络模块的优化策略梯度,并将所述Actor网络模块的梯度信息反馈至所述Massive MIMO系统共享的Actor网络模块。
S136,所述Massive MIMO系统共享的Actor-Critic网络汇总所有所述梯度信息,并异步生成对应的权值参数。
S137,将所述权值参数复制到所述波束扇区的Actor-Critic结构的深度增强学习网络中,直至所有所述波束扇区能够学习到所述Massive MIMO系统的优化策略函数和评估能力。
在S131中,作为一个示例,针对Massive MIMO系统下每个波束扇区,将深度神经网络作为函数逼近器,构造基于行动者-评论家(Actor-Critic)结构的深度增强学习网络,其中,深度神经网络由n个卷积层和m个全连接层组成,n和m均为正整数。
图5示出了Massive MIMO系统波束扇区优化示意图,如图5所示,行动者-评论家(Actor-Critic)结构的深度增强学习网络由Actor网络模块和Critic网络模块组成,其中,Actor网络模块用于优化策略函数Π(ɑt|St;u)和相对应的优化动作(调整天线权值和无线参数),Critic网络模块用于估计状态值函数V(St;v),其中u和v分别为优化策略函数和状态值函数的深度增强学习网络权值参数。
每个波束扇区都独自拥有结构相同的Actor网络模块,即拥有深度增强学习优化策略函数Π(ɑt|St;u),和Critic网络模块,即拥有状态值函数V(St;v),且每个波束扇区都独自拥有基于行动者-评论家(Actor-Critic)结构的深度增强学习网络权值参数u,v。
每个波束扇区根据深度增强学习优化策略函数Π(ɑt|St;u),执行优化动作a来调整天线权值和无线参数,为了得到最大的性能回报r,状态值函数V(St;v)根据MM网络给出的真实回报与自己的评估差异来调整自动的评估标准,使得评估更加精确;Actor网络模块的优化策略函数Π(ɑt|St;u)根据状态价值函数V(St;v)的评估,调整MM网路优化策略,选择更优的天线权值和无线参数组合,执行优化动作a,获得更多的MM网路性能回报。
在本发明实施例中,借助于专家经验模式下在线强化学习获得个马尔可夫决策过程(MDP)训练序列,每个波束扇区(Sector_i)进行深度增强学习时,避免随机优化动作导致Massive MIMO网络性能的下降,同时减少不必要的天线权值和参数组合,加快了优化策略和网络评估的训练,更快地获得最佳网络性能。
在S132中,作为一个示例,对于MDP训练序列的每一个时刻(St,ɑt),其目标都是获得波束扇区最大化的性能回报r,即,使波束扇区的网络性能达到最佳。判断在时刻t,波束扇区的网络性能是否最佳,若是,则后续的优化动作的累计回报Gt:T=0,则保持最优的天线权值和无线参数配置。如果在时刻t,波束扇区的网络性能仍没有达到最佳状态,则进入深度增强学习模式。若后续的优化动作的累计性能回报约等于状态值函数的评估值时,即Gt:T≈V(St;v),表示从状态St开始,波束扇区在优化策略函数下执行优化动作ɑ,直到网络性能最佳时的得到的累计性能回报。
在S133中,作为一个示例,深度增强学习模式包括,采用基于优势加权的k-step时序差分误差,作为评估每个波束扇区(Sector_i)的天线权值和无线参数所进行优化动作a的优势函数At。具体地,通过状态值函数V(St;v)去逼近实际性能回报程度来评估优化动作的好坏,根据贝尔曼方程获得优化动作的累计性能回报,可以根据下面的表达式(4)来计算:
Figure BDA0001794263900000211
其中,γ为性能回报的折扣因子,且,γ∈[0,1],当γ接近于0时着重瞬时回报,当γ接近于1时着重长期回报。后续k-step的上界为tmax,k=T(tmax)-t;
r是波束扇区的对应的即时奖励,rt=η×r_CASEt+(1-η)×r_CESEt,其中r_CASEt为小区平均吞吐效率,r_CESEt为小区边缘吞吐效率,η为为小区平均吞吐效率和小区边缘吞吐量频谱效率的期望平衡的权重系数,且0≤η≤1。
其中,
Figure BDA0001794263900000212
Figure BDA0001794263900000213
其中r_CASEt=traffic.throughput.BitRate.为波束扇区业务在统计周期t内统计到业务吞吐率;
Figure BDA0001794263900000214
为波束扇区业务在统计周期进行采样,获取到低CQI时的业务吞吐率的平均速率,其中,低CQI≤7,根据实际支持CQI表格决定,取对应的QPSK调制的CQI指示。
为了加速深度增强学习效率,对k-step性能回报的状态值评估进行优势加权,其加权函数为表达式(5):
Figure BDA0001794263900000215
基于优势加权的k-step时序差分误差的目标函数TD-target为表达式(6):
Figure BDA0001794263900000216
因此,基于优势加权的k-step时序差分误差作为波束扇区(Sector_i)评估调整天线权值和无线参数所进行优化动作a的优势函数At为:
Figure BDA0001794263900000217
对应的St+K是MDP训练序列中(St,At)的评估,对k步中的每一个时刻进行迭代以及对应的状态值,遇到最后小于长度为k的步长,进行降级处理。
在本发明实施例中,k-step时序差分误差评估方法没有立即对下一个时刻的状态St+1进行误差评估,一方面,充分考虑Massive MIMO系统的无线网络的连续性和稳定性;另一方面,利用已经执行k-step的MDP训练序列,计算多步的回报在最优天线权值和无线参数附近快速迭代寻优,更逼近完成所有优化调整步骤的状态值评估,迭代计算量小,使对优化策略调整和状态价值评估的学习效率更高。
在S134中,作为一个示例,对于每个波束扇区(Sector_i)通过并行计算出的基于优势加权的k-step时序差分误差At,迭代k-step时序差分误差评估,对应的St+K时刻是MDP中(St,at)的评估,对k步中的每个时刻进行迭代,并代入Critic网络模块中的状态值函数V的损失函数,损失函数为:
Figure BDA0001794263900000221
其中,i∈(t,t+k),通过梯度下降算法计算,使得Critic网络模块的权值参数的梯度值
Figure BDA0001794263900000222
最小化,并通过累计更新的方式将每个波束扇区(Sector_i)中Critic网络模块累计梯度去更新存储的所有MM系统共享的Critic网络梯度信息dvs,即
Figure BDA0001794263900000223
Figure BDA0001794263900000224
在S135中,作为一个示例,将基于优势加权的k-step时序差分误差对每个波束扇区(Sector_i)评估优化动作ɑ的优势函数At作为基函数,来累计更新每个波束扇区(Sector_i)的Actor网络模块中优化策略函数梯度。
在每个波束扇区(Sector_i)的Actor网络模块中优化策略函数梯度的寻优过程中,选取优化调整的参数集合A中天线权值和无线参数的最优设置或最优组合。
优化策略的目标函数为:
Figure BDA0001794263900000225
通过i∈(t,t+k)对梯度上升方式计算使Actor网络模块的权值梯度值
Figure BDA0001794263900000231
最大化,并通过累计梯度更新,将各个波束扇区(Sector_i)中Actor网络模块的累计梯度去更新所有Massive MIMO系统共享的Actor网络梯度信息dus,即:
Figure BDA0001794263900000232
在S136中,作为一个示例,图6示出了Massive MIMO系统中多个波束扇区优化示意图,如图6所示,所有Massive MIMO系统共享的Actor-Critic网络汇总到来自不同波束扇区(Sector_i)的Actor-Critic网络权值梯度dvs和dus,通过深度Actor-Critic网络异步生成所有Massive MIMO系统共享的深度Actor-Critic网络的权值参数us和vs
在S137中,作为一个示例,将所有Massive MIMO系统共享的权值参数us和vs信息,复制到各个波束扇区(Sector_i)的Actor-Critic网络中,重复S133至S136,使得各个波束扇区(Sector_i)能够学习到所有的所有Massive MIMO系统共享的权值参数us和vs信息系统的优化策略函数和评估能力。
在本发明实施例中,利用基于优势加权的k-step时序差分误差估计快速迭代寻优,通过深度网络优化函数的权值信息共享模式,每个波束扇区优化策略函数和评估能力可以不用本地样本也能学习,入网的Massive MIMO系统越多,寻找最优天线权值和无线参数配置速度越快。基于优势加权的k-step优化方案与基于轮询迭代方式的优化方案的效果对比如表2所示:
表2
轮询迭代 K-step
Massive MIMO天线权值和参数 10000+ 5000+
n个波束扇区 n*10000+ 5000+/n
m个Massive MIMO系统 m*n*10000+ 5000+/(m*n)
例如,对于一个200个波束扇区的Massive MIMO系统规模性部署区域来说,每个参数(或组合)样本100个,完成所有参数迭代至少需要16亿次的迭代,而在本发明实施例中,由于对每个波束扇区进行分布式处理,专家经验模式下参数组合迭代可减少50%,采用k-step回报寻优学习3-4次完成所有参数寻优,天线权值和无线参数配置寻优速度明显提升。
在S140中,作为一个示例,Massive MIMO系统中的每个波束扇区(Sector_i)通过深度增强学习到的优化策略函数和评估能力,针对各自不同的网络状态,相应地采取最优的天线权值参数和网络参数配置组合,如果整个Massive MIMO系统达到最佳状态则保持参数设置,否则继续进入深度增强学习模式,继续寻求最优的天线权值参数和网络参数配置组合,使网络性能回报达到最大。
在本发明实施中,Massive MIMO系统基于优势加权的k-step时序差分误差估计和深度网络优化策略和状态值函数权值共享和复制的方式,使Massive MIMO系统不仅在优化效率和网络评估能力可以在线同时提升,而且实现优化调整与现网性能评估的在线实时交互,实时采用最优的天线权值和无线参数配置组合,实现网络性能最佳。
基于同样的发明构思,本发明实施例还提供了一种Massive MIMO的优化装置。如图7所示,本发明实施例提供的Massive MIMO的优化装置,包括:
矩阵生成模块701,用于矩阵生成模块,用于为用户设备UE配置多个波束扇区,接收UE上报的测量报告MR数据和统计波束扇区性能KPI数据,并根据所述MR数据和所述KPI数据生成波束扇区状态信息矩阵;
训练序列生成模块702,用于根据专家经验模式对所述状态信息矩阵的特征进行识别和判断,确定优化策略,在线强化学习生成多个马克可夫决策过程MDP训练序列,并将所述MDP训练序列存入每个波束扇区的处理缓存中;
深度增强学习模块703,用于根据异步优势加权的行动者-评论家Actor-Critic深度增强学习网络并行计算所述MDP训练序列,并将学习到的最优的优化策略函数和状态值函数的权值信息,通过全局共享模式进行更新和复制;
优化模块704,用于根据所述行动者-评论家深度增强学习网络学习到的优化策略,确定Massive MIMO系统最优的天线权值和无线参数配置组合。
在一个实施方式中,矩阵生成模块701具体用于:采用波束赋形的方式形成多个所述波束扇区覆盖不同空间区域的UE;
根据所述波束扇区的参考信号接收功率强度,确定所述UE接入的波束扇区。
在一个实施方式中,矩阵生成模块701具体用于:所述波束扇区状态信息矩阵的方程为:
Xt={X_throughput,X_rsrp,X_Ni,X_TA,X_AOA,...}T
其中,X_throughput为波束扇区的吞吐量效率,X_rsrp为波束扇区的覆盖水平,X_Ni为波束扇区的干扰水平,X_TA为在该波束扇区下UE用于调整其主小区物理上行链路控制信道PUCCH/物理上行链路共享信道PUSCH/探测参考信号SRS上行发送的时间,X_AOA为确定UE的波达角度,t为时刻,t=1,2,3…T。
在一个实施方式中,训练序列生成模块702具体用于:根据专家经验模式对所述波束扇区不同状态信息进行识别和判断;
从天线权值和无线参数的集合中选取相应的天线权值和无线参数;
对选取的所述天线权值和无线参数进行优化;
根据贪婪算法进行所述优化,确定优化策略。
在一个实施方式中,训练序列生成模块702具体用于:所述天线权值和无线参数的集合的方程为:
A={ɑ_SS-RSRP/CSI-RSRP_power,ɑ_azimuth_angle,ɑ
_elevation_angle,ɑ_horizontal_HPBW,ɑ_vertical_HPBW,ɑ
_handover_parameter,ɑ_reselection_parameter,…},
其中,ɑ_SS-RS/CSI_RS_power为同步信号参考信号接收功率SS-RSRP/信道信息状态参考信号接收功率CSI_RSRP功率参数优化调整,ɑ_azimuth_angle为波束方位角优化调整,ɑ_elevation_angle为波束俯仰角优化调整,ɑ_horizontal_HPBW为波束水平波瓣宽度优化调整,ɑ_vertical_HPBW为波束垂直波瓣宽度优化调整,ɑ_handover_parameter为Massive MIMO小区切换参数优化调整,ɑ_reselection_parameter为Massive MIMO小区重选参数的优化调整;
所述优化策略的表达式为:
π(ɑt|St),
其中,π为优化策略函数,ɑt为天线权值和无线参数优化调整,St为波束扇区的网络状态函数。
在一个实施方式中,训练序列生成模块702具体用于:MDP训练序列的方程为:
(S1,ɑ1,S2,r1,…,St,ɑt,St+1,rt,…,ST-1,ɑT-1,ST,rT),
其中,rt为性能回报,ɑt为选取的所述天线权值和无线参数优化调整,St为波束扇区的网络状态函数。
在一个实施方式中,训练序列生成模块702具体用于:性能回报的方程为:
rt=η×r_CASEt+(1-η)×r_CESEt
其中,r_CASEt为小区平均吞吐效率,r_CESEt为小区边缘吞吐效率,η为小区平均吞吐效率和小区边缘吞吐量频谱效率的期望平衡的权重系数,且0≤η≤1。
在一个实施方式中,训练序列生成模块702具体用于:根据专家经验模式对有助于优化网络性能的特征进行识别和判断,确定优化策略;
其中,所述有助于优化网络性能的特征包括所述波束扇区的弱覆盖特征、波束扇区间干扰特征、波束扇区方向与业务UE分布特征。
在一个实施方式中,深度增强学习模块703具体用于:根据深度神经网络,构造基于行动者-评论家Actor-Critic结构的深度增强学习网络,其中,所述深度增强学习网络包括Actor网络模块和Critic网络模块,其中,Actor网络模块用于优化策略函数和调整天线权值和无线参数,所述Critic网络模块用于估计状态值函数;
判断各个所述波束扇区的网络性能是否最佳;
若各个所述波束扇区的网络性能是最佳,则保持当前的天线权值和无线参数配置;
若各个所述波束扇区的网络性能不是最佳,则进入深度增强学习模式。
在一个实施方式中,深度增强学习模块703具体用于:
根据所述MDP训练序列,并行计算基于优势加权的k步k-step时序差分误差,通过评估所述状态值函数逼近实际回报的程度来评估所述优化策略函数下的优化程度;
所述Critic网络模块根据所述状态值函数,确定所述Critic网络模块的梯度信息,并将所述Critic网络模块的梯度信息反馈至所述Massive MIMO系统共享的Critic网络模块;
根据所述Critic网络模块的评估标准,累计更新所述Actor网络模块的优化策略梯度,并将所述Actor网络模块的梯度信息反馈至所述Massive MIMO系统共享的Actor网络模块;
所述Massive MIMO系统共享的Actor-Critic网络汇总所有所述梯度信息,并异步生成对应的权值参数;
将所述权值参数复制到所述波束扇区的Actor-Critic结构的深度增强学习网络中,直至所有所述波束扇区能够学习到所述Massive MIMO系统的优化策略函数和评估能力。
在一个实施方式中,深度增强学习模块703具体用于:优化策略函数的表达式为:
Π(ɑt|St;u),
所述状态值函数的表达式为:
V(St;v),
其中,Π为优化策略函数,u和v分别为优化策略函数和状态值函数的深度增强学习网络权值参数。
在一个实施方式中,深度增强学习模块703具体用于:采用基于优势加权的k步k-step时序差分误差作为各个所述波束扇区的优势函数,所述优势函数的方程为:
Figure BDA0001794263900000281
其中,Wi为加权函数,γ为性能回报的折扣因子,且γ∈[0,1]。
在一个实施方式中,深度增强学习模块703具体用于:Actor网络模块的优化策略的目标函数为:
Figure BDA0001794263900000282
其中,Π(ɑt|St;u)为优化策略函数,V(St;v)为状态值函数,
Figure BDA0001794263900000283
为基于优势加权的k-step时序差分误差的目标函数。
在一个实施方式中,优化模块704具体用于:判断整个Massive MIMO系统的性能回报是否达到最大;
若是,则保持最优的天线权值和无线参数配置组合;
若否,则进入深度增强学习模式,直到整个Massive MIMO系统的性能回报达到最大。
另外,结合图1至图7述的本发明实施例的Massive MIMO系统优化方法和MassiveMIMO系统优化装置可以由Massive MIMO系统设备来实现。图8示出了本发明实施例提供的Massive MIMO系统设备的硬件结构示意图。
Massive MIMO系统设备可以包括处理器801以及存储有计算机程序指令的存储器802。
图8是示出能够实现根据本发明实施例的通信方法和网络服务器的计算设备的示例性硬件架构的结构图。如图8所示,计算设备800包括输入设备801、输入接口802、处理器803、存储器804、输出接口805、以及输出设备806。
其中,输入接口802、处理器803、存储器804、以及输出接口805通过总线810相互连接,输入设备801和输出设备806分别通过输入接口802和输出接口805与总线810连接,进而与计算设备800的其他组件连接。
具体地,输入设备801接收来自外部的输入信息,并通过输入接口802将输入信息传送到处理器803;处理器803基于存储器804中存储的计算机可执行指令对输入信息进行处理以生成输出信息,将输出信息临时或者永久地存储在存储器804中,然后通过输出接口805将输出信息传送到输出设备806;输出设备806将输出信息输出到计算设备800的外部供用户使用。
计算设备800可以执行本申请上述的通信方法中的各步骤。
处理器803可以是一个或多个中央处理器(英文:Central Processing Unit,CPU)。在处理器801或处理器701是一个CPU的情况下,该CPU可以是单核CPU,也可以是多核CPU。
存储器804可以是但不限于随机存储存储器(RAM)、只读存储器(ROM),可擦除可编程只读存储器(EPROM)、光盘只读存储器(CD-ROM)、硬盘等中的一种或多种。存储器804用于存储程序代码。
可以理解的是,在本申请实施例中,图7提供的任一模块或全部模块的功能可以用图8所示的中央处理器803实现。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用全部或部分地以计算机程序产品的形式实现,所述计算机程序产品包括一个或多个计算机指令。在计算机上加载或执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL)或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输)。所述计算机可读取存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘SolidState Disk(SSD))等。
本说明书的各个部分均采用递进的方式进行描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点介绍的都是与其他实施例不同之处。尤其,对于装置和系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例部分的说明即可。

Claims (17)

1.一种大规模多入多出Massive MIMO系统优化方法,其特征在于,所述方法包括:
为用户设备UE配置多个波束扇区,接收UE上报的测量报告MR数据和统计波束扇区性能KPI数据,并根据所述MR数据和所述KPI数据生成波束扇区状态信息矩阵;
根据专家经验模式对所述状态信息矩阵的特征进行识别和判断,确定优化策略,在线强化学习生成多个马克可夫决策过程MDP训练序列,并将所述MDP训练序列存入每个波束扇区的处理缓存中;
根据异步优势加权的行动者-评论家Actor-Critic深度增强学习网络并行计算所述MDP训练序列,并将学习到的最优的优化策略函数和状态值函数的权值信息,通过全局共享模式进行更新和复制;
根据所述行动者-评论家深度增强学习网络学习到的优化策略,确定Massive MIMO系统最优的天线权值和无线参数配置组合。
2.根据权利要求1所述的方法,其特征在于,所述为用户设备UE配置多个波束扇区,包括:
采用波束赋形的方式形成多个所述波束扇区覆盖不同空间区域的UE;
根据所述波束扇区的参考信号接收功率强度,确定所述UE接入的波束扇区。
3.根据权利要求1所述的方法,其特征在于,
所述波束扇区状态信息矩阵的方程为:
Figure DEST_PATH_IMAGE001
其中,
Figure 559551DEST_PATH_IMAGE002
为波束扇区的吞吐量效率,
Figure DEST_PATH_IMAGE003
为波束扇区的覆盖水平,
Figure 53856DEST_PATH_IMAGE004
为波束扇区的干扰水平,
Figure DEST_PATH_IMAGE005
为在该波束扇区下UE用于调整其主小区物理上行链路控制信道PUCCH/物理上行链路共享信道PUSCH/探测参考信号SRS上行发送的时间,
Figure 476003DEST_PATH_IMAGE006
为确定UE的波达角度,
Figure DEST_PATH_IMAGE007
为时刻,t=1,2,3…T。
4.根据权利要求1所述的方法,其特征在于,所述根据专家经验模式对所述状态信息矩阵的特征进行识别和判断,确定优化策略,包括:
根据专家经验模式对所述波束扇区不同状态信息进行识别和判断;
从天线权值和无线参数的集合中选取相应的天线权值和无线参数;
对选取的所述天线权值和无线参数进行优化;
根据贪婪算法进行所述优化,确定优化策略。
5.根据权利要求4所述的方法,其特征在于,所述天线权值和无线参数的集合的方程为:
A={ɑ_SS-RSRP/CSI-RSRP_power,ɑ_azimuth_angle,ɑ_elevation_angle,ɑ_horizontal_HPBW,ɑ_vertical_HPBW,ɑ_handover_parameter,ɑ_reselection_parameter,…},
其中,ɑ_SS-RS/CSI_RS_power为同步信号参考信号接收功率SS-RSRP/信道信息状态参考信号接收功率CSI_RSRP功率参数优化调整,ɑ_azimuth_angle为波束方位角优化调整,ɑ_elevation_angle为波束俯仰角优化调整,ɑ_horizontal_HPBW为波束水平波瓣宽度优化调整,ɑ_vertical_HPBW为波束垂直波瓣宽度优化调整,ɑ_handover_parameter为MassiveMIMO小区切换参数优化调整,ɑ_reselection_parameter为Massive MIMO小区重选参数的优化调整;
所述优化策略的表达式为:
π(ɑt|St),
其中,π为优化策略函数,ɑt为天线权值和无线参数优化调整,St为波束扇区的网络状态函数。
6.根据权利要求1-5任一项所述的方法,其特征在于,所述MDP训练序列的方程为:
(S1,ɑ1,S2,r1,…,St,ɑt,St+1,rt,…,ST-1,ɑT-1,ST,rT),
其中,rt为性能回报,ɑt为选取的所述天线权值和无线参数优化调整,St为波束扇区的网络状态函数。
7.根据权利要求6所述的方法,其特征在于,所述性能回报的方程为:
Figure 480999DEST_PATH_IMAGE008
其中,
Figure DEST_PATH_IMAGE009
为小区平均吞吐效率,
Figure 764213DEST_PATH_IMAGE010
为小区边缘吞吐效率,η为小区平均吞吐效率和小区边缘吞吐量频谱效率的期望平衡的权重系数,且0≤η≤1。
8.根据权利要求1所述的方法,其特征在于,所述根据专家经验模式对所述状态信息矩阵的特征进行识别和判断,确定优化策略,包括:
根据专家经验模式对有助于优化网络性能的特征进行识别和判断,确定优化策略;
其中,所述有助于优化网络性能的特征包括所述波束扇区的弱覆盖特征、波束扇区间干扰特征、波束扇区方向与业务UE分布特征。
9.根据权利要求1所述的方法,其特征在于,所述异步优势加权的行动者-评论家深度增强学习网络并行计算所述MDP训练序列,并将学习到的最优的优化策略函数和状态值函数的权值信息,通过全局共享模式进行更新和复制,包括:
根据深度神经网络,构造基于行动者-评论家Actor-Critic结构的深度增强学习网络,其中,所述深度增强学习网络包括Actor网络模块和Critic网络模块,其中,Actor网络模块用于优化策略函数和调整天线权值和无线参数,所述Critic网络模块用于估计状态值函数;
判断各个所述波束扇区的网络性能是否最佳;
若各个所述波束扇区的网络性能是最佳,则保持当前的天线权值和无线参数配置;
若各个所述波束扇区的网络性能不是最佳,则进入深度增强学习模式。
10.根据权利要求9所述的方法,其特征在于,所述则进入深度增强学习模式,包括:
根据所述MDP训练序列,并行计算基于优势加权的k步k-step时序差分误差,通过评估所述状态值函数逼近实际回报的程度来评估所述优化策略函数下的优化程度;
所述Critic网络模块根据所述状态值函数,确定所述Critic网络模块的梯度信息,并将所述Critic网络模块的梯度信息反馈至所述Massive MIMO系统共享的Critic网络模块;
根据所述Critic网络模块的评估标准,累计更新所述Actor网络模块的优化策略梯度,并将所述Actor网络模块的梯度信息反馈至所述Massive MIMO系统共享的Actor网络模块;
所述Massive MIMO系统共享的Actor-Critic网络汇总所有所述梯度信息,并异步生成对应的权值参数;
将所述权值参数复制到所述波束扇区的Actor-Critic结构的深度增强学习网络中,直至所有所述波束扇区能够学习到所述Massive MIMO系统的优化策略函数和评估能力。
11.根据权利要求9或10所述的方法,其特征在于,所述优化策略函数的表达式为:
Π(ɑt|St;u),
所述状态值函数的表达式为:
V(St;v),
其中,Π为优化策略函数,u和v分别为优化策略函数和状态值函数的深度增强学习网络权值参数,ɑt为天线权值和无线参数优化调整,St为波束扇区的网络状态函数。
12.根据权利要求10所述的方法,其特征在于,所述根据所述MDP训练序列,并行计算基于优势加权的k步k-step时序差分误差,通过评估所述状态值函数逼近实际回报的程度来评估所述优化策略函数下的优化程度,还包括:
采用基于优势加权的k步k-step时序差分误差作为各个所述波束扇区的优势函数,所述优势函数的方程为:
Figure DEST_PATH_IMAGE011
)
Figure 429418DEST_PATH_IMAGE012
其中,
Figure DEST_PATH_IMAGE013
为加权函数,
Figure 837397DEST_PATH_IMAGE014
为性能回报的折扣因子,且
Figure DEST_PATH_IMAGE015
Figure 870251DEST_PATH_IMAGE016
为利用Critic网络模块评估的状态值函数, 其中,对应的
Figure DEST_PATH_IMAGE017
时刻是MDP训练序列中
Figure 7971DEST_PATH_IMAGE018
的评估,对k步中的每个时刻进行迭代。
13.根据权利要求10所述的方法,其特征在于,所述Actor网络模块的优化策略的目标函数为:
Figure DEST_PATH_IMAGE019
其中,
Figure 844078DEST_PATH_IMAGE020
为优化策略函数,
Figure DEST_PATH_IMAGE021
为状态值函数,
Figure 332828DEST_PATH_IMAGE022
为基于优势加权的k-step时序差分误差的目标函数。
14.根据权利要求1所述的方法,其特征在于,所述根据所述行动者-评论家深度增强学习网络学习到的优化策略,确定Massive MIMO系统最优的天线权值和无线参数配置组合之后,还包括:
判断整个Massive MIMO系统的性能回报是否达到最大;
若是,则保持最优的天线权值和无线参数配置组合;
若否,则进入深度增强学习模式,直到整个Massive MIMO系统的性能回报达到最大。
15.一种Massive MIMO系统优化装置,其特征在于,所述装置包括:
矩阵生成模块,用于为用户设备UE配置多个波束扇区,接收UE上报的测量报告MR数据和统计波束扇区性能KPI数据,并根据所述MR数据和所述KPI数据生成波束扇区状态信息矩阵;
训练序列生成模块,用于根据专家经验模式对所述状态信息矩阵的特征进行识别和判断,确定优化策略,在线强化学习生成多个马克可夫决策过程MDP训练序列,并将所述MDP训练序列存入每个波束扇区的处理缓存中;
深度增强学习模块,用于根据异步优势加权的行动者-评论家Actor-Critic深度增强学习网络并行计算所述MDP训练序列,并将学习到的最优的优化策略函数和状态值函数的权值信息,通过全局共享模式进行更新和复制;
优化模块,用于根据所述行动者-评论家深度增强学习网络学习到的优化策略,确定Massive MIMO系统最优的天线权值和无线参数配置组合。
16.一种Massive MIMO系统优化设备,其特征在于,包括:至少一个处理器、至少一个存储器以及存储在所述存储器中的计算机程序指令,当所述计算机程序指令被所述处理器执行时实现如权利要求1-14中任一项所述的方法。
17.一种计算机可读存储介质,其上存储有计算机程序指令,其特征在于,当所述计算机程序指令被处理器执行时实现如权利要求1-14中任一项所述的方法。
CN201811049938.7A 2018-09-10 2018-09-10 Massive MIMO的优化方法、装置、设备及介质 Active CN109379752B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811049938.7A CN109379752B (zh) 2018-09-10 2018-09-10 Massive MIMO的优化方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811049938.7A CN109379752B (zh) 2018-09-10 2018-09-10 Massive MIMO的优化方法、装置、设备及介质

Publications (2)

Publication Number Publication Date
CN109379752A CN109379752A (zh) 2019-02-22
CN109379752B true CN109379752B (zh) 2021-09-24

Family

ID=65404736

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811049938.7A Active CN109379752B (zh) 2018-09-10 2018-09-10 Massive MIMO的优化方法、装置、设备及介质

Country Status (1)

Country Link
CN (1) CN109379752B (zh)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109922427B (zh) * 2019-03-06 2020-09-11 东南大学 利用大规模阵列天线的智能无线定位系统和方法
CN111757336B (zh) * 2019-03-28 2022-08-09 华为技术有限公司 覆盖调整方法、装置及系统
CN110019151B (zh) * 2019-04-11 2024-03-15 深圳市腾讯计算机系统有限公司 数据库性能调整方法、装置、设备、系统及存储介质
CN110209152B (zh) * 2019-06-14 2022-04-05 哈尔滨工程大学 智能水下机器人垂直面路径跟随的深度强化学习控制方法
CN110429965B (zh) * 2019-07-03 2020-10-20 北京科技大学 一种大规模多输入多输出系统上行信号检测方法
CN110519816B (zh) * 2019-08-22 2021-09-10 普联技术有限公司 一种无线漫游控制方法、装置、存储介质及终端设备
CN110609875A (zh) * 2019-08-26 2019-12-24 华北电力大学(保定) 一种esi跨期数据智能检索方法
US11012133B2 (en) 2019-09-16 2021-05-18 Nokia Solutions And Networks Oy Efficient data generation for beam pattern optimization
WO2021071403A1 (en) * 2019-10-11 2021-04-15 Telefonaktiebolaget Lm Ericsson (Publ) Provision of optimized action for application in a wireless communication network to affect data transmission over a communication channel
CN112653493B (zh) * 2019-10-11 2022-04-08 中国移动通信集团陕西有限公司 天线权值优化方法、装置、计算设备及存储介质
CN111246497B (zh) * 2020-04-10 2021-03-19 卓望信息技术(北京)有限公司 一种基于强化学习的天线调整方法
CN112013833B (zh) * 2020-07-23 2022-08-05 中国人民解放军战略支援部队信息工程大学 一种基于深度神经网络的victs天线对星跟踪方法
CN116134749A (zh) * 2020-07-31 2023-05-16 华为技术有限公司 一种天线控制方法和装置
CN113473503B (zh) * 2020-08-27 2024-02-02 几维通信技术(深圳)有限公司 基于nas的网络参数优化的处理系统、终端设备及优化方法
CN112187387A (zh) * 2020-09-22 2021-01-05 北京邮电大学 基于栅格化用户位置自动化天线调参的新型强化学习方法
CN114363910B (zh) * 2020-10-13 2023-11-03 中国移动通信集团设计院有限公司 5g公共信道规划仿真方法、装置、电子设备与存储介质
CN112260731B (zh) * 2020-10-21 2022-09-06 浪潮通信信息系统有限公司 一种基于蚁群算法的天线权值优化方法
CN112954814B (zh) * 2021-01-27 2022-05-20 哈尔滨工程大学 一种认知无线电中信道质量性接入方法
CN112991384B (zh) * 2021-01-27 2023-04-18 西安电子科技大学 基于ddpg的发射资源智能认知管理方法
CN114978253B (zh) * 2021-02-26 2024-07-02 中国电信股份有限公司 用于广播波束优化的方法、装置以及存储介质
CN113126498A (zh) * 2021-04-17 2021-07-16 西北工业大学 基于分布式强化学习的优化控制系统和控制方法
CN114169243B (zh) * 2021-12-10 2022-07-29 浙江辰时科技集团有限公司 Mimo干扰信道下空中计算多任务联邦学习方法
TWI801102B (zh) * 2022-01-21 2023-05-01 鴻齡科技股份有限公司 多細胞網路中波束選擇方法及裝置
CN114817989B (zh) * 2022-04-29 2024-06-11 浪潮(北京)电子信息产业有限公司 模型生成方法、运行控制方法、装置、设备及存储介质
CN116996139B (zh) * 2023-09-26 2023-12-08 广东阿尔创通信技术股份有限公司 应用于定向天线系统的智能调整控制方法及系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101123450A (zh) * 2007-07-02 2008-02-13 重庆邮电大学 抑制智能天线主波束内多用户干扰的方法
CN101866097A (zh) * 2009-04-02 2010-10-20 通用汽车环球科技运作公司 全挡风玻璃平视显示器上的紫外激光波束
CN103973345A (zh) * 2014-04-30 2014-08-06 华中科技大学 一种基于用户距离的基站天线的调度方法
CN106685491A (zh) * 2016-07-11 2017-05-17 北京邮电大学 一种大规模多入多出系统能效数据的确定方法及装置
CN106685505A (zh) * 2015-11-10 2017-05-17 中国移动通信集团江苏有限公司 一种载波聚合的实现方法及装置
CN108052004A (zh) * 2017-12-06 2018-05-18 湖北工业大学 基于深度增强学习的工业机械臂自动控制方法
CN108064081A (zh) * 2016-11-07 2018-05-22 上海朗帛通信技术有限公司 一种ue、基站、服务中心中的定位的方法和装置
CN108076478A (zh) * 2016-11-08 2018-05-25 上海朗帛通信技术有限公司 一种ue、基站和服务中心中的定位方法和设备

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9106280B2 (en) * 2013-04-15 2015-08-11 Broadcom Corporation Pilot design for massive MIMO communication
US9647745B2 (en) * 2014-10-14 2017-05-09 Regents Of The University Of Minnesota Channel tracking and transmit beamforming with frugal feedback
US10311467B2 (en) * 2015-03-24 2019-06-04 Adobe Inc. Selecting digital advertising recommendation policies in light of risk and expected return
CN109644494B (zh) * 2016-06-15 2022-08-12 康维达无线有限责任公司 一种用于下一代网络中的随机接入过程的装置
US10243638B2 (en) * 2016-10-04 2019-03-26 At&T Intellectual Property I, L.P. Forward error correction code selection in wireless systems
US10009080B2 (en) * 2016-10-14 2018-06-26 Qualcomm Incorporated Reference signal measurements

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101123450A (zh) * 2007-07-02 2008-02-13 重庆邮电大学 抑制智能天线主波束内多用户干扰的方法
CN101866097A (zh) * 2009-04-02 2010-10-20 通用汽车环球科技运作公司 全挡风玻璃平视显示器上的紫外激光波束
CN103973345A (zh) * 2014-04-30 2014-08-06 华中科技大学 一种基于用户距离的基站天线的调度方法
CN106685505A (zh) * 2015-11-10 2017-05-17 中国移动通信集团江苏有限公司 一种载波聚合的实现方法及装置
CN106685491A (zh) * 2016-07-11 2017-05-17 北京邮电大学 一种大规模多入多出系统能效数据的确定方法及装置
CN108064081A (zh) * 2016-11-07 2018-05-22 上海朗帛通信技术有限公司 一种ue、基站、服务中心中的定位的方法和装置
CN108076478A (zh) * 2016-11-08 2018-05-25 上海朗帛通信技术有限公司 一种ue、基站和服务中心中的定位方法和设备
CN108052004A (zh) * 2017-12-06 2018-05-18 湖北工业大学 基于深度增强学习的工业机械臂自动控制方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
大规模MIMO系统中的低复杂度检测算法研究;郭若菡;《信息科技辑》;20170330;全文 *

Also Published As

Publication number Publication date
CN109379752A (zh) 2019-02-22

Similar Documents

Publication Publication Date Title
CN109379752B (zh) Massive MIMO的优化方法、装置、设备及介质
EP3636001B1 (en) Optimizing cellular networks using deep learning
EP3890361B1 (en) Cell longitude and latitude prediction method and device, server, base station, and storage medium
CN111683375B (zh) 一种针对无人机辅助无线蜂窝网络的无人机部署优化方法
US9648502B2 (en) System for tailoring wireless coverage to a geographic area
EP2930966B1 (en) Selecting beam-forming weighting vectors for antennae
WO2022017012A1 (zh) 一种网络配置方法及装置
CN107431937B (zh) 自适应天线系统的自适应扇区配置
CN111082840B (zh) 一种天线广播波束的优化方法和装置
WO2013000068A1 (en) Method and apparatus for determining network clusters for wireless backhaul networks
CN108632849B (zh) 一种天馈参数的调整方法、装置及设备
CN108900232B (zh) 一种自适应波束成形的方法、装置和电子设备
CN113015192A (zh) 天线权值确定方法、装置、设备及存储介质
US20220294513A1 (en) Methods and Apparatuses for Adjusting a Set of Candidate Beams
CN115278526A (zh) 终端定位方法、装置、电子设备及存储介质
US20230155661A1 (en) Beam management for a radio transceiver device
CN114818452A (zh) 天线配置参数优化方法、装置及存储介质
CN113395704A (zh) 一种5g基站的选址方法及装置
US11646778B2 (en) Method and apparatus for controlling beam adaptively in wireless communication system
WO2016055024A1 (zh) 优化通信网络的处理方法和装置
CN110536338B (zh) 天线参数调整方法及装置
US10959115B2 (en) Communication methods and devices for joint optimization of transmit power and transmission rate
CN115065981A (zh) 一种波束追踪方法及装置
CN116828518A (zh) 定位上行频段干扰源的方法、装置、电子设备及存储介质
CN113890583B (zh) 一种毫米波亚毫米波频段非对称信道参数预测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant