CN102811443B - 家庭基站系统中基于频谱分配及功率控制的干扰管理方法 - Google Patents

家庭基站系统中基于频谱分配及功率控制的干扰管理方法 Download PDF

Info

Publication number
CN102811443B
CN102811443B CN201210265146.XA CN201210265146A CN102811443B CN 102811443 B CN102811443 B CN 102811443B CN 201210265146 A CN201210265146 A CN 201210265146A CN 102811443 B CN102811443 B CN 102811443B
Authority
CN
China
Prior art keywords
home enodeb
base station
game
noise ratio
resource block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201210265146.XA
Other languages
English (en)
Other versions
CN102811443A (zh
Inventor
朱琦
季祥芬
朱洪波
杨龙祥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CERTUSNET Corp.
Original Assignee
Nanjing Post and Telecommunication University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Post and Telecommunication University filed Critical Nanjing Post and Telecommunication University
Priority to CN201210265146.XA priority Critical patent/CN102811443B/zh
Publication of CN102811443A publication Critical patent/CN102811443A/zh
Application granted granted Critical
Publication of CN102811443B publication Critical patent/CN102811443B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明的目的是在基于OFDMA的家庭基站系统中基于频谱分配及功率控制的干扰管理方法。该方法中每个家庭基站作为一个Q学习的智能体和博弈论中的博弈者,基于Q学习动态地分配频谱,在Q学习过程中再通过博弈来进行功率分配,每个家庭基站都以优化自己的性能为目标。家庭基站系统在不断地与环境交互的过程中可以最终收敛到一个最优的动作,使得系统在满足宏基站信干噪比门限要求的基础上提高家庭基站和整个系统的系能,避免了复杂的最优化问题。

Description

家庭基站系统中基于频谱分配及功率控制的干扰管理方法
技术领域
本发明涉及一种特别用于基于OFDMA的家庭基站系统中的动态干扰管理方法,属于通信技术领域。
背景技术
家庭基站是为了服务小面积覆盖(如家庭或者办公室)而设计的,有报告显示在未来的几年内,室外手机呼叫的比例逐渐下降而室内的数据业务明显增加。由于家庭基站覆盖范围小,低花费和低功耗,所以家庭基站可以分布得比宏基站更加密集,频谱可以得到更有效的复用,为室内用户提供更宽的频谱和更好的服务质量。家庭基站的出现势必会增加对宏基站用户的干扰,所以如何进行合理的资源分配来降低家庭基站对宏用户的干扰已经成为运营商考虑的主要问题之一。合理分配家庭基站的资源不仅可以降低对宏用户的干扰而且家庭用户间的干扰也会降低从而获得更好的服务质量。
正交频分多址接入(OFDMA)已经被选为LTE和4G网络的下行接入技术,OFDMA的特点是不同的子载波间使正交的,所以小区内部干扰可以忽略。在LTE中定义能分配一个用户的最小时频单位为一个资源块(ResourceBlock,RB),当一个RB被分配为多个小区时就会引起小区间干扰降低信干噪比从而降低用户的服务质量。很多研究都已经涉及到了多种小区间干扰消除或减轻的算法。由于家庭基站分布的多而且不规律所以对家庭基站进行集中控制难度较大,所以研究都是基于分布式控制的。有的研究是通过动态的频谱复用来减小家庭基站网络中的干扰的,例如通过一种适用于家庭基站分布密集的场景的自组织网络的方法,或者一种基于强化学习的算法在保证对宏基站的干扰门限的同时也保证家庭基站的服务质量;有的研究是基于功率控制的干扰管理方法,例如通过提出一种基于模糊Q学习(Fuzzy learning)的算法来控制家庭基站对宏基站的干扰,或者一种改进的注水功率控制算法来保证网络的公平性;此外还有的文献是采用的是频谱分配和功率控制相结合的方法来避免干扰的,例如在分布式网络中采用基于博弈论的干扰避免模型降低互相之间的干扰。
强化学习(Reinforcement Learning,RL)是一种机器学习方法,它通过从环境状态到动作映射的学习,感知环境状态,使得动作从环境中获得最大的累积回报函数。Q学习是强化中的一种常用的学习方法,它通过马尔科夫过程进行建模,采用迭代的方法逼近最优解,并以状态-动作回报值作为衡量标准。Q学习在学习过程总无需状态转移概率和回报函数的先验知识模型,而是从环境中直接学习,所以Q学习计算复杂度很低。博弈论(gametheory)又称对策论,早期被广泛应用于微观经济学中,它在解决资源调度的问题中有独特的优势。这种理论隐含的基本假设是:决策主体追求确定的外部目标并且考虑他们自身的知识或者其他决策主体行为的期望。博弈论是直到最近才作为分析工具应用于分布式无线资源管理当中。
本发明提供了一种Q学习与博弈论相结合(QL&game)的分布式的干扰管理方法,在保证宏用户的信干噪比门限的条件下提高家庭基站性能。在该方法中家庭基站间不需要进行信息交换,每个家庭基站作为一个Q学习的智能体(Agent)和博弈论中的博弈者(Player)。用Q学习动态地分配频谱,在Q学习过程中再通过博弈来进行功率分配,每个家庭基站都以优化自己的性能为目标。
发明内容
技术问题:本发明的目的是在基于OFDMA的家庭基站系统的场景下提供一种动态干扰管理方法。在该方法中每个家庭基站作为一个Q学习的智能体和博弈论中的博弈者,基于Q学习动态地分配频谱,在Q学习过程中再通过博弈来进行功率分配,每个家庭基站都以优化自己的性能为目标。家庭基站系统在不断地与环境交互的过程中可以最终收敛到一个最优的动作,使得系统在满足了宏基站信干噪比门限要求的基础上提高了家庭基站和整个系统的系能,这样就避免了复杂的最优化问题。
技术方案:本发明提供一种基于OFDMA的家庭基站系统的动态资源分配方法每个家庭基站作为一个Q学习的智能体和博弈论中的博弈者,在基于Q学习动态地分配频谱中通过博弈进行功率分配,每个家庭基站都以优化自己的性能为Q学习的目标和博弈的效用。发明中采用Q学习与博弈论相结合(QL&game)的分布式控制机制进行干扰管理。
本发明考虑的无线网络环境包括M个半径为R的宏小区,每个宏小区的中心都放有一个宏基站。假设每个宏小区中拥有一个居民区由F个房间组成,每个房间中间都放有一个可以随意开关的家庭基站,每个房间都是边长为r的正方形。家庭基站的用户随机均匀分布在每个房间内,而宏基站的用户随机分布在房间的周围。假设宏基站和家庭基站都是工作在相同的频带,宏用户和家庭用户之间会存在干扰。系统场景模型如图1所示。
假设系统总带宽为B,由N个资源块组成,每个资源块的大小为Brb,即B=N×Brb。每个宏基站和每个家庭基站的用户数分别为UM和UF,基站通过比例公平调度(proportional fair scheduler)算法把N个资源块分配给UM和UF个用户,宏基站的总功率为PM,平均分配到每个资源块上的功率向量家庭基站在每个资源块上的功率向量每个家庭基站可分配在资源块上的最大功率和最小功率分别表示为
Q学习是一种无师自通的学习算法,它不需要先验知识,完全是在与环境的不断交互过程中学到最优的策略。Q学习被证明在马尔科夫决策过程环境中能最终收敛到最优值。Q学习的基本模型如图2所示。Q学习模型由一组状态-动作对组成,学习的目标是集中控制中心在不断与环境交互过程中能找到一个最优的策略,使得观察到的回报值最大。智能体在处于状态s时,根据策略π:s→a,选择动作。利用博弈论分析一个博弈过程的收敛情况,找到博弈过程的稳定状态即纳什均衡是应用博弈论分析问题的关键。本发明中运用博弈理论把功率分配问题建模成为一个博弈问题。
QL&game算法是在基于OFDMA的家庭基站系统的的场景下的一种动态干扰管理方法。在该方法中每个家庭基站作为一个Q学习的智能体和博弈论中的博弈者,基于Q学习动态地分配频谱,在Q学习过程中再通过博弈来进行功率分配,每个家庭基站都以优化自己的性能为目标。将Q学习应用到家庭基站网络中,首先要将状态、动作和回报函数映射到家庭基站系统中;而在博弈论建模中也需要将博弈者,动作或者策略还有效用函数应用到本场景中。在本发明中每个博弈者的动作是发送功率值,每个博弈者都根据其他博弈者的动作选择一个最好的动作。博弈论中效用函数至关重要,随着家庭基站功率的提高,家庭基站对宏基站和其他家庭基站的干扰就会增加,所以在博弈论的效用函数中不仅应考虑自身目标的最大化还应加入功率的成本。由于本发明中的家庭基站采用分布式Q学习机制,所以每个家庭基站之间不进行信息交换,但是我们假设每个家庭基站对宏基站用户所受的干扰信息是已知的。家庭基站作为一个独立的智能体,它还要根据当前学习的资源块分成多个学习过程。家庭基站的状态与资源块当前的宏用户所受干扰和家庭基站受到的干扰有关;而每个家庭基站的动作是资源库的使用情况;回报值体现了学习的目标,所以每个智能体的回报值的选取至关重要,本发明中家庭基站的回报值是与宏基站在资源快上的性能及家庭基站的博弈论的效用函数值相关。QL&game算法流程图如图3所示,在经过多次迭代后QL&game算法收敛到一个最优的资源分配策略,最终使得系统在满足了宏基站信干噪比门限要求的基础上提高了家庭基站和整个系统的系能。
本发明的家庭基站系统中基于频谱分配及功率控制的干扰管理方法将每个家庭基站作为一个Q学习的智能体和博弈论中的博弈者,在基于Q学习动态地分配频谱中通过博弈进行功率分配,目的是在保证满足宏基站信干噪比门限要求的基础上提高家庭基站和整个系统的系能;每个家庭基站作为一个Q学习的智能体和博弈论中的博弈者,在Q学习动态地分配频谱的过程中再通过博弈来进行功率分配,每个家庭基站都以优化自己的性能为目标。
Q学习与博弈论相结合的动态资源分配方法中关于功率控制的博弈G={f,{pf},{Uf(·)}}的特征包括以下内容:
a.博弈者f:每个家庭基站f都是一个博弈者;
b.动作空间pf其中N是总资源块数,每个家庭基站f都会在与环境交互的过程中为每个资源块n分配最优的功率
c.效用函数Uf:家庭基站在满足以下两个条件下根据公式(8)所定义的效用函数给自己分配一个使得自身能性能最优的功率,两个条件为(1)功率分配必须满足pmin和pmax是指每个资源块上的最小功率值和最大功率值,(2)每个资源块上的功率分配都要考虑宏用户信干噪比SINR是否满足门限值γth
Q学习与博弈论相结合的动态资源分配方法中Q学习的特征包括以下内容:
a.智能体f:每个家庭基站f都是一个智能体;
b.动作空间Af A f = { a f n } n ∈ { 1 , · · · , N } , 其中0表示家庭基站f未使用资源块n,1则表示使用;
c.状态空间Sf:与动作空间相似其中是与宏用户和家庭用户所受干扰有关的,宏用户根据其资源块n的信干噪比是否满足门限值γth要求分成两种情况,家庭用户根据其资源块n的信干噪比的大小分成T种情况,这样状态的状态数可分为2*T种;
d.回报函数Rf:宏基站的信干噪比必须大于γth,选择能在满足宏基站信干噪比要求的前提下家庭基站吞吐量最大的那个策略作为最优策略,当宏基站的信干噪比小于γth时回报函数为-B,当宏基站所有资源块的信干噪比大于γth时回报函数为权利要求2中博弈论的效用函数Uf,其中B为正的常数,-B表示当宏基站的信干噪比小于γth时智能体给当前的策略一个-B的惩罚,反之,智能体则给当前的策略一个值为Uf的奖赏。
有益效果:在OFDMA的家庭基站系统的的场景下,本发明提供了一种动态资源分配方法。家庭基站系统在不断地与环境交互的过程中可以最终收敛到一个最优的资源分配,使得系统在满足了宏基站信干噪比门限要求的前提下提高家庭基站和整个系统的系能,避免复杂的最优化问题。
附图说明
图1是场景模型,
图2是Q学习的基本模型,
图3是QL&game算法流程图。
具体实施方式
本发明分析的性能参数为信干噪比(interference and noise,SINR)和吞吐量,其中宏用户um∈UM在占用资源块n∈N的信干噪比可以表示如下:
γ m n = p m n g m , u m n Σ k = 1 , k ≠ m M p k n g k , u m n + Σ f = 1 F p f n g f , u m n + σ 2 - - - ( 1 )
其中表示宏基站m与其用户um在资源块n上的信道增益,则分别表示其余的宏基站k∈{1,2,…,M}和家庭基站f∈{1,2,…,F}与用户um之间的信道增益,σ2为噪声功率。
类似的可以得到家庭基站用户uf∈UF在资源块n上的信干噪比为:
γ f n = p f n g f , u f n Σ m = 1 M p m n g m , u f n + Σ e = 1 , e ≠ f F p e n g e , u f n + σ 2 - - - ( 2 )
其中分别表示家庭基站f到其家庭用户uf的信道增益,而表示宏基站m和家庭基站e∈{1,2,…,F}到家庭用户uf的信道增益。在无线通信中用户的吞吐量与调制与编码方式有关,本发明采用自适应调制和编码(AdaptiveModulation and Coding,AMC),即系统根据信道情况自适应改变调制及编码方式。吞吐量的大小与频谱效率和信道带宽相关,宏基站m和家庭基站f的吞吐量每个资源块上的吞吐量之和,可以分别用Cm和Cf表示,则吞吐量可以表示如下:
C f = Σ n ∈ N C f n = Σ n ∈ N B rb × E f n ( γ f n ) - - - ( 3 )
C m = Σ n ∈ N C m n = Σ n ∈ M B rb × E m n ( γ m n ) - - - ( 4 )
其中表示宏基站和家庭基站每个资源块上的吞吐量;表示每个资源块上的频谱效率。当宏基站和家庭基站的吞吐量都已知,则系统总吞吐量如下:
C sys = Σ m ∈ M C m + Σ f ∈ F C f - - - ( 5 )
本发明采用分布式的资源分配方法来减小小区间的干扰从而提高小区的吞吐量,该方法将Q学习和博弈论相结合,动态的与环境进行交互,最终学习到一个最优的资源分配方法。
强化学习(Reinforcement Learning,RL)是一种机器学习方法,它通过从环境状态到动作映射的学习,感知环境状态,使得动作从环境中获得最大的累积回报函数。Q学习是强化中的一种常用的学习方法,它通过马尔科夫过程进行建模,采用迭代的方法逼近最优解,并以状态-动作回报值作为衡量标准。Q学习在学习过程总无需状态转移概率和回报函数的先验知识模型,而是从环境中直接学习,所以Q学习计算复杂度很低.Q学习是一种强化学习方法,它无需先验知识,只是智能体在不断与环境交互过程中学习,最终收敛到一个最优的策略。在本发明中我们把每个家庭基站都看成一个独立的智能体(Agent),而把宏基站和除了本家庭基站以外的其它家庭基站都看成环境(Environment)。Q学习通过马尔科夫决策过程(Markov Decision Process,MDP)建模,采用迭代的方法逼近最优解,并以状态-动作的回报值作为评价标准。Q学习是Model-free的,它在学习过程中无需具备状态转移概率和回报函数的先验知识模型,而是直接学习最优策略。
Q学习公式包含一组状态和一组动作,能让智能体(如家庭基站)在不断的迭代中找到使得回报最大的那个策略。每个家庭基站都探索环境,观察当前的动作并且要根据决策策略采取下一动作。
用S={S1,S2,…,su}表示可能的状态空间,A={a1,a2,…,av}表示agent可能选择的动作空间。定义状态-动作回报值函数Q(s,a)为agent在状态s下采取动作a在无限时间内所获得的最大期望折扣回报之和。当智能体在状态s下执行了动作a后智能体会收到一个即时回报,Q值根据下式的更新规则更新:
Q ( s , a ) ← ( 1 - α ) Q ( s , a ) + α ( r + γ max a ′ Q ( s ′ , a ′ ) ) - - - ( 6 )
其中α是学习速率,γ∈[0,1)是折扣因子。Q(s′,a′)表示洗衣歌状态的Q值,其中s′和a′分别表示下一个状态和下一个动作。
为了防止Q学习最终收敛到的最优策略不是全局的,在选择动作的过程中每个智能体都是以一定的概率ε选择最优动作。每个智能体的目的都是为每个状态s都找到最优的策略,而多个智能体分布式的联合学习最终就可以使系统收敛到一个最优的策略。
由于每个家庭基站都自私的想最大化自己的功率值来提高自己的性能,所以其他的家庭基站也会提高自己的功率来应对这种情况。这种自私的行为就导致了包括宏基站和家庭基站在内的整个网络会达到一个讨厌的平衡。这里采用一种基于效用函数的非合作的博弈论,其目标是使得有限的频率资源能得到最有效的利用。
每个家庭基站都是一个博弈者,则整个网络共有F个博弈者,关于功率控制的博弈G={f,{pf},{Uf(·)}},是对于家庭基站f在不同资源块上传输的功率向量,每个家庭基站的效用函数为Uf,这样每个博弈者都根据其他博弈者的动作选择了一个最好的功率值。对每个资源块功率控制的效用函数都可以表示为:
m a p f n x U f ( γ f , p f )
subjectto p min ≤ p f n ≤ p max - - - ( 7 )
p f n ≤ p m , max n
其中是家庭基站f的信干噪比向量,而Pmin和Pmax是指每个资源块上的最小功率值和最大功率值,是要使宏用户干扰满足门限值时家庭基站的最大功率。假设所有的资源块都周期性地报告当前的SINR值给自己的家庭基站而且每个家庭基站都会收到宏用户的SINR值,这样家庭基站就可以在考虑宏用户SINR要求的情况下再给自己分配一个最优的功率。
本发明的资源分配方法是将Q学习与博弈论相结合,在Q学习资源块分配的过程中博弈功率从而提高系统的性能,Q学习中的回报函数体现了学习的目标,而博弈论中的效用函数体现了博弈的目标,本发明将这种算法表示为QL&game。
随着家庭基站功率的提高,家庭基站对宏基站和其他家庭基站的干扰就会增加,所以在博弈论的效用函数中应该加入功率的花费,功率增加的越大花费也越大。每个家庭基站的效用函数可以表示如下:
U f ( γ f , p f ) = Σ n ∈ { 1 , · · · , N } B rb × E f n ( γ f n ) - β × p f n - - - ( 8 )
其中β是一个正常数,β反映了家庭基站f对宏基站和其他家庭基站的干扰的影响,β越小表示干扰越大β越大表示干扰越小。
由于本发明中的家庭基站采用分布式Q学习机制,所以每个家庭基站之间不进行信息交换,但是假设每个家庭基站对宏基站用户所受的干扰信息是已知的。家庭基站作为一个独立的智能体,它还要根据当前学习的资源块分成多个学习过程。多智能体分布式Q学习中的智能体,动作,状态,回报定义如下:
智能体f:每个家庭基站f都是一个智能体。
状态Sf:家庭基站的状态与资源块有关其中状态与宏用户的干扰和家庭基站收到的干扰有关。
动作Af:与状态的定义相似其中0表示资源块未使用相反则用1表示。
回报值Rf:类似于状态的定义回报值体现了学习的目标,所以每个智能体的回报值的选取至关重要,这样Q学习的回报函数可以定义如下:
r f n = - B if &gamma; m n < &gamma; th U f if &gamma; m n &GreaterEqual; &gamma; th - - - ( 9 )
其中B是一个正常数,γth是宏用户的SINR门限值,Uf为博弈论的效用函数值。当宏用户的信干噪比不满足要求时Q学习获得-B的惩罚,反之则获得值为Uf的回报。

Claims (1)

1.一种家庭基站系统中基于频谱分配及功率控制的干扰管理方法,其特征在于该方法将每个家庭基站作为一个Q学习的智能体和博弈论中的博弈者,在基于Q学习动态地分配频谱中通过博弈进行功率分配,目的是在保证满足宏基站信干噪比门限要求的基础上提高家庭基站和整个系统的系能;每个家庭基站作为一个Q学习的智能体和博弈论中的博弈者,在Q学习动态地分配频谱的过程中再通过博弈来进行功率分配,每个家庭基站都以优化自己的性能为目标; 
Q学习与博弈论相结合的动态资源分配方法中关于功率控制的博弈G={f,{pf},{Uf(·)}}的特征包括以下内容: 
a.博弈者f:每个家庭基站f都是一个博弈者; 
b.动作空间pf其中N是总资源块数,每个家庭基站f都会在与环境交互的过程中为每个资源块n分配最优的功率 是要使宏用户干扰满足门限值时家庭基站的最大功率; 
c.效用函数Uf其中Brb为资源块的大小,表示每个资源块上的频谱效率,是家庭基站f的信干噪比向量,为家庭基站用户在资源块n上的信干噪比,β是一个正常数,家庭基站在满足以下两个条件下根据公式所定义的效用函数给自己分配一个使得自身性能最优的功率,两个条件为(1)功率分配必须满足pmin和pmax是指每个资源块上的最小功率值和最大功率值,(2)每个资源块上的功率分配都要考虑宏用户信干噪比SINR是否满足门限值γth; 
Q学习与博弈论相结合的动态资源分配方法中Q学习的特征包括以下内容: 
a.智能体f:每个家庭基站f都是一个智能体; 
b.动作空间Af其中0表示家庭基站f未使用资源块n,1则表示使用; 
c.状态空间Sf:与动作空间相似其中是与宏用户和家庭用户所受干扰有关的,宏用户根据其资源块n的信干噪比是否满足门限值γth要求分成两种情况,家庭用户根据其资源块n的信干噪比的大小分成T种情况,这样状态的状态数可分为2*T种; 
d.回报函数Rf:宏基站的信干噪比必须大于γth,选择能在满足宏基站信干噪比要求的前提下家庭基站吞吐量最大的那个策略作为最优策略,当宏基站的信干噪比小于γth时回报函数为-B,当宏基站所有资源块的信干噪比大于γth时回报函数为博弈论的效用函数Uf,其中B为正的常数,-B表示当宏基站的信干噪比小于γth时智能体给当前的策略一个-B的惩罚,反之,智能体则给当前的策略一个值为Uf的奖赏。 
CN201210265146.XA 2012-07-27 2012-07-27 家庭基站系统中基于频谱分配及功率控制的干扰管理方法 Active CN102811443B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210265146.XA CN102811443B (zh) 2012-07-27 2012-07-27 家庭基站系统中基于频谱分配及功率控制的干扰管理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210265146.XA CN102811443B (zh) 2012-07-27 2012-07-27 家庭基站系统中基于频谱分配及功率控制的干扰管理方法

Publications (2)

Publication Number Publication Date
CN102811443A CN102811443A (zh) 2012-12-05
CN102811443B true CN102811443B (zh) 2014-11-19

Family

ID=47234992

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210265146.XA Active CN102811443B (zh) 2012-07-27 2012-07-27 家庭基站系统中基于频谱分配及功率控制的干扰管理方法

Country Status (1)

Country Link
CN (1) CN102811443B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108616302A (zh) * 2018-04-28 2018-10-02 中国人民解放军陆军工程大学 一种功率控制下的无人机多重覆盖模型及部署方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104023384A (zh) * 2014-05-28 2014-09-03 北京邮电大学 一种家庭基站密集部署场景中考虑时延限制的双层网络资源分配方法
CN104113903B (zh) * 2014-07-31 2018-01-16 厦门大学 基于交互式认知学习的下行功率调整方法和装置
CN106358308A (zh) * 2015-07-14 2017-01-25 北京化工大学 一种超密集网络中的强化学习的资源分配方法
CN106507463B (zh) * 2016-09-19 2019-07-16 南京邮电大学 一种基于多信道启发式分簇的异构蜂窝网络资源分配方法
CN108012248A (zh) * 2017-12-07 2018-05-08 宁德师范学院 基于功率控制的车联网抗干扰的方法及电子设备
CN108235424B (zh) * 2017-12-29 2021-01-22 中山大学 一种基于q学习的可穿戴设备发射功率控制方法
CN110191489B (zh) * 2019-05-17 2020-07-24 北京科技大学 一种超密集网络中基于强化学习的资源分配方法及装置
CN112188527B (zh) * 2020-10-22 2023-05-05 中国联合网络通信集团有限公司 微基站奖励方法、宏基站及微基站管理服务器
CN115412105B (zh) * 2022-05-06 2024-03-12 南京邮电大学 基于usrp rio的强化学习通信干扰方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102448159A (zh) * 2011-09-30 2012-05-09 南京邮电大学 基于干扰管理的功率速率联合控制博弈方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102448159A (zh) * 2011-09-30 2012-05-09 南京邮电大学 基于干扰管理的功率速率联合控制博弈方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
基于博弈强化学习的多智能体协作行为寻优;张捍东等;《自动化与仪表》;20090115;第1-4页 *
基于博弈论的认知无线电频谱共享算法研究;李琳;《中国学位论文全文数据库》;20070814;全文 *
张捍东等.基于博弈强化学习的多智能体协作行为寻优.《自动化与仪表》.2009, *
李琳.基于博弈论的认知无线电频谱共享算法研究.《中国学位论文全文数据库》.2007, *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108616302A (zh) * 2018-04-28 2018-10-02 中国人民解放军陆军工程大学 一种功率控制下的无人机多重覆盖模型及部署方法
CN108616302B (zh) * 2018-04-28 2020-10-30 中国人民解放军陆军工程大学 一种功率控制下的无人机多重覆盖模型及部署方法

Also Published As

Publication number Publication date
CN102811443A (zh) 2012-12-05

Similar Documents

Publication Publication Date Title
CN102811443B (zh) 家庭基站系统中基于频谱分配及功率控制的干扰管理方法
Jiang et al. Reinforcement learning for real-time optimization in NB-IoT networks
El Tanab et al. Resource allocation for underlay cognitive radio networks: A survey
Sheng et al. Energy efficiency and delay tradeoff in device-to-device communications underlaying cellular networks
Ajay et al. Algorithm for Energy Resource Allocation and Sensor-Based Clustering in M2M Communication Systems
Xu et al. Pricing-based multiresource allocation in OFDMA cognitive radio networks: An energy efficiency perspective
CN106358308A (zh) 一种超密集网络中的强化学习的资源分配方法
CN106454920B (zh) 一种lte与d2d混合网络中基于时延保证的资源分配优化算法
CN104301985B (zh) 一种移动通信中电网与认知基站间能源分配方法
CN109962728A (zh) 一种基于深度增强学习的多节点联合功率控制方法
CN102665219B (zh) 一种基于ofdma的家庭基站系统的动态频谱分配方法
CN104219749A (zh) 基于电网与基站协同的电网供需调节方法
CN103269487A (zh) 毫微微蜂窝网络下行链路中基于博弈论的动态干扰管理方法
Yan et al. Self-imitation learning-based inter-cell interference coordination in autonomous HetNets
CN108200581A (zh) 选择性用户合作的无线供电通信网络中多用户资源分配方法
CN101262701A (zh) 一种基于遗传算法的动态信道分配方法
CN109787737A (zh) 一种基于混合能量采集的ofdm系统下行链路多用户资源优化方法
Liu et al. Robust power control for clustering-based vehicle-to-vehicle communication
Liang et al. Decentralized bit, subcarrier and power allocation with interference avoidance in multicell OFDMA systems using game theoretic approach
CN105611640B (zh) 一种公平度可调的CoMP下行用户调度方法
Liu et al. A resource allocation evolutionary algorithm for OFDM based on Karush-Kuhn-Tucker conditions
Wang et al. Intelligent user-centric networks: Learning-based downlink CoMP region breathing
Taleb et al. A fully distributed approach for joint user association and RRH clustering in cloud radio access networks
Kim Femtocell network power control scheme based on the weighted voting game
Zhang et al. Joint user association and power allocation for max-Min fairness in downlink multicell NOMA networks

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20121205

Assignee: Jiangsu Nanyou IOT Technology Park Ltd.

Assignor: Nanjing Post & Telecommunication Univ.

Contract record no.: 2016320000221

Denomination of invention: Interference management method based on spectrum allocation and power control in family base station system

Granted publication date: 20141119

License type: Common License

Record date: 20161129

LICC Enforcement, change and cancellation of record of contracts on the licence for exploitation of a patent or utility model
EC01 Cancellation of recordation of patent licensing contract
EC01 Cancellation of recordation of patent licensing contract

Assignee: Jiangsu Nanyou IOT Technology Park Ltd.

Assignor: Nanjing Post & Telecommunication Univ.

Contract record no.: 2016320000221

Date of cancellation: 20180116

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20201015

Address after: 210042, 699-22, Xuanwu Avenue, Xuanwu District, Jiangsu, Nanjing, 18

Patentee after: CERTUSNET Corp.

Address before: 210003, No. 66, new exemplary Road, Nanjing, Jiangsu

Patentee before: NANJING University OF POSTS AND TELECOMMUNICATIONS