CN112204580A - 使用深度q网络促进资源配对的方法和装置 - Google Patents

使用深度q网络促进资源配对的方法和装置 Download PDF

Info

Publication number
CN112204580A
CN112204580A CN201880093614.5A CN201880093614A CN112204580A CN 112204580 A CN112204580 A CN 112204580A CN 201880093614 A CN201880093614 A CN 201880093614A CN 112204580 A CN112204580 A CN 112204580A
Authority
CN
China
Prior art keywords
state
values
scheduler
action
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201880093614.5A
Other languages
English (en)
Other versions
CN112204580B (zh
Inventor
C·桑卡兰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia Oyj
Original Assignee
Nokia Networks Oy
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Networks Oy filed Critical Nokia Networks Oy
Publication of CN112204580A publication Critical patent/CN112204580A/zh
Application granted granted Critical
Publication of CN112204580B publication Critical patent/CN112204580B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W72/00Local resource management
    • H04W72/12Wireless traffic scheduling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W72/00Local resource management
    • H04W72/04Wireless resource allocation
    • H04W72/044Wireless resource allocation based on the type of the allocated resource
    • H04W72/046Wireless resource allocation based on the type of the allocated resource the resource being in the space domain, e.g. beams

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

一种确定动作序列的方法,包括:训练第一深度Q网络(DQN);提供第一多维矩阵的多个条目作为对DQN的输入,第一矩阵表示第一状态,第一矩阵的每个条目表示在第一状态中可以被采取的动作;使用第一DQN分别针对第一矩阵的多个条目确定多个Q值;执行第一动作,第一动作是由来自多个条目中的如下条目表示的动作,针对该条目第一DQN确定了所确定的多个Q值中的最高Q值;基于执行第一动作来累积奖励;以及根据第一组规则和所执行的第一动作来从第一状态转变到下一状态。

Description

使用深度Q网络促进资源配对的方法和装置
技术领域
示例实施例总体上涉及用于确定动作序列的方法和装置,并且具体地涉及在通信网络资源分配中使用深度Q网络技术来促进资源指配。
背景技术
在5G多用户MIMO(MU-MIMO)中,每个小区具有多个子小区,每个子小区具有自己的天线阵列。小区中的调度器需要以每传输时间间隔(TTI)为单位将波束分配给活动UE。调度器的一个目的是以实现期望的或备选地最大总系统吞吐量的方式将UE分配给波束。
发明内容
根据至少一些示例实施例,一种确定动作序列的方法包括:训练第一深度Q网络(DQN);提供第一多维矩阵的多个条目作为对DQN的输入,第一矩阵表示第一状态,第一矩阵的每个条目表示在第一状态中能够被采取的动作;使用第一DQN,分别针对第一矩阵的多个条目确定多个Q值;执行第一动作,第一动作是由来自多个条目中的如下表示的动作,针对该条目第一DQN确定了所确定的多个Q值中的最高Q值;基于执行第一动作来累积奖励;以及根据第一组规则和所执行的第一动作来从第一状态转变到下一状态。
第一DQN的训练可以包括:初始化第一权重;从多个存储状态中随机地选择小批量的样本状态,每个存储状态包括与多个动作相对应的多个条目;以及针对随机地选择的小批量的样本状态中的每个样本状态Sj,基于第一组规则来确定样本状态Sj的一个或多个有效动作,使用具有第一权重的第一DQN来生成分别与样本状态Sj的一个或多个有效动作相对应的一个或多个第一Q值,使用具有第二权重的第二DQN来生成分别与样本状态Sj的一个或多个有效动作相对应的一个或多个目标值,以及基于一个或多个第一Q值和一个或多个目标值来更新第一权重。
样本状态Sj的每个有效动作是根据第一组规则而被允许在样本状态Sj中被执行的动作。
初始化第一权重可以包括随机地选择第一权重。
确定动作序列的方法还可以包括:通过将第二权重设置为等于第一权重来初始化第二权重。
生成一个或多个目标值可以包括:针对A中的每个有效动作a,确定yj(a)=[R(a)+γ*maxa′Q(Sj,next(a),a′;θ-)],其中A表示样本状态Sj的一个或多个有效动作,yj(a)表示来自一个或多个目标值中与有效动作a相对应的目标值,R(a)表示与有效动作a相对应的奖励值,γ表示值不小于0并且不大于1的折扣参数,Sj,next(a)表示根据第一组规则由关于样本状态Sj执行有效动作a而导致的下一状态,θ-表示第二DQN的第二权重,表达式maxa′Q(Sj,next(a),a′;θ-)表示来自由第二DQN生成的一个或多个下一Q值中的最大Q值,一个或多个下一Q值的生成包括第二DQN针对下一状态Sj,next(a)的一个或多个有效动作中的每个有效动作a’生成一个或多个下一Q值中的一个下一Q值。另外,更新第一权重可以使用随机地选择的小批量的样本在第一DQN中执行批量梯度下降步骤,使得针对随机地选择的小批量的样本中的每个样本Sj,要最小化的损耗值=[yj(A)-Q(Sj,A;θ)]2,其中yj(A)表示针对一个或多个有效动作A中的每个有效动作a生成的一个或多个目标值yj(a)的串联,表达式Q(Sj,A;θ)表示第一Q值,并且θ表示第一权重。
确定动作序列的方法还可以包括:针对每个连续状态迭代地执行提供、确定、执行、累积和转变步骤中的每项,直到达到最终状态为止,最终状态是如下状态:针对该状态不存在有效动作。
当前状态的有效动作可以是如下动作:该动作根据第一组规则被允许在当前状态中被执行。
执行第一动作可以包括在无线通信网络中分配资源。
针对第一矩阵的多个条目中的每个条目,条目的数值可以对应于与执行由条目表示的动作相关联的奖励。
根据至少一些示例实施例,一种在无线通信网络中操作调度器的方法包括:在调度器处获得多个度量值,每个度量值对应于来自多个UE波束对中的UE波束对,每个UE波束对包括来自多个UE中的UE和多个波束中的波束;执行UE波束对选择操作包括:由调度器的深度Q网络(DQN)基于多个度量值确定多个Q值,多个Q值分别对应于多个UE波束对,以及基于多个Q值从多个UE波束对中选择UE波束对;以及将所选择的UE波束对中包括的UE分配给所选择的UE波束对中包括的波束。
选择可以包括从多个Q值中选择最高Q值作为所选择的Q值。
多个度量值可以分别是多个比例公平(PF)度量值。
针对多个PF度量值中的每个PF度量值,PF度量值可以是第一UE相对于第一波束的瞬时频谱效率与第一UE的吞吐量的比率,第一UE是与PF度量值相对应的UE波束对中包括的UE,第一波束是与PR度量值相对应的UE波束对中包括的波束。
分配可以包括调度器针对当前传输时间间隔(TTI)将所选择的UE波束对中包括的UE分配给所选择的UE波束对中包括的波束。
所选择的UE波束对是多个所选择的UE波束对中的一个所选择的UE波束对。在无线通信网络中操作调度器的方法还可以包括:由调度器通过多次执行UE波束对选择操作来生成多个所选择的UE波束对。分配可以包括:针对当前TTI,分别将多个所选择的UE波束对中包括的UE分配给多个所选择的UE波束对中包括的波束。
根据至少一些示例实施例,一种训练调度器的方法,该调度器用以在无线通信网络中执行关于多个用户设备(UE)和多个波束的调度,该方法包括:从多个存储的UE波束状态中随机地选择小批量的样本UE波束状态,其中每个存储的UE波束状态包括多个UE波束对和分别与多个UE波束对相对应的多个度量值。根据至少一些示例实施例,每个UE波束对包括来自多个UE中的UE和来自多个波束中的波束。根据至少一些示例实施例,训练调度器以执行调度的方法还包括:针对随机地选择的小批量的样本UE波束状态中的每个样本UE波束状态Sj,基于第一调度规则确定分别与UE波束状态Sj的一个或多个有效UE波束对相对应的样本UE波束状态Sj的一个或多个有效动作,使用具有第一权重的第一深度Q网络(DQN)来生成分别与样本UE波束状态Sj的一个或多个有效动作相对应的一个或多个第一Q值,使用具有第二权重的第二DQN来生成分别与样本UE波束状态Sj的一个或多个有效动作相对应的一个或多个目标值,以及基于一个或多个第一Q值和一个或多个目标值来更新第一权重。
训练调度器以执行调度的方法还可以包括:通过随机地选择第一权重来初始化第一权重;以及通过将第二权重设置为等于第一权重来初始化第二权重。
针对样本UE波束状态Sj的一个或多个有效UE波束对中的每个有效UE波束对,调度器被允许针对当前传输时间间隔(TTI)根据第一调度规则将有效UE波束对中包括的UE分配给有效UE波束对中包括的波束,并且针对样本UE波束状态Sj的一个或多个有效动作中的每个动作,动作可以包括调度器将与动作相对应的有效UE波束中包括的UE分配给与动作相对应的有效UE波束对中包括的波束。
生成一个或多个目标值可以包括针对A中的每个有效动作a,确定yj(a)=[R(a)+γ*maxa′Q(Sj,next(a),a′;θ-)],其中A表示样本UE波束状态Sj的一个或多个有效动作,yj(a)表示来自一个或多个目标值中与有效动作a相对应的目标值,R(a)表示与有效UE波束对相对应的度量值,该有效UE波束对与有效动作a相对应,γ表示值不小于0并且不大于1的折扣参数,Sj,next(a)表示根据第一调度规则由调度器关于样本UE波束状态Sj执行有效动作a而导致的下一UE波束状态,θ-表示第二DQN的第二权重,表达式maxa′Q(Sj,next(a),a′;θ-)表示来自由第二DQN生成的一个或多个下一Q值中的最大Q值。一个或多个下一Q值的生成可以包括第二DQN针对下一UE波束状态Sj,next(a)的一个或多个有效动作中的每个有效动作a’生成一个或多个下一Q值中的一个下一Q值。更新第一权重可以包括使用随机地选择的小批量的UE波束状态在第一DQN中执行批量梯度下降步骤,使得针对随机地选择的小批量的UE波束状态中的每个UE波束状态Sj,要最小化的损耗值=[yj(A)-Q(Sj,A;θ)]2,其中yj(A)表示针对一个或多个有效动作A中的每个有效动作a生成的一个或多个目标值yj(a)的串联,表达式Q(Sj,A;θ)表示第一Q值,并且θ表示第一权重。
根据至少一些示例实施例,一种调度器包括:存储器,该存储器存储计算机可执行指令;以及处理器,该处理器被配置为执行计算机可执行指令使得处理器被配置为获得多个度量值,每个度量值对应于来自多个UE波束对中的UE波束对,每个UE波束对包括来自多个UE中的UE和来自多个波束中的波束。根据至少一些示例实施例,处理器还被配置为执行计算机可执行指令使得处理器被配置为执行UE波束对选择操作,包括:使用深度Q网络(DQN)基于多个度量值确定多个Q值,以及基于多个Q值从多个UE波束对中选择UE波束对。根据至少一些示例实施例,多个Q值分别对应于多个UE波束对。根据至少一些示例实施例,处理器还被配置为执行计算机可执行指令,使得处理器被配置为将所选择的UE波束对中包括的UE分配给所选择的UE波束对中包括的波束。
处理器可以被配置为执行计算机可执行指令,使得选择包括从多个Q值中选择最高Q值作为所选择的Q值。
处理器可以被配置为执行计算机可执行指令,使得多个度量值分别是多个比例公平(PF)度量值。
处理器可以被配置为执行计算机可执行指令,使得针对多个PF度量值中的每个PF度量值,PF度量值是第一UE相对于第一波束的瞬时频谱效率与第一UE的吞吐量的比率,第一UE是与PF度量值相对应的UE波束对中包括的UE,第一波束是与PF度量值相对应的UE波束对中包括的波束。
处理器可以被配置为执行计算机可执行指令,使得分配包括针对当前传输时间间隔(TTI)将所选择的UE波束对中包括的UE分配给所选择的UE波束对中包括的波束。
处理器可以被配置为执行计算机可执行指令,使得所选择的UE波束对是多个所选择的UE波束对中的一个所选择的UE波束对。处理器可以被配置为执行计算机可执行指令使得处理器还被配置为由调度器通过多次执行UE波束对选择操作来生成多个所选择的UE波束对。另外,处理器可以被配置为执行计算机可执行指令,使得分配包括:针对当前TTI,分别将多个所选择的UE波束对中包括的UE分配给多个所选择的UE波束对中包括的波束。
根据至少一些示例实施例,一种调度器包括存储器,该存储器存储计算机可执行指令;以及处理器,该处理器被配置为执行计算机可执行指令,使得处理器被配置为从多个存储的UE波束状态中随机地选择小批量的样本UE波束状态。根据至少一些示例实施例,每个存储的UE波束状态包括多个UE波束对和分别与多个UE波束对相对应的多个度量值,并且每个UE波束对包括来自多个UE中的UE和来自多个波束中的波束。根据至少一些示例实施例,处理器还被配置为执行计算机可执行指令,使得处理器被配置为针对随机地选择的小批量的样本UE波束状态中的每个样本UE波束状态Sj,基于第一调度规则确定分别与UE波束状态Sj的一个或多个有效UE波束对相对应的样本UE波束状态Sj的一个或多个有效动作,使用具有第一权重的第一深度Q网络(DQN)来生成分别与样本UE波束状态Sj的一个或多个有效动作相对应的一个或多个第一Q值,使用具有第二权重的第二DQN来生成分别与样本UE波束状态Sj的一个或多个有效动作相对应的一个或多个目标值,以及基于一个或多个第一Q值和一个或多个目标值来更新第一权重。
处理器可以被配置为执行计算机可执行指令,使得处理器还被配置为通过随机地选择第一权重来初始化第一权重;以及通过将第二权重设置为等于第一权重来初始化第二权重。
处理器被配置为执行计算机可执行指令,使得针对样本UE波束状态Sj的一个或多个有效UE波束对中的每个有效UE波束对,处理器被允许针对当前传输时间间隔(TTI)根据第一调度规则将有效UE波束对中包括的UE分配给有效UE波束对中包括的波束,并且针对样本UE波束状态Sj的一个或多个有效动作中的每个动作,动作包括处理器将与动作相对应的有效UE波束中包括的UE分配给与动作相对应的有效UE波束对中包括的波束。
处理器可以被配置为执行计算机可执行指令,使得生成一个或多个目标值包括针对A中的每个有效动作a,确定yj(a)=[R(a)+γ*maxa′Q(sj,next(a),a′;θ-)],其中A表示样本UE波束状态Sj的一个或多个有效动作,yj(a)表示来自一个或多个目标值中与有效动作a相对应的目标值,R(a)表示与有效UE波束对相对应的度量值,该有效UE波束对与有效动作a相对应,γ表示值不小于0并且不大于1的折扣参数,Sj,next(a)表示根据第一调度规则由调度器关于样本UE波束状态Sj执行有效动作a而导致的下一UE波束状态,θ-表示第二DQN的第二权重,表达式maxa′Q(Sj,next(a),a′;θ-)表示来自由第二DQN生成的一个或多个下一Q值中的最大Q值。根据至少一些示例实施例,处理器被配置为执行计算机可执行指令,使得一个或多个下一Q值的生成包括第二DQN针对下一UE波束状态Sj,next(a)的一个或多个有效动作中的每个有效动作a’生成一个或多个下一Q值中的一个下一Q值。根据至少一些示例实施例,处理器被配置为执行计算机可执行指令,使得更新第一权重包括使用随机地选择的小批量的UE波束状态在第一DQN中执行批量梯度下降步骤,使得针对随机地选择的小批量的UE波束状态中的每个UE波束状态Sj,要最小化的损耗值=[yj(A)-Q(Sj,A;θ)]2,其中yj(A)表示针对一个或多个有效动作A中的每个有效动作a生成的一个或多个目标值yj(a)的串联,表达式Q(Sj,A;θ)表示第一Q值,并且θ表示第一权重。
附图说明
通过下面提供的详细描述和附图,至少一些示例实施例将变得更加充分地理解,其中相似的元素由相似的附图标记表示,附图标记仅以说明的方式给出,因此不限制示例实施例,并且在附图中:
图1A是用于说明确定将产生期望的或最大的累积奖励的动作序列的示例方法的图。
图1B是用于说明根据至少一些示例实施例的无线通信网络中的资源分配的示例的图。
图2是示出根据至少一些示例实施例的用于无线通信网络的调度器的示例结构的图。
图3和图4是用于说明根据至少一些示例实施例的强化学习的示例的图。
图5示出了根据至少一些示例实施例的调度器中包括的深度Q网络(DQN)的示例结构。
图6示出了根据至少一些示例实施例的在无线通信网络中操作调度器251以分配资源的示例方法。
具体实施方式
现在将参考在其中示出了一些示例实施例的附图来更全面地描述各种示例实施例。
本文中公开了详细的说明性实施例。然而,出于描述至少一些示例实施例的目的,本文中公开的特定结构和功能细节仅是代表性的。然而,示例实施例可以以很多替代形式来实施,而不应当被解释为仅限于本文中阐述的实施例。
因此,尽管示例实施例能够具有各种修改和备选形式,但是其实施例在附图中通过示例被示出并且将在本文中被详细描述。然而,应当理解,不旨在将示例实施例限制为所公开的特定形式,而是相反,示例实施例将涵盖落入示例实施例的范围内的所有修改、等同物和备选。在整个附图的描述中,相似的附图标记表示相似的元素。如本文中使用的,术语“和/或”包括一个或多个相关联的所列项的任何和所有组合。
将理解的是,当一个元件被称为“连接”或“耦合”到另一元件时,它可以直接连接或耦合到另一元件,或者可以存在中间元件。相反,当一个元件被称为“直接连接”或“直接耦合”到另一元件时,不存在中间元件。用于描述元件之间的关系的其他词语应当以类似的方式来解释(例如,“在……之间”与“直接在……之间”、“相邻”与“直接相邻”等)。
本文中使用的术语仅出于描述特定实施例的目的,而不旨在限制示例实施例。如本文中使用的,除非上下文另外明确指出,否则单数形式的“一”、“一个”和“该”也意图包括复数形式。还将理解,当在本文中使用时,术语“包括”、“包含”、“包括有”和/或“包含有)”指定所述特征、整数、步骤、操作、元素和/或组件的存在,但是不排除一个或多个其他特征、整数、步骤、操作、元素、组件和/或其组的存在或添加。
还应当注意,在一些备选实现中,所提到的功能/动作可以不按照图中提到的顺序发生。例如,取决于所涉及的功能性/动作,连续示出的两个图实际上可以基本上并发地执行,或者有时可以以相反的顺序执行。
如本文中使用的,术语“移动终端”可以被认为是与以下各项同义并且下文中可以偶尔称为以下各项:用户设备(UE)、终端、移动终端、移动单元、移动设备、移动台、移动用户、接入终端(AT)、订户、用户、远程站、接入终端、接收器等,并且可以描述无线通信网络中无线资源的远程用户。术语基站(BS)可以被视为与以下各项同义和/或称为以下各项:节点B、演进型节点B(eNB)、基站收发器(BTS)、归属eNB(HeNB)、接入点(AP)等,并且可以描述为网络与一个或多个用户之间的数据和/或语音连接性提供无线电基带功能的设备。
本文中将示例性实施例讨论为在合适的计算环境中实现。尽管不是必需的,但是将在由一个或多个计算机处理器或CPU执行的计算机可执行指令(诸如程序模块或功能过程)的一般上下文中描述示例性实施例。通常,程序模块或功能过程包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等。
本文中讨论的程序模块和功能过程可以使用现有通信网络中的现有硬件来实现。例如,本文中讨论的程序模块和功能过程可以使用现有网络元件或控制节点(例如,e节点B(enB)或无线电网络控制器(RNC))处的现有硬件来实现。这样的现有硬件可以包括一个或多个数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)计算机等。
在以下描述中,除非另外指出,否则将参考由一个或多个处理器执行的操作的动作和符号表示(例如,以流程图的形式)来描述说明性实施例。这样,将理解的是,有时被称为计算机执行的这样的动作和操作包括处理器对以结构化形式来表示数据的电信号的操纵。该操纵变换数据或将其保存在计算机的存储器系统中的位置处,其以本领域技术人员熟知的方式重新配置或以其他方式改变计算机的操作。
一些真实世界任务可以用状态S和动作A表示,其中每个状态与一个或多个可用动作相关联,每个可用动作与以下各项相关联:(i)对应奖励值R,以及(ii)到下一状态的对应转变(例如,St->St+1),并且下一状态的属性根据特定的一组规则被更新。图1A是用于说明将产生期望的或最大的累积奖励的动作序列的示例方法的图。
图1A示出了表示为矩阵105的示例状态St,矩阵105的条目被组织成M列和N行。矩阵105的每个条目对应于在状态St中可以被采取的不同动作At。矩阵105的每个条目可以具有深度维度。例如,在图1A所示的示例中,矩阵105的每个条目具有至少为3的深度值(例如,通常为d),如图1A中的矩阵105的三个层所示。因此,在图1A所示的示例中,矩阵105的条目对应于至少3个数值(即,与矩阵105中条目的位置处的深度维度相关联的3个数值)。根据至少一些示例实施例,与矩阵105中的每个条目相关联的数值可以指示特定任务状态St表示的属性。根据至少一些示例实施例,可以根据特定一组规则使用与矩阵105中的每个条目相关联的数值来计算与在状态St中选择采取与该条目相对应的动作At相关联的奖励值。当以图1A所示的方式表示任务时,根据至少一些示例实施例,确定将产生期望的或最大的累积奖励的动作序列的通用方法可以包括下面的算法1的步骤。算法1用伪代码表示。
算法1
O1:训练深度Q网络(DQN)(例如,通过执行算法2中概述的操作,以下将对其进行详细讨论)。
O2:将当前状态(例如,矩阵105表示的状态St)作为输入传递到经训练的DQN,以确定针对当前状态的每个可用动作At的Q值。
O3:从矩阵(例如,矩阵105)的N*M个条目中选择与动作At相对应的条目(例如,表示状态St的矩阵105的条目),该动作At具有由经训练的DQN针对当前状态输出的最高Q值。矩阵中的每个条目的深度维度的大小为d。根据至少一些示例实施例,可以将d个数值视为图像像素值。
O4:基于(St,At),累积奖励Rt+1≥0,并且通过遵循一组规则来形成下一状态(例如,状态St+1)。这些规则使得它们能够实现基于马尔可夫决策过程(MDP)的演变(即,{St+1,Rt+1}完全由{St,At}确定)。
O5:通过对于每个连续状态重复操作O2-O4直到到达最终状态ST为止,找到与期望或最大累积奖励相对应的动作序列。
下面参考图1B至图6和示例场景来更详细地解释算法1,在示例场景中,应用了算法1的任务是调度器将用户设备(UE)分配给5G无线通信网络中的波束的任务,并且每个状态S可以由矩阵表示,该矩阵的深度为1并且具有多个条目,每个条目对应于将由该条目的行标识的UE分配给由该条目的列标识的波束的动作。例如,将在下面更详细讨论的算法2表示算法1的步骤O1的示例实现;并且将在下面更详细讨论的图6的步骤S610、S615和S625分别表示算法1的步骤O2、O3和O4的示例实现。
然而,将UE分配给波束仅仅是由算法1表示的通用框架的一个示例应用,并且至少一些示例实施例不限于这一个示例。根据至少一些示例实施例,由算法1表示的通用框架可以被应用于任何资源分配任务或其他场景,其中该任务或场景可以被构架(frame)为遵循马尔可夫或半马尔可夫演进过程以顺序方式从多维矩阵(数值矩阵)中挑选条目之一,目的是增加或备选地最大化累积奖励。将矩阵单元视为图像像素的想法使得能够使用神经网络的强大的图像处理能力。现在将参考图1B和图2讨论无线通信网络中的资源分配的示例。
图1B是用于说明根据至少一些示例实施例的无线通信网络中的资源分配的示例的图。图2是示出根据至少一些示例实施例的调度器251的示例结构的图。例如,在实现5G多用户MIMO(MU-MIMO)的无线通信网络中,每个小区具有多个子小区,每个子小区具有自己的天线阵列。每个小区可以包括调度器。调度器251以每传输时间间隔(TTI)为单位波束分配给活动UE。根据至少一些示例实施例,每个TTI,调度器251创建矩阵D,矩阵D的第(i,j)项表示针对UE i在波束j上的比例公平(PF)度量。例如,图1B示出了矩阵D的第一、第二和第三状态110、120和130。调度器251的示例包括执行无线通信网络调度功能(例如,将UE分配给波束)的任何网络元件或设备。例如,调度器251可以由e节点B(eNB)或无线电网络控制器(RNC)来实施。在本公开中,术语PF度量有时也被称为“度量”、“度量值”和“PF度量值”中的任何一个。
例如,如图1B所示,调度器251可以生成矩阵D,使得第一状态110包括分别与多个UE波束对(UE 1,波束1)至(UE 6,波束4)相对应的多个条目(1,1)至(6,4)。如图1B所示,在第一状态110中的每个条目(i,j)包括对应UE波束对(UE i,波束j)的PF度量。例如,在第一状态110中的每个条目(i,j)包括与针对当前TTI被分配给波束j的UE i相对应的PF度量。
调度器可以根据已知方法确定矩阵D在第一状态110中的每个PF度量。例如,调度器251可以将针对第一状态110的每个条目(i,j)的PF度量确定为UE i针对波束j的瞬时频谱效率与由UE i实现的长期吞吐量的比率。调度器251使用所确定的PF度量来确定如下方式,UE(例如,UE 1-UE 6)以该方式针对当前TTI获取所分配的资源(例如,波束1-波束4)。例如,根据一个示例调度方案,调度器251尝试将资源给予具有最高PF度量的一组UE。
此外,当使用矩阵D分配资源时,调度器251可以遵循一组调度规则。在图1B所示的示例中,调度器251遵循第一调度规则和第二调度规则,第一调度规则要求任何两个调度波束被分离最小距离δ,第二调度规则要求可以被调度的UE的数目具有上限。
在图1B所示的示例中,由调度器251从第一状态110选择的用于在当前TTI中进行调度的第一UE波束对是(UE 3,波束3)。在第一状态110中与UE波束对(UE 3,波束3)相对应的条目是条目(3,3)。如图3所示,第一状态110的条目(3,3)中包括的PF度量是35。在从第一状态110选择UE波束对之后,调度器251基于到目前为止调度器针对当前TTI已经选择的所有UE波束对来计算累积奖励。由于此时调度器251仅选择了UE波束对(UE 3,波束3),因此调度器将累积奖励计算为35(即,与UE波束对(UE 3,波束3)相对应的条目(3,3)的PF值)。
根据上面讨论的第一调度规则和第二调度规则,UE波束对(UE3,波束3)的选择导致矩阵D从第一状态110转变到第二状态120。如图1B所示,在第二状态120中,由于调度器251遵循的第一调度规则和第二调度规则的要求,UE波束对(UE 1,波束1)至(UE 6,波束4)中的某些禁止被选择。在图1B中,由调度器251禁止针对当前TTI进行选择的UE波束对由与被设置为0的被禁止的UE波束对相对应的矩阵D中的条目的值来指示。如上所述,在图1B所示的示例中,调度器251遵循第一调度规则,第一调度规则要求任何两个调度波束被分离至少最小距离δ。在图1B所示的示例中,最小距离δ=2。因此,如图1B所示,在第二状态120中,由于在第一状态101中已经选择波束3,并且在波束3与波束2和波束4中的每个波束之间的距离为1(其小于最小距离δ=2),因此在当前TTI期间,与波束2-4相对应的UE波束对禁止被选择用于调度。
在图1B所示的示例中,由调度器251从第二状态120选择的用于在当前TTI中进行调度的第二UE波束对是(UE 5,波束1)。在第一状态110下与UE波束对(UE 5,波束1)相对应的条目是条目(5,1)。如图3所示,第二状态120的条目(5,1)中包括的PF度量为40。因此,在从第二状态120选择第二UE波束对之后,调度器251基于到目前为止调度器针对当前TTI已经选择的所有UE波束对来将累积奖励计算为75(即,与UE波束对(UE 3,波束3)相对应的条目(3,3)的PF值和与UE波束对(UE 5,波束1)相对应的条目(5,1)的PF值的和)。
根据上面讨论的第一调度规则和第二调度规则,UE波束对(UE3,波束3)的选择导致矩阵D从第二状态120转变到第三状态130。如图1B所示,在第三状态130中,由于调度器251遵循的第一调度规则和第二调度规则的要求,所有UE波束对(UE 1,波束1)至(UE6,波束4)禁止被选择。由于在第三状态130中调度器无法选择UE波束对,因此第三状态130被调度器251确定为最终状态,并且在当前TTI期间用于调度的UE波束对的选择结束。
因此,在图1B所示的示例中,针对当前TTI,调度器251调度两个选择的波束对(UE3,波束3)和(UE 5,波束1)。在本公开中,将UE i分配给波束j的动作可以简单地称为调度UE波束对(UE i,波束j)或分配UE波束对(UE i,波束j)。虽然图1B的示例示出了一种可能的动作序列(即,首先选择UE波束对(UE 3,波束3),然后选择UE波束对(UE 5,波束1)),但是还有其他几种可能的动作序列可能已经被调度器251选择并且可能导致更期望的结果。因此,可能是有利的是,确定一种方法以用于改进或备选地优化调度器251分配资源(例如,将UE分配给波束)的过程,以使得调度器251的小区的业务吞吐量增加或备选地最大化。
下面将参考图2更详细讨论调度器251的示例结构。下面将参考图3至图6更详细讨论用于改进使用调度器251在无线通信网络中分配资源的过程的示例方法。
如上所述,图2是示出调度器251的示例结构的图。
参考图2,调度器251可以包括例如数据总线259、发送单元252、接收单元254、存储器单元256和处理单元258。
发送单元252、接收单元254、存储器单元256和处理单元258可以使用数据总线259向彼此发送数据和/或从彼此接收数据。
发送单元252是包括硬件和任何必要的软件的设备,该硬件和任何必要的软件用于经由一个或多个有线和/或无线连接性向无线通信网络中的一个或多个其他网络元件发送信号,包括例如控制信号或数据信号。
接收单元254是包括硬件和任何必要的软件的设备,该硬件和任何必要的软件用于经由与无线通信网络中的一个或多个其他网络元件的一个或多个有线和/或无线连接性来接收无线信号,包括例如控制信号或数据信号。
存储器单元256可以是能够存储数据的任何设备,包括磁存储装置、闪存等。
处理单元258可以是能够处理数据的任何设备,包括例如处理器。
根据至少一个示例实施例,本文中例如参考图1至图6中的任何图描述为由调度器执行的任何操作可以由具有图2所示的调度器251的结构的电子设备来执行。例如,根据至少一个示例实施例,调度器251可以在软件和/或硬件方面进行编程,以执行本文中描述为由调度器执行的任何或所有功能。因此,调度器可以通过软件和/或硬件编程被实施为专用计算机。
现在将在下面讨论在软件方面进行编程以执行本文中描述为由本文中描述的任何调度器执行的任何或所有功能的调度器251的示例。例如,存储器单元256可以存储程序,该程序包括可执行指令,该可执行指令对应于本文中参考图1至图4描述为由调度器执行的任何或所有操作。根据至少一个示例实施例,除了或备选存储在存储器单元256中,可执行指令可以被存储在计算机可读介质中,包括例如光盘、闪存驱动器、SD卡等,并且调度器251可以包括用于读取存储在计算机可读介质上的数据的硬件。此外,处理单元258可以是如下处理器,该处理器被配置为执行本文中参考图1至图4描述为由调度器执行的任何或所有操作,例如通过读取并且执行存储在存储器单元256和计算机可读存储介质中的至少一个中的可执行指令,该可执行指令被加载到调度器251中包括的硬件中以用于读取计算机可读介质。
现在将在下面讨论在硬件方面进行编程以执行本文中描述为由调度器执行的任何或所有功能的调度器251的示例。作为对与参考图1至图6描述为由上述存储在存储器单元或计算机可读介质中的调度器执行的功能相对应的可执行指令的补充或备选,处理单元258可以包括具有专用于执行本文中参考图1至图6描述为由调度器执行的任何或所有操作的结构设计的电路(例如,集成电路)。例如,包括在处理单元258中的上述电路可以是FPGA或ASIC,该FPGA或ASIC通过特定电路设计而被物理编程为执行参考图1至图6描述为由调度器执行的任何或所有操作。
如将在下面参考图3至图6更详细讨论的,根据至少一些示例实施例,调度器251可以利用强化学习技术或从其受益以改进资源分配。
图3和图4是用于说明根据至少一些示例实施例的强化学习的示例的图。
图3示出了游戏的示例,其中游戏板310包括盒子的矩阵,每个盒子具有由盒子的对应灰度值指示的不同数值。图3中的游戏涉及动作At,动作At例如可以是玩家在板310投掷飞镖305。游戏具有规定奖励Rt+1和转变(例如,从状态St到状态St+1)的规则,这是由于在游戏板310处于某些状态S时采取某些动作A所致。此外,在采取一个或多个动作之后,游戏板310可能会达到最终状态ST,从该最终状态ST没有另外的动作可以被采取。
一种增加或备选地最大化诸如图3所示的游戏的最终或最后得分的方法将是找到期望的或备选地最优的策略(π*),该策略将状态映射到动作以增加或备选地最大化累积收益或回报。例如,图3所示的游戏可以被概念化为有限马尔可夫决策过程(MDP)(其中{St+1,Rt+1}由{St,At}确定),针对其强化学习技术可以被使用。
例如,在时间t的累积收益Gt可以根据等式1来定义:
Figure BDA0002787240170000171
其中0≤γ≤1是折扣参数,T表示最终时间点,k是整数索引值。
最优动作值函数(Q*)可以根据等式2来定义:
Q(s,a)=maxπE[Gt|St=s,At=a,π], (等式2)其中π是将状态映射到动作的策略,即Q(s,a)表示在看到状态s并且采取动作a之后,通过遵循任何策略可获取的最大预期收益。
使用已知的贝尔曼(Bellman)等式作为迭代更新,动作值函数Qi收敛到Q*,如等式3所示:
Qi+1(s,a)=E[r+γmaxa’Qi(s’,a’)|s,a], (等式3)
其中s′和r是在状态s下采取动作a之后的状态和奖励。
根据至少一些示例实施例,通过概念化将网络资源分配为如图3中所示的游戏的过程,类似于上面参考等式1-3讨论的强化学习(例如,Q学习技术)可以被应用于分配网络资源(例如,将UE分配给小区中的波束)的任务。例如,如图4所示,通过根据矩阵D的空间上对应的框(即,条目或元素)中的PF度量的数值来设置游戏板310中的框的灰度值,上面参考图1B讨论的矩阵D可以被表示为以上参考图3讨论的游戏板310。
然而,即使矩阵D被重新解释为游戏板310,并且以上关于等式1-3讨论的Q学习技术被应用,试图针对游戏板310(即,矩阵D)的每个可能状态和动作来学习Q函数在时间、处理资源和/或存储器要求方面也可能是禁止的。因此,根据至少一些示例实施例,神经网络可以被用于促进确定与状态动作对相关联的Q函数的过程,该状态动作对与矩阵D相关联。
例如,神经网络可以被有利地应用于在结构化数据内找到特征,诸如图像的像素值的阵列或向量。此外,如doi:10.1038/nature14236的Nature的2015年第518卷第7540号第529-533页的Mnih、Volodymyr等人的“Human-level control through deepreinforcement learning”(其内容通过引用并入本文)中讨论的,Q学习技术可以被与卷积神经网络(CNN)技术相结合以创建深度Q网络(DQN)。
图5示出了根据至少一些示例实施例的调度器251中包括的DQN501的示例结构。如图5所示,DQN 501可以接收状态505并且输出与对应于状态505的每个有效动作相关联的Q值555。例如,每个有效动作是在给定矩阵D的状态505和调度器251遵循的调度规则的情况下调度器251被准许在当前TTI期间执行的与UE波束对的分配相对应的动作。状态505是指例如特定状态中的矩阵D。例如,图1B所示的矩阵D的第一状态110、第二状态120和第三状态130是可以被输入到DQN 501的状态505的每个示例。在本公开中,矩阵D的特定状态(例如,图1B所示的矩阵D的第一状态310)可以简称为“状态”(例如,“第一状态310”)。
如图5所示,DQN 501可以是卷积神经网络(CNN),该CNN可以包括例如第一卷积层510、第二卷积层520、第三卷积层530、第一全连接层540、以及作为输出层的第二全连接层550。在图5所示的示例中,第一卷积层510包括五个大小为6×6的过滤器,第二卷积层520包括十个大小为3×3的过滤器,并且第三卷积层530包括十个尺寸为2×2的过滤器。根据至少一些示例实施例,用于DQN 501的所有隐藏层的激活是ReLU函数,并且第二全连接层550(其输出是Q值555)具有线性激活函数。图5所示的DQN 501的结构是一个示例。根据至少一些示例实施例,调度器251中包括的DQN的参数(例如,每层中的过滤器的数目、过滤器的大小、以及第四隐藏层中的全连接的节点的数目)可以不同于图5所示的那些,并且可以根据调度器251的设计者或操作者的偏好来选择。例如,DQN 501的上述参数可以基于经验分析来选择。现在将在下面参考图6更详细讨论利用调度器251的DQN 501来促进将UE分配给波束的任务的方法。
图6示出了根据至少一些示例实施例的操作调度器251以分配无线通信网络的资源的示例方法。
在操作S605中,调度器251获得多个PF度量值。例如,在操作S605中,调度器251可以以矩阵D的状态S0的形式获得多个PF度量值。根据至少一些示例实施例,在操作S605中获得的状态S0可以是N×M矩阵,该N×M矩阵包括与N个UE和M个波束相对应的N×M个UE波束对的N×M个PF度量值,其中N和M是正整数。例如,图1B中的第一状态110是在操作S605中获得的状态S0的示例。根据至少一些示例实施例,调度器251可以以与以上关于图1B讨论的相同方式来计算状态S0的N×M个PF度量值。例如,调度器251可以计算在状态S0中表示的N×M个UE波束对(UE i,波束j)中的每个UE波束对的PF度量,作为UE i针对波束j的瞬时频谱效率与由UE i实现的长期吞吐量的比率。
在操作S610中,调度器251确定与在操作S605中获得的状态S0中表示的多个UE波束对相对应的多个Q值。例如,调度器251可以将状态S0作为输入提供给调度器251中包括的DQN 501,并且DQN501可以输出与状态S0中表示的每个UE波束对相对应的Q值。例如,在状态S0中表示的每个UE波束对与调度器251所采取的潜在动作A(即,调度器251针对当前TTI分配UE波束对)相对应。因此,调度器251可以针对与在状态S0中表示的N×M个UE波束对相对应的N×M个动作计算N×M个Q值(例如,Q(S0,A0)至Q(S0,ANM-1))。
在操作S615中,调度器251可以确定具有在操作S610中计算的Q值中的最高Q值的动作A,并且执行所确定的动作。例如,如果Q(S0,A1)是在操作S610中确定的所有Q值中的最高Q值,则在操作S615中,调度器251执行动作A1(即,调度器251针对当前TTI分配与动作A1相对应的状态S0中的UE波束对)。
在操作S620中,调度器251累积当前奖励。例如,调度器251可以将与在操作S620中执行的动作A相对应的UE波束对的PF度量值确定为用于执行动作A的奖励,并且将该奖励添加到与先前由调度器251针对当前TTI执行的动作相对应的奖励的累积总和(即,先前由调度器251针对当前TTI分配的UE波束对的PF度量的累积总和)。
在操作S625中,调度器251将状态S0转变为下一状态S1。根据至少一些示例实施例,在操作S625中,例如,调度器251可以根据在操作S615中执行的动作A以及调度器251遵循的调度规则来将状态S0转变为状态S1,例如,以上面参考图1B以及第一状态110与第二状态120之间的转变所讨论的相同的方式。
在操作S630中,调度器251确定与在操作S625中获得的状态S1中表示的多个UE波束对相对应的多个Q值。例如,调度器251可以将状态S1作为输入提供给调度器251中包括的DQN 501。作为响应,例如,DQN 501可以输出与状态S1中表示的每个UE波束对相对应的Q值。
在操作S630之后,调度器251可以确定具有在操作S630中针对状态S1计算的Q值中的最高Q值的动作A,执行所确定的动作,并且累积与所执行的动作相关联的当前奖励,例如,以与以上关于操作S615和S620所讨论的相同的方式。例如,根据至少一些示例实施例,在从当前状态到新状态(即,下一状态)的每个转变之后,调度器251可以针对每个新状态重复操作S610-S625,直到达到最终状态为止,此时,调度器251可以考虑针对当前TTI调度要完成的资源(例如,将UE分配给波束)的过程。
现在将在下面参考算法2讨论训练DQN 501的示例方法。算法2以伪代码表示,该伪代码表示可以例如由调度器251执行以训练DQN501的操作。另外,根据至少一些示例实施例,DQN 501可以由除调度器251之外的设备(例如,训练器、计算机或服务器)执行算法2中包括的操作来训练,并且在训练之后,经训练的DQN 501可以被包括在调度器251中。
算法2
P1:利用随机主权重θ初始化Q(即,DQN)。
P2:将冻结权重θ-设置为=主权重θ。
P3:使用贪婪选择方法将DQN与样本拟合:Qgreedy(S,a)=通过以下获得的累积奖励:在状态S中采取动作a,然后从下一状态进行贪婪选择直到最终状态为止。
P3′:如果不使用贪婪选择方法(用于加快训练速度),则仅使用倒数第二状态样本和相关联的动作奖励作为Q值进行拟合。
P4:将以上样本和另外若干随机地生成的样本存储在重放缓冲区中(replaybuffer)。
P5:从重放缓冲区中选择随机小批量的样本。针对小批量中的每个样本Sj
P5-1:将Sj传递给当前网络权重(θ),以针对所有动作aεA获得Q(Sj,A;θ)。
P5-2:针对Sj中的每个有效动作aεA(即,具有非零奖励的动作,R(a)>0)获得下一状态Sj,next(a)。
P5-3:对于Sj中的每个有效动作aεA,将Sj,next(a)传递通过网络权重(θ-)的先前(冻结)版本,以将目标yj(a)计算为:
针对非最终状态Sj,next(a):
如果使用Qgreedy加速,则yj(a)=[R(a)+γ*max(Qgreedy,maxa′Q(Sj,next(a),a′;θ-))];
如果不使用Qgreedy加速,则yj(a)=[R(a)+γ*maxa′Q(Sj,next(a),a′;θ-)];
针对最终状态Sj,next(a):
yj(a)=R(a);
针对具有零奖励的动作:
yj(a)=0。
P5-4:通过将所有aεA的yj(a)级联来获得目标向量yj(A)。
P6:通过使用小批量的样本在DQN中执行批量梯度下降步骤来更新θ,其中针对每个样本Sj,要最小化的损耗值=[yj(A)-Q(Sj,A;θ)]2(或任何其他适当选择的损失函数)。
P7:经过若干小批次的采样和训练之后,设置θ-=θ,并且继续进行下一组采样/训练。
参考算法2,在步骤P1中,调度器251初始化作为DQN 501的权重的主权重θ。根据至少一些示例实施例,调度器251使用随机值作为主权重θ的初始值。
在步骤P2中,调度器251将冻结权重θ-设置为主权重θ。
在步骤P3中,调度器使用贪婪选择方法Qgreedy(S,a)将DQN 501与样本拟合,使得Qgreedy(S,a)等于通过以下获得的累积奖励:在状态S中采取动作a,然后从下一状态进行贪婪选择直到最终状态为止。
备选地,在步骤P3′中,在调度器251未使用贪婪选择方法的情况下,调度器251可以仅使用倒数第二状态(即,最终状态之前的一个状态)样本和相关联的动作奖励作为Q值来拟合DQN 501。注意,在倒数第二状态中,Q(S,a)=R(a)。一旦倒数第二状态的Q值由DQN501获知,DQN 501就可以获知倒数第二状态之前的状态的Q值,以此类推。
在步骤P4中,调度器将在步骤P3或P3′中生成的样本状态存储在重放缓冲区中。根据至少一些示例实施例,重放缓冲区可以被包括在调度器251的存储器单元256中。例如,针对在步骤P3或P3′中发生的从状态Sj到下一状态Sj,next的每个转变,调度器251可以将状态Sj和Sj,next作为样本状态存储在重放缓冲区中。在步骤P4中,除了存储在步骤P3或P3′中生成的样本,调度器251还可以将附加样本状态存储在重放缓冲区中。例如,调度器251的设计者或操作者可以使用调度器251的预期操作环境的知识来生成与在实际感兴趣应用中会遇到的分布/模式相对应的若干附加示例样本状态。例如,附加示例样本状态可以被生成,以便捕获期望在波束之间看到UE的PF度量的任何相关模式。
在步骤P5中,调度器251从重放缓冲区中选择随机小批量的样本,并且针对随机小批量中包括的每个样本Sj执行步骤P5-1至P5-6。
在步骤P5-1中,调度器251使用当前主权重θ将样本状态Sj作为输入应用于DQN501,以获得所有动作aεA的Q值作为DQN 501的输出(即,以获得Q(Sj,A;θ))。
在步骤P5-2中,调度器251针对状态Sj中的每个有效动作aεA获得下一状态Sj,next(a),其中有效动作a是调度器251鉴于调度器251当前遵循的调度规则而被准许执行的动作(即,分配在样本状态Sj中表示的特定UE波束对)(例如,针对相同TTI分配的波束必须至少被分离最小距离δ=2)。例如,有效动作是具有非零奖励的动作(即,R(a)>0,其中R(a)表示由于执动作a而获得的奖励)。
在步骤P5-3中,针对状态Sj中的每个有效动作aεA,调度器使用冻结的权重θ-(而不是主权重θ)将由采取动作a而导致的下一状态Sj,next(a)应用于DQN 501以计算目标yj(a)。
在步骤P5-3中,当下一状态Sj,next(a)为非最终状态时,调度器251根据等式4或等式5计算目标yj(a):
yj(a)=[R(a)+γ*max(Qgreedy,maxa′Q(Sj,next(a),a′;θ-))]; (等式4)
yj(a)=[R(a)+γ*maxa′Q(Sj,next(a),a′;θ-)]。 (等式5)
当使用贪婪选择方法Qgreedy时,调度器251可以在步骤P5-3中使用等式4。否则,调度器251可以使用等式5。
在步骤P5-3中,当下一状态Sj,next(a)是最终状态时,调度器251根据等式6计算该目标yj(a):
yj(a)=R(a)。 (等式6)
在步骤P5-3中,当动作a是具有0个奖励的动作时(例如,鉴于调度器251遵循的调度规则而不允许的动作,如分配距先前针对同一TTI分配的UE波束对小于最小距离δ的UE波束对;或者该波束中没有PF值),调度器251根据等式7计算该目标yj(a):
yj(a)=0。 (等式7)
在等式4和5中,R(a)表示由于执行动作a而获得的奖励,γ表示值不小于0并且不大于1的折扣参数,并且表达式maxa′Q(Sj,next(a),a′;θ-)表示可以关于下一状态Sj,next(a)执行的所有有效动作a’中的最大Q值。
在步骤P5-4中,调度器251通过将所有aεA的yj(a)级联来获得目标矢量yj(A)。
在步骤P6中,调度器251通过使用小批量的样本Sj在DQN 501中执行批梯度下降步骤来更新θ,其中要最小化的损失值L例如通过等式8(或任何其他适当选择的损失函数)表示:
L=[yj(A)-Q(Sj,A;θ)]2。 (等式8)
经过若干采样和训练后,设置θ-=θ,然后继续进行下一组采样/训练。
在步骤P7中,将冻结权重θ-设置为当前主权重θ。可以周期性地执行步骤P5-6。例如,调度器251可以迭代地执行选择小批量的样本Sj并且执行步骤P5至P6的若干循环。此外,每次已经根据步骤P5至P6执行了阈值数目的循环或已经处理了阈值数目的批量的样本Sj时,调度器251可以执行步骤P7。
这样描述了示例实施例,很清楚的是,可以以很多方式改变实施例。这样的变化不应当被认为偏离示例实施例,并且所有这样的修改旨在被包括在示例实施例的范围内。

Claims (30)

1.一种确定动作序列的方法,所述方法包括:
训练第一深度Q网络(DQN);
提供第一多维矩阵的多个条目作为对所述DQN的输入,所述第一矩阵表示第一状态,所述第一矩阵的每个条目表示在所述第一状态中能够被采取的动作;
使用所述第一DQN,分别针对所述第一矩阵的所述多个条目确定多个Q值;
执行第一动作,所述第一动作是由来自所述多个条目中的如下条目表示的动作,针对所述条目所述第一DQN确定了所确定的所述多个Q值中的最高Q值;
基于执行所述第一动作来累积奖励;以及
根据第一组规则和所执行的所述第一动作来从所述第一状态转变到下一状态。
2.根据权利要求1所述的方法,其中所述第一DQN的所述训练包括:
初始化第一权重;
从多个存储状态中随机地选择小批量的样本状态,每个存储状态包括与多个动作相对应的多个条目;以及
针对随机地选择的所述小批量的样本状态中的每个样本状态Sj
基于所述第一组规则来确定所述样本状态Sj的一个或多个有效动作,
使用具有所述第一权重的所述第一DQN来生成分别与所述样本状态Sj的所述一个或多个有效动作相对应的一个或多个第一Q值,
使用具有第二权重的第二DQN来生成分别与所述样本状态Sj的所述一个或多个有效动作相对应的一个或多个目标值,以及
基于所述一个或多个第一Q值和所述一个或多个目标值来更新所述第一权重。
3.根据权利要求2所述的方法,其中所述样本状态Sj的每个有效动作是根据所述第一组规则而被允许在所述样本状态Sj中被执行的动作。
4.根据权利要求2所述的方法,其中初始化所述第一权重包括随机地选择所述第一权重。
5.根据权利要求4所述的方法,还包括:
通过将所述第二权重设置为等于所述第一权重来初始化所述第二权重。
6.根据权利要求2所述的方法,
其中生成一个或多个目标值包括:
针对A中的每个有效动作a,确定
yj(a)=[R(a)+γ*maxa′Q(Sj,next(a),a′;θ-)],
A表示所述样本状态Sj的所述一个或多个有效动作,
yj(a)表示来自所述一个或多个目标值中与所述有效动作a相对应的所述目标值,
R(a)表示与所述有效动作a相对应的奖励值,
γ表示值不小于0并且不大于1的折扣参数,
Sj,next(a)表示根据所述第一组规则由关于所述样本状态Sj执行有效动作a而导致的下一状态,
θ-表示所述第二DQN的所述第二权重,
表达式maxa′Q(Sj,next(a),a′;θ-)表示来自由所述第二DQN生成的一个或多个下一Q值中的最大Q值,
所述一个或多个下一Q值的所述生成包括所述第二DQN针对所述下一状态Sj,next(a)的一个或多个有效动作中的每个有效动作a’生成所述一个或多个下一Q值中的一个下一Q值,并且
其中更新所述第一权重包括使用随机地选择的所述小批量的样本在所述第一DQN中执行批量梯度下降步骤,使得针对随机地选择的所述小批量的样本中的每个样本Sj,要最小化的损耗值=[yj(A)-Q(Sj,A;θ)]2
yj(A)表示针对所述一个或多个有效动作A中的每个有效动作a生成的所述一个或多个目标值yj(a)的串联,
表达式Q(Sj,A;θ)表示所述第一Q值,
θ表示所述第一权重。
7.根据权利要求1所述的方法,还包括:
针对每个连续状态迭代地执行所述提供、确定、执行、累积和转变步骤中的每项,直到达到最终状态为止,
所述最终状态是如下状态:针对所述状态不存在有效动作。
8.根据权利要求7所述的方法,其中当前状态的有效动作是如下动作:所述动作根据所述第一组规则被允许在所述当前状态中被执行。
9.根据权利要求1所述的方法,其中执行所述第一动作包括在无线通信网络中分配资源。
10.根据权利要求1所述的方法,其中针对所述第一矩阵的所述多个条目中的每个条目,所述条目的数值对应于与执行由所述条目表示的所述动作相关联的奖励。
11.一种在无线通信网络中操作调度器的方法,所述方法包括:
在所述调度器处获得多个度量值,
每个度量值对应于来自多个UE波束对中的UE波束对,
每个UE波束对包括来自多个UE中的UE和来自多个波束中的波束,
执行UE波束对选择操作,包括:
由所述调度器的深度Q网络(DQN)基于所述多个度量值确定多个Q值,
所述多个Q值分别对应于所述多个UE波束对,以及
基于所述多个Q值从所述多个UE波束对中选择UE波束对;以及
将所选择的所述UE波束对中包括的所述UE分配给所选择的所述UE波束对中包括的所述波束。
12.根据权利要求11所述的方法,其中所述选择包括从所述多个Q值中选择最高Q值作为所选择的Q值。
13.根据权利要求11所述的方法,其中
所述多个度量值分别是多个比例公平(PF)度量值。
14.根据权利要求13所述的方法,其中针对所述多个PF度量值中的每个PF度量值,
所述PF度量值是第一UE相对于第一波束的瞬时频谱效率与所述第一UE的吞吐量的比率,
所述第一UE是与所述PF度量值相对应的所述UE波束对中包括的所述UE,
所述第一波束是与所述PR度量值相对应的所述UE波束对中包括的所述波束。
15.根据权利要求11所述的方法,其中所述分配包括所述调度器针对当前传输时间间隔(TTI)将所选择的所述UE波束对中包括的所述UE分配给所选择的所述UE波束对中包括的所述波束。
16.根据权利要求15所述的方法,其中
所选择的所述UE波束对是多个所选择的UE波束对中的一个所选择的UE波束对,
所述方法还包括:
由所述调度器通过多次执行所述UE波束对选择操作来生成所述多个所选择的UE波束对,
所述分配包括:
针对当前TTI,分别将所述多个所选择的UE波束对中包括的所述UE分配给所述多个所选择的UE波束对中包括的所述波束。
17.一种训练调度器的方法,所述调度器用以在无线通信网络中执行关于多个用户设备(UE)和多个波束的调度,所述方法包括:
从多个存储的UE波束状态中随机地选择小批量的样本UE波束状态,
每个存储的UE波束状态包括:
多个UE波束对,以及
分别与所述多个UE波束对相对应的多个度量值,
每个UE波束对包括来自所述多个UE中的UE和来自所述多个波束中的波束;以及
针对随机地选择的所述小批量的样本UE波束状态中的每个样本UE波束状态Sj
基于第一调度规则确定分别与所述UE波束状态Sj的一个或多个有效UE波束对相对应的所述样本UE波束状态Sj的一个或多个有效动作,
使用具有第一权重的第一深度Q网络(DQN)来生成分别与所述样本UE波束状态Sj的所述一个或多个有效动作相对应的一个或多个第一Q值,
使用具有第二权重的第二DQN来生成分别与所述样本UE波束状态Sj的所述一个或多个有效动作相对应的一个或多个目标值,以及
基于所述一个或多个第一Q值和所述一个或多个目标值来更新所述第一权重。
18.根据权利要求17所述的方法,还包括:
通过随机地选择所述第一权重来初始化所述第一权重;以及
通过将所述第二权重设置为等于所述第一权重来初始化所述第二权重。
19.根据权利要求17所述的方法,其中
针对所述样本UE波束状态Sj的所述一个或多个有效UE波束对中的每个有效UE波束对,所述调度器被允许针对当前传输时间间隔(TTI)根据所述第一调度规则将所述有效UE波束对中包括的所述UE分配给所述有效UE波束对中包括的所述波束,并且
针对所述样本UE波束状态Sj的所述一个或多个有效动作中的每个动作,所述动作包括所述调度器将与所述动作相对应的所述有效UE波束中包括的所述UE分配给与所述动作相对应的所述有效UE波束对中包括的所述波束。
20.根据权利要求17所述的方法,
其中生成一个或多个目标值包括:
针对A中的每个有效动作a,确定
yj(a)=[R(a)+γ*maxa′Q(Sj,next(a),a′;θ-)],
A表示所述样本UE波束状态Sj的所述一个或多个有效动作,
yj(a)表示来自所述一个或多个目标值中与所述有效动作a相对应的所述目标值,
R(a)表示与所述有效UE波束对相对应的所述度量值,所述有效UE波束对与所述有效动作a相对应,
γ表示值不小于0并且不大于1的折扣参数,
Sj,next(a)表示根据所述第一调度规则由所述调度器关于所述样本UE波束状态Sj执行有效动作a而导致的下一UE波束状态,
θ-表示所述第二DQN的所述第二权重,
表达式maxa′Q(Sj,next(a),a′;θ-)表示来自由所述第二DQN生成的一个或多个下一Q值中的最大Q值,
所述一个或多个下一Q值的所述生成包括所述第二DQN针对所述下一UE波束状态Sj,next(a)的一个或多个有效动作中的每个有效动作a’生成所述一个或多个下一Q值中的一个下一Q值,并且
其中更新所述第一权重包括使用随机地选择的所述小批量的UE波束状态在所述第一DQN中执行批量梯度下降步骤,使得针对随机地选择的所述小批量的UE波束状态中的每个UE波束状态Sj,要最小化的损耗值=[yj(A)-Q(Sj,A;θ)]2
yj(A)表示针对所述一个或多个有效动作A中的每个有效动作a生成的所述一个或多个目标值yj(a)的串联,
表达式Q(Sj,A;θ)表示所述第一Q值,
θ表示所述第一权重。
21.一种调度器,包括:
存储器,存储计算机可执行指令;以及
处理器,被配置为执行所述计算机可执行指令使得所述处理器被配置为,
获得多个度量值,
每个度量值对应于来自多个UE波束对中的UE波束对,
每个UE波束对包括来自多个UE中的UE和来自多个波束中的波束,
执行UE波束对选择操作,包括:
使用深度Q网络(DQN)基于所述多个度量值确定多个Q值,
所述多个Q值分别对应于所述多个UE波束对,以及
基于所述多个Q值从所述多个UE波束对中选择UE波束对,以及
将所选择的所述UE波束对中包括的所述UE分配给所选择的所述UE波束对中包括的所述波束。
22.根据权利要求21所述的调度器,其中所述处理器被配置为执行所述计算机可执行指令,使得所述选择包括从所述多个Q值中选择最高Q值作为所选择的Q值。
23.根据权利要求21所述的调度器,其中所述处理器被配置为执行所述计算机可执行指令,使得所述多个度量值分别是多个比例公平(PF)度量值。
24.根据权利要求21所述的调度器,其中所述处理器被配置为执行所述计算机可执行指令,使得针对所述多个PF度量值中的每个PF度量值,
所述PF度量值是第一UE相对于第一波束的瞬时频谱效率与所述第一UE的吞吐量的比率,
所述第一UE是与所述PF度量值相对应的所述UE波束对中包括的所述UE,
所述第一波束是与所述PF度量值相对应的所述UE波束对中包括的所述波束。
25.根据权利要求21所述的调度器,其中所述处理器被配置为执行所述计算机可执行指令,使得所述分配包括针对当前传输时间间隔(TTI)将所选择的所述UE波束对中包括的所述UE分配给所选择的所述UE波束对中包括的所述波束。
26.根据权利要求21所述的调度器,
其中所述处理器被配置为执行所述计算机可执行指令,使得所选择的所述UE波束对是多个所选择的UE波束对中的一个所选择的UE波束对,
其中所述处理器被配置为执行所述计算机可执行指令,使得所述处理器还被配置为,
由所述调度器通过多次执行所述UE波束对选择操作来生成所述多个所选择的UE波束对,并且
其中所述处理器被配置为执行所述计算机可执行指令,使得所述分配包括:针对当前TTI,分别将所述多个所选择的UE波束对中包括的所述UE分配给所述多个所选择的UE波束对中包括的所述波束。
27.一种调度器,包括:
存储器,存储计算机可执行指令;以及
处理器,被配置为执行所述计算机可执行指令,使得所述处理器被配置为,
从多个存储的UE波束状态中随机地选择小批量的样本UE波束状态,
每个存储的UE波束状态包括:
多个UE波束对,以及
分别与所述多个UE波束对相对应的多个度量值,
每个UE波束对包括来自所述多个UE中的UE和来自所述多个波束中的波束;以及
针对随机地选择的所述小批量的样本UE波束状态中的每个样本UE波束状态Sj
基于第一调度规则确定分别与所述UE波束状态Sj的一个或多个有效UE波束对相对应的所述样本UE波束状态Sj的一个或多个有效动作,
使用具有第一权重的第一深度Q网络(DQN)来生成分别与所述样本UE波束状态Sj的所述一个或多个有效动作相对应的一个或多个第一Q值,
使用具有第二权重的第二DQN来生成分别与所述样本UE波束状态Sj的所述一个或多个有效动作相对应的一个或多个目标值,以及
基于所述一个或多个第一Q值和所述一个或多个目标值来更新所述第一权重。
28.根据权利要求27所述的调度器,其中所述处理器被配置为执行所述计算机可执行指令,使得所述处理器还被配置为:
通过随机地选择所述第一权重来初始化所述第一权重;以及
通过将所述第二权重设置为等于所述第一权重来初始化所述第二权重。
29.根据权利要求27所述的调度器,其中所述处理器被配置为执行所述计算机可执行指令使得,
针对所述样本UE波束状态Sj的所述一个或多个有效UE波束对中的每个有效UE波束对,所述处理器被允许针对当前传输时间间隔(TTI)根据所述第一调度规则将所述有效UE波束对中包括的所述UE分配给所述有效UE波束对中包括的所述波束,并且
针对所述样本UE波束状态Sj的所述一个或多个有效动作中的每个动作,所述动作包括所述处理器将与所述动作相对应的所述有效UE波束中包括的所述UE分配给与所述动作相对应的所述有效UE波束对中包括的所述波束。
30.根据权利要求27所述的调度器,
其中所述处理器被配置为执行所述计算机可执行指令,使得生成一个或多个目标值包括:
针对A中的每个有效动作a,确定
yj(a)=[R(a)+γ*maxa′Q(Sj,next(a),a′;θ-)],
A表示所述样本UE波束状态Sj的所述一个或多个有效动作,
yj(a)表示来自所述一个或多个目标值中与所述有效动作a相对应的所述目标值,
R(a)表示与所述有效UE波束对相对应的所述度量值,所述有效UE波束对与所述有效动作a相对应,
γ表示值不小于0并且不大于1的折扣参数,
Sj,next(a)表示根据所述第一调度规则由所述调度器关于所述样本UE波束状态Sj执行有效动作a而导致的下一UE波束状态,
θ-表示所述第二DQN的所述第二权重,
表达式maxa′Q(Sj,next(a),a′;θ-)表示来自由所述第二DQN生成的一个或多个下一Q值中的最大Q值,
其中所述处理器被配置为执行所述计算机可执行指令,使得所述一个或多个下一Q值的所述生成包括所述第二DQN针对所述下一UE波束状态Sj,next(a)的一个或多个有效动作中的每个有效动作a’生成所述一个或多个下一Q值中的一个下一Q值,并且
其中所述处理器被配置为执行所述计算机可执行指令,使得更新所述第一权重包括使用随机地选择的所述小批量的UE波束状态在所述第一DQN中执行批量梯度下降步骤,使得针对随机地选择的所述小批量的UE波束状态中的每个UE波束状态Sj,要最小化的损耗值=[yj(A)-Q(Sj,A;θ)]2
yj(A)表示针对所述一个或多个有效动作A中的每个有效动作a生成的所述一个或多个目标值yj(a)的串联,
表达式Q(Sj,A;θ)表示所述第一Q值,
θ表示所述第一权重。
CN201880093614.5A 2018-03-27 2018-03-27 使用深度q网络促进资源配对的方法和装置 Active CN112204580B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2018/024538 WO2019190476A1 (en) 2018-03-27 2018-03-27 Method and apparatus for facilitating resource pairing using a deep q-network

Publications (2)

Publication Number Publication Date
CN112204580A true CN112204580A (zh) 2021-01-08
CN112204580B CN112204580B (zh) 2024-04-12

Family

ID=68060578

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880093614.5A Active CN112204580B (zh) 2018-03-27 2018-03-27 使用深度q网络促进资源配对的方法和装置

Country Status (4)

Country Link
US (1) US11528720B2 (zh)
EP (1) EP3776374A4 (zh)
CN (1) CN112204580B (zh)
WO (1) WO2019190476A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115806062A (zh) * 2022-11-10 2023-03-17 北京航天驭星科技有限公司 卫星相对相位保持策略模型的建模方法、模型、获取方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112368950B (zh) 2018-06-28 2024-03-08 诺基亚技术有限公司 使用深度学习的多用户多输入多输出波束选择和用户配对的方法和装置
WO2020031210A1 (en) * 2018-08-08 2020-02-13 Indian Institute Of Technology Hyderabad Method and system for scheduling a pool of resources to a plurality of user equipment's
JP7104352B2 (ja) * 2018-09-19 2022-07-21 日本電信電話株式会社 画像処理装置、画像処理方法及び画像処理プログラム
CN110995858B (zh) * 2019-12-17 2022-02-25 大连理工大学 一种基于深度q网络的边缘网络请求调度决策方法
CN113709890A (zh) * 2020-05-20 2021-11-26 华为技术有限公司 调度方法、调度系统和调度装置
CN113068146B (zh) * 2021-03-22 2021-11-02 天津大学 一种密集型毫米波车辆网络中的多基站波束联合选择方法
CN113242602B (zh) * 2021-05-10 2022-04-22 内蒙古大学 毫米波大规模mimo-noma系统资源分配方法及系统
CN115334165B (zh) * 2022-07-11 2023-10-17 西安交通大学 一种基于深度强化学习的水下多无人平台调度方法及系统
CN116302448B (zh) * 2023-05-12 2023-08-11 中国科学技术大学先进技术研究院 任务调度方法和系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050181833A1 (en) * 2004-02-12 2005-08-18 Yong Hwan Lee Wireless communication method and apparatus using multiple antennas and multiple random beams
US20080065459A1 (en) * 2006-09-13 2008-03-13 Motorola, Inc. Method and apparatus facilitating goal based intelligent calendar management using policies and data analysis
US20120124589A1 (en) * 2010-11-12 2012-05-17 Jeff Rupley Matrix algorithm for scheduling operations
CN105637540A (zh) * 2013-10-08 2016-06-01 谷歌公司 用于强化学习的方法和设备
CN106228314A (zh) * 2016-08-11 2016-12-14 电子科技大学 基于深度增强学习的工作流调度方法
WO2017004626A1 (en) * 2015-07-01 2017-01-05 The Board Of Trustees Of The Leland Stanford Junior University Systems and methods for providing reinforcement learning in a deep learning system
AU2017101165A4 (en) * 2017-08-25 2017-11-02 Liu, Yichen MR Method of Structural Improvement of Game Training Deep Q-Network
US20180052825A1 (en) * 2016-08-16 2018-02-22 Microsoft Technology Licensing, Llc Efficient dialogue policy learning

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8559294B2 (en) * 2010-07-29 2013-10-15 Motorola Mobility Llc Method and apparatus for major group scheduling in a fixed beam communication system
US10835146B2 (en) * 2014-12-12 2020-11-17 The Research Foundation For The State University Of New York Autonomous brain-machine interface
EP3445539A4 (en) * 2016-04-27 2020-02-19 Neurala Inc. METHODS AND APPARATUS FOR PRUNING EXPERIENCE MEMORIES FOR DEEP NEURONAL NETWORK-BASED Q-LEARNING
KR102236217B1 (ko) * 2016-08-11 2021-04-05 콘비다 와이어리스, 엘엘씨 빔 관리
US10257835B2 (en) * 2017-03-24 2019-04-09 At&T Intellectual Property I, L.P. Facilitating enhanced beam management in a wireless communication system
CN106910351B (zh) * 2017-04-19 2019-10-11 大连理工大学 一种基于深度强化学习的交通信号自适应控制方法
US10375585B2 (en) * 2017-07-06 2019-08-06 Futurwei Technologies, Inc. System and method for deep learning and wireless network optimization using deep learning
US10986644B2 (en) * 2017-10-12 2021-04-20 Qualcomm Incorporated Beam management schemes
US10616774B2 (en) * 2018-02-09 2020-04-07 Futurewei Technologies, Inc. Method and device for communications in millimeter-wave networks
US10666342B1 (en) * 2019-05-01 2020-05-26 Qualcomm Incorporated Beam management using adaptive learning

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050181833A1 (en) * 2004-02-12 2005-08-18 Yong Hwan Lee Wireless communication method and apparatus using multiple antennas and multiple random beams
US20080065459A1 (en) * 2006-09-13 2008-03-13 Motorola, Inc. Method and apparatus facilitating goal based intelligent calendar management using policies and data analysis
US20120124589A1 (en) * 2010-11-12 2012-05-17 Jeff Rupley Matrix algorithm for scheduling operations
CN105637540A (zh) * 2013-10-08 2016-06-01 谷歌公司 用于强化学习的方法和设备
WO2017004626A1 (en) * 2015-07-01 2017-01-05 The Board Of Trustees Of The Leland Stanford Junior University Systems and methods for providing reinforcement learning in a deep learning system
CN106228314A (zh) * 2016-08-11 2016-12-14 电子科技大学 基于深度增强学习的工作流调度方法
US20180052825A1 (en) * 2016-08-16 2018-02-22 Microsoft Technology Licensing, Llc Efficient dialogue policy learning
AU2017101165A4 (en) * 2017-08-25 2017-11-02 Liu, Yichen MR Method of Structural Improvement of Game Training Deep Q-Network

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
A. KLAUTAU, P. BATISTA, N. GONZÁLEZ-PRELCIC, Y. WANG AND R. W. HEATH: "5G MIMO data for machine learning: Application to beam-selection using deep learning", 《INFORMATION THEORY AND APPLICATIONS WORKSHOP 》, pages 1 - 9 *
S. LIU, X. HU AND W. WANG: "Deep Reinforcement Learning Based Dynamic Channel Allocation Algorithm in Multibeam Satellite Systems", 《IEEE ACCESS》, vol. 6, pages 15733 - 15742, XP011680458, DOI: 10.1109/ACCESS.2018.2809581 *
唐伦;梁荣;陈婉;张元宝;: "密集网络下基于Self-Backhaul感知的用户接入负载均衡算法", 北京邮电大学学报, no. 04 *
王立群;朱舜;韩笑;何军;: "基于深度Q值网络的自动小车控制方法", 电子测量技术, no. 11 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115806062A (zh) * 2022-11-10 2023-03-17 北京航天驭星科技有限公司 卫星相对相位保持策略模型的建模方法、模型、获取方法

Also Published As

Publication number Publication date
CN112204580B (zh) 2024-04-12
US11528720B2 (en) 2022-12-13
EP3776374A4 (en) 2021-11-17
US20210014872A1 (en) 2021-01-14
WO2019190476A1 (en) 2019-10-03
EP3776374A1 (en) 2021-02-17

Similar Documents

Publication Publication Date Title
CN112204580B (zh) 使用深度q网络促进资源配对的方法和装置
CN110770761B (zh) 深度学习系统和方法以及使用深度学习的无线网络优化
CN111522669A (zh) 横向联邦学习系统优化方法、装置、设备及可读存储介质
JP2017097807A (ja) 学習方法、学習プログラムおよび情報処理装置
Castaing Scheduling downloads for multi-satellite, multi-ground station missions
CN110599068A (zh) 一种基于粒子群优化算法的云资源调度方法
EP3491793B1 (en) System and method for resource-aware and time-critical iot frameworks
US20230104220A1 (en) Radio resource allocation
CN110933723A (zh) 一种漫游切换控制方法、装置和无线ap
CN111372265B (zh) 天线参数配置方法、装置、系统及计算机可读存储介质
CN114339842A (zh) 基于深度强化学习无人机集群在时变场景下动态轨迹设计方法和装置
CN116166406B (zh) 个性化边缘卸载调度方法、模型训练方法和系统
KR102402314B1 (ko) 엣지 네트워크를 위한 연합 학습 방법
Hao et al. Task scheduling of improved time shifting based on genetic algorithm for phased array radar
KR102413116B1 (ko) 인공 신경망의 계층 특성에 기반한 연합 학습 방법
JP7005729B2 (ja) パケットスケジューラ
Wu et al. Mobility-aware deep reinforcement learning with seq2seq mobility prediction for offloading and allocation in edge computing
CN114697974B (zh) 网络覆盖优化方法、装置、电子设备及存储介质
CN117692939B (zh) 一种动态通信环境下的客户端调度方法
CN113326112B (zh) 一种基于块坐标下降法的多无人机任务卸载和迁移方法
CN115951717B (zh) 无人机集群目标分配方法、装置、系统和存储介质
KR102508071B1 (ko) 강화 학습 기반의 빔포밍 훈련 방법 및 장치
US20230281277A1 (en) Remote agent implementation of reinforcement learning policies
CN117439810A (zh) 面向电力物联网的蜜网节点部署方法、系统及可存储介质
KR20230025266A (ko) 학습 시스템, 학습 모델 결정 장치 및 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant