CN113438707A - 用于在双连接或多连接配置中路由数据的装置、方法和计算机程序 - Google Patents
用于在双连接或多连接配置中路由数据的装置、方法和计算机程序 Download PDFInfo
- Publication number
- CN113438707A CN113438707A CN202110302773.5A CN202110302773A CN113438707A CN 113438707 A CN113438707 A CN 113438707A CN 202110302773 A CN202110302773 A CN 202110302773A CN 113438707 A CN113438707 A CN 113438707A
- Authority
- CN
- China
- Prior art keywords
- node
- transmission delay
- paths
- delay
- machine learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000004590 computer program Methods 0.000 title abstract description 6
- 230000005540 biological transmission Effects 0.000 claims abstract description 102
- 238000010801 machine learning Methods 0.000 claims description 66
- 238000012549 training Methods 0.000 claims description 27
- 230000001934 delay Effects 0.000 claims description 21
- 238000013528 artificial neural network Methods 0.000 claims description 20
- 238000004891 communication Methods 0.000 claims description 8
- 230000009977 dual effect Effects 0.000 claims description 7
- 230000000306 recurrent effect Effects 0.000 claims description 4
- 230000001960 triggered effect Effects 0.000 claims description 4
- 238000009826 distribution Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 10
- 238000004088 simulation Methods 0.000 description 8
- 238000012360 testing method Methods 0.000 description 6
- 238000012937 correction Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 241000700159 Rattus Species 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 238000005315 distribution function Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- GVVPGTZRZFNKDS-JXMROGBWSA-N geranyl diphosphate Chemical compound CC(C)=CCC\C(C)=C\CO[P@](O)(=O)OP(O)(O)=O GVVPGTZRZFNKDS-JXMROGBWSA-N 0.000 description 1
- 238000005304 joining Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W40/00—Communication routing or communication path finding
- H04W40/24—Connectivity information management, e.g. connectivity discovery or connectivity update
- H04W40/32—Connectivity information management, e.g. connectivity discovery or connectivity update for defining a routing cluster membership
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L45/00—Routing or path finding of packets in data switching networks
- H04L45/02—Topology update or discovery
- H04L45/08—Learning-based routing, e.g. using neural networks or artificial intelligence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W40/00—Communication routing or communication path finding
- H04W40/02—Communication route or path selection, e.g. power-based or shortest path routing
- H04W40/12—Communication route or path selection, e.g. power-based or shortest path routing based on transmission quality or channel quality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B17/00—Monitoring; Testing
- H04B17/30—Monitoring; Testing of propagation channels
- H04B17/309—Measuring or estimating channel quality parameters
- H04B17/364—Delay profiles
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L45/00—Routing or path finding of packets in data switching networks
- H04L45/12—Shortest path evaluation
- H04L45/121—Shortest path evaluation by minimising delays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L45/00—Routing or path finding of packets in data switching networks
- H04L45/70—Routing based on monitoring results
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W76/00—Connection management
- H04W76/10—Connection setup
- H04W76/15—Setup of multiple wireless link connections
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W80/00—Wireless network protocols or protocol adaptations to wireless operation
- H04W80/02—Data link layer protocols
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W84/00—Network topologies
- H04W84/18—Self-organising networks, e.g. ad-hoc networks or sensor networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W92/00—Interfaces specially adapted for wireless communication networks
- H04W92/16—Interfaces between hierarchically similar devices
- H04W92/20—Interfaces between hierarchically similar devices between access points
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Electromagnetism (AREA)
- Quality & Reliability (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
根据本公开的各实施例涉及用于在双连接或多连接配置中路由数据的装置、方法和计算机程序。一种装置包括用于在主节点的CU处执行以下项的部件:接收来自一个或多个传入PDU中的个体PDU,其中每个PDU要经由通向主节点的至少一个DU和至少一个辅节点的相应路径中的一个路径被传输给UE设备,UE设备与主节点和至少一个辅节点处于DC或MC;针对路径中的每个路径收集相应的数据集;从输入每个数据集的ML模型接收针对路径中的每个路径的相应的估计传输延迟;基于估计传输延迟来从路径中的每个路径中选择路径;以及经由选择的路径向UE设备传输PDU。
Description
技术领域
各种示例实施例涉及移动或无线电信系统,并且具体地,涉及双连接或多连接配置中的数据路由。
背景技术
移动或无线电信系统的示例可以包括通用移动电信系统(UMTS)地面无线电接入网(UTRAN)、长期演进(LTE)演进型UTRAN(E-UTRAN)、高级LTE(LTE-A)、LTE-A Pro和/或第五代(5G)无线电接入技术(RAT)或新无线电(NR)接入技术。5G或NR无线系统是指下一代(NG)无线电系统和网络架构。据估计,NR将提供约10Gbit/s-20Gbit/s或更高的比特率,并且将至少支持增强型移动宽带(eMBB)和超可靠低延迟通信(URLLC)。NR有望提供超宽带和超鲁棒低延迟连接以及大规模网络,以支持物联网(IoT)。随着IoT和机器对机器(M2M)通信的日益普及,对能够满足较低功耗、高数据速率和长电池寿命需求的网络的需求将日益增长。注意,可以在5G或NR中向用户设备(UE)提供无线电接入功能的节点(即,类似于E-UTRAN中的NodeB或LTE中的eNB)或者可以支持5G或NR以及与下一代核心(也由NGC或5GC表示)的连接的节点可以称为下一代或5G NodeB(也由gNB或5G NB表示)。
发明内容
根据示例实施例,提供了一种装置,该装置包括用于在主节点的中央单元(CU)处执行以下项的部件:接收来自一个或多个传入分组数据单元(PDU)中的个体PDU,其中每个PDU要经由通向主节点的至少一个分布式单元(DU)和至少一个辅节点的相应路径中的一个路径被传输给用户设备(UE)设备,UE设备与主节点和至少一个辅节点处于双连接或多连接;针对路径中的每个路径收集相应的数据集;从输入每个数据集的机器学习模型接收针对路径中的每个路径的相应估计传输延迟;至少基于估计传输延迟来从路径中的每个路径中选择路径;以及经由选择的路径向UE设备传输PDU。
该装置还可以包括用于执行以下操作的部件:在经由选择的路径向UE设备传输PDU之后,时而执行,取决于PDU已经经由选择的路径被传输向主节点的至少一个DU之一或至少一个辅节点之一中的何者,从主节点的至少一个DU之一或至少一个辅节点之一接收针对选择的路径的测量传输延迟。
该装置还可以包括用于执行以下操作的部件:收集有关针对路径中的每个路径的数据集和针对选择的路径的测量传输延迟的信息;确定收集的信息是否验证预定条件;以及当预定条件被验证时,触发机器学习模型的训练。
预定条件可以包括以下至少一项:收集的信息的大小等于或高于预定大小阈值;以及延迟估计误差等于或高于预定误差阈值,延迟估计误差基于针对选择的路径的、估计传输延迟与测量传输延迟之间的比较而被计算。
机器学习模型可以包括神经网络(NN)模型或人工神经网络(ANN)模型。
该装置还可以包括用于执行以下操作的部件:在机器学习模型包括递归神经网络(RNN)模型时,当延迟估计误差等于或高于预定误差阈值时,更新时间间隔,在该时间间隔期间数据集被递归地收集;以及上传与已更新的时间间隔相关联的机器学习模型。
在至少每当机器学习模型的训练被触发的时间段期间,针对选择的路径的测量传输延迟可以被接收,机器学习模型的训练可以包括:针对选择的路径,在机器学习模型中输入的数据集与测量传输延迟之间执行对应。
测量传输延迟可以在主节点的至少一个DU的介质访问控制(MAC)层和至少一个辅节点的介质访问控制(MAC)层处被测量,并且测量传输延迟经由相应F1接口从主节点的至少一个DU中的每个DU、以及经由相应X2接口从至少一个辅节点中的每个辅节点被接收。
数据集可以至少包括飞行中数据和吞吐量。
可以通过以下方式在时间间隔期间对机器学习模型进行初始训练:在该时间间隔期间,针对路径中的每个路径收集数据集和对应的测量传输延迟,并且在数据集与测量传输延迟之间执行对应。
根据另一示例实施例,提供了一种在主节点的CU处执行的方法,该方法包括:接收来自一个或多个传入PDU中的个体PDU,其中每个PDU要经由通向主节点的至少一个DU和至少一个辅节点的相应路径中的一个路径被传输给UE设备,UE设备与主节点和至少一个辅节点处于双连接或多连接;针对路径中的每个路径收集相应的数据集;从输入每个数据集的机器学习模型接收针对路径中的每个路径的相应的估计传输延迟;基于估计传输延迟来从路径中的每个路径中选择路径;以及经由选择的路径向UE设备传输PDU。
该方法还可以包括:在经由选择的路径向UE设备传输PDU之后,时而地,取决于PDU已经经由选择的路径被传输向主节点的至少一个DU之一或至少一个辅节点之一中的何者,从主节点的至少一个DU之一或至少一个辅节点之一接收针对选择的路径的测量传输延迟。
该方法还可以包括:收集有关针对路径中的每个路径的数据集和针对选择的路径的测量传输延迟的信息;确定收集的信息是否验证预定条件;以及当预定条件被验证时,触发机器学习模型的训练。
预定条件可以包括以下至少一项:收集的信息的大小等于或高于预定大小阈值;以及延迟估计误差等于或高于预定误差阈值,延迟估计误差基于针对选择的路径的、估计传输延迟与测量传输延迟之间的比较而被计算。
机器学习模型可以包括神经网络(NN)模型或人工神经网络(ANN)模型。
该方法还可以包括:在机器学习模型包括递归神经网络(RNN)模型时,当延迟估计误差等于或高于预定误差阈值时,更新时间间隔,在该时间间隔期间数据集被递归地收集;以及上传与已更新的时间间隔相关联的机器学习模型。
在至少每当机器学习模型的训练被触发的时间段期间,针对选择的路径的测量传输延迟可以被接收,机器学习模型的训练可以包括:针对选择的路径,在机器学习模型中输入的数据集与测量传输延迟之间执行对应。
测量传输延迟可以在主节点的至少一个DU的MAC层和至少一个辅节点的MAC层处被测量,并且测量传输延迟经由相应F1接口从主节点的至少一个DU中的每个DU、以及经由相应X2接口从至少一个辅节点中的每个辅节点被接收。
该数据集可以至少包括飞行中数据和吞吐量。
可以通过以下方式在时间间隔期间对机器学习模型进行初始训练:在该时间间隔期间,针对路径中的每个路径收集数据集和对应的测量传输延迟,并且在数据集与测量传输延迟之间执行对应。
根据另一示例实施例,提供了一种计算机可读介质,该计算机可读介质包括存储在其上的用于执行任何上述方法的程序指令。
根据另一示例实施例,提供了一种包括计算机可执行代码的计算机程序,该计算机可执行代码当在至少一个处理器上运行时可以被配置为引起装置执行任何上述方法。
根据另一示例实施例,提供了一种装置,该装置包括至少一个处理器和包括计算机程序代码的至少一个存储器,其中至少一个存储器和计算机程序代码被配置为与至少一个处理器一起引起该装置执行任何上述方法。
根据另一示例实施例,提供了一种非暂态计算机可读介质,该非暂态计算机可读介质包括存储在其上的用于执行任何上述方法的程序指令。
根据一个方面,提供了一种非易失性有形存储介质,该非易失性有形存储介质包括存储在其上的用于执行任何上述方法的程序指令。
根据一个方面,提供了一种装置,该装置包括被配置为执行任何上述方法的电路系统。
在上面,已经描述了很多不同示例实施例。应当理解,可以通过上述示例实施例中的任何两个或更多个的组合来提供其他示例实施例。
在以下详细描述和所附权利要求中还描述了各种其他示例实施例。
附图说明
现在将参考以下附图描述一些示例实施例:
图1示出了在(a)C平面和(b)U平面中在连接到EPC的LTE eNB与gNB之间的NSA部署选项3a的网络接口配置的示例实施例;
图2示出了在连接到EPC的LTE eNB与gNB之间的NSA部署选项3x的网络接口配置的示例性示意实施例;
图3示出了gNB与LTE eNB之间的NSA部署选项3x的SCG拆分承载的无线电协议架构的示例实施例;
图4示出了与UE通信的gNB(5G节点)与LTE eNB(4G节点)之间的NSA U平面数据拆分配置的示例实施例;
图5示出了使用ML模型的NSA U平面数据拆分配置的示例实施例;
图6示出了ML模型的离线训练阶段的示例实施例;
图7示出了被训练用于估计每路径传输延迟的ML模型的在线推断阶段的示例实施例;
图8示出了被训练用于估计每路径传输延迟的个体DNN模型的示例实现;
图9示出了被拆分为两个个体已训练DNN模型并且被训练用于估计每路径传输延迟的DNN模型的示例实现;
图10示出了被训练用于估计每路径传输延迟的RNN模型的示例实现;
图11示出了已训练RNN模型的闭环优化的示例实施例;
图12示出了非暂态计算机可读介质的示例实施例;
图13示出了示例流程图,该示例流程图描述了经由所选择的路径来路由PDCP PDU的基于ML的过程的示例实施例;
图14示出了借助于仿真工具来创建数据集的示例实施例;
图15示出了针对时间延迟预测误差而绘制的测试数据集的经验累积分布函数的示例实施例;以及
图16示出了装置的示例实施例。
具体实施方式
如3GPP TR 36.842 v0.2.0中定义的双连接(DC)用于指代如下的操作,在这样的操作中,给定UE(例如,移动设备、固定设备、IoT设备、或者能够与无线或有线通信网络通信的任何其他设备)消耗由与非理想回程连接的至少两个不同网络点提供的无线电资源。DC允许用户同时与两个或更多个不同网络节点通信。多连接(MC)以与不同RAT的同时连接的形式扩展了DC原理。
在下文中,如果示例实施例涉及DC场景,则这仅出于简化的原因。应当理解,这些示例实施例可以容易地扩展到MC场景或者允许在多个网络节点或基站之间拆分UE的数据无线电承载(DRB)的任何其他方法。
3GPP TR 38.801 V14.0.0公开了不同架构和RAN级互通选项,例如,UE可以使用连接到演进型分组核心(EPC)或NGC的4G(E-UTRA)接入和/或5G(NR)接入来连接到网络。其中,LTE演进型节点B(LTE eNB)可以向UE提供E-UTRA U平面和C平面协议终端,而gNB可以向UE提供NR U平面和C平面协议终端。这些部署选项已经被主要分组为独立(SA)类别和非独立(NSA)类别,在独立类别中,只有一个连接到EPC或NGC的独立接入网络(E-UTRA或NR),而在非独立类别中,存在E-UTRA和NR RAT两者,接入网络(E-UTRA,NR)中的一个接入网络协助另一接入网络连接到EPC或NGC。在没有LTE的情况下无法使用5G(NR)的NSA中,需要RAN级互通。
图1示出了在(a)C平面(用于信令或控制消息)和(b)U平面(用于数据业务)中在连接到EPC的LTE eNB与gNB之间的NSA部署选项3a的网络接口配置的示例实施例。
如图所示,EPC核心网(CN)可以包括移动性管理实体(MME)和服务网关(S-GW)。SGW是EPC的U平面节点,其主要功能是与网络节点(例如LTE eNB、gNB)和分组数据网络网关(PGW)之间转发和路由分组。MME是EPC的C平面节点,其主要功能是将承载连接/释放到设备。
在C平面中,X2-C是LTE eNB与gNB之间的网络接口,而S1-C是LTE eNB与MME之间的网络接口。
在U平面中,X2-U是LTE eNB与gNB之间的网络接口,而S1-U是LTE eNB与S-GW之间以及gNB与S-GW之间的网络接口。由此,数据业务可以在EPC的S-GW处跨LTE eNB(4G)和gNB(5G)进行拆分。
图2示出了在连接到EPC的LTE eNB与gNB之间的NSA部署选项3x的网络接口配置的示例性示意实施例。
在C平面中,X2-C是LTE eNB与gNB之间的网络接口,而S1-C是LTE eNB与EPC(MME)之间的网络接口。
在U平面中,X2-U是LTE eNB与gNB之间的网络接口,而S1-U是gNB与EPC(S-GW)之间的网络接口。由此,数据业务可以在gNB处跨LTE eNB(4G)和gNB(5G)进行拆分。
图3示出了gNB与LTE eNB之间的NSA部署选项3x的SCG拆分承载的无线电协议架构的示例实施例。
选项3x表示如下的NSA部署,该NSA部署能够支持SCG拆分承载以及E-UTRA与NR之间的紧密互通,这仅由通过C平面接口S1-C连接到LTE eNB的EPC控制。
如图所示,NR PDCP用于终止于gNB的辅小区组(SCG)拆分承载,而E-UTRA PDCP用于终止于LTE eNB的主小区组(MCG)承载。
如图所示,LTE eNB和gNB中的每项包括无线电协议栈,该无线电协议栈包括在物理(PHY)层之上的介质访问控制(MAC)层、在MAC层之上的无线电链路控制(RLC)层、以及在RLC层之上的分组数据汇聚协议(PDCP)层。此外,MCG承载终止于LTE eNB节点的PDCP层(即,终止于E-UTRA PDCP),而从EPC的SGW直接连接到gNB的SCG拆分承载终止于gNB的PDCP层(即,终止于NR PDCP)。因此,可以在gNB的传输PDCP层(即,在NR PDCP处)执行路由,并且可以拆分数据业务并且将数据业务从gNB的PDCP层(即,从NR PDCP)发送到gNB和LTE eNB两者的较低层(RLC、MAC)。
结合图2和图3,图4示出了与UE通信的gNB(5G节点)与LTE eNB(4G节点)之间的NSAU平面数据拆分配置的示例实施例。
在NR接入技术中,RAN架构可以被拆分为集中式单元(CU)和一个或多个分布式单元(DU)以增强网络灵活性。CU是如下的逻辑节点,该逻辑节点可以包括gNB功能,除了专门分配给DU的功能之外。DU(其操作由CU控制)是如下的逻辑节点,该逻辑节点可以包括gNB功能的子集,该子集是基于与协议栈的各层的接口(RRC-PDCP、PDCP-RLC、RLC-MAC、MAC-PHY和PHY-RF)相对应的功能拆分选项以及RLC层、MAC层和PHY层内的内部拆分而定义的,如3GPP中。
如图4所示,gNB(参见虚线)可以包括gNB集中式单元(gNB-CU)和gNB分布式单元(gNB-DU),并且gNB-CU与每个gNB-DU之间的相应逻辑接口可以被指定为F1。gNB可以充当主节点(MN)并且在下文中可以由MgNB表示,而LTE eNB可以充当辅节点(SN)并且在下文中可以由SeNB表示。该示例实施例可以对应于如下的功能拆分选项,在该功能拆分选项中,RLC层被拆分为RLC'层和RLC”层。RLC”层可以支持传输实体(例如,PDCP PDU)的功能,而RLC'层可以支持接收这些实体(例如,PDCP PDU)的功能。如图所示,PDCP层和RLC”层可以位于主节点的CU中(即,在gNB-CU中),并且RLC'层和MAC层可以位于主节点的DU中(即,在gNB-DU中)。在使用从接口PDCP-RLC”和RLC'-MAC继承的接口格式的该示例功能拆分选项中,流控制可以位于CU的PDCP层中。
如图4所示,位于主节点的CU中(即,在gNB-CU中)的PDCP层在传输侧,并且因此可以被配置为向位于接收侧(即,在UE中)的对等PDCP层传输服务数据单元(SDU)和协议数据单元(PDU)。接收侧中的PDCP层可以被配置为随后从所传输的PDCP PDU中提取PDCP SDU。
更详细地,PDCP层可以从RLC实体接收PDCP SDU,将PDCP SDU存储在传输缓冲器中,并且为PDCP SDU中的每个PDCP SDU分配序列号(SN)。在数据无线电承载(DRB)(即,用作用于在U平面上传输用户数据的路径的、U平面的无线电承载)被设置的情况下,PDCP层可以执行PDCP SDU的报头压缩和结果PDCP SDU的加密。PDCP层可以通过向经加密的结果PDCPSDU添加报头来生成对应的PDCP PDU,并且在经由一个或多个网络节点顺序地传输给UE之前,将所生成的PDCP PDU转发给RLC层。在接收到PDCP PDU时,UE的PDCP层可以去除每个PDCP PDU的报头,对没有其报头的PDCP PDU进行解密,对解密后的PDCP PDU进行报头解压缩以获取对应的PDCP SDU,并且在使用其序列号对PDCP SDU重新排序之后顺序地将PDCPSDU传递给上层。
在传输侧,主节点的CU(即,gNB-CU)的PDCP层可以包括数据拆分功能实体(下文中称为拆分器),该数据拆分功能实体的功能可以决定是经由F1接口将PDCP PDU传输给通向主节点的DU(即,通向gNB-DU)的路径,还是经由X2接口和基于S-GW的路由器将PDCP PDU传输给通向辅节点(即,通向LTE eNB)的另一路径。
该决定可以基于对不同路径的传输延迟的估计。在一个示例实施例中,拆分器可以借助于数学公式或解析公式来计算PDU可以经历的每个路径的传输延迟的估计,并且然后朝向在时间延迟方面最短的路径路由PDU,因此PDU可以更快地到达UE。
在一个示例实施例中,数学公式可以基于利特尔法则(Little’s law)来计算传入PDU的不同路径的估计传输延迟。
根据利特尔法则,排队系统中某项的平均逗留时间W由下式给出:
W=L/λ=L/TH (1)
其中“λ”是项到达排队系统的速率,“L”是项在排队系统中的平均数目,“TH”是项离开排队系统的速率。
基于利特尔法则,使用来自下行链路数据传递状态(DDDS)消息的输入参数基于解析方法来计算延迟W_M和W_S,其中下标“M”用于主节点并且下标“S”用于辅节点。
特别地,“W_M”和“W_S”可以定义如下:
·“W_M”是在PDCP层处到达拆分器的传入PDCP PDU在通过F1接口被发送给主节点的MAC层时将具有的经计算的延迟,以及
·“W_S”是传入PDCP PDU在通过X2接口被发送给辅节点的MAC层时将具有的经计算的延迟。
在一个示例实施例中,输入参数可以包括:
·在通向主节点的MAC层的路径中的飞行中数据。基本上,飞行中数据是指队列中的要由PDCP层传输的PDU的数目。飞行中数据的值(其以字节数表示)被保留在主节点的CU的PDCP层,并且当拆分器决定通过F1接口路由传入PDCPPDU时,该参数的值被增大PDU大小。另一方面,当通过F1接口从主节点的MAC层发送回有关PDCP PDU的有效传输的报告(例如,DDDS消息)(该报告包含已经被传输到主节点的MAC层的字节大小(或字节数))时,该参数的值被减小已经传输到主节点的MAC层的该字节大小(或字节数);
·在通向辅节点的MAC层的路径中的飞行中数据。基本上,飞行中数据是指队列中的要由PDCP层传输的PDU的数目。飞行中数据的值(其以字节数表示)被保留在主节点的CU的PDCP层,并且当拆分器决定通过X2接口路由传入PDCPPDU时,该参数的值被增大PDU大小。另一方面,当通过X2接口从辅节点的MAC层发送回有关PDCP PDU的有效传输的报告(例如,DDDS消息)(该报告包含已经被传输到主节点的MAC层的字节大小(或字节数))时,该参数的值被减小已经传输到辅节点的MAC层的该字节大小(或字节数);
·考虑到承载的不同服务质量等级标识符(QCI)索引的每承载吞吐量在主节点的MAC层被计算,并且通过F1接口或任何其他专有接口在DDDS消息中被传输到主节点;以及
·考虑到承载的不同QCI索引的每承载吞吐量在辅节点的MAC层被计算,并且通过X2接口在DDDS消息中被传输到主节点。
但是,DDDS消息通常可能会在传输网络中经历传输延迟。此外,通过F1接口和X2接口的这些DDDS消息的频率可以比拆分器处的传入PDCP PDU的频率低得多。由此得出的结果是,当拆分器做出其路由决定时,可能无法在拆分器处获取有关吞吐量和飞行中数据的准确信息,这可能会导致错误的延迟计算。当负载条件动态变化或者F1接口和X2接口上存在拥塞时,影响甚至更显著,这可能会导致这些F1接口和X2接口上的进一步延迟和拥塞。例如,错误地向具有更高延迟的路径发送PDU的直接后果可能是PDU以与每个传入PDU的PDCP序列号不同的顺序到达UE。然后,这可能需要在UE处针对一些较高层协议对PDU进行重新排序,从而在将这些PDU传输到上层(诸如传输控制协议(TCP)层)中造成更多延迟。这可能会导致朝向发送方实体的TCP确认的进一步延迟,这可能会导致减小TCP窗口大小,从而导致降低朝向UE的数据速率。
为了减轻传输延迟的估计中准确性的缺乏,示例实施例可以包括在计算延迟W_M和W_S时应用校正项。
例如,W_M的校正项可以针对已经传输到主节点的MAC层但是其相应DDDS消息尚未到达主节点的拆分器的飞行中PDU进行确认。
例如,W_S的校正项可以针对已经传输到辅节点的MAC层但是其相应DDDS消息尚未到达主节点的拆分器的飞行中PDU进行确认。
这两个校正项都可以基于等待时间和吞吐量参数,并且具体地基于:
·第一等待时间参数,其表示在没有队列时PDU从主节点的CU传输到辅节点所需要的时间;
·第二等待时间参数,其表示在没有队列时PDU从主节点的CU传输到主节点的DU所需要的时间;
·第一吞吐量参数,其表示在主节点的MAC层测量的UE承载的吞吐量;
·第二吞吐量参数,其表示在辅节点的MAC层测量的UE承载的吞吐量;以及
·其他参数,其考虑到PDU被传输到MAC层但尚未在报告给主节点的拆分器的DDDS消息中被确认的时间间隔。
尽管当负载和延迟条件变化不大时使用这些校正项可以提供改善的结果,但是当负载和延迟条件动态变化时,情况可能不再如此。
为了在动态负载和延迟条件的情况下提高传输延迟的估计的准确性,示例实施例可以包括使用机器学习(ML)模型而不是数学的或分析的公式或算法,例如而不是前面提到的基于利特尔法则的数学的或分析的公式或算法。
图5示出了使用ML模型的NSA U平面数据拆分配置的示例实施例。
ML模型可以包括神经网络(NN)或人工神经网络(ANN)模型,其本身包括但不限于深度神经网络(DNN)(也称为前馈神经网络(FNN)或多层感知)模型、递归神经网络(RNN)模型或卷积神经网络(CNN)模型等。
主节点的CU(即,MgNB的gNB-CU)的PDCP层可以包括ML模型,该ML模型可以被配置为充当估计器,该估计器的功能可以是为每个路径估计PDU在从拆分器输出以经由F1接口到达主节点的DU(即,MgNB的gNB-DU)的MAC层以及经由X2接口和基于S-GW的路由器到达辅节点(即,SeNB)的MAC层时会经历的传输延迟。
图6示出了ML模型的离线训练阶段的示例实施例。
在用于推断每个路径的估计传输延迟之前,ML模型需要初始离线训练以计算其所需要的权重和偏差。在这点上,需要每路径训练数据,并且对于每个路径,每路径训练数据可以包括要输入到ML模型中的输入数据集和对应的测量传输延迟。每个输入数据集可以至少包括飞行中数据和吞吐量。在示例实施例中,除了飞行中数据和吞吐量,每个输入数据集还可以包括其他类型的数据(例如,PDU大小等)。应当注意,飞行中数据是指队列中的要由主节点的CU的PDCP层传输的PDU的数目。初始离线训练过程可以包括:收集每路径训练数据,并且在输入数据集与测量传输延迟之间执行每路径对应。离线训练的持续时间可以取决于收集每路径训练数据的必要时间。此外,为了在所收集的输入数据集与测量传输延迟之间执行每路径对应,可能需要具有与每个测量传输延迟相关联的标识部件(例如,标识符、时间戳)。在示例实施例中,标识部件可以在主节点的CU的PDCP层生成。
参考图5的NSA U平面数据拆分配置,可以以如下方式在主节点的CU处收集训练数据。拆分器的拆分点与主节点的MAC层(即,位于主节点的DU中(即,在gNB-DU中)的MAC层)之间的路径的传输延迟、以及拆分器的拆分点与辅节点(即,SeNB)的MAC层之间的路径的传输延迟可以在每个MAC层处被测量,并且在主节点的DU的情况下经由F1接口被报告给主节点的CU,并且在辅节点的情况下经由X2接口被报告给主节点的CU。来自所收集的每路径输入数据集的每个吞吐量可以在位于主节点的DU中的MAC层和辅节点的MAC层中的每个MAC层处被测量,并且在主节点的DU的情况下经由F1接口在DDDS消息中被报告给主节点的CU,并且在辅节点的情况下经由X2接口在DDDS消息中被报告给主节点的CU。如上,来自所收集的每路径输入数据集的每个飞行中数据的值(以字节数表示)可以在主节点的CU的PDCP层被维护和/或更新。已经传输到位于主节点的DU中的MAC层的字节大小或字节数可以经由F1接口在DDDS消息中被报告给主节点的CU,以更新对应飞行中数据的值。已经传输到辅节点的MAC层的字节大小或字节数可以经由X2接口在DDDS消息中被报告给主节点的CU,以更新对应飞行中数据的值。在示例实施例中,所测量的每路径传输延迟还可以:当传输延迟在主节点的DU的MAC层被测量时经由F1接口在DDDS消息中被报告给主节点的CU,并且当传输延迟在辅节点的MAC层被测量时经由X2接口在DDDS消息中被报告给主节点的CU。应当理解,可以以例如但不限于从10ms到50ms的预定义值来配置经由F1接口和X2接口的DDDS消息的频率。在示例实施例中,相同DDDS消息可以用于报告吞吐量、字节大小或字节数、以及测量传输延迟。
图7示出了被训练用于估计(或预测)每路径传输延迟的ML模型的在线推断阶段的示例实施例。
一旦已经使用上述离线训练过程对ML模型进行了初始训练,则可以基于输入随时间而收集的相应每路径输入数据集,使用已训练ML模型来输出每个路径的估计传输延迟。如图所示,已训练ML模型可以输入每个路径(描绘为通向辅节点的路径的4G支路和通向主节点的DU的路径的5G支路)的所收集的输入数据集(例如,图7的示例实施例中描绘的飞行中数据和吞吐量)。进一步如图所示,已训练ML模型可以输出每个支路(5G支路、4G支路)的估计传输延迟(W_5G、W_4G)。应当理解,4G支路(相应地,5G支路)的估计传输延迟可以是如下的传输延迟,如果PDCP PDU经由4G支路(相应地,5G支路)从拆分器的拆分点传输到UE,则对于PDCP PDU,存在这样的传输延迟。
然后,可以将从ML模型输出的每个估计传输延迟(W_5G、W_4G)提供给拆分器。至少基于每个路径(5G支路、4G支路)的所接收的估计传输延迟(W_5G、W_4G),拆分器可以为每个传入PDCP PDU选择每个路径(5G支路、4G支路)中的一个路径,对应PDCP PDU可以经由该路径被传输以到达UE。在示例实施例中,路径的选择可以基于每个路径(5G支路、4G支路)的所接收的估计传输延迟(W_5G、W_4G),以确定估计传输延迟最短的路径。在另一示例实施例中,路径的选择不仅可以基于每个路径(5G支路、4G支路)的所接收的估计传输延迟(W_5G、W_4G),还可以基于其他标准,例如用于负载平衡的负载(例如,连接到每个网络节点的UE数),以确定所选择的路径(即,5G支路或4G支路)。
图8示出了在ML模型是个体DNN模型的情况下被训练用于估计(或预测)每路径传输延迟的ML模型的示例实现。
如图所示,单个已训练DNN模型(由DNN表示)可以接收随时间而收集的每路径输入数据集。输入数据集可以包括第一输入数据集和第二输入数据集,第一输入数据集包括5G支路的飞行中数据(L_5G)和吞吐量(R_5G),第二输入数据集包括4G支路的飞行中数据(L_4G)和吞吐量(R_4G)。输出数据包括5G支路的第一估计传输延迟(W_5G)和4G支路的第二估计传输延迟(W_4G)。
第一估计传输延迟(W_5G)和第二估计传输延迟(W_4G)随时间被输入到拆分器,该拆分器可以以某个频率(例如,每10ms一个分组)接收一个或多个传入PDCP PDU。至少基于从单个已训练DNN模型接收的输出数据(W_5G、W_4G),拆分器可以在5G支路和4G支路中为每个传入PDCP PDU选择一个路径(即,5G支路或4G支路),对应PDCP PDU可以经由该路径被传输以到达UE。
图9示出了在ML模型是被拆分为两个个体DNN模型的DNN模型的情况下被训练用于估计(或预测)每路径传输延迟的ML模型的示例实现。下文中,将这种拆分DNN模型指定为基于联结的DNN(concatenation-based DNN,C-DNN)模型。
如图所示,在示例配置中,可以根据输入数据集的两种数据类型(例如,飞行中数据和吞吐量)将已训练C-DNN模型拆分为两个个体已训练DNN模型(由DNN_1和DNN_2表示)。应当理解,在另一示例配置中,在输入数据集的数据类型的数目大于二的情况下,可以将已训练C-DNN模型拆分为两个以上的个体已训练DNN模型。第一已训练DNN模型(DNN_1)可以随时间输入吞吐量(针对5G支路的R_5G、针对4G支路的R_4G),吞吐量对于5G支路是经由F1接口在主节点的DU的MAC层处被测量并且从该MAC层在相应DDDS消息中被报告,而吞吐量对于4G支路是经由X2接口在辅节点的MAC层处被测量并且从辅节点的MAC层在相应DDDS消息中被报告,并且然后第一已训练DNN模型(DNN_1)可以将第一输出数据(X_1_1,X_1_2)提供给联结部件(CM)。第二已训练DNN模型(DNN_2)可以随时间输入飞行中数据(针对5G支路的L_5G、针对4G支路的L_4G),并且然后可以向联结部件(CM)提供第二输出数据(X_2_1、X_2_2)。
稍后,第一输出数据(X_1_1、X_1_2)和第二输出数据(X_2_1、X_2_2)可以在联结部件(CM)处被联结在一起(例如,通过由更密集的层进行处理),以输出5G支路的第一估计传输延迟(W_5G)和4G支路的第二估计传输延迟(W_4G)。这些第一估计传输延迟(W_5G)和第二估计传输延迟(W_4G)随时间输入到拆分器中,该拆分器可以以某个频率(例如,每10ms一个分组)接收一个或多个传入PDCP PDU。至少基于从联结部件(CM)接收的输出数据(W_5G、W_4G),拆分器可以在5G支路和4G支路中为每个传入PDCP PDU选择一个路径(即,5G支路或4G支路),对应PDCP PDU可以经由该路径被传输以到达UE。
图10示出了在ML模型是RNN模型的情况下被训练用于估计(或预测)每路径传输延迟的ML模型的示例实现。
可以使用RNN模型(例如,代替DNN模型),以便考虑历史信息并且满足业务的时变性质和支路中的延迟/拥塞。从而,可以增强传输延迟的估计。
例如,不同于随时间(例如,在时间“t”)向其中输入数据的DNN模型,RNN模型需要时间序列信息,以便可以在被考虑之前在预定义时间间隔ΔT期间递归地收集每支路(5G、4G)输入数据。因此,如图所示,已训练RNN模型的每支路输入数据可以包括:
应当理解,相同类型的输入数据可以用于训练阶段和推断阶段两者。
如图所示,RNN模型可以在每个时间间隔ΔT期间收集上述输入数据。一旦被收集,输入数据就可以被立即提供给RNN模型,然后RNN模型可以向拆分器提供输出数据(即,5G支路的估计传输延迟(W_5G)和4G支路的估计传输延迟(W_4G))。。
在每个时间间隔ΔT之后,输出数据(W_5G、W_4G)被输入到拆分器中,该拆分器可以以一定频率(例如,每10ms一个分组)接收一个或多个传入PDCP PDU。至少基于从已训练RNN模型接收的输出数据(W_5G、W_4G),拆分器可以在5G支路和4G支路中为每个传入PDCPPDU选择一个路径(即,5G支路或4G支路),对应的PDCP PDU可以经由该路径被传输以到达UE。
在示例实施例中,通过随时间收集和存储有关每个路径的输入数据集的数据(例如,图10的示例实施例中所示的飞行中数据和吞吐量)以及已经经由其传输对应PDU的所选择的路径的测量传输延迟的信息,可以在已训练ML模型(例如,已训练DNN、C-DNN或RNN模型)的在线推断阶段期间的任何时间(例如,周期性地、在给定时间,等等)创建数据库。
在收集时间间隔期间,基于例如所收集的信息的大小或在主节点的CU的PDCP层使用所收集的信息而计算的延迟估计误差的预定条件可以被验证,并且由此可以导致触发已训练ML模型的另外的离线训练阶段,其目的是优化已训练ML模型的性能,以便以增强的准确性估计传输延迟(即,W_5G、W_4G)。
在示例情况下,当随时间而收集的信息的大小变得等于或高于预定大小阈值时,预定条件可以被验证。
在另一示例情况下,当基于针对每个所选择的路径的、从输入所收集的输入数据集的已训练ML模型输出的估计传输延迟与对应的所收集的测量传输延迟之间的比较而计算的延迟估计误差等于或高于预定误差阈值时,预定条件可以被验证。
图11示出了已训练RNN模型的闭环优化的示例实施例。
在图10的已训练RNN模型的示例情况下,当预定条件被验证时,即,所计算的延迟估计误差等于或高于预定误差阈值时,在其期间递归地收集输入数据集的预定义时间间隔ΔT可以可选地以闭环方式进行更新,如图11所示,其目的仍然是优化已训练ML模型的性能,以便以增强的准确性估计传输延迟(即,W_5G、W_4G)。
如图所示,预定义时间间隔ΔT的更新可以导致在预定义时间间隔ΔT期间收集的已训练RNN模型的每支路输入数据(5G、4G)的更新。
此外,对于每个ML模型,可以存在根据预定义时间间隔ΔT而不同的对应的权重和偏差,使得每个时间间隔可以对应于相应的已训练RNN模型。因此,如图所示,预定义时间间隔ΔT的更新可能需要上传与已更新预定义时间间隔相对应的已训练RNN模型。
在示例实施例中,用于更新时间间隔ΔT的新时间间隔的选择可以使用与用于根据所计算的延迟估计误差值来提供对应时间间隔值的专用数据库相关联的查找表(LUT)来执行。
在另一示例实施例中,用于更新时间间隔ΔT的新时间间隔的选择可以使用NN或ANN来执行,NN或ANN各自被训练用于从所计算的延迟估计误差值中推断时间间隔值。
图12示出了非暂态计算机可读介质100a(例如,计算机盘(CD)或数字多功能盘(DVD))和100b(例如,通用串行总线(USB)记忆棒)的示例实施例,该非暂态计算机可读介质被配置为存储指令和/或参数102,这些指令和/或参数102在由处理器执行时允许处理器执行实施例中的任何实施例的方法中的任何方法的步骤中的一个或多个步骤。
图13示出了示例流程图1300,该示例流程图1300描述了经由所选择的路径来路由PDCP PDU的基于ML的过程的示例实施例。该示例流程图1300可以例如在拆分器级别在图5的主节点的CU中被实现,具体地在CU的PDCP层中被实现,或者在设置在PDCP层中的装置200(参见图16)中被实现。
在步骤1310中,示例流程图1300的方法可以包括:接收来自一个或多个传入PDU中的个体PDU,其中每个PDU要经由通向主节点的至少一个DU和至少一个辅节点的相应路径中的一个路径被传输给UE设备,UE设备与主节点和至少一个辅节点处于双连接或多连接。
在步骤1320中,示例流程图1300的方法可以包括针对路径中的每个路径收集相应的数据集。
在步骤1330中,示例流程图1300的方法可以包括从输入每个数据集的已训练机器学习模型接收路径中的每个路径的相应的估计传输延迟。
在步骤1340中,示例流程图1300的方法可以包括基于估计传输延迟来从路径中的每个路径中选择路径。
在步骤1350中,示例流程图1300的方法可以包括经由所选择的路径向UE设备传输PDU。
为了仿真的目的,图14示出了借助于仿真工具来创建数据集的示例实施例。数据集已经被用于训练基于联结的DNN(C-DNN)模型,诸如图9的C-DNN模型,该数据集包括输入数据集(例如,飞行中数据和预期吞吐量)和一组测量传输延迟。用于仿真的参数如下:
·UE以NSA模式连接并且支持与主MgNB和辅SeNB的双连接;
·文件传输协议(FTP)业务在环(in loop);
·eNB 1Cell1(SeNB):20MHz,并且eNB 2Cell1(MgNB):20MHz;
·RLC PDU大小:9600字节;
·初始吞吐量:10Mbps;
·DDDS消息的频率:10ms;
·拆分器决定:对于每个传入PDCP PDU,大约每ms。
C-DNN模型包括两个个体DNN模型,每个DNN模型具有两个隐藏层(每层具有64个节点)和两个密集层(在与512个节点联结之后),总共有338434个可训练参数。
对于MgNB和SeNB两者,为基于联结的DNN模型而创建的输入数据集以表格形式示出在针对飞行中数据的图14(a)和针对预期吞吐量的图14(b)中。输入数据集以每秒字节数表示,并且每个飞行中数据每ms报告一次,而在DDDS消息中每个预期吞吐量每10ms报告一次。尽管报告预期吞吐量的频率已经根据DDDS消息的频率被限制为每10ms报告一次,但是针对在这个10ms时间段内的所有中间值均已经考虑了相同的报告吞吐量。
对于MgNB和SeNB两者,图14(c)中以表格形式示出了基于联结的DNN模型的一组测量传输延迟。每个测量传输延迟以ms表示,并且针对在MgNB的DU的MAC层处测量的传输延迟,测量传输延迟已经通过F1接口每ms报告给MgNB的CU的PDCP层,并且针对在SeNB的MAC层处测量的传输延迟,测量传输延迟已经通过X2接口每ms报告给MgNB的CU的PDCP层。
C-DNN模型已经使用飞行中数据和预期吞吐量的670000个样本的数据集作为输入特征连同它们的对应的测量传输延迟进行了训练。
由于已经通过F1接口和X2接口每10ms报告一次预期吞吐量,并且每PDU大约1ms的传入PDCP PDU频率较高,因此,在10ms时间段内的所有传入PDU均获得了预期吞吐量的相同报告值,直到新的预期吞吐量被报告为止。
在下面的表I和表II中以统计形式(即,平均误差、标准偏差和NRMSD/NRMSE(归一化均方根偏差/误差)给出了用于估计传输延迟的仿真结果,每预期吞吐量的报告周期为10ms:
表I:训练数据集的平均延迟估计误差和偏差
平均延迟估计误差(ms) | 标准偏差(%) | NRMSD(%) |
0.0163 | 0.656 | 0.0322 |
表II:测试数据集的平均延迟估计误差和偏差
平均延迟估计误差(ms) | 标准偏差(%) | NRMSD(%) |
0.0166 | 0.658 | 0.0319 |
基于上述参数,相对于图14(c)的平均的测量传输延迟(即,49.9ms),测试数据集中任何给定PDCP PDU的5G支路和4G支路的传输延迟的估计(或预测)的准确性达到了99%以上。
为了减少F1接口和X2接口上的开销,可以将每吞吐量的报告周期增大,例如从10ms增大到20ms。
在这点上,在下面的表III和表IV中以统计形式(即,平均误差、标准偏差和NRMSD/NRMSE(归一化均方根误差/误差))给出了用于估计传输延迟的随后仿真结果,每预期吞吐量的报告周期为20ms:
表III:训练数据集的平均延迟估计误差和偏差
平均延迟估计误差(ms) | 标准偏差(%) | NRMSD(%) |
0.0215 | 0.959 | 0.0501 |
表IV:测试数据集的平均延迟估计误差和偏差
平均延迟估计误差(ms) | 标准偏差(%) | NRMSD(%) |
0.022 | 0.958 | 0.0512 |
基于上述仿真参数,相对于图14(c)的平均的测量传输延迟(即,49.9ms),测试数据集中任何给定PDCP PDU的5G支路和4G支路的传输延迟的估计(或预测)的准确性仍然达到了99%以上。尽管不出所料地获得了稍稍较高的标准偏差值(即,0.958%)和NRMSD(即,0.0512%),但是它们仍保持在可接受的范围内。
因此,这可以证明,被训练用于估计每路径传输延迟的ML模型的所提出的示例实现不仅可以提供传输延迟的准确估计,还可以帮助减少和/或平衡F1接口和X2接口上的开销。
相比之下,使用上述基于利特尔法则的数学公式而测量的传输延迟产生的平均延迟估计误差率高达20%。
基于以上仿真参数,图15示出了在以下情况下针对时间延迟预测误差(以ms为单位)而绘制的测试数据集的经验累积分布函数(ECDF)的示例实施例:(a)针对5G支路的每预期吞吐量的报告周期为10ms;(b)针对4G支路的每预期吞吐量的报告周期为10ms;(c)经由5G支路的每预期吞吐量的报告周期为20ms;(d)经由4G支路的每预期吞吐量的报告周期为20ms。
使用针对每预期吞吐量的报告周期为10ms的图15(a)(b)的的教导,在超过98%的情况下,5G支路的延迟误差小于1ms,并且在超过94%的情况下,4G支路的延迟误差小于1ms。
使用针对每预期吞吐量的报告周期为20ms的图15(c)(d)的教导,针对超过96%的情况,5G支路的延迟误差小于1ms,并且针对超过90%的情况,4G支路的延迟误差小于1ms。
关于图14(c)的平均的测量传输延迟(即,49.9ms),这意味着1ms的误差表示大约98%的准确度。
应当理解,尽管上面已经描述了一些示例实施例,但是在不脱离本申请的范围的情况下,可以对所公开的解决方案进行多种变型和修改。例如,尽管在存在主节点的一个CU、主节点的一个DU和一个辅节点的示例情况下,图5的示例实施例涉及两个支路或路径,但是在以下示例情况下,示例变型可以涉及多于两个的支路或路径:(i)一个CU、多个DU和一个辅节点,(ii)一个CU、一个DU和多个辅节点,或者(iii)一个CU、多个DU和多个辅节点。因此,支路或路径的数目可以对应于主节点的DU和连接到主节点的CU的辅节点的数目。在另一实例中,尽管图5的示例实施例涉及一个UE,但是示例变型可以涉及具有主节点和辅节点的以上布置的处于双连接或多连接的多个UE。
因此,实施例可以在所附权利要求的范围内变化。通常,一些实施例可以以硬件或专用电路、软件、逻辑或其任何组合来实现。例如,一些方面可以以硬件来实现,而其他方面可以以可以由控制器、微处理器或其他计算设备执行的固件或软件来实现,但是实施例不限于此。尽管各种实施例可以被图示和描述为框图、流程图或使用一些其他图形表示,但是众所周知,作为非限制性示例,本文中描述的这些框、装置、系统、技术或方法可以以硬件、软件、固件、专用电路或逻辑、通用硬件或控制器或其他计算设备或其某种组合来实现。
实施例可以通过存储在存储器中并且由所涉及实体的至少一个数据处理器可执行的计算机软件来实现,或者可以通过硬件来实现,或者可以通过软件和硬件的组合来实现。另外,在这点上,应当注意,以上任何过程都可以表示程序步骤、或者互连的逻辑电路、框和功能、或者程序步骤以及逻辑电路、框和功能的组合。软件可以存储在诸如存储芯片或在处理器内实现的存储块等物理介质、诸如硬盘或软盘等磁性介质、以及诸如DVD及其数据变体、CD等光学介质上。
存储器可以是适合于本地技术环境的任何类型,并且可以使用任何合适的数据存储技术来实现,诸如基于半导体的存储设备、磁存储设备和系统、光学存储设备和系统、固定存储器和可移动存储器。数据处理器可以是适合于本地技术环境的任何类型,并且作为非限制性示例,可以包括通用计算机、专用计算机、微处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、门级电路和基于多核处理器架构的处理器中的一项或多项。
图16示出了装置200的示例实施例,该装置200可以被设置在主节点的CU(gNB-CU)中,具体地在CU的PDCP层中,例如在拆分器级。装置200可以包括至少一个处理器210和至少一个存储器220,至少一个存储器220包括用于一个或多个程序的计算机代码。装置200可以被配置为引起实施例中的任何实施例的方法中的任何方法的步骤中的一个或多个步骤被执行。
备选地或附加地,一些实施例可以使用电路系统来实现。该电路系统可以被配置为执行先前描述的功能和/或方法步骤中的一项或多项。例如,该电路系统可以被设置在图5的主节点的CU(gNB-CU)中,具体地在CU的PDCP层中,例如在拆分器级,或者在被设置在PDCP层中的装置200中。
如本申请中使用的,术语“电路系统”可以是指以下项中的一项或多项或全部:
(a)纯硬件电路实现(诸如仅在模拟和/或数字电路系统中的实现);
(b)硬件电路和软件的组合,诸如:
(i)(多个)模拟和/或数字硬件电路与软件/固件的组合,以及
(ii)具有软件(包括(多个)数字信号处理器)的(多个)硬件处理器、软件和(多个)存储器的任何部分,这些部分共同工作以引起诸如通信设备或基站的装置执行先前描述的各种功能;以及(c)(多个)硬件电路和/或(多个)处理器,诸如(多个)微处理器或(多个)微处理器的一部分,其需要软件(例如,固件)来运行,但在其不需要被运行时可以不存在软件。
电路系统的这种定义适用于该术语在本申请中的所有使用,包括在任何权利要求中。作为另一示例,如本申请中使用的,术语“电路系统”还涵盖仅硬件电路或处理器(或多个处理器)或硬件电路或处理器的一部分及其(或它们的)随附软件和/或固件的实现。术语“电路系统”还涵盖例如集成设备。
前述描述已经通过示例性和非限制性示例的方式提供了一些实施例的完整且信息丰富的描述。然而,当结合附图和所附权利要求书阅读时,鉴于前面的描述,各种修改和变型对于相关领域的技术人员而言将变得很清楚。然而,对教导的所有这样的和类似修改仍将落入在所附权利要求书中限定的范围内。
Claims (15)
1.一种用于通信的装置,包括用于在主节点的中央单元CU处执行以下项的部件:
接收来自一个或多个传入分组数据单元PDU中的个体PDU,其中每个PDU要经由通向所述主节点的至少一个分布式单元DU和至少一个辅节点的相应路径中的一个路径,被传输给用户设备UE设备,所述UE设备与所述主节点和所述至少一个辅节点处于双连接或多连接;
针对所述路径中的每个路径收集相应的数据集;
从输入每个数据集的机器学习模型接收针对所述路径中的每个路径的相应的估计传输延迟;
至少基于所述估计传输延迟来从所述路径中的每个路径中选择路径;以及
经由选择的所述路径向所述UE设备传输所述PDU。
2.根据权利要求1所述的装置,其中所述部件还被配置为在经由选择的所述路径向所述UE设备传输所述PDU之后,时而执行,
取决于所述PDU已经经由选择的所述路径被传输向所述主节点的所述至少一个DU之一或所述至少一个辅节点之一中的何者,从所述主节点的所述至少一个DU之一或所述至少一个辅节点之一接收针对选择的所述路径的测量传输延迟。
3.根据权利要求2所述的装置,其中所述部件还被配置为执行:
收集有关针对所述路径中的每个路径的所述数据集和针对选择的所述路径的所述测量传输延迟的信息;
确定收集的所述信息是否验证预定条件;以及
当所述预定条件被验证时,触发所述机器学习模型的训练。
4.根据权利要求3所述的装置,其中所述预定条件包括以下至少一项:
收集的所述信息的大小等于或高于预定大小阈值;以及
延迟估计误差等于或高于预定误差阈值,所述延迟估计误差基于针对选择的所述路径的、所述估计传输延迟与所述测量传输延迟之间的比较而被计算。
5.根据权利要求4所述的装置,其中所述部件还被配置为在所述机器学习模型包括递归神经网络RNN模型时执行:
当所述延迟估计误差等于或高于所述预定误差阈值时,更新时间间隔,在所述时间间隔期间所述数据集被递归地收集;以及
上传与已更新的所述时间间隔相关联的所述机器学习模型。
6.根据权利要求3至5中任一项所述的装置,其中在至少每当所述机器学习模型的所述训练被触发的时间段期间,针对选择的所述路径的所述测量传输延迟被接收,所述机器学习模型的所述训练包括:
针对选择的所述路径,在所述机器学习模型中输入的所述数据集与所述测量传输延迟之间执行对应。
7.根据权利要求2至5中任一项所述的装置,其中所述测量传输延迟在所述主节点的所述至少一个DU的介质访问控制MAC层和所述至少一个辅节点的介质访问控制MAC层处被测量,并且所述测量传输延迟经由相应F1接口从所述主节点的所述至少一个DU中的每个DU、以及经由相应X2接口从所述至少一个辅节点中的每个辅节点被接收。
8.一种通信方法,所述方法在主节点的CU处被执行,所述方法包括:
接收来自一个或多个传入PDU中的个体PDU,其中每个PDU要经由通向所述主节点的至少一个DU和至少一个辅节点的相应路径中的一个路径,被传输给UE设备,所述UE设备与所述主节点和所述至少一个辅节点处于双连接或多连接;
针对所述路径中的每个路径收集相应的数据集;
从输入每个数据集的机器学习模型接收针对所述路径中的每个路径的相应的估计传输延迟;
基于所述估计传输延迟来从所述路径中的每个路径中选择路径;以及
经由选择的所述路径向所述UE设备传输所述PDU。
9.根据权利要求8所述的方法,还包括:在经由选择的所述路径向所述UE设备传输所述PDU之后,
时而地,取决于所述PDU已经经由选择的所述路径被传输向所述主节点的所述至少一个DU之一或所述至少一个辅节点之一中的何者,从所述主节点的所述至少一个DU之一或所述至少一个辅节点之一接收针对选择的所述路径的测量传输延迟。
10.根据权利要求9所述的方法,还包括:
收集有关针对所述路径中的每个路径的所述数据集和针对选择的路径的所述测量传输延迟的信息;
确定收集的所述信息是否验证预定条件;以及
当所述预定条件被验证时,触发所述机器学习模型的训练。
11.根据权利要求10所述的方法,其中所述预定条件包括以下至少一项:
收集的所述信息的大小等于或高于预定大小阈值;以及
延迟估计误差等于或高于预定误差阈值,所述延迟估计误差基于针对选择的所述路径的、所述估计传输延迟与所述测量传输延迟之间的比较而被计算。
12.根据权利要求11所述的方法,还包括:当所述机器学习模型包括RNN模型时,
当所述延迟估计误差等于或高于所述预定误差阈值时,更新时间间隔,在所述时间间隔期间所述数据集被递归地收集;以及
上传与已更新的所述时间间隔相关联的所述机器学习模型。
13.根据权利要求10至12中任一项所述的方法,其中在至少每当所述机器学习模型的所述训练被触发的时间段期间,针对选择的所述路径的所述测量传输延迟被接收,已训练的所述机器学习模型的所述训练包括:
针对选择的所述路径,在所述机器学习模型中输入的所述数据集与所述测量传输延迟之间执行对应。
14.根据权利要求9至12中任一项所述的方法,其中所述测量传输延迟在所述主节点的所述至少一个DU的介质访问控制MAC层和所述至少一个辅节点的介质访问控制MAC层处被测量,并且所述测量传输延迟经由相应F1接口从所述主节点的所述至少一个DU中的每个DU、以及经由相应X2接口从所述至少一个辅节点中的每个辅节点被接收。
15.一种计算机可读介质,包括被存储在其上的程序指令,所述程序指令用于在主节点的CU处至少执行:
接收来自一个或多个顺序传入PDU中的个体PDU,其中每个PDU要经由通向所述主节点的至少一个DU和至少一个辅节点的相应路径中的一个路径,被传输给UE设备,所述UE设备与所述主节点和所述至少一个辅节点处于双连接或多连接;
针对所述路径中的每个路径收集相应的数据集;
从输入每个数据集的机器学习模型接收针对所述路径中的每个路径的相应的估计传输延迟;
基于所述估计传输延迟来从所述路径中的每个路径中选择路径;以及
经由选择的所述路径向所述UE设备传输所述PDU。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP20164790.6 | 2020-03-23 | ||
EP20164790.6A EP3886383A1 (en) | 2020-03-23 | 2020-03-23 | Apparatus, method and computer program for routing data in a dual or multi-connectivity configuration |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113438707A true CN113438707A (zh) | 2021-09-24 |
Family
ID=69953823
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110302773.5A Pending CN113438707A (zh) | 2020-03-23 | 2021-03-22 | 用于在双连接或多连接配置中路由数据的装置、方法和计算机程序 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11818648B2 (zh) |
EP (1) | EP3886383A1 (zh) |
CN (1) | CN113438707A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113868109A (zh) * | 2021-09-30 | 2021-12-31 | 山东云海国创云计算装备产业创新中心有限公司 | 多处理器互连的性能评估的方法、装置、设备及可读介质 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11502915B2 (en) * | 2020-09-11 | 2022-11-15 | Qualcomm Incorporated | Transmission of known data for cooperative training of artificial neural networks |
FI20225055A1 (en) * | 2022-01-25 | 2023-07-26 | Nokia Solutions & Networks Oy | XXX |
WO2024012679A1 (en) * | 2022-07-14 | 2024-01-18 | Nokia Solutions And Networks Oy | Apparatuses, methods and computer program products for routing data using multi-agent federated learning |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160337254A1 (en) * | 2015-05-13 | 2016-11-17 | Telefonaktiebolaget Lm Ericsson (Publ) | Method for controlling transmission of data |
CN107113901A (zh) * | 2014-11-07 | 2017-08-29 | 诺基亚通信公司 | 双连接中的数据转发支持 |
CN107995665A (zh) * | 2016-10-27 | 2018-05-04 | 中国电信股份有限公司 | 一种业务路径选择方法、装置和主基站 |
US20180206173A1 (en) * | 2015-07-08 | 2018-07-19 | Nokia Solutions And Networks Oy | Methods and Apparatuses for Selecting a First Base Station or a Second Base Station to Transmit a Packet Data Unit (PDU) to a User Equipment (UE) |
CN109075919A (zh) * | 2016-04-19 | 2018-12-21 | 诺基亚技术有限公司 | 拆分承载双/多连接重传分集 |
US20190097912A1 (en) * | 2017-09-28 | 2019-03-28 | Cisco Technology, Inc. | Weight initialization for random neural network reinforcement learning |
CN109687959A (zh) * | 2018-12-29 | 2019-04-26 | 上海唯链信息科技有限公司 | 密钥安全管理系统和方法、介质和计算机程序 |
US20190220703A1 (en) * | 2019-03-28 | 2019-07-18 | Intel Corporation | Technologies for distributing iterative computations in heterogeneous computing environments |
TW201933847A (zh) * | 2018-01-10 | 2019-08-16 | 瑞典商Lm艾瑞克生(Publ)電話公司 | 傳送和接收資料單元 |
CN110309914A (zh) * | 2019-07-03 | 2019-10-08 | 中山大学 | 基于边缘服务器与移动端设备协同的深度学习模型推理加速方法 |
CN110419262A (zh) * | 2017-03-17 | 2019-11-05 | 英特尔公司 | 由ran架构的集中式节点重传pdcp pdu |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9736056B2 (en) * | 2014-05-02 | 2017-08-15 | Cisco Technology, Inc. | Centralized predictive routing using delay predictability measurements |
US9525617B2 (en) * | 2014-05-02 | 2016-12-20 | Cisco Technology, Inc. | Distributed predictive routing using delay predictability measurements |
US9547828B2 (en) * | 2014-05-14 | 2017-01-17 | Cisco Technology, Inc. | Hierarchical hybrid batch-incremental learning |
US11206549B1 (en) * | 2017-11-09 | 2021-12-21 | Verana Networks, Inc. | Wireless mesh network |
US11375527B1 (en) * | 2017-11-09 | 2022-06-28 | Verana Networks, Inc. | Wireless mesh network |
US11477748B2 (en) * | 2018-06-13 | 2022-10-18 | Nec Corporation | Apparatus to be controlled, control method, non- transitory computer readable medium, and remote control system |
US11070453B2 (en) * | 2018-09-13 | 2021-07-20 | Microsoft Technology Licensing, Llc | Providing network traffic endpoint recommendation based on network traffic data analysis |
WO2020085960A1 (en) * | 2018-10-23 | 2020-04-30 | Telefonaktiebolaget Lm Ericsson (Publ) | Method and arrangement for flow control in a split path communication system |
EP3675426A1 (en) * | 2018-12-28 | 2020-07-01 | InfoVista SAS | Method for latency estimation in wireless networks |
US10805044B2 (en) * | 2019-02-25 | 2020-10-13 | At&T Intellectual Property I, L.P. | Optimizing delay-sensitive network-based communications with latency guidance |
US20200342291A1 (en) * | 2019-04-23 | 2020-10-29 | Apical Limited | Neural network processing |
US11284327B2 (en) * | 2019-06-03 | 2022-03-22 | Lg Electronics Inc. | Method and apparatus for selecting a path for transferring data unit in wireless communication system |
US20210012239A1 (en) * | 2019-07-12 | 2021-01-14 | Microsoft Technology Licensing, Llc | Automated generation of machine learning models for network evaluation |
US11395162B2 (en) * | 2019-10-02 | 2022-07-19 | Lg Electronics Inc. | Path selection scheme for master cell group failure reporting |
US11304203B2 (en) * | 2020-02-14 | 2022-04-12 | Verizon Patent And Licensing Inc. | Method and system for ran intelligent controller |
-
2020
- 2020-03-23 EP EP20164790.6A patent/EP3886383A1/en active Pending
-
2021
- 2021-03-17 US US17/203,875 patent/US11818648B2/en active Active
- 2021-03-22 CN CN202110302773.5A patent/CN113438707A/zh active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107113901A (zh) * | 2014-11-07 | 2017-08-29 | 诺基亚通信公司 | 双连接中的数据转发支持 |
US20160337254A1 (en) * | 2015-05-13 | 2016-11-17 | Telefonaktiebolaget Lm Ericsson (Publ) | Method for controlling transmission of data |
US20180206173A1 (en) * | 2015-07-08 | 2018-07-19 | Nokia Solutions And Networks Oy | Methods and Apparatuses for Selecting a First Base Station or a Second Base Station to Transmit a Packet Data Unit (PDU) to a User Equipment (UE) |
CN109075919A (zh) * | 2016-04-19 | 2018-12-21 | 诺基亚技术有限公司 | 拆分承载双/多连接重传分集 |
CN107995665A (zh) * | 2016-10-27 | 2018-05-04 | 中国电信股份有限公司 | 一种业务路径选择方法、装置和主基站 |
CN110419262A (zh) * | 2017-03-17 | 2019-11-05 | 英特尔公司 | 由ran架构的集中式节点重传pdcp pdu |
US20190097912A1 (en) * | 2017-09-28 | 2019-03-28 | Cisco Technology, Inc. | Weight initialization for random neural network reinforcement learning |
TW201933847A (zh) * | 2018-01-10 | 2019-08-16 | 瑞典商Lm艾瑞克生(Publ)電話公司 | 傳送和接收資料單元 |
CN109687959A (zh) * | 2018-12-29 | 2019-04-26 | 上海唯链信息科技有限公司 | 密钥安全管理系统和方法、介质和计算机程序 |
US20190220703A1 (en) * | 2019-03-28 | 2019-07-18 | Intel Corporation | Technologies for distributing iterative computations in heterogeneous computing environments |
CN110309914A (zh) * | 2019-07-03 | 2019-10-08 | 中山大学 | 基于边缘服务器与移动端设备协同的深度学习模型推理加速方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113868109A (zh) * | 2021-09-30 | 2021-12-31 | 山东云海国创云计算装备产业创新中心有限公司 | 多处理器互连的性能评估的方法、装置、设备及可读介质 |
CN113868109B (zh) * | 2021-09-30 | 2024-04-19 | 山东云海国创云计算装备产业创新中心有限公司 | 多处理器互连的性能评估的方法、装置、设备及可读介质 |
Also Published As
Publication number | Publication date |
---|---|
EP3886383A1 (en) | 2021-09-29 |
US11818648B2 (en) | 2023-11-14 |
US20210297928A1 (en) | 2021-09-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113438707A (zh) | 用于在双连接或多连接配置中路由数据的装置、方法和计算机程序 | |
US11800395B2 (en) | Method, system and device for providing flow control in a split bearer environment | |
CN105900390B (zh) | 链路控制节点、链路控制方法及通信系统 | |
EP2974490B1 (en) | Coordinated multipoint joint transmission with relaxed backhaul requirements | |
CN105814845B (zh) | 软件定义网络中的流量工程框架 | |
CN105264845B (zh) | 数据传输控制节点、通信系统及数据传输管理方法 | |
CN110337121B (zh) | 用于评估聚合的连接的网络性能的方法和系统 | |
CN106537846A (zh) | 通信系统 | |
CN108476091A (zh) | 无线通信网络的用于确定实时媒体流的传输条件的方法、系统和用户设备 | |
JP5926452B2 (ja) | ワイヤレス通信ネットワークのネットワーク要素を運用する方法、およびネットワーク要素 | |
CN112422421B (zh) | 一种异构网络的多路径数据包传输方法 | |
CN109673021B (zh) | 业务时延确定方法 | |
CN105474692B (zh) | 切换控制方法、装置及无线通信网络 | |
US8144649B2 (en) | Communication control apparatus, wireless communication apparatus, communication control method, and wireless communication method | |
Sakr et al. | Handover Management Optimization over LTE-A Network using S1 and X2 handover | |
CN106105282A (zh) | 利用链路缓冲区状态进行流量工程的系统和方法 | |
WO2023016367A1 (zh) | 测量方法和设备 | |
US10582410B2 (en) | Predicting downlink throughput | |
US10911973B2 (en) | Information notification device, information notification method, and recording medium having program recorded thereon | |
JP6223942B2 (ja) | 無線通信環境に応じてアグリゲーション量を変更可能な無線通信装置、無線通信プログラム及び方法 | |
US20160255524A1 (en) | Communication monitoring system, communication monitoring method, and communication monitoring device | |
Kiran et al. | Fault tolerant BeeHive routing in mobile ad-hoc multi-radio network | |
Wang et al. | Dynamic association in IEEE 802.11 based wireless mesh networks | |
KR20210105372A (ko) | 데이터 재전송 지시, 처리 방법 및 장치 | |
JPWO2019146563A1 (ja) | 通信装置、通信システム、通信方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |