CN116963037A - 用户设备、基站及其执行的方法 - Google Patents
用户设备、基站及其执行的方法 Download PDFInfo
- Publication number
- CN116963037A CN116963037A CN202310260780.2A CN202310260780A CN116963037A CN 116963037 A CN116963037 A CN 116963037A CN 202310260780 A CN202310260780 A CN 202310260780A CN 116963037 A CN116963037 A CN 116963037A
- Authority
- CN
- China
- Prior art keywords
- model
- processing mode
- time
- processing
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 130
- 238000012545 processing Methods 0.000 claims abstract description 776
- 230000006870 function Effects 0.000 claims description 330
- 238000011277 treatment modality Methods 0.000 claims description 38
- 238000003860 storage Methods 0.000 claims description 10
- 230000001419 dependent effect Effects 0.000 claims description 4
- 238000013473 artificial intelligence Methods 0.000 description 678
- 230000005540 biological transmission Effects 0.000 description 106
- 238000003672 processing method Methods 0.000 description 76
- 238000004891 communication Methods 0.000 description 36
- 230000008569 process Effects 0.000 description 25
- 238000010586 diagram Methods 0.000 description 18
- 238000012549 training Methods 0.000 description 14
- 238000011282 treatment Methods 0.000 description 13
- 230000011664 signaling Effects 0.000 description 11
- 238000004422 calculation algorithm Methods 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 8
- 230000002829 reductive effect Effects 0.000 description 8
- 238000007906 compression Methods 0.000 description 7
- 230000006835 compression Effects 0.000 description 7
- 125000004122 cyclic group Chemical group 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 6
- 238000002360 preparation method Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000003491 array Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 238000007667 floating Methods 0.000 description 4
- 238000007726 management method Methods 0.000 description 4
- 238000012216 screening Methods 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 230000015556 catabolic process Effects 0.000 description 3
- 238000006731 degradation reaction Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 230000007774 longterm Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 230000009849 deactivation Effects 0.000 description 2
- 230000001934 delay Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000008713 feedback mechanism Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 239000012014 frustrated Lewis pair Substances 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000000638 solvent extraction Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- GSJBKPNSLRKRNR-UHFFFAOYSA-N $l^{2}-stannanylidenetin Chemical compound [Sn].[Sn] GSJBKPNSLRKRNR-UHFFFAOYSA-N 0.000 description 1
- ATJFFYVFTNAWJD-UHFFFAOYSA-N Tin Chemical compound [Sn] ATJFFYVFTNAWJD-UHFFFAOYSA-N 0.000 description 1
- 230000008485 antagonism Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 238000010926 purge Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 238000011269 treatment regimen Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W8/00—Network data management
- H04W8/02—Processing of mobility data, e.g. registration information at HLR [Home Location Register] or VLR [Visitor Location Register]; Transfer of mobility data, e.g. between HLR, VLR or external networks
- H04W8/08—Mobility data transfer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0985—Hyperparameter optimisation; Meta-learning; Learning-to-learn
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W24/00—Supervisory, monitoring or testing arrangements
- H04W24/02—Arrangements for optimising operational condition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W24/00—Supervisory, monitoring or testing arrangements
- H04W24/06—Testing, supervising or monitoring using simulated traffic
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W36/00—Hand-off or reselection arrangements
- H04W36/0005—Control or signalling for completing the hand-off
- H04W36/0011—Control or signalling for completing the hand-off for data sessions of end-to-end connection
- H04W36/0016—Hand-off preparation specially adapted for end-to-end data sessions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W88/00—Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
- H04W88/08—Access point devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/16—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W16/00—Network planning, e.g. coverage or traffic planning tools; Network deployment, e.g. resource partitioning or cells structures
- H04W16/22—Traffic simulation tools or models
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W8/00—Network data management
- H04W8/22—Processing or transfer of terminal data, e.g. status or physical capabilities
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
本公开关于一种用户设备、基站及其执行的方法。由用户设备执行的方法包括:从基站接收处理方式的切换指示信息,其中,所述处理方式与人工智能AI模型有关,接收所述切换指示信息的时间为第一时间;从第二时间开始应用目标处理方式,其中,所述第二时间与以下项中的至少一项有关:所述目标处理方式的特性、源处理方式的特性、所述第一时间。
Description
技术领域
本公开涉及无线通信技术领域,具体而言,本公开涉及一种在无线通信系统中的AI模型的传输方法和设备、以及切换与AI模型有关的处理方式的方法和设备。
背景技术
为了满足自4G通信系统的部署以来增加的对无线数据通信业务的需求,已经努力开发改进的5G或准5G通信系统。因此,5G或准5G通信系统也被称为“超4G网络”或“后LTE系统”。
5G通信系统是在更高频率(毫米波,mmWave)频带,例如60GHz频带,中实施的,以实现更高的数据速率。为了减少无线电波的传播损耗并增加传输距离,在5G通信系统中讨论波束成形、大规模多输入多输出(MIMO)、全维MIMO(FD-MIMO)、阵列天线、模拟波束成形、大规模天线技术。
此外,在5G通信系统中,基于先进的小小区、云无线接入网(RAN)、超密集网络、设备到设备(D2D)通信、无线回程、移动网络、协作通信、协作多点(CoMP)、接收端干扰消除等,正在进行对系统网络改进的开发。
在5G系统中,已经开发作为高级编码调制(ACM)的混合FSK和QAM调制(FQAM)和滑动窗口叠加编码(SWSC)、以及作为高级接入技术的滤波器组多载波(FBMC)、非正交多址(NOMA)和稀疏码多址(SCMA)。
发明内容
本公开提供一种在无线通信系统中的AI模型的传输方法和设备、以及切换与AI模型有关的处理方式的方法和设备,以至少解决相关技术中的问题。
根据本公开实施例的第一方面,提供了一种人工智能AI模型的传输方法,包括:由模型发送方向模型接收方传输与AI模型传输相关的第一信息和/或从所述模型接收方接收与AI模型传输相关的第二信息;由所述模型发送方向所述模型接收方传输至少一个AI模型;由所述模型发送方从所述模型接收方接收关于所述至少一个AI模型的反馈。
可选地,由所述模型发送方向所述模型接收方传输与AI模型传输相关的第一信息的步骤包括:由所述模型发送方向所述模型接收方传输模型属性;和/或,由所述模型发送方从所述模型接收方接收与AI模型传输相关的第二信息的步骤包括:由所述模型发送方从所述模型接收方接收所述模型接收方的固有AI能力和/或模型支持能力。
可选地,所述至少一个AI模型由所述模型发送方在模型属性中进行过指示。
可选地,所述至少一个AI模型是由所述模型发送方根据以下信息中的至少一项选择的:所述模型接收方的固有AI能力、所述模型接收方的模型支持能力、所述模型接收方的模型执行结果和所述模型发送方的自身需求。
可选地,所述模型发送方是基站,所述模型接收方是用户设备,其中,模型属性和/或所述至少一个AI模型通过单播方案、多播方案和广播方案中的一种传输方案从所述模型发送方被传输给所述模型接收方;和/或,所述固有AI能力和/或所述模型支持能力通过单播方案从所述模型接收方被传输给所述模型发送方。
可选地,所述模型发送方是用户设备,所述模型接收方是基站,其中,模型属性和/或所述至少一个AI模型通过单播方案从所述模型发送方被传输给所述模型接收方;和/或,所述固有AI能力通过单播方案、多播方案和广播方案中的一种传输方案从所述模型接收方被传输给所述模型发送方;和/或,所述模型支持能力通过单播方案从所述模型接收方被传输给所述模型发送方。
可选地,如果所述模型发送方根据所述固有AI能力和/或所述模型支持能力确定出由所述模型发送方向所述模型接收方传输的模型属性所指示的AI模型均不适合于所述模型接收方,则由所述模型发送方从所述模型接收方接收新的与AI模型传输相关的第一信息和/或向所述模型接收方传输新的与AI模型传输相关的第二信息;和/或,如果所述模型发送方根据所述反馈确定出所述至少一个AI模型均不适合于所述模型接收方,则由所述模型发送方从所述模型接收方接收新的与AI模型传输相关的第一信息和/或向所述模型接收方传输新的与AI模型传输相关的第二信息,向所述模型接收方传输至少一个其它AI模型,并从所述模型接收方接收关于所述至少一个其它AI模型的反馈。
可选地,所述模型支持能力指示在由所述模型发送方向所述模型接收方传输的模型属性所指示的AI模型中所述模型接收方能够支持的AI模型和/或指示在由模型属性指示的AI模型中所述模型接收方已具有的AI模型。
可选地,所述模型属性包括以下信息中的至少一项:模型复杂度、模型的输入和/或输出、模型的适用范围、模型的传输方案和/或时频资源指示,其中,所述时频资源指示用于标识传输模型的时频资源;其中,模型的适用范围包括模型适用的小区范围和/或模型适用的SNR范围,所述模型适用的小区范围由邻区列表和/或跨小区的模型id标识来指示。
可选地,所述固有AI能力包括以下信息中的至少一项:算力等级、支持接收并部署AI模型以实现相应通信任务的模块和/或功能、每个所述模块和/或功能最多支持同时部署AI模型的数量、支持单个AI模型的大小上限、同时部署的AI模型总大小上限、是否支持接收辅助模型、以及是否支持反馈原始数据。
可选地,由所述模型发送方从所述模型接收方接收关于所述至少一个AI模型的反馈的步骤包括:由所述模型发送方从所述模型接收方接收关于所述至少一个AI模型是否被正确执行和/或所述至少一个AI模型的执行效率的反馈。
根据本公开实施例的第二方面,提供了一种人工智能AI模型的接收方法,包括:由模型接收方从模型发送方接收与AI模型传输相关的第一信息和/或向所述模型发送方传输与AI模型传输相关的第二信息;由所述模型接收方从所述模型发送方接收至少一个AI模型;由所述模型接收方向所述模型发送方传输关于所述至少一个AI模型的反馈。
可选地,由所述模型接收方从所述模型发送方接收与AI模型传输相关的第一信息的步骤包括:由所述模型接收方从所述模型发送方接收模型属性;和/或,由所述模型接收方向所述模型发送方传输与AI模型传输相关的第二信息的步骤包括:由所述模型接收方向所述模型发送方传输所述模型接收方的固有AI能力和/或模型支持能力。
可选地,所述至少一个AI模型由所述模型发送方在模型属性中进行过指示。
可选地,所述至少一个AI模型是由所述模型发送方根据以下信息中的至少一项选择的:所述模型接收方的固有AI能力、所述模型接收方的模型支持能力、所述模型接收方的模型执行结果和所述模型发送方的自身需求。
可选地,所述模型发送方是基站,所述模型接收方是用户设备,其中,模型属性和/或所述至少一个AI模型通过单播方案、多播方案和广播方案中的一种传输方案从所述模型发送方被传输给所述模型接收方;和/或,所述固有AI能力和/或所述模型支持能力通过单播方案从所述模型接收方被传输给所述模型发送方。
可选地,所述模型发送方是用户设备,所述模型接收方是基站,其中,模型属性和/或所述至少一个AI模型通过单播方案从所述模型发送方被传输给所述模型接收方;和/或,所述固有AI能力通过单播方案、多播方案和广播方案中的一种传输方案从所述模型接收方被传输给所述模型发送方;和/或,所述模型支持能力通过单播方案从所述模型接收方被传输给所述模型发送方。
可选地,如果所述模型发送方根据所述固有AI能力和/或所述模型支持能力确定出由所述模型接收方从所述模型接收方接收的模型属性所指示的AI模型均不适合于所述模型接收方,则由所述模型接收方从所述模型发送方接收新的与AI模型传输相关的第一信息和/或向所述模型发送方传输新的与AI模型传输相关的第二信息;和/或,如果所述模型发送方根据所述反馈确定出所述至少一个AI模型均不适合于所述模型接收方,则由所述模型接收方从所述模型发送方接收新的与AI模型传输相关的第一信息和/或向所述模型发送方传输新的与AI模型传输相关的第二信息,从所述模型发送方接收至少一个其它AI模型,并向所述模型发送方传输关于所述至少一个其它AI模型的反馈。
可选地,所述模型支持能力指示在由所述模型接收方从所述模型发送方接收的模型属性所指示的AI模型中所述模型接收方能够支持的AI模型和/或指示在由模型属性指示的AI模型中所述模型接收方已具有的AI模型。
可选地,所述模型属性包括以下信息中的至少一项:模型复杂度、模型的输入和/或输出、模型的适用范围、模型的传输方案和/或时频资源指示,其中,所述时频资源指示用于标识传输模型的时频资源;其中,模型的适用范围包括模型适用的小区范围和/或模型适用的SNR范围,所述模型适用的小区范围由邻区列表和/或跨小区的模型id标识来指示。
可选地,所述固有AI能力包括以下信息中的至少一项:算力等级、支持接收并部署AI模型以实现相应通信任务的模块和/或功能、每个所述模块和/或功能最多支持同时部署AI模型的数量、支持单个AI模型的大小上限、同时部署的AI模型总大小上限、是否支持接收辅助模型、以及是否支持反馈原始数据。
可选地,由所述模型接收方向所述模型发送方传输关于所述至少一个AI模型的反馈的步骤包括:由所述模型接收方向所述模型发送方传输关于所述至少一个AI模型是否被正确执行和/或所述至少一个AI模型的执行效率的反馈。
根据本公开实施例的第三方面,提供了一种模型发送方设备,包括:收发器;至少一个处理器,与所述收发器耦接并被配置为执行上述传输方法。
根据本公开实施例的第四方面,提供了一种模型接收方设备,包括:收发器;至少一个处理器,与所述收发器耦接并被配置为执行上述接收方法。
根据本公开实施例的第五方面,提供了一种由用户设备UE执行的方法,包括:从基站接收处理方式的切换指示信息,其中,所述处理方式与人工智能AI模型有关,接收所述切换指示信息的时间为第一时间;从第二时间开始应用目标处理方式,其中,所述第二时间与以下项中的至少一项有关:所述目标处理方式的特性、源处理方式的特性、所述第一时间。
可选地,所述目标处理方式和/或所述源处理方式的特性包括以下项中的至少一项:与所述目标处理方式相关的AI模型的大小和/或与所述源处理方式相关的AI模型的大小;与所述目标处理方式相关的AI模型的数量和/或与所述源处理方式相关的AI模型的数量;所述目标处理方式是否属于第一集合;所述源处理方式是否属于第二集合;与所述目标处理方式相关的AI模型的结构和/或与所述源处理方式相关的AI模型的结构;所述目标处理方式和/或所述源处理方式在第一切换序列中的位置;以及与所述目标处理方式相关的功能的个数和/或与所述源处理方式相关的功能的个数。
可选地,所述第一集合和/或所述第二集合是基站指示的或预设的。
可选地,所述第一切换序列关联以下项中的至少一项:基站指示的切换序列;所述UE上报的切换序列;以及预设的切换序列。
可选地,所述方法还包括:当第一条件被满足时,在第三时间去激活所述源处理方式,其中,所述第三时间在所述第二时间之前。
可选地,所述方法还包括:在所述第三时间至所述第二时间之间应用第一处理方式。
可选地,所述第一条件包括以下项中的至少一项:与所述源处理方式相关的AI模型的大小不小于第一阈值和/或与所述目标处理方式相关的AI模型的大小不小于第二阈值;与所述源处理方式相关的AI模型和与所述目标处理方式相关的AI模型的大小总和不小于第三阈值;所述UE在第一时间已被占用的处理资源不小于第四阈值和/或与所述目标处理方式相关的AI模型的大小不小于第五阈值;与所述源处理方式相关的AI模型和与所述目标处理方式相关的AI模型的结构相同;所述源处理方式的相关性能参数值不高于第六阈值;以及所述第二时间与所述第一时间的差值不小于第七阈值。
可选地,所述第一处理方式是由基站指示的或预设的。
可选地,所述第三时间与以下项中的至少一项有关:所述第一处理方式的特性、所述源处理方式的特性、以及所述第一时间。
可选地,所述第一处理方式的特性包括以下项中的至少一项:与所述第一处理方式相关的AI模型的大小;与所述第一处理方式相关的AI模型的数量;所述第一处理处理方式是否属于第一集合;与所述第一处理处理方式相关的AI模型的结构;
所述第一处理处理方式在第一切换序列中的位置;以及与所述第一处理方式相关的功能的个数。
可选地,所述方法还包括:确定与多个功能相关的所述目标处理方式,其中,所述目标处理方式是所述多个功能的处理方式的组合,其中,所述目标处理方式与以下项中的至少一项有关:所述切换指示信息、以及第一切换序列。
可选地,所述方法还包括:当所述目标处理方式是多个功能的处理方式的组合,并且第二条件满足时,从所述第二时间开始同时应用与所述多个功能相关的所述目标处理方式中的每个功能的处理方式,其中,所述第二时间与所述多个功能分别切换时所需的切换时延、第一时延、中断时间中的至少一项有关。其中,每个功能单独切换时所需的切换时延表示该功能应用相应的目标处理方式的时间与第一时间之间的时间差,换句话说,每个功能单独切换时所需的切换时延表示该功能在第一时间之后经过多长时间开始应用相应的目标处理方式;每个功能切换时所需的第一时延表示该功能去激活相应的源处理方式的时间与第一时间之间的时间差,换句话说,每个功能单独切换时所需的第一时延表示该功能在第一时间之后经过多长时间去激活相应的源处理方式;每个功能切换时所需的中断时间该功能表示应用相应的目标处理方式的时间与去激活相应的源处理方式的时间之间的时间差,换句话说,每个功能单独切换时所需的中断时间表示该功能在去激活相应的源处理方式之后经过多长时间开始应用相应的目标处理方式。
可选地,所述方法还包括:当所述目标处理方式是多个功能的处理方式的组合,并且第三条件满足时,从第三时间开始同时去激活所述多个功能的源处理方式,其中,所述第三时间与所述多个功能分别切换时所需的第一时延有关。
可选地,所述第一切换序列包括一个功能的不同处理方式,所述第一切换序列中的每个元素包括该功能的一种处理方式,在所述第一切换序列中,基于AI模型的处理方式由AI模型的模型ID、者模型ID组合或者配置ID表示,非AI的处理方式由空集或者非AI方式的配置ID表示。
可选地,所述第一切换序列包括多个功能的不同处理方式,第一切换序列中的每个元素包括所述多个功能的处理方式的一种组合,在所述第一切换序列中,基于AI模型的处理方式由AI模型的模型ID、模型ID组合或者配置ID表示,非AI的处理方式由空集或者非AI方式的配置ID表示。
可选地,所述第一切换序列中的每个元素还包括:与该元素所指示的处理方式相关的切换条件。
可选地,所述第一切换序列中元素的排序是由以下项中的至少一项决定的:基站指示的顺序;预设的顺序;以及处理方式的特性。
可选地,处理方式的特性包括以下项中的至少一项:与处理方式相关的AI模型的大小;与处理方式相关的AI模型的数量;与处理方式相关的AI模型的复杂度;以及处理方式的适用条件,其中,处理方式的适用条件包括以下项中的至少一项:小区范围、信噪比SNR范围、移动速度、多普勒扩展范围、以及时延扩展范围。
可选地,确定与多个功能相关的所述目标处理方式的步骤包括:当所述切换指示信息与第一切换序列中元素的位置编号相关时,根据第一切换序列中的相应元素确定与多个功能相关的所述目标处理方式;当所述切换指示信息只包含与第一功能相关的第一目标处理方式时,根据第一目标处理方式和第一切换序列确定与第二功能相关的第二目标处理方式。
可选地,根据第一目标处理方式和第一切换序列确定与第二功能相关的第二目标处理方式的步骤包括以下项中的至少一项:当第一切换序列中不存在同时包含了第二功能在第一时间的处理方式和第一目标处理方式的元素时,第二目标处理方式是第一切换序列中第一个包含第一目标处理方式的元素所指示的对应的第二功能的处理方式;当第四条件满足时,第二目标处理方式是第二处理方式,其中,第二处理方式是最后一次通过信令指示的第二功能的处理方式,其中,第四条件是第一切换序列中存在同时包含第二处理方式和第一目标处理方式的元素。
可选地,所述目标处理方式和/或所述源处理方式在所述第一切换序列中的位置满足以下项中的至少一项:所述目标处理方式是第一切换序列中位于所述源处理方式之后的N1个处理方式之一;所述目标处理方式是第一切换序列中位于所述源处理方式之后的满足切换条件的N2个处理方式之一;所述目标处理方式是第一切换序列中与所述源处理方式相邻的N3个处理方式之一;所述目标处理方式是第一切换序列中与所述源处理方式相邻的满足切换条件的N4个处理方式之一;所述目标处理方式是第一切换序列中前N5个处理方式之一;所述目标处理方式是第一切换序列中满足切换条件的前N6个处理方式之一;所述目标处理方式是所述UE从第一切换序列中选择上报的N7个处理方式之一;其中,N1至N7中至少一项是预设的,或者是AI模型的大小相关的数量。
根据本公开实施例的第六方面,提供了一种由基站执行的方法,包括:向用户设备UE发送处理方式的切换指示信息,其中,所述处理方式与AI模型有关,所述UE接收所述切换指示信息的时间为第一时间,其中,所述UE从第二时间开始应用目标处理方式,其中,所述第二时间与以下项中的至少一项有关:所述目标处理方式的特性、源处理方式的特性、所述第一时间。
可选地,所述目标处理方式和/或所述源处理方式的特性包括以下项中的至少一项:与所述目标处理方式相关的AI模型的大小和/或与所述源处理方式相关的AI模型的大小;与所述目标处理方式相关的AI模型的数量和/或与所述源处理方式相关的AI模型的数量;所述目标处理方式是否属于第一集合;所述源处理方式是否属于第二集合;与所述目标处理方式相关的AI模型的结构和/或与所述源处理方式相关的AI模型的结构;所述目标处理方式和/或所述源处理方式在第一切换序列中的位置;以及与所述目标处理方式相关的功能的个数和/或与所述源处理方式相关的功能的个数。
可选地,所述第一集合和/或所述第二集合是所述基站指示的或预设的。
可选地,所述方法还包括:向所述UE指示切换序列;从所述UE接收上报的切选序列。
可选地,所述第一切换序列关联以下项中的至少一项:所述基站指示的切换序列;所述UE上报的切换序列;以及预设的切换序列。
可选地,所述方法还包括:向所述UE指示第一处理方式,其中,当第一条件被满足时,所述UE在第三时间去激活所述源处理方式,并在所述第三时间至所述第二时间之间应用所述第一处理方式。
可选地,所述第一条件包括以下项中的至少一项:与所述源处理方式相关的AI模型的大小不小于第一阈值和/或与所述目标处理方式相关的AI模型的大小不小于第二阈值;与所述源处理方式相关的AI模型和与所述目标处理方式相关的AI模型的大小总和不小于第三阈值;所述UE在第一时间已被占用的处理资源不小于第四阈值和/或与所述目标处理方式相关的AI模型的大小不小于第五阈值;与所述源处理方式相关的AI模型和与所述目标处理方式相关的AI模型的结构相同;所述源处理方式的相关性能参数值不高于第六阈值;以及所述第二时间与所述第一时间的差值不小于第七阈值。
可选地,所述第三时间与以下项中的至少一项有关:所述第一处理方式的特性、所述源处理方式的特性、以及所述第一时间。
可选地,所述第一处理方式的特性包括以下项中的至少一项:与所述第一处理方式相关的AI模型的大小;与所述第一处理方式相关的AI模型的数量;所述第一处理处理方式是否属于第一集合;与所述第一处理处理方式相关的AI模型的结构;所述第一处理处理方式在第一切换序列中的位置;以及与所述第一处理方式相关的功能的个数。
可选地,所述第一切换序列包括一个功能的不同处理方式,所述第一切换序列中的每个元素包括该功能的一种处理方式,在所述第一切换序列中,基于AI模型的处理方式由AI模型的模型ID、模型ID组合或配置ID表示,非AI的处理方式由空集或者非AI方式的配置ID表示。
可选地,所述第一切换序列包括多个功能的不同处理方式,第一切换序列中的每个元素包括所述多个功能的处理方式的一种组合,在所述第一切换序列中,基于AI模型的处理方式由AI模型的模型ID、模型ID组合或配置ID表示,非AI的处理方式由空集或者非AI方式的配置ID表示。
可选地,所述第一切换序列中的每个元素还包括:与该元素所指示的处理方式相关的切换条件。
可选地,所述第一切换序列中元素的排序是由以下项中的至少一项决定的:基站指示的顺序;预设的顺序;以及处理方式的特性。
可选地,处理方式的特性包括以下项中的至少一项:与处理方式相关的AI模型的大小;与处理方式相关的AI模型的数量;与处理方式相关的AI模型的复杂度;以及处理方式的适用条件,其中,处理方式的适用条件包括以下项中的至少一项:小区范围、SNR范围、移动速度、多普勒扩展范围、以及时延扩展范围。
可选地,所述目标处理方式和/或所述源处理方式在所述第一切换序列中的位置满足以下项中的至少一项:所述目标处理方式是第一切换序列中位于所述源处理方式之后的N1个处理方式之一;所述目标处理方式是第一切换序列中位于所述源处理方式之后的满足切换条件的N2个处理方式之一;所述目标处理方式是第一切换序列中与所述源处理方式相邻的N3个处理方式之一;所述目标处理方式是第一切换序列中与所述源处理方式相邻的满足切换条件的N4个处理方式之一;所述目标处理方式是第一切换序列中前N5个处理方式之一;所述目标处理方式是第一切换序列中满足切换条件的前N6个处理方式之一;所述目标处理方式是所述UE从第一切换序列中选择上报的N7个处理方式之一;其中,N1至N7中至少一项是预设的,或者是AI模型的大小相关的数量。
根据本公开实施例的第七方面,提供了一种用户设备,包括:收发器;至少一个处理器,与所述收发器耦接并被配置为执行如上所述的由UE执行的方法。
根据本公开实施例的第八方面,提供了一种基站,包括:收发器;至少一个处理器,与所述收发器耦接并被配置为执行如上所述的由基站执行的方法。
根据本公开实施例的第九方面,提供了一种电子设备,包括:至少一个处理器;以及至少一个存储计算机可执行指令的存储器,其中,所述计算机可执行指令在被所述至少一个处理器运行时,促使所述至少一个处理器执行如上所述的任何方法。
根据本公开实施例的第十方面,提供了一种存储指令的计算机可读存储介质,其特征在于,当所述指令被至少一个处理器运行时,促使所述至少一个处理器执行如上所述的任何方法。
本公开的实施例提供的AI传输和接收方案至少带来以下有益效果:通过将模型属性和具体的AI模型(即模型本身)分开传输,有利于BS和UE之间初步筛选适用模型,减少传递模型本身的开销,即不仅可减少资源开销,还可以减少功耗开销;另外,通过模型发送方向模型接收方指示模型属性、模型接收方向模型发送方表达其AI能力(即固有AI能力和/或模型支持能力),可以预判模型接收方支持哪些模型、当前情况更适合传递哪些模型、不需要传递哪些模型,这样就筛选出了需要传递的模型,不仅可降低传输模型的开销,还可以缩短使用AI模型的准备流程(换句话说,缩短启用AI模型前的准备时间);此外,对于模型发送方是BS的情况,通过这样的模型筛选以及经验数据(例如长期的、大多数UE的固有AI能力和模型的使用反馈情况)的获取,BS可以选择更适合的传输方式(广播/单播/多播)来进行模型的传输,进一步降低传输模型的开销;另外,通过在模型传递之后,模型接收方向模型发送方反馈实际的模型执行情况,以确保后续模型的正常使用并达到执行上的预期。
本公开的实施例提供的与AI模型有关的处理方式的切换方案可至少带来以下有益效果:通过在第二时间应用目标处理方式,可有效地降低切换时延;通过在第三时间与第二时间之间(即中断时间)应用第一处理方式(即回退方案),可实现中断时间内的快速切换;UE可根据第一切换序列提供的信息提前准备AI模型,从而降低切换时延,并且UE可根据第一切换序列提供的信息规避AI冲突/兼容性问题;此外,UE可通过上报切换序列来更新第一切换序列,进而避免AI冲突或者兼容性问题;当UE中存在多个功能采用或者有可能采用基于AI的处理方式时,可通过联动切换避免AI冲突和/或兼容性问题,并且可在多个功能中的第二功能因为更高优先级的功能占用AI处理资源而联动降级时,让第二功能从联动降级中快速恢复到优选的处理方式。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的示例实施例,并与说明书一起用于解释本公开的原理,并不构成对本公开的不当限定。
图1示出了根据本公开的各种实施例的示例无线网络100。
图2a和图2b示出了根据本公开的示例无线发送和接收路径。
图3a示出了根据本公开的示例UE 116。
图3b示出了根据本公开的示例gNB 102。
图4示出了基于AI的CSI反馈的模型部署情况。
图5示出了根据本公开的示例性实施例的AI模型的传输方法的流程图。
图6示出了根据本公开的示例性实施例的模型属性指示结构的一个示例;
图7示出了根据本公开的模型/模型集合之间的相互关系。
图8示出了根据本公开的示例性实施例的AI模型的接收方法的流程图。
图9是示出了根据本公开的示例性实施例的由BS传输模型给UE的一个示例的流程图。
图10是示出了根据本公开的示例性实施例的由BS传输模型给UE的另一个示例的流程图。
图11是示出了根据本公开的示例性实施例的由BS传输模型给UE的另一个示例的流程图。
图12是示出了根据本公开的实施例的由BS传输模型给UE的另一个示例的流程图。
图13是示出了根据本公开的示例性实施例的由UE传输模型给BS的一个示例的流程图;
图14a是示出现有技术中的模型切换时间线的示图;
图14b是示出AI模型在切换过程中的潜在冲突的示图;
图15是示出根据本公开的示例性实施例的由UE执行的方法的流程图。
图16a是示出根据本公开的示例性实施例的处理方式切换时间线的示图;
图16b是示出根据本公开的示例性实施例的针对中断时间的第一处理方式(即快速回退方案)的示图;
图16c是示出根据本公开的示例性实施例的针对中断时间应用第一处理方式(即快速回退方案)的示图;
图16d是示出根据本公开的示例性实施例的切换序列的示图;
图17是示出根据本公开的示例性实施例的切换处理方式的示例示意图;
图18是示出根据本公开的示例性实施例的AI模型排序的示例示意图;
图19是示出根据本公开的示例性实施例的切换序列的示意图;
图20是示出根据本公开的示例性实施例的针对多个功能的处理方式的切换时间线的示图;
图21是示出根据本公开的另一示例性实施例的针对多个功能的处理方式的切换时间线的示图;
图22是示出根据本公开的示例性实施例的由基站执行的方法的流程图;
图23是示出根据本公开的示例性实施例的切换与AI模型有关的处理方式的过程的信号流程图。
图24是示出了根据本公开的实施例的模型发送方设备的框图。
图25是示出了根据本公开的示例性实施例的模型接收方设备的框图。
图26是示出跟据本公开示例性实施例的电子设备的框图。
具体实施方式
提供下列参考附图的描述以有助于对通过权利要求及其等效物定义的本公开的各种实施例的全面理解。本描述包括各种具体细节以有助于理解但是仅应当被认为是示例性的。因此,本领域普通技术人员将认识到,能够对这里描述的各种实施例进行各种改变和修改而不脱离本公开的范围与精神。此外,为了清楚和简明起见,可以略去对公知功能与结构的描述。
在下面说明书和权利要求书中使用的术语和措词不局限于它们的词典意义,而是仅仅由发明人用于使得能够对于本公开清楚和一致的理解。因此,对本领域技术人员来说应当明显的是,提供以下对本公开的各种实施例的描述仅用于图示的目的而非限制如所附权利要求及其等效物所定义的本公开的目的。
应当理解,单数形式的“一”、“一个”和“该”包括复数指代,除非上下文清楚地指示不是如此。因此,例如,对“部件表面”的指代包括指代一个或多个这样的表面。
术语“包括”或“可以包括”指的是可以在本公开的各种实施例中使用的相应公开的功能、操作或组件的存在,而不是限制一个或多个附加功能、操作或特征的存在。此外,术语“包括”或“具有”可以被解释为表示某些特性、数字、步骤、操作、构成元件、组件或其组合,但是不应被解释为排除一个或多个其它特性、数字、步骤、操作、构成元件、组件或其组合的存在可能性。
在本公开的各种实施例中使用的术语“或”包括任意所列术语及其所有组合。例如,“A或B”可以包括A、可以包括B、或者可以包括A和B二者。
除非不同地定义,本公开使用的所有术语(包括技术术语或科学术语)具有本公开所述的本领域技术人员理解的相同含义。如在词典中定义的通常术语被解释为具有与在相关技术领域中的上下文一致的含义,而且不应理想化地或过分形式化地对其进行解释,除非本公开中明确地如此定义。
以下讨论的图1至图15以及用于描述本专利文档中的本公开的原理的各种实施例仅作为说明,并且不应以任何方式解释为限制本公开的范围。本领域技术人员将理解,本公开的原理可以在任何适当布置的系统或设备中实施。
图1示出了根据本公开的各种实施例的示例无线网络100。图1中所示的无线网络100的实施例仅用于说明。能够使用无线网络100的其他实施例而不脱离本公开的范围。
无线网络100包括gNodeB(gNB)101、gNB 102和gNB 103。gNB 101与gNB102和gNB103通信。gNB101还与至少一个互联网协议(IP)网络130(诸如互联网、专有IP网络或其他数据网络)通信。
取决于网络类型,能够取代“gNodeB”或“gNB”而使用其他众所周知的术语,诸如“基站”或“接入点”。为方便起见,术语“gNodeB”和“gNB”在本专利文件中用来指代为远程终端提供无线接入的网络基础设施组件。并且,取决于网络类型,能够取代“用户设备”或“UE”而使用其他众所周知的术语,诸如“移动台”、“用户台”、“远程终端”、“无线终端”或“用户装置”。为了方便起见,术语“用户设备”和“UE”在本专利文件中用来指代无线接入gNB的远程无线设备,无论UE是移动设备(诸如,移动电话或智能电话)还是通常所认为的固定设备(诸如桌上型计算机或自动售货机)。
gNB102为gNB102的覆盖区域120内的第一多个用户设备(UE)提供对网络130的无线宽带接入。第一多个UE包括:UE111,可以位于小型企业(SB)中;UE 112,可以位于企业(E)中;UE 113,可以位于WiFi热点(HS)中;UE 114,可以位于第一住宅(R)中;UE115,可以位于第二住宅(R)中;UE 116,可以是移动设备(M),如蜂窝电话、无线膝上型计算机、无线PDA等。gNB103为gNB103的覆盖区域125内的第二多个UE提供对网络130的无线宽带接入。第二多个UE包括UE115和UE116。在一些实施例中,gNB 101-103中的一个或多个能够使用5G、长期演进(LTE)、LTE-A、WiMAX或其他高级无线通信技术彼此通信以及与UE 111-116通信。
虚线示出覆盖区域120和125的近似范围,所述范围被示出为近似圆形仅仅是出于说明和解释的目的。应该清楚地理解,与gNB相关联的覆盖区域,诸如覆盖区域120和125,能够取决于gNB的配置和与自然障碍物和人造障碍物相关联的无线电环境的变化而具有其他形状,包括不规则形状。
如下面更详细描述的,gNB 101、gNB 102和gNB 103中的一个或多个包括如本公开的实施例中所描述的2D天线阵列。在一些实施例中,gNB 101、gNB 102和gNB 103中的一个或多个支持用于具有2D天线阵列的系统的码本设计和结构。
尽管图1示出了无线网络100的一个示例,但是能够对图1进行各种改变。例如,无线网络100能够包括任何合适布置的任何数量的gNB和任何数量的UE。并且,gNB 101能够与任何数量的UE直接通信,并且向那些UE提供对网络130的无线宽带接入。类似地,每个gNB102-103能够与网络130直接通信并且向UE提供对网络130的直接无线宽带接入。此外,gNB101、102和/或103能够提供对其他或附加外部网络(诸如外部电话网络或其他类型的数据网络)的接入。
图2a和图2b示出了根据本公开的示例无线发送和接收路径。在以下描述中,发送路径200能够被描述为在gNB(诸如gNB 102)中实施,而接收路径250能够被描述为在UE(诸如UE 116)中实施。然而,应该理解,接收路径250能够在gNB中实施,并且发送路径200能够在UE中实施。在一些实施例中,接收路径250被配置为支持用于具有如本公开的实施例中所描述的2D天线阵列的系统的码本设计和结构。
发送路径200包括信道编码和调制块205、串行到并行(S到P)块210、N点快速傅里叶逆变换(IFFT)块215、并行到串行(P到S)块220、添加循环前缀块225、和上变频器(UC)230。接收路径250包括下变频器(DC)255、移除循环前缀块260、串行到并行(S到P)块265、N点快速傅立叶变换(FFT)块270、并行到串行(P到S)块275、以及信道解码和解调块280。
在发送路径200中,信道编码和调制块205接收一组信息比特,应用编码(诸如低密度奇偶校验(LDPC)编码),并调制输入比特(诸如利用正交相移键控(QPSK)或正交幅度调制(QAM))以生成频域调制符号的序列。串行到并行(S到P)块210将串行调制符号转换(诸如,解复用)为并行数据,以便生成N个并行符号流,其中N是在gNB102和UE116中使用的IFFT/FFT点数。N点IFFT块215对N个并行符号流执行IFFT运算以生成时域输出信号。并行到串行块220转换(诸如复用)来自N点IFFT块215的并行时域输出符号,以便生成串行时域信号。添加循环前缀块225将循环前缀插入时域信号。上变频器230将添加循环前缀块225的输出调制(诸如上变频)为RF频率,以经由无线信道进行传输。在变频到RF频率之前,还能够在基带处对信号进行滤波。
从gNB 102发送的RF信号在经过无线信道之后到达UE 116,并且在UE116处执行与gNB102处的操作相反的操作。下变频器255将接收信号下变频为基带频率,并且移除循环前缀块260移除循环前缀以生成串行时域基带信号。串行到并行块265将时域基带信号转换为并行时域信号。N点FFT块270执行FFT算法以生成N个并行频域信号。并行到串行块275将并行频域信号转换为调制数据符号的序列。信道解码和解调块280对调制符号进行解调和解码,以恢复原始输入数据流。
gNB 101-103中的每一个可以实施类似于在下行链路中向UE 111-116进行发送的发送路径200,并且可以实施类似于在上行链路中从UE 111-116进行接收的接收路径250。类似地,UE 111-116中的每一个可以实施用于在上行链路中向gNB 101-103进行发送的发送路径200,并且可以实施用于在下行链路中从gNB 101-103进行接收的接收路径250。
图2a和图2b中的组件中的每一个能够仅使用硬件来实施,或使用硬件和软件/固件的组合来实施。作为特定示例,图2a和图2b中的组件中的至少一些可以用软件实施,而其他组件可以通过可配置硬件或软件和可配置硬件的混合来实施。例如,FFT块270和IFFT块215可以实施为可配置的软件算法,其中可以根据实施方式来修改点数N的值。
此外,尽管描述为使用FFT和IFFT,但这仅是说明性的,并且不应解释为限制本公开的范围。能够使用其他类型的变换,诸如离散傅立叶变换(DFT)和离散傅里叶逆变换(IDFT)函数。应当理解,对于DFT和IDFT函数而言,变量N的值可以是任何整数(诸如1、2、3、4等),而对于FFT和IFFT函数而言,变量N的值可以是作为2的幂的任何整数(诸如1、2、4、8、16等)。
尽管图2a和图2b示出了无线发送和接收路径的示例,但是可以对图2a和图2b进行各种改变。例如,图2a和图2b中的各种组件能够被组合、进一步细分或省略,并且能够根据特定需要添加附加组件。而且,图2a和图2b旨在示出能够在无线网络中使用的发送和接收路径的类型的示例。任何其他合适的架构能够用于支持无线网络中的无线通信。
图3a示出了根据本公开的示例UE 116。图3a中示出的UE 116的实施例仅用于说明,并且图1的UE 111-115能够具有相同或相似的配置。然而,UE具有各种各样的配置,并且图3a不将本公开的范围限制于UE的任何特定实施方式。
UE 116包括天线305、射频(RF)收发器310、发送(TX)处理电路315、麦克风320和接收(RX)处理电路325。UE 116还包括扬声器330、处理器/控制器340、输入/输出(I/O)接口345、(多个)输入设备350、显示器355和存储器360。存储器360包括操作系统(OS)361和一个或多个应用362。
RF收发器310从天线305接收由无线网络100的gNB发送的传入RF信号。RF收发器310将传入RF信号进行下变频以生成中频(IF)或基带信号。IF或基带信号被发送到RX处理电路325,其中RX处理电路325通过对基带或IF信号进行滤波、解码和/或数字化来生成经处理的基带信号。RX处理电路325将经处理的基带信号发送到扬声器330(诸如对于语音数据)或发送到处理器/控制器340(诸如对于网络浏览数据)以进行进一步处理。
TX处理电路315从麦克风320接收模拟或数字语音数据,或从处理器/控制器340接收其他传出基带数据(诸如网络数据、电子邮件或交互式视频游戏数据)。TX处理电路315编码、复用、和/或数字化传出基带数据以生成经处理的基带或IF信号。RF收发器310从TX处理电路315接收传出的经处理的基带或IF信号,并将所述基带或IF信号上变频为经由天线305发送的RF信号。
处理器/控制器340能够包括一个或多个处理器或其他处理设备,并执行存储在存储器360中的OS 361,以便控制UE 116的总体操作。例如,处理器/控制器340能够根据公知原理通过RF收发器310、RX处理电路325和TX处理电路315来控制正向信道信号的接收和反向信道信号的发送。在一些实施例中,处理器/控制器340包括至少一个微处理器或微控制器。
处理器/控制器340还能够执行驻留在存储器360中的其他过程和程序,诸如用于具有如本公开的实施例中描述的2D天线阵列的系统的信道质量测量和报告的操作。处理器/控制器340能够根据执行过程的需要将数据移入或移出存储器360。在一些实施例中,处理器/控制器340被配置为基于OS361或响应于从gNB或运营商接收的信号来执行应用362。处理器/控制器340还耦合到I/O接口345,其中I/O接口345为UE 116提供连接到诸如膝上型计算机和手持计算机的其他设备的能力。I/O接口345是这些附件和处理器/控制器340之间的通信路径。
处理器/控制器340还耦合到(多个)输入设备350和显示器355。UE 116的操作者能够使用(多个)输入设备350将数据输入到UE 116中。显示器355可以是液晶显示器或能够呈现文本和/或至少(诸如来自网站的)有限图形的其他显示器。存储器360耦合到处理器/控制器340。存储器360的一部分能够包括随机存取存储器(RAM),而存储器360的另一部分能够包括闪存或其他只读存储器(ROM)。
尽管图3a示出了UE 116的一个示例,但是能够对图3a进行各种改变。例如,图3a中的各种组件能够被组合、进一步细分或省略,并且能够根据特定需要添加附加组件。作为特定示例,处理器/控制器340能够被划分为多个处理器,诸如一个或多个中央处理单元(CPU)和一个或多个图形处理单元(GPU)。而且,虽然图3a示出了配置为移动电话或智能电话的UE116,但是UE能够被配置为作为其他类型的移动或固定设备进行操作。
图3b示出了根据本公开的示例gNB 102。图3b中所示的gNB 102的实施例仅用于说明,并且图1的其他gNB能够具有相同或相似的配置。然而,gNB具有各种各样的配置,并且图3b不将本公开的范围限制于gNB的任何特定实施方式。应注意,gNB 101和gNB 103能够包括与gNB 102相同或相似的结构。
如图3b中所示,gNB 102包括多个天线370a-370n、多个RF收发器372a-372n、发送(TX)处理电路374和接收(RX)处理电路376。在某些实施例中,多个天线370a-370n中的一个或多个包括2D天线阵列。gNB 102还包括控制器/处理器378、存储器380和回程或网络接口382。
RF收发器372a-372n从天线370a-370n接收传入RF信号,诸如由UE或其他gNB发送的信号。RF收发器372a-372n对传入RF信号进行下变频以生成IF或基带信号。IF或基带信号被发送到RX处理电路376,其中RX处理电路376通过对基带或IF信号进行滤波、解码和/或数字化来生成经处理的基带信号。RX处理电路376将经处理的基带信号发送到控制器/处理器378以进行进一步处理。
TX处理电路374从控制器/处理器378接收模拟或数字数据(诸如语音数据、网络数据、电子邮件或交互式视频游戏数据)。TX处理电路374对传出基带数据进行编码、复用和/或数字化以生成经处理的基带或IF信号。RF收发器372a-372n从TX处理电路374接收传出的经处理的基带或IF信号,并将所述基带或IF信号上变频为经由天线370a-370n发送的RF信号。
控制器/处理器378能够包括控制gNB 102的总体操作的一个或多个处理器或其他处理设备。例如,控制器/处理器378能够根据公知原理通过RF收发器372a-372n、RX处理电路376和TX处理电路374来控制前向信道信号的接收和后向信道信号的发送。控制器/处理器378也能够支持附加功能,诸如更高级的无线通信功能。例如,控制器/处理器378能够执行诸如通过盲干扰感测(BIS)算法执行的BIS过程,并且对被减去干扰信号的接收信号进行解码。控制器/处理器378可以在gNB 102中支持各种各样的其他功能中的任何一个。在一些实施例中,控制器/处理器378包括至少一个微处理器或微控制器。
控制器/处理器378还能够执行驻留在存储器380中的程序和其他过程,诸如基本OS。控制器/处理器378还能够支持用于具有如本公开的实施例中所描述的2D天线阵列的系统的信道质量测量和报告。在一些实施例中,控制器/处理器378支持在诸如web RTC的实体之间的通信。控制器/处理器378能够根据执行过程的需要将数据移入或移出存储器380。
控制器/处理器378还耦合到回程或网络接口382。回程或网络接口382允许gNB102通过回程连接或通过网络与其他设备或系统通信。回程或网络接口382能够支持通过任何合适的(多个)有线或无线连接的通信。例如,当gNB 102被实施为蜂窝通信系统(诸如支持5G或新无线电接入技术或NR、LTE或LTE-A的一个蜂窝通信系统)的一部分时,回程或网络接口382能够允许gNB 102通过有线或无线回程连接与其他gNB通信。当gNB 102被实施为接入点时,回程或网络接口382能够允许gNB 102通过有线或无线局域网或通过有线或无线连接与更大的网络(诸如互联网)通信。回程或网络接口382包括支持通过有线或无线连接的通信的任何合适的结构,诸如以太网或RF收发器。
存储器380耦合到控制器/处理器378。存储器380的一部分能够包括RAM,而存储器380的另一部分能够包括闪存或其他ROM。在某些实施例中,诸如BIS算法的多个指令被存储在存储器中。多个指令被配置为使得控制器/处理器378执行BIS过程,并在减去由BIS算法确定的至少一个干扰信号之后解码接收的信号。
如下面更详细描述的,(使用RF收发器372a-372n、TX处理电路374和/或RX处理电路376实施的)gNB 102的发送和接收路径支持与FDD小区和TDD小区的聚合的通信。
尽管图3b示出了gNB 102的一个示例,但是可以对图3b进行各种改变。例如,gNB102能够包括任何数量的图3a中所示的每个组件。作为特定示例,接入点能够包括许多回程或网络接口382,并且控制器/处理器378能够支持路由功能以在不同网络地址之间路由数据。作为另一特定示例,虽然示出为包括TX处理电路374的单个实例和RX处理电路376的单个实例,但是gNB 102能够包括每一个的多个实例(诸如每个RF收发器对应一个)。
下面结合附图进一步描述本公开的示例性实施例。
文本和附图仅作为示例提供,以帮助阅读者理解本公开。它们不意图也不应该被解释为以任何方式限制本公开的范围。尽管已经提供了某些实施例和示例,但是基于本文所公开的内容,对于本领域技术人员而言显而易见的是,在不脱离本公开的范围的情况下,可以对所示的实施例和示例进行改变。
随着无线通信系统的演进,在解决未来无线通信复杂问题上,人工智能(AI)技术的优势被业界广泛认可。AI被越来越多地尝试应用于无线空口技术的研究和开发过程之中。3GPP在R18中立项讨论AI技术在空口中的应用。
在AI应用于无线通信的相关用例中,用户设备(UE)和基站(BS)的协作等级不同。在一些用例中,UE和BS之间不需要针对AI的使用进行额外的交互或配合,一方或者双方各自运用AI技术即可。在另外一些用例中,UE和BS之间必须针对AI的使用进行额外的交互或配合。例如,一个需要高度协作的例子是基于AI的信道状态信息(CSI)反馈,图4示出了基于AI的CSI反馈的模型部署情况的示图。不同于传统反馈机制,在图4中所示出的示例中,基于AI的CSI压缩反馈是UE在信道估计后将信道信息(如,信道矩阵h)用AI模型进行特征提取和压缩,UE将压缩后的比特流反馈给BS,相应地,BS利用AI模型来尽可能地从/>中还原UE压缩前的信道信息(如,重构信道矩阵h′),这里可将UE侧的处理称为编码器,将BS侧称为解码器。在一些情况下,AI模型的训练可能由BS和UE中的一方完成,但是推理阶段双方需要配合使用相应的模型。例如,在如图4所述的基于AI的CSI反馈机制中,在AI模型的训练阶段,可能由BS和UE中的一方完成编码器和解码器的联合训练的,而AI模型的推理阶段(即使用阶段),编码器和解码器分别在UE和BS上运行。因此,在AI模型训练好之后,就需要通过某种方式将编码器和解码器分别交付到UE和BS上去部署,也就是需要AI模型的传递。然而,在目前的无线通信系统中,并没有涉及到与AI模型的传递相关的流程和方法。/>
因此,本公开提供了一种在无线通信系统中传输和接收AI模型的方法,在该方法中,考虑到传输AI模型本身需要的资源开销比较大,所以将模型属性和具体的AI模型(即模型本身)分开传输,通过模型发送方向模型接收方指示模型、模型接收方向模型发送方表达其AI能力,可以预判模型接收方支持哪些模型、当前情况更适合传递哪些模型、不需要传递哪些模型,这样就筛选出了需要传递的模型,降低了传输模型的开销,此外,通过这样的筛选,对于模型发送方是BS的情况,BS可以选择更适合的传输方式(广播/单播/多播)来进行模型的传输,进一步降低传输模型的开销。另外,模型传输的最终目的是为了通过执行模型实现相应功能,考虑到如果仅仅基于模型属性和AI能力,很难预估AI模型实际的执行情况,因此,本公开提出了在模型传递之后,模型接收方向模型发送方反馈实际的模型执行情况,以确保后续模型的正常使用并达到执行上的预期。
此外,考虑到AI模型的泛化性能和复杂度,对于某个通信功能来说,需要在不同的处理方式(即基于不同的AI模型和非基于AI模型的方法)之间切换以获得更好的性能。为了实现UE和BS之间在基于AI模型的算法上的协作,需要明确UE开始执行目标处理方式的时间。比如,在一些场景中,UE需要将UE侧AI模型的推理结果上报给BS,BS需要利用与UE侧AI模型相对应的BS侧AI模型才能解析UE上报的推理结果。如果BS和UE侧使用的AI模型(或者处理方式)不匹配,则BS解析不出正确的信息。
另外,在UE从BS接收到切换命令以后,UE需要一定时间才能完成切换,例如,准备与目标处理方式相关的AI模型,该准备过程可包括:将目标AI模型转变成UE特定的可执行的格式,将与目标AI模型相关的参数载入内存,实例化目标AI模型等。比较容易想到的方法是设定一个足够大的时间(如图14a中的Td)来尽可能覆盖所有的情况,或者,根据不同的UE能力等级来设定不同的Td,以覆盖该能力等级的UE所有可能的切换情况,但是上述方法都会引入不必要的切换时延。这是因为在不同的情况下,同一UE所需要的切换时延(比如:准备AI模型所需的时间)也是不同的。
为此,本公开还提出了一种根据目标处理方式和/或源处理方式的特性等来确定Td(即,开始应用目标处理方式的时间T2=T1+Td),以此来缩短切换时延。另外,本公开还针对在处理方式切换过程中出现的中断时间(即,在该中断时间内,UE既不能应用源处理方式,也不能应用目标处理方式)提出了对应的解决方案。同时,本公开还提出了在多个功能同时切换处理方式时避免冲突和兼容性的问题的解决方案。在本公开提出的各种方法中,所提及的处理方式包括基于AI模型的处理方式、以及非AI的处理方式,并且,处理方式的切换包括在不同AI模型之间的切换、以及在基于AI模型的处理方式和非AI的处理方式之间的切换。在本申请中,虽然按照基于AI模型的处理方式和非AI的处理方式对处理方式进行了划分,但是这仅是一种示例,基于AI模型的处理方式仅是一种相较于非AI的处理方式而言更高级的处理方式的示例,任何能够体现出类似划分方式的术语均被包括在本申请所公开的范围内。例如,在一种可选示例性实施例中,对处理方式的划分是根据处理方式的特性(例如所需要的处理资源开销和时间开销)来定义的,例如,在一些情况下,基于处理方式的特性(例如处理资源开销和时间开销)可将处理方式划分为例如高级处理方式和普通处理方式,而不是基于特定模型来划分处理方式。
图5示出了根据本公开的示例性实施例的AI模型的传输方法的流程图。这里省略了与本发明无关的步骤的详细说明。如图5所示,该方法包含以下步骤:
在操作510,由模型发送方向模型接收方传输与AI模型传输相关的第一信息和/或从所述模型接收方接收与AI模型传输相关的第二信息。
在操作520,由所述模型发送方向所述模型接收方传输至少一个AI模型。
在操作530,由所述模型发送方从所述模型接收方接收关于所述至少一个AI模型的反馈。
考虑到不同的设备有不同的算力,不同的AI模型适用范围和性能也不同。所以在不同的情况下,UE和BS之间需要传递不同的AI模型。以基于AI的CSI反馈为例,不同的AI模型,其泛化能力、精度、反馈开销(即反馈比特数)不同,适用于不同情况,而UE侧的算力会直接影响编码器的部署,影响AI模型的选择。AI模型在所述模型发送方与所述模型接收方之间进行传递时,可按照模型发送方和模型接收方是不同的设备进行划分,具体具有两种情况:
第一种情况是:所述模型发送方是BS,所述模型接收方是UE,例如,如果以基于AI的CSI反馈为例,则AI模型的训练过程在BS完成,BS需要至少将编码器部分的AI模型交付给UE;
第二种情况是:所述模型发送方是UE,所述模型接收方是BS,例如,如果以基于AI的CSI反馈为例,则AI模型的训练过程在UE完成,UE需要至少将解码器部分的AI模型交付给BS。
下面将参照附图对上述情况进行详细描述。
由所述模型发送方向所述模型接收方传输与AI模型传输相关的第一信息的步骤可包括:由所述模型发送方向所述模型接收方传输模型属性。
在本公开中,模型属性是用于描述模型各方面的性质(例如目的、复杂度、性能等)的信息,具体地讲,模型属性可包括以下信息中的至少一项:模型复杂度(即模型复杂度相关属性)、模型的输入和/或输出(即模型的输入和输出属性)、模型的适用范围、模型的传输方案(即模型本身的传输方案)和/或时频资源指示。在本公开中,模型(即模型本身)是用于执行具体通信任务、实现具体功能的程序或算法或神经网络,其形式包括但不限于可执行的程序、描述神经网络参数和结构的文件等。下面对模型属性进行详细描述:
(1)模型复杂度相关属性:用于指示模型的浮点运算量(floating pointoperations,FLOPs)或FLOPs等级、模型的大小或大小等级、模型的主干网络类型(如CNN、Transformer等)等,模型接收方可根据以上描述的模型复杂度中指示的各项指标并结合自身的AI能力,初步判断出哪些模型在支持范围内,即初步判断出自身支持哪些模型,例如,模型接收方可根据模型的FLOPs或FLOPs等级并结合自身的算力情况来预估模型的执行时间,模型接收方可根据模型的大小或大小等级来判断模型运行时所占用的显存空间,此外,由于某些实现设计(如硬件、软件运行环境)会对特定类型的神经网络做特别优化,所以模型的主干网络类型则可以提供更多信息用于模型接收方评估对模型的支持情况。
(2)模型的输入和/或输出属性:指示模型的输入和/或输出的内容、数据维度等。模型接收方可根据模型的输入和/或输出属性获知模型的用途并初步判断哪些模型在支持范围内,即,初步判断出自身支持哪些模型。例如,对于如图4中所示的基于AI的CSI反馈问题,编码器的输入内容可以是全信道信息H或信道特征信息W,其数据形式可以是多维矩阵,并且在不同情况下多维矩阵的维度不同,编码器的输出内容为CSI反馈信息,其数据维度是长度为n的向量,其中n是反馈比特数量;解码器的输入和/或输出属性则与编码器相反,其输入内容是CSI反馈信息,其数据维度是长度为n的向量,其中n为反馈比特数量,解码器的输出内容为全信道信息H或信道特征信息W,其数据形式是多维矩阵,且在不用情况下具有不同的维度。
(3)模型的适用范围:用于指示模型的适用条件,其中,模型的适用范围包括模型适用的小区范围和/或模型适用的SNR范围。
可利用邻区列表和/或跨小区的模型id标识来指示模型适用的小区范围,其中,邻区列表用于指示当前模型适用的邻区;跨小区的模型id标识的用途为:当UE切换到另一个小区时,如果该小区也指示同样id的模型,则UE可继续使用此id标识的模型,此外,模型id标识还可以被模型接收方用来判断模型接收方支持哪些模型或者已经具有哪些模型。例如,以基于AI的CSI反馈为例,基于AI的方案可以做针对小区的优化(cell-specific),即从特定的小区收集数据并训练针对这个小区的AI模型,但考虑到UE的移动性以及每个小区单独优化的训练成本,很有可能对于覆盖场景类似的或相邻的多个小区联合训练一个侧重泛化性能的模型,这些小区因为覆盖的场景类似,所以信道特性的分布也类似。当UE在这些小区组成的区域内移动时,可继续使用该模型,以避免频繁的更换模型所带来的资源开销。具体地讲,在一种实施例中,可利用邻区列表和跨小区的模型id标识来指示模型适用的小区范围,例如,如果UE切换到邻区列表中所指示的小区,模型id标识对于该小区有效,该小区也指示同样id的模型,则UE可以继续使用由该id标识所指示的AI模型,也就是说,跨小区的模型id标识是在邻区列表以及该小区范围内有效的。在另一种实施例中,可利用跨小区的模型id标识来指示模型适用的小区范围,例如,如果模型id标识是全网唯一标识,即在全网范围内用于唯一地指示一个AI模型,则无论UE到全网范围内的哪一个小区,该模型id标识都是有效的,都能用于唯一地指示全网范围内的一个AI模型。在另一种实施例中,可利用邻区列表来指示模型适用的小区范围,例如,BS传输AI模型给UE,该AI模型适用于邻区范围,且UE单方面使用该AI模型的情况,也就是说,与基于AI的CSI反馈不同,BS不需要任何操作来配合UE使用该AI模型,不会影响UE与BS之间的通信任务。
对于模型适用的SNR范围而言,考虑到在不同SNR下,不同的AI模型带来的增益不同,或是不同的模型是针对不同的SNR情况训练的,此时模型接收方可根据实际的SNR情况和模型属性中所指示的适用SNR范围来判断传递哪个模型更合适。
(4)模型的传输方案和/或时频资源指示:模型的传输方案用于指示采用什么方法来传输模型,例如,广播、多播和/或单播;时频资源指示用于标识传输模型的时频资源。
此外,不同的模型可被组成不同的模型集合。上述模型属性可以针对某个模型配置,也可以针对某个模型集合配置。如果某模型属性针对某个模型集合配置,则对于该集合下的所有模型而言,该模型属性取值相同,进而节省指示模型属性的开销。以基于AI的CSI反馈为例,BS可将按照复杂度、泛化能力、反馈开销、精度等维度,将不同的模型组成不同的模型集合。图6给出了一个具体示例,其中,图6示出了模型属性指示结构的一个示例。在图6中所示出的模型属性指示结构中,对于模型集合#1而言具有同一个邻区列表。此外,可采用不同的传输方案来传输模型属性,例如,可通过广播方案、多播方案或者单播方案来传输模型属性,具体地讲,对于模型发送方是BS并且模型接收方是UE的情况,模型发送方可通过广播方案、多播方案和单播方案中的任何一种传输方案将模型属性发送给模型接收方,例如,在需要指示同样的模型属性给多个接收方时,可通过广播方式来传输模型属性,进而可以节省指示所产生的信令开销;而单播方式可以更灵活的针对某个模型接收方指示特定的模型。然而,对于UE为模型发送方且BS为模型接收方的情况,仅能使用单播方式向BS指示模型属性(并且仅能通过单播方式向BS发送AI模型)。
由所述模型发送方从所述模型接收方接收与AI模型传输相关的第二信息的步骤包括:由所述模型发送方从所述模型接收方接收所述模型接收方的固有AI能力和/或模型支持能力,也就是说,与AI模型传输相关的第二信息至少包括固有AI能力和/或模型支持能力。
在本公开中,固有AI能力以及模型支持能力可被统称为AI能力,其中,固有AI能力表示模型接收方自身固有的AI能力,其为静态/半静态属性;模型支持能力表示针对接收到的模型属性通过指示模型/模型集合来表明AI能力,即,指示在模型属性所指示的AI模型中所述模型接收方能够支持的AI模型和/或指示在由模型属性指示的AI模型中所述模型接收方已具有的AI模型,换句话说,模型支持能力用于指示所述模型接收方能够支持由模型属性所指示的AI模型中的哪些AI模型和/或指示所述模型接收方已具有由模型属性指示的AI模型中的哪些AI模型。
下面对固有AI能力和模型支持能力进行详细说明:
(1)固有AI能力包含以下信息:
a)算力等级,用每秒浮点运算数(floating point operations per second,FLOPS)或FLOPS等级评估。
b)支持接收并部署AI模型以实现相应通信任务的模块和/或功能。
c)对于每个所述模块和/或功能,分别最多支持同时部署几个AI
模型。
d)支持单个AI模型的大小上限。
e)同时部署的模型总大小上限。
f)是否支持接收辅助模型,以进行校准和/或性能检测,例如,对于基于AI的CSI反馈,实际UE只需要编码器即可完成CSI的反馈,解码器对于UE即为辅助模型,如果UE支持接收辅助模型,则可以利用解码器进行性能检测,如评估编码器输入h和解码器输出h′之间的相似度。
g)是否支持反馈原始数据,例如,对于基于AI的CSI反馈,UE
如果能反馈编码器的原始输入h,那么BS一方面可以进行在线的数据收集,另一方面可以通过h和h′的相似度进行当前模型的性能评估。
(2)模型支持能力,即,针对收到的模型属性,通过指示模型/模型集合表明AI能力:
a)通过指示模型/模型集合,表明模型接收方预判支持哪些模型/模型集合:模型接收方基于收到的模型属性和自身AI能力的预判后,向模型发送方表明预判支持哪些模型/模型集合,例如,可通过模型属性中的模型id标识来表明预判支持哪些模型/模型集合。
b)通过指示模型/模型集合,表明模型接收方已经有哪些模型:接收方基于收到的模型属性,表明已有哪些模型/模型集合可执行,模型发送方可不用重复发送,例如,可通过模型属性中的模型id标识来表明已有哪些模型/模型集合可执行。
对于不同的场景,所述固有AI能力和/或所述模型支持能力可通过不同的传输方案从所述模型接收方传输给所述模型发送方,例如,对于所述模型发送方是BS并且所述模型接收方是UE的情况,所述固有AI能力和/或所述模型支持能力通过单播方案从所述模型接收方传输给所述模型发送方;然而,对于所述模型发送方是UE并且所述模型接收方是BS的情况,所述固有AI能力通过单播方案、多播方案和广播方案中的任何一种传输方案从所述模型接收方传输给所述模型发送方,而所述模型支持能力通过单播方案从所述模型接收方被传输给所述模型发送方。
由所述模型发送方向所述模型接收方传输的所述至少一个AI模型是由所述模型发送方在模型属性中进行过指示。具体地讲,在一些实施例中,所述至少一个AI模型是从由所述模型属性所指示的AI模型中选择的,在该情况下,参见图7,模型属性所指示的AI模型的范围(即模型发送方指示的模型的范围)大于或等于所述至少一个AI模型的范围(即实际传递的模型的范围);在另一些实施例中,所述至少一个AI模型就是模型属性所指示的所有AI模型,在该情况下,参照图7,模型属性所指示的AI模型的范围(即模型发送方指示的模型的范围)等于所述至少一个模型的范围(即实际传递的模型的范围),例如,在BS作为模型发送方时,BS根据自身需求或者根据经验数据(例如长期的、大多数UE的固有AI能力和模型的使用反馈情况)选择一些适用于大多数情况的AI模型,然后通过广播方案将选择的这些模型和它们的模型属性进行广播,此时,所述模型属性所指示的模型的范围等于实际传递的AI模型的范围。此外,所述至少一个AI模型是由所述模型发送方根据以下信息中的至少一项选择的:所述模型接收方的固有AI能力、所述模型接收方的模型支持能力、所述模型接收方的模型执行结果和所述模型发送方的自身需求,其中,所述模型接收方的模型执行结果可包括所述至少一个AI模型是否被所述模型接收方正确执行和/或所述至少一个模型的执行效率,并且由所述模型接收方反馈给所述模型发送方。
此外,对于不同的场景,采用不同的传输方案传输AI模型会导致效率和开销不同,因此,对于不同的场景,所述至少一个AI模型可通过不同的传输方案从所述模型接收方传输给所述模型发送方,例如,对于所述模型发送方是BS并且所述模型接收方是UE的情况,所述至少一个AI模型可通过单播方案、多播方案和广播方案中的任何一种传输方案从所述模型发送方传输给所述模型接收方;然而,对于所述模型发送方是UE并且所述模型接收方是BS的情况,所述至少一个AI模型可通过单播方案从所述模型发送方被传输给所述模型接收方。
由所述模型发送方从所述模型接收方接收关于所述至少一个AI模型的反馈的步骤包括:由所述模型发送方从所述模型接收方接收关于所述至少一个AI模型是否被正确执行和/或所述至少一个AI模型的执行效率的反馈。具体地讲,考虑到模型设计、软件环境、硬件实现等因素,仅凭模型复杂度相关属性和模型接收方的固有AI能力,很难准确评估或推测具体执行AI模型时的表现情况。所以模型接收方在收到AI模型后,需要将AI模型的以下执行情况反馈给模型发送方:
(1)确认接收到的AI模型是否可以被执行;
(2)通过执行AI模型实现相应功能所需计算时间,
例如,以基于AI的CSI反馈为例,如果UE向BS反馈通过执行AI模型实现CSI反馈所需计算时间为T,则表示从UE接收到用于此次CSI计算的最后一个CSI-RS信号开始,UE能够在T时间之后向BS发送CSI信息。
模型接收方通过向模型发送方反馈AI模型的执行情况,可以确保后续模型的正常使用并达到执行上的预期。此外,如图7中所示,通过以上描述的AI模型的传输方法,可以清楚地看出, 通过这样的筛选,对于模型发送方是BS的情况,BS可以选择更适合的传输方式(广播/单播/多播)来进行模型的传输,进一步降低传输模型的开销。
在公开中,以上描述中所涉及的多种操作(例如模型属性的传输操作、固有AI能力的传输操作、模型支持能力的传输操作、AI模型的传输操作以及关于AI模型的反馈操作)可按照不同且合理的组合和顺序被执行,并且一些操作也可被多次执行。
例如,在一种实施例中,如果所述模型发送方根据所述固有AI能力和/或所述模型支持能力确定出由所述模型发送方向所述模型接收方传输的模型属性所指示的AI模型均不适合于所述模型接收方,则重新执行操作510,即由所述模型发送方从所述模型接收方接收新的与AI模型传输相关的第一信息和/或向所述模型接收方传输新的与AI模型传输相关的第二信息,也就是说,由所述模型发送方向所述模型接收方发送新的模型属性并从所述模型接收方接收新的模型支持能力,然后执行操作520和530,具体地,所述模型发送方根据接收到的模型支持能力和/或先前接收的固有AI能力选择要发送的至少一个AI模型,并向模型接收方发送选择的至少一个AI模型,最后从模型接收方接收关于至少一个AI模型的反馈。
在另一种实施例中,如果所述模型发送方根据操作530的所述反馈确定出所述至少一个AI模型均不适合于所述模型接收方,则模型发送方重新执行操作510至530,即,由模型发送方从模型接收方接收新的与AI模型传输相关的第一信息和/或向所述模型接收方传输新的与AI模型传输相关的第二信息,向所述模型接收方传输至少一个其它AI模型,并从所述模型接收方接收关于所述至少一个其它AI模型的反馈。具体地讲,当再次执行操作510时,所述模型发送方可向所述模型接收方发送新的模型属性,并从所述模型接收方接收新的模型支持能力,然而由于所述模型发送方先前已从所述模型接收方接收过固有AI能力,所以当再次执行操作510时,所述模型发送方可不从所述模型接收方接收固有AI能力,但是本发明不限于此,所述模型发送方也可以重新接收所述模型接收方的固有AI能力,此后,在操作520,所述模型发送方根据固有AI能力和/或新的模型支持能力重新选择要发送的至少一个其它AI模型,并向模型接收方发送重新选择的至少一个其它AI模型,并在操作530中从所述模型接收方接收关于至少一个其它AI模型的反馈。
在本公开中,如上所述,模型属性包括以下各种类型的属性中的至少一种:模型复杂度相关属性、模型的输入和输出属性、模型的适用范围、模型的传输方案或时频资源指示,对于发送的新的模型属性以及先前发送的模型属性,属性的类型和取值中最少存在一项是不同的,例如,发送的新的模型属性和先前发送的模型属性均包括相同类型的属性,但属性的取值不同,具体地,包括FLOPs等级和模型的适用范围这两种类型的属性,其中,它们两者的FLOPs等级相同,但是模型的适用范围不同,又例如,发送的新的模型属性和先前发送的模型属性包括类型不完全相同的属性,具体地,先前发送的模型属性包括输入输出属性和FLOPs等级,但是发送的新的模型属性包括FLOPs等级和模型的适用范围,并且它们两者中包含的FLOPs等级也不同。另外,新的模型支持能力用于指示所述模型接收方能够支持由新的模型属性所指示的AI模型中的哪些AI模型和/或指示所述模型接收方已具有由新的模型属性指示的AI模型中的哪些AI模型。
在另一种实施例中,可首先由模型发送方从模型接收方接收其固有AI能力,然后由模型发送方根据模型接收方的固有AI能力选择合适的AI模型并向模型接收方指示所选择的AI模型的模型属性,此后,由模型发送方从模型接收方接收模型支持能力,并根据所述固有AI能力和/或所述模型支持能力选择所述模型属性所指示的AI模型中的至少一个AI模型,再通过多种传输方式中的一种传输方式向模型接收方传输该至少一个AI模型,最后由模型发送方从模型接收方接收关于该至少一个AI模型的反馈。
在另一种实施例中,可首先由模型发送方从模型接收方接收其固有AI能力,然后由模型发送方根据模型接收方的固有AI能力选择合适的AI模型,此后,由模型发送方根据所述固有AI能力选择至少一个AI模型,再通过多种传输方式中的一种传输方式向模型接收方传输该至少一个AI模型,最后由模型发送方从模型接收方接收关于该至少一个AI模型的反馈,在上述过程中,模型发送方可不向模型接收方传输模型属性。
在另一种实施例中,可首先由模型发送方向模型接收方传输模型属性,由模型发送方从模型接收方接收固有AI能力和模型支持能力,如果模型发送方根据固有AI能力和/或模型支持能力判断出先前传输的模型属性所指示的AI模型不适合于模型接收方(例如模型发送方发现模型接收方所上报的固有AI能力中的算力等级很高,而先前传输的模型属性所指示的模型的复杂度比较低,则模型发送放判断出先前传输的模型属性所指示的AI模型不适合于模型接收方),则模型发送方可以向模型接收方传输新的模型属性来指示复杂度高的AI模型,此后,模型发送方从模型接收方接收新的模型支持能力,并根据固有AI能力和/或新的模型支持能力来选择待传输的AI模型并将选择的AI模型传输给模型接收方,然后模型发送方从模型接收方接收关于AI模型的反馈。
在另一种实施例中,可首先由模型发送方向模型接收方发送模型属性,然后向模型接收方传输由模型属性指示的AI模型,此后由模型发送方从模型接收方接收其固有AI能力和/或模型支持能力、关于AI模型的反馈。
在另一种实施例中,可首先由模型发送方从模型接收方接收其固有AI能力,然后由模型发送方根据模型接收方的固有A能力选择合适的AI模型并向模型接收方指示所选择的AI模型的模型属性,此后,向模型接收方传输所选择的AI模型,最后由模型发送方从模型接收方接收关于该AI模型的反馈。
图8示出根据本公开的示例性实施例的AI模型的接收方法的流程图。为了简洁,在以下描述中省略了以上参照图5描述AI模型的传输方法时已经描述的内容。
如图8中所示,在步骤810,由模型接收方从模型发送方接收与AI模型传输相关的第一信息和/或向所述模型发送方传输与AI模型传输相关的第二信息。
在操作820,由所述模型接收方从所述模型发送方接收至少一个AI模型。
在操作830,由所述模型接收方向所述模型发送方传输关于所述至少一个AI模型的反馈。
由所述模型接收方从所述模型发送方接收与AI模型传输相关的第一信息的步骤包括:由所述模型接收方从所述模型发送方接收模型属性。
在本公开中,模型属性包括以下信息中的至少一项:模型复杂度、模型的输入和/或输出、模型的适用范围、模型的传输方案和/或时频资源指示。所述时频资源指示用于标识传输模型的时频资源。模型的适用范围包括模型适用的小区范围和/或模型适用的SNR范围,所述模型适用的小区范围由邻区列表和/或跨小区的模型id标识来指示。对于不同的场景,可通过采用不同的传输方案来传输模型属性,例如,可通过广播方案、多播方案或者单播方案来传输模型属性,具体地讲,对于模型发送方是BS并且模型接收方式UE的情况,模型发送方可通过广播方案、多播方案和单播方案中的任何一种传输方案将模型属性传输给模型接收方。然而,对于UE为模型发送方且BS为模型接收方的情况,仅能使用单播方式向BS指示模型属性。
由所述模型接收方向所述模型发送方传输与AI模型传输相关的第二信息的步骤包括:由所述模型接收方向所述模型发送方传输所述模型接收方的固有AI能力和/或模型支持能力。
在本公开中,所述模型支持能力指示在由所述模型接收方从所述模型发送方接收的模型属性所指示的AI模型中所述模型接收方能够支持的AI模型和/或指示在由模型属性指示的AI模型中所述模型接收方已具有的AI模型。所述固有AI能力包括以下信息中的至少一项:算力等级、支持接收并部署AI模型以实现相应通信任务的模块和/或功能、每个所述模块和/或功能最多支持同时部署AI模型的数量、支持单个AI模型的大小上限、同时部署的AI模型总大小上限、是否支持接收辅助模型、以及是否支持反馈原始数据。
对于不同的场景,所述固有AI能力和/或所述模型支持能力可通过不同的传输方案从所述模型接收方传输给所述模型发送方,例如,对于所述模型发送方是BS并且所述模型接收方是UE的情况,所述固有AI能力和/或所述模型支持能力通过单播方案从所述模型接收方传输给所述模型发送方;然而,对于所述模型发送方是UE并且所述模型接收方是BS的情况,所述固有AI能力通过单播方案、多播方案和广播方案中的任何一种传输方案从所述模型接收方传输给所述模型发送方,而所述模型支持能力通过单播方案从所述模型接收方被传输给所述模型发送方。
所述至少一个AI模型是由所述模型发送方在模型属性中进行过指示,其中,所述至少一个AI模型是由所述模型发送方根据以下信息中的至少一项选择的:所述模型接收方的固有AI能力、所述模型接收方的模型支持能力、所述模型接收方的模型执行结果和所述模型发送方的自身需求。
此外,对于不同的场景,所述至少一个AI模型可通过不同的传输方案从所述模型接收方传输给所述模型发送方,例如,对于所述模型发送方是BS并且所述模型接收方是UE的情况,所述至少一个AI模型可通过单播方案、多播方案和广播方案中的任何一种传输方案从所述模型发送方传输给所述模型接收方;然而,对于所述模型发送方是UE并且所述模型接收方是BS的情况,所述至少一个AI模型可通过单播方案从所述模型发送方被传输给所述模型接收方。此外,如果所述模型发送方根据所述固有AI能力和/或所述模型支持能力确定出由模型属性所指示的AI模型均不适合于所述模型接收方,或者,如果所述模型发送方根据所述反馈的结果确定出所述至少一个AI模型均不适合于所述模型接收方,则由所述模型发送方向所述模型接收方发送新的模型属性,并从所述模型接收方接收新的模型支持能力。
此外,在本公开中,由所述模型接收方向所述模型发送方传输关于所述至少一个AI模型的反馈的步骤包括:由所述模型技术方向所述模型接收方传输关于所述至少一个AI模型是否被正确执行和/或所述至少一个AI模型的执行效率的反馈。
在公开中,以上描述中涉及了多种操作,例如模型属性的传输操作、固有AI能力的传输操作、模型支持能力的传输操作、AI模型的传输操作以及关于AI模型的反馈操作,虽然以上描述中这些操作被描述为按照一定顺序执行一次,但是本公开不限于此,以上多种操作中的至少一些操作可按照不同且合理的组合和/或顺序被执行多次。
例如,在一种实施例中,在执行操作810时,如果所述模型发送方根据所述固有AI能力和/或所述模型支持能力确定出由所述模型接收方从所述模型接收方接收的模型属性所指示的AI模型均不适合于所述模型接收方,则重新执行操作810,即由所述模型接收方从所述模型发送方接收新的与AI模型传输相关的信息和/或向所述模型发送方传输所述新的与AI模型传输相关的信息,也就是说,由所述模型接收方从所述模型发送方接收新的模型属性,并向所述模型发送方发送新的模型支持能力,然后执行操作820和830。
又例如,在另一种实施例中,在执行完操作830以后,如果所述模型发送方根据所述反馈确定出所述至少一个AI模型均不适合于所述模型接收方,则重新执行操作810至830,即,由模型接收方从模型发送方接收新的与AI模型传输相关的第一信息和/或向所述模型发送方传输新的与AI模型传输相关的第二信息,从所述模型发送方接收至少一个其它AI模型,并向所述模型发送方传输关于所述至少一个其它AI模型的反馈。
由于以上已参照图5对各种变形实施例进行了描述,因此此处不再进行赘述。
以下将参照图9至图13详细描述以上的AI模型的传输方法和接收方法的具体示例。
图9是示出了根据本发明的示例性实施例的由BS向UE传输模型的一个示例的流程图,该示例适合于BS具有多个模型且需要向不同UE发送不同模型的情况。如图9所示,模型发送方为BS,模型接收方为UE。BS向UE传输用于CSI反馈的AI模型。
在操作S101:BS通过单播信令向UE指示模型属性。例如,BS向UE传输的模型属性指示的结构如图6所示。如图6所示,该模型属性指示用于两个模型集合,即模型集合#1和模型集合#2,其中,模型集合#1是适用于UE在包含多个小区的一片区域内移动的CSI反馈模型,模型集合#1包含模型#1和模型#2,模型#1和模型#2分别对应于不同的输出数据(即反馈比特数量不同)和FLOPs等级,其中,模型#1的输出数据为48比特且FLOPs等级为1,模型#2的输出数据为128比特且FLOPs等级为2。模型集合#2是仅适用于本小区内的CSI反馈模型,模型集合#2包含模型#3和模型#4,模型#3和模型#4分别对应于不同的输出数据(即反馈比特数量不同)和FLOPs等级,其中,模型#3的输出数据为48比特且FLOPs等级为1,模型#4的输出数据为128比特且FLOPs等级为3。
在操作S102:UE向BS上报自身固有AI能力以及在BS指示的模型中UE支持哪些AI模型。例如,UE向BS上报以下内容:自身的算力等级(例如FLOPS等级)为2、能同时支持部署2个模型等;针对操作S101中BS指示的模型,UE指示支持的模型为{模型#1,模型#3}。
在操作S103:BS选择合适的传输方案来向UE传输模型。例如,BS根据本小区内UE对模型的需求情况和小区内资源调度情况,选择不同的传输方案传输不同的模型,例如:
-BS需要向自身服务小区内的多个UE传输模型#1,所以BS通过多播方式向所述多个UE传输模型#1;
-BS只需要向自身服务小区内的少数UE传输模型#3,这些UE无法被多播调度,所以BS通过单播方式向所述少数UE中的每一个UE传输模型#3。
在操作S104:UE在接收到模型后,通过在本地执行模型来确认模型的执行情况,并向BS进行反馈,例如:UE收到模型#1和模型#3后,分别执行模型#1和模型#3完成相应功能。UE通过反馈与模型#1对应的执行时间t1、与模型#3对应的执行时间t3,向基站通知这两个模型可被正确执行并指示相应的执行效率。
BS通过高效的信令交互初步确认UE的支持情况,并基于UE指示的支持情况,选择合适的传输方式,有组织的下发传输模型,节省资源开销。
图10示出了根据本发明的实施例的由BS传输模型给UE的另一示例的流程图,该示例适合于相关技术和应用比较成熟的阶段,如本小区内支持基于AI的CSI反馈的UE非常多,BS需要将同一个或几个模型发送给很多UE的情况。如图10所示,模型发送方为BS,模型接收方为UE。BS向UE传输用于CSI反馈的AI模型。
在操作S201:BS通过广播信令向UE指示模型属性。例如,BS向UE指示模型为图6所示的模型集合#1,并在模型集合的属性中指示如何接收该集合包含的模型。
在操作S202:BS通过广播/多播方式向UE传输操作S201中所指示的AI模型。
在操作S203:UE判断需要接收的模型,并根据BS指示接收模型,并向BS上报自身固有AI能力、支持的模型、模型的执行情况。例如:
-UE A从另一个小区切换到当前小区,通过操作S201中广播的模型指示,
对跨小区模型id进行对比,发现本地已有模型#1和模型#2(在上一个小区中已经接收并使用过)。所以,通过上述判断,UEA可以免去接收模型过程,直接向BS上报自身固有AI能力,指示支持的模型为{模型#1,模型#2},并分别对应的执行时间为t1a和t2a;
-UE B本地并没有模型#1和模型#2。而基于BS在操作S201中的指示,UE B结合自身能力,初步判断只能支持模型#1。所以,UE B按照操作S201中所指示的方式接收模型#1,通过本地执行接收的模型确认模型的执行情况,将表示UE B支持模型#1且与模型#1对应的执行时间为t1b的信息以及自身固有AI能力一并反馈给BS。
在该示例中,BS将一个泛化能力适用于多个小区的模型通过广播/多播方式指示和发送。通过这样做,一方面,可以节约指示模型属性的信令开销和传输模型的资源开销,另一方面,对于已有模型的UE移动到该小区时,可以缩短使用AI模型的准备流程。
图11示出了根据本发明的实施例的由BS传输模型给UE的另一个示例的流程图,该示例适合于BS想要传输一个新的模型给UE的情况。如图11所示,模型发送方为BS,模型接收方为UE。BS向UE传输用于CSI反馈的AI模型。
在操作S301:BS通过单播信令向UE指示模型属性。例如,BS向UE指示模型为图6所示的模型集合#2。
在操作S302:UE向BS反馈在BS指示的模型中支持哪些AI模型。例如,针对在操作S301中BS指示的模型,UE结合自身能力判断,指示支持的模型为{模型#3}。
在操作S303:BS通过单播方式向UE传输所指示支持的模型。
在操作S304:UE在收到模型后,通过本地执行模型来确认模型的执行情况,并将模型的执行情况反馈给BS。例如:UE通过本地执行模型#3确认模型#3可用,并将模型#3对应的执行时间t3a告诉BS。
以上参照图11描述的示例可发生在以下情境:(1)如图10中的UE A不再发生小区切换而停留在一个小区之后,BS想更换UE A所使用的模型时;或者(2)对于图10中由BS广播的AI模型,UE均不支持;或者(3)对于图9中的示例,BS对UE反馈的执行效率不满意。由于在图9和图10中所示出的流程图中,UE A已经将自身固有AI能力上报给BS,所以在图11中的操作S302中,UE A只需要根据操作S301的指示反馈支持哪些AI模型就可以。
图12是示出了根据本发明的实施例的由BS传输模型给UE的另一个示例的流程图。如图12所示,模型发送方为BS,模型接收方为UE。BS向UE传输用于CSI反馈的AI模型。
在操作S401:UE向BS上报自身固有AI能力。例如,UE向BS上报自身的算力等级(例如FLOPS等级)为1、能同时支持部署2个模型等;
在操作S402:BS根据UE的AI能力选择合适的模型,并通过单播信令向UE指示模型属性。例如,BS本来有图6所示的4个模型,但考虑到UE上报的算力等级偏低,所以BS选择将模型#1和模型#3指示给用户。
在操作S403:BS选择合适的传输方案,向UE传输模型。由于操作S403与S103类似,所以这里省略其描述。
在操作S404:UE在接收到模型后,通过本地执行模型来确认模型的执行情况,并向BS反馈。由于操作S404与S104类似,所以这里省略其描述。
以上参照图12描述的示例适用于以下情况:
(1)UE更新自身固有AI能力时,如果UE之前因为用户设置或者电量等因素未开启AI相关的空口能力,则在用户改变了设置或者电量变充足之后,UE更新上报自身固有AI能力,以便启用相关功能。
(2)小区内支持接收AI模型的UE不多的时候,BS想先知道UE的AI能力(即询问UE的AI能力),再选择合适的模型进行指示和传输。
图13示出了根据本发明的实施例的由UE传输模型给BS的一个示例的流程图,该示例适用于模型从UE发送给BS的情况。如图13所示,模型发送方为UE,模型接收方为BS。UE向BS传输用于解码CSI反馈的AI模型。
在操作S501:UE向BS指示待传输的模型的模型属性。例如,UE通过单播信令向BS指示一个待传输的模型#5,其属性包括:输入为48比特的CSI反馈,输出为全信道信息,FLOPs等级为3等;
在操作S502:基于UE上报的模型属性,BS判断是否支持该模型,并向UE反馈判断结果。例如,BS向UE反馈支持模型#5;
在操作S503:根据BS反馈的支持情况,UE向BS传输相应模型。
在操作S504:BS向UE确认模型是否可正确执行。
以上详细描述了与模型传输和接收相关的方案,下面将描述与处理方式的切换有关的方案。
在进行处理方式的切换时,在情况不同时,同一UE所需要的切换时延(比如:准备AI模型所需的时间)也是不同的。
例如,如果与目标处理方式相关的AI模型比较小,则UE需要的模型准备时间会比较短。
例如,如果UE提前准备了与目标处理方式相关的AI模型(例如,提前将该AI模型载入到内存中,将该AI模型保持为随时能启用的状态),那么在从BS接收到切换指示信息时,UE只需较短的切换时延就可以实现处理模式从源处理方式切换到目标处理方式,甚至在一些情况下可实现无缝切换。
例如,UE的处理资源(计算资源、内存和/或缓存资源)是有限的,在一些情况下,UE需要先释放源处理方式所占用的处理资源(例如将与源处理方式相关的AI模型从内存中清除),再激活目标处理方式(比如将与目标处理方式相关的AI模型载入内存),这样一方面可能会需要更长的切换时延,另一方面UE会出现一个中断时间(即在中断时间内,UE既不能应用源处理方式,又不能应用目标处理方式)。
例如,在一些情况下,一个功能的处理方式的切换会对另一个功能的处理方式产生影响,这一方面是因为UE的处理资源(例如,计算资源、内存和/或缓存资源)是有限的,当一个功能或者AI模型占用了大量处理资源时,另一个功能或者AI模型的处理会受到影响,即产生AI冲突。另一方面是因为考虑到不同的模型设计,对于串行操作的功能或模块,一些特定的处理方式的组合会有兼容性问题,从而导致性能的下降。那么,在一次处理方式的切换中,需要考虑多个功能的处理方式,并协调多个功能的切换时间以避免产生AI冲突或者兼容性问题。对于这种情况,切换所需的时延也是不同的。
例如,UE无法支持多个功能同时采用基于AI的处理方式。举例来说,UE既支持基于AI的波束管理功能,也支持基于AI的CSI反馈功能(即分别支持这两个功能),但是,受限于处理资源,UE无法支持波束管理功能和CSI反馈功能两者同时采用基于AI的处理方式。
又例如,UE同时支持多个功能采用基于AI的处理方式,但因为同一个功能的不同的AI模型有不同的大小、复杂度、推理时间,UE不支持这多个功能的处理方式的特定组合。举例来说,如图14b中所示,考虑CSI反馈功能和CSI预测功能,UE分别支持用于CSI反馈功能的AI模型Model#1和Model#2、以及用于CSI预测功能的Model#3和Model#4。在一些应用场景中,UE先利用用于CSI预测功能的AI模型来应对信道变化的问题,再利用用于CSI反馈功能的AI模型来压缩CSI预测功能的结果并反馈给BS以减少反馈开销。但是,受限于处理资源,因为Model#2和Model#3比较大,UE无法同时激活这两个模型,或者说,因为Model#2和Model#3复杂度较高,它们串行处理的推理时间已经超过了上报CSI的时间要求。
又例如,用于CSI预测功能的AI模型可被设计为推理未来多个时隙或时间单元的CSI信息,即[Wt+1,Wt+2,Wt+3,Wt+4……],也可以被设计为推理未来特定时刻t的CSI信息,即[Wt]。其中Wt+i是关于频域和空域的二维矩阵。而用于CSI反馈功能的AI模型可以被设计为压缩时域、频域、空域三个维度的CSI信息,也可以被设计为压缩频域、空域两个维度的CSI信息。显然,推理未来多个时隙或时间单元的CSI信息的用于CSI预测功能的AI模型和压缩时域、频域、空域三维CSI信息的用于CSI反馈功能的模型在串行操作时更加匹配。
下面将参照图15来描述根据本公开的示例性实施例的与处理方式的切换有关的方法。
图15是示出根据本公开的示例性实施例的由UE执行的方法的流程图。
如图15中所示,在步骤S1510,从BS接收处理方式的切换指示信息,其中,处理方式与AI模型有关,接收切换指示信息的时间为第一时间。
具体地讲,在本公开的示例性实施例中,切换指示信息可以是BS发送的切换命令(Switching Command),该切换命令可明确地指示UE切换到何种处理方式。另外,切换指示信息还可以是BS对UE发送的切换请求/指示的确认(Acknowledge,ACK),例如,UE通过介质访问控制层(Media Access Control,MAC)-控制元素(Control Element,CE)或者上行链路控制信息(Uplink Control Information,UCI)向BS发送关于处理方式的切换请求/指示,BS向UE发送ACK来指示确认,又例如,UE向BS发送RRC消息来请求将处理方式切换至某个AI模型,BS向UE发送RRC消息以指示同意和确认。如图16a中所示,T1为第一时间,即,接收切换指示信息的时间。
此外,在本公开的示例性实施例中,处理方式与AI模型有关,可包括基于AI模型的处理方式、以及非AI的处理方式,并且,处理方式的切换可包括在不同AI模型之间的切换、以及在基于AI模型的处理方式和非AI的处理方式之间的切换。
在步骤S1520,从第二时间开始应用目标处理方式,其中,第二时间与以下项中的至少一项有关:目标处理方式的特性、源处理方式的特性、第一时间。
具体地讲,目标处理方式和/或源处理方式的特性包括以下项中的至少一项:与目标处理方式相关的AI模型的大小和/或与源处理方式相关的AI模型的大小;与目标处理方式相关的AI模型的数量和/或与源处理方式相关的AI模型的数量;目标处理方式是否属于第一集合;源处理方式是否属于第二集合;与目标处理方式相关的AI模型的结构和/或与源处理方式相关的AI模型的结构;目标处理方式和/或源处理方式在第一切换序列中的位置;以及与目标处理方式相关的功能的个数和/或与源处理方式相关的功能的个数。
在这里,提及的“功能”可包括但不限于:CSI预测、CSI反馈、CSI增强、波束管理、定位、信道估计、信道编码、信道解码、移动性管理、上行预编码压缩与恢复、波束预测、测量上报等。
这里,为了使本领域技术人员更容易理解本申请的技术构思,这里先详细介绍与第一切换序列有关的内容。
在本申请中,第一切换序列可包括一个功能的不同处理方式,或者,切换序列可包括多个功能的不同处理方式。下面对此进行具体描述。
在本公开的一种示例性实施例中,第一切换序列可包括一个功能的不同处理方式,其中,第一切换序列中的每个元素包括该功能的一种处理方式,其中,基于AI模型的处理方式由AI模型的模型ID、模型ID组合或者配置ID表示,非AI的处理方式由空集或者非AI方式的配置ID表示。
例如,在与一个功能的处理方式有关的切换序列{Model#1,Model#2,…,Config#1,Config#2}中,该切换序列既包括基于AI模型的处理方式(例如Model#1、Model#2、Config#2),又包括非AI的处理方式(例如Config#1),在该示例中,基于AI模型的处理方式由AI模型的模型ID(例如Model#1)或者配置ID(Config#2)表示,非AI的处理方式由非AI方式的配置ID(例如Config#1)表示。
又例如,在与一个功能的处理方式有关的切换序列{{Model#1,Model#2},{Model#1,Model#3},…,{}}中,基于AI模型的处理方式由模型ID组合(例如{Model#1,Model#2})表示,非AI的处理方式由空集(即{})表示,也就是说,该功能的处理方式由模型ID组合或者空集表示。在本公开中,当一个功能的处理方式由模型ID组合表示时,表示该功能由多个AI模型完成,例如,对于基于AI模型的CSI反馈功能,Model#1实现低精度低比特开销的CSI反馈(如宽带CSI),Model#2和Model#3实现高精度高比特开销的CSI反馈(如子带CSI)。Model#1与Model#2或Model#3是并行处理关系。例如,对于基于AI模型的CSI反馈功能,Model#1实现CSI信息的特征提取,Model#2和Model#3实现不同压缩率的信息压缩。Model#1和Model#2或Model#3是串行处理关系。
在本公开的另一种示例性实施例中,第一切换序列可包括多个功能的不同处理方式,其中,第一切换序列中的每个元素包括所述多个功能的处理方式的一种组合,其中,在第一切换序列中,基于AI模型的处理方式由AI模型的模型ID、模型ID组合或配置ID表示,非AI的处理方式由空集或者非AI方式的配置ID表示,其中,空集表示所述多个功能分别采用非AI的处理方式,当第一切换序列中的元素不包含与所述多个功能之一相关的模型ID时,在该元素中包括的该一个功能的处理方式为非AI的处理方式。
例如,Model#1和Model#2是功能A的两个AI模型,Model#3是功能B的AI模型,切换序列为{{Model#1,Model#3},{Model#2},…,{}},在该切换序列中,每个元素包括功能A和功能B的处理方式的一种组合,例如,如该切换序列中的第一个元素{Model#1,Model#3}所示,功能A和功能B的处理方式的一种组合为功能A采用基于Model#1的处理方式,并且功能B采用基于Model#3的处理方式。又例如,如该切换序列中的第二个元素所示,功能A和B的处理方式的另一种组合为功能A采用基于Model#2的处理方式,并且功能B采用非AI的处理方式。该切换序列中的最后一个元素为空集,表示功能A和B均采用非AI的处理方式。另外,在多个功能的模型ID不会冲突或重复的情况下,可去掉切换序列中的空集,例如,可将{{Model#1,Model#3},{Model#2},…,{}}中的空集去掉,变成{{Model#1,Model#3},{Model#2},…,},此时,UE仍然可以准确地判断出该切换序列中的每个元素用于哪个功能,即,UE可准确地判断出每个模型用于什么功能。
又例如,切换序列为{{Model#1},{Model#1,Model#2}},该切换序列用于功能A和功能B,其中,功能A由功能A的模型Model#1完成,功能B由功能B的模型Model#1和Model#2完成,虽然该切换序列中的两个元素中均有Model#1,但是功能A的模型Model#1与功能B的模型Model#1是不同的。
此外,在以上两种示例性实施例中,第一切换序列中的每个元素还包括:与该元素所指示的处理方式相关的切换条件,其中,切换条件可包括以下项中的至少一项:基于性能的切换条件、基于适用性的切换条件、基于使用时间的切换条件。
具体地讲,基于性能的切换条件可包括:AI模型的推理性能或非AI方式的处理性能(如准确度、精度)要求、通信性能指标(如BLER,SINR)的相关要求。
基于适用性的切换条件可包括:小区或者区域范围、SNR范围、移动速度范围、多普勒频移范围、时延扩展范围等。例如,出于复杂度的考虑,一些AI模型是在特定场景或特定场景的数据集上训练得到,如果应用AI模型的场景与之匹配,则AI模型的性能会更好。
基于使用时间的切换条件可包括:使用时间、使用次数等。比如在一些情况下,某一功能有多个AI模型,通过在这多个AI模型之间依次切换使得使用每个AI模型一段时间或者一定次数,根据性能指标来判断哪个最优。
此外,在本公开的示例性实施例中,切换条件还可包括针对源处理方式的一个或更多个条件,和/或目标处理方式的一个或更多个条件。例如,源处理方式的性能低于某个阈值和/或目标处理方式性能高于某个阈值。
例如,如果某一功能的不同AI模型适用于不同的移动速度,则在切换序列{{Model#1,切换条件#C1},{Model#2,切换条件#C2}}中,切换条件#1和切换条件#2可指示不同的移动速度范围。在本申请中,可利用与切换条件相关的配置ID(如图16d中的C1、C2)来指示切换条件。例如,如图16d中所示,当切换条件C2满足时,可从{Model#1,Model#3}切换到{Model#2}。
此外,在本公开的示例性实施例中,第一切换序列中元素的排序是由以下项中的至少一项决定的:基站指示的顺序;预设的顺序;以及处理方式的特性。其中,处理方式的特性是由BS指定的或者预设的。处理方式的特性可包括以下项中的至少一项:与处理方式相关的AI模型的大小;与处理方式相关的AI模型的数量;与处理方式相关的AI模型的复杂度;以及处理方式的适用条件,其中,处理方式的适用条件包括以下项中的至少一项:小区范围、SNR范围、移动速度、多普勒扩展范围、以及时延扩展范围。
具体地讲,例如,BS可指示按照处理方式所适用的移动速度的大小从低到高来排序切换序列中的元素。又例如,AI模型的复杂度与其泛化能力有较密切的关系,具体地,对于同一个功能来说,一般复杂度高的AI模型,其泛化性能较好,但复杂度高又往往意味着UE的开销大。在一些应用场景下,BS指示按照处理方式的复杂度(例如,相关的模型的浮点运算次数(Floating Point Of Operations,FLOPs)值或者FLOPs等级)来排序切换序列中的元素。当两个处理方式有相同的复杂度时,这两者的相对顺序由预设的顺序或者基站指示的顺序决定。这样,UE可以先应用低复杂度的处理方式,如果性能未达到要求,则UE再切换至复杂度更高的处理方式。类似地,处理方式所适用的小区范围也与其泛化性能或复杂度有关,一般所适用的小区范围越大(该范围可以按照适用小区的个数来衡量),则其泛化性能越好,复杂度越高。
进一步地,切换序列中各元素的排序其实体现着处理方式之间的关系。处理方式的切换并不是完全随机的,目标处理方式与源处理方式具有一定关联。在一些情况下,这种关联是可预见的,例如,考虑到UE运行AI模型的功耗开销,UE可以优先尝试低复杂度或者小的AI模型,当性能未达到要求而发生处理方式的切换时,目标处理方式大概率是比源处理方式复杂度更高或者相关的AI模型更大一些的处理方式。在另一些情况下,某些处理方式之间的切换概率是可被统计的,例如,如果功能A的Model#1是适用于室内场景的AI模型,那么当UE移动或者环境发生变化时,功能A的处理方式大概率会被切换到一个泛化性能更好(比如,即适用于室内场景也适用于室外场景)的模型Model#2以获得更好的性能。BS可以按照这种统计关系提前配置切换序列。此外,从特定用户的角度出发,还可以依照其行为模型特征,分析出其移动或者环境发生变化后是否大概率会发生高速移动,从而提前配置相应的切换序列。
例如,图17示出了这样的场景:考虑UE中的两个功能A和B,功能A是CSI反馈功能,功能B是CSI预测功能,UE从建筑物内移动到建筑物外,然后进入汽车内,跟随汽车一起快速行驶。在该场景下,当UE位于建筑物内时,如图17中所示,Model#1更适合于室内场景,功能A和功能B的处理方式的组合是{Model#1};当UE从建筑物内移动到建筑外时,由于Model#2具有更好的泛化性、更准确但复杂度更高,此时,功能A和功能B的处理方式的组合从{Model#1}切换到{Model#2};当UE进入汽车并开始行驶时,由于此时汽车行驶速度较慢,且Model#5适用于慢速移动,因此,功能A和功能B的处理方式的组合从{Model#2}切换到{Model#3,Model#5};当汽车快速行驶时,由于Model#6适用于高速移动,因此,功能A和功能B的处理方式的组合从{Model#3,Model#5}切换到{Model#4,Model#6}。在该示例中,当UE在建筑物内时,UE可提前准备模型Model#2(即当前模型Model#1的下一个模型),当BS发送切换指示信息来指示UE切换到模型Model#2时,UE已经准备好模型Model#2,显然这样可降低切换时延。当UE由于移动切换关于CSI预测功能的处理方式(例如切换到Model#5)时,UE会同步地切换关于CSI反馈功能的处理方式(例如切换到Model#3),在该示例中,进行同步切换的原因是切换序列中不存在组合{Model#2,Model#5}或者{Model#3},原因可能有多种,例如,UE可能不支持这样的处理方式的组合,或者这些组合对于串行操作具有兼容性问题,因此UE需要针对功能A和功能B的处理方式进行同步切换。
综上可知,切换序列主要有以下两个用途:
1.UE可以根据切换序列提供的信息提前准备AI模型,从而降低切换时延。具体地讲,切换序列为UE提供了候选的目标处理方式、切换顺序、切换条件,使得UE可以根据这些信息提前进行处理方式的切换准备,例如,将最有可能的目标AI模型提前载入内存等,从而缩短切换时延。
2.UE可根据切换序列提供的信息规避AI冲突/兼容性问题。具体地讲,UE可以基于切换序列确定多个功能的处理方式,从而避免处理方式的切换冲突和兼容性问题。
下面将具体描述用于确定第二时间的多种方法。
下面将具体描述用于确定第二时间的多种方法。
以下方法中T2=T1+Td,其中Td是切换时延,T2是第二时间,T1是第一时间。根据下面的方法确定Td,进而确定T2。
(1)方法一
在本公开的一种示例性实施例中,可根据以下的等式(1)来确定切换时延Td:
如图16a中所示,UE在T2(=T1+Td)时间开始应用目标处理方式;Th_Td_1和Th_Td_2可以是预设的,由BS设置的,或者根据UE的能力确定的,并且Th_Td_2>Th_Td_1。
另外,条件x可包括以下项中的至少一项:与目标处理方式相关的AI模型的大小小于阈值A;与源处理方式相关的AI模型的大小小于阈值B;目标处理方式属于第一集合;源处理方式属于第二集合;与源处理方式相关的AI模型的结构和与目标处理方式相关的AI模型的结构相同;目标处理方式和/或源处理方式在第一切换序列中的位置满足条件y。下面对条件x中可包括的每一项进行详细描述。
在本申请中,AI模型的大小例如与以下项中的至少一项有关:一个模型本身的存储大小;实例化一个模型所需内存开销;运行或应用一个模型时所需的内存开销;运行或应用一个模型时的计算资源开销。另外,本公开所提及的各种阈值(例如,以上提及的阈值A和阈值B,又例如,以下将要提及的第一阈值至第八阈值)可以是预设的,由BS设置的,或者根据UE的能力确定的,此外,本公开所提及的各种阈值中的一些阈值可以相同,也可以不同,本公开对此不作特别限定。
在本申请中,第一集合和/或第二集合可以是BS指示的或预设的。例如,第一集合和/或第二集合可以是BS指示的一个或更多个功能的默认处理方式,该集合中的处理方式可以是基于AI模型的处理方式,也可以是非AI的处理方式,另外,该集合中的处理方式可以采用单独预留的或者专用的计算资源和/或存储资源,所以在UE执行处理方式的切换时,对计算资源和/或存储资源的处理相对简单,或是可以并行处理,所以需要的切换处理时间更短。
在本申请中,在与源处理方式相关的AI模型的结构和与目标处理方式相关的AI模型的结构相同时,一种切换处理方式的实现方式是更新已有模型实例(例如与源处理方式相关的AI模型的实例)的权重,而不是从头创建一个模型实例(例如与目标处理方式相关的AI模型的实例),这样UE能够更快地应用目标处理方式。
在本申请中,关于目标处理方式和/或源处理方式在第一切换序列中的位置满足条件y,条件y可包括以下项中的至少一项:目标处理方式是第一切换序列中位于源处理方式之后的N1个处理方式之一;目标处理方式是第一切换序列中位于源处理方式之后的满足切换条件的N2个处理方式之一;目标处理方式是第一切换序列中与源处理方式相邻的N3个处理方式之一;目标处理方式是第一切换序列中与源处理方式相邻的满足切换条件的N4个处理方式之一;目标处理方式是第一切换序列中前N5个处理方式之一;目标处理方式是第一切换序列中满足切换条件的前N6个处理方式之一;目标处理方式是UE从第一切换序列中选择上报的N7个处理方式之一;其中,N1至N7中的至少一项可以是预设的,由BS设置的,根据UE的能力确定的,或者是与AI模型的大小相关的数量。例如,对于N1至N7中的Nn(其中,n是1至7中的一个),假设Nn是与AI模型的大小相关的数量,Nn是满足以下等式的最大整数:
其中,Msizei表示与Nn个处理方式中的第i个处理方式相关的AI模型的大小,Th_preparedModelsize_Nn表示与Nn有关的阈值,也就是说,每个Nn具有一个对应的阈值Th_preparedModelsize_Nn,该阈值Th_preparedModelsize_Nn可以是预设的,由BS设置的,或者根据UE的能力确定的。换句话说,Nn是与所述Nn个处理方式相关的AI模型的大小总和不超过对应阈值Th_preparedModelsize_Nn时的最大整数。此外,N1至N7中的一部分或全部可以相同,也可以不同。
例如,对于目标处理方式是第一切换序列中位于源处理方式之后的N1个处理方式之一的情况,UE提前准备了与N1个处理方式相关的AI模型,从而使得切换时延比较短,但是鉴于UE用于该提前准备操作的资源有限,因此,利用该限制(即阈值Th_preparedModelsize_N1)来确定N1的大小,例如,当该限制为50M时(即阈值Th_preparedModelsize_N1为50M时,N1是满足的最大整数,其中,Msizei表示第一切换序列中位于源处理方式之后的N1个处理方式之中的第i个处理方式相关的AI模型的大小,通过该计算过程,即可确定出N1的大小。
在本公开的示例性实施例中,例如,切换序列是基于AI模型的复杂度被排序的。如图18中所示,UE的源处理方式是Model#2,其中,目标处理方式可以是该切换序列中位于源处理方式之后的两个处理方式(即Model#3和Model#4),或者,目标处理方式是该切换序列中位于源处理方式之后的满足切换条件的一个处理方式(即Model#3),或者,目标处理方式是该切换序列中与源处理方式相邻的两个处理方式(即Model#1和Model#3),或者,目标处理方式是该切换序列中与源处理方式相邻的满足切换条件的一个处理方式(即Model#1)。
又例如,如图18中所示,UE的源处理方式是Model#2,基于切换序列所示顺序,UE提前准备Model#2的下一个处理方式(即Model#3),这样当性能下降进而触发处理方式的切换时,如果BS指示的目标处理方式是Model#3,由于UE已经提前准备了Model#3,因此UE将在T2=T1+Th_Td_1更快地应用Model#3。如果BS指示的目标处理方式是Model#4,因为UE没有提前准备Model#4,所以UE需要更长的切换处理时间,UE将在T2=T1+Th_Td_2应用Model#4。
此外,第一切换序列关联以下项中的至少一项:基站指示的切换序列;UE上报的切换序列;以及预设的切换序列。
具体地讲,在本公开的一种示例性实施例中,第一切换序列是基于基站指示的切换序列和UE上报的切换序列确定的。其中,UE上报的切换序列是在基站指示切换序列之后UE最后一次上报的切换序列。在这种情况下,第一切换序列的元素是既在所述基站指示的切换序列中又在UE上报的切换序列中的元素。也就是说,UE可以忽略那些未包含在所述UE上报的切换序列中的元素(处理方式/处理方式的组合)。BS不应指示UE应用不包含在UE上报的切换序列中的处理方式或处理方式的组合。
例如:BS指示的切换序列为{Model#1,Model#2,Model#3},UE上报的切换序列是{Model#1,Model#3,Model#5},则第一切换序列是{Model#1,Model#3}。
又例如,BS指示的切换序列为{{Model#1,Model#3},{Model#2,Model#3},{Model#1,Model#4},{Model#2}},UE上报的切换序列是{{Model#2},{Model#1,Model#4},{Model#1,Model#3}},则第一切换序列是{{Model#1,Model#3},{Model#1,Model#4},{Model#2}}。
在本公开中,考虑了UE不仅会应用BS所指示的AI模型还有可能应用不为BS所知的AI模型,并考虑了运行温度对UE运算性能的影响,这些因素都会导致UE对AI模型的支持能力和计算能力是动态变化的。在上述方案中,UE成功上报切换序列之后,第一切换序列会立即排除那些UE不支持的处理方式或处理方式的组合,从而基于UE动态变化的AI处理能力快速调整第一切换序列。并且,UE可以通过上报包含不同元素或者不同顺序的切换序列,以向BS提供模型切换的辅助信息。例如,UE基于自身的判断或预测,向BS推荐更合适自身行为模式特征的切换序列。
此外,第一切换序列除了可以通过包含多个功能的不同处理方式来协调多个功能的切换以避免产生AI冲突或者兼容性问题,还可以通过上述方法更新第一切换序列来避免产生AI冲突或者兼容性问题。例如,如图14b中所示,功能A和功能B具有各自的第一切换序列,功能A的第一切换序列为{Model#1,Model#2,{}},功能B的第一切换序列为{Model#4,Model#3,{}}。其中,UE无法同时应用或者激活Model#2和Model#3。假设功能B应用Model#4,当功能A切换到Model#2时,UE可以上报切换序列{Model#4,{}}及时更新第一切换序列,避免功能B切换到Model#3进而引发AI模型冲突或者兼容性问题。
此外,在本公开的一种示例性实施例中,第一切换序列的最后一个元素默认是相应功能的非AI的处理方式,或者BS指定的默认处理方式或者预设的处理方式。例如,BS指示切换序列为{Model#1,Model#2,Model#3},第一切换序列为{Model#1,Model#2,Model#3,{}}。这样做可以节约指示切换序列的信令开销。
(2)方法二
在本公开的另一种示例性实施例中,可根据以下的等式(3)来确定切换时延Td:
Td=min(αtarget*Msizetarget+αsource*Msizesource,Tdlimitation) (3)
其中,Msizetarget表示与目标处理方式相关的AI模型的大小;Msizesource表示与源处理方式相关的AI模型的大小;αtarget和αsource表示预设的缩放系数,它们可以是预设的,由BS设置的,或者根据UE的能力确定的,并且αtarget≥0,αsource≥0;αsource*Msizesource表示用于处理源处理方式占用的资源所需要的时间,例如,释放源处理方式占用的资源所需要的时间;αtarget*Msizetarget表示用于准备目标处理方式需要的时间,例如,若目标处理方式为基于AI模型的处理方式,则用于准备目标处理方式需要的时间(即αtarget*Msizetarget)可以是将AI模型转换成UE特定的可执行格式,将AI模型的相关参数载入内存,实例化AI模型等操作所需要的时间。Tdlimitation表切换时延的上限,其可以是预设的,由BS设置的,或者根据UE的能力确定的。min()表示取最小值。
在本申请中,当与目标处理方式相关的AI模型包括多个AI模型时,作为一种可选方法,Msizetarget表示与目标处理方式相关的多个AI模型的大小总和,即,其中,/>表示与目标处理方式相关的第i个AI模型的大小,sum()表示求和,该可选方法可是适用于例如UE只能串行地准备与目标处理方式相关的AI模型的情况。当与目标处理方式相关的AI模型包括多个AI模型时,作为另一种可选方法,Msizetarget表示与目标处理方式相关的多个AI模型的大小中的最大值,即,max()表示取最大值,/>表示与目标处理方式相关的多个AI模型的大小的集合,该可选方法可适用于例如UE可以并行地准备与目标处理方式相关的AI模型的情况。此外,对于与源处理方式相关的AI模型包括多个AI模型的情况,可采用类似的方式,这里不再进行赘述。
(3)方法三
在本公开的又一种示例性实施例中,可根据以下的等式(4)来确定切换时延Td:
Td=min(βtarget*Mnumtarget+βsource*Mnumsource+αtarget*Msizetarget+αsource*Msizesource,Tdlimitation) (4)
其中,Mnumtarget表示与目标处理方式相关的AI模型的数量;Mnumsource表示与源处理方式相关的AI模型的数量;βtarget、αtarget、βsource、αsource表示预设的缩放系数,它们可以是预设的,由BS设置的,或者根据UE的能力确定的,并且βtarget≥0,αtarget≥0,βsource≥0,αsource≥0。相比起等式(3),等式(4)直接考虑了与目标处理方式相关的AI模型的数量和/或与源处理方式相关的AI模型的数量。例如,即UE并行地准备与目标处理方式相关的AI模型,并选取大小最大的AI模型的处理时间为基准,在此基础上添加了处理与目标处理方式相关的多个AI模型的时间余量βtarget*Mnumtarget。类似地,对于源处理方式同理,这里不再赘述。
(4)方法四
在本公开的其他示例性实施例中,可根据以上的等式(1)、等式(3)和(4)中的至少两种的综合来确定切换时延Td,例如,可利用基于等式(1)和(3)的综合的以下等式(5)来确定切换时延Td:
其中,α2target>α1target≥0,α2source>α1source≥0,并且,α2target、α1target、α2source和α1source可以是预设的,由BS设置的,或者根据UE的能力确定的。
例如,根据等式(5),可在考虑与源处理方式相关的AI模型的结构和与目标处理方式相关的AI模型的结构是否相同的基础上,进一步考虑模型大小的影响因素。
以上通过举例的方式列举了多种确定切换时延Td的方法,但是本申请不限于此,任何可根据以上的等式(1)、等式(3)和等式(4)进行不同的综合来确定切换时延Td的方法均可应用于本申请。
另外,在本申请中,关于时间的单位可以是毫秒ms,也可以是另一预设的时间单位,例如,时隙(Slot),因此,在以上描述的各种方法中,Td还可能统一地进行时间单位的处理,例如,当根据等式(3)确定出Td为αtarget*Msizetarget+αsource*Msizesource时,T2的时间单位为时隙时,可根据以下等式(6)对Td部分的单位进行时间单位的处理:
其中,h表示时隙长度(Slot Length)。
通过以上描述的各种方法确定切换时延Td,可有效地降低切换时延。
此外,由UE执行的方法还可包括:当第一条件被满足时,在第三时间去激活源处理方式,其中,第三时间在所述第二时间之前。
具体地讲,第一条件可包括以下项中的至少一项:与源处理方式相关的AI模型的大小不小于第一阈值和/或与目标处理方式相关的AI模型的大小不小于第二阈值;与源处理方式相关的AI模型和与目标处理方式相关的AI模型的大小总和不小于第三阈值;UE在第一时间已被占用的处理资源不小于第四阈值和/或与目标处理方式相关的AI模型的大小不小于第五阈值;与源处理方式相关的AI模型和与目标处理方式相关的AI模型的结构相同;源处理方式的相关性能参数值不高于第六阈值;以及第二时间与第一时间的差值不小于第七阈值。在本申请中,处理资源可以是指内存或缓存资源、计算资源。在可选的示例性实施例中,已被占用的处理资源是针对某一类处理方式而言的,例如,已被基于AI模型的处理方式所占用的处理资源。
在本公开的一种示例性实施例中,当与源处理方式相关的AI模型的大小不小于第一阈值(即,与源处理方式相关的AI模型占据了较多的内存资源),和/或与目标处理方式相关的AI模型的大小不小于第二阈值(即,与目标处理方式相关的AI模型需要较多的内存开销)时,或者,当与源处理方式相关的AI模型和与目标处理方式相关的AI模型的大小总和不小于第三阈值时,意味着,UE受限于处理能力,无法先激活与目标处理方式相关的AI模型(例如无法将与目标处理方式相关的AI模型先载入内存),再去激活与源处理方式相关的AI模型,在这种情况下,UE只能先去激活例如源处理方式(例如,释放源处理方式所占用的处理资源,将源AI模型从内存中清除),再激活和应用目标处理方式。因此,如图16b中所示,UE可先在第二时间T2之前的第三时间T3去激活源处理方式,再从第二时间T2开始应用目标处理方式。
例如,UE将关于CSI反馈功能的AI模型从Model#1(大小为20M)切换到Model#2(大小为40M),但Model#1的大小不小于第一阈值(例如大小为18M),且Model#2的大小不小于第二阈值(例如大小为35M)。或者,在针对CSI反馈功能所分配的AI处理资源中,内存空间的限制为50M,也就是说,第三阈值为50M,由此可见,这两个模型Model#1和Model#2的大小总和(即60M)不小于第三阈值(即,不小于内存空间的限制)。因此,UE无法同时在内存中保持Model#1和Model#2,UE只能先去激活Model#,再载入Model#2。
在以上描述中,关于处理资源的限制是针对一个功能而言,即,是功能特定的,然而,本申请不限于此,关于处理资源的限制也可以是针对UE而言的,例如,针对UE已被占用的处理资源(例如内存或缓存资源),或者关于处理资源的限制是针对UE某一类处理方式而言的,例如,针对UE中的所有AI模型而言,换句话说,是UE特定的。
具体地讲,当UE在第一时间已被占用的处理资源(例如内存或缓存资源)不小于第四阈值,和/或与目标处理方式相关的AI模型的大小不小于第五阈值时,UE也需要先去激活与源处理方式相关的AI模型,再应用与目标处理方式相关的AI模型,因此,在这种情况下,UE可先在第二时间T2之前的第三时间T3去激活源处理方式,再从第二时间T2开始应用目标处理方式。
例如,在一种示例性实施例中,已被占用的处理资源区分按照处理方式的类型进行区分,例如,区分为已被基于AI模型的处理方式占用的处理资源、以及已被非AI的处理方式占用的处理资源。例如,UE的AI处理资源中总内存限制为200M,但是UE在第一时间已经有170M的内存资源被基于AI的处理方式所占用,当UE需要将关于CSI反馈功能的AI模型从Model#1(大小为20M)切换到Model#2(大小为40M)时,由于UE在第一时间已被基于AI的处理方式占用的内存资源(即170M)不小于第四阈值(例如165M),和/或Model#2的大小大于第五阈值(例如38M),因此,UE先去激活Model#1,释放内存空间,再将Model#2载入内存,激活并应用Model#2。
同理,在另一可选示例性实施例中,已被占用的处理资源并不区分占用处理资源的处理方式的类型,也就是说,占用处理资源的处理方式可包括基于AI的处理方式和/或非AI的处理方式。例如,UE的处理资源中总内存限制为200M,但是UE在第一时间已经有170M的内存资源被占用,当UE需要将关于CSI反馈功能的AI模型从Model#1(大小为20M)切换到Model#2(大小为40M)时,由于UE在第一时间已被占用的内存资源(即170M)不小于第四阈值(例如165M),和/或Model#2的大小大于第五阈值(例如38M),因此,UE先去激活Model#1,释放内存空间,再将Model#2载入内存,激活并应用Model#2。
在本公开的一种示例性实施例中,当与源处理方式相关的AI模型的结构和与目标处理方式相关的AI模型的结构相同时,一种切换处理方式的实现方式是更新已有模型实例(例如,与源处理方式相关的AI模型的实例)的权重,而不是从头创建一个模型实例(例如,与目标处理方式相关的AI模型的实例),这种切换方式的整体时延会缩短,因此,在这种情况下,UE可先在第二时间T2之前的第三时间T3去激活源处理方式,再从第二时间T2开始应用目标处理方式。
在本公开的另一种示例性实施例中,UE支持源处理方式和目标处理方式的无缝切换,例如UE先激活目标处理方式,再去激活源处理方式,但是,若源处理方式的相关性能参数值在第一时间或者第一时间之前就已经低于第六阈值,考虑到再继续使用源处理方式可能会造成通信性能的进一步下降,因此,在这种情况下,UE可先在第二时间T2之前的第三时间T3去激活源处理方式,再从第二时间T2开始应用目标处理方式,其中,源处理方式的相关性能参数值是指例如源处理方式的准确度、精度、或最终的通信性能指标(例如BLER、SINR),但本公开不限于此。其中,第六阈值可与默认处理方式或非AI的处理方式的性能有关,或者,也可以是由BS设置的,预设的,或者根据UE的能力确定的。
在本公开的另一种示例性实施例中,如果UE开始应用目标处理方式的第二时间与第一时间之间的差值不小于第七阈值(即UE需要较长的处理时间才能开始应用目标处理方式),那么在UE收到切换指示信息之后,UE可先在第二时间T2之前的第三时间T3去激活源处理方式,再从第二时间T2开始应用目标处理方式。
此外,所述由UE执行的方法还可包括:在第三时间至第二时间之间应用第一处理方式。
具体地讲,在某些情况下,对于被切换处理方式的功能,在中断时间(即,图16b中所示的第三时间与第二时间之间的Ti)内仍需要继续执行,但是在该中断时间内,UE既不能应用源处理方式,也不能应用目标处理方式,UE可应用由基站指示的或预设的第一处理方式来处理该功能。
在本公开的一种示例性实施例中,第一处理方式可以是非AI的处理方式。
在本公开的另一种示例性实施例中,第一处理方式可以是基于AI模型的处理方式,例如,与第一处理方式相关的AI模式可以是相应功能已经部署或者激活的AI模型,UE可以在第三时间T3无缝切换至该AI模型,且切换时延较短。在本公开中,“已部署”表示处理方式已占用UE的处理资源,例如,占用UE的内存或缓存资源和/或占用UE的计算资源。又例如,与第一处理方式相关的AI模型是BS指定或者预设的默认模型,这些模型采用预留的或者专用的计算资源和/或存储资源,UE可以在第三时间T3无缝切换至该AI模型,且切换时延较短。
例如,对于与第一处理方式相关的AI模型是相应功能已经部署或者激活的AI模型的情况,在一些情况下,同一个功能可能应用、部署或激活多个AI模型,例如,如图16c中所示,假设CSI反馈功能具有三个可用的AI模型(即Model#1,Model#2,Model#3),Model#1是泛化性能较好、精度较低的AI模型,Model#2和Model#3是针对不同的特定场景进行过优化、精度较高的AI模型(即Model#2和Model#3在特定场景下,性能会优于Model#1,但是泛化性能不及Model#1)。CSI反馈功能可以应用处理方式{Model#1,Model#2}或者{Model#1,Model#3},即同时应用一个泛化性能较好的模型和一个针对特定场景进行过优化的模型,BS可以分别配置和调度基于这两个模型的反馈,并综合考虑且选择合适的下行预编码。BS可以指示Model#1是CSI反馈功能的默认模型(即第一处理方式),当UE从处理方式{Model#1,Model#2}切换到{Model#1,Model#3}时,假设UE需要先在T3去激活Model#2,再在T2应用Model#3,在中断时间(即T3到T2)内,原本由Model#2处理的CSI上报操作,由Model#1处理完成。
此外,第三时间与以下项中的至少一项有关:第一处理方式的特性、源处理方式的特性、以及第一时间。
具体而言,与目标处理方式的特性和源处理方式的特性类似,第一处理方式的特性包括以下项中的至少一项:与第一处理方式相关的AI模型的大小;与第一处理方式相关的AI模型的数量;第一处理方式是否属于第一集合;与第一处理方式相关的AI模型的结构;第一处理方式在第一切换序列中的位置;以及与第一处理方式相关的功能的个数。
具体地讲,T3=T1+Tfb,其中,Tfb是第一时延,即第三时间与第一时间之间的时间差。Tfb可以是预设的,由基站设置的,或者根据UE的能力确定的,此时,T3与第一时间T1有关;此外,Tfb也可以与第一处理方式的特性有关,此时,T3与第一时间T1和第一处理方式的特性有关。
例如,可根据以下的等式(7)来确定第一时延Tfb:
其中,Δt1和Δt2可以是预设的,由BS设置的,或者根据UE的处理能力确定的,并且Δt2>Δt1。条件z可包括以下项中的至少一项:第一处理方式是非AI的处理方式;与第一处理方式相关的AI模型属于基站指示的或预设的集合。
此外,在以上描述步骤S1520时涉及的用于确定切换时延Td的任何方法中,如果将这些方法中使用的目标处理方式的特性替换为第一处理方式的特性时,则这些方法可用于确定第一时延Tfb,由于以上已对这些方法进行了详细描述,因此,这里不再进行赘述。
通过在第三时间T3去激活源处理方式并在第三时间与第二时间之间的中断时间内应用第一处理方式,可实现中断时间内的处理模式的快速切换。
此外,以上所描述的由UE执行的方法还可包括:确定与多个功能相关的目标处理方式,其中,目标处理方式是多个功能的处理方式的组合,其中,目标处理方式与以下项中的至少一项有关:切换指示信息、以及第一切换序列。
具体地讲,在本公开的一种示例性实施例中,确定与多个功能相关的目标处理方式的步骤可包括:当从BS接收的切换指示信息与第一切换序列中元素的位置编号相关时,UE可根据第一切换序列中的相应元素确定与多个功能修改的目标处理方式。
在本公开的另一种示例性实施例中,确定与多个功能相关的目标处理方式的步骤可包括:当从BS接收的切换指示信息只包含与第一功能相关的第一目标处理方式时,根据第一目标处理方式和第一切换序列确定与第二功能相关的第二目标处理方式,其中,第二功能是在与第一切换序列相关的功能中除第一功能之外的其他功能。
具体地讲,根据第一目标处理方式和第一切换序列确定与第二功能相关的第二目标处理方式的步骤可包括以下项中的至少一项:当第一切换序列中不存在同时包含了第二功能在第一时间的处理方式和第一目标处理方式的元素时,第二目标处理方式是第一切换序列中第一个包含第一目标处理方式的元素所指示的对应的第二功能的处理方式,从而通过联动切换避免冲突和/或兼容性问题;当第四条件满足时,第二目标处理方式是第二处理方式,其中,第二处理方式是最后一次通过信令指示的第二功能的处理方式,其中,第四条件是第一切换序列中存在同时包含第二处理方式和第一目标处理方式的元素,从而使得第二功能能够从联动切换中快速恢复,常见场景是第二功能因为更高优先级的功能占用AI处理资源而联动降级,该方法可以让第二功能从联动降级中快速恢复到优选的处理方式中去。
例如,如图19中所示的切换序列,与模型Model#1和Model#2对应的功能A是CSI反馈功能,与模型Model#3和Model#4对应的功能B是CSI预测功能。基于用于CSI预测功能的不同AI模型(Model#3和Model#4),可以实现参考信号开销不同程度的缩减。Model#1是更适合与CSI预测功能配合使用的AI模型(即CSI反馈模型)。Model#2用于高精度的CSI压缩反馈功能。出于兼容性的考虑或者UE能力的问题,Model#2无法与Model#3或Model#4一起使用。为了确保性能,在一些应用场景中,BS会间歇性地指示UE切换到{Model#2}(即CSI反馈功能应用Model#2,CSI预测功能应用非AI的处理方式)来获取精确的CSI信息。例如:
(1)BS首先指示UE应用Model#1处理CSI反馈,应用Model#4进行CSI预测。该指示还可以基于切换序列中元素的位置编号来进行指示,例如,指示应用切换序列中的第二个元素所指示的处理方式,即UE应用{Model#1,Model#4}这一处理方式的组合。
(2)BS发送切换命令指示UE将用于CSI反馈功能的AI模型切换到Model#2。因为在收到切换命令时,用于CSI预测功能的Model#4和用于CSI反馈功能的目标模型Model#2,这一处理方式的组合并不在切换序列中,所以UE根据切换序列中第一个包含Model#2的元素(即第三个元素)所指示的CSI预测功能的处理方式(即基于非AI的处理方式),确定CSI预测功能的目标处理方式。可选地,另一种方法是BS直接指示应用切换序列中第三个元素所指示的处理方式。又因为如果这两个功能进行非同步的切换,会出现不在切换序列中的处理方式组合,例如在此例中,假设CSI预测功能从源处理方式切换到非AI的处理方式要快于CSI反馈功能的切换,则会出现{Model#1}这种处理方式组合,即CSI反馈功能采用Model#1,而CSI预测功能采用非AI的处理方式,但是这种处理方式组合不在切换序列中,所以,UE在切换CSI反馈功能的AI模型的同时,将CSI预测功能的处理方式同步切换到非AI的处理方式。从而通过联动切换避免了在多个功能间产生AI冲突和/或兼容性问题。
(3)BS发送切换命令指示UE将CSI反馈功能的AI模型切回到Model#1。因为CSI预测功能最后一次指示的处理方式是Model#4,而Model#4和Model#1同时包含在切换序列中的第二个元素中,所以UE可确定CSI预测功能的目标处理方式是Model#4。UE不仅可将CSI反馈功能的处理方式切换至Model#1,还可将CSI预测功能的处理方式切换至Model#4。同理,因为切换序列中不包括{Model#1}、{Model#4},即无论CSI预测功能和CSI反馈功能这两者中的任何一个功能比另一个功能先应用目标处理方式时,都会出现不在切换序列中的处理方式的组合,所以,UE在同一时间同步应用Model#1和Model#4。
通过以上处理,可避免了多个功能之间产生AI冲突和/或兼容性问题。
此外,上述由UE执行的方法还可包括:当目标处理方式是多个功能的处理方式的组合,并且第二条件满足时,从第二时间开始同时应用与多个功能相关的目标处理方式中的每个功能的处理方式。其中,第二时间与多个功能分别切换时所需的切换时延、第一时延、中断时间中的至少一项有关,也就是,在不考虑同时应用与多个功能相关的目标处理方式的情况下,与每个功能单独切换时所需的切换时延、第一时延、中断时间中的至少一项有关。其中,每个功能单独切换时所需的切换时延表示该功能应用相应的目标处理方式的时间与第一时间(即接收切换指示信息的时间)之间的时间差,换句话说,每个功能单独切换时所需的切换时延表示该功能在第一时间之后经过多长时间开始应用相应的目标处理方式;每个功能单独切换时所需的第一时延表示该功能去激活相应的源处理方式的时间与第一时间之间的时间差,换句话说,每个功能单独切换时所需的第一时延表示该功能在第一时间之后经过多长时间去激活相应的源处理方式;每个功能单独切换时所需的中断时间表示该功能应用相应的目标处理方式的时间与去激活相应的源处理方式的时间之间的时间差,换句话说,每个功能单独切换时所需的中断时间表示该功能在去激活相应的源处理方式之后经过多长时间开始应用相应的目标处理方式。其中,第二条件包括以下项中的至少一项:目标处理方式由第一切换序列中元素的位置编号所指示;在多个功能进行非同步的处理方式切换的情况下,在该多个功能的处理方式的组合中出现不包含在第一切换序列中的处理方式的组合。
具体地讲,可根据以下的等式(8)和(9)来确定第二时间T2multi。
Tdmulti=max ({Tdi}) +Δ2 (8)
T2multi=T1+Tdmulti (9)
其中,Tdi表示与目标处理方式相关的第i个功能单独切换时所需的切换时延,该切换时延Tdi可由以上描述的方法一至方法四中任一方法或组合来确定;Δ2表示多功能同步切换处理时间余量,其可以是预设的,由BS设置的,或者根据UE的能力确定的;i=1,2,…N,其中,N表示多个功能的个数。
又例如,可根据以下的等式(10)和以及以上的等式(9)来确定第二时间T2multi。
Tdmulti=max( Tfb_multi +max({Tini}),max({Tdi}) )+ Δ2 (10)
其中,Tfb_multi表示多个功能同时切换时的第一时延,即与目标处理方式相关的多个功能同时去激活相应的源处理方式的时间与第一时间之间的时间差。其中,Tfb_multi可以是预设的,由BS设置的,或者根据UE的能力确定的,或者是根据以下将描述的等式(11)确定的。Tini表示与目标处理方式相关的第i个功能单独切换时的中断时间。Tdi表示与目标处理方式相关的第i个功能单独切换时所需的切换时延。
上述由UE执行的方法还可包括:当目标处理方式是多个功能的处理方式的组合,并且第三条件满足时,从第三时间开始同时去激活多个功能的源处理方式,其中,第三时间与所述多个功能分别切换时所需的第一时延有关。其中,第三条件包括下述至少一项:所述第二条件满足;以及在所述多个功能非同步地去激活相应的源处理方式,并且每个功能在去激活相应的源处理方式到应用相应的目标处理方式之间的时间内采用相应的第一处理方式的情况下,在所述多个功能的处理方式的组合中出现不包含在第一切换序列中的处理方式的组合。
具体地讲,例如,可根据以下的等式(11)和(12)来确定第三时间T3multi。
Tfb_multi= max({Tfb_i})+ Δ3 (11)
T3multi=T1+ Tfb_multi (12)
其中,Tfb_i表示与目标处理方式相关的第i个功能单独切换时所需的第一时延。Δ3表示多功能同步切换处理时间余量,其可以是预设的,由BS设置的,或者根据UE的能力确定的。
在本公开的一种示例性实施例中,当目标处理方式和多个功能相关时,如果目标处理方式是基于切换序列中元素的位置编号指示的,或者在切换指示信息中明确包含同步切换的指示,则UE同步切换多个功能的处理方式,即同时应用多个功能的目标处理方式,同时去激活多个功能的源处理方式。
在本公开的另一种示例性实施例中,目标处理方式和多个功能相关,如果这多个功能非同步地应用目标处理方式,从接收切换指示信息开始,直到最后一个功能开始应用其相应的目标处理方式期间,在这多个功能的处理方式的组合中会出现不包含在第一切换序列中的处理方式的组合,那么UE在第二时间同时应用目标处理方式。
例如,如图19和图20中所示,CSI反馈功能(功能A)和CSI预测功能(功能B)这两者从{Model#1,Model#4}切换到{Model#2},如果这两个功能独立的切换(即非同步地应用相应的目标处理方式),因为CSI预测功能应用相应的目标处理方式(即非AI的处理方式)的时间会早于CSI反馈功能应用Model#2的时间,所以这两个功能会出现{Model#1}这种处理方式的组合,即CSI反馈功能应用的是Model#1,CSI预测功能应用的是非AI的处理方式,但是,这种处理方式的组合并未包含在第一切换序列中。所以,参照图20,根据以上的等式(8),在假设只考虑max({Tdi})并且Δ2=0的情况下,UE在T2multi=max(T2_A,T2_B)时间同时应用与这两个功能相应的目标处理方式,其中,T2_A是CSI反馈功能单独切换时所需的切换时延,T2_B是CSI反馈功能单独切换时所需的切换时延。
在本公开的另一种示例性实施例中,还需要考虑多个功能去激活源处理方式的时间。
例如,假设切换序列为{{Model#1,Model#2},{Model#3,Model#4},{}},UE执行从切换序列中的元素一所指示处理方式到元素二所指示的处理方式的切换,即功能A从Model#1切换到Model#3,功能B从Model#2切换到Model#4。假设这两个功能在进行处理方式的切换时都会有中断时间(即先去激活相应的源处理方式,再应用相应的目标处理方式),而且在中断时间内,功能A和功能B都采用非AI的处理方式。如果这两个功能非同步地去激活源处理方式并应用相应的第一处理方式,假设这两个功能的第一处理方式都是非AI的处理方式,且功能A去激活Model#1早于功能B去激活Model#2,那么功能A和B会出现{Model#2}这种处理方式的组合,即功能A应用的是非AI的处理方式,功能B应用Model#2。但是,这种处理方式的组合未包括在切换序列中,所以,UE在T3multi=T1+max(T3_A-T1,T3_B-T1)(即这里对应于公式(11)和(12)且Δ3=0)时间同时去激活这两个功能相应的源处理方式(即Model#1和Model#2),如图21中所示。
同时,在本例中,对于功能A来说,T3multi时间晚于T3_A,即为了同步去激活源处理方式,功能A推迟了去激活Model#1的时间,为了保证UE有足够的处理时间,T2multi考虑了最长的中断时间(即max({Tini})),如图21中所示。
通过以上处理,可避免切换过程中多个功能间产生AI冲突和/或兼容性问题。
图22是示出根据本公开的示例性实施例的由基站执行的方法的流程图。
如图22中所示,在步骤S2210,向UE发送处理方式的切换指示信息,其中,所述处理方式与AI模型有关,所述UE接收所述切换指示信息的时间为第一时间,其中,所述UE从第二时间开始应用目标处理方式,其中,所述第二时间与以下项中的至少一项有关:所述目标处理方式的特性、源处理方式的特性、所述第一时间。
在一种示例性实施例中,所述目标处理方式和/或所述源处理方式的特性包括以下项中的至少一项:与所述目标处理方式相关的AI模型的大小和/或与所述源处理方式相关的AI模型的大小;与所述目标处理方式相关的AI模型的数量和/或与所述源处理方式相关的AI模型的数量;所述目标处理方式是否属于第一集合;所述源处理方式是否属于第二集合;与所述目标处理方式相关的AI模型的结构和/或与所述源处理方式相关的AI模型的结构;所述目标处理方式和/或所述源处理方式在第一切换序列中的位置;以及与所述目标处理方式相关的功能的个数和/或与所述源处理方式相关的功能的个数。
在一种示例性实施例中,所述第一集合和/或所述第二集合是所述基站指示的或预设的。
在一种示例性实施例中,所述方法还包括:向所述UE指示切换序列;从所述UE接收上报的切选序列。
在一种示例性实施例中,所述第一切换序列关联以下项中的至少一项:所述基站指示的切换序列;所述UE上报的切换序列;以及预设的切换序列。
在一种示例性实施例中,所述方法还包括:向所述UE指示第一处理方式,其中,当第一条件被满足时,所述UE在第三时间去激活所述源处理方式,并在所述第三时间至所述第二时间之间应用所述第一处理方式。
在一种示例性实施例中,所述第一条件包括以下项中的至少一项:与所述源处理方式相关的AI模型的大小不小于第一阈值和/或与所述目标处理方式相关的AI模型的大小不小于第二阈值;与所述源处理方式相关的AI模型和与所述目标处理方式相关的AI模型的大小总和不小于第三阈值;所述UE在第一时间已被占用的处理资源不小于第四阈值和/或与所述目标处理方式相关的AI模型的大小不小于第五阈值;与所述源处理方式相关的AI模型和与所述目标处理方式相关的AI模型的结构相同;所述源处理方式的相关性能参数值不高于第六阈值;以及所述第二时间与所述第一时间的差值不小于第七阈值。
在一种示例性实施例中,所述第三时间与以下项中的至少一项有关:所述第一处理方式的特性、所述源处理方式的特性、以及所述第一时间。
在一种示例性实施例中,所述第一处理方式的特性包括以下项中的至少一项:与所述第一处理方式相关的AI模型的大小;与所述第一处理方式相关的AI模型的数量;
所述第一处理处理方式是否属于第一集合;与所述第一处理处理方式相关的AI模型的结构;所述第一处理处理方式在第一切换序列中的位置;以及与所述第一处理方式相关的功能的个数。
在一种示例性实施例中,所述第一切换序列包括一个功能的不同处理方式,所述第一切换序列中的每个元素包括该功能的一种处理方式,在所述第一切换序列中,基于AI模型的处理方式由AI模型的模型ID、模型ID组合或配置ID表示,非AI的处理方式由空集或者非AI方式的配置ID表示。
在一种示例性实施例中,所述第一切换序列包括多个功能的不同处理方式,第一切换序列中的每个元素包括所述多个功能的处理方式的一种组合,在所述第一切换序列中,基于AI模型的处理方式由AI模型的模型ID、模型ID组合或配置ID表示,非AI的处理方式由空集或者非AI方式的配置ID表示,所述空集表示所述多个功能分别采用非AI的处理方式,当第一切换序列中的元素不包含与所述多个功能之一相关的模型ID时,在该元素中包括的该一个功能的处理方式为非AI的处理方式。
在一种示例性实施例中,所述第一切换序列中的每个元素还包括:与该元素所指示的处理方式相关的切换条件。
在一种示例性实施例中,所述第一切换序列中元素的排序是由以下项中的至少一项决定的:基站指示的顺序;预设的顺序;以及处理方式的特性。
在一种示例性实施例中,处理方式的特性包括以下项中的至少一项:与处理方式相关的AI模型的大小;与处理方式相关的AI模型的数量;与处理方式相关的AI模型的复杂度;以及处理方式的适用条件,其中,处理方式的适用条件包括以下项中的至少一项:小区范围、SNR范围、移动速度、多普勒扩展范围、以及时延扩展范围。
在一种示例性实施例中,所述目标处理方式和/或所述源处理方式在所述第一切换序列中的位置满足以下项中的至少一项:所述目标处理方式是第一切换序列中位于所述源处理方式之后的N1个处理方式之一;所述目标处理方式是第一切换序列中位于所述源处理方式之后的满足切换条件的N2个处理方式之一;所述目标处理方式是第一切换序列中与所述源处理方式相邻的N3个处理方式之一;所述目标处理方式是第一切换序列中与所述源处理方式相邻的满足切换条件的N4个处理方式之一;所述目标处理方式是第一切换序列中前N5个处理方式之一;所述目标处理方式是第一切换序列中满足切换条件的前N6个处理方式之一;所述目标处理方式是所述UE从第一切换序列中选择上报的N7个处理方式之一;其中,N1至N7中至少一项是预设的,由BS设置的,根据UE的能力确定的,或者是AI模型的大小相关的数量。
由于以上已经参照图14a至图21对有关内容进行了详细描述,因此这里不再进行赘述。
图23是示出根据本公开的示例性实施例的切换与AI模型有关的处理方式的一个示例的信号流程图。
如图23中所示,在步骤S2310,UE从BS接收切换序列,如以上所述,从BS接收的切换序列(即BS指示的切换序列)可包括多个元素,每个元素可包括一个功能的一种处理方式,或者,包括多个功能的处理方式的一种组合,由于以上已详细描述,因此,这里不再进行赘述。切换序列可提供快速切换的必要信息。
在步骤S2320,UE向BS上报关于切换序列的更新或者上报切换序列的子集,这有利于快速调整UE的动态能力,避免AI冲突。UE可根据上报的关于切换序列的更新或者上报的切换序列的子集来确定第一切换序列,由于以上已经详细描述了第一切换序列,因此,这里不再进行赘述。
在步骤S2330,UE可根据第一切换序列提前准备目标处理方式,例如,提前准备目标AI模型,将其提前加载到内存中。这样可有助于降低切换时延。
在步骤S2340,UE从BS接收到切换指示信息。
在步骤S2350,UE根据第一切换序列确定多个功能的目标处理方式,并执行针对该多个功能的目标处理方式的切换,这可针对多个功能实现处理方式的切换协调,避免AI冲突或兼容性问题。
在步骤S2360,UE针对中断时间执行回退方法,即,在第三时间去激活源处理方式,在中断时间内(即第三时间到第二时间之间)应用第一处理方式,然后在中断时间结束时(即在第二时间)应用目标处理方式,从而针对中断时间实现处理方式的快速切换。
在步骤S2370,UE应用目标处理方式,即,在中断时间结束时应用目标处理方式,这样可降低切换时延。
以上参照图23所描述的信号流程仅是一个示例,上述步骤S2310至S2370中的一些步骤是可选择的,例如,在针对一个功能的处理方式进行切换,而不是针对多个功能的处理方式进行切换时,可省略步骤S2350。
由于以上已参照图14A至图21对其中涉及的详细细节进行了描述,因此,这里不再进行赘述。图24是示出了根据本公开的示例性实施例的模型发送方设备2400的框图。
参照图24,模型发送方设备2400可以包括收发器2401和至少一个处理器2402。具体地,至少一个处理器2402可与收发器2401耦接并被配置为执行以上关于图5的描述中提及的AI模型的传输方法。关于上述AI模型的传输方法中所涉及的操作的细节,可参见图5的描述,这里都不再赘述。
图25是示出了根据本公开的示例性实施例的模型接收方设备2500的框图。
参照图25,模型接收方设备2500可包括收发器2501和至少一个处理器2502。具体地,至少一个处理器2502可与收发器2501耦接并被配置为执行以上关于图8的描述中提及的AI模型的接收方法。关于上述AI模型的接收方法中所涉及的操作的细节,可参见图8的描述,这里都不再赘述。
图26是示出跟据本公开示例性实施例的电子设备2600的框图。
参照图26,电子设备2600包括至少一个处理器2601以及至少一个存储计算机可执行指令的存储器2602,其中,所述计算机可执行指令在被所述至少一个处理器2601运行时,促使所述至少一个处理器2601执行如以上述方法中的任何一个。
根据本公开的实施例,还可提供一种用户设备,包括收发器和至少一个处理器,所述至少一个处理器与收发器耦接并被配置为执行如上所述的由UE执行的方法。
根据本公开的实施例,还可提供一种基站,包括收发器和至少一个处理器,所述至少一个处理器与收发器耦接并被配置为执行如上所述的由基站执行的方法。
上述多个模块中的至少一个可以通过AI模型实现。与AI相关联的功能可以通过非易失性存储器、易失性存储器和处理器来执行。
处理器可以包括一个或多个处理器。此时,一个或多个处理器可以是通用处理器,例如中央处理器(CPU)、应用处理器(AP)等,仅用于图形的处理器(例如图形处理器(GPU)、视觉处理器(VPU)和/或AI专用处理器(例如神经处理单元(NPU))。
一个或多个处理器根据存储在非易失性存储器和易失性存储器中的预定义操作规则或人工智能(AI)模型来控制输入数据的处理。预定义的操作规则或人工智能模型可通过训练或学习提供。这里,通过学习提供意味着,通过将学习算法应用于多个学习数据,形成具有期望特性的预定义操作规则或AI模型。学习可以在根据实施例的执行AI的设备本身中执行,和/或可以通过单独的服务器/设备/系统来实现。
学习算法是使用多个学习数据来训练预定目标设备(例如,机器人)以使得、允许或控制目标设备做出确定或预测的方法。学习算法的例子包括但不限于有监督学习、无监督学习、半监督学习或强化学习。
人工智能模型可以通过训练获得。这里,“通过训练获得”是指通过训练算法训练具有多个训练数据的基本人工智能模型,从而获得预定义的操作规则或人工智能模型,所述操作规则或人工智能模型配置为执行所需的特征(或目的)。
作为示例,人工智能模型可以包括多个神经网络层。所述多个神经网络层中的每一个包括多个权重值,并且通过在前一层的计算结果和所述多个权重值之间的计算来执行神经网络计算。神经网络的例子包括但不限于卷积神经网络(CNN)、深度神经网络(DNN)、递归神经网络(RNN)、受限玻尔兹曼机(RBM)、深度置信网络(DBN)、双向递归深度神经网络(BRDNN)、生成式对抗网络(GAN)和深度Q网络。
根据本公开的实施例,还可提供一种存储指令的计算机可读存储介质,其中,当所述指令由至少一个处理器执行时,促使所述至少一个处理器执行根据本公开示例性实施例的上述各种方法。这里的计算机可读存储介质的示例包括:只读存储器(ROM)、随机存取可编程只读存储器(PROM)、电可擦除可编程只读存储器(EEPROM)、随机存取存储器(RAM)、动态随机存取存储器(DRAM)、静态随机存取存储器(SRAM)、闪存、非易失性存储器、CD-ROM、CD-R、CD+R、CD-RW、CD+RW、DVD-ROM、DVD-R、DVD+R、DVD-RW、DVD+RW、DVD-RAM、BD-ROM、BD-R、BD-R LTH、BD-RE、蓝光或光盘存储器、硬盘驱动器(HDD)、固态硬盘(SSD)、卡式存储器(诸如,多媒体卡、安全数字(SD)卡或极速数字(XD)卡)、磁带、软盘、磁光数据存储装置、光学数据存储装置、硬盘、固态盘以及任何其他装置,所述任何其他装置被配置为以非暂时性方式存储计算机程序以及任何相关联的数据、数据文件和数据结构并将所述计算机程序以及任何相关联的数据、数据文件和数据结构提供给处理器或计算机使得处理器或计算机能执行所述计算机程序。上述计算机可读存储介质中的指令或计算机程序可在诸如客户端、主机、代理装置、服务器等计算机设备中部署的环境中运行,此外,在一个示例中,计算机程序以及任何相关联的数据、数据文件和数据结构分布在联网的计算机系统上,使得计算机程序以及任何相关联的数据、数据文件和数据结构通过一个或多个处理器或计算机以分布式方式存储、访问和执行。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求限定。
Claims (15)
1.一种由用户设备UE执行的方法,包括:
从基站接收处理方式的切换指示信息,其中,所述处理方式与人工智能AI模型有关,接收所述切换指示信息的时间为第一时间;
从第二时间开始应用目标处理方式,其中,所述第二时间与以下项中的至少一项有关:所述目标处理方式的特性、源处理方式的特性、所述第一时间。
2.如权利要求1所述的方法,其中,所述目标处理方式和/或所述源处理方式的特性包括以下项中的至少一项:
与所述目标处理方式相关的AI模型的大小和/或与所述源处理方式相关的AI模型的大小;
与所述目标处理方式相关的AI模型的数量和/或与所述源处理方式相关的AI模型的数量;
所述目标处理方式是否属于第一集合;
所述源处理方式是否属于第二集合;
与所述目标处理方式相关的AI模型的结构和/或与所述源处理方式相关的AI模型的结构;
所述目标处理方式和/或所述源处理方式在第一切换序列中的位置;以及
与所述目标处理方式相关的功能的个数和/或与所述源处理方式相关的功能的个数。
3.如权利要求2所述的方法,其中,所述第一集合和/或所述第二集合是基站指示的或预设的。
4.如权利要求2或3所述的方法,其中,所述第一切换序列关联以下项中的至少一项:
基站指示的切换序列;
所述UE上报的切换序列;以及
预设的切换序列。
5.如权利要求1至4中任一项所述的方法,还包括:
当第一条件被满足时,在第三时间去激活所述源处理方式,其中,所述第三时间在所述第二时间之前。
6.如权利要求5所述的方法,还包括:
在所述第三时间至所述第二时间之间应用第一处理方式。
7.如权利要求5所述的方法,其中,所述第一条件包括以下项中的至少一项:
与所述源处理方式相关的AI模型的大小不小于第一阈值和/或与所述目标处理方式相关的AI模型的大小不小于第二阈值;
与所述源处理方式相关的AI模型和与所述目标处理方式相关的AI模型的大小总和不小于第三阈值;
所述UE在第一时间已被占用的处理资源不小于第四阈值和/或与所述目标处理方式相关的AI模型的大小不小于第五阈值;
与所述源处理方式相关的AI模型和与所述目标处理方式相关的AI模型的结构相同;
所述源处理方式的相关性能参数值不高于第六阈值;以及
所述第二时间与所述第一时间的差值不小于第七阈值。
8.如权利要求5至7中任一项所述的方法,其中,所述第三时间与以下项中的至少一项有关:所述第一处理方式的特性、所述源处理方式的特性、以及所述第一时间。
9.如权利要求8所述的方法,其中,所述第一处理方式的特性包括以下项中的至少一项:
与所述第一处理方式相关的AI模型的大小;
与所述第一处理方式相关的AI模型的数量;
所述第一处理处理方式是否属于第一集合;
与所述第一处理处理方式相关的AI模型的结构;
所述第一处理处理方式在第一切换序列中的位置;以及
与所述第一处理方式相关的功能的个数。
10.如权利要求1至9中任一项所述的方法,还包括:
确定与多个功能相关的所述目标处理方式,其中,所述目标处理方式是所述多个功能的处理方式的组合,
其中,所述目标处理方式与以下项中的至少一项有关:所述切换指示信息、以及第一切换序列。
11.如权利要求2所述的方法,其中,所述目标处理方式和/或所述源处理方式在所述第一切换序列中的位置满足以下项中的至少一项:
所述目标处理方式是第一切换序列中位于所述源处理方式之后的N1个处理方式之一;
所述目标处理方式是第一切换序列中位于所述源处理方式之后的满足切换条件的N2个处理方式之一;
所述目标处理方式是第一切换序列中与所述源处理方式相邻的N3个处理方式之一;
所述目标处理方式是第一切换序列中与所述源处理方式相邻的满足切换条件的N4个处理方式之一;
所述目标处理方式是第一切换序列中前N5个处理方式之一;
所述目标处理方式是第一切换序列中满足切换条件的前N6个处理方式之一;
所述目标处理方式是所述UE从第一切换序列中选择上报的N7个处理方式之一;
其中,N1至N7中至少一项是预设的,或者是AI模型的大小相关的数量。
12.一种由基站执行的方法,包括:
向用户设备UE发送处理方式的切换指示信息,其中,所述处理方式与AI模型有关,所述UE接收所述切换指示信息的时间为第一时间,
其中,所述UE从第二时间开始应用目标处理方式,其中,所述第二时间与以下项中的至少一项有关:所述目标处理方式的特性、源处理方式的特性、所述第一时间。
13.一种用户设备,包括:
收发器;
至少一个处理器,与所述收发器耦接并被配置为执行权利要求1至11中任一权利要求所述的方法。
14.一种基站,包括:
收发器;
至少一个处理器,与所述收发器耦接并被配置为执行权利要求12所述的方法。
15.一种存储指令的计算机可读存储介质,其中,当所述指令被至少一个处理器运行时,促使所述至少一个处理器执行如权利要求1至12中任一权利要求所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2023/005514 WO2023211076A1 (en) | 2022-04-27 | 2023-04-21 | User equipment, base station and method performed by the same |
US18/322,186 US20230353460A1 (en) | 2022-04-27 | 2023-05-23 | User equipment, base station and method performed by the same |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210459389 | 2022-04-27 | ||
CN2022104593890 | 2022-04-27 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116963037A true CN116963037A (zh) | 2023-10-27 |
Family
ID=88446715
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310260780.2A Pending CN116963037A (zh) | 2022-04-27 | 2023-03-13 | 用户设备、基站及其执行的方法 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN116963037A (zh) |
WO (1) | WO2023211076A1 (zh) |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11943122B2 (en) * | 2019-10-03 | 2024-03-26 | Intel Corporation | Management data analytics |
-
2023
- 2023-03-13 CN CN202310260780.2A patent/CN116963037A/zh active Pending
- 2023-04-21 WO PCT/KR2023/005514 patent/WO2023211076A1/en unknown
Also Published As
Publication number | Publication date |
---|---|
WO2023211076A1 (en) | 2023-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112136334A (zh) | 蜂窝网络中基于机器学习的宽波束优化的方法和装置 | |
US11678339B2 (en) | Method and apparatus for group-based multi-beam operation | |
TWI492594B (zh) | 用於無線網路可擴展及可縮放控制通道之方法及裝置 | |
TWI679905B (zh) | 換手方法與裝置 | |
KR20210029281A (ko) | 무선 통신 시스템에서 다중 빔 동작을 위한 방법 및 장치 | |
US20230124893A1 (en) | Multi-beam operations for multiple component carriers | |
CN107852630A (zh) | 蜂窝网络中波束级无线电资源管理和移动性的方法和装置 | |
WO2018126913A1 (zh) | 上行参考信号信息的指示方法及装置和存储介质 | |
US11937282B2 (en) | Method and apparatus for beam management for mobility | |
US10652880B2 (en) | Facilitating physical downlink shared channel resource element mapping indicator | |
US11671958B2 (en) | Management of group common downlink control channels in a wireless communications system | |
CN115516965A (zh) | 用于动态波束指示机制的方法和装置 | |
US11296854B2 (en) | Facilitating a mobile device specific physical downlink shared channel resource element mapping indicator | |
CN115428358A (zh) | 基于组的动态波束指示机制 | |
US10945281B2 (en) | Facilitating improved performance of multiple downlink control channels in advanced networks | |
CN116963037A (zh) | 用户设备、基站及其执行的方法 | |
EP3242501A1 (en) | Uplink transmission control method and apparatus | |
US20230353460A1 (en) | User equipment, base station and method performed by the same | |
US20220022180A1 (en) | Method and apparatus for beam management and training | |
KR20230141795A (ko) | 다중 슬롯당 물리적 다운링크 제어 채널 모니터링 방법및 장치 | |
RU2771349C2 (ru) | Способ и устройство для определения скачкообразной перестройки частоты канала и компьютерный носитель данных | |
US20230379723A1 (en) | Method and system for dss between lte cell and nr cell in wireless network | |
WO2023173296A1 (en) | Apparatus and methods for machine learning with low training delay and communication overhead | |
US20230224073A1 (en) | Method and device for enhancing uplink signal transmission | |
US20230354268A1 (en) | Method and apparatus for resource allocation for sidelink positioning in a wireless communication system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication |