CN116418686A - 模型的数据处理方法及装置 - Google Patents
模型的数据处理方法及装置 Download PDFInfo
- Publication number
- CN116418686A CN116418686A CN202111658528.4A CN202111658528A CN116418686A CN 116418686 A CN116418686 A CN 116418686A CN 202111658528 A CN202111658528 A CN 202111658528A CN 116418686 A CN116418686 A CN 116418686A
- Authority
- CN
- China
- Prior art keywords
- model
- data
- training
- input
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 151
- 238000012549 training Methods 0.000 claims abstract description 524
- 238000000034 method Methods 0.000 claims abstract description 268
- 238000012545 processing Methods 0.000 claims description 60
- 230000008569 process Effects 0.000 claims description 55
- 238000004891 communication Methods 0.000 claims description 49
- 238000004590 computer program Methods 0.000 claims description 8
- 230000006870 function Effects 0.000 description 122
- 238000013461 design Methods 0.000 description 56
- 238000013528 artificial neural network Methods 0.000 description 48
- 239000013598 vector Substances 0.000 description 24
- 210000002569 neuron Anatomy 0.000 description 23
- 230000004044 response Effects 0.000 description 23
- 238000013507 mapping Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 19
- 230000004913 activation Effects 0.000 description 14
- 239000011159 matrix material Substances 0.000 description 14
- 239000013256 coordination polymer Substances 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 6
- 238000007726 management method Methods 0.000 description 6
- 238000013480 data collection Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000010295 mobile communication Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000002787 reinforcement Effects 0.000 description 3
- 239000000758 substrate Substances 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000013439 planning Methods 0.000 description 2
- 230000008521 reorganization Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013468 resource allocation Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 102100022734 Acyl carrier protein, mitochondrial Human genes 0.000 description 1
- 101000678845 Homo sapiens Acyl carrier protein, mitochondrial Proteins 0.000 description 1
- 101100194706 Mus musculus Arhgap32 gene Proteins 0.000 description 1
- 101100194707 Xenopus laevis arhgap32 gene Proteins 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 210000005013 brain tissue Anatomy 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/145—Network analysis or design involving simulating, designing, planning or modelling of a network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0803—Configuration setting
- H04L41/0813—Configuration setting characterised by the conditions triggering a change of settings
- H04L41/082—Configuration setting characterised by the conditions triggering a change of settings the condition being updates or upgrades of network functionality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0896—Bandwidth or capacity management, i.e. automatically increasing or decreasing capacities
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/16—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
模型的数据处理方法及装置,该方法包括:第一节点确定模型的数据处理方法;第一节点根据所述模型的数据处理方法,实现以下至少一项:进行模型训练,或进行模型推理;利用该方法及装置,可实现利用一个模型,完成不同无线资源配置下的推理任务,减少模型训练和存储开销。
Description
技术领域
本申请涉及通信技术领域,尤其涉及模型的数据处理方法及装置。
背景技术
在无线通信网络中,例如在移动通信网络中,网络支持的业务越来越多样,因此需要满足的需求越来越多样。例如,网络需要能够支持超高速率、超低时延、和/或超大连接。该特点使得网络规划、网络配置、和/或资源调度越来越复杂。此外,由于网络的功能越来越强大,例如支持的频谱越来越高、支持高阶多入多出(multiple input multiple output,MIMO) 技术、支持波束赋形、和/或支持波束管理等新技术,使得网络节能成为了热门研究课题。这些新需求、新场景和新特性给网络规划、运维和高效运营带来了前所未有的挑战。为了迎接该挑战,可以将人工智能技术引入无线通信网络中,从而实现网络智能化。基于此,如何在网络中有效地实现人工智能是一个值得研究的问题。
发明内容
本申请提供模型的数据处理方法及装置,可利用一个模型,完成不同无线资源配置下的推理任务,减少模型训练和存储开销。
第一方面,提供模型的数据处理方法,该方法的执行主体为第一节点,第一节点为模型训练节点或模型推理节点等,还可以为配置为第一节点中的部件(处理器、芯片或其它),或者可以为软件模块等,该方法包括:确定模型的数据处理方法;根据所述模型的数据处理方法,实现以下至少一项:进行模型训练,或进行模型推理。
可选的,所述模型的数据处理方法包括以下至少一项:所述模型的输入数据填充方法,或所述模型的输出数据截取方法;或者,所述模型的数据处理方法包括以下至少一项:所述模型的输入数据截取方法,或所述模型的输出数据填充方法。
通过上述方法,当第一节点为模型推理节点,模型推理节点可根据该数据处理方法,利用同一个模型,完成不同无线资源配置下的推理任务。相对于针对每种无线资源配置,分别配置对应的模型,可减少模型训练和模型存储的开销。
在一种设计中,所述确定模型的数据处理方法,包括:接收来自第二节点的指示信息,所述指示信息用于指示所述模型的数据处理方法。其中,第一节点与第二节点不同。例如,第一节点为模型推理节点或模型训练节点,可接收来自其它节点(例如第二节点)的指示信息,该指示信息用于指示所述模型的数据处理方法,例如,第二节点为OAM等。或者,当第一节点为模型推理节点时,第二节点可以为模型训练节点,则模型推理节点可以接收来自模型训练节点的指示信息等。或者,根据协议约定,确定所述模型的数据处理方法。
通过上述方法,模型训练节点或模型推理节点可以通过协议约定,获取所述模型的数据处理方法。或者,接收来自其它节点的指示,根据其它节点的指示,确定所述模型的数据处理方法等。模型训练节点或模型推理节点,可灵活的确定模型数据的处理方法。
在一种设计中,所述输入数据填充方法或所述输出数据填充方法,包括以下至少一项:填充后数据的长度、填充数据的类型、或填充数据的规则。
在一种设计中,所述输出数据截取方法或所述输入数据截取方法,包括以下至少一项:截取后数据的长度、或截取数据的规则。
在一种设计中,所述根据所述模型的数据处理方法,进行模型推理,包括:根据所述输入数据填充方法,对第一输入数据进行数据填充,得到第二输入数据;根据所述第二输入数据和所述模型,确定第一输出数据;根据所述输出数据截取方法,对所述第一输出数据进行数据截取。
通过上述方法,模型推理节点对输入数据进行填充,对输出数据截取的方法,可使得利用一个模型,完成不同无线资源配置下的推理任务,减小模型的训练和存储开销。可选的,在该设计中,所述模型的输入长度大于或等于所有潜在无线资源配置中输入数据长度最大的输入数据的长度,输出长度大于或等于所有潜在无线资源配置中输出数据长度最大的输出数据的长度。
在一种设计中,所述根据所述模型的数据处理方法,进行模型训练,包括:根据所述输入数据填充方法,对第一输入训练数据进行数据填充,得到第二输入训练数据;根据所述第二输入训练数据和所述模型,确定第一输出训练数据;根据所述输出数据截取方法,对所述第一输出训练进行数据截取,得到第二输出训练数据;根据所述第二输出训练数据,对所述模型进行参数调整。
通过上述方法,在模型训练过程中,尽可能多的收集多种无线资源配置下的训练数据;对每种无线资源配置下的训练数据,采用数据处理方法分别进行处理;利用处理后的训练数据对AI模型进行训练,直至该AI模型满足条件,则结束模型训练。对所述模型训练过程中的学习方法不作限定,例如监督学习(标签学习)、非监督学习(非标签学习)、或强化学习等方法。采用该方法所训练出的模型,可满足各种无线资源配置下的推理任务,减少模型训练开销。
在一种设计中,所述根据所述模型的数据处理方法,进行模型推理,包括:根据所述输入数据截取方法,对第一输入数据进行数据截取,得到第二输入数据;根据第二输入数据和所述模型,确定第一输出数据;根据所述输出数据填充方法,对所述第一输出数据进行数据填充。
通过上述方法,模型推理节点对输入数据进行截取,对输出数据填充的方法,可使得利用一个模型,完成不同无线资源配置下的推理任务,减小模型的训练和存储开销。
在一种设计中,所述根据所述模型的数据处理方法,进行模型训练,包括:根据所述输入数据截取方法,对第一输入训练数据进行数据截取,得到第二输入训练数据;根据第二输入训练数据和所述模型,确定第一输出训练数据;根据所述输出数据填充方法,对所述第一输出训练数据进行数据填充,得到第二输出训练数据;根据所述第二输出训练数据,对所述模型进行参数调整。
通过上述设计,在模型训练过程中,对模型参数进行调整,包括对以下至少一项进行调整:神经网络的层数、神经网络的宽度、层的连接关系、神经元的权重值、神经元的激活函数、或激活函数中的偏置,以使得神经网元的输出与理想目标值之间的差异尽可能小。
在一种设计中,所述模型包括第一子模型,所述根据所述模型的数据处理方法,进行模型推理,包括:确定第一子模型的第一输出数据;根据所述输出数据截取方法,对所述第一输出数据进行数据截取。
在一种设计中,所述模型包括第二子模型,所述根据所述模型的数据处理方法,进行模型推理,包括:根据所述输入数据填充方法,对第一输入数据进行数据填充,得到第二输入数据;根据所述第二输入数据和所述第二子模型,确定第一输出数据。
通过上述方法,可对多种配对使用的子模型同时进行训练,例如上述第一子模型可部署在终端侧,第二子模型可部署在基站侧。同时,通过对第一子模型的输出数据进行截取,可减少空口开销。
在一种设计中,所述模型包括第一子模型和第二子模型,所述根据所述模型的数据处理方法,进行模型训练,包括:根据第一子模型的输入训练数据和第一子模型,确定第一子模型的第一输出训练数据;根据所述输出数据截取方法,对所述第一输出训练数据进行数据截取,得到第二子模型的第一输入训练数据;根据所述输入数据填充方法,对所述第二子模型的第一输入训练数据进行数据填充,得到第二输入训练数据;根据所述第二输入训练数据和所述第二子模型,确定第二子模型的输出训练数据;根据所述第一子模型的输入训练数据和所述第二子模型的输出训练数据,对以下至少一项进行调整:所述第一子模型的模型参数,或,所述第二子模型的模型参数。
第二方面,提供模型的数据处理方法,该方法的执行主体为第一节点,第一节点为模型训练节点或模型推理节点等,还可以为配置为第一节点中的部件(处理器、芯片或其它),或者可以为软件模块等,包括:向第二节点发送指示信息,所述指示信息用于指示模型的数据处理方法。
其中,所述模型的数据处理方法包括以下至少一项:所述模型的输入数据填充方法,或所述模型的输出数据截取方法;或者,所述模型的数据处理方法包括以下至少一项:所述模型的输入数据截取方法,或所述模型的输出数据填充方法。
通过上述方法,在一种示例中,第一节点为模型训练节点,模型训练节点可根据模型训练时,数据的处理方式,确定数据处理方法,且将该数据处理方法指示给模型推理节点。该模型推理节点在执行模型推理时,使用与训练时相同的方式,对数据进行处理,使得该模型推理节点可正确的使用该模型进行模型推理,提高了模型推理输出结果的准确性和推理速度。
在一种设计中,所述输入数据填充方法或者所述输出数据填充方法,包括以下至少一项:填充后数据的长度、填充数据的类型、或填充数据的规则。
在一种设计中,所述输出数据截取方法或所述输入数据截取方法,包括以下至少一项:截取后数据的长度、或截取数据的规则。
第三方面,提供装置,有益效果可参见第一方面的记载,该装置可以是第一节点,该第一节点可以是模型训练节点或模型推理节点、或者配置于第一节点中的装置,或者能够和第一节点匹配使用的装置。在一种设计中,该装置包括执行第一方面中所描述的方法/操作/步骤/动作一一对应的单元,该单元可以是硬件电路,也可是软件,也可以是硬件电路结合软件实现。
示例性地,该装置可以包括处理单元,且处理单元可以执行上述第一方面任一种设计示例中的相应功能,具体的:
处理单元,用于确定模型的数据处理方法,以及,根据所述模型的数据处理方法,实现以下至少一项:进行模型训练,或进行模型推理;
其中,所述模型的数据处理方法包括以下至少一项:所述模型的输入数据填充方法,或所述模型的输出数据截取方法;或者,所述模型的数据处理方法包括以下至少一项:所述模型的输入数据截取方法,或所述模型的输出数据填充方法。
关于上述处理单元的具体执行过程可以参考第一方面,这里不再赘述。
示例性地,所述装置包括处理器,用于实现上述第一方面描述的方法。所述装置还可以包括存储器,用于存储指令和/或数据。所述存储器与所述处理器耦合,所述处理器执行所述存储器中存储的程序指令时,可以实现上述第一方面描述的方法。在一种可能的设计中,该装置包括:
存储器,用于存储程序指令;
处理器,用于确定模型的数据处理方法,以及根据所述模型的数据处理方法,实现以下至少一项:进行模型训练,或进行模型推理;
其中,所述模型的数据处理方法包括以下至少一项:所述模型的输入数据填充方法,或所述模型的输出数据截取方法;或者,所述模型的数据处理方法包括以下至少一项:所述模型的输入数据截取方法,或所述模型的输出数据填充方法。
关于处理器的具体执行过程,可参见上述第一方面的记载,不再赘述。
第四方面,提供装置,有益效果可参见第二方面的记载,该装置可以是第一节点,该第一节点可以为模型训练节点,或者配置于第一节点中的装置,或者能够和第一节点匹配使用的装置等。一种设计中,该装置包括执行第二方面中所描述的方法/操作/步骤/动作一一对应的单元,该单元可以是硬件电路,也可是软件,也可以是硬件电路结合软件实现。
示例性地,该装置可以包括通信单元,且通信单元可以执行上述第二方面任一种设计示例中的相应功能,具体的:
通信单元,用于向第二节点发送指示信息,所述指示信息用于指示模型的数据处理方法;
其中,所述模型的数据处理方法包括以下至少一项:所述模型的输入数据填充方法,或所述模型的输出数据截取方法;或者,所述模型的数据处理方法包括以下至少一项:所述模型的输入数据截取方法,或所述模型的输出数据填充方法。
上述通信单元的具体执行过程可以参考第二方面,这里不再赘述。
示例性地,所述装置包括处理器,用于控制通信接口实现上述第二方面描述的方法。所述装置还可以包括存储器,用于存储指令和/或数据。所述存储器与所述处理器耦合,所述处理器执行所述存储器中存储的程序指令时,可以实现上述第二方面描述的方法。所述装置还可以包括通信接口,所述通信接口用于该装置和其它设备进行通信。示例性地,通信接口可以是收发器、电路、总线、模块、管脚或其它类型的通信接口,其它设备可以为模型推理节点等。在一种可能的设计中,该装置包括:
存储器,用于存储程序指令;
处理器,用于控制通信接口向第二节点发送指示信息,所述指示信息用于指示模型的数据处理方法;
其中,所述模型的数据处理方法包括以下至少一项:所述模型的输入数据填充方法,或所述模型的输出数据截取方法;或者,所述模型的数据处理方法包括以下至少一项:所述模型的输入数据截取方法,或所述模型的输出数据填充方法。
关于通信接口与处理器的具体执行过程,可参见上述第二方面的记载,不再赘述。
第五方面,本申请还提供计算机可读存储介质,包括指令,当其在计算机上运行时,使得计算机执行第一方面或第二方面任一方面的方法。
第六方面,本申请还提供芯片系统,该芯片系统包括处理器,还可以包括存储器,用于实现第一方面或第二方面任一方面的方法。该芯片系统可以由芯片构成,也可以包含芯片和其他分立器件。
第七方面,本申请还提供计算机程序产品,包括指令,当其在计算机上运行时,使得计算机执行第一方面或第二方面任一方面的方法。
第八方面,本申请还提供系统,该系统中包括第三方面的装置,和第四方面的装置。
附图说明
图1为本申请提供的通信系统的示意图;
图2和图3为本申请提供的AI模型的部署示意图;
图4a和图4b为本申请提供的通信系统的架构示意图;
图4c为本申请提供的针对每个带宽,分别训练一个AI模型的示意图;
图5为本申请提供的AI模型的应用架构示意图;
图6为本申请提供的神经元的示意图;
图7为本申请提供的神经网络的示意图;
图8和图9A为本申请提供的模型数据处理方法的流程图;
图9B和图9C分别为模型训练阶段和模型推理阶段的数据处理过程;
图10和图11分别为类型1参考信号和类型2参考信号的示意图;
图12为本申请提供的CSI反馈流程的示意图;
图13为本申请提供的CSI反馈流程中对数据处理的示意图;
图14为本申请提供的Tranformer模型的示意图;
图15和图16为本申请提供的将原始数据拆分为向量的示意图;
图17和图18为本申请提供的通信装置的结构示意图。
具体实施方式
图1是本申请能够应用的通信系统1000的架构示意图。如图1所示,该通信系统包括无线接入网100和核心网200,可选的,通信系统1000还可以包括互联网300。其中,无线接入网100可以包括至少一个接入网设备(如图1中的110a和110b),还可以包括至少一个终端设备(如图1中的120a-120j)。终端设备通过无线的方式与接入网设备相连,接入网设备通过无线或有线方式与核心网连接。核心网设备与接入网设备可以是独立的不同的物理设备,或者可以是将核心网设备的功能与接入网设备的逻辑功能集成在同一个物理设备上,或者可以是一个物理设备上集成了部分核心网设备的功能和部分的接入网设备的功能。终端设备和终端设备之间以及接入网设备和接入网设备之间可以通过有线或无线的方式相互连接。图1只是示意图,该通信系统中还可以包括其它网络设备,如还可以包括无线中继设备和无线回传设备等,在图1中未画出。
接入网设备可以是基站(base station)、演进型基站(evolved NodeB,eNodeB)、发送接收点(transmission reception point,TRP)、第五代(5th generation,5G)移动通信系统中的下一代基站(next generation NodeB,gNB)、开放无线接入网(open radioaccess network, O-RAN)中的接入网设备、第六代(6th generation,6G)移动通信系统中的下一代基站、未来移动通信系统中的基站或无线保真(wireless fidelity,WiFi)系统中的接入节点等;或者可以是完成基站部分功能的模块或单元,例如,可以是集中式单元(central unit,CU)、分布式单元(distributed unit,DU)、集中单元控制面(CU controlplane,CU-CP)模块、或集中单元用户面(CU user plane,CU-UP)模块。接入网设备可以是宏基站(如图1中的110a),也可以是微基站或室内站(如图1中的110b),还可以是中继节点或施主节点等。本申请中对接入网设备所采用的具体技术和具体设备形态不做限定。
在本申请中,用于实现接入网设备的功能的装置可以是接入网设备;也可以是能够支持接入网设备实现该功能的装置,例如芯片系统、硬件电路、软件模块、或硬件电路加软件模块,该装置可以被安装在接入网设备中或可以与接入网设备匹配使用。在本申请中,芯片系统可以由芯片构成,也可以包括芯片和其他分立器件。为了便于描述,下文以用于实现接入网设备的功能的装置是接入网设备,接入网设备为基站为例,描述本申请提供的技术方案。
(1)协议层结构。
接入网设备和终端设备之间的通信遵循一定的协议层结构。该协议层结构可以包括控制面协议层结构和用户面协议层结构。例如,控制面协议层结构可以包括无线资源控制 (radio resource control,RRC)层、分组数据汇聚层协议(packet data convergenceprotocol, PDCP)层、无线链路控制(radio link control,RLC)层、媒体接入控制(mediaaccess control, MAC)层和物理层等协议层的功能。例如,用户面协议层结构可以包括PDCP层、RLC 层、MAC层和物理层等协议层的功能,在一种可能的实现中,PDCP层之上还可以包括业务数据适配协议(service data adaptation protocol,SDAP)层。
可选的,接入网设备和终端设备之间的协议层结构还可以包括人工智能(artificial intelligence,AI)层,用于传输AI功能相关的数据。
(2)集中单元(central unit,CU)和分布单元(distributed unit,DU)。
接入设备可以包括CU和DU。多个DU可以由一个CU集中控制。作为示例,CU和 DU之间的接口可以称为F1接口。其中,控制面(control panel,CP)接口可以为F1-C,用户面(user panel,UP)接口可以为F1-U。本申请不限制各接口的具体名称。CU和DU 可以根据无线网络的协议层划分:比如,PDCP层及以上协议层的功能设置在CU,PDCP 层以下协议层(例如RLC层和MAC层等)的功能设置在DU;又比如,PDCP层以上协议层的功能设置在CU,PDCP层及以下协议层的功能设置在DU,不予限制。
上述对CU和DU的处理功能按照协议层的划分仅仅是一种举例,也可以按照其他的方式进行划分。例如可以将CU或者DU划分为具有更多协议层的功能,又例如将CU或 DU还可以划分为具有协议层的部分处理功能。在一种设计中,将RLC层的部分功能和 RLC层以上的协议层的功能设置在CU,将RLC层的剩余功能和RLC层以下的协议层的功能设置在DU。在另一种设计中,还可以按照业务类型或者其他系统需求对CU或者DU 的功能进行划分,例如按时延划分,将处理时间需要满足时延要求的功能设置在DU,不需要满足该时延要求的功能设置在CU。在另一种设计中,CU也可以具有核心网的一个或多个功能。示例性的,CU可以设置在网络侧方便集中管理。在另一种设计中,将DU的无线单元(radio unit,RU)拉远设置。可选的,RU可以具有射频功能。
可选的,DU和RU可以在物理层(physical layer,PHY)进行划分。例如,DU可以实现PHY层中的高层功能,RU可以实现PHY层中的低层功能。其中,用于发送时,PHY 层的功能可以包括以下至少一项:添加循环冗余校验(cyclic redundancy check,CRC)码、信道编码、速率匹配、加扰、调制、层映射、预编码、资源映射、物理天线映射、或射频发送功能。用于接收时,PHY层的功能可以包括以下至少一项:CRC校验、信道解码、解速率匹配、解扰、解调、解层映射、信道检测、资源解映射、物理天线解映射、或射频接收功能。其中,PHY层中的高层功能可以包括PHY层的一部分功能,例如该部分功能更加靠近MAC层,PHY层中的低层功能可以包括PHY层的另一部分功能,例如该部分功能更加靠近射频功能。例如,PHY层中的高层功能可以包括添加CRC码、信道编码、速率匹配、加扰、调制、和层映射,PHY层中的低层功能可以包括预编码、资源映射、物理天线映射、和射频发送功能;或者,PHY层中的高层功能可以包括添加CRC码、信道编码、速率匹配、加扰、调制、层映射和预编码,PHY层中的低层功能可以包括资源映射、物理天线映射、和射频发送功能。例如,PHY层中的高层功能可以包括CRC校验、信道解码、解速率匹配、解码、解调、和解层映射,PHY层中的低层功能可以包括信道检测、资源解映射、物理天线解映射、和射频接收功能;或者,PHY层中的高层功能可以包括CRC校验、信道解码、解速率匹配、解码、解调、解层映射、和信道检测,PHY层中的低层功能可以包括资源解映射、物理天线解映射、和射频接收功能。
示例性的,CU的功能可以由一个实体来实现,或者也可以由不同的实体来实现。例如,可以对CU的功能进行进一步划分,即将控制面和用户面分离并通过不同实体来实现,分别为控制面CU实体(即CU-CP实体)和用户面CU实体(即CU-UP实体)。该CU-CP 实体和CU-UP实体可以与DU相耦合,共同完成接入网设备的功能。
可选的,上述DU、CU、CU-CP、CU-UP和RU中的任一个可以是软件模块、硬件结构、或者软件模块+硬件结构,不予限制。其中,不同实体的存在形式可以是不同的,不予限制。例如DU、CU、CU-CP、CU-UP是软件模块,RU是硬件结构。这些模块及其执行的方法也在本申请的保护范围内。
一种可能的实现中,接入网设备包括CU-CP、CU-UP、DU和RU。例如,本申请的执行主体包括DU,或者包括DU和RU,或者包括CU-CP、DU和RU,或者包括CU-UP、 DU和RU,不予限制。各模块所执行的方法也在本申请的保护范围内。
终端设备也可以称为终端、用户设备(user equipment,UE)、移动台、移动终端设备等。终端设备可以广泛应用于各种场景中的通信,例如包括但不限于以下至少一个场景:设备到设备(device-to-device,D2D)、车物(vehicle to everything,V2X)、机器类通信(machine-type communication,MTC)、物联网(internet of things,IOT)、虚拟现实、增强现实、工业控制、自动驾驶、远程医疗、智能电网、智能家具、智能办公、智能穿戴、智能交通、或智慧城市等。终端设备可以是手机、平板电脑、带无线收发功能的电脑、可穿戴设备、车辆、无人机、直升机、飞机、轮船、机器人、机械臂、或智能家居设备等。本申请对终端设备所采用的具体技术和具体设备形态不做限定。
在本申请中,用于实现终端设备的功能的装置可以是终端设备;也可以是能够支持终端设备实现该功能的装置,例如芯片系统、硬件电路、软件模块、或硬件电路加软件模块,该装置可以被安装在终端设备中或可以与终端设备匹配使用。为了便于描述,下文以用于实现终端设备的功能的装置是终端设备,终端设备为UE为例,描述本申请提供的技术方案。
基站和终端设备可以是固定位置的,也可以是可移动的。基站和/或终端设备可以部署在陆地上,包括室内或室外、手持或车载;也可以部署在水面上;还可以部署在空中的飞机、气球和人造卫星上。本申请对基站和终端设备的应用场景不做限定。基站和终端设备可以部署在相同的场景或不同的场景,例如,基站和终端设备同时部署在陆地上;或者,基站部署在陆地上,终端设备部署在水面上等,不再一一举例。
基站和终端设备的角色可以是相对的,例如,图1中的直升机或无人机120i可以被配置成移动基站,对于那些通过120i接入到无线接入网100的终端设备120j来说,终端设备120i是基站;但对于基站110a来说,120i是终端设备,即110a与120i之间是通过无线空口协议进行通信的。110a与120i之间也可以是通过基站与基站之间的接口协议进行通信的,此时,相对于110a来说,120i也是基站。因此,基站和终端设备都可以统一称为通信装置,图1中的110a和110b可以称为具有基站功能的通信装置,图1中的120a-120j可以称为具有终端设备功能的通信装置。
在本申请中,可在前述图1所示的通信系统中引入独立的网元如称为AI网元、或AI节点等来实现AI相关的操作,AI网元可以和通信系统中的接入网设备之间直接连接,或者可以通过第三方网元和接入网设备实现间接连接。其中,第三方网元可以是认证管理功能(authentication management function,AMF)、或用户面功能(user plane function,UPF) 等核心网网元;或者,可以在通信系统中的其他网元内配置AI功能、AI模块或AI实体来实现AI相关的操作,例如该其他网元可以是接入网设备(如gNB)、核心网设备、或网管(operation,administration and maintenance,OAM)等,在这种情况下,执行AI相关的操作的网元为内置AI功能的网元。其中,上述OAM用于对接入网设备和/或核心网设备等进行操作、管理和维护等。
在本申请中,如图2或图3所示,核心网设备、接入网设备、终端设备或OAM等中的至少一个设备可以部署有AI模型,利用该AI模型实现相应的功能。在本申请中,不同节点中部署的AI模型可以相同或不同,模型不同包括以下至少一项不同:模型的结构参数不同,例如,模型的层数和/或权值等不同;模型的输入参考不同;或模型的输出参考不同等。其中,模型的输入参数和/或模型的输出参数不同可以描述为模型的功能不同。与上述图2不同的是,在图3中,将接入网设备的功能拆分为CU和DU。可选的,CU和DU 可以为O-RAN架构下的CU和DU。CU中可以部署有一个或多个AI模型。和/或,DU中可以部署有一个或多个AI模型。可选的,还可以进一步,将图3中的CU拆分为CU-CP 和CU-UP。可选的,CU-CP中可以部署有一个或多个AI模型。和/或,CU-UP中可以部署有一个或多个AI模型。可选的,图2或图3中,接入网设备的OAM和核心网设备的 OAM可以分布独立部署。
可选的,图4a为本申请的一种通信系统的架构。如图4a所示,在第一种设计中,接入网设备中包括近实时接入网智能控制(RAN intelligent controller,RIC)模块,用于进行模型训练和推理。例如,近实时RIC可以用于训练AI模型,利用该AI模型进行推理。例如,近实时RIC可以从CU、DU或RU中的至少一项获得网络侧和/或终端侧的信息,该信息可以作为训练数据或者推理数据。可选的,近实时RIC可以将推理结果递交至CU、 DU、RU或终端设备中的至少一项。可选的,CU和DU之间可以交互推理结果。可选的, DU和RU之间可以交互推理结果,例如近实时RIC将推理结果递交至DU,由DU转发给 RU。
或者,在第二种设计中,如图4a所示,接入网设备之外包括非实时RIC(可选的,非实时RIC可以位于OAM中或者核心网设备中),用于进行模型训练和推理。例如,非实时RIC用于训练AI模型,利用该模型进行推理。例如,非实时RIC可以从CU、DU或 RU中的至少一项获得网络侧和/或终端侧的信息,该信息可以作为训练数据或者推理数据,该推理结果可以被递交至CU、DU、RU或终端设备中的至少一项。可选的,CU和DU之间可以交互推理结果。可选的,DU和RU之间可以交互推理结果,例如非实时RIC将推理结果递交至DU,由DU转发给RU。
或者,在第三种设计中,如图4a所示,接入网设备中包括近实时RIC,接入网设备之外包括非实时RIC(可选的,非实时RIC可以位于OAM中或者核心网设备中)。同上述第二种设计,非实时RIC可以用于进行模型训练和推理。和/或,同上述第一种设计,近实时 RIC可以用于进行模型训练和推理。和/或,非实时RIC进行模型训练,近实时RIC可以从非实时RIC获得AI模型信息,并从CU、DU或RU中的至少一项获得网络侧和/或终端侧的信息,利用该信息和该AI模型信息得到推理结果。可选的,近实时RIC可以将推理结果递交至CU、DU、RU或终端设备中的至少一项。可选的,CU和DU之间可以交互推理结果。可选的,DU和RU之间可以交互推理结果,例如近实时RIC将推理结果递交至 DU,由DU转发给RU。例如,近实时RIC用于训练模型A,利用模型A进行推理。例如,非实时RIC用于训练模型B,利用模型B进行推理。例如,非实时RIC用于训练模型C,将模型C的信息发送给近实时RIC,近实时RIC利用模型C进行推理。
图4b为本申请的另一种通信系统的架构。相对图4a,图4b中将CU分离成为了CU-CP和CU-UP等。
在无线网络中,使用AI模型,需要解决的一个问题是无线网络中灵活可变的信号格式与AI模型固定的输入格式和输出格式之间的矛盾。例如,无线信号的带宽是基站灵活调度的,在一个时隙可能调度的带宽为4个资源块(resource block,RB),在下一个时隙调度的带宽可能变成8个RB,但AI模型的输入格式是固定的,无法随着信号的带宽而改变。例如,AI模型的输入格式对应4个RB,则该AI模型仅能支持输入为4RB的信号,无法处理输入为8RB的信号。为了解决上述问题,提供一种解决方案:针对每种带宽均训练一个AI模型。如图4c所示,针对输入带宽为4RB的信号和输入带宽为8RB的信号,分别训练一个AI模型,这样导致训练和存储开销都很大。
在本申请提供一种解决方案,在该解决方案中:训练一个AI模型,该AI模型可适用于多种格式的输入数据和输出数据。具体的,在训练时,将不同格式的数据(如输入数据和/或输出数据)等,通过填充或截取等方式,转化为格式相同的数据,共同训练一个AI 模型。该AI模型适用于该多种格式。在该AI模型在使用或推理时,将输入数据和/或输出数据,通过与训练时相同的数据处理方法,转化为与该AI模型匹配的输入数据和/或输出数据,从而使得使用同一个AI模型,完成不同无线资源配置下的推理任务,减少训练和存储的开销。应当指出,在本申请的方案中至少包括两种示例。例如,针对所有格式的输入数据和/或输出数据训练一个AI模型。比如,无线网络中的调度带宽包括4RB、8RB、 16RB和32RB。则针对上述4种调度带宽,训练出一个AI模型。后续描述中,主要以该示例为例说明。或者,针对部分格式的输入数据和/或输出数据设计一个AI模型,针对其它格式的输入数据和/或输出数据再设计另外其它的AI模型等。例如,针对调度带宽为4RB 和8RB,训练第一AI模型,也就是第一AI模型适用于对4RB和8RB信号的输入。针对调度带宽为16RB和32RB,训练第二AI模型,也就是第二AI模型适用于16RB和32RB 信号的输入等。
为了便于理解,首先对本申请涉及的名词或概念进行说明。
1、AI模型。
AI模型是AI功能的具体实现,AI模型表征了模型的输入和输出之间的映射关系。AI模型可以是神经网络、线性回归模型、决策树模型、支持向量机(support vectormachine,SVM)、贝叶斯网络、Q学习模型或者其他机器学习模型等。本申请中, AI功能可以包括以下至少一项:数据收集(收集训练数据和/或推理数据)、数据预处理、模型训练(或称为,模型学习)、模型信息发布(配置模型信息)、模型校验、模型推理、或推理结果发布。其中,推理又可以称为预测。本申请中,可以将AI模型简称为模型。
AI模型的设计主要包括数据收集环节(例如数据源可收集训练数据和/或推理数据)、模型训练环节以及模型推理环节。进一步地还可以包括推理结果应用环节。可选的,还可以包括模型测试环节。如图5所示为AI模型的一种应用架构示意图。数据源(datasource) 用于提供训练数据和推理数据。在模型训练环节中,模型训练节点(modeltrainning host) 通过对数据源提供的训练数据(training data)进行分析或训练,得到AI模型。其中,通过模型训练节点学习得到AI模型,相当于由模型训练节点利用训练数据学习得到模型的输入和输出之间的映射关系。将AI模型部署在模型推理节点(modelinference host) 中。可选的,模型训练节点还可以对已部署在模型推理节点的AI模型进行更新。模型推理节点还可以向模型训练节点反馈已部署模型的相关信息,以使得模型训练节点对已部署的AI模型进行优化或更新等。
在模型推理环节中,模型推理节点使用AI模型,基于数据源提供的推理数据进行推理,得到推理结果。该方法可以实现为:模型推理节点将推理数据输入到AI模型,通过AI模型得到输出,该输出即为推理结果。该推理结果可以指示:由执行对象使用 (执行)的配置参数、和/或由执行对象执行的操作。推理结果可以由执行(actor)实体统一规划,并发送给一个或多个执行对象(例如,网络实体)去执行。可选的,执行实体或执行对象还可以反馈模型的性能给数据源作为训练数据,便于后续实施模型的更新训练。
2、神经网络(neural network,NN)。
AI模型可以是神经网络或其它机器学习模型。以神经网络为例,神经网络是机器学习技术的一种具体实现形式。根据通用近似定理,神经网络在理论上可以逼近任意连续函数,从而使得神经网络具备学习任意映射的能力。因此神经网络可以对复杂的高维度问题进行准确的抽像建模。
神经网络的思想来源于大脑组织的神经元结构。每个神经元都对其输入值做加权求和运算,将加权求和结果通过一个激活函数产生输出。如图6所示,为神经元结构示意图。假设神经元的输入为x=[x0,x1,…,xn],与各输入对应的权值分别为w=[w,w1,…,wn],加权求和的偏置为b。激活函数的形式可以多样化,假设一个神经元的激活函数为: y=f(z)=max(0,z),则该神经元的输出为: 再例如一个神经元的激活函数为:y=f(z)=z,则该神经元的输出为:/>/>wi、xi和b可以为小数、整数(包括0、正整数或负整数等)、或复数等各种可能的取值。神经网络中不同神经元的激活函数可以相同或不同。
神经网络一般包括多层结构,每层可包括一个或多个神经元。增加神经网络的深度和 /或宽度可以提高该神经网络的表达能力,为复杂系统提供更强大的信息提取和抽象建模能力。其中,神经网络的深度可以指神经网络包括的层数,每层包括的神经元个数可以称为该层的宽度。如图7所示,为神经网络的层关系示意图。一种实现中,神经网络包括输入层和输出层。神经网络的输入层将接收到的输入经过神经元处理后,将结果传递给输出层,由输出层得到神经网络的输出结果。另一种实现中,神经网络包括输入层、隐藏层和输出层。神经网络的输入层将接收到的输入经过神经元处理后,将结果传递给中间的隐藏层,隐藏层再将计算结果传递给输出层或者相邻的隐藏层,最后由输出层得到神经网络的输出结果。一个神经网络可以包括一层或多层依次连接的隐藏层,不予限制。神经网络的训练过程中,可以定义损失函数。损失函数描述了神经网络的输出值和理想目标值之间的差距或差异,本申请不限制损失函数的具体形式。神经网络的训练过程就是通过调整神经网络参数,如神经网络的层数、宽度、神经元的权值、和/或神经元的激活函数中的参数等,使得损失函数的值小于门限值或者满足目标需求的过程。
3、AI模型的训练。
AI模型的训练过程中,可定义损失函数。损失函数描述了AI模型的输出值和理想目标值之间的差距或差异,本申请不限制损失函数的具体形式。AI模型的训练过程就是通过调整AI模型的部分或全部参数,使得针对一个或多个训练数据,损失函数的值或者加权求和值(例如平均值)小于门限值或者满足目标需求的过程。如AI模型为神经网络,则训练过程中可以调整以下一项或多项参数:神经网络的层数、神经网络的宽度、层的连接关系、神经元的权重值、神经元的激活函数、或激活函数中的偏置,使得神经网元的输出与理想目标值之间的差异尽可能小。
在一种设计中,以AI模型为神经网络fθ(·)为例。模型训练节点收集训练数据,该训练数据中包括训练样本和标签。例如,训练样本x作为输入,经过神经网络fθ(·)处理后输出推理结果fθ(x),损失函数计算得到的推理结果fθ(x)与训练样本x的标签之间的差异。模型训练节点可基于损失函数得到的差异,采用模型优化算法,优化网络参数。通过利用大量训练数据对神经网络进行训练,可使得针对一组训练样本(例如一个或多个训练样本),各训练样本的神经网络的输出与标签之间的差异都小于门限值或者满足目标需求,或者,所有训练样本的神经网络的输出与标签之间的差异的加权求和(例如平均值)小于门限值或者满足目标需求,从而完成神经网络的训练。
需要说明的是,上述过程描述了监督学习的训练方式,并不作为对本申请的限定。在本申请中,AI模型的训练也可以采用非监督学习,利用算法学习训练样本的内在模式,实现基于训练样本完成AI模型的训练。AI模型的训练还可以采用强化学习,通过与环境进行交互获取环境反馈的激励信号,从而学习解决问题的策略,实现AI模型的优化等。本申请中,对模型训练的方法不作限定。
如图8所示,提供模型的数据处理方法的流程,该方法的执行主体为模型训练节点或模型推理节点,可以理解的是,模型训练节点和模型推理节点可以为同一节点,或不同节点等,不作限定。该流程至少包括:
步骤801:第一节点确定AI模型的数据处理方法。
其中,第一节点为模型训练节点或模型推理节点等。例如,第一节点接收来自其它节点(例如第二节点)的指示信息,该指示信息用于指示所述AI模型的数据处理方法。或者,第一节点根据协议约定,确定AI模型的数据处理方法。或者,第一节点自行确定AI 模型的数据处理方法。例如,模型推理节点可根据收集的训练数据的格式和待训练AI模型的格式等,确定AI模型的数据处理方法等,具体可参见下述说明。
步骤802:第一节点根据所述AI模型的数据处理方法,实现以下至少一项:进行模型训练,或进行模型推理。
如图9A所示,以模型训练节点和模型推理节点分别部署,且模型训练节点向模型推理节点指示AI模型的数据处理方法为例,提供数据处理方法的流程,至少包括以下步骤:
步骤901:收集训练数据。
在本申请中,执行收集训练数据的主体可以是模型训练节点,或者其它AI实体,或者AI模块等。在本申请中,所收集的训练数据包括但不限于无线网络中的数据,例如无线信道信息、接收信号、参考信号、参考信号接收功率(reference signal receiving power,RSRP)等。无线信道信息可以包括估计的信道响应、或信道特征等。这些数据的直接获取者(或称为估计者、测量者、或收集者等)可以是UE或基站。当执行数据收集的实体或模块与数据的直接获取者不同时,由数据的直接获取者将数据发送给执行数据收集的实体或模块。收集到的训练数据可以包括不同的UE的测量数据或UE在不同地理位置、不同信道环境收集的测量数据。收集到的数据可以是UE或者基站在实际网络中获取到的真实数据,也可以是通过仿真平台或者模拟平台生成的虚拟数据等,不作限定。
本申请的目的是训练一个适配多种无线资源配置的AI模型,因此,收集到的训练数据包括多种无线资源配置下的数据。例如,多种带宽或多种参考信号图样下的接收信号、或无线信道信息等。多种无线资源配置下的数据也以是同一种无线资源配置下的数据通过数据增强方法生成的,例如,将同一带宽下的无线信道截取成不同带宽下的无线信道。
可选的,在本申请中,具体的收集训练数据的类型与AI模型的功能有关。例如,对于频域信道估计的AI模型,该AI模型所需要的训练数据至少包括所接收到的参考信号Y 和原始的参考信号S。则对于该AI模型,可收集各种无资源配置下的参考信号Y和原始的参考信号S,作为训练数据。例如,可收集不同带宽和/或参考信号类型下的参考信号Y 和原始的参考信号S等。
又例如,对于用于信道状态信息(channel state information,CSI)反馈的AI模型,该 AI模型所需要的训练数据至少包括信道响应H或信道特征W,可收集不同带宽和/或不同天线端口数下的信道响应H或信道特征W。
又例如,对于用于波束管理的AI模型,该AI模型所需要的训练数据至少包括信道响应H、接收信号Y、或接收信号Y的RSRP,可收集不同带宽和/或不同天线端口数下的信道响应H或接收信号Y或RSRP。
又例如,对于定位相关的AI模型,该AI模型所需要的训练数据至少包括信道响应H,可收集不同带宽和/或不同天线端口数下的信道响应H。
步骤902:模型训练,包括:对收集的训练数据进行处理。
在本申请中,由于在上述数据收集阶段所收集到的训练数据包含多种格式,在模型训练阶段,需要对收集到的训练数据进行处理,统一训练数据的格式。
为了区别在AI模型推理阶段,AI模型的输入数据和输出数据,将AI模型训练阶段,AI模型的输入数据称为输入训练数据,将AI模型的输出数据称为输出训练数据。进一步,由于在本申请中,涉及到训练数据的处理过程,可将原始收集的训练数据(即原始数据),即处理前的训练数据,称为第一输入训练数据,将处理后的训练数据,称为第二输入训练数据,该第二输入训练数据可作为AI模型的输入训练数据,将AI模型的输出数据称为第一输出训练数据,将对AI模型的输出数据处理后的数据,称为第二输出训练数据,或称为目标数据。
示例的,本申请的数据处理方法包括以下至少一项:输入数据处理方法、或输出数据处理方法。如图9B所示,模型训练节点可对收集的第一输入训练数据,进行输入数据处理,得到第二输入训练数据;根据第二输入训练数据和AI模型,得到第一输出训练数据;对第一输出训练数据,进行输出数据处理,得到第二输出训练数据;根据第二输出训练数据,确定目标函数是否满足要求。如果满足,则输出该AI模型,对AI模型的训练完成。否则,更新AI模型的参数,继续对AI模型进行训练。所述目标函数还可称为损失函数。以AI模型为神经网络为例,则调整的参数可包括以下一项或多项:神经网络的层数、神经网络的宽度、层的连接关系、神经元的权重值、神经元的激活函数,或激活函数中的偏置等。上述训练过程可采用监督学习,模型训练节点可根据第二输出训练数据与对应的标签,确定损失函数的值;如果损失函数的值的小于门限值或目标需求,则结束对AI模型的训练;否则继续对AI模型进行训练。与监督学习不同,在非监督学习的过程中,不存在标签,则模型训练节点可根据第二输出训练数据,确定损失函数的值。在监督学习和非监督学习中,对损失函数的设计不同。可以理解的是,在模型训练的过程中,还可以采用其它模型训练方法,例如强化学习等,不作限定。
例如,模型训练节点对第一输入训练数据进行输入数据处理的过程,包括:确定AI模型的输入格式和输出格式;根据AI模型的输入格式,对第一输入训练数据进行处理,得到第二输入训练数据。可选的,第二输入训练数据的格式与AI模型的输入格式相同。根据第二输入训练数据和AI模型,确定第一输出训练数据。可选的,第一输出训练数据的格式与AI模型的输出格式相同。对第一输出训练数据进行输出数据处理的过程,包括:对第一输出训练数据进行处理,获得第二输出训练数据。例如,可根据训练数据中的标签的格式,对第一输出训练数据进行处理,获得第二输出训练数据。可选的,第二输出训练数据的格式与对应标签的格式相同。或者,在非监督学习场景下,训练数据中不存在标签,则可根据无线资源配置,对第一输出训练数据进行处理,获得第二输出训练数据,该第二输出训练数据满足对应无线资源的配置,或者,根据AI模型的损失函数,对第一输出数据进行处理,获得第二输出训练数据等。例如,在无线资源配置中,需要AI模型反馈长度为B比特的信道状态信息,则将AI模型输出的第一输出训练数据的长度,截取为B比特的长度等。根据第二输出训练数据,对AI模型的参数进行调整。例如,以监督学习为例,模型训练节点可根据第二输出训练数据和训练数据中的标签,计算损失函数的值。若损失函数的值小于门限值或者满足目标需求,则完成对AI模型的训练;否则,调整AI模型的参数,继续对AI模型训练。
应当理解,上述对第一输入训练数据处理的过程,和对第一输出训练数据处理的过程,并非一定需要执行。由于收集的训练数据包括多种格式,对于某一格式的输入训练数据,若该输入训练数据的格式与AI模型的输入格式相同,则可将该格式的输入训练数据直接输入到AI模型中,无需再对输入训练数据进行处理,即可对第一输入训练数据不进行处理,直接根据第一输入训练数据和AI模型,确定第一输出训练数据。同理,第一AI模型的输出称为第一输出训练数据。若该第一输出训练数据的格式满足要求,例如,与标签的格式相同,或者满足无线资源配置的格式等,则可对该第一输出训练数据不再作进一步处理。
在本申请中,AI模型的输入格式和输出格式,可能与无线资源的配置相关。以对AI模型的输入数据进行填充,对AI模型的输出数据进行截取为例,AI模型的输入数据长度可以大于或等于该AI模型应用场景下所有潜在无线资源配置中长度最大的训练样本的长度,AI模型的输出数据长度可以大于或等于该AI模型应用场景下所有潜在无线资源配置中的长度最大的标签的长度等。
需要说明的是,在本申请的描述中,格式可包括维度和/或长度等两层含义。在无线信号处理中,通常需要处理的对象是无线信号或无线信道等,无线信号或无线信道的维度通常包括时域、频域和/或空频等维度。在本申请中,可对原始采集的第一输入训练数据的维度进行变换,使其满足AI模型的输入维度要求,和/或,对每维信号的长度进行处理,使其满足AI模型的输入对每维度中长度的要求。在本申请中的描述中,重点描述对输入数据和输出数据的长度进行处理的过程,且以对一维数据的长度进行处理为例,在后续描述中,如无特殊说明,长度描述的都是该一维数据的长度。对多维数据的长度进行处理,可由对一维数据长度的处理直接扩展得到。
步骤903:模型训练节点向模型推理节点发送AI模型,以及指示信息,该指示信息用于指示该AI模型的数据处理方法,AI模型的数据处理方法还可称为AI模型的使用方法。
在本申请中,当模型训练节点与模型推理节点不同时,需要进行模型部署,即模型训练节点需要将训练好的AI模型发送给模型推理节点。例如,模型训练节点可以向模型推理节点发送AI模型的信息,该AI模型的信息中包括以下至少一项:模型的参数、模型的输入格式、或模型的输出格式等。以神经网络为例,模型的参数中包括以下至少一项:神经网络的层数、神经网络的宽度、层间的连接关系、神经元的权重、神经元的激活函数、或激活函数中的偏值等。模型推理节点根据该AI模型的信息,恢复或确定该AI模型。
进一步的,在本申请中,为了使模型推理节点可以正确使用该AI模型完成推理任务,还可以将该AI模型的使用方法(即AI模型的数据处理方法),指示给模型推理节点。或者,可以预定义该AI模型的使用方法。本申请不限制模型推理节点获取AI模型的使用方法的方式。
在本申请中,AI模型的数据处理方法包括以下至少一项:输入数据处理方法、或输出数据处理方法。输入数据处理方法包括以下至少一项:数据填充方法、或数据截取方法。输出数据处理方法包括以下至少一项:数据填充方法、或数据截取方法。数据填充方法包括以下至少一项:填充规则(或称为填充位置,即在哪些位置填充多长数据)、填充后的长度、填充数据的类型(即填充的数值)。数据截取方法包括以下至少一项:截取规则(或称为截取位置,即在哪些位置截取多长数据)、或截取后的长度。
在本申请中,可预定多种数据处理方法,模型训练节点可向模型推理节点指示上述多种数据处理方法中的一种。例如,预定义n种数据处理方法,该n种数据处理方法对应不同的索引,模型训练节点可具体向模型推理节点指示某一种数据处理方法的索引。或者,模型训练节点可直接向模型推理节点指示对应数据处理方法的参数,例如,对输入数据的填充值、填充位置、和/或对输出数据的截取位置等。
步骤904:模型推理节点根据该AI模型的数据处理方法,进行模型推理。
在本申请中,模型推理节点可根据模型训练节点所指示的AI模型的数据处理方法,进行模型推理,完成不同无线资源配置下的推理任务,即模型推理节点使用与训练数据处理方法相同的规则,处理模型推理时的数据。
为了便于描述,在模型推理阶段,将初始的输入数据称为第一输入数据,或原始数据,将对第一输入数据处理后,AI模型的输入数据称为第二输入数据。AI模型的输出数据称为第一输出数据,将对第一输出数据处理后的数据,称为第二输出数据,或目标数据。
在一种设计中,所述模型推理节点所指示的AI模型的数据处理方法,包括以下至少一项:输入数据处理方法、或输出数据处理方法。该输入数据处理方法与模型训练阶段的输入训练数据的处理方法相同,或相对应。该输出数据处理方法与模型推理阶段的输出训练数据的处理方法相同,或相对应。例如,如图9C所示,模型推理节点可根据AI模型的数据处理方法中的输入数据处理方法,对第一输入数据进行处理,获得第二输入数据,该第二输入数据的格式与AI模型的格式相同。根据第二输入数据和AI模型,确定第一输出数据,该第一输出数据的格式与AI模型的输出格式相同。根据AI模型的数据处理方法中的输出数据处理方法,对第一输出数据进行处理,确定第二输出数据。该第二输出数据可认为是该AI模型的推理结果。
与上述训练过程相似,模型推理节点对第一输入数据进行处理,确定第二输入数据的过程,与对第一输出数据进行处理,获得第二输出数据的过程,并非一定执行,也可以不执行。比如,第一输入数据与AI模型的输入格式相匹配,或者与输入数据处理方法中所指示的填充后的数据长度相同等,则可以不再对第一输入数据进行处理,第一输入数据可直接作为AI模型的输入数据。或者,AI模型的输出数据满足无线资源配置的长度,或者,与对应标签的长度相同,或者,该AI模型的输出数据与所述输出数据处理方法中所指示的截取后的数据长度相同等,则无需对第一输出数据进行处理,第一输出数据可直接作为该AI推理的推理结果等。
在上述设计中,通过一个AI模型,可完成不同无线资源配置下的推理任务,无需针对每种无线资源配置各训练和部署一个AI模型,节省了训练和存储开销等。
前已述,所述AI模型的数据处理方法,包括以下至少一项:所述AI模型的输入数据处理方法,或者所述AI模型的输出数据处理方法。在一种设计中,重点介绍,所述AI模型的输入数据处理方法为输入数据填充方法,所述AI模型的输出数据处理方法为输出数据截取方法的过程。或者,还可以描述成:所述AI模型的数据处理方法,包括以下至少一项:所述AI模型的输入数据填充方法,或者所述AI模型的输出数据截取方法。
在该设计中,模型训练节点根据所述AI模型的数据处理方法,进行模型训练的过程,包括:模型训练节点根据所述输入数据填充方法,对第一输入训练数据进行填充,得到第二输入训练数据;根据第二输入训练数据和所述AI模型,确定第一输出训练数据;根据所述输出数据截取方法,对所述第一输出训练数据进行截取,得到第二输出训练数据。根据所述第二输出训练数据,对所述AI模型进行参数调整。
其中,输入数据填充方法可包括以下至少一项:
填充后数据的长度。如未配置该项,默认的,填充后的输入训练数据的长度与AI模型的输入数据长度相同,即与AI模型的输入格式匹配。
填充数据的类型。例如,填充数据可以是0、或者可以是很大的正数,或者很小的负数等。
或填充数据的规则。例如,在输入训练数据的前面填充、后面填充、中间填充、两边填充、等间隔填充、或非等间隔填充等。
其中,输出数据截取方法可包括以下至少一项:
截取后数据的长度。如未配置该项,默认的,截取后的输出数据的长度与标签的长度相同,即与标签的格式匹配。
或截取数据的规则。例如,在输出数据的前面截取、后面截取、中间截取、两边截取、等间隔截取,或非等间隔截取等。
例如,模型训练节点可以收集足够多的训练数据。以监督学习为例,该训练数据中包括训练样本和标签,训练样本还可称为第一输入训练数据,所述第一输入训练数据可指需要输入到AI模型中进行模型训练的数据。确定AI模型的输入数据长度和输出数据长度,该AI模型的输入数据长度大于或等于所收集的训练数据的训练样本中长度最大的训练样本的长度,该AI模型的输出长度大于或等于所收集的训练数据的标签中长度最大标签的长度。或者说,该AI模型的输入数据长度大于或等于该AI模型应用场景下所有潜在无线资源配置中长度最大的原始数据的长度,该AI模型的输出长度大于或等于该AI模型应用场景下所有潜在无线资源配置中长度最大的目标数据的长度。模型训练节点,根据输入数据处理方法,对第一输入训练数据进行填充,得到第二输入训练数据,该第二输入训练数据可称为填充后的第一输入训练数据,第二输入训练数据的长度与AI模型的输入数据长度相同。具体的,可根据输入数据填充方法中的填充数据类型和填充数据规则等,对输入训练据进行填充。例如,AI模型的输入数据频域长度为8RB,第一输入训练数据的频域长度为4RB。在本申请中,可将第一输入训练数据的频域长度由4RB填充至8RB。具体如何将上述第一输入训练数据的频域长度由4RB填充至8RB的过程,可根据输入数据填充方法中的填充数据的类型(例如,具体的填充值)和填充数据的规则(例如,在前面填充、后面填充或等间隔填充等)确定。根据第二输入训练数据和AI模型,确定第一输出训练数据。根据所述输出数据截取方法,对第一输出训练数据截取,得到第二输出训练数据。例如,第二输出训练数据的长度与标签的长度相等。具体的,如何对第一输出数据进行截取,可根据输出数据截取方法中的截取规则所确定,例如在第一输出训练数据的前面截取、后面截取、或等间隔截取等。根据第二输出训练数据,对AI模型进行参数调整。例如,在本申请中,可根据第二输出训练数据和标签,计算损失函数的值。若损失函数的值小于门限值或者满足目标需求,则完成对AI模型的训练;否则,调整AI模型的参数,继续对 AI模型训练。
在本申请中,模型训练节点可将上述训练好的AI模型发送给模型推理节点。模型推理节点可根据AI模型的数据处理方法,对AI模型进行数据推理。在该设计中,模型推理节点根据所述AI模型的数据处理方法,进行模型推理的过程,包括:
根据所述输入数据填充方法,对第一输入数据进行填充,得到第二输入数据;根据所述第二输入数据和所述AI模型,确定第一输出数据。根据所述输出数据截取方法,对所述第一输出数据进行截取,所述截取还可称为抽取,截取后的第一输出数据可称为第二输出数据。该第二输出数据为AI模型的推理结果。
可选的,在模型推理过程中,对输入数据进行填充和输出数据进行截取的过程,与模型训练阶段中,对输入训练数据进行填充和对输出训练数据进行截取的过程相同。
以频域信道估计场景为例,介绍使用同一个AI模型进行不同带宽、不同参考信号图样下的信道估计。在该场景中,对AI模型的输入数据进行填充,对AI模型的输出数据进行截取。
为了便于理解,首先介绍信道估计的过程:单UE单天线单正交频分复用(orthogonal frequency division multiplexing,OFDM)符号的无线信号的传播模型为其中,Y 表示接收的信号;S表示发送信号,在信道估计场景S表示参考信号;/>表示参考信号所在资源元素(resource element,RE)的频域信道(响应);n表示噪声;·表示元素乘法,即两个向量或矩阵中索引相同的元素相乘。Y,/>和S的长度为L,L为参考信号所占用 RE的数量。信道估计的过程为:通过接收信号Y和参考信号S,估计频域信道响应H。H为调度的带宽内所有RE上的信道,/>为H的一部分。在该场景中,在模型训练和模型推理过程中,AI模型的输入数据为接收信号Y和参考信号S,参考信号S是已知的,AI模型的输出数据为频域信道响应H。
在本申请中,基站调度的频域信道的带宽可能不同。例如,基站调度的频域信道的带宽可以为4个资源块(resource block,RB)、8个RB、或16个RB等。针对同一个调度带宽,UE可向基站发送不同类型的参考信号。例如,类型1的参考信号和类型2的参考信号。在本申请中,H的长度取决于调度带宽,Y、和S的长度取决于调度带宽和参考信号的图样。比如,设定基站调度的带宽为k个RB。由于一个RB包括12个RE,则H的长度为12k。如图10所示,类型1的参考信号为每间隔1个RE占用1个RE,每个RB,类型1的参考信号占用6个RE。如图11所示,类型2的参考信号每间隔4个RE占用2个 RE,每个RB,类型2的参考信号占用4个RE。在调度的带宽为k个RB时,类型1的参考信号的Y,/>和S的长度为6k,类型2的参考信号的Y,/>和S的长度为4k。
如果利用AI方式进行频域信道估计,则AI模型的输入数据为Y和S。而对于类型1的参考信号,其Y和S的长度为6k,类型2的参考信号,其Y和S的长度为4k,k为基站调度的频域信道带宽。可以看出,在设计AI模型,需要根据调度带宽和参考信号类型的不同,分别设计AI模型。在该设计中,设计一个AI模型,该AI可适用于不同调度带宽和不同类型参考信号下的信道估计,从而节省AI模型的训练和存储开销。
在后续,将从收集训练数据、训练数据处理、模型训练、模型部署、和模型推理等方面,对信道估计的过程进行介绍。
收集训练数据。
根据AI模型的应用场景,确定训练数据集。为了使AI模型在各种无线资源配置下都能取得较好的性能,训练数据集中可尽可能地包括该应用场景下所有可能无线资源配置下的训练数据。每个训练数据中包括训练样本和标签,训练样本还可称为上述第一输入训练数据,包括接收信号Y和原始信号S,标签为频域信道响应H。例如,如果想到训练一个 AI模型、可以在调度带宽为4RB和8RB的带宽下,对类型1和类型2的参考信号进行信道估计,则训练数据中包括调度带宽为4RB下,类型1的参考信号对应的训练数据和类型 2的参考信号对应的训练数据,和调度带宽为8RB下,类型1的参考信号对应的训练数据和类型2的参考信号对应的训练数据。每个训练数据中包括训练样本(Y、S)和标签(H)。
训练数据处理。
训练数据处理,包括对第一输入训练数据进行填充,填充后的输入训练数据称为第二输入训练数据,第二输入训练数据的长度与AI模型的输入数据长度相同。根据第二输入训练数据和AI模型,确定第一输出训练数据。对第一输出训练数据进行截取,确定第二输出训练数据,第二输出训练数据的长度与标签的长度相同。
在本申请中,对第一输入训练数据进行填充的过程,包括:首先针对不同类型的参考信号,可以按照其图样进行填充,将Y和S填充为H的长度相同。填充后,仅在参考信号所在RE对应的位置上为Y和S的真实值,其余RE位置上为填充的值。之后,根据AI 模型的输入数据长度,即该AI模型所支持的频域带宽,对填充后的Y和S,再次进行填充,该次填充的规则可以在前面填充、在后面填充、在中间填充、在两边填充等中的一种或者多种等,不做限定。填充值可以是0,或者一个很大的正数,或者一个很小的负数等。填充后数据的长度,即第二输入训练数据的长度,与AI模型的输入数据长度相同。
例如,收集的训练数据中的训练样本,即第一输入训练数据中包括:
对第一输入训练数据进行填充,填充的数据可以为0,填充后的输入训练数据的长度为96RE。可选的,由于在该训练场景下,调度带宽最大为8RB,即96RE,因此,可以考虑将AI模型的输入数据长度设计为96RE。在本申请中,将训练数据中训练样本的长度,填充为与AI模型的输入数据长度96RE相同。
在本申请中,可首先将不同类型的参考信号的Y填充为标签H的长度相同,之后对Y再次填充,具体的可在Y的后面进行填充。填充后的第一输入训练数据,即第二输入训练数据分别为:
其中,S的填充方法与上述Y的填充方法相似。填充后的S和Y,可称为第二输入训练数据。将填充后的Y和S,输入到AI模型中,该AI模型的输出称为第一输出训练数据,第一输出训练数据的长度与AI模型的输出数据长度相同。对第一输出训练数据进行截取,截取后的输出训练数据可称为第二输出训练数据,第二输出训练数据的长度与标签(频域信道响应H)的长度相同。对第一输出数据的截取规则可以是在前面截取、在后面截取、在中间截取,在两边截取等中的一种或者多种,不作限定。可选的,截取规则可以与填充规则独立,也可以与填充规则相匹配。例如,对第一输入训练数据在后面填充,则对第一输出训练数据的截取是在前面截取等。
例如,假设AI模型的输出数据长度是96RE,在4RB的调度带宽下,其标签(频域信道响应H)的长度是48RB,则可以截取AI模型的输出数据中的前48个元素,与4RB的标签H进行比较。对于8RB的调度带宽下,则不需要对AI模型的输出数据截取,可以直接将AI模型的输出数据,与8RB的标签H进行比较等。
模型训练。
在模型训练过程中,模型训练节点可确定AI模型的结构,该结构中包括AI模型的输入格式和输出格式。该AI模型的输入格式中的输入数据长度大于或等于训练数据中的最大长度的训练样本的长度。该AI模型的输出格式中的输出数据长度大于或等于训练数据中的最大长度的标签的长度。使用上述收集的包含多种带宽、不同参考信号类型的处理后的训练数据,训练AI模型。其中,在AI模型的训练过程中,对训练样本,即第一输入训练数据进行填充,填充后输入训练数据的长度与AI模型的输入数据长度相同。对AI模型的第一输出训练数据进行截取,截取后的输出训练数据的长度与对应标签的长度相同。模型训练节点可根据第二输出训练数据和标签,确定损失函数的值;如果损失函数的值小于门限值或满足目标需求,则AI模型的训练完成;否则,调整AI模型的参数,继续对AI 模型进行训练。
模型部署。
在本申请中,为了使模型推理节点可以正确使用同一个AI模型完成不同带宽,不同参考信号类型下的信道估计任务,模型训练节点除了需要将训练好的AI模型发送给模型推理节点外,还需要将AI模型的数据处理方法指示给模型推理节点。例如,模型部署节点可以向模型推理节点发送指示信息,该指示信息用于指示所述AI模型的数据处理方法,该指示信息可指示输入数据的填充规则和输出数据的截取规则等。
模型推理。
模型推理节点根据模型训练节点指示的AI模型的数据处理方法,进行模型推理,完成不同带宽、参考信号类型下的信道估计任务。例如,采用与模型训练过程相同的填充规则,对输入数据进行填充,采用与模型训练过程中相同的截取规则,对输出数据进行截取等。
在本申请中,以频域信道估计为例,描述利用AI模型信道估计的过程。应理解,信道估计还包括其它场景,每个场景下,输入数据和输出数据都不相同。例如,对使用传统方法粗估的信道需要进一步信道估计的场景下,输入数据为参考信号所占RE上的含噪的信道,输出数据为调度的带宽内所有RE上的信道,需要对输入数据进行填充,对输出数据进行截取,获得推理结果。又例如,时延域信道估计的场景下,输入数据为接收信号和参考信号,输出数据为时延域信道,需要对输入数据进行填充,无需对输出进行数据截取等。
在本申请中,通过对AI模型的输入数据进行填充,对AI模型的输出数据进行截取,可使用一个AI模型,完成多种带宽、不同参考信号图样情况下的信道估计任务。
以CSI反馈场景为例,介绍使用同一个AI模型进行不同带宽和/或不同天线端口(信道特征长度)下的CSI反馈。在该场景中,对AI模型的输入数据进行填充,对AI模型的输出数据进行截取。
为了便于理解,首先对基于AI的CSI反馈流程进行介绍,如图12所示:
UE获取到下行信道响应H或下行信道的特征信息W,UE中部署有第一子模型,该第一子模型可称为子模型f。将上述下行信道响应H或下行信道的特征信息W,作为子模型f的输入,该子模型f的输出为CSI对应的反馈比特B,将反馈比特B发送给基站。基站中部署有第二子模型,该第二子模型可称为子模型g,将反馈比特B作为子模型g的输入,该子模型g的输出为恢复出的下行信道或下行信道的特征信息/>
下行信道响应H的维度是带宽*天线端口数,天线端口包括基站天线端口和/或UE天线端口。基站配置的CSI反馈的带宽可能不同,例如,可以为4RB或8RB,以1RB粒度为例,则下行信道带宽维度的长度可以为4或8。基站配置的CSI反馈的天线端口数可能不同,例如,可以为16端口或32端口,则下行信道天线端口维度的长度可以为4或8。
下行信道的特征信息W的维度为子带数*特征向量长度(基站天线端口数),基站配置的子带数可能不同,例如可以为6个子带或者12个子带,则下行信道的特征信息子带维度的长度可以为6或12。基站配置的CSI反馈的特征向量长度可能不同,例如,可以为 16或32,则下行信道的特征信息特征向量维度的长度可以为16或32。
下行信道的特征信息W是根据下行信道响应H计算得到的,具体计算方法如下:
对每一个子带的下行信道响应H,计算协方差矩阵RUU,Hi为第i个单位带宽上的信道,M为子带粒度,即每个子带包括多少个单位带宽,例如,单位带宽为RB,则Hi为第i个RB上的信道,子带粒度为4RB,则M=4。
对每个子带的协方差矩阵进行特征值分解,其中,λ包括RUU的至少1个特征值,/>为每个特征值对应的特征向量组成的矩阵。取最大特征值对应的特征向量为Vm,即为该子带信道的特征向量,将所有子带的特征向量按顺序拼成矩阵,即为下行信道的特征矩阵V,也可称为下行信道的特征信息W。
可选的,也可对下行信道的特征矩阵V进行进一步处理,投影到更稀疏的空间,例如,通过离散傅里叶变换(discrete fourier transform,DFT)公式产生两组DFT基底,分别是空域基底S和频域基底F,空频联合投影参考如下公式:C=SH*V*F,其中SH是S的共轭转置矩阵。投影后的C,也可称为下行信道的特征信息W。投影后,V的子带维度转化为时延维度,V的特征向量(基站天线端口)维度转化为波束(角度)维度,但维度的长度保持不变,因此,无论下行信道的特征信息W是投影前还是投影后,我们都将其维度描述为子带数*特征向量长度(基站天线端口数)。
收集训练数据。
在该场景下,训练样本和标签都为下行信道响应H或下行信道的特征信息W,训练数据中可以包括不同维度的下行信道响应H或下行信道的特征信息W,具体维度如上所示。
训练数据处理。
训练数据处理,包括对第一输入训练数据进行填充,填充后的输入训练数据称为第二输入训练数据,第二输入训练数据的长度与AI模型的输入数据长度相同。根据第二输入训练数据和AI模型,确定第一输出训练数据。对第一输出训练数据进行截取,确定第二输出训练数据,第二输出训练数据的长度与标签的长度相同。
在本实施例中,如果第一输入训练数据为下行信道响应H,则需要对其带宽维度和/ 或天线端口维度进行填充,如果第一输入训练数据为下行信道的特征信息W,则需要对其子带维度和/或特征向量维度进行填充,得到第二输入训练数据,第二输入训练数据的长度与AI模型的输入数据长度相同。根据第二输入训练数据和AI模型,确定第一输出训练数据。如果标签是下行信道响应H,则需要对第一输出训练数据的带宽维度和/或天线端口维度进行截取,如果标签是下行信道的特征信息W,则需要对第一输出训练数据的子带维度和/或特征向量维度进行截取,得到第二输出训练数据,第二输出训练数据的长度与标签的长度相同。
具体填充方法和截取方法与之前的实施例类似,不再赘述。
模型训练。
在模型训练过程中,模型训练节点可确定AI模型的结构,该结构中包括AI模型的输入格式和输出格式。该AI模型的输入格式中的输入数据长度大于或等于训练数据中的最大长度的训练样本的长度。该AI模型的输出格式中的输出数据长度大于或等于训练数据中的最大长度的标签的长度。使用上述收集的包含多种带宽和/或天线端口数的原始训练数据处理后的训练数据,或者,使用上述收集的包含多种子带数和/或特征向量长度的原始训练数据处理后的训练数据,训练AI模型。其中,在AI模型的训练过程中,对训练样本,即第一输入训练数据进行填充,填充后输入训练数据的长度与AI模型的输入数据长度相同。对AI模型的第一输出训练数据进行截取,截取后的输出训练数据的长度与对应标签的长度相同。模型训练节点可根据第二输出训练数据和标签,确定损失函数的值;如果损失函数的值小于门限值或满足目标需求,则AI模型的训练完成;否则,调整AI模型的参数,继续对AI模型进行训练。
模型部署。
在本申请中,为了使模型推理节点可以正确使用同一个AI模型完成不同带宽和/或天线端口数下的CSI反馈任务,或者,使用同一个AI模型完成不同子带数和/或特征向量长度下的CSI反馈任务,模型训练节点除了需要将训练好的AI模型发送给模型推理节点外,还需要将AI模型的数据处理方法指示给模型推理节点。例如,模型部署节点可以向模型推理节点发送指示信息,该指示信息用于指示所述AI模型的数据处理方法,该指示信息可指示输入数据的填充规则和输出数据的截取规则等。
模型推理。
模型推理节点根据模型训练节点指示的AI模型的数据处理方法,进行模型推理,完成不同带宽和/或天线端口数下的CSI反馈任务,或者,完成不同子带数和/或特征向量长度下的CSI反馈任务。例如,采用与模型训练过程相同的填充规则,对输入数据进行填充,采用与模型训练过程中相同的截取规则,对输出数据进行截取等。
对于CSI反馈场景,AI模型的输入数据处理方法还可以用于指示AI模型的输入数据是下行信道还是下行信道特征信息,以及下行信道特征信息是下行信道的特征矩阵还是稀疏投影后的特征矩阵等。AI模型的输出数据处理方法还可以用于指示AI模型的输出数据是下行信道还是下行信道特征信息,以及下行信道特征信息是下行信道的特征矩阵还是稀疏投影后的特征矩阵等。
前已述,所述AI模型的数据处理方法,包括以下至少一项:所述AI模型的输入数据处理方法,或者所述AI模型的输出数据处理方法。在该设计中,重点介绍,所述AI模型的输入数据处理方法为输入数据截取方法,所述AI模型的输出数据处理方法为输出数据填充方法。或者,还可以描述成:所述AI模型的数据处理方法包括以下至少一项:所述 AI模型的输入数据截取方法,或所述AI模型的输出数据填充方法。
在该设计中,模型训练节点根据所述AI模型的数据处理方法,进行模型训练,包括:根据所述输入数据截取方法,对第一输入训练数据进行截取,得到第二输入训练数据;根据第二输入训练数据和所述AI模型,确定第一输出训练数据;根据所述输出数据填充方法,对所述第一输出训练数据进行填充,得到第二输出训练数据;根据所述第二输出训练数据,对所述AI模型进行参数调整。
在该设计中,模型推理节点根据所述AI模型的数据处理方法,进行模型推理,包括:根据所述输入数据截取方法,对第一输入数据进行截取,得到第二输入数据;根据第二输入数据和所述AI模型,确定第一输出数据;根据所述输出数据填充方法,对所述第一输出数据进行填充。填充后的第一输出数据可称为第二输出数据,该第二输出数据可称为AI 模型的推理结果。
在该设计中,所述输入数据截取方法可包括以下至少一项:截取后的长度、或截取数据的规则等。所述输出数据填充方法可包括以下至少一项:填充后的长度、填充数据的类型、或填充数据的规则等。具体的截取与填充的说明,可参见上述设计。
例如,输入数据中的部分数据是有效数据的,剩余部分是无效数据的,或输入数据的能量主要集中在部分数据中,那么在模型推理或模型训练的过程中,可以对输入数据进行截取。将不同长度的输入数据截取成统一的长度,截取后输入数据的长度与AI模型的输入数据长度相同。根据截取后的输入数据和AI模型,确定输出数据。再对AI模型的输出数据进行填充。
以CSI反馈场景为例,当下行信道特征信息W是稀疏投影后的特征矩阵时,W在角度域和/或时延域是稀疏的,即虽然W的维度为子带数*特征向量长度,但该矩阵大部分的元素的值都很小,其总能量主要集中在若干角度和时延径上,则可以对下行信道特征信息 W进行截取,仅保留数值较大的若干元素,得到第二输入数据。根据第二输入数据和AI 模型,确定第一输出数据;再对第一输出数据进行填充,得到第二输出数据,即AI模型恢复的下行信道特征信息
采用上述设计,通过对输入数据进行截取,对输出数据进行填充,可利用一个AI模型,完成对不同场景下的任务推理。
在另一种设计中,所述AI模型包括第一子模型和第二子模型。所述AI模型的数据处理方法,包括以下至少一项:对第一子模型的输出进行数据截取,或对第二子模型的输入进行数据填充。或者,还可以描述成:所述AI模型的数据处理方法,包括以下至少一项:对所述AI模型(例如,第一子模型)的输出数据截取方法,或者,对所述AI模型(例如,第二子模型)的输入数据填充方法。
在该设计中,模型训练节点根据所述AI模型的数据处理方法,进行模型训练,包括:根据第一子模型的输入训练数据和第一子模型,确定第一子模型的第一输出训练数据;根据所述输出数据截取方法,对所述第一输出训练进行数据截取,得到第一子模型的第二输出训练数据,根据第一子模型的第二输出训练数据得到第二子模型的第一输入训练数据;根据所述输入数据填充方法,对所述第二子模型的第一输入训练进行数据填充,得到第二输入训练数据;根据所述第二输入训练数据和所述第二子模型,确定第二子模型的输出训练数据;根据所述第一子模型的输入训练数据和所述第二子模型的输出训练数据,对以下至少一项进行调整:所述第一子模型的模型参数,或所述第二子模型的模型参数。
模型推理节点根据所述AI模型的数据处理方法,进行模型推理,包括:确定第一子模型的第一输出数据;根据所述输出数据截取方法,对所述第一输出数据进行数据截取。模型推理节点根据所述AI模型的数据处理方法,进行模型推理,包括:根据所述输入数据填充方法,对第一输入数据进行填充,得到第二输入数据;根据所述第二输入数据和所述第二子模型,确定第一输出数据。关于具体的输入数据填充方法,和输出数据截取方法,可参见前述设计的说明。
在本申请中,第一子模型的模型推理节点和第二子模型的模型推理节点,可以为相同或不同的节点,不作限定。例如,在下行信道测量的场景中,第一子模型的推理节点为UE,第二子模型的推理节点为基站等。或者,在上行信道测量的场景中,第一子模型的推理节点为基站,第二子模型的推理节点为UE等。
以下行信道的CSI反馈场景为例,介绍使用同一AI模型进行不同反馈比特长度情况的CSI反馈。
在无线网络中,反馈比特B的长度是由基站确定的,通常不是固定的。例如,基站想要获得更高的CSI恢复精度,则可以让UE反馈更多的反馈比特,此时反馈比特B的长度较长。或者,基站想要降低CSI反馈的开销,则可以让UE反馈更少的反馈比特,此时反馈比特B的长度较短。在一种设计中,由于反馈比特B的长度不是固定的,那针对每个反馈比特B,都需要训练一对对应的子模型f和子模型g,使得AI模型的训练和存储开销都较大。
在本申请中,可以设计一个AI模型,该AI模型可适用于不同反馈比特B长度的情况。后续,将从收集训练数据、训练数据处理、模型训练、模型部署和模型推理等方面对本申请进行介绍。
收集训练数据。
在CSI反馈场景,反馈比特属于整体CSI反馈AI模型的中间结果,同时,也可以看做是子模型f的输出数据和子模型g的输入数据。在本申请中,我们将反馈比特B也看作训练数据。
根据AI模型的应用场景,确定训练数据集,为了使得AI模型在各种反馈比特B的长度下都能取得较好的性能,训练数据集中包括该应用场景下所有可能反馈比特B长度的训练数据。在本申请中,每个训练数据包括训练样本、反馈比特B和标签,其中训练样本和标签相同,都是下行信道或者是下行信道的特征信息H。例如,如果想要训练一个AI模型,可适用于反馈比特B的长度为20,30和40的CSI反馈,则训练数据中包括长度为20,40和 60的反馈比特B。当然训练数据中还需要包括在各个长度的反馈比特B下,对应的训练样本和标签。例如,对于长度为20的反馈比特B,训练数据中需要包括训练样本、反馈比特 B(20)和标签,该训练样本可以在UE获取的下行信道或下行信道的特征信息H,标签可以是基站正确恢复的下行信道或下行信道的特征信息
训练数据处理。
在本申请,如图13所示,对训练数据处理包括对子模型f的输出数据进行截取,使其长度和反馈比特B的长度相同,以及对反馈比特B进行填充,使其长度与子模型g的输入数据长度相同。
在本申请中,截取的规则可以是在前面截取,在后面截取,在中间截取,在两边截取,等间隔截取或非等间隔截取等中的一种或者多种,不做限定。
例如,子模型f的输出数据为A=[A1,A2,…,A60]:
若反馈比特B的长度为20,则可以在子模型f的输出数据A中截取20个元素。例如,可以截取A中的前20个元素,截取后的输出数据为反馈比特B=[A1,A2,…,A20],或者,在A中,每间隔3个元素截取1个元素,反馈比特B=[A1,A4,…,A58]。
若反馈比特B的长度为40,则可以在A中截取40个元素。例如,截取A中的前40 个元素,反馈比特B=[A1,A2,…,A40]。或者,在A中,每间隔3个元素截取2个元素,反馈比特B=[A1,A2,A4,A5,…,A58,A59]。
若反馈比特B的长度为60,可以不对A进行数据截取,反馈比特 B=A=[A1,A2,…,A60]。
在截取后,训练数据中包括了不同长度的反馈比特,需要对其进行填充,填充后的数据作为子模型g的输入。其中,填充规则可以是在前面填充,在后面填充,在中间填充,在两边填充,等间隔填充或非等间隔填充中的一种或者多种,不做限定;填充值可以是0,或者一个很大的正数,或者一个很小的负数等,不做限定。
例如,若反馈比特B长度为20,子模型g的第一输入数据为反馈比特 B=[A1,A2,…,A20],子模型f的输入长度为60,则填充后的子模型g的输入数据为 C=[A1,A2,…,A20,0,0,…,0]。
若反馈比特B长度为40,子模型g的第一输入数据为反馈比特B=[A1,A2,…,A40],子模型f的输入长度为60,则填充后的子模型g的输入数据为C=[A1,A2,…,A40,0,0,…,0]。
若反馈比特B长度为60,子模型f的输入数据长度为60,则不再对反馈比特B进行填充,子模型g的输入为C=B=[A1,A2,…,A60]。
其中,填充规则可以与截取规则独立,也可以与截取规则匹配,例如,如果对子模型f的输出数据的截取是截取前面的元素,则对反馈比特的填充可以为在后面填充等。
需要注意的是,虽然在本申请中,我们将反馈比特B看作是训练数据,但实际上,反馈比特B是AI模型产生的中间结果,即只有在训练或推断过程中才会生成反馈比特B,上述对反馈比特B的截取和填充操作,是发生在训练或推断过程中的。
模型训练。
确定AI模型的输入数据长度和输出数据长度,子模型f的输出数据长度大于或等于训练数据中长度最大的反馈比特B的长度,子模型g的输入数据长度大于或等于训练数据中长度最大的反馈比特B的长度。
使用上述包含多种反馈比特B长度的处理后的训练数据训练子模型f和子模型g。前已述,训练数据中包括训练样本、标签和反馈比特B。模型训练的过程可包括:将输入训练数据(例如训练样本)输入到子模型f,得到子模型f的第一输出训练数据。对子模型f 的第一输出训练数据进行截取,将其长度截取为目标长度,该目标长度为该AI模型应用场景中所有潜在可能的反馈比特长度,得到子模型f的第二输出数据,根据子模型f的第二输出数据得到子模型g的第一输入训练数据。对第一输入训练数据进行填充,填充后的第一输入训练数据的长度与子模型g的输入长度相同,填充后的第一输入训练数据称为第二输入训练数据。根据第二输入训练数据和子模型g,得到子模型g的输出训练数据。根据所述子模型f的输入训练数据和子模型g的输出训练数据,调整以下至少一项:所述子模型f的参数,或所述子模型g的参数。例如,确定第一子模型f的某一项输入训练数据 (即训练样本)和对应的标签;根据该标签与子模型g的输出训练数据,确定损失函数的值;若损失函数的值小于门限值或满足目标需求,则对子模型f和子模型g的训练完成;否则调整子模型f的参数和/或子模型g的参数,继续对子模型f和子模型g训练。
模型部署。
当执行模型训练和模型推理的节点不同时,需要进行模型部署,即模型训练节点需要将训练好的AI模型发送给模型推理节点。在本申请中,为了使模型推理节点正确使用同一个AI模型完成不同反馈比特B长度下的CSI反馈任务,模型训练节点除了需要将AI 模型发送给模型推理节点外,还需要将AI模型的数据处理方法指示给模型推理节点。该 AI模型的数据处理方法,包括数据的填充规则和截取规则等。
模型推理。
模型推理节点可根据模型训练节点指示的AI模型的数据处理方法,正确的使用AI模型完成不同反馈比特B长度下的CSI反馈任务,即模型推理节点使用与训练数据处理方法相同的规则处理模型推理时的数据。例如,UE使用子模型f时,UE获取下行信道响应H,将下行信道响应H输入到子模型f,获得子模型f的输出数据;UE根据基站配置的反馈比特B的长度,采用与训练时子模型f输出数据相同的截取规则,截取推理时子模型f的输出数据,获得推理的反馈比特B。UE将反馈比特B反馈给基站,基站采用与训练时对反馈比特B相同的填充方式填充推理时的反馈比特,然后使用子模型g恢复下行信道响应H。
在该设计中,通过将子模型f的输出截取成不同长度的反馈比特B,以及将不同长度的反馈比特B再填充成长度相同的子模型g的输入数据,使得可以训练一个AI模型,该 AI模型可用于多种反馈比特B长度情况下的CSI反馈。
在本申请中,是以对第一子模型的第一输出数据进行截取,对第二子模型的输入数据进行填充为例描述,并不作为对本申请的限定。例如,在一种设计中,可以对第一子模型的输出数据进行填充,对第二子模型的输入数据进行截取等。此外,在本申请中,重点描述了,对第一子模型的输出数据和第二子模型的输入数据进行处理的过程。在本申请中,对第一子模型的输入数据和第二子模型的输出数据是否进行处理不作限定。例如,在一种设计中,可以对第一子模型的第一输入数据进行处理,获得第一子模型的第二输入数据;根据第一子模型的第二输入数据和第一子模型,确定第一子模型的第一输出数据;对第一子模型的第一输出数据进行截取(或填充),得到第一子模型的第二输出数据。根据第一子模型的第二输出数据得到第二子模型的第一输入数据。对第二子模型的第一输入数据进行填充(或截取),获得第二子模型的第二输入数据。根据第二子模型的第二输入数据和第二子模型,获得第二子模型的第一输出数据。对第二子模型的第一输出数据进行处理,获得第二子模型的第二输出数据。关于对于第一子模型的第一输入数据进行处理的方式,和对第二子模型的第一输出数据进行处理的方式,不作限定。例如,可将该实施例,与前述对输入数据和输出数据处理的过程相结合,比如,对第一子模型的第一输入数据进行填充或截取等,对第二子模型的第一输出数据进行截取或填充等。
在另一种设计中,所述AI模型的数据处理方法,包括以下至少一项:输入数据的拆分方法,或输出数据的重组方法。
在该设计中,模型训练节点根据所述AI模型的数据处理方法,进行模型训练,包括:根据所述输入数据的拆分方法,对第一输入训练数据进行数据拆分,得到第二输入训练数据;根据第二输入训练数据和所述AI模型,确定第一输出训练数据;根据所述输出数据的重组方法,对第一输出训练数据进行数据重组,得到第二输出训练数据;根据所述第二输出训练数据,对所述AI模型进行参数调整。
模型推理节点根据所述AI模型的数据处理方法,进行模型推理,包括:根据所述输入数据的拆分方法,对第一输入数据进行数据拆分,得到第二输入数据;根据所述第二输入数据和AI模型,得到第一输出数据;根据所述输出数据的重组方法,对第一输出数据进行数据重组,得到第二输出数据。
例如,以Transformer等需要对AI模型的输入数据和/或输出数据进行处理的AI模型为例进行描述。
Transformer是一种序列到序列的AI模型,最早应用于自然语言处理领域,例如翻译等。由于句子的长短是各种各样的,它的特点之一是支持任意长度的输入。因此,理论上,Transformer可以适用于不同无线资源配置下的信号处理。如图14所示,Transformer的输入和输出都是向量的集合,在无线信号处理中,通常需要处理的对象是无线信号或无线信道等,而无线信号或无线信道的维度通常包括时域、频域和空域等。因此,将Transformer应用于无线信号处理中,需要对原始数据进行处理,将其转化为向量集合,输入到Transformer,再将Transformer输出的向量集合转化为目标数据。
将原始数据转化为向量集合、以及将向量集合转化为目标数据的方式可以有很多种。例如,以原始数据为12个子载波、14个OFDM符号的无线信道为例,如图15所示,可以在时域维度直接将12*14的原始数据拆分为14个维度为12的向量。或者,如图16所示,也可以先将12*14的原始数据拆分为12个2*7的矩阵,再将每个2*7的矩阵转化为维度为14的向量。当然,还可以采用其它拆分方法。同理,将Transformer输出的多个向量重组为目标数据的方法也有很多。
由于存在多种原始数据的拆分方法和多种目标数据的重组方法,为了保证模型推理节点可以正确使用该AI模型完成模型推理,模型训练节点除了需要将训练好的AI模型发送给模型推理节点,还需要将训练时对原始数据的拆分方法和对目标数据重组的方法通知给模型推理节点,模型推理节点使用与训练时相同的方法,对原始数据进行拆分,和对AI模型输出数据进行重组。
在本申请中,针对如Transformer等对AI的输入和输出有一定要求的AI模型,通过模型训练节点向模型推理节点指示原始数据的拆分方法和AI模型输出数据的重组方法,可以使AI模型正确处理无线网络中的信号。
可以理解的是,为了实现上述方法中的功能,模型训练节点和模型使用节点包括了执行各个功能相应的硬件结构和/或软件模块。本领域技术人员应该很容易意识到,结合本申请描述的各示例的单元及方法步骤,本申请能够以硬件或硬件和计算机软件相结合的形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用场景和设计约束条件。
图17和图18为本申请提供的可能的通信装置的结构示意图。这些通信装置可以用于实现上述方法中模型训练节点或模型推理节点的功能,因此也能实现上述方法所具备的有益效果。
如图17所示,通信装置1700包括处理单元1710和收发单元1720。通信装置1700用于实现上述图8中所示的方法中第一节点的功能,该第一节点可以为模型训练节点或模型推理节点。当通信装置1700用于实现图8所示的方法中第一节点的功能时:
在一种设计中,处理单元1710用于确定模型的数据处理方法;以及,根据所述模型的数据处理方法,实现以下至少一项:进行模型训练,或进行模型推理;
其中,所述模型的数据处理方法包括以下至少一项:所述模型的输入数据填充方法,或所述模型的输出数据截取方法;或者,所述模型的数据处理方法包括以下至少一项:所述模型的输入数据截取方法,或所述模型的输出数据填充方法。
在另一种设计中,收发单元1720,用于向第二节点发送指示信息,所述指示信息用于指示模型的数据处理方法;
其中,所述模型的数据处理方法包括以下至少一项:所述模型的输入数据填充方法,或所述模型的输出数据截取方法;或者,所述模型的数据处理方法包括以下至少一项:所述模型的输入数据截取方法,或所述模型的输出数据填充方法。
有关处理单元1710和收发单元1720更详细的描述可以直接参考图8所示的方法中相关描述直接得到,这里不加赘述。
如图18所示,通信装置1800包括处理器1810和接口电路1820。处理器1810和接口电路1820之间相互耦合。可以理解的是,接口电路1820可以为收发器或输入输出接口。可选的,通信装置1800还可以包括存储器1830,用于存储处理器1810执行的指令或存储处理器1810运行指令所需要的输入数据或存储处理器1810运行指令后产生的数据。
当通信装置1800用于实现上述方法时,处理器1810用于实现上述处理单元1710的功能,接口电路1820用于实现上述收发单元1720的功能。
当上述通信装置为应用于第一节点的模块时,该第一节点模块实现上述方法中第一节点的功能。该第一节点的模块从第一节点中的其它模块(如射频模块或天线)接收信息,该信息是第二节点发送给第一节点的;或者,该第一节点模块向第一节点中的其它模块(如射频模块或天线)发送信息,该信息是第一节点发送给第二节点的。这里的第一节点模块可以是第一节点的基带芯片,也可以其他模块。
可以理解的是,本申请中的处理器可以是中央处理单元(central processingunit,CPU),还可以是其它通用处理器、数字信号处理器(digital signal processor,DSP)、专用集成电路(application specific integrated circuit,ASIC)、现场可编程门阵列(field programmable gate array,FPGA)或者其它可编程逻辑器件、晶体管逻辑器件,硬件部件或者其任意组合。通用处理器可以是微处理器,也可以是任何常规的处理器。
本申请中的存储器可以是随机存取存储器、闪存、只读存储器、可编程只读存储器、可擦除可编程只读存储器、电可擦除可编程只读存储器、寄存器、硬盘、移动硬盘、CD-ROM 或者本领域熟知的任何其它形式的存储介质。
一种示例性的存储介质耦合至处理器,从而使处理器能够从该存储介质读取信息,且可向该存储介质写入信息。存储介质也可以是处理器的组成部分。处理器和存储介质可以位于ASIC中。另外,该ASIC可以位于基站或终端中。当然,处理器和存储介质也可以作为分立组件存在于基站或终端中。
本申请中的方法可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机程序或指令。在计算机上加载和执行所述计算机程序或指令时,全部或部分地执行本申请所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、网络设备、用户设备、核心网设备、OAM或者其它可编程装置。所述计算机程序或指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机程序或指令可以从一个网站站点、计算机、服务器或数据中心通过有线或无线方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是集成一个或多个可用介质的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,例如,软盘、硬盘、磁带;也可以是光介质,例如,数字视频光盘;还可以是半导体介质,例如,固态硬盘。该计算机可读存储介质可以是易失性或非易失性存储介质,或可包括易失性和非易失性两种类型的存储介质。
在本申请中,如果没有特殊说明以及逻辑冲突,不同的实施例之间的术语和/或描述具有一致性、且可以相互引用,不同的实施例中的技术特征根据其内在的逻辑关系可以组合形成新的实施例。
本申请中,“至少一个”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B的情况,其中A,B可以是单数或者复数。在本申请的文字描述中,字符“/”,一般表示前后关联对象是一种“或”的关系;在本申请的公式中,字符“/”,表示前后关联对象是一种“相除”的关系。“包括A,B或C中的至少一个”可以表示:包括A;包括B;包括C;包括A和B;包括A和C;包括B和C;包括A、 B和C。
可以理解的是,在本申请中涉及的各种数字编号仅为描述方便进行的区分,并不用来限制本申请的范围。上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定。
Claims (21)
1.一种模型的数据处理方法,其特征在于,包括:
确定模型的数据处理方法;
根据所述模型的数据处理方法,实现以下至少一项:进行模型训练,或进行模型推理;
其中,所述模型的数据处理方法包括以下至少一项:所述模型的输入数据填充方法,或所述模型的输出数据截取方法;或者,
所述模型的数据处理方法包括以下至少一项:所述模型的输入数据截取方法,或所述模型的输出数据填充方法。
2.如权利要求1所述的方法,其特征在于,所述确定模型的数据处理方法,包括:
接收来自第一节点的指示信息,所述指示信息用于指示所述模型的数据处理方法;或者,
根据协议约定,确定所述模型的数据处理方法。
3.如权利要求1或2所述的方法,其特征在于,所述输入数据填充方法或所述输出数据填充方法,包括以下至少一项:填充后数据的长度、填充数据的类型、或填充数据的规则。
4.如权利要求1至3中任一项所述的方法,其特征在于,所述输出数据截取方法或所述输入数据截取方法,包括以下至少一项:截取后数据的长度、或截取数据的规则。
5.如权利要求1至4中任一项所述的方法,其特征在于,所述根据所述模型的数据处理方法,进行模型推理,包括:
根据所述输入数据填充方法,对第一输入数据进行数据填充,得到第二输入数据;
根据所述第二输入数据和所述模型,确定第一输出数据;
根据所述输出数据截取方法,对所述第一输出数据进行数据截取。
6.如权利要求1至5中任一项所述的方法,其特征在于,所述根据所述模型的数据处理方法,进行模型训练,包括:
根据所述输入数据填充方法,对第一输入训练数据进行数据填充,得到第二输入训练数据;
根据所述第二输入训练数据和所述模型,确定第一输出训练数据;
根据所述输出数据截取方法,对所述第一输出训练进行数据截取,得到第二输出训练数据;
根据所述第二输出训练数据,对所述模型进行参数调整。
7.如权利要求1至4中任一项所述的方法,其特征在于,所述根据所述模型的数据处理方法,进行模型推理,包括:
根据所述输入数据截取方法,对第一输入数据进行数据截取,得到第二输入数据;
根据第二输入数据和所述模型,确定第一输出数据;
根据所述输出数据填充方法,对所述第一输出数据进行数据填充。
8.如权利要求1至4和7中任一项所述的方法,其特征在于,所述根据所述模型的数据处理方法,进行模型训练,包括:
根据所述输入数据截取方法,对第一输入训练数据进行数据截取,得到第二输入训练数据;
根据第二输入训练数据和所述模型,确定第一输出训练数据;
根据所述输出数据填充方法,对所述第一输出训练数据进行数据填充,得到第二输出训练数据;
根据所述第二输出训练数据,对所述模型进行参数调整。
9.如权利要求1至4中任一项所述的方法,其特征在于,所述模型包括第一子模型,所述根据所述模型的数据处理方法,进行模型推理,包括:
确定第一子模型的第一输出数据;
根据所述输出数据截取方法,对所述第一输出数据进行数据截取。
10.如权利要求1至4和9中任一项所述的方法,其特征在于,所述模型包括第二子模型,所述根据所述模型的数据处理方法,进行模型推理,包括:
根据所述输入数据填充方法,对第一输入数据进行数据填充,得到第二输入数据;
根据所述第二输入数据和所述第二子模型,确定第一输出数据。
11.如权利要求1至4、9和10中任一项所述的方法,其特征在于,所述模型包括第一子模型和第二子模型,所述根据所述模型的数据处理方法,进行模型训练,包括:
根据第一子模型的输入训练数据和第一子模型,确定第一子模型的第一输出训练数据;
根据所述输出数据截取方法,对所述第一输出训练数据进行数据截取,得到第二子模型的第一输入训练数据;
根据所述输入数据填充方法,对所述第二子模型的第一输入训练数据进行数据填充,得到第二输入训练数据;
根据所述第二输入训练数据和所述第二子模型,确定第二子模型的输出训练数据;
根据所述第一子模型的输入训练数据和所述第二子模型的输出训练数据,对以下至少一项进行调整:所述第一子模型的模型参数,或,所述第二子模型的模型参数。
12.一种模型的数据处理方法,其特征在于,包括:
向第二节点发送指示信息,所述指示信息用于指示模型的数据处理方法;
其中,所述模型的数据处理方法包括以下至少一项:所述模型的输入数据填充方法,或所述模型的输出数据截取方法;或者,
所述模型的数据处理方法包括以下至少一项:所述模型的输入数据截取方法,或所述模型的输出数据填充方法。
13.如权利要求12所述的方法,其特征在于,所述输入数据填充方法或者所述输出数据填充方法,包括以下至少一项:填充后数据的长度、填充数据的类型、或填充数据的规则。
14.如权利要求12或13所述的方法,其特征在于,所述输出数据截取方法或所述输入数据截取方法,包括以下至少一项:截取后数据的长度、或截取数据的规则。
15.一种通信装置,其特征在于,包括用于实现权利要求1至11中任一项所述方法的单元。
16.一种通信装置,其特征在于,包括处理器和存储器,所述处理器和存储器耦合,所述处理器用于实现权利要求1至11中任一项所述的方法。
17.一种通信装置,其特征在于,包括用于实现权利要求12至14中任一项所述方法的单元。
18.一种通信装置,其特征在于,包括处理器和存储器,所述处理器和存储器耦合,所述处理器用于实现权利要求12至14中任一项所述的方法。
19.一种通信系统,其特征在于,包括权利要求15或16所述的通信装置,和权利要求17或18所述的通信装置。
20.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有指令,当所述指令在计算机上运行时,使得计算机执行权利要求1至11中任一项所述的方法,或者权利要求12至14中任一项所述的方法。
21.一种计算机程序产品,其特征在于,包括指令,当所述指令在计算机上运行时,使得计算机执行权利要求1至11中任一项所述的方法,或者权利要求12至14中任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111658528.4A CN116418686A (zh) | 2021-12-31 | 2021-12-31 | 模型的数据处理方法及装置 |
PCT/CN2022/144185 WO2023125985A1 (zh) | 2021-12-31 | 2022-12-30 | 模型的数据处理方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111658528.4A CN116418686A (zh) | 2021-12-31 | 2021-12-31 | 模型的数据处理方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116418686A true CN116418686A (zh) | 2023-07-11 |
Family
ID=86998196
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111658528.4A Pending CN116418686A (zh) | 2021-12-31 | 2021-12-31 | 模型的数据处理方法及装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN116418686A (zh) |
WO (1) | WO2023125985A1 (zh) |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109885832A (zh) * | 2019-02-14 | 2019-06-14 | 平安科技(深圳)有限公司 | 模型训练、语句处理方法、装置、计算机设备及存储介质 |
CN111985243B (zh) * | 2019-05-23 | 2023-09-08 | 中移(苏州)软件技术有限公司 | 情感模型的训练方法、情感分析方法、装置及存储介质 |
US11593642B2 (en) * | 2019-09-30 | 2023-02-28 | International Business Machines Corporation | Combined data pre-process and architecture search for deep learning models |
CN110855474B (zh) * | 2019-10-21 | 2022-06-17 | 广州杰赛科技股份有限公司 | Kqi数据的网络特征提取方法、装置、设备及存储介质 |
CN111382557B (zh) * | 2020-03-31 | 2023-09-22 | 字节跳动有限公司 | 非定长输入数据的批量处理方法、装置、终端及存储介质 |
CN112149736B (zh) * | 2020-09-22 | 2024-02-09 | 腾讯科技(深圳)有限公司 | 一种数据处理方法、装置、服务器及介质 |
CN112215238B (zh) * | 2020-10-29 | 2022-06-07 | 支付宝(杭州)信息技术有限公司 | 一种通用特征提取模型构建方法、系统及装置 |
CN112884092B (zh) * | 2021-04-28 | 2021-11-02 | 深圳索信达数据技术有限公司 | Ai模型生成方法、电子设备及存储介质 |
-
2021
- 2021-12-31 CN CN202111658528.4A patent/CN116418686A/zh active Pending
-
2022
- 2022-12-30 WO PCT/CN2022/144185 patent/WO2023125985A1/zh unknown
Also Published As
Publication number | Publication date |
---|---|
WO2023125985A1 (zh) | 2023-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102034955B1 (ko) | 무선 통신 시스템에서 신경망 기반의 송신전력 제어 방법 및 장치 | |
Shi et al. | Generalized sparse and low-rank optimization for ultra-dense networks | |
US20240211770A1 (en) | Communication method and apparatus | |
WO2022172198A1 (en) | Deep generative models for downlink channel estimation in fdd massive mimo systems | |
WO2023126007A1 (zh) | 信道信息传输方法及装置 | |
WO2023016508A1 (zh) | 一种信道信息反馈、恢复方法及装置 | |
WO2023125985A1 (zh) | 模型的数据处理方法及装置 | |
WO2023125996A1 (zh) | 一种上行预编码方法及装置 | |
WO2024027424A1 (zh) | 一种数据质量度量方法及装置 | |
WO2023093777A1 (zh) | 一种通信方法及装置 | |
WO2023231934A1 (zh) | 一种通信方法及装置 | |
WO2023231881A1 (zh) | 一种模型应用方法及装置 | |
WO2023066346A1 (zh) | 一种通信方法及装置 | |
WO2023093725A1 (zh) | 一种校准方法及装置 | |
WO2023098860A1 (zh) | 通信方法和通信装置 | |
WO2024051789A1 (zh) | 一种波束管理方法 | |
WO2023088396A1 (zh) | 通信方法及装置 | |
WO2023036280A1 (zh) | 一种模型测试方法及装置 | |
WO2024109682A9 (zh) | 一种用于定位的方法及装置 | |
EP4369620A1 (en) | Communication method and apparatus | |
WO2024131900A1 (zh) | 一种通信的方法和通信装置 | |
WO2024109682A1 (zh) | 一种用于定位的方法及装置 | |
WO2023092310A1 (zh) | 信息处理方法、模型生成方法及设备 | |
CN116260552A (zh) | 一种csi发送和接收方法及装置 | |
Gu et al. | Graph Neural Network for Distributed Beamforming and Power Control in Massive URLLC Networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication |