CN116933855A - 一种数据处理方法及相关装置 - Google Patents
一种数据处理方法及相关装置 Download PDFInfo
- Publication number
- CN116933855A CN116933855A CN202210336391.9A CN202210336391A CN116933855A CN 116933855 A CN116933855 A CN 116933855A CN 202210336391 A CN202210336391 A CN 202210336391A CN 116933855 A CN116933855 A CN 116933855A
- Authority
- CN
- China
- Prior art keywords
- processing module
- terminals
- network device
- data
- dimension
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title abstract description 53
- 238000012545 processing Methods 0.000 claims abstract description 187
- 238000000034 method Methods 0.000 claims abstract description 73
- 238000012549 training Methods 0.000 claims abstract description 66
- 238000010801 machine learning Methods 0.000 claims abstract description 51
- 238000004891 communication Methods 0.000 claims description 176
- 230000006870 function Effects 0.000 claims description 73
- 238000013528 artificial neural network Methods 0.000 claims description 61
- 230000004913 activation Effects 0.000 claims description 42
- 238000004364 calculation method Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 6
- 230000011664 signaling Effects 0.000 claims description 4
- 230000008859 change Effects 0.000 abstract description 11
- 238000013468 resource allocation Methods 0.000 description 29
- 230000015654 memory Effects 0.000 description 23
- 238000010586 diagram Methods 0.000 description 17
- 230000005540 biological transmission Effects 0.000 description 14
- 238000013461 design Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 13
- 210000002569 neuron Anatomy 0.000 description 12
- 238000006467 substitution reaction Methods 0.000 description 11
- 239000004973 liquid crystal related substance Substances 0.000 description 8
- 238000012360 testing method Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 6
- 238000005457 optimization Methods 0.000 description 6
- 239000004065 semiconductor Substances 0.000 description 6
- 230000007613 environmental effect Effects 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 229910044991 metal oxide Inorganic materials 0.000 description 5
- 150000004706 metal oxides Chemical class 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 238000010295 mobile communication Methods 0.000 description 4
- 230000008054 signal transmission Effects 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 229910000577 Silicon-germanium Inorganic materials 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000011478 gradient descent method Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000003313 weakening effect Effects 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- JBRZTFJDHDCESZ-UHFFFAOYSA-N AsGa Chemical compound [As]#[Ga] JBRZTFJDHDCESZ-UHFFFAOYSA-N 0.000 description 1
- LEVVHYCKPQWKOP-UHFFFAOYSA-N [Si].[Ge] Chemical compound [Si].[Ge] LEVVHYCKPQWKOP-UHFFFAOYSA-N 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000005562 fading Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
本申请提供了一种数据处理方法及相关装置。该方法包括:获取K维数据,将该K维数据输入第一机器学习模型,获得待求解问题的解。其中,第一机器学习模型包括第一处理模块和第二处理模块。第二处理模块是基于待求解问题的约束条件确定的。第二处理模块用于对K维数据进行维度泛化。第一处理模块是根据m维数据训练获得的。m的取值与K的取值无关,K、m为正整数。在求解待求解问题时,采用了对K维数据进行维度泛化的第二处理模块,从而可增强K维数据的维度泛化能力,另外采用了根据m维预先训练获得的第一处理模块,无需因为输入数据的维度的变化而重新训练第一处理模块,可以以较低的系统开销,保证待求解问题的解的准确性。
Description
技术领域
本申请涉及神经网络领域,尤其涉及一种数据处理方法及相关装置。
背景技术
目前,人工智能(artificial intelligence,AI)技术已应用于无线通信系统中的网络层相关问题(如网络优化、移动性管理、资源分配等)和物理层相关问题(如信道编译码、信道预测、接收机等)等方面。
当AI技术应用于无线通信系统中时,可在设备个数为预设数的条件下,训练神经网络,获得求解待求解问题的神经网络。一些情况下,待求解问题的输出与输入之间的关系会随着设备数量的变化而发生变化。当设备的数量发生变化时,若仍采用未经重新训练的神经网络,使得待求解问题的解的准确性较低,从而使得系统产生的较大性能损失。因此,往往需要重新训练神经网络,或预先训练多个模型以适配不同的设备数量,存在系统的存储和处理开销大的问题。
发明内容
本申请实施例提供了一种数据处理方法及相关装置,可以以较低的系统开销,保证待求解问题的解的准确性。
第一方面,本申请实施例提供一种数据处理方法,可以应用于第一装置。该方法包括,获取K维数据,将该K维数据输入第一机器学习模型,获得待求解问题的解。其中,第一机器学习模型包括第一处理模块和第二处理模块。第二处理模块是基于待求解问题的约束条件确定的。第二处理模块用于对K维数据进行维度泛化。第一处理模块是根据m维数据训练获得的。m的取值与K的取值无关,K、m为正整数。
本申请实施例中,在求解待求解问题时,采用了对K维数据进行维度泛化的第二处理模块,从而可增强K维数据的维度泛化能力,另外采用了根据m维预先训练获得的第一处理模块,无需因为输入数据的维度的变化而重新训练第一处理模块,可以以较低的系统开销,保证待求解问题的解的准确性。
一种可选的实施方式中,第一装置可通过信道估计获取K维数据。可选的,K维数据由终端进行信道估计获得,第一装置再从该终端处接收K维数据。
一种可选的实施方式中,上述待求解问题不具有维度泛化特性。待求解问题不具有维度泛化特性时,根据m维数据训练获得的第一处理模块泛化到K维数据。那么,若基于第一处理模块求解待求解问题,则获得的待求解问题的解的准确性较低。因此,基于预先训练获得的第一处理模块和对K维数据进行维度泛化的第二处理模块,求解待求解问题,可提高K维数据的维度泛化能力,从而获得较为准确的解。
一种可选的实施方式中,将K维数据输入第一机器学习模型,获得待求解问题的解,包括:将K维数据输入第一处理模块,获得K个第一中间解;将K个第一中间解输入第二处理模块,获得待求解问题的解。
可见,在求解待求解问题时,将K维数据输入预先训练的第一处理模块,获得K个第一中间解,再通过进行维度泛化的第二处理模块对K个第一中间解进行维度泛化,从而实现对K维数据的维度泛化,进而可使得求解的解更加准确。
一种可选的实施方式中,待求解问题是一个网络设备与K个终端进行通信所使用的总带宽最小化时,网络设备向K个终端发送通信信号的功率,该待求解问题的约束条件包括网络设备向K个终端发送通信信号的总功率在第一范围内。也就是说,待求解问题是一个网络设备与K个终端进行下行通信时,网络设备向K个终端发送通信信号的功率分配问题。
一种可选的实施方式中,待求解问题是K个终端与一个网络设备进行通信所使用的总带宽最小化时,K个终端向网络设备发送通信信号的功率,该待求解问题的约束条件包括K个终端向网络设备发送通信信号的总功率在第三范围内。也就是说,待求解问题是K个终端与一个网络设备进行上行通信时,K个终端向网络设备发送通信信号的功率分配问题。
一种可选的实施方式中,待求解问题是上述K个终端与一个网络设备进行上行或下行通信的功率分配问题时,上述第二处理模块包括归一化指数函数激活层。也就是说,第一装置求解该功率分配问题时,通过归一化指数函数激活层对K维数据进行维度泛化。
另一种可选的实施方式中,待求解问题是一个网络设备与K个终端进行通信所使用的总带宽最小化时,网络设备与K个终端进行通信所使用的带宽,该待求解问题的约束条件包括网络设备与K个终端中每个终端进行通信时的服务质量在第二范围内。也就是说,待求解问题为一个网络设备与K个终端进行上行通信或下行通信时,所使用的带宽分配问题。
一种可选的实施方式中,待求解问题为一个网络设备与K个终端进行上行通信或下行通信,所使用的带宽分配问题时,上述第二处理模块包括激活层和缩放因子层。缩放因子层中的第k个缩放因子是将第k个数据和K输入缩放因子计算模块获得的,k为小于或等于K的正整数。可见,求解该带宽分配问题时,通过激活层和缩放因子层对K维数据进行维度泛化。
一种可选的实施方式中,待求解问题为一个网络设备与K个终端进行上行通信或下行通信,所使用的带宽分配问题时,将K个第一中间解输入第二处理模块,获得待求解问题的解,包括:将K个第一中间解输入激活层,获得K个第二中间解;将K个第二中间解输入缩放因子层,获得待求解问题的解。
可见,基于预先训练的第一处理模块获得K个第一中间解后,再依次基于激活层和缩放因子层对K个第一中间解进行维度泛化,获得带宽分配问题的解。
一种可选的实施方式中,待求解问题是上述功率分配问题或带宽分配问题时,K维数据是网络设备与K个终端之间的信道增益。该K个信道增益可以是第一装置通过信道估计获得的。
一种可选的实施方式中,上述第一处理模块是具有置换等变特性的置换等变神经网络或图神经网络。该方式可使得第一装置求解具有置换等变特性的待求解问题时,可采用该第一处理模块。
第二方面,本申请还提供一种通信装置。该通信装置具有实现上述第一方面所述的第一装置的部分或全部功能。比如,该通信装置的功能可具备本申请中第一方面所述的第一装置的部分或全部实施例中的功能,也可以具备单独实施本申请中的任一个实施例的功能。所述功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。所述硬件或软件包括一个或多个与上述功能相对应的单元或模块。
在一种可能的设计中,该通信装置的结构中可包括处理单元和通信单元,所述处理单元被配置为支持通信装置执行上述方法中相应的功能。所述通信单元用于支持该通信装置与其他通信装置之间的通信。所述通信装置还可以包括存储单元,所述存储单元用于与处理单元和通信单元耦合,其保存通信装置必要的程序指令和数据。
一种实施方式中,所述通信装置包括:处理单元和通信单元,通信单元用于进行数据/信令收发;
处理单元,用于获取K维数据;
处理单元,还用于将所述K维数据输入第一机器学习模型,获得待求解问题的解;所述第一机器学习模型包括第一处理模块和第二处理模块;
所述第二处理模块是基于所述待求解问题的约束条件确定的;所述第二处理模块用于对所述K维数据进行维度泛化;所述第一处理模块是根据m维数据训练获得的;所述m的取值与所述K的取值无关;所述K、所述m为正整数。
另外,该方面中,通信装置其他可选的实施方式可参见上述第一方面的相关内容,此处不再详述。
作为示例,通信单元可以为收发器或通信接口,存储单元可以为存储器,处理单元可以为处理器。
一种实施方式中,所述通信装置包括:处理器和收发器,收发器用于进行数据/信令收发;
处理器,用于获取K维数据;
处理器,还用于将所述K维数据输入第一机器学习模型,获得待求解问题的解;所述第一机器学习模型包括第一处理模块和第二处理模块;
所述第二处理模块是基于所述待求解问题的约束条件确定的;所述第二处理模块用于对所述K维数据进行维度泛化;所述第一处理模块是根据m维数据训练获得的;所述m的取值与所述K的取值无关;所述K、所述m为正整数。
另外,该方面中,上行通信装置其他可选的实施方式可参见上述第一方面的相关内容,此处不再详述。
另一种实施方式中,该通信装置为芯片或芯片系统。所述处理单元也可以体现为处理电路或逻辑电路;所述收发单元可以是该芯片或芯片系统上的输入/输出接口、接口电路、输出电路、输入电路、管脚或相关电路等。
在实现过程中,处理器可用于进行,例如但不限于,基带相关处理,收发器可用于进行,例如但不限于,射频收发。上述器件可以分别设置在彼此独立的芯片上,也可以至少部分的或者全部的设置在同一块芯片上。例如,处理器可以进一步划分为模拟基带处理器和数字基带处理器。其中,模拟基带处理器可以与收发器集成在同一块芯片上,数字基带处理器可以设置在独立的芯片上。随着集成电路技术的不断发展,可以在同一块芯片上集成的器件越来越多。例如,数字基带处理器可以与多种应用处理器(例如但不限于图形处理器,多媒体处理器等)集成在同一块芯片之上。这样的芯片可以称为系统芯片(system on achip,SoC)。将各个器件独立设置在不同的芯片上,还是整合设置在一个或者多个芯片上,往往取决于产品设计的需要。本申请实施例对上述器件的实现形式不做限定。
第三方面,本申请还提供一种处理器,用于执行上述各种方法。在执行这些方法的过程中,上述方法中有关发送上述信息和接收上述信息的过程,可以理解为由处理器输出上述信息的过程,以及处理器接收输入的上述信息的过程。在输出上述信息时,处理器将该上述信息输出给收发器,以便由收发器进行发射。该上述信息在由处理器输出之后,还可能需要进行其他的处理,然后才到达收发器。类似的,处理器接收输入的上述信息时,收发器接收该上述信息,并将其输入处理器。更进一步的,在收发器收到该上述信息之后,该上述信息可能需要进行其他的处理,然后才输入处理器。
对于处理器所涉及的发送和接收等操作,如果没有特殊说明,或者,如果未与其在相关描述中的实际作用或者内在逻辑相抵触,则均可以更加一般性的理解为处理器输出和接收、输入等操作,而不是直接由射频电路和天线所进行的发送和接收操作。
在实现过程中,上述处理器可以是专门用于执行这些方法的处理器,也可以是执行存储器中的计算机指令来执行这些方法的处理器,例如通用处理器。上述存储器可以为非瞬时性(non-transitory)存储器,例如只读存储器(Read Only Memory,ROM),其可以与处理器集成在同一块芯片上,也可以分别设置在不同的芯片上,本申请实施例对存储器的类型以及存储器与处理器的设置方式不做限定。
第四方面,本申请还提供了一种通信系统,该系统包括一个或多个网络设备,以及一个或多个终端设备。在另一种可能的设计中,该系统还可以包括与网络设备、终端设备进行交互的其他设备。
第五方面,本申请提供了一种计算机可读存储介质,用于储存指令,当所述指令被计算机运行时,实现上述第一方面任一项所述的方法。
第六方面,本申请还提供了一种包括指令的计算机程序产品,当其在计算机上运行时,实现上述第一方面任一项所述的方法。
第七方面,本申请提供了一种芯片系统,该芯片系统包括处理器和接口,所述接口用于获取程序或指令,所述处理器用于调用所述程序或指令以实现或者支持第一装置实现第一方面所涉及的功能。例如,确定或处理上述方法中所涉及的数据和信息中的至少一种。在一种可能的设计中,所述芯片系统还包括存储器,所述存储器,用于保存终端必要的程序指令和数据。该芯片系统,可以由芯片构成,也可以包括芯片和其他分立器件。
附图说明
图1是本申请实施例提供的一种通信系统的系统结构示意图;
图2是本申请实施例提供的一种全连接神经网络的结构示意图;
图3是本申请实施例提供的一种神经网络的训练方式示意图;
图4是本申请实施例提供的一种梯度反向传输的示意图;
图5是本申请实施例提供的一种维度泛化特性的示意图;
图6是本申请实施例提供的一种深度神经网络的结构示意图;
图7是本申请实施例提供的一种数据处理方法的流程示意图;
图8是本申请实施例提供的一种第一机器学习模型的结构示意图;
图9是本申请实施例提供的另一种数据处理方法的流程示意图;
图10是本申请实施例提供的另一种第一机器学习模型的结构示意图;
图11是本申请实施例提供的又一种数据处理方法的流程示意图;
图12是本申请实施例提供的又一种第一机器学习模型的结构示意图;
图13是本申请实施例提供的一种缩放因子计算模块的结构示意图;
图14是本申请实施例提供的一种通信装置的结构示意图;
图15是本申请实施例提供的另一种通信装置的结构示意图;
图16是本申请实施例提供的一种芯片的结构示意图。
具体实施方式
下面结合本申请实施例中的附图对本申请实施例中的技术方案进行清楚、完整的描述。
一.通信系统。
为了更好的理解本申请实施例公开的数据处理方法,对本申请实施例适用的通信系统进行描述。
本申请实施例可应用于第五代移动通信(5th generation mobilecommunication,5G)系统、卫星通信及短距等无线通信系统中,系统架构如图1所示。无线通信系统可以包括一个或多个网络设备,以及一个或多个终端设备。无线通信系统也可以进行点对点通信,如多个终端设备之间互相通信。
可理解的,本申请实施例提及的无线通信系统包括但不限于:窄带物联网系统(narrow band-internet of things,NB-IoT)、长期演进系统(long term evolution,LTE),5G移动通信系统的三大应用场景:增强移动宽带(enhanced mobile broadband,eMBB)、超可靠低时延通信(ultra reliable low latency communication,URLLC)和海量机器类通信(massive machine type of communication,mMTC),无线保真(wirelessfidelity,WiFi)系统,或者5G之后的移动通信系统等。
本申请实施例中,网络设备是具有无线收发功能的设备,用于与终端设备进行通信,可以是LTE中的演进型基站(evolved Node B,eNB或eNodeB);或者是5G网络中的基站或者未来演进的公共陆地移动网络(public land mobile network,PLMN)中的基站,宽带网络业务网关(broadband network gateway,BNG),汇聚交换机或者非第三代合作伙伴项目(3rd generation partnership project,3GPP)接入设备等。可选的,本申请实施例中的网络设备可以包括各种形式的基站,例如:宏基站、微基站(也称为小站)、中继站、接入点、未来实现基站功能的设备、WiFi系统中的接入节点,传输接收点(transmitting andreceiving point,TRP)、发射点(transmitting point,TP)、移动交换中心以及设备到设备(device-to-device,D2D)、车辆外联(vehicle-to-everything,V2X)、机器到机器(machine-to-machine,M2M)通信中承担基站功能的设备等,本申请实施例对此不作具体限定。
网络设备可以和核心网设备进行通信交互,向终端设备提供通信服务。核心网设备例如为5G网络核心网(core network,CN)中的设备。核心网作为承载网络提供到数据网络的接口,为终端提供通信连接、认证、管理、策略控制以及对数据业务完成承载等。
本申请实施例所涉及到的终端设备可以包括各种具有无线通信功能的手持设备、车载设备、可穿戴设备、计算设备或连接到无线调制解调器的其它处理设备。终端设备也可称为终端。终端设备也可以指用户设备(user equipment,UE)、接入终端、用户单元(subscriber unit)、用户代理、蜂窝电话(cellular phone)、智能手机(smart phone)、无线数据卡、个人数字助理(personal digital assistant,PDA)电脑、平板型电脑、无线调制解调器(modem)、手持设备(handset)、膝上型电脑(laptop computer)、机器类型通信(machine type communication,MTC)终端、高空飞机上搭载的通信设备、可穿戴设备、无人机、机器人、设备到设备通信(device-to-device,D2D)中的终端、车到一切(vehicle toeverything,V2X)中的终端、虚拟现实(virtual reality,VR)终端设备、增强现实(augmented reality,AR)终端设备、工业控制(industrial control)中的无线终端、无人驾驶(self driving)中的无线终端、远程医疗(remote medical)中的无线终端、智能电网(smart grid)中的无线终端、运输安全(transportation safety)中的无线终端、智慧城市(smart city)中的无线终端、智慧家庭(smart home)中的无线终端或者未来通信网络中的终端设备等,本申请不作限制。
本申请实施例中,终端设备还可以具备AI处理能力,网络设备也可以具备AI处理能力。例如,终端设备可以具备神经网络的训练能力、推理能力等。
本申请实施例中的第一装置可以是上述网络设备,也可以是上述终端设备,即可以是网络设备或终端设备执行本申请实施例提出的数据处理方法。可选的,第一装置是除网络设备和终端设备之外的设备。当第一装置是除网络设备和终端设备之外的设备时,第一装置执行本申请实施例所提出的数据处理方法,获得待求解问题的解,然后向网络设备或终端设备发送该待求解问题的解。
本申请实施例中的最优是指在一定条件下的最优。例如,本申请实施例中“最优的资源分配策略”是指“在一定条件下,最优的资源分配策略”。
本申请实施例中,“功率分配问题”等价于“功率分配策略”,“带宽分配问题”等价于“带宽分配策略”。
本申请公开的实施例将围绕包括多个设备、组件、模块等的系统来呈现本申请的各个方面、实施例或特征。应当理解和明白的是,各个系统可以包括另外的设备、组件、模块等,并且/或者可以并不包括结合附图讨论的所有设备、组件、模块等。此外,还可以使用这些方案的组合。
二.相关概念。
为了更好的理解本申请实施例公开的数据处理方法,对本申请实施例涉及的相关概念进行简单的介绍。
1.全连接神经网络、神经网络的训练。
全连接神经网络又叫多层感知机(multilayer perceptron,MLP)。如图2所述,一个MLP包含一个输入层,一个输出层,及多个隐藏层,且每层包括多个节点,该节点称为神经元。其中,相邻两层的神经元间两两相连。
对于相邻两层的神经元而言,下一层的神经元的输出h为所有与之相连的上一层神经元x的加权和并经过激活函数。下一层的神经元的输出h用矩阵可以表示为:
h=f(wx+b) (1)
其中w为权重矩阵,b为偏置向量,f为激活函数。则神经网络的输出可以递归表达为:
y=fn(wnfn-1(...)+bn) (2)
也就是说,可将神经网络理解为一个从输入数据集合到输出数据集合的映射关系。
神经网络的训练是指用已有数据从随机的w和b得到上述公式(2)的映射关系的过程。如图3所示,神经网络的训练的具体方式为采用损失函数(loss function)对神经网络的输出结果进行评价,并将误差反向传输,通过梯度下降的方法迭代优化w和b直到损失函数达到最小值。
其中,梯度下降的过程可以表示为:
其中,θ为待优化参数,如θ为w和b,L为损失函数。η为学习效率,用于控制梯度下降的步长。
反向传输的过程利用到求偏导的链式法则,即前一层参数的梯度可以由后一层参数的梯度递推计算得到。如图4所示,图4中神经元j与神经元i之间权重wij的梯度可以表示为:
其中,si是神经元i上的输入加权和。从上述公式(4)可以看出神经元j与神经元i之间权重wij的梯度需要根据神经元i上的梯度确定。
2.置换等变(permutation equivalence,PE)。
给定X=[x1,x2,...,xk],如果方程Y=f(X)=[y1,y2,...,yk],对于任意的置换π(k)=pk,均满足/>则该函数f对于X是置换等变的。也就是说,当函数f的变量位置发生变化时,该函数f的输出也随着变量位置的变化而变化,则该函数f是置换等变的。
具有置换等变特性的神经网络包括置换等变网络(permutation equivalenceneural network,PENN)和图神经网络(graph neural network,GNN)。那么,如果一个多变量函数表示与对象排列顺序无关的策略,则称该策略为置换等变策略。
3.维度泛化特性。
如图5中的左图所示,维度泛化特性是指变量个数K发生变化时,输出yk与输入xk之间的关系不变的特性。可理解的,待求解问题中的输入数据的个数(维度)K发生变化时,输出yk与输入xk之间的关系不发生变化,则可称该待求解问题具有维度泛化特性。
而如图5中的右图所示,随着变量个数K的变化,输出yk与输入xk之间的关系发生了改变,则该右图所表征的待求解问题不具有维度泛化特性。
4.基于优化问题的无线资源分配。
基于优化问题的无线资源分配是指:在一定约束条件下,如何实现对多个终端的最优资源分配。示例性的,对于一个包含K个终端且具有置换等变特性的无线资源分配问题,其无线资源分配问题的模型为:
其中,是资源分配策略,/>是环境状态,pk和hk分别表示终端k的资源分配策略和环境状态,C(·)表示约束。该资源分配问题中的最优资源分配策略P*可以看作是环境状态h的函数。当h中各终端的环境状态发生位置变换时,P*中各终端的最优策略也会发生变化,从而该资源分配策略具有上述置换等变特性。
5.基于人工智能(artificial intelligence,AI)技术的无线资源分配。
采用AI技术求解上述无线资源分配问题时,为降低复杂度和减少神经网络在线决策的时间,可使用深度学习方法进行求解。可理解的,由万能近似定理(universalapproximation theorem)可知,给定足够多的隐藏层,深度神经网络(deep neuralnetwork,DNN)可以以任意精度拟合任意函数。因此,网络设备可采用策略神经网络拟合最优资源分配策略与环境状态之间的函数关系。/>和/>分别是策略神经网络的权重参数和偏置参数。其中,Wl表示第l-1层和第l层的连接权重,bl表示第l层的偏置,h表示环境状态。第0层为输入层,第l+1层为输出层。网络设备可采用监督学习、非监督学习等学习方法对策略神经网络的权重参数和偏置参数进行训练。
在无线通信系统中,移动终端会时不时的接入或离开网络,从而导致网络设备在进行资源分配时,考虑的终端数一直在发生改变。进而,网络设备使用AI模型解决无线资源分配问题时,该AI模型的输入数据的数量会不断发生变化。
目前,针对该维度变化的无线资源分配问题,可预先训练多个适用不同维度的AI模型。具体求解资源分配时,根据实际计算时终端的数量,选择合适维度的AI模型进行求解。或者,在每次终端数量发生变化时,重新训练适合该终端数量的AI模型,采用实时训练的AI模型求解无线资源分配问题。然而,无论是预先训练多个AI模型,还是每次按需重新训练AI模型,都会带来较大的开销。例如,预先训练多个AI模型,会需要较大的存储资源存储这些AI模型,即会带来较大的存储开销。再例如,每次按需训练新的AI模型,会带来较大的延时开销和计算开销。
另外,上述无线资源分配问题具有置换等变特性,置换环境状态中的元素,求解上述公式(5)得到的策略/>中的元素也会经历相同的置换。
图6为具有置换等变特性的DNN的结构。如图6所示,当使用DNN实现函数f时,第l个隐藏层的第k个向量可基于激活函数获得,即DNN的第l层前向推理为:
其中,为第l个隐藏层的第k个向量,Ul和Vl是第l个隐藏层的权重参数子矩阵,cl是第l个隐藏层的偏置子向量,σ(·)代表激活函数,比如,σ(·)可以是softmax函数。k大于或等于1,且小于或等于K。K为终端数,且为正整数。
基于公式(6)可获得DNN的第l个隐藏层的权重参数矩阵Wl和偏置向量bl具有如下结构:
可以看出,权重参数矩阵Wl由Ul和Vl两个子矩阵按照一定规律组合而成,即Wl的对角线是Ul,非对角线上是偏置向量bl则由K个偏置子向量的cl组成。因此,上述无线资源分配问题中的终端数K发生变化时,可调整子矩阵Ul和Vl,以及向量cl的数量,组成适合该终端数的新维度神经网络,并采用该新维度神经网络求解无线资源分配策略,而无需重新训练神经网络。
然而,该无线资源分配问题不具有上述维度泛化特性,因此在某个K的取值下训练获得的子矩阵Ul和Vl,以及cl,当终端数不等于K时,无法获得最优的输出yk,即无法获得最优的资源分配策略,获得的资源分配策略的准确性较低,会给系统带来较大的损失。
同理,当无线通信系统中的其他待求解问题不具有维度泛化特性,且设备数量发生变化时,若仍基于已训练的神经网络求解待求解问题,也会降低待求解问题的解的准确性。
本申请实施例提供了一种数据处理方法100。数据处理方法100中,第一装置获取K维数据。第一装置将该K维数据输入第一机器学习模型,获得待求解问题的解。其中,第一机器学习模型包括第一处理模块和第二处理模块。第二处理模块是基于待求解问题的约束条件确定的。第二处理模块用于对K维数据进行维度泛化。第一处理模块是根据m维数据训练获得的。m的取值与K的取值无关。第一装置在求解待求解问题时,采用了对K维数据进行维度泛化的第二处理模块,从而可增强K维数据的维度泛化能力,另外采用了根据m维预先训练获得的第一处理模块,无需因为输入数据的维度的变化而重新训练第一处理模块,可以以较低的系统开销,保证待求解问题的解的准确性。
本申请实施例还以待求解问题是一个网络设备与K个终端进行通信所使用的总带宽最小化时,网络设备向K个终端发送通信信号的功率,以及待求解问题的约束条件包括上述发送通信信号所用的总功率在第一范围时为例,提出一种数据处理方法200。该数据处理方法200中,第一装置获取K维数据,将K维数据输入第一处理模块,获得K个第一中间解,再将K个第一中间解输入第二处理模块,获得待求解问题的解。其中,K维数据是网络设备与K个终端之间的信道增益。该申请实施例中,网络设备向K个终端发送通信信号时的功率分配问题不具有维度泛化特性,第一装置无法将第一处理模块泛化到K维数据。因此,第一装置将第一处理模块输出的第一中间解再经过归一化指示层,实现对K维数据的维度泛化。从而可使得网络设备与K个终端进行通信所使用的总带宽最小化时,求解的网络设备向K个终端发送通信信号的功率更加准确。
本申请实施例还以待求解问题是一个网络设备与K个终端进行通信所使用的总带宽最小化时,该网络设备与K个终端进行通信所使用的带宽和功率,以及待求解问题的约束条件包括网络设备与K个终端中每个终端进行通信时的服务质量在第二范围内时为例,提出一种数据处理方法300。该数据处理方法300中,第一装置获取K维数据;第一装置将K维数据输入第一处理模块,获得K个第一中间解;第一装置将K个第一中间解输入激活层,获得K个第二中间解;第一装置将K个第二中间解输入缩放因子层,获得待求解问题的解。其中,K维数据是网络设备与K个终端之间的信道增益。该申请实施例中,网络设备与K个终端进行通信时的带宽分配问题也不具有维度泛化特性,第一装置无法将第一处理模块泛化到K维数据。因此,第一装置将第一处理模块输出的第一中间解再经过激活层和缩放因子层,实现对K维数据的维度泛化,从而可提高带宽分配问题的解的准确性,即提高网络设备与K个终端进行通信时所采用的带宽的准确性。
三.数据处理方法。
本申请实施例提出一种数据处理方法100,图7是该数据处理方法100的流程示意图。该数据处理方法100从第一装置的角度进行阐述。该数据处理方法100包括但不限于以下步骤:
S101.第一装置获取K维数据。
其中,K为正整数。该K维数据用于求解待求解问题。该待求解问题可以是无线通信系统中的问题。例如,待求解问题是如何对K个终端进行资源分配,或者是对K个信道进行信道预测,等等。因此,K维数据是基于待求解问题确定的,即待求解问题不同时,该K维数据不同。
第一装置可通过信道估计获取K维数据,或者还可通过从其他设备处接收等其他方式获取K维数据。本申请实施例不限定第一装置获取K维数据的实施方式。
S102.第一装置将K维数据输入第一机器学习模型,获得待求解问题的解,第一机器学习模型包括第一处理模块和第二处理模块,第二处理模块是基于待求解问题的约束条件确定的,第二处理模块用于对K维数据进行维度泛化,第一处理模块是根据m维数据训练获得的,m的取值与K的取值无关。
其中,m为正整数。m的取值与K的取值无关,表明预先训练获得的第一处理模块与K无关。第一处理模块的第k个输出与第k个输入有关,与输入的数量K无关。也就是说,第一处理模块可以具有置换等变特性。
第二处理模块是基于待求解问题的约束条件确定的,从而待求解问题不相同时,第二处理模块不相同,或者同一个待求解问题的约束条件不相同时,第二处理模块也不相同。
另外,第二处理模块是用于对K维数据进行维度泛化,从而可提高K维数据的维度泛化能力,进而可提高待求解问题的解的准确性。
一种可选的实施方式中,待求解问题不具有维度泛化特性。待求解问题不具有维度泛化特性时,无法将根据m维数据训练获得的第一处理模块泛化到K维数据。那么,若基于第一处理模块求解待求解问题,则获得的待求解问题的解的准确性较低。因此,第一装置基于m维数据训练获得的第一处理模块和对K维数据进行维度泛化的第二处理模块,求解待求解问题,可提高K维数据的维度泛化能力,从而获得较为准确的解。
一种可选的实施方式中,第一处理模块是具有置换等变特性的置换等变神经网络或图神经网络。可选的,第一处理模块还可以是具有置换等变特性的其他神经网络。该方式可使得第一装置求解具有置换等变特性的待求解问题时,可采用该第一处理模块。
一种可选的实施方式中,第一装置将K维数据输入第一机器学习模型,获得待求解问题的解之前,还可基于待求解问题与K之间的关系,确定待求解问题是否具有维度泛化特性。第一装置在确定待求解问题不具有维度泛化特性时,将K维数据输入第一机器学习模型中,获得待求解问题的解;第一装置在确定待求解问题具有维度泛化特性时,将K维数据输入第二机器学习模型中,获得待求解问题的解,第二机器学习模型包括第一处理模块。
也就是说,待求解问题具有维度泛化特性时,基于m维数据训练获得的第一处理模块进而泛化到K维数据,因此第一装置求解该待求解问题时,无需通过第二处理模块对K维数据进行维度泛化,可直接采用在第一处理模求解待求解问题,获得较为准确的值。
以下介绍待求解问题是否具有维度泛化特性的维度泛化条件:
本申请实施例中,待求解问题具有置换等变特性,因此对于一个PE策略y=F(X),其对任意的置换矩阵Π满足Πy=F(ΠX)。其中,由Kolmogorov-Arnold表示定理可以得到该策略的第k个输出可表示为 其中,φ(·)表示一个函数。令[xj]j≠k,表示从X中移除了xk的向量,将这个向量按照降序(或者升序)排列,并记排列后的向量为/>因为∑j≠kφ(xj)的求和结果不受其每一项的排序影响,所以/>当K→∞且xj独立同分布时,可得到/>的方差趋于0,且均值依赖于K。因此,当K→∞时,/>趋于一个与K相关的函数,比如,/>因此yk可表示为:
可见,yk在K大于预设值时趋近为一个关于xk和K的函数,即PE策略y=F(X)在高维度下具备可分解性。该预设值是预定义的,比如,预设值为100、200等。
从而,待求解问题的维度泛化特性的判断条件可表示为:
当K,K'→∞时,如果一个PE策略y=F(X)对任意K≠K'满足:yk=f(xk,K)=f(xk,K'),那么在维度K时训练好的神经网络可以泛化到维度,该PE策略的待求解问题具有维度泛化特性,否则该PE策略的待求解问题不具有维度泛化特性。
可见,表征待求解问题的函数与变量的个数K无关时,该待求解问题具有维度泛化特性;表征待求解问题的函数与变量的个数K相关时,该待求解问题不具有维度泛化特性。也就是说,随着变量的个数K的变化,表征待求解问题的函数不发生变化时,该待求解问题具有维度泛化特性;随着变量的个数K的变化,表征待求解问题的函数发生改变,则该待求解问题不具有维度泛化特性。
一种可选的实施方式中,第一装置确定待求解问题不具有维度泛化特性时,将K维数据输入第一机器学习模型,获得待求解问题的解,包括:将K维数据输入第一处理模块,获得第一中间解;然后将K个第一中间解输入第二处理模块,获得待求解问题的解。
可见,第一装置在求解待求解问题时,将K维数据输入预先训练的第一处理模块,获得K个第一中间解,再通过进行维度泛化的第二处理模块对K个第一中间解进行维度泛化,从而实现对K维数据的维度泛化,进而可使得求解的解更加准确。
示例性的,第一处理模块为PENN时,第一机器学习模型的结构可如图8所示。该PENN是基于m维数据训练获得的。该第二处理模块用于对K维数据进行维度泛化。第一装置将K维数据输入PENN,再将PENN的输出(K个第一中间解)输入第二处理模块,第二处理模块输出待求解问题的解。第二处理模块对K个第一中间解进行了维度泛化,从而可提升K维数据的维度泛化能力,进而可提高待求解问题的解的准确性。
可见,本申请实施例中,第一装置在求解待求解问题时,不仅采用了预先训练获得的第一处理模块,还采用了对K维数据进行维度泛化的第二处理模块,从而可增强K维数据的维度泛化能力,提高待求解问题的解的准确性。
另外,该方法使得第一装置在低维度训练获得的第一机器学习模型可直接应用于高维度下的通信问题,而无需重新训练学习模型,从而可节省开销。
本申请实施例还以待求解问题是一个网络设备与K个终端进行通信所使用的总带宽最小化时,网络设备向K个终端发送通信信号的功率,以及待求解问题的约束条件包括网络设备向K个终端发送通信信号的总功率在第一范围为例,提出一种数据处理方法200,图9是该数据处理方法200的流程示意图。该数据处理方法200可应用于第一装置中。该数据处理方法200包括但不限于以下步骤:
S201.获取K维数据。
本申请实施例中,待求解问题是一个网络设备与K个终端进行通信所使用的总带宽最小化时,网络设备向K个终端发送通信信号的功率。该待求解问题的约束条件包括网络设备向K个终端发送通信信号的总功率在第一范围内。该约束条件还包括K个终端由同一个单天线网络设备服务,该网络设备与K个终端进行通信所采用的带宽相等,K个终端中每个终端的服务质量在第二范围内。K为正整数。
可见,待求解问题为单天线网络设备服务K个终端,网络设备和每个终端通信采用相同的带宽,网络设备向K个终端发送通信信号所用的总功率受限,以及每个终端的服务质量受限时,以最小化网络设备和K个单终端进行通信所用的总带宽为目标,网络设备向K个终端发送通信信号的功率分配问题。也就是说,待求解问题是特定条件约束下,一个网络设备与K个终端进行下行通信时,网络设备向K个终端发送通信信号的功率分配问题。
本申请实施例中,上述K维数据是网络设备与K个终端之间的信道增益。第一装置可以是网络设备,或者第一装置是除网络设备之外的其他设备。第一装置是网络设备时,终端设备进行信道估计,获得K维数据,终端设备再向网络设备发送该K维数据,从而第一装置从终端设备处获取K维数据。可选的,第一装置是终端设备时,第一装置进行信道估计获得K维数据。可选的,第一装置是除终端设备和网络设备之外的设备时,第一装置也从终端设备处获取K维数据,该K维数据是终端设备进行信道估计获得的。
S202.将K维数据输入第一处理模块,获得K个第一中间解。
一种可能的实现中,上述待求解问题的模型可表示为:
其中,B为网络设备与每个终端进行通信时所使用的带宽,Pk为网络设备向第k个终端发送数据的发射功率,g=[g1,g2,...,gK]为网络设备和K个终端之间的信道增益,也即为K维数据,N0为噪声功率,sk为第k个终端的接收吞吐,s0为终端的最小吞吐需求,Pmax为网络设备发送总功率的最大值。N0是第k个终端设备进行噪声估计获得的,然后第k个终端设备反馈给第一装置。s0是基于第k个终端设备的通信需求确定的。Pmax是通信系统指定的,比如是网络设备指定的。
因此,上述K个终端的总功率在第一范围内是指,K个终端的总功率小于或等于Pmax;上述K个终端中每个终端的服务质量在第二范围内是指,每个终端的接收吞吐大于或等于s0。
一种可选的实施方式中,第一装置求解上述功率分配问题之前,确定该功率分配问题是否具有维度泛化特性。上述公式(10)中的sk是关于Pk和B的联合凸函数。因此,该功率分配问题是凸问题。第一装置根据卡罗需-库恩-塔克条件(Karush-Kuhn-Tucker,KKT)条件,获得该功率分配问题的全局最优解为:
当K足够大时,该功率分配问题的最优解可被近似为:
其中,IE(·)为求期望运算。从公式(12)可以看出,最优的功率分配与终端数K有关。因此,公式(12)中的功率分配问题不符合维度泛化条件。那么,第一机器学习模型包括第一处理模块和第二处理模块,第一处理模块是根据m为数据训练获得的,m的取值与K的取值无关。第二处理模块用于对K维数据进行维度泛化。从而第一装置求解上述功率分配问题时,可通过第二处理模块对K维数据进行维度泛化,获得较为准确的解。
公式(12)的一种可能的变形为:
其中,σs是归一化指数函数,例如,softmax函数,因此,如图10所示,第一机器学习模型中的第一处理模块可以为PENN或GNN,即采用PENN或GNN训练/>第一机器学习模型的第二处理模块可以为归一化指数激活层,该归一化指数激活层可包括softmax函数,该softmax函数用于对K维数据进行维度泛化。
本申请实施例中,可采用上述梯度反向传递方式对PENN、GNN,以及归一化指数函数进行训练,其训练过程不再详述。
示例性的,如图10所示,第一处理模块为PENN时,将K维数据输入第一处理模块,获得K个第一中间解是指,将[g1,g2,...,gK]输入该PENN中,获得PENN输出的K个第一中间解,即为该PENN是第一装置根据网络设备和m个终端之间的尺度信道增益训练获得的,m的取值与K的取值无关,该尺度信道增益可以为小尺度信道增益,也可以为大尺度信道增益。
本申请实施例中,小尺度信道增益表征收发端距离较近时信道自身衰弱对信号传输的影响,例如,信道的多径衰弱和多普勒衰弱对信号传输的影响。大尺度信道增益表征收发端距离较远时,路径损耗对信号传输的影响。
本申请实施例中的功率分配问题不具有维度泛化特性,因此在m维数据训练获得的PENN无法泛化到K维数据,从而将K维数据输入PENN获得的K个第一中间解具有较低的准确性,无法直接将K个第一中间解作为网络设备向K个终端发送通信信号的功率分配策略。
S203.获取待求解问题的解,待求解问题的解是将K个第一中间解输入第二处理模块获得的。
一种可能的实现中,第二处理模块包括归一化指数激活层。如图10所示,获取待求解问题的解是指,将输入归一化指数激活层,即将/>作为softmax函数的输入,获得输出的/>该/>为待求解问题的解,也即为网络设备向K个终端发送通信信号的功率分配策略。
归一化指数激活层可对K维数据进行维度泛化,因此将PENN输出的输入到该归一化指数激活层,可将PENN的输出结果泛化到维度K,从而可提高K维数据的维度泛化能力,进而将归一化指数激活层的输出作为功率分配问题的解,可提高该解的准确性。
本申请实施例中,第一装置是网络设备时,第一装置获得待求解问题的解后,基于该解(即向K个终端发送通信信号的功率)向K个终端发送通信信号。可选的,第一装置是终端设备,或者而是除网络设备和终端设备之外的设备时,第一装置获得待求解问题的解后,向网络设备发送该将待求解问题的解,以使得网络设备基于该解(即向K个终端发送通信信号的功率),向K个终端发送通信信号。
可见,本申请实施例中,待求解问题是一个网络设备与K个终端进行通信所使用的总带宽最小化时,网络设备向K个终端发送通信信号的功率,以及待求解问题的约束条件包括网络设备向K个终端发送通信信号的总功率在第一范围时,将K维数据输入预先训练获得的第一处理模块,再将第一处理模块输出的第一中间解输入包括归一化指数层的第二处理模块,获得待求解问题的解。该功率分配问题不具有维度泛化特性,无法将第一处理模块泛化到K维数据。因此,将第一处理模块输出的第一中间解再经过归一化指数激活层,实现对K维数据的维度泛化,从而使得总带宽最小化时,求解的功率更加准确。
可见,上述数据处理方法200是以一个网络设备与K单天线个终端设备进行下行传输为例,求解网络设备向K个终端发送通信信号的功率分配。当一个网络设备与K个终端进行上行传输,求解K个终端向该网络设备发送通信信号的功率分配问题时,即待求解问题是一个网络设备与K个终端进行通信所使用的总带宽最小化时,K个终端向网络设备发送通信信号的功率,以及待求解问题的约束条件包括K个终端向网络设备发送通信信号的总功率在第三范围时,其实施方式与上述数据处理方法200中的实施方式类似,在此不再赘述。
本申请实施例还以待求解问题是一个网络设备与K个终端进行通信所使用的总带宽最小化时,网络设备向K个终端发送通信信号所使用的带宽和功率,以及约束条件包括网络设备与K个终端中每个终端进行通信时的服务质量在第二范围内为例,提出一种数据处理方法300,图11是该数据处理方法300的流程示意图。该数据处理方法300可应用于第一装置。该数据处理方法300包括但不限于以下步骤:
S301.获取K维数据。
本申请实施例中,待求解问题是一个网络设备与K个终端的进行通信所使用的总带宽最小化时,网络设备向K个终端发送通信信号所使用的功率和带宽。该待求解问题的约束条件包括网络设备与K个终端中每个终端进行通信时的服务质量在第二范围内。该约束条件还包括K个终端由同一个配备有N根天线的网络设备服务,且K个终端与网络设备进行通信时所采用的带宽不相等,网络设备向K个终端发送通信信号的总功率在第一范围内。
可见,待求解问题为多天线网络设备服务K个终端,每个终端可能采用不同的带宽,网络设备向K个终端发送通信信号的总功率受限,以及每个终端的服务质量受限时,以最小化网络设备向K个终端发送通信信号的总带宽为目标,网络设备向K个天线终端发送通信信号的带宽分配问题和功率分配问题。也就是说,待求解问题为一定约束条件下,一个网络设备与K个终端进行下行通信时的带宽分配问题和功率分配问题。
本申请实施例中,K维数据是网络设备与K个终端之间的信道增益。第一装置可以是网络设备,或者第一装置是除网络设备之外的其他设备。第一装置是网络设备时,终端进行信道估计,获得K维数据,终端再向网络设备发送该K维数据,从而第一装置从终端处获取K维数据。可选的,第一装置是终端时,第一装置进行信道估计获得K维数据。可选的,第一装置是除终端和网络设备之外的设备时,第一装置也从终端处获取K维数据,该K维数据是终端进行信道估计获得的。
S302.将K维数据输入第一处理模块,获得K个第一中间解。
本申请实施例中,上述待求解问题的模型可表示为:
其中,Bk为第k个终端使用的带宽,Pk为网络设备向第k个终端发送数据的发射功率,且/>为第k个终端的有效吞吐,θ是服务质量(quality of service,QoS)指数。SE为目标吞吐,是根据终端设备的服务需求确定的。Pmax为网络设备发送总功率的最大值,是系统指定的。sk是第k个终端的可达吞吐,是基第k个终端的需求确定的,且可近似为/>其中,τ是传输时间,μ是数据包大小,α=[α1,α2,...,αK]是网络设备与K个终端之间的大尺度增益,g=[g1,g2,...,gK]为网络设备和K个终端之间的小尺度信道增益,N0为噪声功率,/>是第k个终端的解码错误概率,/>是高斯Q函数的反函数。/>是根据网络设备与第k个终端之间的信道条件确定的,该信道条件是指网络设备与第k个终端之间的大尺度信道增益,该大尺度信道增益表征信道衰落。
网络设备基于KKT条件,确定该问题的最优解满足如下条件:
一种可选的实施方式中,网络设备求解公式(14)中的功率分配问题和带宽分配之前,确定该待求解问题是否具有维度泛化特性。根据公式(15)可知,由于K个终端的总功率Pmax的上限是固定的,因此最优功率分配策略随着K的增加而减少。又由于每个终端的功率Pk随着K的增加而减少,从而为满足终端的吞吐需求,所需带宽需增加,因此最优带宽分配策略/>随着K的增加而增加。综上所述,本申请实施例中的功率分配策略/>和带宽分配策略/>均不满足维度泛化特性。
那么,针对功率分配问题和带宽分配问题,可以采用包括第一处理模块和第二处理模块的第一机器学习模型进行求解。第一处理模块是根据m维数据训练获得的。第二处理模块是基于待求解问题的约束条件确定的,且第二处理模块用于对K维数据进行维度泛化。从而,采用该第一机器学习模型求解对K个终端的功率分配和带宽分配,可获得较为准确的解。
本申请实施例中求解功率分配策略的约束条件和上述数据处理方法300中的约束条件相同,因此可采用上述数据处理方法300中的第一机器模型求解网络设备向K个终端发送通信信号的功率分配,可获得较为准确的分配结果。从而,本申请实施例提出的数据处理方法适用于求解网络设备向K个终端发送通信信号时的带宽分配。
一种可选的实施方式中,求解网络设备向该K个单天终端发送通信信号所采用的带宽时,基于网络设备与该K个终端中每个终端进行通信的服务质量在第二范围内的约束条件,确定第一机器学习模型包括如图12所示的第一处理模块和第二处理模块。第一处理模块包括PENN或GNN,或其他具有置换等变特性的神经网络。
如图12所示,获取K个第一中间解是指,将K维数据输入第一处理模块,即将[α1,α2,...,αK]输入PENN中,获得K个第一中间解,K个第一中间解为
S303.获取K个第二中间解,K个第二中间解是将K个第一中间解输入激活层获得的。
第二处理模块包括激活层和缩放因子层。其中,激活层可以是softplus函数,softplus函数可表示为ζ(x)=log(1+ex),x为第一处理模块输出的第一中间解。
缩放因子层中的第k个缩放因子是将第k维数据和K输入缩放因子计算模块获得的。k为小于或等于K的正整数。缩放因子计算模块可如图13所示,该缩放因子计算模块包括全连接神经网络(fully connected neural network,FNN)和激活层,该激活层也可以为softplus函数。网络设备将第k个数据αk和K输入,再将FNN的输出结果输入softplus函数,可获得第k个缩放因子从而,第一装置可基于该缩放因子计算模块、K维数据和K,获得K个缩放因子,K个缩放因子用于第二处理模块中的缩放因子层。缩放因子层用于对激活层输出的第二中间解进行缩放。
如图12所示,激活层包括softplus函数,因此获取K个第二中间解可以指,将K个将输入softplus函数,获得K个第二中间解为/>
S304.获取待求解问题的解,待求解问题的解是将K个第二中间解输入缩放因子层获得的。
如图12所示,可以通过将输入缩放因子层,获得网络设备向K个终端发送通信信号时的带宽分配,即/>以获取待求解问题的解是指。
一种可能的实现中,本申请实施例中公式(14)的带宽分配问题和功率分配问题等价于如下主对偶优化问题:
其中,L(α,Pk,Bk,λk)表示拉格朗日函数,λk是拉格朗日乘子,IE(·)为求期望运算。
可以通过三个策略神经网络和一个FNN求解上述公式(14)的待求解问题。三个策略神经网络可以分别表示为是上述图10所示的神经网络,包括PENN和以softmax函数为激活函数的归一化指数激活层,用于输出功率分配策略。/>为上述图12所示的神经网络,包括PENN、以softplus为激活函数的激活层和缩放层,用于输出待缩放的带宽分配策略。/>包括PENN和以softplus为激活函数的激活层,用于输出拉格朗日乘子。FNN为/>用于输出待缩放带宽分配策略的缩放因子,αk为网络设备与第k个终端之间的大尺度信道增益,θv为FNN中待训练的参数。
由上述公式(15)可知,求解公式(14)中的带宽分配问题和功率分配问题的条件与Pk和Bk均有关,即Pk和Bk是相互影响的。又由公式(16)可知,求解带宽分配问题和功率分配问题的神经网络的损失函数不仅与输入α相关,还与Pk、Bk、λk相关,即Pk和Bk之间可通过λk建立联系,从而需联合训练以获得求解上述功率分配问题的/>和求解上述带宽分配问题的/>可见,/>是用于建立和/>之间的关系。
以下介绍上述多个神经网络的联合训练方法:
S1,对全连接神经网络的参数θv进行预训练,其训练步骤如下:
S11,假设K个终端等分总功率,即
S12,基于训练参数θv。/>
一种可选的实施方式中,第一装置使用监督学习方法训练参数θv,即根据使用二分法求解/>得到训练标签/>定义损失函数为该/>为FNN的输出。再将损失函数对FNN参数θv求梯度,获得各参数的梯度,并进行反向传递,更新参数θv,实现FNN的训练,即求解获得
另一种可选的实施方式中,第一装置使用非监督学习方法训练参数θv,即将FNN训练的目标函数定义为目标吞吐SE和实际吞吐之间的差值,再通过调整FNN的参数θv最小化这一差值,从而获得/>
S2,联合训练三个策略神经网络,即联合训练的参数θP、θB、θλ,其训练过程如下:
S21,随机初始化θP、θB、θλ。
S22,将αk、K输入到全连接神经网络获得缩放因子/>对于/>的输出/>进行缩放,得到/>
S23,利用反向梯度传递和随机梯度下降法,更新参数θP、θB、θλ,即:
其中,γP、γB、γλ分别为三个神经网络的学习效率。
S3,固定以/>的输出为功率分配结果,训练更新全连接神经网络/>其训练方式和上述S1类似,不再赘述。
S4,重复上述S2和S3,直到达到收敛条件,比如迭代次数达到预设次数,或网络性能达到预设要求时,停止对全连接神经网络/>的训练。
从而,可基于训练的三个策略神经网络和一个FNN求解公式(14)中的功率分配策略和带宽分配策略。其中,第一装置采用即图10所的第一机器学习模型,求解公式(14)中的功率分配问题;第一装置采用/>即图12所示的第一机器学习模型求解公式(14)中的带宽分配问题。其中,图12中缩放层的缩放因子是基于图13所示的缩放因子计算模块获得的,该缩放因子计算模块中的FNN即为上述训练获得的FNN。
上述神经网络的训练过程可以离线进行,因此不限于第一装置或其它设备执行。
本申请实施例中,第一装置是网络设备时,第一装置获得待求解问题的解后,基于该解向K个终端发送通信信号。可选的,第一装置是终端设备,或者而是除网络设备和终端设备之外的设备时,第一装置获得待求解问题的解后,向网络设备发送该将待求解问题的解,以使得网络设备基于该解向K个终端发送通信信号。
可见,本申请实施例中,在约束条件包括K个终端中每个终端的服务质量在第二范围内,以K个终端的总带宽最小化为目标,求解网络设备向K个终端发送通信信号的带宽分配时,先将获取的K维数据输入第一处理模块中,获得K个第一中间解,再将K个第一中间解输入激活层中,获得K个第二中间解,然后将K个第二中间解输入缩放因子层,采用缩放因子层对K个第二中间解进行缩放,获得K个终端的带宽。通过激活层和缩放因子层对K维数据进行了维度泛化,从而可提高K维数据的维度泛化能力,进而提高网络设备向对K个终端发送通信信号时带宽分配的准确性。
可见,上述数据处理方法300是以一个网络设备与K单天线个终端设备进行下行传输为例,求解网络设备向K个终端发送通信信号时的带宽分配和功率分配。当一个网络设备与K个终端进行上行传输,求解K个终端向该网络设备发送通信信号的带宽分配问题和功率分配问题时,即待求解问题是一个网络设备与K个终端进行通信所使用的总带宽最小化时,K个终端向网络设备发送通信信号所使用的功率和带宽,以及约束条件包括网络设备与K个终端中每个终端进行通信时的服务质量在第二范围内时,其实施方式与上述数据处理方法300中的实施方式类似,在此不再赘述。
本申请实施例以网络设备在约束条件包括K个单天线终端中每个单天线终端的服务质量在第二范围内时,以K个单天线终端的总带宽最小化为目标,求解K个单天线终端的功率和带宽分配为例,仿真了采用本申请实施例提出了数据处理方法100,以及目前所采用的一些求解方法时,通信系统的网络可用性和带宽需求两个性能。
其中,通信系统的仿真参数为:第k个终端与网络设备之间的距离dk在50至250米之间,第k个终端的路径损耗模型为35.3+37.6log(dk),网络设备最大发射功率Pmax=20W,网络设备天线数Nt=8,噪声功率谱密度N0=-173dbm/Hz,每帧内的传输时长τ=0.05ms,包大小u=20字节,数据的解码错误概率εk=5e-6,数据的目标最大丢包概率εmax=1e-5。
三个PENN和FNN的超参设置如表1所示:
表1
其中,K为单天线终端数,t为学习时间。
预训练全连接神经网络时,采用监督学习进行训练,一个样本表示为αk是由随机产生的终端位置经过路径模型获得的,K是随机从10至200之间产生的,共产生1000个预训练样本。训练神经网络/>时,采用无监督学习,一个样本表示为(g,α,K),小尺度信道g由瑞利分布产生。/>
训练集、验证集和测试集产生方式如表2所示:
表2
K的取值 | 每个K所产生的样本数 | 总样本数 | |
训练集 | [10,11,…,30] | 10 | 210 |
验证集 | [10,11,…,30] | 1 | 21 |
测试集 | [25,50,100,200] | 100 | 400 |
其中,训练集是指网络设备训练第一机器学习模型时,K的取值。验证集是指网络设备验证已训练好的第一机器学习模型时,K的取值。测试集是指网络设备采用比训练集更大的取值测试第一机器学习模型时,K的取值。
训练集中K的取值为[10,11,…,30],表示训练集中的K为该[10,11,…,30]集合中的任一值。验证集和测试集中K的取值也类似。每个K所产生的样本数是指K为每个值时所产生的样本数。例如,在训练集中,K取值为10时,该K值产生的样本为10个;K取值为30时,该K值所产生的样本也为10个,从而K值产生的总样本数为210个。再例如,在测试集中,K取值为25时,该K值所产生的样本数为100个;K取值为50时,该K值所产生的样本数为100个;K的取值为100时,该K值所产生样本数为100个;K的取值为200时,该K值所产生的样本数也为100个。从而在测试集中,K值所产生的总样本数为400个。
本申请实施例所仿真的性能指标为网络可用性和带宽需求。其中,网络可用性AK可表示为:
其中,NK为测试集中维度为K的所有样本集合,|NK|是该集合中元素的数量,I(·)为示性函数。网络可用性指标是指网络中能够满足丢包率需求的终端数占总终端数的比例,网络可用性指标越大,表示系统性能越好。
带宽需求可表示为:
其中,为第k个终端的带宽分配。该带宽需求表示所有终端所使用的总带宽。
本申请实施例基于上述仿真条件,获得仿真结果如表3所示:
表3
其中,P-PENN是本申请实施例所提出的数据处理方法300中的第一机器学习模型。M-PENN10为目前预先训练的PENN,且是在K=10个终端场景下训练得到的模型。M-PENN200为目前预先训练的PENN,且是在K=200个终端场景下训练得到的模型。FNN为目前预先训练的全连接神经网络。
从表3可以看出,数据处理方法300中的第一机器学习模型虽然是在K为10至30个终端场景下进行训练获得的,但当用于其他更多终端数时,即终端数为50、100、200时,网络可用性AK均为1,带宽需求相对于其他方案而言较小。也就是说,数据处理方法300中的第一机器学习模型对于较多终端数而言,所有终端均可满足丢包率需求,且带宽需求也相对较小。
网络设备采用M-PENN10时,终端的带宽需求虽然小于采用数据处理方法300中的第一机器学习模型时,但在多个终端的场景下,其网络可用性趋近于0,即网络可用性极差,无法应用于实际场景。网络设备采用M-PENN200时,在多个终端的场景下,可保证网络可用性为1,但是带宽需求大于采用数据处理方法300中的第一机器学习模型时的带宽需求,因此需要用到更多的资源。网络设备采用FNN时,使用了比采用数据处理方法300中的第一机器学习模型时更多的带宽,但仍然无法保证网络可用性为1。
因此,综上所述,网络设备采用数据处理方法300时,将预先在少量终端数训练获得的第一机器模型应用于终端数较大的场景下时,仍可在相对较小的带宽需求下,保障网络的可用性。也就是说,网络设备采用数据处理方法300求解资源分配时,获得的资源分配结果的准确性较高,可保障系统性能。
四.装置实施例。
为了实现上述本申请实施例提供的方法中的各功能,第一装置可以包括硬件结构和/或软件模块,以硬件结构、软件模块、或硬件结构加软件模块的形式来实现上述各功能。上述各功能中的某个功能以硬件结构、软件模块、还是硬件结构加软件模块的方式来执行,取决于技术方案的特定应用和设计约束条件。
如图14所示,本申请实施例提供了一种通信装置1400。该通信装置1400可以是第一装置的部件(例如,集成电路,芯片等等),也可以是第一装置的部件(例如,集成电路,芯片等等)。该通信装置1400也可以是其他通信单元,用于实现本申请方法实施例中的方法。该通信装置1400可以包括:通信单元1401和处理单元1402。可选的,还可以包括存储单元1403。
在一种可能的设计中,如图14中的一个或者多个单元可能由一个或者多个处理器来实现,或者由一个或者多个处理器和存储器来实现;或者由一个或多个处理器和收发器实现;或者由一个或者多个处理器、存储器和收发器实现,本申请实施例对此不作限定。所述处理器、存储器、收发器可以单独设置,也可以集成。
所述通信装置1400具备实现本申请实施例描述的第一装置的功能。比如,所述通信装置1400包括第一装置执行本申请实施例描述的第一装置涉及步骤所对应的模块或单元或手段(means),所述功能或单元或手段(means)可以通过软件实现,或者通过硬件实现,也可以通过硬件执行相应的软件实现,还可以通过软件和硬件结合的方式实现。详细可进一步参考前述对应方法实施例中的相应描述。
在一种可能的设计中,一种通信装置1400可包括:处理单元1402和通信单元1401,通信单元1401用于进行数据/信令收发;
处理单元1402,用于获取K维数据;
处理单元1402,还用于将所述K维数据输入第一机器学习模型,获得待求解问题的解;所述第一机器学习模型包括第一处理模块和第二处理模块;
所述第二处理模块是基于所述待求解问题的约束条件确定的;所述第二处理模块用于对所述K维数据进行维度泛化;所述第一处理模块是根据m维数据训练获得的;所述m的取值与所述K的取值无关;所述K、所述m为正整数。
一种可选的实现方式中,所述待求解问题不具有维度泛化特性。
一种可选的实现方式中,所述处理单元1402将所述K维数据输入第一机器学习模型,获得待求解问题的解,具体用于:
将所述K维数据输入所述第一处理模块,获得K个第一中间解;
将所述K个第一中间解输入所述第二处理模块,获得所述待求解问题的解。
一种可选的实现方式中,所述待求解问题是一个网络设备与K个终端进行通信所使用的总带宽最小化时,所述网络设备向所述K个终端发送通信信号的功率;所述约束条件包括所述网络设备向所述K个终端发送通信信号的总功率在第一范围内。
另一种可选的实现方式中,所述待求解问题是K个终端与一个网络设备进行通信所使用的总带宽最小化时,所述K个终端向所述网络设备发送通信信号的功率;所述约束条件包括所述K个终端向所述网络设备发送通信信号的总功率在第三范围内。
一种可选的实现方式中,所述第二处理模块包括归一化指数函数激活层。
另一种可选的实现方式中,所述待求解问题是一个网络设备与K个终端进行通信所使用的总带宽最小化时,所述网络设备与所述K个终端进行通信所使用的带宽;所述约束条件包括所述网络设备与所述K个终端中每个终端进行通信时的服务质量在第二范围内。
一种可选的实现方式中,所述第二处理模块包括激活层和缩放因子层;所述缩放因子层中的第k个缩放因子是将第k个数据和所述K输入缩放因子计算模块获得的;所述k为小于或等于K的正整数。
一种可选的实现方式中,所述处理单元1402将所述K个第一中间解输入所述第二处理模块,获得所述待求解问题的解,具体用于:
将所述K个第一中间解输入所述激活层,获得K个第二中间解;
将所述K个第二中间解输入所述缩放因子层,获得所述待求解问题的解。
一种可选的实现方式中,所述K维数据是所述网络设备与所述K个终端之间的信道增益。
一种可选的实现方式中,所述第一处理模块是具有置换等变特性的置换等变神经网络或图神经网络。
本申请实施例和上述所示方法实施例基于同一构思,其带来的技术效果也相同,具体原理请参照上述所示实施例的描述,不再赘述。
本申请实施例还提供一种通信装置1500,图15为通信装置1500的结构示意图。所述通信装置1500可以是第一装置,也可以是支持第一装置实现上述方法的芯片、芯片系统、或处理器等。该装置可用于实现上述方法实施例中描述的方法,具体可以参见上述方法实施例中的说明。
所述通信装置1500可以包括一个或多个处理器1501。所述处理器1501可以是通用处理器或者专用处理器等。例如可以是基带处理器、数字信号处理器、专用集成电路、现场可编程门阵列或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件或中央处理器(Central Processing Unit,CPU)。基带处理器可以用于对通信协议以及通信数据进行处理,中央处理器可以用于对通信装置(如,基站、基带芯片,终端、终端芯片,分布单元(distributed unit,DU)或集中单元(centralized unit,CU)等)进行控制,执行软件程序,处理软件程序的数据。
可选的,所述通信装置1500中可以包括一个或多个存储器1502,其上可以存有指令1504,所述指令可在所述处理器1501上被运行,使得所述通信装置1500执行上述方法实施例中描述的方法。可选的,所述存储器1502中还可以存储有数据。所述处理器1501和存储器1502可以单独设置,也可以集成在一起。
存储器1502可包括但不限于硬盘(hard disk drive,HDD)或固态硬盘(solid-state drive,SSD)等非易失性存储器,随机存储记忆体(Random Access Memory,RAM)、可擦除可编程只读存储器(Erasable Programmable ROM,EPROM)、ROM或便携式只读存储器(Compact Disc Read-Only Memory,CD-ROM)等等。
可选的,所述通信装置1500还可以包括收发器1505、天线1506。所述收发器1505可以称为收发单元、收发机、或收发电路等,用于实现收发功能。收发器1505可以包括接收器和发送器,接收器可以称为接收机或接收电路等,用于实现接收功能;发送器可以称为发送机或发送电路等,用于实现发送功能。
所述通信装置1500为第一装置:处理器1501用于执行上述数据处理方法100中的S101、S102,以及用于执行数据处理方法200中的S201、S202、S203,以及用于执行数据处理方法300中的S301、S302、S303、S304。
另一种可能的设计中,处理器1501中可以包括用于实现接收和发送功能的收发器。例如该收发器可以是收发电路,或者是接口,或者是接口电路。用于实现接收和发送功能的收发电路、接口或接口电路可以是分开的,也可以集成在一起。上述收发电路、接口或接口电路可以用于代码/数据的读写,或者,上述收发电路、接口或接口电路可以用于信号的传输或传递。
又一种可能的设计中,可选的,处理器1501可以存有指令1503,指令1503在处理器1501上运行,可使得所述通信装置1500执行上述方法实施例中描述的方法。指令1503可能固化在处理器1501中,该种情况下,处理器1501可能由硬件实现。
又一种可能的设计中,通信装置1500可以包括电路,所述电路可以实现前述方法实施例中发送或接收或者通信的功能。本申请实施例中描述的处理器和收发器可实现在集成电路(integrated circuit,IC)、模拟IC、射频集成电路(radio frequencyintegratedcircuit,RFIC)、混合信号IC、专用集成电路(application specific integratedcircuit,ASIC)、印刷电路板(printed circuit board,PCB)、电子设备等上。该处理器和收发器也可以用各种IC工艺技术来制造,例如互补金属氧化物半导体(complementary metaloxide semiconductor,CMOS)、N型金属氧化物半导体(nMetal-oxide-semiconductor,NMOS)、P型金属氧化物半导体(positive channel metal oxide semiconductor,PMOS)、双极结型晶体管(Bipolar Junction Transistor,BJT)、双极CMOS(BiCMOS)、硅锗(SiGe)、砷化镓(GaAs)等。
以上实施例描述中的通信装置可以是第一装置,但本申请实施例中描述的通信装置的范围并不限于此,而且通信装置的结构可以不受图15的限制。通信装置可以是独立的设备或者可以是较大设备的一部分。例如所述通信装置可以是:
(1)独立的集成电路IC,或芯片,或,芯片系统或子系统;
(2)具有一个或多个IC的集合,可选的,该IC集合也可以包括用于存储数据,指令的存储部件;
(3)ASIC,例如调制解调器(modulator);
(4)可嵌入在其他设备内的模块;
对于通信装置可以是芯片或芯片系统的情况,可参见图16所示的芯片的结构示意图。图16所示的芯片1600包括处理器1601和接口1602。其中,处理器1601的数量可以是一个或多个,接口1602的数量可以是多个。该处理器1601可以是逻辑电路,该接口1602可以是输入输出接口、输入接口或输出接口。所述芯片1600还可包括存储器1603。
一种设计中,对于芯片用于实现本申请实施例中第二通信装置的功能的情况:接口1602用于进行输出或接收。
所述处理器1601,用于获取K维数据;
所述处理器1601,还用于将所述K维数据输入第一机器学习模型,获得待求解问题的解;所述第一机器学习模型包括第一处理模块和第二处理模块;
所述第二处理模块是基于所述待求解问题的约束条件确定的;所述第二处理模块用于对所述K维数据进行维度泛化;所述第一处理模块是根据m维数据训练获得的;所述m的取值与所述K的取值无关;所述K、所述m为正整数。
本申请实施例中通信装置1500、芯片1600还可执行上述通信装置1400所述的实现方式。本领域技术人员还可以了解到本申请实施例列出的各种说明性逻辑块(illustrative logical block)和步骤(step)可以通过电子硬件、电脑软件,或两者的结合进行实现。这样的功能是通过硬件还是软件来实现取决于特定的应用和整个系统的设计要求。本领域技术人员可以对于每种特定的应用,可以使用各种方法实现所述的功能,但这种实现不应被理解为超出本申请实施例保护的范围。
本申请实施例和上述数据处理方法100至数据处理方法300所示方法实施例基于同一构思,其带来的技术效果也相同,具体原理请参照上述数据处理方法100至数据处理方法300所示实施例的描述,不再赘述。
本申请还提供了一种计算机可读存储介质,用于储存计算机软件指令,当所述指令被通信装置执行时,实现上述任一方法实施例的功能。
本申请还提供了一种计算机程序产品,用于储存计算机软件指令,当所述指令被通信装置执行时,实现上述任一方法实施例的功能。
本申请还提供了一种计算机程序,当其在计算机上运行时,实现上述任一方法实施例的功能。
本申请还提供了一种通信系统,该系统包括一个或多个网络设备,以及一个或多个终端设备。在另一种可能的设计中,该系统还可以包括本申请提供的方案中与网络设备、终端设备进行交互的其他设备。
上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(digital subscriber line,DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质(例如,软盘、硬盘、磁带)、光介质(例如,高密度数字视频光盘(digital video disc,DVD))、或者半导体介质(例如,SSD)等。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (25)
1.一种数据处理方法,其特征在于,所述方法包括:
获取K维数据;
将所述K维数据输入第一机器学习模型,获得待求解问题的解;所述第一机器学习模型包括第一处理模块和第二处理模块;
所述第二处理模块是基于所述待求解问题的约束条件确定的;所述第二处理模块用于对所述K维数据进行维度泛化;所述第一处理模块是根据m维数据训练获得的;所述m的取值与所述K的取值无关;所述K、所述m为正整数。
2.根据权利要求1所述的方法,其特征在于,所述待求解问题不具有维度泛化特性。
3.根据权利要求1或2所述的方法,其特征在于,所述将所述K维数据输入第一机器学习模型,获得待求解问题的解,包括:
将所述K维数据输入所述第一处理模块,获得K个第一中间解;
将所述K个第一中间解输入所述第二处理模块,获得所述待求解问题的解。
4.根据权利要求1至3任一项所述的方法,其特征在于,所述待求解问题是一个网络设备与K个终端进行通信所使用的总带宽最小化时,所述网络设备向所述K个终端发送通信信号的功率;
所述约束条件包括所述网络设备向所述K个终端发送通信信号的总功率在第一范围内。
5.根据权利要求1至3任一项所述的方法,其特征在于,所述待求解问题是K个终端与一个网络设备进行通信所使用的总带宽最小化时,所述K个终端向所述网络设备发送通信信号的功率;
所述约束条件包括所述K个终端向所述网络设备发送通信信号的总功率在第三范围内。
6.根据权利要求4或5所述的方法,其特征在于,所述第二处理模块包括归一化指数函数激活层。
7.根据权利要求1至3任一项所述的方法,其特征在于,所述待求解问题是一个网络设备与K个终端进行通信所使用的总带宽最小化时,所述网络设备与所述K个终端进行通信所使用的带宽;
所述约束条件包括所述网络设备与所述K个终端中每个终端进行通信时的服务质量在第二范围内。
8.根据权利要求7所述的方法,其特征在于,所述第二处理模块包括激活层和缩放因子层;
所述缩放因子层中的第k个缩放因子是将第k个数据和所述K输入缩放因子计算模块获得的;所述k为小于或等于K的正整数。
9.根据权利要求8所述的方法,其特征在于,所述将所述K个第一中间解输入所述第二处理模块,获得所述待求解问题的解,包括:
将所述K个第一中间解输入所述激活层,获得K个第二中间解;
将所述K个第二中间解输入所述缩放因子层,获得所述待求解问题的解。
10.根据权利要求4至9任一项所述的方法,其特征在于,所述K维数据是所述网络设备与所述K个终端之间的信道增益。
11.根据权利要求1至10任一项所述的方法,其特征在于,所述第一处理模块是具有置换等变特性的置换等变神经网络或图神经网络。
12.一种通信装置,其特征在于,所述装置包括通信单元和处理单元,通信单元用于进行数据/信令收发;
处理单元,用于获取K维数据;
处理单元,还用于将所述K维数据输入第一机器学习模型,获得待求解问题的解;所述第一机器学习模型包括第一处理模块和第二处理模块;
所述第二处理模块是基于所述待求解问题的约束条件确定的;所述第二处理模块用于对所述K维数据进行维度泛化;所述第一处理模块是根据m维数据训练获得的;所述m的取值与所述K的取值无关;所述K、所述m为正整数。
13.根据权利要求12所述的装置,其特征在于,所述待求解问题不具有维度泛化特性。
14.根据权利要求12或13所述的装置,其特征在于,所述处理单元将所述K维数据输入第一机器学习模型,获得待求解问题的解,具体用于:
将所述K维度数据输入所述第一处理模块,获得K个第一中间解;
将所述K个第一中间解输入所述第二处理模块,获得所述待求解问题的解。
15.根据权利要求12至14任一项所述的装置,其特征在于,所述待求解问题是一个网络设备与K个终端进行通信所使用的总带宽最小化时,所述网络设备向所述K个终端发送通信信号的功率;
所述约束条件包括所述网络设备向所述K个终端发送通信信号的总功率在第一范围内。
16.根据权利要求12至14任一项所述的装置,其特征在于,所述待求解问题是K个终端与一个网络设备进行通信所使用的总带宽最小化时,所述K个终端向所述网络设备发送通信信号的功率;
所述约束条件包括所述K个终端向所述网络设备发送通信信号的总功率在第三范围内。
17.根据权利要求15或16所述的装置,其特征在于,所述第二处理模块包括归一化指数函数激活层。
18.根据权利要求12至14任一项所述的装置,其特征在于,所述待求解问题是一个网络设备与K个终端进行通信所使用的总带宽最小化时,所述网络设备与所述K个终端进行通信所使用的带宽;
所述约束条件包括所述网络设备与所述K个终端中每个终端进行通信时的服务质量在第二范围内。
19.根据权利要求18所述的装置,其特征在于,所述第二处理模块包括激活层和缩放因子层;
所述缩放因子层中的第k个缩放因子是将第k个数据和所述K输入缩放因子计算模块获得的;所述k为小于或等于K的正整数。
20.根据权利要求19所述的装置,其特征在于,所述处理单元将所述K个第一中间解输入所述第二处理模块,获得所述待求解问题的解,具体用于:
将所述K个第一中间解输入所述激活层,获得K个第二中间解;
将所述K个第二中间解输入所述缩放因子层,获得所述待求解问题的解。
21.根据权利要求15至20任一项所述的装置,其特征在于,所述K维数据是所述网络设备与所述K个终端之间的信道增益。
22.根据权利要求12至21任一项所述的装置,其特征在于,所述第一处理模块是具有置换等变特性的置换等变神经网络或图神经网络。
23.一种通信装置,其特征在于,包括处理器和收发器,所述收发器用于与其它通信装置进行通信;所述处理器用于运行程序,以使得所述通信装置实现权利要求1至11任一项所述的方法。
24.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质用于存储有指令,当其在计算机上运行时,使得权利要求1至11任一项所述的方法被执行。
25.一种包含指令的计算机程序产品,其特征在于,当其在计算机上运行时,使得权利要求1至11任一项所述的方法被执行。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210336391.9A CN116933855A (zh) | 2022-03-31 | 2022-03-31 | 一种数据处理方法及相关装置 |
PCT/CN2023/084530 WO2023185890A1 (zh) | 2022-03-31 | 2023-03-28 | 一种数据处理方法及相关装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210336391.9A CN116933855A (zh) | 2022-03-31 | 2022-03-31 | 一种数据处理方法及相关装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116933855A true CN116933855A (zh) | 2023-10-24 |
Family
ID=88199212
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210336391.9A Pending CN116933855A (zh) | 2022-03-31 | 2022-03-31 | 一种数据处理方法及相关装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN116933855A (zh) |
WO (1) | WO2023185890A1 (zh) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111915060A (zh) * | 2020-06-30 | 2020-11-10 | 华为技术有限公司 | 组合优化任务的处理方法以及处理装置 |
KR102510513B1 (ko) * | 2020-07-27 | 2023-03-16 | 한국전자통신연구원 | 심층 학습 기반의 빔포밍 방법 및 이를 위한 장치 |
CN113965233B (zh) * | 2021-10-19 | 2022-07-26 | 东南大学 | 一种基于深度学习的多用户宽带毫米波通信资源分配方法 |
-
2022
- 2022-03-31 CN CN202210336391.9A patent/CN116933855A/zh active Pending
-
2023
- 2023-03-28 WO PCT/CN2023/084530 patent/WO2023185890A1/zh unknown
Also Published As
Publication number | Publication date |
---|---|
WO2023185890A1 (zh) | 2023-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220416921A1 (en) | Frequency spectrum management device, system, method and computer readable storage medium | |
US20240211770A1 (en) | Communication method and apparatus | |
CN112152741A (zh) | 信道模型的训练方法及装置 | |
CN116848828A (zh) | 机器学习模型分布 | |
CN116933855A (zh) | 一种数据处理方法及相关装置 | |
US11962436B2 (en) | User detection technique, and method and apparatus for channel estimation in wireless communication system supporting massive multiple-input multiple-output | |
WO2021114968A1 (zh) | 一种调度方法及装置 | |
CN116233857A (zh) | 通信方法和通信装置 | |
CN112888076A (zh) | 一种调度方法及装置 | |
US12028924B2 (en) | Method and apparatus for controlling multi-connectivity in wireless communication system | |
WO2024046419A1 (zh) | 一种通信方法及装置 | |
US20240048207A1 (en) | Method and apparatus for transmitting and receiving feedback information based on artificial neural network | |
WO2024103352A1 (zh) | 一种通信方法、装置及系统 | |
Ananthi et al. | Outage probability analysis of multiple input multiple output ad‐hoc networks with random topology | |
WO2023197950A1 (zh) | 一种通信方法及相关装置 | |
WO2024046288A1 (zh) | 通信方法和装置 | |
WO2022218386A1 (zh) | 分布式学习方法及装置 | |
KR102547010B1 (ko) | 무선 통신 시스템에서의 다중 연결 제어 방법 및 장치 | |
WO2023125996A1 (zh) | 一种上行预编码方法及装置 | |
WO2024007335A1 (zh) | 无线通信方法、装置、设备及存储介质 | |
WO2023024095A1 (en) | Method and apparatus for power control and interference coordination | |
CN117411526A (zh) | 一种通信方法及装置 | |
CN118118133A (zh) | 一种通信方法及装置 | |
CN115222038A (zh) | 一种梯度传输方法及相关装置 | |
CN117639867A (zh) | 一种通信方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication |