WO2023125760A1 - 模型训练方法、装置及通信设备 - Google Patents
模型训练方法、装置及通信设备 Download PDFInfo
- Publication number
- WO2023125760A1 WO2023125760A1 PCT/CN2022/143207 CN2022143207W WO2023125760A1 WO 2023125760 A1 WO2023125760 A1 WO 2023125760A1 CN 2022143207 W CN2022143207 W CN 2022143207W WO 2023125760 A1 WO2023125760 A1 WO 2023125760A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- model
- training
- network element
- information
- model training
- Prior art date
Links
- 238000012549 training Methods 0.000 title claims abstract description 1074
- 238000000034 method Methods 0.000 title claims abstract description 365
- 238000004891 communication Methods 0.000 title claims abstract description 48
- 230000006870 function Effects 0.000 claims description 77
- 238000004364 calculation method Methods 0.000 claims description 30
- 230000000694 effects Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 19
- 238000007726 management method Methods 0.000 description 15
- 238000013473 artificial intelligence Methods 0.000 description 12
- 238000013528 artificial neural network Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 230000000737 periodic effect Effects 0.000 description 5
- 230000001360 synchronised effect Effects 0.000 description 5
- 230000001960 triggered effect Effects 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000007405 data analysis Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 210000004027 cell Anatomy 0.000 description 3
- 238000012517 data analytics Methods 0.000 description 3
- 238000012804 iterative process Methods 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 101150069124 RAN1 gene Proteins 0.000 description 2
- 101150014328 RAN2 gene Proteins 0.000 description 2
- 101100355633 Salmo salar ran gene Proteins 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 2
- 238000013523 data management Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 101100055418 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) AMF1 gene Proteins 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000001568 sexual effect Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/098—Distributed learning, e.g. federated learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
Definitions
- the present application belongs to the technical field of communication, and in particular relates to a model training method, device and communication equipment.
- AI artificial intelligence
- Embodiments of the present application provide a model training method, device, and communication device, which can implement model training by combining data located in different domains and on different network elements without data sharing.
- a readable storage medium is provided, and a program or an instruction is stored on the readable storage medium, and when the program or instruction is executed by a processor, the steps of the method described in the first aspect are implemented, or the steps of the method as described in the first aspect are implemented, or the The steps of the method described in the second aspect, or the steps of implementing the method described in the third aspect.
- Fig. 1 is a schematic structural diagram of a wireless communication system provided by an exemplary embodiment of the present application.
- FIG. 8 is the fifth schematic flowchart of the model training method provided by the embodiment of the present application.
- Fig. 11 is the third structural schematic diagram of the model training device provided by the embodiment of the present application.
- the network side device 12 may include an access network device or a core network device, where the access network device 12 may also be called a radio access network device, a radio access network (Radio Access Network, RAN), a radio access network function, or Wireless access network unit.
- RAN Radio Access Network
- RAN Radio Access Network
- Wireless access network unit Wireless access network unit
- the access network device 12 may include a base station, a wireless local area network (Wireless Local Area Network, WLAN) access point or a wireless fidelity (Wireless Fidelity, WiFi) node, etc., and the base station may be called a node B, an evolved node B (eNB), Access point, base transceiver station (Base Transceiver Station, BTS), radio base station, radio transceiver, basic service set (Basic Service Set, BSS), extended service set (Extended Service Set, ESS), home B node, home Evolved Node B, Transmitting Receiving Point (TRP) or some other appropriate term in the field, as long as the same technical effect is achieved, the base station is not limited to specific technical terms.
- eNB evolved node B
- BTS base transceiver station
- BTS base transceiver station
- BSS basic service set
- Extended Service Set Extended Service Set
- ESS Extended Service Set
- home B node home Evolved Node B
- TRP Trans
- the first network element acts as a coordinator (coordinator) in the model training system, which may be a certain network element or device in the communication network that can provide machine learning functions, such as a network data analysis function (Network Data Analytics Function, NWDAF), management data analysis service (management data analytics service, MDAS), management data analysis function (management data analytic function, MDAF) and other network elements or devices dedicated to providing network intelligent services.
- NWDAF Network Data Analytics Function
- MDAS management data analytics service
- MDAF management data analysis function
- the second network element may be a network element or device that has local data but is not willing to share data, and the network element or device has local machine learning capability.
- the second network element may be, but not limited to, an AI functional network element in a radio access network (Radio Access Network, RAN) domain, an AI functional network element in a core network (Core Network, CN) domain, a second Three-party AI applications, AI agent (client) in the terminal (User Equipment, UE), local communication service equipment, etc.
- RAN Radio Access Network
- Core Network, CN Core Network
- client AI agent
- UE User Equipment
- the first network element receives first information sent by the at least one second network element, where the first information includes at least a first training result.
- the first model may be an initial model (also referred to as an initialized global model) generated by the first network element for the model training task, or the first model may also be an initial model for the model training task.
- An intermediate model obtained by the first network element performing one or more model training/updates on the initial model which is not limited here.
- the process of the first network element performing model training according to the first training result is not limited here, for example, the first network element may be based on the first training result reported by the at least one second network element updating the first model, etc.
- the first training result reported by each of the second network elements corresponds to the first model, that is, each of the second network elements is trained for the first model, and the training result
- the first training results are reported to the first network element, and then the first network element performs model training/update on the first model according to each of the first training results to obtain a target model.
- the type information may also be represented by a number representation or other encoding representation, etc., which is not limited here.
- the identification information may also be represented by means of numbers or other coded representations, which is not limited here.
- Information related to the first filter which can also be understood as filter information (filter information) for model training.
- the relevant information of the first filter is used to define the target object (such as target UE (target UE(s))), target time (such as target time period (target time period)) and target area corresponding to the model training task (such as at least one item in the target area of interest (target area of interest, (target AOI)), so that each of the second network elements can collect suitable training data according to the relevant information of the first filter for local model train.
- Model training configuration information is used to align model training methods and/or training parameters for the horizontal federated learning process. That is, the model training configuration information is used to instruct the second network element to perform local model training, a model algorithm, or a local training model to be used. For example, the second network element may perform training of a local training model according to the model training configuration information.
- the type information of the training data is used to recommend to the two AMFs that the federated model training should use UE location, AMF Two types of input data such as load are used to train the AMF local training model.
- the first network element may try to start updating the first model based on the currently received 4 first training results.
- the information on the number of times of model training and the duration of model training described in (165)-(166) above may be that the second network element is based on the training capability information (such as computing capability, data Storage capacity, information about the time required for each round of training iterations) is determined. That is to say, for different second network elements, the information about the number of times of model training and/or the information about the duration of model training may be different.
- the training capability information such as computing capability, data Storage capacity, information about the time required for each round of training iterations
- the reporting information of the first training result is used to limit information such as the reporting format and reporting conditions when each second network element feeds back the first training result.
- the reporting condition may include event trigger and/or periodic trigger.
- the event trigger may include any one of (171)-(173).
- the second network element reports the first training result.
- the number of training rounds specified by the first network element can be different, which can make the first network element align with the first network element reported by each training entity (ie, the second network element) in the iterative process of model training.
- the pace of a training result and then ensure that all training entities report the same pace, prevent the problem of stragglers, and ensure the effect of model training.
- the federated model training request message specifically includes which information in (11)-(19) above, which can be configured by protocol agreement, high-level configuration or network side configuration, and is not limited here.
- the content in the federated model training request message for each of the second network elements may be partly the same or partly different, here No restrictions.
- the first condition may at least include at least one of the following (21)-(23).
- the at least one second network element can provide all or part of the training data corresponding to the model training task.
- the samples of the training data between the second network elements corresponding to the model training task are different, but the characteristics of the samples are the same. For example, in order to analyze the behavior trajectories of all users in area A (corresponding to the jurisdiction of multiple base stations), it is necessary to obtain the trajectory model of users in area A.
- the training data required for training the trajectory model can be different users under different base stations (i.e. samples) generated location data (i.e., sample features).
- the second network element determines a local training model and a model training method for training the local training model according to the model training configuration information and/or the relevant information of the first model.
- the information of the target model is used to instruct the second network element or the third network element to perform local model training based on the target model.
- the information of the target model may include model structure information, model hyperparameter information, etc., which are not limited here.
- the description about (51)-(55) can refer to the relevant description in the aforementioned federated model training request message, and to avoid repetition, no limitation is given here.
- the first network element may determine whether to repeat the aforementioned federated model training process according to whether the target model converges until the target model obtained in the first network element converges.
- the so-called target model convergence means that the accuracy value of the loss function corresponding to the target model meets the budget requirement or reaches a predetermined value.
- the first network element receives a model request message sent by the fourth network element.
- Model feedback related information where the model feedback related information may include at least one of model feedback format and feedback condition.
- the relevant information of the target model includes at least one of the following (71)-(74).
- the training entity A trains a local training model according to the federated model training request message, and then obtains a first training result based on the trained local training model.
- the first network element, the training entity A, and the training entity B repeatedly execute S605-S610 until the calculation result of the loss function corresponding to the target model meets a predetermined requirement, that is, the target model converges, then stop the Federated model training process.
- the first network element performs model training based on the received first training result sent by the training entity A, to obtain a target model and/or a second training result.
- the training entity A performs local model training again according to the received second training result, so as to reacquire the first training result and report it, so as to realize the cyclic iteration of the federation model training process.
- the first network element sends the relevant information of the target model to the fourth network element when the calculation result of the loss function of the target model meets a predetermined requirement.
- the second network element performs model training according to the federated model training request message, and obtains a first training result.
- the second network element sends first information to the first network element, where the first information includes at least the first training result.
- the federated model training request message includes at least one of the following: model instance identification information, the model instance identification information corresponds to the target model and is allocated by the first network element; the type of the model training task Information; identification information of the model training task; first indication information, used to indicate that the federated model training process is a horizontal federated learning process; related information of the first filter, used to limit the model training task corresponding At least one of the target object, target time, and target area; related information of the first model, the related information of the first model is used for each of the second network elements to perform local model training; model training configuration information; the Reporting information of the first training result; relevant information of each network element participating in the training process of the federated model.
- the first information further includes at least one of the following: model instance identification information, used for the first network element to perform model association.
- the second training result at least includes: second gradient information of the loss function of the target model with respect to the parameters of the target model or information of the target model.
- the model training method 300-800 provided in the embodiment of the present application may be executed by a model training device.
- the model training method executed by the model training device is taken as an example to describe the model training device provided in the embodiment of the present application.
- the model training configuration information includes at least one of the following: model structure information; model hyperparameter information; type information of training data in the federated model training process; model training condition information, used to provide information to the first
- the second network element indicates the conditions for the first network element to start model training according to the first training result reported by the second network element; the number of model training times information is used to indicate that the second network element is sending to the second network element The number of times a network element needs to perform local model training before sending the first information; the duration information of the model training is used to indicate the local model that the second network element needs to perform before sending the first information to the first network element The duration of the training.
- the reporting information of the first training result includes at least one of the following: a reporting format of the first training result; a reporting condition of the first training result.
- the first information further includes at least one of the following: model instance identification information, used for the first network element to perform model association.
- the step of receiving the second information sent by the first network element by the second receiving module 1010 includes any of the following: receiving specified information sent by the first network element, the specified information belongs to the The second information is different from the information included in the federated model training request message; and all information in the second information sent by the first network element is received.
- FIG. 11 it is a schematic structural diagram of a model training device 1100 provided by an exemplary embodiment of the present application.
- the device 1100 includes: a third receiving module 1110 configured to receive information about the target model sent by the first network element ; Wherein, the relevant information of the target model is at least used to characterize that the target model is a horizontal federated model.
- the relevant information of the target model includes at least one of the following: model instance identification information, the model instance identification information corresponds to the target model and is allocated by the first network element; third model information, the The third model information includes the network structure information and/or model parameter information of the target model; the second indication information is used to indicate that the target model is a horizontal federated learning model; the second network element and/or the third network element In related information, the second network element and/or the third network element is a network element participating in the training of the target model.
- the communication device 1200 may be a terminal, and the terminal may include a processor and a communication interface, the communication interface is coupled to the processor, and the processor is used to run programs or instructions to implement methods such as The steps of the method described in Examples 300-800.
- This terminal embodiment corresponds to the above-mentioned terminal-side method embodiment, and each implementation process and implementation mode of the above-mentioned method embodiment can be applied to this terminal embodiment, and can achieve the same technical effect.
- FIG. 13 is a schematic diagram of a hardware structure of a terminal implementing an embodiment of the present application.
- the baseband device 1403 may include at least one baseband board, for example, a plurality of chips are arranged on the baseband board, as shown in FIG.
- the program executes the network device operations shown in the above method embodiments.
- the network-side device 1400 in this embodiment of the present invention also includes: instructions or programs stored in the memory 1405 and executable on the processor 1404, and the processor 1404 calls the instructions or programs in the memory 1405 to execute FIGS. 9-11
- the methods executed by each module shown in the figure achieve the same technical effect, so in order to avoid repetition, they are not repeated here.
- FIG. 15 it is a schematic structural diagram of a network side device 1500 provided by another example embodiment of the present application, and the network side device 1500 includes: a processor 1501 , a network interface 1502 and a memory 1503 .
- the network interface 1502 is, for example, a common public radio interface (common public radio interface, CPRI).
- the chip mentioned in the embodiment of the present application may also be called a system-on-chip, a system-on-chip, a system-on-a-chip, or a system-on-a-chip.
- the embodiment of the present application also provides a model training system, including: a first network element, a second network element, and a third network element, and the first network element can be used to execute the steps of the method in the method embodiment 300-600 , the second network element may be used to execute the method steps in the method embodiment 700, and the third network element may be used to execute the method steps in the method embodiment 800.
- the term “comprising”, “comprising” or any other variation thereof is intended to cover a non-exclusive inclusion such that a process, method, article or apparatus comprising a set of elements includes not only those elements, It also includes other elements not expressly listed, or elements inherent in the process, method, article, or device. Without further limitations, an element defined by the phrase “comprising a " does not preclude the presence of additional identical elements in the process, method, article, or apparatus comprising that element.
- the scope of the methods and devices in the embodiments of the present application is not limited to performing functions in the order shown or discussed, and may also include performing functions in a substantially simultaneous manner or in reverse order according to the functions involved. Functions are performed, for example, the described methods may be performed in an order different from that described, and various steps may also be added, omitted, or combined. Additionally, features described with reference to certain examples may be combined in other examples.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Mobile Radio Communication Systems (AREA)
- Computer And Data Communications (AREA)
Abstract
本申请公开了一种模型训练方法、装置及通信设备,属于通信技术领域,本申请实施例的模型训练方法包括:第一网元在进行与模型训练任务对应的联邦模型训练过程的情况下,向至少一个第二网元发送联邦模型训练请求消息,至少一个第二网元为参与联邦模型训练过程的网元,各第二网元间用于联邦模型训练过程的训练数据对应的样本不同、但样本特征相同;第一网元接收至少一个第二网元发送的第一信息,第一信息至少包括第一训练结果,第一训练结果对应于第二网元中用于联邦模型训练过程的训练数据;第一网元根据第一模型和至少一个第二网元上报的第一训练结果进行模型训练,得到目标模型和/或第二训练结果。
Description
相关申请的交叉引用
本申请要求在2021年12月30日提交的中国专利申请第202111662860.8号的优先权,该中国专利申请的全部内容通过引用包含于此。
本申请属于通信技术领域,具体涉及一种模型训练方法、装置及通信设备。
随着人工智能(Artificial Intelligence,AI)的快速发展,其已在各个领域得到了广泛的应用。
其中,以通信领域为例,随着AI功能的引入,必然存在机器学习的需求。例如,对于某种智能的网络业务,其需要来自不同域、不同网元等上产生的大量数据进行模型训练,从而实现更为精准的业务实现。但是,随着数据安全和隐私问题被越来越重视,网络中的不同域、不同网元等之间存在数据隔离的问题,那么,如何基于不同域、不同网元上的数据实现模型训练成为当前急需解决的问题。
发明内容
本申请实施例提供一种模型训练方法、装置及通信设备,能够在不进行数据共享的情况下,联合位于不同域、不同网元上的数据实现模型训练。
第一方面,提供了一种模型训练方法,包括:第一网元在进行与模型训练任务对应的联邦模型训练过程的情况下,向至少一个第二网元发送联邦模型训练请求消息,所述至少一个第二网元为参与所述联邦模型训练过程的网元,各所述第二网元间用于所述联邦模型训练过程的训练数据对应的样本不同、但样本特征相同;所述第一网元接收所述至少一个第二网元发送的第一信息,所述第一信息至少包括第一训练结果,所述第一训练结果对应于所述第二网元中用于所述联邦模型训练过程的训练数据;所述第一网元根据第一模型和所述至少一个第二网元上报的所述第一训练结果进行模型训练,得到目标模型和/或第二训练结果。
第二方面,提供了一种模型训练方法,所述方法包括:第二网元接收第一网元发送的联邦模型训练请求消息,所述联邦模型训练请求消息用于请求所述第二网元参与模型训练 任务对应的联邦模型训练过程;所述第二网元根据所述联邦模型训练请求消息进行模型训练,得到第一训练结果;所述第二网元向所述第一网元发送第一信息,所述第一信息中至少包括所述第一训练结果;其中,所述第一训练结果对应于所述第二网元中用于所述联邦模型训练过程的训练数据,所述第二网元中用于所述联邦模型训练的样本,与第五网元中用于所述联邦模型训练的样本不同、但样本特征相同,所述第五网元是参与所述联邦模型训练过程中的多个网元中除了所述第二网元之外的其他网元。
第三方面,提供了一种模型训练方法,所述方法包括:第四网元接收第一网元发送的目标模型的相关信息;其中,所述目标模型的相关信息至少用于表征所述目标模型为横向联邦模型。
第四方面,提供了一种模型训练装置,包括:第一发送模块,用于在进行与模型训练任务对应的联邦模型训练过程的情况下,向至少一个第二网元发送联邦模型训练请求消息,所述至少一个第二网元为参与所述联邦模型训练过程的网元,各所述第二网元间用于所述联邦模型训练过程的训练数据对应的样本不同、但样本特征相同;第一接收模块,用于接收所述至少一个第二网元发送的第一信息,所述第一信息至少包括第一训练结果,所述第一训练结果对应于所述第二网元中用于所述联邦模型训练过程的训练数据;第一模型训练模块,用于根据第一模型和所述至少一个第二网元上报的所述第一训练结果进行模型训练,得到目标模型和/或第二训练结果。
第五方面,提供了一种模型训练装置,包括:第二接收模块,用于第二网元接收第一网元发送的联邦模型训练请求消息,所述联邦模型训练请求消息用于请求所述第二网元参与模型训练任务对应的联邦模型训练过程;第二模型训练模块,用于根据所述联邦模型训练请求消息进行模型训练,得到第一训练结果;第二发送模块,用于向所述第一网元发送第一信息,所述第一信息中至少包括所述第一训练结果;其中,所述第一训练结果对应于所述第二网元中用于所述联邦模型训练过程的训练数据,所述第二网元中用于所述联邦模型训练的样本,与第五网元中用于所述联邦模型训练的样本不同、但样本特征相同,所述第五网元是参与所述联邦模型训练过程中的多个网元中除了所述第二网元之外的其他网元。
第六方面,提供了一种模型训练装置,包括:第三接收模块,用于接收第一网元发送的目标模型的相关信息;其中,所述目标模型的相关信息至少用于表征所述目标模型为横向联邦模型。
第七方面,提供了一种通信设备,该通信设备包括处理器和存储器,所述存储器存储可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时实现如第一方面或第二方面或第三方面所述的方法的步骤。
第八方面,提供了一种通信设备,包括处理器及通信接口,其中,所述通信接口和所述处理器耦合,所述处理器用于运行程序或指令,实现如第一方面所述的方法的步骤,或实现如第二方面所述的方法的步骤,或实现如第三方面所述的方法的步骤。
第九方面,提供了一种模型训练系统,包括:第一网元、第二网元、第三网元,所述第一网元可用于执行如第一方面所述的模型训练方法的步骤,所述第二网元可用于执行如第二方面所述的模型训练方法的步骤,所述第三网元可用于执行如第三方面所述的模型训练方法的步骤。
第十方面,提供了一种可读存储介质,所述可读存储介质上存储程序或指令,所述程序或指令被处理器执行时实现如第一方面所述的方法的步骤,或者实现如第二方面所述的方法的步骤,或者实现如第三方面所述的方法的步骤。
第十一方面,提供了一种芯片,所述芯片包括处理器和通信接口,所述通信接口和所述处理器耦合,所述处理器用于运行程序或指令,实现如第一方面所述的方法的步骤,或实现如第二方面所述的方法的步骤,或者实现如第三方面所述的方法的步骤。
第十二方面,提供了一种计算机程序产品/程序产品,所述计算机程序/程序产品被存储在存储介质中,所述计算机程序/程序产品被至少一个处理器执行以实现如第一方面所述的方法的步骤,或者实现如第二方面所述的方法的步骤,或者实现如第三方面所述的方法的步骤。
在本申请实施例中,第一网元利用横向联邦模型训练的方式,联合各第二网元实现本地分布式模型训练,由此,可在不共享通信网络中各第二网元上的数据的前提下,既能确保各第二网元中的数据隐私性和数据安全性,还能确保模型训练效果。
图1是本申请一示例性实施例提供的无线通信系统的结构示意图。
图2是本申请一示例性实施例提供的模型训练系统的结构示意图。
图3是本申请实施例提供的模型训练方法的流程示意图之一。
图4是本申请实施例提供的模型训练方法的流程示意图之二。
图5是本申请实施例提供的模型训练方法的流程示意图之三。
图6a是本申请实施例提供的模型训练方法的交互流程示意图之一。
图6b是本申请实施例提供的模型训练方法的交互流程示意图之二。
图7是本申请实施例提供的模型训练方法的流程示意图之四。
图8是本申请实施例提供的模型训练方法的流程示意图之五。
图9是本申请实施例提供的模型训练装置的结构示意图之一。
图10是本申请实施例提供的模型训练装置的结构示意图之二。
图11是本申请实施例提供的模型训练装置的结构示意图之三。
图12是本申请一示例性实施例提供的通信设备的结构示意图。
图13是本申请一示例性实施例提供的终端的结构示意图。
图14是本申请实施例提供的网络侧设备的结构示意图之一。
图15是本申请实施例提供的网络侧设备的结构示意图之二。
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员所获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书中的术语“第一”、“第二”等是用于区别类似的对象,而不用于描述特定的顺序或先后次序。应该理解这样使用的术语在适当情况下可以互换,以便本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施,且“第一”、“第二”所区别的对象通常为一类,并不限定对象的个数,例如第一对象可以是一个,也可以是多个。此外,说明书以及权利要求中“和/或”表示所连接对象的至少其中之一,字符“/”一般表示前后关联对象是一种“或”的关系。
值得指出的是,本申请实施例所描述的技术不限于长期演进型(Long Term Evolution,LTE)/LTE的演进(LTE-Advanced,LTE-A)系统,还可用于其他无线通信系统,诸如码分多址(Code Division Multiple Access,CDMA)、时分多址(Time Division Multiple Access,TDMA)、频分多址(Frequency Division Multiple Access,FDMA)、正交频分多址(Orthogonal Frequency Division Multiple Access,OFDMA)、单载波频分多址(Single-carrier Frequency-Division Multiple Access,SC-FDMA)和其他系统。本申请实施例中的术语“系统”和“网络”常被可互换地使用,所描述的技术既可用于以上提及的系统和无线电技术,也可用于其他系统和无线电技术。以下描述出于示例目的描述了新空口(New Radio,NR)系统,并且在以下大部分描述中使用NR术语,但是这些技术也可应用于NR系统以外的系统,如第6代(6
th Generation,6G)通信系统。
图1示出本申请实施例可应用的一种无线通信系统的框图。无线通信系统包括终端11和网络侧设备12。其中,终端11可以是手机、平板电脑(Tablet Personal Computer)、膝上型电脑(Laptop Computer)或称为笔记本电脑、个人数字助理(Personal Digital Assistant,PDA)、掌上电脑、上网本、超级移动个人计算机(ultra-mobile personal computer,UMPC)、移动上网装置(Mobile Internet Device,MID)、增强现实(augmented reality,AR)/虚拟现实(virtual reality,VR)设备、机器人、可穿戴式设备(Wearable Device)、车载设备(VUE)、行人终端(PUE)、智能家居(具有无线通信功能的家居设备,如冰箱、电视、洗衣机或者家具等)、游戏机、个人计算机(personal computer,PC)、柜员机或者自助机等终端侧设备,可穿戴式设备包括:智能手表、智能手环、智能耳机、智能眼镜、智能首饰(智能手镯、智能手链、智能戒指、智能项链、智能脚镯、智能脚链等)、智能腕带、智能服装等。需要说明的是,在本申请实施例并不限定终端11的具体类型。网络侧设备12可以包括接入网设备或核心网设备,其中,接入网设备12也可以称为无线接入网设备、无线 接入网(Radio Access Network,RAN)、无线接入网功能或无线接入网单元。接入网设备12可以包括基站、无线局域网(Wireless Local Area Network,WLAN)接入点或无线保真(Wireless Fidelity,WiFi)节点等,基站可被称为节点B、演进节点B(eNB)、接入点、基收发机站(Base Transceiver Station,BTS)、无线电基站、无线电收发机、基本服务集(Basic Service Set,BSS)、扩展服务集(Extended Service Set,ESS)、家用B节点、家用演进型B节点、发送接收点(Transmitting Receiving Point,TRP)或所述领域中其他某个合适的术语,只要达到相同的技术效果,所述基站不限于特定技术词汇,需要说明的是,在本申请实施例中仅以NR系统中的基站为例进行介绍,并不限定基站的具体类型。下面结合附图,通过一些实施例及其应用场景对本申请实施例提供的技术方案进行详细地说明。
在前述无线通信系统的基础上,如图2所示,本申请实施例还提供一种模型训练系统(也可称作横向联邦学习系统或横向联邦模型训练系统)的结构示意图,该模型训练系统可以包括第一网元、第二网元、第四网元。
所述第一网元作为所述模型训练系统中的协调者(coordinator),其可以是通信网络中某个能够提供机器学习功能的网元或设备,如网络数据分析功能(Network Data Analytics Function,NWDAF)、管理数据分析的服务(management data analytics service,MDAS)、管理数据分析的功能(management data analytic function,MDAF)等专用于提供网络智能化服务的网元或设备。或者,所述第一网元也可以是提供其他通信相关服务(如移动管理(Mobility Management,MM)服务、会话管理(Session Management,SM)服务)、且同时具备智能化功能的网元或设备,如接入和移动管理功能(Access and Mobility Management Function,AMF)、会话管理功能(Session Management Function,SMF)、应用功能(applicationfunction,AF)等,该AF可以是通信运营商部署的AF,也可以是第三方AF。本申请中,所述的第一网元还能够接受其他网元(如第四网元)或者设备提出的模型训练申请。
所述第二网元作为所述模型训练系统中的训练实体,其可以是拥有本地数据但不愿意进行数据共享的网元或设备,且,该网元或设备具备本地机器学习能力。在此情况下,所述第二网元可以是但不限于无线接入网(Radio Access Network,RAN)域的AI功能网元、核心网(Core Network,CN)域的AI功能网元、第三方AI应用、终端(User Equipment,UE)中AI代理(client)、本地通信服务设备等等。应注意,为便于理解,图2中仅示意出了两个第二网元,实际中,所述第二网元可以为一个或多个。
所述第四网元作为模型训练系统中的模型消费者,其可以是无线通信系统中需要进行模型消费的网元或设备,如第三方AI应用、UE、网络侧设备等。可以理解,所述模型训练系统可以如图2所示包括所述第四网元(如所述联邦模型训练过程可由所述第四网元触发),也可以不包括第四网元(如所述联邦模型训练过程可由所述第一网元根据自身需求等进行触发)等。也就是,所述模型训练系统可以包括比图2中所示更多或更少的网元或 设备,在此不做限制。
下面结合附图,通过一些实施例及其应用场景对本申请实施例提供的技术方案进行详细地说明。
如图3所示,为本申请一示例性实施例提供的模型训练方法300的流程示意图,该方法300可以但不限于由第一网元(如终端或网络侧设备)执行,具体可由安装于第一网元中的硬件和/或软件执行。本实施例中,所述方法300至少可以包括如下步骤。
S310,第一网元在进行与模型训练任务对应的联邦模型训练过程的情况下,向至少一个第二网元发送联邦模型训练请求消息。
其中,所述模型训练任务可以是数据分析对应的AI模型训练任务、也可以是通信鲁棒性学习对应的AI模型训练任务、还可以是对UE的移动轨迹进行模型训练的AI模型训练任务等,在此不做限制。
所述联邦模型训练过程可以由所述第一网元根据自身所需求的模型训练任务触发,也可以由第四网元触发,如第四网元可以根据自身需求向所述第一网元发送模型训练任务对应的模型请求消息,以触发所述联邦模型训练过程。
需要注意,所述联邦模型训练过程也可以理解为横向联邦学习过程,其本质是样本的联合,适用于参与者业态相同但触达客户不同,即特征(即样本特征)重叠多、用户(即样本)重叠少的场景,如RAN域不同基站设备中不同用户或不同用户群组(如UE或UE group,即样本不同)的同一服务(如MM业务或SM业务,即样本特征相同)。基于此,本申请通过联合模型训练参与方(即第二网元)的不同样本的相同样本特征(也可称作数据特征),使训练数据对应的样本维度增多,从而训练得到一个更好的模型。
在此情况下,所述第一网元向各所述第二网元发送的所述联邦模型训练请求消息是用于请求至少一个所述第二网元参与所述联邦模型训练过程(即所述至少一个第二网元为参与所述联邦模型训练过程的网元、且各所述第二网元间用于联邦模型训练的样本不同、但样本特征相同),如进行本地分布式模型训练,从而达到在不共享各第二网元上的原始数据(或训练数据)的前提下,联合各所述第二网元实现本地分布式模型训练,以在确保各第二网元中的数据隐私性和数据安全性的同时,确保模型训练效果。
当然,参与所述联邦模型训练过程的第二网元的确定方式可以有很多种。一种实现方式中,所述第二网元可以是所述第一网元根据所述模型训练任务从网络存储功能(Network Repository Function,NRF)或统一数据管理实体(Unified Data Management,UDM)中获取的、且能支持所述联邦模型训练过程的网元。例如,所述第一网元从所述NRF查询获取参与此次联邦模型训练过程的AMF实例(instance(s))。又如,所述第一网元从所述UDM查询获取参与此次联邦模型训练过程的UE实例(instance(s))等,在此不做限制。
S320,所述第一网元接收所述至少一个第二网元发送的第一信息,所述第一信息至少包括第一训练结果。
可以理解,各所述第二网元在接收到所述联邦模型训练请求消息后,可根据所述联邦 模型训练请求消息进行模型训练,得到第一训练结果,并通过第一信息将所述第一训练结果发送给所述第一网元(即所述第一信息至少包括第一训练结果)。其中,所述第二网元在根据所述联邦模型训练请求消息进行模型训练时,可以是基于本地预配置的初始模型实现,也可以是基于在接收所述联邦模型训练请求之前已经完成训练的本地训练模型实现,还可以基于所述联邦模型训练请求消息所指示的第一模型实现,在此不做限制。
另外,所述第一训练结果对应于所述第二网元中用于联邦模型训练的训练数据,且各所述第二网元间用于所述联邦模型训练过程的训练数据对应的样本不同、但样本特征相同,例如,第二网元A中的训练数据对应样本S1、第二网元B中的训练数据对应样本S2、第三网元C中的训练数据对应样本S3,用于此次联邦模型训练过程的样本S1的样本特征、样本S2样本特征、样本S3样本特征均相同。
S330,所述第一网元根据第一模型和所述至少一个第二网元上报的所述第一训练结果进行模型训练,得到目标模型和/或第二训练结果。
其中,所述第一模型可以为所述第一网元为所述模型训练任务生成的一个初始模型(也可称作初始化的全局模型),或者,所述第一模型也可以是对所述第一网元对所述初始模型进行了一次或多次模型训练/更新得到的中间模型,在此不做限制。
所述第一网元根据所述第一训练结果进行模型训练的过程在此不做限制,例如,所述第一网元可以根据所述至少一个第二网元上报的所述第一训练结果对所述第一模型进行更新等。需要注意的是,每个所述第二网元上报的第一训练结果均对应于所述第一模型,即每个所述第二网元均针对第一模型进行训练,并将训练得到的第一训练结果上报给所述第一网元,再由所述第一网元根据各所述第一训练结果对第一模型进行模型训练/更新等,以得到目标模型。可以理解,所述第一网元在基于第一模型训练得到所述目标模型时,其间可经过一次或多次联邦模型训练过程,如在所述目标模型未收敛时,可将所述目标模型作为前述的中间模型(即再次作为第一模型),继续执行联邦模型训练过程。
此外,所述第二训练结果可以至少包括:所述目标模型的损失函数对于目标模型参数的梯度信息。其中,所述目标模型的损失函数可以是所述第一网元预先为所述目标模型配置的。此外,由于所述目标模型可能仅是未收敛的中间模型,那么,对应不同训练程度(或训练次数)的目标模型,其对应的第二训练结果也可以不同,在此不做限制。
本实施例中,所述第一网元利用横向联邦学习的方式,联合各第二网元实现本地分布式模型训练,由此,可在不共享通信网络中各第二网元上的数据的前提下,既能确保各第二网元中的数据隐私性和数据安全性,还能确保模型训练效果。
如图4所示,为本申请一示例性实施例提供的模型训练方法400的流程示意图,该方法400可以但不限于由第一网元(如终端或网络侧设备)执行,具体可由安装于第一网元中的硬件和/或软件执行。本实施例中,所述方法400至少可以包括如下步骤。
S410,第一网元在进行与模型训练任务对应的联邦模型训练过程的情况下,向至少一 个第二网元发送联邦模型训练请求消息。
其中,所述至少一个第二网元为参与所述联邦模型训练过程的网元,各所述第二网元间用于所述联邦模型训练过程的训练数据对应的样本不同、但样本特征相同。
可以理解,S410的实现过程除了可参照方法实施例300中的相关描述之外,一种实现方式中,所述联邦模型训练请求消息至少可以包括以下(11)-(19)中的至少一项。
(11)模型实例标识信息(model instance ID)。所述模型实例标识信息用于唯一地标识所述第一网元中产生的第一模型或中间模型或目标模型(即所述模型实例标识信息与第一模型或中间模型或所述目标模型对应),以便于所述第一模型或中间模型或所述目标模型的识别、调用、消费等。
本实施例中,所述模型实例标识信息可以由所述第一网元分配。例如,所述第一网元在确定进行与模型训练任务对应的联邦模型训练过程时,为所述模型训练任务对应分配一个模型实例标识信息,用于指示通过所述联邦模型训练过程训练得到的模型实体,即如所述第一模型或中间模型或所述目标模型。
基于此,所述模型实例标识信息对应或包括以下(111)-(114)中的至少一项。
(111)所述第一网元的相关信息,如所述第一网元的标识信息(Identity,ID)、全限定域名(Fully Qualified Domain Name,FQDN)信息、名称信息、地址信息等。
(112)第一时间,用于指示所述模型训练任务是基于所述第一时间内产生的训练数据进行。
可选的,所述第一时间以及后续的第二时间、第三时间可以为一个时间段或时间点,如第一时间可以为2021年10月11日等。
此外,所述第一时间、所述第二时间、第三时间可以为相对时间或绝对时间,在此不做限制。
(113)第二时间,用于指示联邦模型训练过程的完成时间。
(114)所述第二网元的相关信息,如所述第二网元的名称信息、FQDN信息、标识信息、地址信息等。
(12)所述模型训练任务的类型信息,所述类型信息可以包括分析标识(analytics ID)、模型标识(model ID)等,以用于说明所述联邦模型训练过程是针对什么机器学习任务(即模型训练任务)而进行模型训练。
例如,可利用字符串“analytics ID/model ID=UE mobility”来指示需要对UE的移动轨迹进行模型训练,以获取UE移动轨迹AI模型。应注意,所述类型信息除了前述字符串类型的表示方式之外,也可以利用数字表示方式或者其他编码表示方式等进行表示,此处不限。
(13)所述模型训练任务的标识信息。与前述的模型训练任务的类型信息类似,所述模型训练任务的标识信息也可以包括analytics ID、model ID等,以用于说明所述联邦模型训练过程是针对什么机器学习任务(即模型训练任务)而进行模型训练。
例如,可利用字符串“analytics ID/model ID=UE mobility”来指示需要对UE的移动轨迹进行模型训练,以获取UE移动轨迹AI模型。应注意,所述标识信息除了前述字符串类型的表示方式之外,也可以利用数字表示方式或者其他编码表示方式等进行表示,此处不限。
可以理解,为避免信息冗余,所述联邦模型训练请求消息可以包括所述模型训练任务的标识信息和所述模型训练任务的类型信息中的任一种。
(14)第一指示信息,用于指示所述联邦模型训练过程是一次横向联邦学习过程。其中,所述第一指示信息可以通过隐式或显式的方式进行指示。例如,在通过隐式方式指示时,所述第二网元可在所述联邦模型训练请求消息中包括的参与联邦模型训练过程的网元为多个这一信息,确定所述联邦模型训练过程是一次横向联邦学习过程等,在此不做限制。
(15)第一过滤器(filter)的相关信息,其也可以理解为模型训练的过滤信息(filter information)。所述第一过滤器的相关信息用于限定所述模型训练任务对应的目标对象(如目标UE(target UE(s)))、目标时间(如目标时间周期(target time period))、目标区域(如目标感兴趣区域(target area of interest,(target AOI))中的至少一项,使得各所述第二网元可根据所述第一过滤器的相关信息采集合适的训练数据进行本地模型训练。
例如,前述的目标对象可以是第二网元所服务的对象或对应管辖的对象,前述目标区域可以是第二网元的服务区域或对应管辖的区域,在此不做限制。
(16)模型训练配置信息。该模型训练配置信息用于为所述横向联邦学习过程对齐模型训练方法和/或训练参数。也就是,所述模型训练配置信息用于指示所述第二网元进行本地模型训练的方法、模型算法或所采用的本地训练模型等。例如,所述第二网元可以根据所述模型训练配置信息进行本地训练模型的训练等。
一种实现方式中,所述模型训练配置信息是由所述第一网元为所述模型训练任务确定的或所述联邦模型训练过程确定的。可选的,所述模型训练配置信息至少可以包括以下(161)-(166)中的至少一项。
(161)模型结构信息。所述模型结构信息用于指示此次横向联邦学习训练过程使用的模型结构具体是哪种(如神经网络、深度神经网络(DNN)、卷积神经网络(CNN)、循环神经网络(RNN)、线性结构等),这使得各训练实体均使用该模型结构信息进行模型训练。
此外,针对神经网络模型结构,所述模型结构信息中还可以细化指明神经网络的层、神经元节点、每层输入输出之间的关系等。当然,各所述第二网元也可以根据所述模型结构信息确定本次联邦模型训练过程所需使用的模型结构,在此不做限制。
(162)模型超参数信息。所述模型超参数信息是所述目标模型外部的配置变量,一般用于模型参数的训练过程,通常可由实践者直接指定,如开始联邦模型训练过程之前设置的参数,用于定义关于模型的更高层次的概念,如复杂性或学习能力。
可选的,所述模型超参数信息可以包括模型训练约定的算法、树的数量或树的深度、 矩阵分解中潜在因素的数量、学习率、深层神经网络隐藏层数、k均值聚类中的簇数、目标模型对应的损失函数、用于判定目标模型是否收敛的预定值(与损失函数对应)等,在此不做限制。
需要注意,除了由所述第一网元指定所述模型超参数之外,所述第二网元也可以自己确定所述模型超参数信息。即如果所述联邦模型训练请求消息中未包括所述模型超参数信息,那么,各所述第二网元也可以自己决定所述模型超参数信息。
(163)所述联邦模型训练过程中的训练数据的类型信息。其中,所述训练数据也可以理解为模型训练过程中的输入数据和/或输出数据,用于向第二网元推荐此次联邦模型训练过程所使用的输入数据的类型和/或输出数据的类型。其中,所述输入数据的类型可以是进行训练的样本特征等,在此不做限制。
示例性的,在所述第二网元为两个AMF(AMF1和AMF2)时,所述训练数据的类型信息用于向两个AMF推荐此次联邦模型训练应该使用UE位置(location)、AMF load等两种输入数据进行AMF本地训练模型的训练。
(164)模型训练条件信息,用于向所述第二网元指示所述第一网元根据所述第二网元上报的所述第一训练结果开始模型训练(或模型更新、计算等)的条件。
一种实现方式中,所述模型训练条件信息至少可以包括以下(a)和(b)中的任一项。
(a)第三时间。其中,所述第三时间用于指示所述第一网元对于所述第二网元反馈所述第一训练结果的等待时间达到所述第三时间时开始模型训练。
例如,假设参与所述联邦模型训练过程的第二网元有5个,且当所述第一网元等待5个第二网元反馈所述第一训练结果的等待时间达到所述第三时间时,所述第一网元仅接收到3个第二网元发送的第一训练结果,那么,所述第一网元可尝试基于当前所接收到的3个第二网元发送的第一训练结果开始对所述第一模型进行更新。
(b)第一阈值。所述第一阈值用于指示所述第一网元在接收到的所述第一训练结果的数量达到所述第一阈值时开始模型训练。
例如,假设参与所述联邦模型训练过程的第二网元有5个、第一阈值为4,那么,当所述第一网元接收到的所述第一训练结果的数量为4时,所述第一网元可尝试基于当前所接收到的4个第一训练结果开始对所述第一模型进行更新。
又例如,假设参与所述联邦模型训练过程的第二网元有5个、第一阈值为80%,那么,当所述第一网元接收到的所述第一训练结果的数量为4,达到了80%(4/5)时,所述第一网元可尝试基于当前所接收到的4个第一训练结果开始对所述第一模型进行更新。
(165)模型训练次数信息,用于指示所述第二网元在向所述第一网元发送第一信息之前需要进行的本地模型训练的次数。也就是,所述模型训练次数信息用于向所述第二网元指明第二网元在向第一网元返回一次第一训练结果之前需要在本地进行模型训练的次数信息。
需要注意,所述模型训练次数信息中还可以包括此次联邦模型训练过程预计进行的训 练迭代总数量(或总次数)的信息等。
(166)模型训练的时长信息,用于指示所述第二网元在向所述第一网元发送第一信息之前需要进行的本地模型训练的时长。也就是,所述模型训练时长信息用于向所述第二网元指明第二网元在向第一网元返回一次第一训练结果之前允许在本地进行模型训练的可用时长信息。
可以理解,前述(165)-(166)中所述的模型训练次数信息和模型训练时长信息可以是所述第二网元根据各所述第二网元的训练能力信息(如计算能力、数据存储能力、每轮训练迭代所需时长信息)确定。也就是说,对于不同的第二网元,所述模型训练次数信息和/或所述模型训练时长信息可以不同。
例如,以所述模型训练次数为例,所述第一网元通过所述第二网元的训练能力信息确定该第二网元的模型训练次数信息,以保证训练能力弱的第二网元训练较少的次数,而训练能力强的第二网元训练较多的次数,进而使得参与联邦模型训练过程中的每个第二网元返回第一训练结果的步调同步,即,使得第一网元几乎在同时获取每个第二网元上报的第一训练结果,以进行后续模型训练和更新工作。
另外,前述的第二网元的训练能力信息可以是所述第一网元从NRF中获取,在此不做限制。
(17)第一训练结果的上报信息,用于限定各第二网元反馈第一训练结果时的上报格式、上报条件等信息。
其中,所述上报格式可以理解为模型框架信息,如基于TensorFlow、Pytorch模型框架的表达方式,或者还可以理解为基于跨框架的模型表达方式(如ONNX)等;或者,所述上报格式还可以用于指示所述第二网元返回本地训练后的整个模型、本地训练后的全部模型参数或者本地训练后发生改变的模型参数/梯度信息中的至少一种等。
所述上报条件可以包括事件触发和/或周期触发。其中,所述事件触发可以包括(171)-(173)中的任一项。
(171)在所述第二网元训练本地模型的训练轮数(或次数)达到预定值时,所述第二网元上报第一训练结果。其中,对于不同的第二网元,第一网元指定的训练轮数可以不同,这可使得所述第一网元对齐模型训练迭代过程中各个训练实体(即第二网元)上报的第一训练结果的步调,进而确保各训练实体上报步调一致,防止出现掉队者的问题,确保模型训练效果。
(172)在上报时间到达最长等待时间(或反馈截止时间)之前,所述第二网元上报第一训练结果。可以理解,所述最长等待时间可以理解为前述的模型训练的时长信息,即可在上报时间到达模型训练的时长信息之前,所述第二网元上报第一训练结果。
(173)在本地模型收敛(本地模型对应的损失函数到达预设值)时,所述第二网元上报第一训练结果。
所述周期触发是指所述第二网元可以周期性的上报第一训练结果,如每5分钟上报一 次第一训练结果等。
(18)参与所述联邦模型训练过程的各网元的相关信息,用于向第二网元指明参与此次联邦模型训练过程的其他第二网元和/或第一网元等。可选的,所述各网元的相关信息可以包括各所述第二网元的网元类型信息、标识信息或地址信息等、所述第一网元的网元类型信息、标识信息或地址信息等。
(19)所述第一模型的相关信息,所述第一模型的相关信息用于各所述第二网元进行本地模型训练,由此,可以避免所述第二网元从零开始训练模型的过程,进而提高模型训练的效率。
可选的,所述第一模型的相关信息可以是所述第一模型的模型标识信息、模型结构信息、模型参数信息等,在此不做限制。另外,在所述联邦模型训练过程中,在进行第一次联邦模型训练时,所述第一模型的相关信息为前述的初始模型的相关信息,在进行后续第二次、第三次……联邦模型训练时,所述第一模型的相关信息为前述的中间模型的相关信息。
可以理解,所述联邦模型训练请求消息具体包括前述(11)-(19)中的哪个信息,其可以由协议约定、高层配置或网络侧配置,在此不做限制。此外,在参与所述联邦模型训练过程的第二网元为多个时,针对各所述第二网元的所述联邦模型训练请求消息中的内容可以部分相同,也可以部分不同,在此不做限制。
进一步,除前述实现方式之外,在本实施例中,所述第一网元在确定是否进行与模型训练任务对应的联邦模型训练过程时,除了可以由第一网元自身或第四网元触发之外,还可能需要先确定第一条件成立或不成立,进而根据所述第一条件成立或不成立确定是否进行联邦模型训练过程,如在确定第一条件成立时,所述第一网元确定进行与模型训练任务对应的联邦模型训练过程。当然,所述第一条件也可以理解为所述第一网元确定需要进行联邦模型训练过程的因素或触发条件等。
基于此,所述第一条件至少可以包括以下(21)-(23)中的至少一项。
(21)所述第一网元中没有存储或无法获取所述模型训练任务对应的全部或部分训练数据。例如,可能因为数据安全问题或数据隐私问题导致所述第一网元中缺乏各训练实体(即第二网元)的部分或全部训练数据,使得所述第一网元需要利用联邦模型训练过程以联合各第二网元进行本地分布式模型训练。
(22)所述至少一个第二网元能够提供所述模型训练任务对应的全部或部分训练数据。
(23)所述模型训练任务对应的各第二网元间的训练数据的样本不同、但样本特征相同。例如,为了分析A区域内(对应有多个基站管辖)所有用户的行为轨迹规律,而需要获取A区域内用户的轨迹模型,训练该轨迹模型需要的训练数据可以是不同基站下不同用户(即样本)产生的位置数据(即样本特征)。
可以理解,所述第一条件包括前述(21)-(23)中的哪个可以由协议约定、高层配置或网络侧配置,在此不做限制。
S420,所述第一网元接收所述至少一个第二网元发送的第一信息。
其中,所述第一信息至少包括第一训练结果,所述第一训练结果对应于所述第二网元中用于所述联邦模型训练过程的训练数据,即所述第一训练结果是基于所述第二网元中的训练数据得到。
可以理解,S420的实现过程除了可参照方法实施例300中的相关描述之外,在一种可能的实现方式中,对于各所述第二网元,在接收到所述第一网元发送的联邦模型训练请求消息后,可进行模型训练得到本地训练模型,再根据所述本地训练模型计算生成所述第一训练结果后发送给所述第一网元。
示例性的,如果所述第二网元根据联邦模型训练请求消息进行模型训练得到本地训练模型,那么,各所述第二网元获取第一训练结果的过程可以包括如下(31)-(35),内容如下。
(31)所述第二网元根据所述第一指示信息确定需要进行联邦模型训练过程。可以理解,所述第一指示信息可从所述第一网元发送的联邦模型训练请求消息中获取,或者,所述第一指示信息可从所述第一网元直接获取,在此不做限制。
(32)所述第二网元根据所述模型训练任务的类型信息或所述模型训练任务的标识信息(如analytics ID或model ID)确定所述联邦模型训练过程对应的模型训练任务。例如,所述第二网元可根据字符串“analytics ID/model ID=service experience”确定需要针对用户的某应用(application)进行模型训练以获取业务体验模型。
(33)所述第二网元根据所述模型训练任务以及所述第一过滤器的相关信息,获取训练数据。
例如,所述第二网元可根据所述模型训练任务以及所述第一过滤器的相关信息,确定采集第二网元对应服务的小区1中在每周一07:00-09:00时段内所有UE的位置数据,作为训练数据,所采集的数据类型可以是训练实体内部配置的或者根据所述联邦模型训练请求消息中包括的所述训练数据的类型信息确定,在此不做限制。
(34)所述第二网元根据所述模型训练配置信息和/或所述第一模型的相关信息,确定本地训练模型以及用于所述本地训练模型训练的模型训练方式。
例如,所述第二网元可根据所述模型训练配置信息确定本地训练模型的训练方式,如模型结构、算法、超参数等。又例如,所述第二网元根据所述第一模型的相关信息确定所述第一模型为所述本地训练模型。
当然,除了根据所述第一模型的相关信息确定所述本地训练模型之外,所述本地训练模型也可以是预配置在所述第二网元中的模型,或者,所述第二网元从其他网元获取的模型,或者,所述第二网元通过本地模型训练得到的模型等,在此不做限制。
(35)所述第二网元根据所述模型训练方式对所述本地训练模型进行训练,以及基于训练后的本地训练模型对所述训练数据进行计算,得到第一训练结果。
示例性的,假设所述第二网元为基站,那么,第i个基站在进行t轮模型训练后得到 小区的模型
并将该模型
作为第一训练结果上报给第一网元,同理,第i+1个基站在进行t轮模型训练后得到小区的模型
并将模型
作为第一训练结果上报给所述第一网元。
当然需要注意的是,所述第一训练结果除了可以是所述第二网元训练得到的模型(即第二模型的模型信息)之外,还可以是:所述第二网元根据本地训练模型进行训练得到的第一梯度信息等,所述第一梯度信息是所述第二网元训练得到的第二模型的损失函数对第二模型参数的梯度计算值。
或者,在一种实现方式中,所述第一信息中还可以包括模型实例标识信息,该模型实例标识信息用于所述第一网元进行模型关联,如第一网元基于所述模型实例标识信息对不同的第二网元上报的同一第一模型得到的第一训练结果进行关联,从而针对该第一模型进行模型训练/更新。
可以理解,所述第二网元上报的所述模型实例标识信息可根据所述联邦模型训练请求消息中的模型实例标识信息确定。
S430,所述第一网元根据第一模型和所述至少一个第二网元上报的所述第一训练结果进行模型训练,得到目标模型和/或第二训练结果。
可以理解,S430的实现过程除了可以参照前述方法实施例300中的相关描述之外,作为一种可能的实现方式,根据前述的模型训练条件信息的不同,所述第一网元根据第一模型和所述至少一个第二网元上报的所述第一训练结果进行模型训练,得到目标模型和/或第二训练结果的过程可以不同,下面结合方式1和方式2对所述第一网元的模型训练过程进行说明,内容如下。
方式1:假设所有的第二网元都上报了第一训练结果或所述第一网元对于所述第二网元反馈所述第一训练结果的等待时间达到所述第三时间或所述第一网元接收到的所述第二网元反馈的第一训练结果的数量达到了所述第一阈值,那么,所述第一网元基于各个所述第二网元上报的第一训练结果对所述第一模型进行更新。
例如,在所述第一训练结果为第二模型对应的第一梯度信息时,所述第一网元对接收到的第一梯度信息进行加权平均,获取平均模型梯度计算结果,并利用该平均模型梯度计算结果对所述第一模型进行更新。
又例如,在所述第一训练结果为第二模型的模型信息时,假设所述第一网元接收到第i个第二网元上报的第二模型的模型信息为
第i+1个第二网元上报的第二模型的模型信息为
那么,所述第一网元可根据下式(1)、
和
对所述第一模型进行更新。
其中,G
t+1表示更新后的目标模型,λ为学习率。
方式2:所述第一网元可在每接收到一个第二网元上报的第一训练结果后,便根据该第一训练结果对所述第一模型进行更新。
G
t+1=(1-α)G
t+αG
t+1 (2)
其中,G
t+1表示更新后的目标模型,α为混合超参数,且α会随着第一模型的调参完成时间t和接收到的第一训练结果的时间戳τ的差距执行衰减策略,α
t=α*s(t-τ),s为衰减系数。
可以理解,所述第一网元在训练得到所述目标模型之后,所述第二训练结果可以是所述目标模型的损失函数对于所述目标模型的参数的梯度值,即所述第二训练结果至少包括:所述目标模型的损失函数对于所述目标模型的参数的第二梯度信息。
当然,所述第一网元在所述目标模型的损失函数的计算结果不满足预定要求(如损失函数的精度值未达到预定值)的情况下,可以再次进行联邦模型训练过程,直到所述第一网元训练得到的目标模型的损失函数的计算结果满足预定要求。可以理解,在所述目标模型的损失函数的计算结果不满足预定要求时,所述目标模型可以理解为中间模型,即所述第二训练结果是中间模型的损失函数对于所述中间模型的当前参数的梯度值。
一种实现方式中,所述第一网元在再次进行联邦模型训练过程时,可再次向所述至少一个第二网元发送第二信息,所述第二信息至少包括所述第二训练结果,使得各所述第二网元基于所述第二训练结果再次进行本地训练模型的训练,以重新获取所述第一训练结果。
例如,对应不同的第二网元,所述第一网元下发相同的第二训练结果。例如,所述第一网元向RAN1(即第二网元)和RAN2分别发送目标模型的损失函数对于目标模型的当前参数的第二梯度信息。对应的,所述RAN1、所述RAN2在接收到第二训练结果后,可分别根据第二训练结果对本地模型参数进行调整,以获取调参后的本地模型,进而基于调参后的本地模型重新获取第一训练结果。
另一种实现方式中,所述第一网元在再次进行联邦模型训练过程时,可能由于不同训练实体的数据不同,或者不同的训练实体可以有不同的数据供模型学习,又或者当训练实体掉线、太高的延迟等原因,不再适宜此次联邦模型训练过程,则在下一轮迭代时可换其他的训练实体,即参与联邦模型训练过程的训练实体可以与上一轮参与联邦模型训练过程的训练实体至少部分不同。
也就是说,所述第一网元在进行下一轮联邦模型训练时,可重新确定参与联邦模型训练过程的网元,如至少一个第三网元,所述第一网元在确定参与本轮联邦模型训练的至少一个第三网元后,向至少一个第三网元发送第二信息。其中,所述第二信息至少包括所述第二训练结果,所述第二训练结果用于所述第三网元进行本地模型训练以获取第三训练结果。
可以理解,关于所述第三网元的选取可参照前述关于第二网元的选取过程的相关描述,以及所述第三训练结果的实现可参照前述第一训练结果的相关描述,为避免重复,在此不 再赘述。
需要注意的是,至少一个所述第三网元与至少一个第二网元可以至少部分相同或不同。但考虑到所述第三网元是首次参与联邦模型训练过程,因此,发送给所述第三网元的第二信息中除了包括所述目标模型信息或第二梯度信息之外,还可以包括所述联邦模型训练请求中除所述第一模型的相关信息之外的部分或全部信息,以确保所述第三网元能够顺利完成本地模型的训练。
那么,对于所述第一网元向第二网元发送第二信息的场景,或者对于所述第三网元与所述第二网元相同、且所述第一网元向所述第三网元发送第二信息的场景,所述第一网元发送第二信息时可采用增量式发送或全量式发送。
其中,所谓增量式发送方式是指:对于每个所述第二网元,向所述第二网元发送指定信息,所述指定信息属于所述第二信息、且不同于所述联邦模型训练请求消息中包括的信息。
例如,如果训练实体较上一轮的迭代过程并没有改变,则所述第二信息中可以包括更新后的目标模型信息和/或第二训练结果,而不包括与所述联邦模型训练请求消息中重复的其他信息,即所述第一网元只需下发更新后的目标模型信息和/或第二训练结果而无需重复下发所述联邦模型训练请求消息中所述的其他信息,由此能够避免由于数据过大造成的资源浪费或传输可靠性差的问题。
所谓全量式发送方式是指:对于每个所述第二网元,向所述第二网元发送所述第二信息中的全部信息。
例如,如果训练实体较上一轮的迭代过程发生改变,则所述第二信息中除了包括更新后的目标模型信息和/或第二训练结果之外,还可以向新选择的训练实体下发所述联邦模型训练请求消息中所述的其他信息,如模型实例标识信息、第一训练结果的上报信息、模型训练配置信息、参与所述联邦模型训练过程的各网元的相关信息等。
也就是说,除了第二训练结果之外,前述的第二信息至少还可以包括以下(51)-(55)中的至少一项。
(51)模型实例标识信息,用于所述第二网元进行模型关联。
(52)所述目标模型的信息,用于指示所述第二网元或第三网元基于该目标模型进行本地模型训练。可选的,所述目标模型的信息可以包括模型结构信息、模型超参数信息等,在此不做限制。
(53)第一训练结果的上报信息。
(54)参与所述联邦模型训练过程的各网元的相关信息。
(55)所述目标模型对应的模型训练配置信息。
其中,关于(51)-(55)的描述可参照前述所述联邦模型训练请求消息中的相关描述,为避免重复,在此不再限制。
需要注意,在前述联邦模型训练过程中,所述第一网元根据所述目标模型是否收敛, 可以确定是否重复前述联邦模型训练过程,直至第一网元中得到的目标模型收敛。其中,所谓目标模型收敛是指所述目标模型对应的损失函数的精度值满足预算要求或达到预定值。
如图5所示,为本申请一示例性实施例提供的模型训练方法500的流程示意图,该方法500可以但不限于由第一网元(如终端或网络侧设备)执行,具体可由安装于第一网元中的硬件和/或软件执行。本实施例中,所述方法500至少可以包括如下步骤。
S510,所述第一网元接收第四网元发送的模型请求消息。
其中,所述模型请求消息包括以下(61)-(64)中的至少一项。
(61)所述模型训练任务的类型信息。
(62)所述模型训练任务的标识信息。
其中,所述模型训练任务的类型信息、所述模型训练任务的标识信息可参照前述对所述联邦模型训练请求消息中的模型训练任务的类型信息、所述模型训练任务的标识信息的相关描述,为避免重复,在此不再赘述。
(63)第二过滤器的相关信息,用于限定所述模型训练任务对应的目标对象、目标时间、目标区域中的至少一项。
(64)模型反馈相关信息,所述模型反馈相关信息可以包括模型反馈格式、反馈条件中的至少一项。
其中,所述模型反馈格式可以理解为模型框架信息,如基于TensorFlow、Pytorch模型框架的表达方式,或者还可以理解为基于跨框架的模型表达方式(如ONNX)等。
所述反馈条件可以包括事件触发和/或周期触发,其中,所述事件触发包括(641)-(643)中的至少一项。
(641)在所述第一网元训练目标模型的训练轮数(或次数)达到预定值时,所述第一网元反馈目标模型。
(642)在训练时间到达最长等待时间之前,所述第一网元反馈目标模型。
(643)在目标模型收敛(目标模型对应的损失函数到达预设值以及对应的预设值)时,所述第一网元反馈目标模型等。
所述周期触发是指所述第一网元可以周期性的反馈目标模型给第四网元,如每5分钟反馈一次目标模型等。
当然除了前述反馈条件之外,所述模型反馈信息还可以指示所述第一网元按照一次性反馈、多次持续更新反馈、反馈截止时间、周期性反馈的等方式进行所述目标模型的反馈,在此不做限制。
需要注意,所述第一网元向各所述第二网元发送的联邦模型训练请求消息,可以是所述第一网元根据所述模型请求消息确定,例如,所述联邦模型训练请求消息中的所述模型训练任务的类型信息、所述模型训练任务的标识信息可以与所述模型请求消息中的所述模 型训练任务的类型信息、所述模型训练任务的标识信息相同;又例如,所述联邦模型训练请求消息中的第一过滤器的相关信息可以与所述模型请求消息中的第二过滤器的相关信息可以相同也可以不同等,在此不做限制。
S520,第一网元在进行与模型训练任务对应的联邦模型训练过程的情况下,向至少一个第二网元发送联邦模型训练请求消息。
其中,所述至少一个第二网元为参与所述联邦模型训练过程的网元,各所述第二网元间用于所述联邦模型训练过程的训练数据对应的样本不同、但样本特征相同。
S530,所述第一网元接收所述至少一个第二网元发送的第一信息,所述第一信息至少包括第一训练结果,所述第一训练结果对应于所述第二网元中用于所述联邦模型训练过程的训练数据。
S540,所述第一网元根据第一模型和所述至少一个第二网元上报的所述第一训练结果进行模型训练,得到目标模型和/或第二训练结果。
可以理解,S520-S540的实现过程可以参照前述方法实施例300和/或400中的相关描述,为避免重复,在此不再赘述。
当然,在一种实现方式中,所述第一网元在所述目标模型的损失函数的计算结果满足预定要求(如损失函数的精度值达到预定值,即所述目标模型收敛)情况下,所述第一网元可以向所述第四网元发送所述目标模型的相关信息,以用于所述第四网元基于所述目标模型执行相应的任务。
其中,所述目标模型的相关信息包括以下(71)-(74)中的至少一项。
(71)所述模型实例标识信息。其可参照前述关于所述模型实例标识信息的描述,为避免重复,在此不再赘述。
(72)所述目标模型信息,其中所述目标模型信息包括以下(721)-(726)中的至少一项。
(721)模型结构信息。其中,所述模型结构信息用于指示所述目标模型的模型结构具体是哪种(如神经网络、深度神经网络(DNN)、卷积神经网络(CNN)、循环神经网络(RNN)、线性结构等)。此外,针对神经网络模型结构,所述模型结构信息中还可以细化指明神经网络的层、神经元节点、每层输入输出之间的关系等。
(722)模型参数信息。其中,所述模型参数信息是所述目标模型内部的配置变量,以用于定义所述目标模型的功能,可通过数据估计或模型训练的方式得到。例如,所述模型参数可以包括人造神经网络中的权重、支持向量机中的支持向量、线性回归或逻辑回归中的系数等。
(723)模型算法信息。例如,所述模型算法信息可以但不限于包括决策树、贝叶斯分类器、K近邻、支持向量机等。
(724)模型超参数信息。其中,所述模型超参数信息是所述目标模型外部的配置变量,一般用于模型参数的训练过程,通常可由实践者直接指定。例如,所述模型超参数信 息可以包括训练神经网络的学习速率、支持向量机的C和sigama超参数、K邻域中的参数k等。
(725)模型输入数据的类型信息。
(726)模型输出数据的类型信息。
(73)第二指示信息,用于指示所述目标模型是横向联邦学习模型,或者指示该模型是经横向联邦学习过程生成的。可选的,所述第二指示信息可以显示指示或隐式指示。例如,在所述第二指示信息为隐式指示信息时,可通过模型实例标识信息或第二网元的相关信息来实现隐式指示。
(74)所述第二网元和/或所述第三网元的相关信息,如所述第二网元、第三网元的网元的类型信息、标识信息、FQDN信息、地址信息等。
本实施例中,所述第一网元在接收到所述第四网元发送的模型训练请求的情况下,触发联邦模型训练过程,进而联合各所述第二网元进行本地分布式模型训练,得到目标模型,由此,能够在确保第二网元上的数据的安全性和隐私性的同时,满足第四网元上的模型训练需求。
基于前述方法实施例200-500的描述,下面结合图6a和图6b,并以所述联邦模型训练过程是由所述第四网元触发为例,对本申请给出的模型训练方法作进一步示例性说明,内容如下。其中,假设参与联邦模型训练过程的第二网元为2个。
示例1
如图6a所示,示例1给出的模型训练过程如下。
S601,第四网元向所述第一网元发送模型请求消息。
S602,所述第一网元根据所述模型请求消息确定进行联邦模型训练过程。
S603,所述第一网元从NRF中获取能够参与联邦模型训练过程的2个第二网元,如训练实体A和训练实体B。
S604,所述第一网元向训练实体A和训练实体B发送联邦模型训练请求消息。
S605,训练实体A在接收到联邦模型训练请求消息后,根据所述联邦模型训练请求消息进行本地训练模型的训练,进而基于训练得到的本地训练模型获取第一训练结果。
相应的,训练实体B在接收到联邦模型训练请求消息后,根据所述联邦模型训练请求消息进行本地训练模型的训练,进而基于训练得到的本地训练模型获取第一训练结果。
S606,训练实体A、训练实体B分别上报第一信息给所述第一网元,所述第一信息中至少包括所述第一训练结果。
S607,所述第一网元基于接收到的训练实体A、训练实体B上报的第一训练结果进行模型训练,得到目标模型和/或第二训练结果。
S608,所述第一网元确定所述目标模型对应的损失函数的计算结果是否满足预定要求。
S609,所述第一网元在所述目标模型的损失函数的计算结果不满足预定要求的情况下,向所述训练实体A、训练实体B发送第二信息,所述第二信息至少包括所述第二训练结 果。
S610,训练实体A、训练实体B根据接收到的第二训练结果再次进行本地模型训练,并重新获取所述第一训练结果。
可以理解,所述第一网元和所述训练实体A、训练实体B重复执行S605-S610,直到所述目标模型对应的损失函数的计算结果满足预定要求,即目标模型收敛,则停止所述联邦模型训练过程。
S611,所述第一网元在所述目标模型的损失函数的计算结果满足预定要求的情况下,向所述第四网元发送目标模型的相关信息。
需要注意,前述S601-S611的实现过程可参照前述方法实施例300-500中的相关描述,并达到相同或相应的技术效果,为避免重复,在此不再赘述。
此外,在本实施例中,所述联邦模型训练过程可以包括但不限于前述S601-S611,例如,可以包括比前述S601-S611更多或更少的步骤,在此不做限制。
示例2
如图6b所示,示例2给出的模型训练过程如下。
S621,第四网元向所述第一网元发送模型请求消息。
S622,所述第一网元根据所述模型请求消息确定进行联邦模型训练过程。
S623,所述第一网元从NRF中获取能够参与联邦模型训练过程的2个第二网元,如训练实体A和训练实体B。
S624,所述第一网元向训练实体A和训练实体B发送联邦模型训练请求消息。
S625,训练实体A在接收到联邦模型训练请求消息后,根据所述联邦模型训练请求消息进行本地训练模型的训练,进而基于训练得到的本地训练模型获取第一训练结果。
S626,训练实体A上报第一信息给所述第一网元,所述第一信息中至少包括所述第一训练结果。
S627,所述第一网元基于接收到的训练实体A发送的第一训练结果进行模型训练,得到目标模型和/或第二训练结果。
S628,所述第一网元确定所述目标模型对应的损失函数的计算结果是否满足预定要求。
S629,所述第一网元在所述目标模型的损失函数的计算结果不满足预定要求的情况下,向所述训练实体A发送第二信息,所述第二信息至少包括所述第二训练结果。
S630,训练实体A根据接收到的第二训练结果再次进行本地模型训练,以重新获取所述第一训练结果并上报,实现对联邦模型训练过程的循环迭代。
S631,训练实体B在接收到联邦模型训练请求消息后,根据所述联邦模型训练请求消息进行本地训练模型的训练,进而基于训练得到的本地训练模型获取第一训练结果。
S632,训练实体B分别上报第一信息给所述第一网元,所述第一信息中至少包括所述第一训练结果。
S633,所述第一网元基于接收到的训练实体B发送的第一训练结果进行模型训练, 得到目标模型和/或第二训练结果。
S634,所述第一网元确定所述目标模型对应的损失函数的计算结果是否满足预定要求。
S635,所述第一网元在所述目标模型的损失函数的计算结果不满足预定要求的情况下,向训练实体B发送第二信息,所述第二信息至少包括所述第二训练结果。
S636,训练实体B根据接收到的第二训练结果再次进行本地模型训练,以重新获取所述第一训练结果并上报,实现对联邦模型训练过程的循环迭代。
可以理解,所述第一网元和所述训练实体A、训练实体B重复执行S605-S610,直到所述目标模型对应的损失函数的计算结果满足预定要求,即目标模型收敛,则停止所述联邦模型训练过程。
S637,所述第一网元在所述目标模型的损失函数的计算结果满足预定要求的情况下,向所述第四网元发送目标模型的相关信息。
需要注意,前述S621-S637的实现过程可参照前述方法实施例300-500中的相关描述,并达到相同或相应的技术效果,为避免重复,在此不再赘述。
此外,在本实施例中,所述联邦模型训练过程可以包括但不限于前述S621-S637,例如,可以包括比前述S621-S637更多或更少的步骤,在此不做限制。
如图7所示,为本申请一示例性实施例提供的模型训练方法700的流程示意图,该方法700可以但不限于由第二网元(如终端或网络侧设备)执行,具体可由安装于第二网元中的硬件和/或软件执行。本实施例中,所述方法700至少可以包括如下步骤。
S710,第二网元接收第一网元发送的联邦模型训练请求消息,所述联邦模型训练请求消息用于请求所述第二网元参与模型训练任务对应的联邦模型训练过程。
S720,所述第二网元根据所述联邦模型训练请求消息进行模型训练,得到第一训练结果。
S730,所述第二网元向所述第一网元发送第一信息,所述第一信息中至少包括所述第一训练结果。
其中,所述第一训练结果对应于所述第二网元中用于所述联邦模型训练过程的训练数据,所述第二网元中用于所述联邦模型训练的样本,与第五网元中用于所述联邦模型训练的样本不同、但样本特征相同,所述第五网元是参与所述联邦模型训练过程中的多个网元中除了所述第二网元之外的其他网元。例如,假设参与模型训练的第二网元包括网元1、网元2、网元3、网元4,且执行本方法实施例700的第二网元为网元1,那么,所述第五网元则是网元2、网元3、网元4中一个或多个,在此不做限制。
可选的,所述联邦模型训练请求消息包括以下至少一项:模型实例标识信息,所述模型实例标识信息与目标模型对应、且由所述第一网元分配;所述模型训练任务的类型信息;所述模型训练任务的标识信息;第一指示信息,用于指示所述联邦模型训练过程是一次横向联邦学习过程;第一过滤器的相关信息,用于限定所述模型训练任务对应的目标对象、 目标时间、目标区域中的至少一项;第一模型的相关信息,所述第一模型的相关信息用于各所述第二网元进行本地模型训练;模型训练配置信息;所述第一训练结果的上报信息;参与所述联邦模型训练过程的各网元的相关信息。
可选的,所述模型实例标识信息对应以下至少一项:所述第一网元的相关信息;第一时间,用于指示所述模型训练任务是基于所述第一时间内产生的训练数据进行;第二时间,用于指示所述联邦模型训练过程的完成时间;参与所述联邦模型训练过程的各网元的相关信息。
可选的,所述模型训练配置信息包括以下至少一项:模型结构信息;模型超参数信息;所述联邦模型训练过程中的训练数据的类型信息;模型训练条件信息,用于向所述第二网元指示所述第一网元根据第二网元上报的所述第一训练结果开始模型训练的条件;模型训练次数信息,用于指示所述第二网元在向所述第一网元发送第一信息之前需要进行的本地模型训练的次数;模型训练的时长信息,用于指示所述第二网元在向所述第一网元发送第一信息之前进行的本地模型训练的时长。
可选的,所述模型训练条件信息包括以下至少一项:第三时间,用于指示所述第一网元对于所述第二网元反馈所述第一训练结果的等待时间达到所述第三时间时开始模型训练;第一阈值,用于指示所述第一网元在接收到的所述第一训练结果的数量达到所述第一阈值时开始模型训练。
可选的,所述第一训练结果的上报信息包括以下至少一项:所述第一训练结果的上报格式;所述第一训练结果的上报条件。
可选的,所述第一训练结果包括:所述第二网元根据本地训练模型进行训练得到的第二模型的模型信息和/或第二模型对应的第一梯度信息。
可选的,所述第二网元是所述第一网元根据所述模型训练任务从网络存储功能NRF中获取的、且能支持所述联邦模型训练过程的网元。
可选的,所述第一信息还包括以下至少一项:模型实例标识信息,用于所述第一网元进行模型关联。
可选的,所述第二网元根据所述模型训练请求消息进行模型训练,得到第一训练结果的步骤,包括:所述第二网元根据所述第一指示信息确定需要进行联邦模型训练过程;所述第二网元根据所述模型训练任务的类型信息或标识信息确定所述联邦模型训练对应的模型训练任务;所述第二网元根据所述模型训练任务以及所述第一过滤器的相关信息,获取训练数据;所述第二网元根据所述模型训练配置信息和/或所述第一模型的相关信息,确定本地训练模型以及用于所述本地训练模型训练的模型训练方式;所述第二网元根据所述模型训练方式对所述本地训练模型进行训练,以及基于训练后的本地训练模型对所述训练数据进行计算,得到第一训练结果。
可选的,所述第二网元接收所述第一网元发送的第二信息,所述第二信息中至少包括第二训练结果。
可选的,所述第二网元接收所述第一网元发送的第二信息的步骤,包括以下任一项:所述第二网元接收所述第一网元发送的指定信息,所述指定信息属于所述第二信息、且不同于所述联邦模型训练请求消息中包括的信息;所述第二网元接收所述第一网元发送的第二信息中的全部信息。
可选的,所述第二信息是所述第一网元在目标模型的损失函数的计算结果不满足预定要求时发送的。
可选的,所述第二训练结果至少包括:目标模型的损失函数对于所述目标模型的参数的第二梯度信息或目标模型的信息。
可选的,所述第二信息还包括以下至少一项:模型实例标识信息,用于所述第二网元进行模型关联;参与所述联邦模型训练过程的各网元的相关信息;所述目标模型对应的模型训练配置信息。
可以理解,方法实施例700中的各实现方式的实现过程可参照前述方法实施例300-600中的相关描述,并达到相同或相应的技术效果,为避免重复,在此不再赘述。
如图8所示,为本申请一示例性实施例提供的模型训练方法800的流程示意图,该方法800可以但不限于由第四网元(如终端或网络侧设备)执行,具体可由安装于第四网元中的硬件和/或软件执行。本实施例中,所述方法800至少可以包括如下步骤。
S810,第四网元接收第一网元发送的目标模型的相关信息。
其中,所述目标模型的相关信息至少用于表征所述目标模型为横向联邦模型。
可选的,所述目标模型的相关信息包括以下至少一项:模型实例标识信息,所述模型实例标识信息与目标模型对应、且由所述第一网元分配;第三模型信息,所述第三模型信息包括所述目标模型的网络结构信息和/或模型参数信息;第二指示信息,用于指示所述目标模型是横向联邦学习模型;第二网元和/或第三网元的相关信息,所述第二网元和/或所述第三网元是参与所述目标模型训练的网元。
可选的,所述目标模型的相关信息是所述第一网元在损失函数的计算结果满足预定要求时发送的。
可选的,所述方法还包括:所述第四网元向所述第一网元发送模型请求消息,其中,所述模型请求消息包括以下至少一项:所述模型训练任务的类型信息;所述模型训练任务的标识信息;第二过滤器的相关信息,用于限定所述模型训练任务对应的目标对象、目标时间、目标区域中的至少一项;模型反馈相关信息,所述模型反馈相关信息包括模型描述方式、反馈时间中的至少一项。
可以理解,方法实施例800中的各实现方式的实现过程可参照前述方法实施例300-600中的相关描述,并达到相同或相应的技术效果,为避免重复,在此不再赘述。
本申请实施例提供的模型训练方法300-800,执行主体可以为模型训练装置。本申请实施例中以模型训练装置执行模型训练方法为例,说明本申请实施例提供的模型训练装置。
如图9所示,为本申请一示例性实施例提供的模型训练装置900的结构示意图,所述装置900包括第一发送模块910,用于在进行与模型训练任务对应的联邦模型训练过程的情况下,向至少一个第二网元发送联邦模型训练请求消息,所述至少一个第二网元为参与所述联邦模型训练过程的网元,各所述第二网元间用于所述联邦模型训练过程的训练数据对应的样本不同、但样本特征相同;第一接收模块920,用于接收所述至少一个第二网元发送的第一信息,所述第一信息至少包括第一训练结果,所述第一训练结果对应于所述第二网元中用于所述联邦模型训练过程的训练数据;第一模型训练模块930,用于根据第一模型和所述至少一个第二网元上报的所述第一训练结果进行模型训练,得到目标模型和/或第二训练结果。
可选的,所述联邦模型训练请求消息包括以下至少一项:模型实例标识信息,所述模型实例标识信息与所述目标模型对应、且由所述第一网元分配;所述模型训练任务的类型信息;所述模型训练任务的标识信息;第一指示信息,用于指示所述联邦模型训练过程是一次横向联邦学习过程;第一过滤器的相关信息,用于限定所述模型训练任务对应的目标对象、目标时间、目标区域中的至少一项;所述第一模型的相关信息,所述第一模型的相关信息用于各所述第二网元进行本地模型训练;模型训练配置信息;所述第一训练结果的上报信息;参与所述联邦模型训练过程的各网元的相关信息。
可选的,所述模型实例标识信息对应以下至少一项:所述第一网元的相关信息;第一时间,用于指示所述模型训练任务是基于所述第一时间内产生的训练数据进行;第二时间,用于指示所述联邦模型训练过程的完成时间;所述第二网元的相关信息。
可选的,所述模型训练配置信息包括以下至少一项:模型结构信息;模型超参数信息;所述联邦模型训练过程中的训练数据的类型信息;模型训练条件信息,用于向所述第二网元指示所述第一网元根据所述第二网元上报的所述第一训练结果开始模型训练的条件;模型训练次数信息,用于指示所述第二网元在向所述第一网元发送第一信息之前需要进行的本地模型训练的次数;模型训练的时长信息,用于指示所述第二网元在向所述第一网元发送第一信息之前需要进行的本地模型训练的时长。
可选的,所述模型训练条件信息包括以下至少一项:第三时间,用于指示所述第一网元对于所述第二网元反馈所述第一训练结果的等待时间达到所述第三时间时开始模型训练;第一阈值,用于指示所述第一网元在接收到的所述第一训练结果的数量达到所述第一阈值时开始模型训练。
可选的,所述第一训练结果的上报信息包括以下至少一项:所述第一训练结果的上报格式;所述第一训练结果的上报条件。
可选的,所述第一训练结果包括:所述第二网元根据本地训练模型进行训练得到的第二模型的模型信息和/或第二模型对应的第一梯度信息。
可选的,所述第一信息还包括以下至少一项:模型实例标识信息,用于所述第一网元进行模型关联。
可选的,所述第二网元是所述第一网元根据所述模型训练任务从网络存储功能NRF中获取的、且能支持所述联邦模型训练过程的网元。
可选的,所述第一模型训练模块930还用于:确定第一条件成立,其中,所述第一条件包括以下至少一项:所述第一网元中没有存储或无法获取所述模型训练任务对应的全部或部分训练数据;所述至少一个第二网元能够提供所述模型训练任务对应的全部或部分训练数据;所述模型训练任务对应的各所述第二网元间的训练数据的样本不同、但样本特征相同。
可选的,所述第一发送模块910还用于:在所述目标模型的损失函数的计算结果不满足预定要求的情况下,向所述至少一个第二网元发送第二信息;其中,所述第二信息至少包括所述第二训练结果,所述第二训练结果用于所述第二网元再次进行本地模型训练并重新获取第一训练结果。
可选的,所述第一发送模块910向所述至少一个第二网元发送第二信息的步骤,包括以下任一项:对于每个所述第二网元,向所述第二网元发送指定信息,所述指定信息属于所述第二信息、且不同于所述联邦模型训练请求消息中包括的信息;对于每个所述第二网元,向所述第二网元发送所述第二信息中的全部信息。
可选的,所述第一发送模块910还用于在所述目标模型的损失函数的计算结果不满足预定要求的情况下,向至少一个第三网元发送第二信息;其中,所述第二信息至少包括所述第二训练结果,所述第二训练结果用于所述第三网元进行本地模型训练以获取第三训练结果,所述第三网元是所述第一网元重新确定的、且参与所述联邦模型训练过程的网元。
可选的,所述第二训练结果至少包括:所述损失函数对于所述目标模型的参数的第二梯度信息或所述目标模型的信息。
可选的,所述第二信息还包括以下至少一项:模型实例标识信息,用于所述第二网元进行模型关联;第一训练结果的上报信息;参与所述联邦模型训练过程的各网元的相关信息;所述目标模型对应的模型训练配置信息。
可选的,所述第一接收模块920还用于接收第四网元发送的模型请求消息,其中,所述模型请求消息包括以下至少一项:所述模型训练任务的类型信息;所述模型训练任务的标识信息;第二过滤器的相关信息,用于限定所述模型训练任务对应的目标对象、目标时间、目标区域中的至少一项;模型反馈相关信息,所述模型反馈相关信息包括模反馈格式、反馈条件中的至少一项。
可选的,所述第一发送模块910还用于在所述目标模型的损失函数的计算结果满足预定要求的情况下,向所述第四网元发送所述目标模型的相关信息;其中,所述目标模型的相关信息包括以下至少一项:所述模型实例标识信息;所述目标模型信息;第二指示信息,用于指示所述目标模型是横向联邦学习模型;所述第二网元和/或第三网元的相关信息。
如图10所示,为本申请一示例性实施例提供的模型训练装置1000的结构示意图,所述装置1000包括:第二接收模块1010,用于第二网元接收第一网元发送的联邦模型训练 请求消息,所述联邦模型训练请求消息用于请求所述第二网元参与模型训练任务对应的联邦模型训练过程;第二模型训练模块1020,用于根据所述联邦模型训练请求消息进行模型训练,得到第一训练结果;第二发送模块1030,用于向所述第一网元发送第一信息,所述第一信息中至少包括所述第一训练结果;其中,所述第一训练结果对应于所述第二网元中用于所述联邦模型训练过程的训练数据,所述第二网元中用于所述联邦模型训练的样本,与第五网元中用于所述联邦模型训练的样本不同、但样本特征相同,所述第五网元是参与所述联邦模型训练过程中的多个网元中除了所述第二网元之外的其他网元。
可选的,所述联邦模型训练请求消息包括以下至少一项:模型实例标识信息,所述模型实例标识信息与目标模型对应、且由所述第一网元分配;所述模型训练任务的类型信息;所述模型训练任务的标识信息;第一指示信息,用于指示所述联邦模型训练过程是一次横向联邦学习过程;第一过滤器的相关信息,用于限定所述模型训练任务对应的目标对象、目标时间、目标区域中的至少一项;第一模型的相关信息,所述第一模型的相关信息用于各所述第二网元进行本地模型训练;模型训练配置信息;所述第一训练结果的上报信息;参与所述联邦模型训练过程的各网元的相关信息。
可选的,所述模型实例标识信息对应以下至少一项:所述第一网元的相关信息;第一时间,用于指示所述模型训练任务是基于所述第一时间内产生的训练数据进行;第二时间,用于指示所述联邦模型训练过程的完成时间;参与所述联邦模型训练过程的各网元的相关信息。
可选的,所述模型训练配置信息包括以下至少一项:模型结构信息;模型超参数信息;所述联邦模型训练过程中的训练数据的类型信息;模型训练条件信息,用于向所述第二网元指示所述第一网元根据第二网元上报的所述第一训练结果开始模型训练的条件;模型训练次数信息,用于指示所述第二网元在向所述第一网元发送第一信息之前需要进行的本地模型训练的次数;模型训练的时长信息,用于指示所述第二网元在向所述第一网元发送第一信息之前需要进行的本地模型训练的时长。
可选的,所述模型训练条件信息包括以下至少一项:第三时间,用于指示所述第一网元对于所述第二网元反馈所述第一训练结果的等待时间达到所述第三时间时开始模型训练;第一阈值,用于指示所述第一网元在接收到的所述第一训练结果的数量达到所述第一阈值时开始模型训练。
可选的,所述第一训练结果的上报信息包括以下至少一项:所述第一训练结果的上报格式;所述第一训练结果的上报条件。
可选的,所述第一训练结果包括:所述第二网元根据本地训练模型进行训练得到的第的模型的模型信息和/或第二模型对应的第一梯度信息。
可选的,所述第二网元是所述第一网元根据所述模型训练任务从网络存储功能NRF中获取的、且能支持所述联邦模型训练过程的网元。
可选的,所述第一信息还包括以下至少一项:模型实例标识信息,用于所述第一网元 进行模型关联。
可选的,所述第二模型训练模块1020根据所述模型训练请求消息进行模型训练,得到第一训练结果的步骤,包括:根据所述第一指示信息确定需要进行联邦模型训练过程;根据所述模型训练任务的类型信息或标识信息确定所述联邦模型训练对应的模型训练任务;根据所述模型训练任务以及所述第一过滤器的相关信息,获取训练数据;根据所述模型训练配置信息和/或所述第一模型的相关信息,确定本地训练模型以及用于所述本地训练模型训练的模型训练方式;根据所述模型训练方式对所述本地训练模型进行训练,以及基于训练后的本地训练模型对所述训练数据进行计算,得到第一训练结果。
可选的,所述第二接收模块1010还用于:接收所述第一网元发送的第二信息,所述第二信息中至少包括第二训练结果。
可选的,所述第二接收模块1010接收所述第一网元发送的第二信息的步骤,包括以下任一项:接收所述第一网元发送的指定信息,所述指定信息属于所述第二信息、且不同于所述联邦模型训练请求消息中包括的信息;接收所述第一网元发送的第二信息中的全部信息。
可选的,所述第二信息是所述第一网元在目标模型的损失函数的计算结果不满足预定要求时发送的。
可选的,所述第二训练结果至少包括:目标模型的损失函数对于所述目标模型的参数的第二梯度信息或目标模型的信息。
可选的,所述第二信息还包括以下至少一项:模型实例标识信息,用于所述第二网元进行模型关联;参与所述联邦模型训练过程的各网元的相关信息;所述目标模型对应的模型训练配置信息。
如图11所示,为本申请一示例性实施例提供的模型训练装置1100的结构示意图,所述装置1100包括:第三接收模块1110,用于接收第一网元发送的目标模型的相关信息;其中,所述目标模型的相关信息至少用于表征所述目标模型为横向联邦模型。
可选的,所述目标模型的相关信息包括以下至少一项:模型实例标识信息,所述模型实例标识信息与目标模型对应、且由所述第一网元分配;第三模型信息,所述第三模型信息包括所述目标模型的网络结构信息和/或模型参数信息;第二指示信息,用于指示所述目标模型是横向联邦学习模型;第二网元和/或第三网元的相关信息,所述第二网元和/或所述第三网元是参与所述目标模型训练的网元。
可选的,所述目标模型的相关信息是所述第一网元在损失函数的计算结果满足预定要求时发送的。
可选的,所述装置1100还包括第三发送模块,用于向所述第一网元发送模型请求消息,其中,所述模型请求消息包括以下至少一项:所述模型训练任务的类型信息;所述模型训练任务的标识信息;第二过滤器的相关信息,用于限定所述模型训练任务对应的目标对象、目标时间、目标区域中的至少一项;模型反馈相关信息,所述模型反馈相关信息包 括模型描述方式、反馈时间中的至少一项。
本申请实施例中的模型训练装置900、1000、1100可以是通信设备,例如具有操作系统的通信设备,也可以是通信设备中的部件,例如集成电路或芯片。该通信设备可以是终端,也可以为网络侧设备。示例性的,终端可以包括但不限于上述所列举的终端11的类型,网络侧设备可以包括但不限于上述所列举的网络侧设备12的类型,本申请实施例不作具体限定。
本申请实施例提供的模型训练装置900、1000、1100能够实现图3至图8的方法实施例实现的各个过程,并达到相同的技术效果,为避免重复,这里不再赘述。
可选的,如图12所示,本申请实施例还提供一种通信设备1200,包括处理器1201和存储器1202,存储器1202存储有可在所述处理器1201上运行的程序或指令,例如,该通信设备1200为终端时,该程序或指令被处理器1201执行时实现上述模型训练方法实施例300-800的各个步骤,且能达到相同的技术效果。该通信设备1200为网络侧设备时,该程序或指令被处理器1201执行时实现上述300-800方法实施例的各个步骤,且能达到相同的技术效果,为避免重复,这里不再赘述。
一种实现方式中,所述通信设备1200可以为终端,该终端可以包括处理器和通信接口,所述通信接口和所述处理器耦合,所述处理器用于运行程序或指令,实现如方法实施例300-800中所述的方法的步骤。该终端实施例是与上述终端侧方法实施例对应的,上述方法实施例的各个实施过程和实现方式均可适用于该终端实施例中,且能达到相同的技术效果。具体地,图13为实现本申请实施例的一种终端的硬件结构示意图。
该终端1300包括但不限于:射频单元1301、网络模块1302、音频输出单元1303、输入单元1304、传感器1305、显示单元1306、用户输入单元1307、接口单元1308、存储器1309、以及处理器1310等中的至少部分部件。
本领域技术人员可以理解,终端1300还可以包括给各个部件供电的电源(比如电池),电源可以通过电源管理系统与处理器1310逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。图13中示出的终端结构并不构成对终端的限定,终端可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置,在此不再赘述。
应理解的是,本申请实施例中,输入单元1304可以包括图形处理单元(Graphics Processing Unit,GPU)1041和麦克风13042,图形处理器13041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。显示单元1306可包括显示面板13061,可以采用液晶显示器、有机发光二极管等形式来配置显示面板13061。用户输入单元1307包括触控面板13071以及其他输入设备13072中的至少一种。触控面板13071,也称为触摸屏。触控面板13071可包括触摸检测装置和触摸控制器两个部分。其他输入设备13072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。
本申请实施例中,射频单元1301接收来自网络侧设备的下行数据后,可以传输给处理器1310进行处理;另外,射频单元1301可以向网络侧设备发送上行数据。通常,射频单元1301包括但不限于天线、放大器、收发信机、耦合器、低噪声放大器、双工器等。
存储器1309可用于存储软件程序或指令以及各种数据。存储器1309可主要包括存储程序或指令的第一存储区和存储数据的第二存储区,其中,第一存储区可存储操作系统、至少一个功能所需的应用程序或指令(比如声音播放功能、图像播放功能等)等。此外,存储器1309可以包括易失性存储器或非易失性存储器,或者,存储器1309可以包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(Read-Only Memory,ROM)、可编程只读存储器(Programmable ROM,PROM)、可擦除可编程只读存储器(Erasable PROM,EPROM)、电可擦除可编程只读存储器(Electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(Random Access Memory,RAM),静态随机存取存储器(Static RAM,SRAM)、动态随机存取存储器(Dynamic RAM,DRAM)、同步动态随机存取存储器(Synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(Double Data Rate SDRAM,DDRSDRAM)、增强型同步动态随机存取存储器(Enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(Synch link DRAM,SLDRAM)和直接内存总线随机存取存储器(Direct Rambus RAM,DRRAM)。本申请实施例中的存储器1309包括但不限于这些和任意其它适合类型的存储器。
处理器1310可包括一个或多个处理单元;可选的,处理器1310集成应用处理器和调制解调处理器,其中,应用处理器主要处理涉及操作系统、用户界面和应用程序等的操作,调制解调处理器主要处理无线通信信号,如基带处理器。可以理解的是,上述调制解调处理器也可以不集成到处理器1310中。
其中,射频单元1301,用于在进行与模型训练任务对应的联邦模型训练过程的情况下,向至少一个第二网元发送联邦模型训练请求消息,所述至少一个第二网元为参与所述联邦模型训练过程的网元,各所述第二网元间用于所述联邦模型训练过程的训练数据对应的样本不同、但样本特征相同;以及接收所述至少一个第二网元发送的第一信息,所述第一信息至少包括第一训练结果,所述第一训练结果对应于所述第二网元中用于所述联邦模型训练过程的训练数据;所述处理器1310用于根据第一模型和所述至少一个第二网元上报的所述第一训练结果进行模型训练,得到目标模型和/或第二训练结果。
本实施例中,通过利用横向联邦学习的方式,联合各第二网元实现本地分布式模型训练,由此,可在不共享通信网络中各第二网元上的数据的前提下,既能确保各第二网元中的数据隐私性和数据安全性,还能确保模型训练效果。
另一种实现方式中,所述通信设备1200还可以为网络侧设备,所述网络侧设备包括处理器和通信接口,所述通信接口和所述处理器耦合,所述处理器用于运行程序或指令,实现如实施例300-800中所述的方法的步骤。该网络侧设备实施例是与上述网络侧设备方法实施例对应的,上述方法实施例的各个实施过程和实现方式均可适用于该网络侧设备实 施例中,且能达到相同的技术效果。
示例性的,如图14所示,为本申请实施例提供的一种网络侧设备的结构示意图。该网络侧设备1400包括:天线1401、射频装置1402、基带装置1403、处理器1404和存储器1405。天线1401与射频装置1402连接。在上行方向上,射频装置1402通过天线1401接收信息,将接收的信息发送给基带装置1403进行处理。在下行方向上,基带装置1403对要发送的信息进行处理,并发送给射频装置1402,射频装置1402对收到的信息进行处理后经过天线1401发送出去。
以上实施例中网络侧设备执行的方法可以在基带装置1403中实现,该基带装置1403包基带处理器。
基带装置1403例如可以包括至少一个基带板,该基带板上设置有多个芯片,如图14所示,其中一个芯片例如为基带处理器,通过总线接口与存储器1405连接,以调用存储器1405中的程序,执行以上方法实施例中所示的网络设备操作。
该网络侧设备还可以包括网络接口1406,该接口例如为通用公共无线接口(common public radio interface,CPRI)。
具体地,本发明实施例的网络侧设备1400还包括:存储在存储器1405上并可在处理器1404上运行的指令或程序,处理器1404调用存储器1405中的指令或程序执行图9-图11所示各模块执行的方法,并达到相同的技术效果,为避免重复,故不在此赘述。
示例性的,如图15所示,为本申请另一示例实施例提供的网络侧设备1500的结构示意图,该网络侧设备1500包括:处理器1501、网络接口1502和存储器1503。其中,网络接口1502例如为通用公共无线接口(common public radio interface,CPRI)。
具体地,本发明实施例的网络侧设备1500还包括:存储在存储器1503上并可在处理器1501上运行的指令或程序,处理器1501调用存储器1503中的指令或程序执行图9-图11所示各模块执行的方法,并达到相同的技术效果,为避免重复,故不在此赘述。
本申请实施例还提供一种可读存储介质,所述可读存储介质上存储有程序或指令,该程序或指令被处理器执行时实现上述模型训练方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
其中,所述处理器为上述实施例中所述的终端中的处理器。所述可读存储介质,包括计算机可读存储介质,如计算机只读存储器ROM、随机存取存储器RAM、磁碟或者光盘等。
本申请实施例另提供了一种芯片,所述芯片包括处理器和通信接口,所述通信接口和所述处理器耦合,所述处理器用于运行网络侧设备程序或指令,实现上述模型训练方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
应理解,本申请实施例提到的芯片还可以称为系统级芯片,系统芯片,芯片系统或片上系统芯片等。
本申请实施例还提供了一种计算机程序产品,该计算机程序产品包括处理器、存储器 及存储在所述存储器上并可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时,实现上述模型训练方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
本申请实施例还提供了一种模型训练系统,包括:第一网元、第二网元、第三网元,所述第一网元可用于执行方法实施例300-600中的方法的步骤,所述第二网元可用于执行方法实施例700中的方法的步骤,所述第三网元可用于执行方法实施例800中的方法的步骤。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。此外,需要指出的是,本申请实施方式中的方法和装置的范围不限按示出或讨论的顺序来执行功能,还可包括根据所涉及的功能按基本同时的方式或按相反的顺序来执行功能,例如,可以按不同于所描述的次序来执行所描述的方法,并且还可以添加、省去、或组合各种步骤。另外,参照某些示例所描述的特征可在其他示例中被组合。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以计算机软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
上面结合附图对本申请的实施例进行了描述,但是本申请并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本申请的启示下,在不脱离本申请宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本申请的保护之内。
Claims (41)
- 一种模型训练方法,包括:第一网元在进行与模型训练任务对应的联邦模型训练过程的情况下,向至少一个第二网元发送联邦模型训练请求消息,所述至少一个第二网元为参与所述联邦模型训练过程的网元,各所述第二网元间用于所述联邦模型训练过程的训练数据对应的样本不同、但样本特征相同;所述第一网元接收所述至少一个第二网元发送的第一信息,所述第一信息至少包括第一训练结果,所述第一训练结果对应于所述第二网元中用于所述联邦模型训练过程的训练数据;所述第一网元根据第一模型和所述至少一个第二网元上报的所述第一训练结果进行模型训练,得到目标模型和/或第二训练结果。
- 如权利要求1所述的方法,其中,所述联邦模型训练请求消息包括以下至少一项:模型实例标识信息,所述模型实例标识信息与所述目标模型对应、且由所述第一网元分配;所述模型训练任务的类型信息;所述模型训练任务的标识信息;第一指示信息,用于指示所述联邦模型训练过程是一次横向联邦学习过程;第一过滤器的相关信息,用于限定所述模型训练任务对应的目标对象、目标时间、目标区域中的至少一项;所述第一模型的相关信息,所述第一模型的相关信息用于各所述第二网元进行本地模型训练;模型训练配置信息;所述第一训练结果的上报信息;参与所述联邦模型训练过程的各网元的相关信息。
- 如权利要求2所述的方法,其中,所述模型实例标识信息对应以下至少一项:所述第一网元的相关信息;第一时间,用于指示所述模型训练任务是基于所述第一时间内产生的训练数据进行;第二时间,用于指示所述联邦模型训练过程的完成时间;所述第二网元的相关信息。
- 如权利要求2所述的方法,其中,所述模型训练配置信息包括以下至少一项:模型结构信息;模型超参数信息;所述联邦模型训练过程中的训练数据的类型信息;模型训练条件信息,用于向所述第二网元指示所述第一网元根据所述第二网元上报的所述第一训练结果开始模型训练的条件;模型训练次数信息,用于指示所述第二网元在向所述第一网元发送第一信息之前需要进行的本地模型训练的次数;模型训练的时长信息,用于指示所述第二网元在向所述第一网元发送第一信息之前需要进行的本地模型训练的时长。
- 如权利要求4所述的方法,其中,所述模型训练条件信息包括以下至少一项:第三时间,用于指示所述第一网元对于所述第二网元反馈所述第一训练结果的等待时间达到所述第三时间时开始模型训练;第一阈值,用于指示所述第一网元在接收到的所述第一训练结果的数量达到所述第一阈值时开始模型训练。
- 如权利要求2所述的方法,其中,所述第一训练结果的上报信息包括以下至少一项:所述第一训练结果的上报格式;所述第一训练结果的上报条件。
- 如权利要求1所述的方法,其中,所述第一训练结果包括:所述第二网元根据本地训练模型进行训练得到的第二模型的模型信息和/或第二模型对应的第一梯度信息。
- 如权利要求1所述的方法,其中,所述第一信息还包括以下至少一项:模型实例标识信息,用于所述第一网元进行模型关联。
- 如权利要求1所述的方法,其中,所述第二网元是所述第一网元根据所述模型训练任务从网络存储功能NRF中获取的、且能支持所述联邦模型训练过程的网元。
- 如权利要求1-9中任一项所述的方法,其中,所述方法还包括:所述第一网元确定第一条件成立,其中,所述第一条件包括以下至少一项:所述第一网元中没有存储或无法获取所述模型训练任务对应的全部或部分训练数据;所述至少一个第二网元能够提供所述模型训练任务对应的全部或部分训练数据;所述模型训练任务对应的各所述第二网元间的训练数据的样本不同、但样本特征相同。
- 如权利要求1-9中任一项所述的方法,其中,所述方法还包括:所述第一网元在所述目标模型的损失函数的计算结果不满足预定要求的情况下,向所述至少一个第二网元发送第二信息;其中,所述第二信息至少包括所述第二训练结果,所述第二训练结果用于所述第二网元再次进行本地模型训练并重新获取第一训练结果。
- 如权利要求11所述的方法,其中,向所述至少一个第二网元发送第二信息的步骤,包括以下任一项:对于每个所述第二网元,向所述第二网元发送指定信息,所述指定信息属于所述第二信息、且不同于所述联邦模型训练请求消息中包括的信息;对于每个所述第二网元,向所述第二网元发送所述第二信息中的全部信息。
- 如权利要求1-9中任一项所述的方法,其中,所述方法还包括:所述第一网元在所述目标模型的损失函数的计算结果不满足预定要求的情况下,向至 少一个第三网元发送第二信息;其中,所述第二信息至少包括所述第二训练结果,所述第二训练结果用于所述第三网元进行本地模型训练以获取第三训练结果,所述第三网元是所述第一网元重新确定的、且参与所述联邦模型训练过程的网元。
- 如权利要求11或13所述的方法,其中,所述第二训练结果至少包括:所述损失函数对于所述目标模型的参数的第二梯度信息或所述目标模型的信息。
- 如权利要求11或13所述的方法,其中,所述第二信息还包括以下至少一项:模型实例标识信息,用于所述第二网元进行模型关联;第一训练结果的上报信息;参与所述联邦模型训练过程的各网元的相关信息;所述目标模型对应的模型训练配置信息。
- 如权利要求1-15中任一项所述的方法,其中,所述方法还包括:所述第一网元接收第四网元发送的模型请求消息,其中,所述模型请求消息包括以下至少一项:所述模型训练任务的类型信息;所述模型训练任务的标识信息;第二过滤器的相关信息,用于限定所述模型训练任务对应的目标对象、目标时间、目标区域中的至少一项;模型反馈相关信息,所述模型反馈相关信息包括模反馈格式、反馈条件中的至少一项。
- 如权利要求16所述的方法,其中,所述方法还包括:所述第一网元在所述目标模型的损失函数的计算结果满足预定要求的情况下,向所述第四网元发送所述目标模型的相关信息;其中,所述目标模型的相关信息包括以下至少一项:所述模型实例标识信息;所述目标模型信息;第二指示信息,用于指示所述目标模型是横向联邦学习模型;所述第二网元和/或第三网元的相关信息。
- 一种模型训练方法,所述方法包括:第二网元接收第一网元发送的联邦模型训练请求消息,所述联邦模型训练请求消息用于请求所述第二网元参与模型训练任务对应的联邦模型训练过程;所述第二网元根据所述联邦模型训练请求消息进行模型训练,得到第一训练结果;所述第二网元向所述第一网元发送第一信息,所述第一信息中至少包括所述第一训练结果;其中,所述第一训练结果对应于所述第二网元中用于所述联邦模型训练过程的训练数 据,所述第二网元中用于所述联邦模型训练的样本,与第五网元中用于所述联邦模型训练的样本不同、但样本特征相同,所述第五网元是参与所述联邦模型训练过程中的多个网元中除了所述第二网元之外的其他网元。
- 如权利要求18所述的方法,其中,所述联邦模型训练请求消息包括以下至少一项:模型实例标识信息,所述模型实例标识信息与目标模型对应、且由所述第一网元分配;所述模型训练任务的类型信息;所述模型训练任务的标识信息;第一指示信息,用于指示所述联邦模型训练过程是一次横向联邦学习过程;第一过滤器的相关信息,用于限定所述模型训练任务对应的目标对象、目标时间、目标区域中的至少一项;第一模型的相关信息,所述第一模型的相关信息用于各所述第二网元进行本地模型训练;模型训练配置信息;所述第一训练结果的上报信息;参与所述联邦模型训练过程的各网元的相关信息。
- 如权利要求19所述的方法,其中,所述模型实例标识信息对应以下至少一项:所述第一网元的相关信息;第一时间,用于指示所述模型训练任务是基于所述第一时间内产生的训练数据进行;第二时间,用于指示所述联邦模型训练过程的完成时间;参与所述联邦模型训练过程的各网元的相关信息。
- 如权利要求19所述的方法,其中,所述模型训练配置信息包括以下至少一项:模型结构信息;模型超参数信息;所述联邦模型训练过程中的训练数据的类型信息;模型训练条件信息,用于向所述第二网元指示所述第一网元根据第二网元上报的所述第一训练结果开始模型训练的条件;模型训练次数信息,用于指示所述第二网元在向所述第一网元发送第一信息之前需要进行的本地模型训练的次数;模型训练的时长信息,用于指示所述第二网元在向所述第一网元发送第一信息之前需要进行的本地模型训练的时长。
- 如权利要求21所述的方法,其中,所述模型训练条件信息包括以下至少一项:第三时间,用于指示所述第一网元对于所述第二网元反馈所述第一训练结果的等待时间达到所述第三时间时开始模型训练;第一阈值,用于指示所述第一网元在接收到的所述第一训练结果的数量达到所述第一阈值时开始模型训练。
- 如权利要求19所述的方法,其中,所述第一训练结果的上报信息包括以下至少一项:所述第一训练结果的上报格式;所述第一训练结果的上报条件。
- 如权利要求18所述的方法,其中,所述第一训练结果包括:所述第二网元根据本地训练模型进行训练得到的第二模型的模型信息和/或第二模型对应的第一梯度信息。
- 如权利要求18所述的方法,其中,所述第二网元是所述第一网元根据所述模型训练任务从网络存储功能NRF中获取的、且能支持所述联邦模型训练过程的网元。
- 如权利要求18所述的方法,其中,所述第一信息还包括以下至少一项:模型实例标识信息,用于所述第一网元进行模型关联。
- 如权利要求19所述的方法,其中,所述第二网元根据所述模型训练请求消息进行模型训练,得到第一训练结果的步骤,包括:所述第二网元根据所述第一指示信息确定需要进行联邦模型训练过程;所述第二网元根据所述模型训练任务的类型信息或标识信息确定所述联邦模型训练对应的模型训练任务;所述第二网元根据所述模型训练任务以及所述第一过滤器的相关信息,获取训练数据;所述第二网元根据所述模型训练配置信息和/或所述第一模型的相关信息,确定本地训练模型以及用于所述本地训练模型训练的模型训练方式;所述第二网元根据所述模型训练方式对所述本地训练模型进行训练,以及基于训练后的本地训练模型对所述训练数据进行计算,得到第一训练结果。
- 如权利要求18所述的方法,其中,所述方法还包括:所述第二网元接收所述第一网元发送的第二信息,所述第二信息中至少包括第二训练结果。
- 如权利要求28所述的方法,其中,所述第二网元接收所述第一网元发送的第二信息的步骤,包括以下任一项:所述第二网元接收所述第一网元发送的指定信息,所述指定信息属于所述第二信息、且不同于所述联邦模型训练请求消息中包括的信息;所述第二网元接收所述第一网元发送的第二信息中的全部信息。
- 如权利要求28所述的方法,其中,所述第二信息是所述第一网元在目标模型的损失函数的计算结果不满足预定要求时发送的。
- 如权利要求28所述的方法,其中,所述第二训练结果至少包括:目标模型的损失函数对于所述目标模型的参数的第二梯度信息或目标模型的信息。
- 如权利要求28所述的方法,其中,所述第二信息还包括以下至少一项:模型实例标识信息,用于所述第二网元进行模型关联;目标模型的信息;参与所述联邦模型训练过程的各网元的相关信息;所述目标模型对应的模型训练配置信息。
- 一种模型训练方法,所述方法包括:第四网元接收第一网元发送的目标模型的相关信息;其中,所述目标模型的相关信息至少用于表征所述目标模型为横向联邦模型。
- 如权利要求33中所述的方法,其中,所述目标模型的相关信息包括以下至少一项:模型实例标识信息,所述模型实例标识信息与目标模型对应、且由所述第一网元分配;第三模型信息,所述第三模型信息包括所述目标模型的网络结构信息和/或模型参数信息;第二指示信息,用于指示所述目标模型是横向联邦学习模型;第二网元和/或第三网元的相关信息,所述第二网元和/或所述第三网元是参与所述目标模型训练的网元。
- 如权利要求33中所述的方法,其中,所述目标模型的相关信息是所述第一网元在损失函数的计算结果满足预定要求时发送的。
- 如权利要求34中所述的方法,其中,所述方法还包括:所述第四网元向所述第一网元发送模型请求消息,其中,所述模型请求消息包括以下至少一项:所述模型训练任务的类型信息;所述模型训练任务的标识信息;第二过滤器的相关信息,用于限定所述模型训练任务对应的目标对象、目标时间、目标区域中的至少一项;模型反馈相关信息,所述模型反馈相关信息包括模型描述方式、反馈时间中的至少一项。
- 一种模型训练装置,包括:第一发送模块,用于在进行与模型训练任务对应的联邦模型训练过程的情况下,向至少一个第二网元发送联邦模型训练请求消息,所述至少一个第二网元为参与所述联邦模型训练过程的网元,各所述第二网元间用于所述联邦模型训练过程的训练数据对应的样本不同、但样本特征相同;第一接收模块,用于接收所述至少一个第二网元发送的第一信息,所述第一信息至少包括第一训练结果,所述第一训练结果对应于所述第二网元中用于所述联邦模型训练过程的训练数据;第一模型训练模块,用于根据第一模型和所述至少一个第二网元上报的所述第一训练结果进行模型训练,得到目标模型和/或第二训练结果。
- 一种模型训练装置,包括:第二接收模块,用于第二网元接收第一网元发送的联邦模型训练请求消息,所述联邦 模型训练请求消息用于请求所述第二网元参与模型训练任务对应的联邦模型训练过程;第二模型训练模块,用于根据所述联邦模型训练请求消息进行模型训练,得到第一训练结果;第二发送模块,用于向所述第一网元发送第一信息,所述第一信息中至少包括所述第一训练结果;其中,所述第一训练结果对应于所述第二网元中用于所述联邦模型训练过程的训练数据,所述第二网元中用于所述联邦模型训练的样本,与第五网元中用于所述联邦模型训练的样本不同、但样本特征相同,所述第五网元是参与所述联邦模型训练过程中的多个网元中除了所述第二网元之外的其他网元。
- 一种模型训练装置,包括:第三接收模块,用于接收第一网元发送的目标模型的相关信息;其中,所述目标模型的相关信息至少用于表征所述目标模型为横向联邦模型。
- 一种通信设备,包括处理器和存储器,所述存储器存储可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时实现如权利要求1至17任一项所述的模型训练方法的步骤,或实现如权利要求18至32任一项所述的模型训练方法的步骤,或实现如权利要求33至36任一项所述的模型训练方法的步骤。
- 一种可读存储介质,所述可读存储介质上存储程序或指令,所述程序或指令被处理器执行时实现如权利要求1至17任一项所述的模型训练方法的步骤,或实现如权利要求18至32任一项所述的模型训练方法的步骤,或实现如权利要求33至36任一项所述的模型训练方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP22915010.7A EP4459503A1 (en) | 2021-12-30 | 2022-12-29 | Model training method and apparatus, and communication device |
US18/758,586 US20240354592A1 (en) | 2021-12-30 | 2024-06-28 | Model Training Method and Apparatus, and Communication Device |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111662860 | 2021-12-30 | ||
CN202111662860.8 | 2021-12-30 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US18/758,586 Continuation US20240354592A1 (en) | 2021-12-30 | 2024-06-28 | Model Training Method and Apparatus, and Communication Device |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2023125760A1 true WO2023125760A1 (zh) | 2023-07-06 |
Family
ID=86998083
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/CN2022/143207 WO2023125760A1 (zh) | 2021-12-30 | 2022-12-29 | 模型训练方法、装置及通信设备 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20240354592A1 (zh) |
EP (1) | EP4459503A1 (zh) |
CN (1) | CN116432018A (zh) |
WO (1) | WO2023125760A1 (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111538598A (zh) * | 2020-04-29 | 2020-08-14 | 深圳前海微众银行股份有限公司 | 联邦学习建模方法、装置、设备及可读存储介质 |
CN113159289A (zh) * | 2021-04-26 | 2021-07-23 | 平安科技(深圳)有限公司 | 基于神经网络的联邦模型的训练方法、装置及计算机设备 |
CN113807538A (zh) * | 2021-04-09 | 2021-12-17 | 京东科技控股股份有限公司 | 联邦学习方法、装置、电子设备及存储介质 |
CN113839797A (zh) * | 2020-06-23 | 2021-12-24 | 华为技术有限公司 | 数据处理方法和装置 |
-
2022
- 2022-10-09 CN CN202211228503.5A patent/CN116432018A/zh active Pending
- 2022-12-29 EP EP22915010.7A patent/EP4459503A1/en active Pending
- 2022-12-29 WO PCT/CN2022/143207 patent/WO2023125760A1/zh unknown
-
2024
- 2024-06-28 US US18/758,586 patent/US20240354592A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111538598A (zh) * | 2020-04-29 | 2020-08-14 | 深圳前海微众银行股份有限公司 | 联邦学习建模方法、装置、设备及可读存储介质 |
CN113839797A (zh) * | 2020-06-23 | 2021-12-24 | 华为技术有限公司 | 数据处理方法和装置 |
CN113807538A (zh) * | 2021-04-09 | 2021-12-17 | 京东科技控股股份有限公司 | 联邦学习方法、装置、电子设备及存储介质 |
CN113159289A (zh) * | 2021-04-26 | 2021-07-23 | 平安科技(深圳)有限公司 | 基于神经网络的联邦模型的训练方法、装置及计算机设备 |
Also Published As
Publication number | Publication date |
---|---|
EP4459503A1 (en) | 2024-11-06 |
US20240354592A1 (en) | 2024-10-24 |
CN116432018A (zh) | 2023-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210056140A1 (en) | User Profile Generation Method and Apparatus | |
US20230268073A1 (en) | Inquiry information processing method and apparatus, and medium | |
WO2023109827A1 (zh) | 客户端筛选方法及装置、客户端及中心设备 | |
WO2023020431A1 (zh) | 算力资源的确定方法和设备 | |
WO2023125879A1 (zh) | 数据处理的方法、装置及通信设备 | |
WO2024120470A1 (zh) | 模型训练方法、终端及网络侧设备 | |
WO2023207980A1 (zh) | 模型信息获取方法、发送方法、装置、节点和储存介质 | |
WO2023125760A1 (zh) | 模型训练方法、装置及通信设备 | |
WO2023169523A1 (zh) | 数据采集方法、装置、终端及网络侧设备 | |
WO2023093894A1 (zh) | 感知业务实现方法、装置、网络侧设备及终端 | |
WO2023125747A1 (zh) | 模型训练方法、装置及通信设备 | |
WO2024088119A1 (zh) | 数据处理方法、装置、终端及网络侧设备 | |
WO2023098535A1 (zh) | 信息交互方法、装置及通信设备 | |
WO2023213270A1 (zh) | 模型训练处理方法、装置、终端及网络侧设备 | |
WO2023134653A1 (zh) | 通信网络预测方法、终端及网络侧设备 | |
WO2023109828A1 (zh) | 数据收集方法及装置、第一设备、第二设备 | |
WO2023098586A1 (zh) | 信息交互方法、装置及通信设备 | |
WO2023198167A1 (zh) | 模型微调的方法、装置及设备 | |
WO2024022316A1 (zh) | 下行参考信号发送方法、装置、终端及网络侧设备 | |
WO2024169797A1 (zh) | Ai模型指示方法及通信设备 | |
WO2023125421A1 (zh) | 资源选择方法、装置及终端 | |
WO2023179617A1 (zh) | 定位方法、装置、终端及网络侧设备 | |
WO2024022439A1 (zh) | 处理方法、设备及可读存储介质 | |
WO2024022168A1 (zh) | 协商方法、终端及网络侧设备 | |
WO2023151695A1 (zh) | 波束切换时延的确定方法、装置及终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 22915010 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
ENP | Entry into the national phase |
Ref document number: 2022915010 Country of ref document: EP Effective date: 20240730 |