CN114091679A - 一种更新机器学习模型的方法及通信装置 - Google Patents
一种更新机器学习模型的方法及通信装置 Download PDFInfo
- Publication number
- CN114091679A CN114091679A CN202010858858.7A CN202010858858A CN114091679A CN 114091679 A CN114091679 A CN 114091679A CN 202010858858 A CN202010858858 A CN 202010858858A CN 114091679 A CN114091679 A CN 114091679A
- Authority
- CN
- China
- Prior art keywords
- model
- terminal device
- training
- machine learning
- terminal equipment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
本申请涉及一种更新机器学习模型的方法及通信装置,涉及人工智能技术领域和通信技术领域,该方法中,网络设备根据终端设备的计算能力为该终端设备确定对应的模型训练配置信息,并在将该模型训练配置信息发送给终端设备后接收该终端设备发送的模型更新参数,该模型更新参数是终端设备根据模型训练配置信息对第一机器学习模型训练后更新的模型参数,再根据接收到的模型更新参数对第二机器学习模型进行更新。如此,根据各个终端设备的计算能力减少各个终端设备向网络设备上报模型更新参数时间上的差异性,网络设备基于各个终端设备上报的模型更新参数进行模型更新时能够尽量在短时间内完成,提高模型更新的收敛速度,提高机器学习模型的更新效率。
Description
技术领域
本申请涉及人工智能技术领域,尤其涉及一种更新机器学习模型的方法及通信装置。
背景技术
无线通信网络正朝着网络多元化、宽带化、综合化、智能化的方向发展。无线传输采用越来越高的频谱、越来越宽的带宽、越来越多的天线,采用传统的通信方法复杂度太高且性能难以保证。此外,随着智能终端和各种应用爆炸式发展,无线通信网络行为和性能因素比过去更加动态和不可预测。低成本、高效率地运营日益复杂的无线通信网络是当前运营商面临的一项挑战。
随着人工智能(artificial intelligence,AI)技术和机器学习(machinelearning,ML)技术的发展,AI/ML在无线通信网络中也将承担着越来越重要的任务。目前,在无线通信网络中,终端设备和网络侧之间的物理层、媒体介入控制、无线资源控制、无线资源管理、运维等领域均在引入AI/ML。终端设备和网络设备(例如基站)作为无线通信网络的一部分,均可引入AI/ML进行相关通信事务的处理,具体来说,可以利用各自本地的数据进行机器学习模型的训练,进一步地再通过训练得到的机器学习模型处理相关的通信事务。
终端设备中的数据一般都是涉及用户隐私的,为避免用户的隐私数据泄露,所以各个终端设备一般是在本地利用其自身的数据对网络设备预先分发的机器学习模型的训练,然后将训练之后得到的模型更新参数发送给网络设备,再由网络设备对各个参与方(即前述进行模型训练的各个终端设备)发送的模型更新参数进行汇聚,进而对网络设备本地的机器学习模型直接进行更新。在此过程中,各个终端设备中的用户数据一般并不相同,由于各个终端设备进行模型训练的能力一般也存在差异,并且各个终端设备进行模型训练的配置信息是由各个终端自行配置或者由终端用户自行选择的,导致各个终端设备进行机器学习模型训练所花的时间一般也不相同,因此网络设备接收到各个终端设备上传的模型更新参数的时间一般存在较大差异,而网络设备进行本地模型更新是需要所有参与方上报的模型更新参数,所以,由于各个终端设备上报各自的模型更新参数的时间差异性,导致网络设备进行本地模型更新所需要的时间也受到影响,对机器学习模型更新的收敛速度较慢,更新效率较低。
发明内容
本申请实施例提供一种更新机器学习模型的方法及通信装置,用于提高对机器学习模型更新的收敛速度,以提高机器学习模型的更新效率。
第一方面,提供一种更新机器学习模型的方法,该方法可以应用于网络设备,也可以应用于网络设备内部的芯片。以该方法应用于网络设备为例,在该方法中,网络设备根据终端设备的计算能力为该终端设备确定对应的模型训练配置信息,并在将该模型训练配置信息发送给终端设备后接收到该终端设备发送的模型更新参数,再根据接收到的模型更新参数对网络设备中的第二机器学习模型进行更新。其中,终端设备发送的模型更新参数是该终端设备根据网络设备发送的模型训练配置信息对本地的第一机器学习模型进行本地训练后得到的更新参数。
其中,终端设备本地的机器学习模型称作第一机器学习模型,网络设备本地的机器学习模型称作第二机器学习模型,第一机器学习模型是由网络设备为终端设备分发的。第一机器学习模型和第二机器学习模型是同一种类型的机器学习模型,或者,第一机器学习模型和第二机器学习模型是不同类型的机器学习模型,为便于网络设备根据各个终端设备上报的模型更新参数信息进行本地的模型更新,第一机器学习模型和第二机器学习模型是相同类型的机器学习模型。
在本申请实施例中,网络设备根据各个终端设备的计算能力为各个终端设备分配对应的模型训练配置信息,使得各个终端设备对本地的机器学习模型进行训练时所使用的模型训练配置信息是与自身的计算能力相匹配的,相对于相关技术中的由各个终端设备自行相互独立的选择模型训练配置信息的方式,本方案中由网络侧统一根据各个终端设备自身的计算能力为各个终端设备差异化地配置对应的模型训练配置信息,这样可减少各个终端设备在进行模型训练时由于能力差异而导致的时间差异,进而确保各个终端设备能够尽量在相同时间内完成模型训练,使得各个终端设备上报各自的模型更新参数的时间是大致相同的,减少各个终端设备上报模型更新参数时间上的差异性,从而减少网络设备接收各个终端设备发送的模型更新参数的时间差异性,以便于网络设备基于各个终端设备上报的模型更新参数进行模型更新时能够尽量在短时间内完成,提高模型更新的收敛速度,从而提高机器学习模型的更新效率。
在一种可能的实现方式中,网络设备可以接收来自终端设备的第一算力指示信息,或者可以在向终端设备发送计算能力获取请求后接收来自终端设备的第二算力指示信息,或者可以接收来自其它网络设备的第三算力指示信息。
其中,第一算力指示信息、第二算力指示信息、第三算力指示信息均是用于指示终端设备的计算能力的信息,也就是说,该实施方式中提供了三种获取终端设备的计算能力的方式,如此可以提高获取终端设备的计算能力的方式的灵活性。
在一种可能的实现方式中,模型训练配置信息包括超参数、精度、训练时间信息中的至少一种。
在该方案中,网络设备根据终端设备的计算能力可以为该终端设备为配置一种或多种模型训练配置信息,配置的灵活性较高。并且,配置的模型训练配置信息是终端设备进行模型训练常规使用的,这样一般可以满足大多数终端设备进行本地模型训练的配置需求,通用性较好。
在一种可能的实现方式中,网络设备还向终端设备发送训练特征信息,该训练特征信息用于指示终端设备对该终端设备中的第一机器学习模型进行训练所使用的训练特征集。
在该方案中,网络设备向终端设备发送训练特征信息,可以让各个参与本地训练的终端设备均使用相同的训练特征信息进行本地训练,从而减少各个终端设备基于不同训练特征信息进行本地训练时所花时间的差异。
在一种可能的实现方式中,网络设备还向终端设备发送精度评估信息,该精度评估信息包括用于评估精度的方法或用于评估精度的测试样本中的至少一种。
在该方案中,通过向终端设备指定精度评估信息,可以让各个参与本地模型训练的终端设备均使用相同的精度评估信息对本地训练后的机器学习模型进行精度评估,由于采用的是相同的精度评估方式,可以尽量使得各个终端设备在同一精度评估标准下达到规定的精度要求,从而可以减少各个终端设备进行本地训练所花时间的差异。
在一种可能的实现方式中,网络设备还接收来自终端设备的精度指示信息,该精度指示信息用于指示该终端设备利用网络设备发送的模型训练配置信息对本地的第一机器学习模型进行本地训练后达到的精度。
在该方案中,终端设备除了向网络设备反馈模型更新参数,同时还可以将对应的模型训练的精度反馈给网络设备,这样,以便于网络设备知晓终端设备的训练效果,可以作为网络设备后续再为终端设备配置模型训练配置信息时作为参考依据,以尽量提高训练效果。
在一种可能的实现方式中,在网络设备接收终端设备发送的模型更新参数之前,还确定用于获取该终端设备的模型更新参数的时间点,并在该时间点向终端设备发送获取请求,该获取请求用于指示终端设备向网络设备发送该终端设备的模型更新参数。
在该方案中,网络设备可以明确控制向各个终端设备请求模型更新参数的时间,在通过模型训练配置信息减少各个终端设备完成本地训练的时间差异的基础上,可以进一步地减少各个终端设备上报模型更新参数的时间差异,从而减少网络设备实际获取到各个终端设备发送的模型更新参数的时间差异。
在一种可能的实现方式中,在网络设备接收终端设备发送的模型更新参数之前,还确定用于获取该终端设备的模型更新参数的时间点,并向终端设备发送上报时间信息,该上报时间信息用于指示在确定的前述时间点向网络设备发送模型更新参数。
在该方案中,网络设备可以明确控制各个终端设备上报模型更新参数的具体时间,在通过模型训练配置信息减少各个终端设备完成本地训练的时间差异的基础上,可以进一步地减少各个终端设备上报模型更新参数的时间差异,从而减少网络设备实际获取到各个终端设备发送的模型更新参数的时间差异。
在一种可能的实现方式中,网络设备确定多个终端设备中的各个终端设备向网络设备发送各自的模型更新参数的传输时长,并根据各个终端对应的传输时长确定获取上述终端设备的模型更新参数的获取时间。其中的多个终端设备可以包括上述终端设备,或者也可以不包括上述终端设备。
在该方案中,网络设备主动向各个终端设备请求模型更新参数,并且是在与各个终端设备匹配的时间点向对应的各个终端设备发送用于请求模型更新参数的获取请求。此外,可以综合考虑大部分甚至是全部参与方的传输模型更新参数所需的时长,可以更为精确地控制各个终端设备上报各自的模型更新参数的时间,从而减少网络设备获取各个终端设备发送的模型更新参数的时间差异,进而提高本地模型更新的收敛速度,提高模型更新效率。
在一种可能的实现方式中,上述的获取请求还用于指示需要获取指定的模型更新参数。
在该方案中,网络设备可以指示终端上传特定的模型更新参数,而并不一定是全部的模型更新参数,这样可以减少终端设备向网络设备传输模型更新参数的数据量和时间,从而尽量减少无效传输,提高传输的有效性,也节约了网络传输资源,减少了空口资源开销。
在一种可能的实现方式中,网络设备还接收来自终端设备的参数可用性指示信息,该参数可用性指示信息用于指示该终端设备中的模型更新参数的可用性。
在该方案中,通过参数可用性指示信息可以指示终端设备中的模型更新参数的可用性,如此,网络设备根据终端设备发送的参数可用性指示信息可以明确该终端设备中的各种模型更新参数的可用性情况,增加了网络设备和终端设备之间的认知一致性,网络设备在获取终端设备发送的模型更新参数时也可以更明确。
第二方面,提供一种更新机器学习模型的方法,该方法可以应用于终端设备,也可以应用于终端设备内部的芯片。以该方法应用于终端设备为例,在该方法中,终端设备接收网络设备发送的模型训练配置信息,其中的模型训练配置信息是根据该终端设备的计算能力确定的,进一步地,终端设备被根据接收到的模型训练配置信息对终端设备中的第一机器学习模型进行本地训练,以得到模型更新参数,然后再将得到的模型更新参数发送给网络设备,以使网络设备根据该模型更新参数对网络设备中的第二机器学习模型进行本地更新。
其中对于第一机器学习模型和第二机器学习模型的理解,可以按照第一方面中对第一机器学习模型和第二机器学习模型的说明进行理解。
本申请实施例中,终端设备进行本地的机器学习模型训练的模型训练配置信息是网络设备根据该终端设备自身的计算能力确定的,所以该模型训练配置信息是与该终端设备自身的计算能力相匹配的,可以确保各个终端设备能够尽量在相同时间内完成模型训练。采用该方式,网络设备可以为参与本地训练的各个终端设备均依据其自身的计算能力配置对应的模型训练配置信息,使得各个终端设备上报各自的模型更新参数的时间是大致相同的,减少各个终端设备上报模型更新参数时间上的差异性,从而减少网络设备接收各个终端设备发送的模型更新参数的时间差异性,以便于网络设备基于各个终端设备上报的模型更新参数进行模型更新时能够尽量在短时间内完成,提高模型更新的收敛速度,从而提高机器学习模型的更新效率。
在一种可能的实现方式中,在接收网络设备发送的模型训练配置信息之前,终端设备接收网络设备发送的计算能力获取请求,并根据该计算能力获取请求,向网络设备发送用于指示该终端设备的计算能力的第二算力指示信息。
在一种可能的实现方式中,在接收网络设备发送的模型训练配置信息的基础上,终端设备还接收来自网络设备的训练特征信息,该训练特征信息用于指示对该终端设备中的机器学习模型进行训练所使用的训练特征集,然后再根据模型训练配置信息和训练特征信息对终端设备中的第一机器学习模型进行本地训练。
在一种可能的实现方式中,终端设备还接收来自网络设备的精度评估信息,该精度评估信息包括用于评估精度的方法或用于评估精度的测试样本中的至少一种,然后再根据精度评估信息确定训练后的第一机器学习模型所达到的精度。
在一种可能的实现方式中,终端设备还向网络设备发送精度指示信息,该精度指示信息用于指示该终端设备利用网络设备发送的模型训练配置信息对器其本地的机器学习模型进行训练后所达到的精度。
在一种可能的实现方式中,终端设备还接收来自网络设备的获取请求,该获取请求用于指示该终端设备向网络设备发送该终端设备的模型更新参数,然后再根据该获取请求向网络设备发送模型更新参数。
在一种可能的实现方式中,终端设备还接收来自网络设备的上报时间信息,并在该上报时间信息所指示的时间点向网络设备发送模型更新参数。
在一种可能的实现方式中,终端设备还向网络设备发送参数可用性指示信息,该参数可用性指示信息用于指示该终端设备中的模型更新参数的可用性。
上述第二方面中的任一实现方式可以达到的技术效果可以参照上述第一方面中有益效果的描述,此处不再重复赘述。
第三方面,提供一种更新机器学习模型的方法,该方法可以应用于网络设备,或者可以应用于网络设备中的芯片。以该方法应用于网络设备为例,在该方法中,网络设备根据多个终端设备中的各个终端设备向网络设备发送各自的模型更新参数的传输时长,选择获取第一终端设备的模型更新参数的时间点,再在选择的时间点向第一终端设备发送获取请求,或者向终端设备发送用于指示第一终端设备在该时间点发送模型更新参数的上报时间信息,并接收第一终端设备发送的模型更新参数,然后再根据该模型更新参数对网络设备中的第二机器学习模型进行本地更新。
本申请实施例中,网络设备主动向各个终端设备请求各个终端设备中的模型更新参数,并且请求的时间点是网络设备根据各个终端设备实际需传输的数据量和传输链情况(传输链路的质量)确定的。具体来说,网络设备根据各个终端设备向网络设备发送各自的模型更新参数的所需的传输时长选择获取各个终端设备的模型更新参数的时间点,根据各个终端设备的传输时长之间的不同而差异化地在不同的时间点向各个终端设备请求各自的模型更新参数,这样可以尽量减少由于传输时长的不同而导致网络设备接收各个终端设备发送的模型更新参数之间的时间差异,使得各个终端设备发送的模型更新参数能够尽量在相同时间(或者近似相同的短时间内)到达网络设备,减少了各个终端设备向网络设备传输模型更新参数的时间差异,从而减少网络设备获取各个终端设备的模型更新参数之间的时间差异,以便于网络设备能够在短时间内根据各个终端设备的模型更新参数对本地的机器学习模型进行本地更新,从而提高本地更新的收敛速度,进而提高机器学习模型的更新效率。
在一种可能的实现方式中,网络设备还接收第一终端设备发送的参数可用性指示信息。
在该方案中,通过参数可用性指示信息可以指示终端设备中的模型更新参数的可用性,如此,网络设备根据终端设备发送的参数可用性指示信息可以明确该终端设备中的各种模型更新参数的可用性情况,增加了网络设备和终端设备之间的认知一致性,网络设备在获取终端设备发送的模型更新参数时也可以更明确。
在一种可能的实现方式中,网络设备向第一终端设备指示指定的模型更新参数。可选的,可以通过获取请求指示网络设备指定的模型更新参数。
在该方案中,网络设备可以指示终端上传特定的模型更新参数,而并不一定是全部的模型更新参数,这样可以减少终端设备向网络设备传输模型更新参数的数据量和时间,从而尽量减少无效传输,提高传输的有效性,也节约了网络传输资源,减少了空口资源开销。
第四方面,提供一种更新机器学习模型的方法,该方法可以应用于终端设备,或者可以应用于终端设备中的芯片。以该方法应用于第一终端设备为例,在该方案中,第一终端设备接收网络设备发送的获取请求,发送该获取请求的时间点是网络设备根据多个终端设备中的各个终端设备向网络设备发送各自的模型更新参数的传输时长确定的,并且该获取请求是该确定的时间点发送的,再根据获取请求向网络设备发送模型更新参数,或者接收网络设备发送的上报时间信息,并在该上报时间信息指示的时间点向网络设备发送模型更新参数,以使网络设备根据第一终端设备发送的模型更新参数对该网络设备本地的机器学习模型进行本地更新。
在一种可能的实现方式中,第一终端设备还向网络设备发送参数可用性指示信息。
在一种可能的实现方式中,第一终端设备还接收网络设备发送的指示信息,该指示信息用于指示网络设备指定的模型更新参数。
在一种可能的实现方式中,用于指示网络设备指定的模型更新参数的指示信息为上述的获取请求。
上述第四方面中的任一实现方式可以达到的技术效果可以参照上述第三方面中有益效果的描述,此处不再重复赘述。
第五方面,提供一种通信装置,该通信装置可以是网络设备,或者是设置在网络设备内部的芯片,该通信装置包括用于执行上述第一方面或第一方面任一种可能的实现方式中所述方法的模块。示例性的,该通信装置包括处理单元和通信单元,其中:
处理单元,用于根据终端设备的计算能力,确定该终端设备对应的模型训练配置信息;
通信单元,用于将模型训练配置信息发送给终端设备,以及接收终端设备发送的模型更新参数,其中,模型更新参数是终端设备根据模型训练配置信息对第一机器学习模型训练后更新的模型参数;
处理单元,还用于根据模型更新参数对第二机器学习模型进行更新。
在一种可能的实现方式中,所述通信单元还用于:
接收来自所述终端设备的第一算力指示信息,所述第一算力指示信息用于指示所述终端设备的计算能力;或者,
在向所述终端设备发送计算能力获取请求后,接收来自所述终端设备的第二算力指示信息,所述第二算力指示信息用于指示所述终端设备的计算能力;或者,
接收来自其它网络设备的第三算力指示信息,所述第三算力指示信息用于指示所述终端设备的计算能力。
在一种可能的实现方式中,所述模型训练配置信息包括超参数、精度、训练时间信息中的至少一种。
在一种可能的实现方式中,所述通信单元还用于向所述终端设备发送训练特征信息,所述训练特征信息用于指示所述终端设备对所述第一机器学习模型进行训练所使用的训练特征集。
在一种可能的实现方式中,所述通信单元还用于向所述终端设备发送精度评估信息,所述精度评估信息包括用于评估精度的方法或用于评估精度的测试样本中的至少一种。
在一种可能的实现方式中,所述通信单元还用于接收来自所述终端设备的精度指示信息,所述精度指示信息用于指示所述终端设备利用所述模型训练配置信息对所述第一机器学习模型进行训练后所达到的精度。
在一种可能的实现方式中,所述处理单元还用于确定用于获取所述终端设备的模型更新参数的时间点;则,所述通信单元还用于:
在所述时间点向所述终端设备发送获取请求,所述获取请求用于指示所述终端设备向所述网络设备发送所述终端设备的模型更新参数;或者,
向所述终端设备发送上报时间信息,所述上报时间信息用于指示在所述时间点向所述网络设备发送模型更新参数。
在一种可能的实现方式中,所述处理单元具体用于:
确定多个终端设备中的各个终端设备向所述网络设备发送各自的模型更新参数的传输时长;
根据各个终端设备对应的各个传输时长确定获取所述时间点。
在一种可能的实现方式中,所述获取请求还用于指示需要获取指定的模型更新参数。
在一种可能的实现方式中,所述通信单元还用于接收来自所述终端设备的参数可用性指示信息,所述参数可用性指示信息用于指示所述终端设备中的模型更新参数的可用性。
上述第五方面中的任一实现方式可以达到的技术效果可以参照上述第一方面中有益效果的描述,此处不再重复赘述。
第六方面,提供一种通信装置,该通信装置可以是终端设备,或者是设置在终端设备内部的芯片,该通信装置包括用于执行上述第二方面或第二方面任一种可能的实现方式中所述方法的模块。示例性的,该通信装置包括通信单元和处理单元,其中:
通信单元,用于接收网络设备发送的模型训练配置信息,所述模型训练配置信息是根据终端设备的计算能力确定的;
处理单元,用于根据所述模型训练配置信息对第一机器学习模型进行训练,以得到模型更新参数;
所述通信单元,还用于将所述模型更新参数发送给所述网络设备,所述模型更新参数用于所述网络设备对第二机器学习模型进行更新。
在一种可能的实现方式中,所述通信单元还用于:
接收所述网络设备发送的计算能力获取请求;
根据所述计算能力获取请求,向所述网络设备发送第二算力指示信息,所述第二算力指示信息用于指示所述终端设备的计算能力。
在一种可能的实现方式中,所述通信单元还用于接收来自所述网络设备的训练特征信息,所述训练特征信息用于指示所述终端设备对所述第一机器学习模型进行训练所使用的训练特征集;则,所述处理单元还用于根据所述模型训练配置信息和所述训练特征信息对所述第一机器学习模型进行训练。
在一种可能的实现方式中,所述通信单元还用于接收来自所述网络设备的精度评估信息,所述精度评估信息包括用于评估精度的方法或用于评估精度的测试样本中的至少一种;则,所述处理单元还用于根据所述精度评估信息确定训练后的机器学习模型所达到的精度。
在一种可能的实现方式中,所述通信单元用于向所述网络设备发送精度指示信息,所述精度指示信息用于指示所述终端设备利用所述模型训练配置信息对所述第一机器学习模型进行训练后所达到的精度。
在一种可能的实现方式中,所述通信单元还用于接收来自所述网络设备的获取请求,并根据所述获取请求向所述网络设备发送所述模型更新参数,所述获取请求用于指示所述终端设备向所述网络设备发送所述终端设备的模型更新参数。
在一种可能的实现方式中,所述通信单元还用于接收来自所述网络设备的上报时间信息,并在所述上报时间信息所指示的获取时间向所述网络设备发送所述模型更新参数。
在一种可能的实现方式中,所述通信单元还用于向所述网络设备发送参数可用性指示信息,所述参数可用性指示信息用于指示所述终端设备中的模型更新参数的可用性。
上述第六方面中的任一实现方式可以达到的技术效果可以参照上述第二方面中有益效果的描述,此处不再重复赘述。
第七方面,提供一种通信装置,该通信装置可以是网络设备,或者是设置在网络设备内部的芯片,该通信装置包括用于执行上述第三方面或第三方面任一种可能的实现方式中所述方法的模块。示例性的,该通信装置包括处理单元和通信单元,其中:
处理单元,用于根据多个终端设备中的各个终端设备向网络设备发送各自的模型更新参数的传输时长,选择获取第一终端设备的模型更新参数的时间点;
通信单元,用于在所述时间点向第一终端设备发送获取请求,或者向终端设备发送用于指示第一终端设备在获取时间发送模型更新参数的上报时间信息,其中,所述获取请求用于请求第一终端设备向所述网络设备发送模型更新参数;以及接收第一终端设备发送的模型更新参数;
所述处理单元,还用于根据所述模型更新参数对网络设备中的第二机器学习模型进行更新。
在一种可能的实现方式中,所述通信单元还用于接收来自所述第一终端设备的参数可用性指示信息。
在一种可能的实现方式中,所述通信单元还用于接收来自所述网络设备的用于指示指定的模型更新参数的指示信息。
在一种可能的实现方式中,所述指示信息携带在所述获取请求中。
上述第七方面中的任一实现方式可以达到的技术效果可以参照上述第三方面中有益效果的描述,此处不再重复赘述。
第八方面,提供一种通信装置,该通信装置可以是终端设备,或者是设置在终端设备内部的芯片,该通信装置包括用于执行上述第四方面或第四方面任一种可能的实现方式中所述方法的模块。示例性的,该通信装置包括通信单元和处理单元,其中:
通信单元,用于接收网络设备发送的获取请求或者上报时间信息,其中,发送该获取请求的时间点是网络设备根据多个终端设备中的各个终端设备向网络设备发送各自的模型更新参数的传输时长确定的;
处理单元,用于根据所述获取请求确定需要发送的模型更新参数;
所述通信单元,还用于将确定的所述模型更新参数发送给所述网络设备,或者,在所述上报时间信息指示的时间点向所述网络设备发送所述模型更新参数,所述模型更新参数用于所述网络设备对所述网络设备中的第二机器学习模型进行更新。
在一种可能的实现方式中,所述通信单元还用于向所述网络设备发送参数可用性指示信息。
在一种可能的实现方式中,所述通信单元还用于接收来自所述网络设备的用于指示指定的模型更新参数的指示信息。
在一种可能的实现方式中,所述指示信息携带在所述获取请求中。
上述第八方面中的任一实现方式可以达到的技术效果可以参照上述第四方面中有益效果的描述,此处不再重复赘述。
第九方面,提供一种通信装置,包括:至少一个处理器;以及与所述至少一个处理器通信连接的通信接口;所述至少一个处理器通过执行存储器存储的指令,使得所述通信装置通过所述通信接口执行如第一方面或第一方面任一种可能的实现方式中所述的方法。
可选的,所述存储器位于所述装置之外。
可选的,所述装置包括所述存储器,所述存储器与所述至少一个处理器相连,所述存储器存储有可被所述至少一个处理器执行的指令。
第十方面,提供一种通信装置,包括:至少一个处理器;以及与所述至少一个处理器通信连接的通信接口;所述至少一个处理器通过执行存储器存储的指令,使得所述通信装置通过所述通信接口执行如第二方面或第二方面任一种可能的实现方式中所述的方法。
可选的,所述存储器位于所述装置之外。
可选的,所述装置包括所述存储器,所述存储器与所述至少一个处理器相连,所述存储器存储有可被所述至少一个处理器执行的指令。
第十一方面,提供一种通信装置,包括:至少一个处理器;以及与所述至少一个处理器通信连接的通信接口;所述至少一个处理器通过执行存储器存储的指令,使得所述通信装置通过所述通信接口执行如第三方面或第三方面任一种可能的实现方式中所述的方法。
可选的,所述存储器位于所述装置之外。
可选的,所述装置包括所述存储器,所述存储器与所述至少一个处理器相连,所述存储器存储有可被所述至少一个处理器执行的指令。
第十二方面,提供一种通信装置,包括:至少一个处理器;以及与所述至少一个处理器通信连接的通信接口;所述至少一个处理器通过执行存储器存储的指令,使得所述通信装置通过所述通信接口执行如第四方面或第四方面任一种可能的实现方式中所述的方法。
可选的,所述存储器位于所述装置之外。
可选的,所述装置包括所述存储器,所述存储器与所述至少一个处理器相连,所述存储器存储有可被所述至少一个处理器执行的指令。
第十三方面,提供一种计算机可读存储介质,包括程序或指令,当所述程序或指令在计算机上运行时,使得如第一方面或第一方面任一种可能的实现方式中所述的方法被执行。
第十四方面,提供一种计算机可读存储介质,包括程序或指令,当所述程序或指令在计算机上运行时,使得如第二方面或第二方面任一种可能的实现方式中所述的方法被执行。
第十五方面,提供一种计算机可读存储介质,包括程序或指令,当所述程序或指令在计算机上运行时,使得如第三方面或第三方面任一种可能的实现方式中所述的方法被执行。
第十六方面,提供一种计算机可读存储介质,包括程序或指令,当所述程序或指令在计算机上运行时,使得如第四方面或第四方面任一种可能的实现方式中所述的方法被执行。
第十七方面,提供一种芯片,所述芯片与存储器耦合,用于读取并执行所述存储器中存储的程序指令,使得第一方面或第一方面任一种可能的实现方式中所述的方法被执行。
第十八方面,提供一种芯片,所述芯片与存储器耦合,用于读取并执行所述存储器中存储的程序指令,使得第二方面或第二方面任一种可能的实现方式中所述的方法被执行。
第十九方面,提供一种芯片,所述芯片与存储器耦合,用于读取并执行所述存储器中存储的程序指令,使得第三方面或第三方面任一种可能的实现方式中所述的方法被执行。
第二十方面,提供一种芯片,所述芯片与存储器耦合,用于读取并执行所述存储器中存储的程序指令,使得第四方面或第四方面任一种可能的实现方式中所述的方法被执行。
第二十一方面,提供一种计算机程序产品,包括指令,当其在计算机上运行时,使得上述第一方面或第一方面任一种可能的实现方式中所述的方法被执行。
第二十二方面,提供一种计算机程序产品,包括指令,当其在计算机上运行时,使得上述第二方面或第二方面任一种可能的实现方式中所述的方法被执行。
第二十三方面,提供一种计算机程序产品,包括指令,当其在计算机上运行时,使得上述第三方面或第三方面任一种可能的实现方式中所述方法的被执行。
第二十四方面,提供一种计算机程序产品,包括指令,当其在计算机上运行时,使得上述第四方面或第四方面任一种可能的实现方式中所述方法的被执行。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
图1为将联邦学习应用到ML模型训练的示意图;
图2为本申请实施例的一种应用场景示意图;
图3为本申请实施例的分离式接入网设备架构示意图;
图4为本申请实施例提供的一种更新机器学习模型的方法的流程图;
图5为本申请实施例提供的另一种更新机器学习模型的方法的流程图;
图6为本申请实施例中的通信装置的结构示意图;
图7为本申请实施例中的另一通信装置的结构示意图;
图8为本申请实施例中的另一通信装置的结构示意图;
图9为本申请实施例中的另一通信装置的结构示意图;
图10为本申请实施例中的另一通信装置的结构示意图;
图11为本申请实施例中的另一通信装置的结构示意图。
具体实施方式
为了使本申请实施例的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施例作进一步地详细描述。
以下,对本申请实施例中的部分用语进行解释说明,以便于本领域技术人员理解。
(1)终端设备,包括向用户提供语音和/或数据连通性的设备,例如可以包括具有无线连接功能的手持式设备、或连接到无线调制解调器的处理设备。该终端设备可以经无线接入网(radio access network,RAN)与核心网进行通信,与RAN交换语音和/或数据。该终端设备可以包括用户设备(user equipment,UE)、终端、无线终端设备、移动终端设备、设备到设备通信(device-to-device,D2D)终端设备、车到一切(vehicle-to-everything,V2X)终端设备、机器到机器/机器类通信(machine-to-machine/machine-typecommunications,M2M/MTC)终端设备、物联网(internet of things,IoT)终端设备、订户单元(subscriber unit)、订户站(subscriber station),移动站(mobile station)、远程站(remote station)、接入点(access point,AP)、远程终端(remote terminal)、接入终端(access terminal)、用户终端(user terminal)、用户代理(user agent)、或用户装备(user device)等。例如,可以包括移动电话(或称为“蜂窝”电话),具有移动终端设备的计算机,便携式、袖珍式、手持式、计算机内置的移动装置等。例如,个人通信业务(personalcommunication service,PCS)电话、无绳电话、会话发起协议(session initiationprotocol,SIP)话机、无线本地环路(wireless local loop,WLL)站、个人数字助理(personal digital assistant,PDA)、等设备。还包括受限设备,例如功耗较低的设备,或存储能力有限的设备,或计算能力有限的设备等。例如包括条码、射频识别(radiofrequency identification,RFID)、传感器、全球定位系统(global positioning system,GPS)、激光扫描器等信息传感设备。
作为示例而非限定,在本申请实施例中,该终端设备还可以是可穿戴设备。可穿戴设备也可以称为穿戴式智能设备或智能穿戴式设备等,是应用穿戴式技术对日常穿戴进行智能化设计、开发出可以穿戴的设备的总称,如眼镜、手套、手表、服饰及鞋等。可穿戴设备即直接穿在身上,或是整合到用户的衣服或配件的一种便携式设备。可穿戴设备不仅仅是一种硬件设备,更是通过软件支持以及数据交互、云端交互来实现强大的功能。广义穿戴式智能设备包括功能全、尺寸大、可不依赖智能手机实现完整或者部分的功能,例如:智能手表或智能眼镜等,以及只专注于某一类应用功能,需要和其它设备如智能手机配合使用,如各类进行体征监测的智能手环、智能头盔、智能首饰等。
而如上介绍的各种终端设备,如果位于车辆上(例如放置在车辆内或安装在车辆内),都可以认为是车载终端设备,车载终端设备例如也称为车载单元(on-board unit,OBU)。
(2)网络设备,例如包括接入网(access network,AN)设备,例如基站(例如,接入点),可以是指接入网中在空口通过一个或多个小区与无线终端设备通信的设备,或者例如,一种V2X技术中的接入网设备为路侧单元(road side unit,RSU)。基站可用于将收到的空中帧与网际协议(IP)分组进行相互转换,作为终端设备与接入网的其余部分之间的路由器,其中接入网的其余部分可包括IP网络。RSU可以是支持V2X应用的固定基础设施实体,可以与支持V2X应用的其他实体交换消息。接入网设备还可协调对空口的属性管理。例如,接入网设备可以包括长期演进(long term evolution,LTE)系统或高级长期演进(long termevolution-advanced,LTE-A)中的演进型基站(NodeB或eNB或e-NodeB,evolutional NodeB),或者也可以包括第五代移动通信技术(the 5th generation,5G)的新无线(new radio,NR)系统中的下一代节点B(next generation node B,gNB)和下一代演进型基站(nextgeneration evolutional Node B,ng-eNB),或者也可以包括分离式接入网系统中的集中单元(central unit,CU)和分布式单元(distributed unit,DU),本申请实施例并不限定。
当然网络设备还可以包括核心网设备,可以是接入和移动性管理功能(accessand mobility management function,AMF),主要负责接入控制、移动性管理、附着与去附着以及网关选择等功能。核心网设备还可以是网络数据分析功能(network dataanalytics function,NWDAF),主要负责数据的收集、分析等功能。核心网设备还可以是其它设备。
(3)AI,是指通过计算机程序来呈现人类智能的技术,是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,AI是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
(4)ML,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
机器学习的本质就是让计算机模拟上述过程,让计算机“学习”,从而获得某种认知,通过这种认知判断新的事物,这种认知可以通过“机器学习模型”体现,用数学表示可以理解为是一个函数。
(5)机器学习模型,本申请实施例中对其不加以区分人工智能和机器学习,可以将机器学习模型表示为ML模型或者AI模型。本申请实施例中的机器学习模型是泛指AI领域和ML领域中的AI模型和ML模型,举例来说,机器学习模型例如包括线性回归(linearregression)、逻辑回归(logistic regression)、决策树(decision tree)、朴素贝叶斯(naive bayes)、K-近邻(k-nearest neighbors)、支持向量机(support vectormachines)、深度神经网络(deep neutral network)、随机森林(random forest)等。
(6)联邦学习(federated learning,FL),是一种新兴的人工智能基础技术,是一种加密的分布式ML技术,其设计目标是在保障大数据交换时的信息安全、保护终端数据和个人数据隐私、保证合法合规的前提下,在多参与方或多计算结点之间开展高效率的机器学习。其中,联邦学习可使用的机器学习算法不局限于神经网络,还包括随机森林等算法。联邦学习有望成为下一代人工智能协同算法和协作网络的基础。
联邦学习是在满足数据隐私、安全和监管要求的前提下,设计的一个机器学习框架,让人工智能系统能够更加高效、准确的共同使用各自的数据,满足用户的隐私保护和数据安全。联邦学习的特点包括:
数据隔离,数据不会泄露到外部,满足用户隐私保护和数据安全的需求;
能够保证模型质量无损,不会出现负迁移,保证联邦模型比割裂的独立模型效果好;
各参与者地位对等,能够实现公平合作;
能够保证各参与方在保持独立性的情况下,进行信息与模型参数的加密交换,并同时获得成长。
(7)“至少一个”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B的情况,其中A、B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。
以及,除非有相反的说明,本申请实施例提及“第一”、“第二”等序数词是用于对多个对象进行区分,不用于限定多个对象的顺序、时序、优先级或者重要程度。例如,第一信息和第二信息,只是为了区分不同的信令,而并不是表示这两种信息的内容、优先级、发送顺序或者重要程度等的不同。
如上介绍了本申请实施例涉及的一些概念,下面介绍本申请实施例的技术特征。
如前所述的,对于相关技术中的机器学习模型,为避免用户的隐私数据泄露,网络设备先向各个终端设备分发初始的机器学习模型,各个终端设备一般是在本地利用其自身的数据对网络设备分发的机器学习模型的训练,然后再将训练之后得到的模型更新参数发送给网络设备,再由网络设备对各个参与方(即前述的各个终端设备)发送的模型更新参数进行汇聚,进而对网络设备本地的机器学习模型直接进行更新,以得到更新的机器学习模型。举例来说,可以采用FL的方式来进行机器学习模型的更新,FL的主要特点是各参与方的数据都保留在本地,不需要上传到网络设备,从而不泄露数据隐私,也减少了海量数据上传所需的网络开销。
相关技术中,无线通信网络中利用FL进行机器学习模型(例如ML模型)更新的流程如图1所示:
S11、网络设备向参与方终端设备1~N发送初始ML模型。为了描述方便,把ML模型用y=W0x+b表示,其中W0为ML模型的初始参数。
S12、终端设备1~N基于各自本地的训练数据集,对ML模型进行训练,即对ML模型进行更新,得到更新后的模型参数W1 0~WN 0,或者得到更新后的模型参数差值g1=W1 0-W0、……、gN=WN 0-W0,模型参数差值g1、……、gN也称之为梯度。
S13、终端设备1~N将更新后的模型更新参数或者梯度发送给网络设备,例如,将W1 0~WN 0发送给网络设备,或者将g1~gN发送给网络设备。
S14、网络设备在收到所有参与方(即终端设备1~N)发送的模型更新参数后,对各个参与方的模型更新参数进行加权平均,从而得到汇聚后的ML模型更新参数,再通过汇聚后的ML模型更新参数对网络设备本地的ML模型进行更新。例如,网络设备计算更新后的ML模型更新参数为W=(W1 0*p1+W2 0*p2+…+WN 0*pN)/N,并且用W替代原来的W0。或者,网络设备计算更新后的ML模型更新参数差值为g=(g1*p1+g2*p2+…+gN*pN)/N,从而得到更新后的ML模型参数为W=g+W0,并且用W替代原来的W0。其中,p1、p2、……、pN表示权重,例如p1是指W1 0或g1的权重、p2是指W2 0或g2的权重、……、pN是指WN 0或gN的权重,所有权重的和为1,即p1+p2+……+pN=1。
在上述图1所示的流程中,由于终端设备1~N中的各个终端设备本地用来进行ML模型训练的数据不同,由于各个终端设备进行ML模型训练的能力一般也不同,并且在训练过程中,各个终端设备用于训练的配置信息是由各个终端设备自行配置的,或者是由各个终端设备的用户手动配置的,也就是说,各个终端设备用于训练的配置信息是相互独立的配置的,这导致各个终端设备完成ML模型训练的时间一般也不一样,存在较大差异,为了便于网络设备能够尽快地进行ML模型更新,所以各个终端设备在得到模型更新参数之后一般会及时地上报给网络设备,由于各个终端设备上报各自的模型更新参数的时间差异性,且网络设备需要得到所有参与方上报的模型更新参数之后才能进行模型更新,所以需要等到最后一个上报的模型更新参数之后才能进行模型更新,此时距离收到第一个模型更新参数的时刻可能已经间隔了较长时间,这无疑是增大了网络设备进行模型更新所花费的时间,导致网络设备对机器学习模型更新的收敛速度较慢,对机器学习模型的更新效率也就较低。
通过对相关技术进行分析,发明人发现导致网络设备对机器学习模型进行本地更新的效率较慢的主要原因,是由于终端设备用于训练的配置信息并未考虑各个终端设备之间的差异,例如设备能力的差异、训练数据的差异等,各个终端设备在配置本地训练用的配置信息时相互之间是完全孤立的,所以导致各个终端设备完成本地训练的时间先后不一,差异较大。鉴于此,本申请实施例提供一种更新机器学习模型的方法,在该方法中,由网络侧统一为各个终端设备配置训练用的配置信息(本申请实施例中称作模型训练配置信息),具体来说,网络设备根据各个终端设备的计算能力为各个终端设备分配对应的模型训练配置信息,使得各个终端设备对本地的由网络设备预先分发的机器学习模型进行训练时所使用的模型训练配置信息是与自身的计算能力相匹配的,这样可以尽量减少各个终端设备在进行模型训练时由于能力差异而导致的时间差异,进而确保各个终端设备能够尽量在相同时间内完成模型训练,使得各个终端设备上报各自的模型更新参数的时间是大致相同的,从而减少各个终端设备上报模型更新参数时间上的差异性,以便于网络设备基于各个终端设备上报的模型更新参数进行模型更新时能够尽量在短时间内完成,以提高模型更新的收敛速度,从而提高机器学习模型的更新效率。
本申请实施例提供的技术方案可以应用于第四代移动通信技术(the 4thgeneration,4G)4G系统中,例如LTE系统,或可以5G系统中,例如NR系统,或者还可以应用于下一代移动通信系统或其他类似的通信系统,具体的不做限制。
本申请实施例中进行训练和更新的机器学习模型可以是AI领域的一些通用模型,例如前述的线性回归、逻辑回归、决策树、朴素贝叶斯、K-近邻、支持向量机、深度神经网络、随机森林等,本申请实施例对此不作限制。此外,各个参与模型训练的终端设备(如图1中的终端设备1~N)中的进行训练的机器学习模型是由网络设备预先统一分发的,也就是说,各个终端设备中进行模型训练的机器学习模型是同一种类型,以及,网络设备利用各个终端设备上报的模型更新参数进行模型更新的机器学习模型与各个终端设备中进行模型训练的机器学习模型也是同一种类型。
下面介绍本申请实施例所应用的一种网络架构,请参考图2。
图2为本申请实施例提供的一种系统架构示意图。如图2所示,该通信系统包括核心网设备、第一接入网设备、第二接入网设备和终端设备。其中,第一接入网设备或者第二接入网设备能够与核心网设备进行通信;终端设备能够与第一接入网设备或者第二接入网设备进行通信,终端设备也能够与第一接入网设备和第二接入网设备同时进行通信,即多无线双连接(multi radio dual connectivity,MR-DC)。在MR-DC场景下,第一接入网设备可为主接入网设备,第二接入网设备可为辅接入网设备,或者,第二接入网设备可为主接入网设备,第一接入网设备可为辅接入网设备,其中,第一接入网设备和第二接入网设备可为不同通信制式的接入网设备,也可为相同通信制式的接入网设备。
可以理解的,前述图2所示的通信系统,仅仅是为了更加清楚的说明本申请实施例的技术方案,并不构成对于本申请实施例提供的技术方案的限定。例如,该通信系统中还可以包括其他设备,如:网络控制设备。网络控制设备可以是操作管理维护(operationadministration and maintenance,OAM)系统,也称之为网管系统。网络控制设备可以对前述第一接入网设备、第二接入网设备和核心网设备进行管理。
另外,本领域普通技术人员可知,随着网络架构的演变和新业务场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
图2中的核心网设备可以是AMF或NWDAF,但是并不限于AMF和NWDAF。图2中的接入网设备,又可以称作无线接入网(radio access network,RAN)设备,是一种将终端设备接入到无线网络的设备,可以为终端设备提供无线资源管理、服务质量管理、数据加密和压缩等功能。示例性地,接入网设备可以包括以下设备:
gNB:为终端设备提供NR的控制面和/或用户面的协议和功能,并且接入到5G核心网(5th generation core,5GC);
ng-eNB:为终端设备提供演进的通用陆地无线接入(evolved universalterrestrial radio access,E-UTRA)的控制面和/或用户面的协议和功能,并且接入到5G核心网;
CU:主要包括gNB的无线资源控制(radio resource control,RRC)层,业务数据适配协议(service data adaptation protocol,SDAP)层和分组数据汇聚协议(packet datadonvergence protocol,PDCP)层,或者ng-eNB的RRC层和PDCP层;
DU:主要包括gNB或者ng-eNB的无线链路控制(radio link control,RLC)层,媒体接入控制(media access control,MAC)层和物理层;
集中单元-控制平面(central unit–control plane,CU-CP):CU的控制面,主要包括gNB-CU或者ng-eNB-CU中的RRC层,以及PDCP层中的控制面;
集中单元-用户平面(central unit–user plane,CU-UP):CU的用户面,主要包括gNB-CU或者ng-eNB-CU中的SDAP层,以及PDCP层中的用户面;
数据分析管理(data analysis and management,DAM):主要负责数据收集、ML模型训练、ML模型生成、ML模型更新、ML模型分发等功能。
图3为一种分离式接入网设备的架构示意图。接入网设备按照功能切分为一个CU和一个或多个DU,其中CU和DU之间通过F1接口相连接。进一步的,一个CU可以包括一个CU-CP和一个或者多个CU-UP。CU-CP和CU-UP之间可以通过E1接口进行连接,CU-CP和DU之间可以通过F1的控制面接口(F1-C)进行连接,CU-UP和DU之间可以通过F1的用户面接口(F1-U)进行连接。进一步的,CU、DU或者CU-CP可以分别通过G1接口和DAM进行连接。可选的,DAM可以分别作为CU、DU或者CU-CP的内部功能,此时不存在G1接口(或者说G1接口为内部接口,对外不可见)。
为进一步说明本申请实施例提供的技术方案,下面结合附图以及具体实施方式对此进行详细的说明。虽然本申请实施例提供了如下述实施例或附图所示的方法操作步骤,但基于常规或者无需创造性的劳动在所述方法中可以包括更多或者更少的操作步骤。在逻辑上不存在必要因果关系的步骤中,这些步骤的执行顺序不限于本申请实施例提供的执行顺序。所述方法在实际的处理过程中或者装置执行时,可按照实施例或者附图所示的方法顺序执行或者并行执行。
下面结合附图介绍本申请实施例提供的技术方案。
本申请实施例提供一种更新机器学习模型的方法,请参见图4,为该方法的流程图。在下文的介绍过程中,以该方法应用于图2所示的网络架构为例,下文介绍过程中的网络设备可以是前述提到的接入网设备,或者核心网设备,或者网络控制设备。需要说明的是,图4是以一个终端设备为例对本申请的技术方案进行说明,在具体实施过程中,对于作为模型训练的其它各个参与方,均可以按照图4所示的流程理解。
S41、网络设备获取终端设备的计算能力。
其中,终端设备的计算能力,也可以称为算力,可以理解为是用于指示或者评估终端设备处理数据的速度的能力,例如是终端设备计算哈希函数时输出的速度,具体例如可以用每秒浮点运算次数(floating point operations per second,FLOPS)来表示。终端设备的计算能力与处理数据的速度呈正相关,例如计算能力越大,处理数据的速度就越快,那么在进行模型训练时的速度一般也越快。终端设备的计算能力与终端设备自身的硬件配置性能、操作系统运行的流畅性等因素有关。
在具体实施过程中,网络设备可通过以下方式中的任意一种获取终端设备的计算能力。
方式1
终端设备主动向网络设备上报自身的计算能力。在该方式中,终端设备可以向网络设备发送用于指示终端设备的计算能力的第一算力指示信息,该第一算力指示信息中还可以包括终端设备的标识,网络设备在接收到第一算力指示信息之后,即可根据第一算力指示信息确定出终端设备对应的计算能力。在一种可能的实施方式中,终端设备可以通过UE辅助信息(UE assistance information)消息向网络设备报告该终端设备的计算能力。
终端设备可以在注册到网络设备时就主动向网络设备上报自身的计算能力,或者也可以是在接收到网络设备为其分发初始机器学习模型的时候就主动上报自身的计算能力信息,或者还是可以是在其它时刻主动上报自身的计算能力,本申请实施例不做限制。通过各个终端设备主动上报自身的计算能力的方式,网络设备可以提前就获取各个终端设备的算力情况,以便于后续可以及时地为各个终端设备分配对应的模型训练配置信息,提高分配效率。
方式2
终端设备根据网络设备的请求向网络设备上报自身的计算能力。在该方式中,在需要获取终端设备的计算能力时,网络设备可以向终端设备发送计算能力获取请求,该计算能力获取请求用于指示终端设备向网络设备上报自身的计算能力,所以,在收到网络设备发送的计算能力获取请求之后,终端设备可以向网络设备发送用于指示终端设备的计算能力的第二算力指示信息,网络设备在接收到终端设备发送的第二算力指示信息之后,即可获取到该终端设备的计算能力。
在一种具体的实施方式中,网络设备向终端设备发送UE能力查询(UE capabilityenquiry)消息,用于请求获取终端设备的计算能力,进一步地,终端设备向网络设备发送UE能力信息(UE capability information)消息,该消息中包含有终端设备的计算能力。
在该方式中,网络设备在需要终端设备的计算能力时才去请求,这样可以无需预先就将各个终端设备的计算能力存储在本地,可以在一定程度上减少存储消耗,并且能够有效使用终端设备的计算能力。
方式3
网络设备从其它网络设备处获取终端设备的计算能力。在该方式中,其它网络设备可以主动向该网络设备发送终端设备的计算能力,或者,网络设备也可以先向其它网络设备发送请求,其它网络设备基于该网络设备的请求向该网络设备返回终端设备的计算能力,例如其它网络设备通过第三算力指示信息向该网络设备指示终端设备的计算能力。
例如网络设备是接入网设备,则可以从其它接入网络设备或者核心网设备或者网络控制设备处获取终端设备的计算能力,又例如网络设备是核心网设备,则可以从接入网设备或者网络控制设备处获取终端设备的计算能力。当然,该方式的实施前提是,其它网络设备自身保存有终端设备的计算能力,或者,其它网络设备能够获取到终端设备的计算能力。
该实施方式中提供了三种获取终端设备的计算能力的方式,如此可以提高获取终端设备的计算能力的方式的灵活性。
S42、网络设备根据终端设备的计算能力,确定终端设备对应的模型训练配置信息。
其中,模型训练配置信息是终端设备对本地的机器学习模型进行训练所需的配置信息,换言之,模型训练配置信息是用于终端设备对本地的机器学习模型进行模型训练的。
如前所述的,可以通过终端设备的计算能力来评估终端设备处理数据的速度,为了减少各个终端设备对本地的机器学习模型进行训练的时间差异性,本申请实施例中,网络设备通过各个终端设备的计算能力来为各个终端设备分配对应的模型训练配置信息,基于这样的分配机制,可以尽量确保各个终端设备能够在大致相同时长内完成模型训练,例如,对于计算能力较差的终端设备,则可以为其配置较低要求的模型训练配置信息,对于计算能力较好的终端设备,可以为其配置要求相对较高的模型训练配置信息,这样,使得计算能力较差的终端设备和计算能力较好的终端设备完成模型训练的时间是大致一样的,从而减少各个终端设备完成模型训练的时间之间的差异。
S43、网络设备将确定的模型训练配置信息发送给终端设备。
在根据终端设备的计算能力确定了对应的模型训练配置信息之后,网络设备将其发送给对应的终端设备,从而,终端设备可以接收到网络设备发送的模型训练配置信息。
S44、终端设备根据模型训练配置信息对该终端设备中的第一机器学习模型进行训练,以得到模型更新参数。
如前所述的,各个终端设备中进行本地训练的机器学习模型是由网络设备预先分发的,本申请实施例中,终端设备本地的机器学习模型称作第一机器学习模型,网络设备本地的机器学习模型称作第二机器学习模型,所以,第一机器学习模型是由网络设备为终端设备分发的。第一机器学习模型和第二机器学习模型是同一种类型的机器学习模型,或者,第一机器学习模型和第二机器学习模型是不同类型的机器学习模型,为便于网络设备根据各个终端设备上报的模型更新参数信息进行本地的模型更新,第一机器学习模型和第二机器学习模型是相同类型的机器学习模型。
在收到网络设备发送的模型训练配置信息之后,终端设备可以根据该模型训练配置信息对终端设备中的第一机器学习模型进行本地训练,在完成模型训练之后,即可得到对应的模型更新参数,所以,这里的模型更新参数是利用模型训练配置信息对第一机器学习模型进行训练后得到的更新参数。其中,模型更新参数是被训练过的第一机器学习模型的模型参数。
在另一种可能的实施方式中,网络设备向终端设备发送模型训练配置信息之外,还可以向终端设备指示利用模型训练配置信息开始进行本地训练的时间,例如指示终端设备在特定时刻才开始本地训练,或者指示终端设备在接收到模型训练配置信息后的预定时长后就开始本地训练,或者还可以指示在其它时刻(例如15:00:00)开始本地训练,这样,网络设备可以较为严格的控制各个终端设备进行本地训练的开始时间,这样可以确保各个终端设备开始进行本地训练的时间是尽量一致的,进一步地减少各个终端设备完成本地训练的时间差异。
对于模型训练的具体方式,可以采用相关技术中的各种训练方式,本申请实施例不做限制。
S45、终端设备将得到的模型更新参数发送给网络设备。
需要说明的是,本申请实施例中的模型更新参数,包括模型更新参数其参数本身以及其对应的参数值,举例来说,有a、b、c三种模型更新参数,终端设备要向网络设备发送者三种模型更新参数,是向网络设备发送a、b、c这三种模型更新参数以及各种模型更新参数的参数值,例如a的参数值是1.5、b的参数值是2.6、c的参数值是2.4。
各个终端设备使用本地的训练数据各自使用网络设备根据其自身的计算能力配置的模型训练配置进行本地训练得到的模型更新参数不同,具体是值模型更新参数的参数值不同,而各个终端设备进行本地训练得到的模型更新参数的类型一般都是相同的。例如,对于终端设备1、终端设备2、终端设备3,在分别使用网络设备为其配置的模型训练配置信息进行本地训练之后均得到了模型更新参数a、模型更新参数b、模型更新参数c,而终端设备1得到的这三种模型更新参数的参数值分别是1.3、1.8、2.4,终端设备2得到的这三种模型更新参数的参数值分别是1.6、1.4、2.8、终端设备3得到的这三种模型更新参数的参数值分别是1.9、1.3、2.7,可见,三个终端设备进行本地训练之后均获得了同样类型的模型更新参数,而各个模型更新参数对应的参数值却不同。
在得到与模型训练配置信息对应的模型更新参数后,终端设备将其发送给网络设备,进而,网络设备可以收到终端设备发送的该模型更新参数。
在本申请实施例中,终端设备向网络设备发送的模型更新参数可能包括多种类型,例如,可以是具体的更新后的模型参数Wi 0,或者可以是更新后的模型参数差值gi=Wi 0-W0,其中,i为1~N中的任意一个数值,N的取值为网络设备为其配置模型训练配置信息的终端设备的总数,所以Wi 0表示网络为其配置模型训练配置信息的第i个终端设备得到的模型更新参数,gi表示网络设备为其配置模型训练配置信息的第i个终端设备得到的模型更新参数差值。
在第一种实施方式中,终端设备在得到模型更新参数之后则立刻主动发送给网络设备,以便于网络设备能够尽快地获得终端设备反馈的模型更新参数。在该方式中,网络设备可以通过模型训练配置信息来尽量使得各个终端设备进行本地训练所花的时间是一致的,这样在各个终端设备的本地训练完成得到模型更新参数之后,都可及时地将其上报给网络设备,从而也就减少了网络设备获得各个终端设备发送的模型更新参数的时间差异性。
在第二种实施方式中,终端设备在得到模型更新参数之后并不立刻主动发送给网络设备,而是在满足特定的触发条件时才向网络设备发送模型更新参数,以下举例说明。
情形1:终端设备在接收到网络设备向其发送的用于指示终端设备向网络设备发送模型更新参数的获取请求之后,才将得到的模型更新参数发送给网络设备,也就是说,一种可能的触发条件是终端设备接收到网络设备发送的获取请求,在该触发条件下,终端设备是在网络设备主动请求时才向其发送模型更新参数。在该实施方式中,网络设备可以先确定向终端设备请求模型更新参数的时间点,即可以先确定向终端设备发送前述的获取请求的时间点,然后在确定的时间点时向终端设备发送获取请求,以主动向终端设备请求该终端设备得到的模型更新参数,这样,网络设备可以明确控制向各个终端设备请求模型更新参数的时间,在通过模型训练配置信息减少各个终端设备完成本地训练的时间差异的基础上,可以进一步地减少各个终端设备上报模型更新参数的时间差异,从而减少网络设备实际获取到各个终端设备发送的模型更新参数的时间差异。
情形2:网络设备可以直接向终端设备指示上报模型更新参数的时间点,具体来说,网络设备可以向终端设备发送用于指示终端设备向网络设备发送模型更新参数的时间点的上报时间信息,终端设备在收到该上报时间信息之后,可以在该上报时间信息所指示的时间点向网络设备发送模型更新参数,也就是说,另一种可能的触发条件是到达网络设备向终端设备发送的上报时间信息所指示的时间,在该触发条件下,终端设备是根据网络设备的指示向网络设备定时上报模型更新参数。在该实施方式中,网络设备可以明确控制各个终端设备上报模型更新参数的具体时间,在通过模型训练配置信息减少各个终端设备完成本地训练的时间差异的基础上,可以进一步地减少各个终端设备上报模型更新参数的时间差异,从而减少网络设备实际获取到各个终端设备发送的模型更新参数的时间差异。
通过各个终端设备对应的模型训练配置信息,网络设备可以确定各个终端设备完成各自的本地训练的时间点,进而可以在此基础上,直接确定上述情形1中的时间点以及情形2中通过上报时间信息所指示的时间点,例如,网络设备确定各个终端设备大概是16:05:00左右完成本地训练,则可以在16:06:00向各个终端设备发送获取请求,以及可以指示各个终端设备在16:06:30向网络设备发送模型更新参数,这样,不仅可以减少各个终端设备上报各自的模型更新参数的时间差异,同时可以尽快地获取到模型更新参数,在提高本地模型更新的效率的基础上,可以尽量提前进行模型更新,提高模型更新的及时性。对于上述的情形1和情形2,在另一种实施方式中,网络设备可以先确定参与本地训练的大部分或者全部终端设备中的各个终端设备向网络设备发送各自的模型更新参数的传输时长,再根据各个终端设备对应的各个传输时长确定获取该终端设备的模型更新参数的获取时间,即确定前述所说的发送获取请求的时间点。
其中,传输时长可以理解为是从终端设备处发送模型更新参数到网络设备接收到该模型更新参数之间的间隔时长,这与各个终端设备与网络设备之间的通信链路质量有关,所以在一种可能的实施方式中,网络设备可以根据终端设备发送的信道质量指示(channel quality indicator,CQI)获得该终端设备的上行传输速率,然后根据模型更新参数的数据量和上行传输速率确定该终端设备对应的传输时长,例如以w表示终端设备的上行传输速率,以q表示该终端设备的模型更新参数的数据量,则对应该终端设备的传输时长T=q/w。按照此方法,可以确定各个终端设备对应的传输时长,然后根据大部分终端设备(例如80%)或者全部终端设备所对应的传输时长确定向该终端设备发送获取请求的时间点,或者确定各个终端设备向网络设备发送模型更新参数的时间点。
对于上述的传输时长的计算公式T=q/w,其中的q表示对应的终端设备向网络设备发送模型更新参数的数据量。由于各个终端设备中进行本地训练的机器学习模型是由网络设备预先统一分发的,所以各个终端设备训练完成后得到的模型更新参数对于网络设备来说是已知的,进而,网络设备可以知晓各个模型更新参数的数据量.在一种实施方式中,终端设备向网络设备传输所有模型更新参数,那么网络设备在知晓各个模型更新参数的数据量的基础上可以估算出所有模型更新参数的总数据量,得到前述的q;在另一种实施方式中,网络设备可以终端设备请求指定类型的模型更新参数,在知晓所指定的各个模型更新参数的数据量的基础上,网络设备可以估算出所有指定的模型更新参数的总数据量,得到前述q。
也就是说,网络设备可以主动向各个终端设备请求模型更新参数,并且是在与各个终端设备匹配的时间点向对应的各个终端设备发送用于请求模型更新参数的获取请求或者指示终端设备在匹配的时间点向网络设备上报模型更新参数,如此,综合考虑了大部分甚至是全部参与方的传输模型更新参数所需的时间,可以更为精确地控制各个终端设备上报各自的模型更新参数的时间,减少了各个终端设备向网络设备上报模型更新参数的时间差异,从而减少网络设备获取各个终端设备发送的模型更新参数的时间差异,进而提高本地模型更新的收敛速度,提高模型更新效率。
例如,终端设备1对应的传输时长为10分钟,终端设备2对应的传输时长为15分钟小时,终端设备3对应的传输时长为22分钟,终端设备4对应的传输时长为28分钟,则网络设备可以在10:00的时候向终端设备4发送获取请求,在10:06的时候向终端设备3发送获取请求,在10:13的时候向终端设备2发送获取请求,在10:18的时候向终端设备1发送获取请求。也就是说,可以向传输时长越长的终端设备越提前发送获取请求,以及向传输时长越短的终端设备越后发送获取请求,这样,可以让传输时长越长的终端设备越早接收到获取请求后尽早地开始向网络设备发送模型更新参数,同理,可以指示传输时长越长的终端设备越早发送模型更新参数,以及指示传输时长越短的终端设备越晚发送模型更新参数,通过该方式,通过提前开始发送模型更新参数来弥补较长的传输时长,减少各个终端设备传输模型更新参数的时间差异性,使得网络设备能够在相同(或者尽量相同)的时间内接收到各个终端设备的模型更新参数,从而减少网络设备接收各个终端设备的模型更新参数的时间差异性。
在本申请实施例中,一般来说,各个终端设备通过FL的方式进行本地的模型训练时,各个终端设备得到的模型更新参数的类型是一样的,并且网络设备也是知晓的,因为各个终端设备进行本地训练的机器学习模型的初始模型是由网络设备分发给各个终端设备的。终端设备通过网络设备发送的模型训练配置信息进行本地训练得到的模型更新参数,终端设备可以向网络设备发送参数可用性指示信息,通过该参数可用性指示信息可以指示终端设备中的模型更新参数的可用性,终端设备在完成对机器学习模型的本地训练之后,终端设备的模型更新参数都是可用的,所以,通过参数可用性指示信息还可以指示终端设备已经完成了本地的机器学习模型的训练,换言之,终端设备可以通过参数可用性指示信息告知网络设备自身已经完成了机器学习模型的本地训练这一事件。例如,参数可用性指示信息可以携带在终端设备向网络设备发送的RRC重建立完成(RRC reestablishmentcomplete)消息、RRC重配置完成(RRC reconfiguration complete)消息、RRC恢复完成(RRCresume complete)消息、RRC建立完成(RRC setup complete)消息、UE信息响应(UEinformation response)消息、非接入层(non-access stratum,NAS)消息等消息中的任意一种消息中,即,终端设备可以通过前述的任意一种消息向网络设备告知该终端设备中的模型更新参数的可用性。
对于上述的第一种实施方式,即对于终端设备主动上报模型更新参数的方式,通过参数可用性指示信息的指示,网络设备可以明确终端设备中可用的全部模型更新参数,进而将终端设备上报的模型更新参数进行比较,可以判断终端设备是否漏传了某些模型更新参数或者传输过程中是否由于传输异常而导致模型更新参数获取不全,从而可以提高获取模型更新参数的完整性和准确性。
对于上述的第二种实施方式,根据参数可用性指示信息的指示,网络设备通过获取请求向终端设备请求模型更新参数时,可以按照网络设备的实际需求获取指定类型的模型更新参数,所以可选的,前述的获取请求还可以用于指示网络设备需要获取指定的模型更新参数,例如终端设备中的模型更新参数a,b,c,d均可用,而网络设备仅请求其中的模型更新参数a,b,c,这样可以减少终端设备传输的模型更新参数,减少了终端设备传输模型更新参数所花费的时间,并且可以减少无效传输,节约了网络传输资源,减少了空口资源的开销。在另一种实现方式中,或者还可以通过其它方式向终端设备指示网络设备需要的指定的模型更新参数,例如,可以用获取请求之外的消息来指示指定的模型更新参数。
S46、网络设备根据模型更新参数对该网络设备中的机器学习模型进行更新。
如前面图1介绍的那样,网络设备是向多个终端设备分别配置了对应的模型训练配置信息,所以网络设备除了接收到上述终端设备发送的模型更新参数之外,还可以接收其他终端设备发送的其它模型更新参数,并且通过计算能力为各个终端设备配置模型训练配置信息的方式,可以尽量减少网络设备接收多个终端设备反馈的模型更新参数所需要时间的差异性。
例如,网络设备分别根据终端设备1、终端设备2、终端设备3各自的计算能力,为终端设备1、终端设备2、终端设备3分别配置了第一模型训练配置参数、第二模型训练配置参数、第三模型训练配置参数,终端设备1根据第一模型训练配置信息对终端设备1中的机器学习模型进行本地训练之后得到第一模型更新参数,终端设备2根据第二模型训练配置信息对终端设备2中的机器学习模型进行本地训练之后得到第二模型更新参数,终端设备3根据第三模型训练配置信息对终端设备3中的机器学习模型进行本地训练之后得到第三模型更新参数。由于各个终端设备进行本地训练的模型训练配置信息是根据网络设备根据各自的计算能力对应分配的,所以终端设备1、终端设备2、终端设备3完成本地训练的时间可以是大致相同的,进一步地,各个终端设备在训练完成后就将各自得到的模型更新参数发送给网络设备,网络设备则可以在大致相同的时间内接收到各个终端设备发送的模型更新参数,从而减少了网络设备接收多个终端设备的模型更新参数所需时间的差异性。
进一步地,在获得各个参与方(即网络设备向其发送模型训练配置信息的各个终端设备)反馈的模型更新参数之后,网络设备可以按照前述图1对应实施例部分介绍的方法,对所有模型更新参数进行汇聚处理,然后再以汇聚处理后的模型更新参数对网络设备本地的机器学习模型进行更新,即,对网络设备中的机器学习模型进行本地更新。由于通过计算能力配置模型训练参数的方式,可以减少网络设备接收多个终端设备的模型更新参数所需时间的差异性,网络设备在对本地的机器学习模型进行更新时可以快速收敛,提高模型更新效率。
需要说明的是,网络设备是利用得到的模型更新参数对本地的机器学习模型进行参数更新,训练数据是在各个终端设备本地,各个终端设备无需向网络设备传输训练数据,所以通过FL的方式可以确保用户数据安全,避免用户隐私泄露。另外,传输模型更新参数的数据量一般是要远小于训练数据的,这样可以在较大程度上减少网络传输开销,从而节约网络传输资源。
如前所述的,模型训练配置信息是用于终端设备对本地的机器学习模型进行训练的信息,可以这样理解,模型训练配置信息是指示终端设备如何进本地模型训练的信息。本申请实施例中的模型训练配置信息可以包括一种信息或多种信息的组合,举例来说,模型训练配置信息包括超参数(hyper parameters)、精度(accuracy)、训练时间信息中的一种信息或多种信息的组合。本申请实施例中,网络设备为终端设备配置的模型训练配置信息是终端设备进行模型训练常规使用的,这样一般可以满足大多数终端设备进行本地模型训练的配置需求,通用性较好。
为便于理解,以下对模型训练配置信息包括不同信息的情形进行说明。
第一种情形
模型训练配置信息为超参数。即,网络设备根据终端设备的计算能力为该终端设备选择对应合适的超参数,然后将选择的超参数发送给终端设备,终端设备根据该超参数对本地的机器学习模型进行本地训练,然后将得到的模型更新参数反馈给网络设备。
机器学习模型涉及两个基本的概念,一个是参数,另一个是超参数(hyperparameters)。其中,参数(parameters)是由模型通过学习得到的变量,比如权重w和偏置b;超参数是依据经验进行设定,影响到模型参数(例如权重w和偏置b)大小的参数,超参数是在开始学习过程之前设置值的参数,而不是通过模型训练得到的参数数据,通俗的理解,超参数也是一种参数,它具有参数的特性,但是它不是通过学习得到的,比如可以由用户根据已有或现有的经验指定它的值。也就是说,超参数是可以影响模型参数的参数,所以,超参数设置的值能够直接影响模型训练的效果,所以,根据终端设备的计算能力为其设置对应适合的超参数能够尽量控制终端设备本地训练所花费的时间。
本申请实施例中的超参数可以包括学习率(learning rate)、批次大小(batchsize)、迭代次数(iteration)、训练轮数(epoch)中的至少一种,即可以包括前述几种具体的超参数中的一种或多种。其中:
学习率:机器学习模型更新时,例如会产生很多随机的决策树,每棵决策树的权重不同,学习率决定了权重更新的幅度大小。学习率过小,则导致机器学习模型收敛速度偏慢,需要更长的时间训练。例如,网络设备根据机器学习模型所需的计算能力,设置一定的阈值(例如称作第一阈值),如果终端设备的计算能力大于或等于该第一阈值,则为该终端设备选取较小的学习率,例如0.0001;如果终端设备的计算能力小于该第一阈值,则为该终端设备选取较大的学习率,例如0.01。
批次大小:是指每次训练时送入机器学习模型的样本数,即一次训练时所需的样本数,例如一次训练时用到100个样本数,则batch size为100。网络设备根据机器学习模型所需的计算能力,设置一定的阈值(例如称作第二阈值),如果终端设备的计算能力大于或等于该第二阈值,则为该终端设备选取较大的batch size,例如128;如果终端设备的计算能力小于该第二阈值,则为该终端设备选取较小的batch size,例如16。
迭代次数:是指整个训练集输入到机器学习模型进行训练的次数。实现方式1:网络设备根据机器学习模型所需的计算能力,设置一定的阈值(例如称作第三阈值),如果终端设备的计算能力大于或等于该第三阈值,则为该终端设备选取较大的iteration,例如10000;如果终端设备的计算能力小于该第三阈值,则为该终端设备选取较小的iteration,例如1000。实现方式2:网络设备根据机器学习模型所需的计算能力和终端设备的计算能力,计算得到该终端设备的iteration,例如,机器学习模型一次迭代所需的计算能力为M,终端设备的计算能力为P,则终端设备的iteration为N=P/M。
训练轮数:是指整个训练集输入到机器学习模型进行训练的轮数。实现方式1:网络设备根据机器学习模型所需的计算能力,设置一定的阈值(例如称作第私阈值),如果终端设备的计算能力大于活等于该第四阈值,则为该终端设备选取较大的epoch,例如10;如果终端设备的计算能力小于该第四阈值,则为该终端设备选取较小的epoch,例如5。实现方式2:网络设备根据机器学习模型所需的计算能力和终端设备的计算能力,计算得到该终端设备的epoch。例如,机器学习模型一轮迭代所需的计算能力为M,终端设备的计算能力为P,则终端设备的iteration为N=P/M。
举个例子,说明批次大小、迭代次数、训练轮数三者之间的关系:假设整个训练集有1000个样本数,训练轮数为10,批次大小为20,则迭代次数=10*(1000/20)=500。
由于各个终端设备的计算能力不同,而超参数是进行模型训练时较为基本的训练要求,并且通过不同类型的超参数的不同取值,均可以将其量化成对应的训练时间,例如对于1000个样本数、训练轮数为10、批次大小为20进行本地训练,按照终端设备1的计算能力大概会花费2分钟才能完成训练,而按照终端设备2的计算能力大概只需要花费1.5分钟就能完成训练,即对于前述的有具体取值的超参数,对于终端设备1则可以量化得到2分钟的训练时间,而对于终端设备2则可以量化得到1.5分钟的训练时间,所以,结合终端设备自身的计算能力通过配置超参数的方式可以较为明确终端设备完成本地训练的时间,所以这样可以较好地控制参与本地训练的各个终端设备的训练时间,从而减少各个终端设备完成本地训练的时间差异性。
第二种情形
模型训练配置信息为训练机器学习模型时所要求的精度。即,网络设备根据终端设备的计算能力为该终端设备选择对应合适的精度,然后将选择的精度告知终端设备,终端设备根据网络设备要求的精度对本地的机器学习模型进行本地训练,然后将得到的模型更新参数反馈给网络设备。其中,训练机器学习模型时所要求的精度,是指机器学习模型的实际预测输出与样本的真实输出之间的差异。
本申请实施例中精度可以包括错误率、正确率、差准率、查全率中的至少一种。其中:
错误率:是指基于更新后的机器学习模型(即经过训练后的机器学习模型),分类错误(或者说,预测错误)的样本数占样本总数的比例。网络设备根据机器学习模型所需的计算能力,设置一定的阈值(例如称作第五阈值),如果终端设备的计算能力大于或等于该第五阈值,则为该终端设备选取较小的错误率;如果终端设备的计算能力小于该第五阈值,则为该终端设备选取较大的错误率。
正确率:是指基于更新后的机器学习模型(即经过训练后的机器学习模型),分类正确(或者说,预测正确)的样本数占样本总数的比例。网络设备根据机器学习模型所需的计算能力,设置一定的阈值(例如称作第六阈值),如果终端设备的计算能力大于或等于该第六阈值,则为该终端设备选取较大的正确率;如果终端设备的计算能力小于该第六阈值,则为该终端设备选取较小的正确率。例如,对于神经网络,机器学习模型对每个测试样本产生一个概率预测,此时,正确率可以是Top-1准确率,即概率预测排名第一的类别与实际结果相符的准确率;或者,正确率可以是Top-5准确率,即概率预测排名前五的类别包含实际结果的准确率。
查准率:是指基于更新后的机器学习模型,预测为正的样本中有多少是真正的正样本。网络设备根据机器学习模型所需的计算能力,设置一定的阈值(例如称作第七阈值),如果终端设备的计算能力大于或等于该第七阈值,则为该终端设备选取较大的查准率;如果终端设备的计算能力小于该第七阈值,则为该终端设备选取较小的查准率。
查全率:是指基于更新后的机器学习模型,样本中的正例有多少被预测正确。网络设备根据机器学习模型所需的计算能力,设置一定的阈值(例如称作第八阈值),如果终端设备的计算能力大于或等于该第八阈值,则为该终端设备选取较低的查全率;如果终端设备的计算能力小于该第八阈值,则为该终端设备选取较高的查全率。
第三种情形
模型训练配置信息为训练机器学习模型时所要求的训练时间信息,该训练时间信息用于指示训练所采用的时间,该训练时间信息例如指示开始训练时间和结束训练时间,或者指示开始训练时间和训练持续时长,或者指示训练结束时间和训练持续时长,或者仅指示训练时长(例如5分钟或者10分钟等)。即,网络设备根据终端设备的计算能力为该终端设备选择对应合适的训练时间信息,然后将选择的训练时间信息告知终端设备,终端设备根据网络设备要求的训练时间信息对本地的机器学习模型进行本地训练,然后将得到的模型更新参数反馈给网络设备。
在具体实施过程中,对于需要参与本地训练的多个或者全部终端设备,网络设备可以根据各个终端设备计算能力相应计算各个终端设备进行本地训练所需花费的时间,然后将大部分(例如90%)或者全部的终端设备所需的训练时间中的最大值作为各个参与方的训练时间。如此,可以将较长的训练时间配置给各个终端设备,使得各个终端设备在规定的训练时间内都尽量能够完成本地训练,并且大部分终端设备完成本地训练所花的时间是近似相同的,这样可以减少各个终端设备完成本地训练的时间差异性,从而减少网络设备获取各个终端设备反馈的模型更新参数的时间差异性。
第四种情形
模型训练配置信息为训练机器学习模型时所要求的超参数和精度。在具体实施过程中,对于网络设备设定的超参数和精度,终端设备在本地训练时可能并无法绝对地同时满足这两个要求,例如,网络设备为终端设备配置的超参数是批次大小50且训练轮数10,配置的精度是正确率96%,那么终端设备在训练时,当按照批次大小50进行10轮训练时,精度可能还无法达到96%。在此情况下,一种做法是,终端设备可以自行配置其它超参数来尽量达到96%的精度要求,例如除了前述由网络设备配置的批次大小50且训练轮数10,同时还可以自行配置较大的学习率和较大的迭代次数来进行本地训练,以尽量达到网络设备的精度要求;另一种做法是,可以在网络侧所配置的两种模型训练配置信息中找到平衡,例如在网络设备配置的超参数和精度的基础上,可以适当增大超参数的一些取值以及降低精度,但是调整幅度不宜过大,这样能够尽量满足网络设备的训练要求。
也就是说,终端设备在进行本地训练时,可以不是绝对的满足网络设备所配置的模型训练配置信息的要求,在一种可能的实施方式中,可以对网络设备所配置的模型训练配置信息进行较小幅度的适当调整,这样能够尽量同时满足多种模型训练配置信息的要求,从而在不影响网络设备通过模型训练配置信息来限制各个终端设备完成本地训练的时间差异,同时可以获得较好的训练效果。
第五种情形
模型训练配置信息为训练机器学习模型时所要求的超参数、精度和训练时间信息。
也就是说,网络设备可以同时为终端设备配置三种(或者更多种)类型的模型训练配置信息,对于该情形,终端设备在进行本地训练时,可以参照第四种情形中列举的方式来进行本地训练,即可以不严格按照网络设备的配置进行本地训练,而是可以适当小幅度的对一种或多种模型训练配置信息进行调整,以期达到较好的训练效果且同时对训练所花时间的改动尽量小。
在另一种实施方式中,考虑到网络设备根据终端设备的计算能力所配置的多种模型训练配置信息的目的,是为了减少参与本地训练的各个终端设备完成本地训练的时间差异,所以,网络设备为各个终端设备配置的训练时间信息是减少时间差异的最直接的要求,为此,在包括有训练时间信息的多种类型的模型训练配置信息时,可以优先确保训练时间信息不变,对其它类型的模型训练配置信息略微进行调整以期达到更好的训练效果,或者,还是优先确保训练时间信息不变,并严格按照其它类型的模型训练配置信息进行本地训练。也就是说,在多种模型训练配置信息中包括有训练时间信息时,训练时间信息的优先级最高,可以保持其对应的时间要求不变,这样可以尽量满足网络设备对各个终端设备的训练时间要求,从而较好地减少各个终端设备进行本地训练的时间差异性。
前述介绍了网络设备根据终端设备的计算能力为各个参与本地训练的终端设备分配对应的模型训练配置信息的实施例,在上述实施例的基础上之上,网络设备和终端设备之间还可以进行更多的交互,以期达到更好的训练效果,获得更准确的模型更新参数,同时可以更好地减少各个终端设备完成本地训练的时间差异性,从而减少网络设备获得各个终端设备反馈的模型更新参数的时间差异性,以便于网络设备在更新本地的机器学习模型时能够快速收敛,提高网络设备更新机器学习模型的更新效率。
在一种实施方式中,在网络设备向终端设备配置了模型训练配置信息的基础上,网络设备还可以向终端设备发送训练特征信息,该训练特征信息是用于指示终端设备进行本地训练时所用的训练特征集,训练特征信息例如包括:信道质量指示(channel qualityindicator,CQI)、信道状态信息参考信号(channel interference informationreference signals,CSI-RS)测量结果、同步信号与物理广播信道块(synchronizationsignal and physical broadcast channel block,SSB)测量结果、报文时延等信息中的一种或多种。终端设备在收到训练特征信息之后,可以使用对应训练特征中的样本对本地的机器学习模型进行本地训练,例如,使用SSB测量结果中的样本对机器学习模型进行本地训练。网络设备向终端设备发送训练特征信息,可以让各个参与方均使用相同的训练特征信息进行本地训练,从而减少各个终端设备基于不同训练特征信息进行本地训练时所花时间的差异。
在一种实施方式中,在网络设备向终端设备配置了模型训练配置信息的基础上,网络设备还可以向终端设备发送精度评估信息,该精度评估信息用于终端设备对本地训练的机器学习模型的精度进行评估,该精度评估信息包括用于评估精度的方法或用于评估精度的测试样本中的至少一种。其中,用于评估精度的方法可以是留出法(hold-out)、交叉验证法(cross validation)、自助法(bootstrapping)或其它方法中的任意一种。
留出法,是把样本划分成两个互斥的集合,其中一个集合作为机器学习模型训练的样本,另一个集合作为机器学习模型的测试样本,用训练样本训练处机器学习模型后,用测试样本进行测试。
交叉验证法,是将样本划分成k个大小相似的互斥子集,然后每次用k-1个子集的并集作为训练样本,余下的那个子集作为测试样本,从而尽快k次训练和测试,最终返回k个测试结果的均值。
自助法,是给定m个样本的数据集D,每次随机从D中挑选一个样本,将其拷贝到E,然后再讲该样本放回初始数据集D中。这个过程重复m次,得到包含了m个样本的数据集E。使用数据集E中的样本作为训练样本,数据集D中不同于数据集E中的样本作为测试样本。
通过向终端设备指定精度评估信息,可以让各个参与方均使用相同的精度评估信息对本地训练后的机器学习模型进行精度评估,由于采用的是相同的精度评估方式,可以尽量使得各个终端设备在同一精度评估标准下达到规定的精度要求,从而可以减少各个终端设备进行本地训练所花时间的差异。
本申请实施例中,终端设备在完成本地训练之后,需要将得到的模型更新参数反馈给网络设备,在此基础上,终端设备还可以向网络设备发送精度指示信息,该精度指示信息用于指示终端设备利用网络设备所配置的模型训练配置信息进行本地训练后的机器学习模型所达到的精度,也就是说,终端设备除了向网络设备反馈模型更新参数,同时还可以将对应的模型训练的精度反馈给网络设备,这样,以便于网络设备知晓终端设备的训练效果,可以作为网络设备后续再为终端设备配置模型训练配置信息时作为参考依据,例如终端设备发送的精度指示信息指示训练达到的精度较差,那么后续网络设备在为该终端设备选择模型训练配置信息时,可以在之前的模型训练配置信息的基础上进行定向调整。
进一步地,可以根据对其训练效果的判断确定终端设备反馈的模型更新参数在本地的模型更新中所起的作用,例如终端设备1反馈的精度指示信息指示其本地训练的精度是97%,而终端设备2反馈的精度指示信息指示其本地训练的精度是85%,可见终端设备1本地训练的精度要高于终端设备2本地训练的精度,换言之,终端设备1的训练效果应该要优于终端设备2。进一步地,网络设备在使用各个终端设备反馈的模型更新参数进行本地更新时,可以给予终端设备1反馈的模型更新参数更大的权重,而给予终端设备2反馈的模型更新参数相对较小的权重。通过该方式,可以提高网络设备进行模型的本地更新的有效性和准确性。
前面介绍了网络设备根据终端设备的计算能力为各个终端设备配置模型训练参数信息进行本地训练的方式,在该方式中,根据各个终端设备的计算能力的不同配置对应的模型训练参数信息,以便于各个终端设备能够尽量在相同(或者近似相同)的时间内完成内地的机器学习模型的训练,减少各个终端设备向网络设备发送模型更新参数的时间差异性,从而减少网络设备接收各个终端设备发送的模型更新参数的时间差异性,网络设备可以尽量利用各个终端设备反馈的模型更新参数在短时间内对本地的机器学习模型进行本地更新,从而提高本地更新的收敛速度,进而提高机器学习模型的更新效率。
本申请实施例中,还提供另一种更新机器学习模型的方法,在该方法中,网络设备主动向各个终端设备请求各个终端设备中的模型更新参数,并且请求的时间点是网络设备根据各个终端设备实际需传输的数据量和传输链情况(传输链路的质量)确定的。具体来说,网络设备根据各个终端设备向网络设备发送各自的模型更新参数的所需时长(例如将该时长称作传输时长)选择向各个终端设备请求模型更新参数的时间点,根据各个终端设备的传输时长之间的不同而差异化地在不同的时间点向各个终端设备请求各自的模型更新参数,这样可以尽量减少由于传输时长的不同而导致网络设备接收各个终端设备发送的模型更新参数之间的时间差异,使得各个终端设备发送的模型更新参数能够尽量在相同时间(或者近似相同的短时间内)到达网络设备,从而减少网络设备获取各个终端设备的模型更新参数之间的时间差异,以便于网络设备能够在短时间内根据各个终端设备的模型更新参数对本地的机器学习模型进行本地更新,从而提高本地更新的收敛速度,进而提高机器学习模型的更新效率。
为便于理解,以下结合图5介绍本申请实施例提供的另一种更新机器学习模型的方法,在图5的介绍中,以第一终端设备为例进行说明,其中的第一终端设备为参与FL的多个终端设备中的任一个终端设备。
S51:第一终端设备向网络设备发送参数可用性指示信息。
如前所述的,参数可用性指示信息可用于指示第一终端设备中的模型更新参数的可用性,由于终端设备在完成对机器学习模型的本地训练之后,终端设备的模型更新参数都是可用的,所以,通过参数可用性指示信息还可以指示终端设备已经完成了本地的机器学习模型的训练,换言之,第一终端设备可以通过参数可用性指示信息告知网络设备自身已经完成了机器学习模型的本地训练这一事件。在具体实施过程中,参数可用性指示信息可以携带在第一终端设备向网络设备发送的RRC重建立完成消息、RRC重配置完成消息、RRC恢复完成消息、RRC建立完成消息、UE信息响应消息、NAS消息等消息中的任意一种消息中,即,第一终端设备可以通过前述的任意一种消息向网络设备告知第一该终端设备中的模型更新参数的可用性。
在具体实施过程中,S51不是必须的步骤,所以在图5中以虚线表示S51,也就是说,第一终端设备可以向网络设备发送参数可用性指示信息,也可以无需向网络设备发送参数可用性指示信息,本申请实施例不做限制。
S52:网络设备确定多个终端设备中的各个终端设备向网络设备发送各自的模型更新参数的传输时长。
其中的多个终端设备可以包括第一终端设备,或者也可以不包括第一终端设备。其中的多个终端设备中的各个终端设备均是网络设备预先为其分发了初始的机器学习模型的终端设备,并且该多个终端设备是参与对网络设备为其分发的机器学习模型进行本地训练的所有终端设备中的大部分(例如80%)或者绝大部分(例如95%)。
S53:网络设备根据各个终端设备向网络设备发送各自的模型更新参数的传输时长,选择获取第一终端设备的模型更新参数的时间点。
本申请实施例中,网络设备在向各个终端设备(包括第一终端设备)请求各个终端设备对应的模型更新参数之前,各个终端设备已经完成了各自本地的机器学习模型的训练并得到的各自对应的模型更新参数,如此,网络设备可以根据各个终端设备向网络设备发送各自的模型更新参数的传输时长,确定获取各个终端设备中的模型更新参数的时间点,例如将选择的时间点称作获取时间,获取时间可以是网络设备向第一终端设备发送用于请求获取模型更新参数的获取请求的时间,即,网络设备可以在该获取时间点向第一终端设备发送获取请求;或者,获取时间也可以是网络设备向第一终端设备指示的向网络设备发送模型更新参数的时间,即,第一终端设备可以在该获取时间向网络设备发送其本地的模型更新参数。
其中,传输时长可以理解为是从各个终端设备从发送各自的模型更新参数到网络设备接收到该模型更新参数之间的间隔时长,这与各个终端设备与网络设备之间的通信链路质量有关,所以在一种可能的实施方式中,网络设备可以根据终端设备发送的CQI获得该终端设备的上行传输速率,然后根据模型更新参数的数据量和上行传输速率确定该终端设备对应的传输时长,例如以w表示终端设备的上行传输速率,以q表示该终端设备的模型更新参数的数据量,则对应该终端设备的传输时长T=q/w。按照此方法,可以确定各个终端设备对应的传输时长,然后根据大部分终端设备(例如80%)或者全部终端设备所对应的传输时长确定获取该终端设备中的模型更新参数的时间点。
对于上述的传输时长的计算公式T=q/w,其中的q表示对应的终端设备向网络设备发送模型更新参数的数据量。由于各个终端设备中进行本地训练的机器学习模型是由网络设备预先统一分发的,所以各个终端设备训练完成后得到的模型更新参数对于网络设备来说是已知的,进而,网络设备可以知晓各个模型更新参数的数据量.在一种实施方式中,终端设备向网络设备传输所有模型更新参数,那么网络设备在知晓各个模型更新参数的数据量的基础上可以估算出所有模型更新参数的总数据量,得到前述的q;在另一种实施方式中,网络设备可以终端设备请求指定类型的模型更新参数,在知晓所指定的各个模型更新参数的数据量的基础上,网络设备可以估算出所有指定的模型更新参数的总数据量,得到前述q。
例如,终端设备1对应的传输时长为10分钟,终端设备2对应的传输时长为15分钟,终端设备3对应的传输时长为22分钟,终端设备4对应的传输时长为28分钟,则网络设备可以指示终端设备4在13:02的时候向网络设备发送模型更新参数,指示终端设备3在13:08的时候向网络设备发送模型更新参数,指示终端设备2在13:15的时候向网络设备发送13:08,指示终端设备1在13:20的时候向网络设备发送模型更新参数。也就是说,可以指示传输时长越长的终端设备越提前发送模型更新参数,以及指示传输时长越短的终端设备越后发送模型更新,同理,向传输时长越长的终端设备越提前发送获取请求,以及向传输时长越短的终端设备越后发送获取请求,通过该方式,通过提前开始发送模型更新参数来弥补较长的传输时长,减少各个终端设备传输模型更新参数的时间差异性,使得网络设备能够在相同(或者尽量相同)的时间内接收到各个终端设备的模型更新参数,从而减少网络设备接收各个终端设备的模型更新参数的时间差异性。
如此,综合考虑了大部分甚至是全部参与方的传输模型更新参数所需的时间,可以更为精确地控制各个终端设备上报各自的模型更新参数的时间,从而减少网络设备获取各个终端设备发送的模型更新参数的时间差异,进而提高本地模型更新的收敛速度,提高模型更新效率。
S54:网络设备在选择的时间点,向第一终端设备发送获取请求。
按照S52~S53介绍的方法,网络设备确定获取第一终端设备的模型更新参数的时间点,可以在确定的时间点上向第一终端设备发送获取请求,该获取请求用于指示第一终端设备向网络设备发送第一终端设备中的模型更新参数。
在具体实施过程中,网络设备未向第一终端设备明确指示需要获取哪些模型更新参数,那么按照网络设备和第一终端设备中的默认约定,第一终端设备可以将其得到的所有模型更新参数均发送给网络设备。在另一种可能的实施方式中,网络设备可以从第一终端设备中可用的模型更新参数中选择需要的部分模型更新参数,那么在该方式中,获取请求还可以用于指示网络设备指定的模型更新参数,即表明网络设备只需要获取请求所指示的模型更新参数,这样第一终端设备只需要将网络设备所请求的指定模型更新参数反馈给网络设备即可,这样可以减少数据传输量,降低网络传输开销。
S55:第一终端设备根据获取请求,确定需要向网络设备发送的模型更新参数。
如上所述的两种情况,第一终端设备根据获取请求确定网络设备需要的模型更新参数可能是第一终端设备中的所有模型更新参数或者部分模型更新参数。
S56:第一终端设备将确定的模型更新参数发送给网络设备。
上述S51~S56(也可以不包括S51)示出了网络设备根据各个终端设备的传输时长确定时间点,并在确定的时间点向第一终端设备发送获取请求以向第一终端设备请求模型更新参数的实施例。在该实施例中,网络设备可以明确控制向各个终端设备请求模型更新参数的时间,在通过模型训练配置信息减少各个终端设备完成本地训练的时间差异的基础上,可以进一步地减少各个终端设备上报模型更新参数的时间差异,从而减少网络设备实际获取到各个终端设备发送的模型更新参数的时间差异。
S57:网络设备向第一终端设备发送上报时间信息。
其中的上报时间信息用于指示第一终端设备在网络设备所确定的获取时间向网络设备发送第一终端设备中的模型更新参数,也就是说,网络设备可以向各个终端设备明确指示各个终端设备向网络设备上报模型更新参数的具体时间。
S58:第一终端设备在上报时间信息所指示的获取时间,向网络设备发送模型更新参数。
根据上报时间信息的指示,在上报时间信息所指示的获取时间到达时,第一终端设备向网络设备发送经过本地训练得到的模型更新参数。
上述S51、S52、S53、S57、S58(也可以不包括S51)示出了网络设备根据各个终端设备的传输时长确定时间点,并指示第一终端设备在该时间点向网络设备上报模型更新参数的实施例。在该实施例中,网络设备可以明确控制各个终端设备上报模型更新参数的具体时间,在通过模型训练配置信息减少各个终端设备完成本地训练的时间差异的基础上,可以进一步地减少各个终端设备上报模型更新参数的时间差异,从而减少网络设备实际获取到各个终端设备发送的模型更新参数的时间差异。需要说明的是,在具体实施过程中,上述S51~S56所示出的流程和S51、S52、S53、S57、S58所示出的流程可以择一实施,本申请实施例不做限制。在图5中是以实施S51~S56所对应的流程为例,所以在图5中S57、S58对应的步骤是以虚线表示的,表示可以是不执行的步骤。
S59:网络设备根据第一终端设备发送的模型更新参数对本地的机器学习模型进行更新。
上述只是以第一终端设备为例介绍了网络设备获取一个终端设备中的模型更新参数的实施方式,按照前述介绍的方法,网络设备可以获得其它终端设备中的模型更新参数,并且由于是根据各个终端设备传输模型更新参数的传输时长差异化地向各个终端设备发送获取请求的,所以网络设备可以在近乎相同的时间接收到各个终端设备发送的各自的模型更新参数,减少了网络设备接收各个终端设备发送的模型更新参数的时间差异性。进一步地,网络设备可以在短时间内利用所有终端设备的模型更新参数对本地的机器学习模型进行本地更新,使得更新可以快速收敛,从而提高机器学习模型的更新效率。
在前述介绍的更新机器学习模型的方法的所有实施例中,例如无论是在图4的实施例介绍还是图5的实施例介绍中,终端设备和网络设备之间可以基于现有的协议栈发送相关信息,例如,基于RRC消息在终端设备和接入网设备之间发送相关信息,或者基于NAS消息在终端设备和核心网设备之间发送相关信息。
此外,当网络设备是接入网设备且在CU-DU的架构下,终端设备和CU之间交互的信息可以通过DU转发,即终端设备将需要传输给CU的信息先发送给DU,然后DU再基于与CU之间的F1接口将该信息转发给CU。以及,终端设备与DU之间交互的信息可以直接相互发送,即,终端设备需要发送给DU的信息可以直接发送给DU,而DU需要发送给终端设备的信息也可以直接发送给终端设备。
以图4为例,假设图4中的网络设备是CU,那么其中的S41、S42、S46由CU执行,S44由终端设备执行,S43中的模型训练配置信息则是由CU先发送给DU后再由DU转发给终端设备,S45中的模型更新参数则是由终端设备先发送给DU后再由DU转发给CU;再假设图4中的网络设备是DU,那么其中的S41、S42、S46由DU执行,S44由终端设备执行,S43中的模型训练配置信息则是由DU直接发送给终端设备,S45中的模型更新参数则是由终端设备直接发送给DU。
再以图5为例,假设图5中的网络设备是CU,那么其中的S52、S53、S59由CU执行,S55由终端设备执行,S51中的参数可用性指示信息、S56中需要发送的模型更新参数、S58中在上报时间信息所指示的时间点发送的模型更新参数则是由终端设备先发送给DU后再由DU转发给CU,S54中的获取请求、S57中的上报时间则是由CU先发送给DU后再由DU转发给终端设备;再假设图5中的网络设备是DU,那么其中的S52、S53、S59由DU执行,S55由终端设备执行,S51中的参数可用性指示信息、S56中需要发送的模型更新参数、S58中在上报时间信息所指示的时间点发送的模型更新参数则是由终端设备直接发送给DU,S54中的获取请求、S57中的上报时间则是由DU直接发送给终端设备。
上述举例的图4和图5中的网络设备分别为CU或DU时,CU和DU分别执行的步骤的具体实施例可以参见前述图4、图5的实施例描述部分,这里就不再重复说明了。
基于同一发明构思,本申请实施例提供一种通信装置,该通信装置可以是网络设备或者设置在网络设备内部的芯片。该通信装置具备实现上述图4~图5所示实施例中的网络设备的功能,比如,该通信装置包括执行上述图4~图5所示实施例中的网络设备所执行的步骤所对应的模块或单元或手段(means),所述功能或单元或手段可以通过软件实现,或者通过硬件实现,也可以通过硬件执行相应的软件实现。例如,参见图6所示,本申请实施例中的通信装置包括处理单元601和通信单元602,其中:
处理单元601,用于根据终端设备的计算能力,确定终端设备对应的模型训练配置信息;
通信单元602,用于将模型训练配置信息发送给终端设备,以及接收终端设备发送的模型更新参数,其中,模型更新参数是终端设备根据所述模型训练配置信息对该第一机器学习模型进行训练后更新的参数;
处理单元601,还用于根据模型更新参数对第二机器学习模型进行更新。
在一种可能的实施方式中,通信单元602还用于:
接收来自终端设备的第一算力指示信息,第一算力指示信息用于指示终端设备的计算能力;或者,
在向终端设备发送计算能力获取请求后,接收来自终端设备的第二算力指示信息,第二算力指示信息用于指示终端设备的计算能力;或者,
接收来自其它网络设备的第三算力指示信息,第三算力指示信息用于指示终端设备的计算能力。
在一种可能的实施方式中,模型训练配置信息包括超参数、精度、训练时间信息中的至少一种。
在一种可能的实施方式中,通信单元602还用于向终端设备发送训练特征信息,该训练特征信息用于指示终端设备对第一机器学习模型进行训练所使用的训练特征集。
在一种可能的实施方式中,通信单元602还用于向终端设备发送精度评估信息,该精度评估信息包括用于评估精度的方法或用于评估精度的测试样本中的至少一种。
在一种可能的实施方式中,通信单元602还用于接收来自终端设备的精度指示信息,该精度指示信息用于指示终端设备利用模型训练配置信息对第一机器学习模型进行训练后所达到的精度。
在一种可能的实施方式中,处理单元601还用于确定用于获取终端设备的模型更新参数的时间点;则对应的,通信单元602还用于:
在前述时间点向终端设备发送获取请求,该获取请求用于指示终端设备向网络设备发送终端设备的模型更新参数;或者,
向终端设备发送上报时间信息,该上报时间信息用于指示在前述时间点向网络设备发送模型更新参数。
在一种可能的实施方式中,处理单元601具体用于确定多个终端设备中的各个终端设备向网络设备发送各自的模型更新参数的传输时长;以及根据各个终端设备对应的各个传输时长确定前述时间点。
在一种可能的实施方式中,获取请求还用于指示需要获取指定的模型更新参数。
在一种可能的实施方式中,通信单元602还用于接收来自终端设备的参数可用性指示信息,该参数可用性指示信息用于指示终端设备中的模型更新参数的可用性。
其中,上述方法实施例涉及的各步骤的所有相关内容均可以援引到对应功能模块的功能描述,在此不再赘述。
基于同一发明构思,本申请实施例提供一种通信装置,该通信装置可以是终端设备或者设置在终端设备内部的芯片。该通信装置具备实现上述图4所示实施例中的终端设备的功能,或者通信装置具备实现上述图5所示实施例中的第一终端设备的功能,比如,该通信装置包括执行上述图4~图5所示实施例中的终端设备或第一终端设备所执行的步骤所对应的模块或单元或手段,所述功能或单元或手段可以通过软件实现,或者通过硬件实现,也可以通过硬件执行相应的软件实现。例如,参见图7所示,本申请实施例中的通信装置包括通信单元701和处理单元702,其中:
通信单元701,用于接收网络设备发送的模型训练配置信息,该模型训练配置信息是根据终端设备的计算能力确定的;
处理单元702,用于根据模型训练配置信息对第一机器学习模型进行训练,以得到模型更新参数;
通信单元701,还用于将模型更新参数发送给网络设备,该模型更新参数用于网络设备对第二机器学习模型进行更新。
在一种可能的实施方式中,通信单元701还用于接收网络设备发送的计算能力获取请求;以及根据计算能力获取请求,向网络设备发送第二算力指示信息,该第二算力指示信息用于指示终端设备的计算能力。
在一种可能的实施方式中,通信单元701还用于接收来自网络设备的训练特征信息,训练特征信息用于指示终端设备对第一机器学习模型进行训练所使用的训练特征集;则对应的,处理单元702还用于根据模型训练配置信息和训练特征信息对第一机器学习模型进行训练。
在一种可能的实施方式中,通信单元701还用于接收来自网络设备的精度评估信息,精度评估信息包括用于评估精度的方法或用于评估精度的测试样本中的至少一种;则对应的,处理单元702还用于根据精度评估信息确定训练后的第一机器学习模型所达到的精度。
在一种可能的实施方式中,通信单元701用于向网络设备发送精度指示信息,该精度指示信息用于指示终端设备利用模型训练配置信息对第一机器学习模型进行训练后所达到的精度。
在一种可能的实施方式中,通信单元701还用于接收来自网络设备的获取请求,并根据获取请求向网络设备发送模型更新参数,该获取请求用于指示终端设备向网络设备发送终端设备的模型更新参数。
在一种可能的实施方式中,通信单元701还用于接收来自网络设备的上报时间信息,并在该上报时间信息所指示的时间点向网络设备发送模型更新参数。
在一种可能的实施方式中,通信单元701还用于向网络设备发送参数可用性指示信息,参数可用性指示信息用于指示终端设备中的模型更新参数的可用性。
其中,上述方法实施例涉及的各步骤的所有相关内容均可以援引到对应功能模块的功能描述,在此不再赘述。
基于同一发明构思,本申请实施例提供一种通信装置,该通信装置可以是网络设备或者设置在网络设备内部的芯片。该通信装置具备实现上述图4~图5所示实施例中的网络设备的功能,比如,该通信装置包括执行上述图4~图5所示实施例中的网络设备所执行的步骤所对应的模块或单元或手段(means),所述功能或单元或手段可以通过软件实现,或者通过硬件实现,也可以通过硬件执行相应的软件实现。例如,参见图8所示,本申请实施例中的通信装置包括处理单元801和通信单元802,其中:
处理单元801,用于根据多个终端设备中的各个终端设备向网络设备发送各自的模型更新参数的传输时长,选择获取第一终端设备获取的更新参数的时间点;
通信单元802,用于在上述时间点向第一终端设备发送获取请求,并接收第一终端设备发送的模型更新参数,该获取请求用于请求第一终端设备向网络设备发送模型更新参数;或者,用于向第一终端设备发送上报时间信息,并接收第一终端设备向网络设备发送模型更新参数,该上报时间信息用于指示第一终端设备在上述时间点向网络设备发送模型更新参数;
处理单元801,还用于根据模型更新参数对第二机器学习模型进行更新。
在一种可能的实施方式中,通信单元802还用于接收来自第一终端设备的参数可用性指示信息。
在一种可能的实施方式中,通信单元802还用于接收来自网络设备的用于指示指定的模型更新参数的指示信息。
在一种可能的实施方式中,指示信息携带在获取请求中。
其中,上述方法实施例涉及的各步骤的所有相关内容均可以援引到对应功能模块的功能描述,在此不再赘述。
基于同一发明构思,本申请实施例提供一种通信装置,该通信装置可以是终端设备或者设置在终端设备内部的芯片。该通信装置具备实现上述图4所示实施例中的终端设备的功能,或者通信装置具备实现上述图5所示实施例中的第一终端设备的功能,比如,该通信装置包括执行上述图4~图5所示实施例中的终端设备或第一终端设备所执行的步骤所对应的模块或单元或手段,所述功能或单元或手段可以通过软件实现,或者通过硬件实现,也可以通过硬件执行相应的软件实现。例如,参见图9所示,本申请实施例中的通信装置包括通信单元901和处理单元902,其中:
通信单元901,用于接收网络设备发送的获取请求,其中,发送该获取请求的时间点是网络设备根据多个终端设备中的各个终端设备向网络设备发送各自的模型更新参数的传输时长确定的;或者用于接收网络设备发送的上报时间信息,该上报时间信息用于指示在时间点向网络设备发送模型更新参数;
处理单元902,用于根据获取请求确定需要发送的模型更新参数;
通信单元901,还用于将确定的模型更新参数发送给网络设备,或者用于在上报时间信息指示的时间点向网络设备发送模型更新参数,该模型更新参数用于网络设备对第二机器学习模型进行更新。
在一种可能的实现方式中,通信单元901还用于向网络设备发送参数可用性指示信息。
在一种可能的实现方式中,通信单元901还用于接收来自网络设备的用于指示指定的模型更新参数的指示信息。
在一种可能的实现方式中,指示信息携带在获取请求中。
其中,上述方法实施例涉及的各步骤的所有相关内容均可以援引到对应功能模块的功能描述,在此不再赘述。
基于同一发明构思,参见图10,本申请实施例还提供一种通信装置,包括:
至少一个处理器1001;以及与至少一个处理器1001通信连接的通信接口1003;至少一个处理器1001通过执行存储器1002存储的指令,使得该通信装置通过通信接口1003执行上述图4~图5所示实施例中的网络设备所执行的方法步骤。
可选的,存储器1002位于通信装置之外。
可选的,通信装置包括存储器1002,存储器1002与至少一个处理器1001相连,存储器1002存储有可被至少一个处理器1001执行的指令。图10中用虚线表示存储器1002对于通信装置是可选的。
其中,至少一个处理器1001和存储器1002可以通过接口电路耦合,也可以集成在一起,这里不做限制。
本申请实施例中不限定上述处理器1001、存储器1002以及通信接口1003之间的具体连接介质。本申请实施例在图10中以处理器1001、存储器1002以及通信接口1003之间通过总线1004连接,总线在图10中以粗线表示,其它部件之间的连接方式,仅是进行示意性说明,并不引以为限。所述总线可以分为地址总线、数据总线、控制总线等。为便于表示,图10中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
基于同一发明构思,参见图11,本申请实施例还提供一种通信装置,包括:
至少一个处理器1101;以及与至少一个处理器1101通信连接的通信接口1103;至少一个处理器1101通过执行存储器1102存储的指令,使得该通信装置通过通信接口1103执行上述图4所示实施例中的终端设备所执行的方法的步骤,或者执行上述图5所示实施例中的第一终端设备所执行的方法步骤。
可选的,存储器1102位于通信装置之外。
可选的,通信装置包括存储器1102,存储器1102与至少一个处理器1101相连,存储器1102存储有可被至少一个处理器1101执行的指令。附图11用虚线表示存储器1102对于通信装置是可选的。
其中,处理器1101和存储器1102可以通过接口电路耦合,也可以集成在一起,这里不做限制。
本申请实施例中不限定上述处理器1101、存储器1102以及通信接口1103之间的具体连接介质。本申请实施例在图11中以处理器1101、存储器1102以及通信接口1103之间通过总线1104连接,总线在图11中以粗线表示,其它部件之间的连接方式,仅是进行示意性说明,并不引以为限。所述总线可以分为地址总线、数据总线、控制总线等。为便于表示,图11中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
应理解,本申请实施例中提及的处理器可以通过硬件实现也可以通过软件实现。当通过硬件实现时,该处理器可以是逻辑电路、集成电路等。当通过软件实现时,该处理器可以是一个通用处理器,通过读取存储器中存储的软件代码来实现。
示例性的,处理器可以是中央处理单元(central processing unit,CPU),还可以是其他通用处理器、数字信号处理器(digital signal processor,DSP)、专用集成电路(application specific integrated circuit,ASIC)、现成可编程门阵列(fieldprogrammable gate array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
应理解,本申请实施例中提及的存储器可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(Read-Only Memory,ROM)、可编程只读存储器(programmable ROM,PROM)、可擦除可编程只读存储器(Erasable PROM,EPROM)、电可擦除可编程只读存储器(electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(random access memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(static RAM,SRAM)、动态随机存取存储器(dynamic rAM,DRAM)、同步动态随机存取存储器(synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(Double Data EateSDRAM,DDR SDRAM)、增强型同步动态随机存取存储器(Enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(Synchlink DRAM,SLDRAM)和直接内存总线随机存取存储器(DirectRambus RAM,DR RAM)。
需要说明的是,当处理器为通用处理器、DSP、ASIC、FPGA或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件时,存储器(存储模块)可以集成在处理器中。
应注意,本文描述的存储器旨在包括但不限于这些和任意其它适合类型的存储器。
基于同一发明构思,本申请实施例还提供一种通信系统,该通信系统包括图6中的通信装置和图7中的通信装置,或者包括图8中的通信装置和图9中的通信装置,或者包括图10中的通信装置和图11中的通信装置。
基于同一发明构思,本申请实施例还提供一种计算机可读存储介质,包括程序或指令,当所述程序或指令在计算机上运行时,使得上述图4~图5所示实施例中的网络设备所执行的方法被执行。
基于同一发明构思,本申请实施例还提供一种计算机可读存储介质,包括程序或指令,当所述程序或指令在计算机上运行时,使得上述图4~图5所示实施例中的终端设备或第一终端设备所执行的方法被执行。
基于同一发明构思,本申请实施例还提供一种芯片,所述芯片与存储器耦合,用于读取并执行所述存储器中存储的程序指令,使得上述图4~图5所示实施例中的网络设备所执行的方法被执行。
基于同一发明构思,本申请实施例还提供一种芯片,所述芯片与存储器耦合,用于读取并执行所述存储器中存储的程序指令,使得上述图4~图5所示实施例中的终端设备或第一终端设备所执行的方法被执行。
基于同一发明构思,本申请实施例还提供一种计算机程序产品,包括指令,当其在计算机上运行时,使得上述图4~图5所示实施例中的网络设备所执行的方法被执行。
基于同一发明构思,本申请实施例还提供一种计算机程序产品,包括指令,当其在计算机上运行时,使得上述图4~图5所示实施例中的终端设备或第一终端设备所执行的方法被执行。
由于本申请实施例提供的图6~图11所示的通信装置可用于执行图4~图5所示的实施例中相应的实施例所提供的方法,因此其所能获得的技术效果可参考上述方法实施例,在此不再赘述。
本申请实施例是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(digital subscriber line,DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,数字通用光盘(digital versatile disc,DVD))、或者半导体介质(例如,固态硬盘(solid state disk,SSD))等。
显然,本领域的技术人员可以对本申请实施例进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请实施例的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
Claims (32)
1.一种更新机器学习模型的方法,其特征在于,所述方法包括:
网络设备根据终端设备的计算能力,确定所述终端设备对应的模型训练配置信息;
所述网络设备将所述模型训练配置信息发送给所述终端设备;
所述网络设备接收所述终端设备发送的模型更新参数,其中,所述模型更新参数是所述终端设备根据所述模型训练配置信息对第一机器学习模型训练后更新的模型参数;
所述网络设备根据所述模型更新参数对第二机器学习模型进行更新。
2.如权利要求1所述的方法,其特征在于,所述模型训练配置信息包括以下至少一种:
超参数;
精度;
训练时间信息。
3.如权利要求1或2所述的方法,其特征在于,所述方法还包括:
所述网络设备向所述终端设备发送训练特征信息,所述训练特征信息用于指示所述终端设备对所述第一机器学习模型进行训练所使用的训练特征集。
4.如权利要求1或2所述的方法,其特征在于,所述方法还包括:
所述网络设备向所述终端设备发送精度评估信息,所述精度评估信息包括用于评估精度的方法或用于评估精度的测试样本中的至少一种。
5.如权利要求1或2所述的方法,其特征在于,所述方法还包括:
所述网络设备接收来自所述终端设备的精度指示信息,所述精度指示信息用于指示所述终端设备利用所述模型训练配置信息对所述第一机器学习模型进行训练后所达到的精度。
6.如权利要求1或2所述的方法,其特征在于,所述方法还包括:
所述网络设备确定用于获取所述终端设备的模型更新参数的时间点;
在所述时间点向所述终端设备发送获取请求,所述获取请求用于指示所述终端设备向所述网络设备发送所述终端设备的模型更新参数;或者,
向所述终端设备发送上报时间信息,所述上报时间信息用于指示在所述时间点向所述网络设备发送模型更新参数。
7.如权利要求6所述的方法,其特征在于,所述网络设备确定获取所述终端设备的模型更新参数的时间点,包括:
所述网络设备确定多个终端设备中的各个终端设备向所述网络设备发送各自的模型更新参数的传输时长;
所述网络设备根据各个终端设备对应的各个传输时长确定所述时间点。
8.如权利要求6所述的方法,其特征在于,所述获取请求还用于指示需要获取指定的模型更新参数。
9.如权利要求6所述的方法,其特征在于,所述方法还包括:
所述网络设备接收来自所述终端设备的参数可用性指示信息,所述参数可用性指示信息用于指示所述终端设备中的模型更新参数的可用性。
10.一种更新机器学习模型的方法,其特征在于,所述方法包括:
终端设备接收网络设备发送的模型训练配置信息,所述模型训练配置信息是根据所述终端设备的计算能力确定的;
所述终端设备根据所述模型训练配置信息对第一机器学习模型进行训练,以得到模型更新参数;
所述终端设备将所述模型更新参数发送给所述网络设备,所述模型更新参数用于所述网络设备对第二机器学习模型进行更新。
11.如权利要求10所述的方法,其特征在于,所述方法还包括:
所述终端设备接收来自所述网络设备的训练特征信息,所述训练特征信息用于指示所述终端设备对所述第一机器学习模型进行训练所使用的训练特征集;
所述终端设备根据所述模型训练配置信息对第一机器学习模型进行训练,包括:
所述终端设备根据所述模型训练配置信息和所述训练特征信息对所述第一机器学习模型进行训练。
12.如权利要求10所述的方法,其特征在于,所述方法还包括:
所述终端设备接收来自所述网络设备的精度评估信息,所述精度评估信息包括用于评估精度的方法或用于评估精度的测试样本中的至少一种;
所述终端设备根据所述精度评估信息确定训练后的第一机器学习模型所达到的精度。
13.如权利要求10-12中任一所述的方法,其特征在于,所述方法还包括:
所述终端设备向所述网络设备发送精度指示信息,所述精度指示信息用于指示所述终端设备利用所述模型训练配置信息对所述第一机器学习模型进行训练后所达到的精度。
14.如权利要求10-12中任一所述的方法,其特征在于,所述方法还包括:
所述终端设备接收来自所述网络设备的获取请求,并根据所述获取请求向所述网络设备发送所述模型更新参数,所述获取请求用于指示所述终端设备向所述网络设备发送所述终端设备的模型更新参数;或者,
所述终端设备接收来自所述网络设备的上报时间信息,并在所述上报时间信息所指示的时间点向所述网络设备发送所述模型更新参数。
15.如权利要求10-12中任一所述的方法,其特征在于,所述方法还包括:
所述终端设备向所述网络设备发送参数可用性指示信息,所述参数可用性指示信息用于指示所述终端设备中的模型更新参数的可用性。
16.一种通信装置,其特征在于,包括:
处理单元,用于根据终端设备的计算能力,确定所述终端设备对应的模型训练配置信息;
通信单元,用于将所述模型训练配置信息发送给所述终端设备,以及接收所述终端设备发送的模型更新参数,其中,所述模型更新参数是所述终端设备根据所述模型训练配置信息对第一机器学习模型训练后更新的模型参数;
所述处理单元,还用于根据所述模型更新参数对第二机器学习模型进行更新。
17.如权利要求16所述的装置,其特征在于,所述模型训练配置信息包括以下至少一种:
超参数;
精度;
训练时间信息。
18.如权利要求16或17所述的装置,其特征在于,所述通信单元还用于:
向所述终端设备发送训练特征信息,所述训练特征信息用于指示所述终端设备对所述第一机器学习模型进行训练所使用的训练特征集。
19.如权利要求16或17所述的装置,其特征在于,所述通信单元还用于:
向所述终端设备发送精度评估信息,所述精度评估信息包括用于评估精度的方法或用于评估精度的测试样本中的至少一种。
20.如权利要求16或17所述的装置,其特征在于,所述通信单元还用于:
接收来自所述终端设备的精度指示信息,所述精度指示信息用于指示所述终端设备利用所述模型训练配置信息对所述第一机器学习模型进行训练后所达到的精度。
21.如权利要求16或17所述的装置,其特征在于,
所述处理单元还用于:
确定用于获取所述终端设备的模型更新参数的时间点;
则,所述通信单元还用于:
在所述时间点向所述终端设备发送获取请求,所述获取请求用于指示所述终端设备向所述网络设备发送所述终端设备的模型更新参数;或者,
向所述终端设备发送上报时间信息,所述上报时间信息用于指示在所述时间点向所述网络设备发送模型更新参数。
22.如权利要求21所述的装置,其特征在于,所述处理单元具体用于:
确定多个终端设备中的各个终端设备向所述网络设备发送各自的模型更新参数的传输时长;
根据各个终端设备对应的各个传输时长确定所述时间点。
23.如权利要求21所述的装置,其特征在于,所述获取请求还用于指示需要获取指定的模型更新参数。
24.如权利要求21所述的装置,其特征在于,所述通信单元还用于:
接收来自所述终端设备的参数可用性指示信息,所述参数可用性指示信息用于指示所述终端设备中的模型更新参数的可用性。
25.一种通信装置,其特征在于,包括:
通信单元,用于接收网络设备发送的模型训练配置信息,所述模型训练配置信息是根据终端设备的计算能力确定的;
处理单元,用于根据所述模型训练配置信息对第一机器学习模型进行训练,以得到模型更新参数;
所述通信单元,还用于将所述模型更新参数发送给所述网络设备,所述模型更新参数用于所述网络设备对第二机器学习模型进行更新。
26.如权利要求25所述的装置,其特征在于,所述通信单元还用于:
接收来自所述网络设备的训练特征信息,所述训练特征信息用于指示所述终端设备对所述第一机器学习模型进行训练所使用的训练特征集;
则,所述处理单元还用于:
根据所述模型训练配置信息和所述训练特征信息对所述第一机器学习模型进行训练。
27.如权利要求25所述的装置,其特征在于,所述通信单元还用于:
接收来自所述网络设备的精度评估信息,所述精度评估信息包括用于评估精度的方法或用于评估精度的测试样本中的至少一种;
则,所述处理单元还用于:
根据所述精度评估信息确定训练后的第一机器学习模型所达到的精度。
28.如权利要求25-27中任一所述的装置,其特征在于,所述通信单元用于:
向所述网络设备发送精度指示信息,所述精度指示信息用于指示所述终端设备利用所述模型训练配置信息对所述第一机器学习模型进行训练后所达到的精度。
29.如权利要求25-27中任一所述的装置,其特征在于,所述通信单元还用于:
接收来自所述网络设备的获取请求,并根据所述获取请求向所述网络设备发送所述模型更新参数,所述获取请求用于指示所述终端设备向所述网络设备发送所述终端设备的模型更新参数;或者,
接收来自所述网络设备的上报时间信息,并在所述上报时间信息所指示的时间点向所述网络设备发送所述模型更新参数。
30.如权利要求25-27中任一所述的装置,其特征在于,所述通信单元还用于:
向所述网络设备发送参数可用性指示信息,所述参数可用性指示信息用于指示所述终端设备中的模型更新参数的可用性。
31.一种通信装置,其特征在于,包括:
至少一个处理器;以及与所述至少一个处理器通信连接的存储器、通信接口;
其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述至少一个处理器通过执行所述存储器存储的指令,使得所述装置执行如权利要求1-9或10-15中任一项所述的方法。
32.一种计算机可读存储介质,其特征在于,包括程序或指令,当所述程序或指令在计算机上运行时,使得如权利要求1-9或10-15中任一项所述的方法被执行。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010858858.7A CN114091679A (zh) | 2020-08-24 | 2020-08-24 | 一种更新机器学习模型的方法及通信装置 |
PCT/CN2021/100003 WO2022041947A1 (zh) | 2020-08-24 | 2021-06-15 | 一种更新机器学习模型的方法及通信装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010858858.7A CN114091679A (zh) | 2020-08-24 | 2020-08-24 | 一种更新机器学习模型的方法及通信装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114091679A true CN114091679A (zh) | 2022-02-25 |
Family
ID=80295726
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010858858.7A Pending CN114091679A (zh) | 2020-08-24 | 2020-08-24 | 一种更新机器学习模型的方法及通信装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN114091679A (zh) |
WO (1) | WO2022041947A1 (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023173434A1 (zh) * | 2022-03-18 | 2023-09-21 | 北京小米移动软件有限公司 | 一种信道估计方法、装置、设备及存储介质 |
WO2023184452A1 (zh) * | 2022-03-31 | 2023-10-05 | 北京小米移动软件有限公司 | 终端设备使用的模型的确定方法和装置 |
WO2023206456A1 (zh) * | 2022-04-29 | 2023-11-02 | 富士通株式会社 | 信息指示和处理方法以及装置 |
WO2023221000A1 (zh) * | 2022-05-18 | 2023-11-23 | 北京小米移动软件有限公司 | 一种核心网中ai功能的认证授权方法及其装置 |
WO2024031246A1 (en) * | 2022-08-08 | 2024-02-15 | Nec Corporation | Methods for communication |
WO2024031697A1 (en) * | 2022-08-12 | 2024-02-15 | Zte Corporation | Device capability and performance monitoring for a model |
WO2024036605A1 (en) * | 2022-08-19 | 2024-02-22 | Lenovo (Beijing) Ltd. | Support of ue centric ai based temporal beam prediction |
WO2024055918A1 (zh) * | 2022-09-13 | 2024-03-21 | 华为技术有限公司 | 数据的传输方法、装置、设备以及存储介质 |
WO2024055306A1 (zh) * | 2022-09-16 | 2024-03-21 | Oppo广东移动通信有限公司 | 通信设备、方法、装置、存储介质、芯片、产品及程序 |
WO2024067280A1 (zh) * | 2022-09-26 | 2024-04-04 | 维沃移动通信有限公司 | 更新ai模型参数的方法、装置及通信设备 |
WO2024065681A1 (en) * | 2022-09-30 | 2024-04-04 | Shenzhen Tcl New Technology Co., Ltd. | Communication devices and methods for machine learning model monitoring |
WO2024094157A1 (zh) * | 2022-11-03 | 2024-05-10 | 展讯通信(上海)有限公司 | Ai模型更新方法及通信装置 |
WO2024103271A1 (zh) * | 2022-11-16 | 2024-05-23 | 华为技术有限公司 | 一种通信方法以及相关装置 |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114513270B (zh) * | 2022-03-07 | 2022-12-02 | 苏州大学 | 基于联邦学习的异构无线网络频谱资源感知方法及系统 |
WO2023184310A1 (en) * | 2022-03-31 | 2023-10-05 | Qualcomm Incorporated | Centralized machine learning model configurations |
WO2023206437A1 (zh) * | 2022-04-29 | 2023-11-02 | 富士通株式会社 | 信息传输方法与装置 |
WO2023206583A1 (en) * | 2022-04-30 | 2023-11-02 | Qualcomm Incorporated | Techniques for training devices for machine learning-based channel state information and channel state feedback |
CN117221944A (zh) * | 2022-06-02 | 2023-12-12 | 华为技术有限公司 | 通信方法及装置 |
CN117395679A (zh) * | 2022-07-05 | 2024-01-12 | 维沃移动通信有限公司 | 信息上报方法、装置、终端及接入网设备 |
CN117836785A (zh) * | 2022-07-25 | 2024-04-05 | 北京小米移动软件有限公司 | 一种模型的生成方法及装置 |
WO2024026844A1 (en) * | 2022-08-05 | 2024-02-08 | Nokia Shanghai Bell Co., Ltd. | Monitoring data events for updating model |
CN117675598A (zh) * | 2022-08-24 | 2024-03-08 | 中国电信股份有限公司 | 模型获取方法、装置及系统 |
EP4346177A1 (en) * | 2022-09-29 | 2024-04-03 | Nokia Technologies Oy | Ai/ml operation in single and multi-vendor scenarios |
WO2024065709A1 (zh) * | 2022-09-30 | 2024-04-04 | 华为技术有限公司 | 一种通信方法及相关设备 |
CN117896714A (zh) * | 2022-10-14 | 2024-04-16 | 维沃移动通信有限公司 | 模型选择方法、终端及网络侧设备 |
CN117978650A (zh) * | 2022-10-25 | 2024-05-03 | 维沃移动通信有限公司 | 数据处理方法、装置、终端及网络侧设备 |
CN118042476A (zh) * | 2022-11-01 | 2024-05-14 | 华为技术有限公司 | 切换或更新ai模型的方法以及通信装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017156791A1 (en) * | 2016-03-18 | 2017-09-21 | Microsoft Technology Licensing, Llc | Method and apparatus for training a learning machine |
CN110263908B (zh) * | 2019-06-20 | 2024-04-02 | 深圳前海微众银行股份有限公司 | 联邦学习模型训练方法、设备、系统及存储介质 |
CN111310932A (zh) * | 2020-02-10 | 2020-06-19 | 深圳前海微众银行股份有限公司 | 横向联邦学习系统优化方法、装置、设备及可读存储介质 |
CN111401552B (zh) * | 2020-03-11 | 2023-04-07 | 浙江大学 | 基于调整批量大小与梯度压缩率的联邦学习方法和系统 |
-
2020
- 2020-08-24 CN CN202010858858.7A patent/CN114091679A/zh active Pending
-
2021
- 2021-06-15 WO PCT/CN2021/100003 patent/WO2022041947A1/zh active Application Filing
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023173434A1 (zh) * | 2022-03-18 | 2023-09-21 | 北京小米移动软件有限公司 | 一种信道估计方法、装置、设备及存储介质 |
WO2023184452A1 (zh) * | 2022-03-31 | 2023-10-05 | 北京小米移动软件有限公司 | 终端设备使用的模型的确定方法和装置 |
WO2023206456A1 (zh) * | 2022-04-29 | 2023-11-02 | 富士通株式会社 | 信息指示和处理方法以及装置 |
WO2023221000A1 (zh) * | 2022-05-18 | 2023-11-23 | 北京小米移动软件有限公司 | 一种核心网中ai功能的认证授权方法及其装置 |
WO2024031246A1 (en) * | 2022-08-08 | 2024-02-15 | Nec Corporation | Methods for communication |
WO2024031697A1 (en) * | 2022-08-12 | 2024-02-15 | Zte Corporation | Device capability and performance monitoring for a model |
WO2024036605A1 (en) * | 2022-08-19 | 2024-02-22 | Lenovo (Beijing) Ltd. | Support of ue centric ai based temporal beam prediction |
WO2024055918A1 (zh) * | 2022-09-13 | 2024-03-21 | 华为技术有限公司 | 数据的传输方法、装置、设备以及存储介质 |
WO2024055306A1 (zh) * | 2022-09-16 | 2024-03-21 | Oppo广东移动通信有限公司 | 通信设备、方法、装置、存储介质、芯片、产品及程序 |
WO2024067280A1 (zh) * | 2022-09-26 | 2024-04-04 | 维沃移动通信有限公司 | 更新ai模型参数的方法、装置及通信设备 |
WO2024065681A1 (en) * | 2022-09-30 | 2024-04-04 | Shenzhen Tcl New Technology Co., Ltd. | Communication devices and methods for machine learning model monitoring |
WO2024094157A1 (zh) * | 2022-11-03 | 2024-05-10 | 展讯通信(上海)有限公司 | Ai模型更新方法及通信装置 |
WO2024103271A1 (zh) * | 2022-11-16 | 2024-05-23 | 华为技术有限公司 | 一种通信方法以及相关装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2022041947A1 (zh) | 2022-03-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114091679A (zh) | 一种更新机器学习模型的方法及通信装置 | |
US11399303B2 (en) | Configuration of a neural network for a radio access network (RAN) node of a wireless network | |
US20230016595A1 (en) | Performing a handover procedure | |
WO2020234507A1 (en) | Random access procedure reporting and improvement for wireless networks | |
US20240023082A1 (en) | Data processing method and apparatus, communication device, and storage medium | |
WO2022141295A1 (zh) | 一种通信方法和装置 | |
CN109474450A (zh) | 一种通信方法、相关设备和系统 | |
CN114514726A (zh) | 无线网络中的安全密钥生成 | |
CN116057998A (zh) | 一种通信方法、设备和装置 | |
US11863354B2 (en) | Model transfer within wireless networks for channel estimation | |
CN115843125A (zh) | 通信方法和通信装置 | |
CN115811715A (zh) | 一种通信方法和通信装置 | |
CN113228552A (zh) | 波束测量的方法、装置、通信设备及存储介质 | |
CN115804074A (zh) | 第一网络节点和在其中执行的用于处理通信网络中的数据的方法 | |
WO2024027427A1 (zh) | 异常检测的方法和通信装置 | |
US20230403684A1 (en) | Communication method, device, and storage medium | |
CN114143832B (zh) | 一种业务处理方法、装置及存储介质 | |
WO2024027381A1 (zh) | 异常检测的方法和通信装置 | |
WO2024031535A1 (zh) | 无线通信方法、终端设备和网络设备 | |
US20230413218A1 (en) | Method and apparatus for requesting prs configuration, and communication device and storage medium | |
RU2815087C1 (ru) | Способ и устройство для запроса конфигурации опорного сигнала позиционирования (prs), а также устройство связи и носитель данных | |
CN116489703B (zh) | 感知节点确定方法、感知节点控制方法和相关设备 | |
WO2024027911A1 (en) | Task specific models for wireless networks | |
WO2022228666A1 (en) | Signaling of training policies | |
CN114846854A (zh) | 非连续接收参数的配置方法、装置、通信设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |