CN116887290A - 一种用于机器学习模型训练的通信方法及装置 - Google Patents
一种用于机器学习模型训练的通信方法及装置 Download PDFInfo
- Publication number
- CN116887290A CN116887290A CN202210313970.1A CN202210313970A CN116887290A CN 116887290 A CN116887290 A CN 116887290A CN 202210313970 A CN202210313970 A CN 202210313970A CN 116887290 A CN116887290 A CN 116887290A
- Authority
- CN
- China
- Prior art keywords
- model
- training
- alternatively
- indication
- threshold
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010801 machine learning Methods 0.000 title claims abstract description 956
- 238000012549 training Methods 0.000 title claims abstract description 917
- 238000000034 method Methods 0.000 title claims abstract description 185
- 230000006854 communication Effects 0.000 title claims abstract description 86
- 238000004891 communication Methods 0.000 title claims abstract description 85
- 230000008569 process Effects 0.000 claims description 76
- 238000012545 processing Methods 0.000 claims description 42
- 238000004590 computer program Methods 0.000 claims description 16
- 238000003860 storage Methods 0.000 claims description 10
- 239000002699 waste material Substances 0.000 abstract description 20
- 230000000694 effects Effects 0.000 abstract description 10
- 230000006870 function Effects 0.000 description 115
- 238000004458 analytical method Methods 0.000 description 58
- 238000010586 diagram Methods 0.000 description 18
- 238000011156 evaluation Methods 0.000 description 18
- 230000009471 action Effects 0.000 description 16
- 238000013461 design Methods 0.000 description 13
- 238000005259 measurement Methods 0.000 description 13
- 238000005265 energy consumption Methods 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 7
- 238000007405 data analysis Methods 0.000 description 7
- 230000000977 initiatory effect Effects 0.000 description 7
- 208000018910 keratinopathic ichthyosis Diseases 0.000 description 6
- 238000013519 translation Methods 0.000 description 6
- 230000003993 interaction Effects 0.000 description 5
- 230000001960 triggered effect Effects 0.000 description 5
- 230000005856 abnormality Effects 0.000 description 4
- 230000007774 longterm Effects 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 230000011664 signaling Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000013433 optimization analysis Methods 0.000 description 3
- 101150071746 Pbsn gene Proteins 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000012517 data analytics Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000002922 simulated annealing Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 101000979909 Homo sapiens NMDA receptor synaptonuclear signaling and neuronal migration factor Proteins 0.000 description 1
- 102100024546 NMDA receptor synaptonuclear signaling and neuronal migration factor Human genes 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000004134 energy conservation Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000011022 operating instruction Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W24/00—Supervisory, monitoring or testing arrangements
- H04W24/02—Arrangements for optimising operational condition
Abstract
本申请提供一种用于机器学习模型训练的通信方法及装置,用于提升机器学习模型训练的效果,减少资源浪费。该方法包括:第一设备从第二设备接收第一信息,其中,第一信息包括第一指示和机器学习模型的训练条件中的至少一项。第一指示的取值范围包括第一值和第二值,第一指示的取值为第一值,第一值用于指示第一设备进行机器学习模型的训练。第一设备根据该第一信息进行机器学习模型的训练。
Description
技术领域
本申请涉及移动通信技术领域,尤其涉及一种用于机器学习模型训练的通信方法及装置。
背景技术
管理数据分析(management data analytics,MDA)具备提供处理和分析与网络和服务事件和状态相关的原始数据的能力,可提供分析报告,以实现网络和服务运营的必要操作。目前,MDA能够与人工智能(artificial intelligence,AI)或机器学习(machinelearning,ML)技术结合,提高网络服务管理和协调带来智能化和自动化。
管理数据分析服务(management data analytics service,MDAS)是一种具有MDA能力的管理服务。MDAS生产者(MDAS producer)可用于在覆盖问题分析、故障事件分析或移动性管理分析等不同的场景下,向MDAS消费者(MDAS consumer)输出分析报告。其中,在不同场景下,用于获得分析报告的ML模型可能不同。
目前,可由AI/ML模型训练管理服务(management service,MnS)生产者(AI/MLmodel training MnS producer)(简称为模型训练生产者)根据模型训练管理服务消费者(AI/ML model training MnS consumer)(简称为模型训练消费者)的请求发起ML模型的训练,或者也可以由模型训练生产者发起ML模型的训练,其中,模型训练生产者为模型的训练方。目前,ML模型的训练对于ML模型性能提升效果不佳,存在资源浪费。
发明内容
本申请提供一种用于机器学习模型训练的通信方法及装置,用以提高ML模型的训练效果,减少资源浪费。
第一方面,本申请提供一种用于机器学习模型训练的通信方法,该方法可由第一设备或第一设备中的组件执行,其中,组件例如训练执行模块、处理器、收发器、处理模块或收发模块中的至少一种。该第一设备可以是ML模型训练的执行设备。以该通信方法由第一设备执行为例,该方法可包括:第一设备从第二设备接收第一信息。其中,该第一信息包括第一指示和ML模型的训练条件中的至少一项。该第一指示的取值范围包括第一值和第二值,该第一值用于指示该第一设备进行ML模型的训练,该第二值用于指示该第一设备不进行该ML模型的训练,该第一指示的取值为该第一值。此外,该第一设备还根据该第一信息进行该ML模型的训练。
根据该方法第一设备可根据来自于第二设备的第一信息进行ML模型的训练,其中,第一信息包括第一指示和ML模型的训练条件中的至少一项,因此,第一设备进行该ML模型训练是得到第二设备确认的,或者,是根据第二设备指示的第一设备启动该ML模型的训练的条件进行的,因此能够避免第一设备在不需要对ML模型进行训练时启动该ML模型的训练,从而减少资源浪费。
在一种可能的实现方式中,第一设备可以是模型训练生产者,第二设备可以是模型训练消费者。示例性的,模型训练生产者可包括域管理功能单元或跨域管理功能单元。示例性的,模型训练消费者可包括域管理功能单元或跨域管理功能单元。可以理解的是,本申请中的模型训练生产者可以是ML模型训练管理服务生产者(ML model training MnSproducer),模型训练消费者可以是ML模型训练管理服务消费者(ML model training MnSconsumer)。
在一种可能的实现方式中,还可由该第一设备向该第二设备发送该ML模型的训练结果。
该训练结果可包括训练后的ML模型,因此,第二设备可获取训练后的ML模型,以便根据训练后的ML模型进行问题分析,提高分析性能。
在一种可能的实现方式中,该第一信息包括该第一指示,该第一设备可启动该ML模型的训练,并向该第二设备发送第二指示。其中,所述第二指示用于通知启动该ML模型的训练。或者,该第二指示用于指示由该第二设备确认是否进行该ML模型的训练。或者,第二指示用于指示由该第二设备确认第一设备是否进行该ML模型的训练。
在该实现方式中,可由第一设备通过第二指示,指示启动ML模型的训练(或称,指示ML模型的训练启动),或指示第二设备确认是否进行该ML模型的训练,或指示第二设备确认第一设备是否进行该ML模型的训练。第二设备可根据该第二指示确认是否由第一设备进行该ML模型的训练,如果第二设备确认由第一设备进行该ML模型的训练,第二设备可向第一设备发送取值为第一值的第一指示,相应的,第一设备可接收来自于第二设备的取值为第一值的第一指示,以便进行该ML模型的训练。可选的,该实现方式可避免第一设备在不需要对ML模型进行训练时启动ML模型的训练,从而提高ML模型训练效果,减少资源浪费。另外,该实现方式能够令第二设备根据第二指示获知由第一设备启动ML模型的训练,避免第二设备重复发起该ML模型的训练导致训练冲突。
在一种可能的实现方式中,该第一设备还可向该第二设备发送第三指示,其中,该第三指示用于请求该ML模型的训练控制参数。该第一设备还可从该第二设备接收该ML模型的训练控制参数,该ML模型的训练控制参数用于该第一设备进行该ML模型的训练。
在该实现方式中,该第一设备可向第二设备请求该ML模型的训练控制参数,以便根据该ML模型的训练控制参数进行该ML模型的训练,可提升ML模型的训练效率。
在一种可能的实现方式中,该ML模型的训练控制参数包括该ML模型的标识、该ML模型的类型信息、该ML模型训练的迭代次数、该ML模型性能需求、该ML模型训练时间,和用于训练该ML模型的数据中的至少一项。
根据该实现方式,第一设备基于以上ML模型的训练控制参数进行该ML模型的训练,可进一步提升ML模型的训练效果,提高该ML模型的训练效率。可选的,ML模型的训练控制参数还可包括心理周期等参数,以提高ML模型训练的周期性。
在一种可能的实现方式中,该用于训练该ML模型的数据包括数据源、更新的网络状态和更新的训练数据中的至少一项。
根据该实现方式,可进一步精确设置用于训练该ML模型的数据,从而进一步提升ML模型的训练效果,提高该ML模型的训练效率。
在一种可能的实现方式中,该ML模型的训练条件包括网络负载条件、网络覆盖条件和网络性能条件中的至少一项。应理解,在本申请中,ML模型的训练条件也可称为ML模型的训练策略。
采用该实现方式,第二设备可以准确、灵活地设置ML模型的训练条件,当满足该训练条件时,第一设备可启动该ML模型的训练,进一步避免第一设备在不需要对ML模型进行训练时启动该ML模型的训练,从而进一步减少资源浪费。
在一种可能的实现方式中,该网络负载条件包括物理资源块(physical resourceblock,PRB)利用率阈值和用户连接数阈值中的至少一项。
该实现方式中,可进一步准确、灵活地设置网络负载条件,进一步避免第一设备在不需要对ML模型进行训练时启动对该ML模型的训练,以进一步减少资源浪费。
在一种可能的实现方式中,该网络覆盖条件包括参考信号接收功率(referencesignal receiving power,RSRP)阈值及区域内该RSRP阈值的覆盖率阈值、参考信号接收质量(reference signal receiving quality,RSRQ)阈值及区域内该RSRQ阈值的覆盖率阈值,和参考信号信号与干扰加噪声比(reference signal signal to interference plusnoise ratio,RSSINR)(可简称为信干噪比)阈值及区域内该RSSINR阈值的覆盖率阈值中的至少一项。
该实现方式中,可进一步准确、灵活地设置网络覆盖条件,进一步避免第一设备在不需要对ML模型进行训练时启动对该ML模型的训练,以进一步减少资源浪费。
在一种可能的实现方式中,该网络性能条件包括切换成功率阈值、数据能效阈值,和网络切片能效阈值中的至少一项。
该实现方式中,可进一步准确、灵活地设置网络性能条件,进一步避免第一设备在不需要对ML模型进行训练时启动对该ML模型的训练,以进一步减少资源浪费。
在一种可能的实现方式中,该第一设备还可以向该第二设备发送该ML模型的训练状态信息,该训练状态信息用于指示该ML模型是否经过训练,或者,该训练状态信息用于指示该ML模型是否根据该ML模型的性能评估结果、更新的网络状态和更新的训练数据中的至少一项进行该ML模型的训练。
采用该实现方式,第一设备可指示该ML模型是否经过训练,或指示是否根据性能评估结果、更新的网络状态或更新的训练数据对该ML模型进行训练,能够令第二设备准确获知ML模型是否经过训练,和/或,获知ML模型的训练是否是基于性能评估结果、更新的网络状态或更新的训练数据所发起的,从而更加合理地确认第一设备是否对该ML模型进行训练,进一步避免第一设备在不需要对ML模型进行训练时启动对该ML模型的训练,减少重复训练。可选的,如果第二设备确认第一设备对该ML模型进行训练,则第二设备可向第一设备发送取值为第一值的第一指示。
在一种可能的实现方式中,该第一设备还可向该第二设备发送第二信息,该第二信息包括用于指示该ML模型的训练进度的信息、该ML模型的训练的预计训练时间、该ML模型的训练的执行时长、该ML模型的训练的开始时间,和该ML模型的训练的结束时间中的至少一项。
基于该实现方式,第一设备可通过第二信息向第二设备指示该ML模型的训练进度、预计训练时间、执行时长、开始时间或结束时间,能够令第二设备及时获知训练状态。
第二方面,本申请提供一种用于机器学习模型训练的通信方法,该方法可由第二设备或第二设备中的组件执行,该组件可包括训练控制模块、处理器、收发器、处理模块或收发模块中的至少一种。以该通信方法由第二设备执行为例,该方法可包括:第二设备确定第一信息,该第一信息包括第一指示和第一设备启动该ML模型的训练的条件中的至少一项,该第一指示的取值范围包括第一值和第二值,该第一值用于指示该第一设备进行ML模型的训练,该第二值用于指示该第一设备不进行该ML模型的训练,该第一指示的取值为该第一值。该第二设备还向该第一设备发送该第一信息。
在一种可能的实现方式中,第一设备可以是模型训练生产者,第二设备可以是模型训练消费者。示例性的,模型训练生产者可包括域管理功能单元或跨域管理功能单元。示例性的,模型训练消费者可包括域管理功能单元或跨域管理功能单元。可以理解的是,本申请中的模型训练生产者可以是ML模型训练管理服务生产者,模型训练消费者可以是ML模型训练管理服务消费者。
在一种可能的实现方式中,该第二设备还可以从该第一设备接收该ML模型的训练结果。
在一种可能的实现方式中,该第一信息包括该第一指示,该第二设备还可从该第一设备接收第二指示,该第二指示用于通知启动所述ML模型的训练。或者,该第二指示用于指示由该第二设备确认第一设备是否进行该ML模型的训练。或者,第二指示用于指示由该第二设备确认第一设备是否进行该ML模型的训练。
在一种可能的实现方式中,该第二设备可以从该第一设备接收第三指示,该第三指示用于请求该ML模型的训练控制参数。该第二设备还可向该第一设备发送该ML模型的训练控制参数,该ML模型的训练控制参数用于该第一设备进行该ML模型的训练。
在一种可能的实现方式中,该ML模型的训练控制参数包括该ML模型的标识、该ML模型的类型信息、该ML模型训练的迭代次数、该ML模型性能需求、该ML模型训练时间,和用于训练该ML模型的数据中的至少一项。
在一种可能的实现方式中,该用于训练该ML模型的数据包括数据源、更新的网络状态和更新的训练数据中的至少一项。
在一种可能的实现方式中,该第一设备启动该ML模型的训练的条件包括网络负载条件、网络覆盖条件和网络性能条件中的至少一项。
在一种可能的实现方式中,该网络负载条件包括PRB利用率阈值和用户连接数阈值中的至少一项。
在一种可能的实现方式中,该网络覆盖条件包括RSRP阈值及区域内该RSRP阈值的覆盖率阈值、RSRQ阈值及区域内该RSRQ阈值的覆盖率阈值,和RSSINR阈值及区域内该RSSINR阈值的覆盖率阈值中的至少一项。
在一种可能的实现方式中,该网络性能条件包括切换成功率阈值、数据能效阈值,和网络切片能效阈值中的至少一项。
在一种可能的实现方式中,该第二设备还可以从该第一设备接收该ML模型的训练状态信息,该训练状态信息用于指示该ML模型是否经过训练,或者,该训练状态信息用于指示该ML模型是否根据该ML模型的性能评估结果、更新的网络状态和更新的训练数据中的至少一项进行训练。
在一种可能的实现方式中,该第二设备还可从该第一设备接收第二信息,该第二信息包括用于指示该ML模型的训练进度的信息、该ML模型的训练的预计训练时间、该ML模型的训练的执行时长、该ML模型的训练的开始时间,和该ML模型的训练的结束时间中的至少一项。
第三方面,本申请实施例提供了一种第一设备,包括用于执行上述第一方面中任意方面及其任意可能的实现方式中各个步骤的模块。
示例性的,该第一设备可包括收发模块和处理模块。收发模块可用于支持该第一设备通过有线和无线方式中的至少一种方式进行通信,其中,通信可包括信号、信息、信令、数据或消息等的发射或接收。处理模块可用于支持该第一设备执行处理动作,处理动作包括但不限于生成由收发模块所发送的内容,对通过收发模块接收的内容进行处理,或执行以上第一方面中任意方面及其任意可能的实现方式中的各个处理动作。
第四方面,本申请实施例提供了一种第二设备,包括用于执行上述第二方面中任意方面及其任意可能的实现方式中各个步骤的模块。
示例性的,该第二设备可包括收发模块和处理模块。收发模块可用于支持该第二设备通过有线和无线方式中的至少一种方式进行通信,其中,通信可包括信号、信息、信令、数据或消息等的发射或接收。处理模块可用于支持该第二设备执行处理动作,处理动作包括但不限于生成由收发模块所发送的内容,对通过收发模块接收的内容进行处理,或执行以上第二方面中任意方面及其任意可能的实现方式中的各个处理动作。
第五方面,本申请实施例提供了一种通信装置,包括至少一个处理元件(如处理器或芯片)和至少一个存储元件(如存储器或存储单元),其中该至少一个存储元件用于存储程序和数据,该至少一个处理元件用于执行上述第一方面至第二方面及其任意可能的设计中各个步骤提供的方法。或者,该通信装置可包括用于执行上述第一方面中任意方面及其任意可能的实现方式中各个步骤的模块,如收发模块和处理模块。收发模块可用于支持该通信装置通过有线和无线方式中的至少一种方式进行通信,其中,通信可包括信号、信息、信令、数据或消息等的发射或接收。处理模块可用于支持该通信装置执行处理动作,处理动作包括但不限于生成由收发模块所发送的内容,对通过收发模块接收的内容进行处理,或执行以上第一方面至第二方面中任意方面及其任意可能的实现方式中的各个处理动作。
第六方面,本申请实施例提供了一种用于机器学习模型训练的通信方法,该通信方法可由第一方面及其任意可能的设计中的第一设备或第一设备中的组件,和第二方面及其任意可能的设计中的第二设备或第二设备中的组件实施。该通信方法可包括:第二设备向第一设备发送第一信息,该第一信息包括第一指示和第一设备启动该ML模型的训练的条件中的至少一项,该第一指示的取值范围包括第一值和第二值,该第一值用于指示该第一设备进行ML模型的训练,该第二值用于指示该第一设备不进行该ML模型的训练,该第一指示的取值为该第一值。该第一设备可根据该第一信息进行该ML模型的训练。
在一种可能的实现方式中,第一设备可以是模型训练生产者,第二设备可以是模型训练消费者。示例性的,模型训练生产者可包括域管理功能单元或跨域管理功能单元。示例性的,模型训练消费者可包括域管理功能单元或跨域管理功能单元。可以理解的是,本申请中的模型训练生产者可以是ML模型训练管理服务生产者,模型训练消费者可以是ML模型训练管理服务消费者。
在一种可能的实现方式中,还可由该第一设备向该第二设备发送该ML模型的训练结果。相应的,可由第二设备接收来自于第一设备的该ML模型的训练结果。
在一种可能的实现方式中,该第一信息包括该第一指示,该第一设备可启动该ML模型的训练,并向该第二设备发送第二指示。相应的,第二设备可接收来自于第一设备的第二指示。
在一种可能的实现方式中,该第一设备还可向该第二设备发送第三指示,其中,该第三指示用于请求该ML模型的训练控制参数。相应的,可由第二设备接收来自于第一设备的第三指示。第二设备还可向第一设备发送该ML模型的训练控制参数,该ML模型的训练控制参数用于该第一设备进行该ML模型的训练。相应的,可由第一设备从该第二设备接收该ML模型的训练控制参数。
在一种可能的实现方式中,该ML模型的训练控制参数包括该ML模型的标识、该ML模型的类型信息、该ML模型训练的迭代次数、该ML模型性能需求、该ML模型训练时间,和用于训练该ML模型的数据中的至少一项。
在一种可能的实现方式中,该用于训练该ML模型的数据包括数据源、更新的网络状态和更新的训练数据中的至少一项。
在一种可能的实现方式中,该ML模型的训练条件包括网络负载条件、网络覆盖条件和网络性能条件中的至少一项。应理解,在本申请中,ML模型的训练条件也可称为ML模型的训练策略。
在一种可能的实现方式中,该网络负载条件包括PRB利用率阈值和用户连接数阈值中的至少一项。
在一种可能的实现方式中,该网络覆盖条件包括RSRP阈值及区域内该RSRP阈值的覆盖率阈值、RSRQ阈值及区域内该RSRQ阈值的覆盖率阈值,和RSSINR阈值及区域内该RSSINR阈值的覆盖率阈值中的至少一项。
在一种可能的实现方式中,该网络性能条件包括切换成功率阈值、数据能效阈值,和网络切片能效阈值中的至少一项。
在一种可能的实现方式中,该第一设备还可向该第二设备发送该ML模型的训练状态信息,该训练状态信息用于指示该ML模型是否经过训练,或者,该训练状态信息用于指示该ML模型是否根据该ML模型的性能评估结果、更新的网络状态和更新的训练数据中的至少一项进行训练。相应的,第二设备可从第一设备接收该ML模型的训练状态信息。
在一种可能的实现方式中,该第一设备还可向该第二设备发送第二信息,该第二信息包括用于指示该ML模型的训练进度的信息、该ML模型的训练的预计训练时间、该ML模型的训练的执行时长、该ML模型的训练的开始时间,和该ML模型的训练的结束时间中的至少一项。相应的,第二设备可从第一设备接收该第二信息。
可选的,第六方面所示方法还可包括以上第一方面的任意可能的实现方式中提供的方法。该方法还可包括以上第二方面的任意可能的实现方式中提供的方法。
第七方面,本申请实施例还提供了一种计算机程序产品,所述计算机程序产品包括计算机程序,当所述计算机程序在计算机上运行时,使得所述计算机执行上述第一方面至第二方面中任意方面及其任意可能的设计中各个步骤提供的方法。
第八方面,本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机程序,当所述计算机程序被计算机执行时,使得所述计算机执行上述第一方面至第二方面中任意方面及其任意可能的设计中各个步骤提供的方法。
第九方面,本申请实施例还提供了一种芯片,所述芯片用于读取存储器中存储的计算机程序,执行上述第一方面至第二方面中任意方面及其任意可能的设计中各个步骤提供的方法。
第十方面,本申请实施例还提供了一种芯片系统,该芯片系统包括处理器,用于支持计算机装置实现上述第一方面至第二方面中任意方面及其任意可能的设计中各个步骤提供的方法。在一种可能的设计中,所述芯片系统还包括存储器,所述存储器用于保存该计算机装置必要的程序和数据。该芯片系统可以由芯片构成,也可以包含芯片和其他分立器件。
第十一方面,本申请实施例还提供了一种通信系统,该通信系统可包括以上第一方面及其任意可能的设计提供的第一设备和第二方面中任意方面及其任意可能的设计提供的第二设备。其中,以上第一设备可通过第三方面或第五方面提供的装置实现。该第二设备可通过第四方面或第五方面提供的装置实现。
以上第二至第十一方面及其任意可能的设计所提供的各步骤的有益效果,可参见第一方面及其可能的设计所提供的各步骤的有益效果。
附图说明
图1为本申请提供的一种服务系统的架构示意图;
图2为本申请提供的另一种服务系统的架构示意图;
图3为本申请提供的另一种服务系统的架构示意图;
图4为本申请提供的一种ML模型训练的架构示意图;
图5为本申请提供的另一种ML模型训练的架构示意图;
图6为本申请提供的一种用于机器学习模型训练的通信方法的流程示意图;
图7为本申请提供的另一种用于机器学习模型训练的通信方法的流程示意图;
图8为本申请提供的另一种用于机器学习模型训练的通信方法的流程示意图;
图9为本申请提供的另一种用于机器学习模型训练的通信方法的流程示意图;
图10为本申请提供的一种通信装置之间的交互方式示意图;
图11为本申请提供的另一种通信装置之间的交互方式示意图;
图12为本申请提供的另一种通信装置之间的交互方式示意图;
图13为本申请提供的一种通信装置的结构示意图;
图14为本申请提供的另一种通信装置的结构示意图。
具体实施方式
下面结合说明书附图对本申请实施例做详细描述。
本申请实施例可以应用于各种移动通信系统,例如:新无线(new radio,NR)系统、长期演进(long term evolution,LTE)系统、先进的长期演进(advanced long termevolution,LTE-A)系统、未来通信系统等其它通信系统,具体的,在此不做限制。示例性的,本申请中的各个实施例可以用于NR的网络管理架构。NR的网络管理架构中可包括管理功能(management function,MnF)。MnF是第三代合作伙伴计划(3rd generation partnershipproject,3GPP)定义的管理实体,其外部可见的行为和接口被定义为管理服务(managementservices,MnS)。在给予服务的管理体系结构中,MnF扮作为MnS生产者或者MnS消费者。MnF的MnS生产者所生产的管理服务可能有多个MnS消费者。MnF可从一个或者多个管理业务生产者消费多个管理业务。如图1所示,MnF提供的MnS可用于为其他MnF(如记为MnF#A)提供服务,则此时,该MnF可作为MnS生产者,MnF#A可作为MnS消费者。此外,该MnF还可从其他MnF(记为MnF#B,可以与MnF#A相同或不同)获取MnF#B提供的MnS服务,即此时图1所示的MnF又可以作为MnF#B的提供的MnS服务的MnS消费者,也就是说,同一个MnF即可作为MnS服务的消费者,也可以作为MnS服务的生产者。
如图2所示,是适用于本申请方法实施例的一种服务化管理架构的示意图。其中,该服务化管理架构包括业务支撑系统(business support system,BSS)、跨域管理功能单元(cross domain management function,CD-MnF)、域管理功能单元(domain managementfunction,Domain-MnF)和网元(net element,NE)。应理解,跨域管理功能单元可以为网络管理系统(network management system,NMS)、MnS Producer、MnS Consumer等节点,域管理功能单元可以为无线自动化引擎(MBB automation engine,MAE)、网元管理系统(element management system,EMS)、MnS Producer、MnS Consumer等节点。
本申请中,跨域管理功能单元用于管理一个或多个域管理功能单元。域管理功能单元可以用于管理一个或多个网元。以下分别对各个单元作简单的介绍。
其中,若管理服务为跨域管理功能单元提供的管理服务,则跨域管理功能单元为管理服务生产者,业务支撑系统为管理服务消费者。
若管理服务为域管理功能单元提供的管理服务,则域管理功能单元为管理服务生产者,跨域管理功能单元为管理服务消费者。
当管理服务为网元提供的管理服务,则网元为管理服务生产者,域管理功能单元为管理服务消费者。
业务支撑系统是面向通信业务(communication service),用于提供计费、结算、帐务、客服、营业、网络监控、通信业务生命周期管理、业务意图翻译等功能和管理服务。其中,业务支撑系统可以为运营商的运营系统,也可以为垂直行业的运营系统(vertical OTsystem)。
跨域管理功能单元也可称为网络管理功能单元(network management function,NMF),例如可以是NMS、网络功能管理业务消费者(network function management serviceconsumer,NFMS_C)等网络管理实体。其中,跨域管理功能单元提供以下一项或者多项管理功能或者管理服务:网络的生命周期管理、网络的部署、网络的故障管理、网络的性能管理、网络的配置管理、网络的保障、网络的优化功能以及业务生产者的网络意图(intent fromcommunication service provider,Intent-CSP)的翻译等。
其中,上述管理功能或管理服务中所指的网络可以包括一个或者多个网元或者子网络,也可以是网络切片。也就是说,网络管理功能单元可以是网络切片管理功能单元(network slice management function,NSMF),或者跨域管理数据分析功能单元(management data analytical function,MDAF),或者跨域自组织网络功能(self-organization network function,SON Function)或者跨域意图管理功能单元(intentdriven management service,Intent Driven MnS)。
本申请的各个实施例中,网元为提供网络服务的实体。网元可包括核心网网元、无线接入网网元或传输网网元等。例如,图2所示架构中,域管理功能单元可包括无线接入网域管理功能单元、核心网网元域管理功能单元或传输网域管理功能单元,其中,无线接入网域管理功能单元可以用于管理无线接入网网元,核心网网元域管理功能单元可以用于管理核心网网元网元,传输网域管理功能单元可以用于管理传输网网元。
示例性的,核心网网元可以包括但不限于接入与移动管理功能(access andmobility management function,AMF)实体、会话管理功能(session managementfunction,SMF)实体、策略控制功能(policy control function,PCF)实体、网络数据分析功能(network data analysis function,NWDAF)实体、网络存储功能(networkrepository function,NRF)、网关等。
无线接入网网元可以包括但不限于:各类基站(例如下一代基站(generationnode B,gNB),演进型基站(evolved Node B,eNB)、集中控制单元(central unit controlpanel,CUCP)、集中单元(central unit,CU)、分布式单元(distributed unit,DU)、集中用户面单元(central unit user panel,CUUP)等。在本申请中,网络功能NF也称为网元NE。
可选的,在某些部署场景下,跨域管理功能单元还可以提供子网络的生命周期管理、子网络的部署、子网络的故障管理、子网络的性能管理、子网络的配置管理、子网络的保障、子网络的优化功能、子网络的业务生产者的网络意图或子网络的业务消费者的网络意图(intent from communication service consumer,Intent-CSC)的翻译等。这里的子网络由多个小的子网络组成,可以是网络切片子网络。
域管理功能单元也可称为NMF或者网元管理功能单元。例如,域管理功能单元可以是MAE、EMS、网络功能管理业务提供者(network function management serviceprovider,NFMS_P)等网元管理实体。
其中,域管理功能单元提供以下一项或者多项功能或者管理服务:子网络或者网元的生命周期管理、子网络或者网元的部署、子网络或者网元的故障管理、子网络或者网元的性能管理、子网络或者网元的保障、子网络或者网元的优化功能以及子网络或者网元的意图(intent from network operator,Intent-NOP)的翻译等。这里的子网络包括一个或者多个网元。子网络也可以包括子网络,即一个或者多个子网络组成一个更大的子网络。
应理解,本申请中意图可以是对意图生产者(如网元)、意图生产者所在系统(如网络或子网络等)的期望,可以包括需求、目标或限制条件等。意图的翻译则是指确定意图的策略的过程,例如,策略可以是用于指示不满足意图的条件。举例来说,当意图为节能时,策略A可以是:能耗大于第一阈值时,能耗异常(即不节能);策略B可以是:能耗大于第二阈值时,能耗异常(即不节能)。可以理解,即便是对于同样的意图,采用不同策略确定出来的能够满足意图的方案可能是不一样的。
可选的,这里的子网络也可以是网络切片子网络。域管理系统可以是网络切片子网络管理功能单元(network slice subnet management function,NSSMF)、域管理数据分析功能单元(management data analytical function,domain MDAF)、域自组织网络功能(self-organization network function,SON Function)、域意图管理功能单元等。
其中,域管理功能单元可以按以下方式分类,包括:
按网络类型分类可以分为:无线接入网(radio access network,RAN)域管理功能单元(RAN domain management function,RAN domain MnF)、核心网域管理功能单元(corenetwork domain management function,CN domain MnF)、传输网域管理功能单元(transport network domain management function,TN domain MnF)等。需要注意的是,域管理功能单元也可以是某个域网络管理系统,可以管理接入网、核心网或传输网中的一种或多种;
按行政区域分类可以分为:某个地区的域管理功能单元,比如A城市域管理功能单元,B城市域管理功能单元等。
网元是提供网络服务的实体,包括核心网网元、接入网网元等。其中,核心网网元包括:接入和移动性管理功能(access and mobility management function,AMF)、会话管理功能(session management function,SMF)、策略控制功能(policy control function,PCF)、网络数据分析单元(network data analytical function,NWDAF)、网络仓库单元(NFRepository Function,NRF)以及网关等。接入网网元包括:基站(如gNB,eNB)、集中控制单元(central unit control plane,CUCP)、集中单元(central unit,CU)、分布式单元(distribution unit,DU)、集中用户面单元(central unit user plane,CUUP)等。
其中,网元可以提供以下一项或者多项管理功能或者管理服务:网元的生命周期管理、网元的部署、网元的故障管理、网元的性能管理、网元的保障、网元的优化功能以及网元意图的翻译等。
例如图3所示,在3GPP跨域MDA(cross-domain MDA)MnS生产者与RAN域MDA(RANdomain MDA)的交互过程中,跨域MDA MnS生产者可以消费RAN域MDA MnS。或者,跨域MDAMnS生产者可以消费RAN域提供的MDA MnS,并产生可能被3GPP跨域MDA MnS消费者消费的MDA MnS。
图4示例性示出了一种基于ML模型的MDA的系统架构示意图。如图4所示,该系统可包括管理功能和MDAS消费者。其中,管理功能可包括MDAS生产者,或者,管理功能可由MDAS生产者实现。在本申请的各个实施例中,MDAS生产者也可被称为MDA MnS生产者(MDA MnSproducer),或MnS生产者,MDAS消费者也可被称为MDA MnS消费者(MDA MnS consumer),或MnS消费者。本申请中,对于一项MDAS,MDAS消费者是MDAS的请求方设备,MDAS生产者是MDAS的提供方设备。
在图4所示架构中,管理功能可以收集并向MDAS生产者提供MDA的分析输入(analytics input)。MDAS消费者可以向MDAS生产者请求MDA报告,并控制MDAS生产者的MDA报告。其中,MDAS消费者控制MDAS生产者的MDA报告,例如,MDAS消费者可向MDAS生产者发送用于获得MDA报告的控制参数。
管理功能(或MDAS生产者)可根据ML模型对MDA的分析输入进行推理,并生成分析/推理输出。其中,ML模型可以是经过训练的。管理功能(或MDAS生产者)还可进一步根据分析/推理输出生成MDA报告,并向MDAS消费者提供MDA报告。
应理解,图3和图4中所示的包含圆圈和圆弧组成的图形的线段可以表示服务化接口。
目前,ML模型的训练可通过两种方式触发(intiate)。应理解,本申请中的触发也可替换为启动、开始或开始进行。
目前,一种ML模型的训练的触发方式为,由模型训练消费者触发。应理解,模型训练消费者与模型训练生产者可部署在跨域管理功能单元和/或域管理功能单元中,例如,模型训练生产者可包括域管理功能单元或跨域管理功能单元,模型训练消费者可包括域管理功能单元或跨域管理功能单元。此外,模型训练消费者包括机器学习模型训练(ML modeltraining,MLMT)管理服务消费者(MLMT MnS consumer),用于对ML模型进行训练的MDAS生产者可称为模型训练生产者,如机器学习模型训练管理服务生产者(MLMT MnS producer)。示例性的,在MDAS场景中,模型训练消费者可包括MDAS消费者,模型训练生产者可包括MDAS生产者。应理解,本申请中的模型训练可包括对于AI/ML模型的训练或对应用(application,APP)的训练,或者可以说,AI/ML模型可包括应用。AI/ML模型训练也可称之为AI/ML训练(AI/ML training)或AI/ML应用训练(AI/ML application training,AI/MLAPP training)等。
可以理解的是,本申请中的模型训练生产者可以是ML模型训练管理服务生产者,模型训练消费者可以是ML模型训练管理服务消费者。
该触发方式中,如图5所示,ML模型的训练可以由来自一个或多个模型训练消费者的ML模型训练请求触发。可选的,模型训练消费者可能会提供数据源(data source)作为用于对ML模型进行训练的训练数据。模型训练生产者可向模型训练消费者返回响应(response)来告知模型训练消费者,训练请求是否已经被接受。
另一种触发方式中,模型训练生产者基于从模型训练消费者接收的反馈或ML模型性能评估结果,来触发ML模型的训练;或者,当存在更新的网络状态或更新的训练数据可用时,由模型训练生产者来触发ML模型的训练。此外如图5所示,当MDAMnS生产者完成ML模型的训练,MDAMnS生产者可向MDAMnS消费者发送ML模型的训练结果。本申请中,ML模型的训练结果也可简称为训练结果。
本申请中,反馈或称反馈报告,可包括ML模型类型、ML模型精度,或用于指示是否已训练的ML模型是否被采用。例如,反馈所包括的ML模型精度可指示在ML模型使用过程中确定的精度,如果ML模型精度不高(例如低于精度阈值),则模型训练生产者可启动该ML模型的训练。
应理解,ML模型的精度可被定义为真正例(true positive,TP)数量除以真正例数量与假正例(false positive,FP)数量的和。
一种对于真正例数量和假正例数量的解释中,真正例是测试数据中的正例数据被ML模型识别为正例的次数,假正例指的是ML模型将测试数据中的反例数据错误地识别为正例的次数,例如,精度为90%,或者精度可以通过小数表示,如精度为0.9。假设正例是ML模型的多类可能的识别结果中的一类识别结果,其他类识别结果为反例,正例数据则是指识别结果应属于正例的数据,正例数据则是指识别结果应属于反例的数据。举例来说,正整数和非正整数为ML模型的两类识别结果,假设正整数为正例,非正整数为反例,正例数据例如包括1,反例数据例如包括0。当ML模型识别1为正整数,则真正例次数增加1,当ML模型识别0为正整数,则假正例次数增加1。
另一种对于真正例数量和假正例数量的解释中,ML模型可用于识别数据是否符合某种要求,如果一项待识别的数据应被识别为符合该要求,且在该ML模型对该向数据的识别过程中,实际将该项数据识别为符合该要求,则ML模型的真正例数量加1;如果一项待识别的数据应被识别为符合要求,但是在该ML模型对该向数据的识别过程中,实际将该项数据识别为不符合该要求,则ML模型的假正例数量加1。
该ML模型的性能评估结果可用于衡量ML模型的性能,如果ML模型的性能评估结果表示ML模型性能不佳(如ML模型每次计算的耗时超出要求,或者,ML模型使用过程中的计算误差超出误差阈值等),则模型训练生产者可能触发对ML模型的训练。可选的,反馈也可包括ML模型的性能评估结果。
更新的网络状态可以是变化的网络状态。可以理解的是,由于网络状态发生变化,可能会导致用于进行ML模型训练的训练数据发生变化,因此,当网络状态更新时可由模型训练生产者触发ML模型的训练。本申请中,更新的网络状态也可称为新网络状态。更新的网络状态比如可以包括:某几个小区进入了节能态,或者某些小区的发射功率被调整了。
更新的训练数据具体可以是数据分布、数据值等参数发生变化,或者可以是由于网络状态变化等原因,导致的变化的数据。本申请中,更新的训练数据也可称为新训练数据。更新的训练数据可以是从外部服务器例如5G核心网,或者其他外部应用(application,APP)等应用程序获取的数据,本申请中不具体限定。
目前,ML模型的训练对于ML模型性能提升效果不佳,存在资源浪费。例如,如果由模型训练生产者发起ML模型的训练,模型训练生产者可能在不需要进行ML模型训练时启动了该ML模型的训练,比如,如果ML模型的性能尚且能够满足模型训练消费者的使用需求,则不需要进行ML模型训练,如果此时由模型训练生产者发起该ML模型的训练,则训练对于ML模型的性能提升效果不理想,存在资源浪费。
为了避免第一设备在不需要对ML模型进行训练时对该ML模型进行训练,从而减少资源浪费,本申请实施例提供一种用于机器学习模型训练的通信方法。
该通信方法可由第一设备和第二设备实施。其中,第一设备可以是模型训练生产者或模型训练生产者中的训练执行模块,第二设备可以是模型训练消费者或模型训练消费者中的训练控制模块。示例性的,模型训练生产者包括MLMT MnS生产者,模型训练消费者可包括MLMT MnS消费者。具体来说,MLMT MnS生产者可以是MDAS生产者,MLMT MnS消费者可以是MDAS消费者。
可选的,本申请中的第一设备可包括域管理功能单元,如RAN domain MnF,第二设备可包括跨域管理功能单元。MLMT MnS消费者和/或MDAS消费者可位于域管理功能单元或跨域管理功能单元。MLMT MnS生产者和/或MDAS生产者可位于域管理功能单元或跨域管理功能单元。
如图6所示,本申请实施例提供的一种用于机器学习模型训练的通信方法可包括S101至S103所示步骤。
S101:第二设备确定第一信息,第一信息包括第一指示和ML模型的训练条件中的至少一个。
其中,第一指示的取值范围包括第一值和第二值,第一值用于指示第一设备进行ML模型的训练,第二值用于指示该第一设备不进行该ML模型的训练,第一指示的取值为该第一值。
本申请中,该ML模型的训练条件也可称为(或理解为)ML模型的训练策略。ML模型的训练策略可包括启动ML模型训练的条件。当满足ML模型的训练策略时,可由第一设备启动该ML模型的训练。满足ML模型的训练策略可理解为,满足ML模型的训练策略包括的启动ML模型训练的条件。
本申请后续将结合流程图对第一信息包括第一指示的实施例和第一信息包括ML模型的训练策略的实施例分别进行介绍,这里暂不展开。
S102:第二设备向第一设备发送第一信息。
相应的,第一设备从第二设备接收该第一信息。
S103:第一设备根据第一信息进行该ML模型的训练。
S103中,当第一信息包括第一指示时,第一设备根据第一信息进行该ML模型的训练,可理解为,第一设备在收到取值为第一值的第一指示后,开始或继续该ML模型的训练。而如果第一设备接收到取值为第二值的第一指示,则可以停止、取消或不再进行该ML模型的训练。当第一信息包括ML模型的训练策略时,第一设备根据第一信息进行该ML模型的训练,可理解为,第一设备在满足训练策略时启动或进行该ML模型的训练。
需要说明的是,第一设备对ML模型进行训练所采用的算法包括但不限于模拟退火(simulated annealing,SA)算法或禁忌搜索(tabu search,TS)算法,或者也可以采用其他可用于模型训练的采用,本申请不具体限定。
本申请实施例中,第一设备可基于从第二设备接收的第一指示和ML模型的训练策略中的至少一项进行ML模型的训练,因此,第一设备进行该ML模型训练是得到第二设备确认的,或者,是根据第二设备指示的ML模型的训练策略进行的,因此能够避免第一设备在不需要对ML模型进行训练时对该ML模型进行训练,能够减少资源浪费。应理解,本申请中的减少资源浪费,也可描述为,节约训练资源等,不具体限定。
作为S102中第一信息的一种实现方式,第一信息可包括第一指示。其中,当第一指示的取值为第一值时,表示第二设备确认第一设备可以执行该ML模型的训练,当第一指示信息的取值为第二值时,表示第二设备确认第一设备不进行该ML模型的训练。可以得知,第一设备可以根据第一指示判断ML模型训练是否需要执行,例如当第二设备根据当前的能耗或ML模型的性能认为不需要进行该ML模型的训练,即发送第二值的第一指示,相应的,第一设备可不进行ML模型的训练;或者当第二设备确定该ML模型的当前精度不够,即发送第一值的第一指示,使得第一设备对该ML模型进行训练,相应的,在收到取值为第一值的第一指示后,第一设备可确定第二设备确认由第一设备进行该ML模型的训练,或者说,在收到取值为第一值的第一指示后,第一设备可确定进行该ML模型的训练。
举例来说,该第一指示可以是“是(yes)”或者“否(no)”的指示信息,例如,“是”的指示信息的比特位取值为“1”,即第一值为“1”,“否”的指示信息的比特位取值为“0”,即第二值为“1”。当比特位取值为“1”时表示“是”,当比特位取值为“0”时表示“否”。第一值也可以包括“1”以外的表示“是”含义的其他指示,第二值也可以包括“0”以外的表示“否”含义的其他指示,本申请不具体限定。
在一种可能的示例中,本申请中的第一指示不属于或不包括第二设备发送至第一设备的ML模型的训练请求。
在一种可能的示例中,S102中取值为第一值的第一指示是第二设备针对来自于第一设备的第二指示做出的肯定答复。第二指示可用于通知启动该ML模型的训练,或者说,第二指示可用于通知该ML模型的训练启动。应理解,本申请中的第二指示还可用于指示第二设备确认第一设备是否对该ML模型进行训练。在另外的示例中,第二指示用于指示第二设备确认是否由第一设备进行该ML模型的训练。在接收到该第二指示后,第二设备可确认是否由第一设备进行该ML模型的训练,或者,第二设备可确定第一指示的取值为第一值或第二值。
因此在本申请中,可由第一设备通过第二指示向第二设备指示启动ML模型的训练,或指示由第二设备确认第一设备是否对ML模型进行训练,能够避免第一设备在不需要对ML模型进行训练时启动ML模型的训练,以减少资源浪费。此外,基于该第二指示,第二设备能够获知第一设备启动的ML模型的训练,避免第二设备重复请求第一设备启动该ML模型的训练而导致训练冲突。
可选的,第一设备可以在启动ML模型的训练后发送第二指示。其中。本申请中第一设备启动ML模型的训练可能包括以下几种情况:
情况一,第一设备可根据从第二设备接收的反馈或ML模型的性能评估结果,来启动ML模型的训练,或者,第一设备可基于更新的网络状态或者更新的训练数据来启动ML模型的训练。
举例来说,第二设备可通过对第一设备提供的ML模型的使用,获得反馈或ML模型的性能评估结果。第一设备还可向第一设备发送反馈或ML模型的性能评估结果,使得第一设备根据反馈或ML模型的性能评估结果启动ML模型的训练。例如,如果来自于第二设备的反馈指示ML模型的精度不高,则第一设备可启动该ML模型的训练。又如,如果来自于第二设备的ML模型的性能评估结果表示该ML模型的性能不佳,则第一设备可启动ML模型的训练。
此外,当第一设备获取到更新的网络状态和/或更新的训练数据时,第一设备还可根据更新的网络状态和/或更新的训练数据来启动ML模型的训练。
情况二,第一设备可接收来自于第二设备的ML模型的训练策略,并在确定满足ML模型的训练策略后,启动ML模型的训练,该ML模型的训练策略可来自于第二设备。其中,ML模型的训练策略可参见本对于S101和S301中的ML模型的训练策略进行的描述,在本申请不做限定。
作为S101中第一信息的另一种实现方式,第一信息包括ML模型的训练策略时,ML模型的训练策略可包括网络负载条件、网络覆盖条件和网络性能条件中的至少一项。也就是说,用于启动ML模型的训练的条件可包括网络负载条件、网络覆盖条件和网络性能条件中的至少一项。基于该实现方式,本申请中可准确和灵活设置ML模型的训练条件,以进一步减少资源浪费。
其中,网络负载条件与当前网络负载有关,如果当前网络负载满足网络负载条件,则第一设备可启动该ML模型的训练,或者说,此时第一设备可进行该ML模型的训练。
示例性的,网络负载条件可包括PRB利用率阈值和用户连接数阈值中的至少一项。其中,PRB利用率阈值例如,某个区域(可称为分析区域)内的PRB的利用率的百分比,如果该区域内的PRB的利用率的百分比超过或达到该阈值,则第一设备可启动该ML模型的训练。可以理解的是,本申请中的分析区域可包括特定区域(如地理位置区域)、特定小区所在的区域或特定基站所在的区域,也可包括多个特定区域、特定小区或多个特定基站所在的区域,本申请不具体限定。应理解,PRB利用率阈值可以是适用于特定区域、特定小区或者特定基站的阈值,也可以是适用于多个区域、多个小区、多个基站的阈值,也即ML模型训练粒度可以是区域粒度、小区粒度或者基站粒度,本申请在此不做限定。该示例中,该ML模型的训练策略可包括物理资源块利用率阈值和用户连接数阈值中的至少一项。
本申请中,ML模型训练粒度是指训练后的ML模型的生效范围,训练后的ML模型可用于在生效范围内提供分析服务,例如,区域粒度、小区粒度和基站粒度分别是指,训练后的ML模型分别可用于提供一个或多个区域、一个或多个小区或者一个或多个基站的覆盖范围内的分析服务。
网络负载条件还可包括用户连接数阈值。如果某个区域内的用户连接数超过或达到用户连接数阈值,则第一设备可启动该ML模型的训练。应理解,用户连接数阈值可以是适用于特定区域、特定小区或者特定基站的阈值,也可以是适用于多个区域、多个小区、多个基站的阈值,也即训练粒度可以是区域粒度、小区粒度或者基站粒度,本申请在此不做限定。
网络覆盖条件与区域内达到某个信号测量量的覆盖率有关。其中,该覆盖率是指,区域内的信号质量满足信号质量阈值的范围占区域全部范围的比例。信号测量量可包括RSRP、RSRQ和RSSINR。示例性的,本申请中的网络覆盖条件可包括RSRP阈值及区域内所述RSRP阈值的覆盖率阈值、RSRQ阈值及区域内RSRQ阈值的覆盖率阈值,或RSSINR阈值及区域内所述RSSINR阈值的覆盖率阈值中的至少一项。
示例性的,如果某个区域内达到某个信号测量量阈值的覆盖率达到(或超过)该信号测量量对应的覆盖率阈值,则不需要对该ML模型进行训练,第一设备不启动该ML模型的训练;如果区域内达到信号测量量阈值的覆盖率未达到(或未超过)信号测量量的覆盖率阈值,则需要对该ML模型进行训练,第一设备可启动该ML模型的训练。以信号测量量是RSRP,RSRP阈值为-110db,且RSRP阈值对应的覆盖率阈值为80%为例,如果某个区域内测得的RSRP达到该RSRP阈值的范围(例如,所述范围可以是测量量的数量、用户数或者栅格(grid)数,本发明在此不限定)占该区域全部范围的比例的82%,则第一设备可确定不需要对该ML模型进行训练,第一设备不启动该ML模型的训练。其中,栅格数是指,对区域划分为等面积的栅格后,栅格内的某个信号测量量达到该栅格内的信号测量量阈值的栅格的数量。
在相同的RSRP阈值和RSRP覆盖率阈值条件下,如果另一区域内测得的RSRP达到该RSRP阈值的范围占该区域全部范围的比例的75%,则第一设备可确定需要对该ML模型进行训练。应理解,第一设备获得RSRP等信号测量量的方式在本申请不做限定。
应理解,信号测量量的阈值与该信号测量量的覆盖率可以单独指示,或者,可通过同一个信令或消息或信息指示。
网络性能条件与网络性能有关。如果当前网络性能不佳,则第一设备可对ML模型进行训练,从而通过对ML模型的训练优化网络性能。如果当前网络性能较好,则第一设备不需要启动ML模型的训练。
示例性的,网络性能条件可包括切换成功率(handover success rate)阈值、数据能效(data energy efficiency)阈值和网络切片能效(network slice energyefficiency)阈值中的至少一项。
本申请中,切换成功率也可称为无线接入网切换成功率,用于指示无线接入网内的用户设备(user equipment,UE)在基站之间进行切换时的切换成功率。当切换成功率未达到或未超过切换成功率阈值,则第一设备可对ML模型进行训练,从而通过对ML模型的训练优化切换成功率。当切换成功率达到或超过切换成功率阈值,则第一设备不需要对ML模型进行训练。
数据能效可包括无线接入网中移动网络数据能效的指标。当数据能效未达到或未超过数据能效阈值,则第一设备可对ML模型进行训练,从而通过对ML模型的训练优化数据能效。当数据能效达到或超过数据能效阈值,则第一设备不需要对ML模型进行训练。
网络切片能效与网络切片性能和网络切片的能耗有关。当网络切片能效未达到或未超过网络切片能效阈值,则第一设备可对ML模型进行训练,从而通过对ML模型的训练优化网络切片能效。当网络切片能效达到或超过数据能效阈值,则第一设备不需要对ML模型进行训练。
应理解,本申请中的切换成功率、数据能效和网络切片能效的定义及确定方式也可以可参照3GPP技术规范(technical specification,TS)28.554版本(version,V)17.5.0的第6章中的说明。此外,以上切换成功率、数据能效和网络切片能效中的一个或多个也可以替换成3GPP TS28.554 V17.5.0中包括的其他用于衡量网络性能的指标,或者说,网络性能条件还可包括3GPP TS28.554 V17.5.0中包括的除切换成功率、数据能效和网络切片能效以外的其他用于衡量网络性能的指标。
据此,本申请的各个实施例中可进一步准确、灵活地设置网络负载条件、网络覆盖条件和网络性能条件,进一步避免第一设备在不需要对ML模型进行训练时启动对该ML模型的训练,以进一步减少资源浪费。
可选的,训练策略与ML模型对应,也就是说,训练策略是针对ML模型确定的,或者可以说,不同的ML模型可具备不同的训练策略,具体可由第二设备决定ML模型的训练策略。例如,当ML模型应用在不同场景时,ML模型的训练策略不同。作为一种示例,覆盖问题分析场景下,ML模型的训练策略至少包括网络覆盖条件,而在其他场景下,网络覆盖条件是可选的第一设备启动ML模型的训练的条件。
图7所示流程为本申请实施例提供的一种用于机器学习模型训练的通信方法,该流程中,第一设备接收来自于第二设备的第一指示,并根据第一指示进行ML模型的训练。可以理解的是,图7所示流程为图6中的第一信息包括第一指示时的一种实现方式,此时图6中的S102可由图7中的S202实现。
基于图7所示流程,第一设备可以在启动ML模型的训练后,向第二设备发送第二指示,由第二设备根据第二指示向第一设备发送第一指示。因此,可避免第一设备在不需要对ML模型进行训练时启动ML模型的训练,从而减少资源浪费。另外,该实现方式能够令第二设备根据第二指示获知由第一设备启动ML模型的训练,避免第二设备重复发起该ML模型的训练导致训练冲突。
具体如图7所示,在S201中,第一设备可以在启动该ML模型的训练后,向第二设备发送第二指示。可选的,作为一种示例,第一设备可以向第二设备发送第一通知(notification)(或第一消息),其中,第一通知中可包括第二指示。
应理解,第二指示可以是该第一通知中的特定信息,如某个字段或比特位的特定取值,也就是说,该字段或比特位的特定取值可用于指示第二设备确认第一设备是否对该ML模型进行训练。举例来说,第二指示该第一通知中的第X个比特位,当该比特位的取值为1时,该比特位用于指示第二设备确认第一设备是否对该ML模型进行训练,其中,0≤X,X为正整数。例如,第二设备接收到来自于第一设备的通知,确定该通知的第X个比特位的取值为1,则该通知或该比特位用于指示第二设备确认第一设备是否对该ML模型进行训练,也就是说,此时第二设备可确认第一设备是否对该ML模型进行训练,该通知为第一通知。例如,第二设备接收的来自于第一设备的通知中,第X个比特位的取值为0,则该通知未指示第二设备确认第一设备是否对该ML模型进行训练,或者说,第二设备不需要根据该通知确认第一设备是否对该ML模型进行训练,该通知可能具有其他含义,本申请不具体要求。
另外,第二指示也可以是该第一通知本身,也就是说,该通知可用于指示第二设备第一设备是否对该ML模型进行训练。比如,具有特定名称的通知、具有特定属性的通知或通过特定接口发送的通知可作为该第一通知。其中,该第一通知中可不包括用于指示是否进行该ML模型的训练的属性、信息字段或比特位,下文中将结合该第一通知可能包含的属性构进行具体介绍,这里暂不展开。
进一步如图7所示,S202中,第二设备可向第一设备发送第一指示。可选的,第二设备可以向第一设备发送第二通知(或第二消息),该第二通知中可包括第一指示。也就是说,S202可作为S101的一种实现方式。
具体来说,第二设备在接收到S201所示的第二指示后,可判断是否确认第一设备是否对该ML模型进行训练,并根据判断结果执行S202。S202中的第一指示的取值范围包括第一值和第二值,具体可参见S101中对于第一指示的说明。
其中,如果第二设备确认第一设备对该ML模型进行训练,则S202中的第一指示的取值为第一值,即第二设备向第一设备发送取值为第一值的第一指示。如果第二设备确认第一设备不对该ML模型进行训练,则S202中的第一指示的取值为第二值,即第二设备向第一设备发送取值为该第二值的第一指示。
相应的,第一设备可从第二设备接收第一指示,并第一设备根据第一指示的取值确定是否进行ML模型的训练。其中,如果第一指示的取值为第一值,则执行S203,即由第一设备进行该ML模型的训练。应理解,图7中的S203为图6所示的S103的一种示例。另外,如果第一指示的取值为第二值,则第一设备不进行该ML模型的训练。
在另一种实现方式中,如果第二设备确认第一设备不对该ML模型进行训练,则第二设备不执行S202,或者,不发送第一指示;相应的,如果第一设备未接收到第二通知,则第一设备不需要执行S203。
在图7所示流程中,可选的,第一设备还可向第二设备发送该ML模型的训练状态信息,从而可由第二设备根据该ML模型的训练状态信息,确认第一设备是否对该ML模型进行训练。例如在S201中,第一设备可向第二设备发送第二指示以及该ML模型的训练状态信息。
在一种可能的实现方式中,该ML模型的训练状态信息可用于指示该ML模型是否经过训练。例如,该ML模型的训练状态信息可指示该ML模型正在执行训练、已经执行了训练等。应理解,这里的训练包括该ML模型的首次训练或重训练(ML model retraining)等,不具体限定。
举例来说,在该实现方式中,如果该ML模型的训练状态信息指示该ML模型已经经过训练,则第二设备可避免重复对该ML模型进行训练,避免训练冲突因此提高ML模型的训练准确度,因此,此时第二设备可确认第一设备不对该ML模型进行训练。
在另一种可能的实现方式中,该ML模型的训练状态信息可指示是否根据该ML模型的性能评估结果或反馈进行该ML模型的训练。举例来说,第一设备从第二设备接收的对于该ML模型的性能评估结果或反馈,并根据性能评估结果或反馈触发对该ML模型的训练,则该ML模型的训练状态信息可指示本次训练是基于该性能评估结果或反馈进行的。
在另一种可能的实现方式中,该ML模型的训练状态信息可指示是否根据更新的网络状态和更新的训练数据中的至少一项进行该ML模型的训练。举例来说,当第一设备根据更新的网络状态确定对该ML模型进行训练时,该ML模型的训练状态信息可指示根据更新的网络状态进行该ML模型的训练。再例如,当第一设备根据更新的训练数据确定对该ML模型进行训练时,该ML模型的训练状态信息可指示根据更新的训练数据进行该ML模型的训练。又例如,当第一设备根据更新的网络状态和更新的训练数据确定对该ML模型进行训练时,该ML模型的训练状态信息可指示根据更新的网络状态和更新的训练数据进行该ML模型的训练。
进一步可选的,该ML模型的训练状态信息还可以进一步包括用于指示是否是基于该第二设备发送的更新的训练数据进行的训练的信息,或包括用于指示是否基于其他来源(例如,第一设备从其他渠道获取的训练数据)的更新的训练数据进行该ML模型的训练的信息。
应理解,如果该ML模型的训练状态信息指示根据该ML模型的性能评估结果(或反馈)进行该ML模型的训练,或者,指示根据更新的网络状态和更新的训练数据中的至少一项进行该ML模型的训练,则无论该ML模型是否已经进行了训练,第二设备都可以确认第一设备对该ML模型进行训练,因为这种情况下,即便此前该ML模型经过了训练,但此前训练的ML模型的精度可能无法满足当前需求,需要重新训练以提高精度。
在本申请中,第二设备可以根据所述训练状态信息判断是否已经获取到ML模型,或者已获取的ML模型的精度是否满足需求,进而确定是否需要指示第二设备重新执行ML模型训练,从而进一步避免第一设备在不需要对ML模型进行训练时对该ML模型进行训练。
可选的,以上ML模型的训练状态信息可以是针对一个或多个特定分析场景(或称场景(use cases))的,例如,用于指示该场景中的ML模型是否经过训练,或者,指示特定场景中的该ML模型是否根据该ML模型的性能评估结果、更新的网络状态和更新的训练数据中的至少一项进行训练,因此能够帮助第二设备结合场景进一步合理地确认第一设备是否进行该ML模型的训练。例如,不同场景对于ML模型的性能要求不同,因此,第二设备可根据场景对于ML模型性能的要求确认第一设备是否对ML模型进行训练。
具体的,场景可包括覆盖问题分析(coverage problem analysis)、切片覆盖问题分析(slice coverage analysis)、寻呼优化分析(paging optimization analysis)、故障分析(alarm incident analysis)、故障预测分析(fault prediction analysis)、端到端(end-to-end,E2E)时延分析(E2E latency analysis)、节能分析(energy savinganalysis)、移动性分析(mobility performance analysis)、网络切片负载分析(networkslice load analysis)、网络切片吞吐量分析(network slice throughput analysis)、关键绩效指标(key performance indicator,KPI)异常分析(KPI anomaly analysis),或无线接入网节点软件升级分析(RAN node software upgrade)等场景。
其中,覆盖问题分析是对覆盖情况例如弱覆盖、过覆盖、越区覆盖等问题进行分析,并给出覆盖问题分析结果。切片覆盖问题分析是用于分析切片覆盖、切片可用性以及切片预测信息等。寻呼优化分析是用于分析用户的寻呼数据,优化当前网络的寻呼过程。故障分析是用于分析网络告警、故障或者事件并提供解决建议。故障预测分析是用于分析预测潜在的网络故障以提供解决建议。端到端时延分析用于分析例如RAN时延问题、核心网(core network,CN)时延问题、传输网(transport network,TN)时延问题、UE时延问题、服务提供商时延问题以支持服务等级规范(service level specification,SLS)保障。节能分析用于分析RAN或CN的能耗和能效问题以降低网络能耗并提升能效。移动性分析用于分析网络移动性能例如切换过早、切换过晚等移动性能,提升网络切换成功率。网络切片负载分析用于分析由于负载问题(例如无线资源利用率)而导致的性能策略和KPI的下降,以进一步为网络切片负载问题提供建议。网络切片吞吐量分析用于分析和预测网络切片的吞吐量,以提升或保证网络吞吐量。KPI异常分析用于分析跨域和单域的KPI以识别根因并提供修复建议。其中,根因是指KPI异常的原因,例如,根因包括参数配置异常、软件异常,硬件设备异常或业务需求增加等。无线接入网节点软件升级分析,可用于分析和优化RAN节点软件升级的时间,该时间内的预期影响较小或预期运营成本和数据丢失较小,以避免业务中断从而节省运营成本,也就是说,通过无线接入网节点软件升级分析,可以在预期运营成本和数据丢失较小的较佳时间自动启动软件升级。上述场景可以参考3GPP TS28.104 V0.3.0第7章和技术报告(technical report,TR)28.809V17.0.0第6章中的介绍,这里不再具体展开。
应理解,在本申请的各个实施例中,可选的,第二指示与ML模型的训练状态信息可携带在同一个消息(如第一通知)中,也可以相互独立发送,不具体限定。
下文中将结合表1对ML模型的训练状态信息包括在第一通知中时的一种可能的实现方式进行介绍,这里暂不展开。
如图8所示,为本申请实施例提供的另一种用于机器学习模型训练的通信方法的流程,该流程中,第一设备从第二设备接收ML模型的训练策略,该ML模型的训练策略即第一设备启动ML模型的训练的条件,因此,图8所示流程可避免第一设备在不需要对该ML模型进行训练时启动该ML模型的训练,从而可以减少资源浪费。可以理解的是,图8所示流程为图6所示流程在第一信息包括ML模型的训练策略时的一种实现方式,此时图6中的S102可由图8中的S301实现。示例性的,图8所示流程可包括S301至S302。
如图8所示,在S301中,第二设备可以向第一设备发送ML模型的训练策略。也就是说,S301可作为图6所示S101的一种实现方式,或者,
可选的,S301中,第二设备可以向第一设备发送ML模型的训练策略。可选的,第二设备可以在确定需要第一设备进行ML模型的训练的情况下,向第一设备发送ML模型的训练策略。确定需要第一设备进行ML模型的训练的情况例如,当ML模型性能不满足第二设备对于该ML模型性能的需求的情况下,或者,距离该ML模型的上一次训练经过设定时间后,第二设备可确定需要进行ML模型的训练。
在S302中,第一设备可根据该ML模型的训练策略进行该ML模型的训练。
应理解,S302为S103的一种示例。
如S103中的说明,第一设备根据该ML模型的训练策略进行该ML模型的训练可理解为,在满足该ML模型的训练策略后,第一设备进行该ML模型的训练。
在图8所示流程的一种可能的实现方式中,还可由第一设备请求第二设备确认第一设备是否对该ML模型进行训练,从而避免第一设备在不需要对该ML模型进行训练时启动该ML模型的训练。例如,S302还可包括:在第一设备确定满足该ML模型的训练策略后,第一设备向第二设备发送第二指示。可选的,该第二指示可通过图7所示流程中的S201实现,因此可参见S201中的说明。第一设备还可接收来自于第二设备的第一指示,当第一指示的取值为第一值时,第一设备可进行该ML模型的训练;否则,如果第一指示的取值为第二值,或者,第一设备未接收到取值为第一值的第一指示,则第一设备停止或不进行该ML模型的训练。可选的,该第一指示可通过图7所示流程中的S202实现,因此可参见S202中的说明。
在本申请的各个实施例中,第一设备还可接收来自于第二设备的该ML模型的训练控制参数,该训练控制参数用于对该ML模型进行训练。例如,在S103、S203和S302中,第一设备可根据ML模型的训练控制参数对ML模型进行训练。
示例性的,ML模型的训练控制参数包括ML模型的标识、ML模型的类型信息、ML模型训练的迭代次数、ML模型性能需求、ML模型训练时间,和用于训练ML模型的数据等参数中的至少一项。示例性的,第一设备根据ML模型的训练控制参数对ML模型进行训练,是指第一设备根据以上ML模型训练的迭代次数、ML模型性能需求、ML模型训练时间,和用于训练ML模型的数据等参数中的至少一项对ML模型进行训练,其中可选的,ML模型的标识和ML模型的类型信息中的至少一项,可用于确定被训练的ML模型。
根据该示例,第一设备基于以上ML模型的训练控制参数进行该ML模型的训练,可进一步提升ML模型的训练效果,提高该ML模型的训练效率。
其中,ML模型的标识可用于指示训练控制参数适用的ML模型,因此第一设备可根据训练控制参数对具有该标识的ML模型进行训练。
ML模型的类型信息可用于指示训练控制参数使用的ML模型的类型或训练类型。其中,ML模型的类型或训练类型可对应于ML模型所适用的场景。比如说,ML模型的类型可包括覆盖问题分析、切片覆盖问题分析等类型,可参照本申请中对于场景的介绍。因此第一设备可对属于该类型的ML模型进行训练。
可选的,当训练控制参数中不包括ML模型的标识和ML模型的类型信息时,第一设备可将训练控制参数应用于对全部ML模型的训练。ML模型训练的迭代次数可指示第一该ML模型进行训练的最大次数。
ML模型性能需求可包括ML模型的精度要求或置信度要求等。ML模型的精度要求例如准确率要求和错误率要求。其中,准确率用于表示经过训练的ML模型的准确程度,错误率用于表示经过训练的ML模型的误差百分比。该置信度是训练出的ML模型的可信程度。例如,ML模型的性能需求可指示该ML模型的准确率要求为99%,且置信度要求为90%。
ML模型训练时间可用于指示该ML模型需要训练的时长。例如,ML模型训练时间指示第一设备需要对该ML模型进行一天或N(N大于0)小时的训练。
用于训练ML模型的数据可包括数据源、更新的网络状态和更新的训练数据中的至少一项。因此,该ML模型的训练控制参数可进一步精确设置用于训练该ML模型的数据,从而进一步提升ML模型的训练效果,或者,可以指示第一设备根据一部分数据对ML模型进行训练以提高该ML模型的训练效率。
其中,数据源是根据数据源(candidate data source)地址获得的用于第一设备对该ML模型进行训练的数据。其中,数据源地址可来自于第一设备。其中,数据源可以提前布置在数据源地址所属的设备中,本申请对于数据源所包括的数据的内容不做具体要求。
更新的网络状态可包括网络状态的变更信息,例如,包括用于指示某个网络状态发生变化的指示。示例性的,当分析区域内的一些小区进入节能态时,更新的网络状态可用于指示这些小区进入节能态。
更新的训练数据具体可以是数据分布或数据值等发生变化后的数据。
应理解,用于训练ML模型的数据可包括来自于第二设备的数据、由第一设备所采集的数据或第一设备从其他设备获取的数据。例如,其他设备可包括5G核心网、APP等应用程序或外部服务器等,不具体限定。
可选的,以上ML模型训练的迭代次数、ML模型性能需求、ML模型训练时间,和用于训练ML模型的数据等参数中的至少一项,可以是公共的训练控制参数,即对应于多个ML模型的训练过程均适用。以上ML模型训练的迭代次数、ML模型性能需求、ML模型训练时间,和用于训练ML模型的数据等参数中的至少一项,也可以是针对一个ML模型或针对多个ML模型设置的训练控制参数,即ML模型的训练控制参数只适用于一个ML模型或多个ML模型的训练过程。其中,多个ML模型的类型信息可以相同。当ML模型的训练控制参数包括ML模型的标识和/或ML模型的类型信息时,第一设备可根据ML模型训练的迭代次数、ML模型性能需求、ML模型训练时间,和用于训练ML模型的数据等参数中的至少一项,对具有该ML模型的标识和/或ML模型的类型信息的ML模型进行训练。
此外,ML模型的训练控制参数还可包括训练周期的参数,用于提高ML模型的训练周期性。
可以理解的是,由于不同场景下的ML模型可能不同,因此在不同的分析场景下,用于训练ML模型的训练控制参数可能存在区别,也就是说,ML模型的训练控制参数可以是针对特定场景设置或确定的。
可选的,该ML模型的训练控制参数可以是第二设备向第一设备发送的。例如,在图7所示流程中,第一设备可以在S202中发送取值为第一值的第一指示以及该ML模型的训练控制参数,例如,第一指示与该ML模型的训练控制参数可携带在同一个通知(如第一通知)或消息中,或者,第一指示与该ML模型的训练控制参数可携带在不同的通知或消息中。又如,在图8所示流程中,第一设备可以在S301中向第二设备发送该ML模型的训练策略和训练控制参数,例如,该ML模型的训练策略和训练控制参数可携带在同一个通知或消息中,或者,该ML模型的训练策略和训练控制参数可携带在不同的通知或消息中。或者,无论是否执行S202和S301,第二设备可以通过其他通知或消息向第一设备发送该ML模型的训练控制参数。
作为一种可能的示例,在本申请的各个实施例中,第一设备可向第二设备请求该ML模型的训练控制参数,以准确获得训练该ML模型所需的训练控制参数,以提高训练效率。相应的,第二设备可基于第一设备的请求,向第一设备发送该ML模型的训练控制参数。
示例性的,第一设备可向第二设备发送第三指示,该第三指示可用于请求该ML模型的训练控制参数,使得第二设备在接收到该第三指示后,向第一设备发送该ML模型的训练控制参数。例如,第三指示可包括该ML模型的标识和类型信息中的至少一项。应理解,第三指示可以在第一设备接收到S102中的第一信息之前或之后发送。在一种可能的实现方式中,第三指示可以是第一设备针对本次训练所发送的,例如,第一设备在接收到第一信息后发送第三指示。在另外的实现方式中,第三指示也可以是在该ML模型此前的训练过程中发送的,本申请不具体限定。例如,在图7所示流程中,第一设备可以在S201中发送第二指示以及第三指示,该第二指示与第三指示可携带在同一通知(如第一通知)或消息中,或者,第二指示以及第三指示可携带在不同的通知或消息中。又如,在图8所示流程中,第一设备可以在接收到S301所示的ML模型的训练策略后,向第二设备发送第三指示,如,发送携带第三指示的通知或其他消息。或者,无论是否执行S201和S301,第一设备都可以通过通知或消息向第二设备发送第三指示。
作为其他可能的示例,该ML模型的训练控制参数也可以是提前配置在第一设备的,或者可以是第一设备从其他设备获取的,本申请不具体限定。
在本申请的各个实施例中,第一设备在进行ML模型的训练之后,还可向第二设备发送ML模型的训练结果。相应的,第二设备从第一设备接收ML模型的训练结果,以便第二设备根据训练后的ML模型进行问题分析,提高分析性能。例如可选的,图7所示流程还可包括S204,在S204中,由第一设备向第二设备发送该ML模型的训练结果。又如,图8所示流程还可包括S303,在S303中,由第一设备向第二设备发送该ML模型的训练结果。应理解,图7和图8中虚线箭头表示可选的步骤。
可选的,第一设备可根据ML模型的训练结果上报方法(reporting method)配置,向第二设备发送ML模型的训练结果。例如,ML模型的训练结果上报方法配置可包括该ML模型的训练结果上报的周期或该ML模型的训练结果的上报方式等配置,则第一设备可按照训练结果上报方法配置指示的周期或上报方式中的至少一项,向第一设备上报该ML模型的训练结果。可选的,训练结果上报方法配置中可包括该ML模型的标识和类型信息中的至少一项,以指示该训练结果上报方法配置适用于哪些ML模型的训练结果的上报。
其中,该ML模型的训练结果的上报方式可包括文件数据上报(file datareporting)(或简称为文件上报)方式、流数据上报(streaming data reporting)(或简称为流上报)方式,或通知上报方式。
作为一种示例,如果第一设备采用流上报方式向第二设备发送该ML模型的训练结果,第一设备可以向第二设备发送包括建立流连接(establish streaming connection)、终止流连接(terminate streaming connection)和上报流数据(report stream data)等字段的通知。其中,上报流数据字段可包括该ML模型的训练结果。
作为另一种示例,如果第一设备采用文件上报方式向第二设备发送训练结果,第一设备可以向第二设备发送包括文件订阅(subscribe)、文件去订阅(unsubscribe)和可用文件列表(list available files)等字段的通知。其中,可用文件列表字段可包括该ML模型的训练结果。
或者,作为另一种示例,如果第一设备采用文件上报方式向第二设备发送训练结果,第一设备可向第二设备发送文件可用通知(notify file ready)的消息,该消息中可包括ML模型的训练结果。此外,在文件上报过程中,文件准备错误通知(notify filepreparation error)表示上报错误。
作为另一种示例,如果第一设备采用通知上报方式向第二设备发送训练结果,第一设备可通过原有的或新定义的通知,向第二设备发送该ML模型的训练结果。
应理解,文件数据上报方式或流数据上报方式还可参见3GPP TS28.532 V16.10.0中的说明。
作为一种可能的实现方式,第一设备从第二设备获得训练结果上报方法配置。例如,第一设备可以向第二设备发送用于请求ML模型的训练结果上报方法配置的指示(可称为第四指示),第二设备在接收到第四指示后,向第一设备发送该ML模型的训练结果上报方法配置。可选的,第四指示与第二指示可以相同或不同,或者可以说,第一设备可通过同一个指示(或信息或请求),向第二设备请求ML模型的训练控制参数和ML模型的训练结果上报方法配置。例如,图7所示流程中,第一设备可以在S201中发送第二指示以及第四指示,该第二指示与第四指示可携带在同一通知(如第一通知)或消息中,或者,第二指示以及第四指示可携带在不同的通知或消息中。又如,在图8所示流程中,第一设备可以在接收到S301所示的ML模型的训练策略后,向第二设备发送第四指示,如,发送携带第四指示的通知或其他消息。或者,无论是否执行S201和S301,第一设备可以通过其他通知或消息向第二设备发送第二指示。
作为另一种可能的实现方式,如果第一设备向第二设备请求ML模型的训练控制参数,如第一设备向第二设备发送第二指示,则第二设备可默认向第一设备发送ML模型的训练控制参数以及训练结果上报方法配置。此外,训练结果上报方法配置也可以独立于训练控制参数发送。
此外,ML模型的训练结果上报方法配置也可以是预配置在第一设备中的,或者可以由第一设备从第二设备以外的其他设备获取,本申请不具体限定。
本申请的各个实施例中,第一设备可通过特定的接口操作或对象实例类(instance object class,IOC),例如ML训练指示(ML training indication),或者重用现有的MnS操作,向第二设备发送第二指示、第三指示或第四指示中的至少一项,或向第二设备发送包括第二指示、第三指示或第四指示中的至少一项的通知或消息。
举例来说,可定义一种具有特定格式的通知作为携带S201中的第二指示第一通知,例如,特定格式体现在,通知具有特定的名称或通知包括特定的属性(attribute)等。例如,该特定的通知可包括表1所示属性,此时,该通知为图7所示S201中的第二指示,或者说,包括表1所示属性的通知可作为第二指示。其中如表1所示,该通知中包括训练类型(training type)、ML训练状态(ML training state)属性和ML训练控制请求(ML trainingcontrol request)属性,当第二设备接收到携带以上属性的通知,可获知该通知用于指示第二设备确认第一设备是否进行该ML模型的训练,或者说,可获知该通知为第二指示。因此可由第二设备在收到该通知后确认第一设备是否进行ML模型的训练,并向第一设备发送第一指示,其中,第二设备的确认第一设备是否进行ML模型的训练过程和相应的发送第一指示的过程可参照对于图7所示实施例的描述。
进一步可选的,ML训练控制请求属性可作为第三指示。
表1
此外,第一通知中还可包括ML模型的标识等信息,本申请不具体限定。
可选的,表1中的ML训练状态可包括表2所示属性。
表2
可选的,表1中的ML训练控制请求属性可包括表3所示属性。
表3
基于与表1至表3类似的实现方式,第二设备可通过特定的接口操作或对象实例类,或者重用现有的MnS操作,向第二设备发送第一指示和训练控制参数中的至少一项。例如,当第二设备向第一设备发送训练控制参数时,可发送携带表3所示属性的通知,此时表3所示各项属性中可携带相应的训练控制参数,例如,迭代次数属性可携带ML模型训练的迭代次数,训练性能可携带ML模型性能需求,等等。
在本申请的各个实施例中,可选的,第一设备可以向第二设备指示该ML模型的训练进度,以便第二设备及时获知训练状态。
示例性的,第一设备可向该第二设备发送第二信息,该第二信息包括用于指示该ML模型的训练进度的信息、该ML模型的训练的预计训练时间、该ML模型的训练的执行时长、该ML模型的训练的开始时间,和该ML模型的训练的结束时间中的至少一项。可选的,该第二信息可包括该ML模型的标识。
其中,用于指示该ML模型的训练进度的信息,可用于指示开始或结束该ML模型的训练。例如,某个消息(如通知)或信息表示第一设备的开始该ML模型的训练,当第一设备开始该ML模型的训练时,第一设备向第二设备发送该消息或信息。又如,某个字段或比特位的特定取值表示开始该ML模型的训练,当第一设备开始该ML模型的训练时,将该字段或比特位的取值设置为该取值,以指示第一设备开始进行该ML模型的训练。
或者,用于指示该ML模型的训练进度的信息可包括或指示该ML模型当前训练已完成(或未完成)进度的百分比数值,例如,携带数值表示已完成进度为50%。
该ML模型的训练的预计训练时间,可指示该ML模型训练的预计持续时长,即训练开始时间至训练结束时间之间的预计时长。例如,该ML模型的训练的预计训练时间可指示本次训练的时长预计为6小时。
该ML模型的训练的执行时长,可指示该ML模型的本次训练已经进行的时长。例如,该ML模型的训练的执行时长表示第一设备已对该ML进行3小时的训练。
该ML模型的训练的开始时间,可指示该ML模型的本次训练的训练开始时间。例如,该ML模型的训练的开始时间指示本次训练在上午(ante meridiem,AM)7点开始。
该ML模型的训练的结束时间,可指示预计完成该ML模型的训练的时间。例如,该ML模型的训练的预计训练时间可包括完成时间,完成时间例如可指示预计在下午(postmeridiem,PM)3点完成该ML模型的训练。又如,该ML模型的训练的预计训练时间可包括预计剩余时间,预计剩余时间例如指示预计训练剩余时长为3小时,或者说,预计再经过3小时完成训练。
可选的,第二信息可携带在新定义的通知或现有的通知,或者说,第二信息可包括在新定义的通知或现有的通知,本申请在此不限定。
举例来说,可通过ML模型训练开始通知(ML model training startnotification)指示ML模型训练的预计持续时长。示例性的,ML模型训练开始通知可包括如表4所示的属性。
表4
属性名称 | 定义 |
ML训练时间(ML training time period) | ML模型训练的预计持续时长 |
又如,可通过ML模型训练结束通知(ML model training end notification)指示ML模型训练的进度百分比和预计结束时长。示例性的,ML模型训练结束通知可包括如表5所示的属性。
表5
又如,可通过ML模型训练进度(ML model training progress)通知指示ML模型训练的进度百分比、训练执行时长和预计结束时长。示例性的,ML模型训练结束通知可包括如表6所示的属性。
表6
属性名称 | 定义 |
ML training percentage | ML模型训练的进度百分比 |
ML训练执行时长(ML training time period) | ML模型训练的执行时长 |
ML training estimated end time | ML模型训练的预计结束时长 |
应理解,该第一设备发送第二信息的动作可以不依赖于图6所示流程。例如,在第一设备与第二设备之间按照TS28.105 V0.1.0的6.2.2章节中介绍的ML模型的训练触发方式,由第一设备进行ML模型的训练,第一设备还可以向第二设备发送第二信息,从而指示ML模型的训练进度,可以避免ML模型的重复训练。
作为一种示例,当以上第二信息结合图7所示流程实施时,图7所示流程中还可包括S205。S205中,第一设备可向第二设备发送上述第二信息。另外,当以上第二信息结合图8所示流程实施时,图8所示流程中还可包括S304。S304中,第一设备可向第二设备发送上述第二信息。例如,S205或S304中的第二信息包括表4所示的ML模型训练开始通知、表5所示的ML模型训练结束通知,或包括表6所示的ML模型训练进度通知。
作为另一种示例,如图9所示,S401中,第一设备可以向第二设备发送第二信息,以指示ML模型的训练进度。其中,第一设备可以在开始进行ML模型的训练时、ML模型的训练过程中,或者结束ML模型的训练后,至少一次执行S401。例如,第一设备在ML模型的训练开始时向第二设备发送用于指示该ML模型的训练开始的第二信息,在该ML模型的训练过程中发送用于指示该ML模型的训练进度的第二信息,以及,在结束该ML模型的训练后发送用于指示该ML模型的训练结束的第二信息。又如,第一设备在ML模型的训练开始时向第二设备发送用于指示该ML模型的训练开始的第二信息,以及,在结束该ML模型的训练后发送用于指示该ML模型的训练结束的第二信息。又如,第一设备在该ML模型的训练过程中发送用于指示该ML模型的训练进度的第二信息,以及,在结束该ML模型的训练后发送用于指示该ML模型的训练结束的第二信息。又如,第一设备在ML模型的训练开始时向第二设备发送用于指示该ML模型的训练开始的第二信息,以及,在该ML模型的训练过程中发送用于指示该ML模型的训练进度的第二信息。又如,第一设备在ML模型的训练开始时向第二设备发送用于指示该ML模型的训练开始的第二信息,或者,在该ML模型的训练过程中发送用于指示该ML模型的训练进度的第二信息,或者,在结束该ML模型的训练后发送用于指示该ML模型的训练结束的第二信息。
其中,ML模型的训练过程位于开始进行ML模型的训练至结束ML模型的训练之间。可选的,在ML模型的训练过程中,第一设备可以至少一次向第二设备发送第二信息。应理解,图9中通过虚线箭头表示第一设备可以依次或多次执行S401,其中,每次执行S401,第二信息的内容可以不同。
举例来说,如果第一设备在开始进行ML模型的训练时发送第二信息,则该第二信息可包括用于指示该ML模型的训练的开始的信息、ML模型的训练的预计训练时间,和ML模型的训练的开始时间中的至少一项。如果第一设备在ML模型的训练过程中发送第二信息,则该第二信息可包括用于指示ML模型的训练已完成(或未完成)进度的百分比数值、ML模型的训练的预计训练时间、ML模型的训练的执行时长,和ML模型的训练的开始时间中的至少一项。如果第一设备在结束ML模型的训练后发送第二信息,则该第二信息可包括用于指示结束ML模型的训练的信息、ML模型的训练的执行时长,和ML模型的训练的结束时间中的至少一项。
基于以上方法实施例,本申请实施例还提供了一种用于实现上述用于机器学习模型训练的通信方法的通信装置。其中,该通信装置用于实现由以上第一设备执行的方法时,该通信装置可包括训练执行模块。当该通信装置用于实现由以上第二设备执行的方法时,该一些装置可包括训练控制模块。
例如,以第一设备是MLMT MnS生产者且第二设备是MLMT MnS消费者为例,在实现图7所示流程时,可由MLMT MnS生产者中的训练执行模块执行第一设备在图7所示流程中执行的步骤,以及,可由MLMT MnS消费者中的训练控制模块执行第二设备在图7所示流程中执行的步骤,具体可参见图7流程中的介绍。如图10所示,该训练执行模块可向该训练控制模块发送S201中的第二指示,以及可由该训练控制模块向该训练执行模块发送S202中的第一指示。此外,还可由该训练执行模块触发ML模型的训练以及执行该ML模型的训练。还可由该训练执行模块向该训练控制模块发送S204中的ML模型的训练结果和S205中的第二信息中的至少一项。
在实现图8所示流程时,可由MLMT MnS生产者中的训练执行模块执行第一设备在图8所示流程中执行的步骤,以及,可由MLMT MnS消费者中的训练控制模块执行第二设备在图8所示流程中执行的步骤,具体可参见图8流程中的介绍。例如图11所示,该训练控制模块可向该训练执行模块发送S301中的ML模型的训练策略,以及可由该训练执行模块执行S302,即根据ML模型的训练策略进行ML模型的训练。此外,还可由该训练执行模块向该训练控制模块发送S303中的ML模型的训练结果和S304中的第二信息中的至少一项。
在实现图9所示流程时,可由MLMT MnS下存在中的训练执行模块执行第一设备在图9所示流程中执行的步骤,以及,可由MLMT MnS消费者中的训练控制模块执行第二设备在图9所示流程中执行的步骤,具体可参见图9流程中的介绍。例如图12所示,该训练控制模块可向该训练执行模块发送S401中的第二信息,以指示ML模型的训练进度。
可选的,本申请中的第一设备与第二设备之间传输ML模型相关的指示(如第一指示至第四指示等中的任意一种)、信息(如第一信息和第二信息等中的任意一种)或通知(如第一通知和第二通知等中的任意一种)时,可以携带或一并发送ML模型的标识和ML模型的类型信息中的至少一项,以表示相应的指示、信息或通知关联到哪一个或哪一类ML模型。示例性的,在图6所示流程S102、图7所示流程S201、S202、S204至S205,和图8所示流程S301、S303或S304,和图9所示S401等通信过程中,第一设备与第二设备之间均可发送ML模型的标识和ML模型的类型信息中的至少一项,以表明相关交互过程涉及的ML模型或ML模型的类型。例如,在S101中,第二设备可向第一设备发送第一信息,以及发送ML模型的标识和ML模型的类型信息中的至少一项,以表示该第一信息是针对哪个或哪些ML模型的,使得第一设备能够根据第一信息对具有该ML模型的标识和该ML模型的类型信息中的至少一项的ML模型进行训练。
基于以上方法实施例,本申请实施例还提供了一种通信装置,该装置的结构如图13所示,包括收发模块(或通信模块)1301和处理模块1302,其中,收发模块1301可包括接收模块和发送模块中的至少一项,用于实现信息的接收和发送中的至少一项,处理模块1302可用于生成由收发模块1301发送的信息,或用于对收发模块1301接收到的信息进行处理。处理模块1302也可用于执行以上方法实施例部分涉及的接收和发送以外的动作。所述装置1300可以应用于第一设备和第二设备中的至少一个中。其中,第一设备和第二设备可以适用于图1至图5所示的通信系统中,并可以实现以上各图中的用于机器学习模型训练的通信方法。
在用于实现本申请实施例提供的第一设备时,该通信装置可包括第一设备,也就是说,第一设备可包括收发模块1301和处理模块1302。其中,收发模块1301可用于从第二设备接收第一信息,所述第一信息包括第一指示和该ML模型的训练条件中的至少一项,所述第一指示的取值范围包括第一值和第二值,所述第一值用于指示所述通信装置进行ML模型的训练,所述第二值用于指示所述通信装置不进行所述ML模型的训练,所述第一指示的取值为所述第一值。处理模块可用于根据所述第一信息进行所述ML模型的训练;其中,所述通信装置包括模型训练生产者,所述第二设备包括模型训练消费者。
在一种可能的实现方式中,收发模块1301还可向所述第二设备发送所述ML模型的训练结果。
在一种可能的实现方式中,所述第一信息包括所述第一指示,处理模块1302还可启动所述ML模型的训练;收发模块1301还可用于向所述第二设备发送第二指示,所述第二指示用于通知启动所述ML模型的训练,或用于指示由所述第二设备确认是否进行所述ML模型的训练,或用于指示由所述第二设备确认第一设备是否进行所述ML模型的训练。
在一种可能的实现方式中,收发模块1301还可向所述第二设备发送第三指示,所述第三指示用于请求所述ML模型的训练控制参数;以及,从所述第二设备接收所述ML模型的训练控制参数,所述ML模型的训练控制参数用于所述通信装置进行所述ML模型的训练。
在一种可能的实现方式中,所述ML模型的训练控制参数包括以下中的至少一项:所述ML模型的标识;或者,所述ML模型的类型信息;或者,所述ML模型训练的迭代次数;或者,所述ML模型性能需求;或者,所述ML模型训练时间;或者,用于训练所述ML模型的数据。
在一种可能的实现方式中,所述用于训练所述ML模型的数据包括数据源、更新的网络状态和更新的训练数据中的至少一项。
在一种可能的实现方式中,所述ML模型的训练条件包括网络负载条件、网络覆盖条件和网络性能条件中的至少一项。
在一种可能的实现方式中,所述网络负载条件包括PRB利用率阈值和用户连接数阈值中的至少一项。
在一种可能的实现方式中,所述网络覆盖条件包括以下中的至少一项:RSRP阈值及区域内所述RSRP阈值的覆盖率阈值;或者,RSRQ阈值及区域内所述RSRQ阈值的覆盖率阈值;或者,RSSINR阈值及区域内所述RSSINR阈值的覆盖率阈值。
在一种可能的实现方式中,所述网络性能条件包括以下中的至少一项:切换成功率阈值;或者,数据能效阈值;或者,网络切片能效阈值。
在一种可能的实现方式中,收发模块1301还可向所述第二设备发送所述ML模型的训练状态信息,所述训练状态信息用于指示:所述ML模型是否经过训练;或者,所述ML模型是否根据所述ML模型的性能评估结果、更新的网络状态和更新的训练数据中的至少一项进行该ML模型的训练。
在一种可能的实现方式中,收发模块1301还可向所述第二设备发送第二信息,所述第二信息包括以下中的至少一项:用于指示所述ML模型的训练进度的信息;或者,所述ML模型的训练的预计训练时间;或者,所述ML模型的训练的执行时长;或者,所述ML模型的训练的开始时间;或者,所述ML模型的训练的结束时间。
在用于实现本申请实施例提供的第二设备时,该通信装置可包括第二设备,也就是说,第二设备可包括收发模块1301和处理模块1302。其中,处理模块1302可用于确定第一信息,该第一信息包括第一指示和该ML模型的训练条件中的至少一项,该第一指示的取值范围包括第一值和第二值,该第一值用于指示该第一设备进行ML模型的训练,该第二值用于指示该第一设备不进行该ML模型的训练,该第一指示的取值为该第一值。收发模块1301可用于向该第一设备发送该第一信息。其中,该第一设备包括模型训练生产者,该第二设备包括模型训练消费者。
在一种可能的实现方式中,该收发模块1301还可用于从该第一设备接收该ML模型的训练结果。
在一种可能的实现方式中,该第一信息包括该第一指示,该收发模块1301还可用于从该第一设备接收第二指示,该第二指示用于通知启动所述ML模型的训练,或用于指示由所述第二设备确认是否进行所述ML模型的训练,或用于指示由所述第二设备确认第一设备是否进行所述ML模型的训练。
在一种可能的实现方式中,该收发模块1301还可用于从该第一设备接收第三指示,该第三指示用于请求该ML模型的训练控制参数。收发模块1301还可用于向该第一设备发送该ML模型的训练控制参数,该ML模型的训练控制参数用于该第一设备进行该ML模型的训练。
在一种可能的实现方式中,该ML模型的训练控制参数包括该ML模型的标识、该ML模型的类型信息、该ML模型训练的迭代次数、该ML模型性能需求、该ML模型训练时间,和用于训练该ML模型的数据中的至少一项。
在一种可能的实现方式中,该用于训练该ML模型的数据包括数据源、更新的网络状态和更新的训练数据中的至少一项。
在一种可能的实现方式中,该ML模型的训练条件包括网络负载条件、网络覆盖条件和网络性能条件中的至少一项。
在一种可能的实现方式中,该网络负载条件包括PRB利用率阈值和用户连接数阈值中的至少一项。
在一种可能的实现方式中,该网络覆盖条件包括RSRP阈值及区域内该RSRP阈值的覆盖率阈值、RSRQ阈值及区域内该RSRQ阈值的覆盖率阈值,和RSSINR阈值及区域内该RSSINR阈值的覆盖率阈值中的至少一项。
在一种可能的实现方式中,该网络性能条件包括切换成功率阈值、数据能效阈值,和网络切片能效阈值中的至少一项。
在一种可能的实现方式中,该收发模块1301还可用于从该第一设备接收该ML模型的训练状态信息,该训练状态信息用于指示该ML模型是否经过训练,或者,该训练状态信息用于指示该ML模型是否根据该ML模型的性能评估结果、更新的网络状态和更新的训练数据中的至少一项进行训练。
在一种可能的实现方式中,该收发模块1301还可用于从该第一设备接收第二信息,该第二信息包括用于指示该ML模型的训练进度的信息、该ML模型的训练的预计训练时间、该ML模型的训练的执行时长、该ML模型的训练的开始时间,和该ML模型的训练的结束时间中的至少一项。
基于以上实施例,本申请实施例还提供了一种通信装置,所述设备用于实现以上各图中的用于机器学习模型训练的通信方法。参阅图14所示,所述通信装置1400可包括:收发器1401、处理器1402以及存储器1403中的至少一项。其中,所述收发器1401、所述处理器1402以及所述存储器1403之间相互连接。
可选的,所述收发器1401、所述处理器1402以及所述存储器1403之间通过总线1404相互连接。所述总线1404可以是外设部件互连标准(peripheral componentinterconnect,PCI)总线或扩展工业标准结构(extended industry standardarchitecture,EISA)总线等。所述总线可以分为地址总线、数据总线、控制总线等。为便于表示,图14中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
所述收发器1401,用于接收和发送数据,实现与其他设备之间的通信。例如,收发器1401可用于执行以上收发模块1301的功能。
可选的,收发器可以包括通信接口。通信接口可用于通信装置1400的通信。例如,通信接口可用于通过有线的方式实现以上收发模块1301所示功能。
所述处理器1402,用于实现如以上各图中的用于机器学习模型训练的通信方法,具体可以参照以上实施例中的描述。例如,处理器1402可用于执行以上处理模块1302的功能。
所述存储器1403,用于存放程序指令等。具体地,程序指令可以包括程序代码,该程序代码包括计算机操作指令。存储器1403可能包含随机存取存储器(random accessmemory,RAM),也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。处理器1402执行存储器1403所存放的程序指令,实现上述功能,从而实现上述实施例提供的用于机器学习模型训练的通信方法。
应理解,以上所示的通信模块1301和收发器1401中的至少一个可用于执行第一设备向第二设备发送信息、通知或消息的动作,或执行第二设备从第一设备接收信息、通知或消息的动作,例如执行S201、S204、S205、S303和S304中的任意一项。通信模块1301和收发器1401中的至少一个还可用于执行第二设备向第一设备发送信息、通知或消息的动作,或用于执行第一设备从第二设备接收信息、通知或消息的动作,例如执行S102、S202、S301中的任意一项。
处理模块1302和处理器1402中的至少一个可用于执行第一设备或第二设备的处理动作,例如,第一设备的处理动作包括S103、S203和S302,第一设备和第二设备的处理动作还可包括触发ML模型的训练、生成由通信模块1301和收发器1401中的至少一个发送的信息、通知或消息,或对通信模块1301和收发器1401中的至少一个接收的信息、通知或消息进行处理。
还应理解,由以上收发模块1301、收发器1401、处理模块1302和处理器1402中的至少一个执行的个步骤中,相关技术术语、名词以及动作实现方式等可参见本申请方法实施例在图6至图9中对于相应技术术语、名词以及动作实现方式的说明。例如,在由通信模块1301和收发器1401执行的发送第二指示的动作中,第二指示的含义和功能可参见本申请对于图7中S201的说明;又如,由处理模块1302和处理器1402中的至少一个所执行的根据第一信息进行ML模型的训练的执行方式,可参见本申请对于图6所示的S103、图7对于S203以及图8对于S302的描述,等等,不再举例。
基于以上实施例,本申请实施例还提供了一种用于机器学习模型训练的通信方法,该方法由第一设备和第二设备实施。其中,第二设备可用于向第一设备发送第一信息,所述第一设备可用于接收来自于第二设备的第一信息,并根据该第一信息进行ML模型的训练。该方法具体可参照本申请中的实现方式。
基于以上实施例,本申请实施例还提供了一种系统,该系统可包括以上第一设备和第二设备。
基于以上实施例,本申请实施例还提供了一种计算机程序,当所述计算机程序在计算机上运行时,使得所述计算机执行以上实施例提供的用于机器学习模型训练的通信方法。
基于以上实施例,本申请实施例还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,所述计算机程序被计算机执行时,使得计算机执行以上实施例提供的用于机器学习模型训练的通信方法。
基于以上实施例,本申请实施例还提供了一种芯片,所述芯片用于读取存储器中存储的计算机程序,实现以上实施例提供的用于机器学习模型训练的通信方法。芯片可包括处理器。
基于以上实施例,本申请实施例提供了一种芯片系统,该芯片系统包括处理器,用于支持计算机装置实现以上实施例中第一设备和第二设备中至少一个所涉及的功能。在一种可能的设计中,所述芯片系统还包括存储器,所述存储器用于保存该计算机装置必要的程序和数据。该芯片系统,可以由芯片构成,也可以包含芯片和其他分立器件。
综上所述,本申请实施例提供了一种用于机器学习模型训练的通信方法。在该方法中,第一设备(如模型训练生产者)可根据来自于第二设备(如模型训练消费者)的第一信息进行ML模型的训练,其中,第一信息包括第一指示和启动该ML模型的训练的条件中的至少一项,因此,第一设备进行该ML模型训练是得到第二设备确认的,或者,是根据第二设备指示的启动该ML模型的训练的条件进行的,因此避免第一设备在不需要对ML模型进行训练时启动该ML模型的训练,从而减少资源浪费。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
显然,本领域的技术人员可以对本申请实施例进行各种改动和变型而不脱离本申请实施例的范围。这样,倘若本申请实施例的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
本申请中,“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B的情况,其中A,B可以是单数或者复数。在本申请的文字描述中,字符“/”,一般表示前后关联对象是一种“或”的关系;在本申请的公式中,字符“/”,表示前后关联对象是一种“相除”的关系。“包括A,B或C中的至少一个”可以表示:包括A;包括B;包括C;包括A和B;包括A和C;包括B和C;包括A、B和C。
可以理解的是,在本申请的实施例中涉及的各种数字编号仅为描述方便进行的区分,并不用来限制本申请的实施例的范围。上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定。
Claims (48)
1.一种用于机器学习模型训练的通信方法,其特征在于,包括:
第一设备从第二设备接收第一信息,所述第一信息包括第一指示和机器学习ML模型的训练条件中的至少一项,所述第一指示的取值范围包括第一值和第二值,所述第一值用于指示所述第一设备进行所述ML模型的训练,所述第二值用于指示所述第一设备不进行所述ML模型的训练,所述第一指示的取值为所述第一值;
所述第一设备根据所述第一信息进行所述ML模型的训练。
2.如权利要求1所述的方法,其特征在于,所述第一信息包括所述第一指示,所述方法还包括:
所述第一设备启动所述ML模型的训练;
所述第一设备向所述第二设备发送第二指示,所述第二指示用于通知启动所述ML模型的训练。
3.如权利要求1或2所述的方法,其特征在于,所述方法还包括:
所述第一设备向所述第二设备发送第三指示,所述第三指示用于请求所述ML模型的训练控制参数;
所述第一设备从所述第二设备接收所述ML模型的训练控制参数,所述ML模型的训练控制参数用于所述第一设备进行所述ML模型的训练。
4.如权利要求3所述的方法,其特征在于,所述ML模型的训练控制参数包括以下中的至少一项:
所述ML模型的标识;或者,
所述ML模型的类型信息;或者,
所述ML模型训练的迭代次数;或者,
所述ML模型性能需求;或者,
所述ML模型训练时间;或者,
用于训练所述ML模型的数据。
5.如权利要求4所述的方法,其特征在于,所述用于训练所述ML模型的数据包括数据源、更新的网络状态和更新的训练数据中的至少一项。
6.如权利要求1-5中任一所述的方法,其特征在于,所述ML模型的训练条件包括网络负载条件、网络覆盖条件和网络性能条件中的至少一项。
7.如权利要求6所述的方法,其特征在于,所述网络负载条件包括以下中的至少一项:
物理资源块PRB利用率阈值;或者,
用户连接数阈值。
8.如权利要求6或7所述的方法,其特征在于,所述网络覆盖条件包括以下中的至少一项:
参考信号接收功率RSRP阈值及区域内所述RSRP阈值的覆盖率阈值;或者,
参考信号接收质量RSRQ阈值及区域内所述RSRQ阈值的覆盖率阈值;或者,
参考信号信号与干扰加噪声比RSSINR阈值及区域内所述RSSINR阈值的覆盖率阈值。
9.如权利要求6-8中任一所述的方法,其特征在于,所述网络性能条件包括以下中的至少一项:
切换成功率阈值;或者,
数据能效阈值;或者,
网络切片能效阈值。
10.如权利要求1-9中任一所述的方法,其特征在于,所述方法还包括:
所述第一设备向所述第二设备发送所述ML模型的训练状态信息,所述训练状态信息用于指示:
所述ML模型是否经过训练;或者,
所述ML模型是否根据所述ML模型的性能评估结果、更新的网络状态和更新的训练数据中的至少一项进行该ML模型的训练。
11.如权利要求1-10中任一所述的方法,其特征在于,所述方法还包括:
所述第一设备向所述第二设备发送第二信息,所述第二信息包括以下中的至少一项:
用于指示所述ML模型的训练进度的信息;或者,
所述ML模型的训练的预计训练时间;或者,
所述ML模型的训练的执行时长;或者,
所述ML模型的训练的开始时间;或者,
所述ML模型的训练的结束时间。
12.一种用于机器学习模型训练的通信方法,其特征在于,包括:
第二设备确定第一信息,所述第一信息包括第一指示和机器学习ML模型的训练条件中的至少一项,所述第一指示的取值范围包括第一值和第二值,所述第一值用于指示所述第一设备进行所述ML模型的训练,所述第二值用于指示所述第一设备不进行所述ML模型的训练,所述第一指示的取值为所述第一值;
所述第二设备向所述第一设备发送所述第一信息。
13.如权利要求12所述的方法,其特征在于,所述第一信息包括所述第一指示,所述方法还包括:
所述第二设备从所述第一设备接收第二指示,所述第二指示用于通知启动所述ML模型的训练。
14.如权利要求12或13所述的方法,其特征在于,所述方法还包括:
所述第二设备从所述第一设备接收第三指示,所述第三指示用于请求所述ML模型的训练控制参数;
所述第二设备向所述第一设备发送所述ML模型的训练控制参数,所述ML模型的训练控制参数用于所述第一设备进行所述ML模型的训练。
15.如权利要求14所述的方法,其特征在于,所述ML模型的训练控制参数包括以下中的至少一项:
所述ML模型的标识;或者,
所述ML模型的类型信息;或者,
所述ML模型训练的迭代次数;或者,
所述ML模型性能需求;或者,
所述ML模型训练时间;或者,
用于训练所述ML模型的数据。
16.如权利要求15所述的方法,其特征在于,所述用于训练所述ML模型的数据包括数据源、更新的网络状态和更新的训练数据中的至少一项。
17.如权利要求12-16中任一所述的方法,其特征在于,所述ML模型的训练条件包括网络负载条件、网络覆盖条件和网络性能条件中的至少一项。
18.如权利要求17所述的方法,其特征在于,所述网络负载条件包括以下中的至少一项:
物理资源块PRB利用率阈值;或者,
用户连接数阈值。
19.如权利要求17或18所述的方法,其特征在于,所述网络覆盖条件包括以下中的至少一项:
参考信号接收功率RSRP阈值及区域内所述RSRP阈值的覆盖率阈值;或者,
参考信号接收质量RSRQ阈值及区域内所述RSRQ阈值的覆盖率阈值;或者,
参考信号信号与干扰加噪声比RSSINR阈值及区域内所述RSSINR阈值的覆盖率阈值。
20.如权利要求17-19中任一所述的方法,其特征在于,所述网络性能条件包括以下中的至少一项:
切换成功率;或者,
数据能效;或者,
网络切片能效。
21.如权利要求12-20中任一所述的方法,其特征在于,所述方法还包括:
所述第二设备从所述第一设备接收所述ML模型的训练状态信息,所述训练状态信息用于指示:
所述ML模型是否经过训练;或者,
所述ML模型是否根据所述ML模型的性能评估结果、更新的网络状态和更新的训练数据中的至少一项进行训练。
22.如权利要求12-21中任一所述的方法,其特征在于,所述方法还包括:
所述第二设备从所述第一设备接收第二信息,所述第二信息包括以下中的至少一项:
用于指示所述ML模型的训练进度的信息;或者,
所述ML模型的训练的预计训练时间;或者,
所述ML模型的训练的执行时长;或者,
所述ML模型的训练的开始时间;或者,
所述ML模型的训练的结束时间。
23.一种用于机器学习模型训练的第一设备,其特征在于,包括:
收发模块,用于从第二设备接收第一信息,所述第一信息包括第一指示和机器学习ML模型的训练条件中的至少一项,所述第一指示的取值范围包括第一值和第二值,所述第一值用于指示所述第一设备进行所述ML模型的训练,所述第二值用于指示所述第一设备不进行所述ML模型的训练,所述第一指示的取值为所述第一值;
处理模块,用于根据所述第一信息进行所述ML模型的训练。
24.如权利要求23所述的第一设备,其特征在于,所述第一信息包括所述第一指示,所述处理模块还用于:
启动所述ML模型的训练;
所述收发模块还用于:
向所述第二设备发送第二指示,所述第二指示用于通知启动所述ML模型的训练。
25.如权利要求23或24所述的第一设备,其特征在于,所述收发模块还用于:
向所述第二设备发送第三指示,所述第三指示用于请求所述ML模型的训练控制参数;
从所述第二设备接收所述ML模型的训练控制参数,所述ML模型的训练控制参数用于所述第一设备进行所述ML模型的训练。
26.如权利要求25所述的第一设备,其特征在于,所述ML模型的训练控制参数包括以下中的至少一项:
所述ML模型的标识;或者,
所述ML模型的类型信息;或者,
所述ML模型训练的迭代次数;或者,
所述ML模型性能需求;或者,
所述ML模型训练时间;或者,
用于训练所述ML模型的数据。
27.如权利要求26所述的第一设备,其特征在于,所述用于训练所述ML模型的数据包括数据源、更新的网络状态和更新的训练数据中的至少一项。
28.如权利要求23-27中任一所述的第一设备,其特征在于,所述ML模型的训练条件包括网络负载条件、网络覆盖条件和网络性能条件中的至少一项。
29.如权利要求28所述的第一设备,其特征在于,所述网络负载条件包括以下中的至少一项:
物理资源块PRB利用率阈值;或者,
用户连接数阈值。
30.如权利要求28或29所述的第一设备,其特征在于,所述网络覆盖条件包括以下中的至少一项:
参考信号接收功率RSRP阈值及区域内所述RSRP阈值的覆盖率阈值;或者,
参考信号接收质量RSRQ阈值及区域内所述RSRQ阈值的覆盖率阈值;或者,
参考信号信号与干扰加噪声比RSSINR阈值及区域内所述RSSINR阈值的覆盖率阈值。
31.如权利要求28-30中任一所述的第一设备,其特征在于,所述网络性能条件包括以下中的至少一项:
切换成功率阈值;或者,
数据能效阈值;或者,
网络切片能效阈值。
32.如权利要求23-31中任一所述的第一设备,其特征在于,所述收发模块还用于:
向所述第二设备发送所述ML模型的训练状态信息,所述训练状态信息用于指示:
所述ML模型是否经过训练;或者,
所述ML模型是否根据所述ML模型的性能评估结果、更新的网络状态和更新的训练数据中的至少一项进行该ML模型的训练。
33.如权利要求23-32中任一所述的第一设备,其特征在于,所述收发模块还用于:
向所述第二设备发送第二信息,所述第二信息包括以下中的至少一项:
用于指示所述ML模型的训练进度的信息;或者,
所述ML模型的训练的预计训练时间;或者,
所述ML模型的训练的执行时长;或者,
所述ML模型的训练的开始时间;或者,
所述ML模型的训练的结束时间。
34.一种用于机器学习模型训练的第二设备,其特征在于,包括:
处理模块,用于确定第一信息,所述第一信息包括第一指示和机器学习ML模型的训练条件中的至少一项,所述第一指示的取值范围包括第一值和第二值,所述第一值用于指示所述第一设备进行所述ML模型的训练,所述第二值用于指示所述第一设备不进行所述ML模型的训练,所述第一指示的取值为所述第一值;
收发模块,用于向所述第一设备发送所述第一信息。
35.如权利要求34所述的第二设备,其特征在于,所述第一信息包括所述第一指示,所述收发模块还用于:
从所述第一设备接收第二指示,所述第二指示用于通知启动所述ML模型的训练。
36.如权利要求34或35所述的第二设备,其特征在于,所述收发模块还用于:
从所述第一设备接收第三指示,所述第三指示用于请求所述ML模型的训练控制参数;
向所述第一设备发送所述ML模型的训练控制参数,所述ML模型的训练控制参数用于所述第一设备进行所述ML模型的训练。
37.如权利要求36所述的第二设备,其特征在于,所述ML模型的训练控制参数包括以下中的至少一项:
所述ML模型的标识;或者,
所述ML模型的类型信息;或者,
所述ML模型训练的迭代次数;或者,
所述ML模型性能需求;或者,
所述ML模型训练时间;或者,
用于训练所述ML模型的数据。
38.如权利要求37所述的第二设备,其特征在于,所述用于训练所述ML模型的数据包括数据源、更新的网络状态和更新的训练数据中的至少一项。
39.如权利要求34-38中任一所述的第二设备,其特征在于,所述ML模型的训练条件包括网络负载条件、网络覆盖条件和网络性能条件中的至少一项。
40.如权利要求39所述的第二设备,其特征在于,所述网络负载条件包括以下中的至少一项:
物理资源块PRB利用率阈值;或者,
用户连接数阈值。
41.如权利要求39或40所述的第二设备,其特征在于,所述网络覆盖条件包括以下中的至少一项:
参考信号接收功率RSRP阈值及区域内所述RSRP阈值的覆盖率阈值;或者,
参考信号接收质量RSRQ阈值及区域内所述RSRQ阈值的覆盖率阈值;或者,
参考信号信号与干扰加噪声比RSSINR阈值及区域内所述RSSINR阈值的覆盖率阈值。
42.如权利要求39-41中任一所述的第二设备,其特征在于,所述网络性能条件包括以下中的至少一项:
切换成功率;或者,
数据能效;或者,
网络切片能效。
43.如权利要求34-42中任一所述的第二设备,其特征在于,所述收发模块还用于:
从所述第一设备接收所述ML模型的训练状态信息,所述训练状态信息用于指示:
所述ML模型是否经过训练;或者,
所述ML模型是否根据所述ML模型的性能评估结果、更新的网络状态和更新的训练数据中的至少一项进行训练。
44.如权利要求34-43中任一所述的第二设备,其特征在于,所述收发模块还用于:
从所述第一设备接收第二信息,所述第二信息包括以下中的至少一项:
用于指示所述ML模型的训练进度的信息;或者,
所述ML模型的训练的预计训练时间;或者,
所述ML模型的训练的执行时长;或者,
所述ML模型的训练的开始时间;或者,
所述ML模型的训练的结束时间。
45.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质用于存储计算机程序,当所述计算机程序在计算机上运行时,使得所述计算机执行如权利要求1-11中任意一项所述的方法,或者使得所述计算机执行如权利要求12-22中任意一项所述的方法。
46.一种计算机程序产品,其特征在于,当其在计算机上运行时,使得所述计算机执行如权利要求1-11中任意一项所述的方法,或者使得所述计算机执行如权利要求12-22中任意一项所述的方法。
47.一种通信系统,其特征在于,包括如权利要求23-33中任一所述的第一设备,以及包括如权利要求34-44中任一所述的第二设备。
48.一种通信方法,其特征在于,包括:
第二设备向第一设备发送第一信息,所述第一信息包括第一指示和机器学习ML模型的训练条件中的至少一项,所述第一指示的取值范围包括第一值和第二值,所述第一值用于指示所述第一设备进行所述ML模型的训练,所述第二值用于指示所述第一设备不进行所述ML模型的训练,所述第一指示的取值为所述第一值;
所述第一设备根据所述第一信息进行所述ML模型的训练。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210313970.1A CN116887290A (zh) | 2022-03-28 | 2022-03-28 | 一种用于机器学习模型训练的通信方法及装置 |
PCT/CN2023/084011 WO2023185711A1 (zh) | 2022-03-28 | 2023-03-27 | 一种用于机器学习模型训练的通信方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210313970.1A CN116887290A (zh) | 2022-03-28 | 2022-03-28 | 一种用于机器学习模型训练的通信方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116887290A true CN116887290A (zh) | 2023-10-13 |
Family
ID=88199362
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210313970.1A Pending CN116887290A (zh) | 2022-03-28 | 2022-03-28 | 一种用于机器学习模型训练的通信方法及装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN116887290A (zh) |
WO (1) | WO2023185711A1 (zh) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11490313B2 (en) * | 2018-03-08 | 2022-11-01 | Telefonaktiebolaget Lm Ericsson (Publ) | Managing communication in a wireless communications network |
CN111612153A (zh) * | 2019-02-22 | 2020-09-01 | 华为技术有限公司 | 训练模型的方法和装置 |
CN111352799A (zh) * | 2020-02-20 | 2020-06-30 | 中国银联股份有限公司 | 一种巡检方法及装置 |
CN112512058A (zh) * | 2020-05-24 | 2021-03-16 | 中兴通讯股份有限公司 | 网络优化方法、服务器、客户端设备、网络设备和介质 |
EP4179410A1 (en) * | 2020-07-07 | 2023-05-17 | Nokia Technologies Oy | Ml ue capability and inability |
CN114239668A (zh) * | 2020-09-08 | 2022-03-25 | 华为技术有限公司 | 模型更新的方法、终端和服务器 |
-
2022
- 2022-03-28 CN CN202210313970.1A patent/CN116887290A/zh active Pending
-
2023
- 2023-03-27 WO PCT/CN2023/084011 patent/WO2023185711A1/zh unknown
Also Published As
Publication number | Publication date |
---|---|
WO2023185711A1 (zh) | 2023-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11451452B2 (en) | Model update method and apparatus, and system | |
US11689941B2 (en) | Coverage issue analysis and resource utilization analysis by MDA | |
US10966108B2 (en) | Optimizing radio cell quality for capacity and quality of service using machine learning techniques | |
CN114303347A (zh) | 通信网络中与机器学习相关的方法、装置和机器可读介质 | |
US11606716B2 (en) | Configuring telecommunications network using data obtained from user equipment | |
WO2015028043A1 (en) | Network coordination apparatus | |
US11785435B2 (en) | Methods and apparatuses for capability exposure | |
KR20130140159A (ko) | 셀 재선택을 수행하기 위한 방법 및 장치 | |
WO2023061253A1 (zh) | 一种优化网络容量的方法、装置及系统 | |
US9066294B2 (en) | Real time event-driven automation for energy management in a wireless network | |
WO2020244389A1 (zh) | 用于预测话务量的方法和装置 | |
CN113542050A (zh) | 网络性能监控方法、装置及系统 | |
CN113709777A (zh) | 一种故障处理方法、装置及系统 | |
US9844060B2 (en) | Self-tuning base station for a wireless network | |
CN111586740B (zh) | 最小化路测技术配置方法和基站 | |
CN114915993A (zh) | 网络问题信息获取方法、装置及系统 | |
WO2023045931A1 (zh) | 一种网络性能异常分析方法、装置及可读存储介质 | |
CN116887290A (zh) | 一种用于机器学习模型训练的通信方法及装置 | |
US9769024B2 (en) | Self-organizing network employing measurement intervals | |
EP4266191A1 (en) | Management and control method for data analysis apparatus, and communication apparatus | |
Khatib et al. | Modelling LTE solved troubleshooting cases | |
CN117993516A (zh) | 一种通信方法及装置 | |
WO2023151454A1 (zh) | 模型监控方法、监控端、装置及存储介质 | |
EP4319082A1 (en) | Method, apparatus and computer program | |
WO2024026828A1 (en) | Method, apparatus and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication |