CN112994923B - 网元选取方法及装置 - Google Patents

网元选取方法及装置 Download PDF

Info

Publication number
CN112994923B
CN112994923B CN201911309127.0A CN201911309127A CN112994923B CN 112994923 B CN112994923 B CN 112994923B CN 201911309127 A CN201911309127 A CN 201911309127A CN 112994923 B CN112994923 B CN 112994923B
Authority
CN
China
Prior art keywords
network element
element selection
machine learning
learning model
historical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911309127.0A
Other languages
English (en)
Other versions
CN112994923A (zh
Inventor
邢彪
郑屹峰
张卷卷
陈维新
章淑敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Mobile Communications Group Co Ltd
China Mobile Group Zhejiang Co Ltd
Original Assignee
China Mobile Communications Group Co Ltd
China Mobile Group Zhejiang Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Mobile Communications Group Co Ltd, China Mobile Group Zhejiang Co Ltd filed Critical China Mobile Communications Group Co Ltd
Priority to CN201911309127.0A priority Critical patent/CN112994923B/zh
Publication of CN112994923A publication Critical patent/CN112994923A/zh
Application granted granted Critical
Publication of CN112994923B publication Critical patent/CN112994923B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0893Assignment of logical groups to network elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/14Network analysis or design
    • H04L41/142Network analysis or design using statistical or mathematical methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Analysis (AREA)
  • Probability & Statistics with Applications (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Algebra (AREA)
  • Telephonic Communication Services (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

本发明公开了一种网元选取方法及装置。其中,方法包括:接收网元选取请求;其中,网元选取请求中携带有网元选取条件;获取至少一个服务网元的状态信息和属性信息;将网元选取条件,以及至少一个服务网元的状态信息和属性信息输入至预先训练完成的机器学习模型中;获取机器学习模型输出的任一服务网元的评价值;基于任一服务网元的评价值,确定目标服务网元。本方案中通过采用机器学习的方法,基于网元选取条件、服务网元的状态信息、以及服务网元的属性信息三个维度数据综合地确定出与目标服务网元,从而能够大幅提升服务网元的选取精度,并具有较高的选取效率,适于大规模应用与实施。

Description

网元选取方法及装置
技术领域
本发明涉及通信技术领域,具体涉及一种网元选取方法及装置。
背景技术
随着科技及社会的不断发展,5G(5th generation mobile networks)通信技术也取得了飞速发展。目前的5G系统中,引入了NRF(Network Repository Function,网络仓库功能)网元,通过NRF网元来接收网元选取请求,并响应该请求,返回对应的服务网元。
然而,发明人在实施过程中发现,现有技术中存在如下缺陷:目前的NRF网元在根据网元选取请求选取服务网元过程中,仅仅根据网元选取请求中包含的查询参数来获取与该查询参数相匹配的服务网元。然而,采用该种网元选取方式,选取的服务网元精准度较差,不适于大规模应用与实施。
发明内容
鉴于上述问题,提出了本发明以便提供一种克服上述问题或者至少部分地解决上述问题的网元选取方法及装置。
根据本发明的一个方面,提供了一种网元选取方法,包括:
接收网元选取请求;其中,所述网元选取请求中携带有网元选取条件;
获取至少一个服务网元的状态信息和属性信息;
将所述网元选取条件,以及所述至少一个服务网元的状态信息和属性信息输入至预先训练完成的机器学习模型中;
获取机器学习模型输出的任一服务网元的评价值;
基于所述任一服务网元的评价值,确定目标服务网元。
可选的,所述将所述网元选取条件,以及所述至少一个服务网元的状态信息和属性信息输入至预先训练完成的机器学习模型中进一步包括:
对所述网元选取条件,以及所述至少一个服务网元的状态信息和属性信息进行预处理;
将预处理结果输入至预先训练完成的机器学习模型中。
可选的,所述预处理包括以下处理方式中的至少一种:
字母大小写转换处理、整数序列标准化处理、以及序列长度规范化处理。
可选的,在所述将所述网元选取条件,以及所述至少一个服务网元的状态信息和属性信息输入至预先训练完成的机器学习模型中之前,所述方法还包括:
构建机器学习模型;
获取至少一个历史网元选取事件对应的历史数据;其中,所述历史网元选取事件对应的历史数据包括:该历史网元选取事件中的网元选取条件,以及该历史网元选取事件中的历史目标服务网元的属性信息和状态信息;
利用所述至少一个历史网元选取事件对应的历史数据对构建的机器学习模型进行训练,以获得训练完成的机器学习模型。
可选的,所述利用所述至少一个历史网元选取事件对应的历史数据对构建的机器学习模型进行训练进一步包括:
对所述至少一个历史网元选取事件对应的历史数据进行预处理;
利用预处理结果对构建的机器学习模型进行训练。
可选的,所述机器学习模型包括:三个并列的输入层,三个并列的词嵌入层,三个并列的转换层,一个合并层,至少一个全连接层、和/或至少一个舍弃层;
其中,任一输入层具有与其相连接的词嵌入层;任一词嵌入层具有与其相连接的转换层。
根据本发明的另一方面,提供了一种网元选取装置,包括:
请求接收模块,适于接收网元选取请求;其中,所述网元选取请求中携带有网元选取条件;
信息获取模块,适于获取至少一个服务网元的状态信息和属性信息;
输入模块,适于将所述网元选取条件,以及所述至少一个服务网元的状态信息和属性信息输入至预先训练完成的机器学习模型中;
评价值获取模块,适于获取机器学习模型输出的任一服务网元的评价值;
确定模块,适于基于所述任一服务网元的评价值,确定目标服务网元。
可选的,所述输入模块进一步包括:对所述网元选取条件,以及所述至少一个服务网元的状态信息和属性信息进行预处理;
将预处理结果输入至预先训练完成的机器学习模型中。
可选的,所述预处理包括以下处理方式中的至少一种:
字母大小写转换处理、整数序列标准化处理、以及序列长度规范化处理。
可选的,所述装置还包括:模型训练模块(图中未示出),适于构建机器学习模型;
获取至少一个历史网元选取事件对应的历史数据;其中,所述历史网元选取事件对应的历史数据包括:该历史网元选取事件中的网元选取条件,以及该历史网元选取事件中的历史目标服务网元的属性信息和状态信息;
利用所述至少一个历史网元选取事件对应的历史数据对构建的机器学习模型进行训练,以获得训练完成的机器学习模型。
可选的,所述模型训练模块进一步适于:对所述至少一个历史网元选取事件对应的历史数据进行预处理;
利用预处理结果对构建的机器学习模型进行训练。
可选的,所述机器学习模型包括:三个并列的输入层,三个并列的词嵌入层,三个并列的转换层,一个合并层,至少一个全连接层、和/或至少一个舍弃层;
其中,任一输入层具有与其相连接的词嵌入层;任一词嵌入层具有与其相连接的转换层。
根据本发明的又一个方面,提供了核心网系统,包括:承载上述网元选取装置的NRF网元、以及至少一个服务网元。
根据本发明的又一方面,提供了一种电子设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行上述网元选取方法对应的操作。
根据本发明的再一方面,提供了一种计算机存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使处理器执行如上述网元选取方法对应的操作。
根据本发明提供的网元选取方法及装置,首先接收网元选取请求;其中,网元选取请求中携带有网元选取条件;获取至少一个服务网元的状态信息和属性信息;将网元选取条件,以及至少一个服务网元的状态信息和属性信息输入至预先训练完成的机器学习模型中;获取机器学习模型输出的任一服务网元的评价值;最终基于任一服务网元的评价值,确定目标服务网元。本方案中通过采用机器学习的方法,基于网元选取条件、服务网元的状态信息、以及服务网元的属性信息三个维度数据综合地确定出与目标服务网元,从而能够大幅提升服务网元的选取精度,并具有较高的选取效率,适于大规模应用与实施。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了本发明实施例一提供的网元选取方法的流程示意图;
图2示出了本发明实施例二提供的网元选取方法的流程示意图;
图3示出了本发明实施例二提供的机器学习模型的结构示意图;
图4示出了本发明实施例三提供的网元选取装置的结构示意图;
图5示出了本发明实施例四提供的网元核心网系统的结构示意图;
图6示出了本发明实施例六提供的计算设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本发明的示例性实施例。虽然附图中显示了本发明的示例性实施例,然而应当理解,可以以各种形式实现本发明而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本发明,并且能够将本发明的范围完整的传达给本领域的技术人员。
实施例一
图1示出了本发明实施例一提供的网元选取方法的流程示意图。其中,本实施例所提供的网元选取方法可在5G系统中的NRF网元侧执行。
如图1所示,该方法包括以下步骤:
步骤S110:接收网元选取请求;其中,网元选取请求中携带有网元选取条件。
在5G系统中,通常包含有NRF网元以及至少一个服务网元。其中,NRF网元用于接收服务网元发送的网元选取请求,并反馈与网元选取请求相匹配的其他服务网元。则在实际的实施过程中,可由NRF网元接收5G系统中任一服务网元的网元选取请求,其中,发送网元选取请求的服务网元为服务请求网元。
具体地,网元选取请求中携带有网元选取条件。其中,网元选取条件可以包括:网元类型、网元容量、网元服务、和/或网元所属的切片等等。
步骤S120:获取至少一个服务网元的状态信息和属性信息。
在实际的实施过程中,当有新的服务网元接入5G系统中,通常需先在NRF网元中完成注册登记(例如,新的服务网元可通过调用NRF网元提供的Nnrf_NFManagement服务来完成在NRF网元中的注册登记)。当注册过程中,NRF网元可记录该新的服务网元的属性信息。其中,服务网元的属性信息包括以下信息中的至少一种:网元的IP地址、网元的FQDN(FullyQualified Domain Name全限定域名)、网元支持的服务、网元的实例信息、网元的类型、PLMN ID(Public Land Mobile Network,网络标识)、网元优先级信息、网元的容量信息、网元所属的切片信息、全球唯一标识、允许提供服务的条件、提供的服务名称、及AMFinfo的GUAMI、SMFinfo的DNN、PCF/UDM/AUSF的号段信息等。则在接收到网元选取请求之后,可获取存储的至少一个服务网元的属性信息。
进一步地,NRF网元除了在新的服务网元注册时记录该新的服务网元的属性信息之外,针对于已经注册的服务网元,还进一步地获取有已经注册的服务网元的状态信息。例如,可接收已注册的服务网元定时或实时上报的状态信息。其中,服务网元的状态信息包括以下信息中的至少一种:告警信息、业务处理成功率、业务处理时长、以及业务处理时延等等。
可选的,为进一步地提升网元选取效率,本步骤在至少一个服务网元的状态信息和属性信息时,具体是获取至少一个服务网元的状态信息和属性信息所对应的增量信息。即获取的是上次接收到网元选取请求至当前接收到网元选取请求这段时间内,所产生的至少一个服务网元的状态信息和属性信息。
步骤S130:将网元选取条件,以及至少一个服务网元的状态信息和属性信息输入至预先训练完成的机器学习模型中。
本实施例中预先构建有机器学习模型,并采用相应的机器学习方法对该机器学习模型进行训练,以获得训练完成的机器学习模型。则本实施例可将网元选取条件,以及至少一个服务网元的状态信息和属性信息输入至预先训练完成的机器学习模型中,以供该机器学习模型进行服务网元评价值的预测。
可选的,为进一步提升最终选取的服务网元的精确度,本实施例可对网元选取条件,以及至少一个服务网元的状态信息和属性信息进行预处理,从而将预处理结果输入至预先训练完成的机器学习模型中。其中,本实施例对预处理方式不作限定,例如,可通过以下处理方式中的至少一种进行预处理:字母大小写转换处理(例如,可将网元选取条件,以及至少一个服务网元的状态信息和属性信息中的大写字母统一转换为小写字母)、整数序列标准化处理(例如,可将网元选取条件,以及至少一个服务网元的状态信息和属性信息中的单词转换为整数序列)、以及序列长度规范化处理(例如,将网元选取条件中最长的文本长度作为网元选取条件信息的编码序列长度,将服务网元的属性信息中的最长文本长度作为服务网元的属性信息的编码序列长度,将服务网元的状态信息中的最长文本长度作为服务网元的状态信息的编码序列长度)。
步骤S140:获取机器学习模型输出的任一服务网元的评价值。
通过机器学习模型,能够获得该至少一个服务网元中任一服务网元的评价值。其中,服务网元的评价值越高,表明该服务网元与服务请求网元的匹配度越高。
步骤S150:基于任一服务网元的评价值,确定目标服务网元。
根据步骤S140确定的服务网元的评价值,可从该至少一个服务网元中确定出一个或多个目标服务网元。例如,可将评价值最高的服务网元作为目标服务网元;也可以将评价值高于预设阈值的服务网元确定为目标服务网元。
由此可见,本实施例首先接收网元选取请求;其中,网元选取请求中携带有网元选取条件;进一步获取至少一个服务网元的状态信息和属性信息;将网元选取条件,以及至少一个服务网元的状态信息和属性信息输入至预先训练完成的机器学习模型中;获取机器学习模型输出的任一服务网元的评价值;最终基于任一服务网元的评价值,确定目标服务网元。本方案中通过采用机器学习的方法,基于网元选取条件、服务网元的状态信息、以及服务网元的属性信息三个维度数据综合地确定出目标服务网元,从而能够大幅提升服务网元的选取精度,并具有较高的选取效率,适于大规模应用与实施。
实施例二
图2示出了本发明实施例二提供的网元选取方法的流程示意图。其中,本实施例所提供的网元选取方法是针对于实施例一中网元选取方法的进一步优化,具体是针对于实施例一中机器学习模型的训练方法的优化。
如图2所示,该方法包括以下步骤:
步骤S210:构建机器学习模型。
其中,本实施例构建的机器学习模型具体为深度神经网络模型。在该机器学习模型中,包含有:三个并列的输入层,三个并列的词嵌入层,三个并列的转换层,一个合并层,至少一个全连接层、和/或至少一个舍弃层。
如图3所示,构建的机器学习模型中包含有三个并列的输入层,三个并列的词嵌入层,三个并列的转换层、一个合并层,三个全连接层、以及两个舍弃层。其中,任一输入层具有与其相连接的词嵌入层;任一词嵌入层具有与其相连接的转换层。
步骤S220,获取至少一个历史网元选取事件对应的历史数据。
本步骤获取有训练机器学习模型的样本数据,该样本数据具体为至少一个历史网元选取事件对应的历史数据。其中,历史网元选取事件对应的历史数据包括:该历史网元选取事件中的网元选取条件,以及该历史网元选取事件中的历史目标服务网元的属性信息和状态信息。其中,网元选取条件、属性信息和/或状态信息的具体内容可参照实施例一中相应部分描述,本实施例对此不作赘述。
步骤S230,利用至少一个历史网元选取事件对应的历史数据对构建的机器学习模型进行训练,以获得训练完成的机器学习模型。
在一种可选的实施方式中,为了提升机器学习模型的预测准确度,本实施例可对至少一个历史网元选取事件对应的历史数据进行预处理,从而利用预处理结果对构建的机器学习模型进行训练。其中,预处理可以包括以下处理方式中的至少一种:字母大小写转换处理、整数序列标准化处理以及序列长度规范化处理等等。
在具体的训练过程中,确定该至少一个历史网元选取事件中每个历史网元选取事件对应的标注分,并结合每个历史网元选取事件对应的历史数据,构成了机器学习模型的总数据集。其中,在训练过程中,可将总数据集中第一预设比例(如70%)的数据作为训练集,将总数据集中第二预设比例(如30%)的数据作为测试集,来对构建的机器学习模型进行训练。
以下将结合构建的机器学习模型的结构,来具体阐述本实施例中的机器学习模型训练过程:
如图3所示,三个并列的输入层可分别接收历史网元选取事件中的网元选取条件、历史目标服务网元的属性信息、以及历史目标服务网元的状态信息。其中,每个输入层对应的输入数据维度分别为:网元选取条件中最长的文本长度、历史目标服务网元的属性信息中最长文本长度、历史目标服务网元的状态信息中最长文本长度。
与输入层连接的词嵌入层可将输入的数据映射为对应的向量。其中,转换后的向量维度一致(例如,可以均为64维度)。本实施例对具体的向量映射方式不作限定。
与词嵌入层连接的转换层(reshape层)可将词嵌入层输出的向量进行数据形状转化,从而适配后续层级的数据处理需求。具体地,转换层具体是将向量从(batch_size,input_length,embedding_size)数据形状转换为(batch_size,embedding_size)数据形状。
与三个转换层相连接的有一个合并层,该合并层用于对三个转换层输出的向量进行向量拼接。其中,本实施例对具体的向量拼接过程不作限定,例如可通过按列维度拼接的方式进行向量拼接。
与合并层相连接的有全连接层,并在该全连接层后设置有对应的舍弃层。其中,该全连接层中可包含有64个神经元,其激活函数可采用relu函数。与该全连接层连接的舍弃层用于防止数据的过度拟合,其可以以一定概率(如概率p,该概率p可以为0.2)舍弃神经元,并以1-p的概率保留其他神经元。
与第一个舍弃层连接的有另一全连接层,该全连接层中可包含有32个神经元。并且在该全连接层后设置有一舍弃层。
最后与舍弃层连接的有一个全连接层,该全连接层可作为输出层,该输出层中包含有1个神经元。
在具体的训练过程中,可确定训练的回合数(如2000个回合),批处理量(如批处理量batch_size=10);并可选择平均绝对值误差MSE(Mean Squared Error)作为损失函数,并采用梯度下降优化算法选择adam优化器用于改善传统梯度下降的学习速度。最终随着训练误差的下降,使机器学习模型达到收敛,进而获得训练完成的机器学习模型。
步骤S240,接收网元选取请求;其中,网元选取请求中携带有网元选取条件。
步骤S250,获取至少一个服务网元的状态信息和属性信息。
步骤S260,将网元选取条件,以及至少一个服务网元的状态信息和属性信息输入至预先训练完成的机器学习模型中。
步骤S270,获取机器学习模型输出的任一服务网元的评价值。
步骤S280,基于任一服务网元的评价值,确定目标服务网元。
其中,步骤S240-步骤S280的具体实施过程可参照实施例一中相应部分的描述,本实施例在此不做赘述。
由此可见,本方案中通过采用机器学习的方法,基于网元选取条件、服务网元的状态信息、以及服务网元的属性信息三个维度数据综合地确定出与目标服务网元,从而能够大幅提升服务网元的选取精度,并具有较高的选取效率,适于大规模应用与实施;并且,本实施例通过历史网元选取事件对应的历史数据来对构建的机器学习模型进行训练,从而提升训练获得的机器学习模型的预测精度,进而进一步提升服务网元选取精度。
实施例三
图4示出了本发明实施例三提供的网元选取装置的结构示意图。如图4所示,该装置包括:请求接收模块41、信息获取模块42、输入模块43、评价值获取模块44、以及确定模块45。
请求接收模块41,适于接收网元选取请求;其中,所述网元选取请求中携带有网元选取条件;
信息获取模块42,适于获取至少一个服务网元的状态信息和属性信息;
输入模块43,适于将所述网元选取条件,以及所述至少一个服务网元的状态信息和属性信息输入至预先训练完成的机器学习模型中;
评价值获取模块44,适于获取机器学习模型输出的任一服务网元的评价值;
确定模块45,适于基于所述任一服务网元的评价值,确定目标服务网元。
可选的,所述输入模块进一步包括:对所述网元选取条件,以及所述至少一个服务网元的状态信息和属性信息进行预处理;
将预处理结果输入至预先训练完成的机器学习模型中。
可选的,所述预处理包括以下处理方式中的至少一种:
字母大小写转换处理、整数序列标准化处理、以及序列长度规范化处理。
可选的,所述装置还包括:模型训练模块(图中未示出),适于构建机器学习模型;
获取至少一个历史网元选取事件对应的历史数据;其中,所述历史网元选取事件对应的历史数据包括:该历史网元选取事件中的网元选取条件,以及该历史网元选取事件中的历史目标服务网元的属性信息和状态信息;
利用所述至少一个历史网元选取事件对应的历史数据对构建的机器学习模型进行训练,以获得训练完成的机器学习模型。
可选的,所述模型训练模块进一步适于:对所述至少一个历史网元选取事件对应的历史数据进行预处理;
利用预处理结果对构建的机器学习模型进行训练。
可选的,所述机器学习模型包括:三个并列的输入层,三个并列的词嵌入层,三个并列的转换层,一个合并层,至少一个全连接层、和/或至少一个舍弃层;
其中,任一输入层具有与其相连接的词嵌入层;任一词嵌入层具有与其相连接的转换层。
其中,本实施例中各模块的具体实施过程可参照实施例一和/或实施例二中相应部分的描述,本实施例在此不作赘述。
由此可见,本方案中通过采用机器学习的方法,基于网元选取条件、服务网元的状态信息、以及服务网元的属性信息三个维度数据综合地确定出与目标服务网元,从而能够大幅提升服务网元的选取精度,并具有较高的选取效率,适于大规模应用与实施。
实施例四
图5示出了本发明实施例四提供的核心网系统的结构示意图。如图5所示,该系统包括NRF网元51以及至少一个服务网元52。其中,NRF网元51包括图4所示的网元选取装置。
由此可见,本系统能够大幅提升服务网元的选取精度,并具有较高的选取效率,并且本系统结构简单,适于大规模应用。
实施例五
本发明实施例提供了一种非易失性计算机存储介质,所述计算机存储介质存储有至少一可执行指令,该计算机可执行指令可执行上述任意方法实施例中的网元选取方法。
可执行指令具体可以用于使得处理器执行以下操作:
接收网元选取请求;其中,所述网元选取请求中携带有网元选取条件;
获取至少一个服务网元的状态信息和属性信息;
将所述网元选取条件,以及所述至少一个服务网元的状态信息和属性信息输入至预先训练完成的机器学习模型中;
获取机器学习模型输出的任一服务网元的评价值;
基于所述任一服务网元的评价值,确定目标服务网元。
在一种可选的实施方式中,可执行指令具体可以用于使得处理器执行以下操作:
对所述网元选取条件,以及所述至少一个服务网元的状态信息和属性信息进行预处理;
将预处理结果输入至预先训练完成的机器学习模型中。
在一种可选的实施方式中,所述预处理包括以下处理方式中的至少一种:
字母大小写转换处理、整数序列标准化处理、以及序列长度规范化处理。
在一种可选的实施方式中,可执行指令具体可以用于使得处理器执行以下操作:
构建机器学习模型;
获取至少一个历史网元选取事件对应的历史数据;其中,所述历史网元选取事件对应的历史数据包括:该历史网元选取事件中的网元选取条件,以及该历史网元选取事件中的历史目标服务网元的属性信息和状态信息;
利用所述至少一个历史网元选取事件对应的历史数据对构建的机器学习模型进行训练,以获得训练完成的机器学习模型。
在一种可选的实施方式中,可执行指令具体可以用于使得处理器执行以下操作:
对所述至少一个历史网元选取事件对应的历史数据进行预处理;
利用预处理结果对构建的机器学习模型进行训练。
在一种可选的实施方式中,所述机器学习模型包括:三个并列的输入层,三个并列的词嵌入层,三个并列的转换层,一个合并层,至少一个全连接层、和/或至少一个舍弃层;
其中,任一输入层具有与其相连接的词嵌入层;任一词嵌入层具有与其相连接的转换层。
由此可见,本方案中通过采用机器学习的方法,基于网元选取条件、服务网元的状态信息、以及服务网元的属性信息三个维度数据综合地确定出与目标服务网元,从而能够大幅提升服务网元的选取精度,并具有较高的选取效率,适于大规模应用与实施。
实施例六
图6示出了本发明实施例六提供的计算设备的结构示意图,本发明具体实施例并不对计算设备的具体实现做限定。
如图6所示,该计算设备可以包括:处理器(processor)602、通信接口(Communications Interface)604、存储器(memory)606、以及通信总线608。
其中:处理器602、通信接口604、以及存储器606通过通信总线608完成相互间的通信。通信接口604,用于与其它设备比如客户端或其它服务器等的网元通信。处理器602,用于执行程序610,具体可以执行上述用于网元选取方法实施例中的相关步骤。
具体地,程序610可以包括程序代码,该程序代码包括计算机操作指令。
处理器602可能是中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。计算设备包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个CPU;也可以是不同类型的处理器,如一个或多个CPU以及一个或多个ASIC。
存储器606,用于存放程序610。存储器606可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
程序610具体可以用于使得处理器602执行以下操作:
接收网元选取请求;其中,所述网元选取请求中携带有网元选取条件;
获取至少一个服务网元的状态信息和属性信息;
将所述网元选取条件,以及所述至少一个服务网元的状态信息和属性信息输入至预先训练完成的机器学习模型中;
获取机器学习模型输出的任一服务网元的评价值;
基于所述任一服务网元的评价值,确定目标服务网元。
在一种可选的实施方式中,程序610具体可以用于使得处理器602执行以下操作:
对所述网元选取条件,以及所述至少一个服务网元的状态信息和属性信息进行预处理;
将预处理结果输入至预先训练完成的机器学习模型中。
在一种可选的实施方式中,所述预处理包括以下处理方式中的至少一种:
字母大小写转换处理、整数序列标准化处理、以及序列长度规范化处理。
在一种可选的实施方式中,程序610具体可以用于使得处理器602执行以下操作:
构建机器学习模型;
获取至少一个历史网元选取事件对应的历史数据;其中,所述历史网元选取事件对应的历史数据包括:该历史网元选取事件中的网元选取条件,以及该历史网元选取事件中的历史目标服务网元的属性信息和状态信息;
利用所述至少一个历史网元选取事件对应的历史数据对构建的机器学习模型进行训练,以获得训练完成的机器学习模型。
在一种可选的实施方式中,程序610具体可以用于使得处理器602执行以下操作:
对所述至少一个历史网元选取事件对应的历史数据进行预处理;
利用预处理结果对构建的机器学习模型进行训练。
在一种可选的实施方式中,所述机器学习模型包括:三个并列的输入层,三个并列的词嵌入层,三个并列的转换层,一个合并层,至少一个全连接层、和/或至少一个舍弃层;
其中,任一输入层具有与其相连接的词嵌入层;任一词嵌入层具有与其相连接的转换层。
由此可见,本方案中通过采用机器学习的方法,基于网元选取条件、服务网元的状态信息、以及服务网元的属性信息三个维度数据综合地确定出与目标服务网元,从而能够大幅提升服务网元的选取精度,并具有较高的选取效率,适于大规模应用与实施。
在此提供的算法或显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本发明实施例也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本发明并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明实施例的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。上述实施例中的步骤,除有特殊说明外,不应理解为对执行顺序的限定。

Claims (9)

1.一种网元选取方法,其特征在于,包括:
构建机器学习模型;
获取至少一个历史网元选取事件对应的历史数据;其中,所述历史网元选取事件对应的历史数据包括:该历史网元选取事件中的网元选取条件,以及该历史网元选取事件中的历史目标服务网元的属性信息和状态信息;
利用所述至少一个历史网元选取事件对应的历史数据对构建的机器学习模型进行训练,以获得训练完成的机器学习模型;
接收网元选取请求;其中,所述网元选取请求中携带有网元选取条件;
获取至少一个服务网元的状态信息和属性信息;
将所述网元选取条件,以及所述至少一个服务网元的状态信息和属性信息输入至预先训练完成的机器学习模型中;
获取机器学习模型输出的任一服务网元的评价值;
基于所述任一服务网元的评价值,确定目标服务网元。
2.根据权利要求1所述的方法,其特征在于,所述将所述网元选取条件,以及所述至少一个服务网元的状态信息和属性信息输入至预先训练完成的机器学习模型中进一步包括:
对所述网元选取条件,以及所述至少一个服务网元的状态信息和属性信息进行预处理;
将预处理结果输入至预先训练完成的机器学习模型中。
3.根据权利要求2所述的方法,其特征在于,所述预处理包括以下处理方式中的至少一种:
字母大小写转换处理、整数序列标准化处理、以及序列长度规范化处理。
4.根据权利要求1所述的方法,其特征在于,所述利用所述至少一个历史网元选取事件对应的历史数据对构建的机器学习模型进行训练进一步包括:
对所述至少一个历史网元选取事件对应的历史数据进行预处理;
利用预处理结果对构建的机器学习模型进行训练。
5.根据权利要求4所述的方法,其特征在于,所述机器学习模型包括:三个并列的输入层,三个并列的词嵌入层,三个并列的转换层,一个合并层,至少一个全连接层、和/或至少一个舍弃层;
其中,任一输入层具有与其相连接的词嵌入层;任一词嵌入层具有与其相连接的转换层。
6.一种网元选取装置,其特征在于,包括:
模型训练模块,适于构建机器学习模型;获取至少一个历史网元选取事件对应的历史数据;其中,所述历史网元选取事件对应的历史数据包括:该历史网元选取事件中的网元选取条件,以及该历史网元选取事件中的历史目标服务网元的属性信息和状态信息;利用所述至少一个历史网元选取事件对应的历史数据对构建的机器学习模型进行训练,以获得训练完成的机器学习模型;
请求接收模块,适于接收网元选取请求;其中,所述网元选取请求中携带有网元选取条件;
信息获取模块,适于获取至少一个服务网元的状态信息和属性信息;
输入模块,适于将所述网元选取条件,以及所述至少一个服务网元的状态信息和属性信息输入至预先训练完成的机器学习模型中;
评价值获取模块,适于获取机器学习模型输出的任一服务网元的评价值;
确定模块,适于基于所述任一服务网元的评价值,确定目标服务网元。
7.一种核心网系统,其特征在于,包括:承载如权利要求6所述的网元选取装置的NRF网元、以及至少一个服务网元。
8.一种计算设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如权利要求1-5中任一项所述的网元选取方法对应的操作。
9.一种计算机存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使处理器执行如权利要求1-5中任一项所述的网元选取方法对应的操作。
CN201911309127.0A 2019-12-18 2019-12-18 网元选取方法及装置 Active CN112994923B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911309127.0A CN112994923B (zh) 2019-12-18 2019-12-18 网元选取方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911309127.0A CN112994923B (zh) 2019-12-18 2019-12-18 网元选取方法及装置

Publications (2)

Publication Number Publication Date
CN112994923A CN112994923A (zh) 2021-06-18
CN112994923B true CN112994923B (zh) 2023-04-07

Family

ID=76343870

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911309127.0A Active CN112994923B (zh) 2019-12-18 2019-12-18 网元选取方法及装置

Country Status (1)

Country Link
CN (1) CN112994923B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104778173A (zh) * 2014-01-10 2015-07-15 腾讯科技(深圳)有限公司 目标用户确定方法、装置及设备
CN108885606A (zh) * 2016-03-31 2018-11-23 华为技术有限公司 服务节点选择、查询方法,装置及系统
CN109413667A (zh) * 2018-10-24 2019-03-01 广东工业大学 一种5g网元任务处理方法及系统、nrf、存储介质
CN109903103A (zh) * 2017-12-07 2019-06-18 华为技术有限公司 一种推荐物品的方法和装置
CN110322093A (zh) * 2018-03-30 2019-10-11 阿里巴巴集团控股有限公司 信息处理方法、信息显示方法、装置及计算设备

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090327172A1 (en) * 2008-06-27 2009-12-31 Motorola, Inc. Adaptive knowledge-based reasoning in autonomic computing systems

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104778173A (zh) * 2014-01-10 2015-07-15 腾讯科技(深圳)有限公司 目标用户确定方法、装置及设备
CN108885606A (zh) * 2016-03-31 2018-11-23 华为技术有限公司 服务节点选择、查询方法,装置及系统
CN109903103A (zh) * 2017-12-07 2019-06-18 华为技术有限公司 一种推荐物品的方法和装置
CN110322093A (zh) * 2018-03-30 2019-10-11 阿里巴巴集团控股有限公司 信息处理方法、信息显示方法、装置及计算设备
CN109413667A (zh) * 2018-10-24 2019-03-01 广东工业大学 一种5g网元任务处理方法及系统、nrf、存储介质

Also Published As

Publication number Publication date
CN112994923A (zh) 2021-06-18

Similar Documents

Publication Publication Date Title
US11669744B2 (en) Regularized neural network architecture search
CN111914085B (zh) 文本细粒度情感分类方法、系统、装置及存储介质
CN109918560A (zh) 一种基于搜索引擎的问答方法和装置
CN111460264A (zh) 语义相似度匹配模型的训练方法及装置
EP4202725A1 (en) Joint personalized search and recommendation with hypergraph convolutional networks
EP3580698A1 (en) Hierarchical device placement with reinforcement learning
CN113541985A (zh) 物联网故障诊断方法、模型的训练方法及相关装置
CN111914949B (zh) 基于强化学习的零样本学习模型的训练方法及装置
CN112994923B (zh) 网元选取方法及装置
CN112115994A (zh) 图像识别模型的训练方法、装置、服务器及存储介质
CN112417290A (zh) 书籍排序推送模型的训练方法、电子设备及存储介质
CN113806498B (zh) 网络切片实例运行状况的在线问答方法及装置
CN113822453B (zh) 5g切片的多用户投诉共性确定方法及装置
CN110188274B (zh) 搜索纠错方法及装置
CN115204253A (zh) 基于分层变分条件转移神经元的跨域小样本学习方法
CN115062685A (zh) 一种故障诊断方法、装置、电子设备及存储介质
CN110069770B (zh) 一种数据处理系统、方法及计算机设备
CN114241253A (zh) 违规内容识别的模型训练方法、系统、服务器及存储介质
CN113377884A (zh) 基于多智能体增强学习的事件语料库提纯方法
CN113993148A (zh) 基于机器学习的5g网络切片容灾切换方法及装置
CN114079958B (zh) 5g切片实例的容灾池选择方法、装置及计算设备
CN114339626B (zh) 主叫用户的5g消息群发处理方法及装置
CN112487294A (zh) 书籍排序推送模型的训练方法、电子设备及存储介质
CN113825151B (zh) 基于关系图卷积网络的切片告警间关系预测方法及装置
CN114372442A (zh) 消息应用功能自动编排方法、装置、设备及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant