CN113553058A - 前端页面访问方法、系统和电子设备 - Google Patents
前端页面访问方法、系统和电子设备 Download PDFInfo
- Publication number
- CN113553058A CN113553058A CN202110834989.6A CN202110834989A CN113553058A CN 113553058 A CN113553058 A CN 113553058A CN 202110834989 A CN202110834989 A CN 202110834989A CN 113553058 A CN113553058 A CN 113553058A
- Authority
- CN
- China
- Prior art keywords
- label
- code data
- score
- end page
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 239000013598 vector Substances 0.000 claims abstract description 176
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 30
- 239000011159 matrix material Substances 0.000 claims description 50
- 238000004364 calculation method Methods 0.000 claims description 16
- 230000006870 function Effects 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 3
- 238000002372 labelling Methods 0.000 abstract description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000007476 Maximum Likelihood Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/40—Transformation of program code
- G06F8/41—Compilation
- G06F8/42—Syntactic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/958—Organisation or management of web site content, e.g. publishing, maintaining pages or automatic linking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了一种前端页面访问方法、系统和电子设备,其基于深度学习的方式,通过对待标注的公共组件的代码数据进行特征提取,以获得各个所述公共组件的标签分数,从而根据标签分数准确地引入相应的公共组件。具体地,通过采用能够标注特殊语法词的语义理解模型,区分代码数据中的内容词和语法词,以获得考虑两者之间的关联信息的特征向量。接着,进一步通过卷积神经网络挖掘出不同类别之间的标签值之间的潜在关联信息。然后,融合代码数据中内容词和语法词的关联信息和不同类别之间的标签值之间的潜在关联信息,以获得标签分数。通过这样的方式,实现根据标签分数准确地引入相应的公共组件,提高前端页面的访问性能。
Description
技术领域
本发明涉及计算机应用领域,且更为具体地,涉及一种前端页面访问方法、前端页面访问系统和电子设备。
背景技术
随着HTML5技术的快速发展,HTML5技术具有代码更简化、功能更强大等特性,因此,越来越多的软件开发人员通过HTML5技术开发前端H5项目。
通常,HTML5项目可以只通过前端就实现前端页面的访问。并且,访问前端页面的方式通常为:获取统一资源定位符(Uniform Resource Locator,URL)的路径对应的前端页面,并加载以及渲染该前端页面包含的类、公共组件以及相关资源等信息。
然而,在现有的方案中,加载组件时出现诸多问题。首先,当需要在前端页面中引入全局组件时,需要首先获取前端页面对应的类,并识别类中待引入的组件,这就导致前端页面加载时间过长。其次,在加载公共组件时,不仅要考虑公共组件的类型还要考虑前端页面的类型,因此,还经常出现加载出不适配的公共组件的问题。
因此,访问前端页面时,如何准确地引入相应的公共组件,提高前端页面的访问性能成为亟需解决的问题。
发明内容
为了解决上述技术问题,提出了本申请。本申请的实施例提供了一种前端页面访问方法、前端页面访问系统和电子设备,其基于深度学习的方式,通过对待标注的公共组件的代码数据进行特征提取,以获得各个所述公共组件的标签分数,从而根据标签分数准确地引入相应的公共组件。具体地,通过采用能够标注特殊语法词的语义理解模型,区分代码数据中的内容词和语法词,以获得考虑两者之间的关联信息的特征向量。接着,进一步通过卷积神经网络挖掘出不同类别之间的标签值之间的潜在关联信息。然后,融合代码数据中内容词和语法词的关联信息和不同类别之间的标签值之间的潜在关联信息,以获得标签分数。通过这样的方式,实现根据标签分数准确地引入相应的公共组件,提高前端页面的访问性能。
根据本申请的一个方面,提供了一种前端页面访问方法,其包括:
获取待标注的公共组件的代码数据;
将所述待标注的公共组件的代码数据通过语义理解模型以获得对应于所述代码数据的内容特征向量序列;
对于标签信息,基于所述标签信息中各个标签所属的第一类别和第二类别将所述标签信息构造为标签矩阵,其中,所述标签矩阵中各个位置的特征值用于表示不同第一类别下的不同第二类别的标签的特征值;
使用卷积神经网络从所述标签矩阵中获得标签特征图,所述标签特征图包括不同类别的标签的特征值之间的隐含关联特征;
将所述内容特征向量序列中各个内容特征向量作为查询向量分别与所述标签特征图进行矩阵相乘以获得每个所述内容特征向量对应的标签分数向量,其中,每个所述内容特征向量对应的标签分数向量用于表示所述代码数据中每个词对应的标签分数向量;
基于最大条件似然估计分数的计算法则,获得所述代码数据中每个词作为整体的标签分数;
基于所述代码数据中每个词作为整体的标签分数,获得所述代码数据本身作为整体的标签分数;以及
基于各个所述公共组件的标签分数,在前端页面被访问加载匹配的公共组件。
根据本申请的另一方面,提供了一种前端页面访问系统,其包括:
数据获取单元,用于获取待标注的公共组件的代码数据;
内容特征向量序列生成单元,用于将所述数据获取单元获得的所述待标注的公共组件的代码数据通过语义理解模型以获得对应于所述代码数据的内容特征向量序列;
标签矩阵生成单元,用于对于标签信息,基于所述标签信息中各个标签所属的第一类别和第二类别将所述标签信息构造为标签矩阵,其中,所述标签矩阵中各个位置的特征值用于表示不同第一类别下的不同第二类别的标签的特征值;
标签特征图生成单元,用于使用卷积神经网络从所述标签矩阵生成单元获得的所述标签矩阵中获得标签特征图,所述标签特征图包括不同类别的标签的特征值之间的隐含关联特征;
标签分数向量生成单元,用于将所述内容特征向量序列生成单元获得的所述内容特征向量序列中各个内容特征向量作为查询向量分别与所述标签特征图生成单元获得的所述标签特征图进行矩阵相乘以获得每个所述内容特征向量对应的标签分数向量,其中,每个所述内容特征向量对应的标签分数向量用于表示所述代码数据中每个词对应的标签分数向量;
第一标签分数生成单元,用于基于最大条件似然估计分数的计算法则,获得所述代码数据中每个词作为整体的标签分数;
第二标签分数生成单元,用于基于所述代码数据中每个词作为整体的标签分数,获得所述代码数据本身作为整体的标签分数;以及
访问单元,用于基于各个所述公共组件的标签分数,在前端页面被访问加载匹配的公共组件。
根据本申请的再一方面,提供了一种电子设备,包括:处理器;以及,存储器,在所述存储器中存储有计算机程序指令,所述计算机程序指令在被所述处理器运行时使得所述处理器执行如上所述的前端页面访问方法。
根据本申请的再又一方面,提供了一种计算机可读介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行如上所述的前端页面访问方法。
与现有技术相比,本申请提供的前端页面访问方法、前端页面访问系统和电子设备,其基于深度学习的方式,通过对待标注的公共组件的代码数据进行特征提取,以获得各个所述公共组件的标签分数,从而根据标签分数准确地引入相应的公共组件。具体地,通过采用能够标注特殊语法词的语义理解模型,区分代码数据中的内容词和语法词,以获得考虑两者之间的关联信息的特征向量。接着,进一步通过卷积神经网络挖掘出不同类别之间的标签值之间的潜在关联信息。然后,融合代码数据中内容词和语法词的关联信息和不同类别之间的标签值之间的潜在关联信息,以获得标签分数。通过这样的方式,实现根据标签分数准确地引入相应的公共组件,提高前端页面的访问性能。
附图说明
通过结合附图对本申请实施例进行更详细的描述,本申请的上述以及其他目的、特征和优势将变得更加明显。附图用来提供对本申请实施例的进一步理解,并且构成说明书的一部分,与本申请实施例一起用于解释本申请,并不构成对本申请的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1图示了根据本申请实施例的前端页面访问方法的应用场景图;
图2图示了根据本申请实施例的前端页面访问方法的流程图;
图3图示了根据本申请实施例的前端页面访问方法的系统架构示意图;
图4图示了根据本申请实施例的前端页面访问方法中,将所述待标注的公共组件的代码数据通过语义理解模型以获得对应于所述代码数据的内容特征向量序列的流程图;
图5图示了根据本申请实施例的前端页面访问方法中,基于各个所述公共组件的标签分数,在前端页面被访问加载匹配的公共组件的流程图;
图6图示了根据本申请实施例的前端页面访问系统的框图;
图7图示了根据本申请实施例的前端页面访问系统中访问单元的框图;
图8图示了根据本申请实施例的前端页面访问系统中内容特征向量序列生成单元的框图;
图9图示了根据本申请实施例的电子设备的框图。
具体实施方式
下面,将参考附图详细地描述根据本申请的示例实施例。显然,所描述的实施例仅仅是本申请的一部分实施例,而不是本申请的全部实施例,应理解,本申请不受这里描述的示例实施例的限制。
场景概述
如前所述,当需要在前端页面中引入全局组件时,需要首先获取前端页面对应的类,并识别类中待引入的组件,因此,这就需要开发人员在开发具有全局性的公共组件时,需要标注公共组件所对应的类,从而能够在访问前端页面时,准确地引入相应的公共组件,提高前端页面的访问性能。
但是,针对新开发的公共组件,可以由开发人员在开发过程中标注公共组件所对应的类,而针对之前已经开发的公共组件,则需要一种自动标注公共组件所属的类的方法,从而实现上述前端页面访问时的所需的公共组件的自动引入。
这里,由于前端页面本身可能由多种表达形式,其所对应的类的类标签也会基于前端页面本身的类别的不同而有不同的标签值,因此,当基于公共组件的代码的语义信息对公共组件所属的类进行标注时,需要同时考虑标签所属的前端页面的第一类别和某一第一类别下的公共组件的第二类别。
因此,在本申请的技术方案中,在对公共组件进行标注时,首先获取待标注的公共组件的代码数据,并将其通过语义理解模型转换为特征向量。这里,由于代码数据包括一些具有特定含义的语法信息,比如定义用的Def(),循环用的if…then…等,因此采用能够标注特殊语法词的语义理解模型,比如Bert模型,从而区分代码数据中的内容词和语法词,以获得考虑两者之间的关联信息的特征向量。
也就是,语义理解模型通过词嵌入层将内容词和语法词分别转换为内容输入向量序列和语法输入向量序列之后,通过转换器(transformer)层分别得到内容特征向量序列和语法特征向量序列,并将两者拼接以获得最终的内容特征向量序列。
然后,对于标签信息,基于标签所属的第一类别和第二类别,构造标签值矩阵,例如,标签值矩阵的行对应于第一类别,列对应于第二类别,这样,标签值矩阵可以表达属于不同第一类别下的不同第二类别的标签的值。然后,将该标签值矩阵通过卷积神经网络以获得标签特征图,从而挖掘出不同类别之间的标签值之间的潜在关联信息。
接着,将内容特征向量序列中的每个内容特征向量作为查询向量与标签特征图相乘,就可以得到每个内容特征向量对应的标签分数向量,这实质上就是原始代码中的每个词对应的标签分数向量,从而进一步基于最大条件似然估计分数的计算法则,就可以得到原始代码的每个词作为整体的标签分数,继而得到原始代码本身作为整体的标签分数,表示为:
其中,这里,P(yi│xi)表示原始代码的每个词作为整体的标签分数,其中xj是该词对应的标签分数向量中的每个位置的标签值,另外,λ是用于调整似然函数的偏置项,可以在神经网络模型的训练过程中作为超参数获得。
这样,通过获得的原始代码的标签分数,就可以通过查询表的方式获得该标签对应的第一类别和第二类别,而在实际应用中,一般都直接以标签分数值的方式来表达该标签的类别。
基于此,本申请提出了一种前端页面访问方法,其包括:获取待标注的公共组件的代码数据;将所述待标注的公共组件的代码数据通过语义理解模型以获得对应于所述代码数据的内容特征向量序列;对于标签信息,基于所述标签信息中各个标签所属的第一类别和第二类别将所述标签信息构造为标签矩阵,其中,所述标签矩阵中各个位置的特征值用于表示不同第一类别下的不同第二类别的标签的特征值;使用卷积神经网络从所述标签矩阵中获得标签特征图,所述标签特征图包括不同类别的标签的特征值之间的隐含关联特征;将所述内容特征向量序列中各个内容特征向量作为查询向量分别与所述标签特征图进行矩阵相乘以获得每个所述内容特征向量对应的标签分数向量,其中,每个所述内容特征向量对应的标签分数向量用于表示所述代码数据中每个词对应的标签分数向量;基于最大条件似然估计分数的计算法则,获得所述代码数据中每个词作为整体的标签分数;基于所述代码数据中每个词作为整体的标签分数,获得所述代码数据本身作为整体的标签分数,以及,基于各个所述公共组件的标签分数,在前端页面被访问加载匹配的公共组件。
图1图示了根据本申请实施例的前端页面访问方法的应用场景图。如图1所示,在该应用场景中,首先从后台(例如,前端页面的后端)获取待标注的公共组件的代码数据;然后,将所述待标注的公共组件的代码数据输入至部署有前端页面访问算法的服务器中(例如,如图1中所示意的S),其中,所述服务器能够基于前端页面访问算法对所述待标注的公共组件的代码数据进行处理,以获得所述代码数据本身作为整体的标签分数。这样,就可以基于各个所述公共组件的标签分数,就可以在前端页面被访问时加载匹配的公共组件。
在介绍了本申请的基本原理之后,下面将参考附图来具体介绍本申请的各种非限制性实施例。
示例性方法
图2图示了前端页面访问方法的流程图。如图2所示,根据本申请实施例的前端页面访问方法,包括:S110,获取待标注的公共组件的代码数据;S120,将所述待标注的公共组件的代码数据通过语义理解模型以获得对应于所述代码数据的内容特征向量序列;S130,对于标签信息,基于所述标签信息中各个标签所属的第一类别和第二类别将所述标签信息构造为标签矩阵,其中,所述标签矩阵中各个位置的特征值用于表示不同第一类别下的不同第二类别的标签的特征值;S140,使用卷积神经网络从所述标签矩阵中获得标签特征图,所述标签特征图包括不同类别的标签的特征值之间的隐含关联特征;S150,将所述内容特征向量序列中各个内容特征向量作为查询向量分别与所述标签特征图进行矩阵相乘以获得每个所述内容特征向量对应的标签分数向量,其中,每个所述内容特征向量对应的标签分数向量用于表示所述代码数据中每个词对应的标签分数向量;S160,基于最大条件似然估计分数的计算法则,获得所述代码数据中每个词作为整体的标签分数;S170,基于所述代码数据中每个词作为整体的标签分数,获得所述代码数据本身作为整体的标签分数;以及,S180,基于各个所述公共组件的标签分数,在前端页面被访问加载匹配的公共组件。
图3图示了根据本申请实施例的前端页面访问方法的架构示意图。如图3所示,在所述前端页面访问方法的网络架构中,首先,获取待标注的公共组件的代码数据(例如,如图3中所示意的IN1);接着,将所述待标注的公共组件的代码数据通过语义理解模型(例如,如图3中所示意的SUM)以获得对应于所述代码数据的内容特征向量序列(例如,如图3中所示意的V11到V1n);接着,对于标签信息,基于所述标签信息中各个标签所属的第一类别和第二类别将所述标签信息构造为标签矩阵(例如,如图3中所示意的M1);接着,使用卷积神经网络(例如,如图3中所示意的CNN)从所述标签矩阵中获得标签特征图(例如,如图3中所示意的F1);接着,将所述内容特征向量序列中各个内容特征向量作为查询向量分别与所述标签特征图进行矩阵相乘以获得每个所述内容特征向量对应的标签分数向量(例如,如图3中所示意的V21到V2n);接着,基于最大条件似然估计分数的计算法则,获得所述代码数据中每个词作为整体的标签分数(例如,如图3中所示意的S1);接着,基于所述代码数据中每个词作为整体的标签分数,获得所述代码数据本身作为整体的标签分数(例如,如图3中所示意的S2);然后,基于各个所述公共组件的标签分数,在前端页面被访问加载匹配的公共组件。
在步骤S110中,获取待标注的公共组件的代码数据。如前所述,针对之前已经开发的公共组件,需要一种自动标注公共组件所属的类的方法,从而实现上述前端页面访问时的所需的公共组件的自动引入。因此,在本申请中,为了实现自动标注公共组件所属的类,需要获取待标注的公共组件的代码数据。具体地,在本申请实施例中,可通过电脑等终端设备获取待标注的公共组件的代码数据。
在步骤S120中,将所述待标注的公共组件的代码数据通过语义理解模型以获得对应于所述代码数据的内容特征向量序列。
具体地,在本申请实施例中,所述语义理解模型为能够进行令牌类型区分的语义理解模型,用于区分所述代码数据中的内容词和语法词。应可以理解,由于代码数据包括一些具有特定含义的语法信息,比如定义用的Def(),循环用的if…then…等,因此采用能够标注特殊语法词的语义理解模型,比如Bert模型,从而区分代码数据中的内容词和语法词,以获得考虑两者之间的关联信息的特征向量。本领域普通技术人员应知晓,目前,基于语义理解模型的文本分类任务已经在人工智能领域中得到了很大的发展,尤其是比如Bert的基于转换器的语义理解模型,由于其在一般的词向量之外引入了实体词向量,非常适于一些垂直领域下的语义理解和分类。
具体地,在本申请实施例中,将所述待标注的公共组件的代码数据通过语义理解模型以获得对应于所述代码数据的内容特征向量序列的过程,包括:首先,使用所述语义理解模型的词嵌入层将所述代码数据中的内容词和语法词分别转化为内容输入向量序列和语法输入向量序列。接着,使用所述语义理解模型的转换器将所述内容输入向量序列和所述语法输入向量序列分别转化为内容特征向量序列和语法特征向量序列。然后,将所述内容特征向量序列和所述语法特征向量序列进行拼接,以获得最终的所述内容特征向量序列。也就是,语义理解模型通过词嵌入层将内容词和语法词分别转换为内容输入向量序列和语法输入向量序列之后,通过转换器层分别得到内容特征向量序列和语法特征向量序列,并将两者拼接以获得最终的内容特征向量序列。
图4图示了根据本申请实施例的前端页面访问方法中,将所述待标注的公共组件的代码数据通过语义理解模型以获得对应于所述代码数据的内容特征向量序列的流程图。如图4所示,在本申请实施例中,将所述待标注的公共组件的代码数据通过语义理解模型以获得对应于所述代码数据的内容特征向量序列,包括:S210,使用所述语义理解模型的词嵌入层将所述代码数据中的内容词和语法词分别转化为内容输入向量序列和语法输入向量序列;S220,使用所述语义理解模型的转换器将所述内容输入向量序列和所述语法输入向量序列分别转化为内容特征向量序列和语法特征向量序列;S230,将所述内容特征向量序列和所述语法特征向量序列进行拼接,以获得最终的所述内容特征向量序列。
在步骤S130中,对于标签信息,基于所述标签信息中各个标签所属的第一类别和第二类别将所述标签信息构造为标签矩阵,其中,所述标签矩阵中各个位置的特征值用于表示不同第一类别下的不同第二类别的标签的特征值。也就是,标签矩阵的行对应于第一类别,列对应于第二类别,这样,标签值矩阵可以表达属于不同第一类别下的不同第二类别的标签的值。应可以理解,由于前端页面本身可能有多种表达形式,其所对应的类的类标签也会基于前端页面本身的类别的不同而有不同的标签值,因此,当基于公共组件的代码的语义信息对公共组件所属的类进行标注时,需要同时考虑标签所属的前端页面的第一类别和某一第一类别下的公共组件的第二类别。
在步骤S140中,使用卷积神经网络从所述标签矩阵中获得标签特征图,所述标签特征图包括不同类别的标签的特征值之间的隐含关联特征。也就是,使用卷积神经网络提取出所述标签矩阵中的高维特征信息,即不同类别之间的标签值之间的潜在关联信息,以获得标签特征图。
具体地,在本申请实施例中,所述卷积神经网络以如下公式对所述标签矩阵进行处理以获得所述标签特征图,其中,所述公式为:
fi=active(Ni×fi-1+Bi)
其中,fi-1为第i层卷积神经网络的输入,fi为第i层卷积神经网络的输出,Ni为第i层卷积神经网络的卷积核,且Bi为第i层卷积神经网络的偏置向量,active表示激活函数。
在步骤S150中,将所述内容特征向量序列中各个内容特征向量作为查询向量分别与所述标签特征图进行矩阵相乘以获得每个所述内容特征向量对应的标签分数向量,其中,每个所述内容特征向量对应的标签分数向量用于表示所述代码数据中每个词对应的标签分数向量。
应可以理解,将内容特征向量序列中的每个内容特征向量作为查询向量与标签特征图相乘,可以将标签特征图映射到每个内容特征向量所在的特征空间中,以得到每个内容特征向量对应的标签分数向量,这实质上就是原始代码中的每个词对应的标签分数向量。
在步骤S160中,基于最大条件似然估计分数的计算法则,获得所述代码数据中每个词作为整体的标签分数。本领域普通技术人员应知晓,最大似然法是参数估计的一种重要方法,在遗传学研究中,广泛地应用于计数资料的总体成数估计。由于估计值以满足在观察结果中的出现概率最大为条件,故又称最大似然估计。
具体地,在本申请实施例中,基于最大条件似然估计分数的计算法则,获得所述代码数据中每个词作为整体的标签分数的过程,包括:基于最大条件似然估计分数的计算法则,以如下公式计算所述代码数据中每个词作为整体的标签分数;其中,所述公式为: P(yi|xi)表示所述代码数据中每个词作为整体的标签分数,xj是该词对应的标签分数向量中的每个位置的特征值。
在步骤S170中,基于所述代码数据中每个词作为整体的标签分数,获得所述代码数据本身作为整体的标签分数。应可以理解,在通过最大条件似然估计分数的计算法则得到原始代码的每个词作为整体的标签分数后,就可以通过指定运算获得所述代码数据本身作为整体的标签分数。
具体地,在本申请实施例中,基于所述代码数据中每个词作为整体的标签分数,获得所述代码数据本身作为整体的标签分数的过程,包括:基于所述代码数据中每个词作为整体的标签分数,以如下公式计算所述代码数据本身作为整体的标签分数;其中,所述公式为:
P(yi|xi)表示所述代码数据中每个词作为整体的标签分数,λ是用于调整似然函数的偏置项。
在步骤S180中,基于各个所述公共组件的标签分数,在前端页面被访问加载匹配的公共组件。也就是,基于获得的各个所述公共组件的标签分数,就可以自动标注公共组件所属的类,从而实现在前端页面访问时的所需的公共组件的自动引入,以提高前端页面的访问性能。
具体地,在本申请实施例中,基于各个所述公共组件的标签分数,在前端页面被访问加载匹配的公共组件的过程,包括:首先基于所述代码数据的标签分数,获得所述待标注的公共组件所属的第一类别和第二类别,例如,从查询表中获取与所述代码数据的标签分数匹配的第一类别和第二类别。在实际应用中,也可以直接以标签分数值的方式来表达该标签的类别。然后,响应于属于第一类别的前端页面被访问,加载属于第一类别和第二类别的公共组件。
图5图示了根据本申请实施例的前端页面访问方法中,基于各个所述公共组件的标签分数,在前端页面被访问加载匹配的公共组件的流程图。如图5所示,在本申请实施例中,基于各个所述公共组件的标签分数,在前端页面被访问加载匹配的公共组件,包括:S310,基于所述代码数据的标签分数,获得所述待标注的公共组件所属的第一类别和第二类别;S320,响应于属于第一类别的前端页面被访问,加载属于第一类别和第二类别的公共组件。
综上,本申请实施例的前端页面访问方法被阐明,其基于深度学习的方式,通过对待标注的公共组件的代码数据进行特征提取,以获得各个所述公共组件的标签分数,从而根据标签分数准确地引入相应的公共组件。具体地,通过采用能够标注特殊语法词的语义理解模型,区分代码数据中的内容词和语法词,以获得考虑两者之间的关联信息的特征向量。接着,进一步通过卷积神经网络挖掘出不同类别之间的标签值之间的潜在关联信息。然后,融合代码数据中内容词和语法词的关联信息和不同类别之间的标签值之间的潜在关联信息,以获得标签分数。通过这样的方式,实现根据标签分数准确地引入相应的公共组件,提高前端页面的访问性能。
示例性系统
图6图示了根据本申请实施例的前端页面访问系统的框图。
如图6所示,根据本申请实施例的前端页面访问系统600,包括:数据获取单元610,用于获取待标注的公共组件的代码数据;内容特征向量序列生成单元620,用于将所述数据获取单元610获得的所述待标注的公共组件的代码数据通过语义理解模型以获得对应于所述代码数据的内容特征向量序列;标签矩阵生成单元630,用于对于标签信息,基于所述标签信息中各个标签所属的第一类别和第二类别将所述标签信息构造为标签矩阵,其中,所述标签矩阵中各个位置的特征值用于表示不同第一类别下的不同第二类别的标签的特征值;标签特征图生成单元640,用于使用卷积神经网络从所述标签矩阵生成单元630获得的所述标签矩阵中获得标签特征图,所述标签特征图包括不同类别的标签的特征值之间的隐含关联特征;标签分数向量生成单元650,用于将所述内容特征向量序列生成单元620获得的所述内容特征向量序列中各个内容特征向量作为查询向量分别与所述标签特征图生成单元640获得的所述标签特征图进行矩阵相乘以获得每个所述内容特征向量对应的标签分数向量,其中,每个所述内容特征向量对应的标签分数向量用于表示所述代码数据中每个词对应的标签分数向量;第一标签分数生成单元660,用于基于最大条件似然估计分数的计算法则,获得所述代码数据中每个词作为整体的标签分数;第二标签分数生成单元670,用于基于所述代码数据中每个词作为整体的标签分数,获得所述代码数据本身作为整体的标签分数;以及,访问单元680,用于基于各个所述公共组件的标签分数,在前端页面被访问加载匹配的公共组件。
在一个示例中,在上述前端页面访问系统600中,如图7所示,所述访问单元680,包括:类别获取子单元681,用于基于所述代码数据的标签分数,获得所述待标注的公共组件所属的第一类别和第二类别;以及,加载子单元682,用于响应于属于第一类别的前端页面被访问,加载属于第一类别和第二类别的公共组件。
在一个示例中,在上述前端页面访问系统600中,所述类别获取子单元681,进一步用于:从查询表中获取与所述代码数据的标签分数匹配的第一类别和第二类别。
在一个示例中,在上述前端页面访问系统600中,所述语义理解模型为能够进行令牌类型区分的语义理解模型,用于区分所述代码数据中的内容词和语法词。
在一个示例中,在上述前端页面访问系统600中,如图8所示,所述内容特征向量序列生成单元620,包括:第一转化子单元621,用于使用所述语义理解模型的词嵌入层将所述代码数据中的内容词和语法词分别转化为内容输入向量序列和语法输入向量序列;第二转化子单元622,用于使用所述语义理解模型的转换器将所述内容输入向量序列和所述语法输入向量序列分别转化为内容特征向量序列和语法特征向量序列;以及,拼接子单元623,用于将所述内容特征向量序列和所述语法特征向量序列进行拼接,以获得最终的所述内容特征向量序列。
在一个示例中,在上述前端页面访问系统600中,所述卷积神经网络以如下公式对所述标签矩阵进行处理以获得所述标签特征图;
其中,所述公式为:
fi=active(Ni×fi-1+Bi)
其中,fi-1为第i层卷积神经网络的输入,fi为第i层卷积神经网络的输出,Ni为第i层卷积神经网络的卷积核,且Bi为第i层卷积神经网络的偏置向量,active表示激活函数。
在一个示例中,在上述前端页面访问系统600中,所述第一标签分数生成单元660,进一步用于:基于最大条件似然估计分数的计算法则,以如下公式计算所述代码数据中每个词作为整体的标签分数;
在一个示例中,在上述前端页面访问系统600中,所述第二标签分数生成单元670,进一步用于:基于所述代码数据中每个词作为整体的标签分数,以如下公式计算所述代码数据本身作为整体的标签分数;
其中,所述公式为:
P(yi|xi)表示所述代码数据中每个词作为整体的标签分数,λ是用于调整似然函数的偏置项。
这里,本领域技术人员可以理解,上述前端页面访问系统600中的各个单元和模块的具体功能和操作已经在上面参考图1到图5的前端页面访问方法的描述中得到了详细介绍,并因此,将省略其重复描述。
如上所述,根据本申请实施例的前端页面访问系统600可以实现在各种终端设备中,例如用于前端页面访问的服务器等。在一个示例中,根据本申请实施例的前端页面访问系统600可以作为一个软件模块和/或硬件模块而集成到终端设备中。例如,该前端页面访问系统600可以是该终端设备的操作系统中的一个软件模块,或者可以是针对于该终端设备所开发的一个应用程序;当然,该前端页面访问系统600同样可以是该终端设备的众多硬件模块之一。
替换地,在另一示例中,该前端页面访问系统600与该终端设备也可以是分立的设备,并且该前端页面访问系统600可以通过有线和/或无线网络连接到该终端设备,并且按照约定的数据格式来传输交互信息。
示例性电子设备
下面,参考图9来描述根据本申请实施例的电子设备。
图9图示了根据本申请实施例的电子设备的框图。
如图9所示,电子设备包括10包括一个或多个处理器11和存储器12。
处理器11可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备10中的其他组件以执行期望的功能。
存储器12可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器11可以运行所述程序指令,以实现上文所述的本申请的各个实施例的前端页面访问方法的功能以及/或者其他期望的功能。在所述计算机可读存储介质中还可以存储诸如标签矩阵、标签特征图等各种内容。
在一个示例中,电子设备10还可以包括:输入系统13和输出系统14,这些组件通过总线系统和/或其他形式的连接机构(未示出)互连。
该输入系统13可以包括例如键盘、鼠标等等。
该输出系统14可以向外部输出各种信息,包括标签分数等。该输出系统14可以包括例如显示器、扬声器、打印机、以及通信网络及其所连接的远程输出设备等等。
当然,为了简化,图7中仅示出了该电子设备10中与本申请有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备10还可以包括任何其他适当的组件。
示例性计算机程序产品和计算机可读存储介质
除了上述方法和设备以外,本申请的实施例还可以是计算机程序产品,其包括计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本申请各种实施例的前端页面访问方法中的功能中的步骤。
所述计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本申请实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
此外,本申请的实施例还可以是计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的前端页面访问方法中的步骤。
所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、系统或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
Claims (10)
1.一种前端页面访问方法,其特征在于,包括:
获取待标注的公共组件的代码数据;
将所述待标注的公共组件的代码数据通过语义理解模型以获得对应于所述代码数据的内容特征向量序列;
对于标签信息,基于所述标签信息中各个标签所属的第一类别和第二类别将所述标签信息构造为标签矩阵,其中,所述标签矩阵中各个位置的特征值用于表示不同第一类别下的不同第二类别的标签的特征值;
使用卷积神经网络从所述标签矩阵中获得标签特征图,所述标签特征图包括不同类别的标签的特征值之间的隐含关联特征;
将所述内容特征向量序列中各个内容特征向量作为查询向量分别与所述标签特征图进行矩阵相乘以获得每个所述内容特征向量对应的标签分数向量,其中,每个所述内容特征向量对应的标签分数向量用于表示所述代码数据中每个词对应的标签分数向量;
基于最大条件似然估计分数的计算法则,获得所述代码数据中每个词作为整体的标签分数;
基于所述代码数据中每个词作为整体的标签分数,获得所述代码数据本身作为整体的标签分数;以及
基于各个所述公共组件的标签分数,在前端页面被访问加载匹配的公共组件。
2.根据权利要求1所述的前端页面访问方法,其中,基于各个所述公共组件的标签分数,在前端页面被访问加载匹配的公共组件,包括:
基于所述代码数据的标签分数,获得所述待标注的公共组件所属的第一类别和第二类别;以及
响应于属于第一类别的前端页面被访问,加载属于第一类别和第二类别的公共组件。
3.根据权利要求2所述的前端页面访问方法,其中,基于所述代码数据的标签分数,获得所述待标注的公共组件所属的第一类别和第二类别,包括:
从查询表中获取与所述代码数据的标签分数匹配的第一类别和第二类别。
4.根据权利要求1所述的前端页面访问方法,其中,所述语义理解模型为能够进行令牌类型区分的语义理解模型,用于区分所述代码数据中的内容词和语法词。
5.根据权利要求4所述的前端页面访问方法,其中,将所述待标注的公共组件的代码数据通过语义理解模型以获得对应于所述代码数据的内容特征向量序列,包括:
使用所述语义理解模型的词嵌入层将所述代码数据中的内容词和语法词分别转化为内容输入向量序列和语法输入向量序列;
使用所述语义理解模型的转换器将所述内容输入向量序列和所述语法输入向量序列分别转化为内容特征向量序列和语法特征向量序列;以及
将所述内容特征向量序列和所述语法特征向量序列进行拼接,以获得最终的所述内容特征向量序列。
6.根据权利要求1所述的前端页面访问方法,其中,所述卷积神经网络以如下公式对所述标签矩阵进行处理以获得所述标签特征图;
其中,所述公式为:
fi=active(Ni×fi-1+Bi)
其中,fi-1为第i层卷积神经网络的输入,fi为第i层卷积神经网络的输出,Ni为第i层卷积神经网络的卷积核,且Bi为第i层卷积神经网络的偏置向量,active表示激活函数。
9.一种前端页面访问系统,其特征在于,包括:
数据获取单元,用于获取待标注的公共组件的代码数据;
内容特征向量序列生成单元,用于将所述数据获取单元获得的所述待标注的公共组件的代码数据通过语义理解模型以获得对应于所述代码数据的内容特征向量序列;
标签矩阵生成单元,用于对于标签信息,基于所述标签信息中各个标签所属的第一类别和第二类别将所述标签信息构造为标签矩阵,其中,所述标签矩阵中各个位置的特征值用于表示不同第一类别下的不同第二类别的标签的特征值;
标签特征图生成单元,用于使用卷积神经网络从所述标签矩阵生成单元获得的所述标签矩阵中获得标签特征图,所述标签特征图包括不同类别的标签的特征值之间的隐含关联特征;
标签分数向量生成单元,用于将所述内容特征向量序列生成单元获得的所述内容特征向量序列中各个内容特征向量作为查询向量分别与所述标签特征图生成单元获得的所述标签特征图进行矩阵相乘以获得每个所述内容特征向量对应的标签分数向量,其中,每个所述内容特征向量对应的标签分数向量用于表示所述代码数据中每个词对应的标签分数向量;
第一标签分数生成单元,用于基于最大条件似然估计分数的计算法则,获得所述代码数据中每个词作为整体的标签分数;
第二标签分数生成单元,用于基于所述代码数据中每个词作为整体的标签分数,获得所述代码数据本身作为整体的标签分数;以及
访问单元,用于基于各个所述公共组件的标签分数,在前端页面被访问加载匹配的公共组件。
10.一种电子设备,包括:
处理器;以及
存储器,在所述存储器中存储有计算机程序指令,所述计算机程序指令在被所述处理器运行时使得所述处理器执行如权利要求1-8中任一项所述的前端页面访问方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110834989.6A CN113553058B (zh) | 2021-07-23 | 2021-07-23 | 前端页面访问方法、系统和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110834989.6A CN113553058B (zh) | 2021-07-23 | 2021-07-23 | 前端页面访问方法、系统和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113553058A true CN113553058A (zh) | 2021-10-26 |
CN113553058B CN113553058B (zh) | 2022-08-23 |
Family
ID=78104188
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110834989.6A Active CN113553058B (zh) | 2021-07-23 | 2021-07-23 | 前端页面访问方法、系统和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113553058B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5970252A (en) * | 1997-08-12 | 1999-10-19 | International Business Machines Corporation | Method and apparatus for loading components in a component system |
US20030192027A1 (en) * | 2000-09-08 | 2003-10-09 | Porter Mathew Deon | Software application development |
CN102841780A (zh) * | 2011-06-23 | 2012-12-26 | 阿里巴巴集团控股有限公司 | 一种创建并调用通用组件的方法及设备 |
CN109491653A (zh) * | 2018-11-21 | 2019-03-19 | 泰康保险集团股份有限公司 | 微服务架构下的组件共享方法、装置、电子设备 |
CN109885791A (zh) * | 2019-01-03 | 2019-06-14 | 深圳壹账通智能科技有限公司 | 一种前端页面访问方法、装置及电子设备 |
CN110825990A (zh) * | 2018-07-23 | 2020-02-21 | 优视科技有限公司 | 页面访问方法、客户端、服务器及系统 |
CN111240767A (zh) * | 2020-02-04 | 2020-06-05 | 北京字节跳动网络技术有限公司 | 组件和页面加载方法、装置、电子设备及存储介质 |
CN111475161A (zh) * | 2019-01-24 | 2020-07-31 | 华为技术有限公司 | 一种访问组件的方法、装置及设备 |
CN112434330A (zh) * | 2020-11-16 | 2021-03-02 | 广州酷车信息科技有限公司 | 一种前端页面的显示方法、系统、装置及可读存储介质 |
-
2021
- 2021-07-23 CN CN202110834989.6A patent/CN113553058B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5970252A (en) * | 1997-08-12 | 1999-10-19 | International Business Machines Corporation | Method and apparatus for loading components in a component system |
US20030192027A1 (en) * | 2000-09-08 | 2003-10-09 | Porter Mathew Deon | Software application development |
CN102841780A (zh) * | 2011-06-23 | 2012-12-26 | 阿里巴巴集团控股有限公司 | 一种创建并调用通用组件的方法及设备 |
CN110825990A (zh) * | 2018-07-23 | 2020-02-21 | 优视科技有限公司 | 页面访问方法、客户端、服务器及系统 |
CN109491653A (zh) * | 2018-11-21 | 2019-03-19 | 泰康保险集团股份有限公司 | 微服务架构下的组件共享方法、装置、电子设备 |
CN109885791A (zh) * | 2019-01-03 | 2019-06-14 | 深圳壹账通智能科技有限公司 | 一种前端页面访问方法、装置及电子设备 |
CN111475161A (zh) * | 2019-01-24 | 2020-07-31 | 华为技术有限公司 | 一种访问组件的方法、装置及设备 |
CN111240767A (zh) * | 2020-02-04 | 2020-06-05 | 北京字节跳动网络技术有限公司 | 组件和页面加载方法、装置、电子设备及存储介质 |
CN112434330A (zh) * | 2020-11-16 | 2021-03-02 | 广州酷车信息科技有限公司 | 一种前端页面的显示方法、系统、装置及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113553058B (zh) | 2022-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115203380B (zh) | 基于多模态数据融合的文本处理系统及其方法 | |
WO2021082953A1 (zh) | 机器阅读理解方法、设备、存储介质及装置 | |
US11699275B2 (en) | Method and system for visio-linguistic understanding using contextual language model reasoners | |
CN111459977B (zh) | 自然语言查询的转换 | |
CN111736840A (zh) | 小程序应用的编译方法、运行方法、存储介质及电子设备 | |
CN110580308A (zh) | 信息审核方法及装置、电子设备、存储介质 | |
CN113158656B (zh) | 讽刺内容识别方法、装置、电子设备以及存储介质 | |
CN112464927B (zh) | 一种信息提取方法、装置及系统 | |
CN113221555A (zh) | 一种基于多任务模型的关键词识别方法、装置及设备 | |
CN111738791B (zh) | 一种文本处理方法、装置、设备和存储介质 | |
CN114218945A (zh) | 实体识别方法、装置、服务器及存储介质 | |
CN112181924A (zh) | 文件转换方法、装置、设备及介质 | |
CN117033455A (zh) | 基于大数据的信息技术咨询管理系统及方法 | |
CN112487813A (zh) | 命名实体识别方法及系统、电子设备及存储介质 | |
CN113553058B (zh) | 前端页面访问方法、系统和电子设备 | |
CN113723107A (zh) | 智能终端间的联系人信息传送提取方法、系统和电子设备 | |
US11423228B2 (en) | Weakly supervised semantic entity recognition using general and target domain knowledge | |
CN113138773A (zh) | 云计算分布式服务集群方法 | |
CN113722475A (zh) | 基于云存储的文件操作方法、系统和电子设备 | |
CN111753548A (zh) | 信息获取方法及装置、计算机存储介质、电子设备 | |
CN117909505B (zh) | 事件论元的抽取方法及相关设备 | |
CN117874261B (zh) | 基于课程学习的问答式事件抽取方法以及相关设备 | |
WO2024159415A1 (en) | Length-constrained machine translation model | |
CN112445784B (zh) | 一种文本结构化的方法、设备及系统 | |
CN114385781B (zh) | 基于语句模型的接口文件推荐方法、装置、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |