CN113360747B - 基于神经网络模型的数据处理方法及装置 - Google Patents
基于神经网络模型的数据处理方法及装置 Download PDFInfo
- Publication number
- CN113360747B CN113360747B CN202010144746.5A CN202010144746A CN113360747B CN 113360747 B CN113360747 B CN 113360747B CN 202010144746 A CN202010144746 A CN 202010144746A CN 113360747 B CN113360747 B CN 113360747B
- Authority
- CN
- China
- Prior art keywords
- optimized
- operator
- operators
- information
- multipath
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003062 neural network model Methods 0.000 title claims abstract description 82
- 238000003672 processing method Methods 0.000 title claims abstract description 27
- 238000000034 method Methods 0.000 claims abstract description 49
- 238000004458 analytical method Methods 0.000 claims abstract description 19
- 238000004364 calculation method Methods 0.000 claims description 58
- 230000001133 acceleration Effects 0.000 claims description 50
- 238000005457 optimization Methods 0.000 claims description 40
- 238000012545 processing Methods 0.000 claims description 19
- 238000012216 screening Methods 0.000 claims description 12
- 102000015097 RNA Splicing Factors Human genes 0.000 claims description 8
- 108010039259 RNA Splicing Factors Proteins 0.000 claims description 8
- 230000000694 effects Effects 0.000 claims description 7
- 230000011218 segmentation Effects 0.000 claims description 7
- 230000006399 behavior Effects 0.000 description 53
- 238000010586 diagram Methods 0.000 description 7
- 238000001914 filtration Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000013145 classification model Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000012163 sequencing technique Methods 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明公开一种基于神经网络模型的数据处理方法及装置,涉及互联网技术领域,其目的在于解决现有技术中信息推荐效率低的问题。本发明的方法主要包括:获取用户行为信息和系统中的业务信息;在基于注意力模型对所述用户行为信息和所述业务信息进行分析之前,识别所述注意力模型的算子中是否存在待优化的多路算子;若所述注意力模型的算子中存在所述待优化的多路算子,则使用预设的优化后的算子替换所述待优化的多路算子;基于更新后的注意力模型对所述用户行为信息和所述业务信息进行分析,并根据分析结果确定待推荐的业务信息。本发明主要适用于向用户推荐信息的场景中。
Description
技术领域
本发明涉及互联网技术领域,特别是涉及一种基于神经网络模型的数据处理方法及装置。
背景技术
随着互联网的不断发展,网络上信息的数据量不断加大,各式各样的网站、APP逐渐融入人们的生活,人们可以足不出户,完成很多事情,例如购物、查资料、看视频、定外卖等。
为了让用户快速获取到所需的信息,技术人员研究出了一种能够分析用户注意力的模型,即Attention模型。举例子来说,当我们观赏一幅画时,虽然我们可以看到整幅画的全貌,但是在我们深入仔细地观察时,其实眼睛聚焦的就只有很小的一块,这个时候人的大脑主要关注在这一小块图案上,也就是说这个时候人脑对整幅图的关注并不是均衡的,是有一定的权重区分的。因此,在分析用户的兴趣爱好时,可以使用Attention模型来对用户行为信息进行分析,确定出对各部分信息的权重,从而预估出用户感兴趣的信息。并且当采用多路的注意力模型时,可以获取多种类型的信息,并基于多路并行对这些信息进行分析,从而快速且准确地得到结果。
然而,目前的多路注意力模型中的多路算子在路数较多或需要计算的数据量较大时,计算效率会大打折扣,从而导致信息推荐产生延迟。为了提高效率,现有技术提供了一种对多路算子进行优化的方案:通过调用图形处理器(Graphics Processing Unit,简称GPU)的接口,来自定义融合算子的方式实现对注意力模型的优化。但是,由于GPU是第三方硬件,其GPU底层接口不公开,只能使用较高层的应用程序编程接口(ApplicationProgramming Interface,简称API)实现,无法实现其他层面的深度优化,导致实际加速效果不理想。
发明内容
有鉴于此,本发明提供的基于神经网络模型的数据处理方法及装置,其目的在于解决现有技术中基于神经网络模型的数据处理效率低的问题。
第一方面,本发明提供了一种基于神经网络模型的数据处理方法,所述方法包括:
获取用户行为信息和系统中的业务信息;
在基于注意力模型对所述用户行为信息和所述业务信息进行分析之前,识别所述注意力模型的算子中是否存在待优化的多路算子;
若所述注意力模型的算子中存在所述待优化的多路算子,则使用预设的优化后的算子替换所述待优化的多路算子;
基于更新后的注意力模型对所述用户行为信息和所述业务信息进行分析,并根据分析结果确定待推荐的业务信息。
可选的,使用预设的优化后的算子替换所述待优化的多路算子包括:
对所述待优化的多路算子添加优化标记;
根据所述待优化的多路算子的优化标记,将所述待优化的多路算子替换为优化标记所对应的优化后的算子。
可选的,所述优化标记包括优化后的算子的算子类型和算子类型的组合方式。
可选的,识别所述注意力模型的算子中是否存在待优化的多路算子包括:
根据多路算子的路数和/或业务场景确定所述注意力模型的算子中是否存在待优化的多路算子。
可选的,根据多路算子的路数和/或业务场景确定所述注意力模型的算子中是否存在待优化的多路算子包括:
当所述待识别的多路算子的路数大于预设路数阈值,和/或,当前业务场景使用优化后的算子的历史效果优于所述待识别的多路算子时,将所述待识别的多路算子确定为待优化的多路算子。
可选的,基于更新后的注意力模型对所述用户行为信息和所述业务信息进行分析包括:
对所述更新后的注意力模型进行编译,生成每个算子对应的操作指令;
将所述操作指令发送给对应的加速硬件,以便所述加速硬件执行所述操作指令。
可选的,当所述加速硬件是第三方硬件时,在所述加速硬件执行所述操作指令之前,所述方法还包括:
若使用预设的优化后的算子替换了所述待优化的多路算子,且所述优化后的算子中存在新的操作指令,则在对应的加速硬件的指令集中添加新的操作指令。
可选的,所述加速硬件执行所述操作指令包括:
获取优化后的算子的输入信息;所述输入信息是与所述用户行为信息和所述业务信息相关的数据;
将与每一路输入信息进行计算的因子进行拼接;
将拼接后的因子与所述优化后的算子的输入信息进行计算,并将计算结果作为所述优化后的算子的输出。
可选的,若所述因子为权重信息,则将拼接后的因子与所述优化后的算子的输入信息进行计算,并将计算结果作为所述优化后的算子的输出包括:
将所述优化后的算子的输入信息与拼接后的权重信息做点乘,按照每路的长度作为分段依据对点乘结果进行分段,对每段进行累加作为所述优化后的算子的输出。
可选的,若所述因子为条件信息,则将拼接后的因子与所述优化后的算子的输入信息进行计算,并将计算结果作为所述优化后的算子的输出包括:
根据拼接后的条件信息对所述优化后的算子的输入信息进行筛选,得出筛选结果作为所述优化后的算子的输出。
第二方面,本发明提供了一种基于神经网络模型的数据处理方法,所述方法包括:
获取神经网络模型的输入信息,所述输入信息是与用户行为信息和/或业务信息相关的数据;
将与所述神经网络模型中每一路输入信息进行计算的因子进行拼接;
将拼接后的因子与所述神经网络模型的输入信息进行计算,获得所述神经网络模型的输出信息。
第三方面,本发明提供了基于神经网络模型的数据处理方法,所述方法包括:
获取优化后的算子的输入信息;所述优化后的算子是当系统确定待使用的神经网络模型中存在待优化的多路算子时,将所述待优化的多路算子使用预设优化后的算子进行替换得到的算子;所述输入信息是与用户行为信息和/或业务信息相关的数据;
将与每一路输入信息进行计算的因子进行拼接;
将拼接后的因子与所述优化后的算子的输入信息进行计算,并将计算结果作为所述优化后的算子的输出。
第四方面,本发明提供了一种基于神经网络模型的数据处理装置,所述装置包括:
获取单元,用于获取用户行为信息和系统中的业务信息;
识别单元,用于在基于注意力模型对所述用户行为信息和所述业务信息进行分析之前,识别所述注意力模型的算子中是否存在待优化的多路算子;
替换单元,用于当所述注意力模型的算子中存在所述待优化的多路算子时,使用预设的优化后的算子替换所述待优化的多路算子;
分析单元,用于基于更新后的注意力模型对所述用户行为信息和所述业务信息进行分析;
确定单元,用于根据分析结果确定待推荐的业务信息。
可选的,所述替换单元包括:
添加模块,用于对所述待优化的多路算子添加优化标记;
替换模块,用于根据所述待优化的多路算子的优化标记,将所述待优化的多路算子替换为优化标记所对应的优化后的算子。
可选的,所述添加模块添加的所述优化标记包括优化后的算子的算子类型和算子类型的组合方式。
可选的,所述识别单元,用于根据多路算子的路数和/或业务场景确定所述注意力模型的算子中是否存在待优化的多路算子。
可选的,所述识别单元,用于当所述待识别的多路算子的路数大于预设路数阈值,和/或,当前业务场景使用优化后的算子的历史效果优于所述待识别的多路算子时,将所述待识别的多路算子确定为待优化的多路算子。
可选的,所述分析单元,用于对所述更新后的注意力模型进行编译,生成每个算子对应的操作指令;并将所述操作指令发送给对应的加速硬件,以便所述加速硬件执行所述操作指令。
可选的,所述装置还包括:
添加单元,用于当所述加速硬件是第三方硬件时,在所述加速硬件执行所述操作指令之前,若使用预设的优化后的算子替换了所述待优化的多路算子,且所述优化后的算子中存在新的操作指令,则在对应的加速硬件的指令集中添加新的操作指令。
可选的,所述分析单元包括:
获取模块,用于获取优化后的算子的输入信息;所述输入信息是与所述用户行为信息和所述业务信息相关的数据;
拼接模块,用于与每一路输入信息进行计算的因子进行拼接;
计算模块,用于将拼接后的因子与所述优化后的算子的输入信息进行计算,并将计算结果作为所述优化后的算子的输出。
可选的,所述计算模块,用于若所述因子为权重信息,则将所述优化后的算子的输入信息与拼接后的权重信息做点乘,按照每路的长度作为分段依据对点乘结果进行分段,对每段进行累加作为所述优化后的算子的输出。
可选的,所述计算模块,用于若所述因子为条件信息,则根据拼接后的条件信息对所述优化后的算子的输入信息进行筛选,得出筛选结果作为所述优化后的算子的输出。
第五方面,本发明提供了一种基于神经网络模型的数据处理装置,所述装置包括:
获取单元,用于获取神经网络模型的输入信息,所述输入信息是与用户行为信息和业务信息相关的数据;
拼接单元,用于将与所述神经网络模型中每一路输入信息进行计算的因子进行拼接;
计算单元,用于将拼接后的因子与所述神经网络模型的输入信息进行计算,获得所述神经网络模型的输出信息。
第六方面,本发明提供了一种基于神经网络模型的数据处理装置,所述装置包括:
获取单元,用于获取优化后的算子的输入信息;所述优化后的算子是当系统确定待使用的神经网络模型中存在待优化的多路算子时,将所述待优化的多路算子使用预设优化后的算子进行替换得到的算子;所述输入信息是与用户行为信息和/或业务信息相关的数据;
拼接单元,用于将与每一路输入信息进行计算的因子进行拼接;
计算单元,用于将拼接后的因子与所述优化后的算子的输入信息进行计算,并将计算结果作为所述优化后的算子的输出。
第七方面,本发明提供了一种存储介质,所述存储介质存储有多条指令,所述指令适用于由处理器加载并执行如第一至三方面任一项所述的基于神经网络模型的数据处理方法。
第八方面,本发明提供了一种电子设备,所述电子设备包括存储介质和处理器;
所述处理器,适于实现各指令;
所述存储介质,适于存储多条指令;
所述指令适于由所述处理器加载并执行第一至三方面任一项所述的基于神经网络模型的数据处理方法。
借由上述技术方案,本发明提供的基于神经网络模型的数据处理方法及装置,能够在获取到用户行为信息和系统中的业务信息后,在基于注意力模型对所述用户行为信息和所述业务信息进行分析之前,先识别所述注意力模型的算子中是否存在待优化的多路算子,若所述注意力模型的算子中存在所述待优化的多路算子,则使用预设的优化后的算子替换所述待优化的多路算子,最后基于更新后的注意力模型对所述用户行为信息和所述业务信息进行分析,并根据分析结果确定待推荐的业务信息。由此可知,本发明能够直接通过优化后的算子替换原始多路算子的方式,实现对整个注意力模型的优化,而不依赖第三方硬件的API开放程度,从而可以实现多路算子的深度优化,进一步提高信息推荐的效率。并且在利用有优化后的算子处理数据时,通过将细粒度张量拼接为粗粒度张量,使得整个计算过程只需进行一次拼接一次计算,大大减少了计算次数,提高了计算效率。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了本发明实施例提供的一种基于神经网络模型的数据处理方法的流程图;
图2示出了本发明实施例提供的另一种基于神经网络模型的数据处理方法的流程图;
图3示出现有技术提供的一种多路算子计算过程示例图;
图4示出了本发明实施例提供的一种优化后的算子计算过程示例图;
图5示出现有技术提供的另一种多路算子计算过程示例图;
图6示出了本发明实施例提供的另一种优化后的算子计算过程示例图;
图7示出了本发明实施例提供的又一种基于神经网络模型的数据处理方法的流程图;
图8示出了本发明实施例提供的再一种基于神经网络模型的数据处理方法的流程图;
图9示出了本发明实施例提供的一种基于神经网络模型的数据处理装置的组成框图;
图10示出了本发明实施例提供的另一种基于神经网络模型的数据处理装置的组成框图;
图11示出了本发明实施例提供的又一种基于神经网络模型的数据处理装置的组成框图;
图12示出了本发明实施例提供的再一种基于神经网络模型的数据处理装置的组成框图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
本发明实施例提供了一种基于神经网络模型的数据处理方法,如图1所示,所述方法包括:
101、获取用户行为信息和系统中的业务信息。
当用户在购物网站、专业论坛网站、知识搜索网站等网站或相应的APP上进行信息搜索和浏览时,可以使用日志等形式记录用户的行为信息,然后从网站或APP等服务系统中获取用户未浏览过的业务信息,以便通过对用户行为信息进行分析,确定用户的兴趣爱好,从这些业务信息中提取出用户可能感兴趣的信息进行推荐,从而可以让用户从推荐中快速找到所需的信息。
用户行为信息包括用户输入的搜索词、用户浏览某搜索结果的相关信息、浏览某搜索结果的时长、浏览某搜索结果某个位置的时长等。例如,当用户进行网购时,在购物APP中输入“羽绒服女”,并在搜索结果中浏览了几种长款的女士羽绒服,并收藏了某款羽绒服,则可以记录用户的这些行为。
102、在基于注意力模型对所述用户行为信息和所述业务信息进行分析之前,识别所述注意力模型的算子中是否存在待优化的多路算子。
目前的多路注意力模型中的多路算子在路数较多或需要计算的数据量较大时,计算效率会大打折扣。为了提高多路算子的计算效率,从而提高整个注意力模型的计算效率,可以预先针对某些多路算子进行优化,得出优化后的算子,即自定义一些更优的算子,在需要使用原始的注意力模型进行计算时,可以在基于注意力模型对所述用户行为信息和所述业务信息进行分析之前,先识别一下所述注意力模型的算子中是否存在待优化的多路算子,若存在就使用优化后的算子进行计算,以提高计算效率。
103、若所述注意力模型的算子中存在所述待优化的多路算子,则使用预设的优化后的算子替换所述待优化的多路算子。
若所述注意力模型的算子中不存在待优化的多路算子,则无需使用预设的优化后的算子替换所述待优化的多路算子。并且,不同的待优化的多路算子对应不同的预设的优化后的算子。
104、基于更新后的注意力模型对所述用户行为信息和所述业务信息进行分析,并根据分析结果确定待推荐的业务信息。
在使用预设的优化后的算子替换所述待优化的多路算子后,可以对注意力模型进行编译,生成每个算子对应的操作指令;并将所述操作指令发送给对应的加速硬件,以便所述加速硬件执行所述操作指令并将操作指令交由相应的加速硬件进行执行,根据用户行为信息对所述业务信息进行排序,从所述业务信息中找出用户可能感兴趣的前N名信息,并根据排序结果向用户做出推荐。
其中,加速硬件可以是自身研发的加速硬件(例如现场可编程逻辑门阵列(Field-Programmable Gate Array,简称FPGA))、开源的加速硬件,也可以是第三方加速硬件,如第三方GPU。因此本发明实施例不依赖于加速硬件的API信息,只要加速硬件能够执行生成的操作指令即可。
此外,具体的推荐方式本发明实施例不进行限定,包括但不限于在预先设置的推荐区域输出推荐信息,在用户浏览下一页时,直接将推荐信息作为下一页内容。
本发明提供的基于神经网络模型的数据处理方法,能够在获取到用户行为信息和系统中的业务信息后,在基于注意力模型对所述用户行为信息和所述业务信息进行分析之前,先识别所述注意力模型的算子中是否存在待优化的多路算子,若所述注意力模型的算子中存在所述待优化的多路算子,则使用预设的优化后的算子替换所述待优化的多路算子,最后基于更新后的注意力模型对所述用户行为信息和所述业务信息进行分析,并根据分析结果确定待推荐的业务信息。由此可知,本发明能够直接通过优化后的算子替换原始多路算子的方式,实现对整个注意力模型的优化,而不依赖第三方硬件的API开放程度,从而可以实现多路算子的深度优化,进一步提高信息推荐的效率。
进一步的,依据上述方法实施例,本发明的另一个实施例还提供了一种基于神经网络模型的数据处理方法,如图2所示,所述方法主要包括:
201、获取用户行为信息和系统中的业务信息。
202、在基于注意力模型对所述用户行为信息和所述业务信息进行分析之前,根据多路算子的路数和/或业务场景确定所述注意力模型的算子中是否存在待优化的多路算子。
在实际应用中,优化后的算子不一定对所有路数的算子都能提高效率,也不一定对所有的业务场景都能提高效率。例如,优化后的算子是单路算子,那么当原多路算子的路数较少时,多路并行运算比单路运算可能效率更高,或者效率基本相同,则无需优化该多路算子。又如,当输入的数据是图片数据时,其可能使用原多路算子比优化后的单路算子效率更高,则无需优化该多路算子。因此在具体判断是否需要优化多路算子时,可以根据多路算子的路数和/或业务场景进行判断。
更具体的,当所述待识别的多路算子的路数大于预设路数阈值,和/或,当前业务场景使用优化后的算子的历史效果优于所述待识别的多路算子时,将所述待识别的多路算子确定为待优化的多路算子。
预设路数阈值根据历史经验而得,在对每种业务场景进行优化计算后,统计一下该优化计算的耗时,并与原多路算子的耗时进行对比,然后做对比记录。
203、若所述注意力模型的算子中存在所述待优化的多路算子,则使用预设的优化后的算子替换所述待优化的多路算子。
在使用预设的优化后的算子替换所述待优化的多路算子时,为了提高替换效率,可以对注意力模型中的算子进行遍历,先对所述待优化的多路算子添加优化标记,再根据所述待优化的多路算子的优化标记,将所述待优化的多路算子替换为优化标记所对应的优化后的算子。
其中,所述优化标记包括优化后的算子的算子类型和算子类型的组合方式。算子类型包括拆分、矩阵乘、点乘、分段叠加、拼接等。算子类型的组合方式包括各种算子类型的先后顺序。
204、基于更新后的注意力模型对所述用户行为信息和所述业务信息进行分析,并根据分析结果确定待推荐的业务信息。
在上述实施例中提及,基于更新后的注意力模型对所述用户行为信息和所述业务信息进行分析时,需要先对所述更新后的注意力模型进行编译,生成每个算子对应的操作指令;然后将所述操作指令发送给对应的加速硬件,以便所述加速硬件执行所述操作指令。并且,本发明实施例不依赖第三方硬件的开源程度,只要能够执行操作指令即可。并且若使用预设的优化后的算子替换了所述待优化的多路算子,且所述优化后的算子中存在新的操作指令,则在对应的加速硬件的指令集中添加新的操作指令。也就是说,即使有的操作指令是新定义的,只要在加速硬件对应的指令集中添加上该新定义的操作指令即可,而不依赖API信息。
由于有的多路算子需要先对输入进行拆分,获得多路子输入,然后分别针对每一路子输入进行计算,并将各路的计算结果进行拼接得到最终结果,所以当路数较多时,每一路都需要进行一下计算,并且还要对计算结果进行拼接,那么需要计算的次数就会大大增加,需要拼接的数据量也会大大增加,从而大大降低计算效率。因此,对于这类多路算子,可以使用预设设置的优化算子进行替换。
加速硬件在获得优化后的算子的操作指令后,可以执行操作指令,实现如下方法:
获取优化后的算子的输入信息;所述输入信息是与所述用户行为信息和所述业务信息相关的数据;将与每一路输入信息进行计算的因子进行拼接;将拼接后的因子与所述优化后的算子的输入信息进行计算,并将计算结果作为所述优化后的算子的输出。其中,因子包括但不限于权重信息和条件信息。
下面以两种多路算子为例进行阐述:
第一种:待优化的多路算子为:获取多路算子的输入信息;根据路数将该输入信息拆分成与路数相同的多个子输入信息;将子输入信息与对应的权重信息进行矩阵乘,并将各路的计算结果进行拼接作为输出。
对应的优化后的算子为:获取优化后的算子的输入信息;将多路权重信息进行拼接;将所述输入信息与拼接后的权重信息做点乘,按照每路的长度作为分段依据对点乘结果进行分段,对每段进行累加作为所述优化后的算子的输出。
所述输入信息是与所述用户行为信息和所述业务信息相关的数据,其可能是所述用户行为信息和业务信息本身,也可能是基于其他算子对用户行为信息和业务信息进行分析计算后得出的中间数据。
示例性的,如图3所示,某多路算子的路数为3,则利用原来的多路算子进行计算时,需要将输入信息拆分成3个子输入信息,然后分别针对每路,将子输入信息与权重信息做矩阵乘,得出该路的计算结果,最后将3路结果进行拼接得出最终结果。如图4所示,而利用优化后的算子进行计算时,可以先将各路权重信息进行拼接,然后直接将输入信息与拼接后的权重信息做点乘,并将点乘结果分成3段分别进行叠加,得出最终结果。
第二种:待优化的多路算子为:获取多路算子的输入信息;根据路数将该输入信息拆分成与路数相同的多个子输入信息;利用子输入信息对应的条件信息对所述子输入信息进行筛选得出筛选结果,并将各路筛选结果进行拼接作为输出。
对应的优化后的算子为:获取优化后的算子的输入信息;将多路条件信息进行拼接;根据拼接后的条件信息对所述输入信息进行筛选,得出筛选结果作为所述优化后的算子的输出。
所述输入信息是与所述用户行为信息和所述业务信息相关的数据,其可能是所述用户行为信息和业务信息本身,也可能是基于其他算子对用户行为信息和业务信息进行分析计算后得出的中间数据。
示例性的,如图5所示,某多路算子的路数为3,则利用原来的多路算子进行计算时,需要将判断结果为0和1的两组数据分别拆分成3对子输入信息,然后分别针对每路,将子输入信息与条件信息进行匹配,得出满足该条件的结果,最后将3路结果进行拼接得出最终结果。如图6所示,而利用优化后的算子进行计算时,可以先将各路条件信息进行拼接,然后直接将输入信息与拼接后的条件信息进行匹配,直接得出最终结果。
需要补充的是,在实际应用中,图3至图6中的每个数据整体可称为一个张量的数据,例如图3中输入信息整体是一个张量数据,每个子输入信息整体也是一个张量数据,每个权重信息整体也是一个张量数据。
进一步的,依据上述方法实施例,本发明的另一个实施例还提供了一种基于神经网络模型的数据处理方法,如图7所示,所述方法包括:
301、获取神经网络模型的输入信息。
其中,所述输入信息是与用户行为信息和/或业务信息相关的数据。所述神经网络模型可以为用于分析用户注意力的注意力模型,也可以为分类模型,也可以为其他模型。当使用的神经网络模型不同时,输入信息不同。例如当神经网络模型为注意力模型时,输入信息为用户行为信息和用户行为信息对应的业务信息,以便通过对这两种输入信息进行结合分析,得出用户的兴趣。又如,当神经网络模型为图像分类模型时,输入信息可以为包括图像的业务信息。
302、将与所述神经网络模型中每一路输入信息进行计算的因子进行拼接。
本发明实施例中的神经网络模型中包含多路算子,每一路在计算时,都需要将该路的输入信息与预先配置的因子进行计算。为了提高多路算子计算效率,可以将各路因子先进行拼接,然后将拼接后的因子整体与输入信息整体进行计算,直接得出最终结果。
在实际应用中,与输入信息进行计算的因子可以有多种,但对于同一个多路算子而言,都是相同概念的因子。因子包括但不限于权重信息和条件信息。当因子为权重信息时,本步骤是将各路权重信息进行拼接;当因子为条件信息时,本步骤是将各路条件信息进行拼接。
303、将拼接后的因子与所述神经网络模型的输入信息进行计算,获得所述神经网络模型的输出信息。
若所述因子为权重信息,则将所述神经网络模型的输入信息与拼接后的权重信息做点乘,按照每路的长度作为分段依据对点乘结果进行分段,对每段进行累加作为神经网络模型的输出信息。其详细计算原理与图4相同,具体可参见图4的详解,在此不再赘述。
若所述因子为条件信息,则根据拼接后的条件信息对所述神经网络模型的输入信息进行筛选,得出筛选结果作为神经网络模型的输出信息。其详细计算原理与图6相同,具体可参见图6的详解,在此不再赘述。
每个数据整体可称为一个张量的数据,例如图6中每个判断结果的输入信息整体是一个张量数据,每个条件信息整体也是一个张量数据。
本发明实施例提供的基于神经网络模型的数据处理方法,在获取神经网络模型的输入信息后,先将与每一路输入信息进行计算的因子进行拼接,将细粒度张量拼接为粗粒度张量,从而直接将拼接后的因子与神经网络模型的整个输入信息直接进行计算(即粗粒度张量间直接计算),得到输出信息,使得整个计算过程只需进行一次拼接一次计算,大大减少了计算次数,提高了计算效率。
进一步的,依据上述方法实施例,本发明的另一个实施例还提供了一种基于神经网络模型的数据处理方法,所述方法主要应用于加速硬件侧,如图8所示,所述方法包括:
401、获取优化后的算子的输入信息。
其中,所述优化后的算子是当系统确定待使用的神经网络模型中存在待优化的多路算子时,将所述待优化的多路算子使用预设优化后的算子进行替换得到的算子。系统在使用预设的优化后的算子替换待优化的多路算子后,可以对神经网络模型进行编译,生成每个算子对应的操作指令,并将所述操作指令发送给对应的加速硬件,由加速硬件来执行操作指令,实现优化后的算子的计算过程。其中,若使用预设的优化后的算子替换了所述待优化的多路算子,且所述优化后的算子中存在新的操作指令,则在对应的加速硬件的指令集中添加新的操作指令。也就是说,即使有的操作指令是新定义的,只要在加速硬件对应的指令集中添加上该新定义的操作指令即可,而不依赖API信息。此外,所述输入信息是与用户行为信息和/或业务信息相关的数据。
402、将与每一路输入信息进行计算的因子进行拼接。
403、将拼接后的因子与所述优化后的算子的输入信息进行计算,并将计算结果作为所述优化后的算子的输出。
需要补充的是,本发明实施例的执行主体加速硬件可以是自身研发的加速硬件(例如FPGA)、开源的加速硬件,也可以是第三方加速硬件,如第三方GPU。因此本发明实施例不依赖于加速硬件的API信息,只要加速硬件能够执行生成的操作指令即可。
本发明实施例提供的基于神经网络模型的数据处理方法,能够在系统确定待使用的神经网络模型中存在待优化的多路算子时,将待优化的多路算子使用预设优化后的算子进行替换得到优化后的算子,并由加速硬件直接执行优化后的算子的操作指令,实现将细粒度张量拼接为粗粒度张量,使得整个计算过程只需进行一次拼接一次计算,大大减少了计算次数,提高了加速硬件的处理效率。并且由于本发明能够直接通过优化后的算子替换原始多路算子的方式,实现对整个注意力模型的优化,而不依赖第三方硬件的API开放程度。
进一步的,依据上述方法实施例,本发明的另一个实施例还提供了一种基于神经网络模型的数据处理装置,如图9所示,所述装置包括:
获取单元51,用于获取用户行为信息和系统中的业务信息;
识别单元52,用于在基于注意力模型对所述用户行为信息和所述业务信息进行分析之前,识别所述注意力模型的算子中是否存在待优化的多路算子;
替换单元53,用于当所述注意力模型的算子中存在所述待优化的多路算子时,使用预设的优化后的算子替换所述待优化的多路算子;
分析单元54,用于基于更新后的注意力模型对所述用户行为信息和所述业务信息进行分析;
确定单元55,用于根据分析结果确定待推荐的业务信息。
可选的,如图10所示,所述替换单元53包括:
添加模块531,用于对所述待优化的多路算子添加优化标记;
替换模块532,用于根据所述待优化的多路算子的优化标记,将所述待优化的多路算子替换为优化标记所对应的优化后的算子。
可选的,所述添加模块531添加的所述优化标记包括优化后的算子的算子类型和算子类型的组合方式。
可选的,所述识别单元52,用于根据多路算子的路数和/或业务场景确定所述注意力模型的算子中是否存在待优化的多路算子。
可选的,所述识别单元52,用于当所述待识别的多路算子的路数大于预设路数阈值,和/或,当前业务场景使用优化后的算子的历史效果优于所述待识别的多路算子时,将所述待识别的多路算子确定为待优化的多路算子。
可选的,所述分析单元54,用于对所述更新后的注意力模型进行编译,生成每个算子对应的操作指令;并将所述操作指令发送给对应的加速硬件,以便所述加速硬件执行所述操作指令。
可选的,如图10所示,所述装置还包括:
添加单元56,用于当所述加速硬件是第三方硬件时,在所述加速硬件执行所述操作指令之前,若使用预设的优化后的算子替换了所述待优化的多路算子,且所述优化后的算子中存在新的操作指令,则在对应的加速硬件的指令集中添加新的操作指令。
可选的,如图10所示,所述分析单元54包括:
获取模块541,用于获取优化后的算子的输入信息;所述输入信息是与所述用户行为信息和所述业务信息相关的数据;
拼接模块542,用于与每一路输入信息进行计算的因子进行拼接;
计算模块543,用于将拼接后的因子与所述优化后的算子的输入信息进行计算,并将计算结果作为所述优化后的算子的输出。
可选的,所述计算模块543,用于若所述因子为权重信息,则将所述优化后的算子的输入信息与拼接后的权重信息做点乘,按照每路的长度作为分段依据对点乘结果进行分段,对每段进行累加作为所述优化后的算子的输出。
可选的,所述计算模块543,用于若所述因子为条件信息,则根据拼接后的条件信息对所述优化后的算子的输入信息进行筛选,得出筛选结果作为所述优化后的算子的输出。
本发明提供的基于神经网络模型的数据处理装置,能够在获取到用户行为信息和系统中的业务信息后,在基于注意力模型对所述用户行为信息和所述业务信息进行分析之前,先识别所述注意力模型的算子中是否存在待优化的多路算子,若所述注意力模型的算子中存在所述待优化的多路算子,则使用预设的优化后的算子替换所述待优化的多路算子,最后基于更新后的注意力模型对所述用户行为信息和所述业务信息进行分析,并根据分析结果确定待推荐的业务信息。由此可知,本发明能够直接通过优化后的算子替换原始多路算子的方式,实现对整个注意力模型的优化,而不依赖第三方硬件的API开放程度,从而可以实现多路算子的深度优化,进一步提高信息推荐的效率。
进一步的,本发明提供了一种基于神经网络模型的数据处理装置,如图11所示,所述装置包括:
获取单元61,用于获取神经网络模型的输入信息,所述输入信息是与用户行为信息和业务信息相关的数据;
拼接单元62,用于将与所述神经网络模型中每一路输入信息进行计算的因子进行拼接;
计算单元63,用于将拼接后的因子与所述神经网络模型的输入信息进行计算,获得所述神经网络模型的输出信息。
可选的,所述计算单元63,用于若所述因子为权重信息,则将所述神经网络模型的输入信息与拼接后的权重信息做点乘,按照每路的长度作为分段依据对点乘结果进行分段,对每段进行累加作为所述神经网络模型的输出信息。
可选的,所述计算模块63,用于若所述因子为条件信息,则根据拼接后的条件信息对所述神经网络模型的输入信息进行筛选,得出筛选结果作为所述神经网络模型的输出信息。
本发明实施例提供的基于神经网络模型的数据处理装置,在获取神经网络模型的输入信息后,先将与每一路输入信息进行计算的因子进行拼接,将细粒度张量拼接为粗粒度张量,从而直接将拼接后的因子与神经网络模型的整个输入信息直接进行计算(即粗粒度张量间直接计算),得到输出信息,使得整个计算过程只需进行一次拼接一次计算,大大减少了计算次数,提高了计算效率。
进一步的,本发明提供了一种基于神经网络模型的数据处理装置,如图12所示,所述装置包括:
获取单元71,用于获取优化后的算子的输入信息;所述优化后的算子是当系统确定待使用的神经网络模型中存在待优化的多路算子时,将所述待优化的多路算子使用预设优化后的算子进行替换得到的算子;所述输入信息是与用户行为信息和/或业务信息相关的数据;
拼接单元72,用于将与每一路输入信息进行计算的因子进行拼接;
计算单元73,用于将拼接后的因子与所述优化后的算子的输入信息进行计算,并将计算结果作为所述优化后的算子的输出。
可选的,计算单元73,用于若所述因子为权重信息,则将所述优化后的算子的输入信息与拼接后的权重信息做点乘,按照每路的长度作为分段依据对点乘结果进行分段,对每段进行累加作为所述优化后的算子的输出信息。
可选的,所述计算模块73,用于若所述因子为条件信息,则根据拼接后的条件信息对所述优化后的算子的输入信息进行筛选,得出筛选结果作为所述优化后的算子的输出信息。
本发明实施例提供的基于神经网络模型的数据处理装置,能够在系统确定待使用的神经网络模型中存在待优化的多路算子时,将待优化的多路算子使用预设优化后的算子进行替换得到优化后的算子,并由加速硬件直接执行优化后的算子的操作指令,实现将细粒度张量拼接为粗粒度张量,使得整个计算过程只需进行一次拼接一次计算,大大减少了计算次数,提高了加速硬件的处理效率。并且由于本发明能够直接通过优化后的算子替换原始多路算子的方式,实现对整个注意力模型的优化,而不依赖第三方硬件的API开放程度。
进一步的,本发明的另一个实施例还提供了一种存储介质,所述存储介质存储有多条指令,所述指令适用于由处理器加载并执行如上所述的基于神经网络模型的数据处理方法。
进一步的,本发明的另一个实施例还提供了一种电子设备,所述电子设备包括存储介质和处理器;
所述处理器,适于实现各指令;
所述存储介质,适于存储多条指令;
所述指令适于由所述处理器加载并执行如上所述的基于神经网络模型的数据处理方法。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
可以理解的是,上述方法及装置中的相关特征可以相互参考。另外,上述实施例中的“第一”、“第二”等是用于区分各实施例,而并不代表各实施例的优劣。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在此提供的算法和显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本发明也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例的基于神经网络模型的数据处理方法及装置中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
Claims (11)
1.一种基于神经网络模型的数据处理方法,其特征在于,所述方法包括:
获取用户行为信息和系统中的业务信息;
在基于注意力模型对所述用户行为信息和所述业务信息进行分析之前,识别所述注意力模型的算子中是否存在待优化的多路算子,包括:根据多路算子的路数和/或业务场景确定所述注意力模型的算子中是否存在待优化的多路算子;
根据多路算子的路数和/或业务场景确定所述注意力模型的算子中是否存在待优化的多路算子包括:当待识别的多路算子的路数大于预设路数阈值,和/或,当前业务场景使用优化后的算子的历史效果优于所述待识别的多路算子时,将所述待识别的多路算子确定为待优化的多路算子;
若所述注意力模型的算子中存在所述待优化的多路算子,则使用预设的优化后的算子替换所述待优化的多路算子;
基于更新后的注意力模型对所述用户行为信息和所述业务信息进行分析,并根据分析结果确定待推荐的业务信息。
2.根据权利要求1所述的方法,其特征在于,使用预设的优化后的算子替换所述待优化的多路算子包括:
对所述待优化的多路算子添加优化标记;
根据所述待优化的多路算子的优化标记,将所述待优化的多路算子替换为优化标记所对应的优化后的算子。
3.根据权利要求2所述的方法,其特征在于,所述优化标记包括优化后的算子的算子类型和算子类型的组合方式。
4.根据权利要求1所述的方法,其特征在于,基于更新后的注意力模型对所述用户行为信息和所述业务信息进行分析包括:
对所述更新后的注意力模型进行编译,生成每个算子对应的操作指令;
将所述操作指令发送给对应的加速硬件,以便所述加速硬件执行所述操作指令。
5.根据权利要求4所述的方法,其特征在于,当所述加速硬件是第三方硬件时,在所述加速硬件执行所述操作指令之前,所述方法还包括:
若使用预设的优化后的算子替换了所述待优化的多路算子,且所述优化后的算子中存在新的操作指令,则在对应的加速硬件的指令集中添加新的操作指令。
6.根据权利要求4所述的方法,其特征在于,所述加速硬件执行所述操作指令包括:
获取优化后的算子的输入信息;所述输入信息是与所述用户行为信息和所述业务信息相关的数据;
将与每一路输入信息进行计算的因子进行拼接;
将拼接后的因子与所述优化后的算子的输入信息进行计算,并将计算结果作为所述优化后的算子的输出。
7.根据权利要求6所述的方法,其特征在于,若所述因子为权重信息,则将拼接后的因子与所述优化后的算子的输入信息进行计算,并将计算结果作为所述优化后的算子的输出包括:
将所述优化后的算子的输入信息与拼接后的权重信息做点乘,按照每路的长度作为分段依据对点乘结果进行分段,对每段进行累加作为所述优化后的算子的输出。
8.根据权利要求6所述的方法,其特征在于,若所述因子为条件信息,则将拼接后的因子与所述优化后的算子的输入信息进行计算,并将计算结果作为所述优化后的算子的输出包括:
根据拼接后的条件信息对所述优化后的算子的输入信息进行筛选,得出筛选结果作为所述优化后的算子的输出。
9.一种基于神经网络模型的数据处理装置,其特征在于,所述装置包括:
获取单元,用于获取用户行为信息和系统中的业务信息;
识别单元,用于在基于注意力模型对所述用户行为信息和所述业务信息进行分析之前,识别所述注意力模型的算子中是否存在待优化的多路算子,包括:根据多路算子的路数和/或业务场景确定所述注意力模型的算子中是否存在待优化的多路算子;
根据多路算子的路数和/或业务场景确定所述注意力模型的算子中是否存在待优化的多路算子包括:当待识别的多路算子的路数大于预设路数阈值,和/或,当前业务场景使用优化后的算子的历史效果优于所述待识别的多路算子时,将所述待识别的多路算子确定为待优化的多路算子;
替换单元,用于当所述注意力模型的算子中存在所述待优化的多路算子时,使用预设的优化后的算子替换所述待优化的多路算子;
分析单元,用于基于更新后的注意力模型对所述用户行为信息和所述业务信息进行分析;
确定单元,用于根据分析结果确定待推荐的业务信息。
10.一种存储介质,其特征在于,所述存储介质存储有多条指令,所述指令适用于由处理器加载并执行如权利要求1至8中任一项所述的基于神经网络模型的数据处理方法。
11.一种电子设备,其特征在于,所述电子设备包括存储介质和处理器;
所述处理器,适于实现各指令;
所述存储介质,适于存储多条指令;
所述指令适于由所述处理器加载并执行如权利要求1至8中任意一项所述的基于神经网络模型的数据处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010144746.5A CN113360747B (zh) | 2020-03-04 | 2020-03-04 | 基于神经网络模型的数据处理方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010144746.5A CN113360747B (zh) | 2020-03-04 | 2020-03-04 | 基于神经网络模型的数据处理方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113360747A CN113360747A (zh) | 2021-09-07 |
CN113360747B true CN113360747B (zh) | 2024-01-12 |
Family
ID=77523493
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010144746.5A Active CN113360747B (zh) | 2020-03-04 | 2020-03-04 | 基于神经网络模型的数据处理方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113360747B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115527525B (zh) * | 2022-11-23 | 2023-04-18 | 广州小鹏汽车科技有限公司 | 语音识别模型生成方法、语音交互方法、车辆和存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1862982A (zh) * | 2006-03-09 | 2006-11-15 | 南京邮电大学 | 量子神经网络用于多用户检测的方法 |
CN102054108A (zh) * | 2010-12-31 | 2011-05-11 | 北京大学深圳研究生院 | 集成电路下层硬件映射方法、时空图压缩方法及装置 |
CN106547522A (zh) * | 2015-09-17 | 2017-03-29 | 华为技术有限公司 | 一种流应用优化的方法及装置 |
CN110659728A (zh) * | 2019-09-24 | 2020-01-07 | 上海寒武纪信息科技有限公司 | 神经网络优化方法、装置、计算机设备及存储介质 |
WO2020020088A1 (zh) * | 2018-07-23 | 2020-01-30 | 第四范式(北京)技术有限公司 | 神经网络模型的训练方法和系统以及预测方法和系统 |
CN110780921A (zh) * | 2019-08-30 | 2020-02-11 | 腾讯科技(深圳)有限公司 | 数据处理方法和装置、存储介质及电子装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10853725B2 (en) * | 2018-05-18 | 2020-12-01 | Deepmind Technologies Limited | Neural networks with relational memory |
US20190370647A1 (en) * | 2019-01-24 | 2019-12-05 | Intel Corporation | Artificial intelligence analysis and explanation utilizing hardware measures of attention |
-
2020
- 2020-03-04 CN CN202010144746.5A patent/CN113360747B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1862982A (zh) * | 2006-03-09 | 2006-11-15 | 南京邮电大学 | 量子神经网络用于多用户检测的方法 |
CN102054108A (zh) * | 2010-12-31 | 2011-05-11 | 北京大学深圳研究生院 | 集成电路下层硬件映射方法、时空图压缩方法及装置 |
CN106547522A (zh) * | 2015-09-17 | 2017-03-29 | 华为技术有限公司 | 一种流应用优化的方法及装置 |
WO2020020088A1 (zh) * | 2018-07-23 | 2020-01-30 | 第四范式(北京)技术有限公司 | 神经网络模型的训练方法和系统以及预测方法和系统 |
CN110780921A (zh) * | 2019-08-30 | 2020-02-11 | 腾讯科技(深圳)有限公司 | 数据处理方法和装置、存储介质及电子装置 |
CN110659728A (zh) * | 2019-09-24 | 2020-01-07 | 上海寒武纪信息科技有限公司 | 神经网络优化方法、装置、计算机设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
基于注意力机制的深度学习态势信息推荐模型;周春华;郭晓峰;沈建京;李艳;周振宇;;信息工程大学学报(05);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113360747A (zh) | 2021-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108121795B (zh) | 用户行为预测方法及装置 | |
CN104298679B (zh) | 应用业务推荐方法及装置 | |
US10685265B2 (en) | Cognitive analysis and classification of apparel images | |
US10296552B1 (en) | System and method for automated identification of internet advertising and creating rules for blocking of internet advertising | |
CN108595583A (zh) | 动态图表类页面数据爬取方法、装置、终端及存储介质 | |
US9330171B1 (en) | Video annotation using deep network architectures | |
EP3989158A1 (en) | Method, apparatus and device for video similarity detection | |
US11222375B2 (en) | Data analysis method and system thereof | |
US20220383427A1 (en) | Method and apparatus for group display | |
CN107506367B (zh) | 确定应用展示内容的方法、装置及服务器 | |
CN103440199B (zh) | 测试引导方法和装置 | |
US20140147048A1 (en) | Document quality measurement | |
CN111783712A (zh) | 一种视频处理方法、装置、设备及介质 | |
CN102402594A (zh) | 一种富媒体个性化推荐方法 | |
CN106452809B (zh) | 一种数据处理方法和装置 | |
CN110096617A (zh) | 视频分类方法、装置、电子设备及计算机可读存储介质 | |
CN111814759B (zh) | 人脸质量标签值的获取方法、装置、服务器及存储介质 | |
CN111782946A (zh) | 书友推荐方法、计算设备及计算机存储介质 | |
CN113360747B (zh) | 基于神经网络模型的数据处理方法及装置 | |
US20230259575A1 (en) | Systems and methods for implementing session cookies for content selection | |
CN110598095B (zh) | 一种识别包含指定信息文章的方法、装置及存储介质 | |
CN110427545B (zh) | 一种信息推送方法及系统 | |
CN108460131B (zh) | 一种分类标签处理方法及装置 | |
KR102299525B1 (ko) | 제품 평가 마이닝 방법 및 이를 수행하는 장치 | |
CN109324955A (zh) | 一种具有智能推荐功能的it运维系统界面生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40059838 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant |