CN112487799A - 利用外积注意力的众包任务推荐算法 - Google Patents

利用外积注意力的众包任务推荐算法 Download PDF

Info

Publication number
CN112487799A
CN112487799A CN202011473999.3A CN202011473999A CN112487799A CN 112487799 A CN112487799 A CN 112487799A CN 202011473999 A CN202011473999 A CN 202011473999A CN 112487799 A CN112487799 A CN 112487799A
Authority
CN
China
Prior art keywords
task
worker
publisher
features
bid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011473999.3A
Other languages
English (en)
Inventor
陈彦如
王浩
赵琪雯
张媛媛
胡顺仿
王伟
廖俊华
刘雁林
张磊
梁刚
许春
陈良银
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Yishuqiao Technology Co ltd
Original Assignee
Chengdu Yishuqiao Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Yishuqiao Technology Co ltd filed Critical Chengdu Yishuqiao Technology Co ltd
Priority to CN202011473999.3A priority Critical patent/CN112487799A/zh
Publication of CN112487799A publication Critical patent/CN112487799A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开来了一种利用外积的众包任务推荐算法,为众包中工人推荐任务。本发明根据众包场景较主流场景的特殊性,在改进传统基于物品的协同过滤神经网络算法的基础上,设计了一种利用外积的注意力机制。该模型针对众包场景下任务的时效性和多角色用户,分别提出众包任务属性级的特征学习方式以及带强弱负样本带权交叉熵,提出引入任务发布方序列的两种方式。该模型还提出一种外积注意力机制,为用户序列分配重要性权重。针对众包场景改进的协同过滤算法和外积注意力共同组成本发明的众包任务推荐算法,该算法在二分类指标上超过改进前的协同过滤神经网络算法,在二分类指标和推荐列表指标超过利用内积的注意力机制,并且时间消耗在可接受范围内。

Description

利用外积注意力的众包任务推荐算法
一、技术领域
本发明设计推荐算法领域,尤其涉及众包场景下为工人推荐任务,具体是一 种利用外积注意力的的基于物品的协同过滤神经网络算法。
二、背景技术
随着互联网的飞速发展,数据量也与日俱增,人们面对海量数据时越发束手 无策。推荐系统的提出正是为了解决海量数据造成的信息过载问题。推荐系统在 工业界已经应用于各种互联网领域。学术界也先后提出了各种推荐算法的框架, 如基于关联规则的推荐、基于内容的推荐、协同过滤、基于图的推荐和混合推荐 等等。随着近年来深度学习的引入,推荐算法的性能更是得到了极大的提升。
众包作为一种创新商业模式,促进了群体的开放式创新。近年来共享经济的 发展也促进了众包模式的迅速发展。将推荐算法应用于众包有助于众包任务的承 接方(通常称为工人)难以选择众包可能性大的任务进行投标,以及降低发布方 的筛选成本,提升工人和承接方的用户体验。但其它场景下的推荐算法却不能直 接应用于众包,因为如电商平台、内容推送平台中不同时存在类似于众包场景的 特殊性,包括任务时效性、多角色用户、用户间竞争等。任务时效性即众包任务 只在其有效期内能被交互,进而导致特征的稀疏性;多角色用户即存在工人和承 接方两种角色的用户,每个角色都对中标预测有影响;用户间的竞争导致工人用 户的非独立性,而现有推荐中排序学习框架都研究物品间的关系(偏序对或列表 排序等)而假设用户间是独立的。因此,如何将现有推荐算法针对众包场景的特 殊性进行改进进而引入到众包是一项重要的挑战。
众包场景下的任务推荐早期使用人工建模或博弈论的方式较多。人工建模的 方式只要是对工人的兴趣和能力分别建模,因为工人的投标和中标不仅取决于工 人和兴趣,也取决于工人的能力。或者使用关联规则挖掘算法来生成工人先前工 作中使用的常用技能集列表。根据工人的常用技能,客户的评分,最低预算/小 时费率,截止日期等来创建可行的工作清单。人工建模的方式需要充足的领域知 识选取特征、构建特征或建模,研究也大多针对某个平台的交易流程,模型缺乏 泛化能力。当平台流程有差异或任务差异较大时鲁棒性较差。
众包场景下利用神经网络的推荐算法较少,并且少有讨论众包场景的特殊 性。基于内容的推荐算法包括利用Word2vec词向量计算了用以表征任务和工人 的标签(tags),通过匹配工人和任务间标签的相似性为工人推荐任务。基于角 色的聚类模型,允许每个工人在多个任务集群中进行投标,将整个由工人历史记 录得到的工人-任务评价矩阵转化为一组基于角色的小的、独立的、评价密集型 的矩阵。近期少量工作架构强化学习引入众包场景,利用DQN(Deep Q Network)与神经网络相结合同时考虑长期和短期的奖励,并且可以实时更新以应对不断发 展的数据和动态变化。设计了两个DQN以捕获工人和任务发布方的利益,并最 大化平台的利润。基于物品的协同过滤算法因此实时性和可解释性而广泛应用于 各场景的推荐,但缺少应用于众包场景的研究,尤其是结合神经网络的端到端的 算法,原因在于现有利用神网络的算法没有考虑到众包任务的特殊性。
同时本发明将外积引入注意力机制。注意力机制在推荐算法中多用于为输入 序列或是实体中属性分配不同的重要性权重。外积注意力中将外积矩阵视为二维 图像进而利用CNN学习注意力权重,特别的,与直接利用CNN进行预测不同, 外积注意力中的CNN设计需要解决5个问题:(1)、外积只能接受双序列输入。 但众包场景下还需输入物品特征。(2)、双序列中的记录长度不匹配和不对应问 题。(3)、现有CNN主要直接用于特征提取和预测,其结构不能保留记录的语 义信息进而无法得到注意力权重。(4)、注意力作为子网络,网络结构过于复杂 会导致与主网络协同训练的困难。(5)、需要平衡外积带来的计算消耗和收益。
三、发明内容
本发明的目的在于解决现有基于物品的神经网络协同过滤算法不能直接应 用于众包场景的问题,通过改进特征学习部分和损失函数部分解决时效性带来的 稀疏问题和模型训练问题,通过改进协同注意力机制提高为双序列分配注意力权 重的准确性。
本发明的目的是这样达到的:
通过属性级的任务特征学习方式解决任务时效性带来的稀疏问题,通过引入 强弱负样本的带权交叉熵损失函数解决时效性带来的训练问题。通过将外积引入 注意力机制并设计了一种适用于分配注意力的卷积神经网络结构,提高为双序列 分配注意力权重的准确性。
具体做法是:
算法模型总体结构如图1所示,模型主要分为三个部分:
(1)输入和特征学习:属性级任务特征学习,以及通过工人中标过任务序 列组成工人特征,通过发布方发布过的任务序列组成发布方特征。
(2)特征融合与外积注意力:特征融合目的在于使输入(双序列和目标特 征)符合外积注意力输入要求并融入任务场景因素和解决记录不对应问题。随后 将特征融合过的工人和发布方序列输入外积注意力,外积注意力协同学习工人和 发布方序列中每个记录的注意力权重并作用于主网络的工人和发布方序列上。
(3)预测:将分配过注意力权重的工人特征、发布方特征,以及任务特征 输入多层感知机,预测工人是否中标。并对交叉熵损失函数进行改进。
输入和特征学习:
由于众包任务的时效性,仅使用id来表示任务缺少泛化能力,因为众包任务 在完成后便不能再被交互,所以本发明用任务各个属性的特征组成任务特征。其 中将属性分为三类,包括类别型(任务分类,任务形式)、数值型(任务报酬)和文本型(任务标题)。各属性按其输入数据类型不同,各属性特征学习方法如 图2所示.其中x1,x2(任务分类、任务形式)为经one-hot编码后的类别型特征。 x3(任务报酬)为经分桶处理后再进行one-hot编码的数值型特征,即将多个连 续值分组进较少数量的“桶”。随后x1,x2,x3都作为离散型特征处理。然后将x1, x2,x3输入嵌入层(Embedding)后,通过一层全连接层(Dense)学习到类别型和数值型属性的特征xe,1,xe,2,xe,3,由xe,i=Act(We,i×xi+be,i)得到。其中
Figure BDA0002834490370000031
为参数矩阵.
对文本型特征,w1,w2......wt为经中文分词和去除停用词后的标题词语,t为 标题词语的个数,将w1,w2......wt输入Word2vec模型,使用Word2vec中的CBOW 模型.此后得到标题词语在向量空间的表示yc,j。再将预训练完成的yc,j输入TEXTCN后得到任务标题特征c。TEXTCNN将卷积神经网络CNN应用到文本 分类任务,利用多个不同尺寸的卷积核来提取句子中的信息。将各属性特征 xe,1,xe,2,xe,3,c,相加后得到任务特征r,由r=xe,1+xe,2+xe,3+c得到。
特征融合与外积注意力:
在学习到任务特征后,通过工人中标过的任务序列组成工人特征序列g,即 g=rg,1,rg,2......rg,l,其中l是序列的长度。通过发布方曾经发布过的任务序列组成 发布方特征序列f,即f=rf,1,rf,2......rf,l。在将工人和发布方序列输入外积注意 力之前,先对g和f进行特征融合(fusion),如图3虚线黑框部分。特征融合在 外积注意力中用于解决两个问题:(1)外积操作只能接受两个序列作为输入,而 众包中还包括一个目标特征。(2)双序列中记录的不对应问题:
问题(1)、特征融合首先为了符合外积的输入要求,众包输入为两个序列和 一个目标特征,现有协同注意力的输入仅为两个序列。特征融合后得到工人序列 g'=Act(Fg×concat(g,r)+bg),发布方序列f'=Act(Ff×concat(f,r)+bf),其中
Figure BDA0002834490370000041
把经特征融合的工人和发布方序列输入注意力网络,能在分配注 意力权重时考虑到当前任务条件。同时在将特征输入预测部分的多层感知机时, 不需要再拼接任务特征,减少网络参数。
问题(2)、在对g'的记录分配权重时,首先将f'的记录相加得到f′sum,用f′sum与g'做外积。这是因为g'和f'的有效序列(非补0记录)长度不一定相匹配(如 g'中有效任务记录与f'中补0记录外积,会使g'中有效记录外积结果为0,继 而失去该记录意义)。再者,虽然g'序列整体和f'序列整体间有对应交互关系, 但组成序列g'和f'的每个记录之间并没有一一对应的关系。
外积矩阵虽然可以类比为二维图像进行处理,但不能使用已有CNN结构, 因为外积注意力中的CNN需要解决三个问题(1)保留记录的语义信息。(2)子网络结构如果太复杂会造成与主网络联合训练的困难。(3)平衡收益与时耗。 因此本发明设计了一个两层的CNN,针对(1)设计了特殊的卷积核大小和池化 窗口以及多通道处理方式,针对(2)、(3)限制CNN层数与取消输出全连接层。
首先,将特征融合过后的工人序列g'和发布方序列和f′sum做外积,作为一个 两层CNN的输入。第一层卷积核大小为[1,D,m],即m个宽高为1×D的卷积核, 和普遍使用的正方形的卷积核不同,如在图像有关任务的一张图片中,模型事先 并不知道图像中每个像素的语义信息,即并不知道每个像素代表的意义,因此使 用正方形卷积核,但对外积矩阵Eg,虽然也作为二维图像进行处理,但模型已 经先验得知道Eg中每个元素ek1,k2=g'k1gf′sum,k2因此可以根据Eg中元素的语义 信息设计卷积核大小。外积注意力中1×D的卷积核一次移动正好覆盖了g'一个维 度与f′sum一个记录的交互信息如图4,如果卷积核大小为正方形,一次移动覆盖 了g'多个维度和f′sum多个维度的信息,而这些被正方形卷积核覆盖的维度之间并 没有明确的语义联系。所以效果不如1×D大小的卷积核。
经第一层卷积后得到Sg
Figure BDA0002834490370000051
sg,m(i,j)是第m个卷积核Wg,m对应的 输出矩阵Sg的对应位置元素的值,由sg,m(i,j)=Act((EggWg,m)(i,j)+bg,m)得到。 随后的最大池化(Maxpooling)窗口设置为D×1,池化后得到 Sg,max=Maxpooling(Sg),
Figure BDA0002834490370000052
g'每个记录与f′sum交互的语义信息即 为Sg,max中1×1大小的区域。
第二层卷积使用的卷积核大小为[1,1,n]。1×1卷积核的设计最初在图像任务 目的在于在并行池化层后面加入后可以降低输出的特征图数量,以得到更紧凑的 网络结构。而使用1×1的卷积核的目的在于用多个通道的非线性叠加以取代传统 卷积网络后的全连接层。使用1×1的卷积核等价于在保留通道信息的前提下进行 全连接操作,而在最大池化和通道间求和后的全连接层无法保留通道信息,并且 由于卷积的可并行运算,在通道间求和前使用1×1卷积并不消耗多的时间,由于 了保留通道信息,进而效果优于最后加入全连接层。
由于外积注意力使用了m个卷积核,因此得到的Sg,max有m个通道,CNN 在图像任务或者NLP中直接用于预测TEXTCNN或文本特征学习中,都是将每 个通道学习的特征图拍平(Flatten),并拼接通道间拍平后特征以输入多层感知 机进行预测,但外积注意力目的在于为序列中记录分配权重,若拼接通道间特征 图,会失去单个记录的语义信息。因此,在得到Sg,max后,外积注意力对通道间 进行求和
Figure BDA0002834490370000061
以保留多个记录的信息。
S'g经softmax操作后得到g'序列中记录的注意力权重ag,补0记录所在位置 不参与softmax,以缓解序列长度对结果影响。最后分配过注意力权重的工人特 征ga
Figure BDA0002834490370000062
得到。
预测:
本发明将能否中标视为一个二分类问题(能中标为正样本),预测部分如图5所示。由于在特征融合阶段已经在工人和发布方特征中融合了任务特征,因此在 输入部分只拼接工人和发布方特征。虽然训练集中本身带有投标但未中标的记录 作为负样本,但是对于测试集,由于最后需要产生任务推荐列表,并且由于众包 任务时效性,造成生成推荐列表时,除了本次待评估投标任务,没有其它的已交 互过的任务。因此,采样工人产生投标行为当天没有投标的任务,同投标没有但 没有中标的任务一起作为负样本。
改进后的交叉熵损失函数为
Figure BDA0002834490370000063
Y+和Y_作为正样本和负样本,ω+为正样本权重,以缓解样本不均衡问题,
Figure BDA0002834490370000064
为负样本惩罚权重。因为训练集和测试集的负样本均有两个来源,第 一是实际发生的工人投标但未中标的行为,其次是通过采样得到的并未实际发生 的负样本。明显,实际发生的负样本有更高的置信度,应该对损失函数由有大的 贡献,因此,用
Figure BDA0002834490370000065
表示实际发生的工人投标但未中标的负样本(以下简称强负 样本),用
Figure BDA0002834490370000066
表示通过采样得到的并未实际发生的负样本(以下简称弱负样本)。 使
Figure BDA0002834490370000067
而对弱负样本对误差值贡献做惩罚。λ为控制防止过拟合参数L2正则 化的强度。
本发明的积极效果是:
1、通过引入属性级任务特征学习和提出带强弱负样本的带权交叉熵,解决 了众包任务时效性带来的特征稀疏问题。
2、通过引入发布方特征将中标视为一个由工人和发布方共同决定的过程, 提高预测准确度。
3、通过将外积引入注意力机制,能够利用元素间更丰富的互信息,设计了 一种适用于注意力分配的卷积神经网络,在准确度超过现有基于内积的注意力的 前提下,时间消耗较最快注意力仅多出2.34个百分点。
4、通过结合针对众包场景改进的协同过滤算法和外积注意力机制,将主流 神经网络推荐算法应用于众包。
四、附图说明
图1是算法模型的整体结构。
图2是属性级任务特征学习结构。
图3是特征融合和外积注意力机制结构。
图4是外积操作生成的二维矩阵和输入元素的关系爱。
图5是预测部分结构。
图6是本发明与其他方法每个节点所需存储的密钥数量随节点数量的变化图。
图7是本发明与其他方法的整个网络所需密钥数随节点数量的变化图。
图8是外积注意力在AUC较其它注意力的效果的对比图。
图9是外积注意力在HR@10较其它注意力的效果的对比图。
图10是外积注意力在MRR较其它注意力的效果的对比图。
图11是发明步骤图。
五、具体实施方式
第一步,对用于特征学习的输入数据进行预处理。将任务形式和任务分类作 为类别型特征,以整数0-N(N=任务形式类别数)和0-M(M=任务分类类别 数)表示。将报酬总额除以参与中威客中标人数(由于一些任务允许多人中标)得到单人赏金,单人赏金为数值型特征,进行分桶处理后映射到0-40。将发布 方id、工人id等中文id转换成数字id后转换成one-hot编码。同样,将任务形 式和任务分类也转换成数字编号。将任务名称作为文本型特征。使用中文分词工 具JIEBA进行分词,将任务名称拆分成许多独立个体的词,这样能够方便后面 将词转化成向量。分词后去除停用词。使用Word2vec模型预训练了词向量。在 得到词向量后,将标题中分好词的词向量拼接后,得到标题的输入矩阵。对拼接 后词向量长度不够的补0到最大长度。
第二步,用第一步中预处理完成的输入特征通过属性级任务特征学习方式学 习任务特征。用工人中标过任务特征表示工人特征,用发布方发布过的任务特征 组成发布方特征。
第三步,将第二步中得到的任务、工人和发布方特征输入特征融合模块,将 经特征融合后的工人和发布方特征输入外积注意力机制,外积注意力机制输出分 配过注意力权重的工人和发布方序列特征。
第四步,将第三步中分配过注意力权重的工人和发布方序列特征分别相加 后,得到工人和发布方特征作为预测模块的输入,训练时以改进后的带权交叉熵 作为损失函数,预测工人的投标行为能否中标,得到预测分数。
第五步,用第四步得到的预测分数按降序生成推荐列表。
关于本发明针对众包场景特殊性的改进,对比了引入发布方前后的AUC指标 和使用带权交叉熵样本的分类能力。如图6分别在两个模型上对比引入发布方前 后的AUC指标,可见引入发布方后AUC明显提高。如图7,引入带权交叉熵后, 模型对弱负样本的识别能力变强。同时对比了外积注意力在AUC、HR@10和MRR 较其它注意力的效果,分别如图8、9、10,可见都有明显提高。同时外积注意 力消耗较最快注意力机制基线仅多出2.34个百分点。
本发明的用户使用场景举例:
场景一:在高校团队创新创业中,单个团队往往难以聚合个方面的人才,可 以通过创新创业众包平台,将非核心业务以众包的方式完成。以更灵活的方式组 建团队。
场景二:在综合类的网络众包平台上,所发布的任务往往复杂多样,本发明 不需要平台用户自行对任务进行筛选,并且提高任务承接方的众包率和任务发布 方的筛选成本,进而提高平台的收益和用户体验。
在上述场景中,本发明的方法取得了好的效果。

Claims (3)

1.利用外积注意力的众包任务推荐算法,其特征在于:
首先通过众包任务中的属性级学习方式学习任务特征,随后引入众包角色发布方利用基于物品协同过滤思想学习发布方和工人特征,随后将任务、发布方和工人特征输入外积注意力机制,最后利用引入带强弱负样本的交叉熵损失函数对工人能否中标进行预测;
具体做法是:
第一步,对用于特征学习的输入数据进行预处理;将任务形式和任务分类作为类别型特征,以整数0-N(N=任务形式类别数)和0-M(M=任务分类类别数)表示;将报酬总额除以参与中威客中标人数(由于一些任务允许多人中标)得到单人赏金,单人赏金为数值型特征,进行分桶处理后映射到0-40。将发布方id、工人id等中文id转换成数字id后转换成one-hot编码;将任务形式和任务分类也转换成数字编号,将任务名称作为文本型特征,使用中文分词工具JIEBA进行分词,将任务名称拆分成许多独立个体的词,这样能够方便后面将词转化成向量;分词后去除停用词。使用Word2vec模型预训练了词向量。在得到词向量后,将标题中分好词的词向量拼接后,得到标题的输入矩阵。对拼接后词向量长度不够的补0到最大长度。
第二步,用第一步中预处理完成的输入特征通过属性级任务特征学习方式学习任务特征,用工人中标过任务特征表示工人特征,用发布方发布过的任务特征组成发布方特征;
第三步,将第二步中得到的任务、工人和发布方特征输入特征融合模块,将经特征融合后的工人和发布方特征输入外积注意力机制,外积注意力机制输出分配过注意力权重的工人和发布方序列特征;
第四步,将第三步中分配过注意力权重的工人和发布方序列特征分别相加后,得到工人和发布方特征作为预测模块的输入,训练时以改进后的带权交叉熵作为损失函数,预测工人的投标行为能否中标,得到预测分数;
第五步,用第四步得到的预测分数按降序生成推荐列表。
2.如权利要求1所述的利用外积注意力的众包任务推荐算法,其特征在于:设计卷积神经网络结构在外积生成的二维矩阵中学习发布方和工人的注意力权重:
·将特征融合过后的工人序列g'和发布方序列和fs'um做外积,作为一个两层CNN的输入。第一层卷积核大小为[1,D,m],即m个宽高为1×D的卷积核;
·随后的最大池化(Maxpooling)窗口设置为D×1,第二层卷积使用的卷积核大小为[1,1,n],即n个宽高为1×1的卷积核,随后对通道间进行求和以保留多个记录的信息;
·随后取消卷积神经网络输出中常用的全连接层,经softmax操作后得到g'序列中记录的注意力权重ag,补0记录所在位置不参与softmax;
·随后在预测层中采样工人产生投标行为当天没有投标的任务,同投标没有但没有中标的任务一起作为负样本,并且在损失函数中对采样而来的负样本做权重惩罚。
3.根据权利要求2所述的方法,其特征在于,利用属性级任务特征学习方法得到任务特征,引入发布方特征与工人和任务特征共同决定工人能否中标,设计两层的卷积神经网络用于从外积矩阵中学习注意力权重,以保留记录的语义信息,引入弱负样本降低稀疏性带来的训练困难。
CN202011473999.3A 2020-12-14 2020-12-14 利用外积注意力的众包任务推荐算法 Pending CN112487799A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011473999.3A CN112487799A (zh) 2020-12-14 2020-12-14 利用外积注意力的众包任务推荐算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011473999.3A CN112487799A (zh) 2020-12-14 2020-12-14 利用外积注意力的众包任务推荐算法

Publications (1)

Publication Number Publication Date
CN112487799A true CN112487799A (zh) 2021-03-12

Family

ID=74917857

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011473999.3A Pending CN112487799A (zh) 2020-12-14 2020-12-14 利用外积注意力的众包任务推荐算法

Country Status (1)

Country Link
CN (1) CN112487799A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113393056A (zh) * 2021-07-08 2021-09-14 山东大学 基于时间序列的众包服务供需缺口预测方法及系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113393056A (zh) * 2021-07-08 2021-09-14 山东大学 基于时间序列的众包服务供需缺口预测方法及系统

Similar Documents

Publication Publication Date Title
CN112784092B (zh) 一种混合融合模型的跨模态图像文本检索方法
CN110674850A (zh) 一种基于注意力机制的图像描述生成方法
CN113254648B (zh) 一种基于多层次图池化的文本情感分析方法
CN113254803A (zh) 一种基于多特征异质图神经网络的社交推荐方法
CN109299396A (zh) 融合注意力模型的卷积神经网络协同过滤推荐方法及系统
CN109241440A (zh) 一种基于深度学习的面向隐式反馈推荐方法
CN111582397B (zh) 一种基于注意力机制的cnn-rnn图像情感分析方法
CN113051916B (zh) 一种社交网络中基于情感偏移感知的交互式微博文本情感挖掘方法
CN111127146A (zh) 基于卷积神经网络与降噪自编码器的信息推荐方法及系统
CN112527966B (zh) 基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法
CN112884551B (zh) 一种基于近邻用户和评论信息的商品推荐方法
CN110046250A (zh) 三嵌入卷积神经网络模型及其文本多分类方法
CN112712127A (zh) 一种结合图卷积神经网络的图像情感极性分类方法
CN111831895A (zh) 一种基于lstm模型的网络舆情预警方法
WO2022218139A1 (zh) 融合注意力机制的个性化搜索方法和搜索系统
CN110704510A (zh) 一种结合用户画像的题目推荐方法及系统
CN114036298B (zh) 一种基于图卷积神经网络与词向量的节点分类方法
CN113590965B (zh) 一种融合知识图谱与情感分析的视频推荐方法
CN112487799A (zh) 利用外积注意力的众包任务推荐算法
CN113627550A (zh) 一种基于多模态融合的图文情感分析方法
CN117235264A (zh) 文本处理方法、装置、设备和计算机可读存储介质
CN116186309B (zh) 基于融合用户意图的交互兴趣图的图卷积网络推荐方法
CN116776003A (zh) 基于对比学习和协同信号的知识图推荐方法、系统及设备
CN115330142B (zh) 联合能力模型的训练方法、能力需求匹配方法和装置
CN116452293A (zh) 一种融合物品受众特征的深度学习推荐方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination