CN108596687A - 一种基于哈希学习的广告定向投放方法 - Google Patents
一种基于哈希学习的广告定向投放方法 Download PDFInfo
- Publication number
- CN108596687A CN108596687A CN201810437471.7A CN201810437471A CN108596687A CN 108596687 A CN108596687 A CN 108596687A CN 201810437471 A CN201810437471 A CN 201810437471A CN 108596687 A CN108596687 A CN 108596687A
- Authority
- CN
- China
- Prior art keywords
- advertisement
- user
- coding
- binary
- line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 21
- 238000012549 training Methods 0.000 claims abstract description 34
- 239000013598 vector Substances 0.000 claims abstract description 19
- 239000011159 matrix material Substances 0.000 claims abstract description 17
- 238000013528 artificial neural network Methods 0.000 claims abstract description 10
- 238000013139 quantization Methods 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 7
- 241000208340 Araliaceae Species 0.000 claims description 5
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 claims description 5
- 235000003140 Panax quinquefolius Nutrition 0.000 claims description 5
- 235000008434 ginseng Nutrition 0.000 claims description 5
- 238000004321 preservation Methods 0.000 claims description 5
- 239000013604 expression vector Substances 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 230000000153 supplemental effect Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 2
- 230000017105 transposition Effects 0.000 claims description 2
- 238000000151 deposition Methods 0.000 claims 1
- 235000013399 edible fruits Nutrition 0.000 claims 1
- 210000005036 nerve Anatomy 0.000 claims 1
- 230000003247 decreasing effect Effects 0.000 abstract 1
- 230000000694 effects Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000001537 neural effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0251—Targeted advertisements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Strategic Management (AREA)
- Finance (AREA)
- Game Theory and Decision Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Economics (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Transfer Between Computers (AREA)
Abstract
本发明公开了一种基于哈希学习的广告定向投放方法,包括使用神经网络离线训练模型的步骤,对模型参数量化为二值编码的步骤,对用户进行线上广告定向投放的步骤。首先收集广告主为待投放广告提供的种子用户数据,根据数据构建用户与广告的二值关系矩阵用于训练;然后基于哈希学习的框架,先通过神经网络为每个用户和广告学习一个低维实值表示向量,再将所有参数量化为二值表示,进一步压缩模型以便于线上的存储和计算;最后在线上使用得到的模型为用户和所有待投放广告的相关性进行打分,根据得分高低对用户进行广告定向投放。本发明的方法与现有技术相比,用户和广告在线上被表示为经过压缩的二值编码,因而可大幅减少线上存储开销,提高计算性能。
Description
技术领域
本发明提供一种基于哈希学习的广告定向投放方法,涉及哈希学习领域的参数量化算法,旨在提升线上存储和计算的效率,特别适用于重视线上性能的大规模广告定向投放任务。
背景技术
近年来,随着互联网广告行业的飞速发展,广告定向投放技术受到人们瞩目的程度与日俱增。如何根据用户的信息和行为,挖掘并分析用户的喜好,从而向用户精准地定向投放他们感兴趣的广告,成为包括Google、Facebook、Yahoo在内的许多互联网公司的长期课题。
在本发明涉及的具体广告定向任务中,广告主会为他们待投放的广告提供一份种子用户的列表,广告定向系统需要根据指定的种子用户人群去计算出与他们相似的人群进行广告投放,从而有效地帮助广告主拓展业务和发掘新用户。在这个场景中,“用户是否为广告的种子用户”的二值关系矩阵即作为广告和用户之间的关系数据,同时还可引入用户的其他特征信息,共同作为训练数据去指导模型训练,得到用户和广告的向量表示。通过在线上衡量用户向量与待投放广告向量之间的相关程度,系统得以向用户投放他们更可能感兴趣的广告内容。
然而,随着互联网广告业务的不断扩充,定向任务所涉及的潜在可被发掘的新用户规模可达10亿级别。每一个潜在的用户都需要在线上有一个独立的向量表示以参与计算,这给线上的广告投放系统带来了巨大的挑战。为缓解线上存储计算的压力,本发明引入哈希学习的思想,旨在用更高效的二值表示替代原有的实值表示为系统取得更好的性能。
发明内容
发明目的:目前的广告定向系统会对每个用户和广告训练得到一个低维实值表示向量,当用户规模太大时模型仍将给线上系统带来难以承受的存储与计算开销。针对这个问题,本发明提供了一种基于哈希学习的广告定向投放方法:首先构建用户与广告的二值关系矩阵用于训练;然后先通过神经网络为每个用户和广告学习一个低维实值表示向量,再将所有参数量化为二值表示,进一步压缩模型以便于线上的存储和计算;最后在线上使用得到的二值编码为用户进行广告定向投放。
技术方案:一种基于哈希学习的广告定向投放方法,包括使用神经网络离线训练模型的步骤,对模型参数量化为二值编码的步骤,对用户进行线上广告定向投放的步骤。
所述使用神经网络离线训练模型的步骤具体为:
步骤100,输入广告主为待投放广告提供的种子用户数据至数据处理平台;
步骤101,若存在用户的特征数据,则将其输入作为训练时的辅助特征信息;
步骤102,定义用户与广告之间的关系标签,若某用户属于该广告的种子用户集合,则标记为“1”,定义为正例样本;否则该用户与该广告的关系未知,标记为“0”,算法将从标记为“0”的关系中随机采样一部分定义为负例样本,未被采样的将不参与训练;标记完成后得到用户与广告之间的二值关系矩阵A(A∈{0,1}m×n,其中m为广告数,n为用户数),以及告知系统A中哪些元素需作为训练样本参与训练的训练数据索引集Ω;
步骤103,初始化用户和广告表示向量的维度k等相关模型超参;
步骤104,在数据处理平台上,使用神经网络离线训练模型,得到两个参数矩阵W,U,其中W的每一行为一个广告的k维实值表示向量,U的每一行为一个用户的k维实值表示向量;
步骤105,输出并保存模型W,U至数据处理平台的存储系统。
所述对模型参数量化为二值编码的步骤具体为:
步骤200,输入步骤105所得的模型W,U的所有参数至参数量化算法中;
步骤201,初始化算法的量化位数超参q,表示W,U中的每个实值参数将被量化成q位二值编码;
步骤202,将W中的所有参数取绝对值后放入一个正实数集W+中,之后运用聚类算法对W+中每个元素按大小聚成2q-1类,并且根据这2q-1个聚类中心计算出关于W的2q-1-1个阈值;
步骤203,对于W中的每一行用于表示某广告的k维实值向量,利用步骤202计算出的阈值信息将其每个维度上的实数分别量化至相应的q位二值编码,之后将这k组q位二值编码予以拼接,得到表示该广告的k*q位二值编码;所有广告的二值编码组成二值矩阵Wb;
步骤204,将U中的所有参数取绝对值后放入一个正实数集U+中,之后运用聚类算法对U+中每个元素按大小聚成2q-1类,并且根据这2q-1个聚类中心计算出关于U的2q-1-1个阈值;
步骤205,对于U中的每一行用于表示某用户的k维实值向量,利用步骤204计算出的阈值信息将其每个维度上的实数分别量化至相应的q位二值编码,之后将这k组q位二值编码予以拼接,得到表示该用户的k*q位二值编码;所有用户的二值编码组成二值矩阵Ub;
步骤206,输出并保存模型Wb,Ub至广告定向的线上存储系统。
所述对用户进行线上广告定向投放的步骤具体为:
步骤300,输入当前流量接入的用户,从线上存储中取出表示该用户的二值编码;
步骤301,在线上将该用户的二值编码与所有待投放广告的二值编码分别进行特定的运算,运算结果将给出表示两者相关程度的分数。
步骤302,根据步骤301计算出的得分高低与每个广告的实际投放需求对用户进行广告定向投放。
步骤104的神经网络训练时的目标方程可写作:
其中,m为广告数,n为用户数,k为用户和广告的表示向量的维度,W和U是模型要学的参数矩阵,Wi*表示W的第i行,Uj*表示U的第j行,表示Uj*的转置,A是观察到的用户与广告的二值关系矩阵,Ω表示由正例样本索引和部分负例样本索引组成的训练数据索引集,其元素由A的下标索引配对组成;σ(·)为Sigmoid函数,即σ(x)=1/(1+exp(-x))。
所述步骤203(步骤205),利用步骤202(步骤204)计算出的阈值信息将其每个维度上的实数分别量化至相应的q位二值编码的具体步骤为:
步骤2030,输入该维度上的实数a,若a≥0,q位二值编码的首位取“0”;若a<0,q位二值编码的首位取“1”。
步骤2031,正实数域被步骤202计算出的2q-1-1个阈值分隔成了2q-1个区间,按照区间在实数轴上的位置,从左至右对它们标上索引号{0,1…2q-1-1};
步骤2032,对a取绝对值得到|a|,根据步骤2031得到的区间,找到|a|所属区间的索引号,使用自然二进制码对该索引号进行编码,将值域为{0,1…2q-1-1}的索引号转换为对应的q-1位二进制数(不足q-1位的用前置0补足),作为q位二值编码的余下q-1位;
步骤2033,将步骤2030得到的编码首位与步骤2032得到的编码余下q-1位予以拼接,得到该维度上的实数a的q位二值编码表示,输出。
所述步骤301,将该用户的二值编码与所有待投放广告的二值编码分别进行特定的运算的具体步骤为:
步骤3010,输入一个用户的k*q位二值编码,与每个待投放广告的二值编码一起执行步骤3011-3013。
步骤3011,将用户和该广告的k*q位二值编码分别拆分成各自的k组q位二值编码,并一一对应地组合成k个编码对{(u1,w1),(u2,w2)…(uk,wk)};
步骤3012,对于每个编码对(ui,wi),将ui和wi的后q-1位按二进制数做乘法运算得到该编码对对应的分数绝对值s′i,之后将ui和wi的首位做异或运算,若结果为0,则si=s′i;若结果为1,则si=-s′i;
步骤3013,将所有编码对的分数累加得到用户与该广告的相关性得分:
步骤3014,输出该用户与所有待投放广告的相关性得分。
有益效果:与现有技术相比,本发明使用了基于哈希学习的模型训练方法,将原本用户和广告的实值表示向量量化成了二值编码。在打分效果上损失较小甚至无损的情况下,此举大幅减少了线上存储开销,同时能提高计算性能,使更大规模的广告定向投放任务成为可能。
附图说明
图1为本发明实施的神经网络离线训练模型的工作流程图;
图2为本发明实施的对模型参数量化为二值编码的工作流程图;
图3为本发明实施的对用户进行线上广告定向投放的工作流程图。
具体实施方式
下面结合具体实施例,进一步阐明本发明,应理解这些实施例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
本发明所阐述的基于哈希学习的广告定向投放方法,其实值模型训练工作流程如图1所示。首先将广告主提供的种子用户数据存至数据处理平台(步骤10)。然后判断是否引入用户特征信息辅助训练(步骤11),若引入用户特征信息,则加入用户的特征数据(步骤12),否则跳到下一步。之后定义用户与广告间的关系标签(步骤13),从数据中判断用户与广告之间的关系(步骤14),若用户是广告的种子用户,则标记为“1”,同时将其纳入训练数据的正例样本(步骤15a),否则标记为“0”,训练数据中的负例样本由标记为“0”的关系数据采样得到(步骤15b)。通过上述步骤,可以得到用户与广告的二值关系矩阵和训练数据索引集(步骤16)。接下来系统初始化相关参数(步骤17),之后进入到神经网络训练阶段(步骤18),训练完成后输出结果并保存模型(步骤19)。
将模型参数量化为二值编码的工作流程如图2所示。首先读取步骤19得到的实值模型(步骤20),选定为用户和广告的表示向量中每维实值量化的二值编码位数q(步骤21)。这里假定量化算法选取了q=3,则每个实值参数有{111,110,101,100,000,001,010,011}共23=8种量化可能,它们将各自代表实数域中的一块区间。选定q后,对用户和广告的模型参数分别进行聚类,之后计算出量化时用于分隔区间的阈值(步骤22)。阈值界定好之后,即可分别对用户和广告的模型参数进行二值编码(步骤23),编码完成后拼接回所需的参数矩阵(步骤24),输出模型至线上存储系统以支持线上的广告定向投放(步骤25)。
在线上对用户进行广告定向投放的工作流程如图3所示。首先输入当前流量接入的用户是谁(步骤30),之后从线上存储的二值参数矩阵中取出该用户的二值编码(步骤31),利用该用户和所有广告的二值编码计算出他们之间的相关性得分(步骤32)。由于不同广告主对业务的拓展力度不同,广告与广告之间的投放需求亦不相同,最后系统需要参照相关性得分,同时综合实际投放需求来对用户进行广告投放。
本发明在真实广告定向场景下的数据集上进行了实验,对比了在线上定向投放广告时,使用本发明的方法学得的二值编码进行定向与使用未经量化的实值向量进行定向之间的效果与性能差异。
数据集含有94个广告,23380000个用户,同时用户身上有稀疏的特征信息用于辅助训练,总特征维度为5000000。效果的评价指标为AUC,可用来衡量线上为用户定向广告的精确程度。
实验结果表明,在选取量化位数q=8时(即在参数量化的步骤中将每位实数参数量化为8位二值编码),本发明的方法可在AUC无损的情况下将线上存储开销降至原来的1/4,同时计算速率稍有提高;在量化位数q=4时,本方法可在AUC损失1~2%的情况下将线上存储开销降至原来的1/8,同时计算速率提高至原来的2倍以上。
Claims (7)
1.一种基于哈希学习的广告定向投放方法,其特征在于:包括使用神经网络离线训练模型的步骤,对模型参数量化为二值编码的步骤,对用户进行线上广告定向投放的步骤;首先构建用户与广告的二值关系矩阵用于训练;然后先通过神经网络为每个用户和广告学习一个低维实值表示向量,再将所有参数量化为二值表示,进一步压缩模型以便于线上的存储和计算;最后在线上使用得到的二值编码为用户进行广告定向投放。
2.如权利要求1所述的基于哈希学习的广告定向投放方法,其特征在于,所述使用神经网络离线训练模型的步骤具体为:
步骤100,输入广告主为待投放广告提供的种子用户数据至数据处理平台;
步骤101,若存在用户的特征数据,则将其输入作为训练时的辅助特征信息;
步骤102,定义用户与广告之间的关系标签,若某用户属于该广告的种子用户集合,则标记为“1”,定义为正例样本;否则该用户与该广告的关系未知,标记为“0”,算法将从标记为“0”的关系中随机采样一部分定义为负例样本,未被采样的将不参与训练;标记完成后得到用户与广告之间的二值关系矩阵A(A∈{0,1}m×n,其中m为广告数,n为用户数),以及告知系统A中哪些元素需作为训练样本参与训练的训练数据索引集Ω;
步骤103,初始化用户和广告表示向量的维度k等相关模型超参;
步骤104,在数据处理平台上,使用神经网络离线训练模型,得到两个参数矩阵W,U,其中W的每一行为一个广告的k维实值表示向量,U的每一行为一个用户的k维实值表示向量;
步骤105,输出并保存模型W,U至数据处理平台的存储系统。
3.如权利要求2所述的基于哈希学习的广告定向投放方法,其特征在于,所述对模型参数量化为二值编码的步骤具体为:
步骤200,输入步骤105所得的模型W,U的所有参数至参数量化算法中;
步骤201,初始化算法的量化位数超参q,表示W,U中的每个实值参数将被量化成q位二值编码;
步骤202,将W中的所有参数取绝对值后放入一个正实数集W+中,之后运用聚类算法对W+中每个元素按大小聚成2q-1类,并且根据这2q-1个聚类中心计算出关于W的2q-1-1个阈值;
步骤203,对于W中的每一行用于表示某广告的k维实值向量,利用步骤202计算出的阈值信息将其每个维度上的实数分别量化至相应的q位二值编码,之后将这k组q位二值编码予以拼接,得到表示该广告的k*q位二值编码;所有广告的二值编码组成二值矩阵Wb;
步骤204,将U中的所有参数取绝对值后放入一个正实数集U+中,之后运用聚类算法对U+中每个元素按大小聚成2q-1类,并且根据这2q-1个聚类中心计算出关于U的2q-1-1个阈值;
步骤205,对于U中的每一行用于表示某用户的k维实值向量,利用步骤204计算出的阈值信息将其每个维度上的实数分别量化至相应的q位二值编码,之后将这k组q位二值编码予以拼接,得到表示该用户的k*q位二值编码;所有用户的二值编码组成二值矩阵Ub;
步骤206,输出并保存模型Wb,Ub至广告定向的线上存储系统。
4.如权利要求3所述的基于哈希学习的广告定向投放方法,其特征在于,所述对用户进行线上广告定向投放的步骤具体为:
步骤300,输入当前流量接入的用户,从线上存储中取出表示该用户的二值编码;
步骤301,在线上将该用户的二值编码与所有待投放广告的二值编码分别进行特定的运算,运算结果将给出表示两者相关程度的分数;
步骤302,根据步骤301计算出的得分高低与每个广告的实际投放需求对用户进行广告定向投放。
5.如权利要求2所述的基于哈希学习的广告定向投放方法,其特征在于,步骤104的神经网络训练时的目标方程可写作:
其中,m为广告数,n为用户数,k为用户和广告的表示向量的维度,W和U是模型要学的参数矩阵,Wi*表示W的第i行,Uj*表示U的第j行,表示Uj*的转置,A是观察到的用户与广告的二值关系矩阵,Ω表示由正例样本索引和部分负例样本索引组成的训练数据索引集,其元素由A的下标索引配对组成;σ(·)为Sigmoid函数,即σ(x)=1/(1+exp(-x))。
6.如权利要求3所述的基于哈希学习的广告定向投放方法,其特征在于,,所述步骤203和步骤205,分别利用步骤202和步骤204计算出的阈值信息将其每个维度上的实数分别量化至相应的q位二值编码的具体步骤为:
步骤2030,输入该维度上的实数a,若a≥0,q位二值编码的首位取“0”;若a<0,q位二值编码的首位取“1”;
步骤2031,正实数域被步骤202计算出的2q-1-1个阈值分隔成了2q-1个区间,按照区间在实数轴上的位置,从左至右对它们标上索引号{0,1…2q-1-1};
步骤2032,对a取绝对值得到|a|,根据步骤2031得到的区间,找到|a|所属区间的索引号,使用自然二进制码对该索引号进行编码,将值域为{0,1…2q-1-1}的索引号转换为对应的q-1位二进制数(不足q-1位的用前置0补足),作为q位二值编码的余下q-1位;
步骤2033,将步骤2030得到的编码首位与步骤2032得到的编码余下q-1位予以拼接,得到该维度上的实数a的q位二值编码表示,输出。
7.如权利要求4所述的基于哈希学习的广告定向投放方法,其特征在于,所述步骤301,将该用户的二值编码与所有待投放广告的二值编码分别进行特定的运算的具体步骤为:
步骤3010,输入一个用户的k*q位二值编码,与每个待投放广告的二值编码一起执行步骤3011-3013;
步骤3011,将用户和该广告的k*q位二值编码分别拆分成各自的k组q位二值编码,并一一对应地组合成k个编码对{(u1,w1),(u2,w2)…(uk,wk)};
步骤3012,对于每个编码对(ui,wi),将ui和wi的后q-1位按二进制数做乘法运算得到该编码对对应的分数绝对值s′i,之后将ui和wi的首位做异或运算,若结果为0,则si=s′i;若结果为1,则si=-s′i;
步骤3013,将所有编码对的分数累加得到用户与该广告的相关性得分:
步骤3014,输出该用户与所有待投放广告的相关性得分。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810437471.7A CN108596687B (zh) | 2018-05-09 | 2018-05-09 | 一种基于哈希学习的广告定向投放方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810437471.7A CN108596687B (zh) | 2018-05-09 | 2018-05-09 | 一种基于哈希学习的广告定向投放方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108596687A true CN108596687A (zh) | 2018-09-28 |
CN108596687B CN108596687B (zh) | 2021-07-09 |
Family
ID=63636515
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810437471.7A Active CN108596687B (zh) | 2018-05-09 | 2018-05-09 | 一种基于哈希学习的广告定向投放方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108596687B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112308588A (zh) * | 2019-07-31 | 2021-02-02 | 北京达佳互联信息技术有限公司 | 广告的投放方法、装置及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1303569A (zh) * | 1998-04-03 | 2001-07-11 | 发现通讯公司 | 使用电视传输系统的定向广告 |
US8019704B1 (en) * | 2007-05-16 | 2011-09-13 | Google Inc. | Scaling machine learning using approximate counting |
CN104036010A (zh) * | 2014-06-25 | 2014-09-10 | 华东师范大学 | 一种基于半监督cbow的用户搜索词主题分类的方法 |
CN104408153A (zh) * | 2014-12-03 | 2015-03-11 | 中国科学院自动化研究所 | 一种基于多粒度主题模型的短文本哈希学习方法 |
US20160292182A1 (en) * | 2013-09-27 | 2016-10-06 | International Business Machines Corporation | Activity Based Analytics |
CN107169830A (zh) * | 2017-05-15 | 2017-09-15 | 南京大学 | 一种基于聚类pu矩阵分解的个性化推荐方法 |
CN107229757A (zh) * | 2017-06-30 | 2017-10-03 | 中国科学院计算技术研究所 | 基于深度学习和哈希编码的视频检索方法 |
-
2018
- 2018-05-09 CN CN201810437471.7A patent/CN108596687B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1303569A (zh) * | 1998-04-03 | 2001-07-11 | 发现通讯公司 | 使用电视传输系统的定向广告 |
US8019704B1 (en) * | 2007-05-16 | 2011-09-13 | Google Inc. | Scaling machine learning using approximate counting |
US20160292182A1 (en) * | 2013-09-27 | 2016-10-06 | International Business Machines Corporation | Activity Based Analytics |
CN104036010A (zh) * | 2014-06-25 | 2014-09-10 | 华东师范大学 | 一种基于半监督cbow的用户搜索词主题分类的方法 |
CN104408153A (zh) * | 2014-12-03 | 2015-03-11 | 中国科学院自动化研究所 | 一种基于多粒度主题模型的短文本哈希学习方法 |
CN107169830A (zh) * | 2017-05-15 | 2017-09-15 | 南京大学 | 一种基于聚类pu矩阵分解的个性化推荐方法 |
CN107229757A (zh) * | 2017-06-30 | 2017-10-03 | 中国科学院计算技术研究所 | 基于深度学习和哈希编码的视频检索方法 |
Non-Patent Citations (4)
Title |
---|
LI W J等: ""Double-bit quantization for hashing"", 《PROCEEDINGS OF THE 26TH AAAI CONFERENCE ON ARTIFICIAL INTELLIGENCE (AAAI)》 * |
LI WU JUN等: ""Coupled Group Lasso for Web-Scale CTR Prediction in Display Advertising"", 《PROCEEDINGS OF THE 31ST INTERNATIONAL CONFERENCE ON MACHINE LEARNING, PMLR》 * |
李武军等: ""大数据哈希学习:现状与趋势"", 《科学通报》 * |
聂秀山等: ""基于特征融合和曼哈顿量化的视频哈希学习方法"", 《南京大学学报》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112308588A (zh) * | 2019-07-31 | 2021-02-02 | 北京达佳互联信息技术有限公司 | 广告的投放方法、装置及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN108596687B (zh) | 2021-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109582949A (zh) | 事件元素抽取方法、装置、计算设备及存储介质 | |
CN110263265A (zh) | 用户标签生成方法、装置、存储介质和计算机设备 | |
CN108664632A (zh) | 一种基于卷积神经网络和注意力机制的文本情感分类算法 | |
CN108829662A (zh) | 一种基于条件随机场结构化注意力网络的对话行为识别方法及系统 | |
CN111931061B (zh) | 标签映射方法、装置、计算机设备及存储介质 | |
CN108520442A (zh) | 一种基于融合结构的展示广告点击率预测方法 | |
CN113505204B (zh) | 召回模型训练方法、搜索召回方法、装置和计算机设备 | |
Singh et al. | Steganalysis of digital images using deep fractal network | |
CN109214407A (zh) | 事件检测模型、方法、装置、计算设备及存储介质 | |
CN109902823A (zh) | 一种基于生成对抗网络的模型训练方法及设备 | |
CN113392317A (zh) | 一种标签配置方法、装置、设备及存储介质 | |
CN114780723B (zh) | 基于向导网络文本分类的画像生成方法、系统和介质 | |
CN113222653A (zh) | 一种程序化广告用户受众扩展方法、系统、设备及存储介质 | |
CN111369535A (zh) | 一种细胞检测方法 | |
CN114282059A (zh) | 视频检索的方法、装置、设备及存储介质 | |
CN116737922A (zh) | 一种游客在线评论细粒度情感分析方法和系统 | |
CN108596687A (zh) | 一种基于哈希学习的广告定向投放方法 | |
CN107424016A (zh) | 一种在线招聘广告推荐的实时竞价方法及其系统 | |
CN112035607B (zh) | 基于mg-lstm的引文差异匹配方法、装置及存储介质 | |
CN111966828B (zh) | 一种基于文本上下文结构和属性信息叠加网络的报刊新闻分类方法 | |
CN115114462A (zh) | 模型训练方法、装置、多媒体推荐方法、设备及存储介质 | |
CN115700550A (zh) | 标签分类模型训练和对象筛选方法、设备及存储介质 | |
CN112364192A (zh) | 一种基于集成学习的零样本哈希检索方法 | |
CN112417260A (zh) | 本地化推荐方法、装置及存储介质 | |
CN116935170B (zh) | 视频处理模型的处理方法、装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CB02 | Change of applicant information |
Address after: 210008 No. 22, Hankou Road, Gulou District, Jiangsu, Nanjing Applicant after: NANJING University Address before: 210023 163 Xianlin Road, Qixia District, Nanjing, Jiangsu Applicant before: NANJING University |
|
CB02 | Change of applicant information |