CN113111257A - 一种基于协同过滤的融合多源异构信息的推荐方法 - Google Patents
一种基于协同过滤的融合多源异构信息的推荐方法 Download PDFInfo
- Publication number
- CN113111257A CN113111257A CN202110336990.6A CN202110336990A CN113111257A CN 113111257 A CN113111257 A CN 113111257A CN 202110336990 A CN202110336990 A CN 202110336990A CN 113111257 A CN113111257 A CN 113111257A
- Authority
- CN
- China
- Prior art keywords
- user
- information
- item
- vector
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 16
- 238000001914 filtration Methods 0.000 title claims abstract description 13
- 239000013598 vector Substances 0.000 claims abstract description 59
- 239000011159 matrix material Substances 0.000 claims abstract description 29
- 238000007781 pre-processing Methods 0.000 claims abstract description 11
- 238000012549 training Methods 0.000 claims abstract description 11
- 238000000354 decomposition reaction Methods 0.000 claims abstract description 8
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 7
- 238000000605 extraction Methods 0.000 claims description 13
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 210000002569 neuron Anatomy 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 6
- 230000004927 fusion Effects 0.000 claims description 4
- 238000012360 testing method Methods 0.000 claims description 4
- 230000009467 reduction Effects 0.000 claims description 3
- 230000011218 segmentation Effects 0.000 claims description 3
- 238000012795 verification Methods 0.000 claims description 3
- 238000004140 cleaning Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 claims description 2
- 238000002474 experimental method Methods 0.000 claims description 2
- 238000003062 neural network model Methods 0.000 claims description 2
- 150000001875 compounds Chemical class 0.000 claims 1
- 238000012545 processing Methods 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 8
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000009193 crawling Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/3332—Query translation
- G06F16/3335—Syntactic pre-processing, e.g. stopword elimination, stemming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/951—Indexing; Web crawling techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
一种基于协同过滤的融合多源异构信息的推荐方法属于推荐系统相关技术领域。本方法中,首先分别针对商品和用户的辅助信息进行处理。对于项目的文本数据,首先进行预处理并经过保留上下文信息的词编码得到文本特征向量,最后使用门控卷积神经网络对文本向量进行处理得到商品的深层次特征。对于用户的辅助多源信息,首先对其各种属性信息进行编码,之后通过全连接网络从矩阵中提取用户的深层次特征。最后将用户和物品的深层特征与矩阵分解得到的用户和物品的特征向量结合,通过改进的损失函数进行训练。这种方法能有效利用项目和用户的辅助信息,缓解传统矩阵分解算法中的数据稀疏和冷启动问题。
Description
技术领域
本专利涉及将项目的多源异构信息和协同过滤模型进行融合,并结合自然语言处理技术提高推荐算法准确性的方法,属于推荐系统相关技术领域。
背景技术
近年来,随着互联网技术的快速发展,全球数据规模呈现爆炸式增长,大量冗余的数据引发了严重的“信息过载”问题。在这种情况下,推荐系统作为一种解决“信息过载”问题的有效方法应运而生。推荐系统根据用户需求、爱好、兴趣等,通过推荐算法从海量数据中挖掘出用户感兴趣的项目(如商品、信息、音乐等),并将结果以个性化列表的形式推荐给用户,从而满足用户的需求。
发明内容
本发明旨在结合自然语言处理技术和推荐系统,提供一种利用深度神经网络抽取项目多源异构数据中的深层次特征,将其与用户和项目的基础特征向量进行融合得到用户和项目的综合特征向量,并利用综合特征向量进行推荐的一种方法。
该方法主要基于协同过滤推荐中的矩阵分解算法,在其实际应用中,评分数据的稀疏性和冷启动问题一直是制约该类模型进一步发展的主要因素。本方法中,首先分别针对商品和用户的辅助信息进行处理。对于项目的文本数据,首先进行预处理并经过保留上下文信息的词编码得到文本特征向量,最后使用门控卷积神经网络对文本向量进行处理得到商品的深层次特征。对于用户的辅助多源信息,首先对其各种属性信息进行编码,之后通过全连接网络从矩阵中提取用户的深层次特征。最后将用户和物品的深层特征与矩阵分解得到的用户和物品的特征向量结合,通过改进的损失函数进行训练。这种方法能有效利用项目和用户的辅助信息,缓解传统矩阵分解算法中的数据稀疏和冷启动问题。
本发明采用以下技术方案:
首先对使用到的数据集数中的项目和用户的相关信息进行获取,之后对其进行预处理,得到标准化的数据。然后分别对用户和项目的多源异构辅助信息进行抽取,将得到的深层次特征向量与矩阵分解算法结合完成推荐。基于以上思想,设计出基于协同过滤的融合多源异构信息的推荐方法步骤如下:
1)选定专业领域数据集,完善数据集相关信息
MovieLens-1M数据集:该数据集是由GroupLens组织提出的,包含了6040个用户对3382个电影1000209条匿名的评分数据以及电影的标签数据(年份、类型)和用户的相关信息(年龄、性别、职业)。利用网络爬虫从该数据集中电影的源网站IMDB上爬取电影内容相关的数据,包括电影摘要和评论。
2)对数据集中的数据进行分类,针对不同类别的数据分别进行预处理。对项目相关的文本数据进行降噪、分词、停用词移除等步骤后,再进行词嵌入后获得其向量化表示。对用户相关数据编码后进行拼接得到用户基础特征向量。
3)构建带有门控机制的卷积神经网络从由词向量组成的项目信息矩阵中提取物品辅助信息的深层特征向量。
4)构建全连接网络从用户的基础特征向量中提取出用户辅助信息的深层特征向量。
5)随机生成符合高斯分布的基础用户特征向量和基础项目特征向量,分别将二者与用户和项目辅助信息的深层特征向量相融合,得到最终的用户和项目的综合特征向量并进行推荐,通过损失函数对模型进行训练。
附图说明
图1为词向量表示图
图2为基于协同过滤的融合多源异构信息的推荐模型图
图3项目信息抽取模型图
具体实施方式
以下结合附图实例以及公式对本发明作进一步详细描述。
本发明提供了一种基于协同过滤的融合多源异构信息的推荐算法性能方法,该方法包括以下步骤:
步骤一:确定数据集,根据数据集补全实验中需要的辅助信息。从数据集中获取用户信息数据,项目信息数据和相应的评分数据。生成相应的用户-物品评分文件、用户辅助信息文件以及物品辅助信息文件。
步骤二:对数据集中不同类型数据进行预处理,方便后期使用。
数据预处理具体步骤如下:
将用户辅助信息文件进行预处理。首先数值化个人信息中的非数值字段,对年龄等特定范围类型字段进行范围表示。
对物品辅助信息文件中的电影摘要和前3条热度最高的评论作为文本数据,限制文本最大长度为500。之后进行数据清洗、分词和停用词过滤,选取TF-IDF(termfrequency–inverse document frequency)得分较高的前8000个单词作为关键词汇列表,从原始文档中删除所有不在词汇列表中的单词。最后与电影类型一起通过Word2Vec模型进行词嵌入后获得其K维实数向量。表1是实验数据预处理的示例,图1为词向量转化的示例。
表1实验数据预处理示例
步骤三:数据集的拆分和预处理。将数据集按照8:1:1的比例分为训练集,测试集和验证集。使用训练集和测试集训练模型,通过验证集上的实验结果评估算法的预测效果。为防止在训练过程中发生过拟合,本文在神经网络模型的每个全连接层中设置Dropout为0.3,即对于神经网络单元,按照30%概率将其暂时从网络中丢弃。
步骤四:构建基于协同过滤的推荐模型,该模型主要分为项目信息抽取模块,用户信息抽取模块和融合推荐模块。具体模型如图2所示。
项目信息抽取模块。对于项目j(j∈(1,|V|),|V|为项目数量),对其辅助信息文本预编码后得到项目的内容特征矩阵Tj。门控卷积层包含M个神经元,每个神经元具有一个卷积核和一个用于门控函数的卷积核,特征矩阵Tj经过门控卷积层的第m(m=1,2,3,…,M)个卷积核得到内容特征图zm,如公式(1-1)所示。
其中,*表示卷积操作,Wm和bm为卷积层中第m个神经元的卷积核的参数矩阵和偏置向量。Qm和cm为该神经元用于门控的卷积核的参数矩阵和偏置向量,两个卷积核矩阵维度一致,均为K×P,K为词向量维度,P可根据一次性提取单词信息的个数自由设置。σ为Sigmoid函数,定义为e为自然对数。为按位相乘操作。门控卷积层相比于传统卷积层,通过矩阵本身内容得到的非线性激活函数进行门控,可以提取更高层,更抽象的特征,使模型的收敛和训练变得更加简单。
之后,通过池化层对M个特征图进行最大值池化操作降维,即在M个特征图中各取一个最大值,并在N维空间进行投影,得到项目j的N维信息特征向量tj,N为接下来所有用于推荐的向量的维度,为根据模型需要自行设置的超参数,本数据集中取128。抽取操作可以通过简化后的公式(1-2)从Tj中得到。
tj=CNN(Wc,Tj) (1-2)
CNN表示门控卷积池化和投影操作,Wc为卷积层中所有卷积核权重和偏置向量组成的参数矩阵。具体模型如图3所示。
用户信息抽取模块。首先选取需要处理的用户信息(用户的id、性别、年龄、职业信息等),以用户i(i∈(1,|U|),|U|为用户数量)为例。将数值化后的字段输入到嵌入层得到用户i个人信息的嵌入矩阵Di。其中用户ID的输出维度设置为32,其余特征输出维度设置为8。
将用户i个人信息嵌入矩阵输入到全连接层,得到用户i的个人信息的N维深层特征向量di。
di=wt·Di+bt (1-3)
其中wt和bt分别是全连接层的权重和偏置的权重参数矩阵。
融合推荐模块。对于用户i,随机生成一个符合高斯分布的N维用户基础特征向量bi。将其与用户信息深层特征向量融合得到用户的综合向量ui,如公式(1-4)所示
ui=bi+di (1-4)
其中di为用户个人信息的深层特征向量。
对于项目j,生成服从于高斯分布的N维项目特征基础向量oj,将其和项目信息深层特征向量融合得到项目综合特征向量vj,如公式(1-5)所示,tj为信息深层特征向量。
vj=oj+tj (1-5)
步骤五:确定损失函数和参数优化。为了防止模型过拟合,在项目信息抽取模块和用户信息抽取模块都设置了L2正则化约束。本模型中的损失函数L如公式(1-7)所示。
其中,rij为评分矩阵中用户i对物品j的评分,表示用户i对物品j的预测评分。|U|和|V|为用户和物品的数量。λu和λv为用户基础特征向量和物品基础特征向量的正则化系数,λ为神经网络中所有参数的正则化系数,三个正则化系数均为超参数,在本数据集上设置为0.02。W为神经网络中所有参数。
根据损失函数,采用误差的反向传播算法可以对各个参数矩阵进行更新,根据需求进行一定次数的迭代之后可得到最终的模型,输入用户和项目的相关信息即可进行预测。
步骤六:对于得出的预测结果,将其与实际评分进行对比,计算得出该算法的均方根误差RMSE,从而对该模型的准确度进行评价。均方根误差的定义如公式(1-8)所示:
Claims (1)
1.一种基于协同过滤的融合多源异构信息的推荐方法,其特征在于,包括以下步骤:步骤一:确定数据集,根据数据集补全实验中需要的辅助信息;从数据集中获取用户信息数据,项目信息数据和相应的评分数据;生成相应的用户-物品评分文件、用户辅助信息文件以及物品辅助信息文件;
步骤二:对数据集中不同类型数据进行预处理,方便后期使用;
数据预处理具体步骤如下:
将用户辅助信息文件进行预处理;首先数值化个人信息中的非数值字段,对特定范围类型字段进行范围表示;
对物品辅助信息文件限制文本最大长度为500,之后进行数据清洗、分词和停用词过滤,选取关键词汇列表,从原始文档中删除所有不在关键词汇列表中的单词;然后与电影类型一起通过Word2Vec模型进行词嵌入后获得其K维实数向量;
步骤三:数据集的拆分和预处理;将数据集分为训练集,测试集和验证集;使用训练集和测试集训练模型,通过验证集上的实验结果评估算法的预测效果;为防止在训练过程中发生过拟合,在神经网络模型的每个全连接层中设置Dropout为0.3;
步骤四:构建基于协同过滤的推荐模型,该模型分为项目信息抽取模块,用户信息抽取模块和融合推荐模块;
项目信息抽取模块;对于项目j(j∈(1,|V|),|V|为项目数量),对其辅助信息文本预编码后得到项目的内容特征矩阵Tj;门控卷积层包含M个神经元,每个神经元具有一个卷积核和一个用于门控函数的卷积核,特征矩阵Tj经过门控卷积层的第m(m=1,2,3,…,M)个卷积核得到内容特征图zm,如公式(1-1)所示;
其中,*表示卷积操作,Wm和bm为卷积层中第m个神经元的卷积核的参数矩阵和偏置向量;Qm和cm为该神经元用于门控的卷积核的参数矩阵和偏置向量,两个卷积核矩阵维度一致,均为K×P,K为词向量维度,P为一次性提取单词信息的个数;σ为Sigmoid函数,定义为e为自然对数;为按位相乘操作;
之后,通过池化层对M个特征图进行最大值池化操作降维,即在M个特征图中各取一个最大值,并在N维空间进行投影,得到项目j的N维信息深层特征向量tj,N为接下来所有用于推荐的向量的维度,抽取操作通过简化后的公式(1-2)从Tj中得到;
tj=CNN(Wc,Tj) (1-2)
CNN表示门控卷积池化和投影操作,Wc为卷积层中所有卷积核权重和偏置向量组成的参数矩阵;
用户信息抽取模块;首先选取需要处理的用户信息,以用户i(i∈(1,|U|),|U|为用户数量;将数值化后的字段输入到嵌入层得到用户i个人信息的嵌入矩阵Di;
将用户i个人信息嵌入矩阵输入到全连接层,得到用户i的个人信息的N维深层特征向量di;
di=wt·Di+bt (1-3)
其中wt和bt分别是全连接层的权重和偏置的权重参数矩阵;
融合推荐模块;对于用户i,随机生成一个符合高斯分布的N维用户基础特征向量bi;将其与用户信息深层特征向量融合得到用户的综合向量ui,如公式(1-4)所示
ui=bi+di (1-4)
其中di为用户个人信息的深层特征向量;
对于项目j,生成服从于高斯分布的N维项目特征基础向量oj,将其和项目信息深层特征向量融合得到项目综合特征向量vj,如公式(1-5)所示,tj为信息深层特征向量;
vj=oj+tj (1-5)
步骤五:确定损失函数和参数优化;为了防止模型过拟合,在项目信息抽取模块和用户信息抽取模块都设置了L2正则化约束;本模型中的损失函数L如公式(1-7)所示;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110336990.6A CN113111257A (zh) | 2021-03-30 | 2021-03-30 | 一种基于协同过滤的融合多源异构信息的推荐方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110336990.6A CN113111257A (zh) | 2021-03-30 | 2021-03-30 | 一种基于协同过滤的融合多源异构信息的推荐方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113111257A true CN113111257A (zh) | 2021-07-13 |
Family
ID=76712846
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110336990.6A Pending CN113111257A (zh) | 2021-03-30 | 2021-03-30 | 一种基于协同过滤的融合多源异构信息的推荐方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113111257A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115098931A (zh) * | 2022-07-20 | 2022-09-23 | 江苏艾佳家居用品有限公司 | 一种用于挖掘用户室内设计个性化需求的小样本分析方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3179434A1 (en) * | 2015-12-10 | 2017-06-14 | Deutsche Telekom AG | Designing context-aware recommendation systems, based on latent contexts |
CN109670121A (zh) * | 2018-12-18 | 2019-04-23 | 辽宁工程技术大学 | 基于注意力机制的项目级和特征级深度协同过滤推荐算法 |
CN109783739A (zh) * | 2019-01-23 | 2019-05-21 | 北京工业大学 | 一种基于层叠稀疏降噪自编码器增强的协同过滤推荐方法 |
CN110765260A (zh) * | 2019-10-18 | 2020-02-07 | 北京工业大学 | 一种基于卷积神经网络与联合注意力机制的信息推荐方法 |
CN111506830A (zh) * | 2020-04-09 | 2020-08-07 | 中南大学 | 融合社交信任影响力的协同过滤推荐算法 |
CN112328900A (zh) * | 2020-11-27 | 2021-02-05 | 北京工业大学 | 一种融合评分矩阵和评论文本的深度学习推荐方法 |
-
2021
- 2021-03-30 CN CN202110336990.6A patent/CN113111257A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3179434A1 (en) * | 2015-12-10 | 2017-06-14 | Deutsche Telekom AG | Designing context-aware recommendation systems, based on latent contexts |
CN109670121A (zh) * | 2018-12-18 | 2019-04-23 | 辽宁工程技术大学 | 基于注意力机制的项目级和特征级深度协同过滤推荐算法 |
CN109783739A (zh) * | 2019-01-23 | 2019-05-21 | 北京工业大学 | 一种基于层叠稀疏降噪自编码器增强的协同过滤推荐方法 |
CN110765260A (zh) * | 2019-10-18 | 2020-02-07 | 北京工业大学 | 一种基于卷积神经网络与联合注意力机制的信息推荐方法 |
CN111506830A (zh) * | 2020-04-09 | 2020-08-07 | 中南大学 | 融合社交信任影响力的协同过滤推荐算法 |
CN112328900A (zh) * | 2020-11-27 | 2021-02-05 | 北京工业大学 | 一种融合评分矩阵和评论文本的深度学习推荐方法 |
Non-Patent Citations (1)
Title |
---|
柳杨;吉立新;黄瑞阳;朱宇航;李星;: "基于门控卷积机制与层次注意力机制的多语义词向量计算方法", 中文信息学报, no. 07 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115098931A (zh) * | 2022-07-20 | 2022-09-23 | 江苏艾佳家居用品有限公司 | 一种用于挖掘用户室内设计个性化需求的小样本分析方法 |
CN115098931B (zh) * | 2022-07-20 | 2022-12-16 | 江苏艾佳家居用品有限公司 | 一种用于挖掘用户室内设计个性化需求的小样本分析方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109977413B (zh) | 一种基于改进cnn-lda的情感分析方法 | |
Zheng et al. | Feature engineering for machine learning: principles and techniques for data scientists | |
CN109241424B (zh) | 一种推荐方法 | |
CN109299396B (zh) | 融合注意力模型的卷积神经网络协同过滤推荐方法及系统 | |
Zhang et al. | Deep computation model for unsupervised feature learning on big data | |
Kim et al. | Convolutional matrix factorization for document context-aware recommendation | |
TWI612488B (zh) | 用於預測商品的市場需求的計算機裝置與方法 | |
CN110750640B (zh) | 基于神经网络模型的文本数据分类方法、装置及存储介质 | |
CN110674850A (zh) | 一种基于注意力机制的图像描述生成方法 | |
CN107688870B (zh) | 一种基于文本流输入的深度神经网络的分层因素可视化分析方法及装置 | |
CN107357793A (zh) | 信息推荐方法和装置 | |
CN112328900A (zh) | 一种融合评分矩阵和评论文本的深度学习推荐方法 | |
CN112597302B (zh) | 基于多维评论表示的虚假评论检测方法 | |
CN114936267A (zh) | 基于双线性池化的多模态融合在线谣言检测方法及系统 | |
CN114048305A (zh) | 一种基于图卷积神经网络的行政处罚文书的类案推荐方法 | |
CN115329207B (zh) | 智能销售信息推荐方法及系统 | |
Rauf et al. | Using BERT for checking the polarity of movie reviews | |
CN116304299A (zh) | 一种融和用户兴趣演化和梯度提升算法的个性化推荐方法 | |
CN113516094B (zh) | 一种用于为文档匹配评议专家的系统以及方法 | |
Sarang | Thinking Data Science: A Data Science Practitioner’s Guide | |
Sabban et al. | Automatic analysis of insurance reports through deep neural networks to identify severe claims | |
CN113111257A (zh) | 一种基于协同过滤的融合多源异构信息的推荐方法 | |
CN114077661A (zh) | 信息处理装置、信息处理方法和计算机可读介质 | |
Tian et al. | Chinese short text multi-classification based on word and part-of-speech tagging embedding | |
CN113821571B (zh) | 基于bert和改进pcnn的食品安全关系抽取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |