CN113111257A - 一种基于协同过滤的融合多源异构信息的推荐方法 - Google Patents

一种基于协同过滤的融合多源异构信息的推荐方法 Download PDF

Info

Publication number
CN113111257A
CN113111257A CN202110336990.6A CN202110336990A CN113111257A CN 113111257 A CN113111257 A CN 113111257A CN 202110336990 A CN202110336990 A CN 202110336990A CN 113111257 A CN113111257 A CN 113111257A
Authority
CN
China
Prior art keywords
user
information
item
vector
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110336990.6A
Other languages
English (en)
Inventor
魏宇旋
王勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN202110336990.6A priority Critical patent/CN113111257A/zh
Publication of CN113111257A publication Critical patent/CN113111257A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/3332Query translation
    • G06F16/3335Syntactic pre-processing, e.g. stopword elimination, stemming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/951Indexing; Web crawling techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

一种基于协同过滤的融合多源异构信息的推荐方法属于推荐系统相关技术领域。本方法中,首先分别针对商品和用户的辅助信息进行处理。对于项目的文本数据,首先进行预处理并经过保留上下文信息的词编码得到文本特征向量,最后使用门控卷积神经网络对文本向量进行处理得到商品的深层次特征。对于用户的辅助多源信息,首先对其各种属性信息进行编码,之后通过全连接网络从矩阵中提取用户的深层次特征。最后将用户和物品的深层特征与矩阵分解得到的用户和物品的特征向量结合,通过改进的损失函数进行训练。这种方法能有效利用项目和用户的辅助信息,缓解传统矩阵分解算法中的数据稀疏和冷启动问题。

Description

一种基于协同过滤的融合多源异构信息的推荐方法
技术领域
本专利涉及将项目的多源异构信息和协同过滤模型进行融合,并结合自然语言处理技术提高推荐算法准确性的方法,属于推荐系统相关技术领域。
背景技术
近年来,随着互联网技术的快速发展,全球数据规模呈现爆炸式增长,大量冗余的数据引发了严重的“信息过载”问题。在这种情况下,推荐系统作为一种解决“信息过载”问题的有效方法应运而生。推荐系统根据用户需求、爱好、兴趣等,通过推荐算法从海量数据中挖掘出用户感兴趣的项目(如商品、信息、音乐等),并将结果以个性化列表的形式推荐给用户,从而满足用户的需求。
发明内容
本发明旨在结合自然语言处理技术和推荐系统,提供一种利用深度神经网络抽取项目多源异构数据中的深层次特征,将其与用户和项目的基础特征向量进行融合得到用户和项目的综合特征向量,并利用综合特征向量进行推荐的一种方法。
该方法主要基于协同过滤推荐中的矩阵分解算法,在其实际应用中,评分数据的稀疏性和冷启动问题一直是制约该类模型进一步发展的主要因素。本方法中,首先分别针对商品和用户的辅助信息进行处理。对于项目的文本数据,首先进行预处理并经过保留上下文信息的词编码得到文本特征向量,最后使用门控卷积神经网络对文本向量进行处理得到商品的深层次特征。对于用户的辅助多源信息,首先对其各种属性信息进行编码,之后通过全连接网络从矩阵中提取用户的深层次特征。最后将用户和物品的深层特征与矩阵分解得到的用户和物品的特征向量结合,通过改进的损失函数进行训练。这种方法能有效利用项目和用户的辅助信息,缓解传统矩阵分解算法中的数据稀疏和冷启动问题。
本发明采用以下技术方案:
首先对使用到的数据集数中的项目和用户的相关信息进行获取,之后对其进行预处理,得到标准化的数据。然后分别对用户和项目的多源异构辅助信息进行抽取,将得到的深层次特征向量与矩阵分解算法结合完成推荐。基于以上思想,设计出基于协同过滤的融合多源异构信息的推荐方法步骤如下:
1)选定专业领域数据集,完善数据集相关信息
MovieLens-1M数据集:该数据集是由GroupLens组织提出的,包含了6040个用户对3382个电影1000209条匿名的评分数据以及电影的标签数据(年份、类型)和用户的相关信息(年龄、性别、职业)。利用网络爬虫从该数据集中电影的源网站IMDB上爬取电影内容相关的数据,包括电影摘要和评论。
2)对数据集中的数据进行分类,针对不同类别的数据分别进行预处理。对项目相关的文本数据进行降噪、分词、停用词移除等步骤后,再进行词嵌入后获得其向量化表示。对用户相关数据编码后进行拼接得到用户基础特征向量。
3)构建带有门控机制的卷积神经网络从由词向量组成的项目信息矩阵中提取物品辅助信息的深层特征向量。
4)构建全连接网络从用户的基础特征向量中提取出用户辅助信息的深层特征向量。
5)随机生成符合高斯分布的基础用户特征向量和基础项目特征向量,分别将二者与用户和项目辅助信息的深层特征向量相融合,得到最终的用户和项目的综合特征向量并进行推荐,通过损失函数对模型进行训练。
附图说明
图1为词向量表示图
图2为基于协同过滤的融合多源异构信息的推荐模型图
图3项目信息抽取模型图
具体实施方式
以下结合附图实例以及公式对本发明作进一步详细描述。
本发明提供了一种基于协同过滤的融合多源异构信息的推荐算法性能方法,该方法包括以下步骤:
步骤一:确定数据集,根据数据集补全实验中需要的辅助信息。从数据集中获取用户信息数据,项目信息数据和相应的评分数据。生成相应的用户-物品评分文件、用户辅助信息文件以及物品辅助信息文件。
步骤二:对数据集中不同类型数据进行预处理,方便后期使用。
数据预处理具体步骤如下:
将用户辅助信息文件进行预处理。首先数值化个人信息中的非数值字段,对年龄等特定范围类型字段进行范围表示。
对物品辅助信息文件中的电影摘要和前3条热度最高的评论作为文本数据,限制文本最大长度为500。之后进行数据清洗、分词和停用词过滤,选取TF-IDF(termfrequency–inverse document frequency)得分较高的前8000个单词作为关键词汇列表,从原始文档中删除所有不在词汇列表中的单词。最后与电影类型一起通过Word2Vec模型进行词嵌入后获得其K维实数向量。表1是实验数据预处理的示例,图1为词向量转化的示例。
Figure BDA0002998006620000031
表1实验数据预处理示例
步骤三:数据集的拆分和预处理。将数据集按照8:1:1的比例分为训练集,测试集和验证集。使用训练集和测试集训练模型,通过验证集上的实验结果评估算法的预测效果。为防止在训练过程中发生过拟合,本文在神经网络模型的每个全连接层中设置Dropout为0.3,即对于神经网络单元,按照30%概率将其暂时从网络中丢弃。
步骤四:构建基于协同过滤的推荐模型,该模型主要分为项目信息抽取模块,用户信息抽取模块和融合推荐模块。具体模型如图2所示。
项目信息抽取模块。对于项目j(j∈(1,|V|),|V|为项目数量),对其辅助信息文本预编码后得到项目的内容特征矩阵Tj。门控卷积层包含M个神经元,每个神经元具有一个卷积核和一个用于门控函数的卷积核,特征矩阵Tj经过门控卷积层的第m(m=1,2,3,…,M)个卷积核得到内容特征图zm,如公式(1-1)所示。
Figure BDA0002998006620000041
其中,*表示卷积操作,Wm和bm为卷积层中第m个神经元的卷积核的参数矩阵和偏置向量。Qm和cm为该神经元用于门控的卷积核的参数矩阵和偏置向量,两个卷积核矩阵维度一致,均为K×P,K为词向量维度,P可根据一次性提取单词信息的个数自由设置。σ为Sigmoid函数,定义为
Figure BDA0002998006620000042
e为自然对数。
Figure BDA0002998006620000043
为按位相乘操作。门控卷积层相比于传统卷积层,通过矩阵本身内容得到的非线性激活函数进行门控,可以提取更高层,更抽象的特征,使模型的收敛和训练变得更加简单。
之后,通过池化层对M个特征图进行最大值池化操作降维,即在M个特征图中各取一个最大值,并在N维空间进行投影,得到项目j的N维信息特征向量tj,N为接下来所有用于推荐的向量的维度,为根据模型需要自行设置的超参数,本数据集中取128。抽取操作可以通过简化后的公式(1-2)从Tj中得到。
tj=CNN(Wc,Tj) (1-2)
CNN表示门控卷积池化和投影操作,Wc为卷积层中所有卷积核权重和偏置向量组成的参数矩阵。具体模型如图3所示。
用户信息抽取模块。首先选取需要处理的用户信息(用户的id、性别、年龄、职业信息等),以用户i(i∈(1,|U|),|U|为用户数量)为例。将数值化后的字段输入到嵌入层得到用户i个人信息的嵌入矩阵Di。其中用户ID的输出维度设置为32,其余特征输出维度设置为8。
将用户i个人信息嵌入矩阵输入到全连接层,得到用户i的个人信息的N维深层特征向量di
di=wt·Di+bt (1-3)
其中wt和bt分别是全连接层的权重和偏置的权重参数矩阵。
融合推荐模块。对于用户i,随机生成一个符合高斯分布的N维用户基础特征向量bi。将其与用户信息深层特征向量融合得到用户的综合向量ui,如公式(1-4)所示
ui=bi+di (1-4)
其中di为用户个人信息的深层特征向量。
对于项目j,生成服从于高斯分布的N维项目特征基础向量oj,将其和项目信息深层特征向量融合得到项目综合特征向量vj,如公式(1-5)所示,tj为信息深层特征向量。
vj=oj+tj (1-5)
基于矩阵分解算法,模型的预测评分通过公式(1-6)得到,
Figure BDA0002998006620000051
表示用户i对物品j的预测评分。
Figure BDA0002998006620000052
步骤五:确定损失函数和参数优化。为了防止模型过拟合,在项目信息抽取模块和用户信息抽取模块都设置了L2正则化约束。本模型中的损失函数L如公式(1-7)所示。
Figure BDA0002998006620000053
其中,rij为评分矩阵中用户i对物品j的评分,
Figure BDA0002998006620000054
表示用户i对物品j的预测评分。|U|和|V|为用户和物品的数量。λu和λv为用户基础特征向量和物品基础特征向量的正则化系数,λ为神经网络中所有参数的正则化系数,三个正则化系数均为超参数,在本数据集上设置为0.02。
Figure BDA0002998006620000055
W为神经网络中所有参数。
根据损失函数,采用误差的反向传播算法可以对各个参数矩阵进行更新,根据需求进行一定次数的迭代之后可得到最终的模型,输入用户和项目的相关信息即可进行预测。
步骤六:对于得出的预测结果,将其与实际评分进行对比,计算得出该算法的均方根误差RMSE,从而对该模型的准确度进行评价。均方根误差的定义如公式(1-8)所示:
Figure BDA0002998006620000056
rij为评分矩阵中用户i对物品j的评分,
Figure BDA0002998006620000057
表示用户i对物品j的预测评分。|U|和|V|为用户和物品的数量。n为评分的数量,n=|U||V|。

Claims (1)

1.一种基于协同过滤的融合多源异构信息的推荐方法,其特征在于,包括以下步骤:步骤一:确定数据集,根据数据集补全实验中需要的辅助信息;从数据集中获取用户信息数据,项目信息数据和相应的评分数据;生成相应的用户-物品评分文件、用户辅助信息文件以及物品辅助信息文件;
步骤二:对数据集中不同类型数据进行预处理,方便后期使用;
数据预处理具体步骤如下:
将用户辅助信息文件进行预处理;首先数值化个人信息中的非数值字段,对特定范围类型字段进行范围表示;
对物品辅助信息文件限制文本最大长度为500,之后进行数据清洗、分词和停用词过滤,选取关键词汇列表,从原始文档中删除所有不在关键词汇列表中的单词;然后与电影类型一起通过Word2Vec模型进行词嵌入后获得其K维实数向量;
步骤三:数据集的拆分和预处理;将数据集分为训练集,测试集和验证集;使用训练集和测试集训练模型,通过验证集上的实验结果评估算法的预测效果;为防止在训练过程中发生过拟合,在神经网络模型的每个全连接层中设置Dropout为0.3;
步骤四:构建基于协同过滤的推荐模型,该模型分为项目信息抽取模块,用户信息抽取模块和融合推荐模块;
项目信息抽取模块;对于项目j(j∈(1,|V|),|V|为项目数量),对其辅助信息文本预编码后得到项目的内容特征矩阵Tj;门控卷积层包含M个神经元,每个神经元具有一个卷积核和一个用于门控函数的卷积核,特征矩阵Tj经过门控卷积层的第m(m=1,2,3,…,M)个卷积核得到内容特征图zm,如公式(1-1)所示;
Figure FDA0002998006610000011
其中,*表示卷积操作,Wm和bm为卷积层中第m个神经元的卷积核的参数矩阵和偏置向量;Qm和cm为该神经元用于门控的卷积核的参数矩阵和偏置向量,两个卷积核矩阵维度一致,均为K×P,K为词向量维度,P为一次性提取单词信息的个数;σ为Sigmoid函数,定义为
Figure FDA0002998006610000012
e为自然对数;
Figure FDA0002998006610000013
为按位相乘操作;
之后,通过池化层对M个特征图进行最大值池化操作降维,即在M个特征图中各取一个最大值,并在N维空间进行投影,得到项目j的N维信息深层特征向量tj,N为接下来所有用于推荐的向量的维度,抽取操作通过简化后的公式(1-2)从Tj中得到;
tj=CNN(Wc,Tj) (1-2)
CNN表示门控卷积池化和投影操作,Wc为卷积层中所有卷积核权重和偏置向量组成的参数矩阵;
用户信息抽取模块;首先选取需要处理的用户信息,以用户i(i∈(1,|U|),|U|为用户数量;将数值化后的字段输入到嵌入层得到用户i个人信息的嵌入矩阵Di
将用户i个人信息嵌入矩阵输入到全连接层,得到用户i的个人信息的N维深层特征向量di
di=wt·Di+bt (1-3)
其中wt和bt分别是全连接层的权重和偏置的权重参数矩阵;
融合推荐模块;对于用户i,随机生成一个符合高斯分布的N维用户基础特征向量bi;将其与用户信息深层特征向量融合得到用户的综合向量ui,如公式(1-4)所示
ui=bi+di (1-4)
其中di为用户个人信息的深层特征向量;
对于项目j,生成服从于高斯分布的N维项目特征基础向量oj,将其和项目信息深层特征向量融合得到项目综合特征向量vj,如公式(1-5)所示,tj为信息深层特征向量;
vj=oj+tj (1-5)
基于矩阵分解算法,模型的预测评分通过公式(1-6)得到,
Figure FDA0002998006610000021
表示用户i对物品j的预测评分;
Figure FDA0002998006610000022
步骤五:确定损失函数和参数优化;为了防止模型过拟合,在项目信息抽取模块和用户信息抽取模块都设置了L2正则化约束;本模型中的损失函数L如公式(1-7)所示;
Figure FDA0002998006610000023
其中,rij为评分矩阵中用户i对物品j的评分,
Figure FDA0002998006610000024
表示用户i对物品j的预测评分;|U|和|V|为用户和物品的数量;λu和λv为用户基础特征向量和物品基础特征向量的正则化系数,λ为神经网络中所有参数的正则化系数,三个正则化系数均为超参数设置为0.02;
Figure FDA0002998006610000025
W为神经网络中所有参数。
CN202110336990.6A 2021-03-30 2021-03-30 一种基于协同过滤的融合多源异构信息的推荐方法 Pending CN113111257A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110336990.6A CN113111257A (zh) 2021-03-30 2021-03-30 一种基于协同过滤的融合多源异构信息的推荐方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110336990.6A CN113111257A (zh) 2021-03-30 2021-03-30 一种基于协同过滤的融合多源异构信息的推荐方法

Publications (1)

Publication Number Publication Date
CN113111257A true CN113111257A (zh) 2021-07-13

Family

ID=76712846

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110336990.6A Pending CN113111257A (zh) 2021-03-30 2021-03-30 一种基于协同过滤的融合多源异构信息的推荐方法

Country Status (1)

Country Link
CN (1) CN113111257A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115098931A (zh) * 2022-07-20 2022-09-23 江苏艾佳家居用品有限公司 一种用于挖掘用户室内设计个性化需求的小样本分析方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3179434A1 (en) * 2015-12-10 2017-06-14 Deutsche Telekom AG Designing context-aware recommendation systems, based on latent contexts
CN109670121A (zh) * 2018-12-18 2019-04-23 辽宁工程技术大学 基于注意力机制的项目级和特征级深度协同过滤推荐算法
CN109783739A (zh) * 2019-01-23 2019-05-21 北京工业大学 一种基于层叠稀疏降噪自编码器增强的协同过滤推荐方法
CN110765260A (zh) * 2019-10-18 2020-02-07 北京工业大学 一种基于卷积神经网络与联合注意力机制的信息推荐方法
CN111506830A (zh) * 2020-04-09 2020-08-07 中南大学 融合社交信任影响力的协同过滤推荐算法
CN112328900A (zh) * 2020-11-27 2021-02-05 北京工业大学 一种融合评分矩阵和评论文本的深度学习推荐方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3179434A1 (en) * 2015-12-10 2017-06-14 Deutsche Telekom AG Designing context-aware recommendation systems, based on latent contexts
CN109670121A (zh) * 2018-12-18 2019-04-23 辽宁工程技术大学 基于注意力机制的项目级和特征级深度协同过滤推荐算法
CN109783739A (zh) * 2019-01-23 2019-05-21 北京工业大学 一种基于层叠稀疏降噪自编码器增强的协同过滤推荐方法
CN110765260A (zh) * 2019-10-18 2020-02-07 北京工业大学 一种基于卷积神经网络与联合注意力机制的信息推荐方法
CN111506830A (zh) * 2020-04-09 2020-08-07 中南大学 融合社交信任影响力的协同过滤推荐算法
CN112328900A (zh) * 2020-11-27 2021-02-05 北京工业大学 一种融合评分矩阵和评论文本的深度学习推荐方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
柳杨;吉立新;黄瑞阳;朱宇航;李星;: "基于门控卷积机制与层次注意力机制的多语义词向量计算方法", 中文信息学报, no. 07 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115098931A (zh) * 2022-07-20 2022-09-23 江苏艾佳家居用品有限公司 一种用于挖掘用户室内设计个性化需求的小样本分析方法
CN115098931B (zh) * 2022-07-20 2022-12-16 江苏艾佳家居用品有限公司 一种用于挖掘用户室内设计个性化需求的小样本分析方法

Similar Documents

Publication Publication Date Title
CN109977413B (zh) 一种基于改进cnn-lda的情感分析方法
Zheng et al. Feature engineering for machine learning: principles and techniques for data scientists
CN109241424B (zh) 一种推荐方法
CN109299396B (zh) 融合注意力模型的卷积神经网络协同过滤推荐方法及系统
Zhang et al. Deep computation model for unsupervised feature learning on big data
Kim et al. Convolutional matrix factorization for document context-aware recommendation
TWI612488B (zh) 用於預測商品的市場需求的計算機裝置與方法
CN110750640B (zh) 基于神经网络模型的文本数据分类方法、装置及存储介质
CN110674850A (zh) 一种基于注意力机制的图像描述生成方法
CN107688870B (zh) 一种基于文本流输入的深度神经网络的分层因素可视化分析方法及装置
CN107357793A (zh) 信息推荐方法和装置
CN112328900A (zh) 一种融合评分矩阵和评论文本的深度学习推荐方法
CN112597302B (zh) 基于多维评论表示的虚假评论检测方法
CN114936267A (zh) 基于双线性池化的多模态融合在线谣言检测方法及系统
CN114048305A (zh) 一种基于图卷积神经网络的行政处罚文书的类案推荐方法
CN115329207B (zh) 智能销售信息推荐方法及系统
Rauf et al. Using BERT for checking the polarity of movie reviews
CN116304299A (zh) 一种融和用户兴趣演化和梯度提升算法的个性化推荐方法
CN113516094B (zh) 一种用于为文档匹配评议专家的系统以及方法
Sarang Thinking Data Science: A Data Science Practitioner’s Guide
Sabban et al. Automatic analysis of insurance reports through deep neural networks to identify severe claims
CN113111257A (zh) 一种基于协同过滤的融合多源异构信息的推荐方法
CN114077661A (zh) 信息处理装置、信息处理方法和计算机可读介质
Tian et al. Chinese short text multi-classification based on word and part-of-speech tagging embedding
CN113821571B (zh) 基于bert和改进pcnn的食品安全关系抽取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination