CN116070025A - 一种基于联合评分预测和理由生成的可解释推荐方法 - Google Patents
一种基于联合评分预测和理由生成的可解释推荐方法 Download PDFInfo
- Publication number
- CN116070025A CN116070025A CN202310110534.9A CN202310110534A CN116070025A CN 116070025 A CN116070025 A CN 116070025A CN 202310110534 A CN202310110534 A CN 202310110534A CN 116070025 A CN116070025 A CN 116070025A
- Authority
- CN
- China
- Prior art keywords
- representing
- user
- item
- interpretation
- prediction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 230000003993 interaction Effects 0.000 claims abstract description 17
- 238000000605 extraction Methods 0.000 claims abstract description 12
- 239000013598 vector Substances 0.000 claims description 63
- 238000012360 testing method Methods 0.000 claims description 21
- 238000012549 training Methods 0.000 claims description 17
- 239000011159 matrix material Substances 0.000 claims description 15
- 230000007246 mechanism Effects 0.000 claims description 15
- 230000004913 activation Effects 0.000 claims description 14
- 238000012512 characterization method Methods 0.000 claims description 11
- 230000008451 emotion Effects 0.000 claims description 11
- 238000000354 decomposition reaction Methods 0.000 claims description 7
- 238000004519 manufacturing process Methods 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 6
- 241000288105 Grus Species 0.000 claims description 5
- 238000007781 pre-processing Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000010606 normalization Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 abstract description 5
- 238000011156 evaluation Methods 0.000 abstract 1
- 230000006870 function Effects 0.000 description 18
- 238000012545 processing Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
- G06F40/186—Templates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Machine Translation (AREA)
Abstract
本发明属于推荐系统领域,具体涉及一种基于联合评分预测和理由生成的可解释推荐方法,包括:构建联合评分预测和理由生成的可解释推荐模型,评分预测模块包含用户项目历史交互中得到用户物品的自由嵌入,通过基于注意力的方面提取模块分别从用户和项目的评论集合中提取方面词并嵌入到相同的空间,分别输入到多层感知机中,在预测层结合两部分进行评分预测并进行推荐和生成推荐解释;本发明同时考虑用户历史交互中的评分数据和评论数据,并将其映射到同一空间更好的进行评分预测,提高了推荐的准确性,同时在解释生成的过程中考虑生成式和模板式的优点,解释的生成过程由模板进行指导,使得模板适应于所给定的特征,提高了解释的质量。
Description
技术领域
本发明属于推荐系统领域,具体涉及一种基于联合评分预测和理由生成的可解释推荐方法。
背景技术
随着近年来互联网技术的高速发展,信息过载的问题也日益严重,推荐系统通过从大量产品集合中找到用户可能感兴趣的项目来解决信息过载问题,它通过分析用户历史行为帮助用户完成信息的筛选,它可以发现用户的潜在兴趣偏好。
如今推荐系统已经应用到我们生活中的各个方面,并且催生了很多新的推荐技术,推荐算法的准确度也得到了改进,极大地完善了推荐效果。传统的推荐系统往往缺乏对推荐结果的解释,而可解释推荐指的是在给用户推荐商品的同时,给出推荐该商品的解释。通过给出推荐的解释,可以增加系统的透明度和用户的信任度以及使用体验,帮助用户更快速更准确地做出选择。
目前关于基于评论的推荐的研究可以分为两类:面向准确性的建模和可解释性建模。基于嵌入的推荐模型在精度建模方面表现出了最先进的性能,第一类的研究主要利用用户和商品评论中的内容嵌入,并将内容嵌入与协同过滤相融合,增强用户和商品的嵌入表示能力。第二类考虑在推荐商品时为用户提供说明文字,这样更容易说服用户。这类模型借鉴了基于编码器-解码器的语言生成技术的成功,仍然存在几个问题:(1)多数推荐模型倾向于推荐的准确性,而忽略推荐结果的有效性和说服性;(2)目前生成推荐的方法要么局限于预定义的句子模板,限制了句子的表达能力,要么选择自由风格的句子生成,使得句子质量难以控制。
发明内容
为解决上述技术问题,本发明提出一种基于联合评分预测和理由生成的可解释推荐方法,包括以下步骤:
S1:获取用户项目交互历史数据,对获取的用户项目交互历史数据进行数据集划分,生成训练数据集和测试数据集,并对训练数据集中的用户项目交互历史数据进行预处理,生成解释词汇表;
所述用户项目交互历史数据,包括:用户对项目的评分数据、评论数据;
S2:建立联合评分预测和解释产生模型;
所述联合评分预测和解释产生模型,包括:偏好评分预测模块和解释生产模块;
所述偏好评分预测模块,包括:矩阵分解层、基于注意力机制的方面提取层、预测层;
所述解释生产模块,包括:编码器、解码器;
S3:将训练数据集输入联合评分预测和解释产生模型进行模型的训练,通过损失函数计算联合评分预测和解释产生模型的损失直至收敛,得到训练好的联合评分预测和解释产生模型;
S4:将测试数据集输入训练好的联合评分预测和解释产生模型,得到目标用户项目的评分预测,选择评分最高的项目对用户进行推荐,并生成相应的推荐解释;
S41:将测试数据集输入偏好评分预测模块,测试数据集中的用户对项目的评分数据通过矩阵分解层,得到用户和项目的自由嵌入表征,用户和项目的自由嵌入表征通过MLP得到潜在特征空间的编码向量;
S42:将测试数据集输入偏好评分预测模块,测试数据集中的用户项目的评论数据通过基于注意力机制的方面提取层进行提取评论句子的方面表征,再通过平均池化操作分别得到用户、项目的表征,并通过MLP得到方面特征空间的编码向量;
S43:将潜在特征空间的编码向量和方面特征空间的编码向量通过预测层进行评分预测,得到用户对项目的评分,选择评分最高的项目对用户进行推荐;
S44:将用户对项目的评分作为解释语句的情感判断,同用户项目对输入到解释产生模块中通过编码器中,解码器通过MLP多层感知机进行初始化信息得到的初始化向量,解码器采用门控单元的组合两个GRU生成最终的隐藏状态,根据初始化向量和最终的隐藏状态生成解释词在词汇表中的概率,并将概率最大的词汇作为生成的推荐解释。
本发明的有益效果:本发明同时考虑用户历史交互中的评分数据和评论数据,并将其映射到同一空间更好的进行评分预测,提高了推荐的准确性,同时在解释生成的过程中考虑生成式和模板式的优点,解释的生成过程由模板进行指导,使得模板适应于所给定的特征,提高了解释的质量。
附图说明
图1为本发明的整体流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
一种基于联合评分预测和理由生成的可解释推荐方法,如图1所示,包括:
S1:获取用户项目交互历史数据,对获取的用户项目交互历史数据进行数据集划分,生成训练数据集和测试数据集,并对训练数据集中的用户项目交互历史数据进行预处理,生成解释词汇表;
所述用户项目交互历史数据,包括:用户对项目的评分数据、评论数据;
S2:建立联合评分预测和解释产生模型;
所述联合评分预测和解释产生模型,包括:偏好评分预测模块和解释生产模块;
所述偏好评分预测模块,包括:矩阵分解层、基于注意力机制的方面提取层、预测层;
所述解释生产模块,包括:编码器、解码器;
S3:将训练数据集输入联合评分预测和解释产生模型进行模型的训练,通过损失函数计算联合评分预测和解释产生模型的损失直至收敛,得到训练好的联合评分预测和解释产生模型;
S4:将测试数据集输入训练好的联合评分预测和解释产生模型,得到目标用户项目的评分预测,选择评分最高的项目对用户进行推荐,并生成相应的推荐解释;
S41:将测试数据集输入偏好评分预测模块,测试数据集中的用户对项目的评分数据通过矩阵分解层,得到用户和项目的自由嵌入表征,用户和项目的自由嵌入表征通过MLP得到潜在特征空间的编码向量;
S42:将测试数据集输入偏好评分预测模块,测试数据集中的用户项目的评论数据通过基于注意力机制的方面提取层进行提取评论句子的方面表征,再通过平均池化操作分别得到用户、项目的表征,并通过MLP得到方面特征空间的编码向量;
S43:将潜在特征空间的编码向量和方面特征空间的编码向量通过预测层进行评分预测,得到用户对项目的评分,选择评分最高的项目对用户进行推荐;
S44:将用户对项目的评分作为解释语句的情感判断,同用户项目对输入到解释产生模块中通过编码器中,解码器通过MLP多层感知机进行初始化信息得到的初始化向量,解码器采用门控单元的组合两个GRU生成最终的隐藏状态,根据初始化向量和最终的隐藏状态生成解释词在词汇表中的概率,并将概率最大的词汇作为生成的推荐解释。
对训练数据集中的用户项目交互历史数据进行预处理,包括:
S11:删除训练数据集中的用户对项目的评分数据的所有的停顿词和标点符号;
S12:对处理后的用户对项目的评分数据采用gensim工具包中的Word2vec模型生成解释词汇表。
通过损失函数计算联合评分预测和解释产生模型的损失直至收敛,得到训练好的联合评分预测和解释产生模型,包括:
其中,表示联合评分预测和解释产生模型的损失函数,表示基于注意力机制的方面提取层的损失系数,表示基于注意力机制的方面提取层的损失函数 表示重构句子嵌入的损失函数的损失系数,表示重构句子嵌入的损失函数,rw表示利用方面矩阵重构的句子嵌入向量,zw表示基于注意力机制句子嵌入向量,z′w表示基于方面矩阵重构的句子嵌入向量,表示归一正则化损失系数,表示基于注意力机制的方面提取层的归一正则化损失函数,λr表示偏好评分预测模块的损失系数,表示偏好评分预测模块的损失函数,x表示训练集中的用户-项目对,ru,i表示在训练数据集中用户u对项目I的实际评分,表示预测数据集中用户u对项目i的预测评分,表示解释生成模块的损失系数,表示解释生成模块的损失函数,a表示用户-项目对,表示用户u和项目i在解释词汇表的事实解释,p(yt)表示对单词yt预测的概率,λn表示全局参数的权重,||Θ||表示全局参数。
测试数据集中的用户对项目的评分数据通过矩阵分解层,得到用户和项目的自由嵌入表征,包括:
用户和项目的自由嵌入表征通过MLP中处理得到潜在特征空间的编码向量,包括:
通过潜在特征空间中MLP中处理总体表示:
通过潜在特征空间中MLP中的每一层的激活函数处理:
用户项目的评论数据通过基于方面注意力层进行提取评论句子的方面表征,包括:
S421:将测试集中用户和项目的评论数据送入词嵌入矩阵,得到每个单词的词嵌入向量;
S422:对词嵌入向量采用注意力机制选择最相关的词,捕获关于句子方面最相关的信息,得到句子的嵌入;
S423:将得到的句子嵌入通过激活函数计算得到K个方面嵌入的权重向量,其中每个分量表示该句子属于该方面的概率;
S424:通过方面嵌入的权重向量的线性组合实现句子嵌入向量的重构,最终得到评论句子的方面表征。
用户项目的评论数据通过基于方面注意力层进行提取评论句子的方面表征,其处理过程公式表示为:
s=[w0,w1,W2,w3……wT]
di=(ewt)T.Md.ys
其中,T表示评论句的长度,ewt表示评论句中每个词的one-hot编码后的向量,用来将全局上下文嵌入和词嵌入做一个映射,ys表示句子全局上下文信息,表示K个方面嵌入的权重向量,将zw从d维降低到K维,然后采用softmax进行标准化,表示方面矩阵,rw表示利用矩阵重构的句子嵌入向量。
通过平均池化操作分别得到用户、项目的表征,包括:
用户、项目的表征通过MLP得到方面特征空间的编码向量,包括:
通过方面特征空间中MLP中处理总体表示:
通过方面特征空间中MLP中的每一层的激活函数处理:
将潜在特征空间的编码向量和方面特征空间的编码向量通过预测层进行评分预测,得到用户对项目的评分,包括:
将用户对项目的评分作为解释语句的情感判断,同用户项目对输入到解释产生模块中作为初始状态通过编码器进行编码,包括:
解码器采用门控单元组合两个GRU生成最终的隐藏状态,包括:
其中,ht表示最终的隐藏状态,k表示调整上下文GRU和特征GRU输出的比例系数,wc表示门控单元的第一权重,wβ表示门控单元的第二权重,表示上下文GRU的输出, 表示上下文GRU控制保留多少过去的信息,表示上下文GRU的候选隐藏状态, 表示上下文GRU的权重,ft-1表示前一时刻生成的单词表征,表示上下文GRU控制遗忘多少过去的信息,ht-1表示前一时刻的隐藏状态,表示上下文GRU的偏差,表示特征GRU的输出, 表示特征GRU控制保留多少过去的信息,表示特征GRU的候选隐藏状态tanh(.)表示激活函数,表示特征GRU的权重,表示特征GRU的偏差,xf表示从用户评论中提取的特征,特征GRU控制遗忘多少过去的信息,⊙表示矩阵的哈达玛积。
根据初始化向量和最终的隐藏状态生成解释词在词汇表中的概率,包括:
其中,视为在词汇表上的分布概率,Wv,bv分别表示解释生成模块的权重和偏差,y<t表示在时刻t之前产生的词,yt表示在当前时刻预测的词语,softmax(.)表示激活函数,h0表示解码器的初始化状态,ht表示最终的隐藏状态。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (10)
1.一种基于联合评分预测和理由生成的可解释推荐方法,其特征在于,包括:
S1:获取用户项目交互历史数据,对获取的用户项目交互历史数据进行数据集划分,生成训练数据集和测试数据集,并对训练数据集中的用户项目交互历史数据进行预处理,生成解释词汇表;
所述用户项目交互历史数据,包括:用户对项目的评分数据、评论数据;
S2:建立联合评分预测和解释产生模型;
所述联合评分预测和解释产生模型,包括:偏好评分预测模块和解释生产模块;
所述偏好评分预测模块,包括:矩阵分解层、基于注意力机制的方面提取层、预测层;
所述解释生产模块,包括:编码器、解码器;
S3:将训练数据集输入联合评分预测和解释产生模型进行模型的训练,通过损失函数计算联合评分预测和解释产生模型的损失直至收敛,得到训练好的联合评分预测和解释产生模型;
S4:将测试数据集输入训练好的联合评分预测和解释产生模型,得到目标用户项目的评分预测,选择评分最高的项目对用户进行推荐,并生成相应的推荐解释;
S41:将测试数据集输入偏好评分预测模块,测试数据集中的用户对项目的评分数据通过矩阵分解层,得到用户和项目的自由嵌入表征,用户和项目的自由嵌入表征通过MLP得到潜在特征空间的编码向量;
S42:将测试数据集输入偏好评分预测模块,测试数据集中的用户项目的评论数据通过基于注意力机制的方面提取层进行提取评论句子的方面表征,再通过平均池化操作分别得到用户、项目的表征,并通过MLP得到方面特征空间的编码向量;
S43:将潜在特征空间的编码向量和方面特征空间的编码向量通过预测层进行评分预测,得到用户对项目的评分,选择评分最高的项目对用户进行推荐;
S44:将用户对项目的评分作为解释语句的情感判断,同用户项目对输入到解释产生模块中通过编码器中,解码器通过MLP多层感知机进行初始化信息得到的初始化向量,解码器采用门控单元的组合两个GRU生成最终的隐藏状态,根据初始化向量和最终的隐藏状态生成解释词在词汇表中的概率,并将概率最大的词汇作为生成的推荐解释。
2.根据权利要求1所述的一种基于联合评分预测和理由生成的可解释推荐方法,其特征在于,对训练数据集中的用户项目交互历史数据进行预处理,包括:
S11:删除训练数据集中的用户对项目的评分数据的所有的停顿词和标点符号;
S12:对处理后的用户对项目的评分数据采用gensim工具包中的Word2vec模型生成解释词汇表。
3.根据权利要求1所述的一种基于联合评分预测和理由生成的可解释推荐方法,其特征在于,通过损失函数计算联合评分预测和解释产生模型的损失直至收敛,得到训练好的联合评分预测和解释产生模型,包括:
其中,表示联合评分预测和解释产生模型的损失函数,表示基于注意力机制的方面提取层的损失系数,表示基于注意力机制的方面提取层的损失函数 表示重构句子嵌入的损失函数的损失系数,表示重构句子嵌入的损失函数,rw表示利用方面矩阵重构的句子嵌入向量,zw表示基于注意力机制句子嵌入向量,z′ w表示基于方面矩阵重构的句子嵌入向量,表示归一正则化损失系数,表示基于注意力机制的方面提取层的归一正则化损失函数,表示偏好评分预测模块的损失系数,表示偏好评分预测模块的损失函数, 表示训练集中的用户-项目对,ru,i表示在训练数据集中用户u对项目I的实际评分,表示预测数据集中用户u对项目i的预测评分,表示解释生成模块的损失系数,表示解释生成模块的损失函数,a表示用户-项目对,表示用户u和项目i在解释词汇表的事实解释,p(yt)表示对单词yt预测的概率,表示全局参数的权重,||Θ||表示全局参数。
5.根据权利要求1所述的一种基于联合评分预测和理由生成的可解释推荐方法,其特征在于,用户项目的评论数据通过基于方面注意力层进行提取评论句子的方面表征,包括:
S421:将测试集中用户和项目的评论数据送入词嵌入矩阵,得到每个单词的词嵌入向量;
S422:对词嵌入向量采用注意力机制选择最相关的词,捕获关于句子方面最相关的信息,得到句子的嵌入;
S423:将得到的句子嵌入通过激活函数计算得到K个方面嵌入的权重向量,其中每个分量表示该句子属于该方面的概率;
S424:通过方面嵌入的权重向量的线性组合实现句子嵌入向量的重构,最终得到评论句子的方面表征。
9.根据权利要求1所述的一种基于联合评分预测和理由生成的可解释推荐方法,其特征在于,解码器采用门控单元组合两个GRU生成最终的隐藏状态,包括:
其中,ht表示最终的隐藏状态,k表示调整上下文GRU和特征GRU输出的比例系数,wc表示门控单元的第一权重,wβ表示门控单元的第二权重,表示上下文GRU的输出, 表示上下文GRU控制保留多少过去的信息,表示上下文GRU的候选隐藏状态, 表示上下文GRU的权重,ft-1表示前一时刻生成的单词表征,表示上下文GRU控制遗忘多少过去的信息,ht-1表示前一时刻的隐藏状态,表示上下文GRU的偏差,表示特征GRU的输出, 表示特征GRU控制保留多少过去的信息,表示特征GRU的候选隐藏状态tanh(.)表示激活函数,表示特征GRU的权重,表示特征GRU的偏差,xf表示从用户评论中提取的特征,特征GRU控制遗忘多少过去的信息,⊙表示矩阵的哈达玛积。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310110534.9A CN116070025A (zh) | 2023-02-14 | 2023-02-14 | 一种基于联合评分预测和理由生成的可解释推荐方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310110534.9A CN116070025A (zh) | 2023-02-14 | 2023-02-14 | 一种基于联合评分预测和理由生成的可解释推荐方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116070025A true CN116070025A (zh) | 2023-05-05 |
Family
ID=86183499
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310110534.9A Pending CN116070025A (zh) | 2023-02-14 | 2023-02-14 | 一种基于联合评分预测和理由生成的可解释推荐方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116070025A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116701773A (zh) * | 2023-08-04 | 2023-09-05 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 可解释推荐方法及用于可解释推荐的装置 |
-
2023
- 2023-02-14 CN CN202310110534.9A patent/CN116070025A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116701773A (zh) * | 2023-08-04 | 2023-09-05 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 可解释推荐方法及用于可解释推荐的装置 |
CN116701773B (zh) * | 2023-08-04 | 2023-11-10 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 可解释推荐方法及用于可解释推荐的装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107832663B (zh) | 一种基于量子理论的多模态情感分析方法 | |
CN108647226B (zh) | 一种基于变分自动编码器的混合推荐方法 | |
CN111127146B (zh) | 基于卷积神经网络与降噪自编码器的信息推荐方法及系统 | |
CN111414476A (zh) | 一种基于多任务学习的属性级情感分析方法 | |
CN112579778A (zh) | 基于多层次的特征注意力的方面级情感分类方法 | |
CN111930918B (zh) | 一种跨模态的双边个性化人机社交对话生成方法及系统 | |
CN110046356B (zh) | 标签嵌入的微博文本情绪多标签分类方法 | |
CN111966800A (zh) | 情感对话生成方法、装置及情感对话模型训练方法、装置 | |
CN110188158B (zh) | 关键词及话题标签生成方法、装置、介质及电子设备 | |
CN112307168A (zh) | 基于人工智能的问诊会话处理方法、装置和计算机设备 | |
US20240114158A1 (en) | Hierarchical Video Encoders | |
CN112100375A (zh) | 文本信息生成方法、装置、存储介质及设备 | |
CN112256866A (zh) | 一种基于深度学习的文本细粒度情感分析方法 | |
CN111897954A (zh) | 一种用户评论方面挖掘系统、方法、及存储介质 | |
CN114648031A (zh) | 基于双向lstm和多头注意力机制的文本方面级情感识别方法 | |
CN116070025A (zh) | 一种基于联合评分预测和理由生成的可解释推荐方法 | |
CN115270752A (zh) | 一种基于多层次对比学习的模板句评估方法 | |
CN116680363A (zh) | 一种基于多模态评论数据的情感分析方法 | |
CN116110565A (zh) | 一种基于多模态深度神经网络对人群抑郁状态辅助检测的方法 | |
CN116245110A (zh) | 基于图注意力网络的多维度信息融合用户立场检测方法 | |
CN116127175A (zh) | 一种基于多模态特征融合的移动应用分类与推荐方法 | |
CN116910294A (zh) | 一种基于情感分析的图像滤镜生成方法 | |
CN117034921B (zh) | 一种基于用户数据的提示学习训练方法、装置和介质 | |
CN116881689A (zh) | 知识增强的用户多模态在线评论质量评估方法和系统 | |
CN115422329A (zh) | 一种基于知识驱动的多路筛选融合对话生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |