CN110717335A - 用户评论数据处理方法、装置、存储介质及电子设备 - Google Patents

用户评论数据处理方法、装置、存储介质及电子设备 Download PDF

Info

Publication number
CN110717335A
CN110717335A CN201910897914.5A CN201910897914A CN110717335A CN 110717335 A CN110717335 A CN 110717335A CN 201910897914 A CN201910897914 A CN 201910897914A CN 110717335 A CN110717335 A CN 110717335A
Authority
CN
China
Prior art keywords
feature
text
image
fusion
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910897914.5A
Other languages
English (en)
Inventor
乔宇
彭小江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Institute of Advanced Technology of CAS
Original Assignee
Shenzhen Institute of Advanced Technology of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Institute of Advanced Technology of CAS filed Critical Shenzhen Institute of Advanced Technology of CAS
Priority to CN201910897914.5A priority Critical patent/CN110717335A/zh
Publication of CN110717335A publication Critical patent/CN110717335A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于计算机及通信技术领域,尤其涉及一种用户评论数据处理方法、装置、计算机可读存储介质及电子设备。所述方法首先获取包括待识别文本和待识别图像的用户评论数据;然后从用户评论数据中提取出文本特征和图像特征;接着对所述文本特征和所述图像特征进行特征融合,得到与用户评论数据对应的融合特征;最后将用户评论数据对应的融合特征输入事先训练好的模型,输出与用户评论数据对应的融合特征的情感倾向类型。本发明实施例,能够提高用户评论数据情感倾向确定的速率和准确性。

Description

用户评论数据处理方法、装置、存储介质及电子设备
技术领域
本申请涉及计算机及通信技术领域,具体而言,涉及一种用户评论数据处理方法、装置、计算机可读存储介质及电子设备。
背景技术
随着智能手机、平板电脑等移动终端的快速兴起,用户与外界的联系更加紧密。例如,用户可能不选择到实体店购物而选择网上购物,而用户在网购后一般会在商品评论区对所购商品进行评价。对其他用户或商家而言,由于评论用户的表达内容不同,可能会传递不同的情感信息。比如:用户对某款口腔用品的评价“一直都在使用的,口腔品牌,去除口腔细菌棒棒哒”,表达了用户对该款口腔用品的好评;用户对某款雨伞评价“垃圾货,用两次伞架就吹断了”,表达了用户对该款雨伞的差评。
在现有技术中,在产品的评论页面直接分类出好评、中评和差评,让用户从三种类型中选择一种进行填写。然而,在这种方式中,用户在填写评论时,大多出于应付性质,并没有表达出个人的真实使用感受,对产品改进价值有限,甚至会引入改进误区。同时,商家也有可能删除差评,给用户错误的引导,造成很多作弊的机会。
在另外一种技术中,由专门人工编辑团队进行用户评价情感倾向的分析和筛选。然而在这种基于人工编辑的审阅方式中,一方面审核量大、无法实时处理,耗费人力多;另一方面人工编辑带有强烈的主观色彩,情感倾向分析结果的准确度不高。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本申请的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
有鉴于此,本发明实施例提供了一种用户评论数据处理方法、装置、计算机存储介质及电子设备,以解决现有用户评论数据情感倾向确定速率慢且准确性低的问题。
根据本发明实施例的一个方面,提供了一种用户评论数据处理方法,包括:
获取用户评论数据,所述用户评论数据包括待识别文本和待识别图像;对所述待识别文本和所述待识别图像分别进行特征提取,得到文本特征和图像特征;对所述文本特征和所述图像特征进行特征融合,得到融合特征;根据所述融合特征确定所述用户评论数据的情感倾向类型。
在本发明的一些实施例中,所述对所述文本特征和所述图像特征进行特征融合,得到融合特征,包括:使用预设的第一模型对所述文本特征和所述图像特征进行特征融合,得到所述融合特征,所述第一模型的输入为所述文本特征和所述图像特征,输出为所述融合特征,且所述第一模型为经过预设的第一训练样本集合训练得到的模型,所述第一训练样本集合包括N1个第一训练样本,N1为正整数,其中,每个第一训练样本包括一条用户评论样本数据中的文本特征、图像特征以及与所述文本特征和所述图像特征对应的融合特征。
在本发明的一些实施例中,所述使用预设的第一模型对所述文本特征和所述图像特征进行特征融合,得到所述融合特征,包括:使用所述第一模型中预设的第r个第一全连接层对所述图像特征进行降维处理,得到第r个图像子特征,1≤r≤R,R为正整数;使用所述第一模型中预设的第r个第二全连接层对所述文本特征进行降维处理,得到第r个文本子特征;对第r个图像子特征和第r个文本子特征进行计算,得到第r个融合子特征;对各个融合子特征进行累加,得到所述融合特征。
在本发明的一些实施例中,所述对所述待识别文本和所述待识别图像分别进行特征提取,得到文本特征和图像特征,包括:使用预设的第二模型对所述待识别文本进行特征提取,得到所述文本特征,所述第二模型的输入为所述待识别文本,输出为所述文本特征,且所述第二模型为经过预设的第二训练样本集合训练得到的模型,所述第二训练样本集合包括N2个第二训练样本,N2为正整数,其中,每个第二训练样本包括一条用户评论样本数据的待识别文本和与所述待识别文本对应的文本特征。
在本发明的一些实施例中,所述对所述待识别文本和所述待识别图像分别进行特征提取,得到文本特征和图像特征,包括:使用预设的第三模型对所述待识别图像进行特征提取,得到所述图像特征,所述第三模型的输入为所述待识别图像,输出为所述图像特征,且所述第三模型为经过预设的第三训练样本集合训练得到的模型,所述第三训练样本集合包括N3个第三训练样本,N3为正整数,其中,每个第三训练样本包括一条用户评论样本数据的待识别图像和与所述待识别图像对应的图像特征。
在本发明的一些实施例中,所述根据所述融合特征确定所述用户评论数据的情感倾向类型,包括:使用预设的第四模型对所述融合特征进行处理,得到与所述融合特征对应的情感倾向类型,所述第四模型的输入为所述融合特征,输出为与所述融合特征对应的情感倾向类型,且所述第四模型为经过预设的第四训练样本集合训练得到的模型,所述第四训练样本集合包括N4个第四训练样本,N4为正整数,其中,每个第四训练样本包括一条用户评论样本数据的融合特征和与所述融合特征对应的情感倾向类型。
在本发明的一些实施例中,所述使用预设的第四模型对所述融合特征进行处理,得到与所述融合特征对应的情感倾向类型,包括:使用预设的第四模型计算所述融合特征对应的用户评论数据的情感得分;将所述用户评论数据的情感得分转换为对应的概率特征值;根据所述概率特征值,确定与所述融合特征对应的情感倾向类型。
根据本发明实施例的一个方面,提供了一种用户评论数据处理装置,包括:
图像和文本获取模块,用于获取用户评论数据,所述用户评论数据包括待识别文本和待识别图像;特征提取模块,用于对所述待识别文本和所述待识别图像分别进行特征提取,得到文本特征和图像特征;特征融合模块,用于对所述文本特征和所述图像特征进行特征融合,得到融合特征;分类模块,用于根据所述融合特征确定所述用户评论数据的情感倾向类型。
根据本发明实施例的一个方面,提供了一种电子设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时,执行如上所述的方法。
根据本发明实施例的一个方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时,执行如上所述的方法。
本发明实施例与现有技术相比存在的有益效果是:本发明实施例首先获取包括待识别文本和待识别图像的用户评论数据;然后利用事先训练好的模型对待识别文本和待识别图像进行提取,得到文本特征和图像特征;之后,利用事先训练好的模型对所述文本特征和所述图像特征进行特征融合,得到与用户评论数据对应的融合特征;最后将与用户评论数据对应的融合特征输入事先训练好的模型,输出与用户评论数据对应的融合特征的情感倾向类型。通过本发明实施例,无需耗费人工,即可实现用户评论数据情感倾向类型的自动确定,提高了用户评论数据情感倾向类型确定的效率。另外,本方法不同于现有技术中单纯的填写式情感倾向分析,而是基于用户真实的评论内容和产品特征来确定用户情感倾向,提高了用户情感倾向类型确定的准确性。
本发明的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本发明的实践而习得。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1示出了可以应用在本发明实施例的用户评论数据处理方法或用户评论数据处理装置的示例性系统架构的示意图;
图2示意性示出了根据本发明的一个实施例的用户评论数据处理方法的流程图;
图3示意性示出了根据本发明的一个实施例的步骤S240的具体流程图;
图4A-4F是本发明的一个实施例的用户评论数据的界面示意图;
图5示意性示出了应用本发明的一个实施例对某款商品的用户评论数据进行处理的流程图;
图6A-6C示意性示出了根据本发明的一个实施例的用户评论数据处理方法应用于某款商品的用户评论数据的处理结果示意图;
图7示意性示出了根据本发明的一个实施例的用户评论数据处理装置的框图;
图8为根据本发明的一个实施例的一种电子设备的示意框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些示例实施方式使得本公开的描述将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多示例实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的示例实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、步骤等。在其它情况下,不详细示出或描述公知结构、方法、实现或者操作以避免喧宾夺主而使得本公开的各方面变得模糊。
附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
如图1所示,系统架构100可以包括终端设备(如图1中所示移动电话101、平板电脑102和便携式计算机103中的一种或多种,当然也可以是其它的具有显示屏幕,并且可以接收另一终端设备的呼叫信号并进行通信的终端设备等等)、网络104和服务器105。网络104用以在终端设备和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线通信链路、无线通信链路等等。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。比如服务器105可以是多个服务器组成的服务器集群等。
在本申请的一个实施例中,服务器105可以获取用户通过终端设备(如图1中所示移动电话101、平板电脑102和便携式计算机103等)发表的评论数据,这些评论数据可以是针对某些商品的评论文本及相应图像数据,比如针对某款男士冬装或某款韩式护肤品的评论文本及图像数据。当服务器105获取用户通过终端设备发表的评论数据之后,可以按照本发明实施例提供的用户评论数据处理方法对上述评论数据进行处理,从而快速、准确地确定与上述评论数据对应的用户情感倾向类型。
需要说明的是,本发明实施例所提供的用户评论数据处理方法一般由服务器105执行,相应地,用户评论数据处理装置一般设置于服务器105中。但是,在本发明的其它实施例中,终端设备也可以与服务器具有相似的功能,从而执行本发明实施例所提供的用户评论数据处理方法,本示例性实施例中对此不做特殊限定。
以下对本申请实施例的技术方案的实现细节进行详细阐述:
图2示意性示出了根据本申请的一个实施例的用户评论数据处理方法的流程图,该用户评论数据处理方法可以由服务器执行,该服务器可以是图1中所示的服务器105.参照图2所示,该用户评论数据处理方法至少包括步骤S210至步骤S240,详细介绍如下:
步骤S210、获取用户评论数据,所述用户评论数据包括待识别文本和待识别图像;
可以理解的是,数据包括数字、文字、图像、声音等。而用户评论数据,特指与用户评论相关的数字、文字、图像、声音等信息。所谓文本,是指由一定的符号或符码组成的信息结构体,这种结构体可采用不同的表现形态,如语言、文字、影像等。文本是由特定的人制作的,文本的语义不可避免地会反映人的特定立场、观点、价值和利益。因此,对文本内容进行特征提取,可以推断文本提供者的意图和目的。所谓图像,是指具有视觉效果的画面。图像根据图像记录方式的不同可分为两大类:模拟图像和数字图像。模拟图像可以通过某种物理量(如光、电等)的强弱变化来记录图像亮度信息,例如模拟电视图像;而数字图像则是用计算机存储的数据来记录图像上各点的亮度信息。
在本发明一个实施例中,所述用户评论数据包括待识别文本及待识别图像。
本实施例所称的待识别文本,是指用户针对评论对象的情感评价内容。而本实施例所称的待识别图像,是指用户评论内容所针对对象的照片或图片。
可以理解的是,获取用户评论数据的方式多样,例如可以从用户登入的终端设备端获取、也可以从服务器获取。例如,可以从特定网上购物平台的后台数据库,导出本实施例实施所需的用户评论数据。
如图4A-4F所示,公开了申请一个实施例中某些用户评论数据的界面示意图,用户评论数据包括待识别文本B及待识别图像A。例如,在图4A中,用户对某款口腔用品评价内容的待识别文本B为:“一直都在使用的口腔品牌,去除口腔细菌棒棒哒”;待识别图像A为:与待识别文本B对应的评论对象的图片或照片。
步骤S220、对所述待识别文本和所述待识别图像分别进行特征提取,得到文本特征和图像特征;
文本特征可以是字、词或短语中的一种或多种,是从待识别文本中提取出来的,对于获知用户对评论对象的情感倾向类型至关重要;而图像特征是从识别图像中提取出来,对于获知用户评论对象的信息,也较为关键。
在本发明的一个实施例中,步骤S220中对所述待识别文本进行特征提取,得到文本特征,通过如下方式实现:使用预设的第二模型对所述待识别文本进行特征提取,得到所述文本特征,所述第二模型的输入为所述待识别文本,输出为所述文本特征,且所述第二模型为经过预设的第二训练样本集合训练得到的模型,所述第二训练样本集合包括N2个第二训练样本,N2为正整数,其中,每个第二训练样本包括一条用户评论样本数据的待识别文本和与所述待识别文本对应的文本特征。
可以理解的是,所述第二模型可以是一种神经网络模型,例如GRU(GatedRecurrent Unit,门循环单元)。所述每个第二训练样本包括一条用户评论样本数据的待识别文本和与所述待识别文本对应的文本特征。在图4A中,用户对某款鞋子评价内容的待识别文本B为:“鞋子很好!就才买了一个月不到,就降到了360,我买到时候450,有点小坑。”在图4B中,用户对某款口腔用品评价内容的待识别文本B为:“一直都在使用的口腔品牌,去除口腔细菌棒棒哒。”在图4C中,待识别文本B为:“这PU皮不好、硬了,其他都OK了!皮带头感觉不错、简约时尚。”在图4D中,待识别文本B为:“宝贝收到了还没用,物流真是有点慢,看样子还不错,很期待效果。”在图4E中,用户对某款雨伞评价内容的待识别文本B为:“垃圾货,用两次伞架就断了,这个价格度可以买一把质量好的杂牌子了。”在图4F中,待识别文本B为:“瓶子质量差,开瓶时突然爆裂弄伤手,手直接被爆划四伤口,流血不止,外包装牌子贴纸质量粗糙。”
在本发明的一个实施例中,所步骤S220中对所述待识别图像进行特征提取,得到图像特征,通过如下方式实现:使用预设的第三模型对所述待识别图像进行特征提取,得到所述图像特征,所述第三模型的输入为所述待识别图像,输出为所述图像特征,且所述第三模型为经过预设的第三训练样本集合训练得到的模型,所述第三训练样本集合包括N3个第三训练样本,N3为正整数,其中,每个第三训练样本包括一条用户评论样本数据的待识别图像和与所述待识别图像对应的图像特征。
需要说明的是,所述第三模型可以是一种神经网络模型,例如CNN(ConvolutionalNeural Network,卷积神经网络)。可以理解的是,图像特征主要有图像的颜色特征、纹理特征、形状特征和空间关系特征。颜色特征是一种全局特征,描述了图像或图像区域所对应的景物的表面性质;纹理特征也是一种全局特征,它也描述了图像或图像区域所对应景物的表面性质;形状特征有两类表示方法,一类是轮廓特征,另一类是区域特征,图像的轮廓特征主要针对物体的外边界,而图像的区域特征则关系到整个形状区域;空间关系特征,是指图像中分割出来的多个目标之间的相互的空间位置或相对方向关系,这些关系也可分为连接/邻接关系、交叠/重叠关系和包含/包容关系等。
步骤S230、对所述文本特征和所述图像特征进行特征融合,得到融合特征;
在本发明的一个实施例中,步骤S230包括如下步骤:使用预设的第一模型对所述文本特征和所述图像特征进行特征融合,得到所述融合特征,所述第一模型的输入为所述文本特征和所述图像特征,输出为所述融合特征,且所述第一模型为经过预设的第一训练样本集合训练得到的模型,所述第一训练样本集合包括N1个第一训练样本,N1为正整数,其中,每个第一训练样本包括一条用户评论样本数据中的文本特征、图像特征以及与所述文本特征和所述图像特征对应的融合特征。
可以理解的是,关于所述第一模型对所述图像特征和所述文本特征进行融合的方式,包括但不限于采用级联、点乘或相加等方式。但值得注意的是,通过点积的融合方法只能计算相对应维度的特征关系,而不同维度之间的特征关系就无法进行计算。通过外积的融合方式,可以最大程度的发现两种不同模态特征之间的内在联系,但该种融合方式,会使模型的参数量激增,从而严重限制模型的实际应用能力。例如,图像特征为1024维,文本特征为1024维,输出的融合特征维度为2048维,那么模型参数的数量将会达到109,这将严重限制模型的实际应用能力。
需要说明的是,本实施例所述第一模型,是一种神经网络模型,例如DTF(DeepTucker Fusion,深度塔克融合)。第一模型对所述图像特征和所述文本特征进行融合的方式为塔克分解。所谓塔克分解,是由Tucker,Ledyard R.于1966年提出,具体是指将一个张量表示成一个核心张量沿每一个维度(mode)乘上一个矩阵,通过这样的分解达到对张量的降维。例如,对于一个三阶张量,由Tucker分解可以得到三个因子矩阵和一个核张量,每个维度上的因子矩阵称为张量在每个维度上的基矩阵或者是主成分。通过利用塔克分解方法,可以实现对图像特征和文本特征的有效的融合。该融合方法不仅可以充分发掘不同模态的特征之间的内在关系,也可以将模型参数数量控制在一个可以接受的范围,使得模型的实际应用能力增强。
在本发明的一个实施例中,步骤S230中对所述文本特征和所述图像特征进行特征融合,得到融合特征,通过如下方式实现:使用所述第一模型中预设的第r个第一全连接层对所述图像特征进行降维处理,得到第r个图像子特征,1≤r≤R,R为正整数;使用所述第一模型中预设的第r个第二全连接层对所述文本特征进行降维处理,得到第r个文本子特征;对第r个图像子特征和第r个文本子特征进行计算,得到第r个融合子特征;对各个融合子特征进行累加,得到所述融合特征。
需要说明的是,全连接层是神经网络模型中的一个概念,在全连接层中,每一个结点都与上一层的所有结点相连,用来把前边提取到的特征综合起来。而所谓的降维处理,是指将高维数据化为低维度数据的操作,力争在不改变高维数据结构的前提下,将高维空间的数据投影到低维空间,便于进行分析。降维方法分为线性核非线性降维,非线性降维又分为基于核函数和基于特征值的方法。在本实施例中,对文本特征和图像特征采用的是基于核函数的非线性降维方法。
所述使用所述第一模型中预设的第r个第一全连接层对所述图像特征进行降维处理,得到第r个图像子特征;使用所述第一模型中预设的第r个第二全连接层对所述文本特征进行降维处理,得到第r个文本子特征;其具体实现方法如下:
用xt表示文本特征,用xv表示图像特征,用xo表示融合特征,用T表示融合特征的张量参数,则融合特征可表示为:
xo=(T×1 xv2 xt 公式1
其中,
Figure BDA0002210878450000111
×i表示张量的i模积,dv表示图像特征的张量维数,dt表示文本特征的张量维数,do表示融合特征的张量维数,dv为正整数,dt为正整数,do为正整数,R为正整数。
将融合特征的张量参数T表示成塔克分解式:
T=((Tc×1 Wv2 Wt3 Wo 公式2
其中,Wv,Wt,Wo为分别为图像特征、文本特征和融合特征的因子矩阵,Tc为核心张量,,
Figure BDA0002210878450000112
d1,d2,d3为已知正整数。
将公式1和公式2进行合并,得到公式3:
Figure BDA0002210878450000113
在本实施例中,通过将文本特征xt、图像特征xv分别通过第二全连接层和第一全连接层,得到文本子特征、图像子特征。
所述对第r个图像子特征和第r个文本子特征进行计算,得到第r个融合子特征,是通过以下公式计算获得:
第一、列出融合特征
Figure BDA0002210878450000121
与图像特征
Figure BDA0002210878450000122
文本特征
Figure BDA0002210878450000123
之间的关系式:
Figure BDA0002210878450000124
其中,
Figure BDA0002210878450000125
第二、计算
Figure BDA0002210878450000126
的每一维的值
Figure BDA0002210878450000127
k∈[1,d3],有
第三、将矩阵
Figure BDA0002210878450000129
转换为两个向量的外积:
Figure BDA00022108784500001210
其中,矩阵
Figure BDA00022108784500001211
的秩为R,
Figure BDA00022108784500001212
第四、通过公式6对公式5进行变换,得到公式7:
Figure BDA00022108784500001213
第五、将融合特征
Figure BDA00022108784500001214
变换为图像特征
Figure BDA00022108784500001215
文本特征
Figure BDA00022108784500001216
的内积形式:
Figure BDA00022108784500001217
其中,
Figure BDA00022108784500001218
*表示点积操作。
第六,通过公式8对各个融合子特征(即融合特征在每一维的值)进行累加,得到所述融合特征xo
需要说明的是,在本实施例中,Mr与Nr都是通过全连接层的形式实现。
步骤S240、根据所述融合特征确定所述用户评论数据的情感倾向类型。
在本发明的一个实施例中,所述根据所述融合特征确定所述用户评论数据的情感倾向类型,包括:使用预设的第四模型对所述融合特征进行处理,得到与所述融合特征对应的情感倾向类型,所述第四模型的输入为所述融合特征,输出为与所述融合特征对应的情感倾向类型,且所述第四模型为经过预设的第四训练样本集合训练得到的模型,所述第四训练样本集合包括N4个第四训练样本,N4为正整数,其中,每个第四训练样本包括一条用户评论样本数据的融合特征和与所述融合特征对应的情感倾向类型。
需要说明的是,所述第四模型可以是一种神经网络分类模型,其基于概率密度的分类算法,利用采用潜在的类条件概率密度函数的知识进行分类。具体算法可采用贝叶斯估计法、最大似然估计法等有参估计算法。
在本发明的一个实施例中,如图3所示,步骤S240所述根据所述融合特征确定所述用户评论数据的情感倾向类型,是按照下列方法实现的:
步骤S310、使用预设的第四模型计算所述融合特征对应的用户评论数据的情感得分;
步骤S320、将所述用户评论数据的情感得分转换为对应的概率特征值;
步骤S330、根据所述概率特征值,确定与所述融合特征对应的情感倾向类型。
可以理解,在本实施例中,预先设定融合特征映射出的概率特征值与情感倾向类别之间的关系,然后基于概率密度的分类算法,使用训练数据及其对应结果特征来调整概率密度中的各个参数。其中,情感得分,是对用户评论数据融合特征进行量化处理后的结果。概率特征值是指用贝叶斯估计法、最大似然估计法等有参估计方法,求出融合特征对应的情感得分转换到(0,1)区间上的特征值。例如,概率特征值区间为(0,1),情感倾向类型可以设置为三类:“好评”、“中评”和“差评”。概率特征值与情感倾向类型对应关系可以为:概率特征值在区间(0,0.5)内的,表明用户评论数据融合特征体现了“差评”;概率特征值在区间(0.5,0.75)内的,表明用户评论数据融合特征体现了“中评”;概率特征值在区间[0.75,1)内的,表明用户评论数据融合特征体现了“好评”。
当然,上述举例仅仅是示例性的,不应构成对本发明的任何限制。
在本发明的另一个实施例中,步骤S240所述根据所述融合特征确定所述用户评论数据的情感倾向类型,是按照下列方法实现的:
使用预设的第四模型计算所述融合特征对应的用户评论数据的情感得分;
根据所述情感得分所落入的情感得分区间,确定与所述融合特征对应的情感倾向类型。
需要说明的是,情感得分区间是预先设定的可量化计算区间。例如,情感得分区间可设置为[0,100],情感倾向类型可以设置为三类:“好评”、“中评”和“差评”。另外,可设置情感得分在区间[70,100)内的,表明用户评论数据融合特征体现了“好评”;情感得分在区间[50,75)内的,表明用户评论数据融合特征体现了“中评”;情感得分在区间[0,50)内的,表明用户评论数据融合特征体现了“差评”。
当然,上述举例仅仅是示例性的,不应构成对本发明的任何限制。
在上述公开实施例中,通过获取包括待识别文本和待识别图像的用户评论数据;然后利用事先训练好的模型对待识别文本和待识别图像进行提取,得到文本特征和图像特征;再利用事先训练好的模型对所述文本特征和所述图像特征进行特征融合,得到与用户评论数据对应的融合特征;最后将与用户评论数据对应的融合特征输入事先训练好的模型,输出与用户评论数据对应的融合特征的情感倾向类型。通过本发明实施例,无需耗费人工,即可实现用户评论数据情感倾向类型的自动确定,提高了用户评论数据情感倾向类型确定的效率。另外,本方法不同于现有技术中单纯的填写式情感倾向分析,而是基于用户真实的评论内容和产品特征来确定用户情感倾向,提高了用户情感倾向分析的准确性。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
下面,参考图5-6描述本申请实施例的一种典型应用场景。应当注意,该种应用场景只是示例性的。本领域技术人员在受益于本公开实施例的构思后,可以将本公开应用于其他场景。
图5示意性示出了应用本申请的一个实施例对某款商品的用户评论数据进行处理的流程图。
当商家从购物网站获取关于某款男士衣服的用户评论数据后,将上述用户评论数据按照本公开实施例的方法实施,得到每条用户评论数据对应的情感倾向类型。其具体实现过程如下:
首先,通过步骤S511获取待识别文本;通过步骤S512获取待识别图像;
其次,通过步骤S521进行特征提取,得到每条用户评论数据的文本特征;通过步骤S522进行特征提取,得到每条用户评论数据的图像特征;
然后,通过步骤S531对文本特征和图像特征进行融合,得到每条用户评论数据的融合特征;
最后,通过步骤S541对每条用户评论数据的融合特征进行处理,得到每条用户评论数据的情感倾向类型。
图6A-6C示意性示出了根据本申请的一个实施例的用户评论数据处理方法应用于某款商品的用户评论数据的处理结果示意图;其中,图6A中的用户评论数据的情感倾向类型为差评,图6B中的用户评论数据的情感倾向类型为中评,图6C中的用户评论数据的情感倾向类型为好评。而且,本公开实施例具有较强的实用性,商家可以对与该款商品的用户评论数据对应的情感倾向进行数学统计,得到各种情感类型的占比关系,进而参考各种情感类型的占比关系,确定关于该款商品最合适的营销策略。例如出现以下三种情形:第一种情形为:好评,90%;中评,5%;差评,5%。或者:第二种情形为:好评,60%;中评,20%;差评,20%。第三种情形为:好评,45%;中评,15%;差评,40%。在第一种情形下,商家可以采取涨价策略;在第二种情形下,商家可以采取价格不变策略;在第三种情形下,商家可以采取降价策略。
当然,上述举例仅仅是示例性的,商家完全可以采取其他分析策略分析上述商品用户评论数据,进而采取相应的产品改进或价格调整方法。
图7示意性示出了根据本申请的一个实施例的用户评论数据处理装置的模块框图。
参照图7所述,根据本申请的一个实施例的用户评论数据处理装置,包括:
图像和文本获取模块710,用于获取用户评论数据,所述用户评论数据包括待识别文本和待识别图像;
特征提取模块720,用于对所述待识别文本和所述待识别图像分别进行特征提取,得到文本特征和图像特征;
特征融合模块730,用于对所述文本特征和所述图像特征进行特征融合,得到融合特征;
分类模块740,用于根据所述融合特征确定所述用户评论数据的情感倾向类型。
进一步地,所述图像和文本获取模块710可以包括:图像特征提取单元和文本特征提取单元。
所述图像特征提取单元,可以用于使用预设的第三模型对所述待识别图像进行特征提取,得到所述图像特征,所述第三模型的输入为所述待识别图像,输出为所述图像特征,且所述第三模型为经过预设的第三训练样本集合训练得到的模型,所述第三训练样本集合包括N3个第三训练样本,N3为正整数,其中,每个第三训练样本包括一条用户评论样本数据的待识别图像和与所述待识别图像对应的图像特征。
所述文本特征提取单元,可以用于使用预设的第二模型对所述待识别文本进行特征提取,得到所述文本特征,所述第二模型的输入为所述待识别文本,输出为所述文本特征,且所述第二模型为经过预设的第二训练样本集合训练得到的模型,所述第二训练样本集合包括N2个第二训练样本,N2为正整数,其中,每个第二训练样本包括一条用户评论样本数据的待识别文本和与所述待识别文本对应的文本特征。
进一步地,所述特征融合模块730,可以用于使用预设的第一模型对所述文本特征和所述图像特征进行特征融合,得到所述融合特征,所述第一模型的输入为所述文本特征和所述图像特征,输出为所述融合特征,且所述第一模型为经过预设的第一训练样本集合训练得到的模型,所述第一训练样本集合包括N1个第一训练样本,N1为正整数,其中,每个第一训练样本包括一条用户评论样本数据中的文本特征、图像特征以及与所述文本特征和所述图像特征对应的融合特征。
进一步地,所述特征融合模块730,可以包括:
图像子特征获取单元,用于使用所述第一模型中预设的第r个第一全连接层对所述图像特征进行降维处理,得到第r个图像子特征,1≤r≤R,R为正整数;
文本子特征获取单元,用于使用所述第一模型中预设的第r个第二全连接层对所述文本特征进行降维处理,得到第r个文本子特征;
计算单元,用于对第r个图像子特征和第r个文本子特征进行计算,得到第r个融合子特征;对各个融合子特征进行累加,得到所述融合特征。
进一步地,所述分类模块740可以包括:
情感得分计算第一单元,用于使用预设的第四模型计算所述融合特征对应的用户评论数据的情感得分;
转换单元,用于将所述用户评论数据的情感得分转换为对应的概率特征值;
情感倾向类型确定第一单元,用于根据所述概率特征值,确定与所述融合特征对应的情感倾向类型。
进一步地,所述分类模块740可以包括:
情感得分计算第二单元,用于使用预设的第四模型计算所述融合特征对应的用户评论数据的情感得分;
情感倾向类型确定第二单元,用于根据所述情感得分所落入的情感得分区间,确定与所述融合特征对应的情感倾向类型。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置,模块和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
图8示出了本发明实施例提供的一种电子设备的示意框图,为了便于说明,仅示出了与本发明实施例相关的部分。
在本实施例中,所述电子设备8可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。该电子设备8可包括:处理器80、存储器81以及存储在所述存储器81中并可在所述处理器80上运行的计算机可读指令82,例如执行上述用户评论数据处理方法的计算机可读指令。所述处理器80执行所述计算机可读指令82时实现上述各个用户评论数据处理方法实施例中的步骤,例如图2所示的步骤S210至S240。或者,所述处理器80执行所述计算机可读指令82时实现上述各装置实施例中各模块/单元的功能,例如图7所示模块710至740的功能。
示例性的,所述计算机可读指令82可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器81中,并由所述处理器80执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机可读指令段,该指令段用于描述所述计算机可读指令82在所述电子设备8中的执行过程。
所述处理器80可以是中央处理单元(Central Processing Unit,CPU),还可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器81可以是所述电子设备8的内部存储单元,例如电子设备8的硬盘或内存。所述存储器81也可以是所述电子设备8的外部存储设备,例如所述电子设备8上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器81还可以既包括所述电子设备8的内部存储单元也包括外部存储设备。所述存储器81用于存储所述计算机可读指令以及所述电子设备8所需的其它指令和数据。所述存储器81还可以用于暂时地存储已经输出或者将要输出的数据。
在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干计算机可读指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储计算机可读指令的介质。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种用户评论数据处理方法,其特征在于,所述方法包括:
获取用户评论数据,所述用户评论数据包括待识别文本和待识别图像;
对所述待识别文本和所述待识别图像分别进行特征提取,得到文本特征和图像特征;
对所述文本特征和所述图像特征进行特征融合,得到融合特征;
根据所述融合特征确定所述用户评论数据的情感倾向类型。
2.如权利要求1所述的用户评论数据处理方法,其特征在于,所述对所述文本特征和所述图像特征进行特征融合,得到融合特征,包括:
使用预设的第一模型对所述文本特征和所述图像特征进行特征融合,得到所述融合特征,所述第一模型的输入为所述文本特征和所述图像特征,输出为所述融合特征,且所述第一模型为经过预设的第一训练样本集合训练得到的模型,所述第一训练样本集合包括N1个第一训练样本,N1为正整数,其中,每个第一训练样本包括一条用户评论样本数据中的文本特征、图像特征以及与所述文本特征和所述图像特征对应的融合特征。
3.如权利要求2所述的用户评论数据处理方法,其特征在于,所述使用预设的第一模型对所述文本特征和所述图像特征进行特征融合,得到所述融合特征,包括:
使用所述第一模型中预设的第r个第一全连接层对所述图像特征进行降维处理,得到第r个图像子特征,1≤r≤R,R为正整数;
使用所述第一模型中预设的第r个第二全连接层对所述文本特征进行降维处理,得到第r个文本子特征;
对第r个图像子特征和第r个文本子特征进行计算,得到第r个融合子特征;
对各个融合子特征进行累加,得到所述融合特征。
4.如权利要求1所述的用户评论数据处理方法,其特征在于,所述对所述待识别文本和所述待识别图像分别进行特征提取,得到文本特征和图像特征,包括:
使用预设的第二模型对所述待识别文本进行特征提取,得到所述文本特征,所述第二模型的输入为所述待识别文本,输出为所述文本特征,且所述第二模型为经过预设的第二训练样本集合训练得到的模型,所述第二训练样本集合包括N2个第二训练样本,N2为正整数,其中,每个第二训练样本包括一条用户评论样本数据的待识别文本和与所述待识别文本对应的文本特征。
5.如权利要求1所述的用户评论数据处理方法,其特征在于,所述对所述待识别文本和所述待识别图像分别进行特征提取,得到文本特征和图像特征,包括:
使用预设的第三模型对所述待识别图像进行特征提取,得到所述图像特征,所述第三模型的输入为所述待识别图像,输出为所述图像特征,且所述第三模型为经过预设的第三训练样本集合训练得到的模型,所述第三训练样本集合包括N3个第三训练样本,N3为正整数,其中,每个第三训练样本包括一条用户评论样本数据的待识别图像和与所述待识别图像对应的图像特征。
6.如权利要求1所述的用户评论数据处理方法,其特征在于,所述根据所述融合特征确定所述用户评论数据的情感倾向类型,包括:
使用预设的第四模型对所述融合特征进行处理,得到与所述融合特征对应的情感倾向类型,所述第四模型的输入为所述融合特征,输出为与所述融合特征对应的情感倾向类型,且所述第四模型为经过预设的第四训练样本集合训练得到的模型,所述第四训练样本集合包括N4个第四训练样本,N4为正整数,其中,每个第四训练样本包括一条用户评论样本数据的融合特征和与所述融合特征对应的情感倾向类型。
7.如权利要求6所述的用户评论数据处理方法,其特征在于,所述使用预设的第四模型对所述融合特征进行处理,得到与所述融合特征对应的情感倾向类型,包括:
使用预设的第四模型计算所述融合特征对应的用户评论数据的情感得分;
将所述用户评论数据的情感得分转换为对应的概率特征值;
根据所述概率特征值,确定与所述融合特征对应的情感倾向类型。
8.一种用户评论数据处理装置,其特征在于,所述装置包括:
图像和文本获取模块,用于获取用户评论数据,所述用户评论数据包括待识别文本和待识别图像;
特征提取模块,用于对所述待识别文本和所述待识别图像分别进行特征提取,得到文本特征和图像特征;
特征融合模块,用于对所述文本特征和所述图像特征进行特征融合,得到融合特征;
分类模块,用于根据所述融合特征确定所述用户评论数据的情感倾向类型。
9.一种电子设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的用户评论数据处理方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的用户评论数据处理方法。
CN201910897914.5A 2019-09-23 2019-09-23 用户评论数据处理方法、装置、存储介质及电子设备 Pending CN110717335A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910897914.5A CN110717335A (zh) 2019-09-23 2019-09-23 用户评论数据处理方法、装置、存储介质及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910897914.5A CN110717335A (zh) 2019-09-23 2019-09-23 用户评论数据处理方法、装置、存储介质及电子设备

Publications (1)

Publication Number Publication Date
CN110717335A true CN110717335A (zh) 2020-01-21

Family

ID=69210770

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910897914.5A Pending CN110717335A (zh) 2019-09-23 2019-09-23 用户评论数据处理方法、装置、存储介质及电子设备

Country Status (1)

Country Link
CN (1) CN110717335A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111400437A (zh) * 2020-02-19 2020-07-10 北京三快在线科技有限公司 互联网信息响应方法、装置、电子设备和计算机可读介质
CN112069311A (zh) * 2020-08-04 2020-12-11 北京声智科技有限公司 一种文本提取方法、装置、设备及介质
CN112256917A (zh) * 2020-11-17 2021-01-22 腾讯科技(深圳)有限公司 用户兴趣识别方法、装置、设备及计算机可读存储介质
CN112685565A (zh) * 2020-12-29 2021-04-20 平安科技(深圳)有限公司 基于多模态信息融合的文本分类方法、及其相关设备
CN113158656A (zh) * 2020-12-25 2021-07-23 北京中科闻歌科技股份有限公司 讽刺内容识别方法、装置、电子设备以及存储介质
CN113449170A (zh) * 2020-03-24 2021-09-28 北京沃东天骏信息技术有限公司 异常账号识别方法及装置、存储介质、电子设备
CN114547435A (zh) * 2020-11-24 2022-05-27 腾讯科技(深圳)有限公司 内容质量的识别方法、装置、设备及可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107818084A (zh) * 2017-10-11 2018-03-20 北京众荟信息技术股份有限公司 一种融合点评配图的情感分析方法
CN109214412A (zh) * 2018-07-12 2019-01-15 北京达佳互联信息技术有限公司 一种分类模型的训练方法和装置
CN110222794A (zh) * 2019-06-21 2019-09-10 福州大学 多模态图像的自适应特征融合方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107818084A (zh) * 2017-10-11 2018-03-20 北京众荟信息技术股份有限公司 一种融合点评配图的情感分析方法
CN109214412A (zh) * 2018-07-12 2019-01-15 北京达佳互联信息技术有限公司 一种分类模型的训练方法和装置
CN110222794A (zh) * 2019-06-21 2019-09-10 福州大学 多模态图像的自适应特征融合方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111400437A (zh) * 2020-02-19 2020-07-10 北京三快在线科技有限公司 互联网信息响应方法、装置、电子设备和计算机可读介质
CN113449170A (zh) * 2020-03-24 2021-09-28 北京沃东天骏信息技术有限公司 异常账号识别方法及装置、存储介质、电子设备
CN112069311A (zh) * 2020-08-04 2020-12-11 北京声智科技有限公司 一种文本提取方法、装置、设备及介质
CN112256917A (zh) * 2020-11-17 2021-01-22 腾讯科技(深圳)有限公司 用户兴趣识别方法、装置、设备及计算机可读存储介质
CN112256917B (zh) * 2020-11-17 2024-03-26 腾讯科技(深圳)有限公司 用户兴趣识别方法、装置、设备及计算机可读存储介质
CN114547435A (zh) * 2020-11-24 2022-05-27 腾讯科技(深圳)有限公司 内容质量的识别方法、装置、设备及可读存储介质
CN113158656A (zh) * 2020-12-25 2021-07-23 北京中科闻歌科技股份有限公司 讽刺内容识别方法、装置、电子设备以及存储介质
CN113158656B (zh) * 2020-12-25 2024-05-14 北京中科闻歌科技股份有限公司 讽刺内容识别方法、装置、电子设备以及存储介质
CN112685565A (zh) * 2020-12-29 2021-04-20 平安科技(深圳)有限公司 基于多模态信息融合的文本分类方法、及其相关设备
WO2022142014A1 (zh) * 2020-12-29 2022-07-07 平安科技(深圳)有限公司 基于多模态信息融合的文本分类方法、及其相关设备
CN112685565B (zh) * 2020-12-29 2023-07-21 平安科技(深圳)有限公司 基于多模态信息融合的文本分类方法、及其相关设备

Similar Documents

Publication Publication Date Title
CN110717335A (zh) 用户评论数据处理方法、装置、存储介质及电子设备
Natsume et al. Rsgan: face swapping and editing using face and hair representation in latent spaces
Kao et al. Visual aesthetic quality assessment with a regression model
Kucer et al. Leveraging expert feature knowledge for predicting image aesthetics
CN107544957A (zh) 一种面向商品目标词的情感倾向分析方法
CN110378731A (zh) 获取用户画像的方法、装置、服务器及存储介质
Li et al. Is a picture worth a thousand words? Understanding the role of review photo sentiment and text-photo sentiment disparity using deep learning algorithms
CN107818084B (zh) 一种融合点评配图的情感分析方法
CN108829847B (zh) 基于翻译的多模态建模方法及其在商品检索中的应用
CN109584006B (zh) 一种基于深度匹配模型的跨平台商品匹配方法
Tang et al. Attribute-guided sketch generation
CN110955750A (zh) 评论区域和情感极性的联合识别方法、装置、电子设备
KR20210022873A (ko) 인터넷을 통해 수집된 화장품 리뷰 정보를 분석하여 개선된 리뷰 정보를 사용자에게 제공하는 방법 및 시스템
Sethi et al. Residual codean autoencoder for facial attribute analysis
CN111738807B (zh) 用于推荐目标对象的方法、计算设备和计算机存储介质
Jang et al. Analysis of deep features for image aesthetic assessment
Wang et al. PalGAN: Image colorization with palette generative adversarial networks
Ma et al. Image style transfer with collection representation space and semantic-guided reconstruction
Quanz et al. Machine learning based co-creative design framework
CN112364236A (zh) 目标对象推荐系统、方法、装置、数据处理方法及装置
CN111523914A (zh) 用户满意度的评测方法、装置、系统和数据显示平台
Sharma et al. Local higher-order statistics (LHS) describing images with statistics of local non-binarized pixel patterns
Laohakangvalvit et al. A proposal of model of Kawaii feelings for spoon designs
Baek et al. Editable generative adversarial networks: Generating and editing faces simultaneously
CN115408611A (zh) 菜单推荐方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: Qiao Yu

Inventor after: Peng Xiaojiang

Inventor after: Ye Jin

Inventor before: Qiao Yu

Inventor before: Peng Xiaojiang

CB03 Change of inventor or designer information