CN112328793A - 评论文本数据的处理方法、装置及存储介质 - Google Patents
评论文本数据的处理方法、装置及存储介质 Download PDFInfo
- Publication number
- CN112328793A CN112328793A CN202011240954.1A CN202011240954A CN112328793A CN 112328793 A CN112328793 A CN 112328793A CN 202011240954 A CN202011240954 A CN 202011240954A CN 112328793 A CN112328793 A CN 112328793A
- Authority
- CN
- China
- Prior art keywords
- viewpoint
- text data
- target
- word
- words
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title abstract description 13
- 238000012545 processing Methods 0.000 claims abstract description 92
- 238000000034 method Methods 0.000 claims abstract description 78
- 238000000605 extraction Methods 0.000 claims abstract description 51
- 239000013598 vector Substances 0.000 claims description 98
- 238000012552 review Methods 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 6
- 238000013075 data extraction Methods 0.000 description 18
- 238000004458 analytical method Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 12
- 238000011156 evaluation Methods 0.000 description 12
- 238000002372 labelling Methods 0.000 description 12
- 238000012549 training Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 10
- 230000002996 emotional effect Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 238000002474 experimental method Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000012360 testing method Methods 0.000 description 6
- 244000062793 Sorghum vulgare Species 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 235000019713 millet Nutrition 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 238000007726 management method Methods 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 238000005065 mining Methods 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 238000010380 label transfer Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000003607 modifier Substances 0.000 description 1
- 238000000465 moulding Methods 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/247—Thesauruses; Synonyms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/103—Formatting, i.e. changing of presentation of documents
- G06F40/111—Mathematical or scientific formatting; Subscripts; Superscripts
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Algebra (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Mathematical Physics (AREA)
- Pure & Applied Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
本公开涉及一种评论文本数据的处理方法、装置及存储介质。该方法包括:将从互联网平台获取到的目标物品的用户评论文本数据输入观点抽取模型,得到观点抽取模型输出的词语集合以及词语集合中每一特征词和观点词的首尾字符的位置下标;基于词语集合中每一词语的首尾字符位置下标,确定特征词和观点词之间字符间距小于预设阈值的候选二元词组的集合,并将每一候选二元词组的特征词和观点词的首尾字符位置下标以及用户评论文本数据输入判断模型,得到判断模型输出的目标二元词组的集合;将得到的目标二元词组均作为用户评论文本数据对应的评论观点数据。采用这种方法,可以在降低模型数据处理量的基础之上,进一步提升模型输出目标二元词组的正确率。
Description
技术领域
本公开涉及计算机技术领域,尤其涉及一种评论文本数据的处理方法、装置及存储介质。
背景技术
互联网环境日益成熟,越来越多的消费者倾向于通过电商网站进行购物,并在购物交易完成后对购买过的商品进行点评,由此产生了数据量庞大的在线评论数据。研究表明,从大量的评论数据中提取针对产品特征要素的评价观点具有重要价值。具体地,面对用户,评价观点数据不仅便于消费者迅速了解产品各方面性能,还能帮助用户判断产品的综合质量,以及可以辅助用户快速筛选有效信息等。而面对商户,评价观点数据可以有效辅助商户进行舆情分析,还可以直接将该评价观点数据作为产品使用的调研数据,以及还可以根据评价观点数据对产品进行优化,辅助商家进行营销决策等等。
相关技术中,观点数据抽取方法可以归纳为两大类,第一类是基于语言学特征、词典、启发式规则/模版的非监督方法;第二类是基于机器学习模型的有监督学习方法,如基于浅层机器学习的序列标注模型。其中,使用第一类方法得到的观点数据抽取结果的优劣,与词性标注、依存句法分析、语义角色标注的效果优劣相关,以及与人工定义的各种规则覆盖率紧密相关,因而这类方法的泛化能力不足。并且,由于中文语法的复杂性,人工枚举语言学特征模式非常耗费人力资源,同时由于网络在线评论数据中语法使用的随意性,导致无法从语法不规范的评论语句中提取到准确的语言学特征,从而影响观点数据抽取结果的准确性。而使用第二类方法得到的观点数据抽取结果的优劣,与训练样本的数据量大小密切相关,要得到正确率高的观点数据抽取结果往往需要巨量的训练样本数据来训练模型。而训练样本数据量过大,则又会导致模型的过拟合。
发明内容
为克服相关技术中存在的问题,本公开提供一种评论文本数据的处理方法、装置及存储介质。
根据本公开实施例的第一方面,提供一种评论文本数据的处理方法,包括:
将从互联网平台获取到的目标物品的用户评论文本数据输入观点抽取模型,得到所述观点抽取模型输出的词语集合,以及所述词语集合中每一词语的首尾字符在所述用户评论文本数据中的位置下标,所述词语集合包括表征所述目标物品的特征要素的特征词和表征用户针对所述特征要素的观点词;
基于所述词语集合中每一词语的首尾字符位置下标,从所述词语集合中确定所述特征词和所述观点词之间字符间距小于预设阈值的候选二元词组,得到候选二元词组集合;
将所述候选二元词组集合中每一所述候选二元词组的所述特征词的首尾字符位置下标和所述观点词的首尾字符位置下标,以及所述用户评论文本数据输入判断模型,得到所述判断模型输出的目标二元词组集合;
将所述目标二元词组集合中的目标二元词组均作为所述用户评论文本数据的评论观点数据。
可选地,在所述将所述候选二元词组集合中每一所述候选二元词组的所述特征词的首尾字符位置下标和所述观点词的首尾字符位置下标,以及所述用户评论文本数据输入判断模型之前,包括:
针对每一所述候选二元词组,计算所述候选二元词组中所述特征词和所述观点词的特征信息;
所述将所述候选二元词组集合中每一所述候选二元词组的所述特征词的首尾字符位置下标和所述观点词的首尾字符位置下标,以及所述用户评论文本数据输入判断模型,包括:
将所述候选二元词组集合中每一所述候选二元词组的所述特征词的首尾字符位置下标和所述观点词的首尾字符位置下标、每一所述候选二元词组的所述特征信息以及所述用户评论文本数据输入所述判断模型。
可选地,所述判断模型用于:
通过所述判断模型中第一BERT模块确定所述用户评论文本数据的CLS符号以及所述用户评论文本数据对应的第一特征向量;
针对每一所述候选二元词组,根据所述第一特征向量和该候选二元词组的所述特征词的首尾字符位置下标和所述观点词的首尾字符位置下标,确定该候选二元词组的所述特征词的首尾向量和所述观点词的首尾向量;
将所述CLS符号、该候选二元词组的所述特征词的首尾向量和所述观点词的首尾向量、该候选二元词组的所述特征信息进行拼接,得到该候选二元词组的第一全连接向量;
对该候选二元词组的所述第一全连接向量进行二分类处理,以确定该候选二元词组是否为所述目标二元词组。
可选地,在所述将所述目标二元词组集合中的目标二元词组均作为所述用户评论文本数据的评论观点数据之前,包括:
将所述目标二元词组集合中每一所述目标二元词组的所述目标特征词的首尾字符位置下标和所述目标观点词的首尾字符位置下标,以及所述用户评论文本数据输入语义倾向模型,得到所述语义倾向模型输出的表征每一所述目标二元词组的极性类别;
所述将所述目标二元词组集合中的目标二元词组均作为所述用户评论文本数据的评论观点数据,包括:
将所述目标二元词组集合中每一目标二元词组和该目标二元词组的所述极性类别作为所述用户评论文本数据的所述评论观点数据。
可选地,所述方法应用于互联网平台,所述方法还包括:
将所述评论观点数据中的所述极性类别作为所述用户评论文本数据的一级标签,根据所述一级标签建立第一评论类目,并将所述用户评论文本数据显示在所述互联网平台页面上对应的所述第一评论类目下;或者,
将所述评论观点数据中的所述目标二元词组作为所述用户评论文本数据的二级标签,根据所述二级标签建立第二评论类目,并将所述用户评论文本数据显示在所述互联网平台页面上对应的所述第二评论类目下。
可选地,所述语义倾向模型包括第二BERT模块、自注意力加权处理模块、分类模块;
所述第二BERT模块用于,对输入的每一所述目标二元词组的所述目标特征词的首尾字符位置下标和所述目标观点词的首尾字符位置下标,以及所述用户评论文本数据进行处理,得到第一处理结果以及所述目标二元词组的所述目标特征词的首尾向量和所述目标观点词的首尾向量;
所述自注意力加权处理模块用于,对所述第一处理结果进行自注意力加权处理,得到第二处理结果;
所述分类模块用于,针对每一所述目标二元词组,将该目标二元词组的所述目标特征词的首尾向量、所述目标观点词的首尾向量、所述第二处理结果以及所述第二BERT模块输出的CLS符号进行拼接,得到该目标二元词组的第二全连接向量,并对所述第二全连接向量进行分类处理,以确定该目标二元词组的所述极性类别。
可选地,所述观点抽取模型包括第三BERT模块和全连接CRF层。
根据本公开实施例的第二方面,提供一种评论文本数据的处理装置,包括:
第一输入模块,被配置为将从互联网平台获取到的目标物品的用户评论文本数据输入观点抽取模型,得到所述观点抽取模型输出的词语集合,以及所述词语集合中每一词语的首尾字符在所述用户评论文本数据中的位置下标,所述词语集合包括表征所述目标物品的特征要素的特征词和表征用户针对所述特征要素的观点词;
确定模块,被配置为基于所述词语集合中每一词语的首尾字符位置下标,从所述词语集合中确定所述特征词和所述观点词之间字符间距小于预设阈值的候选二元词组,得到候选二元词组集合;
第二输入模块,被配置为将所述候选二元词组集合中每一所述候选二元词组的所述特征词的首尾字符位置下标和所述观点词的首尾字符位置下标,以及所述用户评论文本数据输入判断模型,得到所述判断模型输出的目标二元词组集合;
执行模块,被配置为将所述目标二元词组集合中的目标二元词组均作为所述用户评论文本数据的评论观点数据。
可选地,所述装置还包括:
计算模块,被配置为针对每一所述候选二元词组,计算所述候选二元词组中所述特征词和所述观点词的特征信息;
所述第二输入模块,还被配置为将所述候选二元词组集合中每一所述候选二元词组的所述特征词的首尾字符位置下标和所述观点词的首尾字符位置下标、每一所述候选二元词组的所述特征信息以及所述用户评论文本数据输入所述判断模型。
可选地,所述判断模型用于:
通过所述判断模型中第一BERT模块确定所述用户评论文本数据的CLS符号以及所述用户评论文本数据对应的第一特征向量;
针对每一所述候选二元词组,根据所述第一特征向量和该候选二元词组的所述特征词的首尾字符位置下标和所述观点词的首尾字符位置下标,确定该候选二元词组的所述特征词的首尾向量和所述观点词的首尾向量;
将所述CLS符号、该候选二元词组的所述特征词的首尾向量和所述观点词的首尾向量、该候选二元词组的所述特征信息进行拼接,得到该候选二元词组的第一全连接向量;
对该候选二元词组的所述第一全连接向量进行二分类处理,以确定该候选二元词组是否为所述目标二元词组。
可选地,所述装置还包括:
第三输入模块,被配置为将所述目标二元词组集合中每一所述目标二元词组的所述目标特征词的首尾字符位置下标和所述目标观点词的首尾字符位置下标,以及所述用户评论文本数据输入语义倾向模型,得到所述语义倾向模型输出的表征每一所述目标二元词组的极性类别;
所述执行模块,还被配置为将所述目标二元词组集合中每一目标二元词组和该目标二元词组的所述极性类别作为所述用户评论文本数据的所述评论观点数据。
可选地,所述方法应用于互联网平台,所述装置还包括:
第一显示模块,被配置为将所述评论观点数据中的所述极性类别作为所述用户评论文本数据的一级标签,根据所述一级标签建立第一评论类目,并将所述用户评论文本数据显示在所述互联网平台页面上对应的所述第一评论类目下;
第二显示模块,被配置为将所述评论观点数据中的所述目标二元词组作为所述用户评论文本数据的二级标签,根据所述二级标签建立第二评论类目,并将所述用户评论文本数据显示在所述互联网平台页面上对应的所述第二评论类目下。
可选地,所述语义倾向模型包括第二BERT模块、自注意力加权处理模块、分类模块;
所述第二BERT模块用于,对输入的每一所述目标二元词组的所述目标特征词的首尾字符位置下标和所述目标观点词的首尾字符位置下标,以及所述用户评论文本数据进行处理,得到第一处理结果以及所述目标二元词组的所述目标特征词的首尾向量和所述目标观点词的首尾向量;
所述自注意力加权处理模块用于,对所述第一处理结果进行自注意力加权处理,得到第二处理结果;
所述分类模块用于,针对每一所述目标二元词组,将该目标二元词组的所述目标特征词的首尾向量、所述目标观点词的首尾向量、所述第二处理结果以及所述第二BERT模块输出的CLS符号进行拼接,得到该目标二元词组的第二全连接向量,并对所述第二全连接向量进行分类处理,以确定该目标二元词组的所述极性类别。
可选地,所述观点抽取模型包括第三BERT模块和全连接CRF层。
根据本公开实施例的第三方面,提供另一种评论文本数据的处理装置,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
将从互联网平台获取到的目标物品的用户评论文本数据输入观点抽取模型,得到所述观点抽取模型输出的词语集合,以及所述词语集合中每一词语的首尾字符在所述用户评论文本数据中的位置下标,所述词语集合包括表征所述目标物品的特征要素的特征词和表征用户针对所述特征要素的观点词;
基于所述词语集合中每一词语的首尾字符位置下标,从所述词语集合中确定所述特征词和所述观点词之间字符间距小于预设阈值的候选二元词组,得到候选二元词组集合;
将所述候选二元词组集合中每一所述候选二元词组的所述特征词的首尾字符位置下标和所述观点词的首尾字符位置下标,以及所述用户评论文本数据输入判断模型,得到所述判断模型输出的目标二元词组集合;
将所述目标二元词组集合中的目标二元词组均作为所述用户评论文本数据的评论观点数据。
根据本公开实施例的第四方面,提供一种计算机可读存储介质,其上存储有计算机程序指令,该程序指令被处理器执行时实现本公开第一方面所提供的评论文本数据的处理方法的步骤。
本公开的实施例提供的技术方案至少包括以下有益效果:
通过将从互联网平台获取到的目标物品的用户评论文本数据输入观点抽取模型,得到该观点抽取模型输出的词语集合,以及该词语集合中每一词语的首尾字符在该用户评论文本数据中的位置下标。基于该词语集合中每一词语的首尾字符位置下标,从该词语集合中确定特征词和观点词之间字符间距小于预设阈值的候选二元词组,得到候选二元词组集合。将该候选二元词组集合中每一候选二元词组的特征词的首尾字符位置下标和观点词的首尾字符位置下标,以及该用户评论文本数据输入判断模型,得到该判断模型输出的目标二元词组集合。将目标二元词组集合中的目标二元词组均作为该用户评论文本数据的评论观点数据。采用这种方法,可以将冗长的用户评论文本数据压缩为简短的目标二元词组,如此可以提升用户获取用户评论文本数据中有效信息的效率。并且,从观点抽取模型输出的词语集合中确定特征词和观点词之间字符间距小于预设阈值的候选二元词组的方式,可以将特征词和观点词之间字符间距较远的组合方式剔除,如此,可以在降低判断模型数据处理量的基础之上,避免判断模型将特征词和观点词之间字符间距较远的组合方式作为目标二元词组,进而提升了判断模型输出目标二元词组的正确率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是根据一示例性实施例示出的一种基于语言学特征、词典、启发式规则/模版的非监督方法抽取评论观点数据的流程示意图。
图2是根据一示例性实施例示出的一种基于依存关系分析方法的示例图。
图3是根据一示例性实施例示出的一种应用场景的示意图。
图4是根据一示例性实施例示出的一种评论文本数据的处理方法的流程图。
图5是根据一示例性实施例示出的一种BERT模型/模块的框图。
图6是根据一示例性实施例示出的一种BERT模型/模块输入数据的示意图。
图7是根据一示例性实施例示出的另一种评论文本数据的处理方法的流程图。
图8是根据一示例性实施例示出的一种判断模型的处理流程图。
图9是根据一示例性实施例示出的又一种评论文本数据的处理方法的流程图。
图10是根据一示例性实施例示出的一种评论文本数据的处理装置的框图。
图11是根据一示例性实施例示出的一种移动终端的框图。
图12是根据一示例性实施例示出的一种服务器装置的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
互联网环境日益成熟,越来越多的消费者倾向于通过电商网站进行购物,并在购物交易完成后对购买过的商品进行点评,由此产生了数据量庞大的在线评论数据。研究表明,从大量的评论数据中提取针对产品特征要素的评价观点具有重要价值。具体地,面对用户,评价观点数据不仅便于消费者迅速了解产品各方面性能,还能帮助用户判断产品的综合质量,以及可以辅助用户快速筛选有效信息等。而面对商户,评价观点数据可以有效辅助商户进行舆情分析,还可以直接将该评价观点数据作为产品使用的调研数据,以及还可以根据评价观点数据对产品进行优化,辅助商家进行营销决策等等。可见,抽取评价观点数据具有非常大的实用价值和广阔的应用场景。
相关技术中,观点数据抽取方法可以归纳为两大类,第一类是基于语言学特征、词典、启发式规则/模版的非监督方法;第二类是基于机器学习模型的有监督学习方法,如基于浅层机器学习的序列标注模型。其中,使用第一类方法得到的观点数据抽取结果的优劣,与词性标注、依存句法分析、语义角色标注的效果优劣相关,以及与人工定义的各种规则覆盖率紧密相关,因而这类方法的泛化能力不足。并且,由于中文语法的复杂性,人工枚举语言学特征模式非常耗费人力资源,同时由于网络在线评论数据中语法使用的随意性,导致无法从语法不规范的评论语句中提取到准确的语言学特征,从而影响观点数据抽取结果的准确性。而使用第二类方法得到的观点数据抽取结果的优劣,与训练样本的数据量大小密切相关,要得到正确率高的观点数据抽取结果往往需要巨量的训练样本数据。而训练样本数据量过大,则又会导致模型的过拟合。
下面对上述相关技术中的两类观点数据抽取方法进行详细的说明。
参见图1,图1示出了一种基于语言学特征、词典、启发式规则/模版的非监督方法抽取评论观点数据的流程示意图。
示例地,基于图1所示的方式,在主体词(即特征词)一般为名词或名词短语,而修饰词(即观点词)一般为形容词或动名词的基础之上,若仅依据词性和规则进行观点数据抽取,那么该种方式会先对评论文本数据进行分句、分词、词性标注处理,然后根据既定规则,提取出名词、名词短语、形容词、动名词等,从而得到特征词与观点词的组合。该种方法的优点是处理步骤简单、处理速度快。但是该种方法没有考虑特征词与观点词的长距离搭配情况,也忽略了并非所有高频的名词/名词短语都是特征词的情况。此外,本领域普通技术人员不难理解的是该种方法非常依赖词性标注的准确率,且无法避免的存在错误的特征词和观点词组合情况。发明人采用该种方法进行实验后,发现显著的一种情况,对评论数据“小米开机很快”进行观点数据抽取,得到的观点数据抽取结果为“小米(名词)、很快(形容词)”,该观点数据抽取结果显然是错误的。进一步地,为了解决该种方式的缺陷,可以引入依存关系分析来验证句子成分之间的关系。经反复实验后发现,实际需要抽取得到的观点数据都是主谓宾结构的短句。以图2进行举例,针对评论文本数据“小米手机外观看起来还是很大气的”进行句子依存关系分析,根据规则提取出主体名词为“外观”,形容词为“大气”。而“看起来”、“还是”、“很”都是修饰“大气”的,组成ADV(状中关系)。而“外观”和“大气”组成SBV(主谓关系),显然句法成分验证没问题,因此最终得到的评论观点数据为<外观、大气>。虽然这种方法取得了很好的效果,但是加入依存关系分析的方法仍然依赖词性标注的准确率,并且与依存关系分析、语义角色标注的效果以及人工定义的各种规则的覆盖率相关,因此该方法的泛化能力仍然不足。即使用第一类方法得到的结果的优劣,与词性标注、依存句法分析、语义角色标注的效果优劣,以及人工定义的各种规则覆盖率紧密相关,因而这类方法的泛化能力不足。
再示例地,采用第二类基于机器学习模型的有监督学习方法抽取评论观点数据。具体地,可以将观点数据抽取任务的抽取过程看作是一个文本序列标注过程。相关技术中,条件随机场(Conditional Random Fields,简称CRF)序列标注模型能较好地捕捉上下文信息,CRF模型的目标函数不仅考虑输入数据的状态特征函数,而且还考虑了标签转移特征函数。在训练CRF模型时可以使用SGD(随机梯度下降算法)学习得到模型参数。CRF模型在对输入序列求预测输出序列即求使目标函数最大化的最优序列的过程是一个动态规划的过程,可以使用维特比算法进行解码。虽然特征函数作为CRF模型的主要部分,其直接影响观点数据抽取结果的正确率。但在本领域普通技术人员给CRF模型引入词形、词性、依存关系、词距离、句法树路径等特征之后,CRF模型可以捕获<特征词,观点词>二元词组(即观点数据的抽取结果)之间的关系,由此进一步提高了观点数据抽取的准确性。但是,用该CRF模型分别对电影评论领域的样本数据和汽车领域的样本数据进行实验,且其中选取的特征均包括词特征、词性特征、依存句法特征、词距特征和观点句特征。在实验后对<特征词,观点词>二元词组进行验证后得出的结论为,电影评论领域的测试结果中准确率、召回率和F值(综合评价指标,表征准确率和召回率的加权调和平均值,即为F-Measure或F-Score)分别达到0.749、0.661、0.722。而在汽车领域的测试结果中准确率、召回率和F值分别为0.622、0.414、0.497。显然,汽车领域的测试结果远不如电影评论领域的测试结果。经分析发现其原因在于汽车领域的特征词比电影领域的特征词更加丰富多样,而在测试样本中遇到训练样本中未出现或出现次数非常少的特征词时,这些特征词往往难以被识别。这样的实验结果从侧面反映了监督学习方法的局限性。即使用第二类方法抽取评论观点数据的结果的优劣,与训练样本的数据量大小密切相关,要得到正确率高的结果往往需要巨量的训练样本数据。
有鉴于此,本公开实施例提供一种评论文本数据的处理方法、装置及存储介质,以在降低模型数据处理量的基础之上,进一步提升模型输出目标二元词组的正确率。
为了使本领域普通技术人员更加容易理解本公开的技术方案,下面对本公开实施例涉及到的相关内容进行简单解释。
本公开实施例中的评论观点数据,由特征词和观点词组成。特征词表征产品的特征要素,观点词表征用户针对产品特征要素的观点。例如,评论文本数据为“外观很漂亮,手感也挺舒适的,荧幕很舒服,颜值也挺高的!照片质量不太好,样子很一般!外形很时尚,机子功能也很强大,造型精美,手感一流”。那么该评论文本数据中的“外观”、“颜值”、“样子”、“造型”和“外形”都是产品的特征要素;该评论文本数据中的“漂亮”、“高”、“一般”、“精美”和“舒适”都是用户针对产品特征要素的观点词。
BERT(Bidirectional Encoder Representations for Transformers)模型,是Google提出的基于Transformer的深度双向编码文本表示模型,其通过模型预训练和任务微调整的方式,在各项NLP(Natural Language Process,自然语言处理)基础任务中展现出了卓越的性能。
条件随机场(Conditional Random Fields,简称CRF),CRF模型抽取观点数据的中心思想是将评论语句的特征看成序列,根据序列对评论语句进行位置标注,再采取相应规则对错误标注进程层次过滤,从而完成对三元组的抽取任务。CRF模型的输出结果的好坏在很大程度上依赖于特征集合。为了提高传统的CRF模型抽取观点数据的效果,通常的方法是在模型中引入丰富的特征集,比如句法特征。但是,引入的特征集需要人工构造,而且构造的特征集的有效性也需要人工反复实验来验证,因此这种方式工程量大,效率低。
F值,综合评价指标(F-Measure或F-Score),由于准确率Precision和召回率Recall指标有时候会出现的矛盾的情况,这样就需要综合考虑,最常见的综合方法就是使用F值,F-Measure是Precision和Recall加权调和平均结果。
语义倾向,也称为语义极性倾向,是节点词所吸引的搭配词的词义特征的类型归纳,大体可以分为三个极性类别:消极、积极和中性。
在本公开的具体实施例之前应当说明的是,消费者对其购买过的产品进行点评的评论文本数据,不仅仅是消费者针对产品本身的或褒或贬的情感倾向性表达,而且还是消费者倾向的产品特征要素的表达。例如,假设一条评论文本数据为“外观时尚,触摸屏很灵敏,就是感觉电池有点不耐用”,那么从该条评论文本数据中可知用户倾向“外观”、“触摸屏”和“电池”三个特征要素,且用户针对该三个特征要素表达出的情感倾向不尽相同。相关技术中,在对评论数据进行或褒或贬的情感分类时,都是集中在词语的极性倾向判断和文档层次的极性分析,并且都是基于统计方法实现的。但在某条评论文本数据中存在不同情感倾向的情况下,如果只是笼统地对整条评论数据进行或褒或贬的情感分类,那么显得有失偏颇,也势必会导致对该某条评论数据的情感倾向分类错误。基于此,本申请实施例中运用复杂的自然语言处理技术对句子层次进行分析。主要对产品的特征要素进行细粒度的观点挖掘和情感倾向分类,旨在从用户评论文本数据中挖掘出备受用户关注的产品特征要素信息,以及基于这些产品的特征要素的观点。
还应当说明的是,针对产品的特征要素进行的细粒度观点挖掘的首要任务就是抽取评论文本数据中由评价对象(即特征要素/特征词)和观点词构成的二元组,简称为观点抽取任务。其次是语义极性分析。语义极性分析和观点抽取可以理解为利用计算机技术自动分析带有观点信息的句子或文档,从而提取出用户感兴趣的主题(topic即主体)或特征(feature即特征要素),并分析其语义极性倾向(褒义、贬义或中性)的强度。
下面对本公开的应用场景进行说明。
本公开的技术方案可以应用于互联网平台,例如,淘宝平台、美团平台、小米有品平台以及大众点评平台等等。示例地,可参见图3,在小米有品平台应用本公开实施例的方法,可以实现将冗长的用户评论文本数据压缩为简短的、更准确地目标二元词组,以提升用户获取用户评论文本数据中有效信息的效率的目的。
本公开的技术方案还可以应用于评论文本数据聚类场景、评论文本数据统计场景。通过提取用户评论文本数据中的目标二元词组,可以实现根据该目标二元词组对用户评论文本数据进行分类统计制图/表的目的。
图4是根据一示例性实施例示出的一种评论文本数据的处理方法的流程图,如图4所示,该评论文本数据的处理方法可以应用于移动终端或服务器中,包括以下步骤。
在步骤S11中,将从互联网平台获取到的目标物品的用户评论文本数据输入观点抽取模型,得到所述观点抽取模型输出的词语集合,以及所述词语集合中每一词语的首尾字符在所述用户评论文本数据中的位置下标,所述词语集合包括表征所述目标物品的特征要素的特征词和表征用户针对所述特征要素的观点词。
应当说明的是,由于用户在互联网平台上进行商品点评的事件是随机发生的,因此在本公开的后续实施例中,以将上述用户评论文本数据看做一个用户对一件物品进行点评时输入的一条评论文本数据进行示例说明。而本领域普通技术人员不难理解的是,对多个用户的多条用户评论文本数据进行评论观点抽取任务时,也是对每一条用户评论文本数据逐一进行处理的。
可选地,所述观点抽取模型包括第三BERT模块和全连接CRF层。
详细地,将用户评论文本数据看做BERT模块/模型的输入序列。参见图5,每一输入序列的第一个token始终是特殊分类嵌入[CLS]符号,之后的每一个token均代表用户评论文本数据中的一个汉字。在本公开实施例中的CLS符号均表征BERT模型的特殊分类嵌入[CLS]符号。
进一步地,参见图6,本领域普通技术人员应当理解的是,BERT模块的输入向量input embeddings是token embeddings,segmentation embeddings和positionembeddings的总和。其中token embeddings是词(字)向量,segment embeddings用来区分用户评论文本数据对应的向量部分以及插入向量input embeddings的内容,或者segmentembeddings用于区分多个句子,而position embedding用于承载每个token的位置信息。BERT模块的输出output vector是每个token的编码向量encoding vector。
一种可实现的实施方式,在本公开实施例中使用的观点抽取模型包括第三BERT模块和全连接层。例如,观点抽取模型由第三BERT模块和FC layer(全连接层)组成。第三BERT模块的encoding vector通过FC layer映射到用于序列标注的标签集合之后,每个token的编码向量encoding vector再经过Softmax(逻辑回归模型)处理,得到全连接层的每一维度上表征该token的词性为某一词性的概率值,根据每一维度上的概率值确定该token的词性。其中,用于序列标注的标签集合即中文词性的集合。
另一种可实现的实施方式,在本公开实施例中使用的观点抽取模型包括第三BERT模块和全连接CRF层。即是说观点抽取模型是在第三BERT的基础上,还增加了一层全连接CRF层。通过确定全连接CRF层的输出维度,可以把第三BERT模块输出的embedding vector映射到既定的用于序列标注的标签集合,从而得到每一token的编码向量encoding vector的标注结果。这种实施方式与上述基于观点抽取模型由第三BERT模块和FC layer(全连接层)组成的方式相比较,由于可以在全连接CRF层加入一些约束来保证最终的预测结果的有效性。而基于这些约束,错误的预测序列会大大减小,因而基于全连接CRF层的方式可以进一步提升观点抽取模型的输出结果的准确率。其中,不难理解的是CRF层的约束可以在训练模型阶段被全连接CRF层自动学习得到,此处不再赘述。
具体地,在步骤S11中,将从互联网平台获取到的目标物品的用户评论文本数据输入由第三BERT模块和全连接CRF层构建的观点抽取模型中,可以得到该观点抽取模型输出的词语集合,以及词语集合中每一词语的首尾字符在该用户评论文本数据中的位置下标。其中应当说明的是,由于第三BERT模块会对用户评论文本数据中每一个汉字进行位置标注,因此,一种可行的实施方式,词语集合中每一词语的首尾字符在该用户评论文本数据中的位置下标可以为第三BERT模块对每一文字进行的位置标注信息。而另一种可行的实施方式,词语集合中每一词语的首尾字符在该用户评论文本数据中的位置下标也可以为通过相关技术中的其他位置标注方法确定的位置标注信息。对此,本公开不做具体限制。
在步骤S12中,基于所述词语集合中每一词语的首尾字符位置下标,从所述词语集合中确定所述特征词和所述观点词之间字符间距小于预设阈值的候选二元词组,得到候选二元词组集合。
示例地,假设预设阈值为2个字符,那么针对观点抽取模型输出的词语集合,将其中符合特征词和观点词之间字符间距小于2个字符的组合作为候选二元词组,从而可以得到基于该词语集合的候选二元词组集合。应当理解的是,候选二元词组集合可能为空集合,也可能包括一个二元词组,亦可能包括两个及两个以上的二元词组。
在步骤S13中,将所述候选二元词组集合中每一所述候选二元词组的所述特征词的首尾字符位置下标和所述观点词的首尾字符位置下标,以及所述用户评论文本数据输入判断模型,得到所述判断模型输出的目标二元词组集合。
具体地,将候选二元词组集合中每一候选二元词组的特征词和观点词的首尾字符位置下标,以及用户评论文本数据输入判断模型之后,该判断模型针对每一候选二元词组进行二分类处理,以确定该候选二元词组是否为目标二元词组。
其中,目标二元词组集合可能为空集合,也可能包括一个目标二元词组,亦可能包括两个及两个以上的目标二元词组。对此本公开不做限定。
在步骤S14中,将所述目标二元词组集合中的目标二元词组均作为所述用户评论文本数据的评论观点数据。
在步骤S13中,得到目标二元词组集合之后,将该目标二元词组集合中的每一目标二元词组均作为该条用户评论文本数据的评论观点数据。如此,可以将冗长的用户评论文本数据压缩为简短的目标二元词组的集合。
一种可实现的实施方式,当目标二元词组集合为空集合的情况下,可以将目标二元词组集合对应的用户评论文本数据标记为无效评论文本数据。或者可以对该目标二元词组集合对应的用户评论文本数据重新执行评论观点数据抽取任务。
采用上述方法,可以将冗长的用户评论文本数据压缩为简短的目标二元词组,如此可以提升用户获取用户评论文本数据中有效信息的效率。并且,从观点抽取模型输出的词语集合中确定特征词和观点词之间字符间距小于预设阈值的候选二元词组的方式,可以将特征词和观点词之间字符间距较远的组合方式剔除,如此,可以在降低判断模型数据处理量的基础之上,避免判断模型将特征词和观点词之间字符间距较远的组合方式作为目标二元词组,进而提升了判断模型输出目标二元词组的正确率。
图7是根据一示例性实施例示出的另一种评论文本数据的处理方法的流程图,如图7所示,包括:
在步骤S21中,将从互联网平台获取到的目标物品的用户评论文本数据输入观点抽取模型,得到所述观点抽取模型输出的词语集合,以及所述词语集合中每一词语的首尾字符在所述用户评论文本数据中的位置下标,所述词语集合包括表征所述目标物品的特征要素的特征词和表征用户针对所述特征要素的观点词。
在步骤S22中,基于所述词语集合中每一词语的首尾字符位置下标,从所述词语集合中确定所述特征词和所述观点词之间字符间距小于预设阈值的候选二元词组,得到候选二元词组集合。
在步骤S23中,针对每一所述候选二元词组,计算所述候选二元词组中所述特征词和所述观点词的特征信息。
示例地,参见表1,表1示出了基于一个候选二元词组的特征词和观点词组合抽取得到的特征信息。
表1
在步骤S24中,将所述候选二元词组集合中每一所述候选二元词组的所述特征词的首尾字符位置下标和所述观点词的首尾字符位置下标、每一所述候选二元词组的所述特征信息以及所述用户评论文本数据输入所述判断模型,得到所述判断模型输出的目标二元词组集合。
在判断模型的输入数据中增加每一候选二元词组的特征信息的这种方式,可以为判断模型提供更多的针对每一候选二元词组的文本语言学特征信息,如此可以进一步提升判断模型输出结果的准确性。
在步骤S25中,将所述目标二元词组集合中的目标二元词组均作为所述用户评论文本数据的评论观点数据。
上述实施例中的部分步骤的具体实施方式,已经在前述相关实施例中进行了详细阐述,此处不再赘述。
可选地,如图8所示,本公开实施例涉及的判断模型具体可以用于执行以下步骤:
在步骤S31中,通过所述判断模型中第一BERT模块确定所述用户评论文本数据的CLS符号以及所述用户评论文本数据对应的第一特征向量。
具体地,将用户评论文本数据输入判断模型中的第一BERT模块,得到该用户评论文本数据对应的第一特征向量(即上下文表征),并确定该用户评论文本数据的第一个token对应的特殊分类嵌入CLS符号。
在步骤S32中,针对每一所述候选二元词组,根据所述第一特征向量和该候选二元词组的所述特征词的首尾字符位置下标和所述观点词的首尾字符位置下标,确定该候选二元词组的所述特征词的首尾向量和所述观点词的首尾向量。
容易理解的是,针对每一候选二元词组,根据用户评论文本数据对应的第一特征向量和该候选二元词组的特征词的首尾字符位置下标和观点词的首尾字符位置下标,可以确定该候选二元词组的特征词的首尾向量和观点词的首尾向量。
在步骤S33中,将所述CLS符号、该候选二元词组的所述特征词的首尾向量和所述观点词的首尾向量、该候选二元词组的所述特征信息进行拼接,得到该候选二元词组的第一全连接向量。
在针对每一候选二元词组进行判断的过程中,将CLS符号、该候选二元词组的特征词的首尾向量和观点词的首尾向量、该候选二元词组的特征信息进行拼接,可以得到该候选二元词组的第一全连接向量。其中,本公开不限制各向量之间的拼接顺序。
在步骤S34中,对该候选二元词组的所述第一全连接向量进行二分类处理,以确定该候选二元词组是否为所述目标二元词组。
在步骤S34中,针对每一候选二元词组,对该候选二元词组的第一全连接向量进行二分类处理后,可以确定该候选二元词组是否为目标二元词组。如此,可以得到候选二元词组集合对应的目标二元词组集合。其中,需说明的是目标二元词组集合中词组数量小于或等于候选二元词组集合。
图9是根据一示例性实施例示出的又一种评论文本数据的处理方法的流程图,如图9所示,包括以下步骤:
在步骤S41中,将从互联网平台获取到的目标物品的用户评论文本数据输入观点抽取模型,得到所述观点抽取模型输出的词语集合,以及所述词语集合中每一词语的首尾字符在所述用户评论文本数据中的位置下标,所述词语集合包括表征所述目标物品的特征要素的特征词和表征用户针对所述特征要素的观点词。
在步骤S42中,基于所述词语集合中每一词语的首尾字符位置下标,从所述词语集合中确定所述特征词和所述观点词之间字符间距小于预设阈值的候选二元词组,得到候选二元词组集合。
在步骤S43中,针对每一所述候选二元词组,计算所述候选二元词组中所述特征词和所述观点词的特征信息。
在步骤S44中,将所述候选二元词组集合中每一所述候选二元词组的所述特征词的首尾字符位置下标和所述观点词的首尾字符位置下标、每一所述候选二元词组的所述特征信息以及所述用户评论文本数据输入所述判断模型,得到所述判断模型输出的目标二元词组集合。
在步骤S45中,将所述目标二元词组集合中每一所述目标二元词组的所述目标特征词的首尾字符位置下标和所述目标观点词的首尾字符位置下标,以及所述用户评论文本数据输入语义倾向模型,得到所述语义倾向模型输出的表征每一所述目标二元词组的极性类别。
可选地,所述语义倾向模型包括第二BERT模块、自注意力加权处理模块、分类模块;所述第二BERT模块用于,对输入的每一所述目标二元词组的所述目标特征词的首尾字符位置下标和所述目标观点词的首尾字符位置下标,以及所述用户评论文本数据进行处理,得到第一处理结果以及所述目标二元词组的所述目标特征词的首尾向量和所述目标观点词的首尾向量;所述自注意力加权处理模块用于,对所述第一处理结果进行自注意力加权处理,得到第二处理结果;所述分类模块用于,针对每一所述目标二元词组,将该目标二元词组的所述目标特征词的首尾向量、所述目标观点词的首尾向量、所述第二处理结果以及所述第二BERT模块输出的CLS符号进行拼接,得到该目标二元词组的第二全连接向量,并对所述第二全连接向量进行分类处理,以确定该目标二元词组的所述极性类别。
具体地,第二BERT模块对输入的每一目标二元词组的目标特征词的首尾字符位置下标和目标观点词的首尾字符位置下标,以及用户评论文本数据进行处理,得到第一处理结果以及每一目标二元词组的目标特征词的首尾向量和目标观点词的首尾向量。更详细地,第二BERT模块的数据处理过程与前述第一BERT模块的数据处理过程相类似。
虽然第二BERT模块中包括多头自注意力机制,但是经过本公开发明人实验之后,发现针对第二BERT模块输出的第一处理结果,再进行一次自注意力加权处理得到第二处理结果,然后再针对每一目标二元词组,将该目标二元词组的目标特征词的首尾向量、目标观点词的首尾向量、第二处理结果以及第二BERT模块输出的CLS符号进行拼接,得到该目标二元词组的第二全连接向量,接着对该第二全连接向量进行分类处理,得到的该目标二元词组的极性类别。这种极性类别分类的准确率,较之将该目标二元词组的目标特征词的首尾向量、目标观点词的首尾向量、第一处理结果以及第二BERT模块输出的CLS符号进行拼接,且对拼接得到的第二全连接向量进行分类处理,得到的该目标二元词组的极性类别的准确率更高。
在步骤S46中,将所述目标二元词组集合中每一目标二元词组和该目标二元词组的所述极性类别作为所述用户评论文本数据的所述评论观点数据。
详细地,将目标二元词组集合中每一目标二元词组与该目标二元词组的极性类别一起作为用户评论文本数据的评论观点数据。
一种可实现的实施方式,可以将上述评论文本数据的处理方法应用于互联网平台,具体地,该评论文本数据的处理方法还可以包括以下步骤:
将所述评论观点数据中的所述极性类别作为所述用户评论文本数据的一级标签,根据所述一级标签建立第一评论类目,并将所述用户评论文本数据显示在所述互联网平台页面上对应的所述第一评论类目下;或者,将所述评论观点数据中的所述目标二元词组作为所述用户评论文本数据的二级标签,根据所述二级标签建立第二评论类目,并将所述用户评论文本数据显示在所述互联网平台页面上对应的所述第二评论类目下。
一种实施方式,将评论观点数据中的极性类别作为该用户评论文本数据的一级标签,并根据该一级标签建立第一评论类目,接着将该用户评论文本数据显示在互联网平台页面上对应的第一评论类目下。一种可能的情况,由于本公开实施例是基于特征要素进行细粒度的情感倾向分类的,因而针对每一条用户评论文本数据,可能存在多种极性类别。那么一种可实现的实施方式,可以对该用户评论文本数据对应的多个目标二元词组进行优先级划分,将优先级最高的目标二元词组对应的极性类别作为该用户评论文本数据的极性类别。另一种可实现的实施方式,也可以对该用户评论文本数据对应的多个极性类别进行综合计算,以确定该用户评论文本数据的综合极性类别。对此,本公开不做具体地限制。
另一实施方式,可以将评论观点数据中的目标二元词组作为用户评论文本数据的二级标签,并根据二级标签建立第二评论类目,并将该用户评论文本数据显示在互联网平台页面上对应的第二评论类目下。当该条用户评论文本数据对应多个目标二元词组时,可以将该用户评论文本数据显示在互联网平台页面上对应的多个第二评论类目下。
再一种实施方式,基于海量的用户评论文本数据,可以根据每一用户评论文本数据对应的目标二元词组集合,针对每一种目标二元词组进行极性类别占比统计(或制图),从而可以得到用户关注的物品特征要素情况,以及可以得到用户对每一种特征要素的情感倾向情况(即极性类型)。面对海量的用户评论文本数据,这种针对每一种目标二元词组进行极性类别占比统计(或制图)的方式,有利于提升用户快速获取有效信息。
采用这种方式,可以实现对互联网平台的用户评论文本数据进行统计分类显示,从而便于用户快速获取到有效的目标评论文本数据。
使用本公开的上述技术方案与独立的CRF模型对同一测试样本集进行测试,得到如表2所示的结果。
其中,表2所示的结果是在观点抽取模型包括第三BERT模块和全连接CRF层的情况下得到的。
表2
由表2可见,使用本公开的上述技术方案执行评论观点数据抽取任务得到的结果,与相关技术相比较,本公开的这种方式显著的提升了评论观点数据结果的准确率、召回率和F值。
使用本公开的上述语义倾向模型与相关技术中的XGboost模型对同一测试样本集进行测试,得到如表3所示的结果。
模型 | Precision | Recall | F1 |
XGboost | 0.9560 | 0.9601 | 0.9580 |
BERT+ATT | 0.9833 | 0.9921 | 0.9877 |
表3
由表3可见,使用本公开上述实施例中包括第二BERT模块、自注意力加权处理模块、分类模块的语义倾向模型执行语义极性类别分类任务得到的结果,与相关技术相比较,本公开的这种方式显著的提升了语义极性类别分类结果的准确率、召回率和F值。
图10是根据一示例性实施例示出的一种评论文本数据的处理装置的框图。参照图10,该装置120包括第一输入模块121,确定模块122、第二输入模块123和执行模块124。
该第一输入模块121被配置为将从互联网平台获取到的目标物品的用户评论文本数据输入观点抽取模型,得到所述观点抽取模型输出的词语集合,以及所述词语集合中每一词语的首尾字符在所述用户评论文本数据中的位置下标,所述词语集合包括表征所述目标物品的特征要素的特征词和表征用户针对所述特征要素的观点词;
该确定模块122被配置为基于所述词语集合中每一词语的首尾字符位置下标,从所述词语集合中确定所述特征词和所述观点词之间字符间距小于预设阈值的候选二元词组,得到候选二元词组集合;
该第二输入模块123被配置为将所述候选二元词组集合中每一所述候选二元词组的所述特征词的首尾字符位置下标和所述观点词的首尾字符位置下标,以及所述用户评论文本数据输入判断模型,得到所述判断模型输出的目标二元词组集合;
该执行模块124,被配置为将所述目标二元词组集合中的目标二元词组均作为所述用户评论文本数据的评论观点数据。
采用这种装置,可以将冗长的用户评论文本数据压缩为简短的目标二元词组,如此可以提升用户获取用户评论文本数据中有效信息的效率。并且,从观点抽取模型输出的词语集合中确定特征词和观点词之间字符间距小于预设阈值的候选二元词组的方式,可以将特征词和观点词之间字符间距较远的组合方式剔除,如此,可以在降低判断模型数据处理量的基础之上,避免判断模型将特征词和观点词之间字符间距较远的组合方式作为目标二元词组,进而提升了判断模型输出目标二元词组的正确率。
可选地,所述装置120还包括:
计算模块125,被配置为针对每一所述候选二元词组,计算所述候选二元词组中所述特征词和所述观点词的特征信息;
所述第二输入模块123,还被配置为将所述候选二元词组集合中每一所述候选二元词组的所述特征词的首尾字符位置下标和所述观点词的首尾字符位置下标、每一所述候选二元词组的所述特征信息以及所述用户评论文本数据输入所述判断模型。
可选地,所述判断模型用于:
通过所述判断模型中第一BERT模块确定所述用户评论文本数据的CLS符号以及所述用户评论文本数据对应的第一特征向量;
针对每一所述候选二元词组,根据所述第一特征向量和该候选二元词组的所述特征词的首尾字符位置下标和所述观点词的首尾字符位置下标,确定该候选二元词组的所述特征词的首尾向量和所述观点词的首尾向量;
将所述CLS符号、该候选二元词组的所述特征词的首尾向量和所述观点词的首尾向量、该候选二元词组的所述特征信息进行拼接,得到该候选二元词组的第一全连接向量;
对该候选二元词组的所述第一全连接向量进行二分类处理,以确定该候选二元词组是否为所述目标二元词组。
可选地,所述装置120还包括:
第三输入模块126,被配置为将所述目标二元词组集合中每一所述目标二元词组的所述目标特征词的首尾字符位置下标和所述目标观点词的首尾字符位置下标,以及所述用户评论文本数据输入语义倾向模型,得到所述语义倾向模型输出的表征每一所述目标二元词组的极性类别;
所述执行模块124,还被配置为将所述目标二元词组集合中每一目标二元词组和该目标二元词组的所述极性类别作为所述用户评论文本数据的所述评论观点数据。
可选地,所述方法应用于互联网平台,所述装置120还包括:
第一显示模块127,被配置为将所述评论观点数据中的所述极性类别作为所述用户评论文本数据的一级标签,根据所述一级标签建立第一评论类目,并将所述用户评论文本数据显示在所述互联网平台页面上对应的所述第一评论类目下;或者,
第二显示模块128,被配置为将所述评论观点数据中的所述目标二元词组作为所述用户评论文本数据的二级标签,根据所述二级标签建立第二评论类目,并将所述用户评论文本数据显示在所述互联网平台页面上对应的所述第二评论类目下。
可选地,所述语义倾向模型包括第二BERT模块、自注意力加权处理模块、分类模块;
所述第二BERT模块用于,对输入的每一所述目标二元词组的所述目标特征词的首尾字符位置下标和所述目标观点词的首尾字符位置下标,以及所述用户评论文本数据进行处理,得到第一处理结果以及所述目标二元词组的所述目标特征词的首尾向量和所述目标观点词的首尾向量;
所述自注意力加权处理模块用于,对所述第一处理结果进行自注意力加权处理,得到第二处理结果;
所述分类模块用于,针对每一所述目标二元词组,将该目标二元词组的所述目标特征词的首尾向量、所述目标观点词的首尾向量、所述第二处理结果以及所述第二BERT模块输出的CLS符号进行拼接,得到该目标二元词组的第二全连接向量,并对所述第二全连接向量进行分类处理,以确定该目标二元词组的所述极性类别。
可选地,所述观点抽取模型包括第三BERT模块和全连接CRF层。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本公开还提供一种计算机可读存储介质,其上存储有计算机程序指令,该程序指令被处理器执行时实现本公开提供的评论文本数据的处理方法的步骤。
图11是根据一示例性实施例示出的一种用于评论文本数据的处理的装置800的框图。例如,装置800可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图11,装置800可以包括以下一个或多个组件:处理组件802,存储器804,电力组件806,多媒体组件808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制装置800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件802可以包括一个或多个处理器820来执行指令,以完成上述的评论文本数据的处理方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理组件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在装置800的操作。这些数据的示例包括用于在装置800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电力组件806为装置800的各种组件提供电力。电力组件806可以包括电源管理系统,一个或多个电源,及其他与为装置800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述装置800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当装置800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当装置800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
I/O接口812为处理组件802和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为装置800提供各个方面的状态评估。例如,传感器组件814可以检测到装置800的打开/关闭状态,组件的相对定位,例如所述组件为装置800的显示器和小键盘,传感器组件814还可以检测装置800或装置800一个组件的位置改变,用户与装置800接触的存在或不存在,装置800方位或加速/减速和装置800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于装置800和其他设备之间有线或无线方式的通信。装置800可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件816经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述评论文本数据的处理方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器804,上述指令可由装置800的处理器820执行以完成上述评论文本数据的处理方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
在另一示例性实施例中,还提供一种计算机程序产品,该计算机程序产品包含能够由可编程的装置执行的计算机程序,该计算机程序具有当由该可编程的装置执行时用于执行上述的评论文本数据的处理方法的代码部分。
图12是根据一示例性实施例示出的一种用于评论文本数据的处理装置1900的框图。例如,装置1900可以被提供为一服务器。参照图12,装置1900包括处理组件1922,其进一步包括一个或多个处理器,以及由存储器1932所代表的存储器资源,用于存储可由处理组件1922的执行的指令,例如应用程序。存储器1932中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件1922被配置为执行指令,以执行上述评论文本数据的处理方法的部分或全部步骤。
装置1900还可以包括一个电源组件1926被配置为执行装置1900的电源管理,一个有线或无线网络接口1950被配置为将装置1900连接到网络,和一个输入输出(I/O)接口1958。装置1900可以操作基于存储在存储器1932的操作系统,例如Windows ServerTM,MacOS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
本领域技术人员在考虑说明书及实践本公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (10)
1.一种评论文本数据的处理方法,其特征在于,包括:
将从互联网平台获取到的目标物品的用户评论文本数据输入观点抽取模型,得到所述观点抽取模型输出的词语集合,以及所述词语集合中每一词语的首尾字符在所述用户评论文本数据中的位置下标,所述词语集合包括表征所述目标物品的特征要素的特征词和表征用户针对所述特征要素的观点词;
基于所述词语集合中每一词语的首尾字符位置下标,从所述词语集合中确定所述特征词和所述观点词之间字符间距小于预设阈值的候选二元词组,得到候选二元词组集合;
将所述候选二元词组集合中每一所述候选二元词组的所述特征词的首尾字符位置下标和所述观点词的首尾字符位置下标,以及所述用户评论文本数据输入判断模型,得到所述判断模型输出的目标二元词组集合;
将所述目标二元词组集合中的目标二元词组均作为所述用户评论文本数据的评论观点数据。
2.根据权利要求1所述的方法,其特征在于,在所述将所述候选二元词组集合中每一所述候选二元词组的所述特征词的首尾字符位置下标和所述观点词的首尾字符位置下标,以及所述用户评论文本数据输入判断模型之前,包括:
针对每一所述候选二元词组,计算所述候选二元词组中所述特征词和所述观点词的特征信息;
所述将所述候选二元词组集合中每一所述候选二元词组的所述特征词的首尾字符位置下标和所述观点词的首尾字符位置下标,以及所述用户评论文本数据输入判断模型,包括:
将所述候选二元词组集合中每一所述候选二元词组的所述特征词的首尾字符位置下标和所述观点词的首尾字符位置下标、每一所述候选二元词组的所述特征信息以及所述用户评论文本数据输入所述判断模型。
3.根据权利要求2所述的方法,其特征在于,所述判断模型用于:
通过所述判断模型中第一BERT模块确定所述用户评论文本数据的CLS符号以及所述用户评论文本数据对应的第一特征向量;
针对每一所述候选二元词组,根据所述第一特征向量和该候选二元词组的所述特征词的首尾字符位置下标和所述观点词的首尾字符位置下标,确定该候选二元词组的所述特征词的首尾向量和所述观点词的首尾向量;
将所述CLS符号、该候选二元词组的所述特征词的首尾向量和所述观点词的首尾向量、该候选二元词组的所述特征信息进行拼接,得到该候选二元词组的第一全连接向量;
对该候选二元词组的所述第一全连接向量进行二分类处理,以确定该候选二元词组是否为所述目标二元词组。
4.根据权利要求1-3中任一项所述的方法,其特征在于,在所述将所述目标二元词组集合中的目标二元词组均作为所述用户评论文本数据的评论观点数据之前,包括:
将所述目标二元词组集合中每一所述目标二元词组的目标特征词的首尾字符位置下标和目标观点词的首尾字符位置下标,以及所述用户评论文本数据输入语义倾向模型,得到所述语义倾向模型输出的表征每一所述目标二元词组的极性类别;
所述将所述目标二元词组集合中的目标二元词组均作为所述用户评论文本数据的评论观点数据,包括:
将所述目标二元词组集合中每一目标二元词组和该目标二元词组的所述极性类别作为所述用户评论文本数据的所述评论观点数据。
5.根据权利要求4所述的方法,其特征在于,所述方法应用于互联网平台,所述方法还包括:
将所述评论观点数据中的所述极性类别作为所述用户评论文本数据的一级标签,根据所述一级标签建立第一评论类目,并将所述用户评论文本数据显示在所述互联网平台页面上对应的所述第一评论类目下;或者,
将所述评论观点数据中的所述目标二元词组作为所述用户评论文本数据的二级标签,根据所述二级标签建立第二评论类目,并将所述用户评论文本数据显示在所述互联网平台页面上对应的所述第二评论类目下。
6.根据权利要求4所述的方法,其特征在于,所述语义倾向模型包括第二BERT模块、自注意力加权处理模块、分类模块;
所述第二BERT模块用于,对输入的每一所述目标二元词组的所述目标特征词的首尾字符位置下标和所述目标观点词的首尾字符位置下标,以及所述用户评论文本数据进行处理,得到第一处理结果以及所述目标二元词组的所述目标特征词的首尾向量和所述目标观点词的首尾向量;
所述自注意力加权处理模块用于,对所述第一处理结果进行自注意力加权处理,得到第二处理结果;
所述分类模块用于,针对每一所述目标二元词组,将该目标二元词组的所述目标特征词的首尾向量、所述目标观点词的首尾向量、所述第二处理结果以及所述第二BERT模块输出的CLS符号进行拼接,得到该目标二元词组的第二全连接向量,并对所述第二全连接向量进行分类处理,以确定该目标二元词组的所述极性类别。
7.根据权利要求1所述的方法,其特征在于,所述观点抽取模型包括第三BERT模块和全连接CRF层。
8.一种评论文本数据的处理装置,其特征在于,包括:
第一输入模块,被配置为将从互联网平台获取到的目标物品的用户评论文本数据输入观点抽取模型,得到所述观点抽取模型输出的词语集合,以及所述词语集合中每一词语的首尾字符在所述用户评论文本数据中的位置下标,所述词语集合包括表征所述目标物品的特征要素的特征词和表征用户针对所述特征要素的观点词;
确定模块,被配置为基于所述词语集合中每一词语的首尾字符位置下标,从所述词语集合中确定所述特征词和所述观点词之间字符间距小于预设阈值的候选二元词组,得到候选二元词组集合;
第二输入模块,被配置为将所述候选二元词组集合中每一所述候选二元词组的所述特征词的首尾字符位置下标和所述观点词的首尾字符位置下标,以及所述用户评论文本数据输入判断模型,得到所述判断模型输出的目标二元词组集合;
执行模块,被配置为将所述目标二元词组集合中的目标二元词组均作为所述用户评论文本数据的评论观点数据。
9.一种评论文本数据的处理装置,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
将从互联网平台获取到的目标物品的用户评论文本数据输入观点抽取模型,得到所述观点抽取模型输出的词语集合,以及所述词语集合中每一词语的首尾字符在所述用户评论文本数据中的位置下标,所述词语集合包括表征所述目标物品的特征要素的特征词和表征用户针对所述特征要素的观点词;
基于所述词语集合中每一词语的首尾字符位置下标,从所述词语集合中确定所述特征词和所述观点词之间字符间距小于预设阈值的候选二元词组,得到候选二元词组集合;
将所述候选二元词组集合中每一所述候选二元词组的所述特征词的首尾字符位置下标和所述观点词的首尾字符位置下标,以及所述用户评论文本数据输入判断模型,得到所述判断模型输出的目标二元词组集合;
将所述目标二元词组集合中的目标二元词组均作为所述用户评论文本数据的评论观点数据。
10.一种计算机可读存储介质,其上存储有计算机程序指令,其特征在于,该程序指令被处理器执行时实现权利要求1~7中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011240954.1A CN112328793A (zh) | 2020-11-09 | 2020-11-09 | 评论文本数据的处理方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011240954.1A CN112328793A (zh) | 2020-11-09 | 2020-11-09 | 评论文本数据的处理方法、装置及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112328793A true CN112328793A (zh) | 2021-02-05 |
Family
ID=74316743
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011240954.1A Pending CN112328793A (zh) | 2020-11-09 | 2020-11-09 | 评论文本数据的处理方法、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112328793A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113821587A (zh) * | 2021-06-02 | 2021-12-21 | 腾讯科技(深圳)有限公司 | 文本相关性确定方法、模型训练方法、装置及存储介质 |
CN114491013A (zh) * | 2021-12-09 | 2022-05-13 | 重庆邮电大学 | 一种融入句法结构信息的主题挖掘方法、存储介质及系统 |
CN116739656A (zh) * | 2023-08-14 | 2023-09-12 | 北京数字一百信息技术有限公司 | 一种客户体验管理方法和系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170090370A (ko) * | 2017-06-05 | 2017-08-07 | 숙명여자대학교산학협력단 | 리뷰 데이터 분석 방법, 이를 이용한 시스템 및 이동 단말기 |
CN108153856A (zh) * | 2017-12-22 | 2018-06-12 | 北京百度网讯科技有限公司 | 用于输出信息的方法和装置 |
CN110362817A (zh) * | 2019-06-04 | 2019-10-22 | 中国科学院信息工程研究所 | 一种面向产品属性的观点倾向性分析方法及系统 |
CN111191428A (zh) * | 2019-12-27 | 2020-05-22 | 北京百度网讯科技有限公司 | 评论信息处理方法、装置、计算机设备和介质 |
WO2020186627A1 (zh) * | 2019-03-15 | 2020-09-24 | 深圳市赛为智能股份有限公司 | 舆情极性预测方法、装置、计算机设备及存储介质 |
CN111783474A (zh) * | 2020-07-16 | 2020-10-16 | 厦门市美亚柏科信息股份有限公司 | 一种评论文本观点信息处理方法、装置及存储介质 |
-
2020
- 2020-11-09 CN CN202011240954.1A patent/CN112328793A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170090370A (ko) * | 2017-06-05 | 2017-08-07 | 숙명여자대학교산학협력단 | 리뷰 데이터 분석 방법, 이를 이용한 시스템 및 이동 단말기 |
CN108153856A (zh) * | 2017-12-22 | 2018-06-12 | 北京百度网讯科技有限公司 | 用于输出信息的方法和装置 |
WO2020186627A1 (zh) * | 2019-03-15 | 2020-09-24 | 深圳市赛为智能股份有限公司 | 舆情极性预测方法、装置、计算机设备及存储介质 |
CN110362817A (zh) * | 2019-06-04 | 2019-10-22 | 中国科学院信息工程研究所 | 一种面向产品属性的观点倾向性分析方法及系统 |
CN111191428A (zh) * | 2019-12-27 | 2020-05-22 | 北京百度网讯科技有限公司 | 评论信息处理方法、装置、计算机设备和介质 |
CN111783474A (zh) * | 2020-07-16 | 2020-10-16 | 厦门市美亚柏科信息股份有限公司 | 一种评论文本观点信息处理方法、装置及存储介质 |
Non-Patent Citations (1)
Title |
---|
睢国钦;那日萨;彭振;: "基于深度学习和CRFs的产品评论观点抽取方法", 情报杂志, no. 05, 18 May 2019 (2019-05-18) * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113821587A (zh) * | 2021-06-02 | 2021-12-21 | 腾讯科技(深圳)有限公司 | 文本相关性确定方法、模型训练方法、装置及存储介质 |
CN113821587B (zh) * | 2021-06-02 | 2024-05-17 | 腾讯科技(深圳)有限公司 | 文本相关性确定方法、模型训练方法、装置及存储介质 |
CN114491013A (zh) * | 2021-12-09 | 2022-05-13 | 重庆邮电大学 | 一种融入句法结构信息的主题挖掘方法、存储介质及系统 |
CN116739656A (zh) * | 2023-08-14 | 2023-09-12 | 北京数字一百信息技术有限公司 | 一种客户体验管理方法和系统 |
CN116739656B (zh) * | 2023-08-14 | 2023-10-20 | 北京数字一百信息技术有限公司 | 一种客户体验管理方法和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107766426B (zh) | 一种文本分类方法、装置及电子设备 | |
CN111259215B (zh) | 基于多模态的主题分类方法、装置、设备、以及存储介质 | |
CN112328793A (zh) | 评论文本数据的处理方法、装置及存储介质 | |
CN110781305A (zh) | 基于分类模型的文本分类方法及装置,以及模型训练方法 | |
CN107784034B (zh) | 页面类别识别方法及装置、用于页面类别识别的装置 | |
CN111259148A (zh) | 信息处理方法、装置及存储介质 | |
CN110399473B (zh) | 为用户问题确定答案的方法和装置 | |
CN108345625B (zh) | 一种信息挖掘方法和装置、一种用于信息挖掘的装置 | |
CN114328838A (zh) | 事件抽取方法、装置、电子设备及可读存储介质 | |
CN112732974A (zh) | 一种数据处理方法、电子设备及存储介质 | |
CN112528671A (zh) | 语义分析方法、装置以及存储介质 | |
CN107424612B (zh) | 处理方法、装置和机器可读介质 | |
CN115658889A (zh) | 对话处理方法、装置、设备及存储介质 | |
CN111651586A (zh) | 文本分类的规则模板生成方法、分类方法及装置、介质 | |
CN111222316A (zh) | 文本检测方法、装置及存储介质 | |
CN110232181B (zh) | 评论分析方法及装置 | |
CN113869063A (zh) | 数据推荐方法、装置、电子设备及存储介质 | |
CN113297525A (zh) | 网页分类方法、装置、电子设备、及存储介质 | |
CN112381091A (zh) | 视频内容识别方法、装置、电子设备及存储介质 | |
CN112328809A (zh) | 实体分类方法、装置及计算机可读存储介质 | |
CN111400443A (zh) | 信息处理方法、装置及存储介质 | |
CN116912478A (zh) | 目标检测模型构建、图像分类方法、电子设备 | |
CN115730073A (zh) | 文本处理方法、装置及存储介质 | |
CN111274389A (zh) | 一种信息处理方法、装置、计算机设备及存储介质 | |
CN115718801A (zh) | 文本处理方法、模型的训练方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |