CN110399611A - 一种文本分析方法、装置及存储介质 - Google Patents
一种文本分析方法、装置及存储介质 Download PDFInfo
- Publication number
- CN110399611A CN110399611A CN201910595141.5A CN201910595141A CN110399611A CN 110399611 A CN110399611 A CN 110399611A CN 201910595141 A CN201910595141 A CN 201910595141A CN 110399611 A CN110399611 A CN 110399611A
- Authority
- CN
- China
- Prior art keywords
- text
- short
- analyzed
- term
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000003860 storage Methods 0.000 title abstract description 21
- 230000015654 memory Effects 0.000 claims abstract description 98
- 238000012549 training Methods 0.000 claims abstract description 54
- 230000008451 emotion Effects 0.000 claims abstract description 37
- 230000006870 function Effects 0.000 claims abstract description 37
- 238000003780 insertion Methods 0.000 claims abstract description 25
- 230000037431 insertion Effects 0.000 claims abstract description 25
- 238000004458 analytical method Methods 0.000 claims abstract description 10
- 239000013598 vector Substances 0.000 claims description 86
- 238000012545 processing Methods 0.000 claims description 24
- 230000011218 segmentation Effects 0.000 claims description 7
- 238000004891 communication Methods 0.000 claims description 6
- 239000010269 danmu Substances 0.000 claims description 5
- 230000006403 short-term memory Effects 0.000 abstract description 11
- 238000009412 basement excavation Methods 0.000 abstract description 5
- 230000002996 emotional effect Effects 0.000 abstract description 5
- 238000005065 mining Methods 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 14
- 238000004590 computer program Methods 0.000 description 7
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 238000003058 natural language processing Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 241000208340 Araliaceae Species 0.000 description 2
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 2
- 235000003140 Panax quinquefolius Nutrition 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 235000008434 ginseng Nutrition 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
Abstract
本申请公开了一种文本分析方法、装置及存储介质,涉及文本分类领域,用以解决现有技术中,对文本信息的挖掘分析,较为简单,不能挖掘出深层意思的问题。该方法中,通过对待分析文本进行词嵌入,得到待分析文本的第一输入特征向量,并将该第一输入特征向量输入到预先训练好的采用Nadam优化函数训练得到的双向长短时记忆网络模型中,得到待分析文本所表达的情感。这样,通过将词嵌入的待分析文本输入到双向长短时记忆网络模型中,实现了对待分析本文的情感因素的挖掘,同时,通过Nadam优化函数对双向长短时记忆网络模型进行优化,使得到的结果更加准确。
Description
技术领域
本申请涉及文本分类领域,尤其涉及一种文本分析方法、装置及存储介质。
背景技术
飞速发展的互联网络已经日益成为人们日常生活中不可分割的一部分。根据中国互联网络信息中心的最新报告,中国网民的数量己经达到了7.72亿,并且继续保持平稳增长,这其中最大的推动力就是无数新兴网络即时媒体的出现和蓬勃发展,从而随之产生了海量的文本信息。目前对文本信息的挖掘分析,较为简单,不能挖掘出深层意思,故此需要一种新的文本分析方法。
发明内容
申请实施例提供一种文本分析方法、装置及存储介质,用以解决现有技术中,对文本信息的挖掘分析,较为简单,不能挖掘出深层意思的问题。
第一方面,本申请实施例提供一种文本分析方法,该方法包括:
获取待分析文本;
对所述待分析文本进行词嵌入,得到所述待分析文本的第一输入特征向量;
将所述第一输入特征向量通过预训练的双向长短时记忆网络模型进行处理,得到所述待分析文本所表达的情感;其中,所述双向长短时记忆网络模型是采用Nadam优化函数进行训练得到的。
第二方面,本申请实施例提供一种双向长短时记忆网络模型的训练方法,该方法包括:
获取待训练文本;
对所述待训练文本进行词嵌入,得到所述待训练文本的第二输入特征向量;
将所述第二输入特征向量通过待训练的双向长短时记忆网络模型进行处理,使所述待分析文本所表达的情感符合预期所表达的情感;其中,通过Nadam优化函数对所述双向长短时记忆网络模型的参数进行调整。
第三方面,本申请实施例提供一种文本分析装置,该装置包括:
第一获取模块,用于获取待分析文本;
第一词嵌入模块,用于对所述待分析文本进行词嵌入,得到所述待分析文本的第一输入特征向量;
第一处理模块,用于将所述第一输入特征向量通过预训练的双向长短时记忆网络模型进行处理,得到所述待分析文本所表达的情感;其中,所述双向长短时记忆网络模型是采用Nadam优化函数进行训练得到的。
第四方面,本申请实施例提供一种双向长短时记忆网络模型的训练装置,该装置包括:
第二获取模块,用于获取待训练文本;
第二词嵌入模块,用于对所述待训练文本进行词嵌入,得到所述待训练文本的第二输入特征向量;
第二处理模块,用于将所述第二输入特征向量通过待训练的双向长短时记忆网络模型进行处理,使所述待分析文本所表达的情感符合预期所表达的情感;其中,通过Nadam优化函数对所述双向长短时记忆网络模型的参数进行调整。
第五方面,本申请另一实施例还提供了一种计算装置,包括至少一个处理器;以及;
与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本申请实施例提供的一种文本分析方法。
第六方面,本申请另一实施例还提供了一种计算机存储介质,其中,所述计算机存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机执行本申请实施例中的一种文本分析方法。
本申请实施例提供的一种文本分析方法、装置及存储介质,通过对待分析文本进行词嵌入,得到待分析文本的第一输入特征向量,并将该第一输入特征向量输入到预先训练好的采用Nadam优化函数训练得到的双向长短时记忆网络模型中,得到待分析文本所表达的情感。这样,通过将词嵌入的待分析文本输入到双向长短时记忆网络模型中,实现了对待分析本文的情感因素的挖掘,同时,通过Nadam优化函数对双向长短时记忆网络模型进行优化,使得到的结果更加准确。
本申请的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本申请而了解。本申请的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本申请实施例中训练双向长短时记忆网络模型的流程示意图;
图2为本申请实施例中双向长短时记忆网络模型的训练流程图;
图3为本申请实施例中长短时记忆网络模型的结构示意图;
图4为本申请实施例中文本分析方法的流程示意图;
图5为本申请实施例中文本分析结构示意图;
图6为本申请实施例中训练双向长短时记忆网络模型的结构示意图;
图7为根据本申请实施方式的计算装置的结构示意图。
具体实施方式
为了解决现有技术中,对文本信息的挖掘分析,较为简单,不能挖掘出深层意思的问题,本申请实施例中提供一种文本分析方法、装置及存储介质。为了更好的理解本申请实施例提供的技术方案,这里对该方案的基本原理做一下简单说明:
本申请实施例提供的一种文本分析方法、装置及存储介质,通过对待分析文本进行词嵌入,得到待分析文本的第一输入特征向量,并将该第一输入特征向量输入到预先训练好的采用Nadam(纳丹姆)优化函数训练得到的双向长短时记忆网络模型中,得到待分析文本所表达的情感。这样,通过将词嵌入的待分析文本输入到双向长短时记忆网络模型中,实现了对待分析本文的情感因素的挖掘,同时,通过Nadam优化函数对双向长短时记忆网络模型进行优化,使得到的结果更加准确。
文本分析是指对文本的表示及其特征项的选取;文本分析是文本挖掘、信息检索的一个基本问题,它把从文本中抽取出的特征词进行量化来表示文本信息。文本的语义会反映特定立场、观点、价值和利益。在这些信息中通常包含着丰富的情感元素,具有一定的研究价值,因此,如何有效利用这些信息进行文本情感分析已经逐渐成为自然语言处理和人工智能领域的一大热点课题。
在目前的自然语言处理(NLP,Natural Language Processing)领域,大多数的文本分析方法都是针对英语文本而设计的,但是由于汉语的分词和特殊的语法结构,使得现有的本文分析方法对汉语文本的分析结果并不准确。因此,本申请提出了一种文本分析方法,可以适用于英语文本以及汉语文本。下面对如何训练双向长短时记忆网络模型进行详细的说明。如图1所示,包括以下步骤:
步骤101:获取待训练文本。
步骤102:对所述待训练文本进行词嵌入,得到所述待训练文本的第二输入特征向量。
其中,通过词嵌入得到的第二输入特征向量可以将待训练文本中上下文的连接关系体现出来。
步骤103:将所述第二输入特征向量通过待训练的双向长短时记忆网络模型进行处理,使所述待分析文本所表达的情感符合预期所表达的情感;其中,通过Nadam优化函数对所述双向长短时记忆网络模型的参数进行调整。
这样,通过将词嵌入的待分析文本输入到双向长短时记忆网络模型中,实现了对待分析本文的情感因素的挖掘,同时,通过Nadam优化函数对双向长短时记忆网络模型进行优化,使得到的结果更加准确。
在本申请实施例中,首先对待训练文本进行分词,并对各分词进行词嵌入(WordEmbedding),得到待训练文本的第二输入特征向量。具体可实施为步骤A1-步骤A3:
步骤A1:对所述待训练文本进行分词处理,得到所述待分析文本中的各分词。
在本申请实施例中,在进行分词处理之前,还可以对所述待训练文本进行预处理,例如对文本数据进行人工标记,将文本中的数据标记为积极和消极两类,再将积极和消极数据进行重新清洗,使用jieba库(python的第三方中文分词库)对数据集进行分词处理。这样,可以使得到的输入特征向量功能家准确。
步骤A2:将所述待训练文本中的各分词通过词嵌入生成代表该分词上下文连接关系的关系向量。
步骤A3:由各分词的关系向量构成所述待分析文本的第二输入特征向量。
这样,通过对待训练文本进行分词,并进行词嵌入,可以将待训练文本中各分词的上下文连接关系体现在第二输入特征向量中,从而在进行文本分析时,可以得到更加准确的结果。
在得到了第二输入特征向量之后,需要将其输入到待训练的双向长短时记忆网络模型中,其中,双向长短时记忆网络模型由一个正向长短时记忆网络模型和一个反向长短时记忆网络模型构成,具体可实施为步骤B1-步骤B3:
步骤B1:将所述第二输入特征向量分别交由所述双向长短时记忆网络模型中的正向长短时记忆网络模型和反向长短时记忆网络模型进行处理,分别得到第二正向向量和第二反向向量。
步骤B2:将所述第二正向向量和所述第二反向向量进行合并,得到所述待训练文本的输出特征向量。
其中,待训练文本中的每一个分词对应的关系向量输入到双向长短时记忆网络模型中会得到一个正向输出结果和反向输出结果。
步骤B3:通过Nadam优化函数调整所述双向长短时记忆网络模型的参数,使得所述待训练文本的第二输出特征向量所表达的情感符合预期所表达的情感。
这样,通过Nadam优化函数对双向长短时记忆网络模型的参数进行调整,使得双向长短时记忆网络模型更加符合要求,从而提高了文本分析的准确性。
在本申请实施例中,将第二正向向量和第二反向向量进行合并后,还需要对合并后的结果求取平均值,因此步骤B2具体可实施为步骤C1-步骤C2:
步骤C1:将所述第一正向向量和所述第一反向向量进行合并,得到输出序列。
其中,所述输出序列中包含多个结果,每个结果对应一个分词的关系向量。
步骤C2:将所述输出序列中各结果的平均值作为第一输出特征向量。
这样,通过对正向向量与反向向量进行合并,使得到的文本特征更加准确,从而提高了文本分析的准确性。
如图2所示,为待训练的双向长短时记忆网络模型训练流程图。其中,W1、W2…Wm为输入的待训练文本的输入特征向量,每个分词对应输入特征线向量中的一个元素,将各分词输入到双向长短时记忆网络模型,会得到该分词的输出向量;其中,一个分词通过正向长短时记忆网络模型会得到一个正向输出向量,一个分词通过反向长短时记忆网络模型会得到一个反向输出向量,将两个向量进行合并最终得到一个输出序列;最终将输出序列中各向量的平均值作为输出特征向量。
上面介绍了本申请实施例中的待训练的网络模型,下面对该网络模型中的长短时记忆网络模型进行进一步的说明。具体可实施为步骤D1-步骤D3:
步骤D1:在遗忘门层中根据输入的文字确定激活函数的状态;并根据激活函数的状态对模型中的预先存在的文字进行选择性舍弃,得到重要元素。
步骤D2:在输入门层中根据门控函数和所述输入的文字对所述重要元素进行更新。
步骤D3:在输出门层中根据门控函数和激活函数将更新后的元素作为该文字所占的注意力权重进行输出。
这样,通过调用长短时记忆网络模型对待训练文本进行训练,可以得到关于长短时记忆网络模型对于待训练文本的输出特征向量。其中,图3为长短时记忆网络模型的结构示意图。其中,σ为激活函数,tanh为门控函数。
在本申请实施例中,为了使训练的模型更加符合要求,本申请实施例中的双向长短时记忆网络模型损失函数中包含L2正则化惩罚参数。
上面详细介绍了如何训练双向长短时记忆网络模型,下面通过具体实施例对如何通过训练好的网络模型对待分析文本进行文本分析进行详细的说明。图4为文本分析方法的流程示意图,包括以下步骤:
步骤401:获取待分析文本。
步骤402:对所述待分析文本进行词嵌入,得到所述待分析文本的第一输入特征向量。
步骤403:将所述第一输入特征向量通过预训练的双向长短时记忆网络模型进行处理,得到所述待分析文本所表达的情感;其中,所述双向长短时记忆网络模型是采用Nadam优化函数进行训练得到的。
这样,通过训练好的网络模型,可以得到待分析文本表达的情感,从而实现了对待分析本文的情感因素的挖掘。
在本申请实施例中,首先对待分析文本进行分词,并对各分词进行词嵌入,得到待分析文本的第一输入特征向量。具体可实施为步骤E1-步骤E3:
步骤E1:对所述待分析文本进行分词处理,得到所述待分析文本中的各分词。
步骤E2:将所述待分析文本中的各分词通过词嵌入生成代表该分词上下文连接关系的关系向量。
步骤E3:由各分词的关系向量构成所述待分析文本的第一输入特征向量。
这样,通过对待分析文本进行分词,并进行词嵌入,可以将待分析文本中各分词的上下文连接关系体现在第一输入特征向量中,从而在进行文本分析时,可以得到更加准确的结果。
在得到了第一输入特征向量之后,需要将其输入到训练好的双向长短时记忆网络模型中,具体可实施为步骤F1-步骤F3:
步骤F1:将所述第一输入特征向量分别交由所述双向长短时记忆网络模型中的正向长短时记忆网络模型和反向长短时记忆网络模型进行处理,分别得到第一正向向量和第一反向向量。
步骤F2:将所述第一正向向量和所述第一反向向量进行合并,得到所述待分析文本的第一输出特征向量。
步骤F3:通过分类器对所述第一输出特征向量进行处理,确定所述待分析文本所表达的情感。
这样,通过双向长短时记忆网络模型得到第一输出向量,并对第一输出向量进行处理,使分析得到的待分析文本所表达的情感符合要求,从而提高了文本分析的准确性。
在本申请实施例中,将第一正向向量和第一反向向量进行合并后,还需要对合并后的结果求取平均值,因此步骤F2具体可实施为步骤G1-步骤G2:
步骤G1:将所述第一正向向量和所述第一反向向量进行合并,得到输出序列。
其中,所述输出序列中包含多个结果,每个结果对应一个分词的关系向量。
步骤G2:将所述输出序列中各结果的平均值作为第一输出特征向量。
这样,通过对正向向量与反向向量进行合并,使得到的文本特征更加准确,从而提高了文本分析的准确性。
在本申请实施例中,为了使训练的模型更加符合要求,本申请实施例中的双向长短时记忆网络模型损失函数中包含L2正则化惩罚参数。
基于相同的发明构思,本申请实施例还提供了一种文本分析装置。如图5所示,该装置包括:
第一获取模块501,用于获取待分析文本;
第一词嵌入模块502,用于对所述待分析文本进行词嵌入,得到所述待分析文本的第一输入特征向量;
第一处理模块503,用于将所述第一输入特征向量通过预训练的双向长短时记忆网络模型进行处理,得到所述待分析文本所表达的情感;其中,所述双向长短时记忆网络模型是采用Nadam优化函数进行训练得到的。
进一步的,第一处理模块503包括:
第一输入单元,用于将所述第一输入特征向量分别交由所述双向长短时记忆网络模型中的正向长短时记忆网络模型和反向长短时记忆网络模型进行处理,分别得到第一正向向量和第一反向向量;
第一合并单元,用于将所述第一正向向量和所述第一反向向量进行合并,得到所述待分析文本的第一输出特征向量;
第一处理单元,用于通过分类器对所述第一输出特征向量进行处理,确定所述待分析文本所表达的情感。
进一步的,第一词嵌入模块502包括:
分词单元,用于对所述待分析文本进行分词处理,得到所述待分析文本中的各分词;
生成向量单元,用于将所述待分析文本中的各分词通过词嵌入生成代表该分词上下文连接关系的关系向量;
构成特征向量单元,用于由各分词的关系向量构成所述待分析文本的第一输入特征向量。
进一步的,第一合并单元包括:
合并子单元,用于将所述第一正向向量和所述第一反向向量进行合并,得到输出序列;其中,所述输出序列中包含多个结果,每个结果对应一个分词的关系向量;
求平均值子单元,用于将所述输出序列中各结果的平均值作为第一输出特征向量。
进一步的,所述双向长短时记忆网络模型损失函数中包含L2正则化惩罚参数。
基于相同的发明构思,本申请实施例还提供了一种双向长短时记忆网络模型的训练装置。如图6所示,该装置包括:
第二获取模块601,用于获取待训练文本;
第二词嵌入模块602,用于对所述待训练文本进行词嵌入,得到所述待训练文本的第二输入特征向量;
第二处理模块603,用于将所述第二输入特征向量通过待训练的双向长短时记忆网络模型进行处理,使所述待分析文本所表达的情感符合预期所表达的情感;其中,通过Nadam优化函数对所述双向长短时记忆网络模型的参数进行调整。
进一步的,第二处理模块603包括:
第二输入单元,用于将所述第二输入特征向量分别交由所述双向长短时记忆网络模型中的正向长短时记忆网络模型和反向长短时记忆网络模型进行处理,分别得到第二正向向量和第二反向向量;
第二合并单元,用于将所述第二正向向量和所述第二反向向量进行合并,得到所述待训练文本的输出特征向量;
第二处理单元,用于通过Nadam优化函数调整所述双向长短时记忆网络模型的参数,使得所述待训练文本的第二输出特征向量所表达的情感符合预期所表达的情感。
进一步的,在所述双向长短时记忆网络模型的损失函数中加入L2正则化惩罚参数。
在介绍了本申请示例性实施方式的文本分析的方法及装置之后,接下来,介绍根据本申请的另一示例性实施方式的计算装置。
所属技术领域的技术人员能够理解,本申请的各个方面可以实现为系统、方法或程序产品。因此,本申请的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
在一些可能的实施方式中,根据本申请的实施例,计算装置可以至少包括至少一个处理器、以及至少一个存储器。其中,存储器存储有程序代码,当程序代码被处理器执行时,使得处理器执行本说明书上述描述的根据本申请各种示例性实施方式的文本分析方法中的步骤401-步骤403。
下面参照图7来描述根据本申请的这种实施方式的计算装置70。图7显示的计算装置70仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。该计算装置例如可以是手机、平板电脑等。
如图7所示,计算装置70以通用计算装置的形式表现。计算装置70的组件可以包括但不限于:上述至少一个处理器71、上述至少一个存储器72、连接不同系统组件(包括存储器72和处理器71)的总线73。
总线73表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器、外围总线、处理器或者使用多种总线结构中的任意总线结构的局域总线。
存储器72可以包括易失性存储器形式的可读介质,例如随机存取存储器(RAM)721和/或高速缓存存储器722,还可以进一步包括只读存储器(ROM)723。
存储器72还可以包括具有一组(至少一个)程序模块724的程序/实用工具725,这样的程序模块724包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
计算装置70也可以与一个或多个外部设备74(例如指向设备等)通信,还可与一个或者多个使得用户能与计算装置70交互的设备通信,和/或与使得该计算装置70能与一个或多个其它计算装置进行通信的任何设备(例如路由器、调制解调器等)通信。这种通信可以通过输入/输出(I/O)接口75进行。并且,计算装置70还可以通过网络适配器76与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器76通过总线73与用于计算装置70的其它模块通信。应当理解,尽管图中未示出,可以结合计算装置70使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理器、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
在一些可能的实施方式中,本申请提供的文本分析方法的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在计算机设备上运行时,程序代码用于使计算机设备执行本说明书上述描述的根据本申请各种示例性实施方式的文本分析的方法中的步骤,执行如图4中所示的步骤401-403。
程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
本申请实施方式的文本分析方法可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在计算装置上运行。然而,本申请的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、有线、光缆、RF等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本申请操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算装置上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算装置上部分在远程计算装置上执行、或者完全在远程计算装置或服务器上执行。在涉及远程计算装置的情形中,远程计算装置可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算装置,或者,可以连接到外部计算装置(例如利用因特网服务提供商来通过因特网连接)。
应当注意,尽管在上文详细描述中提及了装置的若干单元或子单元,但是这种划分仅仅是示例性的并非强制性的。实际上,根据本申请的实施方式,上文描述的两个或更多单元的特征和功能可以在一个单元中具体化。反之,上文描述的一个单元的特征和功能可以进一步划分为由多个单元来具体化。
此外,尽管在附图中以顺序描述了本申请方法的操作,但是,这并非要求或者暗示必须按照该顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。附加地或备选地,可以省略某些步骤,将多个步骤合并为一个步骤执行,和/或将一个步骤分解为多个步骤执行。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本申请的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请范围的所有变更和修改。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
Claims (12)
1.一种文本分析方法,其特征在于,所述方法包括:
获取待分析文本;
对所述待分析文本进行词嵌入,得到所述待分析文本的第一输入特征向量;
将所述第一输入特征向量通过预训练的双向长短时记忆网络模型进行处理,得到所述待分析文本所表达的情感;其中,所述双向长短时记忆网络模型是采用纳丹姆Nadam优化函数进行训练得到的。
2.根据权利要求1所述的方法,其特征在于,所述将所述第一输入特征向量通过预训练的双向长短时记忆网络模型进行处理,得到所述待分析文本所表达的情感,包括:
将所述第一输入特征向量分别交由所述双向长短时记忆网络模型中的正向长短时记忆网络模型和反向长短时记忆网络模型进行处理,分别得到第一正向向量和第一反向向量;
将所述第一正向向量和所述第一反向向量进行合并,得到所述待分析文本的第一输出特征向量;
通过分类器对所述第一输出特征向量进行处理,确定所述待分析文本所表达的情感。
3.根据权利要求1所述的方法,其特征在于,所述对所述待分析文本进行词嵌入,得到所述待分析文本的第一输入特征向量,包括:
对所述待分析文本进行分词处理,得到所述待分析文本中的各分词;
将所述待分析文本中的各分词通过词嵌入生成代表该分词上下文连接关系的关系向量;
由各分词的关系向量构成所述待分析文本的第一输入特征向量。
4.根据权利要求3所述的方法,其特征在于,所述将所述第一正向向量和所述第一反向向量进行合并,得到所述待分析文本的第一输出特征向量,包括:
将所述第一正向向量和所述第一反向向量进行合并,得到输出序列;其中,所述输出序列中包含多个结果,每个结果对应一个分词的关系向量;
将所述输出序列中各结果的平均值作为第一输出特征向量。
5.根据权利要求1所述的方法,其特征在于,所述双向长短时记忆网络模型损失函数中包含L2正则化惩罚参数。
6.一种双向长短时记忆网络模型的训练方法,其特征在于,所述方法包括:
获取待训练文本;
对所述待训练文本进行词嵌入,得到所述待训练文本的第二输入特征向量;
将所述第二输入特征向量通过待训练的双向长短时记忆网络模型进行处理,使所述待分析文本所表达的情感符合预期所表达的情感;其中,通过纳丹姆Nadam优化函数对所述双向长短时记忆网络模型的参数进行调整。
7.根据权利要求6所述的方法,其特征在于,所述将所述第二输入特征向量通过待训练的双向长短时记忆网络模型进行处理,使所述待分析文本所表达的情感符合预期所表达的情感,包括:
将所述第二输入特征向量分别交由所述双向长短时记忆网络模型中的正向长短时记忆网络模型和反向长短时记忆网络模型进行处理,分别得到第二正向向量和第二反向向量;
将所述第二正向向量和所述第二反向向量进行合并,得到所述待训练文本的输出特征向量;
通过Nadam优化函数调整所述双向长短时记忆网络模型的参数,使得所述待训练文本的第二输出特征向量所表达的情感符合预期所表达的情感。
8.根据权利要求6所述的方法,其特征在于,在所述双向长短时记忆网络模型的损失函数中加入L2正则化惩罚参数。
9.一种文本分析装置,其特征在于,所述装置包括:
第一获取模块,用于获取待分析文本;
第一词嵌入模块,用于对所述待分析文本进行词嵌入,得到所述待分析文本的第一输入特征向量;
第一处理模块,用于将所述第一输入特征向量通过预训练的双向长短时记忆网络模型进行处理,得到所述待分析文本所表达的情感;其中,所述双向长短时记忆网络模型是采用纳丹姆Nadam优化函数进行训练得到的。
10.一种双向长短时记忆网络模型的训练装置,其特征在于,所述装置包括:
第二获取模块,用于获取待训练文本;
第二词嵌入模块,用于对所述待训练文本进行词嵌入,得到所述待训练文本的第二输入特征向量;
第二处理模块,用于将所述第二输入特征向量通过待训练的双向长短时记忆网络模型进行处理,使所述待分析文本所表达的情感符合预期所表达的情感;其中,通过纳丹姆Nadam优化函数对所述双向长短时记忆网络模型的参数进行调整。
11.一种计算机可读介质,存储有计算机可执行指令,其特征在于,所述计算机可执行指令用于执行如权利要求1-8中任一权利要求所述的方法。
12.一种计算装置,其特征在于,包括:
至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1-8中任一权利要求所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910595141.5A CN110399611A (zh) | 2019-07-03 | 2019-07-03 | 一种文本分析方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910595141.5A CN110399611A (zh) | 2019-07-03 | 2019-07-03 | 一种文本分析方法、装置及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110399611A true CN110399611A (zh) | 2019-11-01 |
Family
ID=68322785
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910595141.5A Pending CN110399611A (zh) | 2019-07-03 | 2019-07-03 | 一种文本分析方法、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110399611A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108829672A (zh) * | 2018-06-05 | 2018-11-16 | 平安科技(深圳)有限公司 | 文本的情感分析方法、装置、计算机设备和存储介质 |
CN108874776A (zh) * | 2018-06-11 | 2018-11-23 | 北京奇艺世纪科技有限公司 | 一种垃圾文本的识别方法及装置 |
CN109597891A (zh) * | 2018-11-26 | 2019-04-09 | 重庆邮电大学 | 基于双向长短时记忆神经网络的文本情感分析方法 |
CN109684634A (zh) * | 2018-12-17 | 2019-04-26 | 北京百度网讯科技有限公司 | 情感分析方法、装置、设备及存储介质 |
CN109740148A (zh) * | 2018-12-16 | 2019-05-10 | 北京工业大学 | 一种BiLSTM结合Attention机制的文本情感分析方法 |
CN109800438A (zh) * | 2019-02-01 | 2019-05-24 | 北京字节跳动网络技术有限公司 | 用于生成信息的方法和装置 |
-
2019
- 2019-07-03 CN CN201910595141.5A patent/CN110399611A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108829672A (zh) * | 2018-06-05 | 2018-11-16 | 平安科技(深圳)有限公司 | 文本的情感分析方法、装置、计算机设备和存储介质 |
CN108874776A (zh) * | 2018-06-11 | 2018-11-23 | 北京奇艺世纪科技有限公司 | 一种垃圾文本的识别方法及装置 |
CN109597891A (zh) * | 2018-11-26 | 2019-04-09 | 重庆邮电大学 | 基于双向长短时记忆神经网络的文本情感分析方法 |
CN109740148A (zh) * | 2018-12-16 | 2019-05-10 | 北京工业大学 | 一种BiLSTM结合Attention机制的文本情感分析方法 |
CN109684634A (zh) * | 2018-12-17 | 2019-04-26 | 北京百度网讯科技有限公司 | 情感分析方法、装置、设备及存储介质 |
CN109800438A (zh) * | 2019-02-01 | 2019-05-24 | 北京字节跳动网络技术有限公司 | 用于生成信息的方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Mai et al. | Locally confined modality fusion network with a global perspective for multimodal human affective computing | |
CN109871800B (zh) | 一种人体姿态估计方法、装置和存储介质 | |
TW201917602A (zh) | 文本語義編碼方法及裝置 | |
CN111930894B (zh) | 长文本匹配方法及装置、存储介质、电子设备 | |
CN109933802A (zh) | 图文匹配方法、装置及存储介质 | |
CN111428520A (zh) | 一种文本翻译方法及装置 | |
CN111428514A (zh) | 语义匹配方法、装置、设备以及存储介质 | |
CN110032736A (zh) | 一种文本分析方法、装置及存储介质 | |
CN115688920B (zh) | 知识抽取方法、模型的训练方法、装置、设备和介质 | |
CN110457708A (zh) | 基于人工智能的词汇挖掘方法、装置、服务器及存储介质 | |
CN111415389A (zh) | 基于强化学习的无标签六维物体姿态预测方法及装置 | |
CN112507702B (zh) | 文本信息的抽取方法、装置、电子设备及存储介质 | |
CN109558605A (zh) | 用于翻译语句的方法和装置 | |
CN113204611A (zh) | 建立阅读理解模型的方法、阅读理解方法及对应装置 | |
CN108415939A (zh) | 基于人工智能的对话处理方法、装置、设备及计算机可读存储介质 | |
CN111598979A (zh) | 虚拟角色的面部动画生成方法、装置、设备及存储介质 | |
CN109214417A (zh) | 用户意图的挖掘方法及装置、计算机设备及可读介质 | |
US20210326538A1 (en) | Method, apparatus, electronic device for text translation and storage medium | |
CN113591918A (zh) | 图像处理模型的训练方法、图像处理方法、装置和设备 | |
CN110232914A (zh) | 一种语义识别方法、装置以及相关设备 | |
US20230052906A1 (en) | Entity Recognition Method and Apparatus, and Computer Program Product | |
CN114357124B (zh) | 一种基于语言重建和图机制的视频段落定位方法 | |
CN113723077B (zh) | 基于双向表征模型的句向量生成方法、装置及计算机设备 | |
CN112580723B (zh) | 多模型融合方法、装置、电子设备和存储介质 | |
Li et al. | Mimonet: Multi-input multi-output on-device deep learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191101 |
|
RJ01 | Rejection of invention patent application after publication |