CN113486178A - 文本识别模型训练方法、文本识别方法、装置以及介质 - Google Patents
文本识别模型训练方法、文本识别方法、装置以及介质 Download PDFInfo
- Publication number
- CN113486178A CN113486178A CN202110785051.XA CN202110785051A CN113486178A CN 113486178 A CN113486178 A CN 113486178A CN 202110785051 A CN202110785051 A CN 202110785051A CN 113486178 A CN113486178 A CN 113486178A
- Authority
- CN
- China
- Prior art keywords
- text
- feature extraction
- short text
- sequence
- result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 79
- 238000000605 extraction Methods 0.000 claims abstract description 270
- 239000013598 vector Substances 0.000 claims abstract description 86
- 230000011218 segmentation Effects 0.000 claims description 23
- 238000004590 computer program Methods 0.000 claims description 6
- 230000007246 mechanism Effects 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 20
- 230000015654 memory Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 8
- 230000007547 defect Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000000306 recurrent effect Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 2
- 238000013145 classification model Methods 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000007477 logistic regression Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000001915 proofreading effect Effects 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/353—Clustering; Classification into predefined classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Databases & Information Systems (AREA)
- Character Discrimination (AREA)
Abstract
本发明实施例公开了一种文本识别模型训练方法、文本识别方法、装置以及介质。所述文本识别模型训练方法,包括:获取待处理短文本训练数据;根据待处理短文本训练数据生成文本向量序列;对文本向量序列进行序列特征提取处理,得到序列特征提取结果,并将序列特征提取结果确定为短文本分类结果;短文本分类结果包括第一短文本分类标签和第一标签概率;对序列特征提取结果进行实体特征提取处理,得到实体特征提取结果;根据序列特征提取结果和实体特征提取结果对文本识别模型进行训练。本发明实施例的技术方案能够利用对短文本提取的多维特征完成短文本分类以及实体识别,从而提高文本识别模型的精准度。
Description
技术领域
本发明实施例涉及数据处理技术领域,尤其涉及一种文本识别模型训练方法、文本识别方法、装置以及介质。
背景技术
目前,文本识别可以应用于许多领域,如信件和包裹的分拣、稿件的编辑和校对、统计报表汇总分类、文档检索以及诈骗短信识别等,提升各行各业的工作效率。而文本识别主要包括对文本进行分类以及实体识别。其中,文本分类只要是通过计算机对文本集按照一定的分类体系或标准进行自动分类标记。也即根据训练文本数据,对能够找到文本特征和文本之间的关系模型进行训练,然后利用这种学习得到的关系模型对新的文本进行类别判断。文本分类从基于知识的方法逐渐转变为基于统计和机器学习的方法。此外,通过对文本中的实体识别可以便于对文本的分析和处理。
在现有技术中,主要通过机器学习以及深度学习方式对文本进行识别。采用机器学习的方式对文本进行识别时,首先需要人工提取文本特征,例如,ngram(n元语法)、词性以及语法特征等。在人工构建特征后,需要将提取的文本特征输入至常用的分类模型(逻辑回归、支持向量机等),以利用分类模型完成文本识别任务。当文本数量庞大时,采用机器学习的方式进行文本分类会占用大量人力,且人工进行文本特征提取存在效率低下的问题。而深度学习作为一种端到端的学习方法,采用深度学习的方法可以对输入的原始文本进行简单的预处理,从而根据预处理结果对输入的原始文本进行识别,并且通过设计合理的模型并对模型进行相应优化可以完成文本向量化。从实际应用情况来看,一般在优化良好的情况下深度学习模型的效果明显优于机器学习模型。
对于短文本这类比较特殊的文本来说,存在以下几个特点和难点:(1)当短文本内容过短时,如果应用机器学习模型对短文本进行识别,则难以提取有效的特征。如果应用深度学习模型对短文本进行识别,则不易理解短文本的整体含义,也不易获取短文本的上下文关系。(2)短文本书写不规范,没有统一的书写方式。并且在短文本存在错别字以及网络流行语时,会对短文本分类造成障碍。(3)当短文本分类类别过多时,模型的训练难度会增大。
现有技术中,针对短文本这种特殊的文本(长短不一、书写不规范以及不同种类短文本关键信息分布也不一样)来说,主要采用NER(Named Entity Recognition,命名实体识别)模型对实体进行识别,但得不到很好的效果。其中,实体识别是一种序列标注任务,在对文本中的实体进行识别时,主要采用的时间序列模型主要有LSTM(Long-Short TermMemory,长短期记忆模型循环神经网络)模型、CRF模型(Conditional Random Field,条件随机场)以及BERT模型等。其中,BERT(Bidirectional Enoceder Representations fromTransformers,双向编码器的转换表示)模型是谷歌开源的模型,通过与多层文本挖掘模型机制相结合,能够得出良好的词向量输出。CRF模型是基于无向图的判别式模型,多应用在序列标注任务中。
需要注意的是,现有学习模型只能利用单一维度特征完成单个文本识别任务,也即只利用学习模型对短文本进行文本分类,或者仅利用学习模型对短文本进行实体识别,这使得同一模型无法同时完成对短文本的分类和实体识别,而利用两个学习模型分别进行文本分类和实体识别会耗费大量时长,并且学习模型仅利用单一维度特征对文本进行识别会使得文本识别结果的准确率较低。
发明内容
本发明实施例提供一种文本识别模型训练方法、文本识别方法、装置以及介质,能够利用对短文本提取的多维特征完成短文本分类以及实体识别,从而提高文本识别模型的精度。
第一方面,本发明实施例提供了一种文本识别模型训练方法,包括:
获取待处理短文本训练数据;
根据待处理短文本训练数据生成文本向量序列;
对文本向量序列进行序列特征提取处理,得到序列特征提取结果,并将序列特征提取结果确定为短文本分类结果;短文本分类结果包括第一短文本分类标签和第一标签概率;
对序列特征提取结果进行实体特征提取处理,得到实体特征提取结果;
根据序列特征提取结果和实体特征提取结果对文本识别模型进行训练。
第二方面,本发明实施例提供了一种文本识别方法,包括:
获取待识别短文本数据;
将待识别短文本数据输入至文本识别模型中,得到短文本分类结果和短文本实体;其中,短文本分类结果包括短文本分类标签和标签概率;
其中,文本识别模型通过第一方面的文本识别模型训练方法训练得到。
第三方面,本发明实施例还提供了一种文本识别模型训练装置,包括:
待处理短文本训练数据获取模块,用于获取待处理短文本训练数据;
文本向量序列生成模块,用于根据待处理短文本训练数据生成文本向量序列;
短文本分类结果确定模块,用于对文本向量序列进行序列特征提取处理,得到序列特征提取结果,并将序列特征提取结果确定为短文本分类结果;短文本分类结果包括第一短文本分类标签和第一标签概率;
实体特征提取结果获取模块,用于对序列特征提取结果进行实体特征提取处理,得到实体特征提取结果;
模型训练模块,用于根据序列特征提取结果和实体特征提取结果对文本识别模型进行训练。
第四方面,本发明实施例还提供了一种文本识别装置,包括:
待识别短文本数据获取模块,用于获取待识别短文本数据;
文本识别结果确定模块,用于将待识别短文本数据输入至文本识别模型中,得到短文本分类结果和短文本实体;其中,短文本分类结果包括短文本分类标签和标签概率;
其中,文本识别模型通过本发明任一实施例所述的文本识别模型训练方法训练得到。
第五方面,本发明实施例还提供了一种电子设备,所述电子设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本发明任意实施例所提供的文本识别模型训练方法或文本识别方法。
第六方面,本发明实施例还提供了一种计算机存储介质,其上存储有计算机程序,该程序被处理器执行时实现本发明任一实施例所提供的文本识别模型训练方法或文本识别方法。
本发明实施例通过对获取的待处理短文本训练数据生成文本向量序列,进而对文本向量序列进行序列特征提取处理,得到序列特征提取结果,并将序列特征提取结果确定为短文本分类结果。在得到序列特征提取结果之后,可以进一步对序列特征提取结果进行实体特征提取处理,得到实体特征提取结果,以进一步根据序列特征提取结果和实体特征提取结果的多维度特征对文本识别模型进行训练。对序列特征提取结果进行实体特征提取处理可以进一步获取待处理短文本训练数据中所包含的实体名称,利用序列特征提取结果和实体特征提取结果对文本识别模型进行训练,可以使文本识别模型能够同时完成短文本的分类以及实体识别任务,当同一模型同时完成短文本分类以及实体识别时,可以使模型学习到短文本分类以及短文本实体的内在联系,使得模型能准确的对短文本进行分类以及实体识别,解决了现有文本识别模型中特征提取方式单一、以及无法同时进行文本分类和实体识别双重任务的缺陷,能够利用对短文本提取的多维特征完成短文本分类以及实体识别,从而提高文本识别模型的精度。
附图说明
图1是本发明实施例一提供的一种文本识别模型训练方法的流程图;
图2是本发明实施例一提供的一种文本识别模型的结构示意图;
图3是本发明实施例一提供的一种attention模型的结构示意图;
图4是本发明实施例一提供的又一种文本识别模型的结构示意图;
图5是本发明实施例一提供的一种RNN循环神经网络的结构示意图;
图6是本发明实施例一提供的一种LSTM模型的结构示意图;
图7是本发明实施例一提供的一种BiLSTM模型结构示意图;
图8是本发明实施例二提供的一种文本识别模型训练方法的流程图;
图9是本发明实施例二提供的一种文本识别模型的结构示意图;
图10是本发明实施例二提供的另一种文本识别模型的结构示意图;
图11是本发明实施例三提供的一种文本识别方法的流程图;
图12是本发明实施例四提供的一种文本识别模型训练装置的示意图;
图13是本发明实施例五提供的一种文本识别装置的示意图;
图14为本发明实施例六提供的一种电子设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。
另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部内容。在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各项操作(或步骤)描述成顺序的处理,但是其中的许多操作可以被并行地、并发地或者同时实施。此外,各项操作的顺序可以被重新安排。当其操作完成时所述处理可以被终止,但是还可以具有未包括在附图中的附加步骤。所述处理可以对应于方法、函数、规程、子例程、子程序等等。
实施例一
虽然短文本分类和实体识别是两个不同类型的任务,但是这两种任务有一定的关联性(输入较为相近),即不论是短文本分类还是实体识别,都需要对短文本进行向量化表示和特征提取。如果使用两个孤立的模型来分别解决各自的问题,则会造成重复计算和资源浪费。此外,如果用不同的模型分别处理两项任务,模型将不能够很好的学习到不同短文本类别和实体名称的内在联系,识别结果的准确率也会较差。因此本发明提出一种文本识别模型同时解决短文本分类和实体识别这两项任务。文本识别模型不仅可以节约计算资源,省去不必要的人工建模过程,而且不同任务放在一起学习可以相互促进各自的学习效果,提升模型学习能力和准确率,达到触类旁通的效果。
图1是本发明实施例一提供的一种文本识别模型训练方法的流程图,本实施例可适用于对短文本分类以及实体识别的模型训练的情况,该方法可以由文本识别模型训练装置来执行,该装置可以由软件和/或硬件的方式来实现,并一般可集成在电子设备中。具体的,文本识别模型可以包括输入层、embeding(嵌入)层、序列特征提取层、实体特征提取层、分类器处理层、短文本分类结果输出层以及实体识别结果输出层。其中,文本识别模型的结构示意图如图2所示。需要说明的是,文本识别模型的程序可以用python、java、c++或c等其他语言进行开发,本发明实施例对此并不进行限制。
相应的,如图1所示,该方法包括如下操作:
S110、获取待处理短文本训练数据。
其中,待处理短文本训练数据可以是标准的短文本数据,用于作为样本数据进行模型训练。
在本发明实施例中,可以将已有的或者根据模型训练需要组建的短文本数据,作为待处理短文本训练数据,并将待处理短文本训练数据通过输入层输入至文本识别模型。
S120、根据待处理短文本训练数据生成文本向量序列。
其中,文本向量序列可以是由文本转化成的向量空间中的序列。
在本发明实施例中,文本识别模型获取到待处理短文本训练数据之后,可以利用embeding层中的文本到向量的转换算法对待处理短文本训练数据进行向量转换,得到文本向量序列。
在一个具体的例子中,通过输入层获取到待处理短文本训练数据之后,可以将待处理短文本训练数据输入至模型的embeding层,在模型的embeding层对待处理短文本训练数据进行转换得到文本向量序列。
在本发明的一个可选实施例中,根据待处理短文本训练数据生成文本向量序列,可以包括:对待处理短文本训练数据进行分词处理,得到分词处理结果;根据分词处理结果查询预设字典,确定分词处理结果对应的字典数值编码;根据分词处理结果对应的字典数值编码生成文本向量序列。
其中,分词处理结果可以是对待处理短文本训练数据进行分词处理的结果。预设字典可以是预先设定的,包含所有单词、词组、与单词对应编码以及与词组对应编码的字典。字典数值编码可以是由字母以及数字等组成的数据串。每个单词和词组具有唯一的字典数值编码。
在本发明实施例中,embeding层可以根据分词之间的依存关系对待处理短文本训练数据进行分词处理,得到分词处理结果,进而按照预设字典对分词处理结果进行查询,以确定与分词处理结果对应的字典数据编码,进一步根据分词处理结果对应的字典数值编码以及分词之间的依存关系生成文本向量序列。
在本发明的一个可选实施例中,在根据待处理短文本训练数据生成文本向量序列之后,还可以包括:对文本向量序列进行归一化处理。
其中,归一化处理可以用于使数据具有统一量纲。
在本发明实施例中,在得到文本向量序列之后,embeding层还可以对文本向量序列进行归一化处理,使文本向量序列具有统一量纲。通过对文本向量序列进行归一化处理以便于对不同的文本向量序列进行统一的特征提取处理。
示例性的,可以通过尾部补零的方式对文本向量序列进行归一化处理,使文本向量序列具有统一长度。
S130、对文本向量序列进行序列特征提取处理,得到序列特征提取结果,并将序列特征提取结果确定为短文本分类结果。
其中,序列特征提取处理可以用于按照一定序列顺序对序列数据进行特征提取。序列特征提取结果可以是对序列数据进行序列特征提取处理的结果。文本分类结果可以是对文本类型的划分结果。序列特征提取结果可以包括第一短文本分类标签和第一标签概率。第一短文本分类标签可以是根据序列特征提取结果所确定的,短文本类型标识。第一标签概率可以是第一短文本分类标签能够正确标识短文本类型的概率。
在本发明实施例中,可以利用序列特征提取层以及分类器处理层对文本向量序列进行序列特征提取处理,得到序列特征提取结果,并将序列特征提取结果作为短文本分类结果。
具体的,可以利用序列特征提取层对文本向量序列进行特征提取得到第一短文本分类标签,并利用分类器处理层计算与第一短文本标签对应的第一标签概率,以利用短文本分类结果输出层输出短文本分类结果。
可选的,序列特征提取层可以将序列特征提取结果与短文本所有类别进行比对以及相似度计算,得到第一短文本分类标签,进而通过分类器处理层计算第一短文分类标签的第一标签概率,并将第一短文本分类标签和第一标签概率作为短文本分类结果。
在一个具体的例子中,可以将embeding层转化得到的文本向量序列输入至BiLSTM(Bi-directional Long Short-Term Memory,双向长短期记忆模型循环神经网络)模型(序列特征提取层),利用BiLSTM模型对文本向量序列进行序列特征提取得到时间序列,并将时间序列与短文本所有类别进行比对,得到与时间序列对应的短文本类别,将时间序列和对应的短文本类别输入至softmax(逻辑回归)分类层(分类器处理层)。利用softmax分类层对时间序列出现的概率进行统计,得到统计概率值。softmax分类层进一步将概率值最大的时间序列对应的短文本类别作为第一短文本分类标签,将概率值最大的时间序列对应的统计概率值作为第一标签概率,并将第一短文本分类标签和第一标签概率作为短文本分类结果。
在本发明的一个可选实施例中,在对文本向量序列进行序列特征提取处理之后,还可以包括:利用注意力机制确定序列特征提取结果的序列权重系数:利用分类器对序列特征提取结果的序列权重系数进行加权处理,得到加权处理结果;根据加权处理结果确定短文本分类结果。
其中,注意力机制可以是解决信息超载问题的主要手段,将计算资源分配给更重要的任务。序列权重系数可以是注意力机制(attention模型)为序列特征提取结果配置的权重系数。其中,attention模型的输出是一个权重概率分布,对应着每个向量输入的重要性,其主要作用是在模型输出时同时考虑最后层的隐向量和每个时间步骤的隐藏向量。
由于在短文本中,每个词语的重要性是不同的,少数关键的词语决定着短文本的语义。attention模型可以更好的提取关键特征,而忽略不重要的特征,从而提高模型的拟合能力。在本发明实施例中,可以将序列特征提取层输出的序列特征提取结果输入至attention模型,由attention模型为序列特征提取结果配置序列权重系数。在得到序列权重系数之后,可以利用分类器处理层将各序列特征提取结果与对应的序列权重系数进行加权处理,得到加权处理结果,以根据加权处理结果确定第一标签概率的最大值,将与第一标签概率的最大值对应的第一短文本分类标签作为短文本的最终分类。需要说明的是,attention模型可以进一步增强LSTM模型的长期记忆能力和拟合能力,attention模型的结构示意图如图3所示。
S140、对序列特征提取结果进行实体特征提取处理,得到实体特征提取结果。
其中,实体特征提取处理可以用于实体特征的提取。实体特征提取结果可以是对数据进行实体特征处理的结果。
在本发明实施例中,在得到文本向量序列之后,实体特征提取层可以对文本向量序列进行实体特征提取处理,得到与文本向量序列对应的实体特征提取结果,以利用实体识别结果输出层输出实体特征提取结果。
示例性的,当BiLSTM模型对文本向量序列进行特征提取得到时间序列之后,可以将时间序列输入至CRF模型,利用CRF模型对时间序列进行实体特征提取处理,得到短文本的实体特征提取结果。
S150、根据序列特征提取结果和实体特征提取结果对文本识别模型进行训练。
在本发明实施例中,可以利用序列特征提取结果和实体特征提取结果对文本识别模型进行训练,以使文本识别模型能够对短文本进行分类识别以及实体识别。
可选的,根据序列特征提取结果和实体特征提取结果对文本识别模型进行训练时,可以是有监督的学习方式,也可以是无监督的学习方式,有监督的学习方式训练得到的模型的准确率更高。
图4是本发明实施例一提供的又一种文本识别模型的结构示意图,在一个具体的例子中,如图4所示,以短信作为短文本类型具体说明。利用文本识别模型对短信进行识别时,可以同时完成短信分类和短信实体识别两种识别任务。其中,短信分类部分可以采用BiLSTM+softmax模型,而短信实体识别部分可以采用BiLSTM+CRF模型。对短信的识别过程具体为:将短信通过输入层输入embeding层,由embeding层来做文本向量化表示,将embeding层得到的文本向量序列输入至BiLSTM模型,由BiLSTM对文本向量序列进行序列特征提取处理,得到时间序列。并将时间序列以及与时间序列对应的短文本类别输入至softmax分类层,利用softmax分类层进行概率统计计算,得到第一短文本分类标签和第一标签概率,将第一短文本分类标签和第一标签概率作为短信分类结果,以通过短文本分类结果输出层输出短信分类结果。将时间序列输入至CRF模型,利用CRF模型对时间序列进行实体特征提取处理,得到短信的实体特征提取结果,进而将实体特征提取结果作为短信的实体识别结果,最终通过实体识别结果输出层输出短信的实体识别结果。其中,短信分类可以包括但不限于:不当交易虚拟币、股票、借贷、游戏、积分、电商、银行、不当言论以及其他等类别。短信实体识别结果可以包括但不限于:人名、机构名、电话号码、公众号、其他账号以及URL(Uniform Resource Location,统一资源定位符)链接等。
在进行短信分类和短信实体识别时,输入层、embeding层和BiLSTM模型都是共享的。BiLSTM模型式是由两个结构相同方向相反的LSTM模型的叠加,LSTM模型是RNN(Recurrent Neural Networks,神经网络)的改进版本。其中,RNN循环神经网络是解决时间序列问题的一类神经网络模型,由于其结构上的特性使得RNN每个时序时刻的输出由当前输入和上一时刻的输出共同决定,其中,RNN循环神经网络的结构如图5所示。但是在短信NER中,每个时刻的输出不仅和前文有关,且和后文也有一定的联系,而单向LSTM模型只能获取当前时间状态之前的信息,LSTM模型的结构如图6所示。BiLSTM模型是两个结构相同方向相反的LSTM模型的叠加,叠加后的LSTM模型在计算每个时间步骤的输出时会同时考虑到上文和下文信息。因此本方案选择BiLSTM模型来获取文本上下文语义信息,从而解决此问题,其模型结构如图7所示。
本发明实施例通过对获取的待处理短文本训练数据生成文本向量序列,进而对文本向量序列进行序列特征提取处理,得到序列特征提取结果,并将序列特征提取结果确定为短文本分类结果。在得到序列特征提取结果之后,可以进一步对序列特征提取结果进行实体特征提取处理,得到实体特征提取结果,以进一步根据序列特征提取结果和实体特征提取结果的多维度特征对文本识别模型进行训练。对序列特征提取结果进行实体特征提取处理可以进一步获取待处理短文本训练数据中所包含的实体名称,利用序列特征提取结果和实体特征提取结果对文本识别模型进行训练,可以使文本识别模型能够同时完成短文本的分类以及实体识别任务,当同一模型同时完成短文本分类以及实体识别时,可以使模型学习到短文本分类以及短文本实体的内在联系,使得模型能准确的对短文本进行分类以及实体识别,解决了现有文本识别模型中特征提取方式单一、以及无法同时进行文本分类和实体识别双重任务的缺陷,能够利用对短文本提取的多维特征完成短文本分类以及实体识别,从而提高文本识别模型的精度。
实施例二
图8是本发明实施例二提供的一种文本识别模型训练方法的流程图,本实施例以上述实施例为基础进行具体化,在本实施例中,给出了将序列特征提取结果确定为短文本分类结果的具体可选的实施方案。具体的,文本识别模型可以包括输入层、embeding(嵌入)层、序列特征提取层、非序列特征提取层、实体特征提取层、分类器处理层、短文本分类结果输出层以及实体识别结果输出层。其中,文本识别模型的结构示意图如图9所示。相应的,如图8所示,本实施例的方法可以包括:
S210、获取待处理短文本训练数据。
S220、根据待处理短文本训练数据生成文本向量序列。
S230、对文本向量序列进行序列特征提取处理,得到序列特征提取结果,对文本向量序列进行非序列特征提取处理,得到非序列特征提取结果。
其中,非序列特征提取处理用于以无序形式对序列数据进行特征提取。非序列特征提取结果可以是对序列数据进行非序列特征提取处理的结果。非序列特征提取结果可以包括第二短文本分类标签和第二标签概率。第二短文本分类标签可以是根据非序列特征提取结果所确定的,短文本类型标识。第二标签概率可以是第二短文本分类标签能够正确标识短文本类型的概率。
在本发明实施例中,非序列特征提取层可以对文本向量序列进行非序列特征提取处理,实现对文本向量序列的无序特征的提取,得到非序列特征提取结果。
可选的,非序列特征提取层可以将非序列特征提取结果与短文本所有类别进行比对以及相似度计算,得到与非序列特征提取结果对应的第二短文本分类标签,进而通过分类器处理层计算第二短文分类标签的第二标签概率。
S240、根据序列特征提取结果和非序列特征提取结果确定短文本分类结果。
相应的,在得到序列特征提取结果和非序列特征提取结果之后,可以利用分类器处理层对序列特征提取结果中的第一文本分类标签,以及非序列特征提取结果中的第二文本分类标签进行识别,进而根据第一文本分类标签确定第一标签概率,并根据第二文本分类标签确定第二标签概率,从而根据第一文本分类标签、第二文本分类标签、第一标签概率以及第二标签概率确定短文本分类结果,进而通过短文本分类结果输出层输出短文本分类结果。
在本发明的一个可选实施例中,根据序列特征提取结果和非序列特征提取结果确定短文本分类结果,可以包括:在确定第一短文本分类标签和第二短文本分类标签为同一短文本分类标签的情况下,计算第一标签概率和第二标签概率的概率和值;在确定概率和值大于或等于设定概率阈值的情况下,将第一短文本分类标签或第二短文本分类标签确定为短文本分类结果。
其中,设定概率阈值可以是预先设定的阈值,用于确定短文本分类结果。
在本发明实施例中,分类器处理层可以首先判断第一短文本分类标签和第二短文本分类标签是否为同一短文本分类标签,如果第一短文本分类标签和第二短文本分类标签为同一短文本分类标签,则可以进一步确定该短文分类标签对应的第一标签概率和第二标签概率,从而计算所确定的第一标签概率和第二标签概率的概率和值。如果所确定的第一标签概率和第二标签概率的概率和值大于等于预设概率阈值,则将第一短文本分类标签或第二短文本分类标签作为短文本分类结果。如果第一短文本分类标签和第二短文本分类标签为不同的短文本分类标签,则通过短文本分类结果输出层输出两个短文本分类标签,由人工对短文本进行分类。
S250、对序列特征提取结果进行实体特征提取处理,得到实体特征提取结果。
S260、根据序列特征提取结果、非序列特征提取结果和实体特征提取结果对文本识别模型进行训练。
相应的,在得到序列特征提取结果、非序列特征提取结果和实体特征提取结果之后,可以利用序列特征提取结果、非序列特征提取结果和实体特征提取结果对文本识别模型进行训练,以使文本识别模型能够对短文本进行分类识别以及实体识别。
图10是本发明实施例二提供的另一种文本识别模型的结构示意图。在一个具体的例子中,如图10所示,以短文本为短信为例具体说明。对于短信分类部分采用BiLSTM+TextcNN+softmax模型,实体识别部分采用BiLSTM+CRF模型。对短信的识别过程具体为:将短信通过输入层层输入embeding层,由embeding层来做文本向量化处理得到文本向量序列。将文本向量序列输入至BiLSTM模型以及TextCNN(Text Convolutional NeuralNetwork,文本卷积神经网络)模型(非序列特征提取层)。由BiLSTM模型进行序列特征提取处理,得到时间序列,将时间序列输入至CRF模型,利用CRF模型对时间序列进行实体特征提取处理,得到短文本的实体特征提取结果,进而将实体特征提取结果作为短信的实体识别结果,最终通过实体识别结果输出层输出短信的实体识别结果。由TextCNN模型进行非序列特征提取处理,得到非时间序列。将BiLSTM模型得到的时间序列以及TextCNN模型得到的非时间序列分别输入至不同的softmax分类器,由softmax分类器进行概率统计计算,得到短信分类结果,以通过短文本分类结果输出层输出短信分类结果。其中,TextCNN模型是由CNN(Convolutional Neural Network,卷积神经网络)改进得到的,是用来处理文本向量序列的一类网络模型。CNN具有强大的特征提取能力,并且CNN的卷积层的质量直接决定了最后的文本分类效果。为了进一步提升网络的特征提取能力,可以采用多尺寸卷积核作为卷积层。例如,使用了大小分别为1、2、3和4的卷积核,同时提取到文本的1元语法特征、2元语法特征、3元语法特征以及4元语法特征。
本发明实施例通过对获取的待处理短文本训练数据生成文本向量序列。在得到文本向量序列之后,对文本向量序列进行序列特征提取处理,得到序列特征提取结果,对文本向量序列进行非序列特征提取处理,得到非序列特征提取结果,并根据序列特征提取结果和非序列特征提取结果确定短文本分类结果。在得到序列特征提取结果之后,对序列特征提取结果进行实体特征提取处理,得到实体特征提取结果,以进一步根据序列特征提取结果、非序列特征提取结果和实体特征提取结果的多维度特征对文本识别模型进行训练。对序列特征提取结果进行实体特征提取处理可以进一步获取待处理短文本训练数据中所包含的实体名称,利用序列特征提取结果和实体特征提取结果对文本识别模型进行训练,可以使文本识别模型能够同时完成短文本的分类以及实体识别任务,当同一模型同时完成短文本分类以及实体识别时,可以使模型学习到短文本分类以及短文本实体的内在联系,使得模型能准确的对短文本进行分类以及实体识别,解决了现有文本识别方法中特征提取效率低,以及无法同时进行文本分类和实体识别的缺陷,能够利用对短文本提取的多维特征完成短文本分类以及实体识别,从而提高文本识别模型的精度。
实施例三
图11是本发明实施例三提供的一种文本识别方法的流程图,本实施例可适用对短文本分类以及实体识别的情况,该方法可以由文本识别装置来执行,该装置可以由软件和/或硬件的方式来实现,并一般可集成在电子设备中。相应的,如图11所示,该方法包括如下操作:
S310、获取待识别短文本数据。
其中,短文本数据可以是任意的,需要进行文本识别的短文本,如短信等文本类型。
在本发明实施例中,可以将需要进行文本识别的短文本作为待识别短文本数据。
S320、将待识别短文本数据输入至文本识别模型中,得到短文本分类结果和短文本实体;其中,短文本分类结果包括短文本分类标签和标签概率。
其中,文本识别模型通过本发明任一实施例中的文本识别模型训练方法训练得到。短文本分类标签可以是短文本的类型标识。标签概率可以是短文本分类标签能够正确标识短文本类型的概率。短文本实体可以是短文本中所包括的实体名称。实体名称可以包括人名、地名、机构名以及专有名词等,在具体应用场景中可以针对性的进行设置。
相应的,可以将待识别短文本数据输入至文本识别模型中,通过文本识别模型对待识别短文本数据进行分词处理、特征提取、特征识别以及概率计算得到短文本分类结果和短文本实体。
本发明实施例通过将获取的待识别短文本数据输入至文本识别模型中,得到短文本分类标签、标签概率和短文本实体。由于文本识别模型是利用序列特征提取结果和实体特征提取结果对文本识别模型进行训练的,可以使文本识别模型能够同时完成短文本的分类以及实体识别任务,当同一模型同时完成短文本分类以及实体识别时,可以使模型学习到短文本分类以及短文本实体的内在联系,使得模型能准确的对短文本进行分类以及实体识别,解决了现有文本识别模型中特征提取方式单一、以及无法同时进行文本分类和实体识别双重任务的缺陷,能够利用对短文本提取的多维特征完成短文本分类以及实体识别,从而提高文本识别模型的精度。
需要说明的是,以上各实施例中各技术特征之间的任意排列组合也属于本发明的保护范围。
实施例四
图12是本发明实施例四提供的一种文本识别模型训练装置的示意图,如图12所示,所述装置包括:待处理短文本训练数据获取模块410、文本向量序列生成模块420、短文本分类结果确定模块430、实体特征提取结果获取模块440以及模型训练模块450,其中:
待处理短文本训练数据获取模块410,用于获取待处理短文本训练数据;
文本向量序列生成模块420,用于根据待处理短文本训练数据生成文本向量序列;
短文本分类结果确定模块430,用于对文本向量序列进行序列特征提取处理,得到序列特征提取结果,并将序列特征提取结果确定为短文本分类结果;短文本分类结果包括第一短文本分类标签和第一标签概率。
实体特征提取结果获取模块440,用于对序列特征提取结果进行实体特征提取处理,得到实体特征提取结果;
模型训练模块450,用于根据序列特征提取结果和实体特征提取结果对文本识别模型进行训练。
本发明实施例通过对获取的待处理短文本训练数据生成文本向量序列,进而对文本向量序列进行序列特征提取处理,得到序列特征提取结果,并将序列特征提取结果确定为短文本分类结果。在得到序列特征提取结果之后,可以进一步对序列特征提取结果进行实体特征提取处理,得到实体特征提取结果,以进一步根据序列特征提取结果和实体特征提取结果的多维度特征对文本识别模型进行训练。对序列特征提取结果进行实体特征提取处理可以进一步获取待处理短文本训练数据中所包含的实体名称,利用序列特征提取结果和实体特征提取结果对文本识别模型进行训练,可以使文本识别模型能够同时完成短文本的分类以及实体识别任务,当同一模型同时完成短文本分类以及实体识别时,可以使模型学习到短文本分类以及短文本实体的内在联系,使得模型能准确的对短文本进行分类以及实体识别,解决了现有文本识别模型中特征提取方式单一、以及无法同时进行文本分类和实体识别双重任务的缺陷,能够利用对短文本提取的多维特征完成短文本分类以及实体识别,从而提高文本识别模型的精度。
可选的,文本向量序列生成模块420,具体用于:对所述待处理短文本训练数据进行分词处理,得到分词处理结果;根据所述分词处理结果查询预设字典,确定所述分词处理结果对应的字典数值编码;根据所述分词处理结果对应的字典数值编码生成所述文本向量序列。
可选的,文本识别模型训练装置还包括归一化处理模块,用于对所述文本向量序列进行归一化处理。
可选的,短文本分类结果确定模块430,具体用于:对所述文本向量序列进行非序列特征提取处理,得到非序列特征提取结果;其中,所述非序列特征提取结果包括第二短文本分类标签和第二标签概率;所述将所述序列特征提取结果确定为短文本分类结果,包括:根据所述序列特征提取结果和所述非序列特征提取结果确定所述短文本分类结果。
可选的,短文本分类结果确定模块430,具体用于:利用注意力机制确定所述序列特征提取结果的序列权重系数:利用分类器对所述序列特征提取结果的所述序列权重系数进行加权处理,得到加权处理结果;根据所述加权处理结果确定所述短文本分类结果。
可选的,短文本分类结果确定模块430,具体用于:在确定所述第一短文本分类标签和所述第二短文本分类标签为同一短文本分类标签的情况下,计算所述第一标签概率和所述第二标签概率的概率和值;在确定所述概率和值大于或等于设定概率阈值的情况下,将所述第一短文本分类标签或所述第二短文本分类标签确定为所述短文本分类结果。
上述文本识别模型训练装置可执行本发明任意实施例所提供的文本识别模型训练方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明任意实施例提供的文本识别模型训练方法。
由于上述所介绍的文本识别模型训练装置为可以执行本发明实施例中的文本识别模型训练方法的装置,故而基于本发明实施例中所介绍的文本识别模型训练方法,本领域所属技术人员能够了解本实施例的文本识别模型训练装置的具体实施方式以及其各种变化形式,所以在此对于该文本识别模型训练装置如何实现本发明实施例中的文本识别模型训练方法不再详细介绍。只要本领域所属技术人员实施本发明实施例中文本识别模型训练方法所采用的装置,都属于本申请所欲保护的范围。
实施例五
图13是本发明实施例五提供的一种文本识别装置的示意图,如图13所示,所述装置包括:待识别短文本数据获取模块510、文本识别结果确定模块520,其中:
待识别短文本数据获取模块510,用于获取待识别短文本数据;
文本识别结果确定模块520,用于将所述待识别短文本数据输入至文本识别模型中,得到短文本分类结果和短文本实体;其中,所述短文本分类结果包括短文本分类标签和标签概率;
其中,文本识别模型通过本发明任一实施例所述的文本识别模型训练方法训练得到。
本发明实施例通过将获取的待识别短文本数据输入至文本识别模型中,得到短文本分类标签、标签概率和短文本实体。由于文本识别模型是利用序列特征提取结果和实体特征提取结果对文本识别模型进行训练的,可以使文本识别模型能够同时完成短文本的分类以及实体识别任务,当同一模型同时完成短文本分类以及实体识别时,可以使模型学习到短文本分类以及短文本实体的内在联系,使得模型能准确的对短文本进行分类以及实体识别,解决了现有文本识别模型中特征提取方式单一、以及无法同时进行文本分类和实体识别双重任务的缺陷,能够利用对短文本提取的多维特征完成短文本分类以及实体识别,从而提高文本识别模型的精度。
实施例六
图14为本发明实施例六提供的一种电子设备的结构示意图。图14示出了适于用来实现本发明实施方式的电子设备612的框图。图14显示的电子设备612仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。电子设备612例如可以是计算机设备或服务器设备等。
如图14所示,电子设备612以通用计算设备的形式表现。电子设备612的组件可以包括但不限于:一个或者多个处理器616,存储装置628,连接不同系统组件(包括存储装置628和处理器616)的总线618。
总线618表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(Industry StandardArchitecture,ISA)总线,微通道体系结构(Micro Channel Architecture,MCA)总线,增强型ISA总线、视频电子标准协会(Video Electronics Standards Association,VESA)局域总线以及外围组件互连(Peripheral Component Interconnect,PCI)总线。
电子设备612典型地包括多种计算机系统可读介质。这些介质可以是任何能够被电子设备612访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
存储装置628可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(Random Access Memory,RAM)630和/或高速缓存存储器632。电子设备612可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统634可以用于读写不可移动的、非易失性磁介质(图14未显示,通常称为“硬盘驱动器”)。尽管图14中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如只读光盘(Compact Disc-Read Only Memory,CD-ROM)、数字视盘(Digital Video Disc-Read Only Memory,DVD-ROM)或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线618相连。存储装置628可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块626的程序636,可以存储在例如存储装置628中,这样的程序模块626包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块626通常执行本发明所描述的实施例中的功能和/或方法。
电子设备612也可以与一个或多个外部设备614(例如键盘、指向设备、摄像头、显示器624等)通信,还可与一个或者多个使得用户能与该电子设备612交互的设备通信,和/或与使得该电子设备612能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(Input/Output,I/O)接口622进行。并且,电子设备612还可以通过网络适配器620与一个或者多个网络(例如局域网(Local AreaNetwork,LAN),广域网Wide Area Network,WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器620通过总线618与电子设备612的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备612使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、磁盘阵列(Redundant Arrays of IndependentDisks,RAID)系统、磁带驱动器以及数据备份存储系统等。
处理器616通过运行存储在存储装置628中的程序,从而执行各种功能应用以及数据处理,例如实现本发明上述实施例所提供的文本识别模型训练方法:获取待处理短文本训练数据;根据待处理短文本训练数据生成文本向量序列;对文本向量序列进行序列特征提取处理,得到序列特征提取结果,并将序列特征提取结果确定为短文本分类结果;短文本分类结果包括第一短文本分类标签和第一标签概率;对序列特征提取结果进行实体特征提取处理,得到实体特征提取结果;根据序列特征提取结果和实体特征提取结果对文本识别模型进行训练。或者,实现本发明上述实施例所提供的文本识别方法:获取待识别短文本数据;将待识别短文本数据输入至文本识别模型中,得到短文本分类结果和短文本实体;其中,短文本分类结果包括短文本分类标签和标签概率;其中,文本识别模型为任一实施例的文本识别模型训练方法训练得到。
本发明实施例通过对获取的待处理短文本训练数据生成文本向量序列,进而对文本向量序列进行序列特征提取处理,得到序列特征提取结果,并将序列特征提取结果确定为短文本分类结果。在得到序列特征提取结果之后,可以进一步对序列特征提取结果进行实体特征提取处理,得到实体特征提取结果,以进一步根据序列特征提取结果和实体特征提取结果的多维度特征对文本识别模型进行训练。对序列特征提取结果进行实体特征提取处理可以进一步获取待处理短文本训练数据中所包含的实体名称,利用序列特征提取结果和实体特征提取结果对文本识别模型进行训练,可以使文本识别模型能够同时完成短文本的分类以及实体识别任务,当同一模型同时完成短文本分类以及实体识别时,可以使模型学习到短文本分类以及短文本实体的内在联系,使得模型能准确的对短文本进行分类以及实体识别,解决了现有文本识别模型中特征提取方式单一、以及无法同时进行文本分类和实体识别双重任务的缺陷,能够利用对短文本提取的多维特征完成短文本分类以及实体识别,从而提高文本识别模型的精度。
实施例七
本发明实施例七还提供一种存储计算机程序的计算机存储介质,所述计算机程序在由计算机处理器执行时用于执行本发明上述实施例任一所述的文本识别模型训练方法:获取待处理短文本训练数据;根据待处理短文本训练数据生成文本向量序列;对文本向量序列进行序列特征提取处理,得到序列特征提取结果,并将序列特征提取结果确定为短文本分类结果;短文本分类结果包括第一短文本分类标签和第一标签概率;对序列特征提取结果进行实体特征提取处理,得到实体特征提取结果;根据序列特征提取结果和实体特征提取结果对文本识别模型进行训练。或者,实现本发明上述实施例所提供的文本识别方法:获取待识别短文本数据;将待识别短文本数据输入至文本识别模型中,得到短文本分类结果和短文本实体;其中,短文本分类结果包括短文本分类标签和标签概率;其中,文本识别模型为任一实施例的文本识别模型训练方法训练得到。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ReadOnly Memory,ROM)、可擦式可编程只读存储器((Erasable Programmable Read OnlyMemory,EPROM)或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、电线、光缆、射频(Radio Frequency,RF)等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN)连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (11)
1.一种文本识别模型训练方法,其特征在于,包括:
获取待处理短文本训练数据;
根据所述待处理短文本训练数据生成文本向量序列;
对所述文本向量序列进行序列特征提取处理,得到序列特征提取结果,并将所述序列特征提取结果确定为短文本分类结果;所述序列特征提取结果包括第一短文本分类标签和第一标签概率;
对所述序列特征提取结果进行实体特征提取处理,得到实体特征提取结果;
根据所述序列特征提取结果和所述实体特征提取结果对文本识别模型进行训练。
2.根据权利要求1所述的方法,其特征在于,所述根据所述待处理短文本训练数据生成文本向量序列,包括:
对所述待处理短文本训练数据进行分词处理,得到分词处理结果;
根据所述分词处理结果查询预设字典,确定所述分词处理结果对应的字典数值编码;
根据所述分词处理结果对应的字典数值编码生成所述文本向量序列。
3.根据权利要求1或2所述的方法,其特征在于,在所述根据所述待处理短文本训练数据生成文本向量序列之后,还包括:
对所述文本向量序列进行归一化处理。
4.根据权利要求1所述的方法,其特征在于,在所述根据所述待处理短文本训练数据生成文本向量序列之后,还包括:
对所述文本向量序列进行非序列特征提取处理,得到非序列特征提取结果;其中,所述非序列特征提取结果包括第二短文本分类标签和第二标签概率;
所述将所述序列特征提取结果确定为短文本分类结果,包括:
根据所述序列特征提取结果和所述非序列特征提取结果确定所述短文本分类结果。
5.根据权利要求1所述的方法,其特征在于,在所述对所述文本向量序列进行序列特征提取处理之后,还包括:
利用注意力机制确定所述序列特征提取结果的序列权重系数:
利用分类器对所述序列特征提取结果的所述序列权重系数进行加权处理,得到加权处理结果;
根据所述加权处理结果确定所述短文本分类结果。
6.根据权利要求4所述的方法,其特征在于,所述根据所述序列特征提取结果和所述非序列特征提取结果确定所述短文本分类结果,包括:
在确定所述第一短文本分类标签和所述第二短文本分类标签为同一短文本分类标签的情况下,计算所述第一标签概率和所述第二标签概率的概率和值;
在确定所述概率和值大于或等于设定概率阈值的情况下,将所述第一短文本分类标签或所述第二短文本分类标签确定为所述短文本分类结果。
7.一种文本识别方法,其特征在于,包括:
获取待识别短文本数据;
将所述待识别短文本数据输入至文本识别模型中,得到短文本分类结果和短文本实体;其中,所述短文本分类结果包括短文本分类标签和标签概率;
其中,所述文本识别模型通过权利要求1-6任一所述的文本识别模型训练方法训练得到。
8.一种文本识别模型训练装置,其特征在于,包括:
待处理短文本训练数据获取模块,用于获取待处理短文本训练数据;
文本向量序列生成模块,用于根据所述待处理短文本训练数据生成文本向量序列;
短文本分类结果确定模块,用于对所述文本向量序列进行序列特征提取处理,得到序列特征提取结果,并将所述序列特征提取结果确定为短文本分类结果;所述短文本分类结果包括第一短文本分类标签和第一标签概率;
实体特征提取结果获取模块,用于对所述序列特征提取结果进行实体特征提取处理,得到实体特征提取结果;
模型训练模块,用于根据所述序列特征提取结果和所述实体特征提取结果对文本识别模型进行训练。
9.一种文本识别装置,其特征在于,包括:
待识别短文本数据获取模块,用于获取待识别短文本数据;
文本识别结果确定模块,用于将所述待识别短文本数据输入至文本识别模型中,得到短文本分类结果和短文本实体;其中,所述短文本分类结果包括短文本分类标签和标签概率;
其中,所述文本识别模型通过权利要求1-6任一所述的文本识别模型训练方法训练得到。
10.一种电子设备,其特征在于,所述电子设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一所述的文本识别模型训练方法,或者,实现如权利要求7中所述的文本识别方法。
11.一种计算机存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-6中任一所述的文本识别模型训练方法,或者,实现如权利要求7中所述的文本识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110785051.XA CN113486178B (zh) | 2021-07-12 | 2021-07-12 | 文本识别模型训练方法、文本识别方法、装置以及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110785051.XA CN113486178B (zh) | 2021-07-12 | 2021-07-12 | 文本识别模型训练方法、文本识别方法、装置以及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113486178A true CN113486178A (zh) | 2021-10-08 |
CN113486178B CN113486178B (zh) | 2023-12-01 |
Family
ID=77938670
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110785051.XA Active CN113486178B (zh) | 2021-07-12 | 2021-07-12 | 文本识别模型训练方法、文本识别方法、装置以及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113486178B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113919332A (zh) * | 2021-10-14 | 2022-01-11 | 北京中科凡语科技有限公司 | 实体识别模型建立方法、装置、电子设备及存储介质 |
CN113987173A (zh) * | 2021-10-22 | 2022-01-28 | 北京明略软件系统有限公司 | 短文本分类方法、系统、电子设备及介质 |
CN114466362A (zh) * | 2022-04-11 | 2022-05-10 | 武汉卓鹰世纪科技有限公司 | 基于BiLSTM的5G通信下垃圾短信过滤方法及装置 |
CN116911288A (zh) * | 2023-09-11 | 2023-10-20 | 戎行技术有限公司 | 一种基于自然语言处理技术的离散文本识别方法 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160110343A1 (en) * | 2014-10-21 | 2016-04-21 | At&T Intellectual Property I, L.P. | Unsupervised topic modeling for short texts |
CN108920622A (zh) * | 2018-06-29 | 2018-11-30 | 北京奇艺世纪科技有限公司 | 一种意图识别的训练方法、训练装置和识别装置 |
CN109299458A (zh) * | 2018-09-12 | 2019-02-01 | 广州多益网络股份有限公司 | 实体识别方法、装置、设备及存储介质 |
CN109657135A (zh) * | 2018-11-13 | 2019-04-19 | 华南理工大学 | 一种基于神经网络的学者用户画像信息抽取方法及模型 |
CN109948160A (zh) * | 2019-03-15 | 2019-06-28 | 智者四海(北京)技术有限公司 | 短文本分类方法及装置 |
CN110334186A (zh) * | 2019-07-08 | 2019-10-15 | 北京三快在线科技有限公司 | 数据查询方法、装置、计算机设备及计算机可读存储介质 |
CN110633366A (zh) * | 2019-07-31 | 2019-12-31 | 国家计算机网络与信息安全管理中心 | 一种短文本分类方法、装置和存储介质 |
CN111324696A (zh) * | 2020-02-19 | 2020-06-23 | 腾讯科技(深圳)有限公司 | 实体抽取方法、实体抽取模型的训练方法、装置及设备 |
CN112257421A (zh) * | 2020-12-21 | 2021-01-22 | 完美世界(北京)软件科技发展有限公司 | 嵌套实体数据的识别方法、装置及电子设备 |
CN112417150A (zh) * | 2020-11-16 | 2021-02-26 | 建信金融科技有限责任公司 | 行业分类模型训练、使用方法、装置、设备及介质 |
US20210173862A1 (en) * | 2019-12-09 | 2021-06-10 | Verint Americas Inc. | Systems and methods for generating labeled short text sequences |
CN112988979A (zh) * | 2021-04-29 | 2021-06-18 | 腾讯科技(深圳)有限公司 | 实体识别方法、装置、计算机可读介质及电子设备 |
CN113051905A (zh) * | 2019-12-28 | 2021-06-29 | 中移(成都)信息通信科技有限公司 | 训练医疗命名实体识别模型及医疗命名实体识别的方法 |
CN113064964A (zh) * | 2021-03-22 | 2021-07-02 | 广东博智林机器人有限公司 | 文本分类方法、模型训练方法、装置、设备以及存储介质 |
-
2021
- 2021-07-12 CN CN202110785051.XA patent/CN113486178B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160110343A1 (en) * | 2014-10-21 | 2016-04-21 | At&T Intellectual Property I, L.P. | Unsupervised topic modeling for short texts |
CN108920622A (zh) * | 2018-06-29 | 2018-11-30 | 北京奇艺世纪科技有限公司 | 一种意图识别的训练方法、训练装置和识别装置 |
CN109299458A (zh) * | 2018-09-12 | 2019-02-01 | 广州多益网络股份有限公司 | 实体识别方法、装置、设备及存储介质 |
CN109657135A (zh) * | 2018-11-13 | 2019-04-19 | 华南理工大学 | 一种基于神经网络的学者用户画像信息抽取方法及模型 |
CN109948160A (zh) * | 2019-03-15 | 2019-06-28 | 智者四海(北京)技术有限公司 | 短文本分类方法及装置 |
CN110334186A (zh) * | 2019-07-08 | 2019-10-15 | 北京三快在线科技有限公司 | 数据查询方法、装置、计算机设备及计算机可读存储介质 |
CN110633366A (zh) * | 2019-07-31 | 2019-12-31 | 国家计算机网络与信息安全管理中心 | 一种短文本分类方法、装置和存储介质 |
US20210173862A1 (en) * | 2019-12-09 | 2021-06-10 | Verint Americas Inc. | Systems and methods for generating labeled short text sequences |
CN113051905A (zh) * | 2019-12-28 | 2021-06-29 | 中移(成都)信息通信科技有限公司 | 训练医疗命名实体识别模型及医疗命名实体识别的方法 |
CN111324696A (zh) * | 2020-02-19 | 2020-06-23 | 腾讯科技(深圳)有限公司 | 实体抽取方法、实体抽取模型的训练方法、装置及设备 |
CN112417150A (zh) * | 2020-11-16 | 2021-02-26 | 建信金融科技有限责任公司 | 行业分类模型训练、使用方法、装置、设备及介质 |
CN112257421A (zh) * | 2020-12-21 | 2021-01-22 | 完美世界(北京)软件科技发展有限公司 | 嵌套实体数据的识别方法、装置及电子设备 |
CN113064964A (zh) * | 2021-03-22 | 2021-07-02 | 广东博智林机器人有限公司 | 文本分类方法、模型训练方法、装置、设备以及存储介质 |
CN112988979A (zh) * | 2021-04-29 | 2021-06-18 | 腾讯科技(深圳)有限公司 | 实体识别方法、装置、计算机可读介质及电子设备 |
Non-Patent Citations (2)
Title |
---|
杨丹浩;吴岳辛;范春晓;: "一种基于注意力机制的中文短文本关键词提取模型", 计算机科学, no. 01, pages 199 - 204 * |
陈鹏;郭小燕;: "基于LSTM-Attention的农业短文本信息分类研究", 软件导刊, no. 09, pages 27 - 32 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113919332A (zh) * | 2021-10-14 | 2022-01-11 | 北京中科凡语科技有限公司 | 实体识别模型建立方法、装置、电子设备及存储介质 |
CN113987173A (zh) * | 2021-10-22 | 2022-01-28 | 北京明略软件系统有限公司 | 短文本分类方法、系统、电子设备及介质 |
CN114466362A (zh) * | 2022-04-11 | 2022-05-10 | 武汉卓鹰世纪科技有限公司 | 基于BiLSTM的5G通信下垃圾短信过滤方法及装置 |
CN116911288A (zh) * | 2023-09-11 | 2023-10-20 | 戎行技术有限公司 | 一种基于自然语言处理技术的离散文本识别方法 |
CN116911288B (zh) * | 2023-09-11 | 2023-12-12 | 戎行技术有限公司 | 一种基于自然语言处理技术的离散文本识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113486178B (zh) | 2023-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110377714A (zh) | 基于迁移学习的文本匹配方法、装置、介质及设备 | |
CN110580308B (zh) | 信息审核方法及装置、电子设备、存储介质 | |
CN109614625B (zh) | 标题正文相关度的确定方法、装置、设备及存储介质 | |
CN113486178B (zh) | 文本识别模型训练方法、文本识别方法、装置以及介质 | |
WO2022142041A1 (zh) | 意图识别模型的训练方法、装置、计算机设备和存储介质 | |
CN107729313B (zh) | 基于深度神经网络的多音字读音的判别方法和装置 | |
CN111062217B (zh) | 语言信息的处理方法、装置、存储介质及电子设备 | |
CN110427487B (zh) | 一种数据标注方法、装置及存储介质 | |
CN110245348A (zh) | 一种意图识别方法及系统 | |
CN111125317A (zh) | 对话型文本分类的模型训练、分类、系统、设备和介质 | |
CN111079432B (zh) | 文本检测方法、装置、电子设备及存储介质 | |
CN112395421B (zh) | 课程标签的生成方法、装置、计算机设备及介质 | |
CN113255294A (zh) | 命名实体识别模型训练方法、识别方法及装置 | |
WO2024109619A1 (zh) | 敏感数据识别方法、装置、设备及计算机存储介质 | |
CN113158656B (zh) | 讽刺内容识别方法、装置、电子设备以及存储介质 | |
CN111753082A (zh) | 基于评论数据的文本分类方法及装置、设备和介质 | |
CN115080750B (zh) | 基于融合提示序列的弱监督文本分类方法、系统和装置 | |
CN116070632A (zh) | 一种非正式文本实体标签识别方法和装置 | |
CN111782793A (zh) | 智能客服处理方法和系统及设备 | |
CN113326702A (zh) | 语义识别方法、装置、电子设备及存储介质 | |
CN112417878A (zh) | 实体关系抽取方法、系统、电子设备及存储介质 | |
CN117807482B (zh) | 海关报关单的分类方法、装置、设备及存储介质 | |
CN113761875B (zh) | 事件抽取方法、装置、电子设备及存储介质 | |
CN112989050B (zh) | 一种表格分类方法、装置、设备及存储介质 | |
CN114416991A (zh) | 一种基于prompt的文本情感原因分析方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |