CN113204698A - 新闻主题词生成方法、装置、设备及介质 - Google Patents
新闻主题词生成方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN113204698A CN113204698A CN202110599986.9A CN202110599986A CN113204698A CN 113204698 A CN113204698 A CN 113204698A CN 202110599986 A CN202110599986 A CN 202110599986A CN 113204698 A CN113204698 A CN 113204698A
- Authority
- CN
- China
- Prior art keywords
- news
- word
- vector set
- vector
- vectors
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 239000013598 vector Substances 0.000 claims abstract description 286
- 230000004927 fusion Effects 0.000 claims abstract description 60
- 238000012549 training Methods 0.000 claims abstract description 48
- 230000002457 bidirectional effect Effects 0.000 claims abstract description 33
- 239000011159 matrix material Substances 0.000 claims description 24
- 230000015654 memory Effects 0.000 claims description 23
- 230000009466 transformation Effects 0.000 claims description 21
- 238000007781 pre-processing Methods 0.000 claims description 17
- 238000012216 screening Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 230000002123 temporal effect Effects 0.000 claims 1
- 230000011218 segmentation Effects 0.000 abstract description 13
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000005516 engineering process Methods 0.000 abstract description 2
- 238000004590 computer program Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 238000007726 management method Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012163 sequencing technique Methods 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及人工智能领域,提供一种新闻主题词生成方法、装置、设备及介质,能够将训练样本输入至BERT模型构建第一特征向量集,并输入至双向LSTM网络构建第二特征向量集,对第一特征向量集中的向量与第二特征向量集中对应的向量进行特征融合,得到融合向量集并输入至线性层构建第三特征向量集,将第三特征向量集输入至softmax分类器,得到新闻主题词生成模型,将待处理新闻输入至新闻主题词生成模型得到目标新闻主题词。此外,本发明还涉及区块链技术,新闻主题词生成模型可存储于区块链节点中。本发明引入了改进的BERT模型,避免由于分词不清而引起主题词生成错误,同时,结合双向LSTM网络,充分学习了上下文信息,提高了新闻主题词生成的准确度。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种新闻主题词生成方法、装置、设备及介质。
背景技术
在新闻领域,主题词生成对于文本分类后的个性化推荐是有重要意义的,通过新闻稿的主题词生成可以判断阅读者的喜好,针对阅读人群进行定制化的新闻推荐,同时,从用户搜索记录来提取主题词还可以进行产品推荐,有助于合作企业的共赢。
现有技术中,基于主题词生成采用的大多数是机器学习或者深度神经网络的算法。但是,上述算法也存在一定缺陷。
具体而言,首先,由于特征提取不充分的原因可能导致文本的分类不准确;其次,BERT(Bidirectional Encoder Representations from Transformers,来自于转换器的双向编码表示)模型在文本分类中是基于汉字字符的,缺乏对词义以及上下文信息的提取,当输入较长的文本时,Transformer机制将需要消耗大量的计算资源;最后,大部分数据的预训练过程需要对原始语料库进行清洗,中文分词,去除停用词等操作,分词结果对于模型的预训练结果有很大的影响,所以模型的训练效果过于依赖分词结果。
发明内容
鉴于以上内容,有必要提供一种新闻主题词生成方法、装置、设备及介质,引入了改进的BERT模型,避免由于分词不清而引起主题词生成错误,同时,结合双向LSTM网络,充分学习了上下文信息,提高了新闻主题词生成的准确度。
一种新闻主题词生成方法,所述新闻主题词生成方法包括:
响应于新闻主题词生成指令,根据所述新闻主题词生成指令获取初始样本;
对所述初始样本进行预处理,得到训练样本;
将所述训练样本输入至用于特征转化的BERT模型,并获取所述BERT模型输出的嵌入式向量构建第一特征向量集;
将所述第一特征向量集输入至用于提取时序性特征的双向LSTM网络,并获取所述双向LSTM网络输出的具有时序性的向量构建第二特征向量集;
对所述第一特征向量集中的向量与所述第二特征向量集中对应的向量进行特征融合,得到融合向量集;
将所述融合向量集输入至用于线性变换的线性层,并获取所述线性层输出的线性变换后的向量构建第三特征向量集;
将所述第三特征向量集输入至softmax分类器进行分类,直至所述softmax分类器达到收敛,停止训练,得到新闻主题词生成模型;
当接收到待处理新闻时,将所述待处理新闻输入至所述新闻主题词生成模型,并获取所述新闻主题词生成模型的输出作为目标新闻主题词。
根据本发明优选实施例,所述根据所述新闻主题词生成指令获取初始样本包括:
解析所述新闻主题词生成指令,得到所述新闻主题词生成指令所携带的信息;
获取预先配置的与地址对应的预设标签;
根据所述预设标签构建正则表达式;
利用所述正则表达式遍历所述新闻主题词生成指令所携带的信息;
将遍历到的信息确定为目标地址;
连接至所述目标地址,并获取所述目标地址处存储的数据以构建所述初始样本。
根据本发明优选实施例,所述对所述初始样本进行预处理,得到训练样本包括:
对于所述初始样本中的每个词,将每个词转换为嵌入向量,得到每个词的第一嵌入表示;
获取每个词所属的段,并根据每个词所属的段生成每个词的第二嵌入表示;
获取每个词的位置信息,并根据每个词的位置信息生成每个词的第三嵌入表示;
拼接每个词的第一嵌入表示、第二嵌入表示及第三嵌入表示,得到每个词的嵌入向量;
利用每个词的嵌入向量组成所述训练样本。
根据本发明优选实施例,在将所述第一特征向量集输入至用于提取时序性特征的双向LSTM网络后,所述方法还包括:
获取所述双向LSTM网络中用于嵌入式向量转化的嵌入层;
将所述第一特征向量集输入至所述嵌入层,并获取所述嵌入层输出的具有时序性的嵌入式向量构建所述第二特征向量集。
根据本发明优选实施例,所述对所述第一特征向量集中的向量与所述第二特征向量集中对应的向量进行特征融合,得到融合向量集包括:
将所述第一特征向量集中的向量确定为第一向量,及将所述第二特征向量集中的向量确定为第二向量;
将由相同训练样本生成的第一向量及第二向量确定为对应向量,得到至少一个对应向量组;
将每个对应向量组所包含的第一向量及第二向量按元素对应相加,得到至少一个融合向量;
利用所述至少一个融合向量构建数据集,得到所述融合向量集。
根据本发明优选实施例,在将所述融合向量集输入至用于线性变换的线性层后,所述方法还包括:
获取所述线性层的第一参数矩阵及第二参数矩阵;
计算所述第一参数矩阵与所述融合向量集中的每个融合向量的乘积;
根据计算得到的每个乘积及所述第二参数矩阵进行和运算,得到每个融合向量在所述线性层对应的输出。
根据本发明优选实施例,所述方法还包括:
获取预设时长内用户浏览及/或搜索过的所有新闻;
将获取的新闻输入至所述新闻主题词生成模型,并获取所述新闻主题词生成模型的输出作为至少一个主题词;
计算所述至少一个主题词中每个主题词出现的概率;
根据每个主题词出现的概率从所述至少一个主题词中筛选出目标词;
向用户推送带有所述目标词的新闻内容及/或向所述用户推送与所述目标词关联的产品。
一种新闻主题词生成装置,所述新闻主题词生成装置包括:
获取单元,用于响应于新闻主题词生成指令,根据所述新闻主题词生成指令获取初始样本;
预处理单元,用于对所述初始样本进行预处理,得到训练样本;
构建单元,用于将所述训练样本输入至用于特征转化的BERT模型,并获取所述BERT模型输出的嵌入式向量构建第一特征向量集;
所述构建单元,还用于将所述第一特征向量集输入至用于提取时序性特征的双向LSTM网络,并获取所述双向LSTM网络输出的具有时序性的向量构建第二特征向量集;
融合单元,用于对所述第一特征向量集中的向量与所述第二特征向量集中对应的向量进行特征融合,得到融合向量集;
所述构建单元,还用于将所述融合向量集输入至用于线性变换的线性层,并获取所述线性层输出的线性变换后的向量构建第三特征向量集;
分类单元,用于将所述第三特征向量集输入至softmax分类器进行分类,直至所述softmax分类器达到收敛,停止训练,得到新闻主题词生成模型;
输入单元,用于当接收到待处理新闻时,将所述待处理新闻输入至所述新闻主题词生成模型,并获取所述新闻主题词生成模型的输出作为目标新闻主题词。
一种计算机设备,所述计算机设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现所述新闻主题词生成方法。
一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被计算机设备中的处理器执行以实现所述新闻主题词生成方法。
由以上技术方案可以看出,本发明将训练样本输入至BERT模型构建第一特征向量集,引入了改进的BERT模型,由于BERT模型不需要进行中文分词处理,避免由于分词不清而引起主题词生成错误,同时,获取所述BERT模型输出的嵌入式向量构建第一特征向量集,将所述第一特征向量集输入至用于提取时序性特征的双向LSTM网络,并获取所述双向LSTM网络输出的具有时序性的向量构建第二特征向量集,对所述第一特征向量集中的向量与所述第二特征向量集中对应的向量进行特征融合,得到融合向量集,将所述融合向量集输入至用于线性变换的线性层,并获取所述线性层输出的线性变换后的向量构建第三特征向量集,结合双向LSTM网络,充分学习了上下文信息,进一步将所述第三特征向量集输入至softmax分类器进行分类,直至所述softmax分类器达到收敛,停止训练,得到新闻主题词生成模型,当接收到待处理新闻时,将所述待处理新闻输入至所述新闻主题词生成模型,并获取所述新闻主题词生成模型的输出作为目标新闻主题词,进而结合改进的BERT模型及双向LSTM网络实现新闻主题词的生成,有效提高了新闻主题词生成的准确度。
附图说明
图1是本发明新闻主题词生成方法的较佳实施例的流程图。
图2是本发明新闻主题词生成装置的较佳实施例的功能模块图。
图3是本发明实现新闻主题词生成方法的较佳实施例的计算机设备的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
如图1所示,是本发明新闻主题词生成方法的较佳实施例的流程图。根据不同的需求,该流程图中步骤的顺序可以改变,某些步骤可以省略。
所述新闻主题词生成方法应用于一个或者多个计算机设备中,所述计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(DigitalSignal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是任何一种可与用户进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、个人数字助理(Personal Digital Assistant,PDA)、游戏机、交互式网络电视(Internet Protocol Television,IPTV)、智能式穿戴式设备等。
所述计算机设备还可以包括网络设备和/或用户设备。其中,所述网络设备包括,但不限于单个网络服务器、多个网络服务器组成的服务器组或基于云计算(CloudComputing)的由大量主机或网络服务器构成的云。
所述计算机设备所处的网络包括但不限于互联网、广域网、城域网、局域网、虚拟专用网络(Virtual Private Network,VPN)等。
S10,响应于新闻主题词生成指令,根据所述新闻主题词生成指令获取初始样本。
在本实施例中,所述新闻主题词生成指令可以由相关工作人员触发,如开发人员等。
在本发明的至少一个实施例中,所述根据所述新闻主题词生成指令获取初始样本包括:
解析所述新闻主题词生成指令,得到所述新闻主题词生成指令所携带的信息;
获取预先配置的与地址对应的预设标签;
根据所述预设标签构建正则表达式;
利用所述正则表达式遍历所述新闻主题词生成指令所携带的信息;
将遍历到的信息确定为目标地址;
连接至所述目标地址,并获取所述目标地址处存储的数据以构建所述初始样本。
其中,所述预设标签可以进行自定义配置,所述预设标签与地址具有一一对应的关系。
具体地,所述地址可以是指一个文件夹地址,也可以是指数据库地址,或者是指一个网页地址,所述地址处存储着新闻数据可供调用,本发明对所述地址的形式不做限制。
例如:当所述预设标签为ADD时,构建的正则表达式可以为ADD(),进一步地,根据所述正则表达式ADD()在所述新闻主题词生成指令所携带的信息中进行遍历,并将遍历到的信息确定为所述目标地址,根据所述目标地址处存储的数据构建数据集,即可得到所述初始样本。
通过上述实施方式,能够根据预设标签及正则表达式快速且准确的定位到目标地址,进而根据所述目标地址处存储的数据构建所述初始样本。
S11,对所述初始样本进行预处理,得到训练样本。
需要说明的是,所述初始样本中的数据是新闻文本的原始数据,为了符合BERT模型的数据格式,还需要先对所述初始样本进行预处理。
具体地,所述对所述初始样本进行预处理,得到训练样本包括:
对于所述初始样本中的每个词,将每个词转换为嵌入向量,得到每个词的第一嵌入表示;
获取每个词所属的段,并根据每个词所属的段生成每个词的第二嵌入表示;
获取每个词的位置信息,并根据每个词的位置信息生成每个词的第三嵌入表示;
拼接每个词的第一嵌入表示、第二嵌入表示及第三嵌入表示,得到每个词的嵌入向量;
利用每个词的嵌入向量组成所述训练样本。
其中,所述第一嵌入表示表征的是关于词最主要的信息;所述第二嵌入表示表征词所属的段,体现上下文关系;所述第三嵌入表示表征词的位置,解决Transformer模型不能记住时序的问题。
进一步地,将每个词的第一嵌入表示、第二嵌入表示及第三嵌入表示进行拼接(如横向拼接),即可得到每个词的嵌入向量。
更进一步地,将每个词的嵌入向量组成数据集,即可得到所述训练样本。
通过上述实施方式,能够通过预处理将初始样本转换为模型能够识别的嵌入向量形式,以供模型训练使用。
S12,将所述训练样本输入至用于特征转化的BERT(Bidirectional EncoderRepresentations from Transformers,来自于转换器的双向编码表示)模型,并获取所述BERT模型输出的嵌入式向量构建第一特征向量集。
在本实施例中,将所述训练样本输入至所述BERT模型后,经过所述BERT模型的处理,输出的向量表示可以构建所述第一特征向量集,在此不赘述。
S13,将所述第一特征向量集输入至用于提取时序性特征的双向LSTM(LongShort-Term Memory,长短期记忆网络)网络,并获取所述双向LSTM网络输出的具有时序性的向量构建第二特征向量集。
在本实施例中,在将所述第一特征向量集输入至双向LSTM网络后,所述方法还包括:
获取所述双向LSTM网络中用于嵌入式向量转化的嵌入层;
将所述第一特征向量集输入至所述嵌入层,并获取所述嵌入层输出的具有时序性的嵌入式向量构建所述第二特征向量集。
其中,所述嵌入层即Embedding Layer,所述Embedding Layer的值完全来自BERT模型的输出。
本实施例采用了两层的双向LSTM进行编码,能够更好的学习到句子的前后文特征。
S14,对所述第一特征向量集中的向量与所述第二特征向量集中对应的向量进行特征融合,得到融合向量集。
在本发明的至少一个实施例中,所述对所述第一特征向量集中的向量与所述第二特征向量集中对应的向量进行特征融合,得到融合向量集包括:
将所述第一特征向量集中的向量确定为第一向量,及将所述第二特征向量集中的向量确定为第二向量;
将由相同训练样本生成的第一向量及第二向量确定为对应向量,得到至少一个对应向量组;
将每个对应向量组所包含的第一向量及第二向量按元素对应相加,得到至少一个融合向量;
利用所述至少一个融合向量构建数据集,得到所述融合向量集。
例如:当一个对应向量组中包括第一向量(a,b)及第二向量(c,d)时,将所述第一向量(a,b)及所述第二向量(c,d)按元素对应相加,得到融合向量(a+c,b+d)。
通过上述实施方式,同时融合了BERT提取的特征和LSTM提取的特征,LSTM充分学习了上下文信息,有效解决了BERT上下文信息较弱的问题。
S15,将所述融合向量集输入至用于线性变换的线性层,并获取所述线性层输出的线性变换后的向量构建第三特征向量集。
在本发明的至少一个实施例中,在将所述融合向量集输入至用于线性变换的线性层后,所述方法还包括:
获取所述线性层的第一参数矩阵及第二参数矩阵;
计算所述第一参数矩阵与所述融合向量集中的每个融合向量的乘积;
根据计算得到的每个乘积及所述第二参数矩阵进行和运算,得到每个融合向量在所述线性层对应的输出。
其中,所述线性层相当于一个全连接层,所述第一参数矩阵及所述第二参数矩阵是所述线性层的固有矩阵,可以通过训练而得到。
例如:当X表示一个融合向量时,如果所述第一参数矩阵为W,所述第二参数矩阵为B,那么,通过计算,融合向量X在所述线性层对应的输出为W*X+B。
通过上述实施方式,利用所述线性层将所述融合向量集中的向量进行维度变换,进而满足后续模型对于数据格式的要求。
S16,将所述第三特征向量集输入至softmax分类器进行分类,直至所述softmax分类器达到收敛,停止训练,得到新闻主题词生成模型。
在本实施例中,所述softmax分类器用于对新闻主题词进行分类,以判断原始输入的新闻最可能属于的类别,在此不赘述。
S17,当接收到待处理新闻时,将所述待处理新闻输入至所述新闻主题词生成模型,并获取所述新闻主题词生成模型的输出作为目标新闻主题词。
可以理解的是,单纯引入BERT模型进行主题词预测,考虑到BERT模型是基于汉语字符的,无法考虑到上下文和语义情况。LSTM只能依据之前时刻的时序信息来预测下一时刻的输出,但是当前时刻的输出不仅和之前的状态有关,还可能和未来的状态有关系。对于文本来说,不仅需要前文来判断,还需要考虑它后面的内容,真正做到基于上下文判断。
因此,为了解决上述问题,本实施例在BERT模型的基础上引入LSTM双向循环网络结构处理序列信息,采用集成的方式进行特征权重的提取,将BERT和LSTM的特征进行集成共同作为输入,将两个模型更好的结合,提高了主题词预测的准确度。
同时,不同于传统的汉语语料库需要中文分词处理,改进后的BERT模型不需要进行中文分词处理,能够有效避免因为分词不清而引起的主题词预测失误问题。
在本发明的至少一个实施例中,所述方法还包括:
获取预设时长内用户浏览及/或搜索过的所有新闻;
将获取的新闻输入至所述新闻主题词生成模型,并获取所述新闻主题词生成模型的输出作为至少一个主题词;
计算所述至少一个主题词中每个主题词出现的概率;
根据每个主题词出现的概率从所述至少一个主题词中筛选出目标词;
向用户推送带有所述目标词的新闻内容及/或向所述用户推送与所述目标词关联的产品。
其中,所述根据每个主题词出现的概率从所述至少一个主题词中筛选出目标词包括:
从所述至少一个主题词中筛选出概率大于或者等于预设概率的主题词作为所述目标词;及/或
将所述至少一个主题词按照概率由高到低的顺序进行排序,并将排在前预设位的主题词作为所述目标词。
所述预设概率可以进行自定义配置,如95%。
所述前预设位也可以进行自定义配置,如前三位。
通过上述实施方式,能够对阅读人群进行定制化的新闻推荐,同时根据用户的搜索记录进行相关产品的推荐,优化用户体验。
需要说明的是,为了进一步确保数据的安全性,避免数据被恶意篡改,生成的所述新闻主题词生成模型还可以存储于区块链节点中。
由以上技术方案可以看出,本发明引入了改进的BERT模型,避免由于分词不清而引起主题词生成错误,同时,结合双向LSTM网络,充分学习了上下文信息,提高了新闻主题词生成的准确度。
如图2所示,是本发明新闻主题词生成装置的较佳实施例的功能模块图。所述新闻主题词生成装置11包括获取单元110、预处理单元111、构建单元112、融合单元113、分类单元114、输入单元115。本发明所称的模块/单元是指一种能够被处理器13所执行,并且能够完成固定功能的一系列计算机程序段,其存储在存储器12中。在本实施例中,关于各模块/单元的功能将在后续的实施例中详述。
响应于新闻主题词生成指令,获取单元110根据所述新闻主题词生成指令获取初始样本。
在本实施例中,所述新闻主题词生成指令可以由相关工作人员触发,如开发人员等。
在本发明的至少一个实施例中,所述获取单元110根据所述新闻主题词生成指令获取初始样本包括:
解析所述新闻主题词生成指令,得到所述新闻主题词生成指令所携带的信息;
获取预先配置的与地址对应的预设标签;
根据所述预设标签构建正则表达式;
利用所述正则表达式遍历所述新闻主题词生成指令所携带的信息;
将遍历到的信息确定为目标地址;
连接至所述目标地址,并获取所述目标地址处存储的数据以构建所述初始样本。
其中,所述预设标签可以进行自定义配置,所述预设标签与地址具有一一对应的关系。
具体地,所述地址可以是指一个文件夹地址,也可以是指数据库地址,或者是指一个网页地址,所述地址处存储着新闻数据可供调用,本发明对所述地址的形式不做限制。
例如:当所述预设标签为ADD时,构建的正则表达式可以为ADD(),进一步地,根据所述正则表达式ADD()在所述新闻主题词生成指令所携带的信息中进行遍历,并将遍历到的信息确定为所述目标地址,根据所述目标地址处存储的数据构建数据集,即可得到所述初始样本。
通过上述实施方式,能够根据预设标签及正则表达式快速且准确的定位到目标地址,进而根据所述目标地址处存储的数据构建所述初始样本。
预处理单元111对所述初始样本进行预处理,得到训练样本。
需要说明的是,所述初始样本中的数据是新闻文本的原始数据,为了符合BERT模型的数据格式,还需要先对所述初始样本进行预处理。
具体地,所述预处理单元111对所述初始样本进行预处理,得到训练样本包括:
对于所述初始样本中的每个词,将每个词转换为嵌入向量,得到每个词的第一嵌入表示;
获取每个词所属的段,并根据每个词所属的段生成每个词的第二嵌入表示;
获取每个词的位置信息,并根据每个词的位置信息生成每个词的第三嵌入表示;
拼接每个词的第一嵌入表示、第二嵌入表示及第三嵌入表示,得到每个词的嵌入向量;
利用每个词的嵌入向量组成所述训练样本。
其中,所述第一嵌入表示表征的是关于词最主要的信息;所述第二嵌入表示表征词所属的段,体现上下文关系;所述第三嵌入表示表征词的位置,解决Transformer模型不能记住时序的问题。
进一步地,将每个词的第一嵌入表示、第二嵌入表示及第三嵌入表示进行拼接(如横向拼接),即可得到每个词的嵌入向量。
更进一步地,将每个词的嵌入向量组成数据集,即可得到所述训练样本。
通过上述实施方式,能够通过预处理将初始样本转换为模型能够识别的嵌入向量形式,以供模型训练使用。
构建单元112将所述训练样本输入至用于特征转化的BERT(BidirectionalEncoder Representations from Transformers,来自于转换器的双向编码表示)模型,并获取所述BERT模型输出的嵌入式向量构建第一特征向量集。
在本实施例中,将所述训练样本输入至所述BERT模型后,经过所述BERT模型的处理,输出的向量表示可以构建所述第一特征向量集,在此不赘述。
所述构建单元112将所述第一特征向量集输入至用于提取时序性特征的双向LSTM(Long Short-Term Memory,长短期记忆网络)网络,并获取所述双向LSTM网络输出的具有时序性的向量构建第二特征向量集。
在本实施例中,在将所述第一特征向量集输入至双向LSTM网络后,获取所述双向LSTM网络中用于嵌入式向量转化的嵌入层;
将所述第一特征向量集输入至所述嵌入层,并获取所述嵌入层输出的具有时序性的嵌入式向量构建所述第二特征向量集。
其中,所述嵌入层即Embedding Layer,所述Embedding Layer的值完全来自BERT模型的输出。
本实施例采用了两层的双向LSTM进行编码,能够更好的学习到句子的前后文特征。
融合单元113对所述第一特征向量集中的向量与所述第二特征向量集中对应的向量进行特征融合,得到融合向量集。
在本发明的至少一个实施例中,所述融合单元113对所述第一特征向量集中的向量与所述第二特征向量集中对应的向量进行特征融合,得到融合向量集包括:
将所述第一特征向量集中的向量确定为第一向量,及将所述第二特征向量集中的向量确定为第二向量;
将由相同训练样本生成的第一向量及第二向量确定为对应向量,得到至少一个对应向量组;
将每个对应向量组所包含的第一向量及第二向量按元素对应相加,得到至少一个融合向量;
利用所述至少一个融合向量构建数据集,得到所述融合向量集。
例如:当一个对应向量组中包括第一向量(a,b)及第二向量(c,d)时,将所述第一向量(a,b)及所述第二向量(c,d)按元素对应相加,得到融合向量(a+c,b+d)。
通过上述实施方式,同时融合了BERT提取的特征和LSTM提取的特征,LSTM充分学习了上下文信息,有效解决了BERT上下文信息较弱的问题。
所述构建单元112将所述融合向量集输入至用于线性变换的线性层,并获取所述线性层输出的线性变换后的向量构建第三特征向量集。
在本发明的至少一个实施例中,在将所述融合向量集输入至用于线性变换的线性层后,获取所述线性层的第一参数矩阵及第二参数矩阵;
计算所述第一参数矩阵与所述融合向量集中的每个融合向量的乘积;
根据计算得到的每个乘积及所述第二参数矩阵进行和运算,得到每个融合向量在所述线性层对应的输出。
其中,所述线性层相当于一个全连接层,所述第一参数矩阵及所述第二参数矩阵是所述线性层的固有矩阵,可以通过训练而得到。
例如:当X表示一个融合向量时,如果所述第一参数矩阵为W,所述第二参数矩阵为B,那么,通过计算,融合向量X在所述线性层对应的输出为W*X+B。
通过上述实施方式,利用所述线性层将所述融合向量集中的向量进行维度变换,进而满足后续模型对于数据格式的要求。
分类单元114将所述第三特征向量集输入至softmax分类器进行分类,直至所述softmax分类器达到收敛,停止训练,得到新闻主题词生成模型。
在本实施例中,所述softmax分类器用于对新闻主题词进行分类,以判断原始输入的新闻最可能属于的类别,在此不赘述。
当接收到待处理新闻时,输入单元115将所述待处理新闻输入至所述新闻主题词生成模型,并获取所述新闻主题词生成模型的输出作为目标新闻主题词。
可以理解的是,单纯引入BERT模型进行主题词预测,考虑到BERT模型是基于汉语字符的,无法考虑到上下文和语义情况。LSTM只能依据之前时刻的时序信息来预测下一时刻的输出,但是当前时刻的输出不仅和之前的状态有关,还可能和未来的状态有关系。对于文本来说,不仅需要前文来判断,还需要考虑它后面的内容,真正做到基于上下文判断。
因此,为了解决上述问题,本实施例在BERT模型的基础上引入LSTM双向循环网络结构处理序列信息,采用集成的方式进行特征权重的提取,将BERT和LSTM的特征进行集成共同作为输入,将两个模型更好的结合,提高了主题词预测的准确度。
同时,不同于传统的汉语语料库需要中文分词处理,改进后的BERT模型不需要进行中文分词处理,能够有效避免因为分词不清而引起的主题词预测失误问题。
在本发明的至少一个实施例中,获取预设时长内用户浏览及/或搜索过的所有新闻;
将获取的新闻输入至所述新闻主题词生成模型,并获取所述新闻主题词生成模型的输出作为至少一个主题词;
计算所述至少一个主题词中每个主题词出现的概率;
根据每个主题词出现的概率从所述至少一个主题词中筛选出目标词;
向用户推送带有所述目标词的新闻内容及/或向所述用户推送与所述目标词关联的产品。
其中,所述根据每个主题词出现的概率从所述至少一个主题词中筛选出目标词包括:
从所述至少一个主题词中筛选出概率大于或者等于预设概率的主题词作为所述目标词;及/或
将所述至少一个主题词按照概率由高到低的顺序进行排序,并将排在前预设位的主题词作为所述目标词。
所述预设概率可以进行自定义配置,如95%。
所述前预设位也可以进行自定义配置,如前三位。
通过上述实施方式,能够对阅读人群进行定制化的新闻推荐,同时根据用户的搜索记录进行相关产品的推荐,优化用户体验。
需要说明的是,为了进一步确保数据的安全性,避免数据被恶意篡改,生成的所述新闻主题词生成模型还可以存储于区块链节点中。
由以上技术方案可以看出,本发明引入了改进的BERT模型,避免由于分词不清而引起主题词生成错误,同时,结合双向LSTM网络,充分学习了上下文信息,提高了新闻主题词生成的准确度。
如图3所示,是本发明实现新闻主题词生成方法的较佳实施例的计算机设备的结构示意图。
所述计算机设备1可以包括存储器12、处理器13和总线,还可以包括存储在所述存储器12中并可在所述处理器13上运行的计算机程序,例如新闻主题词生成程序。
本领域技术人员可以理解,所述示意图仅仅是计算机设备1的示例,并不构成对计算机设备1的限定,所述计算机设备1既可以是总线型结构,也可以是星形结构,所述计算机设备1还可以包括比图示更多或更少的其他硬件或者软件,或者不同的部件布置,例如所述计算机设备1还可以包括输入输出设备、网络接入设备等。
需要说明的是,所述计算机设备1仅为举例,其他现有的或今后可能出现的电子产品如可适应于本发明,也应包含在本发明的保护范围以内,并以引用方式包含于此。
其中,存储器12至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。存储器12在一些实施例中可以是计算机设备1的内部存储单元,例如该计算机设备1的移动硬盘。存储器12在另一些实施例中也可以是计算机设备1的外部存储设备,例如计算机设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(Flash Card)等。进一步地,存储器12还可以既包括计算机设备1的内部存储单元也包括外部存储设备。存储器12不仅可以用于存储安装于计算机设备1的应用软件及各类数据,例如新闻主题词生成程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
处理器13在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。处理器13是所述计算机设备1的控制核心(Control Unit),利用各种接口和线路连接整个计算机设备1的各个部件,通过运行或执行存储在所述存储器12内的程序或者模块(例如执行新闻主题词生成程序等),以及调用存储在所述存储器12内的数据,以执行计算机设备1的各种功能和处理数据。
所述处理器13执行所述计算机设备1的操作系统以及安装的各类应用程序。所述处理器13执行所述应用程序以实现上述各个新闻主题词生成方法实施例中的步骤,例如图1所示的步骤。
示例性的,所述计算机程序可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器12中,并由所述处理器13执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机可读指令段,该指令段用于描述所述计算机程序在所述计算机设备1中的执行过程。例如,所述计算机程序可以被分割成获取单元110、预处理单元111、构建单元112、融合单元113、分类单元114、输入单元115。
上述以软件功能模块的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能模块存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、计算机设备,或者网络设备等)或处理器(processor)执行本发明各个实施例所述新闻主题词生成方法的部分。
所述计算机设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指示相关的硬件设备来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。
其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器等。
进一步地,计算机可读存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。为便于表示,在图3中仅用一根直线表示,但并不表示仅有一根总线或一种类型的总线。所述总线被设置为实现所述存储器12以及至少一个处理器13等之间的连接通信。
尽管未示出,所述计算机设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器13逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述计算机设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述计算机设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该计算机设备1与其他计算机设备之间建立通信连接。
可选地,该计算机设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在计算机设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
图3仅示出了具有组件12-13的计算机设备1,本领域技术人员可以理解的是,图3示出的结构并不构成对所述计算机设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
结合图1,所述计算机设备1中的所述存储器12存储多个指令以实现一种新闻主题词生成方法,所述处理器13可执行所述多个指令从而实现:
响应于新闻主题词生成指令,根据所述新闻主题词生成指令获取初始样本;
对所述初始样本进行预处理,得到训练样本;
将所述训练样本输入至用于特征转化的BERT模型,并获取所述BERT模型输出的嵌入式向量构建第一特征向量集;
将所述第一特征向量集输入至用于提取时序性特征的双向LSTM网络,并获取所述双向LSTM网络输出的具有时序性的向量构建第二特征向量集;
对所述第一特征向量集中的向量与所述第二特征向量集中对应的向量进行特征融合,得到融合向量集;
将所述融合向量集输入至用于线性变换的线性层,并获取所述线性层输出的线性变换后的向量构建第三特征向量集;
将所述第三特征向量集输入至softmax分类器进行分类,直至所述softmax分类器达到收敛,停止训练,得到新闻主题词生成模型;
当接收到待处理新闻时,将所述待处理新闻输入至所述新闻主题词生成模型,并获取所述新闻主题词生成模型的输出作为目标新闻主题词。
具体地,所述处理器13对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。本发明中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一、第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种新闻主题词生成方法,其特征在于,所述新闻主题词生成方法包括:
响应于新闻主题词生成指令,根据所述新闻主题词生成指令获取初始样本;
对所述初始样本进行预处理,得到训练样本;
将所述训练样本输入至用于特征转化的BERT模型,并获取所述BERT模型输出的嵌入式向量构建第一特征向量集;
将所述第一特征向量集输入至用于提取时序性特征的双向LSTM网络,并获取所述双向LSTM网络输出的具有时序性的向量构建第二特征向量集;
对所述第一特征向量集中的向量与所述第二特征向量集中对应的向量进行特征融合,得到融合向量集;
将所述融合向量集输入至用于线性变换的线性层,并获取所述线性层输出的线性变换后的向量构建第三特征向量集;
将所述第三特征向量集输入至softmax分类器进行分类,直至所述softmax分类器达到收敛,停止训练,得到新闻主题词生成模型;
当接收到待处理新闻时,将所述待处理新闻输入至所述新闻主题词生成模型,并获取所述新闻主题词生成模型的输出作为目标新闻主题词。
2.如权利要求1所述的新闻主题词生成方法,其特征在于,所述根据所述新闻主题词生成指令获取初始样本包括:
解析所述新闻主题词生成指令,得到所述新闻主题词生成指令所携带的信息;
获取预先配置的与地址对应的预设标签;
根据所述预设标签构建正则表达式;
利用所述正则表达式遍历所述新闻主题词生成指令所携带的信息;
将遍历到的信息确定为目标地址;
连接至所述目标地址,并获取所述目标地址处存储的数据以构建所述初始样本。
3.如权利要求1所述的新闻主题词生成方法,其特征在于,所述对所述初始样本进行预处理,得到训练样本包括:
对于所述初始样本中的每个词,将每个词转换为嵌入向量,得到每个词的第一嵌入表示;
获取每个词所属的段,并根据每个词所属的段生成每个词的第二嵌入表示;
获取每个词的位置信息,并根据每个词的位置信息生成每个词的第三嵌入表示;
拼接每个词的第一嵌入表示、第二嵌入表示及第三嵌入表示,得到每个词的嵌入向量;
利用每个词的嵌入向量组成所述训练样本。
4.如权利要求1所述的新闻主题词生成方法,其特征在于,在将所述第一特征向量集输入至用于提取时序性特征的双向LSTM网络后,所述方法还包括:
获取所述双向LSTM网络中用于嵌入式向量转化的嵌入层;
将所述第一特征向量集输入至所述嵌入层,并获取所述嵌入层输出的具有时序性的嵌入式向量构建所述第二特征向量集。
5.如权利要求1所述的新闻主题词生成方法,其特征在于,所述对所述第一特征向量集中的向量与所述第二特征向量集中对应的向量进行特征融合,得到融合向量集包括:
将所述第一特征向量集中的向量确定为第一向量,及将所述第二特征向量集中的向量确定为第二向量;
将由相同训练样本生成的第一向量及第二向量确定为对应向量,得到至少一个对应向量组;
将每个对应向量组所包含的第一向量及第二向量按元素对应相加,得到至少一个融合向量;
利用所述至少一个融合向量构建数据集,得到所述融合向量集。
6.如权利要求1所述的新闻主题词生成方法,其特征在于,在将所述融合向量集输入至用于线性变换的线性层后,所述方法还包括:
获取所述线性层的第一参数矩阵及第二参数矩阵;
计算所述第一参数矩阵与所述融合向量集中的每个融合向量的乘积;
根据计算得到的每个乘积及所述第二参数矩阵进行和运算,得到每个融合向量在所述线性层对应的输出。
7.如权利要求1所述的新闻主题词生成方法,其特征在于,所述方法还包括:
获取预设时长内用户浏览及/或搜索过的所有新闻;
将获取的新闻输入至所述新闻主题词生成模型,并获取所述新闻主题词生成模型的输出作为至少一个主题词;
计算所述至少一个主题词中每个主题词出现的概率;
根据每个主题词出现的概率从所述至少一个主题词中筛选出目标词;
向用户推送带有所述目标词的新闻内容及/或向所述用户推送与所述目标词关联的产品。
8.一种新闻主题词生成装置,其特征在于,所述新闻主题词生成装置包括:
获取单元,用于响应于新闻主题词生成指令,根据所述新闻主题词生成指令获取初始样本;
预处理单元,用于对所述初始样本进行预处理,得到训练样本;
构建单元,用于将所述训练样本输入至用于特征转化的BERT模型,并获取所述BERT模型输出的嵌入式向量构建第一特征向量集;
所述构建单元,还用于将所述第一特征向量集输入至用于提取时序性特征的双向LSTM网络,并获取所述双向LSTM网络输出的具有时序性的向量构建第二特征向量集;
融合单元,用于对所述第一特征向量集中的向量与所述第二特征向量集中对应的向量进行特征融合,得到融合向量集;
所述构建单元,还用于将所述融合向量集输入至用于线性变换的线性层,并获取所述线性层输出的线性变换后的向量构建第三特征向量集;
分类单元,用于将所述第三特征向量集输入至softmax分类器进行分类,直至所述softmax分类器达到收敛,停止训练,得到新闻主题词生成模型;
输入单元,用于当接收到待处理新闻时,将所述待处理新闻输入至所述新闻主题词生成模型,并获取所述新闻主题词生成模型的输出作为目标新闻主题词。
9.一种计算机设备,其特征在于,所述计算机设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现如权利要求1至7中任意一项所述的新闻主题词生成方法。
10.一种计算机可读存储介质,其特征在于:所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被计算机设备中的处理器执行以实现如权利要求1至7中任意一项所述的新闻主题词生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110599986.9A CN113204698B (zh) | 2021-05-31 | 2021-05-31 | 新闻主题词生成方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110599986.9A CN113204698B (zh) | 2021-05-31 | 2021-05-31 | 新闻主题词生成方法、装置、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113204698A true CN113204698A (zh) | 2021-08-03 |
CN113204698B CN113204698B (zh) | 2023-12-26 |
Family
ID=77023761
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110599986.9A Active CN113204698B (zh) | 2021-05-31 | 2021-05-31 | 新闻主题词生成方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113204698B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115600587A (zh) * | 2022-12-16 | 2023-01-13 | 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室)(Cn) | 数学应用题生成系统、方法、智能终端及可读存储介质 |
CN117150145A (zh) * | 2023-10-31 | 2023-12-01 | 成都企软数字科技有限公司 | 一种基于大语言模型的个性化新闻推荐方法及系统 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111401061A (zh) * | 2020-03-19 | 2020-07-10 | 昆明理工大学 | 基于BERT及BiLSTM-Attention的涉案新闻观点句识别方法 |
CN111507099A (zh) * | 2020-06-19 | 2020-08-07 | 平安科技(深圳)有限公司 | 文本分类方法、装置、计算机设备及存储介质 |
CN111553148A (zh) * | 2020-03-31 | 2020-08-18 | 深圳壹账通智能科技有限公司 | 标签建立方法、装置、电子设备及介质 |
CN111680168A (zh) * | 2020-05-29 | 2020-09-18 | 平安银行股份有限公司 | 文本特征语义提取方法、装置、电子设备及存储介质 |
WO2020224106A1 (zh) * | 2019-05-07 | 2020-11-12 | 平安科技(深圳)有限公司 | 基于神经网络的文本分类方法、系统及计算机设备 |
CN112000805A (zh) * | 2020-08-24 | 2020-11-27 | 平安国际智慧城市科技股份有限公司 | 基于预训练模型的文本匹配方法、装置、终端及存储介质 |
CN112069313A (zh) * | 2020-08-12 | 2020-12-11 | 北京工业大学 | 一种基于bert与双向lstm、注意力机制融合的灾难信息博文分类方法 |
US20210064957A1 (en) * | 2019-09-04 | 2021-03-04 | Tencent America LLC | Understanding a query intention for medical artificial intelligence systems using semi-supervised deep learning |
CN112507663A (zh) * | 2020-12-16 | 2021-03-16 | 平安银行股份有限公司 | 基于文本的判断题生成方法、装置、电子设备及存储介质 |
CN112861540A (zh) * | 2021-04-25 | 2021-05-28 | 成都索贝视频云计算有限公司 | 基于深度学习的广播电视新闻关键词自动抽取方法 |
-
2021
- 2021-05-31 CN CN202110599986.9A patent/CN113204698B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020224106A1 (zh) * | 2019-05-07 | 2020-11-12 | 平安科技(深圳)有限公司 | 基于神经网络的文本分类方法、系统及计算机设备 |
US20210064957A1 (en) * | 2019-09-04 | 2021-03-04 | Tencent America LLC | Understanding a query intention for medical artificial intelligence systems using semi-supervised deep learning |
CN111401061A (zh) * | 2020-03-19 | 2020-07-10 | 昆明理工大学 | 基于BERT及BiLSTM-Attention的涉案新闻观点句识别方法 |
CN111553148A (zh) * | 2020-03-31 | 2020-08-18 | 深圳壹账通智能科技有限公司 | 标签建立方法、装置、电子设备及介质 |
CN111680168A (zh) * | 2020-05-29 | 2020-09-18 | 平安银行股份有限公司 | 文本特征语义提取方法、装置、电子设备及存储介质 |
CN111507099A (zh) * | 2020-06-19 | 2020-08-07 | 平安科技(深圳)有限公司 | 文本分类方法、装置、计算机设备及存储介质 |
CN112069313A (zh) * | 2020-08-12 | 2020-12-11 | 北京工业大学 | 一种基于bert与双向lstm、注意力机制融合的灾难信息博文分类方法 |
CN112000805A (zh) * | 2020-08-24 | 2020-11-27 | 平安国际智慧城市科技股份有限公司 | 基于预训练模型的文本匹配方法、装置、终端及存储介质 |
CN112507663A (zh) * | 2020-12-16 | 2021-03-16 | 平安银行股份有限公司 | 基于文本的判断题生成方法、装置、电子设备及存储介质 |
CN112861540A (zh) * | 2021-04-25 | 2021-05-28 | 成都索贝视频云计算有限公司 | 基于深度学习的广播电视新闻关键词自动抽取方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115600587A (zh) * | 2022-12-16 | 2023-01-13 | 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室)(Cn) | 数学应用题生成系统、方法、智能终端及可读存储介质 |
CN117150145A (zh) * | 2023-10-31 | 2023-12-01 | 成都企软数字科技有限公司 | 一种基于大语言模型的个性化新闻推荐方法及系统 |
CN117150145B (zh) * | 2023-10-31 | 2024-01-02 | 成都企软数字科技有限公司 | 一种基于大语言模型的个性化新闻推荐方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113204698B (zh) | 2023-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112597312A (zh) | 文本分类方法、装置、电子设备及可读存储介质 | |
CN113051356B (zh) | 开放关系抽取方法、装置、电子设备及存储介质 | |
CN113704429A (zh) | 基于半监督学习的意图识别方法、装置、设备及介质 | |
CN111666415A (zh) | 话题聚类方法、装置、电子设备及存储介质 | |
CN113378970B (zh) | 语句相似性检测方法、装置、电子设备及存储介质 | |
CN112446207A (zh) | 标题生成方法、装置、电子设备及存储介质 | |
CN111753089A (zh) | 话题聚类方法、装置、电子设备及存储介质 | |
CN115002200A (zh) | 基于用户画像的消息推送方法、装置、设备及存储介质 | |
CN112860848A (zh) | 信息检索方法、装置、设备及介质 | |
CN112528013A (zh) | 文本摘要提取方法、装置、电子设备及存储介质 | |
CN113204698B (zh) | 新闻主题词生成方法、装置、设备及介质 | |
CN114511038A (zh) | 虚假新闻检测方法、装置、电子设备及可读存储介质 | |
CN112507663A (zh) | 基于文本的判断题生成方法、装置、电子设备及存储介质 | |
CN114398557A (zh) | 基于双画像的信息推荐方法、装置、电子设备及存储介质 | |
CN115221276A (zh) | 基于clip的中文图文检索模型训练方法、装置、设备及介质 | |
CN115238115A (zh) | 基于中文数据的图像检索方法、装置、设备及存储介质 | |
CN112861750B (zh) | 基于拐点检测的视频提取方法、装置、设备及介质 | |
CN112307771B (zh) | 基于情感分析的课程分析方法、装置、设备及介质 | |
CN113254814A (zh) | 网络课程视频打标签方法、装置、电子设备及介质 | |
CN112364068A (zh) | 课程标签生成方法、装置、设备及介质 | |
CN112989043A (zh) | 指代消解方法、装置、电子设备及可读存储介质 | |
CN116737947A (zh) | 实体关系图构建方法、装置、设备及存储介质 | |
CN115346095A (zh) | 视觉问答方法、装置、设备及存储介质 | |
CN114943306A (zh) | 意图分类方法、装置、设备及存储介质 | |
CN114385815A (zh) | 基于业务需求的新闻筛选方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |