CN116401340B - 一种标准文献的查询比对方法及系统 - Google Patents
一种标准文献的查询比对方法及系统 Download PDFInfo
- Publication number
- CN116401340B CN116401340B CN202310671606.7A CN202310671606A CN116401340B CN 116401340 B CN116401340 B CN 116401340B CN 202310671606 A CN202310671606 A CN 202310671606A CN 116401340 B CN116401340 B CN 116401340B
- Authority
- CN
- China
- Prior art keywords
- similarity
- learning rate
- gradient
- steps
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 238000003062 neural network model Methods 0.000 claims abstract description 35
- 238000012549 training Methods 0.000 claims abstract description 11
- 238000007781 pre-processing Methods 0.000 claims abstract description 6
- 230000006870 function Effects 0.000 claims description 24
- 239000013598 vector Substances 0.000 claims description 24
- 230000011218 segmentation Effects 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000012937 correction Methods 0.000 claims description 6
- 230000001186 cumulative effect Effects 0.000 claims description 6
- 230000007423 decrease Effects 0.000 claims description 6
- 239000002243 precursor Substances 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 230000007704 transition Effects 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000004451 qualitative analysis Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/103—Formatting, i.e. changing of presentation of documents
- G06F40/117—Tagging; Marking up; Designating a block; Setting of attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/194—Calculation of difference between files
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种标准文献的查询比对方法及系统,包括对用户输入的关键词和抓取的文献进行文本预处理,计算预处理后的用户输入关键词和抓取的文献相似性,将所述相似性作为目标函数,根据相似性构建深度神经网络模型,采用第一算法优化所述深度神经网络模型的学习率,采用第二算法优化所述深度神经网络模型的梯度估计,用预处理后的文本训练所述优化后的深度神经网络模型,保留相似性大0.9的文献直到遍历所有的文献,输出比对结果。该方法不仅可以提高比对精度,同时具有较好的可解释性,可以直接应用于标准文献的查询比对系统中。
Description
技术领域
本发明涉及比对技术领域,尤其涉及一种标准文献的查询比对方法及系统。
背景技术
比对技术在中文信息处理领域的应用越来越广泛,可以帮助标准文献的查询比对系统及时、高效地获取标准文献信息,实现用户输入关键词和文献的精准比对。目前,标准文献具有数量庞大、类型多样、信息密度大、多学科综合性等共性特点,比对技术的定性分析和判断存在较多的不确定因素,导致比对分析的结果出现较大的随机性。虽然已经构建了一些标准全文数据库,也有一些专业的全文检索软件工具,但仍不能有效解决标准文献比对工作中的随机问题,因此需要一种标准文献的查询比对方法及系统。
发明内容
本发明的目的是要提供一种标准文献的查询比对方法及系统。
为达到上述目的,本发明是按照以下技术方案实施的:
本发明包括以下步骤:
A对用户输入的关键词和抓取的文献进行文本预处理;
B计算预处理后的文本相似性,将所述相似性作为目标函数;
C根据相似性构建深度神经网络模型,采用第一算法优化所述深度神经网络模型的学习率,包括:
给定超参数,在时间步t>0计算状态变量:
其中小批量随机梯度;
目标函数:
其中梯度下降;
将目标函数自变量中每个元素的学习率通过按元素运算重新调整,再更新自变量:
其中是学习率,维持数值稳定常数/>;
迭代直到相似性大于0.9且学习率不变时输出学习率;
采用第二算法优化所述深度神经网络模型的梯度估计,包括:
设定优化后的学习率,当时间步为零时初始化/>和/>中的每个元素,给定超参数,时间步的小批量随机梯度的指数加权移动平均:
其中小批量随机梯度;给定超参数/>,将小批量随机梯度按元素平方后的项/>做指数加权移动平均得到/>:
对变量和/>偏差修正:
使用偏差修正后的变量和/>,将模型参数中每个元素的学习率通过按元素运行重新调整:
其中是为了维持数值稳定的常数,使用/>迭代自变量:
并且计算相似性,迭代直到相似性大于0.9且梯度估计最大时输出结果;
D用预处理后的文本训练所述优化后的深度神经网络模型,保留相似性大于0.9的文献直到遍历所有的文献,输出结果。
进一步,采用第一模型对所述对所述向量进行序列标记的方法,包括:
设定初始值:
其中t时刻的属于状态i的概率,t时刻状态i的隐状态序号/>,混淆矩阵/>;
递推计算:
其中整段时间序列的时长T,存在可能得状态数N,序列长度k,隐藏状态的转移矩阵;
递推结束:
其中函数求出概率/>取最大值时的参数;
预测最优的状态序列:
通过设置t的值可能得到每一个时刻对应最优的状态。
进一步,所述采用第二模型对所述序列标记后的向量进分词的方法,包括:
将带分词的字符串从左到右切分为;计算当前词与前驱词的概率:
其中字符串词m个,相关的前几个词;
计算该词的累计概率值:
保留大的累计概率,直到该字符串结束:
从开始,按照从右到左的顺序,将前驱词输出分词结束。
进一步,计算预处理后的用户输入关键词和抓取的文献相似性的方法,包括:
其中n维向量表示句子,目标文本中n维向量/>表示句子,在目标文本出现的次数n,相似性/>。
进一步,所述用预处理后的数据训练所述优化后的深度神经网络模型的方法,包括:
将优化后的学习率和梯度估计带入所述深度神经网络模型中,将预处理后的数据送入网络中,逐层进行前向计算,直至输出层,然后将当前网络输出与标准文献比较,并计算相似性;根据链式法则,逐层计算出相似性关于各层的梯度:
其中L是相似性函数,相似性函数对于激活函数的梯度,权重梯度;
根据反向过程得到权重的梯度,更新权重:
其中,权重的梯度,学习率/>;比较权重,保留大的并输出为结果。
第二方面,一种标准文献的查询比对系统,包括
预处理模块,用于取出所述用户输入关键词和抓取的文献的中文字符,将所述中文字符转变为向量,采用第一模型对所述向量进行序列标记,采用第二模型对所述序列标记后的向量进行分词;
计算模块,用于计算预处理后的文本相似性,将所述相似性作为目标函数;
构建模块,用于根据相似性构建深度神经网络模型,采用第一算法优化所述深度神经网络模型的学习率,包括:
给定超参数,在时间步t>0计算状态变量:
其中小批量随机梯度;
目标函数:
其中梯度下降;
将目标函数自变量中每个元素的学习率通过按元素运算重新调整,再更新自变量:
其中是学习率,维持数值稳定常数/>;
迭代直到相似性大于0.9且学习率不变时输出学习率;
采用第二算法优化所述深度神经网络模型的梯度估计,包括:
设定优化后的学习率,当时间步为零时初始化/>和/>中的每个元素,给定超参数,时间步的小批量随机梯度的指数加权移动平均:
其中小批量随机梯度;给定超参数/>,将小批量随机梯度按元素平方后的项/>做指数加权移动平均得到/>:
对变量和/>偏差修正:
使用偏差修正后的变量和/>,将模型参数中每个元素的学习率通过按元素运行重新调整:
其中是为了维持数值稳定的常数,使用/>迭代自变量:
并且计算相似性,迭代直到相似性大于0.9且梯度估计最大时输出结果;
输出模块,用于训练所述优化后的深度神经网络模型,保留相似性大于0.9的文献直到遍历所有的文献,输出比对结果。
本发明的有益效果是:
本发明是一种标准文献的查询比对方法及系统,与现有技术相比,本发明具有以下技术效果:
1.本发明通过预处理、计算相似性、构建优化深度神经网络和训练深度神经网络步骤,可以提高比对的准确性,从而提高比对的精度,系统将比对自动化,可以大大提高精度和速度,提高工作效率,可以实现对用户输入的关键词和抓取的文献的实时比对,及时给出不同用户输入的关键词对应的标准文献,对标准文献的查询比对系统具有重要意义,可以适应不同关键词、不同位置的标准文献的比对需求,具有一定的普适性。
2.本发明的方法可以综合考虑用户输入关键词和抓取的文献的相关性,利用深度神经网络模型将比对问题转化为预测问题,使用第一算法和第二算法优化深度神经网络,通过对已知用户输入关键词和抓取的文献的文本预处理,实现对比对的准确把控。该方法不仅可以提高比对精度,同时具有较好的可解释性,可以直接应用于标准文献的查询比对系统中。
附图说明
图1为本发明一种标准文献的查询比对方法及系统的步骤流程图。
具体实施方式
下面以及具体实施例对本发明作进一步描述,在此发明的示意性实施例以及说明用来解释本发明,但并不作为对本发明的限定。
本发明标准文献的查询比对方法及系统包括以下步骤:
如图1所示,在本实施例中,包括以下步骤:
A对用户输入的关键词和抓取的文献进行文本预处理;
B计算预处理后的用户输入关键词和抓取的文献相似性,将所述相似性作为目标函数;
C根据相似性构建深度神经网络模型,采用第一算法优化所述深度神经网络模型的学习率,包括:
给定超参数,在时间步t>0计算状态变量:
其中小批量随机梯度;
目标函数:
其中梯度下降;
将目标函数自变量中每个元素的学习率通过按元素运算重新调整,再更新自变量:
其中是学习率,维持数值稳定常数/>;
迭代直到相似性大于0.9且学习率不变时输出学习率;
采用第二算法优化所述深度神经网络模型的梯度估计,包括:
设定优化后的学习率,当时间步为零时初始化/>和/>中的每个元素,给定超参数,时间步的小批量随机梯度的指数加权移动平均:
其中小批量随机梯度;给定超参数/>,将小批量随机梯度按元素平方后的项/>做指数加权移动平均得到/>:
对变量和/>偏差修正:
使用偏差修正后的变量和/>,将模型参数中每个元素的学习率通过按元素运行重新调整:
其中是为了维持数值稳定的常数,使用/>迭代自变量:
并且计算相似性,迭代直到相似性大于0.9且梯度估计最大时输出结果;
D用预处理后的文本训练所述优化后的深度神经网络模型,保留相似性大于0.9的文献直到遍历所有的文献,输出结果。
在本实施例中,采用第一模型对所述对所述向量进行序列标记的方法,包括:
设定初始值:
其中t时刻的属于状态i的概率,t时刻状态i的隐状态序号/>,混淆矩阵/>;
递推计算:
其中整段时间序列的时长T,存在可能得状态数N,序列长度k,隐藏状态的转移矩阵;
递推结束:
其中函数求出概率/>取最大值时的参数;
预测最优的状态序列:
通过设置t的值可能得到每一个时刻对应最优的状态。
在本实施例中,所述采用第二模型对所述序列标记后的向量进分词的方法,包括:
将带分词的字符串“欢迎大家来到文本计算与认知智能实验室”从左到右切分为;计算当前词与前驱词的概率:
其中字符串词7个,相关的前几个词;
计算该词的累计概率值:
保留大的累计概率,直到该字符串结束:
从开始,按照从右到左的顺序,将前驱词输出分词“欢迎/大家/来/到/文本/计算/与/认知/智能/实验室”。
在本实施例中,计算预处理后的用户输入关键词和抓取的文献相似性的方法,包括:
其中n维向量表示句子,目标文本中n维向量/>表示句子,在目标文本出现的次数n,相似性/>。
在实际评估中,分别将技术管理标准输入未优化和优化后的深度神经网络,当梯度估计为0.001其他配置参数相同的情况下,未优化的耗时37s,优化的耗时45s;当梯度估计调为0.01时,未优化的耗时28s,优化的耗时17s,比校可得优化后的深度神经网络处理速度更快。
在本实施例中,所述用预处理后的数据训练所述优化后的深度神经网络模型的方法,包括:
将优化后的学习率和梯度估计带入所述深度神经网络模型中,将预处理后的数据分批送入网络中,逐层进行前向计算,直至输出层,然后将当前网络输出与标准文献比较,并计算相似性;根据链式法则,逐层计算出相似性关于各层的梯度:
其中L是相似性函数,相似性函数对于激活函数的梯度,权重梯度;
根据反向过程得到权重的梯度,更新权重:
其中,权重的梯度,学习率/>;比较权重,保留大的并输出为结果。
在实际评估中,根据用户给出的不同关键词,修改了部分词语和汉字,将有些词语换了一种说法,使用优化后的神经网络进行比对,通过比较之后,系统给出标准文献的相似程度为96%。
第二方面,一种标准文献的查询比对系统,包括
预处理模块,用于取出所述用户输入关键词和抓取的文献的中文字符,将所述中文字符转变为向量,采用第一模型对所述向量进行序列标记,采用第二模型对所述序列标记后的向量进行分词;
计算模块,用于计算预处理后的文本相似性,将所述相似性作为目标函数;
构建模块,用于根据相似性构建深度神经网络模型,采用第一算法优化所述深度神经网络模型的学习率,包括:
给定超参数,在时间步t>0计算状态变量:
其中小批量随机梯度;
目标函数:
其中梯度下降;
将目标函数自变量中每个元素的学习率通过按元素运算重新调整,再更新自变量:
其中是学习率,维持数值稳定常数/>;
迭代直到相似性大于0.9且学习率不变时输出学习率;
采用第二算法优化所述深度神经网络模型的梯度估计,包括:
设定优化后的学习率,当时间步为零时初始化/>和/>中的每个元素,给定超参数,时间步的小批量随机梯度的指数加权移动平均:
其中小批量随机梯度;给定超参数/>,将小批量随机梯度按元素平方后的项/>做指数加权移动平均得到/>:
对变量和/>偏差修正:
使用偏差修正后的变量和/>,将模型参数中每个元素的学习率通过按元素运行重新调整:
其中是为了维持数值稳定的常数,使用/>迭代自变量:
并且计算相似性,迭代直到相似性大于0.9且梯度估计最大时输出结果;
输出模块,用于训练所述优化后的深度神经网络模型,保留相似性大于0.9的文献直到遍历所有的文献,输出比对结果。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种标准文献的查询比对方法,其特征在于,包括:
A对用户输入的关键词和抓取的文献进行文本预处理,包括取出所述用户输入关键词和抓取的文献的中文字符,将所述中文字符转变为向量,采用第一模型对所述向量进行序列标记,采用第二模型对所述序列标记后的向量进行分词;
B计算预处理后的文本相似性,将所述相似性作为目标函数;
C根据相似性构建深度神经网络模型,采用第一算法优化所述深度神经网络模型的学习率,包括:
给定超参数,在时间步t>0计算状态变量:/>,
其中小批量随机梯度;
目标函数:
,
其中梯度下降;
将目标函数自变量中每个元素的学习率通过按元素运算重新调整,再更新自变量:
,
其中是学习率,维持数值稳定常数/>;
迭代直到相似性大于0.9且学习率不变时输出学习率;
采用第二算法优化所述深度神经网络模型的梯度估计,包括:
设定优化后的学习率,当时间步为零时初始化/>和/>中的每个元素,给定超参数,时间步的小批量随机梯度的指数加权移动平均:
,
其中小批量随机梯度;给定超参数/>,将小批量随机梯度按元素平方后的项做指数加权移动平均得到/>:
,
对变量和/>偏差修正:
,
,
使用偏差修正后的变量和/>,将模型参数中每个元素的学习率通过按元素运行重新调整:
,
其中是为了维持数值稳定的常数,使用/>迭代自变量:
,
并且计算相似性,迭代直到相似性大于0.9且梯度估计最大时输出结果;
D用预处理后的随机选取文本训练所述优化后的深度神经网络模型,保留相似性大于0.9的文献直到遍历所有的文献,输出比对结果。
2.根据权利要求1所述标准文献的查询比对方法,其特征在于,采用第一模型对所述向量进行序列标记的方法,包括:
设定初始值:
,
其中t时刻的属于状态i的概率,t时刻状态i的隐状态序号/>,混淆矩阵/>;
递推计算:
,
其中整段时间序列的时长T,存在可能得状态数N,序列长度k,隐藏状态的转移矩阵;
递推结束:
,
其中函数求出概率/>取最大值时的参数;
预测最优的状态序列:
,
通过设置t的值可能得到每一个时刻对应最优的状态。
3.根据权利要求1所述标准文献的查询比对方法,其特征在于,所述采用第二模型对所述序列标记后的向量进分词的方法,包括:
将带分词的字符串从左到右切分为;计算当前词与前驱词的概率:
,
其中字符串词m个,相关的前几个词n();
计算该词的累计概率值:
,
保留大的累计概率,直到该字符串结束:
从开始,按照从右到左的顺序,将前驱词输出分词结束。
4.根据权利要求1所述标准文献的查询比对方法,其特征在于,计算预处理后的用户输入关键词和抓取的文献相似性的方法,包括:
,
,
,
其中n维向量表示句子,目标文本中n维向量/>表示句子,在目标文本出现的次数n,相似性/>。
5.根据权利要求1所述的标准文献的查询比对方法,其特征在于,所述用预处理后的数据训练所述优化后的深度神经网络模型的方法,包括:
将优化后的学习率和梯度估计带入所述深度神经网络模型中,将预处理后的数据分批送入网络中,逐层进行前向计算,直至输出层,然后将当前网络输出与标准文献比较,并计算相似性;根据链式法则,逐层计算出相似性关于各层的梯度:
,
,
其中L是相似性函数,相似性函数对于激活函数的梯度,权重梯度/>;
根据反向过程得到权重梯度,更新权重:
,
其中,权重梯度,学习率/>;比较权重,保留大的并输出为结果。
6.一种标准文献的查询比对系统,其特征在于,包括,
预处理模块,用于取出用户输入关键词和抓取的文献的中文字符,将所述中文字符转变为向量,采用第一模型对所述向量进行序列标记,采用第二模型对所述序列标记后的向量进行分词;
计算模块,用于计算预处理后的文本相似性,将所述相似性作为目标函数;
构建模块,用于根据相似性构建深度神经网络模型,采用第一算法优化所述深度神经网络模型的学习率,包括:
给定超参数,在时间步t>0计算状态变量:
,
其中小批量随机梯度;
目标函数:
,
其中梯度下降;
将目标函数自变量中每个元素的学习率通过按元素运算重新调整,再更新自变量:
,
其中是学习率,维持数值稳定常数/>;
迭代直到相似性大于0.9且学习率不变时输出学习率;
采用第二算法优化所述深度神经网络模型的梯度估计,包括:
设定优化后的学习率,当时间步为零时初始化/>和/>中的每个元素,给定超参数,时间步的小批量随机梯度的指数加权移动平均:
,
其中小批量随机梯度;给定超参数/>,将小批量随机梯度按元素平方后的项做指数加权移动平均得到/>:
,
对变量和/>偏差修正:
,
,
使用偏差修正后的变量和/>,将模型参数中每个元素的学习率通过按元素运行重新调整:
,
其中是为了维持数值稳定的常数,使用/>迭代自变量:
,
并且计算相似性,迭代直到相似性大于0.9且梯度估计最大时输出结果;
输出模块,用于训练所述优化后的深度神经网络模型,保留相似性大于0.9的文献直到遍历所有的文献,输出比对结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310671606.7A CN116401340B (zh) | 2023-06-08 | 2023-06-08 | 一种标准文献的查询比对方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310671606.7A CN116401340B (zh) | 2023-06-08 | 2023-06-08 | 一种标准文献的查询比对方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116401340A CN116401340A (zh) | 2023-07-07 |
CN116401340B true CN116401340B (zh) | 2023-08-11 |
Family
ID=87010907
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310671606.7A Active CN116401340B (zh) | 2023-06-08 | 2023-06-08 | 一种标准文献的查询比对方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116401340B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110705295A (zh) * | 2019-09-11 | 2020-01-17 | 北京航空航天大学 | 基于关键词提取的实体名消岐方法 |
CN112101014A (zh) * | 2020-08-20 | 2020-12-18 | 淮阴工学院 | 一种混合特征融合的中文化工文献分词方法 |
CN112380361A (zh) * | 2020-11-18 | 2021-02-19 | 南方电网数字电网研究院有限公司 | 一种基于标准文献的查询比对系统 |
CN114491103A (zh) * | 2022-02-16 | 2022-05-13 | 上海蓝长自动化科技有限公司 | 一种基于多标记深度关联分析的物联网跨媒体大数据检索方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111368048A (zh) * | 2020-02-26 | 2020-07-03 | 京东方科技集团股份有限公司 | 信息获取方法、装置、电子设备及计算机可读存储介质 |
-
2023
- 2023-06-08 CN CN202310671606.7A patent/CN116401340B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110705295A (zh) * | 2019-09-11 | 2020-01-17 | 北京航空航天大学 | 基于关键词提取的实体名消岐方法 |
CN112101014A (zh) * | 2020-08-20 | 2020-12-18 | 淮阴工学院 | 一种混合特征融合的中文化工文献分词方法 |
CN112380361A (zh) * | 2020-11-18 | 2021-02-19 | 南方电网数字电网研究院有限公司 | 一种基于标准文献的查询比对系统 |
CN114491103A (zh) * | 2022-02-16 | 2022-05-13 | 上海蓝长自动化科技有限公司 | 一种基于多标记深度关联分析的物联网跨媒体大数据检索方法 |
Non-Patent Citations (1)
Title |
---|
基于特征融合的术语型引用对象自动识别方法研究;马娜;张智雄;吴朋民;;数据分析与知识发现(第01期);93-102 * |
Also Published As
Publication number | Publication date |
---|---|
CN116401340A (zh) | 2023-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109948165B (zh) | 基于混合注意力网络的细粒度情感极性预测方法 | |
CN110825877A (zh) | 一种基于文本聚类的语义相似度分析方法 | |
CN106897371B (zh) | 中文文本分类系统及方法 | |
CN110222218B (zh) | 基于多尺度NetVLAD和深度哈希的图像检索方法 | |
CN108710894B (zh) | 一种基于聚类代表点的主动学习标注方法和装置 | |
CN108090077B (zh) | 一种基于自然语言检索的综合相似度计算方法 | |
CN113011194B (zh) | 融合关键词特征和多粒度语义特征的文本相似度计算方法 | |
CN111582325B (zh) | 一种基于自动特征编码的多阶特征组合方法 | |
CN107145519B (zh) | 一种基于超图的图像检索与标注方法 | |
CN111125411A (zh) | 一种深度强相关哈希学习的大规模图像检索方法 | |
CN112306494A (zh) | 一种基于卷积和循环神经网络的代码分类及聚类方法 | |
CN109871379B (zh) | 一种基于数据块学习的在线哈希最近邻查询方法 | |
CN115048539B (zh) | 基于动态记忆力的社交媒体数据在线检索方法及系统 | |
CN113836896A (zh) | 一种基于深度学习的专利文本摘要生成方法和装置 | |
CN110909158A (zh) | 基于改进萤火虫算法和k近邻的文本分类方法 | |
Zheng | Network intrusion detection model based on convolutional neural network | |
CN114328939B (zh) | 基于大数据的自然语言处理模型构建方法 | |
CN114969269A (zh) | 基于实体识别和关系抽取的虚假新闻检测方法及系统 | |
CN113032573B (zh) | 一种结合主题语义与tf*idf算法的大规模文本分类方法及系统 | |
CN114860973A (zh) | 一种面向小样本场景的深度图像检索方法 | |
CN116401340B (zh) | 一种标准文献的查询比对方法及系统 | |
CN115495546B (zh) | 相似文本检索方法、系统、设备及存储介质 | |
CN116542320A (zh) | 一种基于持续学习的小样本事件检测方法和系统 | |
CN111597432A (zh) | 一种基于Hash的快速候选生成推荐方法 | |
CN112464648A (zh) | 基于多源数据分析的行业标准空白特征识别系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |