CN116401340B - 一种标准文献的查询比对方法及系统 - Google Patents

一种标准文献的查询比对方法及系统 Download PDF

Info

Publication number
CN116401340B
CN116401340B CN202310671606.7A CN202310671606A CN116401340B CN 116401340 B CN116401340 B CN 116401340B CN 202310671606 A CN202310671606 A CN 202310671606A CN 116401340 B CN116401340 B CN 116401340B
Authority
CN
China
Prior art keywords
similarity
learning rate
gradient
steps
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310671606.7A
Other languages
English (en)
Other versions
CN116401340A (zh
Inventor
旻苏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China National Institute of Standardization
Original Assignee
China National Institute of Standardization
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China National Institute of Standardization filed Critical China National Institute of Standardization
Priority to CN202310671606.7A priority Critical patent/CN116401340B/zh
Publication of CN116401340A publication Critical patent/CN116401340A/zh
Application granted granted Critical
Publication of CN116401340B publication Critical patent/CN116401340B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • G06F40/117Tagging; Marking up; Designating a block; Setting of attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/194Calculation of difference between files
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种标准文献的查询比对方法及系统,包括对用户输入的关键词和抓取的文献进行文本预处理,计算预处理后的用户输入关键词和抓取的文献相似性,将所述相似性作为目标函数,根据相似性构建深度神经网络模型,采用第一算法优化所述深度神经网络模型的学习率,采用第二算法优化所述深度神经网络模型的梯度估计,用预处理后的文本训练所述优化后的深度神经网络模型,保留相似性大0.9的文献直到遍历所有的文献,输出比对结果。该方法不仅可以提高比对精度,同时具有较好的可解释性,可以直接应用于标准文献的查询比对系统中。

Description

一种标准文献的查询比对方法及系统
技术领域
本发明涉及比对技术领域,尤其涉及一种标准文献的查询比对方法及系统。
背景技术
比对技术在中文信息处理领域的应用越来越广泛,可以帮助标准文献的查询比对系统及时、高效地获取标准文献信息,实现用户输入关键词和文献的精准比对。目前,标准文献具有数量庞大、类型多样、信息密度大、多学科综合性等共性特点,比对技术的定性分析和判断存在较多的不确定因素,导致比对分析的结果出现较大的随机性。虽然已经构建了一些标准全文数据库,也有一些专业的全文检索软件工具,但仍不能有效解决标准文献比对工作中的随机问题,因此需要一种标准文献的查询比对方法及系统。
发明内容
本发明的目的是要提供一种标准文献的查询比对方法及系统。
为达到上述目的,本发明是按照以下技术方案实施的:
本发明包括以下步骤:
A对用户输入的关键词和抓取的文献进行文本预处理;
B计算预处理后的文本相似性,将所述相似性作为目标函数;
C根据相似性构建深度神经网络模型,采用第一算法优化所述深度神经网络模型的学习率,包括:
给定超参数,在时间步t>0计算状态变量:
其中小批量随机梯度
目标函数:
其中梯度下降
将目标函数自变量中每个元素的学习率通过按元素运算重新调整,再更新自变量:
其中是学习率,维持数值稳定常数/>
迭代直到相似性大于0.9且学习率不变时输出学习率;
采用第二算法优化所述深度神经网络模型的梯度估计,包括:
设定优化后的学习率,当时间步为零时初始化/>和/>中的每个元素,给定超参数,时间步的小批量随机梯度的指数加权移动平均:
其中小批量随机梯度;给定超参数/>,将小批量随机梯度按元素平方后的项/>做指数加权移动平均得到/>
对变量和/>偏差修正:
使用偏差修正后的变量和/>,将模型参数中每个元素的学习率通过按元素运行重新调整:
其中是为了维持数值稳定的常数,使用/>迭代自变量:
并且计算相似性,迭代直到相似性大于0.9且梯度估计最大时输出结果;
D用预处理后的文本训练所述优化后的深度神经网络模型,保留相似性大于0.9的文献直到遍历所有的文献,输出结果。
进一步,采用第一模型对所述对所述向量进行序列标记的方法,包括:
设定初始值:
其中t时刻的属于状态i的概率,t时刻状态i的隐状态序号/>,混淆矩阵/>
递推计算:
其中整段时间序列的时长T,存在可能得状态数N,序列长度k,隐藏状态的转移矩阵
递推结束:
其中函数求出概率/>取最大值时的参数;
预测最优的状态序列:
通过设置t的值可能得到每一个时刻对应最优的状态。
进一步,所述采用第二模型对所述序列标记后的向量进分词的方法,包括:
将带分词的字符串从左到右切分为;计算当前词与前驱词的概率:
其中字符串词m个,相关的前几个词
计算该词的累计概率值:
保留大的累计概率,直到该字符串结束:
开始,按照从右到左的顺序,将前驱词输出分词结束。
进一步,计算预处理后的用户输入关键词和抓取的文献相似性的方法,包括:
其中n维向量表示句子,目标文本中n维向量/>表示句子,在目标文本出现的次数n,相似性/>
进一步,所述用预处理后的数据训练所述优化后的深度神经网络模型的方法,包括:
将优化后的学习率和梯度估计带入所述深度神经网络模型中,将预处理后的数据送入网络中,逐层进行前向计算,直至输出层,然后将当前网络输出与标准文献比较,并计算相似性;根据链式法则,逐层计算出相似性关于各层的梯度:
其中L是相似性函数,相似性函数对于激活函数的梯度,权重梯度
根据反向过程得到权重的梯度,更新权重:
其中,权重的梯度,学习率/>;比较权重,保留大的并输出为结果。
第二方面,一种标准文献的查询比对系统,包括
预处理模块,用于取出所述用户输入关键词和抓取的文献的中文字符,将所述中文字符转变为向量,采用第一模型对所述向量进行序列标记,采用第二模型对所述序列标记后的向量进行分词;
计算模块,用于计算预处理后的文本相似性,将所述相似性作为目标函数;
构建模块,用于根据相似性构建深度神经网络模型,采用第一算法优化所述深度神经网络模型的学习率,包括:
给定超参数,在时间步t>0计算状态变量:
其中小批量随机梯度
目标函数:
其中梯度下降
将目标函数自变量中每个元素的学习率通过按元素运算重新调整,再更新自变量:
其中是学习率,维持数值稳定常数/>
迭代直到相似性大于0.9且学习率不变时输出学习率;
采用第二算法优化所述深度神经网络模型的梯度估计,包括:
设定优化后的学习率,当时间步为零时初始化/>和/>中的每个元素,给定超参数,时间步的小批量随机梯度的指数加权移动平均:
其中小批量随机梯度;给定超参数/>,将小批量随机梯度按元素平方后的项/>做指数加权移动平均得到/>
对变量和/>偏差修正:
使用偏差修正后的变量和/>,将模型参数中每个元素的学习率通过按元素运行重新调整:
其中是为了维持数值稳定的常数,使用/>迭代自变量:
并且计算相似性,迭代直到相似性大于0.9且梯度估计最大时输出结果;
输出模块,用于训练所述优化后的深度神经网络模型,保留相似性大于0.9的文献直到遍历所有的文献,输出比对结果。
本发明的有益效果是:
本发明是一种标准文献的查询比对方法及系统,与现有技术相比,本发明具有以下技术效果:
1.本发明通过预处理、计算相似性、构建优化深度神经网络和训练深度神经网络步骤,可以提高比对的准确性,从而提高比对的精度,系统将比对自动化,可以大大提高精度和速度,提高工作效率,可以实现对用户输入的关键词和抓取的文献的实时比对,及时给出不同用户输入的关键词对应的标准文献,对标准文献的查询比对系统具有重要意义,可以适应不同关键词、不同位置的标准文献的比对需求,具有一定的普适性。
2.本发明的方法可以综合考虑用户输入关键词和抓取的文献的相关性,利用深度神经网络模型将比对问题转化为预测问题,使用第一算法和第二算法优化深度神经网络,通过对已知用户输入关键词和抓取的文献的文本预处理,实现对比对的准确把控。该方法不仅可以提高比对精度,同时具有较好的可解释性,可以直接应用于标准文献的查询比对系统中。
附图说明
图1为本发明一种标准文献的查询比对方法及系统的步骤流程图。
具体实施方式
下面以及具体实施例对本发明作进一步描述,在此发明的示意性实施例以及说明用来解释本发明,但并不作为对本发明的限定。
本发明标准文献的查询比对方法及系统包括以下步骤:
如图1所示,在本实施例中,包括以下步骤:
A对用户输入的关键词和抓取的文献进行文本预处理;
B计算预处理后的用户输入关键词和抓取的文献相似性,将所述相似性作为目标函数;
C根据相似性构建深度神经网络模型,采用第一算法优化所述深度神经网络模型的学习率,包括:
给定超参数,在时间步t>0计算状态变量:
其中小批量随机梯度
目标函数:
其中梯度下降
将目标函数自变量中每个元素的学习率通过按元素运算重新调整,再更新自变量:
其中是学习率,维持数值稳定常数/>
迭代直到相似性大于0.9且学习率不变时输出学习率;
采用第二算法优化所述深度神经网络模型的梯度估计,包括:
设定优化后的学习率,当时间步为零时初始化/>和/>中的每个元素,给定超参数,时间步的小批量随机梯度的指数加权移动平均:
其中小批量随机梯度;给定超参数/>,将小批量随机梯度按元素平方后的项/>做指数加权移动平均得到/>
对变量和/>偏差修正:
使用偏差修正后的变量和/>,将模型参数中每个元素的学习率通过按元素运行重新调整:
其中是为了维持数值稳定的常数,使用/>迭代自变量:
并且计算相似性,迭代直到相似性大于0.9且梯度估计最大时输出结果;
D用预处理后的文本训练所述优化后的深度神经网络模型,保留相似性大于0.9的文献直到遍历所有的文献,输出结果。
在本实施例中,采用第一模型对所述对所述向量进行序列标记的方法,包括:
设定初始值:
其中t时刻的属于状态i的概率,t时刻状态i的隐状态序号/>,混淆矩阵/>
递推计算:
其中整段时间序列的时长T,存在可能得状态数N,序列长度k,隐藏状态的转移矩阵
递推结束:
其中函数求出概率/>取最大值时的参数;
预测最优的状态序列:
通过设置t的值可能得到每一个时刻对应最优的状态。
在本实施例中,所述采用第二模型对所述序列标记后的向量进分词的方法,包括:
将带分词的字符串“欢迎大家来到文本计算与认知智能实验室”从左到右切分为;计算当前词与前驱词的概率:
其中字符串词7个,相关的前几个词
计算该词的累计概率值:
保留大的累计概率,直到该字符串结束:
开始,按照从右到左的顺序,将前驱词输出分词“欢迎/大家/来/到/文本/计算/与/认知/智能/实验室”。
在本实施例中,计算预处理后的用户输入关键词和抓取的文献相似性的方法,包括:
其中n维向量表示句子,目标文本中n维向量/>表示句子,在目标文本出现的次数n,相似性/>
在实际评估中,分别将技术管理标准输入未优化和优化后的深度神经网络,当梯度估计为0.001其他配置参数相同的情况下,未优化的耗时37s,优化的耗时45s;当梯度估计调为0.01时,未优化的耗时28s,优化的耗时17s,比校可得优化后的深度神经网络处理速度更快。
在本实施例中,所述用预处理后的数据训练所述优化后的深度神经网络模型的方法,包括:
将优化后的学习率和梯度估计带入所述深度神经网络模型中,将预处理后的数据分批送入网络中,逐层进行前向计算,直至输出层,然后将当前网络输出与标准文献比较,并计算相似性;根据链式法则,逐层计算出相似性关于各层的梯度:
其中L是相似性函数,相似性函数对于激活函数的梯度,权重梯度
根据反向过程得到权重的梯度,更新权重:
其中,权重的梯度,学习率/>;比较权重,保留大的并输出为结果。
在实际评估中,根据用户给出的不同关键词,修改了部分词语和汉字,将有些词语换了一种说法,使用优化后的神经网络进行比对,通过比较之后,系统给出标准文献的相似程度为96%。
第二方面,一种标准文献的查询比对系统,包括
预处理模块,用于取出所述用户输入关键词和抓取的文献的中文字符,将所述中文字符转变为向量,采用第一模型对所述向量进行序列标记,采用第二模型对所述序列标记后的向量进行分词;
计算模块,用于计算预处理后的文本相似性,将所述相似性作为目标函数;
构建模块,用于根据相似性构建深度神经网络模型,采用第一算法优化所述深度神经网络模型的学习率,包括:
给定超参数,在时间步t>0计算状态变量:
其中小批量随机梯度
目标函数:
其中梯度下降
将目标函数自变量中每个元素的学习率通过按元素运算重新调整,再更新自变量:
其中是学习率,维持数值稳定常数/>
迭代直到相似性大于0.9且学习率不变时输出学习率;
采用第二算法优化所述深度神经网络模型的梯度估计,包括:
设定优化后的学习率,当时间步为零时初始化/>和/>中的每个元素,给定超参数,时间步的小批量随机梯度的指数加权移动平均:
其中小批量随机梯度;给定超参数/>,将小批量随机梯度按元素平方后的项/>做指数加权移动平均得到/>
对变量和/>偏差修正:
使用偏差修正后的变量和/>,将模型参数中每个元素的学习率通过按元素运行重新调整:
其中是为了维持数值稳定的常数,使用/>迭代自变量:
并且计算相似性,迭代直到相似性大于0.9且梯度估计最大时输出结果;
输出模块,用于训练所述优化后的深度神经网络模型,保留相似性大于0.9的文献直到遍历所有的文献,输出比对结果。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种标准文献的查询比对方法,其特征在于,包括:
A对用户输入的关键词和抓取的文献进行文本预处理,包括取出所述用户输入关键词和抓取的文献的中文字符,将所述中文字符转变为向量,采用第一模型对所述向量进行序列标记,采用第二模型对所述序列标记后的向量进行分词;
B计算预处理后的文本相似性,将所述相似性作为目标函数;
C根据相似性构建深度神经网络模型,采用第一算法优化所述深度神经网络模型的学习率,包括:
给定超参数,在时间步t>0计算状态变量:/>
其中小批量随机梯度
目标函数:
其中梯度下降
将目标函数自变量中每个元素的学习率通过按元素运算重新调整,再更新自变量:
其中是学习率,维持数值稳定常数/>
迭代直到相似性大于0.9且学习率不变时输出学习率;
采用第二算法优化所述深度神经网络模型的梯度估计,包括:
设定优化后的学习率,当时间步为零时初始化/>和/>中的每个元素,给定超参数,时间步的小批量随机梯度的指数加权移动平均:
其中小批量随机梯度;给定超参数/>,将小批量随机梯度按元素平方后的项做指数加权移动平均得到/>
对变量和/>偏差修正:
使用偏差修正后的变量和/>,将模型参数中每个元素的学习率通过按元素运行重新调整:
其中是为了维持数值稳定的常数,使用/>迭代自变量:
并且计算相似性,迭代直到相似性大于0.9且梯度估计最大时输出结果;
D用预处理后的随机选取文本训练所述优化后的深度神经网络模型,保留相似性大于0.9的文献直到遍历所有的文献,输出比对结果。
2.根据权利要求1所述标准文献的查询比对方法,其特征在于,采用第一模型对所述向量进行序列标记的方法,包括:
设定初始值:
其中t时刻的属于状态i的概率,t时刻状态i的隐状态序号/>,混淆矩阵/>
递推计算:
其中整段时间序列的时长T,存在可能得状态数N,序列长度k,隐藏状态的转移矩阵
递推结束:
其中函数求出概率/>取最大值时的参数;
预测最优的状态序列:
通过设置t的值可能得到每一个时刻对应最优的状态。
3.根据权利要求1所述标准文献的查询比对方法,其特征在于,所述采用第二模型对所述序列标记后的向量进分词的方法,包括:
将带分词的字符串从左到右切分为;计算当前词与前驱词的概率:
其中字符串词m个,相关的前几个词n();
计算该词的累计概率值:
保留大的累计概率,直到该字符串结束:
开始,按照从右到左的顺序,将前驱词输出分词结束。
4.根据权利要求1所述标准文献的查询比对方法,其特征在于,计算预处理后的用户输入关键词和抓取的文献相似性的方法,包括:
其中n维向量表示句子,目标文本中n维向量/>表示句子,在目标文本出现的次数n,相似性/>
5.根据权利要求1所述的标准文献的查询比对方法,其特征在于,所述用预处理后的数据训练所述优化后的深度神经网络模型的方法,包括:
将优化后的学习率和梯度估计带入所述深度神经网络模型中,将预处理后的数据分批送入网络中,逐层进行前向计算,直至输出层,然后将当前网络输出与标准文献比较,并计算相似性;根据链式法则,逐层计算出相似性关于各层的梯度:
其中L是相似性函数,相似性函数对于激活函数的梯度,权重梯度/>
根据反向过程得到权重梯度,更新权重:
其中,权重梯度,学习率/>;比较权重,保留大的并输出为结果。
6.一种标准文献的查询比对系统,其特征在于,包括,
预处理模块,用于取出用户输入关键词和抓取的文献的中文字符,将所述中文字符转变为向量,采用第一模型对所述向量进行序列标记,采用第二模型对所述序列标记后的向量进行分词;
计算模块,用于计算预处理后的文本相似性,将所述相似性作为目标函数;
构建模块,用于根据相似性构建深度神经网络模型,采用第一算法优化所述深度神经网络模型的学习率,包括:
给定超参数,在时间步t>0计算状态变量:
其中小批量随机梯度
目标函数:
其中梯度下降
将目标函数自变量中每个元素的学习率通过按元素运算重新调整,再更新自变量:
其中是学习率,维持数值稳定常数/>
迭代直到相似性大于0.9且学习率不变时输出学习率;
采用第二算法优化所述深度神经网络模型的梯度估计,包括:
设定优化后的学习率,当时间步为零时初始化/>和/>中的每个元素,给定超参数,时间步的小批量随机梯度的指数加权移动平均:
其中小批量随机梯度;给定超参数/>,将小批量随机梯度按元素平方后的项做指数加权移动平均得到/>
对变量和/>偏差修正:
使用偏差修正后的变量和/>,将模型参数中每个元素的学习率通过按元素运行重新调整:
其中是为了维持数值稳定的常数,使用/>迭代自变量:
并且计算相似性,迭代直到相似性大于0.9且梯度估计最大时输出结果;
输出模块,用于训练所述优化后的深度神经网络模型,保留相似性大于0.9的文献直到遍历所有的文献,输出比对结果。
CN202310671606.7A 2023-06-08 2023-06-08 一种标准文献的查询比对方法及系统 Active CN116401340B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310671606.7A CN116401340B (zh) 2023-06-08 2023-06-08 一种标准文献的查询比对方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310671606.7A CN116401340B (zh) 2023-06-08 2023-06-08 一种标准文献的查询比对方法及系统

Publications (2)

Publication Number Publication Date
CN116401340A CN116401340A (zh) 2023-07-07
CN116401340B true CN116401340B (zh) 2023-08-11

Family

ID=87010907

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310671606.7A Active CN116401340B (zh) 2023-06-08 2023-06-08 一种标准文献的查询比对方法及系统

Country Status (1)

Country Link
CN (1) CN116401340B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110705295A (zh) * 2019-09-11 2020-01-17 北京航空航天大学 基于关键词提取的实体名消岐方法
CN112101014A (zh) * 2020-08-20 2020-12-18 淮阴工学院 一种混合特征融合的中文化工文献分词方法
CN112380361A (zh) * 2020-11-18 2021-02-19 南方电网数字电网研究院有限公司 一种基于标准文献的查询比对系统
CN114491103A (zh) * 2022-02-16 2022-05-13 上海蓝长自动化科技有限公司 一种基于多标记深度关联分析的物联网跨媒体大数据检索方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111368048A (zh) * 2020-02-26 2020-07-03 京东方科技集团股份有限公司 信息获取方法、装置、电子设备及计算机可读存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110705295A (zh) * 2019-09-11 2020-01-17 北京航空航天大学 基于关键词提取的实体名消岐方法
CN112101014A (zh) * 2020-08-20 2020-12-18 淮阴工学院 一种混合特征融合的中文化工文献分词方法
CN112380361A (zh) * 2020-11-18 2021-02-19 南方电网数字电网研究院有限公司 一种基于标准文献的查询比对系统
CN114491103A (zh) * 2022-02-16 2022-05-13 上海蓝长自动化科技有限公司 一种基于多标记深度关联分析的物联网跨媒体大数据检索方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于特征融合的术语型引用对象自动识别方法研究;马娜;张智雄;吴朋民;;数据分析与知识发现(第01期);93-102 *

Also Published As

Publication number Publication date
CN116401340A (zh) 2023-07-07

Similar Documents

Publication Publication Date Title
CN109948165B (zh) 基于混合注意力网络的细粒度情感极性预测方法
CN110825877A (zh) 一种基于文本聚类的语义相似度分析方法
CN106897371B (zh) 中文文本分类系统及方法
CN110222218B (zh) 基于多尺度NetVLAD和深度哈希的图像检索方法
CN108710894B (zh) 一种基于聚类代表点的主动学习标注方法和装置
CN108090077B (zh) 一种基于自然语言检索的综合相似度计算方法
CN113011194B (zh) 融合关键词特征和多粒度语义特征的文本相似度计算方法
CN111582325B (zh) 一种基于自动特征编码的多阶特征组合方法
CN107145519B (zh) 一种基于超图的图像检索与标注方法
CN111125411A (zh) 一种深度强相关哈希学习的大规模图像检索方法
CN112306494A (zh) 一种基于卷积和循环神经网络的代码分类及聚类方法
CN109871379B (zh) 一种基于数据块学习的在线哈希最近邻查询方法
CN115048539B (zh) 基于动态记忆力的社交媒体数据在线检索方法及系统
CN113836896A (zh) 一种基于深度学习的专利文本摘要生成方法和装置
CN110909158A (zh) 基于改进萤火虫算法和k近邻的文本分类方法
Zheng Network intrusion detection model based on convolutional neural network
CN114328939B (zh) 基于大数据的自然语言处理模型构建方法
CN114969269A (zh) 基于实体识别和关系抽取的虚假新闻检测方法及系统
CN113032573B (zh) 一种结合主题语义与tf*idf算法的大规模文本分类方法及系统
CN114860973A (zh) 一种面向小样本场景的深度图像检索方法
CN116401340B (zh) 一种标准文献的查询比对方法及系统
CN115495546B (zh) 相似文本检索方法、系统、设备及存储介质
CN116542320A (zh) 一种基于持续学习的小样本事件检测方法和系统
CN111597432A (zh) 一种基于Hash的快速候选生成推荐方法
CN112464648A (zh) 基于多源数据分析的行业标准空白特征识别系统及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant