CN117033393B - 一种基于人工智能的信息存储管理系统 - Google Patents
一种基于人工智能的信息存储管理系统 Download PDFInfo
- Publication number
- CN117033393B CN117033393B CN202311287016.0A CN202311287016A CN117033393B CN 117033393 B CN117033393 B CN 117033393B CN 202311287016 A CN202311287016 A CN 202311287016A CN 117033393 B CN117033393 B CN 117033393B
- Authority
- CN
- China
- Prior art keywords
- word
- output
- unit
- sentence
- input end
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 18
- 238000012216 screening Methods 0.000 claims abstract description 10
- 238000000605 extraction Methods 0.000 claims description 39
- 239000011159 matrix material Substances 0.000 claims description 23
- 230000004913 activation Effects 0.000 claims description 18
- 239000013598 vector Substances 0.000 claims description 12
- 238000011176 pooling Methods 0.000 claims description 10
- 230000006835 compression Effects 0.000 claims description 6
- 238000007906 compression Methods 0.000 claims description 6
- 238000010276 construction Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 description 12
- 230000009286 beneficial effect Effects 0.000 description 7
- 238000000034 method Methods 0.000 description 6
- 239000000284 extract Substances 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/22—Indexing; Data structures therefor; Storage structures
- G06F16/2282—Tablespace storage structures; Management thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Abstract
本发明公开了一种基于人工智能的信息存储管理系统,属于语义识别技术领域,本发明通过对文本进行拆分,构建每个词的词特征,将一条语句对应的所有词特征进行拼接,得到词拼接特征,通过词拼接特征来表达原本语句的内容,减少信息量,更好用于计算每条语句的信息重要度,通过信息重要度对文本中每条语句进行筛选,丢弃不重要的语句,减少无用内容的存储。
Description
技术领域
本发明涉及语义识别技术领域,具体涉及一种基于人工智能的信息存储管理系统。
背景技术
随着信息技术的普及,大量的文档、报告、电子邮件等以文本形式存在。这些文本信息需要被有效地存储和管理,以提高工作效率和信息查找的便利性。但是大量的文本资料在进行存储时,将所有文本资料进行压缩和存储,不会区分文本资料中的重要内容和次要内容,对重要内容不进行提取,造成存储的内容冗余,杂乱,且占用大量内存,不便于信息的查找。
发明内容
针对现有技术中的上述不足,本发明提供的一种基于人工智能的信息存储管理系统解决了现有信息存储管理系统对文本进行全部存储,存在存储的文本包含大量无用信息,占用大量内存的问题。
为了达到上述发明目的,本发明采用的技术方案为:一种基于人工智能的信息存储管理系统,包括:词特征提取子系统、特征拼接子系统、语句特征提取子系统、信息重要度估测子系统和存储子系统;
所述词特征提取子系统用于将文本进行拆分成词,基于词的向量,构建词矩阵,并提取词矩阵的词特征;
所述特征拼接子系统用于将一条语句对应的所有词特征进行拼接,得到词拼接特征;
所述语句特征提取子系统用于将词拼接特征进行提取特征,得到语句特征;
所述信息重要度估测子系统用于根据语句特征,计算出每条语句的信息重要度;
所述存储子系统用于根据信息重要度筛选出重要语句进行压缩和存储。
进一步地,所述词特征提取子系统包括:文本拆分单元、语句拆分单元、向量化处理单元、词矩阵构建单元和词特征提取单元;
所述文本拆分单元用于将文本拆分成多条语句;
所述语句拆分单元用于将每条语句拆分成多个词;
所述向量化处理单元用于将每个词进行向量化处理,得到词向量;
所述词矩阵构建单元用于将词向量构建为词矩阵;
所述词特征提取单元用于对词矩阵提取词特征。
上述进一步地方案的有益效果为:本发明中将文本拆分成词,并构建词矩阵,保障词信息的完整性。
进一步地,构建所述词矩阵的表达式为:V = vT v,其中,V为词矩阵,v为词向量,T为转置运算。
进一步地,所述词特征提取单元包括:第一卷积层、第二卷积层、第三卷积层、第一注意力模块、第二注意力模块、乘法器M1、乘法器M2和加法器A1;
所述第一卷积层的输入端作为词特征提取单元的输入端,其输出端与第二卷积层的输入端连接;所述第二卷积层的输出端分别与第一注意力模块的输入端、第二注意力模块的输入端、乘法器M1的第一输入端和乘法器M2的第一输入端连接;所述乘法器M1的第二输入端与第一注意力模块的输出端连接,其输出端与加法器A1的第一输入端连接;所述乘法器M2的第二输入端与第二注意力模块的输出端连接,其输出端与加法器A1的第二输入端连接;所述第三卷积层的输入端与加法器A1的输出端连接,其输出端作为词特征提取单元的输出端。
上述进一步地方案的有益效果为:本发明中设置两路注意力模块,分别计算出不同特征的注意力,实现对不同特征进行施加不同的关注度,避免部分特征被施加上过高的关注度。
进一步地,所述第一注意力模块的表达式为:
,
其中,Z1为第一注意力模块的输出,softmax为归一化激活函数,为卷积核大小为/>的卷积层,ReLU为线性整流激活函数,MaxPool为最大池化操作,X为第二卷积层输出的特征。
上述进一步地方案的有益效果为:本发明的第一注意力模块中通过最大池化操作提取出显著特征,第一注意力模块根据显著特征的情况,对第二卷积层输出的特征施加关注度。
进一步地,所述第二注意力模块的表达式为:
,
其中,Z2为第二注意力模块的输出,softmax为归一化激活函数,为卷积核大小为/>的卷积层,ReLU为线性整流激活函数,AvgPool为平均池化操作,X为第二卷积层输出的特征。
上述进一步地方案的有益效果为:本发明的第二注意力模块中通过平均池化操作提取出全局特征,第二注意力模块根据全局特征的情况,对第二卷积层输出的特征施加关注度。
进一步地,所述语句特征提取子系统包括:拼接层、第一LSTM层、第二LSTM层和第四卷积层;
所述拼接层的第一输入端作为语句特征提取子系统的输入端,其输出端与第一LSTM层的输入端连接;所述第二LSTM层的输入端与第一LSTM层的输出端连接,其输出端分别与拼接层的第二输入端和第四卷积层的输入端连接,所述第四卷积层的输出端作为语句特征提取子系统的输出端。
上述进一步地方案的有益效果为:本发明中拼接层是用于将词拼接特征和第二LSTM层历史输出特征输入第一LSTM层,虽然LSTM本身具备记忆性,但是该记忆性是在同一个LSTM层的细胞单元间传递,考虑的是各个输入特征之间的关系,在语义识别中,各个语句之间也存在语义关系,因此,本发明将第二LSTM层的输出输入到第一LSTM层,进一步地加强语句特征提取子系统的记忆性。
进一步地,所述第一LSTM层的一个细胞单元中遗忘门的表达式为:
,
输入门的表达式为:
,
,
状态更新门的表达式为:
,
输出门的表达式为:
,
,
其中,ft为遗忘门第t时刻的输出,ht-1为细胞单元第t-1时刻的输出,xt为细胞单元第t时刻输入的词拼接特征,yt-1为第二LSTM层第t-1时刻的输出,Wf为遗忘门的权重,bf为遗忘门的偏置,it为输入门第t时刻的第一输出,Rt为输入门第t时刻的第二输出,Wi为输入门的第一权重,WC为输入门的第二权重,bi为输入门的第一偏置,bC为输入门的第二偏置,Ct-1为状态更新门第t-1时刻的输出,Ct为状态更新门第t时刻的输出,Ot为输出门第t时刻的输出,Wo为输出门的权重,bo为输出门的偏置,ht为细胞单元第t时刻的输出,σ为sigmoid激活函数,tanh为双曲正切激活函数。
进一步地,所述信息重要度估测子系统的表达式为:
,
其中,Y为语句的信息重要度,yi为第四卷积层的输出,Wy为信息重要度估测子系统的权重,| |为取整运算,e为自然常数。
进一步地,所述存储子系统包括:信息筛选单元、编码单元和压缩存储单元;
所述信息筛选单元用于将信息重要度大于重要度阈值的语句作为重要语句;
所述编码单元用于将信息重要度编码成二进制数,与对应重要语句进行按位异或操作,得到编码数据:
所述压缩存储单元用于将编码数据进行压缩和存储。
上述进一步地方案的有益效果为:本发明将信息重要度低的语句丢弃,保留重要语句,在进行编码时,融合重要语句对应的信息重要度,编码过程相当于是对重要语句进行了加密,虽然加密方式一致,均为按位异或操作,但是加密的内容不相同,再对编码数据进行压缩和存储,能提高重要语句的保密性。
综上,本发明的有益效果为:本发明通过对文本进行拆分,构建每个词的词特征,将一条语句对应的所有词特征进行拼接,得到词拼接特征,通过词拼接特征来表达原本语句的内容,减少信息量,更好用于计算每条语句的信息重要度,通过信息重要度对文本中每条语句进行筛选,丢弃不重要的语句,减少无用内容的存储。
附图说明
图1为一种基于人工智能的信息存储管理系统的系统框图;
图2为词特征提取单元的结构示意图;
图3为语句特征提取子系统的结构示意图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
如图1所示,一种基于人工智能的信息存储管理系统,包括:词特征提取子系统、特征拼接子系统、语句特征提取子系统、信息重要度估测子系统和存储子系统;
所述词特征提取子系统用于将文本进行拆分成词,基于词的向量,构建词矩阵,并提取词矩阵的词特征;
所述特征拼接子系统用于将一条语句对应的所有词特征进行拼接,得到词拼接特征;
所述语句特征提取子系统用于将词拼接特征进行提取特征,得到语句特征;
所述信息重要度估测子系统用于根据语句特征,计算出每条语句的信息重要度;
所述存储子系统用于根据信息重要度筛选出重要语句进行压缩和存储。
在本实施例中,特征拼接子系统可采用神经网络中的加法器或Concat层。
所述词特征提取子系统包括:文本拆分单元、语句拆分单元、向量化处理单元、词矩阵构建单元和词特征提取单元;
所述文本拆分单元用于将文本拆分成多条语句;
所述语句拆分单元用于将每条语句拆分成多个词;
所述向量化处理单元用于将每个词进行向量化处理,得到词向量;
所述词矩阵构建单元用于将词向量构建为词矩阵;
所述词特征提取单元用于对词矩阵提取词特征。
本发明中将文本拆分成词,并构建词矩阵,保障词信息的完整性。
构建所述词矩阵的表达式为:V = vT v,其中,V为词矩阵,v为词向量,T为转置运算。
如图2所示,所述词特征提取单元包括:第一卷积层、第二卷积层、第三卷积层、第一注意力模块、第二注意力模块、乘法器M1、乘法器M2和加法器A1;
所述第一卷积层的输入端作为词特征提取单元的输入端,其输出端与第二卷积层的输入端连接;所述第二卷积层的输出端分别与第一注意力模块的输入端、第二注意力模块的输入端、乘法器M1的第一输入端和乘法器M2的第一输入端连接;所述乘法器M1的第二输入端与第一注意力模块的输出端连接,其输出端与加法器A1的第一输入端连接;所述乘法器M2的第二输入端与第二注意力模块的输出端连接,其输出端与加法器A1的第二输入端连接;所述第三卷积层的输入端与加法器A1的输出端连接,其输出端作为词特征提取单元的输出端。
本发明中设置两路注意力模块,分别计算出不同特征的注意力,实现对不同特征进行施加不同的关注度,避免部分特征被施加上过高的关注度。
所述第一注意力模块的表达式为:
,
其中,Z1为第一注意力模块的输出,softmax为归一化激活函数,为卷积核大小为/>的卷积层,ReLU为线性整流激活函数,MaxPool为最大池化操作,X为第二卷积层输出的特征。
本发明的第一注意力模块中通过最大池化操作提取出显著特征,第一注意力模块根据显著特征的情况,对第二卷积层输出的特征施加关注度。
所述第二注意力模块的表达式为:
,
其中,Z2为第二注意力模块的输出,softmax为归一化激活函数,为卷积核大小为/>的卷积层,ReLU为线性整流激活函数,AvgPool为平均池化操作,X为第二卷积层输出的特征。
本发明的第二注意力模块中通过平均池化操作提取出全局特征,第二注意力模块根据全局特征的情况,对第二卷积层输出的特征施加关注度。
如图3所示,所述语句特征提取子系统包括:拼接层、第一LSTM层、第二LSTM层和第四卷积层;
所述拼接层的第一输入端作为语句特征提取子系统的输入端,其输出端与第一LSTM层的输入端连接;所述第二LSTM层的输入端与第一LSTM层的输出端连接,其输出端分别与拼接层的第二输入端和第四卷积层的输入端连接,所述第四卷积层的输出端作为语句特征提取子系统的输出端。
本发明中拼接层是用于将词拼接特征和第二LSTM层历史输出特征输入第一LSTM层,虽然LSTM本身具备记忆性,但是该记忆性是在同一个LSTM层的细胞单元间传递,考虑的是各个输入特征之间的关系,在语义识别中,各个语句之间也存在语义关系,因此,本发明将第二LSTM层的输出输入到第一LSTM层,进一步地加强语句特征提取子系统的记忆性。
所述第一LSTM层的一个细胞单元中遗忘门的表达式为:
,
输入门的表达式为:
,
,
状态更新门的表达式为:
,
输出门的表达式为:
,
,
其中,ft为遗忘门第t时刻的输出,ht-1为细胞单元第t-1时刻的输出,xt为细胞单元第t时刻输入的词拼接特征,yt-1为第二LSTM层第t-1时刻的输出,Wf为遗忘门的权重,bf为遗忘门的偏置,it为输入门第t时刻的第一输出,Rt为输入门第t时刻的第二输出,Wi为输入门的第一权重,WC为输入门的第二权重,bi为输入门的第一偏置,bC为输入门的第二偏置,Ct-1为状态更新门第t-1时刻的输出,Ct为状态更新门第t时刻的输出,Ot为输出门第t时刻的输出,Wo为输出门的权重,bo为输出门的偏置,ht为细胞单元第t时刻的输出,σ为sigmoid激活函数,tanh为双曲正切激活函数。
所述信息重要度估测子系统的表达式为:
,
其中,Y为语句的信息重要度,yi为第四卷积层的输出,Wy为信息重要度估测子系统的权重,| |为取整运算,e为自然常数。
所述存储子系统包括:信息筛选单元、编码单元和压缩存储单元;
所述信息筛选单元用于将信息重要度大于重要度阈值的语句作为重要语句;
所述编码单元用于将信息重要度编码成二进制数,与对应重要语句进行按位异或操作,得到编码数据:
所述压缩存储单元用于将编码数据进行压缩和存储。
在本实施例中,二进制数的信息重要度为8位,在信息重要度和重要语句的位数不一致时,可将二进制数的信息重要度进行重复,构成16位,实现与重要语句的位数一致。
本发明将信息重要度低的语句丢弃,保留重要语句,在进行编码时,融合重要语句对应的信息重要度,编码过程相当于是对重要语句进行了加密,虽然加密方式一致,均为按位异或操作,但是加密的内容不相同,即每条重要语句对应的信息重要度不同,再对编码数据进行压缩和存储,能提高重要语句的保密性。
本发明通过对文本进行拆分,构建每个词的词特征,将一条语句对应的所有词特征进行拼接,得到词拼接特征,通过词拼接特征来表达原本语句的内容,减少信息量,更好用于计算每条语句的信息重要度,通过信息重要度对文本中每条语句进行筛选,丢弃不重要的语句,减少无用内容的存储。
以上仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于人工智能的信息存储管理系统,其特征在于,包括:词特征提取子系统、特征拼接子系统、语句特征提取子系统、信息重要度估测子系统和存储子系统;
所述词特征提取子系统用于将文本进行拆分成词,基于词的向量,构建词矩阵,并提取词矩阵的词特征;
所述特征拼接子系统用于将一条语句对应的所有词特征进行拼接,得到词拼接特征;
所述语句特征提取子系统用于将词拼接特征进行提取特征,得到语句特征;
所述信息重要度估测子系统用于根据语句特征,计算出每条语句的信息重要度;
所述存储子系统用于根据信息重要度筛选出重要语句进行压缩和存储。
2.根据权利要求1所述的基于人工智能的信息存储管理系统,其特征在于,所述词特征提取子系统包括:文本拆分单元、语句拆分单元、向量化处理单元、词矩阵构建单元和词特征提取单元;
所述文本拆分单元用于将文本拆分成多条语句;
所述语句拆分单元用于将每条语句拆分成多个词;
所述向量化处理单元用于将每个词进行向量化处理,得到词向量;
所述词矩阵构建单元用于将词向量构建为词矩阵;
所述词特征提取单元用于对词矩阵提取词特征。
3.根据权利要求2所述的基于人工智能的信息存储管理系统,其特征在于,构建所述词矩阵的表达式为:V = vT v,其中,V为词矩阵,v为词向量,T为转置运算。
4.根据权利要求2所述的基于人工智能的信息存储管理系统,其特征在于,所述词特征提取单元包括:第一卷积层、第二卷积层、第三卷积层、第一注意力模块、第二注意力模块、乘法器M1、乘法器M2和加法器A1;
所述第一卷积层的输入端作为词特征提取单元的输入端,其输出端与第二卷积层的输入端连接;所述第二卷积层的输出端分别与第一注意力模块的输入端、第二注意力模块的输入端、乘法器M1的第一输入端和乘法器M2的第一输入端连接;所述乘法器M1的第二输入端与第一注意力模块的输出端连接,其输出端与加法器A1的第一输入端连接;所述乘法器M2的第二输入端与第二注意力模块的输出端连接,其输出端与加法器A1的第二输入端连接;所述第三卷积层的输入端与加法器A1的输出端连接,其输出端作为词特征提取单元的输出端。
5.根据权利要求4所述的基于人工智能的信息存储管理系统,其特征在于,所述第一注意力模块的表达式为:
,
其中,Z1为第一注意力模块的输出,softmax为归一化激活函数,为卷积核大小为/>的卷积层,ReLU为线性整流激活函数,MaxPool为最大池化操作,X为第二卷积层输出的特征。
6.根据权利要求4所述的基于人工智能的信息存储管理系统,其特征在于,所述第二注意力模块的表达式为:
,
其中,Z2为第二注意力模块的输出,softmax为归一化激活函数,为卷积核大小为/>的卷积层,ReLU为线性整流激活函数,AvgPool为平均池化操作,X为第二卷积层输出的特征。
7.根据权利要求1所述的基于人工智能的信息存储管理系统,其特征在于,所述语句特征提取子系统包括:拼接层、第一LSTM层、第二LSTM层和第四卷积层;
所述拼接层的第一输入端作为语句特征提取子系统的输入端,其输出端与第一LSTM层的输入端连接;所述第二LSTM层的输入端与第一LSTM层的输出端连接,其输出端分别与拼接层的第二输入端和第四卷积层的输入端连接,所述第四卷积层的输出端作为语句特征提取子系统的输出端。
8.根据权利要求7所述的基于人工智能的信息存储管理系统,其特征在于,所述第一LSTM层的一个细胞单元中遗忘门的表达式为:
,
输入门的表达式为:
,
,
状态更新门的表达式为:
,
输出门的表达式为:
,
,
其中,ft为遗忘门第t时刻的输出,ht-1为细胞单元第t-1时刻的输出,xt为细胞单元第t时刻输入的词拼接特征,yt-1为第二LSTM层第t-1时刻的输出,Wf为遗忘门的权重,bf为遗忘门的偏置,it为输入门第t时刻的第一输出,Rt为输入门第t时刻的第二输出,Wi为输入门的第一权重,WC为输入门的第二权重,bi为输入门的第一偏置,bC为输入门的第二偏置,Ct-1为状态更新门第t-1时刻的输出,Ct为状态更新门第t时刻的输出,Ot为输出门第t时刻的输出,Wo为输出门的权重,bo为输出门的偏置,ht为细胞单元第t时刻的输出,σ为sigmoid激活函数,tanh为双曲正切激活函数。
9.根据权利要求8所述的基于人工智能的信息存储管理系统,其特征在于,所述信息重要度估测子系统的表达式为:
,
其中,Y为语句的信息重要度,yi为第四卷积层的输出,Wy为信息重要度估测子系统的权重,| |为取整运算,e为自然常数。
10.根据权利要求1所述的基于人工智能的信息存储管理系统,其特征在于,所述存储子系统包括:信息筛选单元、编码单元和压缩存储单元;
所述信息筛选单元用于将信息重要度大于重要度阈值的语句作为重要语句;
所述编码单元用于将信息重要度编码成二进制数,与对应重要语句进行按位异或操作,得到编码数据:
所述压缩存储单元用于将编码数据进行压缩和存储。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311287016.0A CN117033393B (zh) | 2023-10-08 | 2023-10-08 | 一种基于人工智能的信息存储管理系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311287016.0A CN117033393B (zh) | 2023-10-08 | 2023-10-08 | 一种基于人工智能的信息存储管理系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117033393A CN117033393A (zh) | 2023-11-10 |
CN117033393B true CN117033393B (zh) | 2023-12-12 |
Family
ID=88641441
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311287016.0A Active CN117033393B (zh) | 2023-10-08 | 2023-10-08 | 一种基于人工智能的信息存储管理系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117033393B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101877006A (zh) * | 2009-05-01 | 2010-11-03 | 索尼公司 | 用于处理信息的设备、方法和程序 |
CN104504156A (zh) * | 2015-01-16 | 2015-04-08 | 武汉大学 | 一种基于压缩感知理论的文本数据流抽样方法 |
CN110377686A (zh) * | 2019-07-04 | 2019-10-25 | 浙江大学 | 一种基于深度神经网络模型的地址信息特征抽取方法 |
CN110781305A (zh) * | 2019-10-30 | 2020-02-11 | 北京小米智能科技有限公司 | 基于分类模型的文本分类方法及装置,以及模型训练方法 |
CN111444703A (zh) * | 2020-03-04 | 2020-07-24 | 中国平安人寿保险股份有限公司 | 语句压缩方法、装置、设备及计算机可读存储介质 |
CN111898363A (zh) * | 2020-07-27 | 2020-11-06 | 平安科技(深圳)有限公司 | 文本长难句的压缩方法、装置、计算机设备及存储介质 |
CN113741822A (zh) * | 2021-11-05 | 2021-12-03 | 腾讯科技(深圳)有限公司 | 数据存储方法、数据读取方法及相关装置 |
CN114387366A (zh) * | 2022-01-14 | 2022-04-22 | 湖南大学 | 一种感知联合空间注意力文本生成图像方法 |
CN115794756A (zh) * | 2022-11-08 | 2023-03-14 | 珠海芯聚科技有限公司 | 一种仿真文件的压缩方法及装置、设备、存储介质 |
CN115878027A (zh) * | 2022-07-29 | 2023-03-31 | 浙江宇视科技有限公司 | 一种存储对象的处理方法、装置、终端及存储介质 |
CN116561230A (zh) * | 2023-07-07 | 2023-08-08 | 长通智能(深圳)有限公司 | 一种基于云计算的分布式存储与检索系统 |
-
2023
- 2023-10-08 CN CN202311287016.0A patent/CN117033393B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101877006A (zh) * | 2009-05-01 | 2010-11-03 | 索尼公司 | 用于处理信息的设备、方法和程序 |
CN104504156A (zh) * | 2015-01-16 | 2015-04-08 | 武汉大学 | 一种基于压缩感知理论的文本数据流抽样方法 |
CN110377686A (zh) * | 2019-07-04 | 2019-10-25 | 浙江大学 | 一种基于深度神经网络模型的地址信息特征抽取方法 |
CN110781305A (zh) * | 2019-10-30 | 2020-02-11 | 北京小米智能科技有限公司 | 基于分类模型的文本分类方法及装置,以及模型训练方法 |
CN111444703A (zh) * | 2020-03-04 | 2020-07-24 | 中国平安人寿保险股份有限公司 | 语句压缩方法、装置、设备及计算机可读存储介质 |
CN111898363A (zh) * | 2020-07-27 | 2020-11-06 | 平安科技(深圳)有限公司 | 文本长难句的压缩方法、装置、计算机设备及存储介质 |
CN113741822A (zh) * | 2021-11-05 | 2021-12-03 | 腾讯科技(深圳)有限公司 | 数据存储方法、数据读取方法及相关装置 |
CN114387366A (zh) * | 2022-01-14 | 2022-04-22 | 湖南大学 | 一种感知联合空间注意力文本生成图像方法 |
CN115878027A (zh) * | 2022-07-29 | 2023-03-31 | 浙江宇视科技有限公司 | 一种存储对象的处理方法、装置、终端及存储介质 |
CN115794756A (zh) * | 2022-11-08 | 2023-03-14 | 珠海芯聚科技有限公司 | 一种仿真文件的压缩方法及装置、设备、存储介质 |
CN116561230A (zh) * | 2023-07-07 | 2023-08-08 | 长通智能(深圳)有限公司 | 一种基于云计算的分布式存储与检索系统 |
Also Published As
Publication number | Publication date |
---|---|
CN117033393A (zh) | 2023-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109918507B (zh) | 一种基于TextCNN改进的文本分类方法 | |
CN115840799B (zh) | 一种基于深度学习的知识产权综合管理系统 | |
CN113688954A (zh) | 一种计算文本相似度的方法、系统、设备和存储介质 | |
CN111241849A (zh) | 一种文本语义分析方法及系统 | |
CN112116436A (zh) | 一种智能推荐方法、装置、计算机设备及可读存储介质 | |
CN111625647A (zh) | 一种无监督的新闻自动分类方法 | |
CN115082693A (zh) | 一种融合多粒度多模态的艺术品图像描述生成方法 | |
CN117033393B (zh) | 一种基于人工智能的信息存储管理系统 | |
CN116595406A (zh) | 基于角色一致性的事件论元角色分类方法及系统 | |
CN113449849B (zh) | 基于自编码器的学习型文本哈希方法 | |
CN111008691A (zh) | 一种权值和激活值都二值化的卷积神经网络加速器架构 | |
Niu et al. | A mathematical theory of semantic communication | |
CN117076946A (zh) | 一种短文本相似度确定方法、装置及终端 | |
CN105938469B (zh) | 编码存储方法、文本存储数据结构以及文本压缩存储和统计输出方法 | |
CN102571101A (zh) | 输电线路故障行波数据压缩方法 | |
Jain et al. | A comparative study of lossless compression algorithm on text data | |
CN111049836A (zh) | 数据处理方法、电子设备及计算机可读存储介质 | |
CN112886967A (zh) | 一种数据压缩编码处理的方法和设备 | |
CN103138766A (zh) | 数据压缩与解压缩的方法及装置 | |
CN112749539A (zh) | 文本匹配方法、装置、计算机可读存储介质和计算机设备 | |
CN114640357B (zh) | 数据编码方法、设备及存储介质 | |
CN112036554A (zh) | 神经网络模型的处理方法、装置、计算机设备和存储介质 | |
CN110782003A (zh) | 一种基于哈希学习的神经网络压缩方法及系统 | |
Mahmood et al. | Efficient compression scheme for large natural text using zipf distribution | |
CN110879859A (zh) | 一种保存序列关联关系的属性网络表示学习方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |