CN112328555B - 一种招标文件的快速生成方法 - Google Patents

一种招标文件的快速生成方法 Download PDF

Info

Publication number
CN112328555B
CN112328555B CN202011340554.8A CN202011340554A CN112328555B CN 112328555 B CN112328555 B CN 112328555B CN 202011340554 A CN202011340554 A CN 202011340554A CN 112328555 B CN112328555 B CN 112328555B
Authority
CN
China
Prior art keywords
bidding
time
decoder
long
term memory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011340554.8A
Other languages
English (en)
Other versions
CN112328555A (zh
Inventor
董建波
马红斌
阳馨伟
聂灿
罗泽原
吴环
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
State Grid Chongqing Tendering Co
State Grid Corp of China SGCC
State Grid Chongqing Electric Power Co Ltd
Original Assignee
State Grid Chongqing Tendering Co
State Grid Corp of China SGCC
State Grid Chongqing Electric Power Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by State Grid Chongqing Tendering Co, State Grid Corp of China SGCC, State Grid Chongqing Electric Power Co Ltd filed Critical State Grid Chongqing Tendering Co
Priority to CN202011340554.8A priority Critical patent/CN112328555B/zh
Publication of CN112328555A publication Critical patent/CN112328555A/zh
Application granted granted Critical
Publication of CN112328555B publication Critical patent/CN112328555B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/16File or folder operations, e.g. details of user interfaces specifically adapted to file systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

本发明涉及一种招标文件的快速生成方法,它包括如下步骤,首先构建词向量矩阵,获取历史招标计划和对应的历史招标文件,提取特征词,训练词向量模型,然后再将词向量模型采用矩阵的行使表示得到词向量矩阵;其次构建招标文件生成模型,并利用历史数据对该招标文件生成模型进行训练;最后输入新的招标计划得到对应的招标文件。本发明方法利用LSTM网络构建了双向编码,之后再将正向编码和反向编码拼接,输入到解码器中,尽可能的加快的模型的训练过程,同时还提交了模型的编码的准确性。

Description

一种招标文件的快速生成方法
技术领域
本发明涉及数据处理领域,特别涉及一种招标文件的快速生成方法。
背景技术
随着计算机和网络应用的日益广泛以及不同领域的业务种类的日益丰富,基于数据库的数据生成新格式文件(例如金融领域中的报表文件)的需求越来越多。
招标文件需要招标的项目的具体情况、要求以及投标人的资质条件、评标原则及办法、投标书如何制作、中标后合同格式等等,并提供统一格式的表格以利于投标。根据国家颁布的《电子招标投标办法》中规定,招标文件应具备按照标准文件或示范文本生成招标文件的功能。
目前针对生成新格式文件的需求,现有技术采用的方法为该新格式文件对应开发一整套格式模板,之后结合该开发的一整套格式模板和数据,生成新格式文件。该过程中,一旦该新格式文件的格式出现了任何微小变化,则均需重新为该变化后的格式文件开发整套格式模板,由于整套格式模板的开发效率较低,因此通过该方法生成多种格式的文件时效率较低,进一步,由于该方案中,需要将新增的一整套格式模板加入系统文件中,对系统文件进行了修改,因此不利于系统的稳定。
发明内容
针对现有技术存在的上述问题,本发明的要解决的技术问题是:可以根据招标计划快速生成招标文件的方法。
为解决上述技术问题,本发明采用如下技术方案:一种招标文件的快速生成方法,包括如下步骤:
S100:构建词向量矩阵;
S110:获取历史招标计划和对应的历史招标文件,提取特征词,训练word2vec词向量模型;
S110:基于S110步骤已训练的词向量模型,将招标计划PLi表示为矩阵
Figure GDA0003847119980000011
Figure GDA0003847119980000012
其中,Vj表示招标计划PLi中第j个单词的向量表示,n表示招标计划的单词总数;
S200:构建基于LSTM网络作为编码器对词向量矩阵进行编码;
S210:正向LSTM编码;
S211:通过给编码器的参数Wf、W′f、WC、W′C、Win、W′in、Wout、W′out、Uf、U′f、UC、U′C、Uin、U′in、Uout、U′out、Bf、B′f、BC、B′C、Bin、B′in、Bout、B′out赋经验值对编码器进行初始化,所述参数初始化服从正态分布;
S212:将矩阵
Figure GDA0003847119980000021
输入所述编码器;
S213:初始化正向隐藏状态h0=0,C0=0,t=1;h0表示初始状态信息,C0表示初始长时记忆,t表示时间;
S214:计算时刻t的正向遗忘门输出:
Figure GDA0003847119980000022
其中,ht-1表示上一时刻的状态信息;
S215:计算t时刻的正向新信息
Figure GDA0003847119980000023
Figure GDA0003847119980000024
S216:由输入门int控制,将时刻t的部分新信息
Figure GDA0003847119980000025
写入长时记忆单位,产生新的长时记忆Ct
Figure GDA0003847119980000026
Figure GDA0003847119980000027
其中,Ct-1表示上一时刻的长时记忆;
S217:输出门Outt将至目前为止积累下来的长时记忆采用公式(6)选出部分相关的记忆以生成时刻t关注的记忆信息输出;
Figure GDA0003847119980000028
S218:激活长时记忆单元Ct,时刻t的隐藏状态ht
ht=Outt×tanh (Ct) (7);
令t=t+1;
S219:重复过程S214至S218,直至t>n;
S220:反向LSTM编码;
S221:初始化反向隐藏状态h′n+1=0,Cn+1=0,t=n;
S222:计算时刻t的反向遗忘门输出f′t
Figure GDA0003847119980000029
S223:计算t时刻的反向新信息
Figure GDA0003847119980000031
Figure GDA0003847119980000032
S224:然后由输入门in′t控制,将时刻t的部分新信息
Figure GDA0003847119980000033
写入长时记忆单位,产生新的长时记忆C′t
Figure GDA0003847119980000034
Figure GDA0003847119980000035
S225:输出门Out′t将至目前为止积累下来的记忆采用公式(12)选出部分相关的记忆以生成时刻t关注的记忆信息输出;
Figure GDA0003847119980000036
S226:激活长时记忆单元C′t,时刻t的隐藏状态h′t
h′t=Out′t×tanh(C′t) (13);
t=t-1;
S227:重复过程S221至S227,直至t<1;
S230:将正向LSTM编码和反向LSTM编码两种隐藏状态拼接,编码器在时刻t的输出
Figure GDA0003847119980000037
concatenate为首尾相接;
S300:将LSTM网络作为解码器;
S310:给解码参数
Figure GDA0003847119980000038
赋经验值对解码器进行初始化,所述解码参数初始化服从正态分布;
S320:设解码器有m个隐藏状态,初始化解码器隐藏状态s0=0;
S330:将所述记忆单元Ct=n作为解码器输入,对每个隐藏状态进行解码,并将得到的m个输出输入softmax激活函数中得到yr,r=1,2,…m,将yr依次拼接得到预测的招标方案PR′i
S400:基于词袋法,将招标方案PRi表示为:
Figure GDA0003847119980000039
其中,
Figure GDA00038471199800000310
将预测的招标方案PR′i表示为
Figure GDA00038471199800000311
其中
Figure GDA00038471199800000312
S500:采用如下公式计算预测的招标方案PR′i与真实的招标方案PRi之间的交叉信息熵:
H(p,q)=Ep[-logq]=H(p)+DKL(p||q) (16);
其中,p=PRi表示真实的招标方案,q=PR′i表示预测的招标方案,将该交叉信息熵的可计算公式作为损失函数,并采用反向传播的方式依次更新解码器中的解码参数和编码其中的编码参数;
S600:当损失函数的损失满足预设条件,停止训练得到招标文件生成模型;
S700:将一个新的招标计划通过提取特征词表示为待预测矩阵,然后将该待预测矩阵输入招标文件生成模型,最后将解码器的输出拼接在一起,即得对应的招标文件。
相对于现有技术,本发明至少具有如下优点:
1.本发明方法结合神经网路构建了包括编码器和解码器为主要内容的招标文件生成模型,在该模型中,首先收集大量的历史招标计划和对应的历史招标文件,将历史招标计划和对应的历史招标文件作为标签数据输入模型中对模型进行训练,之后使用交叉信息熵作为损失函数的损失,采用反向传播的方式,对模型的中的参数进行更新,当计算的损失在可以接受的范围内,则认为该模型已经训练完成;然后将新的招标计划输入模型即可得对应的招标文件。由于本发明方法以历史数据为参考对模型进行训练,因此,训练好的模型具有性能稳定,且具有普遍性。
2.本发明方法利用LSTM网络构建了双向编码,之后再将正向编码和反向编码拼接,输入到解码器中,尽可能的加快的模型的训练过程,同时还提交了模型的编码的准确性。
具体实施方式
下面对本发明作进一步详细说明。
一种招标文件的快速生成方法,包括如下步骤:
S100:构建词向量矩阵;
S110:获取历史招标计划和对应的历史招标文件,提取特征词,训练word2vec词向量模型(CBOW),训练word2vec词向量模型的过程属于现有技术。
S110:基于S110步骤已训练的词向量模型,将招标计划PLi表示为矩阵
Figure GDA0003847119980000041
Figure GDA0003847119980000042
其中,Vj表示招标计划PLi中第j个单词的向量表示,n表示招标计划的单词总数。
S200:构建基于LSTM网络作为编码器对词向量矩阵进行编码。
S210:正向LSTM编码;
S211:通过给编码器的参数Wf、W′f、WC、W′C、Win、W′in、Wout、W′out、Uf、U′f、UC、U′C、Uin、U′in、Uout、U′out、Bf、B′f、BC、B′C、Bin、B′in、Bout、B′out赋经验值对编码器进行初始化,所述参数初始化服从正态分布。
S212:将矩阵
Figure GDA0003847119980000051
输入所述编码器。
S213:初始化正向隐藏状态h0=0,C0=0,t=1;h0表示初始状态信息,C0表示初始长时记忆,t表示时间。
S214:计算时刻t的正向遗忘门输出:
Figure GDA0003847119980000052
其中,ht-1表示上一时刻的状态信息。
S215:计算t时刻的正向新信息
Figure GDA0003847119980000053
Figure GDA0003847119980000054
S216:由输入门int控制,将时刻t的部分新信息
Figure GDA0003847119980000055
写入长时记忆单位,产生新的长时记忆Ct
Figure GDA0003847119980000056
Figure GDA0003847119980000057
其中,Ct-1表示上一时刻的长时记忆。
S217:输出门Outt将至目前为止积累下来的长时记忆采用公式(6)选出部分相关的记忆以生成时刻t关注的记忆信息输出;
Figure GDA0003847119980000058
S218:激活长时记忆单元Ct,时刻t的隐藏状态ht
ht=Outt×tanh(Ct) (7);
令t=t+1。
S219:重复过程S214至S218,直至t>n。
S220:反向LSTM编码。
S221:初始化反向隐藏状态h′n+1=0,Cn+1=0,t=n。
S222:计算时刻t的反向遗忘门输出f′t
Figure DA00038471199863032874
S223:计算t时刻的反向新信息
Figure GDA0003847119980000059
Figure GDA0003847119980000061
S224:然后由输入门in′t控制,将时刻t的部分新信息
Figure GDA0003847119980000062
写入长时记忆单位,产生新的长时记忆C′t
Figure DA00038471199862196919
Figure GDA0003847119980000063
S225:输出门Out′t将至目前为止积累下来的记忆采用公式(12)选出部分相关的记忆以生成时刻t关注的记忆信息输出;
Figure DA00038471199862322422
S226:激活长时记忆单元C′t,时刻t的隐藏状态h′t
h′t=Out′t×tanh(C′t) (13);
t=t-1。
S227:重复过程S221至S227,直至t<1。
S230:将正向LSTM编码和反向LSTM编码两种隐藏状态拼接,编码器在时刻t的输出
Figure GDA0003847119980000064
concatenate为首尾相接。
S300:将LSTM网络作为解码器。
S310:给解码参数
Figure GDA0003847119980000065
赋经验值对解码器进行初始化,所述解码参数初始化服从正态分布。
S320:设解码器有m个隐藏状态,初始化解码器隐藏状态s0=0。
S330:将所述记忆单元Ct=n作为解码器输入,对每个隐藏状态进行解码,并将得到的m个输出输入softmax激活函数中得到yr,r=1,2,…m,将yr依次拼接得到预测的招标方案PR′i
S400:基于词袋法,将招标方案PRi表示为:
Figure GDA0003847119980000066
其中,
Figure GDA0003847119980000067
将预测的招标方案PR′i表示为
Figure GDA0003847119980000068
其中
Figure GDA0003847119980000069
S500:采用如下公式计算预测的招标方案PR′i与真实的招标方案PRi之间的交叉信息熵:
H(p,q)=Ep[-logq]=H(p)+DKL(p||q) (16);
其中,p=PRi表示真实的招标方案,q=PR′i表示预测的招标方案,将该交叉信息熵的可计算公式作为损失函数,并采用反向传播的方式依次更新解码器中的解码参数和编码其中的编码参数。
S600:当损失函数的损失满足预设条件,停止训练得到招标文件生成模型;该招标文件生成模型包括训练好的编码器和解码器两个部分,将解码器的输出拼接即得到预测的招标文件。
S700:将一个新的招标计划通过提取特征词表示为待预测矩阵,然后将该待预测矩阵输入招标文件生成模型,最后将解码器的输出拼接在一起,即得对应的招标文件。
本发明的编码器和解码器都是基于LSTM网络单元设计的,LSTM网络单元在工作中不仅要接受此时刻的输入数据和上一时刻的状态信息,其还需建立一个机制能保留前面远处结点信息不会被丢失。具体操作是通过设计“门”结构实现保留信息和选择信息功能,即遗忘门、输入门和输出门,遗忘门、输入门和输出门三个门虽然功能上不同,但在执行任务的操作上是相同的。他们都是使用sigmoid函数作为选择工具,tanh函数作为变换工具,这两个函数结合起来实现三个门的功能。
为了详细说明,下面以正向LSTM编码为例具体说明:
遗忘门:首先决定我们会从细胞状态中丢弃什么信息。该门会读取
Figure GDA0003847119980000071
和ht-1输出一个在0到1之间的数值给每个在细胞状态中的数字。1表示“完全保留”,0表示“完全舍弃”。
对于遗忘门,其作用是让循环神经网络“忘记”之前没有用的信息。遗忘门会根据当前的输入
Figure GDA0003847119980000072
和上一时刻输出ht-1决定哪一部分记忆需要被遗忘。假设状态h的维度为n,“遗忘门”会根据当前的输入数据
Figure GDA0003847119980000073
和上一时刻输出ht-1计算一个维度为n的向量,
Figure DA00038471199862594817
其在每一维度上的值都被压缩在(0,1)范围内。最后将上一时刻的状态ht-1与f向量按位相乘,在f取值接近0的维度上的信息就会被“遗忘”,而f取值接近1的维度上的信息将会被保留。
输入门:是确定什么样的新信息被存放在细胞状态中。这里包含两个部分。第一,sigmoid层称“输入门层”决定什么值我们将要更新。然后,一个tanh层创建一个新的候选值向量,
Figure GDA0003847119980000074
会被加入到状态中。
在循环神经网络“忘记”了部分之前的状态后,它还需要从当前的输入补充最新的记忆。这个过程就是通过输入门完成的。增加新的主语的性别到细胞状态中,来替代旧的需要忘记的主语。Ct-1更新为Ct,把旧状态与ft相乘,丢弃掉我们确定需要丢弃的信息。接着加上
Figure GDA0003847119980000081
这就是新的候选值,根据我们决定更新每个状态的程度进行变化。tanh函数创建新的输入值,sigmoid函数决定可以输入进去的比例。
输出门:确定输出什么值。这个输出将会基于我们的细胞状态,但是也是一个过滤后的版本。首先,我们运行一个sigmoid层来确定细胞状态的哪个部分将输出出去。接着,我们把细胞状态通过tanh进行处理(得到一个在-1到1之间的值)并将它和sigmoid门的输出相乘,最终仅仅会输出我们确定输出的那部分。其中,sigmoid作为激活函数的全连接神经网络层会输出一个0到1之间的数值,描述当前输入有多少信息量可以通过这个结构,其功能就类似于一扇门。
LSTM结构在计算得到新的状态ct后需要产生当前时刻的输出,这个过程是通过输出门
完成的。输出门将根据最新的状态ct、上一时刻的输出ht-1和当前的输入
Figure GDA0003847119980000082
来决定该时刻的输出ht。通过遗忘门和输入门的操作循环神经网络LSTM可以更加有效地决定哪些序列信息应该被遗忘,而哪些序列信息需要长期保留。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (1)

1.一种招标文件的快速生成方法,其特征在于,包括如下步骤:
S100:构建词向量矩阵;
S110:获取历史招标计划和对应的历史招标文件,提取特征词,训练word2vec词向量模型;
S110:基于S110步骤已训练的词向量模型,将招标计划PLi表示为矩阵
Figure FDA0003847119970000011
Figure FDA0003847119970000012
其中,Vj表示招标计划PLi中第j个单词的向量表示,n表示招标计划的单词总数;
S200:构建基于LSTM网络作为编码器对词向量矩阵进行编码;
S210:正向LSTM编码;
S211:通过给编码器的参数Wf、W′f、WC、W′C、Win、W′in、Wout、W′out、Uf、U′f、UC、U′C、Uin、U′in、Uout、U′out、Bf、B′f、BC、B′C、Bin、B′in、Bout、B′out赋经验值对编码器进行初始化,所述参数初始化服从正态分布;
S212:将矩阵
Figure FDA0003847119970000013
输入所述编码器;
S213:初始化正向隐藏状态h0=0,C0=0,t=1;h0表示初始状态信息,C0表示初始长时记忆,t表示时间;
S214:计算时刻t的正向遗忘门输出:
Figure FDA0003847119970000014
其中,ht-1表示上一时刻的状态信息;
S215:计算t时刻的正向新信息
Figure FDA0003847119970000015
Figure FDA0003847119970000016
S216:由输入门int控制,将时刻t的部分新信息
Figure FDA0003847119970000017
写入长时记忆单位,产生新的长时记忆Ct
Figure FDA0003847119970000018
Figure FDA0003847119970000019
其中,Ct-1表示上一时刻的长时记忆;
S217:输出门Outt将至目前为止积累下来的长时记忆采用公式(6)选出部分相关的记忆以生成时刻t关注的记忆信息输出;
Figure FDA00038471199700000110
S218:激活长时记忆单元Ct,时刻t的隐藏状态ht
ht=Outt×tanh(Ct) (7);
令t=t+1;
S219:重复过程S214至S218,直至t>n;
S220:反向LSTM编码;
S221:初始化反向隐藏状态h′n+1=0,Cn+1=0,t=n;
S222:计算时刻t的反向遗忘门输出f′t
Figure FDA0003847119970000021
S223:计算t时刻的反向新信息
Figure FDA0003847119970000022
Figure FDA0003847119970000023
S224:然后由输入门in′t控制,将时刻t的部分新信息
Figure FDA0003847119970000024
写入长时记忆单位,产生新的长时记忆C′t
Figure FDA0003847119970000025
Figure FDA0003847119970000026
S225:输出门Out′t将至目前为止积累下来的记忆采用公式(12)选出部分相关的记忆以生成时刻t关注的记忆信息输出;
Figure FDA0003847119970000027
S226:激活长时记忆单元C′t,时刻t的隐藏状态h′t
h′t=Out′t×tanh(C′t) (13);
t=t-1;
S227:重复过程S221至S227,直至t<1;
S230:将正向LSTM编码和反向LSTM编码两种隐藏状态拼接,编码器在时刻t的输出
Figure FDA0003847119970000028
concatenate为首尾相接;
S300:将LSTM网络作为解码器;
S310:给解码参数
Figure FDA0003847119970000029
赋经验值对解码器进行初始化,所述解码参数初始化服从正态分布;
S320:设解码器有m个隐藏状态,初始化解码器隐藏状态s0=0;
S330:将所述记忆单元Ct=n作为解码器输入,对每个隐藏状态进行解码,并将得到的m个输出输入softmax激活函数中得到yr,r=1,2,…,m,将yr依次拼接得到预测的招标方案PR′i
S400:基于词袋法,将招标方案PRi表示为:
Figure FDA0003847119970000031
其中,
Figure FDA0003847119970000032
将预测的招标方案PR′i表示为
Figure FDA0003847119970000033
其中
Figure FDA0003847119970000034
S500:采用如下公式计算预测的招标方案PR′i与真实的招标方案PRi之间的交叉信息熵:
H(p,q)=Ep[-logq]=H(p)+DKL(p||q) (16);
其中,p=PRi表示真实的招标方案,q=PR′i表示预测的招标方案,将该交叉信息熵的可计算公式作为损失函数,并采用反向传播的方式依次更新解码器中的解码参数和编码其中的编码参数;
S600:当损失函数的损失满足预设条件,停止训练得到招标文件生成模型;
S700:将一个新的招标计划通过提取特征词表示为待预测矩阵,然后将该待预测矩阵输入招标文件生成模型,最后将解码器的输出拼接在一起,即得对应的招标文件。
CN202011340554.8A 2020-11-25 2020-11-25 一种招标文件的快速生成方法 Active CN112328555B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011340554.8A CN112328555B (zh) 2020-11-25 2020-11-25 一种招标文件的快速生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011340554.8A CN112328555B (zh) 2020-11-25 2020-11-25 一种招标文件的快速生成方法

Publications (2)

Publication Number Publication Date
CN112328555A CN112328555A (zh) 2021-02-05
CN112328555B true CN112328555B (zh) 2022-11-04

Family

ID=74308883

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011340554.8A Active CN112328555B (zh) 2020-11-25 2020-11-25 一种招标文件的快速生成方法

Country Status (1)

Country Link
CN (1) CN112328555B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023004528A1 (zh) * 2021-07-26 2023-02-02 深圳市检验检疫科学研究院 一种基于分布式系统的并行化命名实体识别方法及装置
CN113794709B (zh) * 2021-09-07 2022-06-24 北京理工大学 一种用于二值稀疏矩阵的混合编码方法
CN113836906B (zh) * 2021-09-26 2023-06-06 中国联合网络通信集团有限公司 标书生成方法、装置及服务器
CN114580362B (zh) * 2022-05-09 2022-11-01 四川野马科技有限公司 一种回标文件生成系统及其方法
CN116187956B (zh) * 2023-04-25 2023-07-18 上海百通项目管理咨询有限公司 一种招标文件生成方法及系统
CN118551748A (zh) * 2024-07-31 2024-08-27 国泰新点软件股份有限公司 基于模板范本的招标文件生成方法、系统及存储介质

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102662980A (zh) * 2012-01-13 2012-09-12 河北省电力勘测设计研究院 发电厂投标文件自动生成方法
CN108415977A (zh) * 2018-02-09 2018-08-17 华南理工大学 一个基于深度神经网络及强化学习的生成式机器阅读理解方法
CN108804407A (zh) * 2018-06-25 2018-11-13 厦门海迈科技股份有限公司 一种快速响应电子招标文件范本更新的方法及设备
CN108984508A (zh) * 2018-08-27 2018-12-11 成都行行行科技有限公司 标书生成方法与装置
CN109146650A (zh) * 2018-08-31 2019-01-04 万翼科技有限公司 招标计划的创建方法、装置和存储介质
CN109408630A (zh) * 2018-10-17 2019-03-01 杭州世平信息科技有限公司 一种根据犯罪事实的描述自动生成法院观点的方法
CN110008458A (zh) * 2019-04-11 2019-07-12 国网河北省电力有限公司物资分公司 电力招投标文件的结构化编制方法
CN110781650A (zh) * 2020-01-02 2020-02-11 四川大学 一种基于深度学习的裁判文书自动生成方法及系统
CN111597820A (zh) * 2020-05-11 2020-08-28 北京理工大学 Ict供应链招投标项目与企业产品实体匹配方法
CN111859911A (zh) * 2020-07-28 2020-10-30 中国平安人寿保险股份有限公司 图像描述文本生成方法、装置、计算机设备及存储介质
CN111858914A (zh) * 2020-07-27 2020-10-30 湖南大学 一种基于句级评估的文本摘要生成方法和系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111078838B (zh) * 2019-12-13 2023-08-18 北京小米智能科技有限公司 关键词提取方法、关键词提取装置及电子设备

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102662980A (zh) * 2012-01-13 2012-09-12 河北省电力勘测设计研究院 发电厂投标文件自动生成方法
CN108415977A (zh) * 2018-02-09 2018-08-17 华南理工大学 一个基于深度神经网络及强化学习的生成式机器阅读理解方法
CN108804407A (zh) * 2018-06-25 2018-11-13 厦门海迈科技股份有限公司 一种快速响应电子招标文件范本更新的方法及设备
CN108984508A (zh) * 2018-08-27 2018-12-11 成都行行行科技有限公司 标书生成方法与装置
CN109146650A (zh) * 2018-08-31 2019-01-04 万翼科技有限公司 招标计划的创建方法、装置和存储介质
CN109408630A (zh) * 2018-10-17 2019-03-01 杭州世平信息科技有限公司 一种根据犯罪事实的描述自动生成法院观点的方法
CN110008458A (zh) * 2019-04-11 2019-07-12 国网河北省电力有限公司物资分公司 电力招投标文件的结构化编制方法
CN110781650A (zh) * 2020-01-02 2020-02-11 四川大学 一种基于深度学习的裁判文书自动生成方法及系统
CN111597820A (zh) * 2020-05-11 2020-08-28 北京理工大学 Ict供应链招投标项目与企业产品实体匹配方法
CN111858914A (zh) * 2020-07-27 2020-10-30 湖南大学 一种基于句级评估的文本摘要生成方法和系统
CN111859911A (zh) * 2020-07-28 2020-10-30 中国平安人寿保险股份有限公司 图像描述文本生成方法、装置、计算机设备及存储介质

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Video Summarization with Attention-Based Encoder-Decoder Networks;Zhong Ji 等;《IEEE Transactions on Circuits and Systems for Video Technology》;20190314;第30卷(第6期);1709-1717 *
基于BiLSTM-CRF的商情实体识别模型;张应成 等;《计算机工程》;20181201;第45卷(第05期);308-314 *
基于主次关系特征的自动文摘方法;张迎 等;《计算机科学》;20200615;第47卷(第S1期);6-11 *
基于文档结构与深度学习的金融公告信息抽取;黄胜 等;《计算机工程与设计》;20200116;第41卷(第01期);115-121 *

Also Published As

Publication number Publication date
CN112328555A (zh) 2021-02-05

Similar Documents

Publication Publication Date Title
CN112328555B (zh) 一种招标文件的快速生成方法
Esser et al. Imagebart: Bidirectional context with multinomial diffusion for autoregressive image synthesis
CN107688849B (zh) 一种动态策略定点化训练方法及装置
CN113688244B (zh) 基于神经网络的文本分类方法、系统、设备及存储介质
US20210174193A1 (en) Slot filling with contextual information
CN111783873B (zh) 基于增量朴素贝叶斯模型的用户画像方法及装置
CN109598387A (zh) 基于双向跨模态注意力网络模型的股价预测方法及系统
CN112926655B (zh) 一种图像内容理解与视觉问答vqa方法、存储介质和终端
CN117475038A (zh) 一种图像生成方法、装置、设备及计算机可读存储介质
US20240135610A1 (en) Image generation using a diffusion model
CN115862747B (zh) 一种序列-结构-功能耦合的蛋白质预训练模型构建方法
CN112069827B (zh) 一种基于细粒度主题建模的数据到文本生成方法
CN114168707A (zh) 一种面向推荐的情绪型对话方法
CN114072816A (zh) 用于神经主题建模中的多视图和多源迁移的方法和系统
CN114817467A (zh) 一种意图识别响应方法、装置、设备及存储介质
CN115687610A (zh) 文本意图分类模型训练方法、识别方法、装置、电子设备及存储介质
CN117980915A (zh) 用于端到端自监督预训练的对比学习和掩蔽建模
CN114692624A (zh) 一种基于多任务迁移的信息抽取方法、装置及电子设备
CN114529917A (zh) 一种零样本中文单字识别方法、系统、装置及存储介质
US11941360B2 (en) Acronym definition network
CN117521666A (zh) 一种基于元学习扩散模型的限定域受限文本生成方法
CN118071881A (zh) 多模态图像编辑
CN116484868A (zh) 一种基于生成扩散模型的跨域命名实体识别方法及装置
CN114880527B (zh) 一种基于多预测任务的多模态知识图谱表示方法
CN110059314B (zh) 一种基于增强学习的关系抽取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20210415

Address after: 100031 No. 86 West Chang'an Avenue, Beijing, Xicheng District

Applicant after: STATE GRID CORPORATION OF CHINA

Applicant after: STATE GRID CHONGQING ELECTRIC POWER Co.

Applicant after: STATE GRID CHONGQING TENDERING Co.

Address before: No.20 Qingfeng North Road, Yubei District, Chongqing

Applicant before: STATE GRID CHONGQING TENDERING Co.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant