CN112328555B - 一种招标文件的快速生成方法 - Google Patents
一种招标文件的快速生成方法 Download PDFInfo
- Publication number
- CN112328555B CN112328555B CN202011340554.8A CN202011340554A CN112328555B CN 112328555 B CN112328555 B CN 112328555B CN 202011340554 A CN202011340554 A CN 202011340554A CN 112328555 B CN112328555 B CN 112328555B
- Authority
- CN
- China
- Prior art keywords
- bidding
- time
- decoder
- long
- term memory
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 239000011159 matrix material Substances 0.000 claims abstract description 21
- 230000008569 process Effects 0.000 claims abstract description 12
- 238000012549 training Methods 0.000 claims abstract description 11
- 230000007787 long-term memory Effects 0.000 claims description 27
- 230000006870 function Effects 0.000 claims description 21
- 230000015654 memory Effects 0.000 claims description 20
- 230000002441 reversible effect Effects 0.000 claims description 12
- CIWBSHSKHKDKBQ-JLAZNSOCSA-N Ascorbic acid Chemical compound OC[C@H](O)[C@H]1OC(=O)C(O)=C1O CIWBSHSKHKDKBQ-JLAZNSOCSA-N 0.000 claims description 6
- 230000003213 activating effect Effects 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 4
- BVKZGUZCCUSVTD-UHFFFAOYSA-M Bicarbonate Chemical compound OC([O-])=O BVKZGUZCCUSVTD-UHFFFAOYSA-M 0.000 claims description 3
- 230000002457 bidirectional effect Effects 0.000 abstract description 2
- 238000013528 artificial neural network Methods 0.000 description 6
- 230000014759 maintenance of location Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/10—File systems; File servers
- G06F16/16—File or folder operations, e.g. details of user interfaces specifically adapted to file systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
本发明涉及一种招标文件的快速生成方法,它包括如下步骤,首先构建词向量矩阵,获取历史招标计划和对应的历史招标文件,提取特征词,训练词向量模型,然后再将词向量模型采用矩阵的行使表示得到词向量矩阵;其次构建招标文件生成模型,并利用历史数据对该招标文件生成模型进行训练;最后输入新的招标计划得到对应的招标文件。本发明方法利用LSTM网络构建了双向编码,之后再将正向编码和反向编码拼接,输入到解码器中,尽可能的加快的模型的训练过程,同时还提交了模型的编码的准确性。
Description
技术领域
本发明涉及数据处理领域,特别涉及一种招标文件的快速生成方法。
背景技术
随着计算机和网络应用的日益广泛以及不同领域的业务种类的日益丰富,基于数据库的数据生成新格式文件(例如金融领域中的报表文件)的需求越来越多。
招标文件需要招标的项目的具体情况、要求以及投标人的资质条件、评标原则及办法、投标书如何制作、中标后合同格式等等,并提供统一格式的表格以利于投标。根据国家颁布的《电子招标投标办法》中规定,招标文件应具备按照标准文件或示范文本生成招标文件的功能。
目前针对生成新格式文件的需求,现有技术采用的方法为该新格式文件对应开发一整套格式模板,之后结合该开发的一整套格式模板和数据,生成新格式文件。该过程中,一旦该新格式文件的格式出现了任何微小变化,则均需重新为该变化后的格式文件开发整套格式模板,由于整套格式模板的开发效率较低,因此通过该方法生成多种格式的文件时效率较低,进一步,由于该方案中,需要将新增的一整套格式模板加入系统文件中,对系统文件进行了修改,因此不利于系统的稳定。
发明内容
针对现有技术存在的上述问题,本发明的要解决的技术问题是:可以根据招标计划快速生成招标文件的方法。
为解决上述技术问题,本发明采用如下技术方案:一种招标文件的快速生成方法,包括如下步骤:
S100:构建词向量矩阵;
S110:获取历史招标计划和对应的历史招标文件,提取特征词,训练word2vec词向量模型;
其中,Vj表示招标计划PLi中第j个单词的向量表示,n表示招标计划的单词总数;
S200:构建基于LSTM网络作为编码器对词向量矩阵进行编码;
S210:正向LSTM编码;
S211:通过给编码器的参数Wf、W′f、WC、W′C、Win、W′in、Wout、W′out、Uf、U′f、UC、U′C、Uin、U′in、Uout、U′out、Bf、B′f、BC、B′C、Bin、B′in、Bout、B′out赋经验值对编码器进行初始化,所述参数初始化服从正态分布;
S213:初始化正向隐藏状态h0=0,C0=0,t=1;h0表示初始状态信息,C0表示初始长时记忆,t表示时间;
S214:计算时刻t的正向遗忘门输出:
其中,ht-1表示上一时刻的状态信息;
其中,Ct-1表示上一时刻的长时记忆;
S217:输出门Outt将至目前为止积累下来的长时记忆采用公式(6)选出部分相关的记忆以生成时刻t关注的记忆信息输出;
S218:激活长时记忆单元Ct,时刻t的隐藏状态ht;
ht=Outt×tanh (Ct) (7);
令t=t+1;
S219:重复过程S214至S218,直至t>n;
S220:反向LSTM编码;
S221:初始化反向隐藏状态h′n+1=0,Cn+1=0,t=n;
S222:计算时刻t的反向遗忘门输出f′t;
S225:输出门Out′t将至目前为止积累下来的记忆采用公式(12)选出部分相关的记忆以生成时刻t关注的记忆信息输出;
S226:激活长时记忆单元C′t,时刻t的隐藏状态h′t;
h′t=Out′t×tanh(C′t) (13);
t=t-1;
S227:重复过程S221至S227,直至t<1;
S300:将LSTM网络作为解码器;
S320:设解码器有m个隐藏状态,初始化解码器隐藏状态s0=0;
S330:将所述记忆单元Ct=n作为解码器输入,对每个隐藏状态进行解码,并将得到的m个输出输入softmax激活函数中得到yr,r=1,2,…m,将yr依次拼接得到预测的招标方案PR′i;
S400:基于词袋法,将招标方案PRi表示为:
将预测的招标方案PR′i表示为
S500:采用如下公式计算预测的招标方案PR′i与真实的招标方案PRi之间的交叉信息熵:
H(p,q)=Ep[-logq]=H(p)+DKL(p||q) (16);
其中,p=PRi表示真实的招标方案,q=PR′i表示预测的招标方案,将该交叉信息熵的可计算公式作为损失函数,并采用反向传播的方式依次更新解码器中的解码参数和编码其中的编码参数;
S600:当损失函数的损失满足预设条件,停止训练得到招标文件生成模型;
S700:将一个新的招标计划通过提取特征词表示为待预测矩阵,然后将该待预测矩阵输入招标文件生成模型,最后将解码器的输出拼接在一起,即得对应的招标文件。
相对于现有技术,本发明至少具有如下优点:
1.本发明方法结合神经网路构建了包括编码器和解码器为主要内容的招标文件生成模型,在该模型中,首先收集大量的历史招标计划和对应的历史招标文件,将历史招标计划和对应的历史招标文件作为标签数据输入模型中对模型进行训练,之后使用交叉信息熵作为损失函数的损失,采用反向传播的方式,对模型的中的参数进行更新,当计算的损失在可以接受的范围内,则认为该模型已经训练完成;然后将新的招标计划输入模型即可得对应的招标文件。由于本发明方法以历史数据为参考对模型进行训练,因此,训练好的模型具有性能稳定,且具有普遍性。
2.本发明方法利用LSTM网络构建了双向编码,之后再将正向编码和反向编码拼接,输入到解码器中,尽可能的加快的模型的训练过程,同时还提交了模型的编码的准确性。
具体实施方式
下面对本发明作进一步详细说明。
一种招标文件的快速生成方法,包括如下步骤:
S100:构建词向量矩阵;
S110:获取历史招标计划和对应的历史招标文件,提取特征词,训练word2vec词向量模型(CBOW),训练word2vec词向量模型的过程属于现有技术。
其中,Vj表示招标计划PLi中第j个单词的向量表示,n表示招标计划的单词总数。
S200:构建基于LSTM网络作为编码器对词向量矩阵进行编码。
S210:正向LSTM编码;
S211:通过给编码器的参数Wf、W′f、WC、W′C、Win、W′in、Wout、W′out、Uf、U′f、UC、U′C、Uin、U′in、Uout、U′out、Bf、B′f、BC、B′C、Bin、B′in、Bout、B′out赋经验值对编码器进行初始化,所述参数初始化服从正态分布。
S213:初始化正向隐藏状态h0=0,C0=0,t=1;h0表示初始状态信息,C0表示初始长时记忆,t表示时间。
S214:计算时刻t的正向遗忘门输出:
其中,ht-1表示上一时刻的状态信息。
其中,Ct-1表示上一时刻的长时记忆。
S217:输出门Outt将至目前为止积累下来的长时记忆采用公式(6)选出部分相关的记忆以生成时刻t关注的记忆信息输出;
S218:激活长时记忆单元Ct,时刻t的隐藏状态ht;
ht=Outt×tanh(Ct) (7);
令t=t+1。
S219:重复过程S214至S218,直至t>n。
S220:反向LSTM编码。
S221:初始化反向隐藏状态h′n+1=0,Cn+1=0,t=n。
S222:计算时刻t的反向遗忘门输出f′t;
S225:输出门Out′t将至目前为止积累下来的记忆采用公式(12)选出部分相关的记忆以生成时刻t关注的记忆信息输出;
S226:激活长时记忆单元C′t,时刻t的隐藏状态h′t;
h′t=Out′t×tanh(C′t) (13);
t=t-1。
S227:重复过程S221至S227,直至t<1。
S300:将LSTM网络作为解码器。
S320:设解码器有m个隐藏状态,初始化解码器隐藏状态s0=0。
S330:将所述记忆单元Ct=n作为解码器输入,对每个隐藏状态进行解码,并将得到的m个输出输入softmax激活函数中得到yr,r=1,2,…m,将yr依次拼接得到预测的招标方案PR′i。
S400:基于词袋法,将招标方案PRi表示为:
将预测的招标方案PR′i表示为
S500:采用如下公式计算预测的招标方案PR′i与真实的招标方案PRi之间的交叉信息熵:
H(p,q)=Ep[-logq]=H(p)+DKL(p||q) (16);
其中,p=PRi表示真实的招标方案,q=PR′i表示预测的招标方案,将该交叉信息熵的可计算公式作为损失函数,并采用反向传播的方式依次更新解码器中的解码参数和编码其中的编码参数。
S600:当损失函数的损失满足预设条件,停止训练得到招标文件生成模型;该招标文件生成模型包括训练好的编码器和解码器两个部分,将解码器的输出拼接即得到预测的招标文件。
S700:将一个新的招标计划通过提取特征词表示为待预测矩阵,然后将该待预测矩阵输入招标文件生成模型,最后将解码器的输出拼接在一起,即得对应的招标文件。
本发明的编码器和解码器都是基于LSTM网络单元设计的,LSTM网络单元在工作中不仅要接受此时刻的输入数据和上一时刻的状态信息,其还需建立一个机制能保留前面远处结点信息不会被丢失。具体操作是通过设计“门”结构实现保留信息和选择信息功能,即遗忘门、输入门和输出门,遗忘门、输入门和输出门三个门虽然功能上不同,但在执行任务的操作上是相同的。他们都是使用sigmoid函数作为选择工具,tanh函数作为变换工具,这两个函数结合起来实现三个门的功能。
为了详细说明,下面以正向LSTM编码为例具体说明:
对于遗忘门,其作用是让循环神经网络“忘记”之前没有用的信息。遗忘门会根据当前的输入和上一时刻输出ht-1决定哪一部分记忆需要被遗忘。假设状态h的维度为n,“遗忘门”会根据当前的输入数据和上一时刻输出ht-1计算一个维度为n的向量,其在每一维度上的值都被压缩在(0,1)范围内。最后将上一时刻的状态ht-1与f向量按位相乘,在f取值接近0的维度上的信息就会被“遗忘”,而f取值接近1的维度上的信息将会被保留。
在循环神经网络“忘记”了部分之前的状态后,它还需要从当前的输入补充最新的记忆。这个过程就是通过输入门完成的。增加新的主语的性别到细胞状态中,来替代旧的需要忘记的主语。Ct-1更新为Ct,把旧状态与ft相乘,丢弃掉我们确定需要丢弃的信息。接着加上这就是新的候选值,根据我们决定更新每个状态的程度进行变化。tanh函数创建新的输入值,sigmoid函数决定可以输入进去的比例。
输出门:确定输出什么值。这个输出将会基于我们的细胞状态,但是也是一个过滤后的版本。首先,我们运行一个sigmoid层来确定细胞状态的哪个部分将输出出去。接着,我们把细胞状态通过tanh进行处理(得到一个在-1到1之间的值)并将它和sigmoid门的输出相乘,最终仅仅会输出我们确定输出的那部分。其中,sigmoid作为激活函数的全连接神经网络层会输出一个0到1之间的数值,描述当前输入有多少信息量可以通过这个结构,其功能就类似于一扇门。
LSTM结构在计算得到新的状态ct后需要产生当前时刻的输出,这个过程是通过输出门
完成的。输出门将根据最新的状态ct、上一时刻的输出ht-1和当前的输入来决定该时刻的输出ht。通过遗忘门和输入门的操作循环神经网络LSTM可以更加有效地决定哪些序列信息应该被遗忘,而哪些序列信息需要长期保留。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (1)
1.一种招标文件的快速生成方法,其特征在于,包括如下步骤:
S100:构建词向量矩阵;
S110:获取历史招标计划和对应的历史招标文件,提取特征词,训练word2vec词向量模型;
其中,Vj表示招标计划PLi中第j个单词的向量表示,n表示招标计划的单词总数;
S200:构建基于LSTM网络作为编码器对词向量矩阵进行编码;
S210:正向LSTM编码;
S211:通过给编码器的参数Wf、W′f、WC、W′C、Win、W′in、Wout、W′out、Uf、U′f、UC、U′C、Uin、U′in、Uout、U′out、Bf、B′f、BC、B′C、Bin、B′in、Bout、B′out赋经验值对编码器进行初始化,所述参数初始化服从正态分布;
S213:初始化正向隐藏状态h0=0,C0=0,t=1;h0表示初始状态信息,C0表示初始长时记忆,t表示时间;
S214:计算时刻t的正向遗忘门输出:
其中,ht-1表示上一时刻的状态信息;
其中,Ct-1表示上一时刻的长时记忆;
S217:输出门Outt将至目前为止积累下来的长时记忆采用公式(6)选出部分相关的记忆以生成时刻t关注的记忆信息输出;
S218:激活长时记忆单元Ct,时刻t的隐藏状态ht;
ht=Outt×tanh(Ct) (7);
令t=t+1;
S219:重复过程S214至S218,直至t>n;
S220:反向LSTM编码;
S221:初始化反向隐藏状态h′n+1=0,Cn+1=0,t=n;
S222:计算时刻t的反向遗忘门输出f′t;
S225:输出门Out′t将至目前为止积累下来的记忆采用公式(12)选出部分相关的记忆以生成时刻t关注的记忆信息输出;
S226:激活长时记忆单元C′t,时刻t的隐藏状态h′t;
h′t=Out′t×tanh(C′t) (13);
t=t-1;
S227:重复过程S221至S227,直至t<1;
S300:将LSTM网络作为解码器;
S320:设解码器有m个隐藏状态,初始化解码器隐藏状态s0=0;
S330:将所述记忆单元Ct=n作为解码器输入,对每个隐藏状态进行解码,并将得到的m个输出输入softmax激活函数中得到yr,r=1,2,…,m,将yr依次拼接得到预测的招标方案PR′i;
S400:基于词袋法,将招标方案PRi表示为:
将预测的招标方案PR′i表示为
S500:采用如下公式计算预测的招标方案PR′i与真实的招标方案PRi之间的交叉信息熵:
H(p,q)=Ep[-logq]=H(p)+DKL(p||q) (16);
其中,p=PRi表示真实的招标方案,q=PR′i表示预测的招标方案,将该交叉信息熵的可计算公式作为损失函数,并采用反向传播的方式依次更新解码器中的解码参数和编码其中的编码参数;
S600:当损失函数的损失满足预设条件,停止训练得到招标文件生成模型;
S700:将一个新的招标计划通过提取特征词表示为待预测矩阵,然后将该待预测矩阵输入招标文件生成模型,最后将解码器的输出拼接在一起,即得对应的招标文件。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011340554.8A CN112328555B (zh) | 2020-11-25 | 2020-11-25 | 一种招标文件的快速生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011340554.8A CN112328555B (zh) | 2020-11-25 | 2020-11-25 | 一种招标文件的快速生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112328555A CN112328555A (zh) | 2021-02-05 |
CN112328555B true CN112328555B (zh) | 2022-11-04 |
Family
ID=74308883
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011340554.8A Active CN112328555B (zh) | 2020-11-25 | 2020-11-25 | 一种招标文件的快速生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112328555B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023004528A1 (zh) * | 2021-07-26 | 2023-02-02 | 深圳市检验检疫科学研究院 | 一种基于分布式系统的并行化命名实体识别方法及装置 |
CN113794709B (zh) * | 2021-09-07 | 2022-06-24 | 北京理工大学 | 一种用于二值稀疏矩阵的混合编码方法 |
CN113836906B (zh) * | 2021-09-26 | 2023-06-06 | 中国联合网络通信集团有限公司 | 标书生成方法、装置及服务器 |
CN114580362B (zh) * | 2022-05-09 | 2022-11-01 | 四川野马科技有限公司 | 一种回标文件生成系统及其方法 |
CN116187956B (zh) * | 2023-04-25 | 2023-07-18 | 上海百通项目管理咨询有限公司 | 一种招标文件生成方法及系统 |
CN118551748A (zh) * | 2024-07-31 | 2024-08-27 | 国泰新点软件股份有限公司 | 基于模板范本的招标文件生成方法、系统及存储介质 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102662980A (zh) * | 2012-01-13 | 2012-09-12 | 河北省电力勘测设计研究院 | 发电厂投标文件自动生成方法 |
CN108415977A (zh) * | 2018-02-09 | 2018-08-17 | 华南理工大学 | 一个基于深度神经网络及强化学习的生成式机器阅读理解方法 |
CN108804407A (zh) * | 2018-06-25 | 2018-11-13 | 厦门海迈科技股份有限公司 | 一种快速响应电子招标文件范本更新的方法及设备 |
CN108984508A (zh) * | 2018-08-27 | 2018-12-11 | 成都行行行科技有限公司 | 标书生成方法与装置 |
CN109146650A (zh) * | 2018-08-31 | 2019-01-04 | 万翼科技有限公司 | 招标计划的创建方法、装置和存储介质 |
CN109408630A (zh) * | 2018-10-17 | 2019-03-01 | 杭州世平信息科技有限公司 | 一种根据犯罪事实的描述自动生成法院观点的方法 |
CN110008458A (zh) * | 2019-04-11 | 2019-07-12 | 国网河北省电力有限公司物资分公司 | 电力招投标文件的结构化编制方法 |
CN110781650A (zh) * | 2020-01-02 | 2020-02-11 | 四川大学 | 一种基于深度学习的裁判文书自动生成方法及系统 |
CN111597820A (zh) * | 2020-05-11 | 2020-08-28 | 北京理工大学 | Ict供应链招投标项目与企业产品实体匹配方法 |
CN111859911A (zh) * | 2020-07-28 | 2020-10-30 | 中国平安人寿保险股份有限公司 | 图像描述文本生成方法、装置、计算机设备及存储介质 |
CN111858914A (zh) * | 2020-07-27 | 2020-10-30 | 湖南大学 | 一种基于句级评估的文本摘要生成方法和系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111078838B (zh) * | 2019-12-13 | 2023-08-18 | 北京小米智能科技有限公司 | 关键词提取方法、关键词提取装置及电子设备 |
-
2020
- 2020-11-25 CN CN202011340554.8A patent/CN112328555B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102662980A (zh) * | 2012-01-13 | 2012-09-12 | 河北省电力勘测设计研究院 | 发电厂投标文件自动生成方法 |
CN108415977A (zh) * | 2018-02-09 | 2018-08-17 | 华南理工大学 | 一个基于深度神经网络及强化学习的生成式机器阅读理解方法 |
CN108804407A (zh) * | 2018-06-25 | 2018-11-13 | 厦门海迈科技股份有限公司 | 一种快速响应电子招标文件范本更新的方法及设备 |
CN108984508A (zh) * | 2018-08-27 | 2018-12-11 | 成都行行行科技有限公司 | 标书生成方法与装置 |
CN109146650A (zh) * | 2018-08-31 | 2019-01-04 | 万翼科技有限公司 | 招标计划的创建方法、装置和存储介质 |
CN109408630A (zh) * | 2018-10-17 | 2019-03-01 | 杭州世平信息科技有限公司 | 一种根据犯罪事实的描述自动生成法院观点的方法 |
CN110008458A (zh) * | 2019-04-11 | 2019-07-12 | 国网河北省电力有限公司物资分公司 | 电力招投标文件的结构化编制方法 |
CN110781650A (zh) * | 2020-01-02 | 2020-02-11 | 四川大学 | 一种基于深度学习的裁判文书自动生成方法及系统 |
CN111597820A (zh) * | 2020-05-11 | 2020-08-28 | 北京理工大学 | Ict供应链招投标项目与企业产品实体匹配方法 |
CN111858914A (zh) * | 2020-07-27 | 2020-10-30 | 湖南大学 | 一种基于句级评估的文本摘要生成方法和系统 |
CN111859911A (zh) * | 2020-07-28 | 2020-10-30 | 中国平安人寿保险股份有限公司 | 图像描述文本生成方法、装置、计算机设备及存储介质 |
Non-Patent Citations (4)
Title |
---|
Video Summarization with Attention-Based Encoder-Decoder Networks;Zhong Ji 等;《IEEE Transactions on Circuits and Systems for Video Technology》;20190314;第30卷(第6期);1709-1717 * |
基于BiLSTM-CRF的商情实体识别模型;张应成 等;《计算机工程》;20181201;第45卷(第05期);308-314 * |
基于主次关系特征的自动文摘方法;张迎 等;《计算机科学》;20200615;第47卷(第S1期);6-11 * |
基于文档结构与深度学习的金融公告信息抽取;黄胜 等;《计算机工程与设计》;20200116;第41卷(第01期);115-121 * |
Also Published As
Publication number | Publication date |
---|---|
CN112328555A (zh) | 2021-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112328555B (zh) | 一种招标文件的快速生成方法 | |
Esser et al. | Imagebart: Bidirectional context with multinomial diffusion for autoregressive image synthesis | |
CN107688849B (zh) | 一种动态策略定点化训练方法及装置 | |
CN113688244B (zh) | 基于神经网络的文本分类方法、系统、设备及存储介质 | |
US20210174193A1 (en) | Slot filling with contextual information | |
CN111783873B (zh) | 基于增量朴素贝叶斯模型的用户画像方法及装置 | |
CN109598387A (zh) | 基于双向跨模态注意力网络模型的股价预测方法及系统 | |
CN112926655B (zh) | 一种图像内容理解与视觉问答vqa方法、存储介质和终端 | |
CN117475038A (zh) | 一种图像生成方法、装置、设备及计算机可读存储介质 | |
US20240135610A1 (en) | Image generation using a diffusion model | |
CN115862747B (zh) | 一种序列-结构-功能耦合的蛋白质预训练模型构建方法 | |
CN112069827B (zh) | 一种基于细粒度主题建模的数据到文本生成方法 | |
CN114168707A (zh) | 一种面向推荐的情绪型对话方法 | |
CN114072816A (zh) | 用于神经主题建模中的多视图和多源迁移的方法和系统 | |
CN114817467A (zh) | 一种意图识别响应方法、装置、设备及存储介质 | |
CN115687610A (zh) | 文本意图分类模型训练方法、识别方法、装置、电子设备及存储介质 | |
CN117980915A (zh) | 用于端到端自监督预训练的对比学习和掩蔽建模 | |
CN114692624A (zh) | 一种基于多任务迁移的信息抽取方法、装置及电子设备 | |
CN114529917A (zh) | 一种零样本中文单字识别方法、系统、装置及存储介质 | |
US11941360B2 (en) | Acronym definition network | |
CN117521666A (zh) | 一种基于元学习扩散模型的限定域受限文本生成方法 | |
CN118071881A (zh) | 多模态图像编辑 | |
CN116484868A (zh) | 一种基于生成扩散模型的跨域命名实体识别方法及装置 | |
CN114880527B (zh) | 一种基于多预测任务的多模态知识图谱表示方法 | |
CN110059314B (zh) | 一种基于增强学习的关系抽取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20210415 Address after: 100031 No. 86 West Chang'an Avenue, Beijing, Xicheng District Applicant after: STATE GRID CORPORATION OF CHINA Applicant after: STATE GRID CHONGQING ELECTRIC POWER Co. Applicant after: STATE GRID CHONGQING TENDERING Co. Address before: No.20 Qingfeng North Road, Yubei District, Chongqing Applicant before: STATE GRID CHONGQING TENDERING Co. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |