CN115169227B - 设计概念生成网络构建方法及概念方案自动生成方法 - Google Patents

设计概念生成网络构建方法及概念方案自动生成方法 Download PDF

Info

Publication number
CN115169227B
CN115169227B CN202210780085.4A CN202210780085A CN115169227B CN 115169227 B CN115169227 B CN 115169227B CN 202210780085 A CN202210780085 A CN 202210780085A CN 115169227 B CN115169227 B CN 115169227B
Authority
CN
China
Prior art keywords
importance
sequence
design
decoder
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210780085.4A
Other languages
English (en)
Other versions
CN115169227A (zh
Inventor
赵武
赵乾
於辉
于淼
张凯
郭鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan University
Original Assignee
Sichuan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan University filed Critical Sichuan University
Priority to CN202210780085.4A priority Critical patent/CN115169227B/zh
Publication of CN115169227A publication Critical patent/CN115169227A/zh
Priority to PCT/CN2022/125347 priority patent/WO2024007476A1/zh
Priority to US18/120,434 priority patent/US20240005130A1/en
Application granted granted Critical
Publication of CN115169227B publication Critical patent/CN115169227B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y04INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
    • Y04SSYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
    • Y04S10/00Systems supporting electrical power generation, transmission or distribution
    • Y04S10/50Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computer Hardware Design (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Geometry (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)

Abstract

本发明公开了一种设计概念生成网络构建方法及概念方案自动生成方法,该设计概念生成网络包括Transformer编码器,Transformer解码器,重要度约束矩阵生成模块,重要度约束嵌入层,跨注意力层和优化模块。本发明在Transformer的注意力机制基础上,巧妙地引入了词汇重要度约束,记录生成的文本序列中包含的输入词汇约束信息,能够有效保证生成概念方案的可靠性和有效性;并有利于捕获潜在的、语义层面的重要度信息,实现语义层面的知识推理。

Description

设计概念生成网络构建方法及概念方案自动生成方法
技术领域
本发明属于产品设计技术领域,涉及产品设计中的概念方案自动生成,尤其涉及构建一种设计概念生成网络,并基于该生成网络自动生成概念方案。
背景技术
在先设计数据是重要的创新源泉。作为产品创新概念设计的核心,概念方案生成就是从在先设计数据中吸收有价值的设计知识,并进一步迁移、重组跨领域设计知识以产生创造性概念方案的过程。随着大数据、大知识时代的到来,应用于概念设计的工程数据正在日益增长,给概念方案生成的研究带也来了丰富的创新源泉,充分将其应用于概念方案生成阶段,将有利于扩大设计空间,产生更多的设计概念。但也面对更严峻的挑战,主要表现在两个方面:一方面,随着设计数据的爆炸式增长,应用于概念设计的知识量也在逐渐增加,以设计师的人工经验和设计启发式为主对大量的设计知识进行推理、迁移和重组以产生创造性的概念方案变得越来越困难;另一方面,设计知识主要来源于不同领域的现有产品设计方案的描述,往往呈现出复杂多样性,如功能、结构、科学效应、案例等丰富的知识类型,并且知识间关联关系也是更加复杂、灵活的。如何根据设计问题或设计约束筛选出有价值的设计知识,并通过组合多类型的跨领域设计知识以产生新的概念方案变得越来越难。
随着深度学习技术的快速发展,许多自动生成技术被开发并成功完成各种智能任务,如:机器翻译、图像生成、语音识别等。最新的深度生成模型也已经在工程设计领域的多个方面取得重要突破,如结构优化、材料设计、形状合成等。也存在一些研究使用拓扑优化和生成对抗网络等生成模型来自动生成图像和空间形状等形式的设计概念。这些设计概念要么过于抽象,难以理解;要么过于详细,不适合早期阶段的概念方案设计探索。
研究发现,文本是最通用的、最常见的设计概念描述形式,能够覆盖丰富的、有价值的设计知识。如何通过简单、有效的模型从海量跨领域文本数据中学习设计知识间潜在的推理、迁移和重组等组合规律,生成适用于早期阶段的概念方案,是目前产品设计需要丞待解决的一个重要问题。
发明内容
针对目前产品设计领域缺少概念方案自动生成方法的技术现状,本发明的目的旨在提供一种设计概念生成网络构建方法及基于该生成网络的概念方案自动生成方法,能够根据设计问题,从海量文本数据中自适应学习跨领域设计知识的推理、迁移、重组等潜在的规律,自动生成文本形式的概念方案,从而减少对设计师人工经验的依赖,提高设计效率。
本发明的发明思路为:本发明提供一种设计概念生成网络(Design ConceptGeneration Network,DCGN),进一步进行网络的训练和学习,最后通过向训练完成的DCGN网络中输入设计问题自动生成概念方案。
为达到上述目的,本发明采用以下技术方案来实现。
本发明提供的设计概念生成网络构建方法,是在Transformer网络的自注意力机制基础上,巧妙地引入了词汇重要度约束,构建一种新的生成网络;该设计概念生成网络包括Transformer编码器,Transformer解码器,重要度约束矩阵生成模块,重要度约束嵌入层,跨注意力层和优化模块;本发明使用训练用样本集数据对设计概念生成网络进行训练;所述训练用样本集数据包括若干样本,每个样本包括输入词汇和目标序列;所述设计概念生成网络构建方法包括以下步骤:
S1依据样本中输入词汇,利用Transformer编码器得到编码器隐藏层特征;
S2依据样本中目标序列,利用Transformer解码器得到解码器隐藏层特征;
S3依据样本中输入词汇和目标序列,利用重要度约束矩阵生成模块获取重要度约束矩阵;
S4利用重要度约束嵌入层将重要度约束矩阵映射至分布式向量空间,得到两个输入词汇重要度嵌入特征;
S5依据编码器隐藏层特征、解码器隐藏层特征和两个输入词汇重要度嵌入特征,利用跨注意力层获取生成序列;
S6依据生成序列和目标序列构建损失函数,并基于损失函数利用优化模块对网络参数进行调整;然后重复步骤S1-S6,直至损失函数满足设定要求,得到设计概念生成网络。
上述步骤S1中,Transformer编码器通过自注意力层将离散的输入词汇
Figure BDA0003727403170000021
(m表示当前样本中输入词汇的数目,n表示输入词汇嵌入向量的维度)映射至分布式的特征表示,即得到编码器隐藏层特征
Figure BDA0003727403170000022
(d表示隐藏层的神经元个数,本发明中Transformer编码器和Transformer解码器隐藏层的神经元个数设计为相同):
Figure BDA0003727403170000023
式中,SA()表示空间注意力;
Figure BDA0003727403170000024
分别表示Transformer编码器自注意力层的权重矩阵。x是离散的、无序的,因此在计算he时不需要并入图中的位置嵌入,输出的he将不包含任何位置信息。当计算得到的he向量维度m小于M时,使用0向量补齐,使得
Figure BDA0003727403170000031
M≥m>1,M表示整个训练用样本集中样本包含的最多输入词汇数目。
上述步骤S2中,Transformer解码器通过自注意力层将前一时刻的目标序列y:t-1=[y0,y1,…,yt-1]映射至分布式的特征表示,即得到解码器隐藏层特征
Figure BDA0003727403170000032
Figure BDA0003727403170000033
式中,SA()表示空间注意力;
Figure BDA0003727403170000034
分别表示Transformer编码器自注意力层的权重矩阵;y:t-1表示训练过程中(t-1)时刻的目标序列。
上述公式(1)和(2)中的SA()函数可通过如下公式计算:
Figure BDA0003727403170000035
对于编码器,K表示
Figure BDA0003727403170000036
V表示
Figure BDA0003727403170000037
Q表示
Figure BDA0003727403170000038
对于解码器,K表示
Figure BDA0003727403170000039
V表示
Figure BDA00037274031700000310
Q表示
Figure BDA00037274031700000311
上述步骤S3中,本发明中重要度约束矩阵用C表示,其是输入词汇信息与不同时刻的目标序列
Figure BDA00037274031700000312
共同作用的结果,可以表示为:
Figure BDA00037274031700000313
式中,y0为初始时刻给定的序列,可以用特殊字符例如<EOS>来表示生成;
Figure BDA00037274031700000314
表示目标序列y:t中包含的输入词汇重要度约束向量,即C:t;y:t表示样本中t时刻以前(包含t时刻)的目标序列;T表示样本中目标序列长度。
Figure BDA00037274031700000315
可计算为:
Figure BDA00037274031700000316
式中,·表示向量或矩阵点积运算;
Figure BDA00037274031700000317
为输入x在目标序列y:t中相对重要度向量,可计算为:
Figure BDA00037274031700000318
式中,
Figure BDA00037274031700000319
表示第i个输入词汇在目标序列y:t中相对重要度;wi表示第i个输入词汇在目标序列y:t中绝对重要度;wmin表示输入词汇在目标序列y:t中的最小绝对重要度;wmax表示输入词汇在目标序列y:t中的最大绝对重要度;[]为取整运算。
经过上述正则化处理后的相对重要度值
Figure BDA0003727403170000041
为整数。
另外,
Figure BDA0003727403170000042
表示目标序列y:t中包含的输入词汇约束;当目标序列y:t中包含了输入词汇的第i个词时,则向量ct中的第i个元素为1,可以通过如下方式计算:
Figure BDA0003727403170000043
所以根据式(3)计算得到的
Figure BDA0003727403170000044
为相对重要度组成的整数向量。
上述步骤S4中,本发明中引入两个新的重要度约束嵌入矩阵
Figure BDA0003727403170000045
Figure BDA0003727403170000046
将上述构建的重要度约束矩阵C映射至分布式向量空间,得到两个输入词汇重要度嵌入特征
Figure BDA0003727403170000047
Figure BDA0003727403170000048
所以,在生成的第t个时刻,有:
Figure BDA0003727403170000049
Figure BDA00037274031700000410
式中,t∈{1,2,…,T}。另外,式(7)、(8)根据相对重要度
Figure BDA00037274031700000411
索引重要度约束矩阵
Figure BDA00037274031700000412
Figure BDA00037274031700000413
相应的行,缺省行置零,得到特征
Figure BDA00037274031700000414
上述步骤S5中,跨注意力层(Cross-Attention layer,CA),融合处理编码器隐藏层特征(he)、解码器隐藏层特征
Figure BDA00037274031700000415
和两个输入词汇重要度嵌入特征(本发明中优选为两个输入词汇重要度嵌入特征
Figure BDA00037274031700000416
),得到当前时刻t的生成序列
Figure BDA00037274031700000417
Figure BDA00037274031700000418
式中,
Figure BDA00037274031700000419
表示解码器自注意力层的权重矩阵。
在具体实现方式中,CA函数中第j个元素可表示为:
Figure BDA00037274031700000420
式中,
Figure BDA0003727403170000051
Figure BDA0003727403170000052
随着时间的推移,重复上述步骤S2-S5,当t=T时,DCGN得到了最终文本生成序列
Figure BDA0003727403170000053
对训练用样本集中的样本,重复上述步骤S1-S5,便可得到不同样本对应的生成序列。
步骤S6中,对于给定的N个样本
Figure BDA0003727403170000054
依据生成序列和目标序列构建的DCGN的损失函数为:
Figure BDA0003727403170000055
式中,
Figure BDA0003727403170000056
表示在t时刻的生成序列
Figure BDA0003727403170000057
和对应时刻的目标序列y:t之间误差,通常采用交叉熵计算。
基于上述损失函数,通过Adam优化算法对网络参数进行调整优化,之后重复步骤S1-S6,直至损失函数满足设定要求,例如损失函数趋于稳定、基本不变,便完成了对设计概念生成网络的构建。这里的网络参数主要是指用于获取编码器隐藏层特征的编码器自注意力层的权重矩阵、用于获取解码器隐藏层特征的解码器自注意力层的权重矩阵和重要度约束嵌入矩阵。重要度约束嵌入矩阵的初始化参数可以通过随机初始化实现。用于获取编码器隐藏层特征的编码器自注意力层的权重矩阵和用于获取解码器隐藏层特征的解码器自注意力层的权重矩阵的初始化参数可以通过随机初始化实现;在优选实现方式中,编码器自注意力层的权重矩阵和解码器自注意力层的权重矩阵是通过利用常识文本数据库对常规Transformer网络(例如T5(Text-to-Text Transfer Transformer)、GPT(GenerativePre-trained Transformer)等)进行训练得到,这样可以使本发明提供的设计概念生成网络具有理解常识知识的能力,确保设计概念生成网络DCGN生成的设计概念描述的流畅性。再利用本发明提供的方法进一步设计概念生成网络DCGN进行训练,能够使该网络模型具有工程设计知识的智能推理能力,确保生成的设计概念描述的合理性。
本发明进一步提供了一种概念方案自动生成方法,使用构建的设计概念生成网络按照以下步骤执行操作:
L1,依据输入词汇,利用Transformer编码器得到编码器隐藏层特征;
L2,依据上一时刻生成序列,利用Transformer解码器得到当前时刻解码器隐藏层特征;
L3,依据样本中输入词汇和上一时刻生成序列,利用重要度约束矩阵生成模块获取重要度约束矩阵;
L4,利用重要度约束嵌入层将重要度约束矩阵映射至分布式向量空间,得到两个输入词汇重要度嵌入特征;
L5,依据编码器隐藏层特征、解码器隐藏层特征和两个输入词汇重要度嵌入特征,利用跨注意力层获取生成序列。
上述步骤L1中,输入词汇可以由来自于设计问题构建的关键词组成,也可以由一个以上设计激励组成,也可以来自于设计需求构建的关键词组成,或者至少上述两种输入词汇来源的组合。
上述步骤L2中,依据上一时刻生成序列,按照以下公式计算得到当前时刻解码器隐藏层特征
Figure BDA0003727403170000061
Figure BDA0003727403170000062
式中,y:t-1表示生成过程中t时刻解码器的输入序列,
Figure BDA0003727403170000063
表示初始时刻给定的序列,可以用特殊字符例如<EOS>来表示生成,
Figure BDA0003727403170000064
表示前一时刻生成序列。
上述步骤L3中,概念方案生成阶段,约束矩阵是根据每一时刻生成的实际序列按照时间步骤计算得到的。
依据样本中输入词汇和上一时刻生成序列,按照以下公式计算得到重要度约束矩阵C:t-1
Figure BDA0003727403170000065
式中,x表示输入词汇,y:t-1表示生成过程中t时刻解码器的输入序列,
Figure BDA0003727403170000066
为输入x在解码器输入序列y:t-1中相对重要度向量,可以按照上述公式(5)计算得到,其中输入词汇在解码器输入序列y:t-1中的绝对重要度可以按照输入词汇重要性顺序事先给定,也可以均设置为一致。
上述步骤L4中,使用的是两个输入词汇重要度嵌入特征
Figure BDA0003727403170000067
按照上述公式(7)和(8)计算得到当前时刻两个输入词汇重要度嵌入特征
Figure BDA0003727403170000068
上述步骤L5中,按照公式(9)-(10)计算得到当前时刻生成序列。
重复上述步骤L1-L5,至生成序列长度满足设定要求或者遇到结束标识符<EOS>,得到最终生成序列,即概念方案。
与现有技术相比,本发明具有以下有益效果:
1)本发明在Transformer的注意力机制基础上,巧妙地引入了词汇重要度约束,构建了一种新的设计概念生成网络,
2)本发明提出的词汇重要度约束矩阵,记录了生成的文本序列中包含的输入词汇约束信息,能够有效保证生成概念方案的可靠性和有效性;
3)本发明提出了重要度约束嵌入层,将构建的重要度约束矩阵映射至分布式向量空间,使用连续的实数向量表示输入词汇在生成序列或目标序列中的相对重要性,有利于捕获潜在的、语义层面的重要度信息,实现语义层面的知识推理;
4)本发明构建的跨注意力层,将输入词汇重要度嵌入特征映射至生成的序列中,以监督生成包含输入词汇重要度信息的文本序列。
附图说明
图1本发明实施例中设计概念生成网络构建及使用框架示意图。
图2为本发明实施例中设计概念生成网络构建方法原理示意图。
图3为本发明实施例中概念方法生成过程示意图。
具体实施方式
结合附图对本发明各实施例的技术方案进行清楚、完整的描述,显然,所描述实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所得到的所有其它实施例,都属于本发明。
实施例1
如图1所示,本实施例首先是使用网络爬虫技术进行获取文本数据并进行预处理;然后进行DCGN模型的构建,进一步进行模型的训练和学习;最后通过向训练完成的DCGN模型中输入设计关键词作为输入词汇,自动生成概念方案。
本实施例首先利用常规网络爬虫技术从网站上爬取海量的文本数据,比如说科技论文、专利等,并从收集的文本数据中筛选出一定长度的句子作为本研究的语料库。然后进行文本数据预处理,进而使用关键词提取算法从每个句子中获取一定数目的关键词(排除停用词)及其重要度。最后将每一个句子与其对应的关键词信息组成样本对,构建样本对组成的全体样本集,用于后续的网络训练,每个样本以提取的关键词作为输入序列,对应的句子作为目标序列。
(一)设计概念生成网络的构建
本实施例在Transformer网络的自注意力机制基础上,巧妙地引入了词汇重要度约束,构建一种新的生成网络;该设计概念生成网络包括Transformer编码器,Transformer解码器,重要度约束矩阵生成模块,重要度约束嵌入层,跨注意力层和优化模块。Transformer编码器用于获取编码器隐藏层特征;Transformer解码器用于获取解码器隐藏层特征;重要度约束矩阵生成模块用于生成重要度约束矩阵;重要度约束嵌入层用于将重要度约束矩阵映射至分布式向量空间,得到两个输入词汇重要度嵌入特征;跨注意力层用于获取生成序列;优化模块用于依据损失函数对网络参数进行优化。
本实施例提供的设计概念生成网络构建方法,主要是通过对训练用样本集进行训练学习,得到用于获取编码器隐藏层特征的编码器自注意力层的权重矩阵、用于获取解码器隐藏层特征的解码器自注意力层的权重矩阵和两个重要度约束嵌入矩阵。
本实施例利用常识文本数据库(选自维基百科)对常规Transformer网络(T5(Text-to-Text Transfer Transformer))进行训练得到用于获取编码器隐藏层特征的编码器自注意力层的权重矩阵和用于获取解码器隐藏层特征的解码器自注意力层的权重矩阵初始化参数。两个重要度约束嵌入矩阵通过随机初始化得到其初始化参数。
1、使用常识文本数据库对T5网络进行训练
这里利用常识文本数据库对T5网络进行训练,得到编码器自注意力层的权重矩阵
Figure BDA0003727403170000081
和解码器自注意力层的权重矩阵
Figure BDA0003727403170000082
关于编码器和解码器的解释,如前所述。对T5网络训练的具体实现过程参见文献Exploring the Limits ofTransfer Learning with a Unified Text-to-Text Transformer(Colin Raffel et al,Journal of Machine Learning Research 21(2020)1-67。以训练后的T5网络中的编码器自注意力层的权重矩阵
Figure BDA0003727403170000083
和解码器自注意力层的权重矩阵
Figure BDA0003727403170000084
作为本发明设计概念生成网络相应初始化参数。
2、设计概念生成网络构建
如图2所示,本实施例提供的设计概念生成网络构建方法包括以下步骤:
S1,依据样本中输入词汇,利用Transformer编码器得到编码器隐藏层特征。
本步骤依据样本中的输入词汇x={x1,x2,…,xm},按照前面公式(1)计算得到编码器隐藏层特征he
S2,依据样本中目标序列,利用Transformer解码器得到解码器隐藏层特征。
本步骤依据样本中的目标序列y:t-1=[y0,y1,…,yt-1],按照前面公式(2)计算得到t时刻解码器隐藏层特征
Figure BDA0003727403170000085
S3,依据样本中输入词汇和目标序列,利用重要度约束矩阵生成模块获取重要度约束矩阵。
重要度约束矩阵C由前面给出的公式(3)确定。
这里是依据输入词汇和t-1时刻的目标序列y:t得到t-1时刻的重要度约束矩阵,即
Figure BDA0003727403170000091
可以按照前面公式(4)-(6)计算得到。
下面用一个具体实例展示在DCGN训练过程中C的详细计算过程。假设DCGN的输入为三个关键词构成的集合{“sensor”,“device”,“sowing”},生成的目标序列为“a sensordevice for determing a position of seeds while sowing.”。假设输入词汇在目标序列中的重要度为w=[0.9,0.7,0.5],且M=5,则根据公式(4)可计算相对重要度向量为
Figure BDA0003727403170000092
该值代表着这三个输入词汇在目标序列的相对重要度。接下来说明C的计算步骤,如表1所示:
a)在开始生成起始符<EOS>时,该时刻所对应的目标序列中不包含任何输入词汇,所以此时c0为全零向量。由式(4)计算的
Figure BDA0003727403170000093
也为全零向量,对应表1中第一列数值;
b)因为第二个生成的目标词为“a”,该时刻的目标序列中仍不包含任何输入词汇,,所以此时c1为全零向量。由式(4)计算的
Figure BDA0003727403170000094
也为全零向量,对应表1中第二列数值;
c)因为第三个生成的目标词为“sensor”,该时刻的目标序列中仅包含输入词汇中的“sensor”,所以有c2=[1;0;0],再由公式(4)可计算
Figure BDA0003727403170000095
对应表1中第三列数值;
d)因为第四个生成的目标词为“device”,该时刻的目标序列中包含输入词汇中的“sensor”和“device”,所以有c3=[1;1;0],再由公式(4)可计算
Figure BDA0003727403170000096
对应表1中第四列数值;
e)依次类推,直到产生结束符<EOS>。
表1 DCGN网络构建过程中C的生成过程
Figure BDA0003727403170000097
S4,利用重要度约束嵌入层将重要度约束矩阵映射至分布式向量空间,得到两个输入词汇重要度嵌入特征。
本步骤中,按照公式(7)和(8)计算得到t时刻两个输入词汇重要度嵌入特征
Figure BDA0003727403170000101
Figure BDA0003727403170000102
S5,依据编码器隐藏层特征、解码器隐藏层特征和两个输入词汇重要度嵌入特征,利用跨注意力层获取生成序列。
本步骤中,按照公式(9)和(10)计算得到t时刻的生成序列
Figure BDA0003727403170000103
随着时间的推移,重复上述步骤S2-S5,当t=T时,DCGN得到了最终文本生成序列
Figure BDA0003727403170000104
对训练用样本集给定的N个样本
Figure BDA0003727403170000105
重复上述步骤S1-S5,便可得到N个样本对应的生成序列。
S6,依据生成序列和目标序列构建损失函数,并基于损失函数对网络参数进行调整;然后重复步骤S1-S6,直至损失函数满足设定要求,得到设计概念生成网络。
本步骤中,对于给定的N个样本,按照公式(11)计算得到DCGN的损失函数。基于该损失函数,通过常规Adam优化算法对网络参数进行调整优化,之后重复步骤S1-S6,直至损失函数满足设定要求,例如损失函数趋于稳定、基本不变,便完成了对设计概念生成网络的构建。
DCGN网络模型经过充分训练之后,就具备了知识表达与推理的能力,能够自适应地吸收、迁移、重组跨领域设计知识。在该阶段,将定义良好的设计问题或有价值的知识激励等输入至训练完成的DCGN中,就能够自动生成相关的设计概念描述。DCGN网络模型通过组合不同领域的设计知识,生成的设计概念中不仅包含设计输入信息,而且确保了所生成的设计概念的新颖性和创造性。
(二)设计概念生成网络的测试。
下面通过输入设计问题(即关键词)来检验所提出的概念方案自动生成方法的有效性和实用性。
本实施例提供的概念方案自动生成方法,使用构建的设计概念生成网络按照以下步骤执行操作:
L1,依据输入词汇,利用Transformer编码器得到编码器隐藏层特征。
本步骤中,按照上述公式(1)计算得到编码器隐藏层特征he
L2,依据上一时刻生成序列,利用Transformer解码器得到当前时刻解码器输隐藏层特征。
本步骤中,按照上述公式(12)计算得到解码器隐藏层特征
Figure BDA0003727403170000111
L3,依据样本中输入词汇和上一时刻生成序列,利用重要度约束矩阵生成模块获取重要度约束矩阵。
本步骤中,按照公式(13)计算得到重要度约束矩阵C:t-1
本实施例中,输入词汇在解码器输入序列y:t-1中的绝对重要度均设置为一致,wi取值为1。
L4,利用重要度约束嵌入层将重要度约束矩阵映射至分布式向量空间,得到两个输入词汇重要度嵌入特征。
本步骤中,使用的是两个输入词汇重要度嵌入特征
Figure BDA0003727403170000112
按照上述公式(7)和(8)计算得到当前时刻两个输入词汇重要度嵌入特征
Figure BDA0003727403170000113
L5,依据编码器隐藏层特征、解码器隐藏层特征和两个输入词汇重要度嵌入特征,利用跨注意力层获取生成序列。
本步骤中,按照公式(9)-(10)计算得到当前时刻生成序列。
重复上述步骤L1-L5,至生成序列长度满足设定要求或者遇到结束标识符<EOS>,得到最终生成序列,即概念方案。
因此,具体的概念方案生成阶段是上一时刻的输出词汇将作为当前时刻输入的新增部分,依次生成新的词汇,直到遇到结束标识符<EOS>,其过程如图3所示。以x={drone,deliver,life,preserver}作为输入词汇,以特殊字符例<EOS>来表示初始时刻生成序列
Figure BDA0003727403170000114
重复上述步骤L1-L5,直至遇到结束标识符<EOS>,得到生成序列
Figure BDA0003727403170000115
Figure BDA0003727403170000116
在生成阶段C是根据每一时刻生成的实际序列按照时间步计算的,跟目标序列无关,这与训练阶段是完全不同的。
下面列举不同输入词汇来源生成概念方案的具体实例:
1、本案例的设计问题是为沿海地区的居民提供可食用的水源。为了更准确、简洁地表达设计问题,邀请了10位机械工程专业的研究生同学,使用有限个关键词定义该设计问题。考虑到沿海地区日照、光线充足的优势,设计团队一致同意使用“净化”(purification或purify)、“海水淡化”(desalination或desalinate)、“太阳的”(solar)、“海水”(seawater)和“饮用”(drink)关键词来定义该设计问题。通过组合不同的关键词作为设计输入,利用构建的DCGN网络按照上述概念方案自动生成方法能自动生成相应的设计概念,结果如表2所示。自动生成的设计概念中提供了更加具体、可行的设计概念,例如:发明一种用于净化海水为饮用水的净化系统,或者使用太阳能来淡化海水,用于生产罐装饮用水或饮料制品。这些设计概念为沿海地区的居民或企业提供了产品开发早期的设计构想。
表2使用不同的设计问题关键词作为输入自动生成的概念方案
Figure BDA0003727403170000121
2、本发明所涉及的设计问题也可以由设计激励组成。在产品创新概念设计过程中,设计激励提供了丰富的、有价值的设计灵感,在传统的人工生成概念方案过程中,由设计激励到概念方案的往往是依赖设计师丰富的经验知识,并且生成概念方案的效率很低,对于缺乏经验的新手设计师该过程就变得非常困难。本实施例以获取的关于无人机的一些设计激励如表3所示。通过组合不同的设计激励作为DCGN网络模型的输入,自动生成的概念方案如表4所示。由于组合种类很多,这里仅展示了一部分有价值的概念方案并进行分析。例如:
(1)通过组合设计激励“drone”、“bio”、“radar”和“rescue”,DCGN网络自动生成了设计概念“a drone rescue radar system is disclosed that is capable ofdetecting the presence of an animal in the vicinity of the drone using bio”。
(2)通过组合设计激励“drone”、“fire”、“ground”和“data”,DCGN网络自动生成了设计概念“the drone may also be configured to receive ground fire data fromthe ground drone and to determine a location of the fire in response todetecting the resulting fire.”,以及“the drone may also be configured toreceive ground fire data from the ground drone and to determine alocation ofthe fire in response to determining the terrain”。
表3无人机案例中检索的设计激励(不分先后顺序)
Figure BDA0003727403170000131
表4无人机案例上组合不同设计激励自动生成的设计概念
Figure BDA0003727403170000132
Figure BDA0003727403170000141
3、进一步地为了充分补充所涉及的设计问题,有一部分设计问题可以由设计需求来定义的。在产品设计的早期阶段,设计需求对于确定新产品的设计方向至关重要。在线产品评论数据为分析设计需求提供了准确、可靠和真实的信息,且易于访问。这里从某电商平台采用常规爬虫技术提取了某款奶瓶消毒柜的20918条用户评论文本,通过前面提供的数据预处理流程,分析得到了所包含的关键词和相应的词频,结果如表5所示。分析发现:用户主要表达了功能、消毒、容量、温度等方面的明确需求。为了应用设计需求得到设计问题,这里使用关键词“消毒”(disinfection或sterilization)、“温度”(temperature)、“功能”(function)、“容量”(capacity)作为DCGN网络模型的设计问题,自动生成的概念方案如表6所示。容易发现,使用不同的输入关键词组合,生成的概念方案也不相同。更重要的是,所有的自动生成的概念方案中均包含所输入的设计问题关键词,而且生成了一些可行的、有创意的概念方案,例如使用离子交换器(ion exchanger)来提升杀菌消毒能力,在一定程度上满足了设计需求。
表5在线用户评论数据中频率较高的前30个需求关键词
Figure BDA0003727403170000151
表6使用不同的设计需求关键词作为输入自动生成的设计概念
Figure BDA0003727403170000152
综上所述,如果由设计师对这些设计问题进行思考,仅仅依靠人工经验来产生概念方案,不仅难以创造出具有创新的概念方案,而且效率也会很低。本发明针对产品概念方案生成阶段以人工经验为主的跨领域设计知识迁移和重组难、自动生成设计概念方案难的问题,提出了基于设计概念生成网络(DCGN)的概念方案自动生成的方法,DCGN能够从海量的文本数据中自适应地学习跨领域设计知识的推理、迁移、重组等潜在的规律,并根据设计问题自动生成产品概念方案,不仅减轻了人工生成概念方案的负担,而且提高了设计效率,为智能化概念设计提供了新思路。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。

Claims (7)

1.一种设计概念生成网络构建方法,其特征在于,该设计概念生成网络包括Transformer编码器,Transformer解码器,重要度约束矩阵生成模块,重要度约束嵌入层,跨注意力层和优化模块;所述设计概念生成网络构建方法包括以下步骤:
S1依据样本中输入词汇,利用Transformer编码器得到编码器隐藏层特征;
S2依据样本中目标序列,利用Transformer解码器得到解码器隐藏层特征;
S3依据样本中输入词汇和目标序列,利用重要度约束矩阵生成模块获取重要度约束矩阵;本步骤中,用
Figure FDA0004219555340000011
表示目标序列y:t中包含的输入词汇重要度约束向量,即C:t
Figure FDA0004219555340000012
计算为:
Figure FDA0004219555340000013
式中,·表示向量或矩阵点积运算;
Figure FDA0004219555340000014
为输入x在目标序列y:t中相对重要度向量,计算为:
Figure FDA0004219555340000015
式中,
Figure FDA0004219555340000016
表示第i个输入词汇在目标序列y:t中相对重要度;wi表示第i个输入词汇在目标序列y:t中绝对重要度;wmin表示输入词汇在目标序列y:t中的最小绝对重要度;wmax表示输入词汇在目标序列y:t中的最大绝对重要度;[]为取整运算;M≥m>1,M表示整个训练用样本集中样本包含的最多输入词汇数目;
Figure FDA0004219555340000017
表示目标序列y:t中包含的输入词汇约束;当目标序列y:t中包含了输入词汇的第i个词汇时,则向量ct中的第i个元素为1,通过如下方式计算:
Figure FDA0004219555340000018
式中,xi表示输入词汇x中的第i个输入词汇;
S4利用重要度约束嵌入层将重要度约束矩阵映射至分布式向量空间,得到两个输入词汇重要度嵌入特征;具体的,引入两个重要度约束嵌入矩阵
Figure FDA0004219555340000019
Figure FDA00042195553400000110
将构建的重要度约束矩阵映射至分布式向量空间,得到两个输入词汇重要度嵌入特征
Figure FDA00042195553400000111
Figure FDA00042195553400000112
在生成的第t个时刻,有:
Figure FDA00042195553400000113
Figure FDA0004219555340000021
S5依据编码器隐藏层特征、解码器隐藏层特征和两个输入词汇重要度嵌入特征,利用跨注意力层获取生成序列;具体的,跨注意力层融合处理编码器隐藏层特征he、解码器隐藏层特征
Figure FDA0004219555340000022
和两个输入词汇重要度嵌入特征
Figure FDA0004219555340000023
得到当前时刻t的生成序列
Figure FDA0004219555340000024
Figure FDA0004219555340000025
式中,
Figure FDA0004219555340000026
表示解码器自注意力层的权重矩阵;
CA函数中第j个元素表示为:
Figure FDA0004219555340000027
式中,
Figure FDA0004219555340000028
Figure FDA0004219555340000029
i=0,1,…,M-1;j=0,1,…,d-1;l=0,1,…,d-1;()T表示转置运算;
S6依据生成序列和目标序列构建损失函数,并基于损失函数利用优化模块对网络参数进行调整;然后重复步骤S1-S6,直至损失函数满足设定要求,得到设计概念生成网络。
2.根据权利要求1所述的设计概念生成网络构建方法,其特征在于,步骤S1中,Transformer编码器按照以下公式得到编码器隐藏层特征he
Figure FDA00042195553400000210
式中,x表示输入词汇;SA()表示空间注意力;We K、We V、We Q分别表示Transformer编码器自注意力层的权重矩阵。
3.根据权利要求1所述的设计概念生成网络构建方法,其特征在于,步骤S2中,Transformer解码器通过自注意力层将前一时刻的目标序列y:t-1=[y0,y1,…,yt-1]映射至分布式的特征表示,即得到解码器隐藏层特征
Figure FDA00042195553400000211
Figure FDA00042195553400000212
式中,SA()表示空间注意力;
Figure FDA00042195553400000213
分别表示Transformer编码器自注意力层的权重矩阵。
4.根据权利要求1所述的设计概念生成网络构建方法,其特征在于,步骤S6中,对于给定的N个样本
Figure FDA0004219555340000031
依据生成序列和目标序列构建的损失函数为:
Figure FDA0004219555340000032
式中,
Figure FDA0004219555340000033
表示在t时刻的生成序列
Figure FDA0004219555340000034
和对应时刻的目标序列y:t之间误差。
5.一种概念方案自动生成方法,其特征在于,使用权利要求1至4任一方法构建的设计概念生成网络按照以下步骤执行操作:
L1,依据输入词汇,利用Transformer编码器得到编码器隐藏层特征;
L2,依据上一时刻生成序列,利用Transformer解码器得到当前时刻解码器隐藏层特征;
L3,依据样本中输入词汇和上一时刻生成序列,利用重要度约束矩阵生成模块获取重要度约束矩阵;
L4,利用重要度约束嵌入层将重要度约束矩阵映射至分布式向量空间,得到两个输入词汇重要度嵌入特征;
L5,依据编码器隐藏层特征、解码器隐藏层特征和两个输入词汇重要度嵌入特征,利用跨注意力层获取生成序列。
6.根据权利要求5所述的概念方案自动生成方法,其特征在于,步骤L1中,输入词汇由来自于设计问题构建的关键词组成,或者由一个以上设计激励组成,或者由设计需求构建的关键词组成,或者至少两种输入词汇来源的组合。
7.根据权利要求5或6所述的概念方案自动生成方法,其特征在于,步骤L2中,依据上一时刻生成序列,按照以下公式计算得到当前时刻解码器隐藏层特征
Figure FDA0004219555340000035
Figure FDA0004219555340000036
式中,y:t-1表示生成过程中t时刻解码器的输入序列,
Figure FDA0004219555340000037
Figure FDA0004219555340000038
表示初始时刻给定的序列,
Figure FDA0004219555340000039
表示前一时刻生成序列。
CN202210780085.4A 2022-07-04 2022-07-04 设计概念生成网络构建方法及概念方案自动生成方法 Active CN115169227B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202210780085.4A CN115169227B (zh) 2022-07-04 2022-07-04 设计概念生成网络构建方法及概念方案自动生成方法
PCT/CN2022/125347 WO2024007476A1 (zh) 2022-07-04 2022-10-14 设计概念生成网络构建方法及概念方案自动生成方法
US18/120,434 US20240005130A1 (en) 2022-07-04 2023-03-13 Method for constructing design concept generation network (dcgn) and method for automatically generating conceptual scheme

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210780085.4A CN115169227B (zh) 2022-07-04 2022-07-04 设计概念生成网络构建方法及概念方案自动生成方法

Publications (2)

Publication Number Publication Date
CN115169227A CN115169227A (zh) 2022-10-11
CN115169227B true CN115169227B (zh) 2023-07-07

Family

ID=83490491

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210780085.4A Active CN115169227B (zh) 2022-07-04 2022-07-04 设计概念生成网络构建方法及概念方案自动生成方法

Country Status (2)

Country Link
CN (1) CN115169227B (zh)
WO (1) WO2024007476A1 (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115169227B (zh) * 2022-07-04 2023-07-07 四川大学 设计概念生成网络构建方法及概念方案自动生成方法
CN115659852B (zh) * 2022-12-26 2023-03-21 浙江大学 一种基于离散潜在表示的布局生成方法及装置
CN118332268B (zh) * 2024-06-14 2024-10-18 国网山东省电力公司滨州市沾化区供电公司 一种分布式电力数据的处理方法、系统、电子设备及介质
CN118550188B (zh) * 2024-07-29 2024-10-01 合肥工业大学 一种建筑结构最优控制力求解方法、应用及装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107622047B (zh) * 2017-09-04 2020-11-27 北京航空航天大学 一种设计决策知识的提取和表达方法
CN109062937B (zh) * 2018-06-15 2019-11-26 北京百度网讯科技有限公司 训练描述文本生成模型的方法、生成描述文本的方法及装置
CN110442705B (zh) * 2019-04-23 2021-10-12 北京理工大学 一种基于概念指针网络的摘要自动生成方法
CN110390103B (zh) * 2019-07-23 2022-12-27 中国民航大学 基于双编码器的短文本自动摘要方法及系统
CN110532328B (zh) * 2019-08-26 2023-04-07 哈尔滨工程大学 一种文本概念图构造方法
CN110619043A (zh) * 2019-08-30 2019-12-27 西南电子技术研究所(中国电子科技集团公司第十研究所) 基于动态词向量的自动文本摘要生成方法
US11526679B2 (en) * 2020-04-24 2022-12-13 Microsoft Technology Licensing, Llc Efficient transformer language models with disentangled attention and multi-step decoding
US11468239B2 (en) * 2020-05-22 2022-10-11 Capital One Services, Llc Joint intent and entity recognition using transformer models
CN112347242B (zh) * 2020-11-11 2024-06-18 北京沃东天骏信息技术有限公司 摘要生成方法、装置、设备及介质
CN112434525A (zh) * 2020-11-24 2021-03-02 平安科技(深圳)有限公司 模型推理加速方法、装置、计算机设备及存储介质
CN113128206B (zh) * 2021-04-26 2022-04-19 中国科学技术大学 基于单词重要性加权的问题生成方法
CN114089834B (zh) * 2021-12-27 2024-07-12 杭州电子科技大学 一种基于时间-通道级联Transformer网络的脑电识别方法
CN115169227B (zh) * 2022-07-04 2023-07-07 四川大学 设计概念生成网络构建方法及概念方案自动生成方法

Also Published As

Publication number Publication date
WO2024007476A1 (zh) 2024-01-11
CN115169227A (zh) 2022-10-11

Similar Documents

Publication Publication Date Title
CN115169227B (zh) 设计概念生成网络构建方法及概念方案自动生成方法
CN108009285B (zh) 基于自然语言处理的林业生态环境人机交互方法
CN110516245A (zh) 细粒度情感分析方法、装置、计算机设备及存储介质
CN106682220A (zh) 一种基于深度学习的在线中医文本命名实体识别方法
CN109766427B (zh) 一种基于协同注意力的虚拟学习环境智能问答方法
CN110222163A (zh) 一种融合cnn与双向lstm的智能问答方法及系统
CN112559702B (zh) 基于Transformer的土木建筑信息领域自然语言问题生成方法
CN110413785A (zh) 一种基于bert和特征融合的文本自动分类方法
CN104598611B (zh) 对搜索条目进行排序的方法及系统
CN107662617B (zh) 基于深度学习的车载交互控制算法
CN106484681A (zh) 一种生成候选译文的方法、装置及电子设备
CN112990296A (zh) 基于正交相似度蒸馏的图文匹配模型压缩与加速方法及系统
CN109977250A (zh) 融合语义信息和多级相似性的深度哈希图像检索方法
CN110851566A (zh) 一种改进的可微分网络结构搜索的方法
CN106897254A (zh) 一种网络表示学习方法
CN110188348A (zh) 一种基于深度神经网络的中文语言处理模型及方法
CN110457661A (zh) 自然语言生成方法、装置、设备及存储介质
CN106934458A (zh) 基于深度学习的多层自动编码方法及系统
CN110135498A (zh) 一种基于深度进化神经网络的图像识别方法
Zhao et al. Synchronously improving multi-user English translation ability by using AI
CN111598252B (zh) 基于深度学习的大学计算机基础知识解题方法
CN113177393B (zh) 改进针对网页结构理解的预训练语言模型的方法和装置
CN117932066A (zh) 一种基于预训练的“提取-生成”式答案生成模型及方法
CN115564049B (zh) 一种双向编码的知识图谱嵌入方法
CN108959467B (zh) 一种基于强化学习的问句和答案句相关度的计算方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant