CN112199114B - 一种基于自注意力机制的软件缺陷报告分配方法 - Google Patents

一种基于自注意力机制的软件缺陷报告分配方法 Download PDF

Info

Publication number
CN112199114B
CN112199114B CN202010683968.4A CN202010683968A CN112199114B CN 112199114 B CN112199114 B CN 112199114B CN 202010683968 A CN202010683968 A CN 202010683968A CN 112199114 B CN112199114 B CN 112199114B
Authority
CN
China
Prior art keywords
defect report
defect
layer
report
self
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010683968.4A
Other languages
English (en)
Other versions
CN112199114A (zh
Inventor
方景龙
吴伟玮
邵艳利
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deep Space Exploration Technology Beijing Co ltd
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202010683968.4A priority Critical patent/CN112199114B/zh
Publication of CN112199114A publication Critical patent/CN112199114A/zh
Application granted granted Critical
Publication of CN112199114B publication Critical patent/CN112199114B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/70Software maintenance or management
    • G06F8/73Program documentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/079Root cause analysis, i.e. error or fault diagnosis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Library & Information Science (AREA)
  • Quality & Reliability (AREA)
  • General Factory Administration (AREA)

Abstract

本发明涉及一种基于自注意力机制的软件缺陷报告分配方法。本发明根据缺陷跟踪系统中的缺陷报告,收集已经完成分配的缺陷报告,并利用神经网络与注意力机制充分挖掘缺陷报告中隐含的语义信息,计算开发人员与目标缺陷报告的匹配度,来推荐最合适的修复人员。本发明解决了传统缺陷报告分配技术依赖人工特征工程工作的问题,利用神经网络快速有效地对缺陷报告进行信息提取并分配,提高缺陷修复的效率,适用于大规模软件产品的开发以及维护。

Description

一种基于自注意力机制的软件缺陷报告分配方法
技术领域
本发明涉及一种基于神经网络和注意力机制的软件缺陷报告分配方法,具体为一种基于自注意力机制的软件缺陷报告分配方法。
背景技术
大型开源软件项目中,如Eclipse、Firefox等,随着规模的增大和版本的更新,会有大量的缺陷产生,管理和修复软件缺陷是一个耗时耗力并且难度较高的工作。软件使用者和开发人员利用缺陷追踪系统,如Bugzilla、Bugfree等,对软件缺陷报告进行提交和记录。质量管理人员会对这些提交了的缺陷报告进行严重程度估计和分配修复者等工作。其中,根据缺陷报告内容涉及的领域和知识,将该缺陷报告分配给适合的开发人员,此过程为缺陷报告的人员分配。及时并准确的对缺陷报告进行分配对软件质量保障和缺陷修复具有至关重要的意义。
在软件项目中不断出现的缺陷给软件开发带来了巨大的压力,并且缺陷修复的过程是极其耗时和非常容易出错的。根据多年来的经验,保障开源软件开发效率和降低成本的一个重要手段就是快速地修复软件中所出现的缺陷,提高缺陷分配的效率可以大大地降低相应的人力和时间成本。因此,需要使用基于深度学习的方法对缺陷报告进行自动化分配,把缺陷报告的文本信息作为训练数据,对应的修复人员看作标签,然后为新缺陷报告推荐最佳的修复人员。基于神经网络的方法将缺陷报告映射为关键词向量,其主要思想是,在高维空间中寻找缺陷的特征表示,对于特定的缺陷,具有相似开发经验及知识的人员更加有能力处理这些缺陷,因此采用神经网络能够有效地对新的缺陷报告进行分配。
深度学习中的注意力机制被广泛应用到的自然语言处理领域的各个任务中。注意力机制的本质来自于人类视觉注意力机制。即人类在感知事物时,视觉系统可以帮助我们过滤一些无效信息,根据需求观察感兴趣的部分。而在自然语言处理中常用注意力的计算方法可以被描述为:一个查询到一系列键值对的映射,这是一种能够把有限的注意力资源从大量信息中快速筛选出高价值信息的手段。
已有的缺陷报告分配方法中,往往需要大量的人工特征工程过程,这需要丰富的领域知识以及专业匹配度,并且没有考虑缺陷报告文本的语义信息,难以有效地适用于实际的软件开发和维护过程。
发明内容
本发明针对上述现有方法中存在的问题,提供了一种基于自注意力机制的软件缺陷报告分配方法,通用性和扩展性强,能高效并且准确地对缺陷报告进行人员分配,提高软件维护过程中的效率,适用于大规模软件产品的开发和维护。
本发明方法具体包括以下步骤:
步骤1、收集并整理软件项目的缺陷报告以及修复人员数据,获取软件缺陷报告的类别、项目、组件、摘要、详细描述以及修复该缺陷的开发人员;
步骤2、对缺陷报告数据进行预处理;
步骤3、利用基于自注意力机制的神经网络训练预处理后的历史缺陷报告,挖掘其中隐含的语义信息,并匹配缺陷的最佳分配对象;其具体过程为:
3-1.使用预训练的语言表示模型,即BERT;进行自注意力机制计算;
3-2.神经网络输入层,即Embedding层,采用了词嵌入、和位置嵌入两种嵌入向量;
3-2-1.词嵌入层是要将输入缺陷报告的各个词转换成固定维度的向量;缺陷报告文本输入词嵌入层之前,要先进行单词分割处理,在文本的开头插入[CLS]标记,在文本结尾插入[SEP]标记;
3-2-2.位置嵌入层表达缺陷报告文本中的单词顺序,用来代表缺陷报告的局部甚至是全局的结构;需要对缺陷报告中的单词位置信息进行编码,让模型捕获到不同位置的单词;
缺陷报告经过神经网络输入层,将得到的两种嵌入向量相加,输入到神经网络中间层,进行自注意力机制计算;
3-3神经网络中间层,即自注意力层,它是Transformer编码器的双向语言表示模型;基于此模型进行自注意力机制计算;自注意力层由6个相同的Transformer的编码器子层堆叠而成,每一层中由两个子层组成,第一个子层是多头自注意力层,第二个子层是位置敏感的全连接前向网络层,并且每一个子网络层都采用了残差连接和网络层正则化;3-4神经网络输出层,即softmax输出层;此层的神经单元个数为候选缺陷报告修复者的个数,输出看作此缺陷报告与每位候选缺陷报告修复者的概率;将输入层的[CLS]标记经过自注意力层计算后,与此层的神经单元全连接,经过softmax 计算后,输出每位候选修复者的概率。
作为优选,收集并整理软件项目的缺陷报告以及修复人员数据,其具体过程为:
首先,利用爬虫技术,从缺陷追踪系统中爬取软件项目的历史缺陷报告,选取页面中”Resolution”字段为”FIXED”的缺陷报告,其中包含了描述该缺陷的文本属性,包括类别、项目、组件、摘要、详细描述,以及修复该缺陷的开发人员,然后保存到本地,过滤属性或开发人员字段缺失的缺陷报告。
作为优选,对缺陷报告数据进行预处理;其具体如下:
首先,把每个缺陷报告的类别、项目、组件、摘要、详细描述,以及修复该缺陷的开发人员信息拼接在一起,组成一个文本,供模型进行特征提取;其中许多字段是缩写的术语词,这些缩写词对分配缺陷报告至关重要,而缩写词无法让模型很好地学习其特征,因此将常见的缩写词进行还原;
在缺陷报告的描述中,对缺陷报告中对连续的单词无法让模型有效的提取特征进行单词分割;
接着进行文本预处理工作,包括分词、去除停用词和词干提取,把清洗后的缺陷报告作为模型的训练数据。
本发明采用的技术方案与现有技术相比,具有以下有益效果:
1.在文本表示方面,现有的其他技术多用n-gram、tf-idf等文本表示方法,此类方法表示的文本十分稀疏且忽略了缺陷报告的词序信息。本发明利用嵌入层,将缺陷报告映射到高维空间中,丰富地表达了文本的信息,保留了词序信息,本发明将嵌入层中的段嵌入层删除,增加了实验效果的准确性。
2.与现有的机器学习方法相比,此发明不需要依赖专家知识与领域知识,节省了繁杂的特征工程工作。依靠神经网络与自注意力机制高效地提取缺陷报告中的特征。且计算简单,通用性和扩展性强,能够快速有效地对缺陷报告进行人员分配,提高缺陷修复的效率,适用大规模软件产品的开发和维护。
附图说明
图1为基于自注意力机制的神经网络缺陷报告分配模型;
图2是Eclipse插件开发环境JDT的缺陷报告示意图;
图3为多头自注意力层结构示意图;
图4为单头自注意力层结构示意图;
具体实施方式
图1是基于自注意力机制的软件缺陷报告分配方法的总体框架。本发明的输入是软件项目的历史缺陷报告各个属性和历史开发人员数据以及需要分配的缺陷报告各个属性数据,输出为针对当前缺陷报告的各个开发人员的推荐概率。本发明包含以下几个步骤:
1)整理软件项目的缺陷报告以及开发人员数据;
2)对收集完毕的历史缺陷报告数据进行预处理;
3)用预处理后的缺陷报告训练神经网络各层参数;
4)给定缺陷报告,计算该缺陷与开发人员的匹配程度;
5)对开发人员的匹配程度进行排序,推荐匹配程度高的开发人员。
进一步地,在步骤1中,整理软件缺陷项目的缺陷报告以及开发人员数据。首先,利用爬虫技术,从缺陷追踪数据库中收集软件项目的历史缺陷报告,收集缺陷报告的决议(Resolution)为已修复的(FIXED)缺陷报告。图2所示是一份已修复的缺陷报告截图,一份完整的缺陷报告包含以下主要内容:摘要、详细描述、所属产品、组件、缺陷报告的修复者以及提交者、缺陷报告的提交时间与修复时间,其中详细描述部分是缺陷报告的提交者对缺陷的具体描述,过滤属性或开发人员字段缺失的缺陷报告,并且把这些数据保存到本地。
整理后的缺陷报告包含的信息包括:摘要、详细描述、所属产品、组件、以及缺陷报告的修复者。
进一步地,本发明的第2个步骤是对收集完毕的历史数据进行预处理。在数据预处理阶段,把每个缺陷报告对应的摘要、详细描述、产品、组件信息拼接在一起,组成一个文本。然后进行自然语言预处理,将所有字母转换成小写,去除其中包含的html 字符。再进行分词操作,将非英文单词、停用词过滤掉,并且利用正则匹配去除标点符号,再对单词进行词形转换,例如,将“does”、“did”统一转换为“do”。并把缺陷报告中的缩写术语词还原成全拼形式,例如将“SWT”还原成“Standard Widget Toolkit”。最后,将缺陷报告中出现的错误信息还原成自然语言,例如对“org.eclipse.jface.viewers.AbstractTreeViewer.SetSelectionToWiget (AbstractTreeViewer.java:1505)”进行方法名切割,切割后的结果为“org eclipse jface viewers abstract tree viewer set selection to wigetabstract tree viewer java”。
进一步地,在步骤3中,神经网络训练参数包含以下部分:
嵌入层:需要对缺陷报告中单词的位置信息进行编码,并加入到词向量中,让模型捕获不同位置的单词。可以不同频率地使用正弦函数与余弦函数,
将位置p映射为一个dpos维的位置向量,这个向量的第i个元素的数值就是PEi(p)。
在位置p+k的向量可以表示成在位置p的向量的线性变换,这提供了表达相对位置信息的可能性。最后,将所求得的位置嵌入向量与词向量进行求和,得到带有位置信息的嵌入向量。
自注意力层:如图3所示,采用多头(Multi-Head)自注意力模型,其不仅仅只是计算一次注意力,而是多次并行地通过缩放的点积注意力。如图3所示,该模型将V、 K、Q通过三个投影矩阵进行映射,再把这个过程重复h次,得到h个头。然后将h次的缩放点积注意力结果进行拼接,最后进行一次线性变换,得到的值作为多头注意力的结果。可以看到,多头注意力的不同之处在于进行了h次计算而不是只计算一次,这样的目的在于可以允许模型在不同的表示子空间里学习到文本序列的相关信息。如图4所示,单个头的注意力计算方式如公式所示:
headi=Attention(QWi Q,KWi K,VWi V)
其中Wi Q、Wi K、Wi V是投影矩阵,
Figure RE-GDA0002781318750000051
通过多头注意力计算方式,最后得到的序列,即为所求的注意力值。
在多头注意力模型中,采用了缩放点积注意力机制。缩放点积注意力机制是多头注意力模型的核心。如图4所示,该模型的输入由维度为dk的查询(Query)、键(Key) 以及维度为dv的值(Value)组成。Q、K、V分别代表Query、Key、Value,最后的输出结果是一个的矩阵。为求Query与Key的相似度,为了避免其值过大,再进行缩放。最后通过将相似度与对应的值(Value)相乘,得到最终的注意力值。
进一步,在步骤4中,将历史缺陷报告训练神经网络完毕后,把待分配的缺陷报告经过同样的预处理方法,输入到神经网络中,不进行参数调整,进行自注意力层的计算,可以得到表征整个缺陷报告信息的向量[ClS]。将自注意力层计算后的[CLS]向量输入到softmax输出层。此[CLS]向量与代表每位待分配开发人员的神经元全连接,softmax公式如下所示:
Figure RE-GDA0002781318750000061
其中i代表第i位开发人员,此输出可以看作该缺陷报告与开发人员的匹配度。
进一步,在步骤5中,可以根据开发人员与缺陷报告的匹配度进行降序排序,完成缺陷报告分配。基于上一步骤中的匹配度从大到小对开发人员进行排序,排在前列的开发人员将被优先分配到此缺陷报告。

Claims (3)

1.一种基于自注意力机制的软件缺陷报告分配方法,其特征在于,包括如下步骤:
步骤1、收集并整理软件项目的缺陷报告以及修复人员数据,获取软件缺陷报告的类别、项目、组件、摘要、详细描述以及修复该缺陷的开发人员;
步骤2、对缺陷报告数据进行预处理;
步骤3、利用基于自注意力机制的神经网络训练预处理后的历史缺陷报告,挖掘其中隐含的语义信息,并匹配缺陷的最佳分配对象;其具体过程为:
3-1.使用预训练的语言表示模型,即BERT;进行自注意力机制计算;
3-2.神经网络输入层,即Embedding层,采用了词嵌入、和位置嵌入两种嵌入向量;
3-2-1.词嵌入层是要将输入缺陷报告的各个词转换成固定维度的向量;缺陷报告文本输入词嵌入层之前,要先进行单词分割处理,在文本的开头插入[CLS]标记,在文本结尾插入[SEP]标记;
3-2-2.位置嵌入层表达缺陷报告文本中的单词顺序,用来代表缺陷报告的局部甚至是全局的结构;需要对缺陷报告中的单词位置信息进行编码,让模型捕获到不同位置的单词;
缺陷报告经过神经网络输入层,将得到的两种嵌入向量相加,输入到神经网络中间层,进行自注意力机制计算;
3-3神经网络中间层,即自注意力层,它是Transformer编码器的双向语言表示模型;基于此模型进行自注意力机制计算;自注意力层由6个相同的Transformer的编码器子层堆叠而成,每一层中由两个子层组成,第一个子层是多头自注意力层,第二个子层是位置敏感的全连接前向网络层,并且每一个子网络层都采用了残差连接和网络层正则化;3-4神经网络输出层,即softmax输出层;此层的神经单元个数为候选缺陷报告修复者的个数,输出看作此缺陷报告与每位候选缺陷报告修复者的概率;将输入层的[CLS]标记经过自注意力层计算后,与此层的神经单元全连接,经过softmax计算后,输出每位候选修复者的概率。
2.根据权利要求1所述的一种基于自注意力机制的软件缺陷报告分配方法,其特征在于:收集并整理软件项目的缺陷报告以及修复人员数据,其具体过程为:
首先,利用爬虫技术,从缺陷追踪系统中爬取软件项目的历史缺陷报告,选取页面中”Resolution”字段为”FIXED”的缺陷报告,其中包含了描述该缺陷的文本属性,包括类别、项目、组件、摘要、详细描述,以及修复该缺陷的开发人员,然后保存到本地,过滤属性或开发人员字段缺失的缺陷报告。
3.根据权利要求1所述的一种基于自注意力机制的软件缺陷报告分配方法,其特征在于:对缺陷报告数据进行预处理;其具体如下:
首先,把每个缺陷报告的类别、项目、组件、摘要、详细描述,以及修复该缺陷的开发人员信息拼接在一起,组成一个文本,供模型进行特征提取;其中许多字段是缩写的术语词,这些缩写词对分配缺陷报告至关重要,而缩写词无法让模型很好地学习其特征,因此将常见的缩写词进行还原;
在缺陷报告的描述中,对缺陷报告中对连续的单词无法让模型有效的提取特征进行单词分割;
接着进行文本预处理工作,包括分词、去除停用词和词干提取,把清洗后的缺陷报告作为模型的训练数据。
CN202010683968.4A 2020-07-16 2020-07-16 一种基于自注意力机制的软件缺陷报告分配方法 Active CN112199114B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010683968.4A CN112199114B (zh) 2020-07-16 2020-07-16 一种基于自注意力机制的软件缺陷报告分配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010683968.4A CN112199114B (zh) 2020-07-16 2020-07-16 一种基于自注意力机制的软件缺陷报告分配方法

Publications (2)

Publication Number Publication Date
CN112199114A CN112199114A (zh) 2021-01-08
CN112199114B true CN112199114B (zh) 2022-05-03

Family

ID=74005487

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010683968.4A Active CN112199114B (zh) 2020-07-16 2020-07-16 一种基于自注意力机制的软件缺陷报告分配方法

Country Status (1)

Country Link
CN (1) CN112199114B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220350967A1 (en) * 2021-05-03 2022-11-03 Accenture Global Solutions Limited Utilizing machine learning and natural language processing to determine mappings between work items of various tools

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109522017A (zh) * 2018-11-07 2019-03-26 中山大学 一种基于神经网络和自注意力机制的网页截图代码生成方法
CN109918100A (zh) * 2019-01-25 2019-06-21 扬州大学 一种面向版本缺陷的基于修复模式的修复推荐方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9262851B2 (en) * 2014-05-27 2016-02-16 Oracle International Corporation Heat mapping of defects in software products
US11138392B2 (en) * 2018-07-26 2021-10-05 Google Llc Machine translation using neural network models

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109522017A (zh) * 2018-11-07 2019-03-26 中山大学 一种基于神经网络和自注意力机制的网页截图代码生成方法
CN109918100A (zh) * 2019-01-25 2019-06-21 扬州大学 一种面向版本缺陷的基于修复模式的修复推荐方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
T-Reader:一种基于自注意力机制的多任务深度阅读理解模型;郑玉昆等;《中文信息学报》;20181115(第11期);全文 *
结合自注意力机制的神经网络文本分类算法研究;贾红雨等;《计算机应用与软件》;20200212(第02期);全文 *

Also Published As

Publication number Publication date
CN112199114A (zh) 2021-01-08

Similar Documents

Publication Publication Date Title
CN110929149B (zh) 一种工业设备故障维修推荐方法和系统
CN111709235A (zh) 一种基于自然语言处理的文本数据统计分析系统及方法
CN112579707A (zh) 一种日志数据的知识图谱构建方法
CN110046356B (zh) 标签嵌入的微博文本情绪多标签分类方法
CN116541911B (zh) 一种基于人工智能的包装设计系统
CN113609305B (zh) 基于bert的影视作品地域知识图谱构建方法及系统
CN113962219A (zh) 面向电力变压器知识检索和问答的语义匹配方法及系统
CN112015902A (zh) 基于度量的元学习框架下的少次文本分类方法
CN112241623A (zh) 一种接触网施工技术文档内容自动生成装置及方法
CN113822026A (zh) 一种多标签实体标注方法
CN114238655A (zh) 企业关联关系识别方法、装置、设备及介质
CN112199114B (zh) 一种基于自注意力机制的软件缺陷报告分配方法
CN114969363A (zh) 一种基于知识图谱风险等级的数控机床安全部件分析方法
Kortum et al. Dissection of AI job advertisements: A text mining-based analysis of employee skills in the disciplines computer vision and natural language processing
CN116304115B (zh) 一种基于知识图谱的物资匹配替换方法和装置
CN113111158A (zh) 一种面向智能数据可视化的对话式问答实现方法
CN116362247A (zh) 一种基于mrc框架的实体抽取方法
CN115718807A (zh) 人员关系分析方法、装置、设备及存储介质
CN115407874A (zh) 一种基于神经网络的vr维修训练操作熟练度预测方法
CN115129842A (zh) 一种用于户外变电站的智能问答方法及置于户外的机器人
CN116975256B (zh) 抽水蓄能电站地下厂房施工过程多源信息的处理方法及系统
CN117172232B (zh) 审计报告生成方法、装置、设备和存储介质
CN111046785B (zh) 一种基于卷积神经网络的无人机巡检视频关键目标识别的方法
CN112686624B (zh) 一种学生工作岗位推荐的方法和装置
CN115660616A (zh) 一种基于知识图谱的电网生产安全管理方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20230707

Address after: 601, 6th Floor, Building 5, Courtyard 2, Qunming Hunan Road, No. 68 Shijingshan Road, Beijing, 100043

Patentee after: Deep Space Exploration Technology (Beijing) Co.,Ltd.

Address before: 310018 No. 2 street, Xiasha Higher Education Zone, Hangzhou, Zhejiang

Patentee before: HANGZHOU DIANZI University

TR01 Transfer of patent right