CN109213520A - 一种基于循环神经网络的注释点推荐方法及系统 - Google Patents

一种基于循环神经网络的注释点推荐方法及系统 Download PDF

Info

Publication number
CN109213520A
CN109213520A CN201811046983.7A CN201811046983A CN109213520A CN 109213520 A CN109213520 A CN 109213520A CN 201811046983 A CN201811046983 A CN 201811046983A CN 109213520 A CN109213520 A CN 109213520A
Authority
CN
China
Prior art keywords
annotation
source code
processing
code
filtered
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811046983.7A
Other languages
English (en)
Inventor
胡心宇
陈湘萍
黄袁
林谋广
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN201811046983.7A priority Critical patent/CN109213520A/zh
Publication of CN109213520A publication Critical patent/CN109213520A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/70Software maintenance or management
    • G06F8/73Program documentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Library & Information Science (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种基于循环神经网络的注释点推荐方法及系统。其中,该方法包括:遍历源代码文件,对源代码数据进行过滤、分类标注处理,获得每行由数个单词以空格为分割组成的代码数据;获取所述代码数据,进行特征提取、融合处理,获得代码数据特征向量;建立预测模型,对所述代码数据特征向量进行预测处理,获得注释点的位置,作为推荐结果推送给用户。实施本发明实施例,能够充分考虑和自动选取各种特征,从现有的注释判例中学习代码和注释点之间的复杂关系模型,从而预测注释点的位置,为开发者提供注释决策支持,对开发者规范注释进行有效约束。

Description

一种基于循环神经网络的注释点推荐方法及系统
技术领域
本发明涉及软件工程技术领域,具体涉及一种基于循环神经网络的注释点推荐方法及系统。
背景技术
代码注释是程序理解的辅助语言。由于代码语言与自然语言的差异性,在面对复杂的代码时,我们往往无法快速、准确地理解其含义。高质量的注释不仅能帮助我们准确理解代码,更是在软件维护活动中扮演着至关重要的角色。但是,受限于个人经验的不足和主观理解的偏差,程序员撰写的代码注释的质量通常良莠不齐,而且由于统一规范的缺失,注释撰写往往花费较大精力。因此许多学者尝试建立统一的代码注释规范,以此约束开发者进行高质量注释的撰写。
一部分学者试图通过建立适当的注释质量评估体系,来统一代码注释标准,以此规范开发者的注释撰写行为。但是,当前的注释质量评估体系并不统一,各种方法也各有优缺点。同时质量评估只是一种非实时的约束,用户往往需要额外的工作量以保证注释质量达标,不能真正地统一注释规范,提高注释质量。另一部分学者则是将研究重点放在了注释自动生成上,他们希望通过机器自动添加注释,在解放程序员的生产力的同时,也能够在统一的规范下生成注释。尽管不少学者为此做出了努力,但仍可以看到,自动生成注释在很多方面仍然存在不足,还是有人力不可替代的部分存在。
现有技术中有一种面向对象程序的注释质量评价和注释建议方法,该技术是通过遍历目标代码文件,提取代码文件中主类的注释和其所注释的类名、方法的注释和其所注释的方法名;根据关于主类注释的分析规则对主类文件中的注释部分与类名进行质量分析,并对不满足分析规则的注释给出相应的建议;根据关于方法注释的分析规则对方法文件中的注释部分与方法名进行质量分析,并对不在满足分析规则的注释给出相应得建议;根据上述的建议的数量来给出整体的质量评价。其缺点是主要通过人工选取方法名、方法体长度以及被调用次数等特征信息,来判断是否需要添加注释,考虑的因素不够充分,影响给出建议的有效性。
发明内容
本发明的目的是克服现有方法的不足,提出了一种基于循环神经网络的注释点推荐方法及系统。能够充分考虑和自动选取各种特征,从现有的注释判例中学习代码和注释点之间的复杂关系模型,从而预测注释点的位置,为开发者提供注释决策支持,对开发者规范注释进行有效约束。
为了解决上述问题,本发明提出了一种基于循环神经网络的注释点推荐方法,所述方法包括:
遍历源代码文件,对源代码数据进行过滤、分类标注处理,获得每行由数个单词以空格为分割组成的代码数据;
获取所述代码数据,进行特征提取、融合处理,获得代码数据特征向量;
建立预测模型,对所述代码数据特征向量进行预测处理,获得注释点的位置,作为推荐结果推送给用户。
优选地,所述的对源代码数据进行过滤、分类标注处理的步骤包括:
遍历源代码文件,对源代码数据进行过滤处理,去除冗余信息,获得过滤后的源代码;
对过滤后的源代码中采用驼峰命名的标识符进行分割处理;
对过滤后的源代码中单词进行词性还原处理;
对过滤后的源代码中出现频率低的单词,进行选择删除处理,获得每行由数个单词以空格为分割组成的代码数据;
获取所述代码数据,进行分类处理,获得训练集代码数据及测试集代码数据;
对所述训练集代码数据进行标注处理,获得有标注的代码数据,其中,对于每一行代码,若该行代码后有行注释则标注为1,否则标注为0;对于每一块注释,若某个注释为单独的一行或几行,则视为其下紧邻一行的注释标注为1。
优选地,所述的进行特征提取、融合处理的步骤包括:
对过滤后的源代码中的单词进行编码处理,使每一行单词对应的向量相加,获得该行的语义特征向量;
对过滤后的源代码进行词法分析,获得每行代码对应的此法成分后进行编码处理,使每行词法成分对应向量化并相加,获得该行的语法特征向量;
对语义特征向量及语法特征向量进行融合,获得高维特征矩阵后进行降维处理,获得指定维数的特征向量。
相应地,本发明也公开了一种基于循环神经网络的注视点推荐系统,如图2所示,该系统包括:
数据预处理模块,用于对源代码进行过滤、分类标注处理;
特征提取模块,用于根据语义和语法两个角度,逐行提取过滤后的源代码数据的特征,并对二者进行特征融合处理;
预测模块,用于建立预测模型,对所述代码数据特征向量进行预测处理;
推荐模块,用于获取预测的注释点位置,作为推荐结果推送给用户。
优选地,所述的数据预处理模块包括:
数据清洗单元,用于对源代码进行过滤处理;
分割单元,用于对过滤后的源代码中采用驼峰命名的变量、类名、方法进行分割处理;
词性还原单元,用于对过滤后的源代码中单词进行词性还原处理;
分类单元,用于对过滤后的源代码进行分类处理,获得训练集代码、测试集代码;
优选地,所述的数据预处理模块还包括样本标注单元,用于所述的训练集代码进行标注处理。
优选地,所述的分割单元还用于对过滤后的源代码中出现频率低的单词进行筛选删除。
优选地,所述的特征提取模块包括:
语义特征提取单元,用于对过滤后的源代码中的单词进行编码处理,使每一行单词对应的向量相加;
语法特征提取单元,用于对过滤后的源代码进行词法分析,获得每行代码对应的此法成分后进行编码处理,使每行词法成分对应向量化并相加;
特征融合单元,用于对语义特征向量及语法特征向量进行融合,获得高维特征矩阵后进行降维处理。
实施本发明实施例,从注释决策支持角度出发,这样做一方面能够有效地统一注释规范,在适当的位置添加注释信息,另一方面也给了开发者一定的自由度:开发者可以凭借自己的经验和领域知识在决策外的地方添加其它信息,也可以在决策内进一步决定是否添加注释,更重要的是,相比自动生成的代码注释,由程序员撰写的往往是更加易于理解的自然语言;同时,从语义和语法两方面对数据进行特征提取,采用深度学习技术自行学习注释点的位置与代码之间的潜在关系,减少了人工选取特征造成的片面性,给出的推荐更有说服力。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本发明实施例的一种基于循环神经网络的注释点推荐方法的流程图;
图2是本发明实施例的一种基于循环神经网络的注释点推荐系统的结构示意图;
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1是本发明实施例的一种基于循环神经网络的注释点推荐方法的流程图,如图1所示,该方法包括:
S1,遍历源代码文件,对源代码数据进行过滤、分类标注处理,获得每行由数个单词以空格为分割组成的代码数据;
S2,获取所述代码数据,进行特征提取、融合处理,获得代码数据特征向量;
S3,建立预测模型,对所述代码数据特征向量进行预测处理,获得注释点的位置,作为推荐结果推送给用户。
对S1作进一步说明:
S1中所述的对源代码数据进行过滤、分类标注处理的步骤包括:
S11,遍历源代码文件,对源代码数据进行过滤处理,去除冗余信息,获得过滤后的源代码;
S12,对过滤后的源代码中采用驼峰命名的标识符进行分割处理;
S13,对过滤后的源代码中单词进行词性还原处理;
S14,对过滤后的源代码中出现频率低的单词,进行选择删除处理,获得每行由数个单词以空格为分割组成的代码数据;
S15,获取所述代码数据,进行分类处理,获得训练集代码数据及测试集代码数据;
S16,对所述训练集代码数据进行标注处理,获得有标注的代码数据,其中,对于每一行代码,若该行代码后有行注释则标注为1,否则标注为0;对于每一块注释,若某个注释为单独的一行或几行,则视为其下紧邻一行的注释标注为1。
对S2作进一步说明:
S2中所述的进行特征提取、融合处理的步骤包括:
S21,对过滤后的源代码中的单词进行编码处理,使每一行单词对应的向量相加,获得该行的语义特征向量;
S22,对过滤后的源代码进行词法分析,获得每行代码对应的此法成分后进行编码处理,使每行词法成分对应向量化并相加,获得该行的语法特征向量;
S23,对语义特征向量及语法特征向量进行融合,获得高维特征矩阵后进行降维处理,获得指定维数的特征向量。
S21中所述对过滤后的源代码中的单词进行编码处理及S202中所述获得每行代码对应的此法成分后进行编码处理是采用词嵌入技术进行处理;另外,S22中所述获得每行代码对应的此法成分后进行编码处理步骤也可以采用独照编码方法进行处理。
对S3作进一步说明:
进行S3中所述建立预测模型的步骤之后,会利用训练集代码输入所述预测模型中进行训练,训练完成后的预测模型才正式投入使用。
所述的预测模型主要采用多层循环神经网络及其变体,利用已有的注释点判例数据进行训练,学习注释点位置与代码之间的潜在关系,得到预测模型。循环神经网络常用于自然语言处理,他能充分考虑输入数据的前后关系,适用于处理具有文本、音频等包含顺序信息的数据。代码的本质是一种语言,因此选用循环神经网络能取得较好的效果。
相应地,本发明也公开了一种基于循环神经网络的注视点推荐系统,如图2所示,该系统包括:
数据预处理模块,用于对源代码进行过滤、分类标注处理;
特征提取模块,用于根据语义和语法两个角度,逐行提取过滤后的源代码数据的特征,并对二者进行特征融合处理;
预测模块,用于建立预测模型,对所述代码数据特征向量进行预测处理;
推荐模块,用于获取预测的注释点位置,作为推荐结果推送给用户。
进一步地,所述的数据预处理模块包括:
数据清洗单元,用于对源代码进行过滤处理;
分割单元,用于对过滤后的源代码中采用驼峰命名的变量、类名、方法进行分割处理;
词性还原单元,用于对过滤后的源代码中单词进行词性还原处理;
分类单元,用于对过滤后的源代码进行分类处理,获得训练集代码、测试集代码;
具体地,所述的数据预处理模块还包括样本标注单元,用于所述的训练集代码进行标注处理。
具体地,所述的分割单元还用于对滤后的源代码中出现频率低的单词进行筛选删除。
进一步地,所述的特征提取模块包括:
语义特征提取单元,用于对过滤后的源代码中的单词进行编码处理,使每一行单词对应的向量相加;
语法特征提取单元,用于对过滤后的源代码进行词法分析,获得每行代码对应的此法成分后进行编码处理,使每行词法成分对应向量化并相加;
特征融合单元,用于对语义特征向量及语法特征向量进行融合,获得高维特征矩阵后进行降维处理。
实施本发明实施例,从注释决策支持角度出发,这样做一方面能够有效地统一注释规范,在适当的位置添加注释信息,另一方面也给了开发者一定的自由度:开发者可以凭借自己的经验和领域知识在决策外的地方添加其它信息,也可以在决策内进一步决定是否添加注释,更重要的是,相比自动生成的代码注释,由程序员撰写的往往是更加易于理解的自然语言;同时,从语义和语法两方面对数据进行特征提取,采用深度学习技术自行学习注释点的位置与代码之间的潜在关系,减少了人工选取特征造成的片面性,给出的推荐更有说服力。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、磁盘或光盘等。
另外,以上对本发明实施例所提供的一种基于循环神经网络的注释点推荐方法进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (8)

1.一种基于循环神经网络的注释点推荐方法,其特征在于,所述方法包括:
遍历源代码文件,对源代码数据进行过滤、分类标注处理,获得每行由数个单词以空格为分割组成的代码数据;
获取所述代码数据,进行特征提取、融合处理,获得代码数据特征向量;
建立预测模型,对所述代码数据特征向量进行预测处理,获得注释点的位置,作为推荐结果推送给用户。
2.如权利要求1所述的一种基于循环神经网络的注释点推荐方法,其特征在于,所述的对源代码数据进行过滤、分类标注处理的步骤包括:
遍历源代码文件,对源代码数据进行过滤处理,去除冗余信息,获得过滤后的源代码;
对过滤后的源代码中采用驼峰命名的标识符进行分割处理;
对过滤后的源代码中单词进行词性还原处理;
对过滤后的源代码中出现频率低的单词,进行选择删除处理,获得每行由数个单词以空格为分割组成的代码数据;
获取所述代码数据,进行分类处理,获得训练集代码数据及测试集代码数据;
对所述训练集代码数据进行标注处理,获得有标注的代码数据,其中,对于每一行代码,若该行代码后有行注释则标注为1,否则标注为0;对于每一块注释,若某个注释为单独的一行或几行,则视为其下紧邻一行的注释标注为1。
3.如权利要求1所述的一种基于循环神经网络的注释点推荐方法,其特征在于,所述的进行特征提取、融合处理的步骤包括:
对过滤后的源代码中的单词进行编码处理,使每一行单词对应的向量相加,获得该行的语义特征向量;
对过滤后的源代码进行词法分析,获得每行代码对应的此法成分后进行编码处理,使每行词法成分对应向量化并相加,获得该行的语法特征向量;
对语义特征向量及语法特征向量进行融合,获得高维特征矩阵后进行降维处理,获得指定维数的特征向量。
4.一种基于循环神经网络的注视点推荐系统,其特征在于,该系统包括:
数据预处理模块,用于对源代码进行过滤、分类标注处理;
特征提取模块,用于根据语义和语法两个角度,逐行提取滤后的源代码数据的特征,并对二者进行特征融合处理;
预测模块,用于建立预测模型,对所述代码数据特征向量进行预测处理;
推荐模块,用于获取预测的注释点位置,作为推荐结果推送给用户。
5.如权利要求4所述的一种基于循环神经网络的注释点推荐系统,其特征在于,所述的数据预处理模块包括:
数据清洗单元,用于对源代码进行过滤处理;
分割单元,用于对过滤后的源代码中采用驼峰命名的变量、类名、方法进行分割处理;
词性还原单元,用于对过滤后的源代码中单词进行词性还原处理;
分类单元,用于对过滤后的源代码进行分类处理,获得训练集代码、测试集代码。
6.如权利要求4所述的一种基于循环神经网络的注释点推荐系统,其特征在于,所述的数据预处理模块还包括样本标注单元,用于所述的训练集代码进行标注处理。
7.如权利要求6所述的一种基于循环神经网络的注释点推荐系统,其特征在于,所述的分割单元还用于对过滤后的源代码中出现频率低的单词进行筛选删除。
8.如权利要求4所述的一种基于循环神经网络的注释点推荐系统,其特征在于,所述的特征提取模块包括:
语义特征提取单元,用于对过滤后的源代码中的单词进行编码处理,使每一行单词对应的向量相加;
语法特征提取单元,用于对过滤后的源代码进行词法分析,获得每行代码对应的此法成分后进行编码处理,使每行词法成分对应向量化并相加;
特征融合单元,用于对语义特征向量及语法特征向量进行融合,获得高维特征矩阵后进行降维处理。
CN201811046983.7A 2018-09-08 2018-09-08 一种基于循环神经网络的注释点推荐方法及系统 Pending CN109213520A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811046983.7A CN109213520A (zh) 2018-09-08 2018-09-08 一种基于循环神经网络的注释点推荐方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811046983.7A CN109213520A (zh) 2018-09-08 2018-09-08 一种基于循环神经网络的注释点推荐方法及系统

Publications (1)

Publication Number Publication Date
CN109213520A true CN109213520A (zh) 2019-01-15

Family

ID=64987860

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811046983.7A Pending CN109213520A (zh) 2018-09-08 2018-09-08 一种基于循环神经网络的注释点推荐方法及系统

Country Status (1)

Country Link
CN (1) CN109213520A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113383316A (zh) * 2019-01-17 2021-09-10 维萨国际服务协会 用于学习程序嵌入的深度学习模型
US11262985B2 (en) 2020-03-10 2022-03-01 International Business Machines Corporation Pretraining utilizing software dependencies
WO2022121146A1 (zh) * 2020-12-07 2022-06-16 中山大学 一种代码片段重要性的判断方法和装置
CN117170673A (zh) * 2023-08-03 2023-12-05 浙江大学 面向二进制代码文本注释自动化生成方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030221186A1 (en) * 2002-05-21 2003-11-27 International Business Machines Corporation Descriptive variables while debugging
CN108491208A (zh) * 2018-01-31 2018-09-04 中山大学 一种基于神经网络模型的代码注释分类方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030221186A1 (en) * 2002-05-21 2003-11-27 International Business Machines Corporation Descriptive variables while debugging
CN108491208A (zh) * 2018-01-31 2018-09-04 中山大学 一种基于神经网络模型的代码注释分类方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
黄袁等: "融合结构与语义特征的代码注释决策支持方法", 《软件学报》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113383316A (zh) * 2019-01-17 2021-09-10 维萨国际服务协会 用于学习程序嵌入的深度学习模型
US11900250B2 (en) 2019-01-17 2024-02-13 Visa International Service Association Deep learning model for learning program embeddings
US11262985B2 (en) 2020-03-10 2022-03-01 International Business Machines Corporation Pretraining utilizing software dependencies
WO2022121146A1 (zh) * 2020-12-07 2022-06-16 中山大学 一种代码片段重要性的判断方法和装置
CN117170673A (zh) * 2023-08-03 2023-12-05 浙江大学 面向二进制代码文本注释自动化生成方法及装置
CN117170673B (zh) * 2023-08-03 2024-05-17 浙江大学 面向二进制代码文本注释自动化生成方法及装置

Similar Documents

Publication Publication Date Title
Goodrich et al. Assessing the factual accuracy of generated text
CN109213520A (zh) 一种基于循环神经网络的注释点推荐方法及系统
Ghosh et al. Fracking sarcasm using neural network
Chen et al. Logic2Text: High-fidelity natural language generation from logical forms
Kinnebrew et al. Identifying Learning Behaviors by Contextualizing Differential Sequence Mining with Action Features and Performance Evolution.
KR102360309B1 (ko) 온라인 데이터에 대한 인공지능 기반의 감정 분류 장치 및 방법
Carl et al. Models of the translation process
CN111553138B (zh) 用于规范内容结构文档的辅助写作方法及装置
CA2807494A1 (en) Method and system for integrating web-based systems with local document processing applications
Allison et al. Intersectionality and social location in organization studies, 1990-2009
Lukosch et al. Utilizing verbally told stories for informal knowledge management
CN107688583A (zh) 创建用于自然语言处理装置的训练数据的方法和设备
CN110297902A (zh) 一种基于多任务深度学习的商品评价分析方法
De Paoli Can Large Language Models emulate an inductive Thematic Analysis of semi-structured interviews? An exploration and provocation on the limits of the approach and the model
CN116150404A (zh) 一种基于联合学习的教育资源多模态知识图谱构建方法
Nguyen et al. Seagull: A bird’s-eye view of the evolution of technical games research
Rodriguez et al. Information seeking in the spirit of learning: A dataset for conversational curiosity
Trace Maintaining records in context? Disrupting the theory and practice of archival classification and arrangement
John et al. A visual approach for the comparative analysis of character networks in narrative texts
Zhou et al. Assisting in requirements goal modeling: a hybrid approach based on machine learning and logical reasoning
Liyanage et al. Augmenting reddit posts to determine wellness dimensions impacting mental health
Qin et al. The Synergy between Data and Multi-Modal Large Language Models: A Survey from Co-Development Perspective
Liu et al. Dynamic sliding window for meeting summarization
Memon et al. Deciphering and analyzing software requirements employing the techniques of natural language processing
CN110852104B (zh) 家谱的识别方法及装置、存储介质、处理器

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190115