CN115345258B - 一种命名实体识别模型训练方法、电子设备及存储介质 - Google Patents
一种命名实体识别模型训练方法、电子设备及存储介质 Download PDFInfo
- Publication number
- CN115345258B CN115345258B CN202211257520.1A CN202211257520A CN115345258B CN 115345258 B CN115345258 B CN 115345258B CN 202211257520 A CN202211257520 A CN 202211257520A CN 115345258 B CN115345258 B CN 115345258B
- Authority
- CN
- China
- Prior art keywords
- data
- entity
- weight
- batch
- entityl
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Complex Calculations (AREA)
Abstract
本发明涉及人工智能技术领域,具体涉及一种命名实体识别模型训练方法、电子设备及存储介质,所述方法包括:通过f个批处理样本训练命名实体识别模型,其中第j个批处理样本batchj通过对n个数据集data进行采样得到,命名实体模型包含m个分类器,data包含m个实体类型,其中,第L个分类器对应训练第L个实体类型;该方法在对data采样时增加data_weight来控制在获取batchj时每个数据集的采样权重,提升数量少的实体类型所在的数据集在训练过程中的采样权重,进而提高数量少的实体类型的识别准确率。
Description
技术领域
本发明涉及人工智能技术领域,特别是涉及一种命名实体识别模型训练方法、电子设备及存储介质。
背景技术
在命名实体识别任务中,实体类型的标注准确率直接影响着实体识别模型的准确率,所述标注准确率会被数据集的采样方法、实体的数量等因素影响;现有的对实体的采样一般采取随机采样,即对所有的实体所在的数据集采取同等比例且同等概率的采样,导致在模型训练时各个实体的训练量与数据集的实体数量呈正相关,这种采样方法会使实体数量少的数据集不能得到足够的训练次数,命名实体识别的准确率低。
CN114021565A中公开了一种命名实体识别模型的训练方法及装置,所述方法通过获取多个训练任务一一对应的多组数据集,其中,多组数据集中的每组数据集中包括训练集和验证集;对于每组数据集中的训练集和验证集,通过该训练集训练初始模型,并通过该验证集确定经该训练集训练后的初始模型的训练损失;但是上述现有技术也存在着以下技术问题:所述方法采用不同数量的数据集直接进行模型训练,数据集中数量少的实体类型参与的模型训练次数少,会造成数量少的实体识别准确率低。
发明内容
针对上述技术问题,本发明采用的技术方案为:一种命名实体识别模型训练方法,方法通过f个批处理样本batch={batch1,batch2,…,batchj,…,batchf}训练命名实体识别模型,其中,batchj为第j个批处理样本,j的取值范围为1到f,命名实体识别模型包括m个分类器,batchj通过对n个数据集data={data1,data2,…,datai,…,datan}进行采样得到,其中,datai为第i个数据集,i的取值范围为1到n;batchj的采样步骤包括:
S100,获取采样权重data_weight={data_weight1,data_weight2,…,data_weighti,…,data_weightn},其中,data_weighti为第i个采样权重,i的取值范围为1到n;data_weight满足:data_weight1+data_weight2+…+data_weightn=1;其中,data_weighti与subi成正相关,subi表示数据集datai包含的实体数量di和实体权重entity_qi的乘积,实体权重entity_qi与ei entityL成负相关,ei entityL为datai中实体类型为第L个实体类型的实体数量,m为data中包含的实体类型数量,1≤L≤m。
S200,根据data_weight的比例将(0,1]区间划分为n个区间{in1,in2,…,ini,…,inn},其中,ini为第i个区间,i的取值范围为1到n,ini对应data_weighti。
S300,获取一个(0,1)之间的随机数s,并确定s所在的区间ini。
S400,根据ini对应的data_weighti获取对应的datai,datai中包含di个实体{en1,en2,…,enp,…,endi},其中,enp为datai中第p个实体,p的取值范围为i到di。
S500,获取enp,p为随机数s落入区间ini的次数。
S600,重复步骤S300-S500,将获取的enp存储到batchj中,当k=batch_size时,结束重复步骤S300-S500;其中,k为batchj中的实体数量,batch_size为batchj中能存储实体数量的最大值。
本发明至少具有以下有益效果:对数据集采样时增加data_weight来控制每个batch的数据集采样比例,并按照n个data_weight的比例将(0,1]区间划分为多个子区间,随机数s分布在每个子区间上的概率能够代表该区间对应的数据集datai被选中的概率,data_weight与数据集实体数量有关,通过提升实体数量少的数据集在训练过程中的采样频次,提升了数量少的实体类型在训练过程中的出现频次,进而提高数量少的实体类型的识别准确率。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的命名实体识别模型训练方法的框图;
图2为本发明实施例提供的获取批处理样本batchj的流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1示出了本发明实施例提供的一种命名实体识别模型训练方法,通过f个批处理样本batch={batch1,batch2,…,batchj,…,batchf}训练命名实体识别模型,其中,batchj为第j个批处理样本,j的取值范围为1到f,命名实体识别模型包括m个分类器,batchj通过对n个数据集data={data1,data2,…,datai,…,datan}进行采样得到,其中,datai为第i个数据集,i的取值范围为1到n。
其中,命名实体识别模型为BERT模型,BERT模型支持多个数据集输入数据,不同数据集可具有不同类型的实体,能完成多实体多数据集的实体类型识别问题。
其中,命名实体识别模型包含m个相互独立的分类器,不同分类器在模型中对应训练不同的实体类型。可选的,分类器为决策树、逻辑回归、朴素贝叶斯、神经网络,能够把数据集中的实体映射到实体类型中的某一个,从而可以应用于对数据集中某一个实体类型的模型学习训练。
其中,data包含m个实体类型entity={entity1,entity2,…,entityL,…,entitym},其中,entityL为data中第L个实体类型,L的取值范围为1到m;entityL对应输入到第L个分类器中进行模型训练。
例如,使用开源数据集对命名实体识别模型进行训练,表1示出了收集的17545条开源文本数据,分为四个数据集{data1,data2.data3,data4},data1中标注了物品、账号等12种实体类型,data2中标注了物品、区域、组织等11种实体类型,data3中标注了账号、人物、方式等19种实体类型,data4中标注了物品、账号、人物、区域、组织等23种实体类型。
表1数据集标注情况
数据集 | 实体类型标注情况 |
<![CDATA[data<sub>1</sub>]]> | 该数据集标注了物品、账号等12种实体类型 |
<![CDATA[data<sub>2</sub>]]> | 该数据集标注了物品、区域、组织等11种实体类型 |
<![CDATA[data<sub>3</sub>]]> | 该数据集标注了账号、人物、方式等19种实体类型 |
<![CDATA[data<sub>4</sub>]]> | 该数据集标注了物品、账号、人物、区域、组织等23种实体类型 |
对开源数据集采样之后,将batch输入到命名实体识别模型的m个分类器中,分别对m个实体类型进行训练;具体的,某个分类器只对该分类器对应的实体类型进行提取训练,而对于该训练器对应的实体类型之外的实体类型不做任何处理;表2示出了本实施例中的分类器分别对应的实体类型:
表2分类器对应训练的实体类型
分类器 | 实体类型 |
分类器1 | 物品类 |
分类器2 | 账号类 |
分类器3 | 人物类 |
︙ | ︙ |
分类器m | 方式类 |
如图2所示,batchj的采样步骤包括:
S100,获取采样权重data_weight={data_weight1,data_weight2,…,data_weighti,…,data_weightn},其中,data_weighti为第i个采样权重,i的取值范围为1到n;data_weight满足:data_weight1+data_weight2+…+data_weightn=1;其中,data_weighti与subi成正相关,subi表示数据集datai包含的实体数量di和实体权重entity_qi的乘积,实体权重entity_qi与ei entityL成负相关,ei entityL为datai中实体类型为第L个实体类型的实体数量,m为data中包含的实体类型数量,1≤L≤m。
具体的,采样权重为第一采样权重或第二采样权重归一化得到,第一采样权重与datai中某一实体类型的实体数量和包含某一实体类型的数据集的数量分别呈负相关,第二采样权重与某一实体类型的实体数量呈负相关。
优选的,data_weighti满足:
data_weighti=data_weight' i/∑n k=1data_weight' k
其中,data_weighti为data_weight' i归一化得到,其中data_weight' i满足:
data_weight' i=(di/∑n k=1dk)*entity_qi
其中,di为datai包含的实体数量,data_weight' i为datai的第一采样权重。具体的,在datai对应的data_weighti计算时增加实体权重entity_qi,在对不同的数据集做采样时,能够降低实体数量比较多的数据集的采样权重;增大实体数量较少的数据集的采样权重。
entity_qi=∑m L=1wL
其中,wL为第L个实体类型的第一权重,具体的,实体权重entity_qi为m个实体类型的第一权重的加和,entity_qi分别与nentityL和ei entityL呈负相关;当datai中的entityL数量大且包含entityL的数据集的数量多时,降低entityL在datai中的第一采样权重;反之,增加该实体在datai中的第一采样权重。
其中,wL满足:
wL=1/(nentityL*logei entityL)
其中,wL分别与nentityL和ei entityL呈负相关,nentityL为包括entityL的数据集的数量,ei entityL为datai中的entityL的数量。
data_weighti与datai中实体类型对应的实体数量和包含某实体类型的数据集的数量相关,datai中实体类型对应的实体数量少以及包含某实体类型的数据集的数量少都会使该数据集具有较大的data_weighti;在采样时考虑的与实体类型相关的因素更全面,获取到的批处理样本bacth中的实体类型分布更加均匀,能够提升命名实体识别模型单个实体的识别准确率。
优选的,data_weighti满足:
data_weighti=smooth_data_weighti/∑n k=1smooth_data_weightk
其中,data_weighti为smooth_data_weighti归一化得到。
smooth_data_weighti=entity_qi*di
entity_qi=min(log(∑n k=1(dk)/∑m k=1(ei entityk)),c)
其中,smooth_data_weighti为datai的第二采样权重;其中,min(log(∑n k=1(dk)/∑m k=1(ei entityk)),c)为取log(∑n k=1(dk)/∑m k=1(ei entityk))和c之间的最小值,c为第一阈值,可选的,c=20,ei entityL为datai中的entityL的实体数量,di为datai中实体的数量。
具体的,data_weighti与datai中的实体类型的实体数量相关,实体数量少的数据集在采样时具有较大的data_weighti,实体数量多的数据集在采样时具有较小的data_weighti,以此均衡btach中各实体类型的出现频次。
S200,根据data_weight的比例将(0,1]区间划分为n个区间{in1,in2,…,ini,…,inn},其中,ini为第i个区间,i的取值范围为1到n,ini对应data_weighti。
其中,根据data_weight的比例划分(0,1]区间为计算出data_weighti在n个采样权重data_weight之和中所占的比例,根据该比例在(0,1]中划分出ini。
其中,ini为(a,a+data_weighti];当i=1时,a=0;当1<i≤n时,a=∑i-1 j=1data_weightj;例如:data_weight={0.2,0.5,0.3},则in1为(0,0.2],in2为(0.2,0.7],in3为(0.7,1]。
S300,获取一个(0,1)之间的随机数s,并确定s所在的区间ini。
其中,s落在区间ini中的概率与data_weighti相等,所以在(0,1)之间取得随机数s,s分布在每个区间中的概率能够代表该区间对应的data_weighti在n个data_weight中的概率,同时能够代表在data中选取datai的概率。
S400,根据ini对应的data_weighti获取对应的datai,datai中包含di个实体{en1,en2,…,enp,…,endi},其中,enp为datai中第p个实体,p的取值范围为i到di。
其中,datai的获取基于data_weighti在data_weight中的概率,同时,data_weighti与实体相关;data_weighti的增大使得datai对应的区间ini增大,随机数s落在ini中的概率增大;反之,datai对应的区间ini减小,随机数s落在ini中的概率减小;此种获取datai的方式使随机数s落在某个区间的概率与数据集中各实体类型的数量呈负相关,实体数量少的数据集有更大的概率被采样。
S500,获取datai的第p个实体enp,p为随机数s落入区间ini的次数。
其中,s落入区间ini的次数p满足:初始时,p=0;当p>di时,将datai中的实体乱序且令p=1,di为datai中的实体数量。具体的,当对数据集再次开始采样时,因命名实体识别模型深度学习时的拟合能力过强,实体数据乱序能够避免同一顺序的实体组合在batch中反复出现,减小对模型的泛化能力的影响;泛化能力为模型对输入样本的适应能力,即对新输入样本的适应能力。
S600,重复步骤S300-S500,将获取的enp存储到batchj中,当k=batch_size时,结束重复步骤S300-S500;其中,k为batchj中的实体数量,batch_size为batchj中能存储实体数量的最大值。
其中,重复步骤S300-S500满足:当k<batch_size时,重复步骤S300-S500。
其中,采样获取的batchj中均衡融合了各个实体类型,data中数量少的实体类型在batchj中的出现频率较高;反之,data中数量多的实体在batchj中出现频率较低。
综上所述,本实施例对数据集采样时增加data_weight来控制每个batch的数据集采样比例,并按照n个data_weight的比例将(0,1]区间划分为多个子区间,随机数s分布在每个子区间上的概率能够代表该区间对应的数据集datai被选中的概率,data_weight与数据集实体数量相关,使得s落在(0,1]任一子区间的概率能够与数据集中实体数量呈负相关,通过提升实体数量少的数据集在训练过程中的采样频次,提升了数量少的实体类型在训练过程中的出现频次,进而提高数量少的实体类型的识别准确率。
本发明的实施例还提供了一种非瞬时性计算机可读存储介质,该存储介质可设置于电子设备之中以保存用于实现方法实施例中一种方法相关的至少一条指令或至少一段程序,该至少一条指令或该至少一段程序由该处理器加载并执行以实现上述实施例提供的方法。
本发明的实施例还提供了一种电子设备,包括处理器和前述的非瞬时性计算机可读存储介质。
本发明的实施例还提供一种计算机程序产品,其包括程序代码,当所述程序产品在电子设备上运行时,所述程序代码用于使该电子设备执行本说明书上述描述的根据本发明各种示例性实施方式的方法中的步骤。
虽然已经通过示例对本发明的一些特定实施例进行了详细说明,但是本领域的技术人员应该理解,以上示例仅是为了进行说明,而不是为了限制本发明的范围。本领域的技术人员还应理解,可以对实施例进行多种修改而不脱离本发明的范围和精神。本发明开的范围由所附权利要求来限定。
Claims (9)
1.一种命名实体识别模型训练方法,其特征在于,所述方法通过f个批处理样本batch={batch1,batch2,…,batchj,…,batchf}训练命名实体识别模型,其中,batchj为第j个批处理样本,j的取值范围为1到f,命名实体识别模型包括m个分类器,batchj通过对n个数据集data={data1,data2,…,datai,…,datan}进行采样得到,其中,datai为第i个数据集,i的取值范围为1到n;所述batchj的采样步骤包括:
S100,获取采样权重data_weight={data_weight1,data_weight2,…,data_weighti,…,data_weightn},其中,data_weighti为第i个采样权重,i的取值范围为1到n;所述data_weight满足:data_weight1+data_weight2+…+data_weightn=1;其中,data_weighti与subi成正相关,subi表示数据集datai包含的实体数量di和实体权重entity_qi的乘积,所述实体权重entity_qi与ei entityL成负相关,ei entityL为datai中实体类型为第L个实体类型的实体数量,m为data中包含的实体类型数量,1≤L≤m;
S200,根据data_weight的比例将(0,1]区间划分为n个区间{in1,in2,…,ini,…,inn},其中,ini为第i个区间,i的取值范围为1到n,ini对应data_weighti;
S300,获取一个(0,1)之间的随机数s,并确定s所在的区间ini;
S400,根据ini对应的data_weighti获取对应的datai,datai中包含di个实体{en1,en2,…,enp,…,endi},其中,enp为datai中第p个实体,p的取值范围为i到di;
S500,获取enp,p为随机数s落入区间ini的次数;
S600,重复步骤S300-S500,将获取的enp存储到batchj中,当k=batch_size时,结束重复步骤S300-S500;其中,k为batchj中的实体数量,batch_size为batchj中能存储实体数量的最大值。
2.根据权利要求1所述的方法,其特征在于,所述data包含m个实体类型entity={entity1,entity2,…,entityL,…,entitym},其中,entityL为data中第L个实体类型,L的取值范围为1到m;entityL对应输入到第L个分类器中进行模型训练。
3.根据权利要求1所述的方法,其特征在于,所述data_weighti满足:
data_weighti=data_weight' i/∑n k=1data_weight' k
data_weight' i=(di/∑n k=1dk)*entity_qi
entity_qi=∑m L=1wL
wL=1/(nentityL*logei entityL)
其中,data_weight' i为datai第一采样权重,di为datai包含的实体数量,wL为实体类型entityL的第一权重,wL分别与nentityL和ei entityL呈负相关;其中,nentityL为包含实体类型entityL的数据集的数量,ei entityL为datai中实体类型为entityL的实体数量。
4.根据权利要求1所述的方法,其特征在于,所述data_weighti满足:
data_weighti=smooth_data_weighti/∑n k=1smooth_data_weightk
smooth_data_weighti=entity_qi*di
entity_qi=min(log(∑n k=1(dk)/∑m k=1(ei entityk)),c)
其中,smooth_data_weighti为datai的第二采样权重;其中,min(log(∑n k=1(dk)/∑m k=1(ei entityk)),c)为取log(∑n k=1(dk)/∑m k=1(ei entityk))和c之间的最小值,c为第一阈值,ei entityL为datai中的entityL的实体数量,m为data中包含的实体类型总数量。
5.根据权利要求1所述的方法,其特征在于,所述ini为(a,a+data_weighti];其中,当i=1时,a=0;当1<i≤n时,a=∑i-1 k=1data_weightk。
6.根据权利要求1所述的方法,其特征在于,所述s落入区间ini的次数p满足:当p>di时,将datai中的实体乱序且令p=1,di为datai中的实体数量。
7.根据权利要求1所述的方法,其特征在于,所述重复步骤S300-S500满足:当k<batch_size时,重复步骤S300-S500。
8.一种非瞬时性计算机可读存储介质,所述存储介质中存储有至少一条指令或至少一段程序,所述至少一条指令或所述至少一段程序由处理器加载并执行以实现如权利要求1-7中任意一项的所述方法。
9.一种电子设备,其特征在于,包括处理器和权利要求8所述的非瞬时性计算机可读存储介质。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211257520.1A CN115345258B (zh) | 2022-10-14 | 2022-10-14 | 一种命名实体识别模型训练方法、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211257520.1A CN115345258B (zh) | 2022-10-14 | 2022-10-14 | 一种命名实体识别模型训练方法、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115345258A CN115345258A (zh) | 2022-11-15 |
CN115345258B true CN115345258B (zh) | 2023-04-25 |
Family
ID=83957400
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211257520.1A Active CN115345258B (zh) | 2022-10-14 | 2022-10-14 | 一种命名实体识别模型训练方法、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115345258B (zh) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2723270C1 (ru) * | 2019-08-13 | 2020-06-09 | Федеральное государственное унитарное предприятие "Ростовский-на-Дону научно-исследовательский институт радиосвязи" (ФГУП "РНИИРС") | Способ обучения искусственной нейронной сети |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110119815B (zh) * | 2019-05-21 | 2021-08-13 | 深圳市腾讯网域计算机网络有限公司 | 模型训练方法、装置、存储介质及设备 |
CN112052996B (zh) * | 2020-09-03 | 2022-02-25 | 哈尔滨工业大学 | 基于卷积神经网络技术的小水电集群功率预测方法 |
CN114021565A (zh) * | 2021-10-26 | 2022-02-08 | 北京沃东天骏信息技术有限公司 | 命名实体识别模型的训练方法及装置 |
-
2022
- 2022-10-14 CN CN202211257520.1A patent/CN115345258B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2723270C1 (ru) * | 2019-08-13 | 2020-06-09 | Федеральное государственное унитарное предприятие "Ростовский-на-Дону научно-исследовательский институт радиосвязи" (ФГУП "РНИИРС") | Способ обучения искусственной нейронной сети |
Also Published As
Publication number | Publication date |
---|---|
CN115345258A (zh) | 2022-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108920654B (zh) | 一种问答文本语义匹配的方法和装置 | |
CN110427466B (zh) | 用于问答匹配的神经网络模型的训练方法和装置 | |
CN110033281B (zh) | 一种智能客服至人工客服转换的方法及装置 | |
CN110852755B (zh) | 针对交易场景的用户身份识别方法和装置 | |
CN112069310B (zh) | 基于主动学习策略的文本分类方法及系统 | |
CN112257449B (zh) | 命名实体识别方法、装置、计算机设备和存储介质 | |
CN110930996B (zh) | 模型训练方法、语音识别方法、装置、存储介质及设备 | |
US11485999B2 (en) | Metagenomics for microbiomes | |
CN111368096A (zh) | 基于知识图谱的信息分析方法、装置、设备和存储介质 | |
CN111860671A (zh) | 分类模型训练方法、装置、终端设备和可读存储介质 | |
CN113505225A (zh) | 一种基于多层注意力机制的小样本医疗关系分类方法 | |
CN113095484A (zh) | 基于lstm神经网络的股票价格预测方法 | |
CN109409231B (zh) | 基于自适应隐马尔可夫的多特征融合手语识别方法 | |
CN114118370A (zh) | 模型训练方法、电子设备和计算机可读存储介质 | |
Makwe et al. | An empirical study of neural network hyperparameters | |
CN115345258B (zh) | 一种命名实体识别模型训练方法、电子设备及存储介质 | |
CN111400413B (zh) | 一种确定知识库中知识点类目的方法及系统 | |
CN114373097A (zh) | 一种基于无监督的图像分类方法、终端设备及存储介质 | |
CN111753519A (zh) | 一种模型训练和识别方法、装置、电子设备及存储介质 | |
CN111950615A (zh) | 一种基于树种优化算法的网络故障特征选择方法 | |
CN112015861A (zh) | 基于用户历史行为分析的智能试卷算法 | |
CN115345259B (zh) | 一种命名实体识别模型训练的优化方法、设备及存储介质 | |
CN113205082B (zh) | 基于采集不确定性解耦的鲁棒虹膜识别方法 | |
CN113378910B (zh) | 一种基于纯净标签的电磁信号调制类型识别的中毒攻击方法 | |
Wang | Comparison of the Meta-Active Machine Learning Model Applied to Biological Data-Driven Experiments with Other Models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |