CN113378921A - 数据筛选方法、装置及电子设备 - Google Patents
数据筛选方法、装置及电子设备 Download PDFInfo
- Publication number
- CN113378921A CN113378921A CN202110644004.3A CN202110644004A CN113378921A CN 113378921 A CN113378921 A CN 113378921A CN 202110644004 A CN202110644004 A CN 202110644004A CN 113378921 A CN113378921 A CN 113378921A
- Authority
- CN
- China
- Prior art keywords
- data
- loss value
- encoder
- sample data
- decoder
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 74
- 238000012216 screening Methods 0.000 title claims abstract description 52
- 238000012549 training Methods 0.000 claims abstract description 171
- 238000002372 labelling Methods 0.000 claims abstract description 62
- 238000012545 processing Methods 0.000 claims description 24
- 238000004590 computer program Methods 0.000 claims description 13
- 230000001174 ascending effect Effects 0.000 claims 1
- 239000000126 substance Substances 0.000 claims 1
- 230000008901 benefit Effects 0.000 abstract description 9
- 238000013473 artificial intelligence Methods 0.000 abstract description 7
- 238000013135 deep learning Methods 0.000 abstract description 6
- 238000001914 filtration Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000003924 mental process Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/40—Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
本申请公开了一种数据筛选方法、装置及电子设备,涉及人工智能技术领域,具体涉及计算机视觉和深度学习技术领域。具体实现方案为:获取包括多个样本数据及每个样本数据对应的第一预测结果的待标注样本数据集;对每个第一预测结果进行编码,以生成每个第一预测结果的第一编码数据;将每个第一编码数据输入预设的自编码器,以生成每个样本数据对应的第一重建数据与第二重建数据;根据每个第一编码数据分别与第一重建数据及第二重建数据之间的差异,确定每个样本数据对应的第一损失值与第二损失值;根据每个第一损失值与第二损失值,对待标注样本数据集进行筛选。由此,通过这种数据筛选方法,不仅保证了模型的训练效益,而且降低了数据标注成本。
Description
技术领域
本申请涉及计算机技术领域,尤其涉及人工智能、计算机视觉与深度学习技术领域,提出一种数据筛选方法、装置及电子设备。
背景技术
相关技术中,在有监督的模型训练任务中,需要大量有标注的样本数据对模型进行训练。但是,由于模型训练通常需要数据量庞大的训练数据集,从而导致数据标注成本很高。
发明内容
本申请提供了一种用于数据筛选方法、装置、电子设备、存储介质以及计算机程序产品。
根据本申请的一方面,提供了一种数据筛选方法,包括:获取预设模型对应的待标注样本数据集,其中,所述待标注样本数据集中包括多个样本数据及每个所述样本数据对应的第一预测结果;对每个所述第一预测结果进行编码,以生成每个所述样本数据对应的第一预测结果的第一编码数据;将每个所述第一编码数据输入预设的自编码器,以生成每个所述样本数据对应的第一重建数据与第二重建数据;根据每个所述样本数据对应的第一预测结果的第一编码数据分别与所述第一重建数据及所述第二重建数据之间的差异,确定每个所述样本数据对应的第一损失值与第二损失值;根据每个所述样本数据对应的第一损失值与第二损失值,对所述待标注样本数据集进行筛选。
根据本申请的另一方面,提供了一种数据筛选装置,包括:第一获取模块,用于获取预设模型对应的待标注样本数据集,其中,所述待标注样本数据集中包括多个样本数据及每个所述样本数据对应的第一预测结果;第一生成模块,用于对每个所述第一预测结果进行编码,以生成每个所述样本数据对应的第一预测结果的第一编码数据;第二生成模块,用于将每个所述第一编码数据输入预设的自编码器,以生成每个所述样本数据对应的第一重建数据与第二重建数据;第一确定模块,用于根据每个所述样本数据对应的第一预测结果的第一编码数据分别与所述第一重建数据及所述第二重建数据之间的差异,确定每个所述样本数据对应的第一损失值与第二损失值;筛选模块,用于根据每个所述样本数据对应的第一损失值与第二损失值,对所述待标注样本数据集进行筛选。
根据本申请的再一方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如前所述的数据筛选方法。
根据本申请的又一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行如前所述的数据筛选方法。
根据本申请的又一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现如前所述的数据筛选方法。
根据本申请的技术方案,解决了相关技术中,由于有监督的模型训练通常需要数据量庞大的标注训练数据,从而导致数据标注成本很高的问题。通过获取预设模型对待标注样本数据集中每个样本数据对应的第一预测结果进行编码,生成每个样本数据对应的第一预测结果的第一编码数据,并将每个第一编码数据输入预设的自编码器,以生成每个样本数据对应的第一重建数据与第二重建数据,之后根据每个样本数据对应的第一预测结果的第一编码数据分别与第一重建数据及第二重建数据之间的差异,确定每个样本数据对应的第一损失值与第二损失值,进而根据每个样本数据对应的第一损失值与第二损失值,对待标注样本数据集进行筛选。由此,通过预先训练可以对样本数据的预测结果与标注结果进行重建的自编码器,进而根据自编码器的重建结果与各个样本数据对应的第一预测结果的第一编码数据之间的差异,从待标注样本数据集中筛选预设模型的困难样本进行标注,从而不仅保证了模型的训练效益,而且降低了数据标注成本。
应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1为本申请实施例所提供的一种数据筛选方法的流程示意图;
图2为本申请实施例所提供的另一种数据筛选方法的流程示意图;
图3为本申请实施例所提供的再一种数据筛选方法的流程示意图
图4为本申请实施例提供的一种数据筛选装置的结构示意图;
图5为用来实现本申请实施例的数据筛选方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
以下对本申请的方案涉及的技术领域进行简要说明:
人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,既有硬件层面的技术也有软件层面的技术。人工智能硬件技术一般包括计算机视觉技术、语音识别技术、自然语言处理技术以及机器学习/深度学习、大数据处理技术、知识图谱技术等几大方向。
计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是是指用摄影机和计算机代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使计算机处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取“信息”的人工智能系统。因为感知可以看作是从感官信号中提取信息,所以计算机视觉也可以看作是研究如何使人工系统从图像或多维数据中“感知”的科学。
深度学习是机器学习领域中一个新的研究方向,它被引入机器学习使其更接近于最初的目标——人工智能。深度学习是学习样本数据的内在规律和表示层次,这些学习过程中获得的信息对诸如文字,图像和声音等数据的解释有很大的帮助。它的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。深度学习在搜索技术,数据挖掘,机器学习,机器翻译,自然语言处理,多媒体学习,语音,推荐和个性化技术,以及其他相关领域都取得了很多成果。
本申请实施例针对相关技术中,由于有监督的模型训练通常需要数据量庞大的标注训练数据,从而导致数据标注成本很高的问题,提出一种数据筛选方法。
下面参考附图对本申请提供的数据筛选方法、装置、电子设备、存储介质及计算机程序产品进行详细描述。
图1为本申请实施例所提供的一种数据筛选方法的流程示意图。
如图1所示,该数据筛选方法,包括以下步骤:
步骤101,获取预设模型对应的待标注样本数据集,其中,待标注样本数据集中包括多个样本数据及每个样本数据对应的第一预测结果。
需要说明的是,本申请实施例的数据筛选方法,可以应用在任意对训练样本数据进行筛选的场景,以提升模型训练效率与数据标注效率。本申请实施例的数据筛选方法可以由本申请实施例的数据筛选装置执行。本申请实施例的数据筛选装置可以配置在任意的电子设备中,以执行本申请实施例的数据筛选方法。
其中,预设模型,可以是任意需要进行训练的深度学习模型。比如,预设模型可以是人脸识别模型、目标检测模型、图像分类模型,等等。实际使用时,预设模型可以根据实际的应用场景确定,本申请实施例对此不做限定。
待标注样本数据集,可以是包含大量用于训练预设模型、但未进行标注的样本数据的数据集。比如,若预设模型为人脸检测模型,则待标注样本数据集可以是包含大量人脸图像的数据集;若预设模型为自动驾驶领域使用的目标检测模型,则待标注的样本数据集可以是包含大量路况图像的数据集。
其中,样本数据对应的第一预测结果,是指将样本数据输入预设模型,预设模型根据样本数据生成的预测结果。比如,预设模型为目标检测模型,样本数据为图像数据,则样本数据对应的第一预测结果,可以是将样本数据输入预设模型后,预设模型输出的各个目标物体在样本数据中的位置信息。
在本申请实施例中,可以将预设模型在使用过程中处理过的数据进行整合,作为待标注数据集中的样本数据。或者,还可以在根据预设模型的业务场景,从网络中获取与预设模型的业务场景相符的数据,作为待标注数据集中的样本数据;比如,预设模型为人脸识别模型,则可以从网络中获取大量包含人脸的图像,作为待标注数据集中的样本数据。或者,在多个训练任务的训练数据处于同一个训练数据集中时,还可以将多个训练任务对应的训练数据集作为待标注样本数据集,以从多个训练任务对应的训练数据集中筛选出用于训练预设模型的样本数据。
作为一种可能的实现方式,在获取到待标注样本数据集中的样本数据之后,若样本数据具有预测结果(如样本数据是预设模型在使用过程中处理过的数据),则可以将样本数据对应的预测结果直接作为样本数据对应的第一预测结果,以构成待标注样本数据集。
作为一种可能的实现方式,在获取到待标注样本数据集中的样本数据之后,若样本数据不存在对应的预测结果(如样本数据是从网络中获取的),则可以利用预设模型生成各个样本数据对应的第一预测结果。即在本申请实施例一种可能的实现方式中,上述步骤101,可以包括:
将每个样本数据输入预设模型,生成每个样本数据对应的第一预测结果。
在本申请实施例中,由于预设模型对样本数据的预测准确性,可以反映预设模型对样本数据进行识别的困难程度,从而可以利用预设模型生成样本数据对应的第一预测结果,以通过各个样本数据对应的第一预测结果判断各个样本数据是否为预设模型的困难样本。
步骤102,对每个第一预测结果进行编码,以生成每个样本数据对应的第一预测结果的第一编码数据。
其中,第一编码数据,可以是指第一预测结果的向量表示。
在本申请实施例中,确定出每个样本数据对应的第一预测结果之后,可以利用预设的编码算法对每个样本数据对应的第一预测结果进行编码,以通过向量的形式表示第一预测结果的语义信息。
需要说明的是,实际使用时,可以根据实际需要及具体的应用场景,选取合适的编码算法对第一预测结果进行编码,本申请实施例对此不做限定。比如,第一预测结果的第一编码数据可以是第一预测结果对应的e2e result-encoding编码。
步骤103,将每个第一编码数据输入预设的自编码器,以生成每个样本数据对应的第一重建数据与第二重建数据。
其中,预设的自编码器,可以是指预先训练的、可以根据样本数据对应的预测结果的编码,重建样本数据的预测结果与标注结果的自编码器。
其中,样本数据对应的第一重建数据,可以是指预设的自编码器根据该样本数据对应的第一预测结果的第一编码数据,重建的预测结果对应的编码数据;样本数据对应的第二重建数据,可以是指预设的自编码器根据该样本数据对应的第一预测结果的第一编码数据,重建的标注结果对应的编码数据。
在本申请实施例中,可以将每个样本数据对应的第一预测结果的第一编码输入预设的自编码器,以使预设的自编码器根据每个第一编码数据重建样本数据对应的预测结果的编码与标注结果的编码,即生成每个样本数据对应的第一重建数据与第二重建数据。由于,第一重建数据可以表示预设模型对样本数据较为准确的预测结果,第二重建数据可以表示样本数据较为准确的标注结果,从而可以根据每个第一编码数据与相应的第一重建数据之间的差异,以及每个第一编码数据与相应的第二重建数据之间的差异,衡量每个样本数据对应的第一预测结果的准确性,进而确定预设模型对每个样本数据的识别难度。
步骤104,根据每个样本数据对应的第一预测结果的第一编码数据分别与第一重建数据及第二重建数据之间的差异,确定每个样本数据对应的第一损失值与第二损失值。
在本申请实施例中,由于第一预测结果的第一编码数据与第一重建数据之间差异,以及第一预测结果的第一编码数据与第二重建数据之间的差异,可以衡量第一预测结果的准确度,即可以衡量预设模型对样本数据的识别难度。因此,可以根据样本数据对应的第一预测结果的第一编码数据与相应的第一重建数据之间的差异,确定样本数据对应的第一损失值,以及根据样本数据对应的第一预测结果的第一编码数据与相应的第二重建数据之间的差异,确定样本数据对应的第二损失值,进而通过每个样本数据对应的第一损失值与第二损失值,从待标注样本数据集中筛选出预设模型对应的困难样本。
作为一种可能的实现方式,可以将第一编码数据与相应的第一重建数据之间的均方根误差(Mean Squared Error,MSE),确定为相应的样本数据对应的第一损失值,将第一编码数据与相应的第二重建数据之间的MSE,确定为相应的样本数据对应的第二损失值。
需要说明的是,实际使用时,可以根据实际需要及具体的应用场景,确定第一损失值与第二损失值的计算方式,本申请实施例对此不做限定。
步骤105,根据每个样本数据对应的第一损失值与第二损失值,对待标注样本数据集进行筛选。
在本申请实施例中,由于样本数据对应的第一损失值可以衡量样本数据对应的第一预测结果的第一编码数据与相应的第一重建数据之间的误差程度,样本数据对应的第二损失值可以衡量样本数据对应的第一预测结果的第一编码数据与相应的第二重建数据之间的误差程度,即可以衡量样本数据对应的第一预测结果的准确度,从而样本数据对应的第一损失值与第二损失值可以反映预设模型对样本数据的识别难度,因此,可以根据每个样本数据对应的第一损失值与第二损失值,从待标注样本数据集中筛选出预设模型的困难样本进行标注,以在保证预设模型训练效益的同时,降低标注成本。
作为一种可能的实现方式,可以将对应的第一损失值与第二损失值均大于损失值阈值的样本数据,确定为预设模型的困难样本,并筛选出困难样本进行标注。
根据本申请实施例的技术方案,通过获取预设模型对待标注样本数据集中每个样本数据对应的第一预测结果进行编码,生成每个样本数据对应的第一预测结果的第一编码数据,并将每个第一编码数据输入预设的自编码器,以生成每个样本数据对应的第一重建数据与第二重建数据,之后根据每个样本数据对应的第一预测结果的第一编码数据分别与第一重建数据及第二重建数据之间的差异,确定每个样本数据对应的第一损失值与第二损失值,进而根据每个样本数据对应的第一损失值与第二损失值,对待标注样本数据集进行筛选。由此,通过预先训练可以对样本数据的预测结果与标注结果进行重建的自编码器,进而根据自编码器的重建结果与各个样本数据对应的第一预测结果的第一编码数据之间的差异,从待标注样本数据集中筛选预设模型的困难样本进行标注,从而不仅保证了模型的训练效益,而且降低了数据标注成本。
下面结合图2,对本申请实施例提供的数据筛选方法进行进一步说明。
图2为本申请实施例所提供的另一种数据筛选方法的流程示意图。
如图2所示,该数据筛选方法,包括以下步骤:
步骤201,获取预设模型对应的待标注样本数据集,其中,待标注样本数据集中包括多个样本数据及每个样本数据对应的第一预测结果。
步骤202,对每个第一预测结果进行编码,以生成每个样本数据对应的第一预测结果的第一编码数据。
上述步骤201-202的具体实现过程及原理,可以参照上述实施例的详细描述,此处不再赘述。
步骤203,将每个第一编码数据输入预设的自编码器的第一解码器,以生成每个样本数据对应的第一重建数据。
在本申请实施例中,由于需要利用预设的自编码器对样本数据的预测结果与标注结果进行重建,而样本数据的预测结果与标注结果之间通常存在差异,因此预设的自编码器中可以包括两个解码器,以根据样本数据的第一预测结果的第一编码数据,分别重建样本数据的预测结果与标注结果。
作为一种可能的实现方式,可以利用预设的自编码器的第一解码器重建样本数据对应的预测结果,从而可以将每个第一编码数据依次输入第一解码器,以使第一解码器对第一编码数据进行解码处理,以生成每个样本数据对应的第一重建数据。
步骤204,将每个第一编码数据输入预设的自编码器的第二解码器,以生成每个样本数据对应的第二重建数据。
作为一种可能的实现方式,可以利用预设的自编码器的第二解码器重建样本数据对应的标注结果,从而可以将每个第一编码数据依次输入第二解码器,以使第二解码器对第一编码数据进行解码处理,以生成每个样本数据对应的第二重建数据。
进一步的,由于第一预测结果的第一编码数据可能是较简单的低维特征,包含较少的语义信息,因此在对第一编码数据进行解码之前,还可以对第一编码数据进行升维,以使升维后的编码数据中包含更加丰富的语义信息,以进一步提升数据重建的准确性。即在本申请实施例一种可能的实现方式中,上述预设的自编码器可以包括编码器、第一解码器及第二解码器,相应的,上述步骤203之前,还可以包括:
将每个第一编码数据输入预设的自编码器的编码器,以对每个第一编码数据进行升维处理,生成每个第一编码数据对应的高维特征;
相应的,上述步骤203,可以包括:
将每个第一编码数据对应的高维特征输入第一解码器,以生成每个样本数据对应的第一重建数据;
相应的上述步骤204,可以包括:
将每个第一编码数据对应的高维特征输入第二解码器,以生成每个样本数据对应的第二重建数据。
作为一种可能的实现方式,预设的自编码器的编码器中可以包括多个尺寸递减的卷积核,以通过对输入的第一编码数据进行多次卷积处理,实现对第一编码数据的升维处理,以生成第一编码数据对应的高维特征,从而通过第一编码数据对应的高维特征更加准确的表示第一预测结果的语义信息,进而进一步提升数据重建的准确性。
举例来说,预设的自编码器的编码器中可以包括尺寸为32×32、16×16、8×8、1×1的卷积核,并依次使用尺寸为32×32、16×16、8×8、1×1的卷积核对输入的第一编码数据进行卷积处理。
需要说明的是,上述举例仅为示例性的,不能视为对本申请的限制。实际使用时,可以根据实际需要及具体的应用场景,确定编码器的具体结果,以及各个卷积核的数量、尺寸、具体参数等,本申请实施例对此不做限定。
相应的,在预设的自编码器中包含编码器时,预设的自编码器中的第一解码器与第二解码器可以分别对编码器对第一编码数据进行编码处理后,生成的高维特征进行解码处理,以生成相应的样本数据对应的第一重建数据与第二重建数据。具体的实现过程及原理可以参照上述步骤203与步骤204的详细描述,此处不再赘述。
作为一种可能的实现方式,在编码器中包含多个卷积核对第一编码数据进行升维处理时,第一解码器与第二解码器中可以包括多个尺寸递增的卷积核,以对输入的第一编码数据对应的高维特征进行降维,实现对第一编码数据的重建。比如,第一解码器与第二解码器中可以包括尺寸为8×8、32×32、64×64的卷积核,并依次使用尺寸为8×8、32×32、64×64的卷积核依次对第一编码数据对应的高维特征进行解码处理,以对第一编码数据进行重建,生成相应的样本数据对应的第一重建数据与第二重建数据。
步骤205,根据每个样本数据对应的第一预测结果的第一编码数据分别与第一重建数据及所述第二重建数据之间的差异,确定每个样本数据对应的第一损失值与第二损失值。
上述步骤205的具体实现过程及原理,可以参照上述实施例的详细描述,此处不再赘述。
步骤206,将对应的第一损失值大于第一阈值、且第二损失值大于第二阈值的样本数据,确定为待标注的样本数据进行标注。
在本申请实施例中,由于样本数据对应的第一损失值与第二损失值越大,说明与预设模型对该样本数据的识别难度越大,因此,可以预设第一损失值对应的第一阈值,以及第二损失值对应的第二阈值,并在样本数据对应的第一损失值大于第一阈值,且样本数据对应的第二损失值大于第二阈值时,将该样本数据确定为预设模型的困难样本,并将该困难样本作为待标注的样本数据进行标注。
需要说明的是,实际使用时,第一阈值与第二阈值可以是相同的,也可以是不同的,可以根据实际需要及具体的应用场景设定第一阈值与第二阈值的具体取值,本申请实施例对此不做限定。
根据本申请实施例的技术方案,通过获取预设模型对待标注样本数据集中每个样本数据对应的第一预测结果进行编码,生成每个样本数据对应的第一预测结果的第一编码数据,并将每个第一编码数据输入预设的自编码器的第一解码器,以生成每个样本数据对应的第一重建数据,以及将每个第一编码数据输入预设的自编码器的第二解码器,以生成每个样本数据对应的第二重建数据,之后根据每个样本数据对应的第一预测结果的第一编码数据分别与第一重建数据及第二重建数据之间的差异,确定每个样本数据对应的第一损失值与第二损失值,进而将对应的第一损失值大于第一阈值、且第二损失值大于第二阈值的样本数据,确定为待标注的样本数据进行标注。由此,通过预先训练的自编码器中的第一解码器与第二解码器分别对样本数据的预测结果与标注结果进行重建,进而根据自编码器的重建结果与各个样本数据对应的第一预测结果的第一编码数据之间的差异,从待标注样本数据集中筛选出预测结果与重建数据差异较大的困难样本进行标注,从而不仅保证了模型的训练效益,降低了数据标注成本,而且进一步提升了困难样本筛选的可靠性。
下面结合图3,对本申请实施例提供的数据筛选方法进行进一步说明。
图3为本申请实施例所提供的再一种数据筛选方法的流程示意图。
如图3所示,该数据筛选方法,包括以下步骤:
步骤301,获取预设模型对应的待标注样本数据集,其中,待标注样本数据集中包括多个样本数据及每个样本数据对应的第一预测结果。
步骤302,对每个第一预测结果进行编码,以生成每个样本数据对应的第一预测结果的第一编码数据。
上述步骤301-302的具体实现过程及原理,可以参照上述实施例的详细描述,此处不再赘述。
步骤303,获取预设的自编码器对应的训练数据集,其中,训练数据集中包括多个训练数据及每个训练数据对应的标注结果。
其中,训练数据集,可以是由预设模型的训练集中的数据及其标注结果构成的。
作为一种可能的实现方式,由于在对自编码器进行训练时,需要重建训练数据的标注结果,进而根据重建的标注结果与训练数据对应的真实标注结果之间的差异,对自编码器进行修正,以使修正后的自编码器可以根据预测结果的编码数据重建较准确的标注结果。因此,用于训练预设的自编码器的训练数据集中可以包括每个训练数据对应的标注结果,并且预设模型的训练集中包括了每个训练数据的标注结果,从而可以将预设模型的训练集作为预设的自编码器对应的训练数据集。
步骤304,将每个训练数据输入预设模型,以生成每个训练数据对应的第二预测结果。
在本申请实施例中,由于预设的编码器可以根据样本数据的对应的第一预测结果的第一编码数据,重建样本数据的预测结果的编码与标注结果的编码,因此在训练数据集中未包含每个训练数据对应的预测结果时,可以将每个训练数据依次输入预设模型,以生成每个训练数据对应的第二预测结果。
步骤305,对每个第二预测结果进行编码,以生成每个训练数据对应的第二预测结果的第二编码数据。
其中,第二编码数据,可以是指第二预测结果的向量表示。
在本申请实施例中,确定出每个训练数据对应的第二预测结果之后,可以利用预设的编码算法对每个训练数据对应的第二预测结果进行编码,以通过向量的形式表示第二预测结果的语义信息。
需要说明的是,对训练数据对应的第二预测结果进行编码的方式,与前述对样本数据对应的第一预测结果进行编码的方式相同,此处不再赘述。
步骤306,对每个标注结果进行编码,以生成每个训练数据的对应的标注结果的第三编码数据。
其中,第三编码数据,可以是指训练数据对应的标注结果的向量表示。
在本申请实施例中,确定出每个训练数据对应的第二预测结果之后,可以利用预设的编码算法对每个训练数据对应的标注结果进行编码,以通过向量的形式表示标注结果的语义信息。
需要说明的是,对训练数据对应的第二预测结果进行编码的方式,与前述对第二预测结果进行编码的方式相同,此处不再赘述。
步骤307,将每个第二编码数据输入初始自编码器,以生成每个训练数据对应的第三重建数据与第四重建数据。
其中,训练数据对应的第三重建数据,可以是指初始自编码器根据该训练数据对应的第二预测结果的第二编码数据,重建的预测结果对应的编码数据;训练数据对应的第四重建数据,可以是指初始的自编码器根据该训练数据对应的第二预测结果的第一编码数据,重建的标注结果对应的编码数据。
在本申请实施例中,可以将每个训练数据对应的第一预测结果的第一编码输入初始自编码器,以使初始自编码器根据每个第二编码数据重建训练数据对应的预测结果的编码与标注结果的编码,即生成每个训练数据对应的第三重建数据与第四重建数据。由于,第三重建数据可以表示初始自编码器对训练样本对应的预测结果的重建数据,第四重建数据可以表示初始自编码器对训练样本对应的标注结果的重建数据,从而可以根据每个第二编码数据与相应的第三重建数据之间的差异,以及每个第三编码数据与相应的第四重建数据之间的差异,衡量初始编码模型进行数据重建的准确性,并对初始自编码器模型进行修正。
进一步的,由于需要利用预设的自编码器对样本数据的预测结果与标注结果进行重建,而样本数据的预测结果与标注结果之间通常存在差异,因此预设的自编码器中可以包括两个解码器,以根据样本数据的第一预测结果的第一编码数据,分别重建样本数据的预测结果与标注结果。即在本申请实施例一种可能的实现方式中,上述初始自编码器可以包括初始第一解码器与初始第二解码器,上述步骤307,可以包括:
将每个第二编码数据输入初始第一解码器,以生成每个训练数据对应的第三重建数据;
将每个第二编码数据输入初始第二解码器,以生成每个训练数据对应的第四重建数据。
在本申请实施例中,由于需要利用预设的自编码器对样本数据的预测结果与标注结果进行重建,而样本数据的预测结果与标注结果之间通常存在差异,因此预设的自编码器中可以包括两个解码器,以根据样本数据的第一预测结果的第一编码数据,分别重建样本数据的预测结果与标注结果。从而,初始编码器中也需要包括两个初始解码器,并分别对两个初始解码器进行训练。
作为一种可能的实现方式,可以利用初始自编码器的初始第一解码器重建训练数据对应的预测结果,从而可以将每个第二编码数据依次输入初始第一解码器,以使初始第一解码器对第二编码数据进行解码处理,以生成每个训练数据对应的第三重建数据。相应的,可以利用初始自编码器的初始第二解码器重建训练数据对应的标注结果,从而可以将每个第三编码数据依次输入初始第二解码器,以使初始第二解码器对第三编码数据进行解码处理,以生成每个训练数据对应的第四重建数据。
步骤308,根据每个训练数据对应的第二预测结果的第二编码数据与第三重建数据之间的差异,确定每个训练数据对应的第三损失值。
步骤309,根据每个训练数据对应的标注结果的第三编码数据与第四重建数据之间的差异,确定每个训练数据对应的第四损失值。
在本申请实施例中,由于第二预测结果的第二编码数据与第三重建数据之间差异,可以衡量初始编码器重建预测结果的准确度,以及标注结果的第三编码数据与第四重建数据之间的差异,可以衡量初始自编码器重建标注结果的准确度。因此,可以根据训练数据对应的第二预测结果的第二编码数据与相应的第三重建数据之间的差异,确定训练数据对应的第三损失值,以及根据训练数据对应的标注结果的第三编码数据与相应的第四重建数据之间的差异,确定训练数据对应的第四损失值,进而通过每个训练数据对应的第三损失值与第四损失值,对初始自编码器进行修正。
作为一种可能的实现方式,可以将第二编码数据与相应的第三重建数据之间的MSE,确定为相应的训练数据对应的第三损失值,将第三编码数据与相应的第四重建数据之间的MSE,确定为相应的训练数据对应的第四损失值。
需要说明的是,实际使用时,可以根据实际需要及具体的应用场景,确定第三损失值与第四损失值的计算方式,本申请实施例对此不做限定。
步骤310,根据每个训练数据对应的第三损失值与第四损失值,确定目标损失值。
在本申请实施例中,确定出每个训练数据对应的第三损失值与第四损失值之后,可以将各个训练数据对应的第三损失值与第四损失值进行融合处理,以生成可以表示初始自编码器整体损失的目标损失值,以根据目标损失值对初始自编码器进行修正。
举例来说,可以将各个训练数据对应的第三损失值与第四损失值之和,确定为目标损失值;或者,还可以将各个训练数据对应的第三损失值与第四损失值的均值,确定为目标损失值。
需要说明的是,上述举例仅为示例性的,不能视为对本申请的限制。实际使用时,可以根据实际需要及具体的应用场景,选择确定目标损失值的方式,本申请实施例对此不做限定。
进一步的,在初始自编码器中包含用于重建预测结果的初始第一解码器与用于重建标注结果的初始第二解码器时,可以采用每个训练数据对应的第三损失值对初始第一解码器进行修正,以及采用每个训练数据对应的第四损失值对初始第二解码器进行修正,以进一步提升自编码器训练的效率与可靠性。即在本申请实施例一种可能的实现方式,上述步骤310,可以包括:
根据每个训练数据对应的第三损失值,确定第一目标损失值;
根据每个训练数据对应的第四损失值,确定第二目标损失值。
作为一种可能的实现方式,由于训练数据对应的第三损失值可以反映初始自编码器的初始第一解码器对该训练数据对应的预测结果进行重建的准确度,训练数据对应的第四损失值可以反映初始自编码器的初始第二解码器对该训练数据对应的标注结果进行重建的准确度。从而,可以对每个训练数据对应的第三损失值进行整合,生成可以衡量初始第一解码器整体重建损失的第一目标损失值,并根据第一目标损失值对初始第一解码器进行修正;以及可以对每个训练数据对应的第四损失值进行整合,生成可以衡量初始第二解码器整体重建损失的第二目标损失值,并根据第二目标损失值对初始第二解码器进行修正,以提升自编码器的准确性与训练效率。
举例来说,可以将每个训练数据对应的第三损失值之和,确定为第一目标损失值,以及将每个训练数据对应的第四损失值之和,确定为第二目标损失值;或者,可以将个训练数据对应的第三损失值的均值,确定为第一目标损失值,以及将每个训练数据对应的第四损失值均值,确定为第二目标损失值。
需要说明的是,上述举例仅为示例性的,不能视为对本申请的限制。实际使用时,可以根据实际需要及具体的应用场景,选择确定第一目标损失值与第二目标损失值的方式,本申请实施例对此不做限定。
步骤311,根据目标损失值,对初始自编码器的网络参数进行更新,直至目标损失值小于或等于第三阈值,将更新后的初始自编码器确定为预设的自编码器。
在本申请实施例中,确定出目标损失值之后,即可以根据目标损失值对初始自编码器的网络参数进行更新,以生成更新后的自编码器,进而利用更新后的自编码器重复步骤303-311,直至更新后的自编码器对应的目标损失值小于或等于第三阈值,则可以确定更新后的自编码器以及符合实际应用中的精度需求,从而可以完成对自编码器的训练,并将目标损失值小于或等于第三阈值的更新后的自编码器作为预设的自编码器。
进一步的,在初始自编码器中包含用于重建预测结果的初始第一解码器与用于重建标注结果的初始第二解码器时,可以采用每个训练数据对应的第三损失值对初始第一解码器进行修正,以生成预设的自编码器的第一解码器,以及采用每个训练数据对应的第四损失值对初始第二解码器进行修正,以生成预设的自编码器的第二解码器,以进一步提升自编码器训练的效率与可靠性。即在本申请实施例一种可能的实现方式,上述步骤311,可以包括:
根据所述第一目标损失值,对初始第一解码器的网络参数进行更新;
根据所述第二目标损失值,对初始第二解码器的网络参数进行更新。
作为一种可能的实现方式,由于第一目标损失值可以衡量初始第一解码器整体重建损失,第二目标损失值可以衡量初始第二解码器整体重建损失,从而可以根据第一目标损失值对初始自编码器的初始第一解码器的网络参数进行更新,以生成更新后的第一解码器,以及可以根据第二目标损失值对初始自编码器的初始第二解码器的网络参数进行更新,以生成更新后的第二解码器,进而利用更新后的自编码器重复步骤303-311,直至更新后的自编码器对应的第一目标损失值与第二目标损失值均小于或等于第三阈值,则可以确定更新后的自编码器以及符合实际应用中的精度需求,从而可以完成对自编码器的训练,并将第一目标损失值与第二目标损失值均小于或等于第三阈值的更新后的自编码器作为预设的自编码器。
进一步的,在初始自编码器中包含对输入数据进行升维的初始编码器时,可以利用初始自编码器的整体重建损失对初始自编码器的初始编码器进行修正。即在本申请实施例一种可能的实现方式中,上述步骤311,可以包括:
根据目标损失值,对初始编码器的网络参数进行更新。
作为一种可能的实现方式,由于在利用初始第一解码器与初始第二解码器对输入初始自编码器的数据进行解码之前,均需要利用初始编码器对输入的数据进行编码处理,因此初始编码器的网络参数可以同时影响到初始自编码器对预测结果与标注结果的重建准确性。因此,在本申请实施例中,可以利用初始自编码的整体重建损失,即目标损失值,对初始自编码器的初始编码器的网络参数进行更新,直至目标损失值小于或等于第三阈值,则可以将更新后的初始编码器确定为预设的自编码器的编码器。
步骤312,将每个第一编码数据输入预设的自编码器,以生成每个样本数据对应的第一重建数据与第二重建数据。
步骤313,根据每个样本数据对应的第一预测结果的第一编码数据分别与第一重建数据及第二重建数据之间的差异,确定每个样本数据对应的第一损失值与第二损失值。
步骤314,根据每个样本数据对应的第一损失值与第二损失值,对待标注样本数据集进行筛选。
上述步骤312-314的具体实现过程及原理,可以参照上述实施例的详细描述,此处不再赘述。
根据本申请实施例的技术方案,通过初始解码器对每个训练数据对应的标注结果与预测结果进行重建,进而根据预测结果对应的第三重建数据与训练数据对应的第二预测结果的第二编码数据之间的第三损失值,以及标注结果对应的第四重建数据与训练数据对应的标注结果的第三编码数据之间的第四损失值,对初始自编码器的网络参数进行更新,以生成预设的自编码器,进而利用预设的自编码器对预设模型对应的待标注样本数据集进行筛选。由此,通过预先训练可以对样本数据的预测结果与标注结果进行重建的自编码器,进而根据自编码器的重建结果与各个样本数据对应的第一预测结果的第一编码数据之间的差异,从待标注样本数据集中筛选预设模型的困难样本进行标注,从而不仅保证了模型的训练效益,降低了数据标注成本,而且进一步提升了自编码器的准确性与训练效率,进而提升了困难样本筛选的可靠性。
为了实现上述实施例,本申请还提出一种数据筛选装置。
图4为本申请实施例提供的一种数据筛选装置的结构示意图。
如图4所示,该数据筛选装置40,包括:
第一获取模块41,用于获取预设模型对应的待标注样本数据集,其中,待标注样本数据集中包括多个样本数据及每个样本数据对应的第一预测结果;
第一生成模块42,用于对每个第一预测结果进行编码,以生成每个样本数据对应的第一预测结果的第一编码数据;
第二生成模块43,用于将每个第一编码数据输入预设的自编码器,以生成每个样本数据对应的第一重建数据与第二重建数据;
第一确定模块44,用于根据每个样本数据对应的第一预测结果的第一编码数据分别与第一重建数据及第二重建数据之间的差异,确定每个样本数据对应的第一损失值与第二损失值;
筛选模块45,用于根据每个样本数据对应的第一损失值与第二损失值,对待标注样本数据集进行筛选。
在实际使用时,本申请实施例提供的数据筛选装置,可以被配置在任意电子设备中,以执行前述数据筛选方法。
根据本申请实施例的技术方案,通过获取预设模型对待标注样本数据集中每个样本数据对应的第一预测结果进行编码,生成每个样本数据对应的第一预测结果的第一编码数据,并将每个第一编码数据输入预设的自编码器,以生成每个样本数据对应的第一重建数据与第二重建数据,之后根据每个样本数据对应的第一预测结果的第一编码数据分别与第一重建数据及第二重建数据之间的差异,确定每个样本数据对应的第一损失值与第二损失值,进而根据每个样本数据对应的第一损失值与第二损失值,对待标注样本数据集进行筛选。由此,通过预先训练可以对样本数据的预测结果与标注结果进行重建的自编码器,进而根据自编码器的重建结果与各个样本数据对应的第一预测结果的第一编码数据之间的差异,从待标注样本数据集中筛选预设模型的困难样本进行标注,从而不仅保证了模型的训练效益,而且降低了数据标注成本。
在本申请一种可能的实现形式中,上述第一获取模块41,包括:
第一生成单元,用于将每个样本数据输入所述预设模型,生成每个样本数据对应的第一预测结果。
进一步的,在本申请另一种可能的实现形式中,上述预设的自编码器中包括第一解码器与第二解码器;相应的,上述第二生成模块43,包括:
第二生成单元,用于将每个第一编码数据输入第一解码器,以生成每个样本数据对应的第一重建数据;
第三生成单元,用于将每个第一编码数据输入第二解码器,以生成每个样本数据对应的第二重建数据。
进一步的,在本申请再一种可能的实现形式中,上述预设的自编码器包括编码器、第一解码器及第二解码器;相应的,上述第二生成模块43,包括:
第四生成单元,用于将每个第一编码数据输入编码器,以对每个第一编码数据进行升维处理,生成每个第一编码数据对应的高维特征;
第五生成单元,用于将每个第一编码数据对应的高维特征输入第一解码器,以生成每个样本数据对应的第一重建数据;
第六生成单元,用于将每个第一编码数据对应的高维特征输入第二解码器,以生成每个样本数据对应的第二重建数据。
进一步的,在本申请又一种可能的实现形式中,上述筛选模块45,包括:
第一确定单元,用于将对应的第一损失值大于第一阈值、且第二损失值大于第二阈值的样本数据,确定为待标注的样本数据进行标注。
进一步的,在本申请又一种可能的实现形式中,上述数据筛选装置40,还包括:
第二获取模块,用于获取预设的自编码器对应的训练数据集,其中,训练数据集中包括多个训练数据及每个训练数据对应的标注结果;
第三生成模块,用于将每个训练数据输入预设模型,以生成每个训练数据对应的第二预测结果;
第四生成模块,用于对每个第二预测结果进行编码,以生成每个训练数据对应的第二预测结果的第二编码数据;
第五生成模块,用于对每个标注结果进行编码,以生成每个训练数据的对应的标注结果的第三编码数据;
第六生成模块,用于将每个第二编码数据输入初始自编码器,以生成每个训练数据对应的第三重建数据与第四重建数据;
第二确定模块,用于根据每个训练数据对应的第二预测结果的第二编码数据与第三重建数据之间的差异,确定每个训练数据对应的第三损失值;
第三确定模块,用于根据每个训练数据对应的标注结果的第三编码数据与第四重建数据之间的差异,确定每个训练数据对应的第四损失值;
第四确定模块,用于根据每个训练数据对应的第三损失值与第四损失值,确定目标损失值;
更新模块,用于根据目标损失值,对初始自编码器的网络参数进行更新,直至目标损失值小于或等于第三阈值,将更新后的初始自编码器确定为预设的自编码器。
进一步的,在本申请另一种可能的实现形式中,上述初始自编码器中包括初始第一解码器与初始第二解码器,相应的,上述第六生成模块,包括:
第七生成单元,用于将每个第二编码数据输入初始第一解码器,以生成每个训练数据对应的第三重建数据;
第八生成单元,用于将每个第二编码数据输入初始第二解码器,以生成每个训练数据对应的第四重建数据;
相应的,上述第四确定模块,包括:
第二确定单元,用于根据每个训练数据对应的第三损失值,确定第一目标损失值;
第三确定单元,用于根据每个训练数据对应的第四损失值,确定第二目标损失值;
相应的,上述更新模块,包括:
第一更新单元,用于根据第一目标损失值,对初始第一解码器的网络参数进行更新;
第二更新单元,用于根据第二目标损失值,对初始第二解码器的网络参数进行更新。
进一步的,在本申请再一种可能的实现形式中,上述初始自编码器还包括初始编码器;相应的,上述更新模块,包括:
第三更新单元,用于根据目标损失值,对初始编码器的网络参数进行更新。
需要说明的是,前述对图1、图2、图3所示的数据筛选方法实施例的解释说明也适用于该实施例的数据筛选装置40,此处不再赘述。
根据本申请实施例的技术方案,通过获取预设模型对待标注样本数据集中每个样本数据对应的第一预测结果进行编码,生成每个样本数据对应的第一预测结果的第一编码数据,并将每个第一编码数据输入预设的自编码器,以生成每个样本数据对应的第一重建数据与第二重建数据,之后根据每个样本数据对应的第一预测结果的第一编码数据分别与第一重建数据及第二重建数据之间的差异,确定每个样本数据对应的第一损失值与第二损失值,进而根据每个样本数据对应的第一损失值与第二损失值,对待标注样本数据集进行筛选。由此,通过预先训练可以对样本数据的预测结果与标注结果进行重建的自编码器,进而根据自编码器的重建结果与各个样本数据对应的第一预测结果的第一编码数据之间的差异,从待标注样本数据集中筛选预设模型的困难样本进行标注,从而不仅保证了模型的训练效益,而且降低了数据标注成本。
根据本申请的实施例,本申请还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图5示出了可以用来实施本申请的实施例的示例电子设备500的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图5所示,设备500包括计算单元501,其可以根据存储在只读存储器(ROM)502中的计算机程序或者从存储单元508加载到随机访问存储器(RAM)503中的计算机程序,来执行各种适当的动作和处理。在RAM 503中,还可存储设备500操作所需的各种程序和数据。计算单元501、ROM 502以及RAM 503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。
设备500中的多个部件连接至I/O接口505,包括:输入单元506,例如键盘、鼠标等;输出单元507,例如各种类型的显示器、扬声器等;存储单元508,例如磁盘、光盘等;以及通信单元509,例如网卡、调制解调器、无线通信收发机等。通信单元509允许设备500通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元501可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元501的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元501执行上文所描述的各个方法和处理,例如数据筛选方法。例如,在一些实施例中,数据筛选方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元508。在一些实施例中,计算机程序的部分或者全部可以经由ROM 502和/或通信单元509而被载入和/或安装到设备500上。当计算机程序加载到RAM 503并由计算单元501执行时,可以执行上文描述的数据筛选方法的一个或多个步骤。备选地,在其他实施例中,计算单元501可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行数据筛选方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本申请的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本申请的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网和区块链网络。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS(VirtualPrivate Server,虚拟专用服务器)服务中,存在的管理难度大,业务扩展性弱的缺陷。
根据本申请实施例的技术方案,通过获取预设模型对待标注样本数据集中每个样本数据对应的第一预测结果进行编码,生成每个样本数据对应的第一预测结果的第一编码数据,并将每个第一编码数据输入预设的自编码器,以生成每个样本数据对应的第一重建数据与第二重建数据,之后根据每个样本数据对应的第一预测结果的第一编码数据分别与第一重建数据及第二重建数据之间的差异,确定每个样本数据对应的第一损失值与第二损失值,进而根据每个样本数据对应的第一损失值与第二损失值,对待标注样本数据集进行筛选。由此,通过预先训练可以对样本数据的预测结果与标注结果进行重建的自编码器,进而根据自编码器的重建结果与各个样本数据对应的第一预测结果的第一编码数据之间的差异,从待标注样本数据集中筛选预设模型的困难样本进行标注,从而不仅保证了模型的训练效益,而且降低了数据标注成本。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (19)
1.一种数据筛选方法,包括:
获取预设模型对应的待标注样本数据集,其中,所述待标注样本数据集中包括多个样本数据及每个所述样本数据对应的第一预测结果;
对每个所述第一预测结果进行编码,以生成每个所述样本数据对应的第一预测结果的第一编码数据;
将每个所述第一编码数据输入预设的自编码器,以生成每个所述样本数据对应的第一重建数据与第二重建数据;
根据每个所述样本数据对应的第一预测结果的第一编码数据分别与所述第一重建数据及所述第二重建数据之间的差异,确定每个所述样本数据对应的第一损失值与第二损失值;
根据每个所述样本数据对应的第一损失值与第二损失值,对所述待标注样本数据集进行筛选。
2.如权利要求1所述的方法,其中,所述获取预设模型对应的待标注样本数据集,包括:
将每个所述样本数据输入所述预设模型,生成每个所述样本数据对应的第一预测结果。
3.如权利要求1所述的方法,其中,所述预设的自编码器中包括第一解码器与第二解码器,所述将每个所述第一编码数据输入预设的自编码器,以生成每个所述样本数据对应的第一重建数据与第二重建数据,包括:
将每个所述第一编码数据输入第一解码器,以生成每个所述样本数据对应的第一重建数据;
将每个所述第一编码数据输入第二解码器,以生成每个所述样本数据对应的第二重建数据。
4.如权利要求1所述的方法,其中,所述预设的自编码器包括编码器、第一解码器及第二解码器,所述将每个所述第一编码数据输入预设的自编码器,以生成每个所述样本数据对应的第一重建数据与第二重建数据,包括:
将每个所述第一编码数据输入所述编码器,以对每个所述第一编码数据进行升维处理,生成每个所述第一编码数据对应的高维特征;
将每个所述第一编码数据对应的高维特征输入所述第一解码器,以生成每个所述样本数据对应的第一重建数据;
将每个所述第一编码数据对应的高维特征输入所述第二解码器,以生成每个所述样本数据对应的第二重建数据。
5.如权利要求1所述的方法,其中,所述根据每个所述样本数据对应的第一损失值与第二损失值,对所述待标注样本数据集进行筛选,包括:
将对应的所述第一损失值大于第一阈值、且所述第二损失值大于第二阈值的所述样本数据,确定为待标注的样本数据进行标注。
6.如权利要求1-5任一所述的方法,其中,所述将每个所述第一编码数据输入预设的自编码器,以生成每个所述样本数据对应的第一重建数据与第二重建数据之前,还包括:
获取所述预设的自编码器对应的训练数据集,其中,所述训练数据集中包括多个训练数据及每个所述训练数据对应的标注结果;
将每个所述训练数据输入所述预设模型,以生成每个所述训练数据对应的第二预测结果;
对每个所述第二预测结果进行编码,以生成每个所述训练数据对应的第二预测结果的第二编码数据;
对每个所述标注结果进行编码,以生成每个所述训练数据的对应的标注结果的第三编码数据;
将每个所述第二编码数据输入初始自编码器,以生成每个所述训练数据对应的第三重建数据与第四重建数据;
根据每个所述训练数据对应的第二预测结果的第二编码数据与所述第三重建数据之间的差异,确定每个所述训练数据对应的第三损失值;
根据每个所述训练数据对应的标注结果的第三编码数据与所述第四重建数据之间的差异,确定每个所述训练数据对应的第四损失值;
根据每个所述训练数据对应的第三损失值与第四损失值,确定目标损失值;
根据所述目标损失值,对所述初始自编码器的网络参数进行更新,直至所述目标损失值小于或等于第三阈值,将更新后的初始自编码器确定为所述预设的自编码器。
7.如权利要求6所述的方法,所述初始自编码器中包括初始第一解码器与初始第二解码器,所述将每个所述第二编码数据输入初始自编码器,以生成每个所述训练数据对应的第三重建数据与第四重建数据,包括:
将每个所述第二编码数据输入所述初始第一解码器,以生成每个所述训练数据对应的第三重建数据;
将每个所述第二编码数据输入所述初始第二解码器,以生成每个所述训练数据对应的第四重建数据;
所述根据每个所述训练数据对应的第三损失值与第四损失值,确定目标损失值,包括:
根据每个所述训练数据对应的第三损失值,确定第一目标损失值;
根据每个所述训练数据对应的第四损失值,确定第二目标损失值;
所述根据所述目标损失值,对所述初始自编码器的网络参数进行更新,包括:
根据所述第一目标损失值,对所述初始第一解码器的网络参数进行更新;
根据所述第二目标损失值,对所述初始第二解码器的网络参数进行更新。
8.如权利要求6所述的方法,其中,所述初始自编码器还包括初始编码器,所述根据所述目标损失值,对所述初始自编码器的网络参数进行更新,包括:
根据所述目标损失值,对所述初始编码器的网络参数进行更新。
9.一种数据筛选装置,包括:
第一获取模块,用于获取预设模型对应的待标注样本数据集,其中,所述待标注样本数据集中包括多个样本数据及每个所述样本数据对应的第一预测结果;
第一生成模块,用于对每个所述第一预测结果进行编码,以生成每个所述样本数据对应的第一预测结果的第一编码数据;
第二生成模块,用于将每个所述第一编码数据输入预设的自编码器,以生成每个所述样本数据对应的第一重建数据与第二重建数据;
第一确定模块,用于根据每个所述样本数据对应的第一预测结果的第一编码数据分别与所述第一重建数据及所述第二重建数据之间的差异,确定每个所述样本数据对应的第一损失值与第二损失值;
筛选模块,用于根据每个所述样本数据对应的第一损失值与第二损失值,对所述待标注样本数据集进行筛选。
10.如权利要求9所述的装置,其中,所述第一获取模块,包括:
第一生成单元,用于将每个所述样本数据输入所述预设模型,生成每个所述样本数据对应的第一预测结果。
11.如权利要求9所述的装置,其中,所述预设的自编码器中包括第一解码器与第二解码器,所述第二生成模块,包括:
第二生成单元,用于将每个所述第一编码数据输入第一解码器,以生成每个所述样本数据对应的第一重建数据;
第三生成单元,用于将每个所述第一编码数据输入第二解码器,以生成每个所述样本数据对应的第二重建数据。
12.如权利要求11所述的装置,其中,所述预设的自编码器包括编码器、第一解码器及第二解码器,所述第二生成模块,包括:
第四生成单元,用于将每个所述第一编码数据输入所述编码器,以对每个所述第一编码数据进行升维处理,生成每个所述第一编码数据对应的高维特征;
第五生成单元,用于将每个所述第一编码数据对应的高维特征输入所述第一解码器,以生成每个所述样本数据对应的第一重建数据;
第六生成单元,用于将每个所述第一编码数据对应的高维特征输入所述第二解码器,以生成每个所述样本数据对应的第二重建数据。
13.如权利要求9所述的装置,其中,所述筛选模块,包括:
第一确定单元,用于将对应的所述第一损失值大于第一阈值、且所述第二损失值大于第二阈值的所述样本数据,确定为待标注的样本数据进行标注。
14.如权利要求9-13任一所述的装置,其中,还包括:
第二获取模块,用于获取所述预设的自编码器对应的训练数据集,其中,所述训练数据集中包括多个训练数据及每个所述训练数据对应的标注结果;
第三生成模块,用于将每个所述训练数据输入所述预设模型,以生成每个所述训练数据对应的第二预测结果;
第四生成模块,用于对每个所述第二预测结果进行编码,以生成每个所述训练数据对应的第二预测结果的第二编码数据;
第五生成模块,用于对每个所述标注结果进行编码,以生成每个所述训练数据的对应的标注结果的第三编码数据;
第六生成模块,用于将每个所述第二编码数据输入初始自编码器,以生成每个所述训练数据对应的第三重建数据与第四重建数据;
第二确定模块,用于根据每个所述训练数据对应的第二预测结果的第二编码数据与所述第三重建数据之间的差异,确定每个所述训练数据对应的第三损失值;
第三确定模块,用于根据每个所述训练数据对应的标注结果的第三编码数据与所述第四重建数据之间的差异,确定每个所述训练数据对应的第四损失值;
第四确定模块,用于根据每个所述训练数据对应的第三损失值与第四损失值,确定目标损失值;
更新模块,用于根据所述目标损失值,对所述初始自编码器的网络参数进行更新,直至所述目标损失值小于或等于第三阈值,将更新后的初始自编码器确定为所述预设的自编码器。
15.如权利要求14所述的装置,所述初始自编码器中包括初始第一解码器与初始第二解码器,所述第六生成模块,包括:
第七生成单元,用于将每个所述第二编码数据输入所述初始第一解码器,以生成每个所述训练数据对应的第三重建数据;
第八生成单元,用于将每个所述第二编码数据输入所述初始第二解码器,以生成每个所述训练数据对应的第四重建数据;
所述第四确定模块,包括:
第二确定单元,用于根据每个所述训练数据对应的第三损失值,确定第一目标损失值;
第三确定单元,用于根据每个所述训练数据对应的第四损失值,确定第二目标损失值;
所述更新模块,包括:
第一更新单元,用于根据所述第一目标损失值,对所述初始第一解码器的网络参数进行更新;
第二更新单元,用于根据所述第二目标损失值,对所述初始第二解码器的网络参数进行更新。
16.如权利要求14所述的装置,其中,所述初始自编码器还包括初始编码器,所述更新模块,包括:
第三更新单元,用于根据所述目标损失值,对所述初始编码器的网络参数进行更新。
17.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-8中任一项所述的方法。
18.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1-8中任一项所述的方法。
19.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-8中任一项所述方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110644004.3A CN113378921A (zh) | 2021-06-09 | 2021-06-09 | 数据筛选方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110644004.3A CN113378921A (zh) | 2021-06-09 | 2021-06-09 | 数据筛选方法、装置及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113378921A true CN113378921A (zh) | 2021-09-10 |
Family
ID=77573289
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110644004.3A Pending CN113378921A (zh) | 2021-06-09 | 2021-06-09 | 数据筛选方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113378921A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113886438A (zh) * | 2021-12-08 | 2022-01-04 | 济宁景泽信息科技有限公司 | 一种基于人工智能的成果转移转化数据筛选方法 |
CN114495123A (zh) * | 2022-01-14 | 2022-05-13 | 北京百度网讯科技有限公司 | 一种光学字符识别模型的优化方法、装置、设备及介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110009013A (zh) * | 2019-03-21 | 2019-07-12 | 腾讯科技(深圳)有限公司 | 编码器训练及表征信息提取方法和装置 |
WO2019185987A1 (en) * | 2018-03-29 | 2019-10-03 | Nokia Technologies Oy | Entropy-friendly neural network representations and their use in training and using neural networks such as autoencoders |
CN110517759A (zh) * | 2019-08-29 | 2019-11-29 | 腾讯科技(深圳)有限公司 | 一种待标注图像确定的方法、模型训练的方法及装置 |
WO2019242222A1 (zh) * | 2018-06-21 | 2019-12-26 | 北京字节跳动网络技术有限公司 | 用于生成信息的方法和装置 |
CN112702329A (zh) * | 2020-12-21 | 2021-04-23 | 四川虹微技术有限公司 | 一种流量数据异常检测方法、装置和存储介质 |
-
2021
- 2021-06-09 CN CN202110644004.3A patent/CN113378921A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019185987A1 (en) * | 2018-03-29 | 2019-10-03 | Nokia Technologies Oy | Entropy-friendly neural network representations and their use in training and using neural networks such as autoencoders |
WO2019242222A1 (zh) * | 2018-06-21 | 2019-12-26 | 北京字节跳动网络技术有限公司 | 用于生成信息的方法和装置 |
CN110009013A (zh) * | 2019-03-21 | 2019-07-12 | 腾讯科技(深圳)有限公司 | 编码器训练及表征信息提取方法和装置 |
CN110517759A (zh) * | 2019-08-29 | 2019-11-29 | 腾讯科技(深圳)有限公司 | 一种待标注图像确定的方法、模型训练的方法及装置 |
CN112702329A (zh) * | 2020-12-21 | 2021-04-23 | 四川虹微技术有限公司 | 一种流量数据异常检测方法、装置和存储介质 |
Non-Patent Citations (2)
Title |
---|
于波;方业全;刘闽;董君陶;: "基于深度卷积神经网络的图像重建算法", 计算机系统应用, no. 09, 15 September 2018 (2018-09-15) * |
张赛;芮挺;任桐炜;杨成松;邹军华;: "基于监督学习深度自编码器的图像重构", 计算机科学, no. 11, 15 November 2018 (2018-11-15) * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113886438A (zh) * | 2021-12-08 | 2022-01-04 | 济宁景泽信息科技有限公司 | 一种基于人工智能的成果转移转化数据筛选方法 |
CN113886438B (zh) * | 2021-12-08 | 2022-03-15 | 济宁景泽信息科技有限公司 | 一种基于人工智能的成果转移转化数据筛选方法 |
CN114495123A (zh) * | 2022-01-14 | 2022-05-13 | 北京百度网讯科技有限公司 | 一种光学字符识别模型的优化方法、装置、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114372477B (zh) | 文本识别模型的训练方法、文本识别方法及装置 | |
CN113313022A (zh) | 文字识别模型的训练方法和识别图像中文字的方法 | |
CN113011420B (zh) | 字符识别方法、模型训练方法、相关装置及电子设备 | |
CN114863437B (zh) | 文本识别方法、装置、电子设备和存储介质 | |
CN115063875B (zh) | 模型训练方法、图像处理方法、装置和电子设备 | |
CN113361578A (zh) | 图像处理模型的训练方法、装置、电子设备及存储介质 | |
CN112861825B (zh) | 模型训练方法、行人再识别方法、装置和电子设备 | |
CN114820871B (zh) | 字体生成方法、模型的训练方法、装置、设备和介质 | |
CN113378921A (zh) | 数据筛选方法、装置及电子设备 | |
CN114494784A (zh) | 深度学习模型的训练方法、图像处理方法和对象识别方法 | |
CN113177449A (zh) | 人脸识别的方法、装置、计算机设备及存储介质 | |
CN116152833B (zh) | 基于图像的表格还原模型的训练方法及表格还原方法 | |
CN112580666A (zh) | 图像特征的提取方法、训练方法、装置、电子设备及介质 | |
CN113344862A (zh) | 缺陷检测方法、装置、电子设备及存储介质 | |
CN114863182A (zh) | 图像分类方法、图像分类模型的训练方法及装置 | |
CN115640520A (zh) | 跨语言跨模态模型的预训练方法、设备和存储介质 | |
CN114529796A (zh) | 模型训练方法、图像识别方法、装置及电子设备 | |
CN114462598A (zh) | 深度学习模型的训练方法、确定数据类别的方法和装置 | |
CN112949433B (zh) | 视频分类模型的生成方法、装置、设备和存储介质 | |
CN113177466A (zh) | 基于人脸图像的身份识别方法、装置、电子设备及介质 | |
CN115861255A (zh) | 用于图像处理的模型训练方法、装置、设备、介质及产品 | |
CN115565186A (zh) | 文字识别模型的训练方法、装置、电子设备和存储介质 | |
CN115482353A (zh) | 重建网络的训练方法、重建方法、装置、设备和介质 | |
CN115116080A (zh) | 表格解析方法、装置、电子设备和存储介质 | |
CN114781386A (zh) | 文本纠错训练语料的获取方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |