CN112949786B - 数据分类识别方法、装置、设备及可读存储介质 - Google Patents

数据分类识别方法、装置、设备及可读存储介质 Download PDF

Info

Publication number
CN112949786B
CN112949786B CN202110532246.3A CN202110532246A CN112949786B CN 112949786 B CN112949786 B CN 112949786B CN 202110532246 A CN202110532246 A CN 202110532246A CN 112949786 B CN112949786 B CN 112949786B
Authority
CN
China
Prior art keywords
data
classification
model
training
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110532246.3A
Other languages
English (en)
Other versions
CN112949786A (zh
Inventor
魏东
孙镜涵
马锴
王连生
郑冶枫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202110532246.3A priority Critical patent/CN112949786B/zh
Publication of CN112949786A publication Critical patent/CN112949786A/zh
Application granted granted Critical
Publication of CN112949786B publication Critical patent/CN112949786B/zh
Priority to PCT/CN2022/090902 priority patent/WO2022242459A1/zh
Priority to US18/077,709 priority patent/US20230105590A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • G06F18/41Interactive pattern learning with a human teacher
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7753Incorporation of unlabelled data, e.g. multiple instance learning [MIL]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请公开了一种数据分类识别方法、装置、设备及可读存储介质,涉及机器学习领域。该方法包括:获取第一数据集和第二数据集,第二数据集中包括标注有样本标签的第二数据,第二数据属于目标分类集;通过第一数据以无监督训练模式,以及第二数据以监督训练模式训练得到分类教师模型;获取分类学生模型;对分类学生模型的模型参数进行蒸馏训练,得到数据分类模型;通过数据分类模型对目标数据进行分类预测。利用教师模型进行监督训练来达到蒸馏的目的,最终得到更高性能和精度的学生模型,训练主要依赖大量的第一数据,而对有标签的第二数据的数据量要求较小,避免了对样本数据进行大量标注的繁琐过程,提高了数据分类模型的训练效率以及准确率。

Description

数据分类识别方法、装置、设备及可读存储介质
技术领域
本申请实施例涉及机器学习领域,特别涉及一种数据分类识别方法、装置、设备及可读存储介质。
背景技术
在基于医学影像的疾病诊断方面通常包括罕见病的诊断和常见病的诊断,也即,将医学影像输入至机器学习模型后,由机器学习模型对医学影像进行分析,从而判断医学影像所对应的身体异常情况。
相关技术中,在针对罕见病进行诊断时,将医学影像输入至罕见病的分类模型中,由分类模型对医学影像进行分析诊断,从而确定医学影像所表达的图像特征是否属于罕见病,以及属于哪一种罕见病。其中,分类模型在训练过程中,需要大量有标注的训练数据集,即标注有罕见病信息的图像数据集进行训练,从而确保模型准确率。
然而,罕见病本身属于出现几率较低的病症,收集罕见病的图像数据以及对罕见病信息进行标注的难度较大,导致分类模型的训练效率较低。
发明内容
本申请实施例提供了一种数据分类识别方法、装置、设备及可读存储介质,能够提高对针对罕见病进行识别分类的识别模型的训练效率。所述技术方案如下。
一方面,提供了一种数据分类识别方法,所述方法包括:
获取第一数据集和第二数据集,所述第一数据集中包括第一数据,所述第二数据集中包括标注有样本标签的第二数据,所述第二数据属于目标分类集;
通过所述第一数据以无监督训练模式,以及所述第二数据以监督训练模式训练得到分类教师模型;
获取分类学生模型,所述分类学生模型为模型参数待训练的模型;
通过所述第一数据以所述分类教师模型为基准模型,对所述分类学生模型的所述模型参数进行蒸馏训练,得到数据分类模型;
通过所述数据分类模型对目标数据进行分类预测,得到所述目标数据在所述目标分类集中所属的分类结果。
另一方面,提供了一种数据分类识别装置,所述装置包括:
获取模块,用于获取第一数据集和第二数据集,所述第一数据集中包括第一数据,所述第二数据集中包括标注有样本标签的第二数据,所述第二数据属于目标分类集;
训练模块,用于通过所述第一数据以无监督训练模式,以及所述第二数据以监督训练模式训练得到分类教师模型;
所述获取模块,还用于获取分类学生模型,所述分类学生模型为模型参数待训练的模型;
所述训练模块,还用于通过所述第一数据以所述分类教师模型为基准模型,对所述分类学生模型的所述模型参数进行蒸馏训练,得到数据分类模型;
预测模块,用于通过所述数据分类模型对目标数据进行分类预测,得到所述目标数据在所述目标分类集中所属的分类结果。
另一方面,提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如上述本申请实施例中任一所述数据分类识别方法。
另一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如上述本申请实施例中任一所述的数据分类识别方法。
另一方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述实施例中任一所述的数据分类识别方法。
本申请实施例提供的技术方案带来的有益效果至少包括:
在通过无标签的第一数据进行无监督训练以及有标签的第二数据进行监督训练后,得到分类教师模型,从而在分类教师模型的基础上,创建分类学生模型进行知识蒸馏训练,利用教师模型进行监督训练来达到蒸馏的目的,最终得到更高性能和精度的学生模型,训练主要依赖大量的第一数据,而对有标签的第二数据的数据量要求较小,避免了对样本数据进行大量标注的繁琐过程,提高了数据分类模型的训练效率以及准确率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一个示例性实施例提供的整体方案实施流程示意图;
图2是本申请一个示例性实施例提供的实施环境示意图;
图3是本申请一个示例性实施例提供的数据分类识别方法的流程图;
图4是本申请另一个示例性实施例提供的数据分类识别方法的流程图;
图5是本申请另一个示例性实施例提供的数据分类识别方法;
图6是本申请一个示例性实施例提供的罕见病分类识别模型的训练过程整体示意图;
图7是本申请一个示例性实施例提供的数据分类识别装置的结构框图;
图8是本申请另一个示例性实施例提供的数据分类识别装置的结构框图;
图9是本申请一个示例性实施例提供的服务器的结构框图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
首先,针对本申请实施例中涉及的名词进行简单介绍。
人工智能(Artificial Intelligence,AI):是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
机器学习(Machine Learning,ML):是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、示教学习等技术。
计算机视觉技术(Computer Vision,CV):是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、光学字符识别(Optical Character Recognition,OCR)、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
伪标签:是指通过经过训练的模型对未标注的数据进行预测后得到预测结果,并基于预测结果对数据进行标注的标签。也即,伪标签并非根据数据的实际情况人工标注的标签,而是由训练好的模型标注的存在一定容错率的标签。
相关技术中,针对罕见病的诊断,需要通过用于罕见病诊断的分类模型,而分类模型的训练则需要通过标注有罕见病信息的大量样本图像数据,通过分类模型对样本图像数据进行分类识别后,得到识别结果,通过标注的罕见病信息与识别结果之间的差异对分类模型进行训练。然而,由于罕见病本身的罕见性,导致样本图像数据的获取难度较大,需要大量的人力采集样本图像数据,以及对样本图像数据进行罕见病信息的标注,分类模型的训练效率较低。
本申请实施例中,提供了一种数据分类识别方法,在样本数量较少的情况下提高了数据分类模型的训练效率和准确率。
示意性的,图1是本申请一个示例性实施例提供的整体方案实施流程示意图,以罕见病的分类模型训练过程为例,如图1所示。
首先获取第一图像数据集110和第二图像数据集120,其中,第一图像数据集110中包括常见病的医学影像,且第一图像数据集110中的医学影像不包括标注信息;第二图像数据集120中包括少量罕见病的医学影像,且第二图像数据集120中的医学影像包括标注信息用于标注医学影像对应的罕见病信息。
通过第一图像数据集110对特征提取网络fq进行无监督训练后,将经过无监督训练的fq与分类网络fc连接,得到分类教师模型F,通过第二图像数据集120对分类教师模型F进行监督训练,并基于训练后的分类教师模型F对分类学生模型F’进行知识蒸馏训练,从而得到罕见病的分类模型(也即训练后的分类学生模型F’)。
其次,对本申请实施例中涉及的实施环境进行说明,示意性的,请参考图2,该实施环境中涉及终端210、服务器220,终端210和服务器220之间通过通信网络230连接。
在一些实施例中,终端210包括第一终端211和第二终端212。
第一终端211用于向服务器220发送医学影像。示意性的,第一终端211为医生应用的终端,医生在通过医学影像对罕见病进行诊断的过程中,通过分类模型进行辅助诊断,从而提高诊断准确率;或者,第一终端211为用户应用的终端,如:患者本人,或者患者的亲属等,用户将医学影像发送至服务器,从而获取参考诊断结果;或者,第一终端211为医学影像扫描设备所连接的终端,医学影像扫描设备在扫描得到医学影像后传输至第一终端211,第一终端211在接收到医学影像后,将医学影像转发至服务器220进行辅助诊断。
服务器220通过上述图1所示的方式进行罕见病分类模型221的训练,得到罕见病分类模型221后,接收第一终端211上传的医学影像,并通过分类模型对医学影像进行分类识别,得到医学影像在罕见病分类集中的分类诊断结果。服务器220将分类诊断结果反馈至第一终端211或者将分类诊断结果发送至第二终端212。
其中,当第一终端211实现为与医学影像扫描设备连接的终端时,服务器220将分类诊断结果发送至第二终端212,第二终端212实现为医生应用的终端或者用户应用的终端。
上述终端可以是手机、平板电脑、台式电脑、便携式笔记本电脑等多种形式的终端设备,本申请实施例对此不加以限定。
值得注意的是,上述服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content DeliveryNetwork,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
其中,云技术(Cloud technology)是指在广域网或局域网内将硬件、软件、网络等系列资源统一起来,实现数据的计算、储存、处理和共享的一种托管技术。云技术基于云计算商业模式应用的网络技术、信息技术、整合技术、管理平台技术、应用技术等的总称,可以组成资源池,按需所用,灵活便利。云计算技术将变成重要支撑。技术网络系统的后台服务需要大量的计算、存储资源,如视频网站、图片类网站和更多的门户网站。伴随着互联网行业的高度发展和应用,将来每个物品都有可能存在自己的识别标志,都需要传输到后台系统进行逻辑处理,不同程度级别的数据将会分开处理,各类行业数据皆需要强大的系统后盾支撑,只能通过云计算来实现。
在一些实施例中,上述服务器还可以实现为区块链系统中的节点。区块链(Blockchain)是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链,本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层。
结合上述名词简介,对本申请实施例中涉及的应用场景进行举例说明。
第一,医生通过分类模型进行辅助诊断的场景。
也即,医生通过终端将医学影像发送至服务器,服务器通过训练好的分类模型对医学影像进行分类识别,得到与医学影像对应的分类诊断结果,并将分类诊断结果反馈至医生所应用的终端进行展示,从而医生通过分类诊断结果进行辅助诊断,并得出最终的诊断结果。
第二,用户通过分类模型进行预诊断。
用户(患者或者患者的亲友)将医学影像发送至服务器,服务器通过训练好的分类模型对医学影像进行分类识别,得到与医学影像对应的分类诊断结果,并将分类诊断结果反馈至用户应用的终端进行展示,用户根据分类诊断结果首先对异常生命状态进行初步了解,继而通过医生诊断得到详细诊断结果。
第三,分类模型还可以应用于其他分类场景。
示意性的,该分类模型还可以应用于物体识别场景、语音识别场景、人脸识别场景等,本申请实施例对此不加以限定。
结合上述名词简介和应用场景,对本申请提供的数据分类识别方法进行说明,以该方法应用于服务器中为例,如图3所示,该方法包括如下步骤。
步骤301,获取第一数据集和第二数据集。
其中,第一数据集中包括第一数据,第二数据集中包括标注有样本标签的第二数据,第二数据属于目标分类集。
在一些实施例中,第一数据集中的第一数据为未标注有标签的数据,而第二数据集中的第二数据为标注有样本标签的数据。
可选地,第一数据属于第一分类集,第二数据属于目标分类集,也即第一数据和第二数据属于不同分类集对应的数据。示意性的,第一分类集对应为常见病分类集,以眼部疾病为例,如:第一分类集中包括近视、远视、结膜炎等常见眼疾类型;目标分类集对应为罕见病分类集,以眼部疾病为例,如:目标分类集中包括干眼症、视雪症、遗传性视神经病变等罕见眼疾类型。
本申请实施例中,常见病和罕见病是针对同一器官或者同一身体部分对应的病症,或者,常见病和罕见病属于同一病症类型。
在一些实施例中,第一数据集中包括的第一数据为与常见病对应的医学影像,如:电子计算机断层扫描(Computed Tomography,CT)图像、X光图像、超声波图像等形式的影像;第二数据集中包括的第二数据为与和罕见病对应的医学影像,如:CT图像、X光图像、超声波图像等形式的影像。
值得注意的是,上述医学影像仅为示意性的举例,本申请实施例中的第一数据和第二数据还可以实现为其他类型的数据,本申请实施例对此不加以限定。
第一数据集中第一数据的数据量(即医学影像的数量)大于第二数据集中第二数据的数据量(即医学影像的数量),可选地,第二数据集中第二数据的数量在要求数量范围内,如:小于预设数量。
可选地,第一数据集中的第一数据是从基础数据集中随机采样的数据,基础数据集中包括常见病数据;第二数据集中的第二数据是从罕见病数据集中随机采样的数据,罕见病数据集中包括罕见病数据,第二数据标注有罕见病信息,也即每个医学影像所对应的罕见病类型。
步骤302,通过第一数据以无监督训练模式,以及第二数据以监督训练模式训练得到分类教师模型。
在一些实施例中,基于第一数据集中的第一数据对特征提取网络进行无监督训练,将分类回归网络与经过无监督训练的特征提取网络结合,得到分类模型,其中,分类回归网络用于在目标分类集中进行数据分类,通过第二数据集中的第二数据和样本标签对分类模型进行监督训练,得到分类教师模型。
由于第一数据集中的第一数据为不存在对应标注的标签的数据,故,第一数据仅能够用于对特征提取网络进行无监督训练。而第二数据集中的第二数据存在对应标注的样本标签,故,第二数据能够用于对分类模型进行监督训练。
步骤303,获取分类学生模型。
分类学生模型为模型参数待训练的模型。
可选的,分类学生模型为随机初始化的分类模型,分类学生模型中包括模型参数,分类学生模型用于根据分类教师模型输出的知识进行蒸馏训练。其中,知识蒸馏是指将教师模型输出的监督信息作为知识,由学生模型学习迁移自教师模型的监督信息作为蒸馏过程,利用教师模型进行监督训练来达到蒸馏的目的,最终得到更高性能和精度的学生模型。
步骤304,通过第一数据以分类教师模型为基准模型,对分类学生模型的模型参数进行蒸馏训练,得到数据分类模型。
可选地,通过分类教师模型对第一数据集中的第一数据进行分类预测,得到与第一数据对应目标分类集中类别的伪标签;通过分类学生模型对第一数据集中的第一数据进行分类预测,得到与第一数据对应的预测结果,基于伪标签与预测结果之间的差异对分类学生模型的模型参数进行调整,得到数据分类模型。
也即,将分类教师模型对第一数据进行分类预测后输出的伪标签作为知识,由分类学生模型迁移该伪标签进行蒸馏,从而实现分类学生模型的蒸馏训练。
步骤305,通过数据分类模型对目标数据进行分类预测,得到目标数据在目标分类集中所属的分类结果。
在分类学生模型经过训练后,得到数据分类模型,通过数据分类模型对目标数据进行分类,即可得到目标数据在目标分类集中的分类结果。其中,目标数据可以是实际应用时的数据,如:实际应用时的医学影像;或者,目标数据也可以是测试集中用于对数据分类模型进行测试的数据。
综上所述,本实施例提供的数据分类识别方法,在通过无标签的第一数据进行无监督训练以及有标签的第二数据进行监督训练后,得到分类教师模型,从而在分类教师模型的基础上,创建分类学生模型进行知识蒸馏训练,利用教师模型进行监督训练来达到蒸馏的目的,最终得到更高性能和精度的学生模型,训练主要依赖大量的第一数据,而对有标签的第二数据的数据量要求较小,避免了对样本数据进行大量标注的繁琐过程,提高了数据分类模型的训练效率以及准确率。
在一些实施例中,通过分类教师模型对分类学生模型进行蒸馏训练的过程中,需要通过分类教师模型识别得到的伪标签作为知识,图4是本申请另一个示例性实施例提供的数据分类识别方法的流程图,以该方法应用于服务器中为例进行说明,如图4所示,该方法包括如下步骤。
步骤401,获取第一数据集和第二数据集。
其中,第一数据集中包括第一数据,第二数据集中包括标注有样本标签的第二数据,第二数据属于目标分类集。
在一些实施例中,第一数据集中的第一数据为未标注有标签的数据,而第二数据集中的第二数据为标注有样本标签的数据。
可选地,第一数据属于第一分类集,第二数据属于目标分类集,也即第一数据和第二数据属于不同分类集对应的数据。示意性的,第一分类集对应为常见病分类集;目标分类集对应为罕见病分类集。
步骤402,通过第一数据以无监督训练模式,以及第二数据以监督训练模式训练得到分类教师模型。
在一些实施例中,基于第一数据集中的第一数据对特征提取网络进行无监督训练,将分类回归网络与经过无监督训练的特征提取网络结合,得到分类模型,其中,分类回归网络用于在目标分类集中进行数据分类,通过第二数据集中的第二数据和样本标签对分类模型进行监督训练,得到分类教师模型。
分类教师模型具有较好的分类性能,但在表征学习的过程中,忽略了与目标分类集相关的知识,故,本申请实施例中,将分类教师模型作为基准模型,通过分类教师模型输出的知识对分类学生模型进行蒸馏训练。其中,分类学生模型为模型参数待调整的用于在目标分类集进行分类的模型。
步骤403,通过分类教师模型对第一数据集中的第一数据进行分类预测,得到与第一数据对应目标分类集中类别的伪标签。
由于即使第一数据集和第二数据经济所包含的数据类别不同,但数据具有相似的特征,示意性的,第一数据集为常见病的医学影像,第二数据集为罕见病的医学影像,则第一数据集和第二数据集的数据在颜色、纹理或者形状上具有相似的特征。因此,采用分类教师模型作为基准模型预测第一数据集中的图像属于目标分类集的概率。
在一些实施例中,通过分类教师模型对第一数据集中的第一数据进行分类预测,得到第一数据对应目标分类集中分类的概率值,基于概率值从目标分类集中确定第一数据对应的伪标签。
可选地,首先通过分类教师模型确定第一数据对应目标分类集中类别的软标签,也即对应目标分类集中类别的概率:p=F(x)=[p1,…,pn]T,其中,p表示概率,n表示目标分类集中类别数量,F(x)表示对第一数据x采用分类教师模型F进行分类预测,n个类别的概率和为1。根据上述确定的软标签进一步确定第一数据对应目标分类集中类别的硬标签。示意性的,根据上述概率p,将概率最大的类别标注为对应的第一数据的伪标签,也即,概率最大的类别的硬标签为1,其他类别硬标签为0,而硬标签为1的类别即为第一数据对应的伪标签。
步骤404,获取分类学生模型,并通过分类学生模型对第一数据集中的第一数据进行分类预测,得到与第一数据对应的预测结果。
分类学生模型为模型参数待调整的模型,分类学生模型用于对应目标分类集对数据进行分类。
步骤405,基于伪标签与预测结果之间的差异对分类学生模型的模型参数进行调整,得到数据分类模型。
可选地,分类学生模型中包括第一查询编码器和第一键值编码器,则通过第一查询编码器对第一数据进行编码,得到第一编码结果,通过第一键值编码器对第一数据和第一预设动态字典中的数据进行编码的第二编码结果,基于第一编码结果和第二编码结果的差异对分类学生模型进行蒸馏训练,得到数据分类模型。
在一些实施例中,结合伪标签监督方法与对比判别方法进行混合蒸馏损失的确定,其中伪标签监督方法即为基于伪标签与预测结果之间的差异对分类学生模型的模型参数进行调整,对比判别方法即为通过第一查询编码器与第一键值编码器对分类学生模型进行训练。可选地,采用随机初始化学生模型的策略,其中分类学生模型F’=f’c(f’q),f’q对应为第一查询编码器,具有模型参数θ’q,f’c对应为回归分类网络,具有模型参数θ’c,确定混合损失Ldis,计算公式如下公式一所示。
公式一:Ldis=Lcon(x;θ’q,θ’k)+Lcls(y,F’(x;θ’q,θ’c))
其中,x为第一数据集中的第一数据,θ’k为第一键值编码器f’k的参数,并随着θ’q进行动量更新,第一键值编码器f’k对应有第一预设动态词典,将第一查询编码器f’q提取的第一编码结果与第一键值编码器对第一预设动态词典中的数据编码的第二编码结果进行比对,得到对比判别方法中的损失Lcon。y表示分类教师模型识别得到的伪标签,将伪标签与分类学生模型的预测结果进行比对,得到伪标签监督方法对应的损失Lcls。从而将两部分损失相加,对模型参数θ’q进行更新。
在一些实施例中,与基准模型不同的是,f’c采用全连接层(后接softmax操作)实现,便于进行端到端的模型训练。
在实际训练中,由于罕见病对应的第二数据集中数据量较少以及其产生的噪声和偏差,分类教师模型生成的伪标签不是完全可用的并且可能对分类学生模型的训练造成不利影响。故,本申请实施例中,伪标签还对应有置信度参数,获取伪标签的置信度参数,确定伪标签在置信度参数下与预测结果之间的差异,并基于差异对分类学生模型的模型参数进行调整,得到数据分类模型。
示意性的,本实施例中,将分类学生模型的预测值p’与伪标签y结合作为训练目标,请参考如下公式二。
公式二:yadpt=(1-α)×y+α×p’
其中,α为置信度参数,控制分类教师模型生成的伪标签y所占训练目标的比例。通常α为一个固定值,然而,在训练的初始阶段,学生模型所产生的预测值的可信度较低。因此本申请采用线性增长方法,在第t个训练回合的α为:αtT×(t/T)。其中,αT为最后一个训练回合的参数值,示意性的,αT设置为0.7。T为总训练回合数。最后,用yadpt替代上述公式一中的y作为最终的损失函数。
步骤406,通过数据分类模型对目标数据进行分类预测,得到目标数据在目标分类集中所属的分类结果。
在分类学生模型经过训练后,得到数据分类模型,通过数据分类模型对目标数据进行分类,即可得到目标数据在目标分类集中的分类结果。其中,目标数据可以是实际应用时的数据,如:实际应用时的医学影像;或者,目标数据也可以是测试集中用于对数据分类模型进行测试的数据。
在一些实施例中,获取测试数据集,测试数据集中的测试数据用于对数据分类模型的训练效果进行测试,从测试数据集中获取目标数据,目标数据标注有参考分类信息,通过数据分类模型对目标数据进行分类预测得到分类结果后,基于参考分类信息和分类结果获取数据分类模型的训练效果数据。示意性的,获取测试数据集中的多个目标数据,分别进行分类预测,并与参考分类信息进行比对,根据比对结果正确的目标数据占被测试的目标数据总数的比例,确定训练效果,也即确定数据分类模型的预测准确率。
综上所述,本实施例提供的数据分类识别方法,在通过无标签的第一数据进行无监督训练以及有标签的第二数据进行监督训练后,得到分类教师模型,从而在分类教师模型的基础上,创建分类学生模型进行知识蒸馏训练,利用教师模型进行监督训练来达到蒸馏的目的,最终得到更高性能和精度的学生模型,训练主要依赖大量的第一数据,而对有标签的第二数据的数据量要求较小,避免了对样本数据进行大量标注的繁琐过程,提高了数据分类模型的训练效率以及准确率。
本实施例提供的方法,结合伪标签监督方法与对比判别方法进行混合蒸馏损失的确定,在通过分类教师模型对分类学生模型进行蒸馏训练的同时,避免分类学生模型对数据的特征提取被蒸馏训练过程影响,提高了分类学生模型的训练效率和准确率。
在一些实施例中,分类教师模型是通过第一数据的无监督训练和第二数据的监督训练得到的。图5是本申请另一个示例性实施例提供的数据分类识别方法的流程图,如图5所示,以该方法应用于服务器中为例,该方法包括如下步骤。
步骤501,获取第一数据集和第二数据集。
其中,第一数据集中包括第一数据,第二数据集中包括标注有样本标签的第二数据,第二数据属于目标分类集。
在一些实施例中,第一数据集中的第一数据为未标注有标签的数据,而第二数据集中的第二数据为标注有样本标签的数据。
可选地,第一数据属于第一分类集,第二数据属于目标分类集,也即第一数据和第二数据属于不同分类集对应的数据。示意性的,第一分类集对应为常见病分类集;目标分类集对应为罕见病分类集。
步骤502,基于第一数据集中的第一数据对特征提取网络进行无监督训练。
在一些实施例中,特征提取网络中包括第二查询编码器和第二键值编码器则通过第二查询编码器对第一数据进行编码,得到第三编码结果,获取第二键值编码器对第二预设动态字典中的数据进行编码的第四编码结果,基于第三编码结果和第四编码结果的差异对特征提取网络进行无监督训练。
无监督表征学习能够在无标注数据的情况下训练一个较好的特征提取模型,故,本申请实施例中,采用对比损失作为特征提取网络的优化函数。
可选地,在通过特征提取网络对第一数据进行特征提取时,将第一数据进行数据增强,以第一数据为医学影像为例,则对第一数据集中的医学影像进行图像增强,其中,图像增强的次数两次,从而分别输入第二查询编码器和第二键值编码器。示意性的,对第一数据集中的每张图像进行两次图像增强,得到
Figure 381603DEST_PATH_IMAGE001
Figure 33165DEST_PATH_IMAGE002
。分别通过第二查询编码器
Figure 609639DEST_PATH_IMAGE003
和第二键值编码器
Figure 866833DEST_PATH_IMAGE004
进行特征提取,得到相应的特征,其中,fq和fk分别为由参数θq和θk组成的第二查询编码器和第二键值编码器,则对比损失的计算方式请参考如下公式三。
公式三:
Figure 477943DEST_PATH_IMAGE005
其中,xi为第一数据集中的第一数据,l为存储在第二预设动态字典中的键值图像的数量,τ为平滑标签的超参数。通过对比损失的训练,模型能够区分图像xi与存储在第二预设动态字典中的键值图像,并根据图像xi与存储在第二预设动态字典中的键值图像的差异通过反向传播更新参数θq,而θk通过θq进行动量更新:
Figure 769247DEST_PATH_IMAGE006
,其中,
Figure 895335DEST_PATH_IMAGE007
通过第一数据集对特征提取网络完成无监督训练后,冻结参数θq
步骤503,将分类回归网络与经过无监督训练的特征提取网络结合,得到分类模型。
在一些实施例中,分类回归网络用于在目标分类集中进行数据分类。
可选地,由于上述特征提取网络对应有第二查询编码器和第二键值编码器,在将分类回归网络与特征提取网络结合时,本申请实施例中,将分类回归网络与经过无监督训练的第二查询编码器连接,得到分类模型。
步骤504,通过第二数据集中的第二数据和样本标签对分类模型进行监督训练,得到分类教师模型。
在一些实施例中,通过第二数据对第二模型进行监督训练时,将第二数据输入分类模型进行分类预测,得到预测结果,而第二数据本身标注有样本标签,用于指示第二数据的实际分类,从而根据样本标签与预测结果之间的差异反向对分类模型的模型参数进行调整。可选地,根据样本标签与预测结果计算该预测结果的损失值,从而根据损失值反向对分类模型的模型参数进行调整,直至预测结果对应的损失值收敛。
步骤505,获取分类学生模型。
分类学生模型为模型参数待训练的模型。
可选的,分类学生模型为随机初始化的分类模型,分类学生模型中包括模型参数,分类学生模型用于根据分类教师模型输出的知识进行蒸馏训练。其中,知识蒸馏是指将教师模型输出的监督信息作为知识,由学生模型学习迁移自教师模型的监督信息作为蒸馏过程,利用教师模型进行监督训练来达到蒸馏的目的,最终得到更高性能和精度的学生模型。
步骤506,通过第一数据以分类教师模型为基准模型,对分类学生模型的模型参数进行蒸馏训练,得到数据分类模型。
可选地,通过分类教师模型对第一数据集中的第一数据进行分类预测,得到与第一数据对应目标分类集中类别的伪标签;通过分类学生模型对第一数据集中的第一数据进行分类预测,得到与第一数据对应的预测结果,基于伪标签与预测结果之间的差异对分类学生模型的模型参数进行调整,得到数据分类模型。
也即,将分类教师模型对第一数据进行分类预测后输出的伪标签作为知识,由分类学生模型迁移该伪标签进行蒸馏,从而实现分类学生模型的蒸馏训练。
步骤507,通过数据分类模型对目标数据进行分类预测,得到目标数据在目标分类集中所属的分类结果。
在分类学生模型经过训练后,得到数据分类模型,通过数据分类模型对目标数据进行分类,即可得到目标数据在目标分类集中的分类结果。其中,目标数据可以是实际应用时的数据,如:实际应用时的医学影像;或者,目标数据也可以是测试集中用于对数据分类模型进行测试的数据。
综上所述,本实施例提供的数据分类识别方法,在通过无标签的第一数据进行无监督训练以及有标签的第二数据进行监督训练后,得到分类教师模型,从而在分类教师模型的基础上,创建分类学生模型进行知识蒸馏训练,利用教师模型进行监督训练来达到蒸馏的目的,最终得到更高性能和精度的学生模型,训练主要依赖大量的第一数据,而对有标签的第二数据的数据量要求较小,避免了对样本数据进行大量标注的繁琐过程,提高了数据分类模型的训练效率以及准确率。
本实施例提供的方法,通过第一数据集中无标签的第一数据对特征提取网络进行无监督训练,从而通过第二数据集中有标签的第二数据对分类模型进行监督训练,从而在第二数据的采集过程较为繁琐,或者第二数据的收集难度较大时,仅需要少量采集第二数据,即可实现对分类教师模型的有效训练,提高了模型的训练效率。
结合上述内容,以上述第一数据集中的第一数据为常见病的医学影像,第二数据集中的第二数据为罕见病的医学影像为例,进行示意性的说明,图6是本申请一个示例性实施例提供的罕见病分类识别模型的训练过程整体示意图。
如图6所示,该过程中包括无监督训练阶段610、监督训练阶段620、伪标签生成阶段630以及分类学生模型的训练阶段640。
其中,在无监督训练阶段610中,将无标签标注的常见病医学影像611进行两次图像增强得到
Figure 890973DEST_PATH_IMAGE008
Figure 294272DEST_PATH_IMAGE009
,并通过查询编码器612和键值编码器613进行损失值的确定,从而完成对查询编码器612的训练,冻结查询编码器612的参数,并将无监督训练后的查询编码器612在监督训练阶段620应用于与分类回归模型621的连接。
在监督训练阶段620中,当查询编码器612与分类回归模型621连接后,得到待训练的分类教师模型622,通过罕见病的医学影像623对分类教师模型622进行监督训练时,根据罕见病的医学影像623对应标注的标签以及分类教师模型622的分类结果确定损失值,并实现对分类教师模型622的监督训练。
在分类教师模型622训练完毕后,在伪标签生成阶段630,通过分类教师模型622对常见病的医学影像611进行分类识别,得到常见病的医学影像611对应的伪标签。
在分类学生模型的训练阶段640,根据常见病的医学影像611对应的伪标签,以及分类学生模型641的预测结果得到第一损失值,根据分类学生模型641中查询编码器642和键值编码器643的编码结果得到第二损失值,从而根据第一损失值和第二损失值确定总的损失值对分类学生模型641进行训练,得到罕见病分类识别模型。
表一给出了本申请的技术方案在皮肤病变分类数据集上的结果对比。此数据集包含7个类别,将病例数量最多的四个类别的数据集作为第一数据集,剩余三个类别的数据集作为第二数据集。评价指标选择了准确率(Accuracy)、统计学中用来衡量二分类模型精确度的指标F1 score。
表一
Figure 881111DEST_PATH_IMAGE010
表一中,N代表测试类别数,K代表每个测试类别提供的有标签的图片数量,本技术方案分别对比了K为1,3,5的结果。将罕见病数据集中剩余的图像组成Q作为测试集用于性能评估。
由表一可见,本技术方案的分类指标优于全部现有技术。本技术方案在基准模型的基础上加入自蒸馏,提升了准确率约1-2%,F1 score 约3-5%。从表一中可以观察到在K=5时,本技术方案无需任何常见病数据集的标注,准确率即可达到81.16%。此结果验证了本方法的假设:通过将伪标签监督信息注入到表征学习过程中并充分利用大量无标注数据集学习能够更好地学习罕见疾病数据的表征及其分类器。
图7是本申请一个示例性实施例提供的数据分类识别装置的结构示意图,如图7所示,该装置包括如下部分:
获取模块710,用于获取第一数据集和第二数据集,所述第一数据集中包括第一数据,所述第二数据集中包括标注有样本标签的第二数据,所述第二数据属于目标分类集;
训练模块720,用于通过所述第一数据以无监督训练模式,以及所述第二数据以监督训练模式训练得到分类教师模型;
所述获取模块710,还用于获取分类学生模型,所述分类学生模型为模型参数待训练的模型;
所述训练模块720,还用于通过所述第一数据以所述分类教师模型为基准模型,对所述分类学生模型的所述模型参数进行蒸馏训练,得到数据分类模型;
预测模块730,用于通过所述数据分类模型对目标数据进行分类预测,得到所述目标数据在所述目标分类集中所属的分类结果。
在一个可选的实施例中,所述预测模块730,还用于通过所述分类教师模型对所述第一数据集中的所述第一数据进行分类预测,得到与所述第一数据对应所述目标分类集中类别的伪标签;
所述预测模块730,还用于通过所述分类学生模型对所述第一数据集中的第一数据进行分类预测,得到与所述第一数据对应的预测结果;
如图8所示,训练模块720,还包括:
调整单元721,用于基于所述伪标签与所述预测结果之间的差异对所述分类学生模型的所述模型参数进行调整,得到所述数据分类模型。
在一个可选的实施例中,所述获取模块710,还用于获取所述伪标签的置信度参数;
所述调整单元721,还用于确定所述伪标签在所述置信度参数下与所述预测结果之间的差异,并基于所述差异对所述分类学生模型的所述模型参数进行调整,得到所述数据分类模型。
在一个可选的实施例中,所述预测模块730,还用于通过所述分类教师模型对所述第一数据集中的所述第一数据进行分类预测,得到所述第一数据对应所述目标分类集中分类的概率值;基于所述概率值从所述目标分类集中确定所述第一数据对应的伪标签。
在一个可选的实施例中,所述分类学生模型中包括第一查询编码器和第一键值编码器;
所述装置还包括:
编码模块740,用于通过所述第一查询编码器对所述第一数据进行编码,得到第一编码结果;
所述获取模块710,还用于获取所述第一键值编码器对所述第一数据和第一预设动态字典中的数据进行编码的第二编码结果;
所述训练模块720,还用于基于所述第一编码结果与所述第二编码结果的差异对所述分类学生模型进行蒸馏训练,得到所述数据分类模型。
在一个可选的实施例中,所述训练模块720,还用于基于所述第一数据集中的第一数据对特征提取网络进行无监督训练;将分类回归网络与经过无监督训练的所述特征提取网络结合,得到分类模型,所述分类回归网络用于在所述目标分类集中进行数据分类;
所述训练模块720,还用于通过所述第二数据集中的所述第二数据和所述样本标签对所述分类模型进行监督训练,得到所述分类教师模型。
在一个可选的实施例中,所述特征提取网络中包括第二查询编码器和第二键值编码器;
所述装置还包括:
编码模块740,用于通过所述第二查询编码器对所述第一数据进行编码,得到第三编码结果;
所述获取模块710,还用于获取所述第二键值编码器对所述第一数据和第二预设动态字典中的数据进行编码的第四编码结果;
所述训练模块720,还用于基于所述第三编码结果与所述第四编码结果的差异对所述特征提取网络进行无监督训练。
在一个可选的实施例中,所述训练模块720,还用于将所述分类回归网络与经过无监督训练的所述第二查询编码器连接,得到所述分类模型。
在一个可选的实施例中,所述获取模块710,还用于获取测试数据集,所述测试数据集中的测试数据用于对所述数据分类模型的训练效果进行测试;从所述测试数据集中获取所述目标数据,所述目标数据标注有参考分类信息;
所述预测模块730,还用于通过所述数据分类模型对目标数据进行分类预测,得到所述分类结果;
所述获取模块710,还用于基于所述参考分类信息和所述分类结果获取所述数据分类模型的训练效果数据。
综上所述,本实施例提供的数据分类识别装置,在通过无标签的第一数据进行无监督训练以及有标签的第二数据进行监督训练后,得到分类教师模型,从而在分类教师模型的基础上,创建分类学生模型进行知识蒸馏训练,利用教师模型进行监督训练来达到蒸馏的目的,最终得到更高性能和精度的学生模型,训练主要依赖大量的第一数据,而对有标签的第二数据的数据量要求较小,避免了对样本数据进行大量标注的繁琐过程,提高了数据分类模型的训练效率以及准确率。
需要说明的是:上述实施例提供的数据分类识别装置,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的数据分类识别装置与数据分类识别方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图9示出了本申请一个示例性实施例提供的服务器的结构示意图。
具体来讲:服务器900包括中央处理单元(Central Processing Unit,CPU)901、包括随机存取存储器(Random Access Memory,RAM)902和只读存储器(Read Only Memory,ROM)903的系统存储器904,以及连接系统存储器904和中央处理单元901的系统总线905。服务器900还包括用于存储操作系统913、应用程序914和其他程序模块915的大容量存储设备906。
大容量存储设备906通过连接到系统总线905的大容量存储控制器(未示出)连接到中央处理单元901。大容量存储设备906及其相关联的计算机可读介质为服务器900提供非易失性存储。也就是说,大容量存储设备906可以包括诸如硬盘或者紧凑型光盘只读存储器(Compact Disc Read Only Memory,CD-ROM)驱动器之类的计算机可读介质(未示出)。
不失一般性,计算机可读介质可以包括计算机存储介质和通信介质。计算机存储介质包括以用于存储诸如计算机可读指令、数据结构、程序模块或其他数据等信息的任何方法或技术实现的易失性和非易失性、可移动和不可移动介质。计算机存储介质包括RAM、ROM、可擦除可编程只读存储器(Erasable Programmable Read Only Memory,EPROM)、带电可擦可编程只读存储器(Electrically Erasable Programmable Read Only Memory,EEPROM)、闪存或其他固态存储其技术,CD-ROM、数字通用光盘(Digital Versatile Disc,DVD)或其他光学存储、磁带盒、磁带、磁盘存储或其他磁性存储设备。当然,本领域技术人员可知计算机存储介质不局限于上述几种。上述的系统存储器904和大容量存储设备906可以统称为存储器。
根据本申请的各种实施例,服务器900还可以通过诸如因特网等网络连接到网络上的远程计算机运行。也即服务器900可以通过连接在系统总线905上的网络接口单元911连接到网络912,或者说,也可以使用网络接口单元911来连接到其他类型的网络或远程计算机系统(未示出)。
上述存储器还包括一个或者一个以上的程序,一个或者一个以上程序存储于存储器中,被配置由CPU执行。
本申请的实施例还提供了一种计算机设备,该计算机设备包括处理器和存储器,该存储器中存储有至少一条指令、至少一段程序、代码集或指令集,至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现上述各方法实施例提供的数据分类识别方法。
本申请的实施例还提供了一种计算机可读存储介质,该计算机可读存储介质上存储有至少一条指令、至少一段程序、代码集或指令集,至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行,以实现上述各方法实施例提供的数据分类识别方法。
本申请的实施例还提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述实施例中任一所述的数据分类识别方法。
可选地,该计算机可读存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)、固态硬盘(SSD,Solid State Drives)或光盘等。其中,随机存取记忆体可以包括电阻式随机存取记忆体(ReRAM,Resistance RandomAccess Memory)和动态随机存取存储器(DRAM,Dynamic Random Access Memory)。上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (14)

1.一种数据分类识别方法,其特征在于,所述方法包括:
获取第一数据集和第二数据集,所述第一数据集中包括第一数据,所述第一数据为未标注有标签的数据,所述第二数据集中包括标注有样本标签的第二数据,所述第二数据属于目标分类集,所述第一数据集中第一数据的数据量大于所述第二数据集中第二数据的数据量,所述第二数据集中第二数据的数量在要求数量范围内;
基于所述第一数据集中的第一数据对特征提取网络进行无监督训练;
将分类回归网络与经过无监督训练的所述特征提取网络结合,得到分类模型,所述分类回归网络用于在所述目标分类集中进行数据分类;
通过所述第二数据集中的所述第二数据和所述样本标签对所述分类模型进行监督训练,得到分类教师模型;
获取分类学生模型,所述分类学生模型为模型参数待训练的模型;
通过所述第一数据以所述分类教师模型为基准模型,对所述分类学生模型的所述模型参数进行蒸馏训练,得到数据分类模型;
通过所述数据分类模型对目标数据进行分类预测,得到所述目标数据在所述目标分类集中所属的分类结果。
2.根据权利要求1所述的方法,其特征在于,所述通过所述第一数据以所述分类教师模型为基准模型,对所述分类学生模型的所述模型参数进行蒸馏训练,得到数据分类模型,包括:
通过所述分类教师模型对所述第一数据集中的所述第一数据进行分类预测,得到与所述第一数据对应所述目标分类集中类别的伪标签;
通过所述分类学生模型对所述第一数据集中的第一数据进行分类预测,得到与所述第一数据对应的预测结果;
基于所述伪标签与所述预测结果之间的差异对所述分类学生模型的所述模型参数进行调整,得到所述数据分类模型。
3.根据权利要求2所述的方法,其特征在于,所述基于所述伪标签与所述预测结果之间的差异对所述分类学生模型的所述模型参数进行调整,得到所述数据分类模型,包括:
获取所述伪标签的置信度参数;
确定所述伪标签在所述置信度参数下与所述预测结果之间的差异,并基于所述差异对所述分类学生模型的所述模型参数进行调整,得到所述数据分类模型。
4.根据权利要求2所述的方法,其特征在于,所述通过所述分类教师模型对所述第一数据集中的所述第一数据进行分类预测,得到与所述第一数据对应的伪标签,包括:
通过所述分类教师模型对所述第一数据集中的所述第一数据进行分类预测,得到所述第一数据对应所述目标分类集中分类的概率值;
基于所述概率值从所述目标分类集中确定所述第一数据对应的伪标签。
5.根据权利要求2所述的方法,其特征在于,所述分类学生模型中包括第一查询编码器和第一键值编码器;
所述方法还包括:
通过所述第一查询编码器对所述第一数据进行编码,得到第一编码结果;
获取所述第一键值编码器对所述第一数据和第一预设动态字典中的数据进行编码的第二编码结果;
基于所述第一编码结果与所述第二编码结果的差异对所述分类学生模型进行蒸馏训练,得到所述数据分类模型。
6.根据权利要求1至5任一所述的方法,其特征在于,所述特征提取网络中包括第二查询编码器和第二键值编码器;
所述基于所述第一数据集中的第一数据对特征提取网络进行无监督训练,包括:
通过所述第二查询编码器对所述第一数据进行编码,得到第三编码结果;
获取所述第二键值编码器对所述第一数据和第二预设动态字典中的数据进行编码的第四编码结果;
基于所述第三编码结果与所述第四编码结果的差异对所述特征提取网络进行无监督训练。
7.根据权利要求6所述的方法,其特征在于,所述将分类回归网络与经过无监督训练的所述特征提取网络结合,得到分类模型,包括:
将所述分类回归网络与经过无监督训练的所述第二查询编码器连接,得到所述分类模型。
8.根据权利要求1至5任一所述的方法,其特征在于,所述通过所述数据分类模型对目标数据进行分类预测,得到所述目标数据在所述目标分类集中所属的分类结果,包括:
获取测试数据集,所述测试数据集中的测试数据用于对所述数据分类模型的训练效果进行测试;
从所述测试数据集中获取所述目标数据,所述目标数据标注有参考分类信息;
通过所述数据分类模型对目标数据进行分类预测,得到所述分类结果;
基于所述参考分类信息和所述分类结果获取所述数据分类模型的训练效果数据。
9.一种数据分类识别装置,其特征在于,所述装置包括:
获取模块,用于获取第一数据集和第二数据集,所述第一数据集中包括第一数据,所述第一数据为未标注有标签的数据,所述第二数据集中包括标注有样本标签的第二数据,所述第二数据属于目标分类集,所述第一数据集中第一数据的数据量大于所述第二数据集中第二数据的数据量,所述第二数据集中第二数据的数量在要求数量范围内;
训练模块,用于基于所述第一数据集中的第一数据对特征提取网络进行无监督训练;将分类回归网络与经过无监督训练的所述特征提取网络结合,得到分类模型,所述分类回归网络用于在所述目标分类集中进行数据分类;
所述训练模块,还用于通过所述第二数据集中的所述第二数据和所述样本标签对所述分类模型进行监督训练,得到分类教师模型;
所述获取模块,还用于获取分类学生模型,所述分类学生模型为模型参数待训练的模型;
所述训练模块,还用于通过所述第一数据以所述分类教师模型为基准模型,对所述分类学生模型的所述模型参数进行蒸馏训练,得到数据分类模型;
预测模块,用于通过所述数据分类模型对目标数据进行分类预测,得到所述目标数据在所述目标分类集中所属的分类结果。
10.根据权利要求9所述的装置,其特征在于,所述预测模块,还用于通过所述分类教师模型对所述第一数据集中的所述第一数据进行分类预测,得到与所述第一数据对应所述目标分类集中类别的伪标签;
所述预测模块,还用于通过所述分类学生模型对所述第一数据集中的第一数据进行分类预测,得到与所述第一数据对应的预测结果;
所述训练模块,还包括:
调整单元,用于基于所述伪标签与所述预测结果之间的差异对所述分类学生模型的所述模型参数进行调整,得到所述数据分类模型。
11.根据权利要求10所述的装置,其特征在于,所述获取模块,还用于获取所述伪标签的置信度参数;
所述调整单元,还用于确定所述伪标签在所述置信度参数下与所述预测结果之间的差异,并基于所述差异对所述分类学生模型的所述模型参数进行调整,得到所述数据分类模型。
12.根据权利要求10所述的装置,其特征在于,所述预测模块,还用于通过所述分类教师模型对所述第一数据集中的所述第一数据进行分类预测,得到所述第一数据对应所述目标分类集中分类的概率值;基于所述概率值从所述目标分类集中确定所述第一数据对应的伪标签。
13.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如权利要求1至8任一所述的数据分类识别方法。
14.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如权利要求1至8任一所述的数据分类识别方法。
CN202110532246.3A 2021-05-17 2021-05-17 数据分类识别方法、装置、设备及可读存储介质 Active CN112949786B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202110532246.3A CN112949786B (zh) 2021-05-17 2021-05-17 数据分类识别方法、装置、设备及可读存储介质
PCT/CN2022/090902 WO2022242459A1 (zh) 2021-05-17 2022-05-05 数据分类识别方法、装置、设备、介质及程序产品
US18/077,709 US20230105590A1 (en) 2021-05-17 2022-12-08 Data classification and recognition method and apparatus, device, and medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110532246.3A CN112949786B (zh) 2021-05-17 2021-05-17 数据分类识别方法、装置、设备及可读存储介质

Publications (2)

Publication Number Publication Date
CN112949786A CN112949786A (zh) 2021-06-11
CN112949786B true CN112949786B (zh) 2021-08-06

Family

ID=76233883

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110532246.3A Active CN112949786B (zh) 2021-05-17 2021-05-17 数据分类识别方法、装置、设备及可读存储介质

Country Status (3)

Country Link
US (1) US20230105590A1 (zh)
CN (1) CN112949786B (zh)
WO (1) WO2022242459A1 (zh)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112949786B (zh) * 2021-05-17 2021-08-06 腾讯科技(深圳)有限公司 数据分类识别方法、装置、设备及可读存储介质
CN113488023B (zh) * 2021-07-07 2022-06-14 合肥讯飞数码科技有限公司 一种语种识别模型构建方法、语种识别方法
CN113610111B (zh) * 2021-07-08 2023-11-03 中南民族大学 分布式多源数据的融合方法、装置、设备及存储介质
CN113645063B (zh) * 2021-07-16 2024-03-19 上海德衡数据科技有限公司 基于边缘计算的智能集成数据的方法及系统
CN113822339B (zh) * 2021-08-27 2024-05-31 北京工业大学 一种自知识蒸馏和无监督方法相结合的自然图像分类方法
CN114090770B (zh) * 2021-10-19 2022-11-04 杭州电子科技大学 一种多阶段的无监督域适应因果关系识别方法
CN114169392A (zh) * 2021-10-29 2022-03-11 阿里巴巴(中国)有限公司 模型训练方法及装置、任务处理方法、存储介质和处理器
CN113919499A (zh) * 2021-11-24 2022-01-11 威盛电子股份有限公司 模型训练方法与模型训练系统
CN114186097A (zh) * 2021-12-10 2022-03-15 北京百度网讯科技有限公司 用于训练模型的方法和装置
US20230245450A1 (en) * 2022-02-03 2023-08-03 Robert Bosch Gmbh Learning semantic segmentation models in the absence of a portion of class labels
CN114528937A (zh) * 2022-02-18 2022-05-24 支付宝(杭州)信息技术有限公司 模型训练方法、装置、设备及系统
CN114626520B (zh) * 2022-03-01 2024-05-10 腾讯科技(深圳)有限公司 训练模型的方法、装置、设备以及存储介质
CN115331088B (zh) * 2022-10-13 2023-01-03 南京航空航天大学 基于带有噪声和不平衡的类标签的鲁棒学习方法
CN116132527B (zh) * 2023-04-13 2023-06-16 深圳柯赛标识智能科技有限公司 管理指示牌的系统、方法及数据处理服务器
CN116934709B (zh) * 2023-07-20 2024-04-02 北京长木谷医疗科技股份有限公司 一种基于弱监督学习的脊柱滑脱智能识别方法及装置
CN116681123B (zh) * 2023-07-31 2023-11-14 福思(杭州)智能科技有限公司 感知模型训练方法、装置、计算机设备和存储介质
CN117195951B (zh) * 2023-09-22 2024-04-16 东南大学 一种基于架构搜索和自知识蒸馏的学习基因继承方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111160553A (zh) * 2019-12-23 2020-05-15 中国人民解放军军事科学院国防科技创新研究院 一种新的领域自适应学习方法
CN111950638A (zh) * 2020-08-14 2020-11-17 厦门美图之家科技有限公司 基于模型蒸馏的图像分类方法、装置和电子设备
CN112232397A (zh) * 2020-09-30 2021-01-15 上海眼控科技股份有限公司 图像分类模型的知识蒸馏方法、装置和计算机设备
JPWO2019167883A1 (ja) * 2018-02-28 2021-02-25 富士フイルム株式会社 機械学習装置および方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10685265B2 (en) * 2018-04-11 2020-06-16 International Business Machines Corporation Cognitive analysis and classification of apparel images
US11163554B2 (en) * 2018-10-09 2021-11-02 Here Global B.V. Method and apparatus for identifying abandoned applications and services
CN110852426B (zh) * 2019-11-19 2023-03-24 成都晓多科技有限公司 基于知识蒸馏的预训练模型集成加速方法及装置
CN111522958A (zh) * 2020-05-28 2020-08-11 泰康保险集团股份有限公司 文本分类方法和装置
CN112184508B (zh) * 2020-10-13 2021-04-27 上海依图网络科技有限公司 一种用于图像处理的学生模型的训练方法及装置
CN112347261A (zh) * 2020-12-07 2021-02-09 携程计算机技术(上海)有限公司 分类模型训练方法、系统、设备及存储介质
CN112686046A (zh) * 2021-01-06 2021-04-20 上海明略人工智能(集团)有限公司 模型训练方法、装置、设备及计算机可读介质
CN112949786B (zh) * 2021-05-17 2021-08-06 腾讯科技(深圳)有限公司 数据分类识别方法、装置、设备及可读存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2019167883A1 (ja) * 2018-02-28 2021-02-25 富士フイルム株式会社 機械学習装置および方法
CN111160553A (zh) * 2019-12-23 2020-05-15 中国人民解放军军事科学院国防科技创新研究院 一种新的领域自适应学习方法
CN111950638A (zh) * 2020-08-14 2020-11-17 厦门美图之家科技有限公司 基于模型蒸馏的图像分类方法、装置和电子设备
CN112232397A (zh) * 2020-09-30 2021-01-15 上海眼控科技股份有限公司 图像分类模型的知识蒸馏方法、装置和计算机设备

Also Published As

Publication number Publication date
US20230105590A1 (en) 2023-04-06
WO2022242459A1 (zh) 2022-11-24
CN112949786A (zh) 2021-06-11

Similar Documents

Publication Publication Date Title
CN112949786B (zh) 数据分类识别方法、装置、设备及可读存储介质
Wells et al. Artificial intelligence in dermatopathology: Diagnosis, education, and research
Nakata Recent technical development of artificial intelligence for diagnostic medical imaging
CN113139628B (zh) 样本图像的识别方法、装置、设备及可读存储介质
CN111898696A (zh) 伪标签及标签预测模型的生成方法、装置、介质及设备
CN112084331A (zh) 文本处理、模型训练方法、装置、计算机设备和存储介质
WO2021139191A1 (zh) 数据标注的方法以及数据标注的装置
CN111582409A (zh) 图像标签分类网络的训练方法、图像标签分类方法及设备
CN113821668A (zh) 数据分类识别方法、装置、设备及可读存储介质
CN114298122B (zh) 数据分类方法、装置、设备、存储介质及计算机程序产品
CN113011387B (zh) 网络训练及人脸活体检测方法、装置、设备及存储介质
CN114330499A (zh) 分类模型的训练方法、装置、设备、存储介质及程序产品
Cao et al. Automatic image annotation method based on a convolutional neural network with threshold optimization
CN114281931A (zh) 文本匹配方法、装置、设备、介质及计算机程序产品
CN112785585A (zh) 基于主动学习的图像视频质量评价模型的训练方法以及装置
CN116975350A (zh) 图文检索方法、装置、设备及存储介质
Yu et al. Multimodal multitask deep learning for X-ray image retrieval
Zhao et al. Deeply supervised active learning for finger bones segmentation
CN114764865A (zh) 数据分类模型训练方法、数据分类方法和装置
CN113705293A (zh) 图像场景的识别方法、装置、设备及可读存储介质
CN111582404B (zh) 内容分类方法、装置及可读存储介质
CN111651626B (zh) 图像分类方法、装置及可读存储介质
CN114372532B (zh) 标签标注质量的确定方法、装置、设备、介质及产品
CN115146716B (zh) 标注方法、装置、设备、存储介质及程序产品
CN113821498A (zh) 数据的筛选方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40045478

Country of ref document: HK