CN114582518A - 医疗数据集优化方法及设备 - Google Patents

医疗数据集优化方法及设备 Download PDF

Info

Publication number
CN114582518A
CN114582518A CN202210238800.1A CN202210238800A CN114582518A CN 114582518 A CN114582518 A CN 114582518A CN 202210238800 A CN202210238800 A CN 202210238800A CN 114582518 A CN114582518 A CN 114582518A
Authority
CN
China
Prior art keywords
medical
medical data
data
subset
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210238800.1A
Other languages
English (en)
Inventor
不公告发明人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chison Medical Technologies Co ltd
Original Assignee
Chison Medical Technologies Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chison Medical Technologies Co ltd filed Critical Chison Medical Technologies Co ltd
Priority to CN202210238800.1A priority Critical patent/CN114582518A/zh
Publication of CN114582518A publication Critical patent/CN114582518A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/22Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/23Updating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Public Health (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

本申请是关于一种医疗数据集优化方法及设备,具体涉及计算机视觉技术领域。所述方法包括:获取医疗数据集;针对每个该医疗样本数据,分别通过各个神经网络模型对该医疗样本数据进行处理,获得该医疗样本数据对应的各个熵;将各个该医疗样本数据各自对应的各个熵构建为熵矩阵;对该医疗数据集进行划分,获得各个医疗数据子集;针对每个医疗数据子集,通过该熵矩阵计算该医疗数据子集中样本的多样性、覆盖性及均衡性,并对该医疗数据子集进行更新,获得目标数据子集;基于各个该目标数据子集,构建优化后的医疗数据集。通过上述方案提高了通过优化后的医疗数据集进行神经网络模型训练的训练效果。

Description

医疗数据集优化方法及设备
技术领域
本发明涉及网络通信技术领域,具体涉及一种医疗数据集优化方法及设备。
背景技术
深度学习(DL,Deep Learning)是机器学习(ML,Machine Learning)领域中一个新的研究方向。深度学习是学习样本数据的内在规律和表示层次,它的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。
深度学习是一类模式分析方法的统称,就具体研究内容而言,主要涉及三类方法:基于卷积运算的神经网络系统,即卷积神经网络(CNN);基于多层神经元的自编码神经网络,包括自编码(Auto encoder)以及近年来受到广泛关注的稀疏编码两类(SparseCoding),以多层自编码神经网络的方式进行预训练,进而结合鉴别信息进一步优化神经网络权值的深度置信网络(DBN)。与传统的学习方法相比,深度学习方法预设了更多的模型参数,因此模型训练难度更大,根据统计学习的一般规律知道,模型参数越多,需要参与训练的数据量也越大。
深度学习技术的使用往往依赖于大量的样本对模型进行训练,鉴于所需要的数据集规模之大,其中极易存在冗余样本和噪声样本,即对深度模型优化没有贡献或产生负面影响的样本,导致机器学习模型的训练效率较低。
发明内容
本申请提供了一种医疗数据集优化方法及设备,提高了机器学习模型的训练效率,该技术方案如下。
一方面,提供了一种医疗数据集优化方法,所述方法包括:
获取医疗数据集;所述医疗数据集中包含各个医疗样本数据;
针对每个所述医疗样本数据,分别通过各个神经网络模型对所述医疗样本数据进行处理,获得所述医疗样本数据对应的各个熵;所述神经网络模型用于对所述医疗样本数据进行推理计算;
将各个所述医疗样本数据各自对应的各个熵构建为熵矩阵;
对所述医疗数据集进行划分,获得各个医疗数据子集;
针对每个医疗数据子集,通过所述熵矩阵计算所述医疗数据子集中样本的多样性、覆盖性及均衡性,并基于所述医疗数据子集中医疗样本数据的多样性、覆盖性及均衡性对所述医疗数据子集进行更新,获得目标数据子集;
基于各个所述目标数据子集,构建优化后的医疗数据集。
再一方面,提供了一种医疗数据集优化装置,所述装置包括:
医疗数据集获取模块,用于获取医疗数据集;所述医疗数据集中包含各个医疗样本数据;
样本数据处理模块,用于针对每个所述医疗样本数据,分别通过各个神经网络模型对所述医疗样本数据进行处理,获得所述医疗样本数据对应的各个熵;所述神经网络模型用于对所述医疗样本数据进行推理计算;
熵矩阵构建模块,用于将各个所述医疗样本数据各自对应的各个熵构建为熵矩阵;
数据子集划分模块,用于对所述医疗数据集进行划分,获得各个医疗数据子集;
数据子集更新模块,用于针对每个医疗数据子集,通过所述熵矩阵计算所述医疗数据子集中样本的多样性、覆盖性及均衡性,并基于所述医疗数据子集中医疗样本数据的多样性、覆盖性及均衡性对所述医疗数据子集进行更新,获得目标数据子集;
数据集优化模块,用于基于各个所述目标数据子集,构建优化后的医疗数据集。
在一种可能的实现方式中,所述熵矩阵构建模块,用于
将各个所述医疗样本数据各自对应的各个熵作为元素,以生成为所述熵矩阵;
所述熵矩阵的行数为所述医疗样本数据的个数;所述熵矩阵的列数为所述神经网络模型的个数。
在一种可能的实现方式中,所述数据子集更新模块,还用于,
在所述熵矩阵中读取所述医疗数据子集中各个医疗样本数据所对应的元素值;
将医疗数据子集中各个医疗样本数据所对应的元素值的和,与神经网络模型的个数的比值,确定为所述医疗数据子集中医疗样本数据的多样性。
在一种可能的实现方式中,所述熵矩阵构建模块,还用于,
将所述熵矩阵的元素中,大于目标滑动因子的元素转换为1,并将所述熵矩阵的元素中,小于目标滑动因子的元素转换为0,以获得更改矩阵;
针对每个神经网络模型,在所述更改矩阵中获取所述神经网络模型对所述医疗数据子集中各个医疗样本数据进行处理所得到的元素,并求和以得到响应计数;
计算所述更改矩阵中各个元素的平均值,以获得响应平均值;
计算所述响应平均值与所述响应计数之间的标准差,以获得所述神经网络模型对应的响应偏差;
将所述响应计数与所述响应偏差的比值,按照神经网络模型的类别进行求和,获得所述医疗数据子集的均衡性;
将所述响应计数与所述更改矩阵的元素个数的比值,按照神经网络模型的类别进行求和,获得所述医疗数据子集的覆盖性。
在一种可能的实现方式中,所述数据子集更新模块,还用于,
基于所述医疗数据子集中医疗样本数据的多样性、覆盖性及均衡性进行加权求和,获得所述医疗数据子集对应的适应度;
根据所述医疗数据子集的适应度,对所述医疗数据子集进行迭代更新,并将迭代更新后的医疗数据子集确定为所述目标数据子集。
在一种可能的实现方式中,所述数据子集更新模块,还用于,
在第N轮迭代更新过程中,将医疗数据子集中的至少一个医疗样本数据,替换为除所述医疗数据子集之外的医疗样本数据,以获得中间医疗数据子集,N的起始值为1;
根据所述熵矩阵计算所述中间医疗数据子集的适应度,并将所述中间医疗数据子集以及所述医疗数据子集中适应度更高的,确定为第N轮迭代更新后的医疗数据子集;
若N小于预设轮数时,则再次执行将医疗数据子集中的至少一个医疗样本数据,替换为在所述医疗数据子集之外的医疗样本数据的操作;
若N达到所述预设轮数时,将所述第N轮迭代更新后的医疗数据子集确定为所述目标数据子集。
在一种可能的实现方式中,所述各个神经网络模型包括m个小替代模型以及n个检查点模型;所述m个小替代模型为对目标初始模型的卷积层和/或池化层的层数缩减后得到的模型,或者,所述m个小替代模型为训练精度小于预设阈值的网络模型;所述n个检查点模型为与目标初始模型的模型结构相同;
所述目标初始模型为对医疗样本数据进行推理计算的神经网络模型。
在一种可能的实现方式中,所述装置还包括:
模型缩减模块,用于对所述目标初始模型的卷积层和/或池化层的层数进行缩减,获得m个小初始模型;
初始训练模块,用于根据所述医疗数据集分别对m个小初始模型进行训练,获得训练后的m个小替代模型;
数据集选取模块,用于根据所述医疗数据集,对所述目标初始模型进行P轮预训练,并根据预训练后的目标神经网络模型在医疗数据集中选取训练数据集;
模型参数获取模块,用于根据所述训练数据集,对所述目标初始模型进行T轮迭代训练,并获取最后n轮迭代过程中目标初始模型的模型参数;
检查点模型获取模块,用于基于最后n轮迭代过程中的目标初始模型的模型参数,构建所述n个检查点模型。
再一方面,提供了一种计算机设备,所述计算机设备中包含处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现上述医疗数据集优化方法。
又一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令,所述至少一条指令由处理器加载并执行以实现上述的医疗数据集优化方法。
再一方面,提供了一种计算机程序产品还提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述的医疗数据集优化方法。
本申请提供的技术方案可以包括以下有益效果:
在训练对医疗数据进行处理的神经网络模型之前,计算机设备先获取到医疗数据集中的各个医疗样本数据,通过各个神经网络模型分别对各个医疗样本数据进行处理,并通过处理结果构建出熵矩阵;计算机设备还对医疗数据集划分为各个医疗数据子集,并通过熵矩阵计算医疗数据子集的多样性、均衡性和覆盖性,以对各个医疗数据子集进行更新,从而获得各个目标数据子集,此时各个目标数据子集组合即可以得到优化后的医疗数据集。上述方案,通过多个神经网络模型对医疗样本数据进行处理,各个医疗样本数据与神经网络模型所对应的熵矩阵,并通过各个医疗数据子集分别在熵矩阵中体现出的信息量计算多样性、均衡性和覆盖性,从而更好的评判各个医疗数据子集中医疗样本数据的好坏程度,进而对各个医疗数据子集进行更新,得到各个目标数据子集以组合得到优化后的医疗数据集,提高了优化后的医疗数据集中的各个医疗样本数据与神经网络模型的匹配程度,从而提高了通过优化后的医疗数据集进行神经网络模型训练的训练效果。
附图说明
为了更清楚地说明本申请具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据一示例性实施例示出的一种模型训练系统的结构示意图。
图2是根据一示例性实施例示出的医疗数据集优化方法的方法流程图。
图3是根据一示例性实施例示出的医疗数据集优化方法的方法流程图。
图4示出了本申请实施例涉及的一种机器学习模型预训练示意图。
图5示出了深度学习中训练时间与准确率关系示意图。
图6示出了一种模型网络层数与准确率关系示意图。
图7示出了本申请实施例涉及的一种数据集优化的逻辑框架图。
图8是根据一示例性实施例示出的数据集优化装置的结构方框图。
图9是根据本申请一示例性实施例提供的一种计算机设备示意图。
具体实施方式
下面将结合附图对本申请的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
应理解,在本申请的实施例中提到的“指示”可以是直接指示,也可以是间接指示,还可以是表示具有关联关系。举例说明,A指示B,可以表示A直接指示B,例如B可以通过A获取;也可以表示A间接指示B,例如A指示C,B可以通过C获取;还可以表示A和B之间具有关联关系。
在本申请实施例的描述中,术语“对应”可表示两者之间具有直接对应或间接对应的关系,也可以表示两者之间具有关联关系,也可以是指示与被指示、配置与被配置等关系。
本申请实施例中,“预定义”可以通过在设备(例如,包括终端设备和网络设备)中预先保存相应的代码、表格或其他可用于指示相关信息的方式来实现,本申请对于其具体的实现方式不做限定。
在对本申请所示的各个实施例进行说明之前,首先对本申请涉及到的几个概念进行介绍。
1)AI(Artificial Intelligence,人工智能)
人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能从诞生以来,理论和技术日益成熟,应用领域也不断扩大,可以设想,未来人工智能带来的科技产品,将会是人类智慧的“容器”。人工智能可以对人的意识、思维的信息过程的模拟。人工智能不是人的智能,但能像人那样思考、也可能超过人的智能。
用来研究人工智能的主要物质基础以及能够实现人工智能技术平台的机器就是计算机。除了计算机科学以外,人工智能还涉及信息论、控制论、自动化、仿生学、生物学、心理学、数理逻辑、语言学、医学和哲学等多门学科。人工智能学科研究的主要内容包括:知识表示、自动推理和搜索方法、机器学习和知识获取、知识处理系统、自然语言理解、计算机视觉、智能机器人、自动程序设计等方面。
2)机器学习(Machine Learning,ML)
机器学习是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、示教学习等技术。
本申请实施例中提供的医疗数据集优化方法可以应用于具有较强数据处理能力的计算机设备中。该医疗数据集优化方法可以在对机器学习模型进行正式训练之前,对医疗数据集进行优化处理,以便通过优化后的医疗数据集对机器学习模型进行训练。可选的,该机器学习模型可以是医疗图像分类模型可以实现对输入的医疗图像进行处理,得到对应于输入的医疗图像的类别。在一种可能的实现方式中,本申请实施例提供的医疗图像分类模型可以应用于个人计算机、工作站或服务器中,即通过个人计算机、工作站以及服务器中至少一者进行医疗图像分类模型的训练或应用。
图1是根据一示例性实施例示出的一种模型训练系统的结构示意图。可选的,该模型训练系统中包含服务器110以及终端120。其中,终端120与服务器110之间通过通信网络进行数据通信,该通信网络可以是有线网络也可以是无线网络。
可选的,当该模型训练系统用于在医疗领域中对医疗图像进行识别时,终端120中安装有具有图像处理功能的应用程序,该应用程序可以是专业图像处理应用程序、医疗类应用程序、或者具有图像处理功能的AI应用程序,本申请实施例对此不做限定。
可选的,该终端120可以是具有图像采集组件的终端设备,该图像采集组件用于获取图像并存储与终端120中的数据存储模块中;该终端120还可以是具有数据传输接口的终端设备,该数据传输接口用于接收具有图像采集组件的图像采集设备所采集到的图像数据。
可选的,该终端120可以是智能手机、平板电脑,膝上便携式笔记本电脑等移动终端,也可以是台式电脑、投影式电脑等终端,或是具有数据处理组件的智能终端,本申请实施例对此不设限制。
服务器110可以实现为一台服务器,也可以实现为一组服务器构成的服务器集群,其可以是物理服务器,也可以实现为云服务器。在一种可能的实现方式中,服务器110是终端120中应用程序的后台服务器。
在本申请实施例的一种可能的实现方式中,服务器110通过预先设置的医疗数据集(包括各个医疗样本图像)对医疗图像分类模型进行训练,其中医疗数据集中可以包含不同类别的医疗样本图像提取出的特征,各个医疗样本图像均存在各自的类别标注信息(即标签值)。当服务器110对该医疗图像分类模型的训练过程完成后,通过有线网络或无线网络,将该训练好的医疗图像分类模型发送至终端120中。
而在本申请实施例中,服务器在对医疗图像分类模型进行训练之前,还需要对各个医疗样本图像所构成的医疗数据集予以优化,从而使得优化后的医疗数据集中对机器学习模型的训练效果更好。
终端120接收到该训练好的医疗图像分类模型,并将该医疗图像分类模型所对应的数据信息(例如权重信息)发送至具有识别分类功能的应用程序中,以便用户使用该应用程序时,可以对输入的特征进行识别分类处理。
可选的,上述服务器可以是独立的物理服务器,也可以是由多个物理服务器构成的服务器集群或者是分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN(Content Delivery Network,内容分发网络)、以及大数据和人工智能平台等技术运计算服务的云服务器。
可选的,该系统还可以包括管理设备,该管理设备用于对该系统进行管理(如管理各个模块与服务器之间的连接状态等),该管理设备与服务器之间通过通信网络相连。可选的,该通信网络是有线网络或无线网络。
可选的,上述的无线网络或有线网络使用标准通信技术和/或协议。网络通常为因特网,但也可以是其他任何网络,包括但不限于局域网、城域网、广域网、移动、有限或无线网络、专用网络或者虚拟专用网络的任何组合。在一些实施例中,使用包括超文本标记语言、可扩展标记语言等的技术和/或格式来代表通过网络交换的数据。此外还可以使用诸如安全套接字层、传输层安全、虚拟专用网络、网际协议安全等常规加密技术来加密所有或者一些链路。在另一些实施例中,还可以使用定制和/或专用数据通信技术取代或者补充上述数据通信技术。
图2是根据一示例性实施例示出的医疗数据集优化方法的方法流程图。该方法由计算机设备执行,该计算机设备可以是如图1所示的模型训练系统中的服务器或终端。如图2所示,该医疗数据集优化方法可以包括如下步骤:
步骤201,获取医疗数据集。
在本申请实施例中,该医疗数据集中包含各个医疗样本数据。
可选的,该医疗样本数据可以是医疗图像数据以及扫查视频数据中的至少一者。
当医疗样本数据为医疗图像数据时,根据本申请实施例所示方案,可以对医疗图像数据所构成的医疗数据集进行优化,以便根据优化后的医疗数据集对神经网络模型进行训练,使得训练后的神经网络模型可以对医疗图像数据进行处理(例如实现分类、标注等任务)。
同理,当医疗样本数据为扫查视频数据时,根据本申请实施例所示方案,可以对扫查视频数据中所组成的医疗数据集进行优化,以便根据优化后的医疗数据集对神经网络模型进行训练,从而使得训练后的神经网络模型可以对扫查视频数据进行处理(例如实现分类、标注等任务)。
步骤202,针对每个该医疗样本数据,分别通过各个神经网络模型对该医疗样本数据进行处理,获得该医疗样本数据对应的各个熵。
其中,该神经网络模型用于对该医疗样本数据进行推理计算。例如,该神经网络模型可以是ResNet(残差网络)模型,如Resnet50模型。
在一种可能的实现方式中,由于ResNet(残差网络)可以存在不同的模型层数,且不同层数的残差网络对特征的提取深度不同,因此可以采取至少两种层数的神经网络模型,分别对医疗样本数据进行处理,从而得到医疗样本数据在不同结构的神经网络模型的处理结果,以计算得到不同结构的神经网络模型对医疗样本数据进行处理后所得到的熵。
在一种可能的实现方式中,神经网络模型可以是需要进行训练的神经网络模型,该神经网络模型此时可以是设置好初始参数的神经网络模型,或者该神经网络模型可以是经过预训练的神经网络模型。
此时通过神经网络模型对该医疗样本数据进行处理后,得到的各个医疗样本数据的熵,即代表了该神经网络模型在对该医疗样本数据进行提取所得到的信息量。
可选的,该医疗样本数据的熵的计算公式为:
Figure BDA0003543424540000111
其中,x为数据样本,
Figure BDA0003543424540000112
为概率分布,
Figure BDA0003543424540000113
代表参加训练的机器学习模型。
步骤203,将各个该医疗样本数据各自对应的各个熵构建为熵矩阵。
可选的,在获取到各个医疗样本数据,分别通过各个神经网络模型进行处理后得到的熵值时,此时对于其中的一个医疗样本数据来说,可以将该医疗样本数据分别通过各个神经网络模型(以模型个数为10为例)所得到的十个熵值,作为熵矩阵的其中一行的十个元素。因此,每个医疗样本数据都能计算得到十个熵值,此时将各个熵值按照医疗样本数据的编号以及神经网络模型的编号进行排序(例如以医疗样本数据的编号做为行号,以神经网络模型的编号作为列号),即可以得到熵矩阵。
步骤204,对该医疗数据集进行划分,获得各个医疗数据子集。
该计算机设备中包含医疗数据集,该医疗数据集中包含各个医疗样本数据,此时计算机设备在该医疗数据集中任意获取到N个医疗样本数据从而构建为医疗样本序列,也就是医疗数据子集。
在一种可能的实现方式中,各个医疗数据子集中的医疗样本数据互不相同,即各个医疗样本序列互不重叠。
步骤205,针对每个医疗数据子集,通过该熵矩阵计算该医疗数据子集中样本的多样性、覆盖性及均衡性,并基于该医疗数据子集中医疗样本数据的多样性、覆盖性及均衡性对该医疗数据子集进行更新,获得目标数据子集。
由于在上述步骤中,计算出了通过各个神经网络模型分别对医疗数据集中的各个医疗样本数据进行处理后得到的熵,所构成的熵矩阵,在该熵矩阵中,实际上每个元素可以表征着神经网络模型对医疗样本数据进行处理后得到的信息量。
此时由于各个医疗数据子集中包含着不同的医疗样本数据,根据该医疗样本数据,则可以查询到各个医疗数据子集中的各个医疗样本数据在熵矩阵中所对应到的值,从而判定出该医疗数据子集中的医疗样本数据的多样性、覆盖性以及均衡性,从而综合考量该医疗数据子集其中样本的好坏程度,以便确定是否需要对该医疗数据子集中的样本进行更新。
例如,当获取到某个医疗数据子集所对应的多样性、覆盖性以及均衡性,且多样性、覆盖性以及均衡性所对应的值的和,指示该医疗数据子集中的样本情况不佳,此时则可以将医疗数据子集中的部分样本替换为其他样本(如随机替换),从而实现对医疗数据子集中的样本进行更新。
步骤206,基于各个该目标数据子集,构建优化后的医疗数据集。
当获取到各个目标数据子集后,此时目标数据子集是基于神经网络模型进行优化过的集合,因此通过各个目标数据子集所合并成的医疗数据集对机器学习模型进行训练,具备有比原医疗数据集更好的数据训练效果,从而提高了对机器学习模型的训练效率。
综上所述,在训练对医疗数据进行处理的神经网络模型之前,计算机设备先获取到医疗数据集中的各个医疗样本数据,通过各个神经网络模型分别对各个医疗样本数据进行处理,并通过处理结果构建出熵矩阵;计算机设备还对医疗数据集划分为各个医疗数据子集,并通过熵矩阵计算医疗数据子集的多样性、均衡性和覆盖性,以对各个医疗数据子集进行更新,从而获得各个目标数据子集,此时各个目标数据子集组合即可以得到优化后的医疗数据集。上述方案,通过多个神经网络模型对医疗样本数据进行处理,各个医疗样本数据与神经网络模型所对应的熵矩阵,并通过各个医疗数据子集分别在熵矩阵中体现出的信息量计算多样性、均衡性和覆盖性,从而更好的评判各个医疗数据子集中医疗样本数据的好坏程度,进而对各个医疗数据子集进行更新,得到各个目标数据子集以组合得到优化后的医疗数据集,提高了优化后的医疗数据集中的各个医疗样本数据与神经网络模型的匹配程度,从而提高了通过优化后的医疗数据集进行神经网络模型训练的训练效果。
图3是根据一示例性实施例示出的医疗数据集优化方法的方法流程图。该方法由计算机设备执行,该计算机设备可以是如图1所示的模型训练系统中的服务器或终端。如图3所示,该医疗数据集优化方法可以包括如下步骤:
步骤301,获取医疗数据集。
在本申请实施例中,该医疗数据集则为需要对神经网络模型进行训练的医疗样本数据所构成的初始的集合,在通过医疗数据集中的各个医疗样本数据,对神经网络模型进行训练之前,可以先将初始的医疗数据集拆分为各个医疗样本子集,以通过后续步骤对各个医疗样本子集进行处理,从而实现对初始的医疗数据集进行优化处理,提高对神经网络模型的训练效率。
步骤302,针对每个该医疗样本数据,分别通过各个神经网络模型对该医疗样本数据进行处理,获得该医疗样本数据对应的各个熵。
在本申请实施例的一种可能的实现方式中,该各个神经网络模型包括m个小替代模型以及n个检查点模型;该m个小替代模型为对目标初始模型的卷积层和/或池化层的层数缩减后得到的模型,或者,该m个小替代模型为训练精度小于预设阈值的网络模型;该n个检查点模型为与目标初始模型的模型结构相同;该目标初始模型为对医疗样本数据进行推理计算的神经网络模型。
由于ResNet模型层数的增加对准确率的提升很小,然而却需要大量的时间来训练模型。如图4所示,其示出了一种模型网络层数与准确率关系示意图。
如图5所示,其示出了深度学习中训练时间与准确率关系示意图。在神经网络模型的实际训练过程中第14分钟模型能够达到9%的top1错误率,而接下来12分钟的训练仅将模型的top1错误率降至7.6%,因此训练时长越长时,迭代轮数越多,训练准确率虽然提高了,但是训练效率却显著下降。因此本申请实施例中还提出了一种对目标初始模型的训练方法,可以在减小训练轮数的前提下,尽可能地的保证了训练效果,提高了训练效率。
因此在本申请实施例的一种可能的实现方式中,神经网络模型被设计为包括模块A以及模块B两种类型的神经网络模型,模块A中通过以上两种方式集成为m个ResNet的小替代模型
Figure BDA0003543424540000141
既能很大程度减小集成模型在整个数据集上训练时间,也能获取m个小替代模型对数据集中每一个样本的信息响应。模块B为单个大ResNet模型的Checkpoint(检测点)集成。
当神经网络模型为不同类型,也就是多个神经网络模型时,此时计算各个医疗样本数据的熵时,需要计算通过多个神经网络模型,对医疗样本数据进行处理时,分别得到的熵值。也就是所得的每个样本对应不同模型的信息量αj,e构建成一个熵矩阵,即Ent=[αj,e]N,(m+n),其中每一行为数据集D中的一例样本,共N行,每一列为步骤一中集成模型的一个模型,共m+n列。
根据原模型和其小替代模型之间的rank-order相关性,本申请实施例中可以通过构建小的替代模型在时间和模型推理精度上权衡,即构建出m个小替代模型,从而降低了小部分的准确率,但却节省了大量的训练时间。
在一种可能的实现方式中,对该目标初始模型的卷积层和/或池化层的层数进行缩减,获得m个小初始模型;
根据该医疗数据集分别对m个小初始模型进行训练,获得训练后的m个小替代模型;
根据该医疗数据集,对该目标初始模型进行P轮预训练,并根据预训练后的目标神经网络模型在医疗数据集中选取训练数据集;
根据该训练数据集,对该目标初始模型进行T轮迭代训练,并获取最后n轮迭代过程中目标初始模型的模型参数;
基于最后n轮迭代过程中的目标初始模型的模型参数,构建该n个检查点模型。
也就是说,在生成Checkpoint模型的过程中,由于Checkpoint模型中的模型卷积层和/或池化层的层数较多,若对n个Checkpoint模型都依次进行训练需要花费大量的时间,因此在本申请实施例中,可以通过对Checkpoint模型选择好训练数据集,并在根据训练数据集对神经网络模型进行T轮迭代训练,并保存T轮迭代训练中最后n轮迭代过程中目标初始模型的模型参数,对于最后n轮迭代过程中的目标初始模型,在每轮迭代过程中都会对模型参数进行更新,因此根据每次更新后的模型参数,都可以构建为一个与目标初始模型的结构相同,但参数不同的检查点模型。
在一种可能的实现方式中,将该医疗数据集中随机选择的第一数量的医疗数据移出至训练数据集;
通过该第一数量的医疗数据训练该目标初始模型;
获取该医疗数据集中每个医疗数据的信息量;
根据获取到的该信息量将该医疗数据集中满足预设条件的医疗数据移出至该训练数据集,并通过满足该预设条件的医疗数据再次训练该目标初始模型,该预设条件包括信息量排名在前m位,或者信息量大于限定阈值;
若该训练数据集的样本量小于预设值,则再次执行该获取该医疗数据集中每个医疗数据的信息量的步骤;
若该训练数据集的样本量达到该预设值时,将当前的训练数据集确定为最终选取得到的训练数据集,该预设值小于该医疗数据集中的医疗数据的总量。
以下以第一数量为Ns/8为例,对上述迭代训练过程进行说明。
请参考图6,其示出了本申请实施例涉及的一种神经网络模型预训练示意图。如图6所示,为减小模型在整个数据集上的训练时间,本申请实施例采用了一种增长式数据读取方法。医疗数据集
Figure BDA0003543424540000151
其中每个xj∈X为一条数据样本,每个yj∈Y为其对应的标签。Macq是由单个ResNet模型n个Checkpoint(一组n个不同模型参数
Figure BDA0003543424540000152
),也就是N个相同结构不同参数的神经网络模型集成而得的查询模型(也就是m个小替代模型和n个检查点模型),
Figure BDA0003543424540000153
为上述增长式数据读取方法所选择的训练集,其中Ns为用于训练Macq的样本量。首先在医疗数据集D中均匀随机采样Ns/8个样本作为初始训练样本S,用上述所得样本训练模型
Figure BDA0003543424540000161
采用熵作为获得函数,即
Figure BDA0003543424540000162
Figure BDA0003543424540000163
计算数据集D中每个样本的信息量α,将数据集D中α最大的Ns/8个样本移入至训练集S中,如果数据集S的样本量小于Ns,则继续进行下一次迭代操作,直至数据集S样本量大于等于Ns停止。通过以上该数据集读入方式仅需在初始训练样本S基础上再迭代两次即可获得最终的数据集S,根据此数据集S训练而得最终模型
Figure BDA0003543424540000164
比如,在一种可能的实施例中,第一数量为Ns/8,且之后每次迭代选取的数量分别为Ns/8、Ns/4、Ns/2,则在累计迭代4次之后即可得到最终的数据集S。上述仅以按照以上迭代方式来举例说明,实际实现时,在迭代截止时,选取的数据集的数量可能大于S,本实施例在此并不做限定。
可选的,上述方案中的第一数量还可以是Ns/4、Ns/2或其他数量,以第一数量为Ns/4举例,通过上述方案选取Ns/4个样本作为初始训练样本,用上述所得样本训练模型
Figure BDA0003543424540000165
采用熵作为获得函数,即
Figure BDA0003543424540000166
Figure BDA0003543424540000167
计算数据集D中每个样本的信息量α,将数据集D中α最大的Ns/4个样本移入至训练集S中,此时仅需在初始训练样本S基础上再迭代两次即可获得最终的数据集S。
同理,上述方案中的第一数量为其他数量时,只需要迭代上述步骤直至训练数据集的样本量满足要求(如数量多于Ns与指定比值的乘积)即可。
步骤303,将各个该医疗样本数据各自对应的各个熵构建为熵矩阵。
在一种可能的实现方式中,将各个该医疗样本数据各自对应的各个熵作为元素,以生成为该熵矩阵;该熵矩阵的行数为该医疗样本数据的个数;该熵矩阵的列数为该神经网络模型的个数。
或者,在另一种可能的实现方式中,该熵矩阵的行数为该神经网络模型的个数,此时熵矩阵的行号则为各个神经网络模型的编号,该熵矩阵的列数为该医疗样本数据的个数,此时熵矩阵的列号则为医疗样本数据的编号。
步骤304,对该医疗数据集进行划分,获得各个医疗数据子集。
在一种可能的实现方式中,该各个医疗数据子集是按照指定子集数量进行划分的,即在对医疗数据集进行划分之前,可以预先设置好划分的医疗数据子集的数量,并将医疗数据集中的各个医疗样本数据随机分配至各个医疗数据子集中,从而实现对医疗数据集的划分。
在另一种可能的实现方式中,该各个医疗数据子集的划分个数是以该医疗数据集中的医疗样本数据的个数确定的,当计算机设备需要对医疗数据集进行划分时,可以随机选取出医疗样本数据,并当取出指定数量的医疗样本数据时,将取出的医疗样本数据构建为一个医疗数据子集;并且计算机重新开始新一轮的医疗样本数据的取出操作,直至医疗数据集中的数量小于指定值。
步骤305,针对每个医疗数据子集,通过该熵矩阵计算该医疗数据子集中样本的多样性、覆盖性及均衡性。
在一种可能的实现方式中,在该熵矩阵中读取该医疗数据子集中各个医疗样本数据所对应的元素值;将医疗数据子集中各个医疗样本数据所对应的元素值的和,与神经网络模型的个数的比值,确定为该医疗数据子集中医疗样本数据的多样性。
即对于样本多样性表征的计算,计算机设备可以通过式
Figure BDA0003543424540000171
Figure BDA0003543424540000172
获得医疗样本数据xj的多样性表征。
在一种可能的实现方式中,将该熵矩阵的元素中,大于目标滑动因子的元素转换为1,并将该熵矩阵的元素中,小于目标滑动因子的元素转换为0,以获得该更改矩阵。
针对每个神经网络模型,在该更改矩阵中获取该神经网络模型对该医疗数据子集中各个医疗样本数据进行处理所得到的元素,并求和以得到响应计数;
计算更改矩阵中各个元素的平均值,以获得响应平均值;
计算该响应平均值与该响应计数之间的标准差,以获得该神经网络模型对应的响应偏差;
将该响应计数与该响应偏差的比值,按照神经网络模型的类别进行求和,获得该医疗数据子集的均衡性;
将该响应计数与该更改矩阵的元素个数的比值,按照神经网络模型的类别进行求和,获得该医疗数据子集的覆盖性。
也就是说,计算机设备通过设定一滑动因子th,将Ent矩阵转换成0-1矩阵,即Mat01=[zoj,e]N,(m+n)。当Ent矩阵中元素大于等于滑动因子,则Mat01中相应位置元素为1,否则为0。
并且计算机设备还可以设定Cmodel(seq,e)=∑seqMat01(seq,e)为第e个模型对于医疗数据子集seq的响应计数,而
Figure BDA0003543424540000181
为其响应平均值,则响应偏差为
Figure BDA0003543424540000182
可得,所选医疗数据子集seq对于第e个模型的均衡性可通过式
Figure BDA0003543424540000183
对于第e个模型,医疗数据子集seq的覆盖性可通过
Figure BDA0003543424540000184
步骤306,基于该医疗数据子集中医疗样本数据的多样性、覆盖性及均衡性对该医疗数据子集进行更新,获得目标数据子集。
在一种可能的实现方式中,基于该医疗数据子集中医疗样本数据的多样性、覆盖性及均衡性进行加权求和,获得该医疗数据子集对应的适应度;
根据该医疗数据子集的适应度,对该医疗数据子集进行迭代更新,并将迭代更新后的医疗数据子集确定为该目标数据子集。
也就是说,计算机设备可以通过适应度函数求出各个医疗样本数据的适应度,适应度函数Fitness(seq)三项分别为:∑j=seq Diversity(xj),∑e Balance(seq,e)和∑eCoverage(seq,e)。适应度函数表达为:(医疗数据子集中各个样本的信息量,该医疗数据子集与各个模型的相关性,该医疗数据子集的覆盖性)
Figure BDA0003543424540000191
示意性地,
Figure BDA0003543424540000192
即三项属性具备等同重要度。
在一种可能的实现方式中,在第N轮迭代更新过程中,将医疗数据子集中的至少一个医疗样本数据,替换为除该医疗数据子集之外的医疗样本数据,以获得中间医疗数据子集,N的起始值为1;
根据该熵矩阵计算该中间医疗数据子集的适应度,并将该中间医疗数据子集以及该医疗数据子集中适应度更高的,确定为第N轮迭代更新后的医疗数据子集;
若N小于预设轮数时,则再次执行将医疗数据子集中的至少一个医疗样本数据,替换为在该医疗数据子集之外的医疗样本数据的操作;
若N达到该预设轮数时,将该第N轮迭代更新后的医疗数据子集确定为该目标数据子集。
也就是说,在对医疗数据子集进行迭代更新的过程中,可以不断地将医疗数据子集中的医疗样本数据,替换为除医疗数据子集之外的其他医疗样本数据,从而得到与该医疗数据子集对应的中间医疗数据子集;
此时在通过上述步骤中的适应度计算方法,分别计算医疗数据子集的适应度,以及中间医疗数据子集的适应度,在获取医疗数据子集的适应度,以及中间医疗数据子集的适应度后,可以将在该迭代轮次中的医疗数据子集与中间医疗数据子集进行适应度对比。
当医疗数据子集与中间医疗数据子集中,医疗数据子集的适应度更高时,则说明将医疗数据子集进行替换操作后,反而降低了医疗数据子集与神经网络模型的匹配程度,此时保持医疗数据子集不变。
相应的,当医疗数据子集与中间医疗数据子集中,中间医疗数据子集的适应度更高时,则说明将医疗数据子集进行替换操作后,提高了医疗数据子集与机器学习模型的匹配程度,此时可以直接将中间医疗数据子集更新为医疗数据子集。
在一种可能的实现方式中,计算机设备将医疗数据集D按照标签分为互不相交的医疗数据子集subk。针对每一医疗数据子集subk,k∈[1,2,...,K],从subk中随机选取m(m大于等于1)个样本至seqk作为待检验数据子集,并使
Figure BDA0003543424540000201
即先按照待检验数据子集复制出对应的候选数据子集,在子集subk-seqk中随机选取一例样本代替
Figure BDA0003543424540000202
中一例样本,从而完成复制出的候选数据子集中的医疗样本数据的替换。
此时比较待检验数据子集与候选数据子集的适应度,并将适应度高的更新为待检验数据子集,当迭代步骤小于指定数量时,继续对待检验数据子集进行迭代,当迭代步骤达到指定数量,将待检验数据子集作为目标数据子集。
步骤307,将各个目标数据子集组合为优化后的医疗数据集。
请参考图7,其示出了本申请实施例涉及的一种数据集优化的逻辑框架图。如图7所示。在对数据集进行优化时,可以先构建各个替代模型(即小替代模型)以及各个checkpoint模型,从而构建出查询集成模型。计算机设备通过查询集成模型对各医疗样本数据进行处理,从而构建出熵矩阵Ent=[αj,e]N,(m+n);此时计算机设备再通过滑动因子th,将Ent矩阵转换成0-1矩阵,即Mat01=[zoj,e]N,(m+n)
当完成上述计算后,对于不同的医疗数据子集,可以分别计算其对应的样本多样性表征、响应计数及覆盖性,并通过如步骤305所示的优化算法,得到医疗样本数据所构成的目标数据子集,并将各个目标数据子集合并作为最终的医疗数据集。
综上所述,在训练对医疗数据进行处理的神经网络模型之前,计算机设备先获取到医疗数据集中的各个医疗样本数据,通过各个神经网络模型分别对各个医疗样本数据进行处理,并通过处理结果构建出熵矩阵;计算机设备还对医疗数据集划分为各个医疗数据子集,并通过熵矩阵计算医疗数据子集的多样性、均衡性和覆盖性,以对各个医疗数据子集进行更新,从而获得各个目标数据子集,此时各个目标数据子集组合即可以得到优化后的医疗数据集。上述方案,通过多个神经网络模型对医疗样本数据进行处理,各个医疗样本数据与神经网络模型所对应的熵矩阵,并通过各个医疗数据子集分别在熵矩阵中体现出的信息量计算多样性、均衡性和覆盖性,从而更好的评判各个医疗数据子集中医疗样本数据的好坏程度,进而对各个医疗数据子集进行更新,得到各个目标数据子集以组合得到优化后的医疗数据集,提高了优化后的医疗数据集中的各个医疗样本数据与神经网络模型的匹配程度,从而提高了通过优化后的医疗数据集进行神经网络模型训练的训练效果。
图8是根据一示例性实施例示出的数据集优化装置的结构方框图。所述装置包括:
医疗数据集获取模块801,用于获取医疗数据集;所述医疗数据集中包含各个医疗样本数据;
样本数据处理模块802,用于针对每个所述医疗样本数据,分别通过各个神经网络模型对所述医疗样本数据进行处理,获得所述医疗样本数据对应的各个熵;所述神经网络模型用于对所述医疗样本数据进行推理计算;
熵矩阵构建模块803,用于将各个所述医疗样本数据各自对应的各个熵构建为熵矩阵;
数据子集划分模块804,用于对所述医疗数据集进行划分,获得各个医疗数据子集;
数据子集更新模块805,用于针对每个医疗数据子集,通过所述熵矩阵计算所述医疗数据子集中样本的多样性、覆盖性及均衡性,并基于所述医疗数据子集中医疗样本数据的多样性、覆盖性及均衡性对所述医疗数据子集进行更新,获得目标数据子集;
数据集优化模块806,用于基于各个所述目标数据子集,构建优化后的医疗数据集。
在一种可能的实现方式中,所述熵矩阵构建模块,用于,
将各个所述医疗样本数据各自对应的各个熵作为元素,以生成为所述熵矩阵;
所述熵矩阵的行数为所述医疗样本数据的个数;所述熵矩阵的列数为所述神经网络模型的个数。
在一种可能的实现方式中,所述数据子集更新模块,还用于,
在所述熵矩阵中读取所述医疗数据子集中各个医疗样本数据所对应的元素值;
将医疗数据子集中各个医疗样本数据所对应的元素值的和,与神经网络模型的个数的比值,确定为所述医疗数据子集中医疗样本数据的多样性。
在一种可能的实现方式中,所述熵矩阵构建模块,还用于,
将所述熵矩阵的元素中,大于目标滑动因子的元素转换为1,并将所述熵矩阵的元素中,小于目标滑动因子的元素转换为0,以获得更改矩阵;
针对每个神经网络模型,在所述更改矩阵中获取所述神经网络模型对所述医疗数据子集中各个医疗样本数据进行处理所得到的元素,并求和以得到响应计数;
计算更改矩阵中各个元素的平均值,以获得响应平均值;
计算所述响应平均值与所述响应计数之间的标准差,以获得所述神经网络模型对应的响应偏差;
将所述响应计数与所述响应偏差的比值,按照神经网络模型的类别进行求和,获得所述医疗数据子集的均衡性;
将所述响应计数与所述更改矩阵的元素个数的比值,按照神经网络模型的类别进行求和,获得所述医疗数据子集的覆盖性。
在一种可能的实现方式中,所述数据子集更新模块,还用于,
基于所述医疗数据子集中医疗样本数据的多样性、覆盖性及均衡性进行加权求和,获得所述医疗数据子集对应的适应度;
根据所述医疗数据子集的适应度,对所述医疗数据子集进行迭代更新,并将迭代更新后的医疗数据子集确定为所述目标数据子集。
在一种可能的实现方式中,所述数据子集更新模块,还用于,
在第N轮迭代更新过程中,将医疗数据子集中的至少一个医疗样本数据,替换为除所述医疗数据子集之外的医疗样本数据,以获得中间医疗数据子集;
根据所述熵矩阵计算所述中间医疗数据子集的适应度,并将所述中间医疗数据子集以及所述医疗数据子集中适应度更高的,确定为第N轮迭代更新后的医疗数据子集;
若N小于预设轮数时,则再次执行将医疗数据子集中的至少一个医疗样本数据,替换为在所述医疗数据子集之外的医疗样本数据的操作;
若N达到所述预设轮数时,将所述第N轮迭代更新后的医疗数据子集确定为所述目标数据子集。
在一种可能的实现方式中,所述各个神经网络模型包括m个小替代模型以及n个检查点模型;所述m个小替代模型为对目标初始模型的卷积层和/或池化层的层数缩减后得到的模型,或者,所述m个小替代模型为训练精度小于预设阈值的网络模型;所述n个检查点模型为与目标初始模型的模型结构相同;
所述目标初始模型为对医疗样本数据进行推理计算的神经网络模型。
在一种可能的实现方式中,所述装置还包括:
模型缩减模块,用于对所述目标初始模型的卷积层和/或池化层的层数进行缩减,获得m个小初始模型;
初始训练模块,用于根据所述医疗数据集分别对m个小初始模型进行训练,获得训练后的m个小替代模型;
数据集选取模块,用于根据所述医疗数据集,对所述目标初始模型进行P轮预训练,并根据预训练后的目标神经网络模型在医疗数据集中选取训练数据集;
模型参数获取模块,用于根据所述训练数据集,对所述目标初始模型进行T轮迭代训练,并获取最后n轮迭代过程中目标初始模型的模型参数;
检查点模型获取模块,用于基于最后n轮迭代过程中的目标初始模型的模型参数,构建所述n个检查点模型。
综上所述,在训练对医疗数据进行处理的神经网络模型之前,计算机设备先获取到医疗数据集中的各个医疗样本数据,通过各个神经网络模型分别对各个医疗样本数据进行处理,并通过处理结果构建出熵矩阵;计算机设备还对医疗数据集划分为各个医疗数据子集,并通过熵矩阵计算医疗数据子集的多样性、均衡性和覆盖性,以对各个医疗数据子集进行更新,从而获得各个目标数据子集,此时各个目标数据子集组合即可以得到优化后的医疗数据集。上述方案,通过多个神经网络模型对医疗样本数据进行处理,各个医疗样本数据与神经网络模型所对应的熵矩阵,并通过各个医疗数据子集分别在熵矩阵中体现出的信息量计算多样性、均衡性和覆盖性,从而更好的评判各个医疗数据子集中医疗样本数据的好坏程度,进而对各个医疗数据子集进行更新,得到各个目标数据子集以组合得到优化后的医疗数据集,提高了优化后的医疗数据集中的各个医疗样本数据与神经网络模型的匹配程度,从而提高了通过优化后的医疗数据集进行神经网络模型训练的训练效果。
请参阅图9,其是根据本申请一示例性实施例提供的一种计算机设备示意图,所述计算机设备包括存储器和处理器,所述存储器用于存储计算机程序,所述计算机程序被所述处理器执行时,实现上述方法。
其中,处理器可以为中央处理器(Central Processing Unit,CPU)。处理器还可以为其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等芯片,或者上述各类芯片的组合。
存储器作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序、非暂态计算机可执行程序以及模块,如本发明实施方式中的方法对应的程序指令/模块。处理器通过运行存储在存储器中的非暂态软件程序、指令以及模块,从而执行处理器的各种功能应用以及数据处理,即实现上述方法实施方式中的方法。
存储器可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储处理器所创建的数据等。此外,存储器可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施方式中,存储器可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至处理器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
在一示例性实施例中,还提供了一种计算机可读存储介质,用于存储有至少一条计算机程序,所述至少一条计算机程序由处理器加载并执行以实现上述方法中的全部或部分步骤。例如,该计算机可读存储介质可以是只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、只读光盘(Compact Disc Read-Only Memory,CD-ROM)、磁带、软盘和光数据存储设备等。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由下面的权利要求指出。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制。

Claims (10)

1.一种医疗数据集优化方法,其特征在于,所述方法包括:
获取医疗数据集;所述医疗数据集中包含各个医疗样本数据;
针对每个所述医疗样本数据,分别通过各个神经网络模型对所述医疗样本数据进行处理,获得所述医疗样本数据对应的各个熵;所述神经网络模型用于对所述医疗样本数据进行推理计算;
将各个所述医疗样本数据各自对应的各个熵构建为熵矩阵;
对所述医疗数据集进行划分,获得各个医疗数据子集;
针对每个医疗数据子集,通过所述熵矩阵计算所述医疗数据子集中样本的多样性、覆盖性及均衡性,并基于所述医疗数据子集中医疗样本数据的多样性、覆盖性及均衡性对所述医疗数据子集进行更新,获得目标数据子集;
基于各个所述目标数据子集,构建优化后的医疗数据集。
2.根据权利要求1所述的方法,其特征在于,所述将各个所述医疗样本数据各自对应的各个熵构建为熵矩阵,包括:
将各个所述医疗样本数据各自对应的各个熵作为元素,以生成为所述熵矩阵;
所述熵矩阵的行数为所述医疗样本数据的个数;所述熵矩阵的列数为所述神经网络模型的个数。
3.根据权利要求2所述的方法,其特征在于,所述通过所述熵矩阵计算所述医疗数据子集中样本的多样性,包括:
在所述熵矩阵中读取所述医疗数据子集中各个医疗样本数据所对应的元素值;
将医疗数据子集中各个医疗样本数据所对应的元素值的和,与神经网络模型的个数的比值,确定为所述医疗数据子集中医疗样本数据的多样性。
4.根据权利要求2所述的方法,其特征在于,所述通过所述熵矩阵计算所述医疗数据子集中样本的覆盖性及均衡性,包括:
将所述熵矩阵的元素中,大于目标滑动因子的元素转换为1,并将所述熵矩阵的元素中,小于目标滑动因子的元素转换为0,以获得更改矩阵;
针对每个神经网络模型,在所述更改矩阵中获取所述神经网络模型对所述医疗数据子集中各个医疗样本数据进行处理所得到的元素,并求和以得到响应计数;
计算所述更改矩阵中各个元素的平均值,以获得响应平均值;
计算所述响应平均值与所述响应计数之间的标准差,以获得所述神经网络模型对应的响应偏差;
将所述响应计数与所述响应偏差的比值,按照神经网络模型的类别进行求和,获得所述医疗数据子集的均衡性;
将所述响应计数与所述更改矩阵的元素个数的比值,按照神经网络模型的类别进行求和,获得所述医疗数据子集的覆盖性。
5.根据权利要求1至4任一所述的方法,其特征在于,所述基于所述医疗数据子集中医疗样本数据的多样性、覆盖性及均衡性对所述医疗数据子集进行更新,获得目标数据子集,包括:
基于所述医疗数据子集中医疗样本数据的多样性、覆盖性及均衡性进行加权求和,获得所述医疗数据子集对应的适应度;
根据所述医疗数据子集的适应度,对所述医疗数据子集进行迭代更新,并将迭代更新后的医疗数据子集确定为所述目标数据子集。
6.根据权利要求5所述的方法,其特征在于,所述根据所述医疗数据子集的适应度,对所述医疗数据子集进行迭代更新,并将迭代更新后的医疗数据子集确定为所述目标数据子集,包括:
在第N轮迭代更新过程中,将医疗数据子集中的至少一个医疗样本数据,替换为除所述医疗数据子集之外的医疗样本数据,以获得中间医疗数据子集,N的起始值为1;
根据所述熵矩阵计算所述中间医疗数据子集的适应度,并将所述中间医疗数据子集以及所述医疗数据子集中适应度更高的,确定为第N轮迭代更新后的医疗数据子集;
若N小于预设轮数时,则再次执行将医疗数据子集中的至少一个医疗样本数据,替换为在所述医疗数据子集之外的医疗样本数据的操作;
若N达到所述预设轮数时,将所述第N轮迭代更新后的医疗数据子集确定为所述目标数据子集。
7.根据权利要求1至4任一所述的方法,其特征在于,所述各个神经网络模型包括m个小替代模型以及n个检查点模型;所述m个小替代模型为对目标初始模型的卷积层和/或池化层的层数缩减后得到的模型,或者,所述m个小替代模型为训练精度小于预设阈值的网络模型;所述n个检查点模型为与目标初始模型的模型结构相同;
所述目标初始模型为对医疗样本数据进行推理计算的神经网络模型。
8.根据权利要求7所述的方法,其特征在于,所述针对每个所述医疗样本数据,分别通过各个神经网络模型对所述医疗样本数据进行处理之前,还包括:
对所述目标初始模型的卷积层和/或池化层的层数进行缩减,获得m个小初始模型;
根据所述医疗数据集分别对m个小初始模型进行训练,获得训练后的m个小替代模型;
根据所述医疗数据集,对所述目标初始模型进行P轮预训练,并根据预训练后的目标神经网络模型在医疗数据集中选取训练数据集;
根据所述训练数据集,对所述目标初始模型进行T轮迭代训练,并获取最后n轮迭代过程中目标初始模型的模型参数;
基于最后n轮迭代过程中的目标初始模型的模型参数,构建所述n个检查点模型。
9.根据权利要求8所述的方法,其特征在于,所述根据所述医疗数据集,对所述目标初始模型进行P轮预训练,并根据预训练后的神经网络模型在所述医疗数据集中选取训练数据集,包括:
将所述医疗数据集中随机选择的第一数量的医疗数据移出至训练数据集;
通过所述第一数量的医疗数据训练所述目标初始模型;
获取所述医疗数据集中每个医疗数据的信息量;
根据获取到的所述信息量将所述医疗数据集中满足预设条件的医疗数据移出至所述训练数据集,并通过满足所述预设条件的医疗数据再次训练所述目标初始模型,所述预设条件包括信息量排名在前m位,或者信息量大于限定阈值;
若所述训练数据集的样本量小于预设值,则再次执行所述获取所述医疗数据集中每个医疗数据的信息量的步骤;
若所述训练数据集的样本量达到所述预设值时,将当前的训练数据集确定为最终选取得到的训练数据集,所述预设值小于所述医疗数据集中的医疗数据的总量。
10.一种计算机设备,其特征在于,所述计算机设备中包含处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现如权利要求1至9任一所述的医疗数据集优化方法。
CN202210238800.1A 2022-03-11 2022-03-11 医疗数据集优化方法及设备 Pending CN114582518A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210238800.1A CN114582518A (zh) 2022-03-11 2022-03-11 医疗数据集优化方法及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210238800.1A CN114582518A (zh) 2022-03-11 2022-03-11 医疗数据集优化方法及设备

Publications (1)

Publication Number Publication Date
CN114582518A true CN114582518A (zh) 2022-06-03

Family

ID=81779964

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210238800.1A Pending CN114582518A (zh) 2022-03-11 2022-03-11 医疗数据集优化方法及设备

Country Status (1)

Country Link
CN (1) CN114582518A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115017215A (zh) * 2022-08-05 2022-09-06 阿里巴巴(中国)有限公司 数据处理方法及计算设备

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115017215A (zh) * 2022-08-05 2022-09-06 阿里巴巴(中国)有限公司 数据处理方法及计算设备
CN115017215B (zh) * 2022-08-05 2022-12-09 阿里巴巴(中国)有限公司 数据处理方法及计算设备

Similar Documents

Publication Publication Date Title
US9990558B2 (en) Generating image features based on robust feature-learning
US20210004677A1 (en) Data compression using jointly trained encoder, decoder, and prior neural networks
CN109416758A (zh) 神经网络及神经网络训练的方法
WO2020159890A1 (en) Method for few-shot unsupervised image-to-image translation
CN111612134A (zh) 神经网络结构搜索方法、装置、电子设备及存储介质
CN112819023A (zh) 样本集的获取方法、装置、计算机设备和存储介质
Ahmadi et al. Learning fuzzy cognitive maps using imperialist competitive algorithm
CN114491039B (zh) 基于梯度改进的元学习少样本文本分类方法
CN114298122B (zh) 数据分类方法、装置、设备、存储介质及计算机程序产品
US20190228297A1 (en) Artificial Intelligence Modelling Engine
CN111709493A (zh) 对象分类方法、训练方法、装置、设备及存储介质
CN116362325A (zh) 一种基于模型压缩的电力图像识别模型轻量化应用方法
Qian Exploration of machine algorithms based on deep learning model and feature extraction
CN110335160B (zh) 一种基于分组和注意力改进Bi-GRU的就医迁移行为预测方法及系统
CN114582518A (zh) 医疗数据集优化方法及设备
CN113822130A (zh) 模型训练方法、场景识别方法、计算设备和介质
CN117523291A (zh) 基于联邦知识蒸馏和集成学习的图像分类方法
CN116109868A (zh) 基于轻量化神经网络的图像分类模型构建和小样本图像分类方法
CN117010480A (zh) 模型训练方法、装置、设备、存储介质及程序产品
CN114548297A (zh) 基于领域自适应的数据分类方法、装置、设备及介质
EP4302244A1 (en) Explainable artificial intelligence in computing environment
Reddy et al. Effect of image colourspace on performance of convolution neural networks
CN114898426A (zh) 一种同义标签聚合方法、装置、设备及存储介质
Sun et al. An iterative stacked weighted auto-encoder
CN114329181A (zh) 一种题目推荐方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination