CN117150369A - 超重预测模型的训练方法及电子设备 - Google Patents
超重预测模型的训练方法及电子设备 Download PDFInfo
- Publication number
- CN117150369A CN117150369A CN202311416059.4A CN202311416059A CN117150369A CN 117150369 A CN117150369 A CN 117150369A CN 202311416059 A CN202311416059 A CN 202311416059A CN 117150369 A CN117150369 A CN 117150369A
- Authority
- CN
- China
- Prior art keywords
- data
- overweight
- prediction
- training
- index
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 82
- 238000000034 method Methods 0.000 title claims abstract description 54
- 238000012545 processing Methods 0.000 claims abstract description 52
- 238000007689 inspection Methods 0.000 claims abstract description 41
- 238000012937 correction Methods 0.000 claims abstract description 9
- 230000001815 facial effect Effects 0.000 claims description 60
- 238000000605 extraction Methods 0.000 claims description 16
- 238000013528 artificial neural network Methods 0.000 claims description 12
- 210000002569 neuron Anatomy 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 10
- 230000004044 response Effects 0.000 claims description 8
- 239000003550 marker Substances 0.000 claims description 7
- 238000010606 normalization Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 4
- 238000004891 communication Methods 0.000 description 11
- 238000012360 testing method Methods 0.000 description 9
- 238000013527 convolutional neural network Methods 0.000 description 5
- 230000036961 partial effect Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000012216 screening Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 3
- 238000013475 authorization Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000013067 intermediate product Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H10/00—ICT specially adapted for the handling or processing of patient-related medical or healthcare data
- G16H10/60—ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computing Systems (AREA)
- Evolutionary Biology (AREA)
- Medical Informatics (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Databases & Information Systems (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本申请提供一种超重预测模型的训练方法及电子设备。其中方法包括:获取第一数量的历史对象的第一相关数据作为第一样本数据集;将没有第一体检数据的第一相关数据输入至判别模型;利用判别模型识别没有第一体检数据的第一相关数据中的第一填报数据的第一超重指标的真实性,得到识别结果;根据识别结果对该识别结果对应的第一相关数据中的第一填报数据的第一超重指标进行相应修正,得到修正后的第一样本数据集;利用预先构建的初始超重预测模型对修正后的第一样本数据集中的第一面部图像进行超重的训练预测处理,根据训练预测结果与对应的第一超重指标之间的差异对初始超重预测模型进行参数调整得到超重预测模型。提高了超重预测模型的预测准确度。
Description
技术领域
本申请涉及数据处理技术领域,尤其涉及一种超重预测模型的训练方法及电子设备。
背景技术
进行超重预测,传统的方式会采用计算超重指标(例如,BMI,身体质量指数),根据超重指标确定是否超重。
一般超重指标需要用户的身体特征的信息才能计算,如果不知道用户的身体特征,就无法确定超重指标,所以后来采用一种根据人脸图像通过神经网络模型预测超重指标的方案。
但是,目前的神经网络模型进行训练的时候所需的训练样本可能是用户谎报的身体特征,或者谎报的超重指标,这样就会导致训练得到的神经网络模型的预测准确度不高。
发明内容
有鉴于此,本申请的目的在于提出一种超重预测模型的训练方法及电子设备,用以解决或部分解决上述技术问题。
基于上述目的,本申请的第一方面提供了一种超重预测模型的训练方法,包括:
获取第一数量的历史对象的第一相关数据作为第一样本数据集;其中,所述第一相关数据包括:第一面部图像与第一填报数据,所述第一数量的历史对象中的部分历史对象的第一相关数据中包括第一体检数据;所述第一填报数据和所述第一体检数据中均包括第一超重指标;
将没有第一体检数据的第一相关数据输入至判别模型;
利用判别模型识别所述没有第一体检数据的第一相关数据中的第一填报数据的第一超重指标的真实性,得到识别结果;
根据所述识别结果对该识别结果对应的第一相关数据中的第一填报数据的第一超重指标进行相应修正,得到修正后的第一样本数据集;
利用预先构建的初始超重预测模型对所述修正后的第一样本数据集中的第一面部图像进行超重的训练预测处理,根据训练预测结果与对应的第一超重指标之间的差异对所述初始超重预测模型进行参数调整,得到超重预测模型。
基于同一发明构思,本公开第二方面还提供了一种电子设备,包括存储器、处理器及存储在所述存储器上并可由所述处理器执行的计算机程序,所述处理器在执行所述计算机程序时实现如上所述的方法。
从上面所述可以看出,本申请提供的超重预测模型的训练方法及电子设备,能够利用判别模型对收集的历史对象的第一样本数据集的第一相关数据中的第一填报数据的第一超重指标的真实性进行识别,进而对识别出的不真实(假)的第一相关数据进行修正,这样保证了修正后的第一样本数据集的准确性,使得利用修正后的第一样本数据集训练初始超重预测模型过程中,每次参数调整都是向更准确的方向进行调整,保证了最终训练后的超重预测模型进行超重预测的准确度。
附图说明
为了更清楚地说明本申请或相关技术中的技术方案,下面将对实施例或相关技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1A为本申请实施例的判别模型的训练流程图;
图1B为本申请实施例的训练判别模型过程中进行谎报标记的流程图;
图1C为本申请实施例的初始判别模型的参数调整流程图;
图1D为本申请实施例的超重预测模型的训练方法的流程图;
图1E为本申请实施例的方法中的步骤103的展开流程图;
图1F为本申请实施例的方法中的步骤105的展开流程图;
图1G为本申请实施例的方法中的步骤106的展开流程图;
图2为本申请实施例的超重预测模型的训练装置的结构示意图;
图3为本申请实施例的电子设备的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本申请进一步详细说明。
需要说明的是,除非另外定义,本申请实施例使用的技术术语或者科学术语应当为本申请所属领域内具有一般技能的人士所理解的通常意义。本申请实施例中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。“连接”或者“相连”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电性的连接,不管是直接的还是间接的。“上”、“下”、“左”、“右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。
相关技术中,要想获得准确 BMI,需通过公式 BMI=体重÷身高2来计算。而公式需要的参数是准确的身高和体重。通常准确客观的身高和体重由体检数据获得,要求用户进行体检会消耗很多用户时间,这样给用户带来很多不便;而更常见的方式是由用户主动告知,具体途径包括书面填写或电子设备录入。但是用户主动告知的方式可能存在用户谎报的风险。
随着基于神经网络的人脸识别及匹配技术快速发展, 人脸特征编码技术的鲁棒性越来越强。(人脸特征编码即以张量的方式描述人脸特征,是人脸识别算法的中间产物;鲁棒性即算法在不利情况下依然具有良好的泛化预测能力。)因此,“Face-to-BMI”基于此特征编码预测实现从人脸直接跳跃到 BMI,回避了不实的身高体重数据,也减少了数据收集的频次。
“Face-to-BMI”采用人脸特征编码的方式,通过训练神经网络建立人脸和BMI 之间的关系,但由于方法没有考虑人脸在整张图片中的位置,利用整张图片输入模型会引入其他环境因素,因而降低了预测的准确率。
采用训练深度学习模型的相关方式实现,为了训练出具有较高准确率的模型,需要大量的标记样本数据集,当样本数据集的标签本身存在一定的偏差时,就会使得训练得到的预测模型难以实现准确预测。
在进行数据核对时,历史对象提供的身高体重等相关数据可能存在一定的错误,不能正确反映历史对象的真实BMI,利用这类数据直接训练BMI预测模型,会出现一定的偏差,容易导致对于新对象的BMI预估出现判断失误,造成一定的损失。
以下结合附图来详细说明本申请的实施例。
本申请的实施例提出了一种超重预测模型的训练方法,该方法包括:
在实际的第一样本数据集的收集过程中,部分历史对象(例如被保人)可能涉嫌谎报数据,导致其自行填报的第一填报数据中的第一超重指标不真实。例如,根据被保人的身高体重计算得到 BMI(第一超重指标)偏低,被保人本身 BMI 属于超重范围,而填报的数据显示其属于正常范围,因此直接利用被保人自行填报的身高体重信息得到的BMI(第一超重指标)与录入的人脸图像信息训练 BMI 预测模型(初始超重预测模型)存在一定的偏差。
为了应对此类情况,采用判别模型对第一样本数据集中的第一填报数据进行真实性的识别然后再利用其对初始超重预测模型进行训练。
在一些实施例中,如图1A所示,所述判别模型的训练过程包括:
步骤A1,获取第二数量的历史对象的第二相关数据作为第二样本数据集,其中,所述第二相关数据中包括:第二面部图像、第二体检数据和第二填报数据;所述第二填报数据和所述第二体检数据中均包括第二超重指标。
具体实施时,第二样本数据集构建方法如下:从数据库中筛选所有具有第二体检数据的历史对象的第二相关数据作为第二样本数据集。
步骤A2,将所述第二填报数据中的第二超重指标与超重关注值进行比较,得到填报数据比较结果,以及将所述第二体检数据中的第二超重指标与超重关注值进行比较,得到体检数据比较结果。
步骤A3,将所述填报数据比较结果与所述体检数据比较结果不同的第二相关数据进行谎报标记,得到标记后的第二样本数据集。
在一些实施例中,如图1B所示,步骤A3包括:
步骤A31,判断是否为所述体检数据比较结果属于所述第二体检数据中的第二超重指标大于超重关注值,且所述填报数据比较结果属于所述第二填报数据的第二超重指标小于等于超重关注值,是则,确定谎报标记为第一标记,否则,确定谎报标记为第二标记。
在上述步骤中,能够预先对第二相关数据的真实性进行标记,第一标记表示假,第二标记表示真实。
步骤A32,从属于第二标记的第二相关数据中选择所述第二体检数据中的第二超重指标大于超重关注值的至少一个第二相关数据,将选择的至少一个第二相关数据中所述第二填报数据的第二超重指标设定为小于等于超重关注值,并将所述第二标记变更为第一标记。
在上述步骤中,能够将真实的第二相关数据进行处理,处理成假的第二相关数据,这样后续训练判别模型时,能够使得判别模型具有更高的识别效果。
步骤A33,将所有第一标记的第二相关数据和所有第二标记的第二相关数据进行组合得到所述标记后的第二样本数据集。
例如,历史对象的第二相关数据中的体检BMI(即第二体检数据的第二超重指标)实际大于业务专家关注的BMI阈值(即,超重关注值),但其对应的第二填报数据(申报 BMI)小于超重关注值,则其谎报标记为 1(即,第一标记),否则标记为 0(即,第二标记);
为了提高第一标记的数量,对第二相关数据中真实的肥胖样本(体检 BMI 大于超重关注值),且自身填报的BMI(即,第二填报数据中的第二超重指标)也大于超重关注值的数据进行随机“虚拟”申报,将其 BMI 赋值为低于超重关注值的范围,且将其谎报标签标记为 1(即,第一标记)。
构建后的第二样本数据集具有的形式如下:
1)第二样本数据集中,每条数据代表一个历史对象的第二相关数据(被保人的信息);
2)每条数据包含历史对象的面部图像、申报的 BMI或者“虚拟”申报后的BMI(第二填报数据中的第二超重指标)、性别、其申报 BMI 是否谎报(表现为谎报标记为 1 或 0)。
步骤A4,利用所述标记后的第二样本数据集中的第二面部图像和第二填报数据,对预先由神经网络构成的初始判别模型进行训练判断处理,得到训练判断结果,根据所述训练判断结果与所述谎报标记之间的差异对所述初始判别模型进行参数调整,得到所述判别模型。
在一些实施例中,所述初始判别模型包括:图像特征处理网络和浅层分类网络;
如图1C所示,步骤A4包括:
步骤A41,利用图像特征处理网络对所述标记后的第二样本数据集中的第二面部图像进行特征提取,得到第一维度的第二图像特征。
在上述步骤中,将第二面部图像提取成为第一维度(例如,128维)第二图像特征(例如,特征编码)。
图像特征处理网络为 Face_recognition,可以将输入的面部图像进行编码,形成一个128维的向量,该向量可以视为该面部图像的表示,抽象了其中的关键信息。
步骤A42,将所述第二填报数据与所述第一维度的第二图像特征合并成第二维度的第二输入数据。
例如,将上述的128 维编码与申报的 BMI和性别信息(第二填报数据)进行合并,合并成为 130维向量(第二维度的第二输入数据)。
步骤A43,将所述第二输入数据输入至浅层分类网络中进行训练判断处理得到训练判断结果,根据所述训练判断结果与对应的谎报标记之间的差异对所述浅层分类网络进行参数调整,得到训练后的浅层分类网络。
由于每个第二输入数据对应的第二相关数据均带有相应的谎报标记,所以可以根据浅层分类网络输出的训练判断结果与谎报标记进行比对,根据二者的差异对浅层分类网络的各层神经元的参数进行调整。如果相同可以不调整参数,如果不同,则调整参数。
步骤A44,将所述图像特征处理网络和所述训练后的浅层分类网络进行组合得到所述判别模型。
如图1D所示,训练好判别模型后进行第一样本数据集筛选的过程包括:
步骤101,获取第一数量的历史对象的第一相关数据作为第一样本数据集;其中,所述第一相关数据包括:第一面部图像与第一填报数据,所述第一数量的历史对象中的部分历史对象的第一相关数据中包括第一体检数据;所述第一填报数据和所述第一体检数据中均包括第一超重指标。
具体实施时,历史对象可以是企业的用户或者员工。其中,第一填报数据可以是历史对象自行填报的身高&体重,和性别,和/或第一超重指标。该第一超重指标优选为BMI值,可以根据填报的身高&体重进行计算得到,也可以是历史对象直接填报。
第一体检数据,是历史对象去体检机构进行体检的体检结果,体检结果中包括第一超重指标(例如,BMI值)。
步骤102,将没有第一体检数据的第一相关数据输入至判别模型。
其中,判别模型是能够对第一填报数据中的第一超重指标进行真实性识别的模型结构,其是利用神经网络经过大量的第二样本数据集的训练得到的判别模型。
另外,针对有第一体检数据的历史对象,直接使用体检数据的第一超重指标(例如BMI值)进行后续的初始超重预测模型的训练过程。
在一些实施例中,步骤102包括:
确定所述没有第一体检数据的第一相关数据中的第一填报数据的第一超重指标是否大于超重关注值,否则将对应的第一相关数据输入至判别模型。
具体实施时,对于有第一体检数据的第一相关数据直接使用第一体检数据的第一超重指标进行后续初始超重预测模型的训练。
如果没有第一体检数据的第一相关数据中的第一填报数据的第一超重指标大于超重关注值,无需利用判别模型进行修正。
步骤103,利用判别模型识别所述没有第一体检数据的第一相关数据中的第一填报数据的第一超重指标的真实性,得到识别结果。
具体实施时,识别结果可以为真实(ture)或假(false)。真实证明第一填报数据中的第一超重指标是正确的,假证明第一填报数据中的第一超重指标是错误的需要修正。
在一些实施例中,如图1E所示,步骤103包括:
步骤1031,针对所述没有第一体检数据的第一相关数据中的第一面部图像,利用所述判别模型中的图像特征处理网络进行特征提取,得到第一维度的第一图像特征。
步骤1032,将所述第一维度的第一图像特征与所述第一填报数据合并成第二维度的第一输入数据。
步骤1033,将所述第一输入数据输入至训练后的浅层分类网络中进行真实性识别处理,得到识别结果。
步骤104,根据所述识别结果对该识别结果对应的第一相关数据中的第一填报数据的第一超重指标进行相应修正,得到修正后的第一样本数据集。
具体实施时,如果识别结果为真实,就不对第一填报数据中的第一超重指标修正,如果识别结果为假,就对一填报数据中的第一超重指标进行修正,修正为正确值。这样将修正的和未修正的所有第一相关数据进行组合,得到修正后的第一样本数据集;其中,未修正的第一相关数据包括下列至少之一:有第一体检数据的第一相关数据、没有第一体检数据中第一填报数据的第一超重指标大于超重关注值的第一相关数据、识别结果为真实对应的第一相关数据。
在一些实施例中,所述识别结果为真实概率或者假概率,步骤104包括:
步骤104a,响应于确定真实概率小于真实阈值,对所述真实概率对应的第一相关数据中的第一填报数据的第一超重指标修改为大于超重关注值中的任一值,将所有修正后的第一相关数据和未修正的第一相关数据组合形成修正后的第一样本数据集。
或者,
步骤104b,响应于确定假概率大于假阈值,对所述假概率对应的第一相关数据中的第一填报数据的第一超重指标修改为大于超重关注值中的任一值,将所有修正后的第一相关数据和未修正的第一相关数据组合形成修正后的第一样本数据集。
其中,未修正的第一相关数据包括下列至少之一:有第一体检数据的第一相关数据、没有第一体检数据中第一填报数据的第一超重指标大于超重关注值的第一相关数据、识别结果为真实对应的第一相关数据。
例如,被保人的数据输入判别模型,判别模型输出该被保人的谎报概率(即,假概率),若谎报概率高于假阈值,则修正其数据,将其 BMI(第一填报数据的第一超重指标)设定为大于超重关注值(例如,28)的任一值(例如,29)。
步骤105,利用预先构建的初始超重预测模型对所述修正后的第一样本数据集中的第一面部图像进行超重的训练预测处理,根据训练预测结果与对应的第一超重指标之间的差异对所述初始超重预测模型进行参数调整,得到超重预测模型。
具体实施时,初始超重预测模型是预先由神经网络构建的包括多层神经元的模型架构,能够利用修正后的第一样本数据集对其进行训练,不断对各层神经元之间的衔接参数进行调整,使得调整后的初始超重预测模型的超重预测能力越来越强,预测得到的预测结果的准确度越来越高。当第一样本数据集中的所有数据全部训练完成或者调整后的初始超重预测模型的损失函数满足预定的收敛条件,结束训练过程,进而得到能够根据面部图像进行超重预测的超重预测模型。
通过上述方案,能够利用判别模型对收集的历史对象的第一样本数据集的第一相关数据中的第一填报数据的第一超重指标的真实性进行识别,进而对识别出的不真实(假)的第一相关数据进行修正,这样保证了修正后的第一样本数据集的准确性使得利用修正后的第一样本数据集训练初始超重预测模型过程中,每次参数调整都是向更准确的方向进行调整,保证了最终训练后的超重预测模型进行超重预测的准确度。
在一些实施例中,所述初始超重预测模型包括:图像亮度调整模块、面部定位模块、面部特征提取模块和浅层预测网络;
步骤105,如图1F所示,针对修正后的第一样本数据集中的第一面部图像包括:
步骤1051,利用图像亮度调整模块对所述第一面部图像进行亮度增强处理,得到亮度增强后的第一面部图像。
在上述步骤中,图像亮度优化调整能够提高第一面部图像的可识别性,避免低亮度的第一面部图像中,面部图案过暗导致图片不清晰,难以提取人脸信息。
图像亮度优化的方式可以规范总结如下:
首先将第一面部图像按照颜色通道进行分别处理,颜色通道分为R、G、B三种,即红色(Red)、绿色(Green)、蓝色(Blue)。每个通道的亮度取值均为[0,255]范围内的整数值,共计256种。
对于每个通道,统计所有像素中该通道的亮度最大值,然后对该通道的任意位置像素值亮度赋值如下:
其中,/>表示在第i行,第j列的像素值原本的亮度值,/>为调整后新的亮度值,该亮度值将经过取整。该转换将任意通道的亮度值进行了一定程度的提高,对于较小的亮度值的提升效果比较大的亮度值更加明显,且不会改变原本的最亮值。
步骤1052,利用面部定位模块对所述亮度增强后的第一面部图像中的面部部分进行定位裁剪。
具体实施时,面部定位模块可以采用 MTCNN(多任务卷积神经网络,Multi-taskConvolutional Neural Network)。
MTCNN 利用多级联的结构,可以从粗到细识别人脸以及相应的特征坐标位置,可以适用于各种自然条件下复杂的人脸检测场景。
MTCNN 主要结构包括三个网络子结构:P-Net (提议网络,proposal networks)、R-Net(调整网络,refine networks)、O-Net(输出网络,output networks)。
MTCNN 的检测过程如下:
1)根据原始图像(第一面部图像)进行放缩,得到不同尺寸的原始图像;
2)将得到的不同尺寸的原始图像输入 P-Net,进行候选图片选取,该网络根据分类得分,去除大部分的候选图像,将人脸可能性最高的部分图像筛选出来;
3)在得到可能性最高的部分图像后,将可能性最高的部分图像输入 R-Net 进行精调。根据 P-Net 输出的可能性最高的部分图像坐标,在原始图像上截取对应的可能性最高的部分图像,R-Net 会同样根据分类得分筛选掉不是人脸的数据,再对剩余的部分进行偏移量调整,调整原始图像,使得截取的面部图像的面部线条更清晰;
4)经过 R-Net 后,将原始图像剩余的部分输入 O-Net,O-Net 同样根据分类结果进行筛选、调整偏移量,最终得到准确的面部坐标和关键点坐标。
步骤1053,利用面部特征提取模块对定位裁剪的面部部分,提取面部特征。
具体实施时,面部特征提取模块可以为 VGG16 (牛津大学视觉集合小组,VisualGeometry Group)模型。定位裁剪的面部部分利用 VGG16 进行特征提取,VGG16 是由牛津大学视觉几何小组设计的卷积神经网络模型,已成为经典的卷积神经网络设计,该卷积神经网络区别于之前的模型的显著特征是采用了更小的卷积核代替大卷积核,减少了参数量的同时,提高了训练效果和速度。
VGG16 使用卷积层对图片进行特征抽取,VGG16模型最终输出面部特征提取的向量,该向量可视作面部特征的数字化表达。
步骤1054,将所述面部特征输入至浅层预测网络中进行训练预测处理,得到训练预测结果,并根据训练预测结果与对应的第一超重指标之间的差异对所述浅层预测网络进行参数调整,得到调整后的浅层预测网络。
具体实施时,该浅层预测网络是由浅层神经网络构成的,浅层神经网络将包含多层全连接神经网络,每层网络代表一次线性变换以及激活函数处理,浅层神经网络的输出层将包含 1 个神经元,该神经元的输出的训练预测结果将会利用 sigmoid 转换成为(0,1)范围内的值。
步骤1055,将所述图像亮度调整模块、所述面部定位模块、所述面部特征提取模块和所述调整后的浅层预测网络整合得到所述超重预测模型。
在一些实施例中,该方法还包括:
步骤106,利用所述超重预测模型对目标对象的待检测数据进行超重预测,得到超重预测结果。
如图1G所示,该步骤106包括:
步骤1061,接收目标对象的待检测数据,其中,所述待检测数据包括:待检测面部图像。
步骤1062,将所述待检测面部图像输入至所述超重预测模型中。
步骤1063,利用所述图像亮度调整模块对所述待检测面部图像进行亮度增强处理,得到亮度增强后的待检测面部图像。
步骤1064,利用所述面部定位模块对所述亮度增强后的待检测面部图像中的面部特征进行定位裁剪。
步骤1065,利用所述面部特征提取模块从定位裁剪的面部特征中提取出面部特征的向量。
步骤1066,将所述面部特征的向量输入至所述调整后的浅层预测网络中进行超重预测处理,得到超重预测结果。
在一些实施例中,所述浅层预测网络包括:输入层、至少一个隐藏层和输出层;
其中,隐藏层用于对输入层输入的面部特征进行超重预测处理,将预测结果发送至输出层,利用输出层的归一化处理神经元,对预测结果进行归一化处理后输出。
例如,输出层将包含 1 个神经元,会利用该神经元中的sigmoid 将得到的预测结果转换成为(0,1)范围内的值作为超重概率输出。
针对超重预测模型例如BMI预测模型的效果:
通过利用存在偏差的 BMI 数据集中的部分可信数据(例如第二样本数据集),训练了独特的判别模型,该判别模型综合利用到了填报的性别和身高体重信息,以及对应的面部图像信息,能够对明显出现瞒报的BMI数据进行修正,提高了整体数据集的可信性。
可信数据在第一样本数据集的全体数据中仅占少数,因此判别模型的泛化性可能达不到应用要求,需要对第一样本数据集进行修正,利用修正后的第一样本数据集,扩充了可信的训练数据,训练初始超重预测模型,使得训练得到的超重预测模型的预测准确度得到有效提高,还提高了第一样本数据的利用率避免了有价值的第一样本数据的数据流失。
需要说明的是,本申请实施例的方法可以由单个设备执行,例如一台计算机或服务器等。本实施例的方法也可以应用于分布式场景下,由多台设备相互配合来完成。在这种分布式场景的情况下,这多台设备中的一台设备可以只执行本申请实施例的方法中的某一个或多个步骤,这多台设备相互之间会进行交互以完成所述的方法。
需要说明的是,上述对本申请的一些实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于上述实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
基于同一发明构思,与上述任意实施例方法相对应的,本申请还提供了一种超重预测模型的训练装置。
参考图2,所述装置,包括:
获取模块21,被配置为获取第一数量的历史对象的第一相关数据作为第一样本数据集;其中,所述第一相关数据包括:第一面部图像与第一填报数据,所述第一数量的历史对象中的部分历史对象的第一相关数据中包括第一体检数据;所述第一填报数据和所述第一体检数据中均包括第一超重指标;
判别模型输入模块22,被配置为将没有第一体检数据的第一相关数据输入至判别模型;
真实性识别模块23,被配置为利用判别模型识别所述没有第一体检数据的第一相关数据中的第一填报数据的第一超重指标的真实性,得到识别结果;
修正模块24,被配置为根据所述识别结果对该识别结果对应的第一相关数据中的第一填报数据的第一超重指标进行相应修正,得到修正后的第一样本数据集;
超重预测模型训练模块25,被配置为利用预先构建的初始超重预测模型对所述修正后的第一样本数据集中的第一面部图像进行超重的训练预测处理,根据训练预测结果与对应的第一超重指标之间的差异对所述初始超重预测模型进行参数调整,得到超重预测模型。
在一些实施例中,装置还包括判别模型训练模块,被配置为:
获取第二数量的历史对象的第二相关数据作为第二样本数据集,其中,所述第二相关数据中包括:第二面部图像、第二体检数据和第二填报数据;所述第二填报数据和所述第二体检数据中均包括第二超重指标;
将所述第二填报数据中的第二超重指标与超重关注值进行比较,得到填报数据比较结果,以及将所述第二体检数据中的第二超重指标与超重关注值进行比较,得到体检数据比较结果;
将所述填报数据比较结果与所述体检数据比较结果不同的第二相关数据进行谎报标记,得到标记后的第二样本数据集;
利用所述标记后的第二样本数据集中的第二面部图像和第二填报数据,对预先由神经网络构成的初始判别模型进行训练判断处理,得到训练判断结果,根据所述训练判断结果与所述谎报标记之间的差异对所述初始判别模型进行参数调整,得到所述判别模型。
在一些实施例中,判别模型训练模块,还被配置为:
判断是否为所述体检数据比较结果属于所述第二体检数据中的第二超重指标大于超重关注值,且所述填报数据比较结果属于所述第二填报数据的第二超重指标小于等于超重关注值,是则,确定谎报标记为第一标记,否则,确定谎报标记为第二标记;
从属于第二标记的第二相关数据中选择所述第二体检数据中的第二超重指标大于超重关注值的至少一个第二相关数据,将选择的至少一个第二相关数据中所述第二填报数据的第二超重指标设定为小于等于超重关注值,并将所述第二标记变更为第一标记;
将所有第一标记的第二相关数据和所有第二标记的第二相关数据进行组合得到所述标记后的第二样本数据集。
在一些实施例中,所述初始判别模型包括:图像特征处理网络和浅层分类网络;
判别模型训练模块,还被配置为:
利用图像特征处理网络对所述标记后的第二样本数据集中的第二面部图像进行特征提取,得到第一维度的第二图像特征;
将所述第二填报数据与所述第一维度的第二图像特征合并成第二维度的第二输入数据;
将所述第二输入数据输入至浅层分类网络中进行训练判断处理得到训练判断结果,根据所述训练判断结果与对应的谎报标记之间的差异对所述浅层分类网络进行参数调整,得到训练后的浅层分类网络;
将所述图像特征处理网络和所述训练后的浅层分类网络进行组合得到所述判别模型。
在一些实施例中,真实性识别模块23,还被配置为:
针对所述没有第一体检数据的第一相关数据中的第一面部图像,利用所述判别模型中的图像特征处理网络进行特征提取,得到第一维度的第一图像特征;
将所述第一维度的第一图像特征与所述第一填报数据合并成第二维度的第一输入数据;
将所述第一输入数据输入至训练后的浅层分类网络中进行真实性识别处理,得到识别结果。
在一些实施例中,所述识别结果为真实概率或者假概率;
判别模型输入模块22,还被配置为:
确定所述没有第一体检数据的第一相关数据中的第一填报数据的第一超重指标是否大于超重关注值,否则将对应的第一相关数据输入至判别模型;
修正模块24,还被配置为:
响应于确定真实概率小于真实阈值,对所述真实概率对应的第一相关数据中的第一填报数据的第一超重指标修改为大于超重关注值中的任一值,将所有修正后的第一相关数据和未修正的第一相关数据组合形成修正后的第一样本数据集;
或者,
响应于确定假概率大于假阈值,对所述假概率对应的第一相关数据中的第一填报数据的第一超重指标修改为大于超重关注值中的任一值,将所有修正后的第一相关数据和未修正的第一相关数据组合形成修正后的第一样本数据集。
在一些实施例中,所述初始超重预测模型包括:图像亮度调整模块、面部定位模块、面部特征提取模块和浅层预测网络;
所述超重预测模型训练模块25,还被配置为:
针对修正后的第一样本数据集中的第一面部图像:
利用图像亮度调整模块对所述第一面部图像进行亮度增强处理,得到亮度增强后的第一面部图像;
利用面部定位模块对所述亮度增强后的第一面部图像中的面部部分进行定位裁剪;
利用面部特征提取模块对定位裁剪的面部部分,提取面部特征;
将所述面部特征输入至浅层预测网络中进行训练预测处理,得到训练预测结果,并根据训练预测结果与对应的第一超重指标之间的差异对所述浅层预测网络进行参数调整,得到调整后的浅层预测网络;
将所述图像亮度调整模块、所述面部定位模块、所述面部特征提取模块和所述调整后的浅层预测网络整合得到所述超重预测模型。
在一些实施例中,装置还包括超重预测模块,被配置为:
接收目标对象的待检测数据,其中,所述待检测数据包括:待检测面部图像;
将所述待检测面部图像输入至所述超重预测模型中;
利用所述图像亮度调整模块对所述待检测面部图像进行亮度增强处理,得到亮度增强后的待检测面部图像;
利用所述面部定位模块对所述亮度增强后的待检测面部图像中的面部特征进行定位裁剪;
利用所述面部特征提取模块从定位裁剪的面部特征中提取出面部特征的向量;
将所述面部特征的向量输入至所述调整后的浅层预测网络中进行超重预测处理,得到超重预测结果。
在一些实施例中,所述浅层预测网络包括:输入层、至少一个隐藏层和输出层;
其中,隐藏层用于对输入层输入的面部特征进行超重预测处理,将预测结果发送至输出层,利用输出层的归一化处理神经元,对预测结果进行归一化处理后输出。
为了描述的方便,描述以上装置时以功能分为各种模块分别描述。当然,在实施本申请时可以把各模块的功能在同一个或多个软件和/或硬件中实现。
上述实施例的装置用于实现前述任一实施例中相应的方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
基于同一发明构思,与上述任意实施例方法相对应的,本申请还提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上任意一实施例所述的方法。
图3示出了本实施例所提供的一种更为具体的电子设备硬件结构示意图, 该设备可以包括:处理器1010、存储器1020、输入/输出接口1030、通信接口1040和总线 1050。其中处理器1010、存储器1020、输入/输出接口1030和通信接口1040通过总线1050实现彼此之间在设备内部的通信连接。
处理器1010可以采用通用的CPU(Central Processing Unit,中央处理器)、微处理器、应用专用集成电路(Application Specific Integrated Circuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本说明书实施例所提供的技术方案。
存储器1020可以采用ROM(Read Only Memory,只读存储器)、RAM(Random AccessMemory,随机存取存储器)、静态存储设备,动态存储设备等形式实现。存储器1020可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器1020中,并由处理器1010来调用执行。
输入/输出接口1030用于连接输入/输出模块,以实现信息输入及输出。输入输出/模块可以作为组件配置在设备中(图中未示出),也可以外接于设备以提供相应功能。其中输入设备可以包括键盘、鼠标、触摸屏、麦克风、各类传感器等,输出设备可以包括显示器、扬声器、振动器、指示灯等。
通信接口1040用于连接通信模块(图中未示出),以实现本设备与其他设备的通信交互。其中通信模块可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信。
总线1050包括一通路,在设备的各个组件(例如处理器1010、存储器1020、输入/输出接口1030和通信接口1040)之间传输信息。
需要说明的是,尽管上述设备仅示出了处理器1010、存储器1020、输入/输出接口1030、通信接口1040以及总线1050,但是在具体实施过程中,该设备还可以包括实现正常运行所必需的其他组件。此外,本领域的技术人员可以理解的是,上述设备中也可以仅包含实现本说明书实施例方案所必需的组件,而不必包含图中所示的全部组件。
上述实施例的电子设备用于实现前述任一实施例中相应的方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
基于同一发明构思,与上述任意实施例方法相对应的,本申请还提供了一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使所述计算机执行如上任一实施例所述的方法。
本实施例的计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。
上述实施例的存储介质存储的计算机指令用于使所述计算机执行如上任一实施例所述的方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
需要说明的是,本申请的实施例还可以以下方式进一步描述:
可以理解的是,在使用本公开中各个实施例的技术方案之前,均会通过恰当的方式对所涉及的个人信息的类型、使用范围、使用场景等告知用户,并获得用户的授权。
例如,在响应于接收到用户的主动请求时,向用户发送提示信息,以明确的提示用户,其请求执行的操作将需要获取和使用到用户的个人信息。从而,使得用户可以根据提示信息来自主的选择是否向执行本公开技术方案的操作的电子设备、应用程序、服务器或存储介质等软件或硬件提供个人信息。
作为一种可选的但非限定的实现方式,响应于接受到用户的主动请求,向用户发送提示信息的方式例如可以是弹窗的方式,弹窗中可以以文字的方式呈现提示信息。此外,弹窗中还可以承载供用户选择“同意”或者“不同意”向电子设备提供个人信息的选择控件。
可以理解的是,上述通知和获取用户授权过程仅是示意性的,不对本公开的实现方式构成限定,其他满足相关法律法规的方式也可应用于本公开的实现方式中。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本申请的范围(包括权利要求)被限于这些例子;在本申请的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本申请实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。
另外,为简化说明和讨论,并且为了不会使本申请实施例难以理解,在所提供的附图中可以示出或可以不示出与集成电路(IC)芯片和其它部件的公知的电源/接地连接。此外,可以以框图的形式示出装置,以便避免使本申请实施例难以理解,并且这也考虑了以下事实,即关于这些框图装置的实施方式的细节是高度取决于将要实施本申请实施例的平台的(即,这些细节应当完全处于本领域技术人员的理解范围内)。在阐述了具体细节(例如,电路)以描述本申请的示例性实施例的情况下,对本领域技术人员来说显而易见的是,可以在没有这些具体细节的情况下或者这些具体细节有变化的情况下实施本申请实施例。因此,这些描述应被认为是说明性的而不是限制性的。
尽管已经结合了本申请的具体实施例对本申请进行了描述,但是根据前面的描述,这些实施例的很多替换、修改和变型对本领域普通技术人员来说将是显而易见的。例如,其它存储器架构(例如,动态RAM(DRAM))可以使用所讨论的实施例。
本申请实施例旨在涵盖落入所附权利要求的宽泛范围之内的所有这样的替换、修改和变型。因此,凡在本申请实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (10)
1.一种超重预测模型的训练方法,其特征在于,包括:
获取第一数量的历史对象的第一相关数据作为第一样本数据集;其中,所述第一相关数据包括:第一面部图像与第一填报数据,所述第一数量的历史对象中的部分历史对象的第一相关数据中包括第一体检数据;所述第一填报数据和所述第一体检数据中均包括第一超重指标;
将没有第一体检数据的第一相关数据输入至判别模型;
利用判别模型识别所述没有第一体检数据的第一相关数据中的第一填报数据的第一超重指标的真实性,得到识别结果;
根据所述识别结果对该识别结果对应的第一相关数据中的第一填报数据的第一超重指标进行相应修正,得到修正后的第一样本数据集;
利用预先构建的初始超重预测模型对所述修正后的第一样本数据集中的第一面部图像进行超重的训练预测处理,根据训练预测结果与对应的第一超重指标之间的差异对所述初始超重预测模型进行参数调整,得到超重预测模型。
2.根据权利要求1所述的方法,其特征在于,所述判别模型的训练过程包括:
获取第二数量的历史对象的第二相关数据作为第二样本数据集,其中,所述第二相关数据中包括:第二面部图像、第二体检数据和第二填报数据;所述第二填报数据和所述第二体检数据中均包括第二超重指标;
将所述第二填报数据中的第二超重指标与超重关注值进行比较,得到填报数据比较结果,以及将所述第二体检数据中的第二超重指标与超重关注值进行比较,得到体检数据比较结果;
将所述填报数据比较结果与所述体检数据比较结果不同的第二相关数据进行谎报标记,得到标记后的第二样本数据集;
利用所述标记后的第二样本数据集中的第二面部图像和第二填报数据,对预先由神经网络构成的初始判别模型进行训练判断处理,得到训练判断结果,根据所述训练判断结果与所述谎报标记之间的差异对所述初始判别模型进行参数调整,得到所述判别模型。
3.根据权利要求2所述的方法,其特征在于,所述将所述填报数据比较结果与所述体检数据比较结果不同的第二相关数据进行谎报标记,得到标记后的第二样本数据集,包括:
判断是否为所述体检数据比较结果属于所述第二体检数据中的第二超重指标大于超重关注值,且所述填报数据比较结果属于所述第二填报数据的第二超重指标小于等于超重关注值,是则,确定谎报标记为第一标记,否则,确定谎报标记为第二标记;
从属于第二标记的第二相关数据中选择所述第二体检数据中的第二超重指标大于超重关注值的至少一个第二相关数据,将选择的至少一个第二相关数据中所述第二填报数据的第二超重指标设定为小于等于超重关注值,并将所述第二标记变更为第一标记;
将所有第一标记的第二相关数据和所有第二标记的第二相关数据进行组合得到所述标记后的第二样本数据集。
4.根据权利要求2所述的方法,其特征在于,所述初始判别模型包括:图像特征处理网络和浅层分类网络;
所述利用所述标记后的第二样本数据集中的第二面部图像和第二填报数据,对预先由神经网络构成的初始判别模型进行训练判断处理,得到训练判断结果,根据所述训练判断结果与所述谎报标记之间的差异对所述初始判别模型进行参数调整,得到所述判别模型,包括:
利用图像特征处理网络对所述标记后的第二样本数据集中的第二面部图像进行特征提取,得到第一维度的第二图像特征;
将所述第二填报数据与所述第一维度的第二图像特征合并成第二维度的第二输入数据;
将所述第二输入数据输入至浅层分类网络中进行训练判断处理得到训练判断结果,根据所述训练判断结果与对应的谎报标记之间的差异对所述浅层分类网络进行参数调整,得到训练后的浅层分类网络;
将所述图像特征处理网络和所述训练后的浅层分类网络进行组合得到所述判别模型。
5.根据权利要求4所述的方法,其特征在于,所述利用判别模型识别所述没有第一体检数据的第一相关数据中的第一填报数据的第一超重指标的真实性,得到识别结果,包括:
针对所述没有第一体检数据的第一相关数据中的第一面部图像,利用所述判别模型中的图像特征处理网络进行特征提取,得到第一维度的第一图像特征;
将所述第一维度的第一图像特征与所述第一填报数据合并成第二维度的第一输入数据;
将所述第一输入数据输入至训练后的浅层分类网络中进行真实性识别处理,得到识别结果。
6.根据权利要求1所述的方法,其特征在于,所述识别结果为真实概率或者假概率;
所述将没有第一体检数据的第一相关数据输入至判别模型,包括:
确定所述没有第一体检数据的第一相关数据中的第一填报数据的第一超重指标是否大于超重关注值,否则将对应的第一相关数据输入至判别模型;
所述根据所述识别结果对该识别结果对应的第一相关数据中的第一填报数据的第一超重指标进行相应修正,得到修正后的第一样本数据集,包括:
响应于确定真实概率小于真实阈值,对所述真实概率对应的第一相关数据中的第一填报数据的第一超重指标修改为大于超重关注值中的任一值,将所有修正后的第一相关数据和未修正的第一相关数据组合形成修正后的第一样本数据集;
或者,
响应于确定假概率大于假阈值,对所述假概率对应的第一相关数据中的第一填报数据的第一超重指标修改为大于超重关注值中的任一值,将所有修正后的第一相关数据和未修正的第一相关数据组合形成修正后的第一样本数据集。
7.根据权利要求1所述的方法,其特征在于,所述初始超重预测模型包括:图像亮度调整模块、面部定位模块、面部特征提取模块和浅层预测网络;
所述利用预先构建的初始超重预测模型对所述修正后的第一样本数据集中的第一面部图像进行超重的训练预测处理,根据训练预测结果与对应的第一超重指标之间的差异对所述初始超重预测模型进行参数调整,得到超重预测模型,包括:
针对修正后的第一样本数据集中的第一面部图像:
利用图像亮度调整模块对所述第一面部图像进行亮度增强处理,得到亮度增强后的第一面部图像;
利用面部定位模块对所述亮度增强后的第一面部图像中的面部部分进行定位裁剪;
利用面部特征提取模块对定位裁剪的面部部分,提取面部特征;
将所述面部特征输入至浅层预测网络中进行训练预测处理,得到训练预测结果,并根据训练预测结果与对应的第一超重指标之间的差异对所述浅层预测网络进行参数调整,得到调整后的浅层预测网络;
将所述图像亮度调整模块、所述面部定位模块、所述面部特征提取模块和所述调整后的浅层预测网络整合得到所述超重预测模型。
8.根据权利要求7所述的方法,其特征在于,还包括:
接收目标对象的待检测数据,其中,所述待检测数据包括:待检测面部图像;
将所述待检测面部图像输入至所述超重预测模型中;
利用所述图像亮度调整模块对所述待检测面部图像进行亮度增强处理,得到亮度增强后的待检测面部图像;
利用所述面部定位模块对所述亮度增强后的待检测面部图像中的面部特征进行定位裁剪;
利用所述面部特征提取模块从定位裁剪的面部特征中提取出面部特征的向量;
将所述面部特征的向量输入至所述调整后的浅层预测网络中进行超重预测处理,得到超重预测结果。
9.根据权利要求7或8所述的方法,其特征在于,所述浅层预测网络包括:输入层、至少一个隐藏层和输出层;
其中,隐藏层用于对输入层输入的面部特征进行超重预测处理,将预测结果发送至输出层,利用输出层的归一化处理神经元,对预测结果进行归一化处理后输出。
10.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至9任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311416059.4A CN117150369B (zh) | 2023-10-30 | 2023-10-30 | 超重预测模型的训练方法及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311416059.4A CN117150369B (zh) | 2023-10-30 | 2023-10-30 | 超重预测模型的训练方法及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117150369A true CN117150369A (zh) | 2023-12-01 |
CN117150369B CN117150369B (zh) | 2024-01-26 |
Family
ID=88906487
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311416059.4A Active CN117150369B (zh) | 2023-10-30 | 2023-10-30 | 超重预测模型的训练方法及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117150369B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111626885A (zh) * | 2020-06-01 | 2020-09-04 | 北京妙医佳健康科技集团有限公司 | 核保方法、装置、电子设备及计算机可读存储介质 |
US20200293887A1 (en) * | 2019-03-11 | 2020-09-17 | doc.ai, Inc. | System and Method with Federated Learning Model for Medical Research Applications |
WO2021012783A1 (zh) * | 2019-07-23 | 2021-01-28 | 平安科技(深圳)有限公司 | 基于大数据的保单核保模型训练方法和核保风险评估方法 |
CN113436735A (zh) * | 2020-03-23 | 2021-09-24 | 北京好啦科技有限公司 | 基于人脸结构度量的体重指数预测方法、设备和存储介质 |
US20220037002A1 (en) * | 2020-07-31 | 2022-02-03 | Boe Technology Group Co., Ltd. | Health managing method and storage medium |
WO2023056918A1 (zh) * | 2021-10-09 | 2023-04-13 | 浙江大学 | 一种基于假阴性样本识别的体检辅助决策系统 |
US20230326016A1 (en) * | 2020-09-08 | 2023-10-12 | Kang Zhang | Artificial intelligence for detecting a medical condition using facial images |
-
2023
- 2023-10-30 CN CN202311416059.4A patent/CN117150369B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200293887A1 (en) * | 2019-03-11 | 2020-09-17 | doc.ai, Inc. | System and Method with Federated Learning Model for Medical Research Applications |
WO2021012783A1 (zh) * | 2019-07-23 | 2021-01-28 | 平安科技(深圳)有限公司 | 基于大数据的保单核保模型训练方法和核保风险评估方法 |
CN113436735A (zh) * | 2020-03-23 | 2021-09-24 | 北京好啦科技有限公司 | 基于人脸结构度量的体重指数预测方法、设备和存储介质 |
CN111626885A (zh) * | 2020-06-01 | 2020-09-04 | 北京妙医佳健康科技集团有限公司 | 核保方法、装置、电子设备及计算机可读存储介质 |
US20220037002A1 (en) * | 2020-07-31 | 2022-02-03 | Boe Technology Group Co., Ltd. | Health managing method and storage medium |
US20230326016A1 (en) * | 2020-09-08 | 2023-10-12 | Kang Zhang | Artificial intelligence for detecting a medical condition using facial images |
WO2023056918A1 (zh) * | 2021-10-09 | 2023-04-13 | 浙江大学 | 一种基于假阴性样本识别的体检辅助决策系统 |
Non-Patent Citations (1)
Title |
---|
沈娴;张瑜;周雪雯;: "医疗失效模式与效应分析在血液透析患者体重管理中的应用", 护理实践与研究, no. 20 * |
Also Published As
Publication number | Publication date |
---|---|
CN117150369B (zh) | 2024-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10410292B2 (en) | Method, system, apparatus, and storage medium for realizing antifraud in insurance claim based on consistency of multiple images | |
CN113159147B (zh) | 基于神经网络的图像识别方法、装置、电子设备 | |
CN108447061B (zh) | 商品信息处理方法、装置、计算机设备和存储介质 | |
CN115953665B (zh) | 一种目标检测方法、装置、设备及存储介质 | |
EP4085369A1 (en) | Forgery detection of face image | |
CN111723815B (zh) | 模型训练方法、图像处理方法、装置、计算机系统和介质 | |
US11557140B2 (en) | Model-independent confidence values for extracted document information using a convolutional neural network | |
CN116630727B (zh) | 模型训练方法、深伪图像检测方法、装置、设备及介质 | |
CN114898357B (zh) | 缺陷识别方法、装置、电子设备及计算机可读存储介质 | |
CN115311730A (zh) | 一种人脸关键点的检测方法、系统和电子设备 | |
CN113743365A (zh) | 人脸识别过程中的欺诈行为检测方法及装置 | |
CN117953341A (zh) | 一种病理图像分割网络模型、方法、装置及介质 | |
CN113902041A (zh) | 目标检测模型的训练及身份验证方法和装置 | |
CN117558011A (zh) | 基于自一致性矩阵和多尺度损失的图像文本篡改检测方法 | |
CN112861743A (zh) | 一种掌静脉图像防伪方法、装置和设备 | |
CN117150369B (zh) | 超重预测模型的训练方法及电子设备 | |
CN116860964A (zh) | 基于医疗管理标签的用户画像分析方法、装置及服务器 | |
CN116778579A (zh) | 多人姿态的识别方法、装置、存储介质及电子设备 | |
CN114067401A (zh) | 目标检测模型的训练及身份验证方法和装置 | |
CN116137914A (zh) | 一种人脸和人手的关联度检测方法、装置、设备及存储介质 | |
CN118135357B (zh) | 核心集构造方法、装置、设备及介质 | |
US20240144729A1 (en) | Generation method and information processing apparatus | |
CN112435218B (zh) | 一种文档图像的形变度评估、筛选方法和装置 | |
CN118097724B (zh) | 基于掌静脉的身份识别方法、装置、可读存储介质及设备 | |
CN108334850A (zh) | 一种智能交互系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |