CN115063875A - 模型训练方法、图像处理方法、装置和电子设备 - Google Patents

模型训练方法、图像处理方法、装置和电子设备 Download PDF

Info

Publication number
CN115063875A
CN115063875A CN202210981983.6A CN202210981983A CN115063875A CN 115063875 A CN115063875 A CN 115063875A CN 202210981983 A CN202210981983 A CN 202210981983A CN 115063875 A CN115063875 A CN 115063875A
Authority
CN
China
Prior art keywords
model
loss function
output
weight
obtaining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210981983.6A
Other languages
English (en)
Other versions
CN115063875B (zh
Inventor
郭若愚
杜宇宁
赖宝华
于佃海
马艳军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202210981983.6A priority Critical patent/CN115063875B/zh
Publication of CN115063875A publication Critical patent/CN115063875A/zh
Application granted granted Critical
Priority to PCT/CN2022/139730 priority patent/WO2024036847A1/zh
Publication of CN115063875B publication Critical patent/CN115063875B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Testing Of Coins (AREA)

Abstract

本公开提供了一种模型训练方法、图像处理方法、装置和电子设备,涉及人工智能技术领域,尤其涉及深度学习、图像处理、计算机视觉技术领域。具体实现方案为:将训练样本分别输入至学生模型和n个教师模型中,获取学生模型的第一输出,并获取n个教师模型的第二输出;基于训练样本的标签和n个第二输出,确定训练样本对应的权重;基于第一输出和权重,获取学生模型的总损失函数;基于总损失函数对学生模型的模型参数进行更新,得到训练后的目标模型。由此,可综合考虑到训练样本的标签和教师模型的第二输出,来确定训练样本对应的权重,进而基于学生模型的第一输出和权重,得到学生模型的总损失函数,提高了模型训练的精度。

Description

模型训练方法、图像处理方法、装置和电子设备
技术领域
本公开涉及计算机技术领域,尤其涉及一种模型训练方法、图像处理方法、装置、电子设备、存储介质。
背景技术
目前,随着人工智能技术的不断发展,模型在图像、文本、语音等领域得到了广泛应用,具有自动化程度高、人工成本低等优点。为了满足模型预测需求,模型体积往往较大,为了压缩模型,可基于知识蒸馏来训练模型。然而,相关技术中,基于知识蒸馏的模型训练方法,存在模型训练精度低的问题。
发明内容
本公开提供了一种模型训练方法、图像处理方法、装置、电子设备、存储介质。
根据本公开的一方面,提供了一种模型训练方法,包括:将训练样本分别输入至学生模型和n个教师模型中,获取所述学生模型的第一输出,并获取n个所述教师模型的第二输出,其中,n为正整数;基于所述训练样本的标签和n个所述第二输出,确定所述训练样本对应的权重;基于所述第一输出和所述权重,获取所述学生模型的总损失函数;基于所述总损失函数对所述学生模型的模型参数进行更新,得到训练后的目标模型。
根据本公开的另一方面,提供了一种图像处理方法,包括:获取待处理图像;将所述待处理图像输入目标图像模型中,由所述目标图像模型输出所述待处理图像的处理结果,其中,所述目标图像模型采用模型训练方法得到。
根据本公开的另一方面,提供了一种模型训练装置,包括:第一获取模块,用于将训练样本分别输入至学生模型和n个教师模型中,获取所述学生模型的第一输出,并获取n个所述教师模型的第二输出,其中,n为正整数;确定模块,用于基于所述训练样本的标签和n个所述第二输出,确定所述训练样本对应的权重;第二获取模块,用于基于所述第一输出和所述权重,获取所述学生模型的总损失函数;训练模块,用于基于所述总损失函数对所述学生模型的模型参数进行更新,得到训练后的目标模型。
根据本公开的另一方面,提供了一种图像处理装置,包括:获取模块,用于获取待处理图像;处理模块,用于将所述待处理图像输入目标图像模型中,由所述目标图像模型输出所述待处理图像的处理结果,其中,所述目标图像模型采用模型训练方法得到。
根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行模型训练方法或者执行图像处理方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行模型训练方法或者执行图像处理方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开第一实施例的模型训练方法的流程示意图;
图2是根据本公开第二实施例的模型训练方法的流程示意图;
图3是根据本公开第三实施例的模型训练方法的流程示意图;
图4是根据本公开第一实施例的图像处理方法的流程示意图;
图5是根据本公开第一实施例的模型训练装置的框图;
图6是根据本公开第一实施例的图像处理装置的框图;
图7是用来实现本公开实施例的模型训练方法或者图像处理方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
AI(Artificial Intelligence,人工智能)是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门技术科学。目前, AI技术具有自动化程度高、精确度高、成本低的优点,得到了广泛的应用。
DL(Deep Learning,深度学习)是ML(Machine Learning,机器学习)领域中一个新的研究方向,是学习样本数据的内在规律和表示层次,使得机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据的一门科学,广泛应用于语音和图像识别。
图像处理(Image Processing)是指用计算机对图像进行分析,以达到所需结果的技术。图像处理一般指数字图像处理,数字图像是指用工业相机、摄像机、扫描仪等设备经过拍摄得到的一个大的二维数组,该数组的元素称为像素,其值称为灰度值。图像处理技术一般包括图像压缩,增强和复原,匹配、描述和识别3个部分。
计算机视觉(Computer Vision)是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。计算机视觉是一门综合性的学科,包括计算机科学和工程、信号处理、物理学、应用数学和统计学,神经生理学和认知科学等。
图1是根据本公开第一实施例的模型训练方法的流程示意图。
如图1所示,本公开第一实施例的模型训练方法,包括:
S101,将训练样本分别输入至学生模型和n个教师模型中,获取学生模型的第一输出,并获取n个教师模型的第二输出,其中,n为正整数。
需要说明的是,本公开实施例的模型训练方法的执行主体可为具有数据信息处理能力的硬件设备和/或驱动该硬件设备工作所需必要的软件。可选地,执行主体可包括工作站、服务器,计算机、用户终端及其他智能设备。其中,用户终端包括但不限于手机、电脑、智能语音交互设备、智能家电、车载终端等。
本公开的实施例中,一个学生模型可对应n个教师模型,对n不做过多限定,比如,n可为3、5。
本公开的实施例中,可将训练样本分别输入至学生模型和n个教师模型中,由学生模型输出第一输出,由n个教师模型输出第二输出,可以理解的是,每个教师模型均输出一个第二输出,即n个教师模型可输出n个第二输出。
需要说明的是,对训练样本、学生模型、教师模型均不做过多限定。训练样本具有标签。
比如,学生模型、教师模型为语音模型,语音模型包括但不限于语音识别模型、语音合成模型等。
比如,在学生模型、教师模型为语音识别模型时,训练样本包括样本语音,训练样本的标签包括样本语音的参考识别文本。
比如,在学生模型、教师模型为语音合成模型时,训练样本包括样本文本,训练样本的标签包括样本文本的参考合成语音。
比如,学生模型、教师模型为图像模型,图像模型包括但不限于动作识别模型、图像分类模型、人脸识别模型、文本识别模型等。
比如,在学生模型、教师模型为动作识别模型时,训练样本包括样本图像,训练样本的标签包括样本图像的参考识别动作。
比如,在学生模型、教师模型为图像分类模型时,训练样本包括样本图像,训练样本的标签包括样本图像的参考总类别、样本图像中的像素点的参考子类别。
比如,在学生模型、教师模型为人脸识别模型时,训练样本包括样本图像,训练样本的标签包括样本图像的参考识别人脸结果。其中,参考识别人脸结果包括但不限于人脸位置、人脸宽度、人脸高度、人脸数量等。
比如,在学生模型、教师模型为文本识别模型时,训练样本包括样本图像,训练样本的标签包括样本图像的参考识别文本。
比如,学生模型、教师模型为语言模型,语言模型包括但不限于文本分类模型、文本切分模型等。
比如,在学生模型、教师模型为文本分类模型时,训练样本包括样本文本,训练样本的标签包括样本文本的参考分类结果。其中,参考分类结果包括但不限于情感分类结果、主题分类结果等。
比如,在学生模型、教师模型为文本切分模型时,训练样本包括样本文本,训练样本的标签包括样本文本的参考切分结果。
S102,基于训练样本的标签和n个第二输出,确定训练样本对应的权重。
可以理解的是,不同的训练样本,可对应不同的权重。权重的取值范围为[0,1]。
在一种实施方式中,基于训练样本的标签和n个第二输出,确定训练样本对应的权重,包括获取标签和n个第二输出之间的相似度,基于相似度确定权重,其中,权重与相似度正相关。比如,若标签和n个第二输出之间的相似度越高,表明标签正确的可能性越大,训练样本对应的权重也越大,反之,若标签和n个第二输出之间的相似度越低,表明标签错误的可能性越大,训练样本对应的权重也越小。
在一种实施方式中,基于相似度确定权重,包括识别相似度处于的目标设定范围,将目标设定范围对应的设定权重确定为训练样本对应的权重。可以理解的是,可预先将相似度划分为多个设定范围,不同的设定范围对应不同的设定权重。
S103,基于第一输出和权重,获取学生模型的总损失函数。
需要说明的是,对总损失函数的类别不做过多限定,比如,总损失函数包括但不限于CE(Cross Entropy,交叉熵)、BCE(Binary Cross Entropy,二值交叉熵)等。
在一种实施方式中,总损失函数与权重正相关。比如,若训练样本对应的权重越大,总损失函数也越大,反之,若训练样本对应的权重越小,总损失函数也越小。
比如,在标签错误的情况下,标签和n个第二输出之间的相似度较低,训练样本对应的权重也较低,此时得到的总损失函数较小,可避免标签错误的情况下导致总损失函数较大的问题。
在一种实施方式中,在对学生模型进行第x次训练的过程中,可获取一个训练样本x,将训练样本x分别输入至学生模型和n个教师模型中,获取学生模型针对训练样本x的第一输出,并获取n个教师模型针对训练样本x的第二输出,基于训练样本x的标签y和n个教师模型针对训练样本x的第二输出,确定训练样本x对应的权重,基于学生模型针对训练样本x的第一输出和训练样本x对应的权重,获取学生模型在第x次训练时的总损失函数。其中,x为正整数。
在一种实施方式中,在对学生模型进行第x次训练的过程中,可获取训练样本集Ax,训练样本集Ax包括训练样本1至m,将训练样本集Ax中的训练样本s分别输入至学生模型和n个教师模型中,获取学生模型针对训练样本s的第一输出,并获取n个教师模型针对训练样本s的第二输出。其中,1≤s≤m,s、m为正整数。
基于训练样本s的标签ys和n个教师模型针对训练样本s的第二输出,确定训练样本s对应的权重,基于学生模型针对训练样本s的第一输出和训练样本s对应的权重,获取学生模型针对训练样本s的损失函数,基于学生模型针对训练样本1至m的损失函数,获取学生模型在第x次训练时的总损失函数。
比如,基于学生模型针对训练样本1至m的损失函数,获取学生模型在第x次训练时的总损失函数,包括将学生模型针对训练样本1至m的损失函数的和值或者平均值,确定为学生模型在第x次训练时的总损失函数。
S104,基于总损失函数对学生模型的模型参数进行更新,得到训练后的目标模型。
在一种实施方式中,基于总损失函数对学生模型的模型参数进行更新,包括获取总损失函数的梯度信息,根据梯度信息对学生模型的模型参数进行更新。比如,可根据梯度信息进行反向传播,以对模型参数进行更新。
在一种实施方式中,训练样本可为多个。基于总损失函数对学生模型的模型参数进行更新,得到训练后的目标模型,包括基于总损失函数对学生模型的模型参数进行更新,识别当前未满足模型训练结束条件,返回采用下一个训练样本继续对调整模型参数的学生模型的模型参数进行更新,直至满足模型训练结束条件,将最后一次训练得到的学生模型确定为目标模型。应说明的是,对模型训练结束条件不做过多限定,比如,模型训练结束条件包括但不限于模型精度达到设定精度阈值、模型迭代次数达到设定次数阈值、总损失函数达到最小值等。
本公开的实施例中,目标模型是对n个教师模型进行蒸馏学习得到的,目标模型的体积小、精度高、且所需的计算资源小于教师模型。例如,用户终端上部署有教师模型,可将用户终端上部署的教师模型替换为目标模型,有助于节省用户终端的存储空间和计算资源。
综上,根据本公开实施例的模型训练方法,将训练样本分别输入至学生模型和n个教师模型中,获取学生模型的第一输出,并获取n个教师模型的第二输出,基于训练样本的标签和n个第二输出,确定训练样本对应的权重,基于第一输出和权重,获取学生模型的总损失函数,基于总损失函数对学生模型的模型参数进行更新,得到训练后的目标模型。由此,可综合考虑到训练样本的标签和教师模型的第二输出,来确定训练样本对应的权重,进而基于学生模型的第一输出和权重,得到学生模型的总损失函数,可避免训练样本的标签错误的情况下导致总损失函数不准确的问题,提高了学生模型的总损失函数的准确性,进而提高了模型训练的精度。
在上述任一实施例的基础上,训练样本对应的权重包括第一权重和教师模型对应的第二权重。应说明的是,一个训练样本可对应一个第一权重,每个教师模型可对应一个第二权重,即n个教师模型可对应n个第二权重。
图2是根据本公开第二实施例的模型训练方法的流程示意图。
如图2所示,本公开第二实施例的模型训练方法,包括:
S201,将训练样本分别输入至学生模型和n个教师模型中,获取学生模型的第一输出,并获取n个教师模型的第二输出,其中,n为正整数。
步骤S201的相关内容可参见上述实施例,这里不再赘述。
S202,按照训练样本的标签的数据格式,将n个第二输出转换为标签的数据格式的n个第二转换输出。
可以理解的是,标签的数据格式、第二输出的数据格式可能不同,比如,标签的数据格式可为自然语言构成的文本,第二输出的数据格式可为非自然语言构成的文本。比如,标签的数据格式可为中文文本,第二输出的数据格式可为向量。
本公开的实施例中,可将n个第二输出转换为标签的数据格式的n个第二转换输出,即n个第二转换输出的数据格式与标签的数据格式相同。
比如,在学生模型、教师模型为图像分类模型时,训练样本的标签包括“道路”,第二输出包括(1,0,0)、(0,1,0)、(0,0,1),可将(1,0,0)、(0,1,0)、(0,0,1)分别转换为“道路”、“风景”、“建筑物”。
S203,基于标签和n个第二转换输出,确定训练样本的权重。
步骤S203的相关内容可参见步骤S102的相关内容,这里不再赘述。
由此,该方法中可按照标签的数据格式,对n个第二输出进行数据转换,得到n个第二转换输出,并基于标签和n个第二转换输出,确定权重,标签和n个第二转换数据的数据格式相同,便于确定权重。
S204,基于第一输出、标签和第一权重,获取学生模型的第一损失函数。
在一种实施方式中,基于第一输出、标签和第一权重,获取学生模型的第一损失函数,包括获取第一模板损失函数,将第一输出、标签和第一权重代入第一模板损失函数,以得到第一损失函数。应说明的是,对第一模板损失函数不做过多限定,比如,第一模板损失函数可预先设置。
在一种实施方式中,基于第一输出、标签和第一权重,获取学生模型的第一损失函数,包括基于第一输出和标签,获取学生模型的第一初始损失函数,基于第一初始损失函数和第一权重,获取第一损失函数。由此,该方法中可基于第一输出和标签,得到第一初始损失函数,并基于第一初始损失函数和第一权重,得到第一损失函数。
在一种实施方式中,基于第一初始损失函数和第一权重,获取第一损失函数,包括获取第一初始损失函数和第一权重的第一乘积,并将第一乘积确定为第一损失函数。
比如,第一损失函数的公式如下:
Figure 147651DEST_PATH_IMAGE001
其中,Lgt为第一损失函数,Os为第一输出,GTx为标签,F1(Os,GTx)为第一初始损失函数,B为第一权重。
S205,基于第一输出、n个第二输出和第二权重,获取学生模型的第二损失函数。
在一种实施方式中,基于第一输出、n个第二输出和第二权重,获取学生模型的第二损失函数,包括获取第二模板损失函数,将第一输出、n个第二输出和第二权重代入第二模板损失函数,以得到第二损失函数。应说明的是,对第二模板损失函数不做过多限定,比如,第二模板损失函数可预先设置。
在一种实施方式中,基于第一输出、n个第二输出和第二权重,获取学生模型的第二损失函数,包括基于第一输出和第i个教师模型的第二输出,获取学生模型的第i个第三初始损失函数,其中,1≤i≤n,i为正整数,基于第i个第三初始损失函数和第i个教师模型对应的第二权重,获取学生模型的第i个第三损失函数,基于学生模型的n个第三损失函数,获取第二损失函数。由此,该方法中可基于第一输出和第二输出,得到第三初始损失函数,并基于第三初始损失函数和第二权重,得到第三损失函数,并基于n个第三损失函数,得到第二损失函数。
在一种实施方式中,基于第i个第三初始损失函数和第i个教师模型对应的第二权重,获取学生模型的第i个第三损失函数,包括获取第i个第三初始损失函数和第i个教师模型对应的第二权重的第二乘积,并将第二乘积确定为第i个第三损失函数。
在一种实施方式中,基于学生模型的n个第三损失函数,获取第二损失函数,包括获取学生模型的n个第三损失函数的平均值,并将平均值确定为第二损失函数。由此,该方法中可将n个第三损失函数的平均值确定为第二损失函数。
比如,第二损失函数的公式如下:
Figure 927388DEST_PATH_IMAGE002
其中,Ldist为第二损失函数,Os为第一输出,Oti为第i个教师模型的第二输出,1≤i≤n,F2(Os,Oti)为第i个第三初始损失函数,Ci为第i个教师模型对应的第二权重,
Figure 260281DEST_PATH_IMAGE003
为第i个第三损失函数。
S206,基于第一损失函数和第二损失函数,获取总损失函数。
在一种实施方式中,基于第一损失函数和第二损失函数,获取总损失函数,可包括对第一损失函数和第二损失函数进行加权求和,获取总损失函数。应说明的是,对第一损失函数、第二损失函数的权重均不做过多限定,比如,第一损失函数、第二损失函数的权重可预先设置。由此,该方法中可对第一损失函数和第二损失函数进行加权求和,获取总损失函数,提高了学生模型的总损失函数的灵活性。
作为另一种可能的实施方式,还可直接将第一损失函数或者第二损失函数确定为总损失函数。
S207,基于总损失函数对学生模型的模型参数进行更新,得到训练后的目标模型。
步骤S207的相关内容可参见上述实施例,这里不再赘述。
综上,根据本公开实施例的模型训练方法,可基于第一输出、标签和第一权重,获取学生模型的第一损失函数,基于第一输出、n个第二输出和第二权重,获取学生模型的第二损失函数,基于第一损失函数和第二损失函数,获取总损失函数。由此,可综合考虑到学生模型相对于标签的第一损失函数、学生模型相对于教师模型的第二损失函数,来得到学生模型的总损失函数,提高了学生模型的总损失函数的准确性,进而提高了模型训练的精度。
图3是根据本公开第三实施例的模型训练方法的流程示意图。
如图3所示,本公开第三实施例的模型训练方法,包括:
S301,将训练样本分别输入至学生模型和n个教师模型中,获取学生模型的第一输出,并获取n个教师模型的第二输出,其中,n为正整数。
步骤S301的相关内容可参见上述实施例,这里不再赘述。
S302,将标签和n个第二输出进行比对,获取与标签一致的第二输出的目标数量。
可以理解的是,目标数量为自然数,目标数量的取值范围为[0,n]。比如,目标数量为0时,表明标签和n个第二输出均不一致,目标数量大于或者等于1时,表明n个第二输出中存在与标签一致的第二输出,目标数量为n时,表明标签和n个第二输出均一致。
S303,基于目标数量,确定第一权重,其中,第一权重与目标数量正相关。
需要说明的是,第一权重的取值范围为[0,1]。
本公开的实施例中,第一权重与目标数量正相关,即若与标签一致的第二输出的目标数量越大,表明标签正确的可能性越大,第一权重也越大,反之,若与标签一致的第二输出的目标数量越小,表明标签正确的可能性越小,第一权重也越小。
比如,第一权重B=k/n。其中,k为目标数量,n为教师模型的数量(即第二输出的数量)。
S304,基于第一输出、标签和第一权重,获取学生模型的第一损失函数。
步骤S304的相关内容可参见上述实施例,这里不再赘述。
S305,将标签和第i个教师模型的第二输出进行比对。
S306,响应于标签与第i个教师模型的第二输出一致,确定第i个教师模型对应的第二权重为1。
本公开的实施例中,在标签与第i个教师模型的第二输出一致的情况下,可确定第i个教师模型对应的第二权重Ci=1。
S307,响应于标签与第i个教师模型的第二输出不一致,获取与标签一致的第二输出的目标数量。
S308,基于目标数量,确定第i个教师模型对应的第二权重,其中,第二权重与目标数量正相关。
需要说明的是,目标数量的相关内容,可参见上述实施例,这里不再赘述。
本公开的实施例中,在标签与第i个教师模型的第二输出不一致的情况下,第i个教师模型对应的第二权重的取值范围为[0,1),即第二权重为任一小于1且大于或者等于0的数值。
本公开的实施例中,在标签与第i个教师模型的第二输出不一致的情况下,第i个教师模型对应的第二权重与目标数量正相关,即若与标签一致的第二输出的目标数量越大,表明标签正确的可能性越大,第二权重也越大,反之,若与标签一致的第二输出的目标数量越小,表明标签正确的可能性越小,第二权重也越小。
比如,在标签与第i个教师模型的第二输出不一致的情况下,第i个教师模型对应的第二权重Ci=k/n。其中,k为目标数量,n为教师模型的数量(即第二输出的数量)。
S309,基于第一输出、n个第二输出和第二权重,获取学生模型的第二损失函数。
S310,基于第一损失函数和第二损失函数,获取总损失函数。
S311,基于总损失函数对学生模型的模型参数进行更新,得到训练后的目标模型。
步骤S309-S311的相关内容可参见上述实施例,这里不再赘述。
综上,根据本公开实施例的模型训练方法,可基于与标签一致的第二输出的目标数量,确定第一权重,并在标签与第i个教师模型的第二输出一致的情况下,确定第i个教师模型对应的第二权重为1,或者,在标签与第i个教师模型的第二输出不一致的情况下,基于与标签一致的第二输出的目标数量,确定第i个教师模型对应的第二权重。
根据本公开的实施例,本公开还提供了一种图像处理方法。
图4是根据本公开第一实施例的图像处理方法的流程示意图。
如图4所示,本公开第一实施例的图像处理方法,包括:
S401,获取待处理图像。
需要说明的是,本公开实施例的图像处理方法的执行主体可为具有数据信息处理能力的硬件设备和/或驱动该硬件设备工作所需必要的软件。可选地,执行主体可包括工作站、服务器,计算机、用户终端及其他智能设备。其中,用户终端包括但不限于手机、电脑、智能语音交互设备、智能家电、车载终端等。
需要说明的是,对待处理图像不做过多限定。比如,待处理图像包括但不限于二维图像、三维图像等。
在一种实施方式中,以执行主体为用户终端为例,用户终端可从自身的存储空间中获取待处理图像,和/或,可通过相机进行拍摄,来获取待处理图像,和/或,从网页、APP(Application,应用程序)上获取待处理图像。
S402,将待处理图像输入目标图像模型中,由目标图像模型输出待处理图像的处理结果,其中,目标图像模型采用模型训练方法得到。
需要说明的是,目标图像模型可采用图1至图3所述的模型训练方法得到,这里不再赘述。
需要说明的是,对处理结果不做过多限定。比如,处理结果包括但不限于动作识别结果,图像分类结果、人脸识别结果,文本识别结果等。
本公开的实施例中,目标图像模型是对n个教师模型进行蒸馏学习得到的,目标图像模型的体积小、精度高、且所需的计算资源小于教师模型。例如,用户终端上部署有教师模型,可将用户终端上部署的教师模型替换为目标图像模型,有助于节省用户终端的存储空间和计算资源。
综上,根据本公开实施例的图像处理方法,将待处理图像输入目标图像模型中,由目标图像模型输出待处理图像的处理结果,目标图像模型采用模型训练方法得到,目标图像模型的体积小、精度高、且所需的计算资源小,有助于提升图像处理性能。
需要说明的是,本公开实施例的模型训练方法还可应用于语音模型、语言模型等。
比如,可获取待处理语音,将待处理语音输入目标语音模型,由目标语音模型输出待处理语音的语音处理结果,目标语音模型采用模型训练方法得到,有助于提升语音处理性能。
比如,可获取待处理文本,将待处理文本输入目标语言模型,由目标语言模型输出待处理文本的文本处理结果,目标语言模型采用模型训练方法得到,有助于提升文本处理性能。
本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种模型训练装置,用于实现上述的模型训练方法。
图5是根据本公开第一实施例的模型训练装置的框图。
如图5所示,本公开实施例的模型训练装置500,包括:第一获取模块501、确定模块502、第二获取模块503和训练模块504。
第一获取模块501用于将训练样本分别输入至学生模型和n个教师模型中,获取所述学生模型的第一输出,并获取n个所述教师模型的第二输出,其中,n为正整数;
确定模块502用于基于所述训练样本的标签和n个所述第二输出,确定所述训练样本对应的权重;
第二获取模块503用于基于所述第一输出和所述权重,获取所述学生模型的总损失函数;
训练模块504用于基于所述总损失函数对所述学生模型的模型参数进行更新,得到训练后的目标模型。
在本公开的一个实施例中,所述权重包括第一权重和所述教师模型对应的第二权重;所述第二获取模块503还用于:基于所述第一输出、所述标签和所述第一权重,获取所述学生模型的第一损失函数;基于所述第一输出、n个所述第二输出和所述第二权重,获取所述学生模型的第二损失函数;基于所述第一损失函数和所述第二损失函数,获取所述总损失函数。
在本公开的一个实施例中,所述第二获取模块503还用于:基于所述第一输出和所述标签,获取所述学生模型的第一初始损失函数;基于所述第一初始损失函数和所述第一权重,获取所述第一损失函数。
在本公开的一个实施例中,所述第二获取模块503还用于:基于所述第一输出和第i个教师模型的第二输出,获取所述学生模型的第i个第三初始损失函数,其中,1≤i≤n,i为正整数;基于所述第i个第三初始损失函数和所述第i个教师模型对应的第二权重,获取所述学生模型的第i个第三损失函数;基于所述学生模型的n个第三损失函数,获取所述第二损失函数。
在本公开的一个实施例中,所述第二获取模块503还用于:获取所述学生模型的n个第三损失函数的平均值,并将所述平均值确定为所述第二损失函数。
在本公开的一个实施例中,所述确定模块502还用于:将所述标签和n个所述第二输出进行比对,获取与所述标签一致的第二输出的目标数量;基于所述目标数量,确定所述第一权重,其中,所述第一权重与所述目标数量正相关。
在本公开的一个实施例中,所述确定模块502还用于:将所述标签和第i个教师模型的第二输出进行比对;响应于所述标签与所述第i个教师模型的第二输出一致,确定所述第i个教师模型对应的第二权重为1;或者,响应于所述标签与所述第i个教师模型的第二输出不一致,获取与所述标签一致的第二输出的目标数量;基于所述目标数量,确定所述第i个教师模型对应的第二权重,其中,所述第二权重与所述目标数量正相关。
在本公开的一个实施例中,所述确定模块502还用于:按照所述标签的数据格式,将n个所述第二输出转换为所述标签的数据格式的n个第二转换输出;基于所述标签和n个所述第二转换输出,确定所述权重。
在本公开的一个实施例中,所述第二获取模块504还用于:对所述第一损失函数和所述第二损失函数进行加权求和,获取所述总损失函数。
综上,本公开实施例的模型训练装置,将训练样本分别输入至学生模型和n个教师模型中,获取学生模型的第一输出,并获取n个教师模型的第二输出,基于训练样本的标签和n个第二输出,确定训练样本对应的权重,基于第一输出和权重,获取学生模型的总损失函数,基于总损失函数对学生模型的模型参数进行更新,得到训练后的目标模型。由此,可综合考虑到训练样本的标签和教师模型的第二输出,来确定训练样本对应的权重,进而基于学生模型的第一输出和权重,得到学生模型的总损失函数,可避免训练样本的标签错误的情况下导致总损失函数不准确的问题,提高了学生模型的总损失函数的准确性,进而提高了模型训练的精度。
根据本公开的实施例,本公开还提供了一种图像处理装置,用于实现上述的图像处理方法。
图6是根据本公开第一实施例的图像处理装置的框图。
如图6所示,本公开实施例的图像处理装置600,包括:获取模块601和处理模块602。
获取模块601用于获取待处理图像;
处理模块602用于将所述待处理图像输入目标图像模型中,由所述目标图像模型输出所述待处理图像的处理结果,其中,所述目标图像模型采用模型训练方法得到。
综上,本公开实施例的图像处理装置,将待处理图像输入目标图像模型中,由目标图像模型输出待处理图像的处理结果,目标图像模型采用模型训练方法得到,目标图像模型的体积小、精度高、且所需的计算资源小,有助于提升图像处理性能。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质。
图7示出了可以用来实施本公开的实施例的示例电子设备700的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图7所示,电子设备700包括计算单元701,其可以根据存储在只读存储器(ROM)702 中的计算机程序或者从存储单元708 加载到随机访问存储器(RAM)703 中的计算机程序,来执行各种适当的动作和处理。在 RAM 703 中,还可存储电子设备700操作所需的各种程序和数据。计算单元701、 ROM 702 以及 RAM 703 通过总线704 彼此相连。输入/输出(I/O)接口705也连接至总线704。
电子设备700中的多个部件连接至I/O接口705,包括:输入单元706,例如键盘、鼠标等;输出单元707,例如各种类型的显示器、扬声器等;存储单元708,例如磁盘、光盘等;以及通信单元709,例如网卡、调制解调器、无线通信收发机等。通信单元709 允许电子设备700 通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元701 可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元701 的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元701 执行上文所描述的各个方法和处理,例如图1至图3所述的模型训练方法,例如图4所述的图像处理方法。例如,在一些实施例中,模型训练方法或者图像处理方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元708。在一些实施例中,计算机程序的部分或者全部可以经由ROM 702 和/或通信单元709 而被载入和/或安装到电子设备700 上。当计算机程序加载到RAM 703 并由计算单元701 执行时,可以执行上文描述的模型训练方法的一个或多个步骤,或者执行上文描述的图像处理方法的一个或多个步骤。备选地,在其他实施例中,计算单元701 可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行模型训练方法,或者被配置为执行图像处理方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路( ASIC)、专用标准产品(ASSP)、芯片上系统的系统( SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者 LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称 "VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (22)

1.一种模型训练方法,包括:
将训练样本分别输入至学生模型和n个教师模型中,获取所述学生模型的第一输出,并获取n个所述教师模型的第二输出,其中,n为正整数;
基于所述训练样本的标签和n个所述第二输出,确定所述训练样本对应的权重;
基于所述第一输出和所述权重,获取所述学生模型的总损失函数;
基于所述总损失函数对所述学生模型的模型参数进行更新,得到训练后的目标模型。
2.根据权利要求1所述的方法,其中,所述权重包括第一权重和所述教师模型对应的第二权重;
其中,所述基于所述第一输出和所述权重,获取所述学生模型的总损失函数,包括:
基于所述第一输出、所述标签和所述第一权重,获取所述学生模型的第一损失函数;
基于所述第一输出、n个所述第二输出和所述第二权重,获取所述学生模型的第二损失函数;
基于所述第一损失函数和所述第二损失函数,获取所述总损失函数。
3.根据权利要求2所述的方法,其中,所述基于所述第一输出、所述标签和所述第一权重,获取所述学生模型的第一损失函数,包括:
基于所述第一输出和所述标签,获取所述学生模型的第一初始损失函数;
基于所述第一初始损失函数和所述第一权重,获取所述第一损失函数。
4.根据权利要求2所述的方法,其中,所述基于所述第一输出、n个所述第二输出和所述第二权重,获取所述学生模型的第二损失函数,包括:
基于所述第一输出和第i个教师模型的第二输出,获取所述学生模型的第i个第三初始损失函数,其中,1≤i≤n,i为正整数;
基于所述第i个第三初始损失函数和所述第i个教师模型对应的第二权重,获取所述学生模型的第i个第三损失函数;
基于所述学生模型的n个第三损失函数,获取所述第二损失函数。
5.根据权利要求4所述的方法,其中,所述基于所述学生模型的n个第三损失函数,获取所述第二损失函数,包括:
获取所述学生模型的n个第三损失函数的平均值,并将所述平均值确定为所述第二损失函数。
6.根据权利要求2-5中任一项所述的方法,其中,所述基于所述训练样本的标签和n个所述第二输出,确定所述训练样本对应的权重,包括:
将所述标签和n个所述第二输出进行比对,获取与所述标签一致的第二输出的目标数量;
基于所述目标数量,确定所述第一权重,其中,所述第一权重与所述目标数量正相关。
7.根据权利要求2-5中任一项所述的方法,其中,所述基于所述训练样本的标签和n个所述第二输出,确定所述训练样本对应的权重,包括:
将所述标签和第i个教师模型的第二输出进行比对;
响应于所述标签与所述第i个教师模型的第二输出一致,确定所述第i个教师模型对应的第二权重为1;或者,
响应于所述标签与所述第i个教师模型的第二输出不一致,获取与所述标签一致的第二输出的目标数量;
基于所述目标数量,确定所述第i个教师模型对应的第二权重,其中,所述第二权重与所述目标数量正相关。
8.根据权利要求1所述的方法,其中,所述基于所述训练样本的标签和n个所述第二输出,确定所述训练样本对应的权重,包括:
按照所述标签的数据格式,将n个所述第二输出转换为所述标签的数据格式的n个第二转换输出;
基于所述标签和n个所述第二转换输出,确定所述权重。
9.根据权利要求2所述的方法,其中,所述基于所述第一损失函数和所述第二损失函数,获取所述总损失函数,包括:
对所述第一损失函数和所述第二损失函数进行加权求和,获取所述总损失函数。
10.一种图像处理方法,包括:
获取待处理图像;
将所述待处理图像输入目标图像模型中,由所述目标图像模型输出所述待处理图像的处理结果,其中,所述目标图像模型采用如权利要求1-9中任一项所述的模型训练方法得到。
11.一种模型训练装置,包括:
第一获取模块,用于将训练样本分别输入至学生模型和n个教师模型中,获取所述学生模型的第一输出,并获取n个所述教师模型的第二输出,其中,n为正整数;
确定模块,用于基于所述训练样本的标签和n个所述第二输出,确定所述训练样本对应的权重;
第二获取模块,用于基于所述第一输出和所述权重,获取所述学生模型的总损失函数;
训练模块,用于基于所述总损失函数对所述学生模型的模型参数进行更新,得到训练后的目标模型。
12.根据权利要求11所述的装置,其中,所述权重包括第一权重和所述教师模型对应的第二权重;
其中,所述第二获取模块,还用于:
基于所述第一输出、所述标签和所述第一权重,获取所述学生模型的第一损失函数;
基于所述第一输出、n个所述第二输出和所述第二权重,获取所述学生模型的第二损失函数;
基于所述第一损失函数和所述第二损失函数,获取所述总损失函数。
13.根据权利要求12所述的装置,其中,所述第二获取模块,还用于:
基于所述第一输出和所述标签,获取所述学生模型的第一初始损失函数;
基于所述第一初始损失函数和所述第一权重,获取所述第一损失函数。
14.根据权利要求12所述的装置,其中,所述第二获取模块,还用于:
基于所述第一输出和第i个教师模型的第二输出,获取所述学生模型的第i个第三初始损失函数,其中,1≤i≤n,i为正整数;
基于所述第i个第三初始损失函数和所述第i个教师模型对应的第二权重,获取所述学生模型的第i个第三损失函数;
基于所述学生模型的n个第三损失函数,获取所述第二损失函数。
15.根据权利要求14所述的装置,其中,所述第二获取模块,还用于:
获取所述学生模型的n个第三损失函数的平均值,并将所述平均值确定为所述第二损失函数。
16.根据权利要求12-15中任一项所述的装置,其中,所述确定模块,还用于:
将所述标签和n个所述第二输出进行比对,获取与所述标签一致的第二输出的目标数量;
基于所述目标数量,确定所述第一权重,其中,所述第一权重与所述目标数量正相关。
17.根据权利要求12-15中任一项所述的装置,其中,所述确定模块,还用于:
将所述标签和第i个教师模型的第二输出进行比对;
响应于所述标签与所述第i个教师模型的第二输出一致,确定所述第i个教师模型对应的第二权重为1;或者,
响应于所述标签与所述第i个教师模型的第二输出不一致,获取与所述标签一致的第二输出的目标数量;
基于所述目标数量,确定所述第i个教师模型对应的第二权重,其中,所述第二权重与所述目标数量正相关。
18.根据权利要求11所述的装置,其中,所述确定模块,还用于:
按照所述标签的数据格式,将n个所述第二输出转换为所述标签的数据格式的n个第二转换输出;
基于所述标签和n个所述第二转换输出,确定所述权重。
19.根据权利要求12所述的装置,其中,所述第二获取模块,还用于:
对所述第一损失函数和所述第二损失函数进行加权求和,获取所述总损失函数。
20.一种图像处理装置,包括:
获取模块,用于获取待处理图像;
处理模块,用于将所述待处理图像输入目标图像模型中,由所述目标图像模型输出所述待处理图像的处理结果,其中,所述目标图像模型采用如权利要求1-9中任一项所述的模型训练方法得到。
21.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1-9中任一项所述的模型训练方法,或者执行如权利要求10所述的图像处理方法。
22.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行如权利要求1-9中任一项所述的模型训练方法,或者执行如权利要求10所述的图像处理方法。
CN202210981983.6A 2022-08-16 2022-08-16 模型训练方法、图像处理方法、装置和电子设备 Active CN115063875B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202210981983.6A CN115063875B (zh) 2022-08-16 2022-08-16 模型训练方法、图像处理方法、装置和电子设备
PCT/CN2022/139730 WO2024036847A1 (zh) 2022-08-16 2022-12-16 图像处理方法和装置、电子设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210981983.6A CN115063875B (zh) 2022-08-16 2022-08-16 模型训练方法、图像处理方法、装置和电子设备

Publications (2)

Publication Number Publication Date
CN115063875A true CN115063875A (zh) 2022-09-16
CN115063875B CN115063875B (zh) 2022-12-16

Family

ID=83207480

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210981983.6A Active CN115063875B (zh) 2022-08-16 2022-08-16 模型训练方法、图像处理方法、装置和电子设备

Country Status (2)

Country Link
CN (1) CN115063875B (zh)
WO (1) WO2024036847A1 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115578614A (zh) * 2022-10-21 2023-01-06 北京百度网讯科技有限公司 图像处理模型的训练方法、图像处理方法和装置
CN116361658A (zh) * 2023-04-07 2023-06-30 北京百度网讯科技有限公司 模型训练方法、任务处理方法、装置、电子设备及介质
CN116416500A (zh) * 2023-03-24 2023-07-11 北京百度网讯科技有限公司 图像识别模型训练方法、图像识别方法、装置及电子设备
CN117351299A (zh) * 2023-09-13 2024-01-05 北京百度网讯科技有限公司 图像生成及模型训练方法、装置、设备和存储介质
CN117350354A (zh) * 2023-09-21 2024-01-05 摩尔线程智能科技(北京)有限责任公司 大模型的训练方法、装置、电子设备和存储介质
WO2024036847A1 (zh) * 2022-08-16 2024-02-22 北京百度网讯科技有限公司 图像处理方法和装置、电子设备和存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111090756A (zh) * 2020-03-24 2020-05-01 腾讯科技(深圳)有限公司 基于人工智能的多目标推荐模型的训练方法及装置
CN111582500A (zh) * 2020-05-07 2020-08-25 支付宝(杭州)信息技术有限公司 一种提高模型训练效果的方法和系统
KR20200128938A (ko) * 2019-05-07 2020-11-17 삼성전자주식회사 모델 학습 방법 및 장치
US20210124881A1 (en) * 2019-10-24 2021-04-29 Beijing Xiaomi Intelligent Technology Co., Ltd. Neural network model compresesion method, corpus translation method and device
CN112733879A (zh) * 2020-12-15 2021-04-30 北京百度网讯科技有限公司 针对不同场景的模型蒸馏方法和装置
CN113361572A (zh) * 2021-05-25 2021-09-07 北京百度网讯科技有限公司 图像处理模型的训练方法、装置、电子设备以及存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111126079B (zh) * 2019-11-25 2023-11-07 北京小米智能科技有限公司 用于机器翻译的神经网络模型压缩方法、装置及存储介质
CN111126573B (zh) * 2019-12-27 2023-06-09 深圳力维智联技术有限公司 基于个体学习的模型蒸馏改进方法、设备及存储介质
CN112749728A (zh) * 2020-08-13 2021-05-04 腾讯科技(深圳)有限公司 学生模型训练方法、装置、计算机设备及存储介质
CN113705362B (zh) * 2021-08-03 2023-10-20 北京百度网讯科技有限公司 图像检测模型的训练方法、装置、电子设备及存储介质
CN114037052A (zh) * 2021-10-29 2022-02-11 北京百度网讯科技有限公司 检测模型的训练方法、装置、电子设备及存储介质
CN115063875B (zh) * 2022-08-16 2022-12-16 北京百度网讯科技有限公司 模型训练方法、图像处理方法、装置和电子设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200128938A (ko) * 2019-05-07 2020-11-17 삼성전자주식회사 모델 학습 방법 및 장치
US20210124881A1 (en) * 2019-10-24 2021-04-29 Beijing Xiaomi Intelligent Technology Co., Ltd. Neural network model compresesion method, corpus translation method and device
CN111090756A (zh) * 2020-03-24 2020-05-01 腾讯科技(深圳)有限公司 基于人工智能的多目标推荐模型的训练方法及装置
CN111582500A (zh) * 2020-05-07 2020-08-25 支付宝(杭州)信息技术有限公司 一种提高模型训练效果的方法和系统
CN112733879A (zh) * 2020-12-15 2021-04-30 北京百度网讯科技有限公司 针对不同场景的模型蒸馏方法和装置
CN113361572A (zh) * 2021-05-25 2021-09-07 北京百度网讯科技有限公司 图像处理模型的训练方法、装置、电子设备以及存储介质

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024036847A1 (zh) * 2022-08-16 2024-02-22 北京百度网讯科技有限公司 图像处理方法和装置、电子设备和存储介质
CN115578614A (zh) * 2022-10-21 2023-01-06 北京百度网讯科技有限公司 图像处理模型的训练方法、图像处理方法和装置
CN115578614B (zh) * 2022-10-21 2024-03-12 北京百度网讯科技有限公司 图像处理模型的训练方法、图像处理方法和装置
CN116416500A (zh) * 2023-03-24 2023-07-11 北京百度网讯科技有限公司 图像识别模型训练方法、图像识别方法、装置及电子设备
CN116416500B (zh) * 2023-03-24 2024-04-05 北京百度网讯科技有限公司 图像识别模型训练方法、图像识别方法、装置及电子设备
CN116361658A (zh) * 2023-04-07 2023-06-30 北京百度网讯科技有限公司 模型训练方法、任务处理方法、装置、电子设备及介质
CN117351299A (zh) * 2023-09-13 2024-01-05 北京百度网讯科技有限公司 图像生成及模型训练方法、装置、设备和存储介质
CN117350354A (zh) * 2023-09-21 2024-01-05 摩尔线程智能科技(北京)有限责任公司 大模型的训练方法、装置、电子设备和存储介质

Also Published As

Publication number Publication date
WO2024036847A1 (zh) 2024-02-22
CN115063875B (zh) 2022-12-16

Similar Documents

Publication Publication Date Title
CN115063875B (zh) 模型训练方法、图像处理方法、装置和电子设备
CN113361578B (zh) 图像处理模型的训练方法、装置、电子设备及存储介质
CN113657274B (zh) 表格生成方法、装置、电子设备及存储介质
CN115082920B (zh) 深度学习模型的训练方法、图像处理方法和装置
CN114494784A (zh) 深度学习模型的训练方法、图像处理方法和对象识别方法
CN113537192B (zh) 图像检测方法、装置、电子设备及存储介质
CN114863437B (zh) 文本识别方法、装置、电子设备和存储介质
CN116152833B (zh) 基于图像的表格还原模型的训练方法及表格还原方法
CN112632227A (zh) 简历匹配方法、装置、电子设备、存储介质和程序产品
CN115101069A (zh) 语音控制方法、装置、设备、存储介质以及程序产品
CN114495101A (zh) 文本检测方法、文本检测网络的训练方法及装置
CN112580666A (zh) 图像特征的提取方法、训练方法、装置、电子设备及介质
CN110929499B (zh) 文本相似度获取方法、装置、介质及电子设备
CN114881227B (zh) 模型压缩方法、图像处理方法、装置和电子设备
KR20230133808A (ko) Roi 검출 모델 훈련 방법, 검출 방법, 장치, 설비 및 매체
CN114817476A (zh) 语言模型的训练方法、装置、电子设备和存储介质
CN115565186A (zh) 文字识别模型的训练方法、装置、电子设备和存储介质
CN114724144A (zh) 文本识别方法、模型的训练方法、装置、设备及介质
CN114972910A (zh) 图文识别模型的训练方法、装置、电子设备及存储介质
CN114707638A (zh) 模型训练、对象识别方法及装置、设备、介质和产品
CN114549695A (zh) 图像生成方法、装置、电子设备及可读存储介质
CN113205131A (zh) 图像数据的处理方法、装置、路侧设备和云控平台
CN114328855A (zh) 文档查询方法、装置、电子设备和可读存储介质
CN114118049A (zh) 信息获取方法、装置、电子设备及存储介质
CN114693950B (zh) 一种图像特征提取网络的训练方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant