CN112016506A - 快速适应新场景的教室姿态检测模型参数训练方法 - Google Patents

快速适应新场景的教室姿态检测模型参数训练方法 Download PDF

Info

Publication number
CN112016506A
CN112016506A CN202010926300.8A CN202010926300A CN112016506A CN 112016506 A CN112016506 A CN 112016506A CN 202010926300 A CN202010926300 A CN 202010926300A CN 112016506 A CN112016506 A CN 112016506A
Authority
CN
China
Prior art keywords
target data
small target
model
classroom
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010926300.8A
Other languages
English (en)
Other versions
CN112016506B (zh
Inventor
高陈强
钱志华
叶盛
陈乔伊
陈欣悦
张凌明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN202010926300.8A priority Critical patent/CN112016506B/zh
Publication of CN112016506A publication Critical patent/CN112016506A/zh
Application granted granted Critical
Publication of CN112016506B publication Critical patent/CN112016506B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于图像处理与计算机视觉技术领域,涉及一种快速适应新场景的教室姿态检测模型参数训练方法及装置,所述方法包括:将教室姿态检测模型的参数进行随机初始化;将教室姿态检测数据集按场景划分为小目标数据集;随机选取其中n个小目标数据集,复制模型参数并在各个小目标数据集的训练集上进行训练并在对应测试集上测得损失,并计算各个小目标数据集损失的平均值;将平均值用作是模型参数的教室姿态检测模型的损失,利用该损失对模型参数进行梯度下降,得到新的模型参数;本发明能有效减少人工标注成本,在进一步训练后得到模型参数下的检测结果相对于在训练集上的所有图片进行训练的传统训练方法得到的模型更为准确。

Description

快速适应新场景的教室姿态检测模型参数训练方法
技术领域
本发明属于图像处理与计算机视觉技术领域,涉及一种快速适应新场景的教室姿态检测模型参数训练方法及装置。
背景技术
目标检测是计算机视觉领域四大基础问题之一。一般目标检测问题被定义为:确定一张图片中是否存在预定义类别(比如人、马、车等)的目标实例,如果存在,就返回每个目标的空间位置。2014年深度学习框架R-CNN在目标检测数据集VOC 2012上性能上超出了前代30%的优异表现引发了基于深度学习的目标检测方法的高速发展。现在主流、高性能的目标检测框架都是基于深度学习的。深度学习(Deep Learning)是机器学习中一种基于对数据进行表征学习的方法,是一种能够模拟出人脑的神经结构的机器学习方法。
基于深度学习的目标检测模型需要大量的有标注的图片(图片及记录目标位置的标签信息)对其进行参数进行优化,一般来说是求出模型当前的预测结果和理想结果(标注)之间的差距,用数据表示出来并使用梯度下降的方法对模型参数进行更新,通过这种方法获得在用于训练的数据集上表现较好的模型参数。用来训练的图片及对应标签的集合叫做训练集,用来测试的图片及其标签叫做测试集。一般来说,通过梯度下降的方法基于训练集对深度学习模型的参数进行更新,这样得到的模型参数往往在训练集上有较为良好的表现。
然而,这样的模型参数要想在测试集上有同样优秀的表现,就必须满足机器学习的一个重要假设:训练集和测试集必须分布相同。
当训练集、测试集的分布差异很大时,即使目标检测模型的待检测目标类别相同,基于训练集得到的模型参数在测试集上也很难有良好的表现。举例来说,训练集上都是摄像头离学生水平距离在2-10米(从最近的学生到最远的学生),正对学生拍摄,摄像头像素较高,学生轮廓都比较清晰的小教室监控图片;测试集上都是摄像头离学生水平距离在15-50米,侧对学生拍摄,摄像头像素还相对较低的大教室监控图片。离摄像头最远的后排同学本来轮廓就相当模糊了,再加上遮挡问题人眼都很难分辨是坐着还是趴着,而训练集上又没有这些样例,或者这些样例较少,这就会导致测试集上的检测结果相当糟糕。
但如果单纯分别针对不同场景构造教室姿态检测数据集并对模型参数进行训练的话,则会带来极高的标注成本,每个场景训练模型参数所需的时间和计算资源也较多。
发明内容
为了从通过预训练得到一个能快速在不同教室场景上使用尽量少的标注图片和训练次数就能较好收敛的模型参数的角度出发,使得将教室姿态检测模型部署到特定场景时,通过特定场景上少量的标注图片再次训练就能取得最适合该场景的姿态检测模型参数,本发明提出一种快速适应新场景的教室姿态检测模型参数训练方法及装置看,所述方法包括:
步骤1:将教室姿态检测模型的参数进行随机初始化;
步骤2:将教室姿态检测数据集按场景划分为小目标数据集;
步骤3:将模型参数φ复制一份,复制的模型参数记为θ0
步骤4:随机选取其中n个小目标数据集,将复制的模型参数θ0依次在各个小目标数据集的训练集上进行训练并在对应测试集上测得教室姿态检测模型的损失{li|i=1,2,...,n};
步骤5:将步骤4中在各个小目标数据集的测试集上测得的损失求平均,得
Figure BDA0002668414190000021
步骤6:将
Figure BDA0002668414190000022
用作是模型参数为φ的教室姿态检测模型的损失,以此对教室姿态检测模型的参数进行梯度下降,得到新的参数φ′,将φ的值替换为φ′;
步骤7:重复步骤3-6,直到损失
Figure BDA0002668414190000023
收敛,保存模型参数φ。
进一步的,按场景划分小目标数据集,是指按所拍摄的图片中教室座位分布划分数据集,即监控器拍摄的同一位置的数据作为一个数据集。
进一步的,随机选取小目标数据集时,设全体小目标数据集的集合为{Di|i=1,2,...,N},其中Di表示集合中第i个小目标数据,N为小目标数据集的总个数,每个小目标数据集均标记为未抽取,每次在集合中依次随机选取n个标记为未被抽取过小目标数据集,并将抽取的小目标数据集标记为已抽取,当没有小目标数据集可以抽取时再将集合中所有的小目标数据集重新标记为未抽取。
进一步的,每次随机抽取n个小目标数据集,n为整数且4≤n≤nmax,其中nmax为随机抽取小目标数据集的最大个数,表示为:
Figure BDA0002668414190000031
其中,N为小目标数据集的总个数,
Figure BDA0002668414190000032
为向下取整符号。
进一步的,将复制的模型参数θ0依次在n个小目标数据集的训练集上进行训练时,在模型参数θi-1下第i个小目标数据集的训练集上抽取模型设置的超参数batch数目的标注图片送入模型,求得损失,并根据损失对模型参数进行一次梯度更新,梯度更新后得到模型参数θi,在模型参数θi下再在该小目标数据集的测试集上抽取超参数batch数目的标注图片送入模型,在模型参数θi下得到的预测结果和人工标注结果之间的差值即为损失li
本发明还提出一种快速适应新场景的教室姿态检测模型参数训练装置,所述装置包括数据获取模块、小目标数据集划分单元、小目标数据集随机选择单元、损失计算单元以及梯度下降单元,其中:
数据获取模块,用于获取教室姿态检测数据以及与教室姿态检测模型进行数据交换,包括获取教室姿态模型的检测结果和模型参数;
小目标数据集划分单元,用于对获取的原始数据进行划分;
小目标数据集随机选择单元,用于从小目标数据集划分单元随机选择小目标数据集,并将选择的小目标数据集中的数据输入教室姿态检测模型中;
损失计算单元,用户从教室姿态检测模型中获取每个小目标数据集的损失,并根据所有小目标数据集的损失的平均值;
梯度下降单元,根据损失计算单元计算的平均值进行梯度下降,获得教室姿态检测模型的新参数,并将该参数发送给教室姿态检测模型。
本发明的有益效果包括:
通过该训练方法训练出来的教室姿态检测模型参数,在特定的教室场景使用时,只需10张以内的该场景标注图片对该模型参数进行进一步训练,即可在该适应新的教室场景。在新的教室场景落地时,使用本发明能有效减少人工标注成本,在进一步训练后得到模型参数下的检测结果相对于在训练集上的所有图片进行训练的传统训练方法得到的模型更为准确。
附图说明
图1为本发明提供的一种端到端的目标检测模型的示例;
图2为本发明的算法流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提出一种快速适应新场景的教室姿态检测模型参数训练方法,如图2,具体包括以下步骤:
步骤1:将教室姿态检测模型的参数进行随机初始化;
步骤2:将教室姿态检测数据集按场景划分为小目标数据集;
步骤3:将模型参数φ复制一份,复制的模型参数记为θ0
步骤4:随机选取其中n个小目标数据集,将复制的模型参数θ0依次在各个小目标数据集的训练集上进行训练并在对应测试集上测得损失{li|i=1,2,...,n};
步骤5:将步骤4中在各个小目标数据集的测试集上测得的损失求平均,得
Figure BDA0002668414190000051
步骤6:将
Figure BDA0002668414190000052
用作是模型参数为φ的教室姿态检测模型的损失,以此对教室姿态检测模型的参数进行梯度下降,得到新的参数φ′,将φ的值替换为φ′;
步骤7:重复步骤3-6,直到损失
Figure BDA0002668414190000053
收敛,保存模型参数φ。
实施例1
教室姿态检测模型可以按实际项目需求(检测速度、准确度、稳定性等)选用任意合适的端到端的目标检测模型,在本实施例中,以Faster RCNN目标检测模型作为本发明教室姿态检测模型。Faster RCNN目标检测模型的结构如图1所示,并且该网络是图片提取领域的常用网络,其具体结构本文不再赘述。可以在图片上检测出特定类别的目标,并给出其位置信息,因此只需将其检测的目标类别设置为人体姿态,即可对教室监控场景的人体姿态进行检测。本发明所训练的教室姿态检测模型为端到端的目标检测模型,即将教室环境下学生和老师的姿态(坐、站、趴)作为待检测目标的类别,通过目标检测的方法识别出教室监控录像中截取的图片中各人物的姿态,Faster RCNN目标检测模型由多个模块组成的,不同模块实现不同的功能,需要通过这些模块实现的结果和理想结果(标注)相比较,得出各模块的误差即损失,对这些模块的参数进行训练。然而,通过将这些模块的损失叠加起来,对模型所有参数进行梯度下降更新参数的这种训练方式叫做端到端训练。
本实施例采用的Faster RCNN目标检测模型的模块损失就包括RPN模块判断正负样本损失rpn_loss_cls,RPN模块回归候选框位置损失rpn_loss_box,最终判断候选框类别损失loss_cls,最终回归候选框位置损失loss_box,该模型的总损失表示为:
loss=rpn_loss_cls+rpn_loss_box+loss_cls+loss_cls。
本实施例以Faster RCNN目标检测模型总损失为损失值,但是,本发明不限制总损失值的具体计算方法,以本领域技术人员选择的具体模型为准,损失值也不限于总损失,也可以是具体选择的模型的部分损失。
按场景划分小目标数据集,是指按所拍摄的图片中教室座位分布划分数据集,因为相同教室座位分布,由于教室监控摄像头的位置和角度不同,所拍摄的人物分布和其姿态的表现形式也会不同,因此本实施例中所述的一个小目标数据集是同一位置监视器的位置从相同角度拍摄的图片集合。
在随机选取小目标数据集时,设全体小目标数据集的集合为{Di|i=1,2,...,N},其中N为小目标数据集的总个数,最开始,每个小目标数据集均标记为未抽取,每次在集合中依次随机选取n个标记为未被抽取过小目标数据集,并将抽取的小目标数据集标记为已抽取,当没有小目标数据集可以抽取时再将集合中所有的小目标数据集重新标记为未抽取。其中,每次随机抽取n个小目标数据集,n为整数且4≤n≤nmax,小目标数据集的最大抽取数量nmax为:
Figure BDA0002668414190000061
将复制的模型参数θ0依次在n个小目标数据集的训练集上进行训练时,每个小目标数据集都包括训练集和测试集,在模型参数θi-1下在第i个小目标数据集的训练集上抽取模型设置的超参数batch数目的标注图片送入模型,求得模型损失值,并根据损失对模型参数进行一次梯度更新,梯度更新后得到模型参数θi,在模型参数θi下再在该小目标数据集的测试集上抽取超参数batch数目的标注图片送入模型,在模型参数为θi时,对第i个小目标数据集的测试集进行预测获得的预测标签与该测试集的人工标注标签之间的差值损失即为损失值li,即在模型参数为θ0时将第1个小目标数据集的训练集上抽取模型设置的超参batch数目的标注图片送入模型,并求得在该模型参数下模型的损失,利用该损失对模型参数θ0进行一次梯度更新,梯度更新后得到模型参数θ1,并在模型参数为θ1时将第1个小目标数据集的训练集上抽取模型设置的超参数batch数目的标注图片送入模型,此时得出的损失即为损失值l1,依次类推,利用第i-1个小目标数据计算得到的模型参数θi-1对第i个小目标数据集测试集数据进行预测,并使用该次模型的损失值和训练集数据更新模型得到第i个小目标数据集的模型参数θi,并将第i个小目标数据集的测试集输入得到的预测标签和人工标注标签的差值作为第i个小目标数据集的损失值li
通过上述训练方法训练出来的教室姿态检测模型参数,在特定场景使用时均需对该模型参数进行进一步训练,但只需10张以内的该场景标注图片即可,在新的教室场景落地能有效减少人工标注成本,且在进一步训练后得到模型参数下的检测结果相对于在训练集上的所有图片进行训练的传统训练方法得到的模型更为准确。
实施例2
本实施例提出一种快速适应新场景的教室姿态检测模型参数训练装置,所述装置包括数据获取模块、小目标数据集划分单元、小目标数据集随机选择单元、损失计算单元以及梯度下降单元,其中:
数据获取模块,用于获取教室姿态检测数据以及与教室姿态检测模型进行数据交换,包括获取教室姿态模型的检测结果和模型参数;
小目标数据集划分单元,用于对获取的原始数据进行划分;
小目标数据集随机选择单元,用于从小目标数据集划分单元随机选择小目标数据集,并将选择的小目标数据集中的数据输入教室姿态检测模型中;
损失计算单元,用户从教室姿态检测模型中获取每个小目标数据集的损失,并根据所有小目标数据集的损失的平均值;
梯度下降单元,根据损失计算单元计算的平均值进行梯度下降,获得教室姿态检测模型的新参数,并将该参数发送给教室姿态检测模型。
本发明的装置为选择的教室姿态检测模型快速选择模型参数,小目标数据集划分单元,获得教室姿态检测数据为按所拍摄的图片后,根据教室座位分布划分小目标数据集,即不同监控器拍摄的同一位置的数据作为一个数据集。
进一步的,小目标数据集随机选择单元选取小目标数据集时,设全体小目标数据集的集合为{Di|i=1,2,...,N},其中N为小目标数据集的总个数,每个小目标数据集均标记为未抽取,每次在集合中依次随机选取n个标记为未被抽取过小目标数据集,并将抽取的小目标数据集标记为已抽取,当没有小目标数据集可以抽取时再将集合中所有的小目标数据集重新标记为未抽取。
进一步的,小目标数据集随机选择单元每次随机抽取n个小目标数据集,n为整数且4≤n≤nmax,其中nmax为随机抽取小目标数据集的最大个数,表示为:
Figure BDA0002668414190000081
其中,N为小目标数据集的总个数,
Figure BDA0002668414190000082
为向下取整符号。
进一步的,教室姿态检测模型获取损失时,将模型的原参数参数θ0依次在n个小目标数据集的训练集上进行训练时,在模型参数θi-1下第i个小目标数据集的训练集上抽取模型设置的超参batch数目的标注图片送入模型,求得损失,并根据损失对模型参数进行一次梯度更新,梯度更新后得到模型参数θi,在模型参数θi下再在该小目标数据集的测试集上抽取batch数目的标注图片送入模型,在模型参数θi下的模型进行预测得到的标签与人工标注标签的差值即为损失值li
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (10)

1.快速适应新场景的教室姿态检测模型参数训练方法,其特征在于,包括以下步骤:
步骤1:将教室姿态检测模型的参数进行随机初始化;
步骤2:将教室姿态检测数据集按场景划分为小目标数据集;
步骤3:将模型参数φ复制一份,复制的模型参数记为θ0
步骤4:随机选取其中n个小目标数据集,将复制的模型参数θ0依次在各个小目标数据集的训练集上进行训练并在对应测试集上测得教室姿态检测模型的损失{li|i=1,2,...,n};
步骤5:将步骤4中在各个小目标数据集的测试集上测得的损失求平均,得
Figure FDA0002668414180000011
步骤6:将l用作是模型参数为φ的教室姿态检测模型的损失,以此对教室姿态检测模型的参数进行梯度下降,得到新的参数φ′,将φ的值替换为φ′;
步骤7:重复步骤3-6,直到损失l收敛,保存模型参数φ。
2.根据权利要求1所述的快速适应新场景的教室姿态检测模型参数训练方法,其特征在于,按场景划分小目标数据集,是指按所拍摄的图片中教室座位分布划分数据集,即监控器拍摄的同一位置的数据作为一个数据集。
3.根据权利要求1所述的快速适应新场景的教室姿态检测模型参数训练方法,其特征在于,随机选取小目标数据集时,设全体小目标数据集的集合为{Di|i=1,2,...,N},其中Di表示集合中第i个小目标数据,N为小目标数据集的总个数,每个小目标数据集均标记为未抽取,每次在集合中依次随机选取n个标记为未被抽取过小目标数据集,并将抽取的小目标数据集标记为已抽取,当没有小目标数据集可以抽取时再将集合中所有的小目标数据集重新标记为未抽取。
4.根据权利要求1所述的快速适应新场景的教室姿态检测模型参数训练方法,其特征在于,每次随机抽取n个小目标数据集,n为整数且4≤n≤nmax,其中nmax为随机抽取小目标数据集的最大个数,表示为:
Figure FDA0002668414180000021
其中,N为小目标数据集的总个数,
Figure FDA0002668414180000022
为向下取整符号。
5.根据权利要求1所述的快速适应新场景的教室姿态检测模型参数训练方法,其特征在于,将复制的模型参数θ0依次在n个小目标数据集的训练集上进行训练时,在模型参数θi-1下第i个小目标数据集的训练集上抽取模型设置的超参数batch数目的标注图片送入模型,求得损失,并根据损失对模型参数进行一次梯度更新,梯度更新后得到模型参数θi,在模型参数θi下再在该小目标数据集的测试集上抽取超参数batch数目的标注图片送入模型,在模型参数θi下得到的预测结果和人工标注结果之间的差值即为损失li
6.根据权利要求1所述的快速适应新场景的教室姿态检测模型参数训练装置,其特征在于,所述装置包括数据获取模块、小目标数据集划分单元、小目标数据集随机选择单元、损失计算单元以及梯度下降单元,其中:
数据获取模块,用于获取教室姿态检测数据以及与教室姿态检测模型进行数据交换,包括获取教室姿态模型的检测结果和模型参数;
小目标数据集划分单元,用于对获取的原始数据进行划分;
小目标数据集随机选择单元,用于从小目标数据集划分单元随机选择小目标数据集,并将选择的小目标数据集中的数据输入教室姿态检测模型中;
损失计算单元,用户从教室姿态检测模型中获取每个小目标数据集的损失,并根据所有小目标数据集的损失的平均值;
梯度下降单元,根据损失计算单元计算的平均值进行梯度下降,获得教室姿态检测模型的新参数,并将该参数发送给教室姿态检测模型。
7.根据权利要求6所述的快速适应新场景的教室姿态检测模型参数训练装置,其特征在于,小目标数据集划分单元获得教室姿态检测数据为按所拍摄的图片后,根据教室座位分布划分小目标数据集,即不同监控器拍摄的同一位置的数据作为一个数据集。
8.根据权利要求6所述的快速适应新场景的教室姿态检测模型参数训练装置,其特征在于,小目标数据集随机选择单元选取小目标数据集时,设全体小目标数据集的集合为{Di|i=1,2,...,N},其中N为小目标数据集的总个数,每个小目标数据集均标记为未抽取,每次在集合中依次随机选取n个标记为未被抽取过小目标数据集,并将抽取的小目标数据集标记为已抽取,当没有小目标数据集可以抽取时再将集合中所有的小目标数据集重新标记为未抽取。
9.根据权利要求1所述的快速适应新场景的教室姿态检测模型参数训练装置,其特征在于,小目标数据集随机选择单元每次随机抽取n个小目标数据集,n为整数且4≤n≤nmax,其中nmax为随机抽取小目标数据集的最大个数,表示为:
Figure FDA0002668414180000031
其中,N为小目标数据集的总个数,
Figure FDA0002668414180000032
为向下取整符号。
10.根据权利要求1所述的快速适应新场景的教室姿态检测模型参数训练装置,其特征在于,教室姿态检测模型获取损失时,将模型的原参数参数θ0依次在n个小目标数据集的训练集上进行训练时,在模型参数θi-1下第i个小目标数据集的训练集上抽取模型设置的超参batch数目的标注图片送入模型,求得损失,并根据损失对模型参数进行一次梯度更新,梯度更新后得到模型参数θi,在模型参数θi下再在该小目标数据集的测试集上抽取batch数目的标注图片送入模型,在模型参数θi下得到的预测标签和人工标注标签之间的差值即为损失值li,其中1≤i≤n。
CN202010926300.8A 2020-09-07 2020-09-07 快速适应新场景的教室姿态检测模型参数训练方法 Active CN112016506B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010926300.8A CN112016506B (zh) 2020-09-07 2020-09-07 快速适应新场景的教室姿态检测模型参数训练方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010926300.8A CN112016506B (zh) 2020-09-07 2020-09-07 快速适应新场景的教室姿态检测模型参数训练方法

Publications (2)

Publication Number Publication Date
CN112016506A true CN112016506A (zh) 2020-12-01
CN112016506B CN112016506B (zh) 2022-10-11

Family

ID=73515954

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010926300.8A Active CN112016506B (zh) 2020-09-07 2020-09-07 快速适应新场景的教室姿态检测模型参数训练方法

Country Status (1)

Country Link
CN (1) CN112016506B (zh)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104899652A (zh) * 2015-06-01 2015-09-09 上海交通大学 综合数据交互下的文化演艺运营平台决策支持系统
US20180082166A1 (en) * 2016-09-16 2018-03-22 Woods Hole Oceanographic Institution System and Method for Autonomous Tracking and Imaging of a Target
CN109241830A (zh) * 2018-07-26 2019-01-18 合肥工业大学 基于光照生成对抗网络的课堂听课异常检测方法
EP3502978A1 (en) * 2017-12-22 2019-06-26 Siemens Healthcare GmbH Meta-learning system
CN110119703A (zh) * 2019-05-07 2019-08-13 福州大学 一种安防场景下融合注意力机制和时空图卷积神经网络的人体动作识别方法
CN110458060A (zh) * 2019-07-30 2019-11-15 暨南大学 一种基于对抗学习的车辆图像优化方法及系统
CN110808945A (zh) * 2019-09-11 2020-02-18 浙江大学 一种基于元学习的小样本场景下网络入侵检测方法
CN110852447A (zh) * 2019-11-15 2020-02-28 腾讯云计算(北京)有限责任公司 元学习方法和装置、初始化方法、计算设备和存储介质
CN110852241A (zh) * 2019-11-06 2020-02-28 西安交通大学 一种应用于护理机器人的小目标检测方法
CN111144233A (zh) * 2019-12-10 2020-05-12 电子科技大学 基于toim损失函数的行人重识别方法
CN111476292A (zh) * 2020-04-03 2020-07-31 北京全景德康医学影像诊断中心有限公司 医学图像分类处理人工智能的小样本元学习训练方法
CN111626245A (zh) * 2020-06-01 2020-09-04 安徽大学 一种基于视频关键帧的人体行为识别方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104899652A (zh) * 2015-06-01 2015-09-09 上海交通大学 综合数据交互下的文化演艺运营平台决策支持系统
US20180082166A1 (en) * 2016-09-16 2018-03-22 Woods Hole Oceanographic Institution System and Method for Autonomous Tracking and Imaging of a Target
EP3502978A1 (en) * 2017-12-22 2019-06-26 Siemens Healthcare GmbH Meta-learning system
CN109241830A (zh) * 2018-07-26 2019-01-18 合肥工业大学 基于光照生成对抗网络的课堂听课异常检测方法
CN110119703A (zh) * 2019-05-07 2019-08-13 福州大学 一种安防场景下融合注意力机制和时空图卷积神经网络的人体动作识别方法
CN110458060A (zh) * 2019-07-30 2019-11-15 暨南大学 一种基于对抗学习的车辆图像优化方法及系统
CN110808945A (zh) * 2019-09-11 2020-02-18 浙江大学 一种基于元学习的小样本场景下网络入侵检测方法
CN110852241A (zh) * 2019-11-06 2020-02-28 西安交通大学 一种应用于护理机器人的小目标检测方法
CN110852447A (zh) * 2019-11-15 2020-02-28 腾讯云计算(北京)有限责任公司 元学习方法和装置、初始化方法、计算设备和存储介质
CN111144233A (zh) * 2019-12-10 2020-05-12 电子科技大学 基于toim损失函数的行人重识别方法
CN111476292A (zh) * 2020-04-03 2020-07-31 北京全景德康医学影像诊断中心有限公司 医学图像分类处理人工智能的小样本元学习训练方法
CN111626245A (zh) * 2020-06-01 2020-09-04 安徽大学 一种基于视频关键帧的人体行为识别方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
CHELSEA FINN ET AL.: "Online Meta-Learning", 《PROCEEDINGS OF THE 36TH INTERNATIONAL CONFERENCE ON MACHINE LEARNING》 *
FINN C ET AL.: "Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks", 《PROCEEDINGS OF THE 34TH INTERNATIONAL CONFERENCE ON MACHINE LEARNING》 *
ROMERO F.A.B. DE MORAIS ET AL.: "A Meta-Learning Method to Select Under-Sampling Algorithms for Imbalanced Data Sets", 《2016 5TH BRAZILIAN CONFERENCE ON INTELLIGENT SYSTEMS (BRACIS)》 *
TANG L ET AL.: "Pose detection in complex classroom environment based on improved Faster R-CNN", 《IET IMAGE PROCESSING》 *
刘伟伟: "基于注意力引导的层次化行为识别研究", 《中国优秀高级论文全文数据库(信息科技辑)》 *
陆兴华等: "柔索牵引式机器人的姿态自适应调节控制优化", 《传感器与微系统》 *

Also Published As

Publication number Publication date
CN112016506B (zh) 2022-10-11

Similar Documents

Publication Publication Date Title
CN109344736B (zh) 一种基于联合学习的静态图像人群计数方法
CN107437092B (zh) 基于三维卷积神经网络的视网膜oct图像的分类方法
US20180068461A1 (en) Posture estimating apparatus, posture estimating method and storing medium
CN109492624A (zh) 一种人脸识别方法、特征提取模型的训练方法及其装置
CN108399414A (zh) 样本选择方法及装置
CN112036447B (zh) 零样本目标检测系统及可学习语义和固定语义融合方法
CN104200203B (zh) 一种基于动作字典学习的人体动作检测方法
CN109711389B (zh) 一种基于Faster R-CNN和HMM的哺乳母猪姿态转换识别方法
CN110503000B (zh) 一种基于人脸识别技术的教学抬头率测量方法
CN113920107A (zh) 一种基于改进yolov5算法的绝缘子破损检测方法
CN113435282B (zh) 基于深度学习的无人机影像麦穗识别方法
CN109886947A (zh) 基于区域的卷积神经网络的高压电线缺陷检测方法
CN109544592A (zh) 针对相机移动的运动目标检测算法
CN114463675B (zh) 一种水下鱼类群组活动强度识别方法及装置
CN110009628A (zh) 一种针对连续二维图像中多形态目标的自动检测方法
CN109344845A (zh) 一种基于Triplet深度神经网络结构的特征匹配方法
CN112465977B (zh) 基于稠密点云修补三维模型水面漏洞的方法
CN110363218A (zh) 一种胚胎无创评估方法及装置
CN111507184B (zh) 基于并联空洞卷积和身体结构约束的人体姿态检测方法
CN110222712A (zh) 一种基于深度学习的多专项目标检测算法
CN112507904A (zh) 一种基于多尺度特征的教室人体姿态实时检测方法
CN108985161A (zh) 一种基于拉普拉斯正则化的低秩稀疏表征图像特征学习方法
CN109919215B (zh) 基于聚类算法改进特征金字塔网络的目标检测方法
CN111414930B (zh) 深度学习模型训练方法及装置、电子设备及存储介质
Dvoršak et al. Kinship verification from ear images: An explorative study with deep learning models

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant