CN113609963B - 一种实时多人体角度的抽烟行为检测方法 - Google Patents

一种实时多人体角度的抽烟行为检测方法 Download PDF

Info

Publication number
CN113609963B
CN113609963B CN202110885747.XA CN202110885747A CN113609963B CN 113609963 B CN113609963 B CN 113609963B CN 202110885747 A CN202110885747 A CN 202110885747A CN 113609963 B CN113609963 B CN 113609963B
Authority
CN
China
Prior art keywords
human body
joint point
cigarette
model
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110885747.XA
Other languages
English (en)
Other versions
CN113609963A (zh
Inventor
林海华
琚午阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Zhongke Flux Technology Co ltd
Original Assignee
Beijing Ruixin High Throughput Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Ruixin High Throughput Technology Co ltd filed Critical Beijing Ruixin High Throughput Technology Co ltd
Priority to CN202110885747.XA priority Critical patent/CN113609963B/zh
Publication of CN113609963A publication Critical patent/CN113609963A/zh
Application granted granted Critical
Publication of CN113609963B publication Critical patent/CN113609963B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明涉及一种实时多人体角度的抽烟行为检测方法,包括:步骤S1:分别提取多人体角度关键帧图像、多人体角度抽烟的关键帧图像;步骤S2:构建人体检测模型,从而获取训练好的人体检测训练模型;步骤S3:构建人体关节点训练模型,获取训练好的人体关节点训练模型,提取人体关节点坐标向量组成的特征向量集;步骤S4:构建烟体检测模型,获取训练好的烟体检测训练模型,并提取烟体坐标向量组成的特征向量集;步骤S5:对人体图像进行截取,提取烟体坐标向量组成的特征向量集以及烟体关节点坐标组成的特征向量集,并自适应阈值的方式对实施采集的图像进行判断。本发明完美解决了人体侧身等难度较大的抽烟检测。

Description

一种实时多人体角度的抽烟行为检测方法
技术领域
本公开涉及抽烟行为检测技术领域,特别涉及一种实时多人体角度的抽烟行为检测方法。
背景技术
随着社会的不断发展,安全问题越来越受到人们的重视。而火灾安全隐患不但会造成大量的经济损失,甚至威胁人们的生命安全。大量数据表明,火灾问题有很大部分是由于人们不在规定的吸烟场合吸烟而引起。
传统的抽烟行为检测方法包括两种方法,包括利用气体检测传感器检测抽烟时产生的烟雾、利用红外温度传感器检测点燃的香烟的温度。利用气体检测传感器检测抽烟时产生的烟雾和利用红外温度传感器检测点燃的香烟的温度这两种方法都对硬件设备提出了较高的要求,同时由于在外界场合的烟雾量很少,且在存在其他发热体时这两种方法的精度会严重降低。
另外,随着深度学习技术的崛起,基于计算机视觉等方法,通过视频图像检测多人体角度的抽烟行为检测方法逐渐得到了研究和发展。其中包括:通过人脸识别后进行二分类或者对烟体进行识别等。然而大量研究发现表明:在不同场合人体姿态的角度不同,导致降低抽烟行为检测方法的准确性,同时利用固定阈值的方法,对于不同距离不同拍摄角度的图像利用固定阈值进行抽烟行为判断,模型的鲁棒性的精准度不高。
因此,如何将上述技术问题加以解决,即为本领域技术人员的研究方向所在。
发明内容
发明所要解决的问题
针对目前基于深度学习技术的抽烟行为检测识别不能够实现人体多角度、多姿态的检测且检测方法缺乏广泛性的问题,本发明利用深度学习技术采用自适应阈值的方法提出了一种实时多人体角度的抽烟行为检测方法。
本发明不考虑复杂情景,考虑直接进行烟体检测和人体关节点检测,并利用特征向量坐标进行距离度量。并且利用深度学习的方法首先进行人体检测,若检测到人体则通过人体检测将人体从图片抠出,并对此局部进行烟体坐标检测和抠出人体关键点检测,并通过烟体特征向量坐标、人体关键点坐标进行距离度量,同时采用自适应阈值的方法计算距离,若小于指定阈值,则判断为抽烟行为。
用于解决问题的方案
为了达到上述目的,本发明提供一种实时多人体角度的抽烟行为检测方法,包括:
步骤S1:分别提取多人体角度关键帧图像、多人体角度抽烟的关键帧图像;
步骤S2:构建人体检测模型,从而获取训练好的人体检测训练模型;
步骤S3:构建人体关节点训练模型,获取训练好的人体关节点训练模型,提取人体关节点坐标向量组成的特征向量集;
步骤S4:构建烟体检测模型,获取训练好的烟体检测训练模型,并提取烟体坐标向量组成的特征向量集;
步骤S5:对人体图像进行截取,提取烟体坐标向量组成的特征向量集以及烟体关节点坐标组成的特征向量集,并自适应阈值的方式对实施采集的图像进行判断。
优选地,所述步骤S1包括:
步骤S11:收集大量不同场合的含有人体的视频,从获取的图像中提取出多人体角度关键帧图像;
步骤S12:收集大量不同场合的人们抽烟的视频,从获取的图像中提取多人体角度抽烟的关键帧图像。
优选地,所述步骤S2具体是通过步骤S11所述的多人体角度的关键帧图像构建人体检测模型,对所述的人体检测模型进行训练,获取训练好的人体检测训练模型;
所述步骤S3具体是通过S11所述的多人体角度的关键帧图像构建人体关节点训练模型,对所述的人体关节点模型进行训练,获取训练好的人体关节点训练模型,并从关键帧图像中提取人体关节点坐标向量组成的特征向量集。
优选地,所述步骤S4是通过S12所述的多人体角度抽烟的关键帧图像构建烟体检测模型,对所述的烟体检测模型进行训练,获取训练好的烟体检测模型,并从关键帧图像中提取烟体坐标向量组成的特征向量集。
优选地,所述步骤S5包括如下子步骤:
步骤S51:从实时采集的图象中,通过人体检测模型对人体进行检测,若不存在人体,则对下一时刻实时采集的图像进行判断,若存在人体,则对人体图像进行截取,
步骤S52:通过烟体检测模型进行烟体检测,并提取烟体坐标向量组成的特征向量集,若不存在烟体,则对下一时刻实时采集的图像的进行判断,若存在烟体,通过人体关节点训练模型对关节点检测,并提取烟体关节点坐标组成的特征向量集;
步骤S53:判断烟体特征向量集与人体敏感关节点特征向量集距离,如小于等于距离阈值,则对所述抽烟行为进行记录,若大于距离阈值,则对下一时刻实时采集的图像进行判断。
优选地,在所述步骤S53中,根据欧式距离公式,获取烟体关键点和嘴巴关节点、烟体关键点分别由于左手关节点、右手关节点之间的距离,具体公式为:
Figure BDA0003194087640000041
Figure BDA0003194087640000042
Figure BDA0003194087640000043
其中,d1为烟体与嘴巴关节点之间的距离,d2为烟体与左手关节点之间的距离,d3为烟体与右手关节点之间的距离,pmx,pmy分别为烟体关键点中心点的x轴坐标、y轴坐标,p3x,p3y分别为嘴巴关节点的x轴坐标、y轴坐标,p11x,p11y分别为左手关节点的x轴坐标、y轴坐标,p12x,p12y分别为右手关节点的x轴坐标、y轴坐标。
优选地,在步骤S5中,通过人体与抽帧图像的比例去生成自适应阈值,从而进行距离判断,具体公式为:
Φ=min(q2x-q1x/W,q2y-q1y/H)
d1/Φ<a and(d2/Φ<b or d3/Φ<b)
其中,q1x,q2x,q1y,q2y分别表示人体检测模型检测到的人体的左上角x轴坐标、右下角x轴坐标、左上角的y轴坐标,右下角的y轴坐标,W为抽帧图像的宽度,H为抽帧图像的高度,Φ为缩放因子,d1为烟体与嘴巴关节点之间的距离,d2为烟体与左手关节点之间的距离,d3为烟体与右手关节点之间的距离,a为烟体与嘴巴关节点之间的距离的实验值,b为烟体与左手关节点之间的距离的实验值。
优选地,在步骤S2中,获取所述训练好的人体检测训练模型,具体包括如下子步骤:
步骤S21:采集人体图像流,并将所述图像流按照1:5比例分为正负样本,并将正样本和负样本分别按3:1:1的比例分为训练集、验证集和测试集;
步骤S22:构建人体检测训练模型,通过所述训练集对人体检测训练模型进行训练,并根据所述的验证集对训练的人体检测模型进行验证,根据测试集对人体检测模型对人体检测模型进行测试。
优选地,在步骤S4中,获取所述训练好的烟体检测模型,具体如下:
步骤S41采集烟体图像流,并将所述图像流按照1:10比例分为正负样本,并将正样本和负样本分别按3:1:1的比例分为训练集、验证集和测试集;
步骤S42构建烟体检测训练模型,通过所述训练集对人体检测训练模型进行训练,并根据所述的验证集对训练的烟体检测模型进行验证,根据测试集对烟体检测模型进行测试,当根据所述测试集对人体检测模型进行测试。
优选地,在步骤S3中,获取所述训练好的人体关节点模型,具体如下:
步骤S31:采集人体图像流,并将所述图像流按照1:3比例分为正负样本,并将正样本和负样本分别按3:1:1的比例分为训练集、验证集和测试集。
步骤S32:构建人体关节点训练模型,通过所述训练集对人体关节点训练模型进行训练,并根据所述的验证集对训练的人体关节点模型进行验证,根据测试集对人体关键点模型进行测试。
发明的效果
本发明基于深度学习技术,通过对人体坐标检测、烟体坐标检测以及人体关节点检测,进行抽烟行为识别,从而实时的完成多人体角度的抽烟行为检测,并完美解决了人体侧身等难度较大的抽烟检测。
本发明克服了注入基于气体传感器等对硬件的较高要求的抽烟检测方法,同时避免了此方法的局限性,从而提高抽烟行为检测的泛化能力和精准度。
本发明在判断距离时加入了自适应阈值的方法,相比于现阶段利用深度学习技术的方法,大大提高的模型鲁棒性和精准度。
附图说明
图1是本发明一种实时多人体角度的抽烟行为检测方法流程示意图。
具体实施方式
下面将结合本发明实施例中的图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有付出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。并且,在此处需要进一步强调的是,以下的具体实施例提供的优选的技术方案,各方案(实施例)之间是可以相互配合或结合使用的。
如图1所示,为本发明一种实时多人体角度的抽烟行为检测方法的流程图示意图,本发明的一种实时多人体角度的抽烟行为检测方法具体包括如下步骤:
步骤S1:分别提取多人体角度关键帧图像、多人体角度抽烟的关键帧图像;该步骤S1具体包括:
步骤S11:收集大量不同场合的含有人体的视频,从获取的图像中提取出多人体角度关键帧图像;
步骤S12:收集大量不同场合的人们抽烟的视频,从获取的图像中提取多人体角度抽烟的关键帧图像;
步骤S2:构建人体检测模型,从而获取训练好的人体检测训练模型,本步骤S2具体是通过步骤S11所述的多人体角度的关键帧图像构建人体检测模型,对所述的人体检测模型进行训练,获取训练好的人体检测训练模型;
步骤S3:构建人体关节点训练模型,获取训练好的人体关节点训练模型,提取人体关节点坐标向量组成的特征向量集;该步骤S3具体是通过S11所述的多人体角度的关键帧图像构建人体关节点训练模型,对所述的人体关节点模型进行训练,获取训练好的人体关节点训练模型,并从关键帧图像中提取人体关节点坐标向量组成的特征向量集;
步骤S4:构建烟体检测模型,获取训练好的烟体检测训练模型,并提取烟体坐标向量组成的特征向量集,步骤S4具体是通过S12所述的多人体角度抽烟的关键帧图像构建烟体检测模型,对所述的烟体检测模型进行训练,获取训练好的烟体检测模型,并从关键帧图像中提取烟体坐标向量组成的特征向量集;
步骤S5:对人体图像进行截取,提取烟体坐标向量组成的特征向量集以及烟体关节点坐标组成的特征向量集,并自适应阈值的方式对实施采集的图像进行判断。此步骤S5包括如下子步骤:
步骤S51:从实时采集的图象中,通过人体检测模型对人体进行检测,若不存在人体,则对下一时刻实时采集的图像进行判断,若存在人体,则对人体图像进行截取,
步骤S52:通过烟体检测模型进行烟体检测,并提取烟体坐标向量组成的特征向量集,若不存在烟体,则对下一时刻实时采集的图像的进行判断,若存在烟体,通过人体关节点训练模型对关节点检测,并提取烟体关节点坐标组成的特征向量集;
步骤S53:判断烟体特征向量集与人体敏感关节点特征向量集(左右手关节点、嘴巴关节点)距离,如小于等于距离阈值,则对所述抽烟行为进行记录,若大于距离阈值,则对下一时刻实时采集的图像进行判断。
其中,在步骤S2中的所述人体检测模型检测人体的二维空间坐标,包括左上角坐标、右上角坐标、左下角坐标和右下角坐标,每个角点的二维维空间坐标为:(Pix,Piy)i=1,2,3,4,其中Pix为第i个坐标在二维空间的x轴的坐标,Piy为第i个坐标在二维空间中y轴上的坐标,i表示坐标序号。
其中,步骤S4中的所述烟体检测模型检测烟体的二维空间坐标,包括左上角坐标、右上角坐标、左下角坐标和右下角坐标,每个角点的二维维空间坐标为:(Pix,Piy)i=1,2,3,4,其中Pix为第i个坐标在三维空间的x轴的坐标,Piy为第i个坐标在二维空间中y轴上的坐标,i表示坐标序号。
其中,在步骤S5中的所述的人体图像中包括有人体的12个关节点以及12个关节点在二维空间中的坐标信息,所述人体的16个关键点分别为头部关节点、鼻子关节点、嘴巴关节点、两肩中心关节点、右肩关节点、左肩关节点、左肘关节点、右肘关节点、左腕关节点、右腕关节点、左手关节点、右手关节点,每个所述关节点在二维空间中的坐标为:(Pix,Piy)i=1,2,3,…,12,其中,Pix为第i个坐标在二维空间的x轴的坐标,Piy为第i个坐标在三维空间中y轴上的坐标,i表示坐标序号。
其中,如所述步骤S53中,根据欧式距离公式,获取烟体关键点和嘴巴关节点、烟体关键点分别由于左手关节点、右手关节点之间的距离,具体公式为:
Figure BDA0003194087640000091
Figure BDA0003194087640000092
Figure BDA0003194087640000093
其中,d1为烟体与嘴巴关节点之间的距离,d2为烟体与左手关节点之间的距离,d3为烟体与右手关节点之间的距离,pmx,pmy分别为烟体关键点中心点的x轴坐标、y轴坐标。p3x,p3y分别为嘴巴关节点的x轴坐标、y轴坐标,p11x,p11y分别为左手关节点的x轴坐标、y轴坐标。p12x,p12y分别为右手关节点的x轴坐标、y轴坐标。
其中,在步骤S5中,不同远近距离的视频不能用固定阈值判断其距离,通过人体与抽帧图像的比例去生成自适应阈值,从而进行距离判断。
满足下列公式的为上述所定义的关键帧图像,具体公式为:
Φ=min(q2x-q1x/W,q2y-q1y/H)
d1/Φ<a and(d2/Φ<b or d3/Φ<b)
其中,q1x,q2x,q1y,q2y分别表示人体检测模型检测到的人体的左上角x轴坐标、右下角x轴坐标、左上角的y轴坐标,右下角的y轴坐标。W为抽帧图像的宽度,H为抽帧图像的高度。Φ为缩放因子。d1为烟体与嘴巴关节点之间的距离,d2为烟体与左手关节点之间的距离,d3为烟体与右手关节点之间的距离,a为烟体与嘴巴关节点之间的距离的实验值,b为烟体与左手关节点之间的距离的实验值。
进一步的讲,在步骤S2中,获取所述训练好的人体检测训练模型,具体包括如下子步骤:
步骤S21:采集人体图像流,并将所述图像流按照1:5比例分为正负样本,并将正样本和负样本分别按3:1:1的比例分为训练集、验证集和测试集。
步骤S22:构建人体检测训练模型,通过所述训练集对人体检测训练模型进行训练,并根据所述的验证集对训练的人体检测模型进行验证,根据测试集对人体检测模型对人体检测模型进行测试,当根据所述测试集对人体检测模型进行测试且测试的平均精度至少为97%时,所述的人体检测模型为训练好的人体检测模型,反之则对所述的人体检测训练模型继续进行训练,直到测试集人体检测模型的平均精度率为97%。
进一步的讲,在步骤S21中,所述正样本为图像流中包含人体的图像组成,所述负样本由图像流中未包含人体的图像组成。
进一步的讲,在步骤S4中,获取所述训练好的烟体检测模型,具体如下:
步骤S41采集烟体图像流,并将所述图像流按照1:10比例分为正负样本,并将正样本和负样本分别按3:1:1的比例分为训练集、验证集和测试集。
步骤S42构建烟体检测训练模型,通过所述训练集对人体检测训练模型进行训练,并根据所述的验证集对训练的烟体检测模型进行验证,根据测试集对烟体检测模型进行测试,当根据所述测试集对人体检测模型进行测试,且测试烟体检测模型的平均精度至少为98%时,所述的烟体检测模型为训练好的烟体检测模型,反之则对所述的烟体检测训练模型继续进行训练,直到在测试集中烟体检测模型的平均精度为98%。
进一步的讲,所述正样本为图像流中包含烟体的图像组成,所述负样本由图像流中未包含烟体的图像组成。
进一步的讲,在步骤S3中,获取所述训练好的人体关节点模型,具体如下:
步骤S31:采集人体图像流,并将所述图像流按照1:3比例分为正负样本,并将正样本和负样本分别按3:1:1的比例分为训练集、验证集和测试集。
步骤S32:构建人体关节点训练模型,通过所述训练集对人体关节点训练模型进行训练,并根据所述的验证集对训练的人体关节点模型进行验证,根据测试集对人体关键点模型进行测试,当人体关节点模型在及测试集的精准度至少为95%时,所述的人体关节点模型为训练好的人体关节点模型,反之则对所述的人体关节点训练模型继续进行训练,直到在测试集中人体关节点模型的精准度为95%。
进一步的讲,所述正样本为图像流中包含人体的图像组成,所述负样本由图像流中未包含人体的图像组成。
与现有技术相比,本发明的技术方案具有一下有益技术效果:
本发明基于深度学习技术,通过对人体坐标检测、烟体坐标检测以及人体关节点检测,进行抽烟行为识别,从而实时的完成多人体角度的抽烟行为检测,并完美解决了人体侧身等难度较大的抽烟检测。
本发明克服了注入基于气体传感器等对硬件的较高要求的抽烟检测方法,同时避免了此方法的局限性,从而提高抽烟行为检测的泛化能力和精准度。
本发明在判断距离时加入了自适应阈值的方法,相比于现阶段利用深度学习技术的方法,大大提高的模型鲁棒性和精准度。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围。

Claims (7)

1.一种实时多人体角度的抽烟行为检测方法,其特征在于,包括:
步骤S1:分别提取多人体角度关键帧图像、多人体角度抽烟的关键帧图像;
步骤S2:构建人体检测模型,从而获取训练好的人体检测训练模型;
步骤S3:构建人体关节点训练模型,获取训练好的人体关节点训练模型,提取人体关节点坐标向量组成的特征向量集;
步骤S4:构建烟体检测模型,获取训练好的烟体检测训练模型,并提取烟体坐标向量组成的特征向量集;
步骤S5:对人体图像进行截取,提取烟体坐标向量组成的特征向量集以及烟体关节点坐标组成的特征向量集,并自适应阈值的方式对实施采集的图像进行判断,具体包括:
步骤S51:从实时采集的图像中,通过人体检测模型对人体进行检测,若不存在人体,则对下一时刻实时采集的图像进行判断,若存在人体,则对人体图像进行截取;
步骤S52:通过烟体检测模型进行烟体检测,并提取烟体坐标向量组成的特征向量集,若不存在烟体,则对下一时刻实时采集的图像的进行判断,若存在烟体,通过人体关节点训练模型对关节点检测,并提取烟体关节点坐标组成的特征向量集;
步骤S53:判断烟体特征向量集与人体敏感关节点特征向量集距离,如小于等于距离阈值,则对所述抽烟行为进行记录,若大于距离阈值,则对下一时刻实时采集的图像进行判断;
其中,在步骤S53中,根据欧式距离公式,获取烟体关键点和嘴巴关节点、烟体关键点分别由于左手关节点、右手关节点之间的距离,具体公式为:
Figure FDA0003795718040000021
Figure FDA0003795718040000022
Figure FDA0003795718040000023
其中,d1为烟体与嘴巴关节点之间的距离,d2为烟体与左手关节点之间的距离,d3为烟体与右手关节点之间的距离,pmx,pmy分别为烟体关键点中心点的x轴坐标、y轴坐标,p3x,p3y分别为嘴巴关节点的x轴坐标、y轴坐标,p11x,p11y分别为左手关节点的x轴坐标、y轴坐标,p12x,p12y分别为右手关节点的x轴坐标、y轴坐标;
通过人体与抽帧图像的比例去生成自适应阈值,从而进行距离判断,具体公式为:
Φ=min((q2x-q1x)/W,(q2y-q1y)/H)
d1/Φ<a and(d2/Φ<b or d3/Φ<b)
其中,q1x,q2x,q1y,q2y分别表示人体检测模型检测到的人体的左上角x轴坐标、右下角x轴坐标、左上角的y轴坐标,右下角的y轴坐标,W为抽帧图像的宽度,H为抽帧图像的高度,Φ为缩放因子,d1为烟体与嘴巴关节点之间的距离,d2为烟体与左手关节点之间的距离,d3为烟体与右手关节点之间的距离,a为烟体与嘴巴关节点之间的距离的实验值,b为烟体与左手关节点之间的距离的实验值。
2.根据权利要求1所述的实时多人体角度的抽烟行为检测方法,其特征在于,
所述步骤S1包括:
步骤S11:收集大量不同场合的含有人体的视频,从获取的图像中提取出多人体角度关键帧图像;
步骤S12:收集大量不同场合的人们抽烟的视频,从获取的图像中提取多人体角度抽烟的关键帧图像。
3.根据权利要求2所述的实时多人体角度的抽烟行为检测方法,其特征在于,
所述步骤S2具体是通过步骤S11所述的多人体角度的关键帧图像构建人体检测模型,对所述的人体检测模型进行训练,获取训练好的人体检测训练模型;
所述步骤S3具体是通过S11所述的多人体角度的关键帧图像构建人体关节点训练模型,对所述的人体关节点模型进行训练,获取训练好的人体关节点训练模型,并从关键帧图像中提取人体关节点坐标向量组成的特征向量集。
4.根据权利要求2所述的实时多人体角度的抽烟行为检测方法,其特征在于,
所述步骤S4是通过S12所述的多人体角度抽烟的关键帧图像构建烟体检测模型,对所述的烟体检测模型进行训练,获取训练好的烟体检测模型,并从关键帧图像中提取烟体坐标向量组成的特征向量集。
5.根据权利要求1所述的实时多人体角度的抽烟行为检测方法,其特征在于,
在步骤S2中,获取所述训练好的人体检测训练模型,具体包括如下子步骤:
步骤S21:采集人体图像流,并将所述图像流按照1:5比例分为正负样本,并将正样本和负样本分别按3:1:1的比例分为训练集、验证集和测试集;
步骤S22:构建人体检测训练模型,通过所述训练集对人体检测训练模型进行训练,并根据所述的验证集对训练的人体检测模型进行验证,根据测试集对人体检测模型对人体检测模型进行测试。
6.根据权利要求1所述的实时多人体角度的抽烟行为检测方法,其特征在于,在步骤S4中,获取所述训练好的烟体检测模型,具体如下:
步骤S41采集烟体图像流,并将所述图像流按照1:10比例分为正负样本,并将正样本和负样本分别按3:1:1的比例分为训练集、验证集和测试集;
步骤S42构建烟体检测训练模型,通过所述训练集对人体检测训练模型进行训练,并根据所述的验证集对训练的烟体检测模型进行验证,根据测试集对烟体检测模型进行测试,当根据所述测试集对人体检测模型进行测试。
7.根据权利要求1所述的实时多人体角度的抽烟行为检测方法,其特征在于,在步骤S3中,获取所述训练好的人体关节点模型,具体如下:
步骤S31:采集人体图像流,并将所述图像流按照1:3比例分为正负样本,并将正样本和负样本分别按3:1:1的比例分为训练集、验证集和测试集;
步骤S32:构建人体关节点训练模型,通过所述训练集对人体关节点训练模型进行训练,并根据所述的验证集对训练的人体关节点模型进行验证,根据测试集对人体关键点模型进行测试。
CN202110885747.XA 2021-08-03 2021-08-03 一种实时多人体角度的抽烟行为检测方法 Active CN113609963B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110885747.XA CN113609963B (zh) 2021-08-03 2021-08-03 一种实时多人体角度的抽烟行为检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110885747.XA CN113609963B (zh) 2021-08-03 2021-08-03 一种实时多人体角度的抽烟行为检测方法

Publications (2)

Publication Number Publication Date
CN113609963A CN113609963A (zh) 2021-11-05
CN113609963B true CN113609963B (zh) 2022-10-11

Family

ID=78339237

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110885747.XA Active CN113609963B (zh) 2021-08-03 2021-08-03 一种实时多人体角度的抽烟行为检测方法

Country Status (1)

Country Link
CN (1) CN113609963B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116469196B (zh) * 2023-03-16 2024-03-15 南京誉泰瑞思科技有限公司 一种数字化综合管理系统以及方法
CN117409484A (zh) * 2023-12-14 2024-01-16 四川汉唐云分布式存储技术有限公司 基于云值守的客户违规行为检测方法、装置及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108829232A (zh) * 2018-04-26 2018-11-16 深圳市深晓科技有限公司 基于深度学习的人体骨骼关节点三维坐标的获取方法
CN110826453A (zh) * 2019-10-30 2020-02-21 西安工程大学 一种通过提取人体关节点坐标的行为识别方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101237089B1 (ko) * 2011-10-12 2013-02-26 계명대학교 산학협력단 랜덤 포레스트 분류 기법을 이용한 산불연기 감지 방법
CN110688921A (zh) * 2019-09-17 2020-01-14 东南大学 一种基于人体动作识别技术的驾驶员抽烟行为检测方法
CN110738186A (zh) * 2019-10-23 2020-01-31 德瑞姆创新科技(深圳)有限公司 一种基于计算机视觉技术的驾驶员抽烟检测方法及系统
CN111931653A (zh) * 2020-08-11 2020-11-13 沈阳帝信人工智能产业研究院有限公司 安全监测方法、装置、电子设备和可读存储介质
CN112163469B (zh) * 2020-09-11 2022-09-02 燊赛(上海)智能科技有限公司 一种吸烟行为识别方法、系统、设备及可读存储介质
CN112528960B (zh) * 2020-12-29 2023-07-14 之江实验室 一种基于人体姿态估计和图像分类的吸烟行为检测方法
CN112818919A (zh) * 2021-02-24 2021-05-18 北京华宇信息技术有限公司 抽烟行为识别方法与装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108829232A (zh) * 2018-04-26 2018-11-16 深圳市深晓科技有限公司 基于深度学习的人体骨骼关节点三维坐标的获取方法
CN110826453A (zh) * 2019-10-30 2020-02-21 西安工程大学 一种通过提取人体关节点坐标的行为识别方法

Also Published As

Publication number Publication date
CN113609963A (zh) 2021-11-05

Similar Documents

Publication Publication Date Title
CN108734125B (zh) 一种开放空间的吸烟行为识别方法
CN104915649B (zh) 一种应用于人脸识别的活体检测方法
CN113609963B (zh) 一种实时多人体角度的抽烟行为检测方法
CN109657553B (zh) 一种学生课堂注意力检测方法
CN110837784B (zh) 一种基于人体头部特征的考场偷窥作弊检测系统
CN107358223B (zh) 一种基于yolo的人脸检测与人脸对齐方法
CN105809144B (zh) 一种采用动作切分的手势识别系统和方法
CN109101865A (zh) 一种基于深度学习的行人重识别方法
CN105574518B (zh) 人脸活体检测的方法和装置
CN110674785A (zh) 一种基于人体关键点跟踪的多人姿态分析方法
CN105740779B (zh) 人脸活体检测的方法和装置
CN105740778B (zh) 一种改进的三维人脸活体检测方法及其装置
CN105426723A (zh) 基于声纹识别、人脸识别以及同步活体检测的身份认证方法及系统
CN110674680B (zh) 活体识别的方法、装置、存储介质
CN111881898B (zh) 基于单目rgb图像的人体姿态检测方法
CN109101949A (zh) 一种基于彩色视频信号频域分析的人脸活体检测方法
CN107736874B (zh) 一种活体检测的方法、装置、设备和计算机存储介质
WO2015165227A1 (zh) 人脸识别方法
CN111209820B (zh) 人脸活体检测方法、系统、设备及可读存储介质
CN110148092B (zh) 基于机器视觉的青少年坐姿及情绪状态的分析方法
CN113856186B (zh) 一种引体向上动作判定与计数的方法、系统及装置
CN106447695A (zh) 一种多物体追踪中判断同一物体的方法和装置
WO2010126120A1 (ja) 画像処理装置、画像処理方法、及び同方法をコンピュータに実行させるプログラム
CN108108651B (zh) 基于视频人脸分析的驾驶员非专心驾驶检测方法及系统
Al-Nuimi et al. Face direction estimation based on mediapipe landmarks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder

Address after: Room 711c, 7 / F, block a, building 1, yard 19, Ronghua Middle Road, Beijing Economic and Technological Development Zone, Daxing District, Beijing 102600

Patentee after: Beijing Zhongke Flux Technology Co.,Ltd.

Address before: Room 711c, 7 / F, block a, building 1, yard 19, Ronghua Middle Road, Beijing Economic and Technological Development Zone, Daxing District, Beijing 102600

Patentee before: Beijing Ruixin high throughput technology Co.,Ltd.

CP01 Change in the name or title of a patent holder