CN108764131B - 一种基于视频处理的自适应阈值多目标摔倒检测方法 - Google Patents

一种基于视频处理的自适应阈值多目标摔倒检测方法 Download PDF

Info

Publication number
CN108764131B
CN108764131B CN201810519929.3A CN201810519929A CN108764131B CN 108764131 B CN108764131 B CN 108764131B CN 201810519929 A CN201810519929 A CN 201810519929A CN 108764131 B CN108764131 B CN 108764131B
Authority
CN
China
Prior art keywords
fall
image
threshold
target
human body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201810519929.3A
Other languages
English (en)
Other versions
CN108764131A (zh
Inventor
王鹏
孔凡宁
薛楠
董鑫
陈园园
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin University of Science and Technology
Original Assignee
Harbin University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin University of Science and Technology filed Critical Harbin University of Science and Technology
Priority to CN201810519929.3A priority Critical patent/CN108764131B/zh
Publication of CN108764131A publication Critical patent/CN108764131A/zh
Application granted granted Critical
Publication of CN108764131B publication Critical patent/CN108764131B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

一种基于视频处理的自适应阈值多目标摔倒检测方法,其技术要点在于包括以下步骤:步骤一、进行用户图像信息采集,记录下用户正常活动和摔倒时的最小外接矩形内人体图像的高宽比、有效面积比和中心变化;步骤二、利用人体图像高宽比和有效面积比对摔倒的敏感程度不同赋予不同权重,得到新的判定参数实现摔倒判定方式的融合;步骤三、对不同体型用户进行最佳阈值的设定;步骤四、依据步骤一中采集的用户图像信息和步骤二中摔倒判定方式的融合,并结合步骤三设定的用户最佳摔倒阈值,实现目标摔倒检测。该方法克服了穿戴式摔倒检测方案中人易忘和抵触穿戴的缺点,解决了环境式摔倒检测系统带来的误判率高、价格昂贵和布设不便的难题。

Description

一种基于视频处理的自适应阈值多目标摔倒检测方法
技术领域:
本发明涉及一种人摔倒的检测方法,具体涉及一种基于视频处理的自适应阈值多目标人摔倒检测方法。
背景技术:
随着医疗水平的不断提高,人均寿命相应延长,我国人口老龄化进程加快。与此同时,我国经济的飞速发展也导致外出务工人员逐年增长,留守老人的人身安全已经成为了社会热点问题。
由于老年人身体机能下降,大多数患有心血管类疾病、骨质疏松等症状,导致老人摔倒的几率增大。摔倒不但会造成老人的身体损伤,而且会引起其他疾病的发作。倘若老人摔倒后不能及时得到救助,其生命安全必然会受到严重威胁。
现有的摔倒检测方法主要包括穿戴式和环境式两种。对于穿戴式方案,用户需要随身穿戴多轴加速度传感器,通过加速度参数判断人是否摔倒。该方案存在忘记穿戴、穿戴位置固定和电池续航能力等多方面的限制。环境式方案通过在用户的生活环境中布设多传感器网络,利用声音、震动等环境参数判断人是否发生摔倒,虽然和穿戴式方案相比不需要用户随身穿戴,但是需要对其生活环境进行改造,且系统组成复杂、成本较高。因此发明一种基于视频处理的自适应阈值多目标摔倒检测方法,能够同时对多个目标进行摔倒检测,区分出不同的人是否发生摔倒是十分必要的。
发明内容:
本发明公开一种基于视频处理的自适应阈值多目标摔倒检测方法,该检测方法通过摄像头对人活动的区域进行视频数据的采集,利用摄像头采集到的数据对图像进行运算和分析,将不同的摔倒判定方法融合,实现摔倒阈值的自适应,完成多目标的检测,区分出不同的人摔倒。
为实现上述目的本发明一种基于视频处理的自适应阈值多目标摔倒检测方法所采用的技术方案包括以下步骤:步骤一、进行用户图像信息采集;
通过用户正常活动和摔倒后的图像采集,记录下用户正常活动和摔倒时的最小外接矩形内的人体图像的高宽比、有效面积比和中心变化量;
步骤二、进行摔倒判定方式的融合;
根据人体中心变化量判定人是否有摔倒趋势,然后利用人体图像高宽比和有效面积比对摔倒的敏感程度不同赋予不同权重,得到新的判定参数实现摔倒判定方式的融合;
步骤三、摔倒阈值的自适应,对不同体型用户进行最佳摔倒阈值的设定;
步骤四、实现人体目标摔倒检测;
依据步骤一中采集的用户图像信息和步骤二中摔倒判定方式的融合,并结合步骤三设定的用户最佳摔倒摔倒阈值,实现目标摔倒检测。
优选的:所述的步骤一用户图像信息采集包括该用户目标的检测和图像预处理,通过用户正常活动和摔倒后的图像采集,记录下用户正常活动和摔倒时的最小外接矩形内人体图像的高宽比R1i、有效面积比R2i和中心变化量R3i
Figure BDA0001673516160000021
式(1)中Hi和Wi分别为人体最小外接矩形的高度和宽度;
Figure BDA0001673516160000022
式(2)中S有i和S矩i分别为人体图像像素点面积与人体最小外接矩形的面积;
R3i=y2i-y1i (3)
式(3)中y1i和y2i是相邻帧的目标中心估计坐标,R3i为中心变化量,当R3i为负数时,用户存在摔倒趋势,否则为正常运动或摔倒后的起身。
优选的:所述的图像预处理过程为,首先将采集到的视频图像进行灰度化,对灰度值Y进行计算:
Y=0.299R+0.587G+0.114B (4)
式(4)中R、G、B分别代表RGB格式图像中的红、绿、蓝颜色的数据值;然后将得到灰度图像进行背景减除及去噪,通过当前帧和背景帧做差实现图像中人和背景的分离;最后对背景减除后的图像进行二值化和形态学处理。
优选的:所述的背景减除后的图像进行二值化方法是通过设定一个灰度阈值,图像中高于该阈值的像素点设定为白色,低于该阈值的像素点为黑色,图像二值化公式如下:
Figure BDA0001673516160000023
式(5)中x为图像的当前像素灰度值,K为灰度阈值,P(x)为像素x二值化后的像素值,由于图像二值化后的人体图像存在孔洞,其图像背景也存在噪点,为填充孔洞和去除噪点需要进行形态学处理,依次对图像进行腐蚀和膨胀。
优选的:所述的多目标检测过程为,首先为图像预处理后的每个目标创建一个独立的粒子滤波器,然后计算目标的估计中心,在目标估计中心处创建一个的10×10的正方形沿着图像的(-x,+x,-y,+y)四个方向计算其内部白色像素数量,直到正方形中不再出现白色像素,得到边界点坐标后创建人体目标最小外接矩形,计算人体目标高宽比R1i、有效面积比R2i和目标的中心变化量R3i
优选的:所述的步骤二实现摔倒判定方式的融合方法为,首先根据人体中心变化量判定此人是否有摔倒趋势。
然后利用高宽比和有效面积比对摔倒的敏感程度不同赋予不同权重,得到新的摔倒判定参数Ti实现摔倒判定方式的融合:
Ti=αR1i+βR2i (6)
式(6)中α,β均为正数且α+β=1;
在R3i为负数的条件下对人体高宽比和有效面积比进行权系数分配设定新的摔倒条件参数Ti判定用户是否发生摔倒事件,再经过延迟一段时间t后观察此时的R3i是否为正的同时R3i的当前值是否大于设定的能够起身中心变化量TR判定此人是否真正摔倒。
优选的:所述的延迟时间t的取值范围为:5-25s;能够起身中心变化量TR的大小根据采集到的用户数据进行设定。
优选的:所述的步骤三中,摔倒阀值的自适应,对不同体型用户进行最佳阈值的设定,过程如下:设定用户摔倒阈值区间[Tmin,Tmax]和摔倒阈值参数a;估计一个用户的初始摔倒阈值Tk(Tmin<Tk<Tmax),筛选用户活动过程中在摔倒阈值区间[Tmin,Tmax]的数据,数据总数为n个,小于Tk的值Tj1属于集合C1,C1包含m个元素,大于等于Tk的值Tj2属于集合C2,C2包含n-m个元素;计算集合C1和C2的平均摔倒阈值u1和u2;计算新的摔倒阈值Tk+1,Tk+1=(u1+u2)/2,若|Tk+1-Tk|≤a,则推出Tk+1最佳,否则将Tk+1的值赋给Tk并重复上述过程,直至得到最佳摔倒阈值Tk+1
优选的:所述的平均摔倒阈值u1和u2计算公式如下:
Figure BDA0001673516160000031
式(7)中,u1为小于初始摔倒阈Tk的值Tj1集合C1的平均摔倒阈值,m为集合C1中包含的元素个数,Tj1为小于初始摔倒阈Tk的值的集合C1的元素;
Figure BDA0001673516160000041
式(8)中,u2为大于等于初始摔倒阈Tk的值Tj2集合C2的平均摔倒阈值,n-m为集合C2中包含的元素个数,Tj2为大于等于初始摔倒阈Tk的值的集合C2的元素;
优选的:所述的步骤四中实现人体目标摔倒检测的具体方法为,在步骤一中,以矩形框中心代替人体中心,计算人体中心变化量;
当摔倒检测过程中有连续两帧的最小矩形框的中心变化量为正值时,直接排除摔倒;
当摔倒检测过程中有连续两帧的最小矩形框的中心变化量为负值时,则人体处于两种动作状态:一种是从高到低的俯身运动状态,另一种是摔倒状态,此时进行摔倒判定,具体判定方法是:将步骤二中已经融合的摔倒条件参数Ti与步骤三中自适应之后的摔倒阈值Tk+1进行比较,当融合后的摔倒条件参数Ti小于自适应之后的摔倒阈值Tk+1,做一个延迟处理,判断延迟后视频中矩形框中心变化量的结果是否为正,且中心变化量是否超过用户能够起身的中心变化量TR,若为正且超过TR则说明人体在做一些俯身运动或者摔倒不严重能够起身,若中心变化量不变或者变化很小,则说明人体已经摔倒。
本发明的有益效果是:本发明一种基于视频处理的自适应阈值多目标摔倒检测方法,该方法能够同时对多个目标进行摔倒检测,区分出不同的人是否发生摔倒;在图像处理技术上解决了目前摔倒算法中摔倒阈值固定的弊端,实现了不同用户的摔倒阈值自适应与多目标的检测,将不同的摔倒判定方法融合,实现摔倒阈值的自适应,提高摔倒检测的实时性和准确率,并且在摔倒检测方式上采用视频式摔倒检测方案并结合数字图像处理技术完成人的摔倒检测,克服了穿戴式摔倒检测方案中老人易忘和抵触穿戴的缺点,解决了环境式摔倒检测系统带来的误判率高、价格昂贵和布设不便的难题。
附图说明:
图1为摔倒检测步骤流程图;
图2为用户图像信息采集步骤流程图;
图3为背景减除及去噪步骤流程图;
图4为多目标检测流程图;
图5为摔倒最佳阈值迭代流程图;
图6为基于视频处理的自适应阈值多目标摔倒检测算法流程图。
具体实施方式:
本发明的基于视频处理的自适应阈值多目标摔倒检测方法,参照图1说明,其中用户图像信息的采集是本算法的基础,主要用于采集人的体型特征并进行存储,便于后期区分发生摔倒的人;图像的预处理是将人活动区域的视频图像背景减除后进行去噪,提取出人体目标;多目标检测利用粒子滤波器估计人体目标中心及尺寸,通过最小矩形框对背景减除后的人体目标分别标记,利用数据的匹配区分不同的人;摔倒判定方式的融合是在满足人体中心变化量的条件下将人体高宽比、有效面积比融合成一个新的摔倒判定参数,减少判定环节提高实时性;摔倒阈值的自适应是利用人图像信息进行摔倒阈值的范围划定,在划定的最小摔倒阈值与最大摔倒阈值之间找出最佳的摔倒阈值,将其作为人的摔倒阈值进行摔倒判定,具体过程如下:
1.用户图像信息采集:参照图2说明,用户图像信息采集的目的是估计出用户的摔倒阈值,通过用户正常活动和摔倒后的图像的采集,记录下用户正常活动和摔倒时的最小外接矩形内人体图像的高宽比R1i、有效面积比R2i和中心变化量R3i
Figure BDA0001673516160000051
Figure BDA0001673516160000052
式(1)中Hi和Wi分别为人体最小外接矩形的高度和宽度,式(2)中S有i和S矩i分别为人体图像像素点面积与人体最小外接矩形的面积;
R3i=y2i-y1i (3)
式(3)中y1i和y2i是相邻帧之间的目标中心的估计纵坐标,R3i为中心变化量,当R3i为负数时,用户存在摔倒趋势,否则为正常运动或摔倒后的起身。
2.图像预处理:参照图3说明,图像预处理的目的是将图像中的人体目标从背景中分离,首先将采集到的视频图像进行灰度化,只对灰度值Y进行操作即可,相比RGB图像,数据量将减少,RGB图像转灰度图像如公式4示:
Y=0.299R+0.587G+0.114B (4)
式(4)中R、G、B分别代表RGB格式图像中的红、绿、蓝颜色的数据值;然后将得到灰度图像后进行背景减除及去噪,通过当前帧和背景帧做差实现图像中人和背景的分离,背景减除;
最后对背景减除后的图像进行二值化和形态学处理,图像二值化通过设定一个灰度阈值,图像中高于阈值的像素点设定为白色,低于阈值的为黑色,图像二值化如公式5所示;
Figure BDA0001673516160000061
式(5)中x为图像的当前像素灰度值,K为灰度阈值,P(x)为像素x二值化后的像素值,由于图像二值化后的人体图像存在孔洞,其图像背景也存在噪点,为填充人体图像中的孔洞和去除图像中的噪点需要进行形态学处理,依次对图像进行腐蚀和膨胀。
3.多目标检测:参照图4说明,多目标检测的目的是将预处理后的一个或多个人体图像进行标记,图像预处理后为每个目标创建一个独立的粒子滤波器,然后计算目标的估计中心,在目标估计中心处创建一个的10×10的小正方形沿着图像的(-x,+x,-y,+y)四个方向计算其内部白色像素数量,直到小正方形中不再出现白色像素,得到边界点坐标后创建人体目标最小外接矩形,计算人体目标高宽比、有效面积比和目标的中心变化量。
4.摔倒判定方式融合:虽然引入多种摔倒判定的方式可以降低摔倒检测的误判率,但是使得算法复杂度增加,数据运算量增大,摔倒判定的过程变得复杂,判定方式的相近甚至会造成判定的重复,严重影响算法的实时性和有效性。因此本算法,根据人体中心变化量判定人是否有摔倒趋势,再利用高宽比和有效面积比对摔倒的敏感程度不同赋予不同权重,得到新的判定参数Ti实现摔倒判定方式的融合,如公式6所示:
Ti=αR1i+βR2i (6)
公式(6)中α,β均为正数且α+β=1;
区别于传统算法中多次判定,本算法在中心变化量为负的条件下对人体高宽比和有效面积比进行权系数分配设定新的摔倒条件参数Ti判定用户是否发生摔倒事件,再经过延迟一段时间t后观察此时的R3i是否为正的同时R3i的当前值是否大于设定的能够起身中心变化量TR判定此人是否真正摔倒。
5.摔倒阈值自适应:参照图5说明,由于不同的用户体型特征不同,对应的摔倒阈值会有一定的差别,为了适应不同用户的体型,本算法对阈值的选取采用自适应的方式实现对不同体型用户进行最佳阈值的设定。摔倒最佳阈值迭代过程如下:
(1)设定用户摔倒阈值区间[Tmin,Tmax]和摔倒阈值参数a;
(2)估计一个用户的初始摔倒阈值Tk(Tmin<Tk<Tmax),筛选用户活动过程中在摔倒阈值区间[Tmin,Tmax]的数据,数据总数为n个,小于Tk的值Tj1属于集合C1,C1包含m个元素,大于等于Tk的值Tj2属于集合C2,C2包含n-m个元素;
(3)计算集合C1和C2的平均摔倒阈值u1和u2,如公式7和8所示;
Figure BDA0001673516160000071
Figure BDA0001673516160000072
(4)计算新的摔倒阈值Tk+1,Tk+1=(u1+u2)/2,若|Tk+1-Tk|≤a,则推出Tk+1最佳,否则将Tk+1的值赋给Tk并重复上述过程,直至得到最佳摔倒阈值Tk+1
6.实现人体目标摔倒检测,本发明的基于视频处理的自适应阈值多目标摔倒检测方法,参照图6说明:在图像中提取出人的人体图像后进行水平最小矩形框标记,以矩形框中心代替人体中心,最先计算人体中心变化量,记当前帧为I(n),则前一帧为I(n-1)。
当摔倒检测过程中有连续两帧的最小矩形框的中心变化量R3i为正值时,人一定是处于一种从低到高的起身运动,能够直接排除摔倒;
当摔倒检测过程中有连续两帧的最小矩形框的中心变化量R3i为负值时,人是处于一种从高到低的俯身运动,可以是下蹲,压腿等非摔倒情况,也可以是摔倒,因此要进行进一步的判断,利用融合后的摔倒条件参数Ti是否小于自适应之后的摔倒阈值Tk+1进行进一步的判定,满足条件后再做一个时间t的延迟,判断后续15秒视频中矩形框中心变化量的结果是否为正且中心变化量是否超过用户能够起身的中心变化量TR,若为正且超过TR则说明人在做一些俯身运动或者摔倒不严重能够起身,若中心变化量不变或者变化范围很小,则说明人已经摔倒;
假设有两个或者两个以上人摔倒,由多目标检测出的提取结果分别计算不同矩形框的值,有其中一个满足摔倒即判定为摔倒,由计算的摔倒自适应阈值看出是哪人摔倒。

Claims (9)

1.一种基于视频处理的自适应阈值多目标摔倒检测方法,其特征在于包括以下步骤:
步骤一、进行用户图像信息采集;
通过用户正常活动和摔倒后的图像的采集,记录下用户正常活动和摔倒时的最小外接矩形内人体图像的高宽比、有效面积比和中心变化量;
步骤二、进行摔倒判定方式的融合;
根据人体中心变化量判定人是否有摔倒趋势,然后利用人体图像高宽比和有效面积比对摔倒的敏感程度不同赋予不同权重,得到新的判定参数实现摔倒判定方式的融合;
步骤三、摔倒阈值的自适应,对不同体型用户进行最佳阈值的设定;过程如下:设定用户摔倒阈值区间[Tmin,Tmax]和摔倒阈值参数a;估计一个用户的初始摔倒阈值Tk,Tmin<Tk<Tmax,筛选用户活动过程中在摔倒阈值区间[Tmin,Tmax]的数据,数据总数为n个,小于初始摔倒阈Tk的值Tj1属于集合C1,C1包含m个元素,大于等于初始摔倒阈Tk的值Tj2属于集合C2,C2包含n-m个元素;计算集合C1和C2的平均摔倒阈值u1和u2;计算新的摔倒阈值Tk+1,Tk+1=(u1+u2)/2,若|Tk+1-Tk|≤a,则推出Tk+1最佳,否则将Tk+1的值赋给Tk并重复上述过程,直至得到最佳摔倒阈值Tk+1
步骤四、实现人体目标摔倒检测;
依据步骤一中采集的用户图像信息和步骤二中摔倒判定方式的融合,并结合步骤三设定的用户最佳摔倒阈值,实现目标摔倒检测。
2.根据权利要求1所述的一种基于视频处理的自适应阈值多目标摔倒检测方法,其特征在于:所述的步骤一用户图像信息采集包括该用户目标的检测和图像预处理,通过用户正常活动和摔倒后的图像的采集,记录下用户正常活动和摔倒时的最小外接矩形内的人体图像的高宽比R1i、有效面积比R2i和中心变化量R3i
Figure FDA0003265954730000011
式中H1i和W1i分别为人体最小外接矩形的高度和宽度;
Figure FDA0003265954730000012
式中S有i和S矩i分别为人体图像像素点面积与人体最小外接矩形的面积;
R3i=y2i-y1i (3)
式中y1i和y2i是相邻帧之间的目标中心的估计纵坐标,R3i为中心变化量,当R3i为负数时,用户存在摔倒趋势,否则为正常运动或摔倒后的起身。
3.根据权利要求2所述的一种基于视频处理的自适应阈值多目标摔倒检测方法,其特征在于:所述的图像预处理过程为,首先将采集到的视频图像进行灰度化,对灰度值Y进行计算:
Y=0.299R+0.587G+0.114B (4)
式中R、G、B分别代表RGB格式图像中的红、绿、蓝颜色的数据值;
然后将得到灰度图像进行背景减除及去噪,通过当前帧和背景帧做差实现图像中人和背景的分离;
再对背景减除后的图像进行二值化和形态学处理。
4.根据权利要求3所述的一种基于视频处理的自适应阈值多目标摔倒检测方法,其特征在于:背景减除后的图像进行二值化方法是通过设定一个灰度阈值,图像中高于阈值的像素点设定为白色,低于阈值的为黑色,图像二值化计算公式如下:
Figure FDA0003265954730000021
式中x为图像的当前像素灰度值,K为灰度阈值,P(x)为像素x二值化后的像素值,由于图像二值化后的人体图像存在孔洞,其图像背景也存在噪点,为填充孔洞去除噪点需要进行形态学处理,依次对图像进行腐蚀和膨胀。
5.根据权利要求2所述的一种基于视频处理的自适应阈值多目标摔倒检测方法,其特征在于:所述的多目标检测过程为,首先为图像预处理后的每个目标创建一个独立的粒子滤波器,然后计算目标的估计中心,在目标估计中心处创建一个的10×10的正方形沿着图像的(-x,+x,-y,+y)四个方向计算其内部白色像素数量,直到正方形中不再出现白色像素,得到边界点坐标后创建人体目标最小外接矩形,计算人体目标高宽比R1i、有效面积比R2i和目标的中心变化量R3i
6.根据权利要求1所述的一种基于视频处理的自适应阈值多目标摔倒检测方法,其特征在于:所述的步骤二中实现摔倒判定方式的融合方法为,首先根据人体中心变化量R3i判定人是否有摔倒趋势;
然后利用高宽比和有效面积比对摔倒的敏感程度不同赋予不同权重,得到新的摔倒判定参数Ti实现摔倒判定方式的融合:
Ti=αR1i+βR2i (6)
式中α,β均为正数,且α+β=1。
7.根据权利要求6所述的一种基于视频处理的自适应阈值多目标摔倒检测方法,其特征在于,满足摔倒判定后的延迟时间t的取值范围为:5-25s。
8.根据权利要求7所述的一种基于视频处理的自适应阈值多目标摔倒检测方法,其特征在于:所述的平均摔倒阈值u1和u2计算公式如下:
Figure FDA0003265954730000031
式中,u1为小于初始摔倒阈Tk的值Tj1集合C1的平均摔倒阈值,m为集合C1中包含的元素个数,Tj1为小于初始摔倒阈Tk的值Tj1集合C1
Figure FDA0003265954730000032
式中,u2为大于等于初始摔倒阈Tk的值Tj2集合C2的平均摔倒阈值,n-m为集合C2中包含的元素个数,Tj2为大于等于初始摔倒阈Tk的值的集合C2
9.根据权利要求8所述的一种基于视频处理的自适应阈值多目标摔倒检测方法,其特征在于:步骤四中实现人体目标摔倒检测的具体方法为,在步骤一中,以矩形框中心代替人体中心,计算人体中心变化量;
当摔倒检测过程中有连续两帧的最小矩形框的中心变化量为正值时,直接排除摔倒;
当摔倒检测过程中有连续两帧的最小矩形框的中心变化量为负值时,则人体处于两种动作状态:一种是从高到低的俯身运动状态,另一种是摔倒状态,此时进行摔倒判定,具体判定方法是:将步骤二中已经融合的摔倒条件参数Ti与步骤三中自适应之后的摔倒阈值Tk+1进行比较,当融合后的摔倒条件参数Ti小于自适应之后的摔倒阈值Tk+1,做一个延迟时间t的确认摔倒处理,判断延迟后视频中矩形框中心变化量的结果是否为正,且中心变化量是否超过用户能够起身的中心变化量TR,若为正且超过TR则说明人体在做一些俯身运动或者摔倒不严重能够起身,若中心变化量不变或者变化很小,则说明人体已经摔倒。
CN201810519929.3A 2018-05-25 2018-05-25 一种基于视频处理的自适应阈值多目标摔倒检测方法 Expired - Fee Related CN108764131B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810519929.3A CN108764131B (zh) 2018-05-25 2018-05-25 一种基于视频处理的自适应阈值多目标摔倒检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810519929.3A CN108764131B (zh) 2018-05-25 2018-05-25 一种基于视频处理的自适应阈值多目标摔倒检测方法

Publications (2)

Publication Number Publication Date
CN108764131A CN108764131A (zh) 2018-11-06
CN108764131B true CN108764131B (zh) 2021-11-30

Family

ID=64006078

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810519929.3A Expired - Fee Related CN108764131B (zh) 2018-05-25 2018-05-25 一种基于视频处理的自适应阈值多目标摔倒检测方法

Country Status (1)

Country Link
CN (1) CN108764131B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111047828A (zh) * 2019-12-12 2020-04-21 天地伟业技术有限公司 家庭智能安防报警系统
CN112819855A (zh) * 2020-12-31 2021-05-18 广州紫川电子科技有限公司 基于养老院的人员摔倒检测方法、设备及介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103186902A (zh) * 2011-12-29 2013-07-03 爱思开电讯投资(中国)有限公司 基于视频的摔倒检测方法和设备
CN103903281A (zh) * 2014-04-04 2014-07-02 西北工业大学 一种基于多特征分析和场景学习的老人摔倒检测方法
CN104636756A (zh) * 2015-02-06 2015-05-20 哈尔滨工业大学深圳研究生院 一种用于家庭老人监护的姿态识别方法
KR101760327B1 (ko) * 2016-04-18 2017-07-21 조선대학교산학협력단 카메라를 이용한 낙상 검출방법
CN107292913A (zh) * 2017-06-12 2017-10-24 大连海事大学 一种基于视频的多阶段摔倒检测算法
CN107316438A (zh) * 2017-02-27 2017-11-03 哈尔滨理工大学 一种能自动检测独居老人摔倒的智能灯

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5508031B2 (ja) * 2010-01-06 2014-05-28 キヤノン株式会社 画像処理装置および画像処理方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103186902A (zh) * 2011-12-29 2013-07-03 爱思开电讯投资(中国)有限公司 基于视频的摔倒检测方法和设备
CN103903281A (zh) * 2014-04-04 2014-07-02 西北工业大学 一种基于多特征分析和场景学习的老人摔倒检测方法
CN104636756A (zh) * 2015-02-06 2015-05-20 哈尔滨工业大学深圳研究生院 一种用于家庭老人监护的姿态识别方法
KR101760327B1 (ko) * 2016-04-18 2017-07-21 조선대학교산학협력단 카메라를 이용한 낙상 검출방법
CN107316438A (zh) * 2017-02-27 2017-11-03 哈尔滨理工大学 一种能自动检测独居老人摔倒的智能灯
CN107292913A (zh) * 2017-06-12 2017-10-24 大连海事大学 一种基于视频的多阶段摔倒检测算法

Also Published As

Publication number Publication date
CN108764131A (zh) 2018-11-06

Similar Documents

Publication Publication Date Title
CN103369209B (zh) 视频降噪装置及方法
Yang et al. Research on a skin color detection algorithm based on self-adaptive skin color model
CN104899866B (zh) 一种智能化的红外小目标检测方法
CN109215010B (zh) 一种图像质量判断的方法及机器人人脸识别系统
JP2004348674A (ja) 領域検出方法及びその装置
TW201019268A (en) Method for detecting shadow of object
CN108764131B (zh) 一种基于视频处理的自适应阈值多目标摔倒检测方法
JP2010003177A (ja) 画像処理装置
JP5004181B2 (ja) 領域識別装置およびコンテンツ識別装置
CN105184771A (zh) 一种自适应运动目标检测系统及检测方法
CN113409360A (zh) 高空抛物检测方法和装置、设备及计算机存储介质
CN106778704A (zh) 一种人脸识别匹配方法及半自动化人脸匹配系统
CN108549872B (zh) 一种适用于重定向图像质量评估的视觉注意融合方法
TW201032180A (en) Method and device for keeping image background by multiple gauss models
CN115239729A (zh) 一种基于直方图均衡化的新型建筑木材缺陷检测方法
CN108765463A (zh) 一种结合区域提取与改进纹理特征的运动目标检测方法
JP4697923B2 (ja) 水中または水面における移動体の計数システムおよび計数方法
CN106778631B (zh) 一种虹膜识别预处理过程中快速滤除伪造虹膜的异质虹膜分类器设计方法
CN116385435B (zh) 基于图像分割的制药胶囊计数方法
CN107832728A (zh) 一种基于视频的审判员打电话行为识别方法
CN113011399A (zh) 基于生成协同判别网络的视频异常事件检测方法及系统
CN113096103A (zh) 一种面向放空火炬的烟气智能影像感知方法
KR100696725B1 (ko) 객체의 대칭성과 거리 벡터를 사용한 그림자 제거방법
CN102542304B (zh) 识别wap手机色情图像的区域分割肤色算法
CN110866470A (zh) 一种基于随机图像特征的人脸防伪检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20211130

CF01 Termination of patent right due to non-payment of annual fee