CN107644218B - 基于图像采集功能实现人流密集区域行为分析判断的工作方法 - Google Patents
基于图像采集功能实现人流密集区域行为分析判断的工作方法 Download PDFInfo
- Publication number
- CN107644218B CN107644218B CN201710910595.8A CN201710910595A CN107644218B CN 107644218 B CN107644218 B CN 107644218B CN 201710910595 A CN201710910595 A CN 201710910595A CN 107644218 B CN107644218 B CN 107644218B
- Authority
- CN
- China
- Prior art keywords
- image
- human body
- face
- value
- face characteristic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Abstract
本发明提出了一种基于图像采集功能实现人流密集区域行为分析判断的工作方法,包括如下步骤:S1,通过图像采集模块对密集人群中人体特征图像和人脸特征图像分别进行采集,建立初始判筛选断模型,从而提炼出进入人流密集区域的人员属性;S2,根据初始筛选判断模型对人体特征图像和人脸特征图像进行判断后,将离开人流密集区域的人员进行再次匹配采集,通过分类器区分出相应密集人群所到达的区域或者离开的相应节点,从而推送给终端。
Description
技术领域
本发明涉及大数据分析领域,尤其涉及一种基于图像采集功能实现人流密集区域行为分析判断的工作方法。
背景技术
当今社会人员交流频繁,在商场、车站、机场等人流密集区域会有大量的视频监视设备,但是仅用于对密集区域进行单纯的图像采集,没有对图像进行后续的归类以及判别,但是由于社会生活中人流密集复杂,需要对出入人流密集区域的人员和场所进行合理规划,采取相应的管理和配置,从而使人流密集区域的餐饮、接驳交通以及出入口能够合理配置,当获取大量图像特征信息之后,现有技术无法对其进行归类或者归类不准确,造成后期进行人流密集区域划分时,无法提供数据样本参考,即使提供了参考样本并不能将人流密集区域初始状态和结果状态进行相关度匹配,这就亟需本领域技术人员解决相应的技术问题。
发明内容
本发明旨在至少解决现有技术中存在的技术问题,特别创新地提出了一种基于图像采集功能实现人流密集区域行为分析判断的工作方法。
为了实现本发明的上述目的,本发明提供了一种基于图像采集功能实现人流密集区域行为分析判断的工作方法,包括:
S1,通过图像采集模块对密集人群中人体特征图像和人脸特征图像分别进行采集,建立初始判筛选断模型,从而提炼出进入人流密集区域的人员属性;
S2,根据初始筛选判断模型对人体特征图像和人脸特征图像进行判断后,将离开人流密集区域的人员进行再次匹配采集,通过分类器区分出相应密集人群所到达的区域或者离开的相应节点,从而推送给终端。
所述的基于图像采集功能实现人流密集区域行为分析判断的工作方法,优选的,所述S1包括:
S1-1,假设同一用户进入人流密集区域都为新用户,其中如果包括服务人员或者频繁进出的人员,在这个模型中并不考虑,因为采集足够多的样本之后,服务人员或者频繁进出的人员的数量可以忽略不计,从人流密集区域离开则设定为相应人员认证结束,通过获取图像采集模块的图像信息对图像中的人体特征图像和人脸特征图像进行判断,设置图像数据信息坐标[x,y]进行图像获取,将坐标[x,y]作为图像的基础点,根据坐标[x,y]为原点分别设置扫描权重
其中p为图像中的人数获取因子,对[x,y]坐标的四个方位进行开平方运算,n为正整数,nvalid为获取的有效人数判定阈值,h(i,j)为一个方位中获取的人体特征图像i和人脸特征图像j的个数,
S1-2,设一个方位中所获取的人体特征图像权值向量为 bi=A(c-w)×(cw),A是人体基础特征c和手带物品特征w的出现概率值, cw为人体基础特征和手带物品特征共同出现的定义值;获取一个方位人脸特征图像权值向量为fj=B×(C·T),B是获取人脸特征概率值,C为人脸表情特征集合,T为人脸识别成功的单位区域的统计系数;其中 C={smile,openmouth,downhead,uphead,weeping,halfface}
S1-3,保证获取信息的稳定性,根据bi和fj的向量值选取多区域的样本进行计算,然后通过初步筛选公式对图像进行初步筛选,其中,λ4为图像中全方位第i个人体特征图像的第j个人脸表情集合的计算参数,β4为图像中全方位第i个人体特征图像的第j个人脸表情集合的匹配参数,Li,j为图像中的人员总体出现次数,Qi,j为图像中初步筛选过程中的人流密集区域的条件概率值,σ2(i,j)为人流密集区域人员密集程度的判断极值参数,Pi,j为人流密集区域的历史人员统计数值;
S1-4,通过上述初筛判断之后,对图像特征进行归类判断,将不同人脸表情特征集合C的图像数据进行模型判断;提取有效人体特征图像的直方图,构造纹理信息,获取人连表情特征集合中每个属性值,
微笑属性值Csmile=Σjj·δxj·δyj,其中δxj和δyj分别为X轴微笑特征因子和Y轴特征因子;
张嘴属性值Copenmouth=Σjj·τxjτyj,其中τxj和τyj分别为X轴张嘴特征因子和Y轴张嘴特征因子;
低头属性值Cdownhead=Σjj·βxjβyj,其中βxj和βyj分别为X轴低头特征因子和Y轴低头特征因子;
抬头属性值Cuphead=Σjj·εxj·εyj,其中εxj和δyjε分别为X轴抬头特征因子和Y轴抬头特征因子;
哭泣属性值其中和分别为X轴哭泣特征因子和Y轴哭泣特征因子;
侧脸属性值Chalfface=∑jj·μxj·μyj,其中μxj和μyj分别为X轴侧脸特征因子和Y轴侧脸特征因子;
对初筛重复执行,直到产生的重复率上升后,结束S1-1至S1-3的步骤;
所述的基于图像采集功能实现人流密集区域行为分析判断的工作方法,优选的,所述S2包括:
S2-1,将整个人流密集区域图像数据进行划分,形成监视窗序列对 (M1,M2),(M2,M3),...,(Mn-1,Mn);定位人体特征图像的手持物体边界,从视频图像最初帧头部开始;定位某个人体特征图像的接入边界,从视频图像尾部搜寻该人体特征图像所出现的人流密集区域的相应位置,并且判断该人体特征图像出现的位置,停留的时间,以及是否购物或者手持物品;
S2-2,通过对监视窗序列对进行比对抓取,判断前后视频帧一个人体特征图像和人脸特征图像的变化度
其中,其中|Ei,jLn+Ei,jMn|是查询待匹配特征Ln和监视窗图像Mn的相似度, E代表人流密集区域匹配图像数量,S代表影响人体特征图像和人脸特征图像的干扰集合,s、t为正整数,s、t的取值不同,其最小取值是1,最大取值为匹配图像特征图中匹配的人体特征图像和人脸特征图像个数;ωi,j为人脸表情特征集合C匹配相关度总次数的权重,Ki为人流密集区域进行人体特征图像错误匹配的惩罚因子,z和d分别代表人体特征图像的收集集合和人体特征图像下一监视窗的收集集合,
将该变化度与相应的图像采集模块所处的人流密集区域位置进行信息匹配,得到人流密集区域位置与变化度的正相关条件函数
其中,Y(x,y)和Z(x,y)分别表示人体特征图像和人脸特征图像坐标点(x,y) 间缺失的相互作用关系,ηi和σj分别表示人体特征图像判断阈值和人脸特征图像判断阈值,其为开区间(0,1)内的正数,rx,y表示对坐标(x,y)位置处的人体特征图像和人脸特征图像相似度判断因子,
S2-3,依据定义每个个体的人体特征图像和人脸特征图像之间关联关系,按照关联关系给查询相关度和数据相关度排序,产生不同相关度等级的非支配个体集合,依据人体特征图像和人脸特征图像等级内非支配个体数目、序号等级的从相关度小到大顺序,如果在每个人流密集区域的出口没有匹配到具有人体特征图像和人脸特征图像任一特征的相关度图像,执行步骤S2-1,如果相应的人流密集区域位置获取相关度图像并在相应位置进行特征标记,执行步骤 S2-4;
S2-4,设置人流密集区域日志,根据用户需求提取该人流密集区域的属性信息,进行相似度计算,利用人体特征图相似度计算查询相似度,利用人脸特征图像相似度计算查询相似度,直至日志相似度与查询相似度收敛;通过采用匹配权重α来平衡默认的人体特征图像和人脸特征图像相关度和用户定义相关度衡量结果值
D[i,j]=max Fi,j(1-α)·P(i,j)+α·P(i,j,rx,y)+min Fi,j
其中,max Fi,j人体特征图像和人脸特征图像的变化度的最大值, min Fi,j人体特征图像和人脸特征图像的变化度的最小值,P(i,j)为人流密集区域初始判断决策值,P(i,j,rx,y)为人流密集区域结果判断决策值, rx,y表示对坐标(x,y)位置处的人体特征图像和人脸特征图像相似度判断因子,其中初始判断决策值是根据历史特征图像数据进行密集区域的初始判断,对于结果判断决策值是通过S2-1至S2-4判断之后进行优化后的判断决策值。
综上所述,由于采用了上述技术方案,本发明的有益效果是:
本发明通过对图像进行采集之后,根据人员的面部信息以及进出人流密集区域的体形和穿戴差异进行了分类,从而能够将该人流密集区域的相应配套设施进行完善,通过该分类器模型进行分类,耗费系统资源小,节省了时间开销,而且将人流密集区域人员的初始状态和结果状态进行相关度匹配,从而为人流密集区域提供了合理的配置方案,有利于人员疏导以及人员分流。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1是本发明总体示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
在本发明的描述中,需要理解的是,术语“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
在本发明的描述中,除非另有规定和限定,需要说明的是,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是机械连接或电连接,也可以是两个元件内部的连通,可以是直接相连,也可以通过中间媒介间接相连,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
如图1所示,本发明方法包括如下步骤:
S1,通过图像采集模块对密集人群中人体特征图像和人脸特征图像分别进行采集,建立初始判筛选断模型,从而提炼出进入人流密集区域的人员属性;
S2,根据初始筛选判断模型对人体特征图像和人脸特征图像进行判断后,将离开人流密集区域的人员进行再次匹配采集,通过分类器区分出相应密集人群所到达的区域或者离开的相应节点,从而推送给终端。
S1-1,假设同一用户进入人流密集区域都为新用户,其中如果包括服务人员或者频繁进出的人员,在这个模型中并不考虑,因为采集足够多的样本之后,服务人员或者频繁进出的人员的数量可以忽略不计,从人流密集区域离开则设定为相应人员认证结束,通过获取图像采集模块的图像信息对图像中的人体特征图像和人脸特征图像进行判断,设置图像数据信息坐标[x,y]进行图像获取,将坐标[x,y]作为图像的基础点,根据坐标[x,y]为原点分别设置扫描权重
其中p为图像中的人数获取因子,对[x,y]坐标的四个方位进行开平方运算,n为正整数,nvalid为获取的有效人数判定阈值,h(i,j)为一个方位中获取的人体特征图像i和人脸特征图像j的个数,
S1-2,设一个方位中所获取的人体特征图像权值向量为 bi=A(c-w)×(cw),A是人体基础特征c和手带物品特征w的出现概率值, cw为人体基础特征和手带物品特征共同出现的定义值;获取一个方位人脸特征图像权值向量为fj=B×(C·T),B是获取人脸特征概率值,C为人脸表情特征集合,T为人脸识别成功的单位区域的统计系数;其中 C={smile,openmouth,downhead,uphead,weeping,halfface}
S1-3,保证获取信息的稳定性,根据bi和fj的向量值选取多区域的样本进行计算,然后通过初步筛选公式对图像进行初步筛选,其中,λ4为图像中全方位第i个人体特征图像的第j个人脸表情集合的计算参数,β4为图像中全方位第i个人体特征图像的第j个人脸表情集合的匹配参数,Li,j为图像中的人员总体出现次数,Qi,j为图像中初步筛选过程中的人流密集区域的条件概率值,σ2(i,j)为人流密集区域人员密集程度的判断极值参数,Pi,j为人流密集区域的历史人员统计数值;
S1-4,通过上述初筛判断之后,对图像特征进行归类判断,将不同人脸表情特征集合C的图像数据进行模型判断;提取有效人体特征图像的直方图,构造纹理信息,获取人连表情特征集合中每个属性值,
微笑属性值Csmile=∑jj·δxj·δyj,其中δxj和δyj分别为X轴微笑特征因子和Y轴特征因子;
张嘴属性值Copenmouth=∑jj·τxjτyj,其中τxj和τyj分别为X轴张嘴特征因子和Y轴张嘴特征因子;
低头属性值Cdownhead=Σjj·βxjβyj,其中βxj和βyj分别为X轴低头特征因子和Y轴低头特征因子;
抬头属性值Cuphead=Σjj·εxj·εyj,其中εxj和δyjε分别为X轴抬头特征因子和Y轴抬头特征因子;
哭泣属性值其中和分别为X轴哭泣特征因子和Y轴哭泣特征因子;
侧脸属性值Chalfface=∑jj·μxj·μyj,其中μxj和μyj分别为X轴侧脸特征因子和Y轴侧脸特征因子;
对初筛重复执行,直到产生的重复率上升后,结束S1-1至S1-3的步骤;
S2-1,将整个人流密集区域图像数据进行划分,形成监视窗序列对 (M1,M2),(M2,M3),...,(Mn-1,Mn);定位人体特征图像的手持物体边界,从视频图像最初帧头部开始;定位某个人体特征图像的接入边界,从视频图像尾部搜寻该人体特征图像所出现的人流密集区域的相应位置,并且判断该人体特征图像出现的位置,停留的时间,以及是否购物或者手持物品;
S2-2,通过对监视窗序列对进行比对抓取,判断前后视频帧一个人体特征图像和人脸特征图像的变化度
其中,其中|Ei,jLn+Ei,jMn|是查询待匹配特征Ln和监视窗图像Mn的相似度,E代表人流密集区域匹配图像数量,S代表影响人体特征图像和人脸特征图像的干扰集合,s、t为正整数,s、t的取值不同,其最小取值是1,最大取值为匹配图像特征图中匹配的人体特征图像和人脸特征图像个数;ωi,j为人脸表情特征集合C匹配相关度总次数的权重,Ki为人流密集区域进行人体特征图像错误匹配的惩罚因子,z和d分别代表人体特征图像的收集集合和人体特征图像下一监视窗的收集集合,
将该变化度与相应的图像采集模块所处的人流密集区域位置进行信息匹配,得到人流密集区域位置与变化度的正相关条件函数
其中,Y(x,y)和Z(x,y)分别表示人体特征图像和人脸特征图像坐标点(x,y)间缺失的相互作用关系,ηi和σj分别表示人体特征图像判断阈值和人脸特征图像判断阈值,其为开区间(0,1)内的正数,rx,y表示对坐标(x,y)位置处的人体特征图像和人脸特征图像相似度判断因子,
S2-3,依据定义每个个体的人体特征图像和人脸特征图像之间关联关系,按照关联关系给查询相关度和数据相关度排序,产生不同相关度等级的非支配个体集合,依据人体特征图像和人脸特征图像等级内非支配个体数目、序号等级的从相关度小到大顺序,如果在每个人流密集区域的出口没有匹配到具有人体特征图像和人脸特征图像任一特征的相关度图像,执行步骤S2-1,如果相应的人流密集区域位置获取相关度图像并在相应位置进行特征标记,执行步骤 S2-4;
S2-4,设置人流密集区域日志,根据用户需求提取该人流密集区域的属性信息,进行相似度计算,利用人体特征图相似度计算查询相似度,利用人脸特征图像相似度计算查询相似度,直至日志相似度与查询相似度收敛;通过采用匹配权重α来平衡默认的人体特征图像和人脸特征图像相关度和用户定义相关度衡量结果值
D[i,j]=max Fi,j(1-α)·P(i,j)+α·P(i,j,rx,y)+min Fi,j其中,max Fi,j人体特征图像和人脸特征图像的变化度的最大值,min Fi,j人体特征图像和人脸特征图像的变化度的最小值,P(i,j)为人流密集区域初始判断决策值,P(i,j,rx,y)为人流密集区域结果判断决策值,rx,y表示对坐标(x,y)位置处的人体特征图像和人脸特征图像相似度判断因子,其中初始判断决策值是根据历史特征图像数据进行密集区域的初始判断,对于结果判断决策值是通过S2-1至S2-4判断之后进行优化后的判断决策值。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。
Claims (2)
1.一种基于图像采集功能实现人流密集区域行为分析判断的工作方法,其特征在于,包括如下步骤:
S1,通过图像采集模块对密集人群中人体特征图像和人脸特征图像分别进行采集,建立初步筛选模型,从而提炼出进入人流密集区域的人员属性;
所述S1包括:
S1-1,假设同一用户进入人流密集区域都为新用户,其中如果包括服务人员或者频繁进出的人员,在这个模型中并不考虑,因为采集足够多的样本之后,服务人员或者频繁进出的人员的数量可以忽略不计,从人流密集区域离开则设定为相应人员认证结束,通过获取图像采集模块的图像信息对图像中的人体特征图像和人脸特征图像进行判断,设置图像数据信息坐标(x,y)进行图像获取,将坐标(x,y)作为图像的基础点,根据坐标(x,y)为原点分别设置扫描权重
其中p为图像中的人数获取因子,对(x,y)坐标的四个方位进行开平方运算,n为正整数,nvalid为获取的有效人数判定阈值,h(i,j)为一个方位中获取的人体特征图像i和人脸特征图像j的个数,
S1-2,设一个方位中所获取的人体特征图像权值向量为bi=A(c-w)×(cw),A是人体基础特征c和手带物品特征w的出现概率值,cw为人体基础特征和手带物品特征共同出现的定义值;获取一个方位人脸特征图像权值向量为fj=B×(C·T),B是获取人脸特征概率值,C为人脸表情特征集合,T为人脸识别成功的单位区域的统计系数;其中C={smile,openmouth,downhead,uphead,weeping,halfface}
S1-3,保证获取信息的稳定性,根据bi和fj的向量值选取多区域的样本进行计算,然后通过初步筛选公式对图像进行初步筛选,其中,λ4为图像中全方位第i个人体特征图像的第j个人脸表情集合的计算参数,β4为图像中全方位第i个人体特征图像的第j个人脸表情集合的匹配参数,Li,j为图像中的人员总体出现次数,Qi,j为图像中初步筛选过程中的人流密集区域的条件概率值,σ2(i,j)为人流密集区域人员密集程度的判断极值参数,Pi,j为人流密集区域的历史人员统计数值;
S1-4,通过上述初步筛选之后,对图像特征进行归类判断,将不同人脸表情特征集合C的图像数据进行模型判断;提取有效人体特征图像的直方图,构造纹理信息,获取人脸表情特征集合中每个属性值,
微笑属性值Csmile=∑jj·δxj·δyj,其中δxj和δyj分别为X轴微笑特征因子和Y轴特征因子;
张嘴属性值Copenmouth=∑jj·τxjτyj,其中τxj和τyj分别为X轴张嘴特征因子和Y轴张嘴特征因子;
低头属性值Cdownhead=∑jj·βxjβyj,其中βxj和βyj分别为X轴低头特征因子和Y轴低头特征因子;
抬头属性值Cuphead=∑jj·εxj·εyj,其中εxj和δyjε分别为X轴抬头特征因子和Y轴抬头特征因子;
哭泣属性值其中和分别为X轴哭泣特征因子和Y轴哭泣特征因子;
侧脸属性值Chalfface=∑jj·μxj·μyj,其中μxj和μyj分别为X轴侧脸特征因子和Y轴侧脸特征因子;
对初步筛选重复执行,直到产生的重复率上升后,结束S1-1至S1-3的步骤;
S2,根据初步筛选模型对人体特征图像和人脸特征图像进行判断后,将离开人流密集区域的人员进行再次匹配采集,通过分类器区分出相应密集人群所到达的区域或者离开的相应节点,从而推送给终端。
2.根据权利要求1所述的基于图像采集功能实现人流密集区域行为分析判断的工作方法,其特征在于,所述S2包括:
S2-1,将整个人流密集区域图像数据进行划分,形成监视窗序列对(M1,M2),(M2,M3),...,(Mn-1,Mn);定位人体特征图像的手持物体边界,从视频图像最初帧头部开始;定位某个人体特征图像的接入边界,从视频图像尾部搜寻该人体特征图像所出现的人流密集区域的相应位置,并且判断该人体特征图像出现的位置,停留的时间,以及是否购物或者手持物品;
S2-2,通过对监视窗序列对进行比对抓取,判断前后视频帧一个人体特征图像和人脸特征图像的变化度
其中,其中|Ei,jLn+Ei,jMn|是查询待匹配特征Ln和监视窗图像Mn的相似度,E代表人流密集区域匹配图像数量,S代表影响人体特征图像和人脸特征图像的干扰集合,s、t为正整数,s、t的取值不同,其最小取值是1,最大取值为匹配图像特征图中匹配的人体特征图像和人脸特征图像个数;ωi,j为人脸表情特征集合C匹配相关度总次数的权重,Ki为人流密集区域进行人体特征图像错误匹配的惩罚因子,z和d分别代表人体特征图像的收集集合和人体特征图像下一监视窗的收集集合,
将该变化度与相应的图像采集模块所处的人流密集区域位置进行信息匹配,得到人流密集区域位置与变化度的正相关条件函数
其中,Y(x,y)和Z(x,y)分别表示人体特征图像和人脸特征图像数据信息坐标(x,y)间缺失的相互作用关系,ηi和σj分别表示人体特征图像判断阈值和人脸特征图像判断阈值,其为开区间(0,1)内的正数,rx,y表示对坐标(x,y)位置处的人体特征图像和人脸特征图像相似度判断因子;
S2-3,依据定义每个个体的人体特征图像和人脸特征图像之间关联关系,按照关联关系给查询相关度和数据相关度排序,产生不同相关度等级的非支配个体集合,依据人体特征图像和人脸特征图像等级内非支配个体数目、序号等级的从相关度小到大顺序,如果在每个人流密集区域的出口没有匹配到具有人体特征图像和人脸特征图像任一特征的相关度图像,执行步骤S2-1,如果相应的人流密集区域位置获取相关度图像并在相应位置进行特征标记,执行步骤S2-4;
S2-4,设置人流密集区域日志,根据用户需求提取该人流密集区域的属性信息,进行相似度计算,利用人体特征图相似度计算查询相似度,利用人脸特征图像相似度计算查询相似度,直至日志相似度与查询相似度收敛;通过采用匹配权重α来平衡默认的人体特征图像和人脸特征图像相关度和用户定义相关度衡量结果值
D[i,j]=maxFi,j(1-α)·P(i,j)+α·P(i,j,rx,y)+minFi,j
其中,maxFi,j为人体特征图像和人脸特征图像的变化度的最大值,minFi,j为人体特征图像和人脸特征图像的变化度的最小值,P(i,j)为人流密集区域初步筛选决策值,P(i,j,rx,y)为人流密集区域结果判断决策值,rx,y表示对坐标(x,y)位置处的人体特征图像和人脸特征图像相似度判断因子,其中初步筛选决策值是根据历史特征图像数据进行密集区域的初步筛选,对于结果判断决策值是通过S2-1至S2-4判断之后进行优化后的判断决策值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710910595.8A CN107644218B (zh) | 2017-09-29 | 2017-09-29 | 基于图像采集功能实现人流密集区域行为分析判断的工作方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710910595.8A CN107644218B (zh) | 2017-09-29 | 2017-09-29 | 基于图像采集功能实现人流密集区域行为分析判断的工作方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107644218A CN107644218A (zh) | 2018-01-30 |
CN107644218B true CN107644218B (zh) | 2018-12-28 |
Family
ID=61122975
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710910595.8A Expired - Fee Related CN107644218B (zh) | 2017-09-29 | 2017-09-29 | 基于图像采集功能实现人流密集区域行为分析判断的工作方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107644218B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108509994B (zh) * | 2018-03-30 | 2022-04-12 | 百度在线网络技术(北京)有限公司 | 人物图像聚类方法和装置 |
CN108564638B (zh) * | 2018-04-20 | 2020-07-10 | 京东方科技集团股份有限公司 | 一种基于地理图像学确定人流热区的方法和装置 |
CN109214548A (zh) * | 2018-07-27 | 2019-01-15 | 北京三快在线科技有限公司 | 一种订单准备时间的预测方法及装置 |
CN111339809A (zh) * | 2018-12-20 | 2020-06-26 | 深圳市鸿合创新信息技术有限责任公司 | 一种课堂行为分析方法及装置、电子设备 |
CN112580397A (zh) * | 2019-09-29 | 2021-03-30 | 北京市商汤科技开发有限公司 | 数据处理方法、装置及存储介质 |
JP2022503373A (ja) | 2019-09-29 | 2022-01-12 | 北京市商▲湯▼科技▲開▼▲發▼有限公司 | データ処理方法、装置及び記憶媒体 |
CN111523513B (zh) * | 2020-05-09 | 2023-08-18 | 深圳市华百安智能技术有限公司 | 通过大数据筛选进行人员入户安全验证的工作方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160086015A1 (en) * | 2007-01-09 | 2016-03-24 | Si Corporation | Method and system for automated face detection and recognition |
CN106384078A (zh) * | 2016-08-31 | 2017-02-08 | 重庆云库房物联科技有限公司 | 一种基于红外阵列的人流行为分析系统及人流行为分析方法 |
CN106599867A (zh) * | 2016-12-22 | 2017-04-26 | 中国科学院上海高等研究院 | 密集客流异常行为检测方法 |
-
2017
- 2017-09-29 CN CN201710910595.8A patent/CN107644218B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160086015A1 (en) * | 2007-01-09 | 2016-03-24 | Si Corporation | Method and system for automated face detection and recognition |
CN106384078A (zh) * | 2016-08-31 | 2017-02-08 | 重庆云库房物联科技有限公司 | 一种基于红外阵列的人流行为分析系统及人流行为分析方法 |
CN106599867A (zh) * | 2016-12-22 | 2017-04-26 | 中国科学院上海高等研究院 | 密集客流异常行为检测方法 |
Non-Patent Citations (1)
Title |
---|
基于群集动力学模型的密集场所人群疏散问题研究;孙立 等;《安全与环境学报》;20071025;第7卷(第5期);第124-127页 * |
Also Published As
Publication number | Publication date |
---|---|
CN107644218A (zh) | 2018-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107644218B (zh) | 基于图像采集功能实现人流密集区域行为分析判断的工作方法 | |
CN109522793B (zh) | 基于机器视觉的多人异常行为检测与识别方法 | |
CN109711281B (zh) | 一种基于深度学习的行人重识别与特征识别融合方法 | |
CN106897670B (zh) | 一种基于计算机视觉的快递暴力分拣识别方法 | |
CN103824059B (zh) | 一种基于视频图像序列的人脸表情识别方法 | |
CN107368798B (zh) | 一种基于深度学习的人群情绪识别方法 | |
CN100464332C (zh) | 一种图片查询方法及系统 | |
CN109934176A (zh) | 行人识别系统、识别方法及计算机可读存储介质 | |
CN104036236B (zh) | 一种基于多参数指数加权的人脸性别识别方法 | |
CN110119656A (zh) | 作业现场违章人员的智能监控系统及现场违章监控方法 | |
CN107977671A (zh) | 一种基于多任务卷积神经网络的舌象分类方法 | |
CN106778684A (zh) | 深度神经网络训练方法及人脸识别方法 | |
CN101587485B (zh) | 一种基于人脸识别技术的人脸信息自动登录方法 | |
CN107085715A (zh) | 一种电视智能检测用户睡眠状态的系统及方法 | |
CN108205661A (zh) | 一种基于深度学习的atm机异常人脸检测方法 | |
CN110781829A (zh) | 一种轻量级深度学习的智慧营业厅人脸识别方法 | |
CN107341688A (zh) | 一种客户体验的采集方法及系统 | |
CN110532970A (zh) | 人脸2d图像的年龄性别属性分析方法、系统、设备和介质 | |
CN106874929B (zh) | 一种基于深度学习的珍珠分类方法 | |
CN106682578A (zh) | 基于眨眼检测的人脸识别方法 | |
CN108762503A (zh) | 一种基于多模态数据采集的人机交互系统 | |
CN107590427A (zh) | 基于时空兴趣点降噪的监控视频异常事件检测方法 | |
CN110533100A (zh) | 一种基于机器学习进行cme检测和跟踪的方法 | |
CN107330412A (zh) | 一种基于深度稀疏表示的人脸年龄估计方法 | |
CN109903053A (zh) | 一种基于传感器数据进行行为识别的反欺诈方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20181109 Address after: 510630 Room 201, 2nd Floor, Building C, 89 Zhongshan Avenue West, Tianhe District, Guangzhou City, Guangdong Province Applicant after: Guangzhou hat rises communication Science and Technology Ltd. Address before: 402160 27-6 6 Xinglong Avenue, Yongchuan District, Chongqing, 27-6. Applicant before: CHONGQING ZHIQUAN ZHILU TECHNOLOGY CO.,LTD. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20181228 Termination date: 20210929 |
|
CF01 | Termination of patent right due to non-payment of annual fee |