CN112001354B - 一种基于模糊推理的人群情绪识别方法 - Google Patents
一种基于模糊推理的人群情绪识别方法 Download PDFInfo
- Publication number
- CN112001354B CN112001354B CN202010916305.2A CN202010916305A CN112001354B CN 112001354 B CN112001354 B CN 112001354B CN 202010916305 A CN202010916305 A CN 202010916305A CN 112001354 B CN112001354 B CN 112001354B
- Authority
- CN
- China
- Prior art keywords
- crowd
- degree
- motion
- fuzzy
- pleasure
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 230000008909 emotion recognition Effects 0.000 title claims abstract description 14
- 230000033001 locomotion Effects 0.000 claims abstract description 111
- 230000005284 excitation Effects 0.000 claims abstract description 37
- 230000008451 emotion Effects 0.000 claims abstract description 24
- 230000005484 gravity Effects 0.000 claims abstract description 5
- 230000003287 optical effect Effects 0.000 claims description 21
- 238000010606 normalization Methods 0.000 claims description 7
- 238000010586 diagram Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 230000003068 static effect Effects 0.000 claims description 5
- 238000012545 processing Methods 0.000 abstract description 5
- 239000002245 particle Substances 0.000 description 12
- 230000005856 abnormality Effects 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 230000036651 mood Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24317—Piecewise classification, i.e. whereby each classification requires several discriminant rules
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/02—Computing arrangements based on specific mathematical models using fuzzy logic
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Automation & Control Theory (AREA)
- Mathematical Optimization (AREA)
- General Health & Medical Sciences (AREA)
- Algebra (AREA)
- Fuzzy Systems (AREA)
- Computational Mathematics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Analysis (AREA)
- Molecular Biology (AREA)
- Pure & Applied Mathematics (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及图像处理与视频分析领域,公开了一种基于模糊推理的人群情绪识别方法,首先提取场景中视频序列前景图像,计算人群运动焓值,接着利用光流法跟踪运动FAST特征点,求出人群运动方向,幅度,依此计算出人群运动幅度方差和人群运动混乱程度,然后利用运动FAST特征点结合维诺图求出人群密度。最后利用模糊控制工程中的模糊推理理论,将人群运动焓值和人群运动幅度方差输入激励度模糊推理系统,将人群运动混乱程度和人群密度输入愉悦度模糊推理系统,分别得到激励度和愉悦度的模糊值,根据重心法对输出的模糊值去模糊化,得到激励度和愉悦度的精确值,根据所得值的大小判断人群情绪的状况。
Description
技术领域
本发明涉及视频分析与图像理解领域,尤其涉及一种基于模糊推理的人群情绪识别方法。
背景技术
人群情绪识别是智能人机交互的重要研究课题,该方向也受着越来越多学者的青睐。人群情绪识别主要分为个人情绪识别和群体情绪识别。目前的研究大多集中在个体的情绪识别,而在群体情绪的识别研究上却是刚刚起步。然而随着城市人口的迅速增长,伴随着遮挡以及拥挤的问题,研究个体情绪已经不太符合现在社会的发展情况。人群情绪识别是人群异常检测的进一步拓展,它不仅可以进行异常检测,最主要的是可以进行人群安全预警,在异常还没发生前就可以提前感知人群的情绪异常,让安全人员提前做出反应,给人们以更人性化的服务。
模糊推理,即从不精确的前提集合中得出可能的不精确结论的推理过程,是不确定推理的一种。经过多年的发展,已经有了严格的逻辑基础。但目前尚未有学者将其应用到群体情绪识别中来,它无需像机器学习方法一样进行大量的先验训练,并且实现简单、操作方便。并且,在视频监控领域,根据图像提取的特征往往不是精确的,例如人群密度、运动能量的大小,运动的混乱程度。
为了捕捉细致的情感变化,愉悦度—激励度模型将情绪状态被判别到多个维度中。激励度描述了情感的强度级别,范围为从消极到积极。愉悦度表示了情绪的愉悦级别,范围从否定到肯定。然而,大部分人群情绪估计结果只有情绪的四种分类,并没有真正细粒度的进行人群情绪的识别。如果将场景中人群的情绪看成是人群各种特征共同作用的结果,不同特征之间通过模糊规则连接在一起,共同构建模糊推理系统。那么就可以对人群情绪进行更加细粒度的估计。
发明内容
本发明提出一种基于模糊推理的人群情绪识别方法,目的是利用不同反应人群情绪的特征通过一定的规则和推理方法,结合愉悦度—激励度情绪模型,达到估计场景中人群情绪的目的。
为实现上述目的,采用了以下技术方案:
所述识别方法包括以下步骤:
步骤1,利用ViBe前景提取方法处理所选场景视频生成的帧序列,获得人群前景图像,利用LK光流法求出前景图像的光流场,利用焓值公式求出前景人群图像微块的焓值;
步骤2,利用LK光流法跟踪图像帧中FAST特征点,得到每个特征点的运动方向和大小,依此求出人群运动幅度方差和人群运动混乱程度;
步骤3,利用运动FAST特征点描述人群大致分布位置,结合维诺图计算出FAST特征点的密度,依此描述人群密度;
步骤4,利用人群运动焓值和人群运动幅度方差构建激励度模糊系统;利用人群运动混乱程度和人群密度构建愉悦度模糊系统;通过将模糊系统的输出去模糊化,得到激励度和愉悦度的精确值。
进一步的,所述步骤1的具体方法如下:
步骤1.1,在所选场景视频生成的帧序列中利用ViBe法提取人群运动前景,利用LK光流法求出前景中每个像素的光流;
步骤1.2,对于一个人群图像,群体的宏观状态可以用许多微小区域的微观状态来衡量。焓可以计算为:其中Ek是通过/>获得的动能,通过F=ma可获得的力F,m为质点质量设为1,a为质点周围微小区域内平均速度v随时间t的变化。则前景图像的焓值公式更新为:/>区域A表示围绕中心粒子的微质量中粒子的总数,设为5×5像素。平均速度v是微质量中所有粒子速度的平均值,由光流得到。每个粒子的体积V设置为1;
步骤1.3,利用场景中人群可出现的最高焓值Hmax,以进行归一化,H'是归一化后的焓值,H是上一步骤求得的焓值;
进一步的,步骤2的具体步骤如下:
步骤2.1,利用LK光流法跟踪图像帧中FAST特征点,得到每个特征点的运动方向和大小。特征点运动幅度阈值在0.01到0.1之间的就被认为是静态特征点,将其剔除,不进入下一步骤的计算(具体阈值根据场景的不同而变化),依此得到人群运动矢量场;
步骤2.2,计算人群运动幅度方差,由得到,其中,/>表示第i帧图像的人群运动幅度方差,N代表该图像特征点的总数,Xj代表该图像第j个特征点的运动幅度,μ代表该图像中特征点运动幅度的平均值,Xj和μ均由人群运动矢量场得到,以场景中人群可出现的最高幅度方差值进行归一化;
步骤2.3,人群运动矢量场中的方向按45°分为8个方向,进一步可以得到运动方向分布直方图,直方图定义如下:h(i)={ki,0≤i≤8},其中ki代表每个方向包含的运动方向的数量。求出该图像帧人群运动的方向熵:其中P(Xi)方向分布概率。当人群运动方向均匀分布在8个方向上时,人群运动方向最混乱,熵达到了最大值Emax=log28=3,由此引入人群混乱指数C,即归一化之后的人群运动方向熵,定义为:/>
进一步的,所述步骤3的具体方法如下:
步骤3.1,利用LK光流法跟踪FAST特征点,求出光流大小,特征点运动幅度阈值在0.01到0.1之间的就被认为是静态特征点,将其剔除,不进入下一步骤的计算(具体阈值根据场景的不同而变化);
步骤3.2,求出运动特征点的维诺图,计算每一个单人维诺多边形面积Si:
代表单人可活动范围,其中xj和yj是多边形顶点坐标。依此求出整个人群图像的密度D:/>其中D代表人群密度,/>为图像单人Voronoi多边形平均面积,即图像内平均每人的可活动范围,n是图像中检测到的运动特征点数,以图像中可出现最多特征点时的维诺密度作为最大值进行归一化。
进一步的,所述步骤4的具体方法如下:
步骤4.1,选取场景中人群运动焓值和人群运动幅度方差作为输入变量,人群激励度作为输出变量,构建人群激励度模糊推理系统;选取场景中人群运动混乱程度和人群密度作为输入变量,人群愉悦度作为输出变量,构建人群愉悦度模糊推理系统;
步骤4.2,将人群运动焓值、人群运动幅度方差、人群运动混乱程度、人群密度和人群激励度、愉悦度利用高斯型隶属度函数进行模糊化处理;
步骤4.3,每个人群模糊推理系统有2个输入变量,1个输出变量,使用if-then规则,输入变量之间采用and连接,得到模糊推理规则;
步骤4.4,结合模糊推理规则,使用Mamdani推理算法,对人群激励度和愉悦度模糊推理系统分别进行推理;
步骤4.5,通过将场景视频中的人群运动焓值和人群运动幅度方差输入到人群激励度模糊推理系统中得到场景中的人群激励度模糊值;将场景视频中的人群运动混乱程度和人群密度输入到人群愉悦度模糊推理系统中得到场景中的人群愉悦度模糊值,将推理得到的模糊值使用重心法去模糊化,得到人群激励度和愉悦度的精确值,作为衡量场景人群情绪的值,激励值越大,人群情绪越激烈,愉悦值越大,人群情绪越愉悦。
本发明的有益效果:
本发明提出一种基于模糊推理的人群情绪估计方法具有新颖、操作简单、设计合理,方便实用等特点。
附图说明
图1为本发明方法的流程图。
图2为本发明方法的具体实现步骤流程图。
图3a-3d为本发明方法的衡量人群密度的示例图。
图4a-4e为本发明方法的衡量人群情绪的实例图。
具体实施方式
下面结合附图对本发明做进一步说明:
如图1、图2所示,本发明的基于模糊推理的人群情绪识别方法,包括以下步骤:
步骤1,利用VIBE前景提取方法处理所选场景视频生成的帧序列,获得人群前景图像,利用LK光流法求出前景图像的光流场,利用焓值公式求出前景人群图像微块的焓值;
步骤1.1,在所选场景视频生成的帧序列中利用ViBe法提取人群运动前景,利用LK光流法求出前景中每个像素的光流;
步骤1.2,对于一个人群图像,群体的宏观状态可以用许多微小区域的微观状态来衡量。焓可以计算为:其中Ek是通过/>获得的动能,通过F=ma可获得的力F,m为质点质量设为1,a为质点周围微小区域内平均速度v随时间t的变化。则前景图像的焓值公式更新为:/>区域A表示围绕中心粒子的微质量中粒子的总数,设为5×5像素。平均速度v是微质量中所有粒子速度的平均值,由光流得到。每个粒子的体积V设置为1;
步骤1.3,利用场景中人群可出现的最高焓值Hmax,以进行归一化,H'是归一化后的焓值,H是上一步骤求得的焓值;
步骤2,利用LK光流法跟踪图像帧中FAST特征点,得到每个特征点的运动方向和大小,依此求出人群运动幅度方差和人群运动混乱程度;
步骤2.1,利用LK光流法跟踪图像帧中FAST特征点,得到每个特征点的运动方向和大小。特征点运动幅度阈值在0.01到0.1之间的就被认为是静态特征点,将其剔除,不进入下一步骤的计算(具体阈值根据场景的不同而变化),依此得到人群运动矢量场;
步骤2.2,计算人群运动幅度方差,由得到,其中,/>表示第i帧图像的人群运动幅度方差,N代表该图像特征点的总数,Xj代表该图像第j个特征点的运动幅度,μ代表该图像中特征点运动幅度的平均值,Xj和μ均由人群运动矢量场得到,以场景中人群可出现的最高幅度方差值进行归一化;
步骤2.3,人群运动矢量场中的方向按45°分为8个方向,进一步可以得到运动方向分布直方图,直方图定义如下:h(i)={ki,0≤i≤8},其中ki代表每个方向包含的运动方向的数量。求出该图像帧人群运动的方向熵:其中P(Xi)方向分布概率。当人群运动方向均匀分布在8个方向上时,人群运动方向最混乱,熵达到了最大值Emax=log28=3,由此引入人群混乱指数C,即归一化之后的人群运动方向熵,定义为:/>
步骤3,利用运动FAST特征点描述人群大致分布位置,结合维诺图计算出FAST特征点的密度,依此描述人群密度;
步骤3.1,利用LK光流法跟踪FAST特征点,求出光流大小,特征点运动幅度阈值在0.01到0.1之间的就被认为是静态特征点,将其剔除,不进入下一步骤的计算(具体阈值根据场景的不同而变化);
步骤3.2,求出运动特征点的维诺图,计算每一个单人维诺多边形面积Si:
代表单人可活动范围,其中xj和yj是多边形顶点坐标。依此求出整个人群图像的密度D:/>其中D代表人群密度,/>为图像单人Voronoi多边形平均面积,即图像内平均每人的可活动范围,n是图像中检测到的运动特征点数,以图像中可出现最多特征点时的维诺密度作为最大值进行归一化。如图3a-图3d所示是人群密度的示例图,图3a和图3c是PETS 2009中随机两帧图像,这两帧图像中人群密度明显不一样,由此而来的他们对应的维诺图,图3b和图3d依然展现出不一样的特征点密度。
步骤4,利用人群运动焓值和人群运动幅度方差构建激励度模糊系统;利用人群运动混乱程度和人群密度构建愉悦度模糊系统;通过将模糊系统的输出去模糊化,得到激励度和愉悦度的精确值。
步骤4.1,选取场景中人群运动焓值和人群运动幅度方差作为输入变量,人群激励度作为输出变量,构建人群激励度模糊推理系统;选取场景中人群运动混乱程度和人群密度作为输入变量,人群愉悦度作为输出变量,构建人群愉悦度模糊推理系统;
步骤4.2,将人群运动焓值、人群运动幅度方差、人群运动混乱程度、人群密度和人群激励度、愉悦度利用高斯型隶属度函数进行模糊化处理;人群运动焓值、人群运动幅度方差、人群激励度、人群运动混乱程度、人群密度和人群愉悦度模糊化处理后的集合分别为A,B,C,D,E,F则
A:人群运动焓值 | A1:非常低 | A2:低 | A3:中等 | A4:高 | A5:非常高 |
B:人群运动幅度方差 | B1:非常低 | B2:低 | B3:中等 | B4:高 | B5:非常高 |
C:激励度 | C1:非常低 | C2:低 | C3:中等 | C4:高 | C5:非常高 |
D:人群运动混乱程度 | D1:非常有序 | D2:有序 | D3:中等 | D4:无序 | D5:非常无序 |
E:人群密度 | E1:非常低 | E2:低 | E3:中等 | E4:高 | E5:非常高 |
F:愉悦度 | F1:非常低 | F2:低 | F3:中等 | F4:高 | F5:非常高 |
步骤4.3,每个人群模糊推理系统有2个输入变量,1个输出变量,使用if-then规则,输入变量之间采用and连接,得到模糊推理规则;形如,if x is A and y is B then zis C,这里x表示人群运动焓值,y表示人群运动幅度方差,z表示人群激励度,得到激励度模糊推理规则为:
这里x表示人群运动混乱程度,y表示人群密度,z表示人群愉悦度,得到愉悦度模糊推理规则为:
步骤4.4,结合模糊推理规则,使用Mamdani推理算法,对人群激励度和愉悦度模糊推理系统分别进行推理;
步骤4.5,通过将场景视频中的人群运动焓值和人群运动幅度方差输入到人群激励度模糊推理系统中得到场景中的人群激励度模糊值;将场景视频中的人群运动混乱程度和人群密度输入到人群愉悦度模糊推理系统中得到场景中的人群愉悦度模糊值,将推理得到的模糊值使用重心法去模糊化,得到人群激励度和愉悦度的精确值,作为衡量场景人群情绪的值,激励值越大,人群情绪越激烈,愉悦值越大,人群情绪越愉悦。
如图4a-图4e所示是衡量人群情绪的实例图,图4a、图4b、图4c、图4d分别是UCF,UMN这两个数据库中随机抽取的4帧图像,每一帧图像的激励度、愉悦度都各不相同,图4e图是通过本方法求得对应这四副图的激励度和愉悦度的具体值,从图中可以看出,使用本发明方法可以对场景中人群情绪进行评估。
以上所述的实施例仅仅是对本发明的优选实施方式进行描述,并非对本发明的范围进行限定,在不脱离本发明设计精神的前提下,本领域普通技术人员对本发明的技术方案做出的各种变形和改进,均应落入本发明权利要求书确定的保护范围内。
Claims (1)
1.一种基于模糊推理的人群情绪识别方法,其特征在于,利用不同的人群特征归一化后的结果作为输入,构建模糊推理系统,推理得出激励度、愉悦度的模糊值,去模糊化后得到对应的精确值,包括以下两个步骤:
步骤1、从视频中提取出人群运动焓值和人群运动幅度方差这两个人群特征,构建两输入一输出的激励度模糊推理系统,输入是人群运动焓值和人群运动幅度方差这两个人群特征,输出是激励度;
步骤2、从视频中提取人群运动混乱程度和人群密度这两个特征,构建两输入一输出的愉悦度模糊推理系统,输入是人群运动混乱程度和人群密度这两个特征,输出是愉悦度;
其中,利用LK光流法跟踪图像帧中FAST特征点,得到每个特征点的运动方向和大小,依此求出人群运动幅度方差和人群运动混乱程度;
所述步骤1具体如下:
1.1、选取场景中人群运动焓值和人群运动幅度方差作为输入变量,激励度作为输出变量,构建人群激励度模糊推理系统;
1.2、将人群运动焓值、人群运动幅度方差和人群激励度利用高斯型隶属度函数进行模糊化处理;
1.3、人群激励度模糊推理系统有2个输入变量,1个输出变量,使用if-then规则,输入变量之间采用and连接,得到模糊推理规则,使用Mamdani推理算法,对人群激励度模糊推理系统进行推理;
1.4、通过将场景视频中的人群运动焓值和人群运动幅度方差输入到人群激励度模糊推理系统中得到场景中的人群激励度模糊值,将推理得到的模糊值使用重心法去模糊化,得到人群激励度的精确值,作为衡量场景人群情绪的值,激励值越大,人群情绪越激烈;
所述步骤2具体如下:
步骤2.1,利用LK光流法跟踪FAST特征点,求出光流大小,特征点运动幅度阈值在0.01到0.1之间的被认为是静态特征点,将其剔除,不进入下一步骤的计算;
步骤2.2,求出运动特征点的维诺图,计算每一个单人维诺多边形面积Si:
代表单人可活动范围,其中xj和yj是多边形顶点坐标;依此求出整个人群图像的密度D:/>其中D代表人群密度,/>为图像单人Voronoi多边形平均面积,即图像内平均每人的可活动范围,n是图像中检测到的运动特征点数,以图像中可出现最多特征点时的维诺密度作为最大值进行归一化;
2.3、选取场景中人群运动混乱程度和人群密度作为输入变量,愉悦度作为输出变量,构建人群愉悦度模糊推理系统;
2.4、将人群运动混乱程度、人群密度和人群愉悦度利用高斯型隶属度函数进行模糊化处理;
2.5、人群愉悦度模糊推理系统有2个输入变量,1个输出变量,使用if-then规则,输入变量之间采用and连接,得到模糊推理规则,使用Mamdani推理算法,对人群愉悦度模糊推理系统进行推理;
2.6、通过将场景视频中的人群运动混乱程度和人群密度输入到人群愉悦度模糊推理系统中得到场景中的人群愉悦度模糊值,将推理得到的模糊值使用重心法去模糊化,得到人群愉悦度的精确值,作为衡量场景人群情绪的值,愉悦值越大,人群情绪越愉悦。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010916305.2A CN112001354B (zh) | 2020-09-03 | 2020-09-03 | 一种基于模糊推理的人群情绪识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010916305.2A CN112001354B (zh) | 2020-09-03 | 2020-09-03 | 一种基于模糊推理的人群情绪识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112001354A CN112001354A (zh) | 2020-11-27 |
CN112001354B true CN112001354B (zh) | 2024-03-22 |
Family
ID=73465286
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010916305.2A Active CN112001354B (zh) | 2020-09-03 | 2020-09-03 | 一种基于模糊推理的人群情绪识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112001354B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115471036A (zh) * | 2022-07-04 | 2022-12-13 | 中国传媒大学 | 一种热点事件的群体情绪分析方法、存储介质及设备 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111310581A (zh) * | 2020-01-17 | 2020-06-19 | 杭州电子科技大学 | 一种基于模糊推理的人群安全性评估方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103310183B (zh) * | 2012-03-16 | 2016-12-14 | 日电(中国)有限公司 | 人群聚集检测的方法与装置 |
-
2020
- 2020-09-03 CN CN202010916305.2A patent/CN112001354B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111310581A (zh) * | 2020-01-17 | 2020-06-19 | 杭州电子科技大学 | 一种基于模糊推理的人群安全性评估方法 |
Non-Patent Citations (1)
Title |
---|
结合光流法与信息熵的人群状态分析;张朋跃;张良;;信号处理;20150925(第09期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112001354A (zh) | 2020-11-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Rashid | Convolutional neural networks based method for improving facial expression recognition | |
Cho et al. | A neural-based crowd estimation by hybrid global learning algorithm | |
CN109815867A (zh) | 一种人群密度估计和人流量统计方法 | |
Zhang et al. | Crowd emotion evaluation based on fuzzy inference of arousal and valence | |
CN110458038A (zh) | 基于双链深度双流网络的小数据跨域动作识别方法 | |
CN112001354B (zh) | 一种基于模糊推理的人群情绪识别方法 | |
Rasoulzadeh | Facial expression recognition using fuzzy inference system | |
Kasioumis et al. | Elite BackProp: Training Sparse Interpretable Neurons. | |
Perikos et al. | Facial expression recognition using adaptive neuro-fuzzy inference systems | |
Hajji et al. | Incidents prediction in road junctions using artificial neural networks | |
Elbaşi | Fuzzy logic-based scenario recognition from video sequences | |
Shahbaz et al. | Moving object detection based on deep atrous spatial features for moving camera | |
Alhamzawi | Faces and eyes detection in digital images using cascade classifiers | |
Jamshidnezhad et al. | Bee royalty offspring algorithm for improvement of facial expressions classification model | |
Karthigayan et al. | Genetic algorithm and neural network for face emotion recognition | |
Rizon et al. | Japanese face emotions classification using lip features | |
Tiwari et al. | Video Classification using SlowFast Network via Fuzzy rule | |
Lv et al. | Abnormal event detection and location for dense crowds using repulsive forces and sparse reconstruction | |
Mudgal et al. | Theoretical and empirical analysis of crime data | |
Hsu et al. | A PSO-SVM lips recognition method based on active basis model | |
Sinha et al. | Ensemble Based Feature Extraction and Deep Learning Classification Model with Depth Vision | |
Mirzamohammad et al. | Moving object detection and tracking in video by cellular learning automata and gradient method in fuzzy domain | |
Fata et al. | Zahmah social force model for pedestrian movement | |
Al-Khateeb et al. | An extended fuzzy SOM for anomalous behaviour detection | |
Shahrabi Farahani et al. | Computational Intelligence Methods for Facial Emotion Recognition: A Comparative Study |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |