CN112529938A - 一种基于视频理解的智慧学堂监测方法和系统 - Google Patents
一种基于视频理解的智慧学堂监测方法和系统 Download PDFInfo
- Publication number
- CN112529938A CN112529938A CN202011443948.6A CN202011443948A CN112529938A CN 112529938 A CN112529938 A CN 112529938A CN 202011443948 A CN202011443948 A CN 202011443948A CN 112529938 A CN112529938 A CN 112529938A
- Authority
- CN
- China
- Prior art keywords
- video
- foreground
- moving
- target
- moving target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 45
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000001514 detection method Methods 0.000 claims abstract description 21
- 238000011156 evaluation Methods 0.000 claims abstract description 10
- 238000000605 extraction Methods 0.000 claims description 9
- 238000009826 distribution Methods 0.000 claims description 4
- 238000012549 training Methods 0.000 claims description 4
- 238000010276 construction Methods 0.000 abstract description 7
- 230000006399 behavior Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000012098 association analyses Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/66—Analysis of geometric attributes of image moments or centre of gravity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Business, Economics & Management (AREA)
- Data Mining & Analysis (AREA)
- Tourism & Hospitality (AREA)
- Strategic Management (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- Multimedia (AREA)
- Evolutionary Biology (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- General Business, Economics & Management (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于视频理解的智慧学堂监测方法和系统,涉及智慧学堂监测技术领域,一种基于视频理解的智慧学堂监测方法,包括以下步骤:预先获取学堂监考视频并对输入的视频帧进行前景检测,提取前景目标,并对提取到的运动目标,进行实时跟踪,获取到运动目标在视频序列中的信息,将获取的运动目标的位置生成运动轨迹,确定学堂监测结果。一种基于视频理解的智慧学堂监测系统,包括运动目标检测模块、跟踪模块、轨迹参数获取模块和行为评价模块。本发明通过对考试监考场景下的监考员行为分析,有较高的应用价值,其对教育行业的智慧建设的重要意义,而且提高了运动目标的检测准确性和效率。
Description
技术领域
本发明涉及智慧学堂监测技术领域,具体来说,涉及一种基于视频理解的智慧学堂监测方法和系统。
背景技术
随着计算机视觉技术的告诉发展,视频监控技术已经成为计算机视觉技术的重要应用。大量的视频监控系统应用到人们的生活中,如商业、交通、教育等领域,成为建设智能化、信息化社会的必不可少的组成部分。传统的视频监控以存储视频和事后回放为主,具有事前震慑力,同样方便事后查找。随着智能生活理念的不断拓展,简单的存储和回放早已无法满足人们对智能化生活的要求。对视频内容的理解和分析逐渐成为研究和应用的重点。
近年来,在教育行业,尤其是校园建设方便,已经完成了信息化建设,未来的校园建设发展方向是智能化,构建智能化校园、智慧学堂,推进智慧教学、智慧教育,促进人工智能、大数据等新兴技术在校园建设方面的落地,都离不开视频监控技术。
因此亟需一种基于视频理解的智慧学堂监测方法和系统。
检索中国发明CN111382721公开了一种基于人工智能的考场监测系统,该基于人工智能的考场监测系统不仅能够针对考场内外环境进行监控,并且还能够通过关于考场的图像对考场内的每一个人进行细节化的监控分析,从而确定当前考场内外环境和考场内的每一个人的行为动作与预设考场要求之间的差异,以此有针对性地对考场内部的每一个人进行排查和互动,同时也不针对考场的内外环境变化对考场进行有效的调控。但其存在仅针对考场内考试人员,没有针对监考员进行分析;其密集场景下,人员过多时,该方法无法提取到有效的图像;另外该方法依赖于外部数据采集设备如环境参数采集设备等,不利于快速部署和使用;此外该方法没有明确系统使用的人员提取/处理等算法,不同的算法对系统的稳定性、实时性影响较大。
针对相关技术中的问题,目前尚未提出有效的解决方案。
发明内容
针对相关技术中的问题,本发明提出一种基于视频理解的智慧学堂监测方法和系统,以克服现有相关技术所存在的上述技术问题。
本发明的技术方案是这样实现的:
本发明提供了一种基于视频理解的智慧学堂监测方法,包括以下步骤:
步骤S1,预先获取学堂监考视频并对输入的视频帧进行前景检测,提取前景目标,并对提取到的运动目标,进行实时跟踪,获取到运动目标在视频序列中的信息,包括以下步骤:
确定检测到的运动目标位置(x,y);
将(x,y)赋值给Camshift搜索窗口的初始值,计算搜索窗口的质心,包括:
标定(x,y)为搜索窗口中的像素位置,I(x,y)为概率分布图中(x,y)处的像素值,定义搜索窗口的零阶矩M00和一阶矩M01和M10分别为:
M00=∑x∑yI(x,y);
M01=∑x∑yyI(x,y);
M10=∑x∑yxI(x,y);
基于M00调整窗口,移动搜索窗口的中心接近质心位置,当移动距离小于阈值时,跟踪完成;
输出运动目标的位置信息,搜索下一帧;
步骤S2,将获取的运动目标的位置L(x,y),生成运动轨迹;
步骤S3,基于运动轨迹,确定学堂监测结果。
其中,步骤所述确定检测到的运动目标位置(x,y),还包括以下步骤:
将ViBe算法对视频帧进行前景提取;
将提取到的前景做标记,给HoG算法提供能力强的前景块,对前景进行颜色特征刻画,对不属于前景的块不再进行特征刻画;
将获取到的特征投入SVM进行训练,得出分类器;
获取运动目标信息。
其中,步骤所述将获取的运动目标的位置L(x,y),生成运动轨迹,包括将所有的位置连接成的曲线,该曲线为运动目标的移动轨迹。
其中,步骤所述基于运动轨迹,确定学堂监测结果,包括以下步骤:
设定阈值L0,计算t时刻的运动轨迹长度,记为Lt;
当Lt≥L0×70%时,判定监考员合格,否则,记为不合格。
本发明还提供了一种基于视频理解的智慧学堂监测系统,包括运动目标检测模块、跟踪模块、轨迹参数获取模块和行为评价模块,其中,
所述目标检测模块,对输入的视频帧进行前景检测,提取前景目标
所述跟踪模块,对提取到的运动目标,进行实时跟踪,获取到运动目标在视频序列中的位置信息;
所述轨迹参数获取模块,获取运动目标的位置L(x,y),生成运动轨迹;
所述行为评价模块,对获取的运动轨迹进行判断评价。
本发明的有益效果:
本发明提出了一种基于视频理解的智慧学堂监测方法和系统,在应用上,该系统能够帮助特殊部门等对学堂进行智慧监控,尤其是针对考试监考场景下的监考员行为分析,有较高的应用价值,其对教育行业的智慧建设的重要意义,而且提高了运动目标的检测准确性和效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明实施例的一种基于视频理解的智慧学堂监测方法流程示意图一;
图2是根据本发明实施例的一种基于视频理解的智慧学堂监测方法流程示意图二;
图3是根据本发明实施例的一种基于视频理解的智慧学堂监测方法的场景示意图;
图4是根据本发明实施例的一种基于视频理解的智慧学堂监测方法的评价示意图一;
图5是根据本发明实施例的一种基于视频理解的智慧学堂监测方法评价示意图二;
图6是根据本发明实施例的一种基于视频理解的智慧学堂监测系统的原理框图。
图中:
1、运动目标检测模块;2、跟踪模块;3、轨迹参数获取模块;4、行为评价模块。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员所获得的所有其他实施例,都属于本发明保护的范围。
如图1-图5所示,根据本发明的实施例,提供了一种基于视频理解的智慧学堂监测方法。包括以下步骤:
步骤S1,预先获取学堂监考视频并对输入的视频帧进行前景检测,提取前景目标,并对提取到的运动目标,进行实时跟踪,获取到运动目标在视频序列中的信息,包括以下步骤:
输入VBHG算法确定检测到的运动目标位置(x,y);
将(x,y)赋值给Camshift搜索窗口的初始值,计算搜索窗口的质心,包括:
标定(x,y)为搜索窗口中的像素位置,I(x,y)为概率分布图中(x,y)处的像素值,定义搜索窗口的零阶矩M00和一阶矩M01和M10分别为:
M00=∑x∑yI(x,y);
M01=∑x∑yyI(x,y);
M10=∑x∑yxI(x,y);
基于M00调整窗口,移动搜索窗口的中心接近质心位置,当移动距离小于阈值时,跟踪完成;
输出运动目标的位置信息,搜索下一帧;
步骤S2,将获取的运动目标的位置L(x,y),生成运动轨迹;
步骤S3,基于运动轨迹,确定学堂监测结果。
其中,步骤所述确定检测到的运动目标位置(x,y),还包括以下步骤:
将ViBe算法对视频帧进行前景提取;
将提取到的前景做标记,给HoG算法提供能力强的前景块,对前景进行颜色特征刻画,对不属于前景的块不再进行特征刻画;
将获取到的特征投入SVM进行训练,得出分类器;
获取运动目标信息。
其中,步骤所述将获取的运动目标的位置L(x,y),生成运动轨迹,包括将所有的位置连接成的曲线,该曲线为运动目标的移动轨迹。
其中,步骤所述基于运动轨迹,确定学堂监测结果,包括以下步骤:
设定阈值L0,计算t时刻的运动轨迹长度,记为Lt;
当Lt≥L0×70%时,判定监考员合格,否则,记为不合格。
另外,具体的,其视频理解:对视频图像进行理解并使用计算机科学进行解释,主要任务是对视频进行分割、识别,将底层视觉特征同关联分析、知识相结合,进行视频内容分析的活动。其运动目标检测:指将图像序列或视频中发生空间位置变化的对象作为前景,将其标记并提取的过程。其前景:运动检测中的运动目标称为前景,是人们感兴趣的区域,而不是前景的区域称为背景,是需要忽略的区域,前景提取即是在一个视频序列中提取出前景区域,供下一步进行视频分析和理解等环节处理。其轨迹提取:提取运动目标的位置等信息,按照时间和位置顺序进行连接,形成运动目标的轨迹。
另外,对于上述VBHG算法来说,结合了ViBe前景提取方法和HoG颜色特征表达方法,解决运动目标提取不完整,特征表达不准确等问题,改善了HoG算法的缺陷,提高了算法效率。
其ViBe(Visual Background Extractor),利用图像/视频序列的像素样本值进行背景建模,通过像素值与背景模型的匹配,由固定阈值决定像素点属于前景还是背景。ViBe采用了随机更新机制对背景模型进行像素的更新,运动简单,尤其对静态场景下的前景提取效果较好。本发明中智慧学堂的使用场景为静态背景,因此适合采用ViBe算法进行前景提取。
ViBe算法利用单帧视频序列初始化背景模型,使用每个像素点的背景序列作为背景模型的一个样本集合,一个样本共有N个样本。对于任一像素点x,像素值记为,v(x)记它的背景模型为M(x),则
M(x)={v1,v2,...,vN}
以v(x)为圆心,定义一个半径为R的圆SR(v(x)),SR(v(x))是一个集合,表示与v(x)的欧式距离小于R的点集。M(x)落在SR(v(x))点集内的样本个数记为#SR(v(x))∩{v1,v2,...,vN},对于给定的样本个数阈值#min,如果#SR(v(x))∩{v1,v2,...,vN}<#min,则v(x)记为前景,否则记为背景。
由ViBe提取到的前景,其坐标位置记为(x,y),作为HoG特征的初始值,以减小HoG特征的表达范围,提高HoG特征表达的准确性和效率。
HoG是对运动目标底层特征颜色特征进行提取和表达,是一种特征表达方法,该方法对图像/视频序列的局部特征进行刻画,其缺点是维度高,计算慢,具体的:
将ViBe算法对图像/视频帧进行前景提取;
将提取到的前景做标记,给HoG算法提供能力强的前景块,对前景进行颜色特征刻画,对不属于前景的块不再进行特征刻画,提高了HoG算法的效率。
将获取到的特征投入SVM进行训练,得出分类器。
另外,其使用Camshift算法进行运动目标跟踪,传统的Camshift算法在初始化搜索框时,如果运动目标颜色和视频序列背景颜色相近,会把背景像素判定为运动目标,造成跟踪误差,随着搜索窗口的不断迭代,会造成搜索窗口不断缩小,甚至导致丢失跟踪目标。在本发明的方法中,提出一种搜索框初始值优化方法,即将本发明检测得到的运动目标位置信息赋值给Camshift搜索窗口的初始值,在搜索框初始时,给搜索框一个准确的位置,提高运动目标的跟踪准确率,具体的:
确定检测到的运动目标位置(x,y);
将(x,y)赋值给Camshift搜索窗口的初始值,计算搜索窗口的质心,包括:
标定(x,y)为搜索窗口中的像素位置,I(x,y)为概率分布图中(x,y)处的像素值,定义搜索窗口的零阶矩M00和一阶矩M01和M10分别为:
M00=∑x∑yI(x,y);
M01=∑x∑yyI(x,y);
M10=∑x∑yxI(x,y);
基于M00调整窗口,移动搜索窗口的中心接近质心位置,当移动距离小于阈值时,跟踪完成;
输出运动目标的位置信息,搜索下一帧。
此外,如图4-图5所示,将跟踪到的运动的位置,并(x,y)的格式全部进行存储.将所有的位置连接成的曲线,该曲线为运动目标的移动轨迹。根据其轨迹参数,设置一个滚动的进度条,进度条超过70%则判定监考员合格。即,设定阈值L0,计算t时刻的运动轨迹长度,记为Lt,当Lt≥L0×70%时,判定监考员合格,否则,记为不合格。
另外,如图6所示,在一个实施例中,还提供了一种基于视频理解的智慧学堂监测系统,包括运动目标检测模块1、跟踪模块2、轨迹参数获取模块3和行为评价模块4,其中,
所述目标检测模块1,对输入的视频帧进行前景检测,提取前景目标
所述跟踪模块2,对提取到的运动目标,进行实时跟踪,获取到运动目标在视频序列中的位置信息;
所述轨迹参数获取模块3,获取运动目标的位置L(x,y),生成运动轨迹;
所述行为评价模块4,对获取的运动轨迹进行判断评价。
综上所述,借助于本发明的上述技术方案,通过该系统能够帮助特殊部门等对学堂进行智慧监控,尤其是针对考试监考场景下的监考员行为分析,有较高的应用价值,其对教育行业的智慧建设的重要意义。
同时,在视频监控技术方面,本发明在跟踪方法上,对Camshift算法的初始值提出了优化,提高了运动目标的检测准确性和效率,该方法除了可以应用在本发明提出的系统中,也可以应用在视频监控的其他领域如行人识别、车辆识别、工业检测等。对视频监控技术的发展具有重要推进作用。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (5)
1.一种基于视频理解的智慧学堂监测方法,其特征在于,包括以下步骤:
预先获取学堂监考视频并对输入的视频帧进行前景检测,提取前景目标,并对提取到的运动目标,进行实时跟踪,获取到运动目标在视频序列中的信息,包括以下步骤:
确定检测到的运动目标位置(x,y);
将(x,y)赋值给Camshift搜索窗口的初始值,计算搜索窗口的质心,包括:
标定(x,y)为搜索窗口中的像素位置,I(x,y)为概率分布图中(x,y)处的像素值,定义搜索窗口的零阶矩M00和一阶矩M01和M10分别为:
M00=∑x∑yI(x,y);
M01=∑x∑yyI(x,y);
M10=∑x∑yxI(x,y);
基于M00调整窗口,移动搜索窗口的中心接近质心位置,当移动距离小于阈值时,跟踪完成;
输出运动目标的位置信息,搜索下一帧;
将获取的运动目标的位置L(x,y),生成运动轨迹;
基于运动轨迹,确定学堂监测结果。
2.根据权利要求1所述的基于视频理解的智慧学堂监测方法,其特征在于,步骤所述确定检测到的运动目标位置(x,y),还包括以下步骤:
将ViBe算法对视频帧进行前景提取;
将提取到的前景做标记,给HoG算法提供能力强的前景块,对前景进行颜色特征刻画,对不属于前景的块不再进行特征刻画;
将获取到的特征投入SVM进行训练,得出分类器;
获取运动目标信息。
3.根据权利要求1所述的基于视频理解的智慧学堂监测方法,其特征在于,步骤所述将获取的运动目标的位置L(x,y),生成运动轨迹,包括将所有的位置连接成的曲线,该曲线为运动目标的移动轨迹。
4.根据权利要求1所述的基于视频理解的智慧学堂监测方法,其特征在于,步骤所述基于运动轨迹,确定学堂监测结果,包括以下步骤:
设定阈值L0,计算t时刻的运动轨迹长度,记为Lt;
当Lt≥L0×70%时,判定监考员合格,否则,记为不合格。
5.一种基于视频理解的智慧学堂监测系统,用于权利要求1-4的智慧学堂监测方法的监测系统,其特征在于,包括运动目标检测模块(1)、跟踪模块(2)、轨迹参数获取模块(3)和行为评价模块(4),其中,
所述目标检测模块(1),对输入的视频帧进行前景检测,提取前景目标
所述跟踪模块(2),对提取到的运动目标,进行实时跟踪,获取到运动目标在视频序列中的位置信息;
所述轨迹参数获取模块(3),获取运动目标的位置L(x,y),生成运动轨迹;
所述行为评价模块(4),对获取的运动轨迹进行判断评价。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011443948.6A CN112529938A (zh) | 2020-12-08 | 2020-12-08 | 一种基于视频理解的智慧学堂监测方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011443948.6A CN112529938A (zh) | 2020-12-08 | 2020-12-08 | 一种基于视频理解的智慧学堂监测方法和系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112529938A true CN112529938A (zh) | 2021-03-19 |
Family
ID=75000133
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011443948.6A Pending CN112529938A (zh) | 2020-12-08 | 2020-12-08 | 一种基于视频理解的智慧学堂监测方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112529938A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113239791A (zh) * | 2021-05-11 | 2021-08-10 | 青岛以萨数据技术有限公司 | 基于神经网络和目标追踪的考官异常行为监控方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103150740A (zh) * | 2013-03-29 | 2013-06-12 | 上海理工大学 | 一种基于视频的运动目标跟踪方法和系统 |
CN103839279A (zh) * | 2014-03-18 | 2014-06-04 | 湖州师范学院 | 一种目标检测中基于vibe的粘连目标分割方法 |
CN106931968A (zh) * | 2017-03-27 | 2017-07-07 | 广东小天才科技有限公司 | 一种监测学生课堂表现的方法及装置 |
CN110781769A (zh) * | 2019-10-01 | 2020-02-11 | 浙江大学宁波理工学院 | 一种快速行人检测与跟踪的方法 |
-
2020
- 2020-12-08 CN CN202011443948.6A patent/CN112529938A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103150740A (zh) * | 2013-03-29 | 2013-06-12 | 上海理工大学 | 一种基于视频的运动目标跟踪方法和系统 |
CN103839279A (zh) * | 2014-03-18 | 2014-06-04 | 湖州师范学院 | 一种目标检测中基于vibe的粘连目标分割方法 |
CN106931968A (zh) * | 2017-03-27 | 2017-07-07 | 广东小天才科技有限公司 | 一种监测学生课堂表现的方法及装置 |
CN110781769A (zh) * | 2019-10-01 | 2020-02-11 | 浙江大学宁波理工学院 | 一种快速行人检测与跟踪的方法 |
Non-Patent Citations (1)
Title |
---|
郭金朋等: "基于SURF和Camshift的运动目标跟踪", 《计算机工程与设计》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113239791A (zh) * | 2021-05-11 | 2021-08-10 | 青岛以萨数据技术有限公司 | 基于神经网络和目标追踪的考官异常行为监控方法及系统 |
CN113239791B (zh) * | 2021-05-11 | 2022-08-23 | 青岛以萨数据技术有限公司 | 基于神经网络和目标追踪的考官异常行为监控方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113034548B (zh) | 一种适用于嵌入式终端的多目标跟踪方法及其系统 | |
WO2022000838A1 (zh) | 基于马尔可夫随机场的远程塔台视频目标挂标牌方法 | |
CN111563452B (zh) | 一种基于实例分割的多人体姿态检测及状态判别方法 | |
CN109886245A (zh) | 一种基于深度学习级联神经网络的行人检测识别方法 | |
CN111476817A (zh) | 一种基于yolov3的多目标行人检测跟踪方法 | |
CN104680559B (zh) | 基于运动行为模式的多视角室内行人跟踪方法 | |
CN105160310A (zh) | 基于3d卷积神经网络的人体行为识别方法 | |
CN103226835B (zh) | 基于在线初始化梯度增强回归树的目标跟踪方法及系统 | |
CN107808376B (zh) | 一种基于深度学习的举手检测方法 | |
CN108960047B (zh) | 基于深度二次树的视频监控中人脸去重方法 | |
CN111738218B (zh) | 人体异常行为识别系统及方法 | |
Tan et al. | Dynamic hand gesture recognition using motion trajectories and key frames | |
CN107301376B (zh) | 一种基于深度学习多层刺激的行人检测方法 | |
CN104301585A (zh) | 一种运动场景中特定种类目标实时检测方法 | |
CN104778699A (zh) | 一种自适应对象特征的跟踪方法 | |
CN112465854A (zh) | 基于无锚点检测算法的无人机跟踪方法 | |
Hammam et al. | Real-time multiple spatiotemporal action localization and prediction approach using deep learning | |
Atikuzzaman et al. | Human activity recognition system from different poses with cnn | |
Wu et al. | Single shot multibox detector for vehicles and pedestrians detection and classification | |
CN105631410B (zh) | 一种基于智能视频处理技术的课堂检测方法 | |
CN112529938A (zh) | 一种基于视频理解的智慧学堂监测方法和系统 | |
CN112487926A (zh) | 一种基于时空图卷积网络的景区投喂行为识别方法 | |
CN116824641A (zh) | 姿态分类方法、装置、设备和计算机存储介质 | |
CN108985216B (zh) | 一种基于多元logistic回归特征融合的行人头部检测方法 | |
CN115100249B (zh) | 一种基于目标跟踪算法的智慧工厂监控系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210319 |