CN112613342A - 行为分析方法、装置、计算机设备和存储介质 - Google Patents
行为分析方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN112613342A CN112613342A CN202011355692.3A CN202011355692A CN112613342A CN 112613342 A CN112613342 A CN 112613342A CN 202011355692 A CN202011355692 A CN 202011355692A CN 112613342 A CN112613342 A CN 112613342A
- Authority
- CN
- China
- Prior art keywords
- behavior analysis
- course
- analysis
- behavior
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 513
- 238000000034 method Methods 0.000 claims abstract description 38
- 238000012216 screening Methods 0.000 claims abstract description 13
- 230000006399 behavior Effects 0.000 claims description 382
- 230000009471 action Effects 0.000 claims description 22
- 238000004590 computer program Methods 0.000 claims description 16
- 238000003709 image segmentation Methods 0.000 claims description 12
- 230000003542 behavioural effect Effects 0.000 claims description 8
- 238000001914 filtration Methods 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 230000000717 retained effect Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 2
- 208000029152 Small face Diseases 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Tourism & Hospitality (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- General Business, Economics & Management (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
本申请涉及一种行为分析方法、装置、计算机设备和存储介质。方法包括:从预先部署在教室中不同位置的多台摄像机中,实时获取各摄像机采集的视频流;多台摄像机的总视野区域覆盖教室的整体场景区域;解码视频流,得到解码后的视频图像;确定视频图像中的分析区域;对分析区域内的课程参与人员进行人脸识别和行为分析,得到各分析区域中每个课程参与人员分别对应的行为分析结果;若同一时刻下同一课程参与人员在不同分析区域中对应多份行为分析结果,从多份行为分析结果中筛选行为分析可信度最高的行为分析结果,作为课程参与人员在时刻下最终的行为分析结果。采用本方法能够提高课程参与人员行为分析结果的准确性。
Description
技术领域
本申请涉及计算机技术领域,特别是涉及一种行为分析方法、装置、计算机设备和存储介质。
背景技术
随着计算机技术的发展,智慧教室得到了迅速发展和推广。目前,要么是在教室前黑板中间,安装一台摄像机,以获取课程参与人员的上课期间的图像。要么是通过云平台控制摄像机对课程参与人员进行扫描,以获取课程参与人员的上课期间的图像。
在课程参与人员较多的教学场景中,只安装一台摄像机,对处于边缘上的课程参与人员的行为分析结果可信度低。而通过扫描的方式能够提高边缘上的课程参与人员的行为分析可信度。但是,扫描是周期性的,所以无法保证每次扫描时课程参与人员都出现在摄像范围,若课程参与人员不出现在课程范围内,也就无法获取到课程参与人员行为分析结果。目前的方法对当前课程中的课程参与人员的行为分析准确性不高。
发明内容
基于此,有必要针对上述技术问题,提供一种能够提高课程参与人员行为分析结果的准确性的行为分析方法、装置、计算机设备和存储介质。
一种行为分析方法,所述方法包括:
从预先部署在教室中不同位置的多台摄像机中,实时获取各所述摄像机采集的视频流;所述多台摄像机的总视野区域覆盖所述教室的整体场景区域;
解码所述视频流,得到解码后的视频图像;
确定所述视频图像中的分析区域;
对所述分析区域内的课程参与人员进行人脸识别和行为分析,得到各所述分析区域中每个课程参与人员分别对应的行为分析结果;
若同一时刻下同一课程参与人员在不同分析区域中对应多份行为分析结果,从所述多份行为分析结果中筛选行为分析可信度最高的行为分析结果,作为所述课程参与人员在所述时刻下最终的行为分析结果。
在其中一个实施例中,所述确定所述视频图像中的分析区域包括:
对所述视频图像添加设定的图像分割框,形成初始区域;
根据所述初始区域,确定所述视频图像中的分析区域,并将所述分析区域之外的图像处理为黑色背景。
在其中一个实施例中,所述根据所述初始区域,确定所述视频图像中的分析区域,包括:
查找所述初始区域边界上的课程参与人员;
确定查找到的所述课程参与人员在所述边界上的身体边缘;
对所述初始区域中不完整的所述身体边缘进行扩展,得到分析区域。
在其中一个实施例中,所述对所述分析区域内的课程参与人员进行人脸识别和行为分析,得到各所述分析区域中每个课程参与人员分别对应的行为分析结果,包括:
从教育管理平台获取课程列表;
从所述教育管理平台,获取所述课程列表的目标课程中课程参与人员的信息和人脸识别库;
根据所述课程参与人员的信息和人脸识别库,对所述分析区域内的课程参与人员进行人脸识别和行为分析,得到各所述分析区域中每个课程参与人员分别对应的行为分析结果。
在其中一个实施例中,所述行为分析结果,包括课程参与人员标识、人脸识别可信度、行为动作、行为动作的发生时刻以及行为分析可信度;
所述根据所述课程参与人员的信息和人脸识别库,对所述分析区域内的课程参与人员进行人脸识别和行为分析,得到各所述分析区域中每个课程参与人员分别对应的行为分析结果,包括:
根据所述课程参与人员的信息和人脸识别库,对所述分析区域内的课程参与人员进行人脸识别,得到所述分析区域内的课程参与人员标识以及人脸识别可信度;
对所述课程参与人员标识所标识的课程参与人员的行为进行分析,得到行为动作和相应的行为分析可信度,并记录各所述行为动作的发生时刻。
在其中一个实施例中,每个所述行为分析结果中包括行为分析可信度;所述方法还包括:
将各所述分析区域中每个课程参与人员分别对应的行为分析结果上传至教育管理平台;
通过所述教育管理平台,将行为分析可信度小于预设阈值的行为分析结果过滤掉;
所述若同一时刻下同一课程参与人员在不同分析区域中对应多份行为分析结果,从所述多份行为分析结果中筛选行为分析可信度最高的行为分析结果,作为所述课程参与人员在所述时刻下最终的行为分析结果,包括:
若同一时刻下同一课程参与人员在不同分析区域中对应多份过滤后的行为分析结果,通过教育管理平台,对多份所述行为分析结果进行行为分析可信度比较;
保留行为分析可信度最高的行为分析结果,作为所述课程参与人员在所述时刻下最终的行为分析结果。
在其中一个实施例中,所述方法还包括:
获取教室中的位置排布信息;
根据所述位置排布信息,确定在所述教室中的拍摄位置;
其中,所述拍摄位置,用于使得部署至的摄像机所拍摄的视频图像中的人脸图像大小满足人脸识别条件、且拍摄的视频图像中的课程参与人员的身体遮挡程度符合行为分析条件。
一种行为分析装置,所述装置包括:
获取模块,用于从预先部署在教室中不同位置的多台摄像机中,实时获取各所述摄像机采集的视频流;所述多台摄像机的总视野区域覆盖所述教室的整体场景区域;
解码模块,用于解码所述视频流,得到解码后的视频图像;
确定模块,用于确定所述视频图像中的分析区域;
分析模块,用于对所述分析区域内的课程参与人员进行人脸识别和行为分析,得到各所述分析区域中每个课程参与人员分别对应的行为分析结果;
所述分析模块,还用于若同一时刻下同一课程参与人员在不同分析区域中对应多份行为分析结果,从所述多份行为分析结果中筛选行为分析可信度最高的行为分析结果,作为所述课程参与人员在所述时刻下最终的行为分析结果。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
从预先部署在教室中不同位置的多台摄像机中,实时获取各所述摄像机采集的视频流;所述多台摄像机的总视野区域覆盖所述教室的整体场景区域;
解码所述视频流,得到解码后的视频图像;
确定所述视频图像中的分析区域;
对所述分析区域内的课程参与人员进行人脸识别和行为分析,得到各所述分析区域中每个课程参与人员分别对应的行为分析结果;
若同一时刻下同一课程参与人员在不同分析区域中对应多份行为分析结果,从所述多份行为分析结果中筛选行为分析可信度最高的行为分析结果,作为所述课程参与人员在所述时刻下最终的行为分析结果。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
从预先部署在教室中不同位置的多台摄像机中,实时获取各所述摄像机采集的视频流;所述多台摄像机的总视野区域覆盖所述教室的整体场景区域;
解码所述视频流,得到解码后的视频图像;
确定所述视频图像中的分析区域;
对所述分析区域内的课程参与人员进行人脸识别和行为分析,得到各所述分析区域中每个课程参与人员分别对应的行为分析结果;
若同一时刻下同一课程参与人员在不同分析区域中对应多份行为分析结果,从所述多份行为分析结果中筛选行为分析可信度最高的行为分析结果,作为所述课程参与人员在所述时刻下最终的行为分析结果。
上述行为分析方法、装置、计算机设备和存储介质,从预先部署在教室中不同位置的多台摄像机中,实时获取各所述摄像机采集的视频流。由于所述多台摄像机的总视野区域覆盖所述教室的整体场景区域,所以解码后的视频图像,能够清晰地显示出教室的整体场景区域中的课程参与人员,便于对所述分析区域内的课程参与人员进行人脸识别和行为分析,得到各所述分析区域中每个课程参与人员分别对应的行为分析结果。若同一时刻下同一课程参与人员在不同分析区域中对应多份行为分析结果,从所述多份行为分析结果中筛选行为分析可信度最高的行为分析结果,作为所述课程参与人员在所述时刻下最终的行为分析结果。可以避免当所述多台摄像机对应的所述分析区域发生重叠时,在重叠的所述分析区域的所述课程参与人员的所述行为分析结果不准确。从而提高了课程参与人员行为分析结果的准确性。
附图说明
图1为一个实施例中行为分析方法的应用环境图;
图2为一个实施例中行为分析方法的流程示意图;
图3为另一个实施例中行为分析方法的应用环境图;
图4为一个实施例中多台摄像机拍摄位置示意图;
图5为另一个实施例中行为分析方法的流程示意图;
图6为又一个实施例中行为分析方法的流程示意图;
图7为一个实施例中行为分析装置的结构框图;
图8为另一个实施例中行为分析装置的结构框图;
图9为一个实施例中计算机设备的内部结构图;
图10为另一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的行为分析方法,可以应用于如图1所示的应用环境中。其中,行为分析主机102通过网络与多台摄像机104进行连接。其中,行为分析主机102可以但不限于是各种个人计算机、笔记本电脑。摄像机104可以但不限于是各种监控摄像头和摄影仪器等。本实施例以该方法应用于行为分析主机进行举例说明,可以理解的是,该方法也可以应用于云平台,还可以应用于包括行为分析主机和云平台的系统,并通过行为分析主机和云平台的交互实现。行为分析主机可以是终端或服务器。
在一个实施例中,如图2所示,提供了一种行为分析方法,以该方法应用于图1中的行为分析主机为例进行说明,包括以下步骤:
步骤202,从预先部署在教室中不同位置的多台摄像机中,实时获取各摄像机采集的视频流;多台摄像机的总视野区域覆盖教室的整体场景区域。
其中,多台摄像机的总视野区域覆盖教室的整体场景区域,是指多台摄像机的总的拍摄画面能够覆盖整个教室,从而不会出现盲区。
具体地,可以预先在教室中不同位置部署多台摄像机。各台摄像机可以在启动后,对教室场景进行实时地视频图像采集,即可以采集得到视频流。行为分析主机从预先部署在教室中不同位置的多台摄像机中,实时获取各摄像机采集的覆盖教室的整体场景区域的视频流。
在一个实施例中,行为分析主机可以是一台linux服务器,服务器上可以配置一块或者多块gforce rtx 2080ti显卡,在显卡上可以运行人工智能行为分析软件和人脸识别软件。
在一个实施例中,行为分析主机可以通过实时流传输协议获取多台摄像机的视频流。
步骤204,解码视频流,得到解码后的视频图像。
具体地,行为分析主机将从各摄像机采集的视频流进行解码,得到解码后的视频图像。
步骤206,确定视频图像中的分析区域。
其中,分析区域,是视频图像中需要做行为分析的区域。可以理解,分析区域属于视频图像中的一部分区域。
具体地,行为分析主机可以解码后的视频图像添加预设框,再对根据添加的该预设框,确定视频图像中的分析区域。
在一个实施例中,行为分析主机可以直接将该预设框在视频图像中对应的图像区域,确定为分析区域。在另一个实施例中,行为分析主机也可以在该预设框在视频图像中对应的图像区域上进行扩展,将扩展后的区域作为分析区域。
在一个实施例中,行为分析主机可以将解码后的单台摄像机的完整视野对应的视频图像,添加一个预先设定的框,作为一个分析区域来确定视频图像中的分析区域(即,单张视频图像中可以确定一个分析区域)。行为分析主机也可以将将解码后的单台摄像机的完整视野对应的视频图像,添加多个预先设定的框,作为多个分析区域来确定视频图像中的分析区域(即,单张视频图像中可以确定多个分析区域)。
步骤208,对分析区域内的课程参与人员进行人脸识别和行为分析,得到各分析区域中每个课程参与人员分别对应的行为分析结果。
其中,行为分析,是对识别出来的每个课程参与人员的行为动作进行分析。
具体地,行为分析主机确定视频图像中的分析区域后,对分析区域内的课程参与人员进行人脸识别,以识别出分析区域内的课程参与人员的身份。对应于识别出来人脸的课程参与人员进行再进行行为分析,得到各分析区域中每个课程参与人员分别对应的行为分析结果。
步骤210,若同一时刻下同一课程参与人员在不同分析区域中对应多份行为分析结果,从多份行为分析结果中筛选行为分析可信度最高的行为分析结果,作为课程参与人员在时刻下最终的行为分析结果。
其中,行为分析可信度,是行为分析结果的可信程度。
具体地,若同一时刻下同一课程参与人员在出现在不同分析区域中,行为分析主机对分析区域内的课程参与人员进行人脸识别和行为分析则产生了多份行为分析结果。每份行为分析结果具有相应的行为分析可信度,针对多份行为分析结果,行为分析主机可以从中筛选行为分析可信度最高的行为分析结果,作为课程参与人员在该时刻下最终的行为分析结果。
在一个实施例中,行为分析主机可以将行为分析结果上传到教育管理平台,再由教育管理平台针对同一时刻下同一课程参与人员的多份行为分析结果进行筛选后,留下行为分析可信度最高的行为分析结果,作为课程参与人员在该时刻下最终的行为分析结果。
上述行为分析法中,从预先部署在教室中不同位置的多台摄像机中,实时获取各摄像机采集的视频流。由于多台摄像机的总视野区域覆盖教室的整体场景区域,所以解码后的视频图像,能够清晰地显示出教室的整体场景区域中的课程参与人员,便于对分析区域内的课程参与人员进行人脸识别和行为分析,得到各分析区域中每个课程参与人员分别对应的行为分析结果。若同一时刻下同一课程参与人员在不同分析区域中对应多份行为分析结果,从多份行为分析结果中筛选行为分析可信度最高的行为分析结果,作为课程参与人员在时刻下最终的行为分析结果。可以避免当多台摄像机对应的分析区域发生重叠时,在重叠的分析区域的课程参与人员的行为分析结果不准确。从而提高了课程参与人员行为分析结果的准确性。
在一个实施例中,确定视频图像中的分析区域包括:对视频图像添加设定的图像分割框,形成初始区域;根据初始区域,确定视频图像中的分析区域,并将分析区域之外的视频图像处理为黑色背景。
其中,图像分割框,是预先设定的框,用于添加在视频图像上,对视频图像进行分割。初始区域,是对视频图像添加设定的图像分割框后形成的区域,此时在该区域还没有对视频图像中的课程参与人员做处理。
具体地,行为分析主机对视频图像添加设定的图像分割框,形成初始区域。行为分析主机再根据初始区域,确定视频图像中的分析区域,并将分析区域之外的图像区域处理为黑色背景。
本实施例中,通过对视频图像添加设定的图像分割框,能够简单快捷地对视频图像进行区域划分,得到视频图像的初始区域,以进一步确定视频图像中的分析区域。
在一个实施例中,根据初始区域,确定视频图像中的分析区域,包括:查找初始区域边界上的课程参与人员;确定查找到的课程参与人员在边界上的身体边缘;对初始区域中不完整的身体边缘进行扩展,得到分析区域。
具体地,行为分析主机通过查找初始区域边界上的课程参与人员,确定查找到的课程参与人员在边界上的身体边缘。若课程参与人员在边界上的身体边缘不完整,行为分析主机再进一步对初始区域中不完整的身体边缘进行扩展,得到分析区域。
在一个实施例中,若课程参与人员在边界上的身体边缘不完整,行为分析主机可以通过openCV中的视频图像分割算法再进一步对初始区域中不完整的身体边缘进行扩展,得到分析区域。其中,openCV,是实现了视频图像处理和计算机视觉相关通用算法的软件库。图像分割算法,是把图像分成若干个特定的、具有独特性质的区域的技术。
本实施例中,通过对初始区域边界中不完整的课程参与人员的身体边缘进行扩展,可以获取到完整的课程参与人员身体以对课程参与人员身体发生的行为做分析,提高了分析区域划分的准确性。
在一个实施例中,对分析区域内的课程参与人员进行人脸识别和行为分析,得到各分析区域中每个课程参与人员分别对应的行为分析结果,包括:从教育管理平台获取课程列表;从教育管理平台,获取课程列表的目标课程中课程参与人员的信息和人脸识别库;根据课程参与人员的信息和人脸识别库,对分析区域内的课程参与人员进行人脸识别和行为分析,得到各分析区域中每个课程参与人员分别对应的行为分析结果。
其中,教育管理平台,是进行相关教育管理操作的计算机系统。课程参与人员可以包括老师和学生中的至少一种。目标课程中课程参与人员的信息,包括课程参与人员的姓名、学号和工号中的至少一种。人脸识别库,是人脸数据的储存管理中心,用于给人脸识别提供比对模板、给抓拍人脸数据提供管理空间以及给人脸算法检测提供测试样本。
具体地,行为分析主机从教育管理平台获取课程列表、课程列表的目标课程中课程参与人员的信息以及人脸识别库。行为分析主机根据课程参与人员的信息和人脸识别库,对分析区域内的课程参与人员进行人脸识别。行为分析主机对人脸识别出来的课程参与人员,进行行为分析,得到各分析区域中每个课程参与人员分别对应的行为分析结果。
在一个实施例中,行为分析主机对分析区域内的课程参与人员进行人脸识别,可以将视频图像中的识别出人脸的课程参与人员添加人像框,并标记出课程参与人员的信息。比如,标记出课程参与人员的姓名、学号和工号中的至少一种。
在一个实施例中,行为分析主机对分析区域内的课程参与人员进行人脸识别,可以将视频图像中的识别出人脸的课程参与人员的信息,在课程参与人员信息展示区域中进行展示。
在一个实施例中,行为分析主机对人脸识别出来的课程参与人员,进行行为分析,可以对人脸识别出来的课程参与人员做的不符合标准的行为做分析,也可以对人脸识别出来的课程参与人员做的所有行为做分析。其中,不符合标准的行为,是课程参与人员在课程期间做了与课程无关的或者是影响课程的行为。
在一个实施例中,当课程参与人员的发生的行为有站立、坐下、举手、趴桌子等。其中,不符合标准的行为可以是趴桌子。
本实施例中,通过从教育管理平台获取课程列表、课程列表的目标课程中课程参与人员的信息以及人脸识别库,对分析区域内的课程参与人员进行人脸识别和行为分析,得到各分析区域中每个课程参与人员分别对应的行为分析结果,方便教育管理人员对课程参与人员进行监管管理。
在一个实施例中,行为分析结果,包括课程参与人员标识、人脸识别可信度、行为动作、行为动作的发生时刻以及行为分析可信度;根据课程参与人员的信息和人脸识别库,对分析区域内的课程参与人员进行人脸识别和行为分析,得到各分析区域中每个课程参与人员分别对应的行为分析结果,包括:根据课程参与人员的信息和人脸识别库,对分析区域内的课程参与人员进行人脸识别,得到分析区域内的课程参与人员标识以及人脸识别可信度;对课程参与人员标识所标识的课程参与人员的行为进行分析,得到行为动作和相应的行为分析可信度,并记录各行为动作的发生时刻。
其中,课程参与人员标识,是课程参与人员的姓名、学号和工号中的至少一种。人脸识别可信度,是人脸识别误差不超过预设阈值的保证度。行为动作,是课程参与人员在课程期间发生的行为动作。行为分析可信度,是行为分析误差不超过预设阈值的保证度。
具体地,在课程期间,行为分析主机根据课程参与人员的信息和人脸识别库,对分析区域内的课程参与人员进行多次人脸识别,并保留课程参与人员在整个课程期间的人脸识别可信度高最高的值,得到分析区域内的课程参与人员标识以及人脸识别可信度。在课程期间,行为分析主机对分析区域内的课程参与人员的行为进行分析,得到行为动作和相应的行为分析可信度,并记录各行为动作的发生时刻。
在一个实施例中,行为分析主机可以对在课程期间内达不预设阈值的人脸识别可信度进行过滤,并将过滤后保留的人脸识别可信度对应的课程参与人员进行行为动作匹配。而对于未匹配到课程参与人员的行为动作,可以不做匹配。
本实施例中,过滤并保留各课程参与人员在整个课程期间的人脸识别可信度高最高的值,能够提高对课程参与人员的人脸识别的准确率。通过对课程参与人员的行为进行分析,得到课程参与人员的行为动作和相应的行为分析可信度,并与课程参与人员进行匹配,便于教育管理人员对课程参与人员的行为进行监控,以及对课程参与人员的各类行为动作进行统计。
在一个实施例中,每个行为分析结果中包括行为分析可信度;方法还包括:将各分析区域中每个课程参与人员分别对应的行为分析结果上传至教育管理平台;通过教育管理平台,将行为分析可信度小于预设阈值的行为分析结果过滤掉。
具体地,行为分析主机将各分析区域中每个课程参与人员分别对应的行为分析结果上传至教育管理平台。通过教育管理平台,将行为分析可信度小于预设阈值的行为分析结果过滤掉,留下行为分析可信度大于预设阈值的行为分析结果,得到完整统一的课程参与人员的行为分析结果。
本实施例中,通过教育管理平台,将行为分析可信度小于预设阈值的行为分析结果过滤掉,留下行为分析可信度大于预设阈值的行为分析结果,方便教育管理人员在教育管理平台对准确地课程参与人员的行为进行监控。
在一个实施例中,若同一时刻下同一课程参与人员在不同分析区域中对应多份行为分析结果,从多份行为分析结果中筛选行为分析可信度最高的行为分析结果,作为课程参与人员在时刻下最终的行为分析结果,包括:若同一时刻下同一课程参与人员在不同分析区域中对应多份过滤后的行为分析结果,通过教育管理平台,对多份行为分析结果进行行为分析可信度比较;保留行为分析可信度最高的行为分析结果,作为课程参与人员在时刻下最终的行为分析结果。
具体地,行为分析主机将各分析区域中每个课程参与人员分别对应的行为分析结果上传至教育管理平台,若同一时刻下同一课程参与人员在不同分析区域中对应多份过滤后的行为分析结果,则通过教育管理平台,对多份行为分析结果进行行为分析可信度比较。通过教育管理平台保留行为分析可信度最高的行为分析结果,作为课程参与人员在时刻下最终的行为分析结果。
在一个实施例中,如图3示出了一个结合教育管理平台的应用环境。其中,一个教室中的行为分析主机通过网络与台摄像机以及教育管理平台进行连接。教育管理平台可以获取多个教室中的行为分析主机上传的行为分析结果进行分析处理。行为分析主机将各分析区域中每个课程参与人员分别对应的行为分析结果上传至教育管理平台。在行为分析主机上传的行为分析结果中,若同一时刻下同一课程参与人员在不同分析区域中对应多份过滤后的行为分析结果,教育管理平台则对多份行为分析结果进行行为分析可信度比较,并保留行为分析可信度最高的行为分析结果,作为课程参与人员在该时刻下最终的行为分析结果。
本实施例中,通过教育管理平台,对多份行为分析结果进行行为分析可信度比较,保留行为分析可信度最高的行为分析结果,作为课程参与人员在时刻下最终的行为分析结果。经过教育管理平台对数据的处理,可以提高生成的行为分析结果的准确率,教育管理人员通过准确的行为分析结果能够加强对课程参与人员的监管力度。
在一个实施例中,该方法还包括:获取教室中的位置排布信息;根据位置排布信息,确定在教室中的拍摄位置;其中,拍摄位置,用于使得部署至的摄像机所拍摄的视频图像中的人脸图像大小满足人脸识别条件、且拍摄的视频图像中的课程参与人员的身体遮挡程度符合行为分析条件。
其中,人脸识别条件,是能够进行人脸识别的条件。可以理解,人脸图像大小满足人脸识别条件,则能够避免人脸图像过小,从而能够对视频图像中进行准确地人脸识别处理。行为分析条件,是能够进行行为分析的条件。可以理解,课程参与人员的身体遮挡程度符合行为分析条件,则能够避免身体遮挡过多,从而能够对视频图像中的课程参与人员进行准确地行为分析处理。
在一个实施例中,人脸识别条件可以包括人脸图像的像素大于或等于预设像素阈值。比如,人脸图像的像素大于或等于90像素。经过试验发现,当人脸图像的像素达到90-150个像素,人脸识别准确率在98%以上。
在一个实施例中,行为分析条件可以包括视频图像中的课程参与人员的身体遮挡程度小于或等于预设遮挡程度阈值。
具体地,行为分析主机可以根据教室中的位置排布信息,确定在教室中的拍摄位置。摄像机部署人员则可以按照该拍摄位置在教室中部署多台摄像机,每台摄像机则可以重点拍摄教室中一部分区域,从而使得拍摄的每个课程参与人员的人脸图像的大小都能够满足人脸识别条件,以及每个课程参与人员的身体遮挡程度符合行为分析条件。
为了便于理解,现结合图4进行举例说明。假设一个教室有6排座位,经过试验发现,对于单台摄像机,前三排的学生人脸图像能够达到90-150个像素,人脸识别准确率在98%以上,行为分析准确率也能达到80%。但是后三排学生的人脸图像就比较小,特别是最后一排只能到50个像素甚至更小,人脸识别准确率只有50%,同时后三排学生的身体遮挡比较严重,严重影响行为分析的准确率。所以,根据本申请实施例的方法,可以针对6排座位确定2个拍摄位置以安装两台摄像机。如图4所示,摄像机一主要针对前三排学生,摄像机二针对后三排学生。这样就能够让每个学生的人脸图像和身体遮挡程度都符合要求,从而能够达到较高的人脸识别准确率和行为分析准确率。相同的原因,对于更大的教室可以安装更多的摄像机来解决人脸图像太小和人身遮挡的问题,即可以根据本申请实施例中根据位置排布信息确定拍摄位置,以合理部署适量的摄像机,既能够保证人脸识别和行为分析准确性,又能够提高摄像机资源的合理利用率。
可以理解,在其他实施例中,也可以是,技术人员获取教室中的位置排布信息,根据位置排布信息,调整摄像机,直到所拍摄的视频图像中的人脸图像大小满足人脸识别条件、且拍摄的视频图像中的课程参与人员的身体遮挡程度符合行为分析条件后确定摄像机的拍摄位置,再将摄像机安装到教室中的拍摄位置。
本实施例中,根据位置排布信息,调整摄像机,直到所拍摄的视频图像中的人脸图像大小满足人脸识别条件、且拍摄的视频图像中的课程参与人员的身体遮挡程度符合行为分析条件后确定摄像机的拍摄位置,再将摄像机安装到教室中的拍摄位置,避免了单个摄像机拍摄到的教室后面的课程参与人员被前排课程参与人员阻挡,从而导致行为分析失败的问题,也避免了后排课程参与人员图像像素太低导致人脸识别率低的问题。
在一个实施例中,如图5所示,技术人员将摄像机安装到经过调整而确定的拍摄位置后,将行为分析主机与摄像机通过网络进行连接。行为分析主机将解码后的视频图像添加预先设定的框后,再对添加预先设定的框视频图像做处理,得出视频图像中的分析区域。
技术人员设定好行为分析主机用于在视频图像上添加的图像分割框。行为分析主机从教育管理平台获取课程列表、课程列表的目标课程中课程参与人员的信息以及人脸识别库。上课时间到了,行为分析主机开始针对摄像机拍摄的实时视频图像进行一节课程中课程参与人员的人脸识别和行为分析,并生成行为分析结果,直到下课,则将下一节课作为当前课程,开始针对摄像机拍摄的实时视频图像进行一节课程中课程参与人员的人脸识别和行为分析,并生成行为分析结果,直到下课。
在一个实施例中,如图6所示,行为分析主机从教育管理平台获取课程列表、课程列表的目标课程中课程参与人员的信息以及人脸识别库。上课时间到,行为分析主机从预先部署在教室中不同位置的多台摄像机中,实时获取各摄像机采集的覆盖教室的整体场景区域的视频流。行为分析主机将从各摄像机采集的视频流进行解码,得到解码后的视频图像。行为分析主机将解码后的视频图像添加预先设定的图像分割框后,再对添加预先设定的框视频图像做处理,确定出视频图像中的分析区域。行为分析主机确定视频图像中的分析区域后,对分析区域内的课程参与人员进行人脸识别。对应于识别出来人脸的课程参与人员进行再进行行为分析,得到各分析区域中每个课程参与人员分别对应的行为分析结果。行为分析主机将生成的行为分析结果上传到教育管理平台,通过教育管理平台,将行为分析可信度小于预设阈值的行为分析结果过滤掉,留下行为分析可信度大于预设阈值的行为分析结果。在行为分析主机上传的行为分析结果中,若同一时刻下同一课程参与人员在不同分析区域中对应多份过滤后的行为分析结果,教育管理平台则对多份行为分析结果进行行为分析可信度比较,并保留行为分析可信度最高的行为分析结果,作为课程参与人员在时刻下最终的行为分析结果。最终,经过教育管理平台对行为分析主机上传的行为分析结果进行综合处理后,得到完整统一的课程参与人员的行为分析结果。
应该理解的是,虽然图2、图5和图6的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2、图5和图6中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图7所示,提供了一种行为分析装置700,包括:获取模块702、解码模块704、确定模块706和分析模块708,其中:
获取模块702,用于从预先部署在教室中不同位置的多台摄像机中,实时获取各摄像机采集的视频流;多台摄像机的总视野区域覆盖教室的整体场景区域。
解码模块704,用于解码视频流,得到解码后的视频图像。
确定模块706,用于确定视频图像中的分析区域。
分析模块708,用于对分析区域内的课程参与人员进行人脸识别和行为分析,得到各分析区域中每个课程参与人员分别对应的行为分析结果。
分析模块708,还用于若同一时刻下同一课程参与人员在不同分析区域中对应多份行为分析结果,从多份行为分析结果中筛选行为分析可信度最高的行为分析结果,作为课程参与人员在时刻下最终的行为分析结果。
在一个实施例中,确定模块706,还用于对视频图像添加设定的图像分割框,形成初始区域;根据初始区域,确定视频图像中的分析区域,并将分析区域之外的图像处理为黑色背景。
在一个实施例中,确定模块706,还用于查找初始区域边界上的课程参与人员;确定查找到的课程参与人员在边界上的身体边缘;对初始区域中不完整的身体边缘进行扩展,得到分析区域。
在一个实施例中,分析模块708,还用于从教育管理平台获取课程列表;从教育管理平台,获取课程列表的目标课程中课程参与人员的信息和人脸识别库;根据课程参与人员的信息和人脸识别库,对分析区域内的课程参与人员进行人脸识别和行为分析,得到各分析区域中每个课程参与人员分别对应的行为分析结果。
在一个实施例中,行为分析结果,包括课程参与人员标识、人脸识别可信度、行为动作、行为动作的发生时刻以及行为分析可信度;分析模块708,还用于根据课程参与人员的信息和人脸识别库,对分析区域内的课程参与人员进行人脸识别,得到分析区域内的课程参与人员标识以及人脸识别可信度;对课程参与人员标识所标识的课程参与人员的行为进行分析,得到行为动作和相应的行为分析可信度,并记录各行为动作的发生时刻。
如图8所示,在一个实施例中,每个行为分析结果中包括行为分析可信度;该装置还包括:
过滤模块710,用于将各分析区域中每个课程参与人员分别对应的行为分析结果上传至教育管理平台;通过教育管理平台,将行为分析可信度小于预设阈值的行为分析结果过滤掉。
在一个实施例中,分析模块708,还用于若同一时刻下同一课程参与人员在不同分析区域中对应多份过滤后的行为分析结果,通过教育管理平台,对多份行为分析结果进行行为分析可信度比较;保留行为分析可信度最高的行为分析结果,作为课程参与人员在时刻下最终的行为分析结果。
在一个实施例中,获取教室中的位置排布信息;根据位置排布信息,确定在教室中的拍摄位置;其中,拍摄位置,用于使得部署至的摄像机所拍摄的视频图像中的人脸图像大小满足人脸识别条件、且拍摄的视频图像中的课程参与人员的身体遮挡程度符合行为分析条件。
关于行为分析装置的具体限定可以参见上文中对于行为分析方法的限定,在此不再赘述。上述行为分析装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是教育管理平台,其内部结构图可以如图9所示。该计算机设备包括通过系统总线连接的处理器、存储器和网络接口。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储行为分析数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种行为分析方法。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图10所示。该计算机设备包括通过系统总线连接的处理器、存储器、通信接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的通信接口用于与外部的终端进行有线或无线方式的通信,无线方式可通过WIFI、运营商网络、NFC(近场通信)或其他技术实现。该计算机程序被处理器执行时以实现一种行为分析方法。
本领域技术人员可以理解,图9和图10中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,还提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述各方法实施例中的步骤。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述各方法实施例中的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-Only Memory,ROM)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic Random Access Memory,DRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种行为分析方法,其特征在于,所述方法包括:
从预先部署在教室中不同位置的多台摄像机中,实时获取各所述摄像机采集的视频流;所述多台摄像机的总视野区域覆盖所述教室的整体场景区域;
解码所述视频流,得到解码后的视频图像;
确定所述视频图像中的分析区域;
对所述分析区域内的课程参与人员进行人脸识别和行为分析,得到各所述分析区域中每个课程参与人员分别对应的行为分析结果;
若同一时刻下同一课程参与人员在不同分析区域中对应多份行为分析结果,从所述多份行为分析结果中筛选行为分析可信度最高的行为分析结果,作为所述课程参与人员在所述时刻下最终的行为分析结果。
2.根据权利要求1所述的方法,其特征在于,所述确定所述视频图像中的分析区域包括:
对所述视频图像添加设定的图像分割框,形成初始区域;
根据所述初始区域,确定所述视频图像中的分析区域,并将所述分析区域之外的图像处理为黑色背景。
3.根据权利要求2所述的方法,其特征在于,所述根据所述初始区域,确定所述视频图像中的分析区域,包括:
查找所述初始区域边界上的课程参与人员;
确定查找到的所述课程参与人员在所述边界上的身体边缘;
对所述初始区域中不完整的所述身体边缘进行扩展,得到分析区域。
4.根据权利要求1所述的方法,其特征在于,所述对所述分析区域内的课程参与人员进行人脸识别和行为分析,得到各所述分析区域中每个课程参与人员分别对应的行为分析结果,包括:
从教育管理平台获取课程列表;
从所述教育管理平台,获取所述课程列表的目标课程中课程参与人员的信息和人脸识别库;
根据所述课程参与人员的信息和人脸识别库,对所述分析区域内的课程参与人员进行人脸识别和行为分析,得到各所述分析区域中每个课程参与人员分别对应的行为分析结果。
5.根据权利要求4所述的方法,其特征在于,所述行为分析结果,包括课程参与人员标识、人脸识别可信度、行为动作、行为动作的发生时刻以及行为分析可信度;
所述根据所述课程参与人员的信息和人脸识别库,对所述分析区域内的课程参与人员进行人脸识别和行为分析,得到各所述分析区域中每个课程参与人员分别对应的行为分析结果,包括:
根据所述课程参与人员的信息和人脸识别库,对所述分析区域内的课程参与人员进行人脸识别,得到所述分析区域内的课程参与人员标识以及人脸识别可信度;
对所述课程参与人员标识所标识的课程参与人员的行为进行分析,得到行为动作和相应的行为分析可信度,并记录各所述行为动作的发生时刻。
6.根据权利要求1所述的方法,其特征在于,每个所述行为分析结果中包括行为分析可信度;所述方法还包括:
将各所述分析区域中每个课程参与人员分别对应的行为分析结果上传至教育管理平台;
通过所述教育管理平台,将行为分析可信度小于预设阈值的行为分析结果过滤掉;
所述若同一时刻下同一课程参与人员在不同分析区域中对应多份行为分析结果,从所述多份行为分析结果中筛选行为分析可信度最高的行为分析结果,作为所述课程参与人员在所述时刻下最终的行为分析结果,包括:
若同一时刻下同一课程参与人员在不同分析区域中对应多份过滤后的行为分析结果,通过教育管理平台,对多份所述行为分析结果进行行为分析可信度比较;
保留行为分析可信度最高的行为分析结果,作为所述课程参与人员在所述时刻下最终的行为分析结果。
7.根据权利要求1至6中任意一项所述的方法,其特征在于,所述方法还包括:
获取教室中的位置排布信息;
根据所述位置排布信息,确定在所述教室中的拍摄位置;
其中,所述拍摄位置,用于使得部署至的摄像机所拍摄的视频图像中的人脸图像大小满足人脸识别条件、且拍摄的视频图像中的课程参与人员的身体遮挡程度符合行为分析条件。
8.一种行为分析装置,其特征在于,所述装置包括:
获取模块,用于从预先部署在教室中不同位置的多台摄像机中,实时获取各所述摄像机采集的视频流;所述多台摄像机的总视野区域覆盖所述教室的整体场景区域;
解码模块,用于解码所述视频流,得到解码后的视频图像;
确定模块,用于确定所述视频图像中的分析区域;
分析模块,用于对所述分析区域内的课程参与人员进行人脸识别和行为分析,得到各所述分析区域中每个课程参与人员分别对应的行为分析结果;
所述分析模块,还用于若同一时刻下同一课程参与人员在不同分析区域中对应多份行为分析结果,从所述多份行为分析结果中筛选行为分析可信度最高的行为分析结果,作为所述课程参与人员在所述时刻下最终的行为分析结果。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述的方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011355692.3A CN112613342B (zh) | 2020-11-27 | 2020-11-27 | 行为分析方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011355692.3A CN112613342B (zh) | 2020-11-27 | 2020-11-27 | 行为分析方法、装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112613342A true CN112613342A (zh) | 2021-04-06 |
CN112613342B CN112613342B (zh) | 2024-07-09 |
Family
ID=75225942
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011355692.3A Active CN112613342B (zh) | 2020-11-27 | 2020-11-27 | 行为分析方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112613342B (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108038176A (zh) * | 2017-12-07 | 2018-05-15 | 浙江大华技术股份有限公司 | 一种路人库的建立方法、装置、电子设备及介质 |
CN108268854A (zh) * | 2018-02-02 | 2018-07-10 | 上海有我科技有限公司 | 一种基于特征识别的教学辅助大数据智能分析方法 |
US20180204111A1 (en) * | 2013-02-28 | 2018-07-19 | Z Advanced Computing, Inc. | System and Method for Extremely Efficient Image and Pattern Recognition and Artificial Intelligence Platform |
CN108777788A (zh) * | 2018-08-01 | 2018-11-09 | 深圳市捷视飞通科技股份有限公司 | 视频质量测试方法、计算机设备及存储介质 |
US20190392209A1 (en) * | 2018-06-22 | 2019-12-26 | Konica Minolta, Inc. | Document Analyzer, Document Analysis Method, and Computer-Readable Storage Medium Storing Program |
CN111241926A (zh) * | 2019-12-30 | 2020-06-05 | 新大陆数字技术股份有限公司 | 考勤与学情分析方法、系统、设备及可读存储介质 |
CN111275345A (zh) * | 2020-01-22 | 2020-06-12 | 重庆大学 | 一种基于深度学习的课堂信息化评价及管理的系统及方法 |
CN111325082A (zh) * | 2019-06-28 | 2020-06-23 | 杭州海康威视系统技术有限公司 | 一种人员专注度分析方法及装置 |
CN111709358A (zh) * | 2020-06-14 | 2020-09-25 | 东南大学 | 基于课堂视频的师生行为分析系统 |
US20200364443A1 (en) * | 2018-05-15 | 2020-11-19 | Tencent Technology (Shenzhen) Company Limited | Method for acquiring motion track and device thereof, storage medium, and terminal |
-
2020
- 2020-11-27 CN CN202011355692.3A patent/CN112613342B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180204111A1 (en) * | 2013-02-28 | 2018-07-19 | Z Advanced Computing, Inc. | System and Method for Extremely Efficient Image and Pattern Recognition and Artificial Intelligence Platform |
CN108038176A (zh) * | 2017-12-07 | 2018-05-15 | 浙江大华技术股份有限公司 | 一种路人库的建立方法、装置、电子设备及介质 |
CN108268854A (zh) * | 2018-02-02 | 2018-07-10 | 上海有我科技有限公司 | 一种基于特征识别的教学辅助大数据智能分析方法 |
US20200364443A1 (en) * | 2018-05-15 | 2020-11-19 | Tencent Technology (Shenzhen) Company Limited | Method for acquiring motion track and device thereof, storage medium, and terminal |
US20190392209A1 (en) * | 2018-06-22 | 2019-12-26 | Konica Minolta, Inc. | Document Analyzer, Document Analysis Method, and Computer-Readable Storage Medium Storing Program |
CN108777788A (zh) * | 2018-08-01 | 2018-11-09 | 深圳市捷视飞通科技股份有限公司 | 视频质量测试方法、计算机设备及存储介质 |
CN111325082A (zh) * | 2019-06-28 | 2020-06-23 | 杭州海康威视系统技术有限公司 | 一种人员专注度分析方法及装置 |
CN111241926A (zh) * | 2019-12-30 | 2020-06-05 | 新大陆数字技术股份有限公司 | 考勤与学情分析方法、系统、设备及可读存储介质 |
CN111275345A (zh) * | 2020-01-22 | 2020-06-12 | 重庆大学 | 一种基于深度学习的课堂信息化评价及管理的系统及方法 |
CN111709358A (zh) * | 2020-06-14 | 2020-09-25 | 东南大学 | 基于课堂视频的师生行为分析系统 |
Non-Patent Citations (4)
Title |
---|
PAULO BLIKSTEIN: "Using learning analytics to assess students\' behavior in open-ended programming tasks", 《PROCEEDINGS OF THE 1ST INTERNATIONAL CONFERENCE ON LEARNING ANALYTICS AND KNOWLEDGE》, 27 February 2011 (2011-02-27), pages 110 - 116, XP058863721, DOI: 10.1145/2090116.2090132 * |
冯亚维等: "基于大数据平台行为分析的智慧教室", 《工业控制计算机》, vol. 33, no. 9, 26 October 2020 (2020-10-26), pages 117 - 119 * |
廖恩红等: "视像行为识别的大数据分析与教学决策研究", 《工程技术研究》, no. 12, 25 June 2020 (2020-06-25), pages 238 - 240 * |
王奕波: "考场作弊行为智能分析方法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 7, 15 July 2012 (2012-07-15), pages 138 - 1955 * |
Also Published As
Publication number | Publication date |
---|---|
CN112613342B (zh) | 2024-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109325933B (zh) | 一种翻拍图像识别方法及装置 | |
CN110659397B (zh) | 一种行为检测方法、装置、电子设备和存储介质 | |
CN109299658B (zh) | 脸部检测方法、脸部图像渲染方法、装置及存储介质 | |
KR20100102700A (ko) | 저장된 객체 인식을 이용하는 디지털 카메라 포커싱 | |
CN110866473B (zh) | 目标对象的跟踪检测方法及装置、存储介质、电子装置 | |
CN107395957B (zh) | 拍照方法、装置、存储介质及电子设备 | |
WO2018102880A1 (en) | Systems and methods for replacing faces in videos | |
CN105872363A (zh) | 人脸对焦清晰度的调整方法及调整装置 | |
CN111241872B (zh) | 视频图像遮挡方法及装置 | |
CN110572570A (zh) | 一种多人场景的智能识别拍摄的方法、系统及存储介质 | |
CN107844774A (zh) | 图像显示的选择方法、装置、智能终端及存储介质 | |
KR102511287B1 (ko) | 영상 기반 자세 예측 및 행동 검출 방법 및 장치 | |
CN110765874A (zh) | 基于无人机的监控方法及相关产品 | |
CN113705510A (zh) | 目标识别跟踪的方法、装置、设备及存储介质 | |
CN110910419A (zh) | 一种自动跟踪方法及装置、电子设备 | |
CN105049714A (zh) | 一种人物图像预览方法和装置 | |
CN111241926A (zh) | 考勤与学情分析方法、系统、设备及可读存储介质 | |
CN112613342B (zh) | 行为分析方法、装置、计算机设备和存储介质 | |
CN111918127A (zh) | 一种视频剪辑方法、装置、计算机可读存储介质及相机 | |
JP2020201880A (ja) | 画像処理装置、および、画像処理プログラム | |
CN111353330A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN111988520B (zh) | 一种画面切换方法、装置、电子设备及存储介质 | |
CN116017136A (zh) | 拍摄设备的控制方法和装置、存储介质及电子装置 | |
KR102194511B1 (ko) | 대표 영상프레임 결정시스템 및 이를 이용한 방법 | |
TWI690207B (zh) | 物件追蹤方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |