CN114037954A - 一种基于课堂密集人群人体行为分析系统 - Google Patents

一种基于课堂密集人群人体行为分析系统 Download PDF

Info

Publication number
CN114037954A
CN114037954A CN202111320917.6A CN202111320917A CN114037954A CN 114037954 A CN114037954 A CN 114037954A CN 202111320917 A CN202111320917 A CN 202111320917A CN 114037954 A CN114037954 A CN 114037954A
Authority
CN
China
Prior art keywords
module
image
classroom
skeleton
interval
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111320917.6A
Other languages
English (en)
Inventor
罗勇
罗珍珍
秦乐
蒋长根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangxi Normal University
Original Assignee
Jiangxi Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangxi Normal University filed Critical Jiangxi Normal University
Priority to CN202111320917.6A priority Critical patent/CN114037954A/zh
Publication of CN114037954A publication Critical patent/CN114037954A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于课堂密集人群人体行为分析系统,涉及课堂人群行为分析领域,其技术方案包括分析系统,分析系统的内部包括中央处理系统、图像系统、监控摄像头、预测系统、判断模块和外部环境检测模块,分析系统的外部通信连接有云端存储模块,云端存储模块对分析系统内部的数据进行实时同步;图像系统与监控摄像头之间通信连接,图像系统的内部包括图像采集模块、图像处理模块和图像识别模块,图像系统对监控摄像头拍摄的图像进行采集,通过关联模块和区域定位模块的配合使用能够实现对动作与其他不符的人物周围的判断,同时对该图像前后5s之内图像的比对,进而能够实现对动作异常同学的精确判断,避免发生误判。

Description

一种基于课堂密集人群人体行为分析系统
技术领域
本发明涉及课堂人群行为分析技术领域,尤其涉及一种基于课堂密集人群人体行为分析系统。
背景技术
上课的过程中,同学之间交头接耳或者被外部的事物所吸引进而导致学生上课不注意听讲,降低课堂的教学质量;
经检索,中国专利号为CN109284737A的发明专利,公开了一种用于智慧教室的学生行为分析和识别系统,包括:坐标及姿态捕捉模块,获取每个学生的位置坐标,并捕捉每个学生的面部朝向姿态和手部动作姿态;注意力点计算模块,获取学生的面部朝向姿态,通过面部朝向姿态对学生的课堂注意力点进行计算;行为识别模块,获取学生的注意力点和手部动作姿态,通过学生的课堂注意力点和手部动作姿态识别学生的课堂行为;行为对比模块,获取每个学生的课堂行为,并与其邻近学生的课堂行为进行对比,判断每个学生的课堂状态;结果反馈模块,用于反馈学生的课堂状态,并实时反馈给教师。本发明解决了现有技术对学生课堂状态识别和判断不准确的问题;
然而上述系统在对学生行为进行获取的过程中仅能够通过对单个学生的表情与肢体行为的获取,从而判断学生是否处于嬉闹状态,但是,识别装置在对学生的肢体进行检测时,由于桌椅以及学生之间的遮挡,从而难以对学生的动作进行精确识别,并且仅通过对单个学生进行分析,容易出现错误判断,因此需要一种基于课堂密集人群人体行为分析系统。
发明内容
本发明的目的是为了解决现有技术中存在对学生的肢体进行检测时,由于桌椅以及学生之间的遮挡,从而难以对学生的动作进行精确识别的缺点,而提出的一种基于课堂密集人群人体行为分析系统。
为了实现上述目的,本发明采用了如下技术方案:
一种基于课堂密集人群人体行为分析系统,包括分析系统,所述分析系统的内部包括中央处理系统、图像系统、监控摄像头、预测系统、判断模块和外部环境检测模块,所述分析系统的外部通信连接有云端存储模块,所述云端存储模块对分析系统内部的数据进行实时同步;
所述图像系统与所述监控摄像头之间通信连接,所述图像系统的内部包括图像采集模块、图像处理模块和图像识别模块,所述图像系统对所述监控摄像头拍摄的图像进行采集,所述图像系统对采集后的图像进行处理和识别,所述图像系统将处理识别后的图像数据传输到所述中央处理系统中,所述中央处理系统的内部包括面部特征提取模块和肢体特征提取模块,所述肢体特征提取模块的内部包括骨架提取模块、特征获取模块和粒子填充模块,所述肢体特征提取模块通过所述图像系统传输的图像数据对人物的骨架进行拆分与预判填充,所述中央处理系统将人物的面部以及肢体动作图像数据传输到所述预测系统中,所述预测系统内部包括音频识别模块、关联模块和区域定位模块,所述预测系统与所述外部环境检测模块之间通信连接,所述预测系统根据接收到的图像数据进行关联,在一定区域和时间内对人物的行为进行比对分析,所述预测系统将比对分析的结果传输到所述判断模块中,通过与所述判断模块中预定的数据进行比对,判断该人物之间的离散性。
上述技术方案进一步包括:
所述监控摄像头安装在教室内部,所述监控摄像头对课堂内部的学生进行实时监控,所述图像采集模块对所述监控摄像头拍摄的图像进行采集,所述图像采集模块将采集到的图像传输到所述图像处理模块中,所述图像处理模块对采集到的图像进行预处理,去除图像杂质与噪点。
所述图像处理模块将处理后的图像出传输到所述图像识别模块中,所述图像识别模块根据所述图像处理模块中处理后的数据对图像进行识别,所述图像识别模块识别的内容包括人物的肢体与面部的动作,所述图像识别模块将识别出的图像数据传输到所述中央处理系统中。
所述面部特征提取模块根据所述图像识别模块传输的图像数据对人物的面部特征进行获取,所述肢体特征提取模块根据所述图像识别模块传输的图像数据对人物的肢体特征进行获取。
所述骨架提取模块根据获取的人物肢体特征对人物的骨架进行提取,并且建立关节活动点,所述特征获取模块根据所述骨架提取模块建立的人物骨架对骨架周围的填充特征进行获取。
所述粒子填充模块根据所述骨架提取模块与所述特征获取模块中的数据对后续人物的运行轨迹进行预期定位时,根据骨架周围的填充特征,对骨架进行粒子填充。
所述音频识别模块对课堂内部的音频进行获取识别,所述区域定位模块对人物行为异常区域进行定位,并将该人物的位置中心的区域半径定义为Q;
对第一区间0m<Q<1m进行检测,并对该区间内其他人物的形态进行分析;
对第二区间1m≤Q<3m进行检测,并对该区间内其他人物的形态进行分析;
再对第三区间3m≤Q<5m进行检测,并对该区间内其他人物的形态进行分析;
同时所述外部环境检测模块将外部的环境数据传输到所述预测系统中,同时所述关联模块对行为异常的同学的图像数据与该时间点前后5s内的图像内容再进行比对,并将比对的结果传输到所述判断模块中。
所述判断模块根据第一区间、第二区间和第三区间的检测结果,以及前后5s内图像的比对结果,对人物之间的离散性进行判断。
相比现有技术,本发明的有益效果为:
1、本发明中,使用时,通过肢体特征提取模块内部骨架提取模块、特征获取模块和粒子填充模块的配合使用能够实现对图像运行遮挡部分的修复,先对人物进行骨骼提取,然后当人物运动到遮挡部分时,通过人物运行的轨迹,从而对骨骼运动的图像进行复原,再通过粒子填充模块就可以对骨骼进行粒子填充,进而能够实现对人物遮挡部分的复原,便于对人物的行为进行判断。
2、本发明中,通过关联模块和区域定位模块的配合使用能够实现对动作与其他不符的人物周围的判断,同时对该图像前后5s之内图像的比对,进而能够实现对动作异常同学的精确判断,避免发生误判。
附图说明
图1为本发明提出的一种基于课堂密集人群人体行为分析系统的系统框图;
图2为本发明中图像系统的系统框图;
图3为本发明中中央处理系统的系统框图;
图4为本发明中肢体特征提取模块的系统框图;
图5为本发明中预测系统的系统框图。
图中:1、中央处理系统;2、图像系统;3、监控摄像头;4、预测系统;5、判断模块;6、外部环境检测模块;7、云端存储模块;8、图像采集模块;9、图像处理模块;10、图像识别模块;11、面部特征提取模块;12、肢体特征提取模块;13、骨架提取模块;14、特征获取模块;15、粒子填充模块;16、音频识别模块;17、关联模块;18、区域定位模块。
具体实施方式
下文结合附图和具体实施例对本发明的技术方案做进一步说明。
实施例一
如图1-5所示,本发明提出的一种基于课堂密集人群人体行为分析系统,包括分析系统,分析系统的内部包括中央处理系统1、图像系统2、监控摄像头3、预测系统4、判断模块5和外部环境检测模块6,分析系统的外部通信连接有云端存储模块7,云端存储模块7对分析系统内部的数据进行实时同步;
图像系统2与监控摄像头3之间通信连接,图像系统2的内部包括图像采集模块8、图像处理模块9和图像识别模块10,图像系统2对监控摄像头3拍摄的图像进行采集,图像系统2对采集后的图像进行处理和识别,图像系统2将处理识别后的图像数据传输到中央处理系统1中,中央处理系统1的内部包括面部特征提取模块11和肢体特征提取模块12,肢体特征提取模块12的内部包括骨架提取模块13、特征获取模块14和粒子填充模块15,肢体特征提取模块12通过图像系统2传输的图像数据对人物的骨架进行拆分与预判填充,中央处理系统1将人物的面部以及肢体动作图像数据传输到预测系统4中,预测系统4内部包括音频识别模块16、关联模块17和区域定位模块18,预测系统4与外部环境检测模块6之间通信连接,预测系统4根据接收到的图像数据进行关联,在一定区域和时间内对人物的行为进行比对分析,预测系统4将比对分析的结果传输到判断模块5中,通过与判断模块5中预定的数据进行比对,判断该人物之间的离散性;
监控摄像头3安装在教室内部,监控摄像头3对课堂内部的学生进行实时监控,图像采集模块8对监控摄像头3拍摄的图像进行采集,图像采集模块8将采集到的图像传输到图像处理模块9中,图像处理模块9对采集到的图像进行预处理,去除图像杂质与噪点;
图像处理模块9将处理后的图像出传输到图像识别模块10中,图像识别模块10根据图像处理模块9中处理后的数据对图像进行识别,图像识别模块10识别的内容包括人物的肢体与面部的动作,图像识别模块10将识别出的图像数据传输到中央处理系统1中。
基于实施例一的一种基于课堂密集人群人体行为分析系统工作原理是,在上课时,监控摄像头3对课堂内部的学生进行实时监控,图像采集模块8对监控摄像头3拍摄的图像进行采集,图像采集模块8将采集到的图像传输到图像处理模块9中,图像处理模块9对采集到的图像进行预处理,去除图像杂质与噪点,并且对图像进行分解;
图像处理模块9将处理后的图像出传输到图像识别模块10中,图像识别模块10根据图像处理模块9中处理后的数据对图像进行识别,图像识别模块10识别的内容包括人物的肢体与面部的动作,最后图像识别模块10将识别出的图像数据传输到中央处理系统1中。
实施例二
如图1-5所示,基于实施例一的基础上,面部特征提取模块11根据图像识别模块10传输的图像数据对人物的面部特征进行获取,肢体特征提取模块12根据图像识别模块10传输的图像数据对人物的肢体特征进行获取;
骨架提取模块13根据获取的人物肢体特征对人物的骨架进行提取,并且建立关节活动点,特征获取模块14根据骨架提取模块13建立的人物骨架对骨架周围的填充特征进行获取;
粒子填充模块15根据骨架提取模块13与特征获取模块14中的数据对后续人物的运行轨迹进行预期定位时,根据骨架周围的填充特征,对骨架进行粒子填充。
本实施例中,工作时,面部特征提取模块11根据图像识别模块10传输的图像数据对人物的面部特征进行获取,肢体特征提取模块12根据图像识别模块10传输的图像数据对人物的肢体特征进行获取,之后骨架提取模块13根据获取的人物肢体特征对人物的骨架进行提取,并且建立关节活动点,特征获取模块14根据骨架提取模块13建立的人物骨架对骨架周围的填充特征进行获取,当人物的肢体受到遮挡时,骨架提取模块13能够根据人物肢体的运动轨迹对人物的骨架进行定位,然后再通过粒子填充模块15对骨架周围的粒子填充特征,还原人物的真实性。
实施例三
如图1-5所示,基于上述实施例一或二,音频识别模块16对课堂内部的音频进行获取识别,区域定位模块18对人物行为异常区域进行定位,并将该人物的位置中心的区域半径定义为Q;
对第一区间0m<Q<1m进行检测,并对该区间内其他人物的形态进行分析;
对第二区间1m≤Q<3m进行检测,并对该区间内其他人物的形态进行分析;
再对第三区间3m≤Q<5m进行检测,并对该区间内其他人物的形态进行分析;
同时外部环境检测模块6将外部的环境数据传输到预测系统4中,同时关联模块17对行为异常的同学的图像数据与该时间点前后5s内的图像内容再进行比对,并将比对的结果传输到判断模块5中;
判断模块5根据第一区间、第二区间和第三区间的检测结果,以及前后5s内图像的比对结果,对人物之间的离散性进行判断。
本实施例中,工作时,音频识别模块16对课堂内部的音频进行获取识别,区域定位模块18对人物行为异常区域进行定位,并将该人物的位置中心的区域半径定义为Q,然后再分别对区间进行检测;
对第一区间0m<Q<1m进行检测,并对该区间内其他人物的形态进行分析;
对第二区间1m≤Q<3m进行检测,并对该区间内其他人物的形态进行分析;
再对第三区间3m≤Q<5m进行检测,并对该区间内其他人物的形态进行分析;
当第一区间出现其他异常行为时,对异常行为进行记录并标记;
当第一区间未出现而第二区间出现异常现象时,则需要对第二区间内二者面部表情进行比对,从而判断该同学的上课状态;
当第一区间与第二区间均未出现异常现象时,则需要对第三区间内二者面部表情与肢体进行比对,同时引入外部环境,判断该异常现象是否由外部环境所引起,从而判断该同学的上课状态;
同时在进行比对时,对异常行为图像前后5s内部的图像均需要进行比对,然后预测系统4将比对的结果传输到判断模块5中,判断模块5根据第一区间、第二区间和第三区间的检测结果,以及前后5s内图像的比对结果,对人物之间的离散性进行判断。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。

Claims (8)

1.一种基于课堂密集人群人体行为分析系统,包括分析系统,其特征在于,所述分析系统的内部包括中央处理系统(1)、图像系统(2)、监控摄像头(3)、预测系统(4)、判断模块(5)和外部环境检测模块(6),所述分析系统的外部通信连接有云端存储模块(7),所述云端存储模块(7)对分析系统内部的数据进行实时同步;
所述图像系统(2)与所述监控摄像头(3)之间通信连接,所述图像系统(2)的内部包括图像采集模块(8)、图像处理模块(9)和图像识别模块(10),所述图像系统(2)对所述监控摄像头(3)拍摄的图像进行采集,所述图像系统(2)对采集后的图像进行处理和识别,所述图像系统(2)将处理识别后的图像数据传输到所述中央处理系统(1)中,所述中央处理系统(1)的内部包括面部特征提取模块(11)和肢体特征提取模块(12),所述肢体特征提取模块(12)的内部包括骨架提取模块(13)、特征获取模块(14)和粒子填充模块(15),所述肢体特征提取模块(12)通过所述图像系统(2)传输的图像数据对人物的骨架进行拆分与预判填充,所述中央处理系统(1)将人物的面部以及肢体动作图像数据传输到所述预测系统(4)中,所述预测系统(4)内部包括音频识别模块(16)、关联模块(17)和区域定位模块(18),所述预测系统(4)与所述外部环境检测模块(6)之间通信连接,所述预测系统(4)根据接收到的图像数据进行关联,在一定区域和时间内对人物的行为进行比对分析,所述预测系统(4)将比对分析的结果传输到所述判断模块(5)中,通过与所述判断模块(5)中预定的数据进行比对,判断该人物之间的离散性。
2.根据权利要求1所述的一种基于课堂密集人群人体行为分析系统,其特征在于,所述监控摄像头(3)安装在教室内部,所述监控摄像头(3)对课堂内部的学生进行实时监控,所述图像采集模块(8)对所述监控摄像头(3)拍摄的图像进行采集,所述图像采集模块(8)将采集到的图像传输到所述图像处理模块(9)中,所述图像处理模块(9)对采集到的图像进行预处理,去除图像杂质与噪点。
3.根据权利要求2所述的一种基于课堂密集人群人体行为分析系统,其特征在于,所述图像处理模块(9)将处理后的图像出传输到所述图像识别模块(10)中,所述图像识别模块(10)根据所述图像处理模块(9)中处理后的数据对图像进行识别,所述图像识别模块(10)识别的内容包括人物的肢体与面部的动作,所述图像识别模块(10)将识别出的图像数据传输到所述中央处理系统(1)中。
4.根据权利要求3所述的一种基于课堂密集人群人体行为分析系统,其特征在于,所述面部特征提取模块(11)根据所述图像识别模块(10)传输的图像数据对人物的面部特征进行获取,所述肢体特征提取模块(12)根据所述图像识别模块(10)传输的图像数据对人物的肢体特征进行获取。
5.根据权利要求4所述的一种基于课堂密集人群人体行为分析系统,其特征在于,所述骨架提取模块(13)根据获取的人物肢体特征对人物的骨架进行提取,并且建立关节活动点,所述特征获取模块(14)根据所述骨架提取模块(13)建立的人物骨架对骨架周围的填充特征进行获取。
6.根据权利要求5所述的一种基于课堂密集人群人体行为分析系统,其特征在于,所述粒子填充模块(15)根据所述骨架提取模块(13)与所述特征获取模块(14)中的数据对后续人物的运行轨迹进行预期定位时,根据骨架周围的填充特征,对骨架进行粒子填充。
7.根据权利要求6所述的一种基于课堂密集人群人体行为分析系统,其特征在于,所述音频识别模块(16)对课堂内部的音频进行获取识别,所述区域定位模块(18)对人物行为异常区域进行定位,并将该人物的位置中心的区域半径定义为Q;
对第一区间0m<Q<1m进行检测,并对该区间内其他人物的形态进行分析;
对第二区间1m≤Q<3m进行检测,并对该区间内其他人物的形态进行分析;
再对第三区间3m≤Q<5m进行检测,并对该区间内其他人物的形态进行分析;
同时所述外部环境检测模块(6)将外部的环境数据传输到所述预测系统(4)中,同时所述关联模块(17)对行为异常的同学的图像数据与该时间点前后5s内的图像内容再进行比对,并将比对的结果传输到所述判断模块(5)中。
8.根据权利要求7所述的一种基于课堂密集人群人体行为分析系统,其特征在于,所述判断模块(5)根据第一区间、第二区间和第三区间的检测结果,以及前后5s内图像的比对结果,对人物之间的离散性进行判断。
CN202111320917.6A 2021-11-09 2021-11-09 一种基于课堂密集人群人体行为分析系统 Pending CN114037954A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111320917.6A CN114037954A (zh) 2021-11-09 2021-11-09 一种基于课堂密集人群人体行为分析系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111320917.6A CN114037954A (zh) 2021-11-09 2021-11-09 一种基于课堂密集人群人体行为分析系统

Publications (1)

Publication Number Publication Date
CN114037954A true CN114037954A (zh) 2022-02-11

Family

ID=80136888

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111320917.6A Pending CN114037954A (zh) 2021-11-09 2021-11-09 一种基于课堂密集人群人体行为分析系统

Country Status (1)

Country Link
CN (1) CN114037954A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115953272A (zh) * 2022-12-19 2023-04-11 西安交通工程学院 一种利用视觉与图像处理相结合的教学演示系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108243327A (zh) * 2016-12-27 2018-07-03 天津阳冰科技有限公司 一种新型视频录播系统
CN110992741A (zh) * 2019-11-15 2020-04-10 深圳算子科技有限公司 一种基于课堂情绪和行为分析的学习辅助方法及系统
CN111931608A (zh) * 2020-07-23 2020-11-13 安徽天达网络科技有限公司 基于学生姿态以及学生人脸识别的操行管理的方法和系统
CN113269076A (zh) * 2021-05-19 2021-08-17 哈尔滨工业大学 基于分布式监控的暴力行为检测系统及检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108243327A (zh) * 2016-12-27 2018-07-03 天津阳冰科技有限公司 一种新型视频录播系统
CN110992741A (zh) * 2019-11-15 2020-04-10 深圳算子科技有限公司 一种基于课堂情绪和行为分析的学习辅助方法及系统
CN111931608A (zh) * 2020-07-23 2020-11-13 安徽天达网络科技有限公司 基于学生姿态以及学生人脸识别的操行管理的方法和系统
CN113269076A (zh) * 2021-05-19 2021-08-17 哈尔滨工业大学 基于分布式监控的暴力行为检测系统及检测方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115953272A (zh) * 2022-12-19 2023-04-11 西安交通工程学院 一种利用视觉与图像处理相结合的教学演示系统

Similar Documents

Publication Publication Date Title
CN109165552B (zh) 一种基于人体关键点的姿态识别方法、系统及存储器
CN108960067B (zh) 基于深度学习的实时的列车驾驶员动作识别系统和方法
CN111726586A (zh) 一种生产体系操作规范监测提醒系统
CN106600640B (zh) 一种基于rgb-d相机的人脸识别辅助眼镜
WO2015126031A1 (ko) 사람 계수 방법 및 그를 위한 장치
CN110909722A (zh) 基于目标动作检测的防作弊摄像头
CN104361326A (zh) 一种判别活体人脸的方法
CN110148092B (zh) 基于机器视觉的青少年坐姿及情绪状态的分析方法
CN105138967B (zh) 基于人眼区域活动状态的活体检测方法和装置
CN106960473B (zh) 一种行为感知系统及方法
CN111616718B (zh) 基于姿态特征的驾驶员疲劳状态检测方法和系统
CN110176025B (zh) 一种基于姿态的监考人跟踪方法
WO2020253475A1 (zh) 智能车运动控制方法及装置、设备和存储介质
CN113537005A (zh) 一种基于姿态估计的线上考试学生行为分析方法
CN114255508A (zh) 一种基于OpenPose的学生体态检测分析及效率评估方法
CN114037954A (zh) 一种基于课堂密集人群人体行为分析系统
CN112949345A (zh) 疲劳监测方法及系统、行车记录仪和智能座舱
CN110427811A (zh) 基于视频流数据的人体骨骼化打架识别方法
CN112102129A (zh) 一种基于学生端数据处理的智能考试作弊识别系统
CN106599873A (zh) 基于三维姿态信息的人物身份识别方法
CN107480635A (zh) 一种基于双模态分类模型融合的扫视信号识别方法及系统
CN114970701A (zh) 一种基于多模态融合的课堂互动分析方法及系统
CN111931748A (zh) 一种适用于蓄电池生产车间的工人疲劳度检测方法
CN110378935A (zh) 基于图像语义信息的抛物识别方法
CN114764580A (zh) 一种基于无穿戴设备的实时人体手势识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination