CN116246299A - 一种结合目标检测和姿态识别技术的“低头族”智能识别系统 - Google Patents
一种结合目标检测和姿态识别技术的“低头族”智能识别系统 Download PDFInfo
- Publication number
- CN116246299A CN116246299A CN202211203476.6A CN202211203476A CN116246299A CN 116246299 A CN116246299 A CN 116246299A CN 202211203476 A CN202211203476 A CN 202211203476A CN 116246299 A CN116246299 A CN 116246299A
- Authority
- CN
- China
- Prior art keywords
- low
- head
- detection
- human body
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/11—Hand-related biometrics; Hand pose recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Abstract
本发明提供了一种结合目标检测和姿态识别技术的“低头族”智能识别系统,共包含以下步骤:获取目标图像:获取用户直接上传的图像,或使用关键帧提取技术从上传视频中截取图像;目标检测:利用YOLOv5算法训练目标检测模型,识别图片中的人与对应的手持物品,得到目标的检测框、位置信息与类型;多人姿态识别:对所获人体目标检测框依次进行关键点检测,并针对关键点坐标信息设计相应算法,同时判断多个目标是否有低头、手持物等行为;“低头族”行为捕捉:结合所获信息综合判定“低头族”行为的发生,从视频中抓取对应目标的图像进行展示,并给出警告信息。本发明提升了多人姿态识别方法的准确度,从而提高“低头族”识别系统的可靠性。
Description
技术领域
本发明涉及图像处理技术,尤其地,涉及一种结合目标检测和姿态识别技术的“低头族”智能识别系统。
背景技术
目前,中国的智能手机用户数量已经超过10亿,成为全球智能手机用户最多的国家。除了居家娱乐时间,许多人在工作时、上课中甚至是马路上都沉迷于手机,而不考虑所处环境,这是对健康、安全、生活都极不负责任的行为。
近些年,人们对“低头族”问题的重视程度不断提升,制定了许多相应的监管制度。然而,原始的制止方式存在许多弊端,比如耗费大量人力、存在法律争议、容易引发冲突等问题。
随着人工智能技术的不断发展,许多监管系统都考虑使用无人智能识别系统,但现有的行为识别方式大多采用简单的图像分类或者姿态识别技术,不仅需要大量的相关数据,且执行能力较差、准确性较低,从而导致监管不力。
结合目标检测和姿态识别技术对公共场所的“低头族”行为进行智能识别,并给予适当的提醒和警示。在技术上,解决了部分相关算法无法实现多目标同时判断的问题,并利用自设计的算法提升了姿态识别的准确度。在领域应用中,降低了规范“低头族”行为过程中的人工投入成本,旨在减少“低头族”对自己及他人可能造成的伤害。
发明内容
基于以上问题,本发明提出了一种结合目标检测和姿态识别技术的“低头族”智能识别系统,用于实现公共环境中“低头族”行为的智能识别。
根据本发明的叙述,一种结合目标检测和姿态识别技术的“低头族”智能识别系统,包含以下步骤:
获取目标图像:获取用户直接上传的图像,或使用关键帧提取技术从上传视频中截取图像;
目标检测:利用YOLOv5算法训练目标检测模型,识别图片中的人与对应的手持物品,得到目标的检测框、位置信息与类型;
多人姿态识别:对所获人体目标检测框依次进行关键点检测,并针对关键点坐标信息设计相应算法,同时判断多个目标是否有低头、手持物等行为;
“低头族”行为捕捉:结合所获信息综合判定“低头族”行为的发生,从视频中抓取对应目标的图像进行展示,并给出警告信息。
进一步地,目标检测步骤还包括:
数据集构造:获取各场景中不同人体姿态与手机、Pad等手持物品的图像,给予合理标注以构建数据集合,并使用数据增强技术进行样本扩充;
模型训练:选用YOLOv5s版本的预训练模型,调整至合适的参数并进行模型训练,得到的权重模型即为所需目标检测模型。
进一步地,多人姿态识别步骤还包括:
人体关键点检测:使用人体关键点检测工具mediapipe检测每个目标框中的人体关键点,从而实现多个人的人体关键点检测;
低头姿态识别:利用人体头部与肩膀的关键点坐标信息判断人体是否有低头行为;
持物姿态识别:计算物品与人体之间的距离、人体手臂所成角度及手肘关节的纵坐标位置,设置一定阈值进行手持物品动作的姿态识别。
其中,在所述低头姿态识别部分,以鼻子到左右肩膀距离占行人检测框的比例作为低头姿态识别的依据,在保证低头动作检测准确率的同时,避免由于拍摄视角和到画面距离不同所造成的结果差异。
更进一步地,持物姿态识别部分还包括:
手持物距离计算:基于所述目标检测部分,需识别出对应的手机等物品,并采用鼻子关键点到手机检测框中心点的欧氏距离作为衡量手持物品与人体之间距离的标准,如果这个欧式距离小于特定某一阈值,则认为在人体附近有该物品存在,即可能出现手持手机状态;
手持动作识别:计算两手臂腕关节、肘关节和肩关节三点所成的夹角,并使用手肘关节纵坐标位置进行辅助判断,设定相应的阈值作为衡量手持物品动作的标准。
与现有技术相比,本发明有以下优点:
结合目标检测及姿态识别技术,检测目标人群的手持物品与行为姿态,对行人是否为“低头族”行为做出了综合判断,并向“低头族”发出警告信息。这改善了相关算法不能并行检测多人的局限性,提升了姿态估计领域多人识别的准确度,是对机器视觉领域人体行为识别技术的一种探索;将人工智能技术在机器视觉领域的最新成果应用在“低头族”智能识别系统中,可以帮助规范公共行为、减少交通事故、保护生命安全;形成的研究成果可应用在交通要道的行人监控仪器中,产生良好的经济效益。
附图说明
图1是本申请一种结合目标检测和姿态识别技术的“低头族”智能识别系统的步骤流程图;
图2是本申请目标检测部分的结构框图;
图3是本申请多人姿态识别部分的结构框图;
图4是mediapipe关键点检测的结构示意图;
图5是mediapipe依赖算法BlazePose的网络结构图;
图6是本申请系统交互界面的示意图。
具体实施方式
下面结合附图和具体实施方式对本申请作进一步详细的说明。
本发明提出了一种识别“低头族”行为的方法,图1是根据本发明示出的步骤流程图,包括:步骤S1~S4
步骤S1为获取目标图像步骤,即从搭建的系统平台界面中获取用户直接上传的图像,或使用关键帧提取技术从上传视频中截取图像;
其中,所述系统平台为使用python语言、基于flask框架搭建的交互平台,为用户提供上传图像、视频等处理对象的渠道,并接收系统处理后展示的目标信息。
步骤S2为目标检测步骤,利用YOLOv5算法训练目标检测模型,识别图片中的人与对应的手持物品,得到目标的检测框、位置信息与类型;
在本申请中,所述步骤S2具体可以包括如下子步骤:
子步骤201为数据集构造步骤,获取各场景中不同人体姿态与手机、Pad等手持物品的图像,给予合理标注以构建数据集合,并使用数据增强技术进行样本扩充;
具体地,采用标注工具labelImg进行数据集的标注,并按照固定比例将数据集划分为训练集、测试集、验证集,并对数据集进行格式转换。
另外,在构造数据集的过程中,还可以使用图像的亮度变换、水平垂直翻转、增加噪声等方法进行数据增强。
子步骤202为模型训练步骤,选用YOLOv5s版本的预训练模型,调整至合适的参数并进行模型训练,得到的权重模型即为实现行人以及手机、平板、书本等手持物品的目标检测模型。
其中,YOLOv5对应版本的预训练模型为开源代码,需要根据具体任务进行配置信息的替换,考虑到本发明应用场景本身的局限性及实验的可操作性,选择采用YOLOv5s.pt的s版本的最小预训练模型。
YOLOV5的损失函数包括分类损失Lclass、定位损失Llocation及置信度损失Lconfidence,定位损失为预测框与GT框之间的误差,而置信度损失则表示框的目标性。
总的损失函数为这三种损失函数之和,设为:
L=Lclass+Llocation+Lconfidence
YOLOv5使用二元交叉熵损失函数计算类别概率和目标置信度的损失,并使用CIOULoss作为bounding box回归的损失。
步骤S3为多人姿态识别步骤,对所获人体目标检测框依次进行关键点检测,并针对关键点坐标信息设计相应算法,同时判断多个目标是否有低头、手持物等行为;
在本申请中,所述步骤S3具体可以包括如下子步骤:
子步骤301为人体关键点检测步骤,使用人体关键点检测工具mediapipe检测每个目标框中的人体关键点,从而实现多个人的人体关键点检测;
其中,需结合所述目标检测过程,修改模型参数,将人体关键点检测函数运用在每个人的目标框下,返回各目标框中人体关键点的坐标信息。
mediapipe的相关技术主要来自BlazePose算法,该算法会先进行一次人脸检测,检测到人体的大致位置,然后再把该区域传入到关键点检测网络中。之后再利用该帧的关键点对下一帧的关键点进行预测,并无需再次调用人脸检测器,而是直接在上一帧关键点附近区域进行检测,从而可以大大加快运算速度。
由于自由度较多的刚体会有更多检测框满足Non-Maximum Suppression(NMS)算法的IoU阈值,因此NMS算法更适合具有较少自由度的刚体。与多数目标检测器类似,BlazePose后处理部分也依赖于NMS算法,用于去除多余的目标检测框。由于人脸刚体的自由度要少于人体,BlazePose算法在进行NMS算法调用时会更有优势。
本发明调用mediapipe方法的相关设置为:
导入mediapipe人工智能工具包,定义姿态模块solution.pose,再导入绘图函数以便后续标出人体关键点。
之后定义姿态模块里的模型具体参数:设置“static_image_mode”选项为“False”,以处理连续的视频流;选择“model_complexity”为性能好但较慢的2号类型;选择“smooth_landmarks”为“True”;设定“min_detection_confidence”为0.5;“min_tracking_confidence”同样设定为0.5;其余均采用默认值,具体如表1所示。
表1
此外,还需定义处理每一帧的函数,为视频对象的处理做相应调整。
子步骤302为低头姿态识别技术,需要利用人体头部与肩膀的关键点坐标信息判断人体是否有低头行为;
具体地,以鼻子到左右肩膀距离占行人检测框的比例作为低头姿态识别的依据,在保证低头动作检测准确率的同时,避免由于拍摄视角和到画面距离不同所造成的结果差异。
子步骤303为持物姿态识别步骤,计算物品与人体之间的距离、人体左右手肘关键点的高低差或手臂所成角度,设置一定阈值进行手持物品动作的姿态识别。
在本申请中,所述子步骤303具体还进一步包括如下子步骤:
子步骤3031为手持物距离计算步骤,基于所述目标检测部分,需识别出对应的手机等物品,并采用鼻子关键点到手机检测框中心点的欧氏距离作为衡量手持物品与人体之间距离的标准,如果这个欧式距离小于特定某一阈值,则认为在人体附近有该物品存在,即可能出现手持手机状态;
在具体代码实现中,遍历所有预测框记录下各类别手持物的中心点坐标,再在每帧人体关键点检测组合中遍历该人体鼻子关键点是否和已记录的手持物中心点坐标存在小于阈值的情况,如果有,则说明该目标有手持物品的可能性。
子步骤3032为手持动作识别步骤,以肘关节点为顶点,计算两手臂腕关节、肘关节和肩关节三点所成的夹角,并使用手肘关节纵坐标位置进行辅助判断,设定相应的阈值作为衡量手持物品动作的标准。
所述关键点信息为坐标值,因此需使用余弦公式求对应夹角。
以关键点A(x0,y0)为顶点,计算其与关键点B(x1,y1)、c(x2,y2)连线所成夹角θ余弦值cosθ的计算公式为:
步骤S4为“低头族”行为捕捉步骤,结合所获信息综合判定“低头族”行为的发生,从视频中抓取对应目标的图像进行展示,并给出警告信息。
按照所述判断条件进行组合,总共有以下几种可能出现的情况:
若图像中没有人物出现,无法检测出人体目标框,则无需捕捉、展示;
若图像中有人物出现,并且检测出手持物品、低头姿态,以及抬手持物姿态,即满足“低头族”判断标准的所有条件,需要进行图像抓取并展示在界面中。
对于其他情况,即无法同时满足检测出行人、手持物品及对应姿态的条件,则仅标出行人目标框,不做图像捕捉展示。
利用准确度(Accuracy)、精确度(Precision)、召回率(Recall)等对检测模型进行评价。
对于“手机低头族”行人和正常行走的行人这两个类别,可以得到混淆矩阵如表2所示:
表2
准确度计算公式为:
精确率计算结公式为:
召回率计算公式为:
其中,NumTP、NumFN、NumFP及NumTN分别表示“低头族”判定为“低头族”、“低头族”判定为正常、正常判定为“低头族”以及正常判定为正常的行人的数目。
本发明所提出的一种结合目标检测和姿态识别技术的“低头族”智能识别系统,不仅是对两种技术的综合使用,而且在一定程度上实现了技术的相互改善。利用目标检测识别出各人体检测框及其位置和坐标信息,并联合使用人体关键点检测方法以实现多人姿态识别功能;根据日常生活中,人体在相应情境下可能呈现的状态,设计对关键点处理的不同算法,为“低头族”行为识别提供了特色化、专门化、精准化的技术基础。
以上所述,仅为对本发明具体实施方式的详细介绍,而不应理解为对本发明的限制,对于相关领域的技术人员在不改变本发明核心思想的情况下,所做的各种变化和变型,也应视为本发明的保护范围之内。
Claims (5)
1.一种结合目标检测和姿态识别技术的“低头族”智能识别系统,其特征在于,包含以下步骤:
获取目标图像:获取用户直接上传的图像,或使用关键帧提取技术从上传视频中截取图像;
目标检测:利用YOLOv5算法训练目标检测模型,识别图片中的人与对应的手持物品,得到目标的检测框、位置信息与类型;
多人姿态识别:对所获人体目标检测框依次进行关键点检测,并针对关键点坐标信息设计相应算法,同时判断多个目标是否有低头、手持物等行为;
“低头族”行为捕捉:结合所获信息综合判定“低头族”行为的发生,从视频中抓取对应目标的图像进行展示,并给出警告信息。
2.如权利要求1所述的一种结合目标检测和姿态识别技术的“低头族”智能识别系统,其特征在于,目标检测步骤进一步包括:
数据集构造:获取各场景中不同人体姿态与手机、Pad等手持物品的图像,给予合理标注以构建数据集合,并使用数据增强技术进行样本扩充;
模型训练:选用YOLOv5s版本的预训练模型,调整至合适的参数并进行模型训练,得到的权重模型即为所需目标检测模型。
3.如权利要求1所述的一种结合目标检测和姿态识别技术的“低头族”智能识别系统,其特征在于,多人姿态识别步骤进一步包括:
人体关键点检测:使用人体关键点检测工具mediapipe检测每个目标框中的人体关键点,从而实现多个人的人体关键点检测;
低头姿态识别:利用人体头部与肩膀的关键点坐标信息判断人体是否有低头行为;
持物姿态识别:计算物品与人体之间的距离、人体左右手肘关键点的高低差或手臂所成角度,设置一定阈值进行手持物品动作的姿态识别。
4.如权利要求3所述的方法,其特征在于,在低头姿态识别部分,以鼻子到左右肩膀距离占行人检测框的比例作为低头姿态识别的依据,在保证低头动作检测准确率的同时,避免由于拍摄视角和到画面距离不同所造成的结果差异。
5.如权利要求3所述的方法,其特征在于,在持物姿态识别部分,进一步包括:
手持物距离计算:基于所述目标检测部分,需识别出对应的手机等物品,并采用鼻子关键点到手机检测框中心点的欧氏距离作为衡量手持物品与人体之间距离的标准,如果这个欧式距离小于特定某一阈值,则认为在人体附近有该物品存在,即可能出现手持手机状态;
手持动作识别:以肘关节点为顶点,计算两手臂腕关节、肘关节和肩关节三点所成的夹角,并使用手肘关节纵坐标位置辅助判断,设定相应的阈值作为衡量手持物品动作的标准。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211203476.6A CN116246299A (zh) | 2022-09-29 | 2022-09-29 | 一种结合目标检测和姿态识别技术的“低头族”智能识别系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211203476.6A CN116246299A (zh) | 2022-09-29 | 2022-09-29 | 一种结合目标检测和姿态识别技术的“低头族”智能识别系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116246299A true CN116246299A (zh) | 2023-06-09 |
Family
ID=86633734
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211203476.6A Pending CN116246299A (zh) | 2022-09-29 | 2022-09-29 | 一种结合目标检测和姿态识别技术的“低头族”智能识别系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116246299A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116884034A (zh) * | 2023-07-10 | 2023-10-13 | 中电金信软件有限公司 | 对象识别方法及装置 |
-
2022
- 2022-09-29 CN CN202211203476.6A patent/CN116246299A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116884034A (zh) * | 2023-07-10 | 2023-10-13 | 中电金信软件有限公司 | 对象识别方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109934176B (zh) | 行人识别系统、识别方法及计算机可读存储介质 | |
US9036902B2 (en) | Detector for chemical, biological and/or radiological attacks | |
CN110135249B (zh) | 基于时间注意力机制和lstm的人体行为识别方法 | |
CN112215185B (zh) | 一种从监控视频中检测跌倒行为的系统及方法 | |
WO2007037065A9 (en) | Object tracking method and object tracking apparatus | |
CN110738154A (zh) | 一种基于人体姿态估计的行人摔倒检测方法 | |
US20220180534A1 (en) | Pedestrian tracking method, computing device, pedestrian tracking system and storage medium | |
Shoaib et al. | View-invariant fall detection for elderly in real home environment | |
CN106295511A (zh) | 人脸跟踪方法及装置 | |
CN112001347B (zh) | 一种基于人体骨架形态与检测目标的动作识别方法 | |
CN110796051A (zh) | 基于货柜场景下的实时存取行为检测方法和系统 | |
CN110097724B (zh) | 一种基于fpga的物品自动看护方法及系统 | |
WO2022156317A1 (zh) | 视频帧处理方法及装置、电子设备和存储介质 | |
CN112270381A (zh) | 基于深度学习的人流量检测方法 | |
CN115082825A (zh) | 一种基于视频实时人体跌倒检测及报警的方法和装置 | |
CN111310728A (zh) | 基于监控相机和无线定位的行人重识别系统 | |
CN116246299A (zh) | 一种结合目标检测和姿态识别技术的“低头族”智能识别系统 | |
CN111241926A (zh) | 考勤与学情分析方法、系统、设备及可读存储介质 | |
CN114170272A (zh) | 一种云端环境下基于感知传感器的事故报告、储存方法 | |
CN116824641B (zh) | 姿态分类方法、装置、设备和计算机存储介质 | |
CN112183287A (zh) | 一种移动机器人在复杂背景下的人数统计方法 | |
CN114639168B (zh) | 一种用于跑步姿态识别的方法和系统 | |
CN113408435B (zh) | 一种安全监控方法、装置、设备和存储介质 | |
CN112329665B (zh) | 一种人脸抓拍系统 | |
CN114373142A (zh) | 基于深度学习的行人跌倒检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |