CN115100724A - 一种多相机人员状态识别方法 - Google Patents
一种多相机人员状态识别方法 Download PDFInfo
- Publication number
- CN115100724A CN115100724A CN202210870951.9A CN202210870951A CN115100724A CN 115100724 A CN115100724 A CN 115100724A CN 202210870951 A CN202210870951 A CN 202210870951A CN 115100724 A CN115100724 A CN 115100724A
- Authority
- CN
- China
- Prior art keywords
- personnel
- camera
- data
- module
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C9/00—Individual registration on entry or exit
- G07C9/30—Individual registration on entry or exit not involving the use of a pass
- G07C9/32—Individual registration on entry or exit not involving the use of a pass in combination with an identity check
- G07C9/37—Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Signal Processing (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种多相机人员状态识别方法,包括信息采集模块、算法处理模块、数据传输与通信模块、数据发布模块、人员分析模块五个部分。利用室内安装的多个摄像头,研究基于机器视觉的人员检测、身份识别、动态跟踪、人员特征识别和肢体动作识别算法,实现工业室内环境下的人员身份识别、人员精确检测、人员活动过程准确跟踪和人员抓取物品动作的识别。并实现相关信息的存储、上传、管理和可视化展示。具有低成本、高实时、覆盖全面、效率高等特点。
Description
技术领域
本发明属于室内定位技术领域,具体涉及一种多相机人员状态识别方法。
背景技术
随着信息智能与计算机视觉领域的飞速发展,以大数据、高效数据库、机器学习和深度学习为核心的综合技术应用系统,为无人仓储管理、企业安全生产过程监测、企业监控化管理等方面提供了革新的系统与系列技术。近年来,企业安全生产事故的层出不穷,使得生产安全问题存在于各行各业,并不局限于石油石化、烟花爆竹、建筑施工或者化工等高危企业。导致安全事故发生的潜在风险,隐藏在企业特殊的生产过程中,比如物料存放和领用错误、非授权人员闯入关键岗位、关键人员在岗流动中的异常行为、仓储关键位置和设备巡检位置巡检不到位等。这些潜在的问题均直接或间接地影响着企业的运行。在日常管理方面,消除这些潜在风险的影响,是防范安全生产问题的根本举措。现代企业的仓储内环境和仓储外厂区环境均安装了以球机和枪机为代表的大量摄相机,将这些设备的安装位置信息、视频与图像内容感知信息进行统一的分析,通过对人员位置信息、人员流动轨迹、人员身份识别的精细刻画,利用多个相机覆盖区域联合开展大范围区域内人员的定位、轨迹提取和分析,对企业现有管理系统功能的完善和生产过程中的人员监测具有重要价值。
发明内容
本发明一种多相机人员状态识别方法,利用室内安装的多个摄像头,研究基于机器视觉的人员检测、身份识别、动态跟踪、人员特征识别和肢体动作识别算法,实现工业室内环境下的人员身份识别、人员精确检测、人员活动过程准确跟踪和人员抓取物品动作的识别。并实现相关信息的存储、上传、管理和可视化展示。
为达到上述目的,本发明采用以下技术方案予以实现:
本技术方案以覆盖监控区域的多个相机时间同步和时空重建为基础,以采集的视频数据为数据源,通过研究人员入口身份识别和管理方法,并建立单相机场景下的人员定位-检测-跟踪模型,构建人员在室内运动过程中的特征建模方法和识别方法,完成多相机覆盖区域联合视觉感知下的多人员目标检测跟踪、人员轨迹提取与分析方法等研究,开发监控、管理、信息发布一体化的应用系统。
系统总体架构包括信息采集模块、算法处理模块、数据传输与通信模块、数据发布模块、人员分析模块五个部分,各模块间的通信如下:首先通过信息采集模块,将数据通过传输与通信模块传输至算法处理模块,经过技术处理后将已处理过的数据又通过传输与通信模块传输至数据发布模块与人员分析模块。信息采集模块包括数据采集设备,摄像头主要布设于仓库等生产区域、关键位置区、关键物料区及设施处,自动采集监控视频;算法处理模块主要分为人员身份识别,人员检测与定位,人员轨迹分析,完成对采集视频的处理,提供身份识别功能、人员位置计算以及运动轨迹提取功能;数据传输与通信模块:将采集到的监控视频实时传输到中心服务器,利用深度学习技术处理后的监测数据传输给工作人员和管理人员,可采用蓝牙、有线网络或Wi-Fi等多种通信方式。算法处理模块的各个功能之间进行数据的传输可以采用HTTP、TCP/IP等网络传输协议;数据发布模块将最终获得的员工数据可以以各个数据库表格的形式进行记录,在网页端进行点击查看;人员分析模块利用分析得到的员工身份识别信息、位置和轨迹信息,进行人员何时到达物料区、何时离开物料区、人员进入与离开仓库或者厂区到过哪些位置,位置是否为关键位置,是否是该人员需要达到的区域等信息,利用这些信息进行过程管理。
本发明所述一种多相机人员状态识别方法涉及研究开发的相关技术包括:基于图像处理的人员身份识别技术与管理方法、人员检测-定位-跟踪技术、多相机覆盖区大范围多人员轨迹分析技术三个核心。
与现有技术相比,本发明具有以下有益效果:
本发明一种多相机人员状态识别方法以门禁闸机系统、多相机布置为基础,通过基于机器视觉的人员检测、身份识别、动态跟踪、人员特征识别和肢体动作识别算法,可实现室内环境下的人员身份识别、人员精确检测、人员活动过程准确跟踪和人员抓取物品动作的识别。定位精度可达到30cm,精度高于目前已有的相关室内定位技术。
附图说明
图1为一种多相机人员状态识别方法整体方案示意图;
图2为人脸识别分类过程示意图;
图3为人员目标检测跟踪方案示意图;
图4为人员目标跟踪框架和轨迹更新流程示意图;
图5为多相机人员分析示意图;
图6为人员高精度位置计算方法;
具体实施方式
下面结合附图对本发明做进一步详细描述:
如图1所示,一种多相机人员状态识别方法,主要包含三个核心技术:基于图像处理的人员身份管理技术;人员检测、定位与跟踪技术;多相机覆盖区域多人员轨迹分析技术;其中基于图像处理的人员身份管理技术主要包括基于视觉的人员特征提取与建模、人员身份识别与人员管理,人员检测、定位与跟踪主要包括人员检测数据集与人员检测建模、人员检测与定位、单相机人员跟踪,多相机覆盖区域多人员轨迹分析主要包含多相机人员大范围轨迹生成、多人员轨迹分析、定位及轨迹信息标准化。
一种多相机人员状态识别方法,具体实施方式为:系统总体架构包括信息采集模块、算法处理模块、数据传输与通信模块、数据发布模块、人员分析模块五个部分。其中信息采集模块包括数据采集设备,摄像头主要布设于仓库等生产区域、关键位置区、关键物料区及设施处,自动采集监控视频;算法处理模块主要分为人员身份识别,人员检测与定位,人员轨迹分析,完成对采集视频的处理,提供身份识别功能、人员位置计算以及运动轨迹提取功能;数据传输与通信模块:将采集到的监控视频实时传输到中心服务器,利用深度学习技术处理后的监测数据传输给工作人员和管理人员,可采用蓝牙、有线网络或Wi-Fi等多种通信方式。算法处理模块的各个功能之间进行数据的传输可以采用HTTP、TCP/IP等网络传输协议;数据发布模块将最终获得的员工数据可以以各个数据库表格的形式进行记录,在网页端进行点击查看;人员分析模块利用分析得到的员工身份识别信息、位置和轨迹信息,进行人员何时到达物料区、何时离开物料区、人员进入与离开仓库或者厂区到过哪些位置,位置是否为关键位置,是否是该人员需要达到的区域等信息,利用这些信息进行过程管理。
以下对三个核心技术分别进行说明:
基于图像处理的人员身份识别技术与管理方法
设计基于残差神经网络模型ResNet(Residual Neural Network)为主干网络的以人脸为主要特征的128维人员身份识别向量,代替传统手工选取度量方法,提高人员身份识别精度;设计基于GrabCut的人脸兴趣区域ROI(Region Of Interest)提取方法,对人员检测结果的兴趣区进行建模,通过建立具有空间位置和距离限定的人脸特征匹配方法,解决人员身份特征提取及匹配问题,以人员身份识别结果为基础,提出面向仓库人员检测应用的生产过程人员管理方案。主要技术过程如下:
基于ResNet网络的人脸特征提取方法,利用预测算子获取人脸五官的几何点区域,加载人脸标准特征模型,获取人脸的68个特征点,加载ResNet-34模型参数,获得训练模型,将ResNet-34网络的layer4作为人脸的特征层,输入待识别人脸图像时,使用该网络接口获取人脸特征向量。人脸识别包含两类:人脸验证、人脸识别。人脸验证是待识别人脸与本地人脸数据库中人脸1:1的比对,即判断两幅图像中的人是否是同一个人;而人脸识别是待识别人脸与本地人脸数据库中人脸1:N的比对,即从众多人中识别出输入图像中人员的身份。因此身份识别问题除了需要提取人脸特征向量,还需对人脸特征向量进行匹配。图2为项目拟采取的人脸识别分类过程示意图。
在人员管理方面,对进入室内的人员进行管理,将监测过程识别结果与工作环境身份识别相结合,提高人员识别精度。针对使用环境建立所有参与人员的人脸图像特征值库,特征值库包含三方面信息:人员姓名、人脸图像以及相应的特征值,人脸图像特征值库在数据库中采用唯一识别码UUID(Universally Unique Identifier)来进行编号储存,人脸图像及人脸特征值均用二进制数据进行表示。通过调用人脸识别模型和人脸关键点检测器,提取待识别人脸图像的特征值,计算待识别人脸图像的特征值和特征值库的度量距离,根据特征匹配规则得到身份识别结果,距离小于给定的人脸特征匹配阈值,判断两幅人脸图像为相同对象,反之则为不同对象。
人员检测、定位与跟踪技术
制作用于室内环境监测的人员检测数据集,基于深度学习网络人员数据集进行训练得到适用于室内环境的人员检测模型。通过设计相机标定方法,对监控相机图像数据进行空间标定,为提供二维定位模式提供数据基准,以高精度、高效的标定参数为基础,获取单个相机下高精度的人员定位信息。设计基于视频序列的人员跟踪算法框架,实现单个相机下多个人员的轨迹信息提取,完成人员跟踪。
主要技术过程如下:
检测跟踪方案:读取仓库监控视频,通过目标检测器提取人员目标图像位置和图像检测框,如图3所示,采用多目标跟踪器获取视频帧间目标检测关联关系,形成人员目标实时轨迹。
多人员目标检测方法:建立人员检测数据集,以Yolov4模型作为主干网络,训练面向仓库和工厂环境的人员检测网络,对采集的视频帧,建立多个人员目标的检测结果,每个人员的检测结果包含人员图像位置中心、人员在图像上的区域图像、人员在仓库或厂区位置,如图3所示。
多人员关联及跟踪方法:通过建立采集视频相邻帧多个检测人员特征相似性度量算法,其中包括人员识别特征、人员图像检测区兴趣域相似比等,构建人员在仓储区运动过程中的特征模型和识别方法,基于人员特征和对人员图像检测结果进行视频帧间评价,采用人员目标关联判定准则,完成基于视频序列的人员跟踪算法框架设计,依据检测跟踪结果对人员当前和预测轨迹信息进行更新,获取完成的人员检测跟踪轨迹,并根据高精度相机标定参数,计算人员在二维仓库平面内的位置信息,图4为人员目标跟踪算法的设计框架。基于目标检测和数据关联的人员多目标跟踪算法,可以实现对多个人员的实时跟踪,获取进入仓库空间人员的轨迹,该轨迹信息包含了三方面信息:人员识别结果、人员轨迹二维位置、人员轨迹时间点、当前轨迹点位置。
多相机覆盖区大范围多人员轨迹分析技术:
基于单相机下的高精度人员检测、定位及跟踪结果,设计多相机联合的适用于仓库监控区域的人员多目标跟踪算法,得到大范围空间的人员轨迹信息。针对仓库物料区域位置、关键设备所在地等现实使用环境,制定多人员轨迹分析方法,对人员使用物料(领用与存放)、位置巡查等操作的规范性、正确性、风险等建立分析参数标准,基于轨迹信息提出对人员操作和巡查分析算法,最终得出人员在仓库空间的行为分析指标和评价指标,对定位及轨迹信息分析结果进行标准化,并进行预报和发布。主要技术过程如下:
仓库和厂区环境包含若干重点区域,如物料存取区、设备放置区、巡查点等,在对人员精确位置估计时,不仅可以给出人员身份识别,同时可以给出人员轨迹到达与离开相应重点区域的时间、在重点区域停留时间、人员进入与离开仓库及厂区的时间和逗留时长等信息。在多相机覆盖的大范围监测区内,可以对单个相机对若干个重点区域拍摄范围规定重点区域位置,即相机对应重点区,如图5
所示,其中“重点区域-相机n”子图为仓库监控相机覆盖的仓储区域和覆盖区内的若干个物料存取区等重点区域。通过人员目标检测跟踪算法获取的人员轨迹信息,对仓库中人员进入与驶离仓库期间到达相应重点区域的高精度位置、到达时间、驶离时间、停留时长进行记录,对人员在仓库工作期内到达多个相机覆盖的多个重点区域记录人员高精度位置、进入相机覆盖范围时间、驶离相机覆盖范围时间、在重点去停留的高精度位置、到达时间、驶离时间、停留时长,对整个仓库区计算并记录人员在仓库运动轨迹、轨迹点高精度位置、进入和驶离仓库时间、在仓库停留时长等信息,同时对相应关键时间点进行图像抓取、保存。人员高精度位置计算方式如图6所示,采用人员在重点区域检测框底边中心的像素位置计算人员在仓库重点区域的高精度位置,其中重点区域所在地点左上角坐标为(IXlt,IYlt)和右下角坐标为(IXrb,IYrb),从获取到的人员轨迹信息中提取到人员当前轨迹信息中的检测框的左上角坐标(DXlt,DYlt)以及检测框的宽wk和高hk,即可得到人员的高精度位置。
Claims (7)
1.一种多相机人员状态识别方法,其特征在于,识别步骤如下:
通过信息采集模块,将数据通过传输与通信模块传输至算法处理模块,经过技术处理后将已处理过的数据又通过传输与通信模块传输至数据发布模块与人员分析模块;
基于图像处理的人员身份管理,设计基于残差神经网络模型ResNet为主干网络的以人脸为主要特征的128维人员身份识别向量,提高人员身份识别精度;设计基于GrabCut的人脸兴趣区域ROI提取方法,对人员检测结果的兴趣区进行建模,通过建立具有空间位置和距离限定的人脸特征匹配方法,解决人员身份特征提取及匹配问题;
人员检测、定位与跟踪,制作用于室内环境监测的人员检测数据集,基于深度学习网络人员数据集进行训练得到适用于室内环境的人员检测模型,通过设计相机标定方法,对监控相机图像数据进行空间标定,为提供二维定位模式提供数据基准,以高精度、高效的标定参数为基础,获取单个相机下高精度的人员定位信息,设计基于视频序列的人员跟踪算法框架,实现单个相机下多个人员的轨迹信息提取,完成人员跟踪;
多相机覆盖区大范围多人员轨迹分析,基于单相机下的高精度人员检测、定位及跟踪结果,设计多相机联合的适用于仓库监控区域的人员多目标跟踪算法,得到大范围空间的人员轨迹信息,针对仓库物料区域位置、关键设备所在地等现实使用环境,制定多人员轨迹分析方法,对人员使用物料领用与存放、位置巡查等操作的规范性、正确性、风险等建立分析参数标准,基于轨迹信息提出对人员操作和巡查分析算法,最终得出人员在仓库空间的行为分析指标和评价指标,对定位及轨迹信息分析结果进行标准化,并进行预报和发布。
2.根据权利要求1所述一种多相机人员状态识别方法,其特征在于,以覆盖监控区域的多个相机时间同步和时空重建为基础,以采集的视频数据为数据源,通过研究人员入口身份识别和管理方法,并建立单相机场景下的人员定位-检测-跟踪模型,构建人员在室内运动过程中的特征建模方法和识别方法,完成多相机覆盖区域联合视觉感知下的多人员目标检测跟踪、人员轨迹提取与分析方法等研究,实现监控、管理、信息发布一体化的应用,为实现该方法,采用硬件包括信息采集模块、算法处理模块、数据传输与通信模块、数据发布模块、人员分析模块五个部分。
3.根据权利要求1所述一种多相机人员状态识别方法,其特征在于,信息采集模块为数据采集设备,主要为主要布设于室内生产区域、关键位置区、关键物料区及设施处的多个摄像头,实现自动采集监控视频。
4.根据权利要求1所述一种多相机人员状态识别方法,其特征在于,算法处理模块主要分为人员身份识别,人员检测与定位,人员轨迹分析,完成对采集视频的处理,提供身份识别功能、人员位置计算以及运动轨迹提取功能。
5.根据权利要求1所述一种多相机人员状态识别方法,其特征在于,数据传输与通信模块将采集到的监控视频实时传输到中心服务器,利用深度学习技术处理后的监测数据传输给工作人员和管理人员,采用蓝牙、有线网络或Wi-Fi等多种通信方式,算法处理模块的各个功能之间进行数据的传输采用HTTP、TCP/IP网络传输协议。
6.根据权利要求1所述一种多相机人员状态识别方法,其特征在于,数据发布模块将最终获得的员工数据以各个数据库表格的形式进行记录,在网页端进行点击查看。
7.根据权利要求1所述一种多相机人员状态识别方法,其特征在于,人员分析模块利用分析得到的员工身份识别信息、位置和轨迹信息,进行人员何时到达物料区、何时离开物料区、人员进入与离开仓库或者厂区、到过哪些位置、位置是否为关键位置、是否是该人员需要达到的区域信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210870951.9A CN115100724A (zh) | 2022-07-22 | 2022-07-22 | 一种多相机人员状态识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210870951.9A CN115100724A (zh) | 2022-07-22 | 2022-07-22 | 一种多相机人员状态识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115100724A true CN115100724A (zh) | 2022-09-23 |
Family
ID=83299274
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210870951.9A Pending CN115100724A (zh) | 2022-07-22 | 2022-07-22 | 一种多相机人员状态识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115100724A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116597427A (zh) * | 2023-07-18 | 2023-08-15 | 山东科技大学 | 一种基于深度学习的舰船驾驶台身份识别方法 |
CN117079351A (zh) * | 2023-10-12 | 2023-11-17 | 成都崇信大数据服务有限公司 | 一种重点区域人员行为分析方法及系统 |
-
2022
- 2022-07-22 CN CN202210870951.9A patent/CN115100724A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116597427A (zh) * | 2023-07-18 | 2023-08-15 | 山东科技大学 | 一种基于深度学习的舰船驾驶台身份识别方法 |
CN116597427B (zh) * | 2023-07-18 | 2023-10-20 | 山东科技大学 | 一种基于深度学习的舰船驾驶台身份识别方法 |
CN117079351A (zh) * | 2023-10-12 | 2023-11-17 | 成都崇信大数据服务有限公司 | 一种重点区域人员行为分析方法及系统 |
CN117079351B (zh) * | 2023-10-12 | 2024-01-30 | 成都崇信大数据服务有限公司 | 一种重点区域人员行为分析方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115100724A (zh) | 一种多相机人员状态识别方法 | |
CN112785798A (zh) | 面向电力变电站工程建设项目施工人员的行为分析方法 | |
CN109886196A (zh) | 基于bim加gis视频监控的人员轨迹追溯系统及方法 | |
CN111935645A (zh) | 一种基于uwb技术的人员定位系统 | |
CN108710827B (zh) | 一种社区微警务巡查和信息自动分析系统及方法 | |
CN111681382A (zh) | 一种基于视觉分析检测施工现场跨越临时围栏的方法 | |
CN115187916B (zh) | 基于时空关联的建筑内疫情防控方法、装置、设备和介质 | |
CN112132157B (zh) | 一种基于树莓派的步态人脸融合识别方法 | |
CN110688879A (zh) | 一种仓储计数方法 | |
CN113705376A (zh) | 一种基于rfid和摄像机的人员定位方法及系统 | |
CN116634101A (zh) | 一种基于bim的视频监控方法和系统 | |
CN110276379B (zh) | 一种基于视频图像分析的灾情信息快速提取方法 | |
CN116189052A (zh) | 基于视频流分析的安防方法、系统、智能终端及存储介质 | |
CN111739056A (zh) | 一种轨迹追踪系统 | |
CN118470645A (zh) | 基于视觉检测的笔试智能监控系统及方法 | |
CN113159984B (zh) | 一种变电站工作人员工作路径追踪方法 | |
CN114387665A (zh) | 一种基于便携布控球的登高无人扶梯识别系统 | |
CN117671784A (zh) | 一种基于视频分析的人体行为分析方法及系统 | |
CN111723725A (zh) | 一种基于视频ai多维分析系统 | |
CN112785564A (zh) | 一种基于机械臂的行人检测跟踪系统与方法 | |
CN111597919A (zh) | 一种视频监控场景下的人体跟踪方法 | |
CN113743380B (zh) | 一种基于视频图像动态监测的主动跟踪方法 | |
CN115294515B (zh) | 一种基于人工智能的综合防盗管理方法及系统 | |
CN116206261A (zh) | 一种人员工装穿戴检测方法、装置、设备及存储介质 | |
CN116434290A (zh) | 一种机房场景巡检人员轨迹跟踪识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |