CN117523479A - 一种基于yolo的适用于zc环境的高精度识别系统及方法 - Google Patents
一种基于yolo的适用于zc环境的高精度识别系统及方法 Download PDFInfo
- Publication number
- CN117523479A CN117523479A CN202311478108.7A CN202311478108A CN117523479A CN 117523479 A CN117523479 A CN 117523479A CN 202311478108 A CN202311478108 A CN 202311478108A CN 117523479 A CN117523479 A CN 117523479A
- Authority
- CN
- China
- Prior art keywords
- unit
- alarm
- module
- data
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 24
- 230000006399 behavior Effects 0.000 claims abstract description 32
- 238000001514 detection method Methods 0.000 claims abstract description 28
- 238000013500 data storage Methods 0.000 claims abstract description 22
- 206010000117 Abnormal behaviour Diseases 0.000 claims abstract description 18
- 238000013523 data management Methods 0.000 claims abstract description 15
- 238000012544 monitoring process Methods 0.000 claims description 17
- 230000001960 triggered effect Effects 0.000 claims description 9
- 238000013527 convolutional neural network Methods 0.000 claims description 8
- 230000003068 static effect Effects 0.000 claims description 7
- 238000007781 pre-processing Methods 0.000 claims description 5
- 230000002159 abnormal effect Effects 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 3
- 230000002452 interceptive effect Effects 0.000 claims description 2
- 238000005457 optimization Methods 0.000 claims 2
- 230000001815 facial effect Effects 0.000 claims 1
- 230000009545 invasion Effects 0.000 abstract 1
- 230000036632 reaction speed Effects 0.000 abstract 1
- 230000006870 function Effects 0.000 description 8
- 230000005856 abnormality Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本发明公开了一种基于YOLO的适用于ZC环境的高精度识别系统及方法,包括数据采集模块,目标检测模块,物体识别模块,行为分析模块,报警模块,数据存储与管理模块,用户界面模块,数据采集模块利用摄像头来获取图像和视频数据,目标检测模块通过YOLO算法识别出图像中的目标物体,并确定其位置、边界框信息,物体识别模块根据物体特征对目标物体进行进一步分类识别,行为分析模块分析人员的可疑行为,报警模块基于识别和分析结果触发相应的报警机制,YOLO算法能够在实时系统中快速进行目标检测和识别,能够及时发现异常行为或入侵情况,提高安全性和反应速度,也能够同时检测和识别图像中的多个目标物体,可以在同一帧图像中识别不同类型的目标及小目标。
Description
技术领域
本发明涉及计算机视觉技术领域,尤其是一种基于YOLO的适用于ZC环境的高精度识别系统及方法。
背景技术
YOLO(You On ly Look Once)是一种基于深度学习的目标检测算法,传统的目标检测算法通常是先在图像上使用滑动窗口进行区域选择,然后对每个区域进行分类和定位。这种方法需要多次在图像上进行计算,导致速度较慢,而YOLO算法则采用了一种不同的思路,它将目标检测问题转化为一个回归问题。YOLO将整个图像划分为多个网格,并在每个网格上预测目标的类别和位置。这样一来,YOLO只需要一次前向传播即可完成整个图像的目标检测,大大提高了检测的速度。
ZC环境是一种无人或者少人干预的环境,在这种环境中,人与物的交互基本没有人工参与,现有智能安防系统虽然相比传统安防有了很多改进和进步,但仍存在一些缺点,现有智能安防在复杂场景识别人或物体时因为低质量的图像、模糊的目标等噪声数据,会对目标物体的识别存在一定的误差,会导致误报警,这可能引发不必要的麻烦和困扰,现有智能安防在实时视频流中进行目标检测和识别的速度较慢,不能及时发现和处理安全事件,且现有智能安防在对大规模目标以及较小的目标进行检测识别时的效率会下降。
发明内容
本发明为了解决上述存在的技术问题,提供一种基于YOLO的适用于ZC环境的高精度识别系统及方法。
本发明的技术方案是这样实现的:
一种基于YOLO的适用于ZC环境的高精度识别系统及方法,包括图像采集模块,目标检测模块,目标识别跟踪模块,行为分析模块,报警模块,数据存储与管理模块,用户界面模块;
图像采集模块,负责通过摄像头从ZC环境中获取图像或视频数据;
目标检测模块,利用YOLO算法识别出图像中的目标物体,确定其位置和边界框信息,将提取的目标物体的特征进行聚类,并使用损失函数减小噪声数据的影响;
目标识别跟踪模块,根据目标物体的特征进行分类,对目标物体进行进一步的分类和识别,分类识别后对目标进行跟踪;
行为分析模块,对跟踪的目标物体进行行为分析;
报警模块,基于识别和分析结果,触发相应的报警机制;
数据存储与管理模块,将采集到的图像、视频数据以及分析识别的数据进行存储和管理,方便后续的数据查询和使用;
用户界面模块,提供用户与识别系统的交互界面,方便用户对系统进行配置、监控和管理。
作为优选,所述图像采集模块包括数据采集单元和图像预处理单元,所述数据采集单元从摄像头中持续获取每一帧图像数据,所述图像预处理单元对采集到的图像数据进行压缩、滤波、增强处理,将初步处理的图像数据传输到下一阶段的处理模块。
作为优选,所述目标检测模块包括模型加载单元,损失函数优化单元,特征提取单元和目标库聚类单元,所述模型加载单元负责加载YOLO模型并进行初始化设置,包括模型权重、配置文件的加载,并配置模型的参数和超参数,所述损失函数优化单元使用基于Focal Loss的损失函数,将图像数据中物体数据的权重调高,降低背景数据的权重,使模型可以更加关注物体数据,减小包括低质量的图像和模糊的目标在内的噪声数据的影响,所述特征提取单元利用卷积神经网络,的最后一层和倒数第二层的特征图来捕捉到当前帧图像中不同大小物体的边缘、纹理、形状特征信息,使用UUID为捕捉到的物体分配一个唯一的ID,并将其与该物体的初始位置和特征相关联,所述目标库聚类单元将相似的特征归为一类,形成目标库。
作为优选,所述目标识别跟踪模块包括分类单元,目标匹配单元和位置预测单元,所述分类单元根据目标聚类单元归类的特征将识别到的物体分成动态物体和静态物体,其中当前位置与上一帧中该物体出现的位置不同的物体为动态物体,当前位置与上一帧中该物体的位置相同为静态物体,所述目标匹配单元使用卡尔曼滤波器将当前帧中的目标特征与之前帧中已经跟踪目标的特征相似度进行匹配,根据匹配结果更新目标的位置、速度、运动方向状态信息,所述位置预测单元根据目标的历史位置,记录目标在过去几帧中的中心坐标和边界框的位置,将中心坐标输入匀速模型来预测目标在下一帧中的位置。
作为优选,所述行为分析模块包括人员识别单元,行为分类单元和异常行为检测单元,所述人员识别单元通过所述目标检测模块中提取到的动态物体的特征信息中识别出人员目标,将其面部信息记录,并确定其位置信息,所述行为分类单元根据人员识别单元检测到的人员目标,使用卷积神经网络判断人员的行走、奔跑、站立、聚集行为,所述异常行为检测单元通过事先规定的规则和阈值来判定,进入预先设定的禁止区域,移动速度过快,在特定区域内停留时间过长,在某个区域内的人员密度超过设定值都能被判定为行为异常。
作为优选,所述报警模块包括报警触发单元,报警通知单元,报警处理单元和报警记录单元,所述报警触发单元当异常行为单元检测到人员的可疑行为时触发警报,所述报警通知单元在警报触发后发出声音警报以及以系统通知和短信通知的方法通知控制室的工作人员及负责人,所述报警处理单元在警报触发的同时关闭门窗以及启动安全设备,所述报警记录单元在警报触发后记录报警的时间、地点及触发原因信息。
作为优选,所述数据存储与管理模块包括数据存储单元、数据索引单元和数据备份单元,所述数据存储单元将采集到的图像、视频数据以及报警模块中记录的报警时间、地点及触发原因进行存储,所述数据索引单元对存储的数据建立数据库索引并设置标签和关键字,方便后续数据的查询和使用,所述数据备份单元定期对数据进行备份,防止数据丢失损坏。
作为优选,所述用户界面模块包括监控显示单元和报警信息显示单元,所述监控显示单元提供实时监控界面,用户可以通过监控界面对ZC环境进行观察监控,所述报警信息显示单元在检测到异常和可以行为时,通过界面显示报警类型、报警位置和报警时间信息。
作为优选,所述数据存储与管理模块包括数据存储单元、数据索引单元和数据备份单元,所述数据存储单元将采集到的图像、视频数据以及报警模块中记录的报警时间、地点及触发原因进行存储,所述数据索引单元对存储的数据建立数据库索引并设置标签和关键字,方便后续数据的查询和使用,所述数据备份单元定期对数据进行备份,防止数据丢失损坏。
作为优选,所述用户界面模块包括监控显示单元和报警信息显示单元,所述监控显示单元提供实时监控界面,用户可以通过监控界面对ZC环境进行观察监控,所述报警信息显示单元在检测到异常和可疑行为时,通过界面显示报警类型、报警位置和报警时间信息。
本发明的有益效果为:
本发明利用YOLO算法的高精度目标识别特性,可以准确地检测和识别出图像中的目标物体,提供准确的目标位置信息,通过目标库聚类将特征相似的物体归为一类,再通过损失函数减小低质量的图像和模糊的目标带来的噪声影响,使得图像识别的精度增加,能更好地分辨人和物体以及远距离识别小目标,将监控画面内所有物体的特征精确识别,并预测其后续移动位置,易于根据设定的人员异常行为的规则和阈值对监控覆盖区域内的可疑人员进行跟踪以及针对其异常行为进行报警,使相关管理人员能第一时间察觉到人员行为异常并快速做出应对措施。
附图说明
图1为本发明一种基于YOLO的适用于ZC环境的高精度识别系统及方法的工作流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明提供一种基于YOLO的适用于ZC环境的高精度识别系统及方法,包括图像采集模块,目标检测模块,目标识别跟踪模块,行为分析模块,报警模块,数据存储与管理模块,用户界面模块。
所述图像采集模块通过安装在建筑物里面的摄像头来采集建筑物内各个位置的图像数据,对采集到的图像数据进行压缩、滤波、增强处理,使图像画面更加清晰,有利于下一阶段的处理。
所述目标检测模块通过模型加载单元将YOLO模型加载并且初始化,接着将采集到的图像输入到YOLO模型中,通过基于Foca l Loss的损失函数将图像数据中物体数据的权重调高,抑制背景数据,使模型更加关注物体的识别,减小包括低质量的图像和模糊的目标在内的噪声数据的影响,然后利用卷积神经网络来提取图像中不同物体的边缘、纹理、形状特征信息,使用UUID为捕捉到的物体分配一个唯一的ID,并将其与该物体的初始位置和特征相关联,再对提取到的相似特征归为一类,形成目标库。
所述目标识别跟踪模块根据目标聚类单元归类的特征将识别到的物体分为动态物体和静态物体,其中当前位置与上一帧中该物体出现的位置不同的物体为动态物体,当前位置与上一帧中该物体的位置相同为静态物体,再使用卡尔曼滤波器将当前帧中的目标特征与之前帧中已经跟踪目标的特征相似度进行匹配,对匹配到相同特征的目标进行位置、速度、运动方向信息的更新,再通过匀速模型来预测目标在下一帧的位置。
所述行为分析模块根据目标识别跟踪模块中动态物体的特征信息中通过人体形状轮廓识别出人员目标,使用卷积神经网络判断人员的行走、奔跑、站立、聚集行为,当人员目标进入事先设定的禁止区域,人员目标移动速度过快,在特定区域停留时间过长,某个区域内的人员密度超过设定值时会被判定为行为异常。
所述报警模块根据检测到的人员异常行为触发警报,警报以手机短信以及系统通知的形式通知相关人员,同时发出声音警报,在警报触发的同时关闭门窗以及启动安全设备,并将报警时间、地点及触发原因进行记录。
所述数据存储与管理模块将采集到的图像、视频数据以及报警模块中记录的报警时间、地点及触发原因进行存储,对存储的数据建立数据库索引并设置标签和关键字便于后续查询。
所述用户界面模块可以实时查看监控画面,当检测到异常行为时,用户界面可收到报警信息,查看报警类型、报警位置和报警时间。
实施例1
如图1,本发明提供一种基于YOLO的适用于ZC环境的高精度识别系统及方法,包括图像采集模块,目标检测模块,目标识别跟踪模块,行为分析模块,报警模块,数据存储与管理模块,用户界面模块,所述图像采集模块包括数据采集单元和图像预处理单元;所述目标检测模块包括模型加载单元,损失函数优化单元,特征提取单元和目标库聚类单元;所述目标识别跟踪模块包括分类单元,目标匹配单元和位置预测单元;所述行为分析模块包括人员识别单元,行为分类单元,异常行为检测单元;所述报警模块包括报警触发单元,报警通知单元,报警处理单元和报警记录单元;所述数据存储与管理模块包括数据存储单元、数据索引单元和数据备份单元,所述用户界面模块包括监控显示单元和报警信息显示单元。
本发明的工作流程是这样的:
S1:通过图像采集模块连接的建筑物里的摄像头获取建筑物内外各个位置的图像数据,接着对采集到的图像数据进行压缩、滤波、增强处理。
S2:通过目标检测模块,利用基于加载和初始化后的YOLO模型来进行后续的目标检测,使用基于Foca l Loss的损失函数,将图像数据中的物体数据权重调高,降低背景数据的权重,减小包括低质量的图像和模糊的目标在内的噪声数据的影响,利用卷积神经网络捕捉当前帧图像中不同大小物体的边缘、纹理、形状特征信息,为捕捉到的物体分配一个唯一的ID并将其与该物体的初始位置和特征相关联,将相似的特征归类形成目标库。
S3:通过目标识别跟踪模块根据目标库归类的特征将当前位置与上一帧中该物体出现的位置不同的物体分为动态物体,将当前位置与上一帧中该物体的位置相同分为静态物体,使用卡尔曼滤波器将当前帧中的目标特征与之前帧中已经跟踪目标的特征相似度进行匹配,根据匹配结果更新目标的位置、速度、运动方向状态信息,根据历史位置对目标在下一帧中的位置进行预测。
S4:通过行为分析模块识别出动态物体中的人员目标并确定其位置,根据识别到的人员目标适应卷积神经网络判断人员的行走、奔跑、站立、聚集行为,将进入预先设定的禁止区域,移动速度过快,在特定区域内停留时间过长,在某个区域内的人员密度超过设定值判定为行为异常。
S5:通过报警模块根据检测到的人员异常行为触发警报,警报触发后发出声音警报并将报警的时间、地点及触发原因信息以系统通知和短信的方式通知相关人员,并进行记录。
S6:通过数据存储与管理模块将摄像头采集到的图像、视频数据以及报警模块中记录的报警时间、地点及触发原因进行存储,对存储的数据建立数据库索引并设置标签和关键字。
S7:通过用户界面模块可实时查看监控画面,当警报触发时通过界面显示报警类型、报警位置和报警时间信息。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。
Claims (8)
1.一种基于YOLO的适用于ZC环境的高精度识别系统及方法,其特征在于:包括图像采集模块,目标检测模块,目标识别跟踪模块,行为分析模块,报警模块,数据存储与管理模块,用户界面模块;
图像采集模块,负责通过摄像头从ZC环境中获取图像或视频数据;
目标检测模块,利用YOLO算法识别出图像中的目标物体,确定其位置和边界框信息,将提取的目标物体的特征进行聚类,并使用损失函数减小噪声数据的影响;
目标识别跟踪模块,根据目标物体的特征进行分类,对目标物体进行进一步的分类和识别,分类识别后对目标进行跟踪;
行为分析模块,对跟踪的目标物体进行行为分析;
报警模块,基于识别和分析结果,触发相应的报警机制;
数据存储与管理模块,将采集到的图像、视频数据以及分析识别的数据进行存储和管理,方便后续的数据查询和使用;
用户界面模块,提供用户与识别系统的交互界面,方便用户对系统进行配置、监控和管理。
2.根据权利要求1所述的一种基于YOLO的适用于ZC环境的高精度识别系统及方法,其特征在于:所述图像采集模块包括数据采集单元和图像预处理单元,所述数据采集单元从摄像头中持续获取每一帧图像数据,所述图像预处理单元对采集到的图像数据进行压缩、滤波、增强处理,将初步处理的图像数据传输到下一阶段的处理模块。
3.根据权利要求1所述的一种基于YOLO的适用于ZC环境的高精度识别系统及方法,其特征在于:所述目标检测模块包括模型加载单元,损失函数优化单元,特征提取单元和目标库聚类单元,所述模型加载单元负责加载YOLO模型并进行初始化设置,包括模型权重、配置文件的加载,并配置模型的参数和超参数,所述损失函数优化单元使用基于Focal Loss的损失函数,将图像数据中物体数据的权重调高,降低背景数据的权重,使模型可以更加关注物体数据,减小包括低质量的图像和模糊的目标在内的噪声数据的影响,所述特征提取单元利用卷积神经网络,的最后一层和倒数第二层的特征图来捕捉到当前帧图像中不同大小物体的边缘、纹理、形状特征信息,使用UUID为捕捉到的物体分配一个唯一的ID,并将其与该物体的初始位置和特征相关联,所述目标库聚类单元将相似的特征归为一类,形成目标库。
4.根据权利要求1所述的一种基于YOLO的适用于ZC环境的高精度识别系统及方法,其特征在于:所述目标识别跟踪模块包括分类单元,目标匹配单元和位置预测单元,所述分类单元根据目标聚类单元归类的特征将识别到的物体分成动态物体和静态物体,其中当前位置与上一帧中该物体出现的位置不同的物体为动态物体,当前位置与上一帧中该物体的位置相同为静态物体,所述目标匹配单元使用卡尔曼滤波器将当前帧中的目标特征与之前帧中已经跟踪目标的特征相似度进行匹配,根据匹配结果更新目标的位置、速度、运动方向状态信息,所述位置预测单元根据目标的历史位置,记录目标在过去几帧中的中心坐标和边界框的位置,将中心坐标输入匀速模型来预测目标在下一帧中的位置。
5.根据权利要求1所述的一种基于YOLO的适用于ZC环境的高精度识别系统及方法,其特征在于:所述行为分析模块包括人员识别单元,行为分类单元和异常行为检测单元,所述人员识别单元通过所述目标检测模块中提取到的动态物体的特征信息中识别出人员目标,将其面部信息记录,并确定其位置信息,所述行为分类单元根据人员识别单元检测到的人员目标,使用卷积神经网络判断人员的行走、奔跑、站立、聚集行为,所述异常行为检测单元通过事先规定的规则和阈值来判定,进入预先设定的禁止区域,移动速度过快,在特定区域内停留时间过长,在某个区域内的人员密度超过设定值都能被判定为行为异常。
6.根据权利要求1所述的一种基于YOLO的适用于ZC环境的高精度识别系统及方法,其特征在于:所述报警模块包括报警触发单元,报警通知单元,报警处理单元和报警记录单元,所述报警触发单元当异常行为单元检测到人员的可疑行为时触发警报,所述报警通知单元在警报触发后发出声音警报以及以系统通知和短信通知的方法通知控制室的工作人员及负责人,所述报警处理单元在警报触发的同时关闭门窗以及启动安全设备,所述报警记录单元在警报触发后记录报警的时间、地点及触发原因信息。
7.根据权利要求1所述的一种基于YOLO的适用于ZC环境的高精度识别系统及方法,其特征在于:所述数据存储与管理模块包括数据存储单元、数据索引单元和数据备份单元,所述数据存储单元将采集到的图像、视频数据以及报警模块中记录的报警时间、地点及触发原因进行存储,所述数据索引单元对存储的数据建立数据库索引并设置标签和关键字,方便后续数据的查询和使用,所述数据备份单元定期对数据进行备份,防止数据丢失损坏。
8.根据权利要求1所述的一种基于YOLO的适用于ZC环境的高精度识别系统及方法,其特征在于:所述用户界面模块包括监控显示单元和报警信息显示单元,所述监控显示单元提供实时监控界面,用户可以通过监控界面对ZC环境进行观察监控,所述报警信息显示单元在检测到异常和可疑行为时,通过界面显示报警类型、报警位置和报警时间信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311478108.7A CN117523479A (zh) | 2023-11-08 | 2023-11-08 | 一种基于yolo的适用于zc环境的高精度识别系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311478108.7A CN117523479A (zh) | 2023-11-08 | 2023-11-08 | 一种基于yolo的适用于zc环境的高精度识别系统及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117523479A true CN117523479A (zh) | 2024-02-06 |
Family
ID=89741221
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311478108.7A Pending CN117523479A (zh) | 2023-11-08 | 2023-11-08 | 一种基于yolo的适用于zc环境的高精度识别系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117523479A (zh) |
-
2023
- 2023-11-08 CN CN202311478108.7A patent/CN117523479A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110428522B (zh) | 一种智慧新城的智能安防系统 | |
US10276019B2 (en) | Surveillance system and method for predicting patient falls using motion feature patterns | |
CN107292240B (zh) | 一种基于人脸与人体识别的找人方法及系统 | |
CN108052925B (zh) | 一种小区人员档案智能管理方法 | |
CN109858365B (zh) | 一种特殊人群聚集行为分析方法、装置及电子设备 | |
AU2004282902B2 (en) | System and method for searching for changes in surveillance video | |
JP5560397B2 (ja) | 自律型防犯警戒システム及び自律型防犯警戒方法 | |
CN106780250B (zh) | 一种基于物联网技术的智慧社区安全事件处理方法及系统 | |
CN109711318B (zh) | 一种基于视频流的多人脸检测与跟踪方法 | |
Bhargava et al. | Detection of abandoned objects in crowded environments | |
CN107657232A (zh) | 一种行人智能识别方法及其系统 | |
CN110532857A (zh) | 基于多摄像头下的行为识别影像分析系统 | |
CN113537107A (zh) | 一种基于深度学习的人脸识别及追踪方法、装置及设备 | |
Patil et al. | Suspicious movement detection and tracking based on color histogram | |
CN113850229A (zh) | 基于视频数据机器学习的人员异常行为预警方法、系统及计算机设备 | |
Tang et al. | Hybrid blob and particle filter tracking approach for robust object tracking | |
Jang et al. | Detection of dangerous situations using deep learning model with relational inference | |
CN107124577A (zh) | 一种基于运动目标检测的实时防窃系统 | |
CN116416281A (zh) | 一种粮库ai视频监管分析方法及系统 | |
CN117523479A (zh) | 一种基于yolo的适用于zc环境的高精度识别系统及方法 | |
Altowairqi et al. | A Review of the Recent Progress on Crowd Anomaly Detection | |
US20030004913A1 (en) | Vision-based method and apparatus for detecting an event requiring assistance or documentation | |
Senior | An introduction to automatic video surveillance | |
CN113516691A (zh) | 一种基于机器视觉的高空抛物检测系统 | |
CN112232113A (zh) | 人员识别方法、人员识别装置、存储介质与电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |