CN113096337B - 用于复杂背景的移动目标识别处理方法及智能安防系统 - Google Patents
用于复杂背景的移动目标识别处理方法及智能安防系统 Download PDFInfo
- Publication number
- CN113096337B CN113096337B CN202110375298.4A CN202110375298A CN113096337B CN 113096337 B CN113096337 B CN 113096337B CN 202110375298 A CN202110375298 A CN 202110375298A CN 113096337 B CN113096337 B CN 113096337B
- Authority
- CN
- China
- Prior art keywords
- target
- alarm
- upper computer
- frame
- judging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 17
- 238000012544 monitoring process Methods 0.000 claims abstract description 72
- 238000000034 method Methods 0.000 claims abstract description 31
- 238000012545 processing Methods 0.000 claims abstract description 21
- 238000001931 thermography Methods 0.000 claims abstract description 10
- 238000004891 communication Methods 0.000 claims description 14
- 238000005070 sampling Methods 0.000 claims description 14
- 239000011159 matrix material Substances 0.000 claims description 12
- 230000005540 biological transmission Effects 0.000 claims description 9
- 238000007499 fusion processing Methods 0.000 claims description 9
- 239000013307 optical fiber Substances 0.000 claims description 9
- 238000005452 bending Methods 0.000 claims description 6
- 230000002093 peripheral effect Effects 0.000 claims description 6
- 230000009545 invasion Effects 0.000 claims description 5
- 238000007781 pre-processing Methods 0.000 claims description 5
- 101100394003 Butyrivibrio fibrisolvens end1 gene Proteins 0.000 claims description 4
- 241001465754 Metazoa Species 0.000 claims description 4
- 230000008859 change Effects 0.000 claims description 2
- 230000007123 defense Effects 0.000 abstract description 12
- 238000001514 detection method Methods 0.000 abstract description 7
- 230000000007 visual effect Effects 0.000 abstract description 6
- 238000012216 screening Methods 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 22
- 230000008569 process Effects 0.000 description 11
- 210000003414 extremity Anatomy 0.000 description 10
- 230000033001 locomotion Effects 0.000 description 6
- 241001494479 Pecora Species 0.000 description 5
- 230000004927 fusion Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000012806 monitoring device Methods 0.000 description 4
- 230000008447 perception Effects 0.000 description 4
- 241000283973 Oryctolagus cuniculus Species 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 210000000689 upper leg Anatomy 0.000 description 3
- 238000009423 ventilation Methods 0.000 description 3
- 241000270295 Serpentes Species 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 210000003127 knee Anatomy 0.000 description 2
- 210000002414 leg Anatomy 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000000779 smoke Substances 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 241000271566 Aves Species 0.000 description 1
- 101100333320 Neurospora crassa (strain ATCC 24698 / 74-OR23-1A / CBS 708.71 / DSM 1257 / FGSC 987) end-3 gene Proteins 0.000 description 1
- 101100533615 Schizosaccharomyces pombe (strain 972 / ATCC 24843) end4 gene Proteins 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000000245 forearm Anatomy 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000012466 permeate Substances 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
- G08B13/19613—Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/181—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using active radiation detection systems
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/19—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using infrared-radiation detection systems
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
- G08B13/19606—Discriminating between target movement or movement in an area of interest and other non-signicative movements, e.g. target movements induced by camera shake or movements of pets, falling leaves, rotating fan
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
- G08B13/1961—Movement detection not involving frame subtraction, e.g. motion detection on the basis of luminance changes in the image
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B29/00—Checking or monitoring of signalling or alarm systems; Prevention or correction of operating errors, e.g. preventing unauthorised operation
- G08B29/18—Prevention or correction of operating errors
- G08B29/185—Signal analysis techniques for reducing or preventing false alarms or for enhancing the reliability of the system
- G08B29/188—Data fusion; cooperative systems, e.g. voting among different detectors
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Security & Cryptography (AREA)
- Alarm Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Burglar Alarm Systems (AREA)
Abstract
本发明涉及一种用于复杂背景的移动目标识别处理方法,其通过多信道上位机数据处理算法,将红外热成像、视频监控、主动红外探测、红外对射光栅进行融合,解决目标入侵告警问题,所述入侵目标包括人员、车辆、小型无人机、小型无人车,不再依赖值守人员的视觉筛查,变事后追溯为实时报警,实现对地理位置较为特殊的某些工程的全天候、全方位、全过程智能安全防卫。本发明能够适用于山地、林地等复杂背景。
Description
技术领域
本发明涉及安防技术领域,更为具体地,本发明涉及一种用于复杂背景的移动目标识别处理方法及智能安防系统。
背景技术
我国现行安全防卫规范体系和所采用的技术措施,其编制与研究的针对对象主要是工业与民用建筑,主要涵盖文博场馆、金融系统营业场所、空港车站、居民住宅、物资储存库等场所。对于一些使用功能特殊、周边环境复杂的特种工程,例如,处在山区、林区的国家战备/灾备粮库、物资储备库等,尚无覆盖。该类工程虽较为重要,却既没有安全防卫系统的专项标准规范,也无相对细化的安防系统装设要求。现有概略性的装设要求一般包括两个方面:一是安装位置的要求,即要求在出入口位置和/或与外界发生物理连通的其他位置,例如,连通室外的通风竖井、排烟口、排风口等处,装设视频采集监测设备、人体红外感应检测设备等;同时在工程内部的重要设备房间,如发电机房等,装设视频采集设备,其并未要求在工程外围、周边装设监测设备。预先设定的安防区域仅限于工程内部,无法在入侵人员、装备进入工程前预警入侵事件。二是监测方式的要求,这类工程的安防系统一般参照市面上常见的传统安防系统设置,在视频监测环节,仅要求对采集的视频进行存储操作,无实时告警功能,也就是说其仅能在发生入侵情况并造成影响后,再通过调用监控录像进行“事后回溯”,无法有效杜绝入侵事件。
现有的居民社区安防系统通常由小区门禁、围墙上部红外对射光栅、道路和楼宇内视频监控设备组成。小区门禁一般情况标会射频门禁卡。此针对社区的安防系统对人员的识别,主要是通过读卡设备读取门禁卡中录入的身份信息,并无其他附加信息的检测。这一类检测手段,易被仿制,且不具备放行条件的外来人员也可采用尾随等手段直接进入。该类系统对外来人员进入后的破坏、盗窃等行为没有预警能力,只能通过后期调用监控录像等方式回溯情况发生过程,属于“事后安防”。
针对目前“智慧城市”中的道路监控系统而言,该类系统以抓拍道路车辆违法行为为目的,系统通常包括杆塔、测速雷达、摄像装置。以该监控系统对车辆的识别为例,系统对违法车辆信息的抓取已经具备了实时性,且准确率较高。但该类系统监控的环境较为纯净,背景基本为城市公共道路,背景组成及色彩基本不随季节发生变化,且无其他物体遮挡;被监测的车辆牌照形式单一,例如,车辆牌照为蓝色、黄色机动车牌照或绿色新能源牌照,且车辆出现的位置相对固定,通常在车道内而不是随机出现在任意区域。
传统安防系统一般要求背景也相对纯净,通过比对上一帧图像与下一帧图像的不同,提取实时视频中的动态目标,其监测范围具有明显便捷且该范围内的其他物体均始终保持静止。
而当背景较为复杂,例如,环境中树木、灌木等遮挡物较多的条件下,且潜入的侵袭者会自发地采取遮挡、伪装等措施以试图规避安防系统的监测时,仅仅依靠值守人员的视觉筛查和/或现有的安全防卫系统并不能很好的起到安全防卫的作用。因此,期望提出一种能够用于复杂背景的智能安全防卫系统以及用于复杂背景的移动目标识别处理方法。
发明内容
针对现有技术的不足之处,本发明的目的在于提出一种用于复杂背景的移动目标识别处理方法,其通过多信道上位机数据处理算法,将红外热成像、视频监控、主动红外探测、红外对射光栅进行融合,解决目标入侵告警问题,所述入侵目标包括人员、车辆、小型无人机、小型无人车,不再依赖值守人员的视觉筛查,变事后追溯为实时报警,实现对地理位置较为特殊的某些工程的全天候、全方位、全过程智能安全防卫。本发明能够适用于山地、林地等复杂背景。
本发明的另一目的在于提出一种用于复杂背景的智能安防系统,本发明的适用于复杂背景的智能安全防卫系统具有移动目标告警功能和抵近目标智能匹配功能,其能够在规定的预警距离内能够识别移动物体,发现抵近目标,所述抵近目标包括人员、车辆以及移动物体。视频采集设备采集的视频流中,单帧图像中该移动物体的图幅面积占比不应小于1.5%,并能够通过上位机向值守人员发出预警信号;同时通过采集图像数据与后台数据库数据的比对,对抵近的人员和车辆目标进行自动敌我判断;本发明的适用于智能安全防卫系统具有身份数据库,能够预先采集录入人员、车辆信息,生成白名单,用于监控时的比对,同时对后台存储数据以外的人员和车辆,能够自动采集录入人员脸部图像、车辆号牌及外观等必要参数,生成黑名单,存入后台数据库,用作后续判断。本发明可全天候、全气象条件下运行。
本发明的技术方案如下:
一种用于复杂背景的移动目标识别处理方法,其包括如下步骤:
S1:进行视频采集与传输:
通过光纤或网线传输至交换机,再传输至上位机;
S2:判断监控视域内是否出现移动目标;若监控视域内未出现移动目标,则转入步骤S1;若监控视域内出现移动目标,则转入步骤S3;
S3:对移动目标的像素矩阵进行区域抓取:
S4:判定所抓取区域内的移动目标是否可识别为完整物体;若可识别为完整物体,转入步骤S4-1;若不能识别为完整物体,则转入步骤S5;
S4-1:判定该完整物体是否属于报警对象;若属于报警对象,则转入End2;若不属于报警对象,则转入End1;
S5:将S3中所抓取的点位进行拟合,生成曲线,按照多条折线段的组合进行处理;
S6:选取S5中所生成的曲线的关联折线段,判定折线段之间的长度比例是否符合人体关节比例;若曲线中的折线段之间长度比例符合人体关节比例,转入S6-1;
若曲线中的折线段之间长度比例关系不符合人体关节比例,则转入步骤S7;
S6-1:判定移动目标为人体局部,也就是说判定移动目标为有遮挡的人体;转入End2;
S7:判定移动目标不具有威胁;转入End1;
End1:判定移动目标为植物自然晃动或者为有生命体的动物等,系统判定为虚警,不发出告警信号;
End2:判定可移动目标为人体、车辆和/或小型无人化装备可疑侵入目标;系统发出告警信息。
优选地,通过视频采集摄像装置实时采集到的现场视频实时回传至上位机的目标识别功能模块进行目标匹配识别。
优选地,所述热成像仪的视频图像实时回传至上位机的数据预处理模块进行特征的预判断;根据每一帧图像中的亮度梯度确定特征温度值,将所获得特征温度值与预设的温度阈值进行比对,判断是否需要将所采集的相关视频信息传输至上位机的数据处理模块进行目标匹配识别。
优选地,该监控视域内出现移动目标的方法,其具体包括如下步骤:
步骤一:预设移动目标判断识别的图像频率为f3,热成像仪的采样频率为f1,视频采集摄像装置的采样频率为f2,其中f3<f1且f3<f2;
步骤二:划分像素矩阵,将图像采集区域划分为多个子区域;
步骤三:通过目标识别功能模块对比多帧图像,系统以频率f3连续采样N帧图像,将第1帧图像与其后的各帧图像进行逐帧对比,共N-1次对比;
步骤四:当子区域特性参数发生改变的像素比例达到65%以上时,判定该子区域“变化”;得到判定为“不同”的次数M;
步骤五:当M≥(N-1)/2时,最终判定为“出现移动目标”。
优选地,所抓取的区域内的移动目标可识别为完整物体的判断方法如下所示:
步骤1:将第1帧图像与其后的N-1帧图像进行逐帧对比后,得到了N-1个物体轮廓曲线;
步骤2:将得到的N-1个物体轮廓曲线逐个与后台数据库中存储的各初始轮廓曲线进行遍历比对,得出N-1个单次匹配结果;
步骤3:对上一步骤得到的N-1个单次匹配结果进行统计,得到各输出结果的数量;
步骤4:当各输出结果的数量大于(N-1)/2次时,判断N-1次判别结果是否收敛;
若N-1次判别结果收敛,则输出最终匹配结果;
若N-1次判别结果不收敛;则需再进行一个周期的采样,重复步骤1至步骤4,将两个周期的2N帧图片进行逐帧比,直至判别结果收敛;
优选地,拟合生成多条折线段组合的具体步骤如下所示:
步骤A:对S4中生成的人体目标轮廓曲线所框定的整体区域进行拆分,根据轮廓框定的区域情况划分为多个不同的平滑区域;
步骤B:对划分形成的多个不同平滑区域进行近似拟合,根据划分后的局部区域,近似拟合形成轴对称图形;
步骤C:取步骤B中多得到的各轴对称图形的2条对称轴中的较长者,作为本区域折线段;
步骤D:拟合形成的2条折线段存在交点,则将这两条折线段作为关联折线段,用于判断人体关节比例。
一种用于复杂背景的智能安防系统,其包括感知层、网络层和智慧层;所述感知层为数据采集层,该层包括用于感知工程周边态势的监测设备,所述监测设备包括主动红外探测器、红外对射光栅、热成像仪以及视频采集摄像装置;所述网络层为数据传输层,该层配置用于将感知层的监测设备所采集到的信息的传输与汇总,所述网络层包括传输链路、信号融合处理板卡以及交换机;所述智慧层用于自主决策,所述智慧层包括上位机和实时通信服务器,所述上位机设置后台数据库,所述监测设备与上位机相连,上位机优先保障对其所接收到的感知层的数据进行处理,主动红外探测器、红外对射光栅、热成像仪和/或视频采集摄像装置检测出应予以报警的目标;上位机均应发出报警信号;实时通信服务器与上位机通过线缆进行连接,实时通信服务器接收报警信号,在每个岗亭处设置报警装置,实时通信服务器分发告警信息至对应的值守执勤点位。
优选地,所述主动红外探测器和所述红外对射光栅的输出端均通过信号线连接至所述信号融合处理板卡,所述信号融合处理板卡与上位机相连。
优选地,所述热成像仪与所述视频采集摄像装置通过网线或光纤,连接至交换机,交换机汇集各个监测点位的信号,经由光纤传输至上位机。
优选地,主动红外探测器、红外对射光栅、热成像仪以及视频采集摄像装置的反馈结果优先级为并行的“或”关系。
与现有技术相比,本发明的优点在于:
本发明的用于复杂背景的智能安防系统,适用于地形起伏多变、阻碍视线的遮挡物较多的山高林密的复杂环境,能够对多种不同形态的目标形成实时告警监测。
本发明中的视频处理算法能够实现复杂背景下的移动目标提取,当环境中的实时移动物体数量不止一个,例如,一片灌木丛背后有一个人在移动且灌木丛同时也被风吹动时,可将需要报警的目标,例如,人的移动从大量虚警情况,如,树枝、树叶的晃动中提取出来。本发明解决了传统安全防卫系统通过比对上一帧图像与下一帧图像的不同来提取实时视频中的动态目标,要求背景相对纯净的问题。
本发明的视频处理算法能够将其他生物体的移动与人体的动作进行有效区分,所述其他生物体包括羊、鸟、兔子等,本系统采用的视频处理算法捕捉到这些动物的肢体运动后,通过动作幅度、动作形态等的判断,可准确识别为虚警。
本系统采用的视频处理算法,通过图像增强预处理、图像重构等措施,可在仅有部分肢体显示的条件下实现人体的准确识别。本发明解决了在复杂环境中,在实时采集的视频里,人体可能被树木、灌木部分遮挡,在图像中不能形成完全的人体体态的问题。
本发明的适用于复杂背景的智能安全防卫系统是一种适用于特种工程的安全防卫系统。与现有的安全防卫系统相比,本发明的适用于复杂背景的智能安全防卫系统能够监控、探测的范围不局限在工程建筑物内部,而是扩展到工程周边预设需要进行监控的地理范围内,利用设备布设范围的优化,最大程度起到预警作用。
本发明的适用于复杂背景的智能安全防卫系统防范的对象,是能够靠近工程的,具有潜在威胁的抵近侵袭的人员、车辆、小型无人化空中或地面智能装备等。
具体地,本发明的适用于复杂背景的智能安全防卫系统所采用的监控、探测核心设备包括热成像装置具备红外功能的摄像机、主动红外探测器、红外对射光栅。其中热成像装置可以是热成像摄像机或热成像摄像仪。通过热成像装置探测发现隐蔽在树木、灌木等不连续遮挡物后的可产生明显热辐射的移动目标;通过具备红外功能的摄像机昼夜探测发现移动目标,捕捉运动轨迹,采集移动目标的特征信息。主动红外探测器、红外对射光栅设置预设需要进行监测的孔口位置例如,在工程的穿廊外、通风竖井出地面处等固定的孔口位置,形成对入侵行为的预警。
本发明的适用于复杂背景的智能安全防卫系统具有移动目标告警功能和抵近目标智能匹配功能,其能够在规定的预警距离内能够识别移动物体,发现抵近目标,所述抵近目标包括人员、车辆以及其他移动物体,视频采集设备采集的视频流中,单帧图像中该移动物体的图幅面积占比不应小于1.5%,并能够通过上位机向值守人员发出预警信号;同时通过采集图像数据与后台数据库数据的比对,对抵近的人员和车辆目标进行自动敌我判断;本发明的适用于智能安全防卫系统具有身份数据库,能够预先采集录入人员、车辆信息,生成白名单,用于监控时的比对,同时对后台存储数据以外的人员和车辆,能够自动采集录入人员脸部图像、车辆号牌及外观等必要参数,生成黑名单,存入后台数据库,用作后续判断。本发明可全天候、全气象条件下运行。
附图说明
本发明上述和/或附加方面的优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明的用于复杂背景的智能安防系统的结构示意图。
图2为根据本发明的用于复杂背景的移动目标识别处理方法的流程图。
图3为根据本发明的用于复杂背景的移动目标识别处理方法的流程图。
图4和图5为根据本发明的用于复杂背景的移动目标识别处理方法中人体在移动过程中的状态图;人体在移动过程中必然存在肢体动作,例如,曲臂、屈膝,在人体移动过程中肢体呈现折线状态,对各折线段进行标记,根据各折线段的比例进行可以入侵人员目标的测算。
图6为根据本发明的用于复杂背景的移动目标识别处理方法中交叠不可识别状态图,而人体在移动过程中,肢体不会出现长时间的交叠不可识别状态。
图7为根据本发明的用于复杂背景的移动目标识别处理方法中长期潜伏动作示意图,其中肢体长时间处于静止状态。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
以下结合附图对本发明进行详细说明。
如图1至图7所示为根据本发明的用于复杂背景的智能安防系统,其包括感知层、网络层和智慧层。所述感知层为底层,网络层为中层、智慧层为顶层。感知层为数据采集层,该层包括用于感知工程周边态势的监测设备,所述监测设备包括主动红外探测器、红外对射光栅、热成像仪以及视频采集摄像装置。
所述网络层为数据传输层,该层配置用于将感知层的监测设备所采集到的信息的传输与汇总,所述网络层包括传输链路、信号融合处理板卡以及交换机;
所述智慧层用于自主决策,所述智慧层包括上位机和实时通信服务器,所述上位机设置后台数据库,实时通信服务器与上位机通过线缆进行连接,上位机优先保障对其所接收到的感知层的数据进行处理,实时通信服务器接收报警信号,在每个岗亭处设置报警装置,实时通信服务器分发告警信息至对应的值守执勤点位,例如,岗亭,接收到报警信息后该值守执勤点位的值守执勤人员进行介入处理。根据本发明的用于复杂背景的智能安防系统,首先建立白名单和黑名单,进行基本信息录入;通过监测设备实时采集移动目标特征图像,提取移动目标特征信息,将所提取的特征信息与白名单和/或黑名单进行对比,移动目标匹配至白名单时,系统执行放行操作,当移动目标匹配值黑名单时,系统进行告警。当移动目标既不属于白名单也不属于黑名单时,将该移动目标的特征信息与后台数据库中的特征值进行对比后,若判定为可疑目标,则发出告警信号,同时将其录入黑名单。
所述监测设备与上位机相连,进一步地,所述主动红外探测器和红外对射光栅均采用直流电源线连接至电源,系统提供48V工作电源。优选地,此处直流电源线的数量为两根。所述主动红外探测器和所述红外对射光栅的输出信号均为一对闭合触点,其反馈0或1,所述主动红外探测器和所述红外对射光栅的输出端均通过信号线连接至所述信号融合处理板卡,所述信号融合处理板卡与上位机相连。优选地,所述信号线的数量为两根。
所述热成像仪与所述视频采集摄像装置均采用直流电源线连接电源,均由系统提供48V工作电源,其输出信号为视频数据流。优选地,所述直流电源线的数量为两根。根据设备自身要求及距离上位机距离,所述热成像仪与所述视频采集摄像装置通过网线或光纤,连接至交换机,交换机汇集各个监测点位的信号,经由光纤传输至上位机。优选地,将所述热成像仪连接至交换机的网线或光线的数量为1根,将所述视频采集装置连接至交换机的网线或光线的数量为1根。
主动红外探测器、红外对射光栅、热成像仪或视频采集摄像装置检测出应予以报警的目标,上位机均应发出报警信号。报警信号通过实时通信服务器分发信息至对应的值守执勤点位,值守执勤人员根据所接收到的告警信息进行介入处理。上位机将告警事件以及上位机融合算法的学习结果传输至后台数据库进行记录,并依据后台数据库提供匹配特征数据。通过上位机融合算法将感知层的各监测设备所采集到的数据或信号进行融合,进行“或”判断,当任一监测设备的反馈结果可判断为发生入侵事件时,系统最终发出告警信号;上位机融合算法中的视频信号处理功能部分需不断融合人的“决策”过程,用于深度学习。优选地,某次采集数据后算法发出告警信号,通过处理实时采集的视频流,判定为发生人员入侵事件,此时工程内部值守人员处理事件过程中,未在采集现场发现人员入侵,且回看视频录像时也未发现人员入侵,则由值守人员判定上位机融合算法此次决策结果为“虚警”,并告知上位机融合算法,避免类似情况的发生。
所述主动红外探测器设置在预设的固定卡口,通过所述主动红外探测器进行主动探测,优选地,所述主动红外探测器设置在工程通风竖井、排烟口与外界连通位置。若主动红外探测器被触发,则认定发生可疑目标入侵事件,发出告警信号,直接反馈决策结果,将此类事件定义为Case1。
所述红外对射光栅设置在工程周界,且所述工程周界为直线或近似直线的位置。具体地,所述红外对射光栅设置在直线边界以进行主动探测,若红外对射光栅被触发,则认定发生可疑目标入侵事件,发出告警信号,直接反馈决策结果,将此类触发事件定义为Case2。
所述热成像仪设置于工程与外界发生物理连通、且有可能发生人员渗透入侵进入工程内部的部位。若热成像仪检测到高于环境温度的热源,则将所采集数据反馈至上位机,触发上位机算法,也就是说,热成像仪为上位机决策提供依据,将此类事件定义为Case3。
所述视频采集摄像装置,设置在不规则场景中,优选地,所述不规则场景包括扩工程周界、工程所处区域的最高点。所述视频采集摄像装置设置在外围各监测点,进行外围数据采集,并将所采集到的数据实时回传至上位机,通过上位机进行决策判断,在数据采集层不做判断,所反馈的采集数据为上位机决策提供依据,此类事件定义为Case4。
优选地,主动红外探测器、红外对射光栅、热成像仪以及视频采集摄像装置的反馈结果优先级为并行的“或”关系,也就是说,主动红外探测器、红外对射光栅、热成像仪或视频采集摄像装置检测出应予以报警的目标,上位机系统均应发出报警信号。
如图1所示,主动红外探测器处发生的case1以及红外对射光栅处发生的case2均直接输出结果,上位机直接置信,不再进行辅助决策。
热成像仪处发生的case3、视频采集摄像装置处发生的case4,将反馈采集数据至上位机,最终由上位机算法决策后,判定是否发出告警信号。
针对case4事件发生后,对回传数据的数据处理方法,其为一种实时采集视频流处理算法,其配置用于移动目标的识别。如图2所示,根据本发明的用于复杂背景的智能安防系统中移动目标识别处理方法,其具体包括如下步骤:
S1:进行视频采集与传输:
所述视频包括来自于热成像仪的第一类视频和来自于视频采集摄像装置的第二类视频。所述第一类视频和所述第二类视频通过光纤或网线传输至交换机,再传输至上位机;
优选地,所述智慧层包括数据预处理模块、目标识别功能模块以及告警信息发出模块,其中所述目标识别功能模块包括移动目标提取子模块、目标特征拟合子模块以及目标特征匹配子模块。优选地,通过视频采集摄像装置实时采集到的现场视频实时回传至智慧层,更进一步地,回传至上位机的目标识别功能模块。
所述热成像仪的视频图像实时回传至上位机。优选地,所述第一类视频传输至上位机的数据预处理模块进行特征的预判断;根据每一帧图像中的亮度梯度确定特征温度值,将所获得特征温度值与预设的温度阈值进行比对,判断是否需要将所采集的相关视频信息传输至上位机的数据处理模块进行目标匹配识别;
优选地,所述预设的温度阈值的范围为36.5°±5.5°,所述预设的温度阈值可以根据布设现场的实际情况进行动态调整。
所述第二类视频传输至目标识别功能模块进行目标匹配识别;
S2:判断监控视域内是否出现移动目标;若监控视域内未出现移动目标,则转入步骤S1;若监控视域内出现移动目标,则转入步骤S3;
优选地,通过目标识别功能模块的移动目标提取子模块判断监控视域内是否出现移动目标;
优选地,通过上位机的目标识别功能模块,判断监控视域内是否出现移动目标;
优选地,判定该监控视域内出现移动目标的方法,其具体包括如下步骤:
步骤一:预设移动目标判断识别的图像频率为f3,热成像仪的采样频率为f1,视频采集摄像装置的采样频率为f2,其中f3<f1且f3<f2;
步骤二:划分像素矩阵,将图像采集区域划分为多个子区域;
优选地,根据系统采用的视频采集装置特性划分像素矩阵;
更为具体地,根据本发明的实例,所述视频采集装置的参数为800万像素、4mm焦距、监控距离≤10m、画面尺寸16:9,将图像采集区域划分为1600×900个子区域,共1440000个。
步骤三:通过目标识别功能模块对比多帧图像,系统以频率f3连续采样N帧图像,其中N≤10,将第1帧图像与其后的各帧图像进行逐帧对比,共N-1次对比;具体地,逐次对比第1帧图像与第2帧图像、第1帧图像与第3帧图像、第1帧图像与第4帧图像,……,第1帧图像与第N帧图像;
优选地,第1帧与第N帧的对比方法为:对比第1帧与第N帧图像时,首先逐个对比步骤二中划分得到的各子区域,当子区域特性参数发生改变的像素比例达到65%以上时,判定该子区域“变化”。
步骤四:得到判定为“不同”的次数M;
步骤五:当M≥(N-1)/2时,最终判定为“出现移动目标”。
优选地,当变化的子区域个数在各子区域中占比超过预设比例,例如,超过0.15%-0.4%,且子区域关联,则判定“出现移动目标”。
具体地,根据本发明的实例,当变化的子区域个数在全幅图像1440000个子区域中占比超过预设比例,例如,超过0.15%-0.4%,且子区域关联,则判定“出现移动目标”。所述预设比例能够根据系统实际布设现场进行调节。
优选地,图像采集区域的像素矩阵A如下所示:
其中i11、i12属于区域关联,i11、i21属于区域关联;i11、i13不属于区域关联;i11、i9001不属于区域关联,以此类推。
优选地,视频采集摄像装置的第二类视频数据与热成像仪的第一类视频数据的处理方法与上述相同,仅采样频率有调整。
S3:对移动目标的像素矩阵进行区域抓取:
S4:判定所抓取区域内的移动目标是否可识别为完整物体;若可识别为完整物体,转入步骤S4-1;若不能识别为完整物体,则转入步骤S5;
优选地,将所抓取的区域内移动目标的像素矩阵中的点位与后台数据库中的数据进行对比,判断抓取区域内的移动目标是否可识别为完整物体;
优选地,所抓取的区域内的移动目标可识别为完整物体的判断方法如下所示:
步骤1:将第1帧图像与其后的N-1帧图像进行逐帧对比后,在N-1帧图像中对识别为“移动”的区域进行抓取以剥离无效背景,得到移动区域,所述移动区域的边界形成了物体轮廓。优选地,进行了N-1次比对后,得到了N-1个物体轮廓曲线。
优选地,由目标识别功能模块的目标特征拟合子模块将第1帧图像与其后的N-1帧图像进行逐帧对比后,在N-1帧图像中对识别为“移动”的区域进行抓取以剥离无效背景,得到移动区域。
优选地,调整N的数量可根据采样要求进行调整。
步骤2:将得到的N-1个物体轮廓曲线逐个与后台数据库中存储的各初始轮廓曲线进行遍历比对,得出N-1个单次匹配结果;
优选地,通过目标识别功能模块的目标特征匹配子模块将得到的N-1个物体轮廓曲线逐个与后台数据库中存储的各初始轮廓曲线进行遍历比对,得出N-1个单次匹配结果;
优选地,单次匹配结果的输出结果为人体、车辆、羊、兔、蛇、鸟、无人机、无人车或返回为null。当返回null时表示该轮廓曲线为不能识别为完整物体。
步骤3:对上一步骤得到的N-1个单次匹配结果进行统计,得到各输出结果的数量;
步骤4:当各输出结果的数量大于(N-1)/2次时,判断N-1次判别结果是否收敛;优选地,步骤4中N-1次判别结果收敛的条件为:步骤3中统计得到的数量最多的输出结果唯一,即不存在两个统计数量一样多的输出结果。
具体地,当轮廓曲线的数量为10时,在步骤3中统计完毕后,出现了4次“人体”,4次“羊”,2次null,此时则判定为N-1次判别结果不收敛。
若N-1次判别结果收敛,则输出最终匹配结果;
若N-1次判别结果不收敛;则需再进行一个周期的采样,重复步骤1至步骤4,将两个周期的2N帧图片进行逐帧比,直至判别结果收敛;
具体地,统计10次匹配结果,其中6次为人体,3次为羊,1次为null,由于识别为人体的次数6≥10/2,则此次匹配结果为“人体”。
优选地,当某一单次匹配结果的输出结果为“null”,则认为该物体不属于完整物体。更进一步地,则认为该物体属于人体局部肢体,即被遮挡后部分显露的人体,或采取了伪装措施且未被完全识别的人体。
S4-1:判定该完整物体是否属于报警对象;若属于报警对象,则转入End2;若不属于报警对象,则转入End1;
优选地,判定该完整物体是否属于报警的具体步骤如下所示:
将S3中的最终匹配结果赋值,当根据字符匹配结果,判定是否属于报警对象。优选地,S3中最终匹配结果为人体、无人机和/或无人车,则告警信息发出模块报警,转入End2;S3中的最终匹配结果为羊、兔、蛇和/或鸟,则告警信息发出模块不报警,转入End1。
S5:将S3中所抓取的点位进行拟合,生成曲线,按照多条折线段的组合进行处理;
优选地,拟合生成多条折线段组合的具体步骤如下所示:
步骤A:对S4中生成的人体目标轮廓曲线所框定的整体区域进行拆分,根据轮廓框定的区域情况划分为多个不同的平滑区域。
优选地,根据人体轮廓抓取情况,所划分的区域分为大臂区域、小臂区域、大腿区域以及小腿区域。
步骤B:对划分形成的多个不同平滑区域进行近似拟合,根据划分后的局部区域进行拟合;
若该区域拟合得到轴对称图形,则步骤A中,各个所划分的区域不存在“弯折”情况;
所述轴对称图形包括矩形、椭圆形、等腰梯形和/或菱形;
步骤C:取步骤B中得到的各轴对称图形的2条对称轴中的较长者,作为本区域折线段;
步骤D:拟合形成的2条折线段存在交点,则将这两条折线段作为关联折线段,用于判断人体关节比例。
S6:选取S5中所生成的曲线的关联折线段,判定折线段之间的长度比例是否符合人体关节比例;优选地,人体关节比例包括大臂长度L大臂与小臂长度L小臂之比、大腿长度L大腿和小腿长度L小腿之比。
优选地,L大臂/L小臂=0.78±20%;L大腿/L小腿=1.62±15%。
若曲线中的折线段之间长度比例符合人体关节比例,转入S6-1;
若曲线中的折线段之间长度比例关系不符合人体关节比例,则转入步骤S7;
优选地,实时采集视频流处理算法中人体比例关节测算方法为一种复杂背景下发生遮挡情况时可疑入侵人员目标的识别方法,其具体包括如下步骤:
长期潜伏动作如图7所示,其中肢体长时间处于静止状态;交叠不可识别状态如图6所示,而人体在移动过程中,肢体不会出现长时间的交叠不可识别状态。如图4和图5所示,人体在移动过程中,必然存在肢体动作,例如,曲臂、屈膝,在人体移动过程中肢体呈现折线状态,对各折线段进行标记,根据各折线段的比例进行可以入侵人员目标的测算。
如图4、图5所示,如果点A至J全部显现,此时可识别为完整人体。但被遮挡时,A至J至少有1个点不能呈现,也就不能识别为完整人体,此时转入S6,按S6中的人体关节比例关系判断其为非完全形态的人体。
优选地,关联折线段也就是相关折线段,其是指相邻的、有交接的2段或2段以上的折线段。
如图4至图7所示,本申请中选择相邻的且有共同端点的2段折线段作为相关折线段,例如,LAB与LBC为相关折线段,LFG、LGH为相关折线段,LBC与LCD为相关折线段;LAB与LGH为不相关折线段。
优选地,进行比例测算的2段折线段必须为相关折线段以避免2段折线段取自2个不同物体。
测算时,参照人体各关节比例范围,考察2段相关折线段的比例关系。
当满足下列条件之一时:
认为曲线中的折线段之间长度比例符合人体关节比例,判定移动目标为人体局部,即有遮挡的人体,
此时系统应发出告警信号,即智慧层告警信息发出模块发出告警信号。
S6-1:判定移动目标为人体局部,也就是说判定移动目标为有遮挡的人体;转入End2;
S7:判定移动目标不具有威胁;转入End1;
End1:判定移动目标为植物自然晃动,例如,树木、灌木等的晃动或者为有生命体的动物等,系统判定为虚警,不发出告警信号;
End2:判定可移动目标为人体,车辆、小型无人化装备可疑侵入目标;系统发出告警信息。其中小型无人化装备包括无人机和/或无人车。
根据本发明的第二实施例,因工程周边或上覆山体的情况各异,因此,优选地,视频采集摄像装置安装时,对应的监控区域,即视频监控的视野,可能出现“空域”和“地域”的合集,此种情况出现时,在算法中对该类摄像装置的回传数据先进行区域划分操作,对应不同的工作流程,参见图3。空域中的识别对象为“低慢小”目标,所述“低慢小”目标可以是无人机。可疑人员仅能从地面渗透至工程周界,针对的目标对象及特性不同。
当监控视域同时出现“对地”和“对空”,移动目标识别处理方法,其具体包括如下步骤:
S1:摄像装置实时采集监控区域的现场视频,并实时回传至上位机;所述监控视域包括对地监测区和对空监测区;
S2:目标识别功能模块判定监控视域内是否出现移动目标;
若监控区域内未出现移动目标,则转入S2;
若监控区域内出现移动目标,则转入步骤S3;
S3:判定移动目标出现在监控视域内的对空检测区或对地监测区;
若移动目标出现在对空监测区,则转入S3-1;
若移动目标出现在对地监测区,则转入S4;
S3-1:通过目标识别功能模块对比多帧图像,将判定为“移动”的像素矩阵进行区域抓取;
S3-2:判断对空监测区内的空中移动目标是否发生悬停,若发生悬停则转入End1;若未发生悬停则执行步骤S3-3;
S3-3:将该空中移动目标与后台数据库进行对比,判定抓取区域内的移动目标是否为无人机,若抓取区域内的移动目标是为无人机,则转入End1;若抓取区域内的移动目标不是无人机,则转入End2;
S4:通过目标识别功能模块对比多帧图像,将判定为“移动”的像素矩阵进行区域抓取;
S5:对比后台数据库,判定抓取区域内的移动目标是否可识别为完整物体;若其可识别为完整物体,则转入S4-1;若不能识别为完整物体,则转入S6;
S4-1:判定该完整物体是否为报警对象,若其为报警对象,则转入End2,;若其不为报警对象,则转入End1;
S6:将S4中抓取的像素矩阵的点位拟合生成曲线,就按照多条折线的组合进行处理;
S7:取S6中生成曲线中位置相近的关联折线段,判定折线段之间的长度比例是否符合人体关节比例;
若其符合人体关节比例,则转入S7-1,判定移动目标为人体局部,即该移动目标为有遮挡的人体,转入End2;若不符合人体关节比例,则转入S8,判定移动目标不具有威胁,转入End1;
End1:判定结果为植物晃动和/或有生命体征的动物,系统认定为虚警,告警信息不发出模块发出告警信号;所述植物包括树木和/灌木;
End2:定可移动目标为人体,车辆、小型无人化装备可疑侵入目标;系统发出告警信息。其中小型无人化装备包括无人机和/或无人车。
End3:判定为空中飞鸟,系统认定为虚警,告警信息不发出模块发出告警信号;
End4:判定为空中无人机,告警信息发出模块发出告警信号。
所述视频采集摄像装置按照所处位置分为卡口监控视频采集摄像装置和工程外围周界监控视频采集摄像装置。所述卡口监控视频采集摄像装置用于门禁系统,按白名单对出入人员予以放行。所述工程外围周界监控视频采集摄像装置用于工程周边的移动目标识别。
并列地,按照外围监测视频采集摄像装置的监控视域分为对空监测视频采集摄像装置和对地监测视频采集摄像装置。所述对空监测视频采集摄像装置监测空中来袭目标,如无人机等“低慢小”目标;所述对地监测视频采集摄像装置监测地面来袭目标,如人员、车辆、小型无人化装备。
优选地,热成像仪回传的也是视频信息。工作过程中,热成像仪器将实时采集的数据回传至上位机后,热成像仪采集的数据为温度数据。首先判定热成像仪是否监测到高于环境温度的物体;若监测到高于环境温度的物体,也就是说,当热成像仪回传的温度高于预设的环境温度时,针对热成像仪回传的数据所采用的视频处理算法与视频采集摄像装置回传信息所采用的算法是一致的。
可以理解的是,以上实施方式仅仅是为了说明本发明的原理而采用的示例性实施方式,然而本发明并不局限于此。本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或全部技术特征进行等同替换;而这些修改或替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
在本发明的描述中,需要说明的是,术语“上”、“下”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性。
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“连通”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接连通,也可以通过中间媒介间接连通,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。此外,在本发明的描述中,除非另有说明,“至少三个”的含义是两个或两个以上。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种用于复杂背景的移动目标识别处理方法,其特征在于,其包括如下步骤:
S1:进行视频采集与传输:
通过光纤或网线传输至交换机,再传输至上位机;
所述视频包括来自于热成像仪的第一类视频和来自于视频采集摄像装置的第二类视频;
通过视频采集摄像装置实时采集到的现场视频实时回传至上位机的目标识别功能模块进行目标匹配识别;
所述热成像仪的视频图像实时回传至上位机的数据预处理模块进行特征的预判断;根据每一帧图像中的亮度梯度确定特征温度值,将所获得特征温度值与预设的温度阈值进行比对,判断是否需要将所采集的相关视频信息传输至上位机的数据处理模块进行目标匹配识别;
所述预设的温度阈值的范围为36.5°±5.5°;
S2:通过上位机的目标识别功能模块判断监控视域内是否出现移动目标;若监控视域内未出现移动目标,则转入步骤S1;若监控视域内出现移动目标,则转入步骤S3;
判定该监控视域内出现移动目标的方法,其具体包括如下步骤:
步骤一:预设移动目标判断识别的图像频率为f3,热成像仪的采样频率为f1,视频采集摄像装置的采样频率为f2,其中f3<f1且f3<f2;
步骤二:划分像素矩阵,将图像采集区域划分为多个子区域;
步骤三:通过目标识别功能模块对比多帧图像,系统以频率f3连续采样N帧图像,其中N≤10,将第1帧图像与其后的各帧图像进行逐帧对比,共N-1次对比;
第1帧与第N帧的对比方法为:对比第1帧与第N帧图像时,首先逐个对比步骤二中划分得到的各子区域,当子区域特性参数发生改变的像素比例达到65%以上时,判定该子区域“变化”;
步骤四:得到判定为“变化”的次数M;
步骤五:当M≥(N-1)/2时,最终判定为“出现移动目标”;
S3:对移动目标的像素矩阵进行区域抓取:
S4:判定所抓取区域内的移动目标是否可识别为完整物体;若可识别为完整物体,转入步骤S4-1;若不能识别为完整物体,则转入步骤S5;
S4-1:判定该完整物体是否属于报警对象;若属于报警对象,则转入End2;若不属于报警对象,则转入End1;
将S3中的最终匹配结果赋值,当根据字符匹配结果,判定是否属于报警对象;
S5:将S3中所抓取的点位进行拟合生成曲线,按照多条折线段的组合进行处理;
拟合生成多条折线段组合的具体步骤如下所示:
步骤A:对S4中生成的人体目标轮廓曲线所框定的整体区域进行拆分,根据轮廓框定的区域情况划分为多个不同的平滑区域;
步骤B:对划分形成的多个不同平滑区域进行近似拟合,根据划分后的局部区域进行拟合;
若该区域拟合得到轴对称图形,则步骤A中,各个所划分的区域不存在“弯折”情况;
步骤C:取步骤B中得到的各轴对称图形的2条对称轴中的较长者,作为本区域折线段;
步骤D:拟合形成的2条折线段存在交点,则将这两条折线段作为关联折线段,用于判断人体关节比例;
S6:选取S5中所生成的曲线的关联折线段,判定折线段之间的长度比例是否符合人体关节比例;若曲线中的折线段之间长度比例符合人体关节比例,转入S6-1;
若曲线中的折线段之间长度比例关系不符合人体关节比例,则转入步骤S7;
S6-1:判定移动目标为人体局部,也就是说判定移动目标为有遮挡的人体;转入End2;
S7:判定移动目标不具有威胁;转入End1;
End1:判定移动目标为植物自然晃动或者为有生命体的动物等,系统判定为虚警,不发出告警信号;
End2:判定可移动目标为人体、车辆和/或小型无人化装备可疑侵入目标;系统发出告警信息。
2.如权利要求1所述的用于复杂背景的移动目标识别处理方法,其特征在于,所抓取的区域内的移动目标可识别为完整物体的判断方法如下所示:
步骤1:将第1帧图像与其后的N-1帧图像进行逐帧对比后,得到了N-1个物体轮廓曲线;
步骤2:将得到的N-1个物体轮廓曲线逐个与后台数据库中存储的各初始轮廓曲线进行遍历比对,得出N-1个单次匹配结果;
步骤3:对上一步骤得到的N-1个单次匹配结果进行统计,得到各输出结果的数量;
步骤4:当各输出结果的数量大于(N-1)/2次时,判断N-1次判别结果是否收敛;
若N-1次判别结果收敛,则输出最终匹配结果;
若N-1次判别结果不收敛;则需再进行一个周期的采样,重复步骤1至步骤4,将两个周期的2N帧图片进行逐帧比,直至判别结果收敛。
3.如权利要求1或2所述的用于复杂背景的移动目标识别处理方法的用于复杂背景的智能安防系统,其特征在于,其包括感知层、网络层和智慧层;所述感知层为数据采集层,该层包括用于感知工程周边态势的监测设备,所述监测设备包括主动红外探测器、红外对射光栅、热成像仪以及视频采集摄像装置;
所述网络层为数据传输层,该层配置用于将感知层的监测设备所采集到的信息的传输与汇总,所述网络层包括传输链路、信号融合处理板卡以及交换机;
所述智慧层用于自主决策,所述智慧层包括上位机和实时通信服务器,所述上位机设置后台数据库,所述监测设备与上位机相连,上位机优先保障对其所接收到的感知层的数据进行处理,主动红外探测器、红外对射光栅、热成像仪和/或视频采集摄像装置检测出应予以报警的目标;上位机均应发出报警信号;实时通信服务器与上位机通过线缆进行连接,实时通信服务器接收报警信号,在每个岗亭处设置报警装置,实时通信服务器分发告警信息至对应的值守执勤点位。
4.如权利要求3所述的用于复杂背景的智能安防系统,其特征在于,所述主动红外探测器和所述红外对射光栅的输出端均通过信号线连接至所述信号融合处理板卡,所述信号融合处理板卡与上位机相连。
5.如权利要求4所述的用于复杂背景的智能安防系统,其特征在于,所述热成像仪与所述视频采集摄像装置通过网线或光纤,连接至交换机,交换机汇集各个监测点位的信号,经由光纤传输至上位机。
6.如权利要求5所述的用于复杂背景的智能安防系统,其特征在于,主动红外探测器、红外对射光栅、热成像仪以及视频采集摄像装置的反馈结果优先级为并行的“或”关系。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110375298.4A CN113096337B (zh) | 2021-04-08 | 2021-04-08 | 用于复杂背景的移动目标识别处理方法及智能安防系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110375298.4A CN113096337B (zh) | 2021-04-08 | 2021-04-08 | 用于复杂背景的移动目标识别处理方法及智能安防系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113096337A CN113096337A (zh) | 2021-07-09 |
CN113096337B true CN113096337B (zh) | 2022-11-11 |
Family
ID=76674958
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110375298.4A Active CN113096337B (zh) | 2021-04-08 | 2021-04-08 | 用于复杂背景的移动目标识别处理方法及智能安防系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113096337B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113823054A (zh) * | 2021-11-24 | 2021-12-21 | 中国南方电网有限责任公司超高压输电公司广州局 | 换流站的综合安防管理系统、方法、装置和计算机设备 |
CN114241536B (zh) * | 2021-12-01 | 2022-07-29 | 佛山市红狐物联网科技有限公司 | 一种掌脉图像识别方法及系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040067907A (ko) * | 2003-01-20 | 2004-07-30 | 오에누 덴시 가부시키가이샤 | 땜납 볼 위치별 검사 데이터 집계 방법 및 장치 |
CN101789125A (zh) * | 2010-01-26 | 2010-07-28 | 北京航空航天大学 | 一种无标记单目视频人体骨架运动跟踪方法 |
CN105228709A (zh) * | 2013-03-14 | 2016-01-06 | 微软技术许可有限责任公司 | 用于重复检测和分析的信号分析 |
CN105654061A (zh) * | 2016-01-05 | 2016-06-08 | 安阳师范学院 | 基于估计补偿的三维人脸动态重建方法 |
CN108985149A (zh) * | 2018-06-01 | 2018-12-11 | 平安科技(深圳)有限公司 | 人物图像识别方法、服务器及计算机可读存储介质 |
CN111292363A (zh) * | 2020-02-13 | 2020-06-16 | 张逸凌 | 一种关节图像处理方法、装置和计算设备 |
WO2020189313A1 (ja) * | 2019-03-20 | 2020-09-24 | アースアイズ株式会社 | 監視装置、監視システム、及び、監視方法 |
WO2020232069A1 (en) * | 2019-05-15 | 2020-11-19 | Northeastern University | Video 2d multi-person pose estimation using multi-frame refinement and optimization |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004295798A (ja) * | 2003-03-28 | 2004-10-21 | Japan Best Rescue System Kk | 警備システム |
US7411497B2 (en) * | 2006-08-15 | 2008-08-12 | Lawrence Kates | System and method for intruder detection |
CN101465034A (zh) * | 2009-01-08 | 2009-06-24 | 中兴通讯股份有限公司 | 视频监控方法及装置 |
US8564534B2 (en) * | 2009-10-07 | 2013-10-22 | Microsoft Corporation | Human tracking system |
US10307640B2 (en) * | 2011-09-20 | 2019-06-04 | Brian Francis Mooney | Apparatus and method for analyzing a golf swing |
CN106781165A (zh) * | 2016-11-30 | 2017-05-31 | 华中科技大学 | 一种基于深度传感的室内多摄像头智能联动监控装置 |
CN108806148B (zh) * | 2017-04-26 | 2020-04-10 | 佛山市顺德区美的电热电器制造有限公司 | 一种安防告警方法、红外线热成像传感器和服务器 |
EP3624051A4 (en) * | 2017-05-12 | 2020-03-25 | Fujitsu Limited | DISTANCE IMAGE PROCESSING DEVICE, DISTANCE IMAGE PROCESSING SYSTEM, DISTANCE IMAGE PROCESSING METHOD AND DISTANCE IMAGE PROCESSING PROGRAM |
CN108765826A (zh) * | 2018-05-31 | 2018-11-06 | 四川物联亿达科技有限公司 | 一种基于深度学习的多遮挡模糊场景人形识别方法及系统 |
JP7263094B2 (ja) * | 2019-04-22 | 2023-04-24 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
-
2021
- 2021-04-08 CN CN202110375298.4A patent/CN113096337B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040067907A (ko) * | 2003-01-20 | 2004-07-30 | 오에누 덴시 가부시키가이샤 | 땜납 볼 위치별 검사 데이터 집계 방법 및 장치 |
CN101789125A (zh) * | 2010-01-26 | 2010-07-28 | 北京航空航天大学 | 一种无标记单目视频人体骨架运动跟踪方法 |
CN105228709A (zh) * | 2013-03-14 | 2016-01-06 | 微软技术许可有限责任公司 | 用于重复检测和分析的信号分析 |
CN105654061A (zh) * | 2016-01-05 | 2016-06-08 | 安阳师范学院 | 基于估计补偿的三维人脸动态重建方法 |
CN108985149A (zh) * | 2018-06-01 | 2018-12-11 | 平安科技(深圳)有限公司 | 人物图像识别方法、服务器及计算机可读存储介质 |
WO2020189313A1 (ja) * | 2019-03-20 | 2020-09-24 | アースアイズ株式会社 | 監視装置、監視システム、及び、監視方法 |
WO2020232069A1 (en) * | 2019-05-15 | 2020-11-19 | Northeastern University | Video 2d multi-person pose estimation using multi-frame refinement and optimization |
CN111292363A (zh) * | 2020-02-13 | 2020-06-16 | 张逸凌 | 一种关节图像处理方法、装置和计算设备 |
Non-Patent Citations (1)
Title |
---|
复杂背景下基于空间分布特征的手势识别算法;杨波;《计算机辅助设计与图形学学报》;20101031;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113096337A (zh) | 2021-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111770266B (zh) | 一种智能视觉感知系统 | |
CN107483889A (zh) | 智慧工地管控平台的隧道监控系统 | |
CN100504942C (zh) | 智能视频监控设备模组和系统及其监控方法 | |
CN101119482B (zh) | 一种全景监控方法及设备 | |
CN113096337B (zh) | 用于复杂背景的移动目标识别处理方法及智能安防系统 | |
CN201936415U (zh) | 森林火情自动识别报警系统 | |
CN112068111A (zh) | 一种基于多传感器信息融合的无人机目标侦测方法 | |
KR101853903B1 (ko) | Cctv, 드론 및 광펜스를 포함한 침입 감지 방법 및 시스템 | |
Bhadwal et al. | Smart border surveillance system using wireless sensor network and computer vision | |
PT1628260E (pt) | Processo e dispositivo para a detecção automática de fogos florestais | |
CN111899452A (zh) | 基于边缘计算的森林防火预警系统 | |
CN108205896A (zh) | 一种校园交通安全智能监控管理系统 | |
CN108206931A (zh) | 一种遗留物监测分析系统 | |
CN113593161A (zh) | 一种周界入侵检测方法 | |
CN112263803A (zh) | 基于实时场景巡视和自动检测灭火的无人车智能安防系统及控制方法 | |
CN112257683A (zh) | 一种面向车辆运行轨迹监测的跨镜追踪方法 | |
CN116453278A (zh) | 一种深度学习智能检测与光纤振动传感结合的入侵监测方法 | |
CN114283544B (zh) | 一种基于人工智能的铁路站台入侵监测系统及方法 | |
CN115035668A (zh) | 一种基于视频监控的社区安防系统 | |
Luo | Research on fire detection based on YOLOv5 | |
CN111726583A (zh) | 智能管理系统 | |
KR102557769B1 (ko) | 디지털 트윈 가상 모델을 활용한 cctv 기반 사고 지점의 공간 좌표 인식 기술 시스템 | |
CN208460141U (zh) | 禁区入侵报警系统 | |
Mazur-Milecka et al. | Smart city and fire detection using thermal imaging | |
KR102434154B1 (ko) | 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |