CN112257492A - 一种多路摄像头实时入侵检测与跟踪方法 - Google Patents

一种多路摄像头实时入侵检测与跟踪方法 Download PDF

Info

Publication number
CN112257492A
CN112257492A CN202010874468.9A CN202010874468A CN112257492A CN 112257492 A CN112257492 A CN 112257492A CN 202010874468 A CN202010874468 A CN 202010874468A CN 112257492 A CN112257492 A CN 112257492A
Authority
CN
China
Prior art keywords
frame
image
tracking
person
illegal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010874468.9A
Other languages
English (en)
Inventor
周伟
郭鑫
宋光磊
郑福建
庞一然
易军
黄鸿
张秀才
邓建华
刘洪�
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Science and Technology
Original Assignee
Chongqing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Science and Technology filed Critical Chongqing University of Science and Technology
Priority to CN202010874468.9A priority Critical patent/CN112257492A/zh
Publication of CN112257492A publication Critical patent/CN112257492A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Biology (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Burglar Alarm Systems (AREA)

Abstract

本发明提供一种可用于多路摄像头的实时入侵检测与跟踪方法,首先通过多路图像采集设备,获取若干条视频流,然后,获取每一条视频流的首帧图像,由用户依次框选指定禁入区域,再将多路视频流图像帧拼接成一张大的图像帧,随后使用YOLOv4检测多路图像帧中的人员,判定禁入区域内的人员是否为非法入侵,若发现非法入侵,则对非法入侵行为进行报警,并对该人员进行跨摄像头持续跟踪。本发明通过拼接多路摄像头画面,实现多路画面跟踪任务中时间成本与算力成本的平衡;同时,多路摄像头画面在同一算法中进行监测跟踪,可以高效实现跨摄像头跟踪功能,对禁区入侵检测与入侵人员跟踪任务具有较强的针对性,准确率高。

Description

一种多路摄像头实时入侵检测与跟踪方法
技术领域
本发明设涉及图像处理技术领域领域,具体涉及一种可用于多路摄像头的多目标检测跟踪方法。
背景技术
入侵检测与跟踪是基于传统安防摄像头的智能自动监控技术,能有效解决仅靠人力无法做到时时观察监控屏幕,无法及时发现入侵行为;及发现入侵人员后,后续追踪困难的情况,大大节省禁入区域监控所需的人力物力。
传统的入侵检测方法在应对多路摄像头时一般采取如下两种方案:一、并行方案,针对若干路摄像头启动若干个算法模型,优点在于每路摄像头的算法准确度高,但由于需要同时运行多个模型,对计算服务器的算力要求较高。二、串行方案,针对若干路摄像头进行分时计算,对每一路摄像头计算若干帧,再切换到下一路摄像头计算若干帧,这种方法只需运行一个计算模型,对服务器算力要求相对较低,但随着摄像头路数增多,每路摄像头采集的视频帧等待计算的时间会相应增长,难以保证实时性。
而在入侵人员跟踪方法上,传统的基于卡尔曼滤波的跟踪算法着重考量人员的运动信息,当出现遮挡或是人员离开当前摄像头画面时,重新出现在画面中的人员会被误认为是第一次出现在画面中,对可疑人员的跟踪造成很大困难。
基于上述传统方法,若希望实现对可疑入侵人员的识别与跟踪,需要设计额外的计算模型,将会进一步增大算力开销,效率较低。
发明内容
为解决上述问题,本发明提出对一种多路监控画面拼接方法,使得计算模型只需一次识别,即可应对多路摄像头的监控画面,同时兼顾准确性与实时性。
同时,本发明采用神经网络对检测目标的表观特征进行建模,既可以配合数据库实现入侵人员的身份合法性识别,又可以在跟踪时对卡尔曼滤波跟踪失败的目标度量其表观特征相似性,由此解决受遮挡目标与跨摄像头目标的重识别问题,解决实际需求。
为实现上述目的,本申请采用以下技术方案予以实现:
一种用于多路摄像头的实时入侵检测方法,该方法包括以下步骤:
S1:通过多路图像采集设备,获取若干条视频流Vn
S2:获取每一条视频流Vi的首帧图像,由用户依次框选指定禁入区域;
S3:将多路视频流图像帧拼接成一张大的图像帧,其具体包括如下步骤:
S31:将若干视频帧的大小统一为最小视频帧的大小;
S32:开辟一张画布用于放置视频流,其宽高分别为:
Figure BDA0002652194750000021
其中,n表示视频流数目,wmin与hmin分别表示多路视频流中最小视频帧的宽高;
S33:将画布划分为m宫格的形式,其中
Figure BDA0002652194750000031
S34:将多路视频流的每一帧依次放入m宫格中,作为子画面;
S35:为同一各摄像机之间的刷新率,取拥有最高刷新率摄像机的帧数作为画布的刷新率,每个子画面在被各自的视频传输流刷新之前,图像在画布上保留;
S4:使用YOLOv4检测多路图像帧中的人员;
S5:判定禁入区域内的人员是否为非法入侵,其具体包括如下步骤:
S51:使用如图所示的神经网络结构,将输入的人员照片表观特征提取为128维特征向量;
S52:神经网络的训练使用三元损失函数进行训练,其具体公式如下:
对于每一个人员样本图像p,有
Figure BDA0002652194750000032
pd表示检测到的输入图像,pgt表示与输入图像相同人员的图像,pneg表示与输入图像中人员不同的图像;
S53:对可以合法进入指定区域的人员,事先将其全身照片提取为128维特征,再录入数据库;
S54:对进入指定区域的人员,使用S51中的神经网络,提取其128维特征向量,并使用余弦距离,使其与数据库中所有在库人员的外观特征向量矩阵
Figure BDA0002652194750000033
求取相似度sim:
Figure BDA0002652194750000041
若sim大于阈值T1,则判定为非法入侵人员;
S6:对非法入侵行为进行报警,并对该人员进行跨摄像头持续跟踪,其跟踪方式具体包括如下步骤:
S61:对步骤S54中判定的非法入侵人员,建立跟踪器ti,将其检测框位置放入其中;
S62:使用S51中的神经网络,提取其128维特征向量作为表观特征,并放入跟踪器ti中;
S63:使用递归卡尔曼滤波预测下一帧中该非法入侵人员位置L;
S64:进入下一帧,使用S4与S5步骤的方式,检测区域内所有非法入侵人员D;
S65:使用综合距离度量,匹配连续两帧的非法入侵人员,实现跟踪,匹配方式如下:
Figure BDA0002652194750000042
其中
Figure BDA0002652194750000043
表示第i个预测框,
Figure BDA0002652194750000044
表示第j个检测框;若其综合距离度量dist小于阈值T2,则判定其跟踪成功,新的跟踪框体位置及其表观特征存入对应跟踪器ti,并对该人员进行持续跟踪;
S66:当发生遮挡,或该人员离开某一摄像头子画面范围时,则距离度量判定方式失效,转而采用表观特征进行匹配;对检测到新出现在画面中的人员D,将其与所有跟踪器ti中最后3秒采集到的表观特征使用S54中的相似度公式sim进行比对,求取其最小距离min(sim),若最小距离小于阈值T3,则判定关联成功,达到增强跟踪稳定性与入侵人员重识别的目的。
与现有技术相比,本专利方法使用画面拼接方式,解决传统多路画面跟踪任务中时间成本与算力成本的平衡的问题;纳入神经网络考量跟踪目标的表观特征,实现跨摄像头跟踪,同时改进基于卡尔曼滤波的跟踪手段,增强了目标跟踪的稳定性。
附图说明
图1为用于多路摄像头的实时入侵检测方法流程图;
图2为用于表观建模的神经网络结构图;
具体实施方式
本申请实施例通过提供一种用于多路摄像头的实时入侵检测方法,以解决现有技术中多路画面难以同时处理,无法跨摄像头跟踪,及跟踪稳定性较低的问题。
为了更好地理解上述技术方案,下面将结合说明书附图以及具体的实施方式,对上述技术方案进行详细的说明。应当理解,此处所描述的具体实施方式仅用于解释本发明,并不用于限定本发明。
实施例:
S1:通过多路图像采集设备,获取若干条视频流Vn
S2:获取每一条视频流Vi的首帧图像,由用户依次框选指定禁入区域;
S3:将多路视频流图像帧拼接成一张大的图像帧,其具体包括如下步骤:
S31:将若干视频帧的大小统一为最小视频帧的大小;
S32:开辟一张画布用于放置视频流,其宽高分别为:
Figure BDA0002652194750000061
其中,n表示视频流数目,wmin与hmin分别表示多路视频流中最小视频帧的宽高,本例中采集摄像头为3路720P分辨率监控与480P分辨率监控混合,取其最小帧宽高求取画布大小,即W=1280,H=960。
S33:将画布划分为m宫格的形式,其中
Figure BDA0002652194750000062
本例中,m=4。
S34:将多路视频流的每一帧依次放入m宫格中,作为子画面,本例中,空白的第四格保持其像素点全为0.
S35:为同一各摄像机之间的刷新率,取拥有最高刷新率摄像机的帧数作为画布的刷新率,每个子画面在被各自的视频传输流刷新之前,图像在画布上保留。
S4:使用YOLOv4检测多路图像帧中的人员;
S5:判定禁入区域内的人员是否为非法入侵,其具体包括如下步骤:
S51:使用如图所示的神经网络结构,其具有2个卷积层,1个最大池化层,与6个残差卷积层,保证训练效果,最终将输入的人员照片表观特征提取为128维特征向量rj,并归一化使得||rj||=1。
S52:神经网络的训练使用三元损失函数进行训练,其具体公式如下:
对于每一个人员样本图像p,有
Figure BDA0002652194750000063
pd表示检测到的输入图像,pgt表示与输入图像相同人员的图像,pneg表示与输入图像中人员不同的图像。
S53:对可以合法进入指定区域的人员,事先将其全身照片提取为128维特征,再录入数据库。
S54:对进入指定区域的人员,使用S51中的神经网络,提取其128维特征向量,并使用余弦距离,使其与数据库中所有在库人员的外观特征向量矩阵
Figure BDA0002652194750000071
求取相似度sim:
Figure BDA0002652194750000072
若sim大于阈值T1,则判定为非法入侵人员,本例中,T1=1.21.
S6:对非法入侵行为进行报警,并对该人员进行跨摄像头持续跟踪,其跟踪方式具体包括如下步骤:
S61:对步骤S54中判定的非法入侵人员,建立跟踪器ti,将其检测框位置放入其中;
S62:使用S51中的神经网络,提取其128维特征向量作为表观特征,并放入跟踪器ti中;
S63:使用递归卡尔曼滤波预测下一帧中该非法入侵人员位置L;
S64:进入下一帧,使用S4与S5步骤的方式,检测区域内所有非法入侵人员D;
S65:使用综合距离度量,匹配连续两帧的非法入侵人员,实现跟踪,匹配方式如下:
Figure BDA0002652194750000073
其中
Figure BDA0002652194750000081
表示第i个预测框,
Figure BDA0002652194750000082
表示第j个检测框;若其综合距离度量dist小于阈值T2,则判定其跟踪成功,新的跟踪框体位置及其表观特征存入对应跟踪器ti,并对该人员进行持续跟踪,本例中,T2=0.5。
S66:当发生遮挡,或该人员离开某一摄像头子画面范围时,则距离度量判定方式失效,转而采用表观特征进行匹配。对检测到新出现在画面中的人员D,将其与所有跟踪器ti中最后3秒采集到的表观特征使用S54中的相似度公式sim进行比对,求取其最小距离min(sim),若最小距离小于阈值T3,则判定关联成功,达到增强跟踪稳定性与入侵人员重识别的目的,本例中,T3=1.21。

Claims (4)

1.一种用于多路摄像头的实时入侵检测方法,该方法包括以下步骤:
S1:通过多路图像采集设备,获取若干条视频流Vn
S2:获取每一条视频流Vi的首帧图像,由用户依次框选指定禁入区域;
S3:将多路视频流图像帧拼接成一张大的图像帧;
S4:使用YOLOv4检测多路图像帧中的人员;
S5:判定禁入区域内的人员是否为非法入侵;
S6:对非法入侵行为进行报警,并对该人员进行跨摄像头持续跟踪。
2.根据权利要求1中步骤S3所述的图像帧拼接方法,其具体步骤如下:
S31:将若干视频帧的大小统一为最小视频帧的大小;
S32:开辟一张画布用于放置视频流,其宽高分别为:
Figure FDA0002652194740000011
其中,n表示视频流数目,wmin与hmin分别表示多路视频流中最小视频帧的宽高;
S33:将画布划分为m宫格的形式,其中
Figure FDA0002652194740000012
S34:将多路视频流的每一帧依次放入m宫格中,作为子画面;
S35:为同一各摄像机之间的刷新率,取拥有最高刷新率摄像机的帧数作为画布的刷新率,每个子画面在被各自的视频传输流刷新之前,图像在画布上保留。
3.根据权利要求1中步骤S5所述的禁入区域内的人员判定方法,其具体步骤如下:
S51:使用如图所示的神经网络结构,将输入的人员照片表观特征提取为128维特征向量;
S52:神经网络的训练使用三元损失函数进行训练,其具体公式如下:
对于每一个人员样本图像p,有
Figure FDA0002652194740000021
pd表示检测到的输入图像,pgt表示与输入图像相同人员的图像,pneg表示与输入图像中人员不同的图像;
S53:对可以合法进入指定区域的人员,事先将其全身照片提取为128维特征,再录入数据库;
S54:对进入指定区域的人员,使用S51中的神经网络,提取其128维特征向量,并使用余弦距离,使其与数据库中所有在库人员的外观特征向量矩阵
Figure FDA0002652194740000022
求取相似度sim:
Figure FDA0002652194740000023
若sim大于阈值T1,则判定为非法入侵人员。
4.根据权利要求1中步骤S6所述的跨摄像头持续跟踪方式,具体步骤如下:
S61:对步骤S54中判定的非法入侵人员,建立跟踪器ti,将其检测框位置放入其中;
S62:使用S51中的神经网络,提取其128维特征向量作为表观特征,并放入跟踪器ti中;
S63:使用递归卡尔曼滤波预测下一帧中该非法入侵人员位置L;
S64:进入下一帧,使用S4与S5步骤的方式,检测区域内所有非法入侵人员D;
S65:使用综合距离度量,匹配连续两帧的非法入侵人员,实现跟踪,匹配方式如下:
Figure FDA0002652194740000031
其中
Figure FDA0002652194740000032
表示第i个预测框,
Figure FDA0002652194740000033
表示第j个检测框;若其综合距离度量dist小于阈值T2,则判定其跟踪成功,新的跟踪框体位置及其表观特征存入对应跟踪器ti,并对该人员进行持续跟踪;
S66:当发生遮挡,或该人员离开某一摄像头子画面范围时,则距离度量判定方式失效,转而采用表观特征进行匹配;对检测到新出现在画面中的人员D,将其与所有跟踪器ti中最后3秒采集到的表观特征使用S54中的相似度公式sim进行比对,求取其最小距离min(sim),若最小距离小于阈值T3,则判定关联成功。
CN202010874468.9A 2020-08-27 2020-08-27 一种多路摄像头实时入侵检测与跟踪方法 Pending CN112257492A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010874468.9A CN112257492A (zh) 2020-08-27 2020-08-27 一种多路摄像头实时入侵检测与跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010874468.9A CN112257492A (zh) 2020-08-27 2020-08-27 一种多路摄像头实时入侵检测与跟踪方法

Publications (1)

Publication Number Publication Date
CN112257492A true CN112257492A (zh) 2021-01-22

Family

ID=74224058

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010874468.9A Pending CN112257492A (zh) 2020-08-27 2020-08-27 一种多路摄像头实时入侵检测与跟踪方法

Country Status (1)

Country Link
CN (1) CN112257492A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113612922A (zh) * 2021-07-29 2021-11-05 重庆赛迪奇智人工智能科技有限公司 视频处理方法、装置、电子设备及计算机可读存储介质
CN115830762A (zh) * 2023-01-17 2023-03-21 四川三思德科技有限公司 一种平安社区出入口管控平台、管控方法及管控终端

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010282488A (ja) * 2009-06-05 2010-12-16 Hitachi Omron Terminal Solutions Corp Atm周辺状況検出システム、atm周辺状況検出方法、およびそのためのプログラム
TWI591588B (zh) * 2016-09-30 2017-07-11 H P B Optoelectronic Co Ltd Surroundings monitoring system and its method
CN110706259A (zh) * 2019-10-12 2020-01-17 四川航天神坤科技有限公司 一种基于空间约束的可疑人员跨镜头追踪方法及装置
CN110807429A (zh) * 2019-10-23 2020-02-18 西安科技大学 基于tiny-YOLOv3的施工安全检测方法及系统
CN111160125A (zh) * 2019-12-11 2020-05-15 北京交通大学 基于铁路监控的铁路异物入侵检测方法
CN210986254U (zh) * 2019-10-07 2020-07-10 青岛宇航慧恒信息科技有限公司 一种全景式侦扰一体视频监控系统
CN111507317A (zh) * 2020-06-30 2020-08-07 之江实验室 一种基于视觉的旋转设备作业手套佩戴检测方法及系统
CN111507235A (zh) * 2020-04-13 2020-08-07 北京交通大学 基于视频的铁路周界异物入侵检测方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010282488A (ja) * 2009-06-05 2010-12-16 Hitachi Omron Terminal Solutions Corp Atm周辺状況検出システム、atm周辺状況検出方法、およびそのためのプログラム
TWI591588B (zh) * 2016-09-30 2017-07-11 H P B Optoelectronic Co Ltd Surroundings monitoring system and its method
CN210986254U (zh) * 2019-10-07 2020-07-10 青岛宇航慧恒信息科技有限公司 一种全景式侦扰一体视频监控系统
CN110706259A (zh) * 2019-10-12 2020-01-17 四川航天神坤科技有限公司 一种基于空间约束的可疑人员跨镜头追踪方法及装置
CN110807429A (zh) * 2019-10-23 2020-02-18 西安科技大学 基于tiny-YOLOv3的施工安全检测方法及系统
CN111160125A (zh) * 2019-12-11 2020-05-15 北京交通大学 基于铁路监控的铁路异物入侵检测方法
CN111507235A (zh) * 2020-04-13 2020-08-07 北京交通大学 基于视频的铁路周界异物入侵检测方法
CN111507317A (zh) * 2020-06-30 2020-08-07 之江实验室 一种基于视觉的旋转设备作业手套佩戴检测方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113612922A (zh) * 2021-07-29 2021-11-05 重庆赛迪奇智人工智能科技有限公司 视频处理方法、装置、电子设备及计算机可读存储介质
CN115830762A (zh) * 2023-01-17 2023-03-21 四川三思德科技有限公司 一种平安社区出入口管控平台、管控方法及管控终端

Similar Documents

Publication Publication Date Title
Wen et al. Detection, tracking, and counting meets drones in crowds: A benchmark
CN112801018B (zh) 一种跨场景目标自动识别与追踪方法及应用
CN110110601B (zh) 基于多时空注意力模型的视频行人重识别方法及装置
CN103824070B (zh) 一种基于计算机视觉的快速行人检测方法
Huang An advanced motion detection algorithm with video quality analysis for video surveillance systems
US7859564B2 (en) Video surveillance system
CN108564052A (zh) 基于mtcnn的多摄像头动态人脸识别系统与方法
JP6654789B2 (ja) 変化点で複数候補を考慮して物体を追跡する装置、プログラム及び方法
GB2409027A (en) Face detection
GB2409030A (en) Face detection
KR101484263B1 (ko) 폭력 감지 시스템 및 폭력 감지 방법
JP4764172B2 (ja) 画像処理による移動体候補の検出方法及び移動体候補から移動体を検出する移動体検出方法、移動体検出装置及び移動体検出プログラム
CN110728216A (zh) 一种基于行人属性自适应学习的无监督行人再识别方法
Janku et al. Fire detection in video stream by using simple artificial neural network
CN112257492A (zh) 一种多路摄像头实时入侵检测与跟踪方法
CN114140745A (zh) 施工现场人员属性检测方法、系统、装置及介质
Li et al. Evaluation of an ivs system for abandoned object detection on pets 2006 datasets
CN108280408B (zh) 一种基于混合跟踪和广义线性模型的人群异常事件检测方法
Brodsky et al. Visual surveillance in retail stores and in the home
Khan et al. Comparative study of various crowd detection and classification methods for safety control system
CN116824641B (zh) 姿态分类方法、装置、设备和计算机存储介质
Vajhala et al. Weapon detection in surveillance camera images
Suba et al. Violence detection for surveillance systems using lightweight CNN models
Al Najjar et al. A hybrid adaptive scheme based on selective Gaussian modeling for real-time object detection
CN113627383A (zh) 一种用于全景智能安防的行人徘徊重识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20210122

RJ01 Rejection of invention patent application after publication