CN110175583A - 一种于基于视频ai的校园全域安全监控分析方法 - Google Patents

一种于基于视频ai的校园全域安全监控分析方法 Download PDF

Info

Publication number
CN110175583A
CN110175583A CN201910460440.8A CN201910460440A CN110175583A CN 110175583 A CN110175583 A CN 110175583A CN 201910460440 A CN201910460440 A CN 201910460440A CN 110175583 A CN110175583 A CN 110175583A
Authority
CN
China
Prior art keywords
suspect
video
information
list
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910460440.8A
Other languages
English (en)
Inventor
王哲
吕宏斌
孙小川
赖丽
袁师
王群
赵冬梅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Hop Technology Co Ltd
Original Assignee
Chongqing Hop Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Hop Technology Co Ltd filed Critical Chongqing Hop Technology Co Ltd
Priority to CN201910460440.8A priority Critical patent/CN110175583A/zh
Publication of CN110175583A publication Critical patent/CN110175583A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • G06Q50/265Personal security, identity or safety
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Primary Health Care (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Educational Administration (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Development Economics (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Security & Cryptography (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Economics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种能够自动实现目标视频源和关联性判断的基于视频AI的校园全域安全监控分析方法包括以下步骤,训练用户模型;获取摄像机安装信息,所述摄像机安装信息包括安装位置信息、照射方向信息、视角范围信息;依据摄像机安装信息生成各摄像机之间的关联路径信息;采用用户模型识别嫌疑人生成嫌疑人初始位置信息,并依据初始位置信息和关联路径信息生成嫌疑人预测轨迹列表;采用预设轨迹列表上的摄像机对嫌疑人进行识别并更新预测轨迹列表;生成嫌疑人实际轨迹列表并向用户展示。本发明的有益效果是,本发明可以满足网络视频监控系统用户高效、直观、高可用、完整准确的查找目标的实际需要。

Description

一种于基于视频AI的校园全域安全监控分析方法
技术领域
本发明涉及视频监控领域,具体涉及一种于视频AI的校园全域安全监控分析方法。
背景技术
目前的视频智能分析当中对图像目标跟踪检索均采用视频图像的关键帧提取与组合技术,基于目标颜色、形状、纹理、运动方向等特征,将目标从图像背景当中提取出来,然后对目标的行为特征进行分析,并根据这些特征实现目标的识别与对比查找。
由于不同视频源的背景、方位、照射的角度及范围不同,因此对跨摄像机的目标跟踪和查找带来很多困难。现有技术中普遍的做法是由用户根据所跟踪的目标特征手动地在多个视频图像当中进行检索。
现有技术中“以图搜图”的技术方案,也只是实现了目标特征描述的半自动化,在进行跨摄像机图像目标搜索时,视频目标的基本信息不再完全需要手动输入,而代之以计算机软件的自动提取,但是目标视频源的选择和关联性判定依然需要人工分析选择,因此并未有效解决相关问题。、
现有技术,由于需要人工对目标视频源进行选择,虽然采用了一些自动提取目标特征、自动导入目标特征的技术手段,该依然不能够解决目标的跨摄像机连续跟踪和查找,不能自动生成目标移动的轨迹,不能根据目标的当前为主自动选择所需查找的下一视频源。
因此采用当前视频目标识别查找技术之后,视频监控工作人员的劳动强度有所减轻,但是视频目标查找的效率和自动化处理的程度依然很低。
随着视频监控系统的规模和密度日益提升,视频图像的目标自动识别和查找的需求急剧上升,有效解决这一问题将会大幅提升视频监控系统的可用性和实战性,提升视频监控操作人员的工作效率。
发明内容
为了解决上述问题,本发明提供一种能够自动实现目标视频源和关联性判断的基于视频AI的校园全域安全监控分析方法包括以下步骤,
训练用户模型;
获取摄像机安装信息,所述摄像机安装信息包括安装位置信息、照射方向信息、视角范围信息;
依据摄像机安装信息生成各摄像机之间的关联路径信息;
采用用户模型识别嫌疑人生成嫌疑人初始位置信息,并依据初始位置信息和关联路径信息生成嫌疑人预测轨迹列表;
采用预设轨迹列表上的摄像机对嫌疑人进行识别并更新预测轨迹列表;
生成嫌疑人实际轨迹列表并向用户展示;
所述用户模型中人脸识别模型损失函数采用以下公式:
其中,N表示所有样本对的个数,
yi表示样本标签,表示模型预测结果,Np表示正样本对的个数,Fi1表示正样本对第一张图片的特征,Fi2表示正样本对第二种图片的特征,λ表示惩罚系数,本发明中取值为0.01,w表示深度学习模型中的参数。
进一步的,所述训练用户模型包括,
所述训练用户模型包括,采用嫌疑人数据库中人脸信息、衣服颜色信息、身高信息、体型信息、步态信息、发型信息生成嫌疑人用户模型。
进一步的,所述采用用户模型识别嫌疑人包括,
当识别到嫌疑人后生成目标嫌疑人信息,所述目标嫌疑人信息包括纹理信息、形状信息、位置信息、轨迹图像特征信息。
进一步的,所述依据初始位置信息和关联路径信息生成嫌疑人预测轨迹列表包括,
以初次识别到嫌疑人的第一视频源作为起始位置,在电子地图上对预测轨迹列表进行标注。
进一步的,所述预测轨迹列表包括,
以第一视频源为起点的前向轨迹列表和以第一视频源为起点的后向轨迹列表;
向用户展示前向轨迹列表和后向轨迹列表并响应用户输入对前向轨迹列表和后向轨迹列表进行更新。
进一步的,所述预测轨迹列表包括,
采用预测轨迹列表上的摄像机依据嫌疑人信息对嫌疑人进行识别并依据识别结果更新预测轨迹列表。
进一步的,所述用户模型包括黑名单用户模型和白名单用户模型。
本发明的有益效果是:
1传统的图像目标查找方法,依靠人工输入目标特征进行查找,查找的视频源需要人工选择并手动输入查找比对条件,以手动或者半自动化方式实现视频图像目标的查找过程,其查找的准确率、完整性、效率以及最终呈现效果较差,本发明可以满足网络视频监控系统用户高效、直观、高可用、完整准确的查找目标的实际需要。
2本发明所提供的方法基于智能识别产品的目标识别算法与标识体系,结合电子地图地理位置分析与路径分析技术,并以此为基础,增加了目标移动方位的计算及关联摄像机图像的分析计算,实现视频图像目标的自动特征提取、自动摄像机视频源选择、自动查找轨迹生成,实现了视频图像数据与电子地图数据的深化应用,在技术及应用上具有一定的差异性。
3该方案支持多任务操作和后台执行、交互过程友好、呈现结果直观可用性高,可以有效提高视频目标的自动检索效率和智能化,提升视频图像系统的实战性应用效果,适用于不同规模的视频联网系统和视频智能应用系统当中,具有较强的适用性、实用价值和推广价值。
附图说明
图1为本发明一实施例流程图。
图2为本发明一实施例模型学习训练示意图。
图3为本发明一实施例预处理流程示意图。
图4为本发明一实施例处理流程示意图。
图5为本发明一实施例处理流程示意图。
图6为本发明一实施例处理流程示意图。
具体实施方式
本发明解决背景技术中存在问题的发明思路之一是,利用以图像目标的智能识别、目标行为分析、目标图像特征自动提取及图像智能比对技术,并结合电子地图的地理位置分析、方位分析及路径分析技术,实现了跨摄像机的网络视频监控系统图像目标自动与智能查找的创新应用。结合电子地图技术与视频目标识别技术,实现跨摄像机视频源的图像目标自动识别查找,交互过程友好、处理过程自动化智能化、呈现结果直观灵活,实现了视频图像数据与电子地图数据的深化应用。结合黑白名单,进行特定人员识别跟踪技术,可实现重点人员跟防,对其行为轨迹进行描绘与预测,基于本发明延展可构建平安城市、平安校园、平安小区等具体应用场景。
如图1所示,本发明提供一种能够自动实现目标视频源和关联性判断的基于视频AI的校园全域安全监控分析方法包括以下步骤,
训练用户模型;
获取摄像机安装信息,所述摄像机安装信息包括安装位置信息、照射方向信息、视角范围信息;
依据摄像机安装信息生成各摄像机之间的关联路径信息;
采用用户模型识别嫌疑人生成嫌疑人初始位置信息,并依据初始位置信息和关联路径信息生成嫌疑人预测轨迹列表;
采用预设轨迹列表上的摄像机对嫌疑人进行识别并更新预测轨迹列表;生成嫌疑人实际轨迹列表并向用户展示。
所述训练用户模型包括,
所述训练用户模型包括,采用嫌疑人数据库中人脸信息、衣服颜色信息、身高信息、体型信息、步态信息、发型信息生成嫌疑人用户模型。
本发明利用神经网络采用嫌疑人数据库中的嫌疑人数据进行嫌疑人模型训练,生成嫌疑人用户模型,可以在后续的视频查询中快速识别一类嫌疑人,提高了系统的安全性。
所述采用用户模型识别嫌疑人包括,
当识别到嫌疑人后生成目标嫌疑人信息,所述目标嫌疑人信息包括纹理信息、形状信息、位置信息、轨迹图像特征信息。
摄像头连接云服务器,云服务获取摄像头的视频数据,并采用训练好的嫌疑人用户模型进行嫌疑人识别,当识别到目标嫌疑人后,更进一步的获取目标嫌疑人的具体信息。
所述依据初始位置信息和关联路径信息生成嫌疑人预测轨迹列表包括,
以初次识别到嫌疑人的第一视频源作为起始位置,在电子地图上对预测轨迹列表进行标注。
在本发明实施过程中可以采用箭头符号来标注预测轨迹信息,给用户直观的展示提高了用户体验并方便用户在图形界面快速更新预测轨迹提高了操作便利性。
所述预测轨迹列表包括,
以第一视频源为起点的前向轨迹列表和以第一视频源为起点的后向轨迹列表;
向用户展示前向轨迹列表和后向轨迹列表并响应用户输入对前向轨迹列表和后向轨迹列表进行更新。
当云服务器在某一摄像头的视频数据中识别到嫌疑人后,生成基于该摄像头的前向轨迹列表和后向轨迹列表可以向管理员展现嫌疑人在所有摄像头中的完整轨迹。
所述预测轨迹列表包括,
采用预测轨迹列表上的摄像机依据嫌疑人信息对嫌疑人进行识别并依据识别结果更新预测轨迹列表。
云服务器采用预测轨迹列表上的摄像机嫌疑人进行识别,当识别到嫌疑人后立刻更新预测轨迹列表,可以避免耗费资源对明显不会出现嫌疑人的摄像头视频进行识别,节省了计算资源,提高了运行效率。
所述用户模型包括黑名单用户模型和白名单用户模型。
通过设置黑名单用户模型和白名单用户模型,并有管理员不断对两者进行更新,避免系统耗费资源对白名单用户模型进行识别,节省了系统的运算资源提高了识别效率。
下面采用一个具体的实施例来对本发明的使用过程进行说明。
S1训练特定场景模型(model),采集实际场景内所有可能出现的情况,对人体模型进行学习,主要提取特征包括,人脸信息、衣服颜色、身高、体型、步态、成人、儿童、发型等常见特征。
S2在视频监控系统的电子地图上标明摄像机的安装位置、照射方向、视角范围,并保存。
S3通过电子地图空间分析功能自动计算各个摄像机之间的地位位置关系及关联路径。
S4按照用户获得的嫌疑目标信息,选择关键特征进行上传,锁定目标特征;
S5按照用户输入特征,进行全网摄像机实时特征比对分析,查找目标出现的摄像机位置,以及时间信息;
S6如果搜索到嫌疑目标则进入下一步骤,否则需要补充或者修改目标特征,到找到为止。
如果最终没有找到,则退出此操作(通常,如果嫌疑目标描述信息不正确或视频监控网络不完善,视频监控系统就不能很好的发挥作用)。
S7从搜索结果当中,选择一个视频源作为起点视频源。
S8以在当前视频图像中检索到的嫌疑目标作为初始对象,自动生成嫌疑目标的纹理、形状、位置、轨迹等图像特征参数。
S9创建目标轨迹列表,并将当前视频源添加到目标轨迹列表;
S10以当前视频源作为起始位置,在电子地图上通过特殊符号或箭头对轨迹进行标注,。
S11选择目标查找方向,可有三种检索方式:“向前查找”、“向后查找”、“查找完整轨迹”。“向前查找”与“向后查找”两种选择的处理过程相同,如步骤11)-步骤17)所示。如果选择“查找完整轨迹”,则分别按照步骤11)-步骤17)所示过程向前和向后同时进行目标查找。
S12从当前摄像机的视频图像当中,计算出目标进入和离开视频画面的位置坐标及方位坐标信息。
S13根据各个摄像机之间的地理位置关系及关联路径,推算出1个或者多个(默认为3个,用户可以根据系统实际需要自定义默认值)嫌疑目标下一步最可能出现的备选摄像机视频源,进行优先查找。
S14用户也可以选定某些摄像机,作为优先自动查找的视频源,以提升查找效率。
S15按照所选定嫌疑目标的图像特征参数,在当前选定的备选摄像机视频源图像中进行目标识别查找。
S16如果目标未被发现,可以提示用户继续查找。如果选择“继续”,系统自动扩展搜索范围(默认为查找其它最有可能的3个视频源3,用户可以根据系统实际需要自定义默认值),推算出最可能出现的摄像机;如果用户选择“终止”,则直接跳转到步骤18)结束查找。
S17如果目标在某一摄像机内被查找到,则将该摄像机视频源添加到目标轨迹列表的下一位置。
具体的,本步骤包括,
如果是“向前查找”则添加到当前位置之前;
如果是“向后查找”则添加到当前位置之后;
如果是“查找完整轨迹”则基于当前摄像机视频源,“向前方向”查找到的摄像机添加到当前最前的位置之前;“向后方向”查找到的摄像机添加到当前最后位置之后。
同时在电子地图上通过特殊符号或带有方向指示的箭头对该轨迹进行标注。
S18在当前摄像机视频图像中计算目标进入和离开视频画面的位置坐标及方位坐标,然后按照9)到16)的步骤,自动查找目标出现的下一摄像机视频源。以此类推,直到所选择的搜索摄像机范围都不能再发现嫌疑目标为止。
S19查找结束后,自动生成嫌疑目标的识别查找后的完整轨迹列表和电子地图轨迹标注。用户可根据需要对轨迹进行手动调整。
S20整个检索过程,从步骤9)到16),既可以在当前窗口中执行,也可选择设置为后台运行,用户可以随时查看处理的进度和结果。
S21将已处理的人员添加黑名单、白名单,完成白名单自动过滤放行,黑名单自动检测,进行轨迹跟踪,动态报警处理。
如图2所示,模型学习建立包括初始训练样本步骤,设定目标检测器步骤,分类器学习步骤,其中通过特征库输入来实现初始训练样本,通过采集一帧图像数据库实现设定目标检测器。
如图3所示为本发明一实施例预处理步骤,包括,在电子地图上标明摄像的位置、照射方向和视角范围步骤,计算分析摄像机之间的地理位置关系及关联路径步骤,设置默认的搜索范围扩展策略步骤,其中在电子地图上标明摄像的位置、照射方向和视角范围步骤将标注结果存储于电子数据库中,计算分析摄像机之间的地理位置关系及关联路径步骤将地理位置关系及关联路径存储于摄像机位置关系与关联路径数据库中。
如图4所示为本发明一实施例处理流程,在本实施例中由用户选定需要搜索目标嫌疑人的摄像机,若用户选定的摄像机没有搜索到嫌疑人则由用户重新选择摄像机,直到用户选择的摄像机搜索到嫌疑人为止。
如图5所示为本发明一实施例处理流程,在本实施例中,由用户选择目标查找方向,并在查找到目标嫌疑人后计算目标进入和离开当前视频画面的位置坐标及方位坐标,然后利用摄像机地理位置关系关联路径数据库推算出一个或者多个嫌疑目标下一步最可能出现的备选摄像机视频源,并由用户选择的视频源为优先查找视频源。
如图6所示为本发明一实施例处理流程,在本实施例中,系统响应用户输入,由用户手动对轨迹列表进行调整.用户判断系统识别到的目标嫌疑人是否为真实存在安全风险的嫌疑人,用户判断系统识别错误,则将目标嫌疑人加入到白名单数据库中,若用户发现视频中有系统没有识别到的目标嫌疑人则将没有识别到的目标嫌疑人加入到黑名单数据库中,采用黑名单数据库和白名单数据库继续对用户模型进行训练,可以进一步提高用户模型的准确度。
在人脸识别环节,引入了一种新型的模型设计和损失函数计算方法。在深度学习模型训练时,本发明将同一个人的不同照片提取的特征对视为正样本,将不同人的照片提取的特征对视为负样本。之前的研究中,只考虑正负样本的预测结果与标签尽可能的接近,而忽略了正负样本特征对本身的相似度关系。本发明中,本发明借鉴SVM分类器的思想,基于正负样本分类间隔尽可能大的原理,寻找正负样例分类的最优超平面,提高了模型对正负样例的区分性,提升了识别算法的准确率。
本发明在深度学习的中间层分别抽取特征对的特征,本发明记作fea1和fea2,算法要求正样本的fea1和fea2尽可能相近,负样本的fea1和fea2尽可能的疏远。在损失函数中本发明用欧式距离来衡量特征的相似性。并且,本发明在损失函数中加入了正则项,来防止模型过拟合,提高了模型的泛化能力,进一步提升了识别算法的准确率。损失函数的计算如下:
其中,N表示所有样本对的个数,
yi表示样本标签,表示模型预测结果,Np表示正样本对的个数,Fi1表示正样本对第一张图片的特征,Fi2表示正样本对第二种图片的特征,λ表示惩罚系数,本发明中取值为0.01,w表示深度学习模型中的参数。

Claims (7)

1.一种基于视频AI的校园全域安全监控分析方法,其特征在于,包括以下步骤,
训练用户模型;
获取摄像机安装信息,所述摄像机安装信息包括安装位置信息、照射方向信息、视角范围信息;
依据摄像机安装信息生成各摄像机之间的关联路径信息;
采用用户模型识别嫌疑人生成嫌疑人初始位置信息,并依据初始位置信息和关联路径信息生成嫌疑人预测轨迹列表;
采用预设轨迹列表上的摄像机对嫌疑人进行识别并更新预测轨迹列表;
生成嫌疑人实际轨迹列表并向用户展示;
所述用户模型中人脸识别模型损失函数采用以下公式:
其中,N表示所有样本对的个数,
yi表示样本标签,表示模型预测结果,Np表示正样本对的个数,Fi1表示正样本对第一张图片的特征,Fi2表示正样本对第二种图片的特征,λ表示惩罚系数,本发明中取值为0.01,w表示深度学习模型中的参数。
2.如权利要求1所述的一种基于视频AI的校园全域安全监控分析方法,其特征在于,所述训练用户模型包括,
所述训练用户模型包括,采用嫌疑人数据库中人脸信息、衣服颜色信息、身高信息、体型信息、步态信息、发型信息生成嫌疑人用户模型。
3.如权利要求1所述的一种基于视频AI的校园全域安全监控分析方法,其特征在于,所述采用用户模型识别嫌疑人包括,
当识别到嫌疑人后生成目标嫌疑人信息,所述目标嫌疑人信息包括纹理信息、形状信息、位置信息、轨迹图像特征信息。
4.如权利要求1所述的一种基于视频AI的校园全域安全监控分析方法,其特征在于,所述依据初始位置信息和关联路径信息生成嫌疑人预测轨迹列表包括,以初次识别到嫌疑人的第一视频源作为起始位置,在电子地图上对预测轨迹列表进行标注。
5.如权利要求1所述的一种基于视频AI的校园全域安全监控分析方法,其特征在于,所述预测轨迹列表包括,
以第一视频源为起点的前向轨迹列表和以第一视频源为起点的后向轨迹列表;向用户展示前向轨迹列表和后向轨迹列表并响应用户输入对前向轨迹列表和后向轨迹列表进行更新。
6.如权利要求1所述的一种基于视频AI的校园全域安全监控分析方法,其特征在于,所述预测轨迹列表包括,
采用预测轨迹列表上的摄像机依据嫌疑人信息对嫌疑人进行识别并依据识别结果更新预测轨迹列表。
7.如权利要求1所述的一种基于视频AI的校园全域安全监控分析方法,其特征在于,所述用户模型包括黑名单用户模型和白名单用户模型。
CN201910460440.8A 2019-05-30 2019-05-30 一种于基于视频ai的校园全域安全监控分析方法 Pending CN110175583A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910460440.8A CN110175583A (zh) 2019-05-30 2019-05-30 一种于基于视频ai的校园全域安全监控分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910460440.8A CN110175583A (zh) 2019-05-30 2019-05-30 一种于基于视频ai的校园全域安全监控分析方法

Publications (1)

Publication Number Publication Date
CN110175583A true CN110175583A (zh) 2019-08-27

Family

ID=67696552

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910460440.8A Pending CN110175583A (zh) 2019-05-30 2019-05-30 一种于基于视频ai的校园全域安全监控分析方法

Country Status (1)

Country Link
CN (1) CN110175583A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111611894A (zh) * 2020-05-14 2020-09-01 深圳中科慧据科技有限公司 人员轨迹预测方法、装置、计算机设备及存储介质
CN111931634A (zh) * 2020-08-06 2020-11-13 盐城师范学院 一种基于深度学习的校园防护方法和系统
CN112836648A (zh) * 2021-02-05 2021-05-25 湖南嘿哈猫网络科技有限公司 一种基于深度学习下用户行为分析模型构建及系统应用
CN113362376A (zh) * 2021-06-24 2021-09-07 武汉虹信技术服务有限责任公司 一种目标跟踪方法
CN113763435A (zh) * 2020-06-02 2021-12-07 精标科技集团股份有限公司 基于多摄像机的跟踪拍摄方法
CN116886874A (zh) * 2023-08-11 2023-10-13 广东盈香生态园有限公司 一种生态园安防监控预警数据的采集方法及其系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105512624A (zh) * 2015-12-01 2016-04-20 天津中科智能识别产业技术研究院有限公司 一种人脸图像的笑脸识别方法及其装置
CN106295598A (zh) * 2016-08-17 2017-01-04 北京大学 一种跨摄像头目标跟踪方法及装置
CN106709436A (zh) * 2016-12-08 2017-05-24 华中师范大学 面向轨道交通全景监控的跨摄像头可疑行人目标跟踪系统
CN108009531A (zh) * 2017-12-28 2018-05-08 北京工业大学 一种多策略防欺诈的人脸识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105512624A (zh) * 2015-12-01 2016-04-20 天津中科智能识别产业技术研究院有限公司 一种人脸图像的笑脸识别方法及其装置
CN106295598A (zh) * 2016-08-17 2017-01-04 北京大学 一种跨摄像头目标跟踪方法及装置
CN106709436A (zh) * 2016-12-08 2017-05-24 华中师范大学 面向轨道交通全景监控的跨摄像头可疑行人目标跟踪系统
CN108009531A (zh) * 2017-12-28 2018-05-08 北京工业大学 一种多策略防欺诈的人脸识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
裔隽 等: "Python机器学习实战", 《PYTHON机器学习实战》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111611894A (zh) * 2020-05-14 2020-09-01 深圳中科慧据科技有限公司 人员轨迹预测方法、装置、计算机设备及存储介质
CN113763435A (zh) * 2020-06-02 2021-12-07 精标科技集团股份有限公司 基于多摄像机的跟踪拍摄方法
CN111931634A (zh) * 2020-08-06 2020-11-13 盐城师范学院 一种基于深度学习的校园防护方法和系统
CN112836648A (zh) * 2021-02-05 2021-05-25 湖南嘿哈猫网络科技有限公司 一种基于深度学习下用户行为分析模型构建及系统应用
CN113362376A (zh) * 2021-06-24 2021-09-07 武汉虹信技术服务有限责任公司 一种目标跟踪方法
CN116886874A (zh) * 2023-08-11 2023-10-13 广东盈香生态园有限公司 一种生态园安防监控预警数据的采集方法及其系统

Similar Documents

Publication Publication Date Title
CN110175583A (zh) 一种于基于视频ai的校园全域安全监控分析方法
Aktı et al. Vision-based fight detection from surveillance cameras
CA3077830C (en) System and method for appearance search
WO2018133666A1 (zh) 视频目标跟踪方法和装置
Li et al. Multiple-human parsing in the wild
CN105469029B (zh) 用于对象再识别的系统和方法
Yang et al. An online learned CRF model for multi-target tracking
Darrell et al. Integrated person tracking using stereo, color, and pattern detection
Kart et al. How to make an rgbd tracker?
US9244924B2 (en) Classification, search, and retrieval of complex video events
Tu et al. Video description with spatial-temporal attention
US9532012B1 (en) Discovering object pathways in a camera network
Filonenko et al. Unattended object identification for intelligent surveillance systems using sequence of dual background difference
WO2022001925A1 (zh) 行人追踪方法和设备,及计算机可读存储介质
Li et al. Rehar: Robust and efficient human activity recognition
US20180082410A1 (en) Image processing using histograms
JP6787831B2 (ja) 検索結果による学習が可能な対象検出装置、検出モデル生成装置、プログラム及び方法
Janku et al. Fire detection in video stream by using simple artificial neural network
Li et al. Personrank: Detecting important people in images
US9286707B1 (en) Removing transient objects to synthesize an unobstructed image
Zhang et al. Visual Object Tracking via Cascaded RPN Fusion and Coordinate Attention.
CN112509009A (zh) 一种基于自然语言信息辅助的目标追踪方法
Li et al. Online selection of the best k-feature subset for object tracking
WO2022063189A1 (zh) 显著性元素识别方法及装置
CN114663648A (zh) 结构化目标检测方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20190827

RJ01 Rejection of invention patent application after publication