CN116385969A - 基于多摄像头协同和人类反馈的人员聚集检测系统 - Google Patents
基于多摄像头协同和人类反馈的人员聚集检测系统 Download PDFInfo
- Publication number
- CN116385969A CN116385969A CN202310367749.9A CN202310367749A CN116385969A CN 116385969 A CN116385969 A CN 116385969A CN 202310367749 A CN202310367749 A CN 202310367749A CN 116385969 A CN116385969 A CN 116385969A
- Authority
- CN
- China
- Prior art keywords
- data
- model
- attention
- camera
- people
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 42
- 238000000034 method Methods 0.000 claims abstract description 48
- 230000002776 aggregation Effects 0.000 claims abstract description 23
- 238000004220 aggregation Methods 0.000 claims abstract description 23
- 238000005457 optimization Methods 0.000 claims abstract description 17
- 238000007781 pre-processing Methods 0.000 claims abstract description 13
- 230000007246 mechanism Effects 0.000 claims description 30
- 238000004422 calculation algorithm Methods 0.000 claims description 29
- 230000006870 function Effects 0.000 claims description 28
- 238000012544 monitoring process Methods 0.000 claims description 24
- 238000005286 illumination Methods 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 16
- 238000012549 training Methods 0.000 claims description 16
- 230000000007 visual effect Effects 0.000 claims description 15
- 238000013136 deep learning model Methods 0.000 claims description 14
- 230000008569 process Effects 0.000 claims description 13
- 238000012937 correction Methods 0.000 claims description 11
- 238000013527 convolutional neural network Methods 0.000 claims description 8
- 230000004927 fusion Effects 0.000 claims description 8
- 125000004122 cyclic group Chemical group 0.000 claims description 7
- 230000010354 integration Effects 0.000 claims description 7
- 230000002787 reinforcement Effects 0.000 claims description 7
- 238000010801 machine learning Methods 0.000 claims description 6
- 238000012795 verification Methods 0.000 claims description 6
- 238000005516 engineering process Methods 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 5
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 238000004140 cleaning Methods 0.000 claims description 4
- 230000006399 behavior Effects 0.000 claims description 3
- 238000012790 confirmation Methods 0.000 claims description 3
- 238000013480 data collection Methods 0.000 claims description 3
- 230000010365 information processing Effects 0.000 claims description 3
- 238000012423 maintenance Methods 0.000 claims description 3
- 230000003287 optical effect Effects 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 2
- 230000001131 transforming effect Effects 0.000 claims description 2
- 238000003672 processing method Methods 0.000 abstract description 2
- 230000004044 response Effects 0.000 abstract description 2
- 230000000694 effects Effects 0.000 description 11
- 230000008901 benefit Effects 0.000 description 9
- 238000007726 management method Methods 0.000 description 9
- 230000002159 abnormal effect Effects 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 6
- 238000012706 support-vector machine Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000035772 mutation Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003153 chemical reaction reagent Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013499 data model Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000008713 feedback mechanism Effects 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000002922 simulated annealing Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/092—Reinforcement learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration by the use of histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/34—Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/817—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level by voting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本发明涉及用于数据处理方法技术领域,具体涉及一种基于多摄像头协同和人类反馈的人员聚集检测系统;该系统主要包括:数据采集模块、数据预处理模块、人流检测模块、多摄像头联动模块、人流聚集预测模块、实时反馈与优化模块、安保响应模块;通过以上各个模块的协同工作,本发明实现了基于多摄像头联动的人流聚集检测与预测。这种方法可以提高公共场所的安全水平,有效预防踩踏事件或疫情期间不必要的人流聚集。
Description
技术领域
本发明涉及数据处理方法技术领域,具体涉及基于多摄像头协同和人类反馈的人员聚集检测系统。
背景技术
在公共场所,特别是人流密集的区域,如商场、车站、景区等,人员聚集可能导致踩踏事件或特殊时期不必要的人流聚集。为了提高公共安全,降低安全事故发生的风险,需要对这些区域的人流情况进行实时监控和预测。
传统的人流监控方法通常依赖于人工观察,效率低且容易出错。随着计算机视觉技术和深度学习方法的发展,利用摄像头实现自动化的人流监控成为了可能。然而,现有的监控系统往往仅限于单个摄像头的视野范围,无法实现多摄像头间的联动和协同。
此外,现有方法通常关注于实时检测已经发生的人流聚集情况,缺乏对未来人流聚集的预测能力。而对人流聚集的预测可以使得安保人员提前采取措施,降低安全事故的发生风险。
因此,本发明提出了一种基于多摄像头联动的人流聚集检测与预测方法。该方法可以实现多摄像头间的协同监控,提高监控覆盖范围和准确性。
发明内容
针对上述文献中存在的问题,本发明提供一种基于多摄像头协同和人类反馈的人员聚集检测系统。
一种基于多摄像头协同和人类反馈的人员聚集检测系统,包括:
S1摄像头布局和校准:在公共场所布置摄像头;通过摄像头之间的几何变换和光学校准,消除视角差异;
S2数据收集与预处理:收集大量有标注的图像数据,用于训练深度学习模型;对图像数据进行预处理:
S3模型训练与调优:采用卷积神经网络进行模型训练,进行模型调优;并进行在线学习与模型更新:引入在线学习和模型更新机制,预测准确性;
S4系统部署:将训练好的模型部署到实际环境中,与摄像头联动,实时分析图像数据,得出实时人员流量和人员聚集预测结果。
特别地,所述S1包括:
a)利用计算机视觉技术和深度学习模型对公共场所的历史人流数据进行分析,以预测可能的人流密度和行为模式;
b)根据预测结果,使用优化算法自动确定摄像头的位置和数量,以最大化场景覆盖率,避免死角,并满足预期的检测和预测精度;
c)使用多目标优化算法来平衡影响因素,找到最优布局方案;
d)对于每个摄像头,设置初始参数,以适应不同的场景和光照条件;
e)采用自适应校准方法,根据实时的人流情况和光照条件动态调整摄像头参数;
f)利用相邻摄像头之间的视角重叠,自动校准摄像头的相对位置和方向。
特别地,所述S2包括:
a)集成多源数据:从多个目标处获取不同的数据,包括摄像头收集的视频数据、个人用户上传的实时数据;
b)数据融合:摄像头收集的视频数据与用户上传的实时数据进行融合;
c)数据预处理:收集到的数据进行预处理;包括对视频数据进行分辨率调整、噪声去除和光照补偿处理;对于用户上传的实时数据,进行数据清洗和验证;
d)特征提取:在数据预处理完成后,利用深度学习模型对数据进行特征提取。
特别地,所述S3包括:
a)分层多头注意力机制:利于分层多头注意力机制来充分利用不同来源的数据;
b)时序信息处理:模型中引入循环神经网络和/或长短时记忆网络和/或门循环单元(GRU)等时序处理模块进行处理;
c)模型融合:将深度学习模型与传统的机器学习模型进行融合,降低预测误差和提高泛化。
具体地,所述分层多头注意力机制为:
数据表示:
将不同来源的数据转换为适当的向量表示;
多头注意力机制:
对于每个注意力头,计算其输入数据的注意力权重,具体为:
a)使用线性层将输入数据的表示映射到不同的子空间;
b)计算这些子空间中每对数据之间的点积,然后用softmax函数归一化以得到注意力权重;
c)将注意力权重与输入数据的表示相乘,然后对结果求和以得到该注意力头的输出;
分层注意力:
在多头注意力机制的基础上,设计一个分层结构,使得每一层关注不同层次的信息;
结果整合:
将所有注意力头的输出沿着特定维度连接,通过一个线性层对连接后的表示进行变换,得到最终的特征表示;
后续任务处理:
将整合后的特征表示输入到任务相关的网络层中,以完成特定任务;
分层多头注意力机制的网络结构为:
输入层:接收不同来源的数据并将其转换为向量表示;
第一层分层多头注意力:包含多个注意力头,每个头关注一种特定类型的数据;
第二层分层多头注意力:在第一层的基础上,进一步关注更高层次的信息;
……
最后一层分层多头注意力:关注整体特征和全局上下文;
结果整合层:将所有注意力头的输出连接并进行变换;
任务相关层:根据具体任务,将整合后的特征表示输入到相应的网络层中。
特别地,所述S3为,利用在线随机梯度下降算法实现在线学习和模型更新机制;
在线随机梯度下降算法为:
1:初始化模型权重;
2:设置学习率策略;
3:当收到新的带有人类反馈的数据点时,执行以下操作:
a.使用模型对当前数据点进行预测;
b.计算预测值与人类反馈之间的损失;;
c.计算损失函数关于模型权重的梯度;
d.使用梯度和学习率更新模型权重;
4:重复步骤3,直到满足停止条件。
特别地,所述S4包括:
a)分布式部署:将模型部署在分布式服务器上;
b)数据共享与协同:搭建数据共享平台,让公共场所各个地区的监控系统可以实时共享人流数据;
c)实时提醒与导航:根据实时预测结果,为公众提供实时提醒和导航服务
d)多级预警机制:根据人流聚集的风险程度设置多级预警阈值,对应不同的预警级别和应对措施;
e)可视化监控与管理平台:设计可视化监控与管理平台;实时展示各个监控点的人流数据、预测结果和预警信息,帮助管理人员快速做出决策。
特别地,还包括:
S5人类反馈与模型修正:收集安全监控人员对检测结果的确认或纠正信息;根据反馈修正模型。
具体所述S5包括:
a)收集人类反馈:需要收集来自用户、安保人员和现场管理人员的反馈;
b)整理反馈数据:收集到的人类反馈数据需要进行整理和处理,将反馈数据转化为模型可以理解的形式;
c)设计奖励函数:设计一个奖励函数,根据反馈数据对模型的预测结果进行评价:
奖励函数具体为:
设y_true为真实标签,y_pred为模型预测的标签,C为类别总数,P(c)为类别c的预测概率;
计算模型预测正确性的基本奖励:
base_reward=1如果y_true==y_pred,否则base_reward=0
根据人类反馈调整奖励;人类反馈可以是一组与各个类别相关的权重,表示人们对不同类别的关注程度;
设W={w_1,w_2,...,w_C}为类别权重,其中w_i表示类别i的权重;
adjusted_reward=base_reward*w_y_true
考虑模型的置信度;如果模型对预测结果非常确信,但预测错误,可以对奖励进行惩罚;同样,如果模型对正确预测的结果不太确定,可以对奖励进行增加;
confidence_penalty=P(y_true)if y_true!=y_pred else 0
final_reward=adjusted_reward-confidence_penalty
d)更新模型策略:根据设计的奖励函数,可以使用强化学习算法来更新模型的策略;
e)评估模型性能:在每次模型更新后,对模型的性能进行评估;比较修正前后的预测结果与实际情况;
f)模型迭代更新:基于人类反馈的强化学习过程可以持续进行模型迭代更新。
特别地,还包括:
S6持续优化与维护:根据实际运行情况,对系统进行持续优化和维护。
通过本发明的系统,实现了基于多摄像头联动的人流聚集检测与预测。这种方法可以提高公共场所的安全水平,有效预防踩踏事件或疫情期间不必要的人流聚集。
具体实施方式
下面结合具体实施例,对本发明作进一步详细的阐述,下述实施例不用于限制本发明,仅用于说明本发明。以下实施例中所使用的实验方法如无特殊说明,实施例中未注明具体条件的实验方法,通常按照常规条件,下述实施例中所使用的材料、试剂等,如无特殊说明,均可从商业途径得到。
实施例1
本发明分为7个模块,分别为:
1.数据采集模块:在公共场所的关键位置部署高清摄像头,确保实时采集高质量的视频数据。同时,收集环境参数(如温度、湿度)、时间信息(如日期、是否为节假日或周末)等相关数据,以辅助预测模型。
2.数据预处理模块:为提高计算效率和准确性,采用图像处理技术(如降噪、对比度增强、分辨率调整)对原始视频数据进行预处理。此外,对各摄像头采集的数据进行时间戳同步,确保数据一致性。
3.人流检测模块:采用目标检测算法(如YOLO、SSD或Faster R-CNN等)对视频数据进行实时人流检测,统计各摄像头视野范围内的人数。
4.多摄像头联动模块:通过地理信息系统(GIS)技术,将各摄像头的位置信息融合,实现空间分析。采用图论方法对摄像头间的关联关系进行建模,实现多摄像头间的协同监控和联动。
5.人流聚集预测模块:基于循环神经网络(RNN)或长短时记忆网络(LSTM),结合历史数据、环境参数等信息,构建人流聚集预测模型。通过训练模型,实现对未来一段时间内可能发生的人流聚集情况的预测。
6.实时反馈与优化模块:通过与安保人员的实时通信,收集现场观察和报告信息。根据反馈信息,对检测和预测模型进行在线学习和优化。同时,根据模型优化结果,实时调整多摄像头联动策略。
7.安保响应模块:根据实时检测和预测结果,系统自动为安保人员提供预警信息和建议。如发现可能发生人流聚集的区域,提前安排安保人员前往该地点,采取措施防范安全事故的发生。
通过以上各个模块的协同工作,本发明实现了基于多摄像头联动的人流聚集检测与预测。这种方法可以提高公共场所的安全水平,有效预防踩踏事件或疫情期间不必要的人流聚集。
具体的实施步骤为:
S1)摄像头布局和校准:在公共场所布置摄像头,确保对关键区域的全面覆盖。通过摄像头之间的几何变换和光学校准,消除视角差异。
具体步骤如下:
a)利用计算机视觉技术和深度学习模型对公共场所的历史人流数据进行分析,以预测可能的人流密度和行为模式。
b)根据预测结果,使用优化算法(如遗传算法或粒子群优化算法或者模拟退火算法)自动确定摄像头的位置和数量,以最大化场景覆盖率,避免死角,并满足预期的检测和预测精度。
c)使用多目标优化算法来平衡摄像头数量、成本和检测精度等多个因素,找到最优布局方案。
基于启发式搜索的多目标摄像头布局优化算法(Heuristic Search-basedMulti-objective Camera Layout Optimization Algorithm,HSMO-CLOA)具体步骤为:
1.初始化参数:
设摄像头数量上限为N_max,摄像头单价为P,预算上限为B,检测精度阈值为A_min,布局范围为Lx×Ly,搜索次数上限为T。
2.定义目标函数:
为了平衡摄像头数量、成本和检测精度,我们将问题转化为一个多目标优化问题。定义目标函数如下:
目标1:最小化摄像头数量,即f1(N)=N;
目标2:最小化成本,即f2(C)=C;
目标3:最大化检测精度,即f3(A)=-A;
3.初始化摄像头布局:
随机生成M个摄像头布局,其中M为种群大小。每个布局包含N个摄像头,其位置为(x_i,y_i),满足0<x_i<Lx,0<y_i<Ly。计算每布局的目标函数值。
4.启发式搜索:
对于每次迭代t(t=1,2,...,T),执行以下步骤:
a)选择操作:
使用锦标赛选择法从当前种群中随机选择两个布局方案,比较它们的目标函数值。保留目标函数值较好的布局方案。
b)变异操作:
以一定的变异概率,随机选择一个摄像头,将其位置移动到一个随机的新位置。确保新位置仍然在布局范围内。
c)交叉操作:
以一定的交叉概率,从两个亲代布局方案中随机选择一定数量的摄像头,生成一个新的布局方案。确保新方案的摄像头数量N和成本C不超过预设的上限N_max和B。
d)更新种群:
将新生成的布局方案插入种群,并计算其目标函数值。根据多目标优势关系(Pareto优势关系)对种群进行排序,选择前M个最优布局方案构成新的种群。
e)终止条件:
如果达到搜索次数上限T或者连续若干次迭代后种群中最优布局方案的目标函数值没有明显改善,则终止搜索过程。
5.解析结果:
在搜索结束后,根据多目标优势关系选择种群中的非劣解(Pareto最优解)作为最优布局方案的候选。用户可以根据实际需求在这些候选解中选择一个适当的摄像头布局方案。
d)对于每个摄像头,设置初始参数,包括分辨率、帧率、曝光时间,快门,光圈,ISO感光度,景深,焦距,白平衡等,以适应不同的场景和光照条件。
e)采用自适应校准方法,根据实时的人流情况和光照条件动态调整摄像头参数,以保持最佳的检测效果。
对自适应校准方法步骤为:
1.初始化摄像头参数:
根据摄像头类型和场景需求,设置摄像头的初始参数,如分辨率、曝光时间、增益、对比度、饱和度等。
2.捕获视频帧:
实时捕获摄像头的视频帧,提取关键帧用于后续分析。
3.计算帧差:
使用帧差法计算相邻关键帧之间的差异。帧差法通过计算相邻帧的像素差值,可以有效地检测运动物体。
4.光照变化检测:
分析关键帧的直方图或其他亮度特征,如平均亮度、局部亮度等,以检测光照条件的变化。如果发现关键帧之间的光照变化较大,可以判断环境光照条件发生了改变。
5.动态调整参数:
结合帧差和光照变化检测的结果,动态调整摄像头参数。例如:
a)如果帧差结果表明场景中的运动物体数量较多,可以考虑增加曝光时间以捕捉更多细节。
b)如果光照变化检测结果表明场景变得更暗,可以增加摄像头的增益或亮度参数以提高图像质量。
c)如果场景变得更亮,可以降低增益或亮度参数,以避免过曝。
6.实时更新参数:
将调整后的摄像头参数实时更新到摄像头设备上,以保持最佳的检测效果。在整个过程中,不断重复步骤2到步骤6,实时监测环境变化并相应地调整摄像头参数。
f)利用相邻摄像头之间的视角重叠,自动校准摄像头的相对位置和方向,以提高多摄像头联动算法的准确性。
S2)数据收集与预处理:收集大量有标注的图像数据,用于训练深度学习模型。对数据进行预处理,如图像增强、裁剪和缩放,以提高模型的泛化能力,具体包括如下步骤:
a)集成多源数据:除了公共场所的摄像头收集的视频数据外,我们还可以收集个人用户通过移动应用实时上传的数据(包括人流量和异常情况的手动输入,或者是直接反馈异常现场的照片。这将大大扩展数据来源,提供更多的场景和人流信息。例如,用户可以通过移动应用上传他们所在位置的实时人流情况、拥挤程度等信息。通过这种方式,我们可以更好地了解各个区域的实时人流状况,从而提高预测的准确性。
b)数据融合:为了提高预测效果,我们可以将摄像头收集的视频数据与用户上传的实时数据进行融合。这样做的好处是,可以充分利用不同数据源的优势,提高人流聚集预测的准确性。例如,摄像头数据可以提供精确的人流计数和行为分析,而用户上传的数据可以提供实时的场景信息和拥挤程度。
c)数据预处理:为了提高数据质量和预测效果,我们需要对收集到的数据进行预处理。这包括对视频数据进行分辨率调整、噪声去除和光照补偿等处理,以确保数据在后续分析过程中的准确性和可靠性。同时,对于用户上传的实时数据,我们需要进行数据清洗和验证,例如去除异常值和不符合规范的数据,确保数据的有效性。
分辨率调整、噪声去除和光照补偿:
1.分辨率调整:
算法:双线性插值(Bilinear Interpolation)
双线性插值算法是一种常用的图像缩放方法,它通过对邻近像素的灰度值进行加权平均,估算新像素的灰度值。这种方法在处理边缘和细节时相对较平滑,可以有效避免锯齿现象。
2.噪声去除:
算法:非局部均值去噪(Non-Local Means Denoising)
非局部均值去噪算法通过比较图像中相似的局部区域来对噪声进行抑制。对于每个像素,算法会在其邻域内寻找相似的区域,并计算它们的加权平均值作为去噪后的像素值。这种方法在保留图像细节的同时有效地去除噪声。
3.光照补偿:
算法:直方图均衡化(Histogram Equalization)
直方图均衡化是一种调整图像亮度分布的方法,通过将图像的直方图扩展到整个灰度范围内,使图像的对比度得到提升。这种方法在处理光照不均的场景时效果尤为明显。
d)特征提取:在数据预处理完成后,我们可以利用深度学习模型对数据进行特征提取。这里,我们可以针对人流聚集问题设计特定的特征提取方法,如聚集程度、速度变化等特征,这将有助于提高预测效果。
通过这个方案,我们可以充分利用多源数据的优势,提高人流聚集预测的准确性和实时性。
数据清洗和验证具体为:
异常值检测:
算法:IQR(四分位距)方法
IQR方法通过计算数据的四分位数和四分位距来识别异常值。将数据分为四等份,计算第一四分位数(Q1)、第二四分位数(Q2,即中位数)和第三四分位数(Q3)。然后计算四分位距(IQR=Q3-Q1),定义下界(Q1-1.5*IQR)和上界(Q3+1.5*IQR)。处于下界和上界之外的数据点被视为异常值。
数据规范性验证:
对于离散特征,可以定义允许的值域范围,并对数据进行检查。对于不符合规范的数据,可以将其标记为无效数据或采取适当的替换策略。
缺失值处理:
算法:插值法(例如线性插值)
对于存在缺失值的数据,可以使用插值法进行填充。线性插值法通过计算相邻已知数据点之间的线性关系来估计缺失值。
整个过程的具体实现步骤如下:
读取实时数据:
获取用户上传的实时数据,这些数据可能包括时间戳、传感器读数、位置信息等。
异常值检测:
对数据中的数值型特征应用IQR方法,找出异常值并予以处理,例如删除或替换为合理范围内的值。
数据规范性验证:
检查离散特征的值是否符合预定义的规范,对不符合规范的数据进行标记、删除或替换。
缺失值处理:
对包含缺失值的数据应用插值法(如线性插值),填充缺失值。
数据整合:
将经过清洗和验证的实时数据整合到现有的数据集中,以便进行后续的分析和处理。
通过以上步骤,可以确保实时数据的有效性和准确性,为后续的数据分析和模型训练提供可靠的输入。
S3)模型训练与调优:采用卷积神经网络(CNN)进行模型训练,使用交叉验证等方法评估模型性能,根据需要进行模型调优。具体步骤如下:
a)分层多头注意力机制:我们可以设计一个分层多头注意力机制来充分利用不同来源的数据。在这个机制中,我们将注意力模型分为多个头,每个头专注于一种特定类型的数据(如摄像头数据、用户上传的实时数据等)。通过这种方式,模型可以对不同来源的数据进行有效整合,提高预测准确性。
分层多头注意力分为
数据表示:
将不同来源的数据(如摄像头数据、用户上传的实时数据等)转换为适当的向量表示。这可以通过预训练的嵌入层或编码器实现。
多头注意力机制:
对于每个注意力头,计算其输入数据的注意力权重。这可以通过以下步骤实现:
a)使用线性层将输入数据的表示映射到不同的子空间。
b)计算这些子空间中每对数据之间的点积,然后用softmax函数归一化以得到注意力权重。
c)将注意力权重与输入数据的表示相乘,然后对结果求和以得到该注意力头的输出。
分层注意力:
在多头注意力机制的基础上,设计一个分层结构,使得每一层关注不同层次的信息。例如,底层可以关注局部特征,而顶层可以关注全局特征。在每一层中,多个注意力头可以并行计算。
结果整合:
将所有注意力头的输出沿着特定维度连接起来,然后通过一个线性层对连接后的表示进行变换,得到最终的特征表示。
后续任务处理:
将整合后的特征表示输入到任务相关的网络层中(例如全连接层、卷积层等),以完成特定任务(如分类、回归等)。
以下是一个分层多头注意力机制网络结构的简要描述:
输入层:接收不同来源的数据并将其转换为向量表示。
第一层分层多头注意力:包含多个注意力头,每个头关注一种特定类型的数据。
第二层分层多头注意力:在第一层的基础上,进一步关注更高层次的信息。
……
最后一层分层多头注意力:关注整体特征和全局上下文。
结果整合层:将所有注意力头的输出连接并进行变换。
任务相关层:根据具体任务,将整合后的特征表示输入到相应的网络层中。
这个分层多头注意力机制可以充分利用不同来源的数据,并自适应地关注不同层次的信息。通过这种方式,模型可以对各种来源的数据进行有效整合。
b)时序信息处理:为了捕捉人流聚集的动态特征,我们可以在模型中引入循环神经网络(RNN)或长短时记忆网络(LSTM)或门循环单元(GRU)等时序处理模块。这些模块可以帮助模型捕捉时间序列中的长期依赖关系和动态变化,从而更好地预测未来可能发生的人流聚集情况。
c)模型融合:为了进一步提高预测效果,我们可以尝试将多个模型进行融合。例如,我们可以将深度学习模型与传统的机器学习模型(如支持向量机、随机森林等)进行融合,从而充分利用不同模型的优势,提高预测效果。
模型融合是指将多个模型(如深度学习模型和传统机器学习模型)进行组合,以便充分利用它们各自的优势,从而提高整体预测效果。这种策略在机器学习和深度学习领域被广泛应用,因为模型融合可以降低预测误差和提高泛化性能。
例如,假设我们有一个深度学习模型,如卷积神经网络(CNN),用于图像分类。我们还有一个传统的机器学习模型,如支持向量机(SVM),用于同样的任务。这两个模型可能在不同方面有各自的优势。CNN在捕捉局部特征和层次结构方面表现出色,而SVM在处理线性不可分问题时具有优势。通过将这两个模型进行融合,我们可以获得一个更强大的模型,该模型既能捕捉局部特征和层次结构,又能有效处理线性不可分问题。
在实际的操作操作中我们使用的就是投票法
每个模型都对给定输入进行预测,得到一个类别标签。投票法通过对各个模型的预测结果进行投票,从而得到最终的预测结果,每个模型预测类别的概率,最终预测结果是概率加权和最高的类别标签。
通过本发明中的模型,我们可以有效地整合多源数据,捕捉人流聚集的动态特征,并利用多种模型的优势提高预测效果。同时,通过在线学习和模型更新机制,我们可以使模型不断适应新的数据分布,从而实现实时预测和及时预防人流聚集事件的目标。
d)在线学习与模型更新:为了确保模型能够根据人类反馈进行不断修正,我们可以引入在线学习和模型更新机制。具体来说,我们可以在模型训练过程中将人类反馈作为额外的标签数据,实时更新模型权重。这样,模型可以逐渐适应新的数据分布,提高预测准确性。
在训练过程中引入在线学习和模型更新机制的一个具体算法是在线随机梯度下降(Online Stochastic Gradient Descent,简称Online SGD)。我们可以将人类反馈作为额外的标签数据,实时更新模型权重。以下是这个算法的基本步骤:
1.初始化模型权重。
2.设置学习率策略。学习率可以是固定的,也可以随着训练步数进行衰减。
3.当收到新的带有人类反馈的数据点时,执行以下操作:
a.使用模型对当前数据点进行预测。
b.计算预测值与人类反馈(即真实标签)之间的损失。
c.计算损失函数关于模型权重的梯度。
d.使用梯度和学习率更新模型权重。例如,W_new=W_old-learning_rate*gradient
4.重复步骤3,直到满足停止条件(如达到最大迭代次数、损失收敛等)。
S4)系统部署:将训练好的模型部署到实际环境中,与摄像头联动,实时分析图像数据。同时,开发实时预警和可视化界面,方便安全监控人员使用。部署方面具体采用以下方案:
a)分布式部署:为了确保系统的稳定性和高可用性,我们可以将模型部署在分布式服务器上。通过这种方式,系统可以更好地应对大规模的数据处理需求,同时提高服务的可靠性。
b)数据共享与协同:我们可以搭建一个数据共享平台,让公共场所各个地区的监控系统可以实时共享人流数据。这将有助于更全面地掌握整个区域的人流状况,从而实现更有效的预测与预警。
c)实时提醒与导航:系统可以根据实时预测结果,为公众提供实时提醒和导航服务。例如,通过手机APP或者公共信息屏幕,实时展示各个区域的人流聚集情况,提醒大家避免前往人流量过大的地方。同时,系统可以为用户提供规避高风险区域的最佳路径建议,进一步降低人流聚集的风险。
d)多级预警机制:我们可以根据人流聚集的风险程度设置多级预警阈值,对应不同的预警级别和应对措施。例如,当某个区域的人流量达到一定阈值时,系统会自动触发预警,并通知安保人员采取相应措施。
e)可视化监控与管理平台:为了方便管理人员实时了解人流聚集情况,我们可以开发一个可视化监控与管理平台。该平台可以实时展示各个监控点的人流数据、预测结果和预警信息,帮助管理人员快速做出决策。
我们可以实现实时数据共享与协同,提供实时提醒与导航服务,降低人流聚集风险。同时,多级预警机制和可视化监控与管理平台可以帮助管理人员更有效地应对人流聚集事件,确保公共场所的安全。
S5)人类反馈与模型修正:通过人类反馈机制,收集安全监控人员对检测结果的确认或纠正信息。根据这些反馈,不断修正模型,提高检测准确性和鲁棒性。在人类反馈与模型修正方面,以下是使用基于人类反馈的强化学习来修正预测模型的详细步骤:
a)收集人类反馈:首先,我们需要收集来自用户、安保人员和现场管理人员的反馈。反馈可以包括对模型预测结果的评价、对人流聚集现象的观察和实际处理过程中的经验等。这些反馈数据可以通过手机APP、管理平台等途径收集;如人流量和异常情况的手动输入,或者是直接反馈异常现场的照片。
b)整理反馈数据:收集到的人类反馈数据需要进行整理和处理。将反馈数据转化为模型可以理解的形式,例如为预测结果打分或者为模型决策提供指导性建议。整理后的数据可以用于训练和修正模型。
c)设计奖励函数:为了将人类反馈纳入模型训练过程,我们需要设计一个奖励函数,该函数能够根据反馈数据对模型的预测结果进行评价。奖励函数可以是一个标量值,表示模型预测的好坏程度。奖励函数应该能够反映人类反馈中的偏好和要求,使模型更好地满足实际需求;具体函数为:
设y_true为真实标签,y_pred为模型预测的标签,C为类别总数,P(c)为类别c的预测概率。
首先,计算模型预测正确性的基本奖励:
base_reward=1如果y_true==y_pred,否则base_reward=0
根据人类反馈调整奖励。人类反馈可以是一组与各个类别相关的权重,表示人们对不同类别的关注程度。设W={w_1,w_2,...,w_C}为类别权重,其中w_i表示类别i的权重。
adjusted_reward=base_reward*w_y_true
考虑模型的置信度。如果模型对预测结果非常确信,但预测错误,可以对奖励进行惩罚。同样,如果模型对正确预测的结果不太确定,可以对奖励进行增加。
confidence_penalty=P(y_true)if y_true!=y_pred else 0
final_reward=adjusted_reward-confidence_penalty
d)更新模型策略:根据设计的奖励函数,我们可以使用强化学习算法(如Deep Q-Networks、Proximal Policy Optimization等)来更新模型的策略。在训练过程中,模型将根据收到的奖励值进行学习和优化,以提高预测性能。
e)评估模型性能:在每次模型更新后,我们需要对模型的性能进行评估。通过比较修正前后的预测结果与实际情况,我们可以量化地评估模型修正的效果。这一过程可以借助于之前设计的反馈效果评估体系。
f)模型迭代更新:基于人类反馈的强化学习过程可以持续进行。通过不断地收集反馈、设计奖励函数、更新模型策略和评估性能,我们可以使模型随着时间的推移和实际情况的变化而不断优化。
S 6)持续优化与维护:根据实际运行情况,对系统进行持续优化和维护。例如,定期更新模型、调整阈值设定,以应对人流特征的变化。
最后应当说明的是,以上内容仅用以说明本发明的技术方案,而非对本发明保护范围的限制,本领域的普通技术人员对本发明的技术方案进行的简单修改或者等同替换,均不脱离本发明技术方案的实质和范围。
Claims (10)
1.基于多摄像头协同和人类反馈的人员聚集检测系统,其特征在于,包括,
S1摄像头布局和校准:在公共场所布置摄像头;通过摄像头之间的几何变换和光学校准,消除视角差异;
S2数据收集与预处理:收集大量有标注的图像数据,用于训练深度学习模型;对图像数据进行预处理:
S3模型训练与调优:采用卷积神经网络进行模型训练,进行模型调优;并进行在线学习与模型更新:引入在线学习和模型更新机制,预测准确性;
S4系统部署:将训练好的模型部署到实际环境中,与摄像头联动,实时分析图像数据,得出实时人员流量和人员聚集预测结果。
2.根据权利要求1所述的基于多摄像头协同和人类反馈的人员聚集检测系统,其特征在于,所述S1包括:
a)利用计算机视觉技术和深度学习模型对公共场所的历史人流数据进行分析,以预测可能的人流密度和行为模式;
b)根据预测结果,使用优化算法自动确定摄像头的位置和数量,以最大化场景覆盖率,避免死角,并满足预期的检测和预测精度;
c)使用多目标优化算法来平衡影响因素,找到最优布局方案;
d)对于每个摄像头,设置初始参数,以适应不同的场景和光照条件;
e)采用自适应校准方法,根据实时的人流情况和光照条件动态调整摄像头参数;
f)利用相邻摄像头之间的视角重叠,自动校准摄像头的相对位置和方向。
3.根据权利要求1所述的基于多摄像头协同和人类反馈的人员聚集检测系统,其特征在于,所述S2包括:
a)集成多源数据:从多个目标处获取不同的数据,包括摄像头收集的视频数据、个人用户上传的实时数据;
b)数据融合:摄像头收集的视频数据与用户上传的实时数据进行融合;
c)数据预处理:收集到的数据进行预处理;包括对视频数据进行分辨率调整、噪声去除和光照补偿处理;对于用户上传的实时数据,进行数据清洗和验证;
d)特征提取:在数据预处理完成后,利用深度学习模型对数据进行特征提取。
4.根据权利要求1所述的基于多摄像头协同和人类反馈的人员聚集检测系统,其特征在于,所述S3包括:
a)分层多头注意力机制:利于分层多头注意力机制来充分利用不同来源的数据;
b)时序信息处理:模型中引入循环神经网络和/或长短时记忆网络和/或门循环单元(GRU)等时序处理模块进行处理;
c)模型融合:将深度学习模型与传统的机器学习模型进行融合,降低预测误差和提高泛化。
5.根据权利要求4所述的基于多摄像头协同和人类反馈的人员聚集检测系统,其特征在于,所述分层多头注意力机制为:
数据表示:
将不同来源的数据转换为适当的向量表示;
多头注意力机制:
对于每个注意力头,计算其输入数据的注意力权重,具体为:
a)使用线性层将输入数据的表示映射到不同的子空间;
b)计算这些子空间中每对数据之间的点积,然后用softmax函数归一化以得到注意力权重;
c)将注意力权重与输入数据的表示相乘,然后对结果求和以得到该注意力头的输出;
分层注意力:
在多头注意力机制的基础上,设计一个分层结构,使得每一层关注不同层次的信息;
结果整合:
将所有注意力头的输出沿着特定维度连接,通过一个线性层对连接后的表示进行变换,得到最终的特征表示;
后续任务处理:
将整合后的特征表示输入到任务相关的网络层中,以完成特定任务;
分层多头注意力机制的网络结构为:
输入层:接收不同来源的数据并将其转换为向量表示;
第一层分层多头注意力:包含多个注意力头,每个头关注一种特定类型的数据;
第二层分层多头注意力:在第一层的基础上,进一步关注更高层次的信息;
……
最后一层分层多头注意力:关注整体特征和全局上下文;
结果整合层:将所有注意力头的输出连接并进行变换;
任务相关层:根据具体任务,将整合后的特征表示输入到相应的网络层中。
6.根据权利要求1所述的基于多摄像头协同和人类反馈的人员聚集检测系统,其特征在于,所述S3为,利用在线随机梯度下降算法实现在线学习和模型更新机制;
在线随机梯度下降算法为:
1:初始化模型权重;
2:设置学习率策略;
3:当收到新的带有人类反馈的数据点时,执行以下操作:
a.使用模型对当前数据点进行预测;
b.计算预测值与人类反馈之间的损失;;
c.计算损失函数关于模型权重的梯度;
d.使用梯度和学习率更新模型权重;
4:重复步骤3,直到满足停止条件。
7.根据权利要求1所述的基于多摄像头协同和人类反馈的人员聚集检测系统,其特征在于,所述S4包括:
a)分布式部署:将模型部署在分布式服务器上;
b)数据共享与协同:搭建数据共享平台,让公共场所各个地区的监控系统可以实时共享人流数据;
c)实时提醒与导航:根据实时预测结果,为公众提供实时提醒和导航服务
d)多级预警机制:根据人流聚集的风险程度设置多级预警阈值,对应不同的预警级别和应对措施;
e)可视化监控与管理平台:设计可视化监控与管理平台;实时展示各个监控点的人流数据、预测结果和预警信息,帮助管理人员快速做出决策。
8.根据权利要求1所述的基于多摄像头协同和人类反馈的人员聚集检测系统,其特征在于,还包括:
S5人类反馈与模型修正:收集安全监控人员对检测结果的确认或纠正信息;根据反馈修正模型。
9.根据权利要求8所述的基于多摄像头协同和人类反馈的人员聚集检测系统,其特征在于,所述S5包括:
a)收集人类反馈:需要收集来自用户、安保人员和现场管理人员的反馈;
b)整理反馈数据:收集到的人类反馈数据需要进行整理和处理,将反馈数据转化为模型可以理解的形式;
c)设计奖励函数:设计一个奖励函数,根据反馈数据对模型的预测结果进行评价:
奖励函数具体为:
设y_true为真实标签,y_pred为模型预测的标签,C为类别总数,P(c)为类别c的预测概率;
计算模型预测正确性的基本奖励:
base_reward=1如果y_true==y_pred,否则base_reward=0
根据人类反馈调整奖励;
人类反馈可以是一组与各个类别相关的权重,表示人们对不同类别的关注程度;
设W={w_1,w_2,...,w_C}为类别权重,其中w_i表示类别i的权重;
adjusted_reward=base_reward*w_y_true
考虑模型的置信度;如果模型对预测结果非常确信,但预测错误,可以对奖励进行惩罚;同样,如果模型对正确预测的结果不太确定,可以对奖励进行增加;
confidence_penalty=P(y_true)if y_true!=y_pred else 0
final_reward=adjusted_reward-confidence_penalty
d)更新模型策略:根据设计的奖励函数,可以使用强化学习算法来更新模型的策略;
e)评估模型性能:在每次模型更新后,对模型的性能进行评估;比较修正前后的预测结果与实际情况;
f)模型迭代更新:基于人类反馈的强化学习过程可以持续进行模型迭代更新。
10.根据权利要求8所述的基于多摄像头协同和人类反馈的人员聚集检测系统,其特征在于,还包括:
S6持续优化与维护:根据实际运行情况,对系统进行持续优化和维护。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310367749.9A CN116385969B (zh) | 2023-04-07 | 2023-04-07 | 基于多摄像头协同和人类反馈的人员聚集检测系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310367749.9A CN116385969B (zh) | 2023-04-07 | 2023-04-07 | 基于多摄像头协同和人类反馈的人员聚集检测系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116385969A true CN116385969A (zh) | 2023-07-04 |
CN116385969B CN116385969B (zh) | 2024-03-12 |
Family
ID=86961246
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310367749.9A Active CN116385969B (zh) | 2023-04-07 | 2023-04-07 | 基于多摄像头协同和人类反馈的人员聚集检测系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116385969B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116843149A (zh) * | 2023-07-11 | 2023-10-03 | 深圳市深水水务咨询有限公司 | 一种基于生成式学习的水库防洪调度方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108804992A (zh) * | 2017-05-08 | 2018-11-13 | 电子科技大学 | 一种基于深度学习的人群统计方法 |
CN109186552A (zh) * | 2018-08-13 | 2019-01-11 | 北京智汇云舟科技有限公司 | 一种图像采集装置的布点规范的方法和系统 |
CN110543867A (zh) * | 2019-09-09 | 2019-12-06 | 北京航空航天大学 | 一种多摄像头条件下的人群密度估测系统及方法 |
WO2020093829A1 (zh) * | 2018-11-09 | 2020-05-14 | 阿里巴巴集团控股有限公司 | 开放场景的实时人流统计方法和装置 |
CN112307895A (zh) * | 2020-09-27 | 2021-02-02 | 青岛邃智信息科技有限公司 | 一种社区监控场景下人群聚集异常行为检测方法 |
CN113392714A (zh) * | 2021-05-20 | 2021-09-14 | 上海可深信息科技有限公司 | 一种聚众事件检测方法及系统 |
CN114219044A (zh) * | 2021-12-22 | 2022-03-22 | 深圳大学 | 一种图像分类方法、装置、终端及存储介质 |
CN115482507A (zh) * | 2022-09-22 | 2022-12-16 | 武汉理工光科股份有限公司 | 基于人工智能的人群聚集消防预警方法及系统 |
CN115719294A (zh) * | 2022-11-23 | 2023-02-28 | 厦门大学 | 一种室内行人流疏散控制方法、系统、电子设备及介质 |
-
2023
- 2023-04-07 CN CN202310367749.9A patent/CN116385969B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108804992A (zh) * | 2017-05-08 | 2018-11-13 | 电子科技大学 | 一种基于深度学习的人群统计方法 |
CN109186552A (zh) * | 2018-08-13 | 2019-01-11 | 北京智汇云舟科技有限公司 | 一种图像采集装置的布点规范的方法和系统 |
WO2020093829A1 (zh) * | 2018-11-09 | 2020-05-14 | 阿里巴巴集团控股有限公司 | 开放场景的实时人流统计方法和装置 |
CN110543867A (zh) * | 2019-09-09 | 2019-12-06 | 北京航空航天大学 | 一种多摄像头条件下的人群密度估测系统及方法 |
CN112307895A (zh) * | 2020-09-27 | 2021-02-02 | 青岛邃智信息科技有限公司 | 一种社区监控场景下人群聚集异常行为检测方法 |
CN113392714A (zh) * | 2021-05-20 | 2021-09-14 | 上海可深信息科技有限公司 | 一种聚众事件检测方法及系统 |
CN114219044A (zh) * | 2021-12-22 | 2022-03-22 | 深圳大学 | 一种图像分类方法、装置、终端及存储介质 |
CN115482507A (zh) * | 2022-09-22 | 2022-12-16 | 武汉理工光科股份有限公司 | 基于人工智能的人群聚集消防预警方法及系统 |
CN115719294A (zh) * | 2022-11-23 | 2023-02-28 | 厦门大学 | 一种室内行人流疏散控制方法、系统、电子设备及介质 |
Non-Patent Citations (2)
Title |
---|
DOUGLAS ALMONFREY, ETAL.: "A flexible human detection service suitable for Intelligent Spaces based on a multi-camera network", INTERNATIONAL JOURNAL OF DISTRIBUTED SENSOR NETWORKS, vol. 14, no. 3, pages 1 - 22 * |
陈渠: "基于深度学习的多摄像头协同目标跟踪方法研究", 中国优秀硕士学位论文全文数据库 工程科技辑, pages 026 - 4 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116843149A (zh) * | 2023-07-11 | 2023-10-03 | 深圳市深水水务咨询有限公司 | 一种基于生成式学习的水库防洪调度方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116385969B (zh) | 2024-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI742382B (zh) | 透過電腦執行的、用於車輛零件識別的神經網路系統、透過神經網路系統進行車輛零件識別的方法、進行車輛零件識別的裝置和計算設備 | |
Zhao et al. | Deep learning with XGBoost for real estate appraisal | |
US11797725B2 (en) | Intelligent imagery | |
CN116385969B (zh) | 基于多摄像头协同和人类反馈的人员聚集检测系统 | |
CN115908424A (zh) | 基于三维激光扫描的建筑物健康检测方法、系统及介质 | |
WO2011000099A1 (en) | System, method and computer program for asset management optimization | |
CA3125794A1 (en) | Shadow and cloud masking for agriculture applications using convolutional neural networks | |
CN111105495A (zh) | 一种融合视觉语义信息的激光雷达建图方法及系统 | |
Guo et al. | Evaluation-oriented façade defects detection using rule-based deep learning method | |
CN112949511A (zh) | 一种基于机器学习和图像识别的施工现场人员管理方法 | |
CN111881958A (zh) | 车牌分类识别方法、装置、设备及存储介质 | |
CN116612120A (zh) | 一种针对数据不平衡的两阶段式道路缺陷检测方法 | |
US20170053172A1 (en) | Image processing apparatus, and image processing method | |
CN113297972A (zh) | 一种基于数据融合深度学习的变电站设备缺陷智能分析方法 | |
CN117495735B (zh) | 一种基于结构引导的建筑物立面纹理自动修复方法及系统 | |
US20140344020A1 (en) | Competitor pricing strategy determination | |
CN116805203B (zh) | 基于物联网的施工管理方法及系统 | |
CN117035461A (zh) | 一种基于元胞自动机及lucc的桥梁施工评测方法及存储介质 | |
CN116959099A (zh) | 一种基于时空图卷积神经网络的异常行为识别方法 | |
CN112308045B (zh) | 一种密集人群的检测方法、装置及电子设备 | |
US20140344021A1 (en) | Reactive competitor price determination using a competitor response model | |
US20140344022A1 (en) | Competitor response model based pricing tool | |
CN115239689A (zh) | 一种路面信息的检测、计算方法、检测系统、设备及计算机可读存储介质 | |
CN117611108B (zh) | 一种城乡建设用地有偿调剂的智能决策构建方法 | |
CN117372819B (zh) | 用于有限模型空间的目标检测增量学习方法、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |