CN115035395B - 用于机场航站楼场景的安全分析装置方法及装置 - Google Patents
用于机场航站楼场景的安全分析装置方法及装置 Download PDFInfo
- Publication number
- CN115035395B CN115035395B CN202210802751.XA CN202210802751A CN115035395B CN 115035395 B CN115035395 B CN 115035395B CN 202210802751 A CN202210802751 A CN 202210802751A CN 115035395 B CN115035395 B CN 115035395B
- Authority
- CN
- China
- Prior art keywords
- image
- target
- scene
- training
- obtaining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 46
- 238000000034 method Methods 0.000 title claims description 32
- 230000033001 locomotion Effects 0.000 claims abstract description 139
- 230000009471 action Effects 0.000 claims abstract description 55
- 238000012549 training Methods 0.000 claims description 61
- 238000013527 convolutional neural network Methods 0.000 claims description 40
- 238000013528 artificial neural network Methods 0.000 claims description 26
- 238000013499 data model Methods 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 18
- 230000006870 function Effects 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 13
- 238000012795 verification Methods 0.000 claims description 10
- 239000011159 matrix material Substances 0.000 claims description 9
- 238000010586 diagram Methods 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 6
- 238000012360 testing method Methods 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 3
- 230000003044 adaptive effect Effects 0.000 claims description 3
- 230000000295 complement effect Effects 0.000 claims description 3
- 239000006185 dispersion Substances 0.000 claims description 3
- 230000001537 neural effect Effects 0.000 claims description 3
- 210000002569 neuron Anatomy 0.000 claims description 3
- 238000010200 validation analysis Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 238000012098 association analyses Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 206010011469 Crying Diseases 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 238000011217 control strategy Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/35—Categorising the entire scene, e.g. birthday party or wedding scene
- G06V20/36—Indoor scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本申请提供的一种用于机场航站楼场景的安全分析方法,包括如下步骤:基于视频图像,得到运动目标;获取所述运动目标在所述预设时长内的运动特征,并基于所述运动特征生成动作集;基于所述动作集,得到所述运动目标在发生时段内的目标运动类型;获取所述运动目标在预设时长内的场景集;基于所述场景集和所述目标运动类型,得到目标场景;基于所述目标场景和所述目标运动类型,得到所述目标运动类型在所述目标场景内的关联度。旨在解决现有技术中机场航站楼仅仅对人员进行了必要监控,但是未将场景与人员进行关联管控的技术问题。
Description
技术领域
本申请涉及计算机技术领域,尤其涉及一种用于机场航站楼场景的安全分析装置方法及装置。
背景技术
机场航站楼的安全是航空部分重要的关注和研究的对象。机场航站楼易发生群体事件或者不安全事件。比如,登机口、安检口出现闯关等情况;又比如,在非就餐区域脱下口罩等等。现有技术中,机场航站楼仅仅对人员进行了必要监控,但是未将场景与人员进行关联管控。
发明内容
本发明实施例的用于机场航站楼场景的安全分析方法,旨在解决现有技术中机场航站楼仅仅对人员进行了必要监控,但是未将场景与人员进行关联管控的技术问题。
为此,本申请提出一种用于机场航站楼场景的安全分析方法,包括如下步骤:
基于视频图像,得到运动目标;
获取所述运动目标在所述预设时长内的运动特征,并基于所述运动特征生成动作集;
基于所述动作集,得到所述运动目标在发生时段内的目标运动类型;
获取所述运动目标在预设时长内的场景集;
基于所述场景集和所述目标运动类型,得到目标场景;
基于所述目标场景和所述目标运动类型,得到所述目标运动类型在所述目标场景内的关联度。
可选地,所述基于目标场景和所述目标运动类型,得到所述目标运动类型在所述目标场景内的关联度的步骤具体包括:获取所述目标场景的对应的数据模型;基于所述数据模型和所述目标运动类型,得到所述目标运动类型在所述目标场景内的关联度。
可选地,在所述获取所述目标场景的对应的数据模型的步骤之前,所述方法还包括:收集所述目标场景下的动作分析集合,并划分为训练集和验证集;对划分完成的训练集和验证集中的视频数据进行数据增强处理,并对视频数据进行编码,得到模型视频;从所述模型视频中检测出感兴趣的模型运动目标,并对感兴趣的运动目标进行模型的构建,使用训练集进行训练并利用自适应矩估计梯度进行优化网络参数权重;使用验证集进行模型运动目标的模型的准确率预测,以得到数据模型。
可选地,所述获取所述运动目标在所述预设时长内的运动特征,并基于所述运动特征生成动作集的步骤具体包括:收集动作的第一图像样本;基于所述第一图像样本,制作卷积神经网络训练所需的第一数据集;搭建CNN算法的深度神经网络,并设置相应参数;基于数据集对该神经网络进行训练,得出CNN动作训练模型;基于所述视频图像,利用所述CNN动作训练模型对在所述预设时长内的所述运动特征进行识别,生成所述动作集。
可选地,所述获取所述运动目标在预设时长内的场景集的步骤具体包括:收集场景的第二图像样本;基于所述第二图像样本,制作卷积神经网络训练所需的第二数据集;搭建CNN算法的深度神经网络,并设置相应参数;基于数据集对该神经网络进行训练,得出CNN场景训练模型;基于所述视频图像,利用所述CNN场景训练模型对所述视频图像进行识别,生成所述场景集。
可选地,所述动作集包括至少一个待分类的运动类型;所述基于所述动作集,得到所述运动目标在发生时段内的目标运动类型的步骤具体包括:设置预设运动类型,若所述待分类的运动类型属于所述预设运动类型,则标记所述待分类的运动类型为所述目标运动类型,并且记录所述待分类的运动类型的发生时段。
本申请还提出一种用于机场航站楼场景的安全分析装置,包括:
识别模块:基于视频图像,得到运动目标;
第一获取模块:获取所述运动目标在所述预设时长内的运动特征,并基于所述运动特征生成动作集;
第一分析模块:基于所述动作集,得到所述运动目标在发生时段内的目标运动类型;
第二获取模块:获取所述运动目标在预设时长内的场景集;
第二分析模块,基于所述场景集和所述目标运动类型,得到目标场景;
第三分析模块,基于所述目标场景和所述目标运动类型,得到所述目标运动类型在所述目标场景内的关联度。
可选地,所述第三分析模块进一步适于:获取所述目标场景的对应的数据模型;基于所述数据模型和所述目标运动类型,得到所述目标运动类型在所述目标场景内的关联度。
本申请还提出一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被执行时实现如前所述方法的步骤。
本申请还提出一种计算机设备,包括处理器、存储器和存储于所述存储器上的计算机程序,所述处理器执行所述计算机程序时实现如前所述所述方法的步骤。
本申请实施例基于视频图像,得到运动目标;获取所述运动目标在所述预设时长内的运动特征,并基于所述运动特征生成动作集;基于所述动作集,得到所述运动目标在发生时段内的目标运动类型;获取所述运动目标在预设时长内的场景集;基于所述场景集和所述目标运动类型,得到目标场景;基于所述目标场景和所述目标运动类型,得到所述目标运动类型在所述目标场景内的关联度。将得到的目标类型与目标场景进行关联分析,得到关联度,以用于分析该目标运动类型是否可以出现在目标场景内,以对机场航站楼场景进行安全监控。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的用于机场航站楼场景的安全分析装置的应用场景示意图;
图2是本申请实施例提供的用于机场航站楼场景的安全分析方法的流程示意图;
图3是本申请实施例提供的用于机场航站楼场景的安全分析装置的结构示意图;
图4是本申请实施例提供的计算机设备的内部结构图。
具体实施方式
为了更清楚地说明本说明书实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单的介绍。显而易见地,下面描述中的附图仅仅是本说明书的一些示例或实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图将本说明书应用于其它类似情景。除非从语言环境中显而易见或另做说明,图中相同标号代表相同结构或操作。
应当理解,本文使用的“系统”、“装置”、“单元”和/或“模块”是用于区分不同级别的不同组件、元件、部件、部分或装配的一种方法。然而,如果其他词语可实现相同的目的,则可通过其他表达来替换所述词语。
如本说明书和权利要求书中所示,除非上下文明确提示例外情形,“一”、“一个”、“一种”和/或“该”等词并非特指单数,也可包括复数。一般说来,术语“包括”与“包含”仅提示包括已明确标识的步骤和元素,而这些步骤和元素不构成一个排它性的罗列,方法或者设备也可能包含其它的步骤或元素。
本说明书中使用了流程图用来说明根据本说明书的实施例的系统所执行的操作。应当理解的是,前面或后面操作不一定按照顺序来精确地执行。相反,可以按照倒序或同时处理各个步骤。同时,也可以将其他操作添加到这些过程中,或从这些过程移除某一步或数步操作。
图1是根据本申请一些实施例所示的用于机场航站楼场景的安全分析装置的应用场景示意图。如图1所示,用于机场航站楼场景的安全分析装置100可以包括服务器110、网络120、图像采集设备组130、和存储器140。
服务器110可以处理从用于机场航站楼场景的安全分析装置100的至少一个组件(例如,图像采集设备组130和存储器140)或外部数据源(例如,云数据中心)获取的数据和/或信息。例如,服务器110可以从图像采集设备组130获取交互指令。又例如,服务器110还可以从存储器140获取历史数据。
在一些实施例中,服务器110可以包括处理设备112。处理设备112可以处理与人机交互系统相关的信息和/或数据以执行本说明书中描述的一个或多个功能。例如,处理设备112可以基于交互指令和/或历史数据确定成像控制策略。在一些实施例中,处理设备112可包括至少一个处理单元(例如,单核处理引擎或多核处理引擎)。在一些实施例中,处理设备112可以为图像采集设备组130的一部分。
网络120可以提供信息交换的渠道。在一些实施例中,网络120可以包括一个或多个网络接入点。用于机场航站楼场景的安全分析装置100的一个或多个部件可以通过接入点连接到网络120以交换数据和/或信息。在一些实施例中,用于机场航站楼场景的安全分析装置100中的至少一个组件可以经由网络120访问存储在存储器140中的数据或指令。
图像采集设备组130可以由多个图像采集设备组成,图像采集设备的种类不做限制,例如可以是摄像头、光场相机或具有图像采集功能的移动终端等。
在一些实施例中,存储器140可以存储处理设备112可以执行或使用以完成本说明书描述的示例性方法的数据和/或指令。例如,存储器140可以存储历史数据。在一些实施例中,存储器140可以作为后端存储器直接连接到服务器110。在一些实施例中,存储器140可以是服务器110、图像采集设备组130一部分。
图2示出了用于机场航站楼场景的安全分析方法,包括如下步骤:
S100,基于视频图像,得到运动目标;
将视频图像从RGB颜色空间转换到HSV颜色空间;对视频图像的H分量进行直方图统计,得到颜色概率查找表;将视频图像中每个像素的值用其颜色出现的概率进行替换,由此得到颜色概率分布图;使用算法寻优,采用公式:
式中,K表示漂移系数,z表示空间中的任意点位置,Sk表示的是训练集和验证集中的点到x的距离小于球半径h的数据点;
使用camShift跟踪算法进行感兴趣的目标跟踪,在视频序列的每一帧当中都运用meanShift,并将上一帧的meanShift结果作为下一帧的初始值,进行循环迭代,完成感兴趣的目标的跟踪。
S200,获取所述运动目标在所述预设时长内的运动特征,并基于所述运动特征生成动作集;
在预设时长内追踪所述运动目标,并且基于其运动特征,得到动作集。
S300,基于所述动作集,得到所述运动目标在发生时段内的目标运动类型;
根据动作集,如果动作集中存在与预设目标类型相似或者相同的运动类型,则标记为目标运动类型,并且将目标运动类型与其发生时段进行关联。
S400,获取所述运动目标在预设时长内的场景集;在预设时长内追踪所述运动目标,基于视频图像得到其在预设时长内的场景信息,得到场景集。
S500,基于所述场景集和所述目标运动类型,得到目标场景;
根据发生时段从场景集中找到场景信息,用于得到目标场景。
S600,基于所述目标场景和所述目标运动类型,得到所述目标运动类型在所述目标场景内的关联度。该关联度用于判断目标运动类型在目标场景内出现的概率,以用于分析该目标运动类型是否可以出现在目标场景内。
本申请实施例中,基于视频图像,得到运动目标;获取所述运动目标在所述预设时长内的运动特征,并基于所述运动特征生成动作集;基于所述动作集,得到所述运动目标在发生时段内的目标运动类型;获取所述运动目标在预设时长内的场景集;基于所述场景集和所述目标运动类型,得到目标场景;基于所述目标场景和所述目标运动类型,得到所述目标运动类型在所述目标场景内的关联度。将得到的目标类型与目标场景进行关联分析,得到关联度,以用于分析该目标运动类型是否可以出现在目标场景内,以对机场航站楼场景进行安全监控。
也即具体实施过程中,运动目标在预设时长内可能够存在多个动作类型,比如奔跑、摘口罩或者行走。一般情况下,预设运动类型为危险动作,比如奔跑、摘口罩。当出现奔跑、摘口罩时,才会将奔跑、摘口罩对应的场景进行关联分析。
比如,在非就餐区域出现摘口罩的动作,则关联度可以设置为小于5%。而在就餐区域出现摘口罩的动作,则可以将关联度设置为大于95%。又比如,在扶梯区域/登机口出现奔跑的动作,关联度设置为小于5%,而在宽阔的非人流密集的区域出现奔跑的动作,关联度设置为大于95%。
可选地,所述基于目标场景和所述目标运动类型,得到所述目标运动类型在所述目标场景内的关联度的步骤具体包括:获取所述目标场景的对应的数据模型。本申请实施例的技术方案中,机场航站楼的每一个场景对应有一个数据模型,该数据模型是通过对在场景内的动作分析集合进行神经网络学习得到的。在分析时,将得到的目标运动类型输入至数据模型内,得出所述目标运动类型在所述目标场景内的关联度。
可选地,在所述获取所述目标场景的对应的数据模型的步骤之前,所述方法还包括:收集所述目标场景下的动作分析集合,并划分为训练集和验证集;对划分完成的训练集和验证集中的视频数据进行数据增强处理,并对视频数据进行编码,得到模型视频;使用训练集进行训练并利用自适应矩估计梯度进行优化网络参数权重;使用验证集进行模型运动目标的模型的准确率预测,以得到数据模型。
可选地,所述获取所述运动目标在所述预设时长内的运动特征,并基于所述运动特征生成动作集的步骤具体包括:收集动作的第一图像样本;第一图像样本包括奔跑、吃食物、看手机、拉口罩、拉行李、打人、哭闹等等。
基于所述第一图像样本,制作卷积神经网络训练所需的第一数据集;搭建CNN算法的深度神经网络,并设置相应参数;基于数据集对该神经网络进行训练,得出CNN动作训练模型;具体地,将第一数据集的图像输入至神经网络中,通过神经网络的卷积层提取特征图,利用如下式子:
其中,O为卷积神经单元输出,f为激活函数,b为偏置系数,Wpq为卷积核参数,p,q∈[1,k],Aij为神经元输入,i,j∈[1,k];
对卷积层提取出的特征进行池化操作,利用如下式子:
poolmax(RK)=maxae,e∈RK
其中poolmax(Rk)为池化层的输出,Rk表示特征图被分成k个区域,ae表示每个区域上的像素值;
动作图像特征通过全连接层输出给低维隐含层,提取图像的低维特征,将特征输入分类器进行分类,利用如下式子:
Xg=[x]m×n,g=1,2,3…
其中,Xg是第一图像样本集,x是第一图像,m是当前设定的图像低维特征的维数n为每一类图像的数量;
将X作为一个整体,任意一类图像特征Xp与其补集Xq确定判别函数的系数,得到该数据集的判别矩阵:
其中,S=Sp+Sq,Sp、Sq为样本内离散度矩阵;
根据第一图像样本集Xp的均值mp及其补集的均值mq,得到第一图像样本集的总体均值:
其中,n=n1+n2,n1,n2分别为第一图像样本集Xp和Xq的特征数量;
取测试数据集的图像的低维特征yi进行判定:
其中,ω为测试样本所属的类别;
Z=(z1,z2...,zr)为判定矩阵,当ω>0时,图像属于第r类,zr加1;反之,zu加1,且r≠u。最后取Z的最大值来确定图像类别;
输出图像类别后,计算损失值,损失函数值计算如下:
式中,其中,L(W,b,X,P)为损失函数值;fW,b(Xg)为第g,g∈(1,m)个样本图像经过CNN的前向计算输出;W,b分别为CNN待训练的权值参数和偏置模型参数;Xg为第g个样本图像的图像数据;Pt为第t个样本图像的标签数据;其中X为样本图像的向量表示,P为其对应的标签数据向量;为正则化惩罚项。
进行反向传播,可以采用随机梯度下降原理。重复上述步骤,通过训练结果调整算法的迭代次数、学习率等超参数,再次对神经网络训练,得出最终的机场室内动作训练识别模型。
基于所述视频图像,利用所述CNN动作训练模型对在所述预设时长内的所述运动特征进行识别,生成所述动作集。
可选地,所述获取所述运动目标在预设时长内的场景集的步骤具体包括:
收集场景的第二图像样本;第二图像样本可以包括机场航站楼的检录口、登机口、更衣室、卫生间、电梯、扶梯、餐厅、机场出入口、行李转盘等等。基于所述第二图像样本,制作卷积神经网络训练所需的第二数据集;搭建CNN算法的深度神经网络,并设置相应参数;具体地,搭建CNN算法框架;根据第二数据集样本的类别总数设置CNN算法中与类别总数相关的参数;基于第二数据集对该神经网络进行训练,得出CNN场景训练模型;CNN场景训练模型的训练方式与动作训练模型的训练方式一致,仅仅是在参数上存在差异。因而不赘述CNN场景训练模型的训练过程。基于所述视频图像,利用所述CNN场景训练模型对所述视频图像进行识别,生成所述场景集。
可选地,所述动作集包括至少一个待分类的运动类型;所述基于所述动作集,得到所述运动目标在发生时段内的目标运动类型的步骤具体包括:设置预设运动类型,若所述待分类的运动类型属于所述预设运动类型,则标记所述待分类的运动类型为所述目标运动类型,并且记录所述待分类的运动类型的发生时段。也即具体实施过程中,运动目标在预设时长内可能够存在多个动作类型,比如奔跑、摘口罩或者行走。一般情况下,预设运动类型为危险动作,比如奔跑、摘口罩。当出现奔跑、摘口罩时,才会将奔跑、摘口罩对应的场景进行关联分析。
图3所示,本申请实施例还提出一种用于机场航站楼场景的安全分析装置,包括:
本申请还提出一种用于机场航站楼场景的安全分析装置,包括:
识别模块10:基于视频图像,得到运动目标;
第一获取模块20:获取所述运动目标在所述预设时长内的运动特征,并基于所述运动特征生成动作集;
第一分析模块30:基于所述动作集,得到所述运动目标在发生时段内的目标运动类型;
第二获取模块40:获取所述运动目标在预设时长内的场景集;
第二分析模块50,基于所述场景集和所述目标运动类型,得到目标场景;
第三分析模块60,基于所述目标场景和所述目标运动类型,得到所述目标运动类型在所述目标场景内的关联度。
可选地,所述第三分析模块60进一步适于:获取所述目标场景的对应的数据模型;基于所述数据模型和所述目标运动类型,得到所述目标特征在所述目标场景内的关联度。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述装置中模块/单元/子单元/组件的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在一些实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图4所示。该计算机设备包括通过系统总线连接的处理器、存储器和网络接口。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储图像采集设备的相关数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种用于机场航站楼场景的安全分析方法及系统。
在一些实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图4所示。该计算机设备包括通过系统总线连接的处理器、存储器、通信接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的通信接口用于与外部的终端进行有线或无线方式的通信,无线方式可通过WIFI、运营商网络、NFC(近场通信)或其他技术实现。该计算机程序被处理器执行时以实现用于机场航站楼场景的安全分析方法及系统。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图4中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一些实施例中,还提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述各方法实施例中的步骤。
在一些实施例中,提供了一种计算机可读存储介质,存储有计算机程序,该计算机程序被处理器执行时实现上述各方法实施例中的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-Only Memory,ROM)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic Random Access Memory,DRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
综上所述,本申请还提供的一种用于机场航站楼场景的安全分析方法,包括:
基于视频图像,得到运动目标;
获取所述运动目标在所述预设时长内的运动特征,并基于所述运动特征生成动作集;
基于所述动作集,得到所述运动目标在发生时段内的目标运动类型;
获取所述运动目标在预设时长内的场景集;
基于所述场景集和所述目标运动类型,得到目标场景;
基于所述目标场景和所述目标运动类型,得到所述目标运动类型在所述目标场景内的关联度。
在本申请所提供的实施例中,应该理解到,所揭露装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请提供的实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释,此外,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
最后应说明的是:以上所述实施例,仅为本申请的具体实施方式,用以说明本申请的技术方案,而非对其限制,本申请的保护范围并不局限于此,尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本申请实施例技术方案的精神和范围。都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (9)
1.一种用于机场航站楼场景的安全分析方法,其特征在于,包括如下步骤:
基于视频图像,得到运动目标;
获取所述运动目标在预设时长内的运动特征,并基于所述运动特征生成动作集;
基于所述动作集,得到所述运动目标在发生时段内的目标运动类型;获取所述运动目标在预设时长内的场景集;
基于所述场景集和所述目标运动类型,得到目标场景;
基于所述目标场景和所述目标运动类型,得到所述目标运动类型在所述目标场景内的关联度;
其中,所述基于视频图像,得到运动目标,包括:
将所述视频图像从RGB颜色空间转换到HSV颜色空间;
对所述视频图像的H分量进行直方图统计,得到颜色概率查找表;
将所述视频图像中每个像素的值用其颜色出现的概率进行替换,得到颜色概率分布图,所述颜色概率分布图采用算法寻优的公式计算:
式中,K表示漂移系数,z表示空间中的任意点位置,Sk表示的是训练集和验证集中的点到x的距离小于球半径h的数据点;
基于所述颜色概率分布图,使用camShift跟踪算法进行感兴趣的目标跟踪,在所述视频图像的视频序列的每一帧当中都运用meanShift,并将上一帧的meanShift结果作为下一帧的初始值,进行循环迭代,完成感兴趣的目标的跟踪;
其中,所述获取所述运动目标在预设时长内的运动特征,并基于所述运动特征生成动作集,包括:
收集动作的第一图像样本;
基于所述第一图像样本,制作卷积神经网络训练所需的第一数据集;搭建CNN算法的深度神经网络,并设置相应参数;
基于数据集对该神经网络进行训练,得出CNN动作训练模型;
基于所述视频图像,利用所述CNN动作训练模型对在所述预设时长内的所述运动特征进行识别,生成所述动作集;
其中,所述基于数据集对该神经网络进行训练,得出CNN动作训练模型,包括:
将第一数据集的图像输入至神经网络中,通过神经网络的卷积层提取特征图,利用如下式子:
其中,O为卷积神经单元输出,f为激活函数,b为偏置系数,Wpq为卷积核参数,p,q∈[1,k],Aij为神经元输入,i,j∈[1,k];
对卷积层提取出的特征进行池化操作,利用如下式子:
poolmax(RK)=maxae,e∈RK
其中,poolmax(RK)为池化层的输出,RK表示特征图被分成K个区域,ae表示每个区域上的像素值;
动作图像特征通过全连接层输出给低维隐含层,提取图像的低维特征,将特征输入分类器进行分类,利用如下式子:
Xg=[x]m×n,g=1,2,3…
其中,Xg是第一图像样本集,x是第一图像,m是当前设定的图像低维特征的维数n为每一类图像的数量;
将X作为一个整体,任意一类图像特征Xp与其补集Xq确定判别函数的系数,得到该数据集的判别矩阵:
其中,S=Sp+Sq,Sp、Sq为样本内离散度矩阵;
根据第一图像样本集Xp的均值mp及其补集的均值mq,得到第一图像样本集的总体均值:
其中,n=n1+n2,n1,n2分别为第一图像样本集Xp和Xq的特征数量;
取测试数据集的图像的低维特征yi进行判定:
其中,ω为测试样本所属的类别;
Z=(z1,z2...,zr)为判定矩阵,当ω>0时,图像属于第r类,zr加1;反之,zu加1,且r≠u,最后取Z的最大值来确定图像类别;
输出图像类别后,计算损失值,损失函数值计算如下:
式中,其中,L(W,b,X,P)为损失函数值;fW,b(Xg)为第g,g∈(1,m)个样本图像经过CNN的前向计算输出;W,b分别为CNN待训练的权值参数和偏置模型参数;Xg为第g个样本图像的图像数据;Pt为第t个样本图像的标签数据;其中X为样本图像的向量表示,P为其对应的标签数据向量;为正则化惩罚项;
进行反向传播,采用随机梯度下降原理,重复上述步骤,通过训练结果调整算法的迭代次数、学习率,再次对神经网络训练,得出最终的机场室内动作训练识别模型。
2.如权利要求1所述的方法,其特征在于,所述基于所述目标场景和所述目标运动类型,得到所述目标运动类型在所述目标场景内的关联度的步骤具体包括:
获取所述目标场景的对应的数据模型;
基于所述数据模型和所述目标运动类型,得到所述目标运动类型在所述目标场景内的关联度。
3.如权利要求2所述的方法,其特征在于,在所述获取所述目标场景的对应的数据模型的步骤之前,所述方法还包括:
收集所述目标场景下的动作分析集合,并划分为训练集和验证集;
对划分完成的训练集和验证集中的视频数据进行数据增强处理,并对视频数据进行编码,得到模型视频;
从所述模型视频中检测出感兴趣的模型运动目标,并对感兴趣的运动目标进行模型的构建,使用训练集进行训练并利用自适应矩估计梯度进行优化网络参数权重;
使用验证集进行模型运动目标的模型的准确率预测,以得到数据模型。
4.如权利要求1所述的方法,其特征在于,所述获取所述运动目标在预设时长内的场景集的步骤具体包括:
收集场景的第二图像样本;
基于所述第二图像样本,制作卷积神经网络训练所需的第二数据集;搭建CNN算法的深度神经网络,并设置相应参数;
基于数据集对该神经网络进行训练,得出CNN场景训练模型;
基于所述视频图像,利用所述CNN场景训练模型对所述视频图像进行识别,生成所述场景集。
5.如权利要求1所述的方法,其特征在于,所述动作集包括至少一个待分类的运动类型;
所述基于所述动作集,得到所述运动目标在发生时段内的目标运动类型的步骤具体包括:
设置预设运动类型,若所述待分类的运动类型属于所述预设运动类型,则标记所述待分类的运动类型为所述目标运动类型,并且记录所述待分类的运动类型的发生时段。
6.一种用于机场航站楼场景的安全分析装置,其特征在于,包括:识别模块:基于视频图像,得到运动目标;
第一获取模块:获取所述运动目标在预设时长内的运动特征,并基于所述运动特征生成动作集;
第一分析模块:基于所述动作集,得到所述运动目标在发生时段内的目标运动类型;
第二获取模块:获取所述运动目标在所述预设时长内的场景集;
第二分析模块,基于所述场景集和所述目标运动类型,得到目标场景;第三分析模块,基于所述目标场景和所述目标运动类型,得到所述目标运动类型在所述目标场景内的关联度;
其中,所述识别模块还具体用于:
将所述视频图像从RGB颜色空间转换到HSV颜色空间;
对所述视频图像的H分量进行直方图统计,得到颜色概率查找表;
将所述视频图像中每个像素的值用其颜色出现的概率进行替换,得到颜色概率分布图,所述颜色概率分布图采用算法寻优的公式计算:
式中,K表示漂移系数,z表示空间中的任意点位置,Sk表示的是训练集和验证集中的点到x的距离小于球半径h的数据点;
基于所述颜色概率分布图,使用camShift跟踪算法进行感兴趣的目标跟踪,在所述视频图像的视频序列的每一帧当中都运用meanShift,并将上一帧的meanShift结果作为下一帧的初始值,进行循环迭代,完成感兴趣的目标的跟踪;
其中,所述第一获取模块还具体用于:
收集动作的第一图像样本;
基于所述第一图像样本,制作卷积神经网络训练所需的第一数据集;搭建CNN算法的深度神经网络,并设置相应参数;
基于数据集对该神经网络进行训练,得出CNN动作训练模型;
基于所述视频图像,利用所述CNN动作训练模型对在所述预设时长内的所述运动特征进行识别,生成所述动作集;
其中,所述第一获取模块还具体用于:
所述基于数据集对该神经网络进行训练,得出CNN动作训练模型,包括:将第一数据集的图像输入至神经网络中,通过神经网络的卷积层提取特征图,利用如下式子:
其中,O为卷积神经单元输出,f为激活函数,b为偏置系数,Wpq为卷积核参数,p,q∈[1,k],Aij为神经元输入i,j∈[1,k];
对卷积层提取出的特征进行池化操作,利用如下式子:
poolmax(RK)=maxae,e∈RK
其中poolmax(RK)为池化层的输出,RK表示特征图被分成k个区域,ae表示每个区域上的像素值;
动作图像特征通过全连接层输出给低维隐含层,提取图像的低维特征,将特征输入分类器进行分类,利用如下式子:
Xi=[x]m×n,i=1,2,3…
其中,Xi是第一图像样本集,x是第一图像,m是当前设定的图像低维特征的维数n为每一类图像的数量;
将X作为一个整体,任意一类图像特征Xi与其补集Xj确定判别函数的系数,得到该数据集的判别矩阵:
其中,S=Sp+Sq,Sp、Sq为样本内离散度矩阵;
根据第一图像样本集Xi的均值mi及其补集的均值mj,得到第一图像样本集的总体均值:
其中,n=n1+n2,n1,n2分别为第一图像样本集Xi和Xj的特征
数量;取测试数据集的图像的低维特征yi进行判定:
其中,ω为测试样本所属的类别;
Z=(z1,z2...,zr)为判定矩阵,当ω>0时,图像属于第r类,zr加1;反之,zu加1,且r≠u,最后取Z的最大值来确定图像类别;
输出图像类别后,计算损失值,损失函数值计算如下:
式中,其中,L(W,b,X,P)为损失函数值;fW,b(Xg)为第g,g∈(1,m)个样本图像经过CNN的前向计算输出;W,b分别为CNN待训练的权值参数和偏置模型参数;Xg为第g个样本图像的图像数据;Pt为第t个样本图像的标签数据;其中X为样本图像的向量表示,P为其对应的标签数据向量;为正则化惩罚项;
进行反向传播,采用随机梯度下降原理,重复上述步骤,通过训练结果调整算法的迭代次数、学习率等超参数,再次对神经网络训练,得出最终的机场室内动作训练识别模型。
7.如权利要求6所述的装置,其特征在于,所述第三分析模块进一步适于:获取所述目标场景的对应的数据模型;
基于所述数据模型和所述目标运动类型,得到所述目标运动类型在所述目标场景内的关联度。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被执行时实现如权利要求1~5中任意一项所述方法的步骤。
9.一种计算机设备,包括处理器、存储器和存储于所述存储器上的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1-5中任意一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210802751.XA CN115035395B (zh) | 2022-07-07 | 2022-07-07 | 用于机场航站楼场景的安全分析装置方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210802751.XA CN115035395B (zh) | 2022-07-07 | 2022-07-07 | 用于机场航站楼场景的安全分析装置方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115035395A CN115035395A (zh) | 2022-09-09 |
CN115035395B true CN115035395B (zh) | 2023-11-10 |
Family
ID=83128541
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210802751.XA Active CN115035395B (zh) | 2022-07-07 | 2022-07-07 | 用于机场航站楼场景的安全分析装置方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115035395B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110084198A (zh) * | 2019-04-28 | 2019-08-02 | 哈尔滨工程大学 | 基于Fisher特征分析的CNN机场室内场景识别方法 |
CN110084201A (zh) * | 2019-04-29 | 2019-08-02 | 福州大学 | 一种监控场景下基于特定目标跟踪的卷积神经网络的人体动作识别方法 |
CN110738095A (zh) * | 2019-08-23 | 2020-01-31 | 珠海格力电器股份有限公司 | 一种行为分析方法及装置 |
CN112200077A (zh) * | 2020-04-15 | 2021-01-08 | 陈建 | 基于智慧交通的人工智能图像处理方法及系统 |
CN112733584A (zh) * | 2019-10-29 | 2021-04-30 | 国网山西省电力公司忻州供电公司 | 通信光缆的智能告警方法和装置 |
WO2021098616A1 (zh) * | 2019-11-21 | 2021-05-27 | 中国科学院深圳先进技术研究院 | 运动姿态识别方法、运动姿态识别装置、终端设备及介质 |
CN114241401A (zh) * | 2021-11-02 | 2022-03-25 | 中国铁道科学研究院集团有限公司电子计算技术研究所 | 异常判定方法、装置、设备、介质及产品 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8374388B2 (en) * | 2007-12-28 | 2013-02-12 | Rustam Stolkin | Real-time tracking of non-rigid objects in image sequences for which the background may be changing |
-
2022
- 2022-07-07 CN CN202210802751.XA patent/CN115035395B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110084198A (zh) * | 2019-04-28 | 2019-08-02 | 哈尔滨工程大学 | 基于Fisher特征分析的CNN机场室内场景识别方法 |
CN110084201A (zh) * | 2019-04-29 | 2019-08-02 | 福州大学 | 一种监控场景下基于特定目标跟踪的卷积神经网络的人体动作识别方法 |
CN110738095A (zh) * | 2019-08-23 | 2020-01-31 | 珠海格力电器股份有限公司 | 一种行为分析方法及装置 |
CN112733584A (zh) * | 2019-10-29 | 2021-04-30 | 国网山西省电力公司忻州供电公司 | 通信光缆的智能告警方法和装置 |
WO2021098616A1 (zh) * | 2019-11-21 | 2021-05-27 | 中国科学院深圳先进技术研究院 | 运动姿态识别方法、运动姿态识别装置、终端设备及介质 |
CN112200077A (zh) * | 2020-04-15 | 2021-01-08 | 陈建 | 基于智慧交通的人工智能图像处理方法及系统 |
CN114241401A (zh) * | 2021-11-02 | 2022-03-25 | 中国铁道科学研究院集团有限公司电子计算技术研究所 | 异常判定方法、装置、设备、介质及产品 |
Non-Patent Citations (2)
Title |
---|
Recognition Method of Airport Typical Motion Behavior Based on Infrared Image;Xiaozhou Wu等;《2020 IEEE 2nd International Conference on Civil Aviation Safety and Information Technology (ICCASIT)》;第897-903页 * |
航站楼出发厅突发事件旅客应急疏散研究;周杰松;《中国优秀硕士学位论文全文数据库工程科技Ⅱ辑》(第08期);第C031-138页 * |
Also Published As
Publication number | Publication date |
---|---|
CN115035395A (zh) | 2022-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021043168A1 (zh) | 行人再识别网络的训练方法、行人再识别方法和装置 | |
US11238300B2 (en) | Depth-based object re-identification | |
JP2022505775A (ja) | 画像分類モデルの訓練方法、画像処理方法及びその装置、並びにコンピュータプログラム | |
US20220148291A1 (en) | Image classification method and apparatus, and image classification model training method and apparatus | |
CN108229673B (zh) | 卷积神经网络的处理方法、装置和电子设备 | |
US20140143183A1 (en) | Hierarchical model for human activity recognition | |
CN112949572A (zh) | 基于Slim-YOLOv3的口罩佩戴情况检测方法 | |
CN111368672A (zh) | 一种用于遗传病面部识别模型的构建方法及装置 | |
KR20220044828A (ko) | 얼굴 속성 인식 방법, 장치, 전자 기기 및 저장 매체 | |
CN113283368B (zh) | 一种模型训练方法、人脸属性分析方法、装置及介质 | |
CN113034514A (zh) | 天空区域分割方法、装置、计算机设备和存储介质 | |
CN111694954B (zh) | 图像分类方法、装置和电子设备 | |
Mano et al. | Method of multi‐region tumour segmentation in brain MRI images using grid‐based segmentation and weighted bee swarm optimisation | |
Sheikh et al. | RRFMDS: Rapid real-time face mask detection system for effective COVID-19 monitoring | |
CN113065593A (zh) | 模型训练方法、装置、计算机设备和存储介质 | |
Wang et al. | Distortion recognition for image quality assessment with convolutional neural network | |
Sun et al. | Perceptual multi-channel visual feature fusion for scene categorization | |
Rao et al. | A multi-view human gait recognition using hybrid whale and gray wolf optimization algorithm with a random forest classifier | |
CN115909336A (zh) | 文本识别方法、装置、计算机设备和计算机可读存储介质 | |
CN115035395B (zh) | 用于机场航站楼场景的安全分析装置方法及装置 | |
CN115115552B (zh) | 图像矫正模型训练及图像矫正方法、装置和计算机设备 | |
CN116434010A (zh) | 一种多视图的行人属性识别方法 | |
Singh et al. | Smart agriculture framework for automated detection of leaf blast disease in paddy crop using colour slicing and GLCM features based random forest approach | |
CN111104911A (zh) | 一种基于大数据训练的行人重识别方法及装置 | |
Gowda | Age estimation by LS-SVM regression on facial images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |