CN116309692B - 基于深度学习用于机场安检人包绑定的方法、装置及介质 - Google Patents

基于深度学习用于机场安检人包绑定的方法、装置及介质 Download PDF

Info

Publication number
CN116309692B
CN116309692B CN202211096548.1A CN202211096548A CN116309692B CN 116309692 B CN116309692 B CN 116309692B CN 202211096548 A CN202211096548 A CN 202211096548A CN 116309692 B CN116309692 B CN 116309692B
Authority
CN
China
Prior art keywords
user
tracking track
feature
tracking
track
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211096548.1A
Other languages
English (en)
Other versions
CN116309692A (zh
Inventor
李斌
薛钟松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Engineering Construction Headquarters Of Guangdong Airport Management Group Co ltd
Original Assignee
Engineering Construction Headquarters Of Guangdong Airport Management Group Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Engineering Construction Headquarters Of Guangdong Airport Management Group Co ltd filed Critical Engineering Construction Headquarters Of Guangdong Airport Management Group Co ltd
Priority to CN202211096548.1A priority Critical patent/CN116309692B/zh
Publication of CN116309692A publication Critical patent/CN116309692A/zh
Application granted granted Critical
Publication of CN116309692B publication Critical patent/CN116309692B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于深度学习用于机场安检人包绑定的方法、装置及介质,通过获取用户放置行李时的实时监控视频,提取安检区域的有效图像;根据预先基于深度学习构建的检测模型组提取所述有效图像中的用户的身份特征和行李的物品特征,将所述身份特征和所述物品特征进行绑定并存储;根据所述检测模型组对行李和用户进行实时跟踪,产生行李和用户的实时的跟踪轨迹;当判定跟踪轨迹的用户和行李的发生重合时,提取跟踪轨迹中用户的验证特征;将所述验证特征和所述身份特征进行对比,输出判定结果。对安检过程中人与行李进行有效的绑定,提高了安检的安全保障能力。

Description

基于深度学习用于机场安检人包绑定的方法、装置及介质
技术领域
本发明涉及计算机图像处理技术领域,尤其涉及基于深度学习用于机场安检人包绑定的方法、装置及介质。
背景技术
现代快节奏的工作和生活中,人们需要通过公共交通系统奔波于各地,需要通过安检保证公共交通的安全。在安检过程中由于各种原因难免会漏拿或误拿行李,个人的行李物品存在一定的安全风险,因此在安检时的人包绑定系统对于个人行李物品的安全非常重要。
现有的物品及行李看管系统,多使用射频电子标签,往往安装,使用和维护都比较复杂,并且还有供电不足,通信距离有限等问题亟待解决;电子标签脱落或被拆除后,报警作用失效,即使报警信号响起来,仍然无法确认物品的丢失位置,因此亟需一种行之有效的安检人包绑定方案。
发明内容
为解决上述技术问题,本发明提供基于深度学习用于机场安检人包绑定的方法、装置及介质,对安检过程中人与行李进行有效的绑定,提高了安检的安全保障能力。
本发明实施例提供一种基于深度学习用于机场安检人包绑定的方法,所述方法包括:
获取用户放置行李时的实时监控视频,提取安检区域的有效图像;
根据预先基于深度学习构建的检测模型组提取所述有效图像中的用户的身份特征和行李的物品特征,将所述身份特征和所述物品特征进行绑定并存储;
根据所述检测模型组对行李和用户进行实时跟踪,产生行李和用户的实时的跟踪轨迹;
当判定跟踪轨迹的用户和行李的发生重合时,提取跟踪轨迹中用户的验证特征;
将所述验证特征和所述身份特征进行对比,输出判定结果。
优选地,所述检测模型组包括基于Yolo算法的one-stage检测模型和基于多任务卷积神经网络的特征提取网络模型。
进一步地,所述根据预先基于深度学习构建的检测模型组提取所述有效图像中的用户的身份特征和行李的物品特征,将所述身份特征和所述物品特征进行绑定并存储,具体包括:
通过所述one-stage检测模型确定待识别目标在所述有效图像中的位置和对应的宽高信息以及类别信息,再通过所述特征提取网络模型对所述待识别目标进行有效的特征编码,确定其中的用户的身份信息和行李的物品特征;所述待识别目标包括所述用户和行李;
通过所述特征提取网络模型对分类的身份信息进行人脸检测,得到人脸区域信息;
对人脸区域进行特征提取,输出128维的人脸特征向量;
将输出的128维的人脸特征向量作为所述身份特征。
作为一种优选方案,所述根据所述检测模型组对行李和用户进行实时跟踪,产生行李和用户的实时的跟踪轨迹,具体包括:
根据当前的目标框位置,利用卡尔曼滤波算法预测出下一帧的目标框的预测位置,并计算下一帧的有效图像的目标检测的目标框和卡尔曼滤波算法预测出的目标框之间的马氏距离d1,目标框中包括行李的位置、用户的位置、用户的身份特征;
计算卡尔曼滤波算法预测的目标框的特征向量和利用所述检测模型组提取出下一帧的有效图像的特征向量之间的余弦距离d2
将计算得到的马氏距离d1和计算得到的余弦距离d2按照设定的权重进行融合计算,得到度量距离dm
利用匈牙利算法进行对所述度量距离进行判断;
当通过匈牙利算法判定到预测的目标框和有效图像的跟踪轨迹匹配时,根据预测的目标框更新跟踪轨迹,并将跟踪轨迹的有效值加1;当通过匈牙利算法判定到预测的目标框和有效图像的跟踪轨迹不匹配时,跟踪轨迹的遗忘值加1;每个跟踪轨迹初始的计数值和遗忘值均为0;
对实时的跟踪轨迹进行判断;
当实时的跟踪轨迹的计数值小于第一设定值时,判定跟踪轨迹待定,重复提提取有效图像,并计算提取的有效图像中目标框的度量距离,根据计算的度量距离更新跟踪轨迹的计数值或遗忘值,对实时的跟踪轨迹进行判断;
当实时的跟踪轨迹的遗忘值不小于第二设定值时,判定轨迹跟踪失败,删除轨迹,重复提提取有效图像,并计算提取的有效图像中目标框的度量距离,根据计算的度量距离更新跟踪轨迹的计数值或遗忘值,对实时的跟踪轨迹进行判断;
当实时的跟踪轨迹的计数值不小于所述第一设定值时,判定跟踪轨迹生效,判定跟踪轨迹的用户和行李是否发生重合。
优选地,所述当判定跟踪轨迹的用户和行李的发生重合时,提取跟踪轨迹中用户的验证特征,具体包括:
根据跟踪轨迹中提取出的用户的特征的目标框和行李的特征的目标框,计算两个目标框的交并比;
当计算的交并比不小于预设的交并阈值时,判定跟踪轨迹的用户和行李的发生重合,用户拿取行李,根据所述检测模型组提取出此时所述跟踪轨迹中用户的验证特征。
作为一种优选方案,所述将所述验证特征和所述身份特征进行对比,输出绑定判定结果,具体包括:
判断检测出的验证特征和所述身份特征是否相同;
当检测出的验证特征和所述身份特征相同时,判定用户拿取的行李正确;
当检测出的验证特征和所述身份特征不相同时,则判定用户拿取的行李不正确。
作为上述方案的改进,所述方法还包括:
当检测出的验证特征和所述身份特征相同时,删除跟踪轨迹;
当检测出的验证特征和所述身份特征不相同时,输出报警提示;
所述报警提示包括所述验证特征和所述物品特征。
本发明实施例还提供一种基于深度学习用于机场安检人包绑定的装置,所述装置包括:
图像获取模块,用于获取用户放置行李时的实时监控视频,提取安检区域的有效图像;
特征绑定模块,用于根据预先基于深度学习构建的检测模型组提取所述有效图像中的用户的身份特征和行李的物品特征,将所述身份特征和所述物品特征进行绑定并存储;
轨迹跟踪模块,用于根据所述检测模型组对行李和用户进行实时跟踪,产生行李和用户的实时的跟踪轨迹;
特征验证模块,用于当判定跟踪轨迹的用户和行李的发生重合时,提取跟踪轨迹中用户的验证特征;
结果输出模块,用于将所述验证特征和所述身份特征进行对比,输出判定结果。
优选地,所述检测模型组包括基于Yolo算法的one-stage检测模型和基于多任务卷积神经网络的特征提取网络模型。
进一步地,所述特征绑定模块具体用于:
通过所述one-stage检测模型确定待识别目标在所述有效图像中的位置和对应的宽高信息以及类别信息,再通过所述特征提取网络模型对所述待识别目标进行有效的特征编码,确定其中的用户的身份信息和行李的物品特征;所述待识别目标包括所述用户和行李;
通过所述特征提取网络模型对分类的身份信息进行人脸检测,得到人脸区域信息;
对人脸区域进行特征提取,输出128维的人脸特征向量;
将输出的128维的人脸特征向量作为所述身份特征。
优选地,所述轨迹跟踪模块具体用于:
根据当前的目标框位置,利用卡尔曼滤波算法预测出下一帧的目标框的预测位置,并计算下一帧的有效图像的目标检测的目标框和卡尔曼滤波算法预测出的目标框之间的马氏距离d1,目标框中包括行李的位置、用户的位置、用户的身份特征;
计算卡尔曼滤波算法预测的目标框的特征向量和利用所述检测模型组提取出下一帧的有效图像的特征向量之间的余弦距离d2
将计算得到的马氏距离d1和计算得到的余弦距离d2按照设定的权重进行融合计算,得到度量距离dm
利用匈牙利算法进行对所述度量距离进行判断;
当通过匈牙利算法判定到预测的目标框和有效图像的跟踪轨迹匹配时,根据预测的目标框更新跟踪轨迹,并将跟踪轨迹的有效值加1;当通过匈牙利算法判定到预测的目标框和有效图像的跟踪轨迹不匹配时,跟踪轨迹的遗忘值加1;每个跟踪轨迹初始的计数值和遗忘值均为0;
对实时的跟踪轨迹进行判断;
当实时的跟踪轨迹的计数值小于第一设定值时,判定跟踪轨迹待定,重复提提取有效图像,并计算提取的有效图像中目标框的度量距离,根据计算的度量距离更新跟踪轨迹的计数值或遗忘值,对实时的跟踪轨迹进行判断;
当实时的跟踪轨迹的遗忘值不小于第二设定值时,判定轨迹跟踪失败,删除轨迹,重复提提取有效图像,并计算提取的有效图像中目标框的度量距离,根据计算的度量距离更新跟踪轨迹的计数值或遗忘值,对实时的跟踪轨迹进行判断;
当实时的跟踪轨迹的计数值不小于所述第一设定值时,判定跟踪轨迹生效,判定跟踪轨迹的用户和行李是否发生重合。
优选地,所述特征验证模块具体用于:
根据跟踪轨迹中提取出的用户的特征的目标框和行李的特征的目标框,计算两个目标框的交并比;
当计算的交并比不小于预设的交并阈值时,判定跟踪轨迹的用户和行李的发生重合,用户拿取行李,根据所述检测模型组提取出此时所述跟踪轨迹中用户的验证特征。
优选地,所述结果输出模块具体用于:
判断检测出的验证特征和所述身份特征是否相同;
当检测出的验证特征和所述身份特征相同时,判定用户拿取的行李正确;
当检测出的验证特征和所述身份特征不相同时,则判定用户拿取的行李不正确。
进一步地,所述结果输出模块具体还用于:
当检测出的验证特征和所述身份特征相同时,删除跟踪轨迹;
当检测出的验证特征和所述身份特征不相同时,输出报警提示;
所述报警提示包括所述验证特征和所述物品特征。
本发明另一实施例提供一种计算机可读存储介质,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行上述发明实施例所述的基于深度学习用于机场安检人包绑定的方法。
本发明另一实施例提供了一种基于深度学习用于机场安检人包绑定的装置,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器执行所述计算机程序时实现上述发明实施例所述的基于深度学习用于机场安检人包绑定的方法。
与现有技术相比,本发明提供的基于深度学习用于机场安检人包绑定的方法、装置及介质,通过获取用户放置行李时的实时监控视频,提取安检区域的有效图像;根据预先基于深度学习构建的检测模型组提取所述有效图像中的用户的身份特征和行李的物品特征,将所述身份特征和所述物品特征进行绑定并存储;根据所述检测模型组对行李和用户进行实时跟踪,产生行李和用户的实时的跟踪轨迹;当判定跟踪轨迹的用户和行李的发生重合时,提取跟踪轨迹中用户的验证特征;将所述验证特征和所述身份特征进行对比,输出判定结果。对安检过程中人与行李进行有效的绑定,提高了安检的安全保障能力。
附图说明
图1是本发明实施例提供的一种基于深度学习用于机场安检人包绑定的方法的流程示意图;
图2是本发明实施例提供的一种基于深度学习用于机场安检人包绑定的装置的结构示意图;
图3是本发明另一实施例提供的一种基于深度学习用于机场安检人包绑定的装置的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供一种基于深度学习用于机场安检人包绑定的方法,参见图1,是本发明实施例提供的一种基于深度学习用于机场安检人包绑定的方法的流程示意图,所述方法步骤S1~S5:
S1,获取用户放置行李时的实时监控视频,提取安检区域的有效图像;
S2,根据预先基于深度学习构建的检测模型组提取所述有效图像中的用户的身份特征和行李的物品特征,将所述身份特征和所述物品特征进行绑定并存储;
S3,根据所述检测模型组对行李和用户进行实时跟踪,产生行李和用户的实时的跟踪轨迹;
S4,当判定跟踪轨迹的用户和行李的发生重合时,提取跟踪轨迹中用户的验证特征;
S5,将所述验证特征和所述身份特征进行对比,输出绑定判定结果。
在本实施例具体实施时,采用基于深度学习的物品及用户的跟踪关联方法,包括以下步骤:
预先创建基于深度学习的预先基于深度学习构建的检测模型组,用于在安检时进行用户和行李的特征检测;
进入安检前阶段,用户放置物品时,通过配置在安全通道口指定位置的监控设备,获取用户放置行李的实时监控视频,从实时监控视频中提取安检区域内的有效图像;
在具体安检时,通过配置在安全通道口指定位置的监控设备,获取用户放置行李的实时监控视频,由于安检通道的特殊性,不同用户进行安检放置物品时,需要排成队列依次放置物品,布置在安检装置正前方,正对用户的监控设备获取的实时监控视频中仅能识别出的单一用户和对应的行李;
因此,根据预先基于深度学习构建的检测模型组提取所述有效图像中的用户的身份特征和行李的物品特征,将所述身份特征和所述物品特征进行绑定并存储;
识别出用户的身份特征和物品特征后,用户和行李将会分开,但是布置在不同安检区域的多个监控设备能够分别检测用户和行李的位置,利用检测模型对有效图像进行物体检测,得到乘客和行李在图像中的坐标位置和图像信息;
根据实时空间重构,根据所述检测模型组对行李和用户进行实时跟踪,确定在同一空间模型下同一时刻用户和行李的跟踪坐标值,产生行李和用户的实时的跟踪轨迹;
进入安检后阶段时,根据对用户和行李的跟踪轨迹的检测,判断用户和行李在同一时刻是否发生重合,当跟踪轨迹第一次出现并两者重合时,判定用户此时取出了对应的行李;此时需要提取跟踪轨迹中用户的验证特征,所述验证特征表征用户的身份信息;
根据所述验证特征和预先绑定并存储的身份特征进行对比,判定行李和用户是否对应,确定判定结果。
通过对安检过程中用户和行李的绑定,并通过监测在案件过程中两者的跟踪轨迹,当用户拿取行李时,进行身份判断,判定用户是否成功拿取行李。提高安检过程中行李的安全性,避免错拿行李。
在本发明提供的又一实施例中,所述检测模型组包括基于Yolo算法的one-stage检测模型和基于多任务卷积神经网络的特征提取网络模型。
在本实施例具体实施时,预先建立的检测模型组包括基于Yolo算法的one-stage检测模型和基于多任务卷积神经网络的特征提取网络模型。
基于Yolo算法的one-stage检测模型用于进行目标检测,包括对有效图像中的有效信息进行提取,有效特征包括用户特征和物品特征;
物品特征基于多任务卷积神经网络的特征提取网络模型用于对用户的身份特征进行分析,确定表征用户特征的关键的身份特征。
通过预设的检测模型组能够准确、快速的提取对应特征,用户进行特征绑定,并能够进行特征跟踪。
在本发明提供的又一实施例中,所述根据预先基于深度学习构建的检测模型组提取所述有效图像中的用户的身份特征和行李的物品特征,将所述身份特征和所述物品特征进行绑定并存储,具体包括:
通过所述one-stage检测模型确定待识别目标在所述有效图像中的位置和对应的宽高信息以及类别信息,再通过所述特征提取网络模型对所述待识别目标进行有效的特征编码,确定其中的用户的身份信息和行李的物品特征;所述待识别目标包括所述用户和行李;
通过所述特征提取网络模型对分类的身份信息进行人脸检测,得到人脸区域信息;
对人脸区域进行特征提取,输出128维的人脸特征向量;
将输出的128维的人脸特征向量作为所述身份特征。
在本实施例具体实施时,在对有效图片进行分析检测时,具体过程包括:
首先把有效图片输入到one-stage检测模型的CSPDarknet主干网络中,经过neck层提取特征,最后通过head层输出提取特征,提取的特征包括图像信息中的用户的特征和物品特征,以及对应的坐标位置;
对head层输出的同期特征进行解码,确定提取特征中的目标类别,确定其中的用户的身份信息和行李的物品特征、及确定的特征在所述有效图像中的目标框的位置和对应的宽高信息;
由于确定出的身份信息可能包括用户的身体姿态特征,包括用户的身高以及姿态,或者用户的人脸特征,因此在进行具体身份特征识别时,还需要采用人脸识别模型对人脸进行提取;
具体过程以进行人脸特征提取为例说明:
通过所述特征提取网络模型对分类的身份特征进行人脸检测,得到人脸区域信息;
对人脸区域进行特征提取,输出128维的人脸特征向量;
将输出的128维的人脸特征向量作为所述身份特征;
需要说明的是,当采用姿态特征作为身份特征时,采用所述特征提取网络模型对整个身体姿态进行检测识别,具体执行过程类似,在此不作赘述。
在本发明提供的又一实施例中,所述步骤S3具体包括:
根据当前的目标框位置,利用卡尔曼滤波算法预测出下一帧的目标框的预测位置,并计算下一帧的有效图像的目标检测的目标框和卡尔曼滤波算法预测出的目标框之间的马氏距离d1,目标框中包括行李的位置、用户的位置、用户的身份特征。
计算卡尔曼滤波算法预测的目标框的特征向量和利用所述检测模型组提取出下一帧的有效图像的特征向量之间的余弦距离d2
将计算得到的马氏距离d1和计算得到的余弦距离d2按照设定的权重进行融合计算,得到度量距离dm
利用匈牙利算法进行对所述度量距离进行判断;
当通过匈牙利算法判定到预测的目标框和有效图像的跟踪轨迹匹配时,根据预测的目标框更新跟踪轨迹,并将跟踪轨迹的有效值加1;当通过匈牙利算法判定到预测的目标框和有效图像的跟踪轨迹不匹配时,跟踪轨迹的遗忘值加1;每个跟踪轨迹初始的计数值和遗忘值均为0;
对实时的跟踪轨迹进行判断;
当实时的跟踪轨迹的计数值小于第一设定值时,判定跟踪轨迹待定,重复提提取有效图像,并计算提取的有效图像中目标框的度量距离,根据计算的度量距离更新跟踪轨迹的计数值或遗忘值,对实时的跟踪轨迹进行判断;
当实时的跟踪轨迹的遗忘值不小于第二设定值时,判定轨迹跟踪失败,删除轨迹,重复提提取有效图像,并计算提取的有效图像中目标框的度量距离,根据计算的度量距离更新跟踪轨迹的计数值或遗忘值,对实时的跟踪轨迹进行判断;
当实时的跟踪轨迹的计数值不小于所述第一设定值时,判定跟踪轨迹生效,判定跟踪轨迹的用户和行李是否发生重合。
在本实施例具体实施时,根据实时获取的有效图像中检测模型组提取的当前的目标框的位置,利用卡尔曼滤波算法预测出下一帧的目标框的预测位置,并计算下一帧的有效图像的目标检测的目标框和卡尔曼滤波算法预测出的目标框之间的马氏距离d1,目标框中包括行李的位置、用户的位置、用户的身份特征;
其中,马氏距离∑是多维随机变量的协方差矩阵,x,y分别为有效图像的目标检测的目标框的样本和卡尔曼滤波算法预测出的目标框的样本;
其中,卡曼滤波算法在具体实施时,卡尔曼滤波公式-状态方程为:
Xk=AXk-1+BUk-1+Wk-1
Zk=HXk+Vk
卡尔曼滤波公式-预测方程为:
卡尔曼滤波公式-更新方程为:
K_k=(P_kH^T)/(HP_kH^T+R);
其中,Xk为第k时刻的状态,此处表示目标框顶点的坐标值为估算值,Uk为第k时刻的输入,同Xk,为当前的状态输入;Zk为第k时刻的观测值;为第k时的状态估计值,形式同Xk;/>为第k时刻的状态误差协方差矩阵;A为状态转移矩阵,B为控制输入矩阵,H为状态观测矩阵,Kk为卡尔曼增益矩阵,Wk/Vk为噪声值。
对于状态估计算法而言,我们可以获取状态量的三个值:状态预测值(Xk-1)、最优估计值以及真实值(Xk),卡尔曼滤波的原理就是利用卡尔曼增益来修正状态预测值,使其逼近真实值。
通过马氏距离衡量通过图像中检测框位置之间的相关性,当预测的检测框位置和实际的检测框的位置距离较大时,判定跟踪失效;
计算卡尔曼滤波算法预测的目标框的特征向量和利用所述检测模型组提取出下一帧的有效图像的特征向量之间的余弦距离d2
d2=cos(a,b)=(a·b)/(|a|·|b|);
a,b分别为有效图像的目标检测的目标框的样本和卡尔曼滤波算法预测出的目标框的样本;
马氏距离d1与余弦距离d2分别代表预测框的位置距离与特征距离,将计算得到的马氏距离d1和计算得到的余弦距离d2按照设定的权重进行融合计算,得到度量距离dm,dm=λd1+(1-λ)d2,其中λ为设定的权重,优选地,λ=0.1。
利用匈牙利算法进行对所述度量距离进行判断;
当通过匈牙利算法判定到预测的目标框和有效图像的跟踪轨迹匹配时,根据预测的目标框更新跟踪轨迹,并将跟踪轨迹的有效值加1;当通过匈牙利算法判定到预测的目标框和有效图像的跟踪轨迹不匹配时,跟踪轨迹的遗忘值加1;每个跟踪轨迹初始的计数值和遗忘值均为0;
对跟踪轨迹进行去噪,对实时的跟踪轨迹进行判断;
只有度量距离在预设范围内饰,判定跟踪成功,计数值加1,否则,进行遗忘值更新。
实时的跟踪轨迹的计数值小于第一设定值时,判定跟踪轨迹待定,重复提提取有效图像,并计算提取的有效图像中目标框的度量距离,根据计算的度量距离更新跟踪轨迹的计数值或遗忘值,对实时的跟踪轨迹进行判断;
当实时的跟踪轨迹的遗忘值不小于第二设定值时,判定轨迹跟踪失败,删除轨迹,重复提提取有效图像,并计算提取的有效图像中目标框的度量距离,根据计算的度量距离更新跟踪轨迹的计数值或遗忘值,对实时的跟踪轨迹进行判断;
第二设定值设置为3,当遗忘值不小于3时,表明跟踪过程中有三次跟踪位置异常,判定跟踪失效,删除轨迹;
当实时的跟踪轨迹的计数值不小于所述第一设定值时,判定跟踪轨迹生效,判定跟踪轨迹的用户和行李是否发生重合。
所述第一设定值设置为3,只有连续3次完整轨迹跟踪时,跟踪轨迹才能生效,否则需要循环执行跟踪轨迹的过程。
通过跟踪过程的遗忘值和计数值设定,能够对跟踪过程的精度进行控制,采用了级联的跟踪方法,保证了跟踪过程中出现漏检或误检,跟踪轨迹的仍然能很好的对齐,提高安检物品的安全性能。
在本发明提供的又一实施例中,所述步骤S4具体包括:
根据跟踪轨迹中提取出的用户的特征的目标框和行李的特征的目标框,计算两个目标框的交并比;
当计算的交并比不小于预设的交并阈值时,判定跟踪轨迹的用户和行李的发生重合,用户拿取行李,根据所述检测模型组提取出此时所述跟踪轨迹中用户的验证特征。
在本实施例具体实施时,用户和行李是否发生重合的判定具体包括:
根据跟踪轨迹中提取出的用户的特征的目标框和行李的特征的目标框,计算两个目标框的交并比;
交并比IOU的计算公式为:其中,A、B分别是用户与行李的目标框;
判断计算的交并比与预设的交并阈值的大小,确定用户是否拿取行李;
当计算的交并比不小于0.7时,判定跟踪轨迹的用户和行李的发生重合,用户拿取行李;
需要说明的是,预设的交并阈值设定为0.7,用于进行用户和行李的重合判定,当交并比不小于0.7时,判定用户拿取行李,交并阈值在其他实施例中可设置为其他值。
用户拿取行李后,跟据所述检测模型组提取出此时所述跟踪轨迹中用户的验证特征。
通过交并比来判定用户拿取行李过程,能够准确无误识别拿取行为。
在本发明提供的又一实施例中,所述步骤S5具体包括:
判断检测出的验证特征和所述身份特征是否相同;
当检测出的验证特征和所述身份特征相同时,判定用户拿取的行李正确;
当检测出的验证特征和所述身份特征不相同时,则判定用户拿取的行李不正确。
在本实施例具体实施时,判断检测出的验证特征和所述身份特征是否相同;
若相同,则认为用户正确拿取自己的行李;反之则认为用户错误拿取行李。
通过对用户拿取行李行为的检测,判定用户身份,保证用户拿取行李正确,保证行李安全。
在本发明提供的又一实施例中,所述方法还包括:
当检测出的验证特征和所述身份特征相同时,删除跟踪轨迹;
当检测出的验证特征和所述身份特征不相同时,输出报警提示;
所述报警提示包括所述验证特征和所述物品特征。
在本实施例具体实施时,根据判定结果进行对应处理;
当检测出的验证特征和所述身份特征相同时,即判定用户正常拿取行李,表示跟踪过程完成,删除跟踪轨迹,及时更新数据,减少运行数据量;
当检测出的验证特征和所述身份特征不相同时,即判定用户拿取行李异常,输出报警提示;所述报警提示包括所述验证特征和所述物品特征;通过输出的验证特征,能够准确提醒安检工作人员异常拿取行李的人员信息,方便及时处理,及时追回拿走物品,避免行李丢失。
本发明应用了基于深度学习的检测与跟踪算法分别对用户与行李进行追踪,相比传统的数字图像处理有更高的精度,另外采用了级联的跟踪方法,保证了检测过程中出现漏检或误检,跟踪轨迹仍然能很好的对齐;同时借助Reid重识别的方法,做到了行李与用户身份的信息绑定,达到了人与包的统一。
在本发明提供的又一实施例中,参见图2,是本发明实施例提供的一种基于深度学习用于机场安检人包绑定的装置的结构示意图,所述装置包括:
图像获取模块,用于获取用户放置行李时的实时监控视频,提取安检区域的有效图像;
特征绑定模块,用于根据预先基于深度学习构建的检测模型组提取所述有效图像中的用户的身份特征和行李的物品特征,将所述身份特征和所述物品特征进行绑定并存储;
轨迹跟踪模块,用于根据所述检测模型组对行李和用户进行实时跟踪,产生行李和用户的实时的跟踪轨迹;
特征验证模块,用于当判定跟踪轨迹的用户和行李的发生重合时,提取跟踪轨迹中用户的验证特征;
结果输出模块,用于将所述验证特征和所述身份特征进行对比,输出判定结果。
需要说明的是,本发明实施例提供的一种基于深度学习用于机场安检人包绑定的装置用于执行上述实施例的一种基于深度学习用于机场安检人包绑定的方法的所有流程步骤,两者的工作原理和有益效果一一对应,因而不再赘述。
参见图3,是本发明另一实施例提供的一种基于深度学习用于机场安检人包绑定的装置的结构示意图。该实施例的基于深度学习用于机场安检人包绑定的装置包括:处理器、存储器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,例如基于深度学习用于机场安检人包绑定的程序。所述处理器执行所述计算机程序时实现上述各个基于深度学习用于机场安检人包绑定的方法实施例中的步骤,例如图1所示的步骤S1~S5。或者,所述处理器执行所述计算机程序时实现上述各装置实施例中各模块的功能。
示例性的,所述计算机程序可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器中,并由所述处理器执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序在所述基于深度学习用于机场安检人包绑定的装置中的执行过程。例如,所述计算机程序可以被分割成多个模块,各模块具体功能再次不作赘述。
所述基于深度学习用于机场安检人包绑定的装置可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述基于深度学习用于机场安检人包绑定的装置可包括,但不仅限于,处理器、存储器。本领域技术人员可以理解,所述示意图仅仅是基于深度学习用于机场安检人包绑定的装置的示例,并不构成对基于深度学习用于机场安检人包绑定的装置的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述基于深度学习用于机场安检人包绑定的装置还可以包括输入输出设备、网络接入设备、总线等。
所称处理器可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器是所述基于深度学习用于机场安检人包绑定的装置的控制中心,利用各种接口和线路连接整个基于深度学习用于机场安检人包绑定的装置的各个部分。
所述存储器可用于存储所述计算机程序和/或模块,所述处理器通过运行或执行存储在所述存储器内的计算机程序和/或模块,以及调用存储在存储器内的数据,实现所述基于深度学习用于机场安检人包绑定的装置的各种功能。所述存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
其中,所述基于深度学习用于机场安检人包绑定的装置集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
需说明的是,以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。另外,本发明提供的装置实施例附图中,模块之间的连接关系表示它们之间具有通信连接,具体可以实现为一条或多条通信总线或信号线。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。

Claims (9)

1.一种基于深度学习用于机场安检人包绑定的方法,其特征在于,所述方法包括:
获取用户放置行李时的实时监控视频,提取安检区域的有效图像;
根据预先基于深度学习构建的检测模型组提取所述有效图像中的用户的身份特征和行李的物品特征,将所述身份特征和所述物品特征进行绑定并存储;
根据所述检测模型组对行李和用户进行实时跟踪,产生行李和用户的实时的跟踪轨迹;
当判定跟踪轨迹的用户和行李发生重合时,提取跟踪轨迹中用户的验证特征;
将所述验证特征和所述身份特征进行对比,输出判定结果;
所述根据所述检测模型组对行李和用户进行实时跟踪,产生行李和用户的实时的跟踪轨迹,具体包括:
根据当前的目标框位置,利用卡尔曼滤波算法预测出下一帧的目标框的预测位置,并计算下一帧的有效图像的目标检测的目标框和卡尔曼滤波算法预测出的目标框之间的马氏距离d1,目标框中包括行李的位置、用户的位置、用户的身份特征;
计算卡尔曼滤波算法预测的目标框的特征向量和利用所述检测模型组提取出下一帧的有效图像的特征向量之间的余弦距离d2
将计算得到的马氏距离d1和计算得到的余弦距离d2按照设定的权重进行融合计算,得到度量距离dm
利用匈牙利算法对所述度量距离进行判断;
当通过匈牙利算法判定到预测的目标框和有效图像的跟踪轨迹匹配时,根据预测的目标框更新跟踪轨迹,并将跟踪轨迹的计数值加1;当通过匈牙利算法判定到预测的目标框和有效图像的跟踪轨迹不匹配时,跟踪轨迹的遗忘值加1;每个跟踪轨迹初始的计数值和遗忘值均为0;
对实时的跟踪轨迹进行判断;
当实时的跟踪轨迹的计数值小于第一设定值时,判定跟踪轨迹待定,重复提提取有效图像,并计算提取的有效图像中目标框的度量距离,根据计算的度量距离更新跟踪轨迹的计数值或遗忘值,对实时的跟踪轨迹进行判断;
当实时的跟踪轨迹的遗忘值不小于第二设定值时,判定轨迹跟踪失败,删除轨迹,重复提取有效图像,并计算提取的有效图像中目标框的度量距离,根据计算的度量距离更新跟踪轨迹的计数值或遗忘值,对实时的跟踪轨迹进行判断;
当实时的跟踪轨迹的计数值不小于所述第一设定值时,判定跟踪轨迹生效,判定跟踪轨迹的用户和行李是否发生重合;
马氏距离d1与余弦距离d2分别代表预测框的位置距离与特征距离,将计算得到的马氏距离d1和计算得到的余弦距离d2按照设定的权重进行融合计算,得到度量距离dm,dm=λd1+(1-λ)d2,其中λ为设定的权重。
2.如权利要求1所述的基于深度学习用于机场安检人包绑定的方法,其特征在于,所述检测模型组包括基于Yolo算法的one-stage检测模型和基于多任务卷积神经网络的特征提取网络模型。
3.如权利要求2所述的基于深度学习用于机场安检人包绑定的方法,其特征在于,所述根据预先基于深度学习构建的检测模型组提取所述有效图像中的用户的身份特征和行李的物品特征,将所述身份特征和所述物品特征进行绑定并存储,具体包括:
通过所述one-stage检测模型确定待识别目标在所述有效图像中的位置和对应的宽高信息以及类别信息,再通过所述特征提取网络模型对所述待识别目标进行有效的特征编码,确定其中的用户的身份信息和行李的物品特征;所述待识别目标包括所述用户和行李;
通过所述特征提取网络模型对分类的身份信息进行人脸检测,得到人脸区域信息;
对人脸区域进行特征提取,输出128维的人脸特征向量;
将输出的128维的人脸特征向量作为所述身份特征。
4.如权利要求1所述的基于深度学习用于机场安检人包绑定的方法,其特征在于,所述当判定跟踪轨迹的用户和行李发生重合时,提取跟踪轨迹中用户的验证特征,具体包括:
根据跟踪轨迹中提取出的用户的特征的目标框和行李的特征的目标框,计算两个目标框的交并比;
当计算的交并比不小于预设的交并阈值时,判定跟踪轨迹的用户和行李发生重合,用户拿取行李,根据所述检测模型组提取出此时所述跟踪轨迹中用户的验证特征。
5.如权利要求1所述的基于深度学习用于机场安检人包绑定的方法,其特征在于,所述将所述验证特征和所述身份特征进行对比,输出绑定判定结果,具体包括:
判断检测出的验证特征和所述身份特征是否相同;
当检测出的验证特征和所述身份特征相同时,判定用户拿取的行李正确;
当检测出的验证特征和所述身份特征不相同时,则判定用户拿取的行李不正确。
6.如权利要求5所述的基于深度学习用于机场安检人包绑定的方法,其特征在于,所述方法还包括:
当检测出的验证特征和所述身份特征相同时,删除跟踪轨迹;
当检测出的验证特征和所述身份特征不相同时,输出报警提示;
所述报警提示包括所述验证特征和所述物品特征。
7.一种基于深度学习用于机场安检人包绑定的装置,其特征在于,所述装置包括:
图像获取模块,用于获取用户放置行李时的实时监控视频,提取安检区域的有效图像;
特征绑定模块,用于根据预先基于深度学习构建的检测模型组提取所述有效图像中的用户的身份特征和行李的物品特征,将所述身份特征和所述物品特征进行绑定并存储;
轨迹跟踪模块,用于根据所述检测模型组对行李和用户进行实时跟踪,产生行李和用户的实时的跟踪轨迹;
特征验证模块,用于当判定跟踪轨迹的用户和行李发生重合时,提取跟踪轨迹中用户的验证特征;
结果输出模块,用于将所述验证特征和所述身份特征进行对比,输出判定结果;
所述轨迹跟踪模块具体用于:
根据当前的目标框位置,利用卡尔曼滤波算法预测出下一帧的目标框的预测位置,并计算下一帧的有效图像的目标检测的目标框和卡尔曼滤波算法预测出的目标框之间的马氏距离d1,目标框中包括行李的位置、用户的位置、用户的身份特征;
计算卡尔曼滤波算法预测的目标框的特征向量和利用所述检测模型组提取出下一帧的有效图像的特征向量之间的余弦距离d2
将计算得到的马氏距离d1和计算得到的余弦距离d2按照设定的权重进行融合计算,得到度量距离dm
利用匈牙利算法对所述度量距离进行判断;
当通过匈牙利算法判定到预测的目标框和有效图像的跟踪轨迹匹配时,根据预测的目标框更新跟踪轨迹,并将跟踪轨迹的计数值加1;当通过匈牙利算法判定到预测的目标框和有效图像的跟踪轨迹不匹配时,跟踪轨迹的遗忘值加1;每个跟踪轨迹初始的计数值和遗忘值均为0;
对实时的跟踪轨迹进行判断;
当实时的跟踪轨迹的计数值小于第一设定值时,判定跟踪轨迹待定,重复提提取有效图像,并计算提取的有效图像中目标框的度量距离,根据计算的度量距离更新跟踪轨迹的计数值或遗忘值,对实时的跟踪轨迹进行判断;
当实时的跟踪轨迹的遗忘值不小于第二设定值时,判定轨迹跟踪失败,删除轨迹,重复提取有效图像,并计算提取的有效图像中目标框的度量距离,根据计算的度量距离更新跟踪轨迹的计数值或遗忘值,对实时的跟踪轨迹进行判断;
当实时的跟踪轨迹的计数值不小于所述第一设定值时,判定跟踪轨迹生效,判定跟踪轨迹的用户和行李是否发生重合;
马氏距离d1与余弦距离d2分别代表预测框的位置距离与特征距离,将计算得到的马氏距离d1和计算得到的余弦距离d2按照设定的权重进行融合计算,得到度量距离dm,dm=λd1+(1-λ)d2,其中λ为设定的权重。
8.一种基于深度学习用于机场安检人包绑定的装置,其特征在于,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至6中任意一项所述的基于深度学习用于机场安检人包绑定的方法。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行如权利要求1至6中任意一项所述的基于深度学习用于机场安检人包绑定的方法。
CN202211096548.1A 2022-09-08 2022-09-08 基于深度学习用于机场安检人包绑定的方法、装置及介质 Active CN116309692B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211096548.1A CN116309692B (zh) 2022-09-08 2022-09-08 基于深度学习用于机场安检人包绑定的方法、装置及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211096548.1A CN116309692B (zh) 2022-09-08 2022-09-08 基于深度学习用于机场安检人包绑定的方法、装置及介质

Publications (2)

Publication Number Publication Date
CN116309692A CN116309692A (zh) 2023-06-23
CN116309692B true CN116309692B (zh) 2023-10-20

Family

ID=86832854

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211096548.1A Active CN116309692B (zh) 2022-09-08 2022-09-08 基于深度学习用于机场安检人包绑定的方法、装置及介质

Country Status (1)

Country Link
CN (1) CN116309692B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111601076A (zh) * 2020-04-29 2020-08-28 利智华(北京)智能科技有限公司 机场行李及人员双重匹配安检管理方法、装置及设备
CN112016445A (zh) * 2020-08-27 2020-12-01 重庆科技学院 一种基于监控视频的遗留物检测方法
CN112183304A (zh) * 2020-09-24 2021-01-05 高新兴科技集团股份有限公司 离位检测方法、系统及计算机存储介质
CN113409361A (zh) * 2021-08-12 2021-09-17 深圳市城市交通规划设计研究中心股份有限公司 一种多目标跟踪方法、装置、计算机及存储介质
CN113408405A (zh) * 2021-06-11 2021-09-17 广东中科慧据科技有限公司 一种安检方法、装置、计算机设备及存储介质
CN115019241A (zh) * 2022-08-05 2022-09-06 江西中业智能科技有限公司 一种行人识别与追踪方法、装置、可读存储介质及设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111601076A (zh) * 2020-04-29 2020-08-28 利智华(北京)智能科技有限公司 机场行李及人员双重匹配安检管理方法、装置及设备
CN112016445A (zh) * 2020-08-27 2020-12-01 重庆科技学院 一种基于监控视频的遗留物检测方法
CN112183304A (zh) * 2020-09-24 2021-01-05 高新兴科技集团股份有限公司 离位检测方法、系统及计算机存储介质
CN113408405A (zh) * 2021-06-11 2021-09-17 广东中科慧据科技有限公司 一种安检方法、装置、计算机设备及存储介质
CN113409361A (zh) * 2021-08-12 2021-09-17 深圳市城市交通规划设计研究中心股份有限公司 一种多目标跟踪方法、装置、计算机及存储介质
CN115019241A (zh) * 2022-08-05 2022-09-06 江西中业智能科技有限公司 一种行人识别与追踪方法、装置、可读存储介质及设备

Also Published As

Publication number Publication date
CN116309692A (zh) 2023-06-23

Similar Documents

Publication Publication Date Title
CN109840504B (zh) 物品取放行为识别方法、装置、存储介质及设备
WO2015165365A1 (zh) 一种人脸识别方法及系统
US9489567B2 (en) Tracking and recognition of faces using selected region classification
CN116129350B (zh) 数据中心安全作业的智能监控方法、装置、设备及介质
CN111027378A (zh) 行人重识别的方法、装置、终端及存储介质
CN108229324A (zh) 手势追踪方法和装置、电子设备、计算机存储介质
CN103366370A (zh) 视频监控中的目标跟踪方法和装置
CN110610127B (zh) 人脸识别方法、装置、存储介质及电子设备
CN107423278A (zh) 评价要素的识别方法、装置及系统
CN104636730A (zh) 人脸验证的方法和装置
CN107808126A (zh) 车辆检索方法及装置
CN109766755A (zh) 人脸识别方法及相关产品
CN110322472A (zh) 一种多目标跟踪方法以及终端设备
CN111553234A (zh) 融合人脸特征与Re-ID特征排序的行人跟踪方法及装置
CN112784760B (zh) 人体行为识别方法、装置、设备以及存储介质
CN106778731B (zh) 一种车牌定位方法及终端
CN113221918B (zh) 目标检测方法、目标检测模型的训练方法及装置
CN114093022A (zh) 活动检测装置、活动检测系统及活动检测方法
KR101545809B1 (ko) 차량 번호판 이중 검출 방법 및 장치
CN110175500B (zh) 指静脉比对方法、装置、计算机设备及存储介质
CN112150508B (zh) 一种目标追踪方法、装置及相关设备
CN116309692B (zh) 基于深度学习用于机场安检人包绑定的方法、装置及介质
CN110246280B (zh) 人货绑定方法及装置、计算机设备及可读介质
Muchtar et al. Moving pedestrian localization and detection with guided filtering
Zhang et al. Face occlusion detection using cascaded convolutional neural network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant