CN112131919B - 安检方法、装置、设备及介质 - Google Patents

安检方法、装置、设备及介质 Download PDF

Info

Publication number
CN112131919B
CN112131919B CN202010333793.4A CN202010333793A CN112131919B CN 112131919 B CN112131919 B CN 112131919B CN 202010333793 A CN202010333793 A CN 202010333793A CN 112131919 B CN112131919 B CN 112131919B
Authority
CN
China
Prior art keywords
image
target
detected
information
calibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010333793.4A
Other languages
English (en)
Other versions
CN112131919A (zh
Inventor
张平
甄军平
邵黎明
潘宇航
李又扬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Civil Aviation Electronic Technology Co ltd
Second Research Institute of CAAC
Original Assignee
Civil Aviation Electronic Technology Co ltd
Second Research Institute of CAAC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Civil Aviation Electronic Technology Co ltd, Second Research Institute of CAAC filed Critical Civil Aviation Electronic Technology Co ltd
Priority to CN202010333793.4A priority Critical patent/CN112131919B/zh
Publication of CN112131919A publication Critical patent/CN112131919A/zh
Application granted granted Critical
Publication of CN112131919B publication Critical patent/CN112131919B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • G06T5/80
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Abstract

本申请提供了一种安检方法、装置、设备及介质,该方法包括:通过采集待检测目标的图像数据;采用行人重识别法将所述图像数据进行预处理,创建结构化数据集;采用标定算法和校正算法对每个监控设备分别进行相机标定和图像校正,基于所述结构化数据集确定所述待检测目标的实际位置和识别信息。该方法由于采用行人重识别法能够直接获取结构化数据集,以实现对待检测目标的实时多态识别,并采用标定算法和校正算法能够进行相机标定和图像校正,从而准确地得到待检测目标的实际位置和识别信息,进一步提高了安检效率。

Description

安检方法、装置、设备及介质
技术领域
本发明涉及安检技术领域,尤其涉及一种安检方法、装置、设备及介质。
背景技术
随着民航产业的快速发展,机场的客流量也不断增加,为保障航空的运行安全,给旅客带来安全放心的旅途体验,需要对机场的每位旅客进行安全检查,从而为民航产业带来了大量的机场安检需求。
目前,大部分机场采用传统安检模式,该安检模式中,主要是通过在安检入口处采用人脸识别和人工核验的方式进行人证合一比对,并在登机口处采用人工检票的方式对旅客身份进行核验。
但是,传统安检模式中仅依靠旅客有效身份证件、登机牌及面部信息对旅客进行身份核验,该传统安检模式受旅客认知程度、配合程度等其他因素限制,且给安检工作人员带来较大的工作量,进而使得安检效率低,导致旅客出行体验差。
发明内容
有鉴于此,本发明提供一种机场安检方法、装置、设备及介质,至少部分解决现有技术中存在的问题。
第一方面,本申请提供了一种机场安检方法,该方法包括:
采集待检测目标的图像数据;
采用行人重识别法将所述图像数据进行预处理,创建结构化数据集;
采用标定算法和校正算法对每个监控设备分别进行相机标定和图像校正,基于所述结构化数据集确定所述待检测目标的实际位置和识别信息。
在其中一个实施例中,采用行人重识别法将所述图像数据进行预处理,创建结构化数据集,包括:
采用所述行人重识别法对所述图像数据进行标定和分割处理,得到分割后的图像数据;
对所述分割后的图像数据进行属性分解和信息关联处理,得到关联后的数据;
基于所述关联后的数据创建结构化数据集。
在其中一个实施例中,采用标定算法和校正算法对每个监控设备分别进行相机标定和图像校正,基于所述结构化数据集确定所述待检测目标的实际位置和识别信息,包括:
获取多个监控设备中的每个监控设备的参数;
对所述每个监控设备的参数进行相机标定和图像畸变校正,得到校准结果;
基于所述校准结果,测试其他物体在所述多个监控设备标定后映射的世界坐标距离是否小于误差阈值,得到测试结果;
基于所述测试结果和所述结构化数据集,确定所述待检测目标的实际位置和识别信息。
在其中一个实施例中,对所述每个监控设备的参数进行张氏相机标定和图像畸变校正,得到校准结果,包括:
对所述每个监控设备建立图像坐标系、相机坐标系、世界坐标系;
采用相机标定法和图像校正法,创建所述图像坐标系、所述相机坐标系与所述世界坐标系之间的坐标映射规则;
基于所述坐标映射规则得到每个所述监控设备对应的校准结果。
在其中一个实施例中,基于所述测试结果和所述结构化数据集,确定所述待检测目标的实际位置和识别信息,包括:
当所述测试结果为测试通过时,去掉所述其他物体的定位坐标信息;
按照预设图像采集识别参数获取所述待检测目标在多个监控设备下的属性信息和图像坐标信息;
基于所述属性信息和所述图像坐标信息,分别计算所述待检测目标在多个监控设备下的多个图像匹配相似度值和多个映射世界坐标;
从所述多个图像匹配相似度值和所述多个映射世界坐标中筛选出符合预设条件的图像匹配相似度值和映射世界坐标;
基于所述符合预设条件的图像匹配相似度值和映射世界坐标,更新所述结构化数据集并确定所述待检测目标的实际位置和识别信息。
在其中一个实施例中,基于所述属性信息和所述图像坐标信息,分别计算所述待检测目标在多个监控设备下的多个图像匹配相似度值和多个映射世界坐标,包括:
根据所述属性信息,采用Tanimoto系数计算所述待检测目标在每个监控设备下的图像匹配相似度值。
按照所述图像坐标系、所述相机坐标系与所述世界坐标系之间的坐标映射规则,计算所述待检测目标在每个监控设备下的所述图像坐标信息对应的映射世界坐标。
在其中一个实施例中,基于所述符合预设条件的图像匹配相似度值和映射世界坐标,更新所述结构化数据集并确定所述待检测目标的实际位置和识别信息,包括:
基于所述符合预设条件的图像匹配相似度值计算所述待检测目标的平均识别相似度;
基于所述符合预设条件的映射世界坐标计算所述待检测目标的平均世界坐标;
根据所述平均识别相似度和所述平均世界坐标,更新所述结构化数据集并确定所述待检测目标的实际位置和识别信息。
第二方面,本申请提供了一种机场安检装置,该装置包括:
采集模块,用于采集待检测目标的图像数据;
创建模块,用于采用行人重识别法将所述图像数据进行预处理,创建结构化数据集;
确定模块,用于采用标定算法和校正算法对每个监控设备进行相机标定和图像校正,基于所述结构化数据集确定所述待检测目标的实际位置和识别信息。
第三方面,本申请实施例提供一种设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,该处理器执行该程序时实现如上述第一方面所述的安检方法。
第四方面,本申请实施例提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序用于实现如上第一方面所述的安检方法。
本申请实施例中提供的安检方法、装置、设备及存储介质,通过采集待检测目标的图像数据,并采用行人重识别法将图像数据进行预处理,创建结构化数据集,以及采用标定算法和校正算法对每个监控设备分别进行相机标定和图像校正,并基于结构化数据集确定待检测目标的实际位置和识别信息。与相关技术相比,该方案不受旅客认知程度、配合程度等因素限制,由于采用行人重识别法能够直接获取结构化数据集,以实现对待检测目标的实时多态识别,并采用标定算法和校正算法能够进行相机标定和图像校正,从而准确地得到待检测目标的实际位置和识别信息,进一步提高了安检效率,为安检信息查询、事件分析及问题追溯等应用带来了快捷精准的数据支持。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为为本申请实施例提供的安检方法的实时环境架构图;
图2为本申请实施例提供的安检方法的流程示意图;
图3为本申请实施例提供的待检测目标进行身份验证的结构示意图;
图4为本申请实施例提供的确定待检测目标的实际位置和识别信息方法的流程示意图;
图5为本申请另一实施例提供的确定待检测目标的实际位置和识别信息方法的流程示意图;
图6为本申请实施例提供的在安检场景下对待检测目标进行安检的结构示意图;
图7为本申请另一实施例提供的安检装置的结构示意图;
图8为本申请实施例示出的一种计算机设备的结构示意图。
具体实施方式
下面结合附图对本发明实施例进行详细描述。
需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合;并且,基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
如背景技术中提到的,在民航产业的快速发展过程中,为了保障航空安全,需要对旅客进行安全检查,相关技术中只在安检入口处采用人脸识别与人工核验的方式进行人证合一比对,然后到登机口处通过人工检票方式进行再次确认。但是,该安检模式仅依靠旅客有效身份证件、登机牌以及面部信息,其信息间关联渠道不互通,且受旅客身份核验受旅客认知程度、配合程度的限制,导致旅客安检体验差,安检效率低。
基于以上缺陷,本申请提供了一种安检方法、装置、设备及介质,由于采用行人重识别法能够直接获取结构化数据集,以实现对待检测目标的实时多态识别,并采用标定算法和校正算法能够进行相机标定和图像校正,从而准确地得到待检测目标的实际位置和识别信息,进一步提高了安检效率。
可以理解,本申请的安检方法可以应用于机场、海关、车站、公检法机构、大型活动现场等场所。通过进行安检,不仅可以避免公共危害性事件的发生,而且消除了众多事故隐患,保证了公共安全。
需要说明的是,下文描述在所附权利要求书的范围内的实施例的各种方面。应显而易见,本文中所描述的方面可体现于广泛多种形式中,且本文中所描述的任何特定结构及/或功能仅为说明性的。
图1是本申请实施例提供的一种安检方法的实施环境架构图。如图1所示,该实施环境架构包括:监控设备100、终端200和服务器300。
其中,监控设备100可以是摄像机或其他具有图像采集功能的设备,该监控设备100可以有多个;终端200的类型可以包括但不限于智能手机、平板电脑、电视机、笔记本电脑、台式电脑等,本申请实施例对此不进行具体限定。
其中,服务器300具有数据处理功能,并将数据处理结果发送给终端200,以使终端200通过在应用界面显示相关数据。
服务器300可以是一台服务器,也可以是由若干台服务器构成的服务器集群,或者服务器300可以包含一个或多个虚拟化平台,或者服务器300可以是一个云计算服务中心。
监控设备100可以分别与终端200、服务器300之间通过有线或无线网络建立通信连接,终端200与服务器300之间通过有线或无线网络建立通信连接。可选的,上述的无线网络或有线网络使用标准通信技术和/或协议。网络通常为因特网、但也可以是任何网络,包括但不限于局域网(Local Area Network,LAN)、城域网(Metropolitan Area Network,MAN)、广域网(Wide Area Network,WAN)、移动、有线或者无线网络、专用网络或者虚拟专用网络的任何组合。
为了便于理解和说明,下面通过图2至图8详细阐述本申请实施例提供的安检方法、装置、设备及介质。
图2所示为本申请实施例的安检方法的流程示意图,该方法可以由计算机设备执行,该计算机设备可以是上述图1所示系统中的服务器300或者终端200,或者,该计算机设备也可以是终端200和服务器300的结合。如图2所示,该方法包括:
S101、采集待检测目标的图像数据。
具体的,上述待检测目标可以是机场的旅客,也可以是机场的其他物体,待检测目标数量可以是一个,也可以是多个。可选的,计算机设备可以是通过验证闸机采集待检测目标的图像数据,也可以是在机场的不同位置安装有多个监控设备,使得计算机设备通过每个监控设备采集待检测目标的图像数据。
以待检测目标为旅客为例,该图像数据可以包括旅客形态特征信息、旅客证件信息和票务信息等,该形态特征信息包括旅客面部照片、着装、发型、性别、身高等信息。
本申请实施例中,待检测目标在进行安检的过程中,可以先使用自助验证闸机对待检测目标进行人证合一验证,验证闸机采集待检测目标的证件信息、面部信息、票务信息后,并根据票务信息、证件信息和面部信息进行信息核对以及身份验证,可以参见图3所示,包括验证闸机110和监控设备100,其中,验证闸机110用于对人证合一信息201进行收集,对票务信息202进行核对,以及订座信息校验,监控设备100用于采集待检测目标的图像数据1010,该图像数据可以是用户全景图像,并将该图像数据发送至服务器和终端。
S102、采用行人重识别法将图像数据进行预处理,创建结构化数据集。
具体的,行人重识别(Person re-identification,简称ReID)是利用计算机视觉技术判断图像或者视频序列中是否存在特定行人的技术,能够通过跨设备下的行人图像的颜色、纹理、布局及图像中人物的衣着、发型、体态、姿态等进行分析和图像检索。在采集到待检测目标的图像数据后,可以采用行人重重识别法对图像数据进行标定和分割处理,得到分割后的图像数据,然后对分割后的图像数据进行属性分解和信息关联处理,得到关联后的数据,并基于关联后的数据创建结构化数据集。
上述过程中在对图像数据进行标定和分割处理时,应避免图像数据中其他物体或旅客像素的干扰,然后将分割后的图像数据进行属性分解并存储于集合,其分解属性包括待检测目标的着装、发型、性别、身高等,并将该集合与待检测目标的证件信息进行关联得到关联后的数据,根据关联后的数据创建待检测目标对应的结构化数据集。其中,该结构化数据集包括待检测目标的人脸数据、ReID属性数据集、身份证件信息数据集、订座信息等。
S103、采用标定算法和校正算法对每个监控设备分别进行相机标定和图像校正,基于结构化数据集确定待检测目标的实际位置和识别信息。
在对得到的结构化数据进行处理之前,需要采用标定算法和校正算法对多个监控设备中的每个监控设备进行相机标定和图像校正。
可选的,参见图4所示,上述步骤S103可以包括如下步骤:
S201、获取多个监控设备中的每个监控设备的参数。
S202、对每个监控设备的参数进行相机标定和图像畸变校正,得到校准结果;
S203、基于校准结果,测试其他物体在多个监控设备标定后映射的世界坐标距离是否小于误差阈值,得到测试结果;
S204、基于测试结果和结构化数据集,确定待检测目标的实际位置和识别信息。
具体的,在对每个监控设备进行相机标定和图像校正时,针对安检场景中的每个监控设备,建立图像坐标系、相机坐标系和世界坐标系,并采用张氏相机标定法和图像畸变校正,创建图像坐标系、相机坐标系与世界坐标系之间的坐标映射规则。同时建立整个安检场景的世界坐标系,并对该安检场景的世界坐标系进行网格化处理,其中,网格精度为λ×λ,根据坐标映射规则得到每个监控设备对应的校准结果,该校准结果可以是调整映射参数后的监控设备对应的参数。
图像坐标系是二维坐标系;相机坐标系是以相机的聚焦中心为原点,以光轴为轴建立的三维直角坐标系;世界坐标系是系统的绝对坐标系,在没有建立用户坐标系之前画面上所有点的坐标都是以该坐标系的原点来确定各自的位置的;相机坐标系和世界坐标系之间的关系可以通过旋转矩阵和平移矩阵来得到,相机坐标系与图像坐标系之间是从三维到二维的转化,属于透视投影关系。
需要说明的是,可以在世界坐标系中根据安检场景区域的大小,确定出每个监控设备的ROI区域,并根据上述校准结果,测试该安检场景中的其他物体在多个监控设备标定后映射的世界坐标距离是否小于误差阈值,得到测试结果。
其中,根据上述校准结果,测试安检场景中的其他物体在不同的监控设备的不同拍摄角度下,定位得出不同监控设备不同拍摄角度下得到的世界坐标是否处于安检场景中世界坐标的同一网格内,即测试安检场景中的其他物体在多个监控设备标定后映射的世界坐标距离是否大于预设的误差阈值,得到测试结果。
进一步地,对其他物体在不同监控设备不同拍摄角度下的图像数据,该图像数据为相机坐标系下的数据,并根据图像坐标系、相机坐标系和世界坐标系之间的坐标映射规则得到该物体在不同监控设备下对应的世界坐标系下的数据,从而得到不同监控设备下标定后映射的世界坐标距离:
Figure BDA0002465887870000081
其中,
Figure BDA0002465887870000082
为第m监控设备标定后映射的世界坐标,
Figure BDA0002465887870000083
为第i监控设备标定后映射的世界坐标,δ为误差阈值。
当测试结果为测试不通过,即对安检场景中的其他物体在多个监控设备标定后映射的世界坐标距离大于误差阈值时,则继续对多个监控设备中的每个监控设备的参数进行相机标定和图像畸变校正,直到测试结果为测试通过。
当测试结果为测试通过时,即对安检场景中的其他物体在多个监控设备标定后映射的世界坐标距离小于或等于误差阈值时,则标记该其他物体为定位干扰因子,并排除该其他物体的图像坐标信息。然后根据结构化数据集确定待检测目标的实际位置和识别信息。
本实施例中提供的安检方法,通过采集待检测目标的图像数据,并采用行人重识别法将图像数据进行预处理,创建结构化数据集,以及采用标定算法和校正算法对每个监控设备分别进行相机标定和图像校正,并基于结构化数据集确定待检测目标的实际位置和识别信息。与相关技术相比,该方案不受旅客认知程度、配合程度等因素限制,由于采用行人重识别法能够直接获取结构化数据集,以实现对待检测目标的实时多态识别,并采用标定算法和校正算法能够进行相机标定和图像校正,从而准确地得到待检测目标的实际位置和识别信息,进一步提高了安检效率,为安检信息查询、事件分析及问题追溯等应用带来了快捷精准的数据支持。
在上述实施例的基础上,图5为本申请提供的确定待检测目标的实际位置和识别信息方法的流程示意图,如图5所示,该方法包括:
S301、当测试结果为测试通过时,去掉其他物体的定位坐标信息。
S302、按照预设图像采集识别参数获取待检测目标在多个监控设备下的属性信息和图像坐标信息。
具体的,当安检场景中的其他物体在多个监控设备标定后映射的世界坐标距离小于或等于误差阈值时,则排除其他物体的图像坐标信息。根据预设图像采集识别参数获取待检测目标在多个监控设备下的属性信息和图像坐标信息,其中,该预设图像采集识别参数可以是图像采集识别频率,可以根据经验值设定图像采集识别频率为每秒一次。通过多个监控设备对待检测目标进行图像检测,从而获取待检测目标在多个监控设备下对应的属性信息和图像坐标信息。
S303、基于属性信息和图像坐标信息,分别计算待检测目标在多个监控设备下的多个图像匹配相似度值和多个映射世界坐标。
在获取到待检测目标的属性信息和图像坐标信息后,将待检测目标在每个监控设备的结构化属性数据集与每个待检测目标的属性信息依次进行对比匹配,采用Tanimoto系数计算待检测目标在每个监控设备下的图像匹配相似度值。
其中,Tanimoto系数作为广义的Jaccard相似度,可度量两个集合间相似度。假设用户i的结构化属性数据集中的原始参照对比ReID属性集合为Ai,属性信息中的对应实时识别ReID属性集合为
Figure BDA0002465887870000101
(n个镜头对应n组属性集),则定义第m组监控设备对应的图像匹配相似度值为:
Figure BDA0002465887870000102
按照图像坐标系、相机坐标系与世界坐标系之间的坐标映射规则,计算待检测目标在每个监控设备下的图像坐标信息对应的映射世界坐标。定义用户i在该时刻(秒)第m个监控设备下的映射世界坐标为
Figure BDA0002465887870000103
依次计算得到待检测目标在每个监控设备下的多个图像匹配相似度值和多个映射世界坐标。
S304、从多个图像匹配相似度值和多个映射世界坐标中筛选出符合预设条件的图像匹配相似度值和映射世界坐标。
S305、基于符合预设条件的图像匹配相似度值和映射世界坐标,更新结构化数据集并确定待检测目标的实际位置和识别信息。
具体的,在得到待检测目标对应的多个图像匹配相似度值后,将该多个图像匹配相似度值
Figure BDA0002465887870000104
与图像匹配相似度阈值ε进行比较,筛选出符合预设条件的图像匹配相似度值(假设共有j个),计算该待检测目标i在此时刻(秒)的平均识别相似度:
Figure BDA0002465887870000105
从待检测目标的多个映射世界坐标中筛选出世界坐标定位误差距离小于或等于映射误差阈值的结果,即通过公式
Figure BDA0002465887870000106
得到该结果,其中,
Figure BDA0002465887870000107
为待检测目标i在第m监控设备的映射世界坐标,
Figure BDA0002465887870000111
为待检测目标i在第k监控设备的映射世界坐标,λ为映射误差阈值,从而得到最终映射的世界坐标系在同一个安检场景坐标网络内(网格精度为λ×λ的范围)的映射世界坐标(假设共有l个)。计算该待检测目标i在此时刻(秒)的平均世界坐标为:
Figure BDA0002465887870000112
根据得到的平均识别相似度和平均世界坐标,更新结构化数据集并根据结构化数据集确定出待检测目标在安检场景中的实际位置和识别信息,从而实现对多个待检测目标的实时识别和定位。其中,该实际位置可以通过坐标值标识,识别信息可以通过图像表示。
本实施例中,请参见图6所示,以待检测目标为旅客为例,当旅客通过验证闸机进行身份验证和票务核对完成后,进入安检通道监控区域,该图6中包括监控设备和服务器300,其中,监控设备分别位于安检场景中的四个角,为101、102、103、104,该监控设备用于通过各自的固定视角抓拍旅客的全景照片。其中,每个监控设备不会变焦且不能移动。服务器300用于实现全景照片的图像特征提取、人形检测、属性匹配、坐标系的转化、平均识别相似度和平均世界坐标计算等一系列的图像处理操作。图6中,1011和1012分别表示监控设备101和监控设备102实时采集的结构化数据集,3011和3012分别表示监控设备101和监控设备102计算得到的平均识别相似度和平均世界坐标。
旅客通过验证闸机进行认证合一验证,同时验证闸机采集旅客的证件信息、面部信息和票务信息,旅客在通过闸机进入安检通道口前,架设在高处的监控设备将采集旅客的图像数据,该图像数据可以为旅客在人证合一过程中的全身或上半身图像,并对该图像数据进行预处理,创建结构化数据集。
在采用张氏标定法对每个监控设备建立图像坐标系、相机坐标系和世界坐标系,并对整个安检场景建立世界坐标系,对现实中的安检场景进行0.5m的精度(λ=0.5)网格化处理,便于后续进行定位误差计算。
当旅客在进入安检通道时,通过部署在安检通道中的多个监控设备对旅客进行图像采集,并通过ReID技术对安检通道中每个监控设备采集的目标图像进行属性分解和图像坐标信息计算,得到图像匹配相似度与映射世界坐标并存储。并根据本申请提供的阈值参数与计算规则,得出最终平均识别相似度和平均世界坐标。该阈值参数包括图像匹配相似度阈值ε、映射误差阈值等。
其中,旅客的图像匹配相似度阈值ε的取值,与监控设备角度、ROI区域大小、旅客图像特征差异等相关,因此,可根据实际情况调整相关参数,如阈值的大小,控制变量以减少对旅客的识别和定位误差。
本实施例对每个监控设备通过张正友标定和PNP估计,并将各个监控设备ReID检测后中的图像坐标依次按照像素坐标系到图像坐标系,图像坐标系到相机坐标系、相机坐标系到世界坐标系的变换过程,精确定位旅客在安检通道中的位置。并且通过将映射世界坐标与映射误差阈值进行比较,排除了映射的世界坐标不在同一网格的误差结果,最终确定旅客在安检场景中的精确位置与识别信息。
进一步地,本实施例提供地安检方法可以结合安检系统,实现安检全过程对旅客身份信息地实时识别和定位,使得旅客随身行李安检图像与旅客信息关联绑定更加便捷、信息维度更加广泛,提高安检效率的同时对日后进行安检数据查询、事件分析以及问题追溯等应用提供了数据支持,同时也降低了安检工作人员的工作强度,进一步提高了安检效率。
另一方面,图7为本申请实施例提供的一种安检装置的结构示意图。该装置可以为终端或服务器内的装置,如图7所示,该装置700包括:
采集模块710,用于采集待检测目标的图像数据;
创建模块720,用于采用行人重识别法将所述图像数据进行预处理,创建结构化数据集;
确定模块730,用于采用标定算法和校正算法对每个监控设备进行相机标定和图像校正,基于所述结构化数据集确定所述待检测目标的实际位置和识别信息。
可选的,创建模块720,包括:
分割处理单元721,用于采用所述行人重识别法对所述图像数据进行标定和分割处理,得到分割后的图像数据;
关联处理单元722,用于对所述分割后的图像数据进行属性分解和信息关联处理,得到关联后的数据;
创建单元723,基于所述关联后的数据创建结构化数据集。
可选的,确定模块730,包括:
获取单元731,用于获取多个监控设备中的每个监控设备的参数;
校正单元732,用于对所述每个监控设备的参数进行相机标定和图像畸变校正,得到校准结果;
测试单元733,用于基于所述校准结果,测试其他物体在所述多个监控设备标定后映射的世界坐标距离是否小于误差阈值,得到测试结果;
确定单元734,用于基于所述测试结果和所述结构化数据集,确定所述待检测目标的实际位置和识别信息。
可选的,校正单元732,具体用于:
对所述每个监控设备建立图像坐标系、相机坐标系、世界坐标系;
采用相机标定法和图像校正法,创建所述图像坐标系、所述相机坐标系与所述世界坐标系之间的坐标映射规则;
基于所述坐标映射规则得到每个所述监控设备对应的校准结果。
可选的,确定单元734,具体用于:
当所述测试结果为测试通过时,去掉所述其他物体的定位坐标信息;
按照预设图像采集识别参数获取所述待检测目标在多个监控设备下的属性信息和图像坐标信息;
基于所述属性信息和所述图像坐标信息,分别计算所述待检测目标在多个监控设备下的多个图像匹配相似度值和多个映射世界坐标;
从所述多个图像匹配相似度值和所述多个映射世界坐标中筛选出符合预设条件的图像匹配相似度值和映射世界坐标;
基于所述符合预设条件的图像匹配相似度值和映射世界坐标,更新所述结构化数据集并确定所述待检测目标的实际位置和识别信息。
可选的,确定单元734,还用于:
根据所述属性信息,采用Tanimoto系数计算所述待检测目标在每个监控设备下的图像匹配相似度值。
按照所述图像坐标系、所述相机坐标系与所述世界坐标系之间的坐标映射规则,计算所述待检测目标在每个监控设备下的所述图像坐标信息对应的映射世界坐标。
可选的,确定单元734,还用于:
基于所述符合预设条件的图像匹配相似度值计算所述待检测目标的平均识别相似度;
基于所述符合预设条件的映射世界坐标计算所述待检测目标的平均世界坐标;
根据所述平均识别相似度和所述平均世界坐标,更新所述结构化数据集并确定所述待检测目标的实际位置和识别信息。
可以理解的是,本实施例的安检装置的各功能模块的功能可根据上述方法实施例中的方法具体实现,其具体实现过程可以参照上述方法实施例的相关描述,在此不再赘述。
综上所述,本申请实施例提供的安检装置,采集模块通过采集待检测目标的图像数据,并通过创建模块采用行人重识别法将图像数据进行预处理,创建结构化数据集,以及确定模块采用标定算法和校正算法对每个监控设备分别进行相机标定和图像校正,并基于结构化数据集确定待检测目标的实际位置和识别信息。该装置不受旅客认知程度、配合程度等因素限制,由于采用行人重识别法能够直接获取结构化数据集,以实现对待检测目标的实时多态识别,并采用标定算法和校正算法能够进行相机标定和图像校正,从而准确地得到待检测目标的实际位置和识别信息,进一步提高了安检效率,为安检信息查询、事件分析及问题追溯等应用带来了快捷精准的数据支持。
另一方面,本申请实施例提供的设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,该处理器执行该程序时实现如上述的安检方法。
下面参考图8,图8为本申请实施例的终端设备的计算机系统的结构示意图。
如图8所示,计算机系统800包括中央处理单元(CPU)801,其可以根据存储在只读存储器(ROM)802中的程序或者从存储部分803加载到随机访问存储器(RAM)803中的程序而执行各种适当的动作和处理。在RAM803中,还存储有系统800操作所需的各种程序和数据。CPU 801、ROM 802以及RAM 803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
以下部件连接至I/O接口805:包括键盘、鼠标等的输入部分806;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分807;包括硬盘等的存储部分808;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分809。通信部分809经由诸如因特网的网络执行通信处理。驱动器810也根据需要连接至I/O接口805。可拆卸介质811,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器810上,以便于从其上读出的计算机程序根据需要被安装入存储部分808。
特别地,根据本申请的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本申请的实施例包括一种计算机程序产品,其包括承载在机器可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分303从网络上被下载和安装,和/或从可拆卸介质811被安装。在该计算机程序被中央处理单元(CPU)801执行时,执行本申请的系统中限定的上述功能。
需要说明的是,本申请所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,前述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元或模块可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元或模块也可以设置在处理器中,例如,可以描述为:一种处理器,包括:采集模块、创建模块及确定模块。其中,这些单元或模块的名称在某种情况下并不构成对该单元或模块本身的限定,例如,采集模块还可以被描述为“用于采集待检测目标的图像数据”。
作为另一方面,本申请还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中的。上述计算机可读存储介质存储有一个或者多个程序,当上述前述程序被一个或者一个以上的处理器用来执行描述于本申请的安检方法:
采集待检测目标的图像数据;
采用行人重识别法将所述图像数据进行预处理,创建结构化数据集;
采用标定算法和校正算法对每个监控设备分别进行相机标定和图像校正,基于所述结构化数据集确定所述待检测目标的实际位置和识别信息。
综上所述,本申请实施例中提供的安检方法、装置、设备及存储介质,通过采集待检测目标的图像数据,并采用行人重识别法将图像数据进行预处理,创建结构化数据集,以及采用标定算法和校正算法对每个监控设备分别进行相机标定和图像校正,并基于结构化数据集确定待检测目标的实际位置和识别信息。与相关技术相比,该方案不受旅客认知程度、配合程度等因素限制,由于采用行人重识别法能够将非结构化数据解析为结构化数据集,以实现对待检测目标的实时多态识别,并采用标定算法和校正算法能够进行相机标定和图像校正,从而准确地得到待检测目标的实际位置和识别信息,进一步提高了安检效率,为安检信息查询、事件分析及问题追溯等应用带来了快捷精准的数据支持。
基于本公开,所属领域的技术人员应了解,本文中所描述的一个方面可与任何其它方面独立地实施,且可以各种方式组合这些方面中的两者或两者以上。举例来说,可使用本文中所阐述的任何数目个方面来实施设备及/或实践方法。另外,可使用除了本文中所阐述的方面中的一或多者之外的其它结构及/或功能性实施此设备及/或实践此方法。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离所述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (6)

1.一种安检方法,其特征在于,包括:
采集待检测目标的图像数据;
采用行人重识别法将所述图像数据进行预处理,创建结构化数据集;
采用标定算法和校正算法对每个监控设备分别进行相机标定和图像校正,基于所述结构化数据集确定所述待检测目标的实际位置和识别信息;
采用行人重识别法将所述图像数据进行预处理,创建结构化数据集,包括:
采用所述行人重识别法对所述图像数据进行标定和分割处理,得到分割后的图像数据;
对所述分割后的图像数据进行属性分解和信息关联处理,得到关联后的数据;
基于所述关联后的数据创建结构化数据集;
采用标定算法和校正算法对每个监控设备分别进行相机标定和图像校正,基于所述结构化数据集确定所述待检测目标的实际位置和识别信息,包括:
获取多个监控设备中的每个监控设备的参数;
对所述每个监控设备的参数进行相机标定和图像畸变校正,得到校准结果;
基于所述校准结果,测试其他物体在所述多个监控设备标定后映射的世界坐标距离是否大于误差阈值,得到测试结果;
基于所述测试结果和所述结构化数据集,确定所述待检测目标的实际位置和识别信息;
对所述每个监控设备的参数进行张氏相机标定和图像畸变校正,得到校准结果,包括:
对所述每个监控设备建立图像坐标系、相机坐标系和世界坐标系;
采用相机标定法和图像校正法,创建所述图像坐标系、所述相机坐标系与所述世界坐标系之间的坐标映射规则;
基于所述坐标映射规则得到每个所述监控设备对应的校准结果。
2.根据权利要求1所述的安检方法,其特征在于,基于所述测试结果和所述结构化数据集,确定所述待检测目标的实际位置和识别信息,包括:
当所述测试结果为测试通过时,去掉所述其他物体的定位坐标信息;
按照预设图像采集识别参数获取所述待检测目标在多个监控设备下的属性信息和图像坐标信息;
基于所述属性信息和所述图像坐标信息,分别计算所述待检测目标在多个监控设备下的多个图像匹配相似度值和多个映射世界坐标;
从所述多个图像匹配相似度值和所述多个映射世界坐标中筛选出符合预设条件的图像匹配相似度值和映射世界坐标;
基于所述符合预设条件的图像匹配相似度值和映射世界坐标,更新所述结构化数据集并确定所述待检测目标的实际位置和识别信息。
3.根据权利要求2所述的安检方法,其特征在于,基于所述属性信息和所述图像坐标信息,分别计算所述待检测目标在多个监控设备下的多个图像匹配相似度值和多个映射世界坐标,包括:
根据所述属性信息,采用Tanimoto系数计算所述待检测目标在每个监控设备下的图像匹配相似度值;
按照所述图像坐标系、所述相机坐标系与所述世界坐标系之间的坐标映射规则,计算所述待检测目标在每个监控设备下的所述图像坐标信息对应的映射世界坐标。
4.根据权利要求2所述的安检方法,其特征在于,基于所述符合预设条件的图像匹配相似度值和映射世界坐标,更新所述结构化数据集并确定所述待检测目标的实际位置和识别信息,包括:
基于所述符合预设条件的图像匹配相似度值计算所述待检测目标的平均识别相似度;
基于所述符合预设条件的映射世界坐标计算所述待检测目标的平均世界坐标;
根据所述平均识别相似度和所述平均世界坐标,更新所述结构化数据集并确定所述待检测目标的实际位置和识别信息。
5.一种电子设备,其特征在于,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器用于执行所述程序时实现如权利要求1-4任一项所述的安检方法。
6.一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序用于实现如权利要求1-4任一项所述的安检方法。
CN202010333793.4A 2020-04-24 2020-04-24 安检方法、装置、设备及介质 Active CN112131919B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010333793.4A CN112131919B (zh) 2020-04-24 2020-04-24 安检方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010333793.4A CN112131919B (zh) 2020-04-24 2020-04-24 安检方法、装置、设备及介质

Publications (2)

Publication Number Publication Date
CN112131919A CN112131919A (zh) 2020-12-25
CN112131919B true CN112131919B (zh) 2022-08-05

Family

ID=73850394

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010333793.4A Active CN112131919B (zh) 2020-04-24 2020-04-24 安检方法、装置、设备及介质

Country Status (1)

Country Link
CN (1) CN112131919B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114898044B (zh) * 2022-05-19 2024-01-23 同方威视技术股份有限公司 检测对象成像方法、装置、设备及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109711267A (zh) * 2018-12-03 2019-05-03 浙江大华技术股份有限公司 一种行人重识别、行人运动轨迹生成方法及装置
CN110549352A (zh) * 2019-09-30 2019-12-10 深圳市银星智能科技股份有限公司 一种机器人、行李搬运方法及智能集成模块
CN110929770A (zh) * 2019-11-15 2020-03-27 云从科技集团股份有限公司 一种基于图像处理的智能追踪方法、系统、设备及可读介质
CN111046752A (zh) * 2019-11-26 2020-04-21 上海兴容信息技术有限公司 一种室内定位方法、装置、计算机设备和存储介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8165397B2 (en) * 2006-12-04 2012-04-24 Lockheed Martin Company Identifying descriptor for person or object in an image
CN107798685B (zh) * 2017-11-03 2019-12-03 北京旷视科技有限公司 行人身高确定方法、装置及系统
CN110019476A (zh) * 2017-12-22 2019-07-16 武汉卓目科技有限公司 一种基于模式识别的安检系统
CN108830142A (zh) * 2018-05-02 2018-11-16 淘然视界(杭州)科技有限公司 基于行人重识别的定位追踪方法及装置
CN109117888A (zh) * 2018-08-20 2019-01-01 北京旷视科技有限公司 目标对象识别方法及其神经网络生成方法以及装置
CN110674746B (zh) * 2019-09-24 2022-05-31 视云融聚(广州)科技有限公司 一种应用视频空间关系辅助实现高精度跨镜追踪的方法、装置、计算机设备以及存储介质
CN110889346B (zh) * 2019-11-15 2021-07-02 云从科技集团股份有限公司 一种智能追踪方法、系统、设备及可读介质
CN110968734B (zh) * 2019-11-21 2023-08-04 华东师范大学 一种基于深度度量学习的行人重识别方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109711267A (zh) * 2018-12-03 2019-05-03 浙江大华技术股份有限公司 一种行人重识别、行人运动轨迹生成方法及装置
CN110549352A (zh) * 2019-09-30 2019-12-10 深圳市银星智能科技股份有限公司 一种机器人、行李搬运方法及智能集成模块
CN110929770A (zh) * 2019-11-15 2020-03-27 云从科技集团股份有限公司 一种基于图像处理的智能追踪方法、系统、设备及可读介质
CN111046752A (zh) * 2019-11-26 2020-04-21 上海兴容信息技术有限公司 一种室内定位方法、装置、计算机设备和存储介质

Also Published As

Publication number Publication date
CN112131919A (zh) 2020-12-25

Similar Documents

Publication Publication Date Title
AU2019272032B2 (en) Statistical point pattern matching technique
US9767371B2 (en) Systems and methods for identifying traffic control devices and testing the retroreflectivity of the same
EP3637317A1 (en) Method and apparatus for generating vehicle damage information
CN111667464B (zh) 危险品三维图像检测方法、装置、计算机设备及存储介质
CN111242097A (zh) 一种人脸识别方法、装置、计算机可读介质及电子设备
CN110910445B (zh) 一种物件尺寸检测方法、装置、检测设备及存储介质
CN111160202A (zh) 基于ar设备的身份核验方法、装置、设备及存储介质
CN111899270B (zh) 卡片边框检测方法、装置、设备及可读存储介质
US20210319254A1 (en) Systems and methods for target region evaluation and feature point evaluation
CN111784658B (zh) 一种用于人脸图像的质量分析方法和系统
CN112131919B (zh) 安检方法、装置、设备及介质
CN109766896B (zh) 一种相似度度量方法、装置、设备和存储介质
CN109064464B (zh) 用于检测电池极片毛刺的方法和装置
CN112819008B (zh) 实例检测网络的优化方法、装置、介质及电子设备
CN112633222B (zh) 基于对抗网络的步态识别方法、装置、设备及介质
CN112926491A (zh) 用户识别方法、装置、电子设备及存储介质
CN116310993A (zh) 目标检测方法、装置、设备及存储介质
CN115311680A (zh) 人体图像质量检测方法、装置、电子设备及存储介质
CN115131725A (zh) 交通流统计方法、装置、设备及存储介质
CN115019057A (zh) 图像特征提取模型确定方法及装置、图像识别方法及装置
CN115019396A (zh) 一种学习状态监测方法、装置、设备及介质
CN114170318A (zh) 图像处理方法、装置、系统、介质及电子设备
JP2021009493A (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
CN110705447A (zh) 手部图像的检测方法、装置及电子设备
CN110659536A (zh) 指纹识别设备分辨率的测试方法及装置、系统及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant