CN117854138B - 基于大数据的信息采集分析方法、装置、设备及存储介质 - Google Patents
基于大数据的信息采集分析方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN117854138B CN117854138B CN202410257675.8A CN202410257675A CN117854138B CN 117854138 B CN117854138 B CN 117854138B CN 202410257675 A CN202410257675 A CN 202410257675A CN 117854138 B CN117854138 B CN 117854138B
- Authority
- CN
- China
- Prior art keywords
- face
- dimensional
- face image
- moving target
- target user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 99
- 230000004927 fusion Effects 0.000 claims abstract description 66
- 238000000034 method Methods 0.000 claims abstract description 58
- 238000012549 training Methods 0.000 claims abstract description 55
- 230000009466 transformation Effects 0.000 claims abstract description 53
- 238000001514 detection method Methods 0.000 claims abstract description 28
- 238000001228 spectrum Methods 0.000 claims description 45
- 238000012795 verification Methods 0.000 claims description 43
- 239000013598 vector Substances 0.000 claims description 42
- 239000011159 matrix material Substances 0.000 claims description 31
- 238000012545 processing Methods 0.000 claims description 29
- 230000007246 mechanism Effects 0.000 claims description 18
- 238000012706 support-vector machine Methods 0.000 claims description 18
- 238000000605 extraction Methods 0.000 claims description 16
- 238000010183 spectrum analysis Methods 0.000 claims description 12
- 238000001914 filtration Methods 0.000 claims description 10
- 238000000354 decomposition reaction Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000012937 correction Methods 0.000 claims description 5
- 238000005457 optimization Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 21
- 230000010365 information processing Effects 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 33
- 230000001815 facial effect Effects 0.000 description 19
- 238000004422 calculation algorithm Methods 0.000 description 11
- 230000003595 spectral effect Effects 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 5
- 210000000887 face Anatomy 0.000 description 5
- 238000005286 illumination Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000007405 data analysis Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 230000008921 facial expression Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000012797 qualification Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000036548 skin texture Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000012067 mathematical method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C9/00—Individual registration on entry or exit
- G07C9/30—Individual registration on entry or exit not involving the use of a pass
- G07C9/32—Individual registration on entry or exit not involving the use of a pass in combination with an identity check
- G07C9/37—Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及信息处理技术领域,公开了一种基于大数据的信息采集分析方法、装置、设备及存储介质。所述方法包括:基于出入境管理大数据平台采集多个标准人脸图像序列;进行人脸三维变换和人脸图像编码,得到多个人脸编码图像序列;进行人脸图像解码和人脸三维逆变换,得到多个训练人脸图像序列;通过人脸三维特征检测模型进行人脸三维特征检测,得到人脸三维融合特征;进行出入境签注信息匹配,得到目标出入境签注信息并建模通关校验分析模型;通关出入境自助闸机获取目标人脸图像序列并进行通关校验,得到通关校验分析结果以及控制出入境自助闸机进行放行或者报警,本申请采用大数据技术提高了出入境信息采集和分析的准确率。
Description
技术领域
本申请涉及信息处理技术领域,尤其涉及一种基于大数据的信息采集分析方法、装置、设备及存储介质。
背景技术
出入境管理不仅需要确保边境的安全,还需要保障旅客的便捷和隐私。然而,传统的出入境管理方式往往依赖于人工核查和简单的电子设备,这不仅耗时耗力,而且在高峰期容易造成拥堵,且难以应对复杂多变的安全威胁。随着大数据和人工智能技术的飞速发展,出入境管理有了全新的改革方向。通过利用大数据分析,可以对大量旅客数据进行实时处理和分析,预测和识别潜在的安全风险。然而,单纯的数据分析往往忽略了个体的具体情况,无法实现精准和个性化的安全检查。此外,如何在保障安全的同时,提升旅客通关的便捷性,减少等待时间,也是一个亟待解决的问题。
人脸识别技术的引入为出入境管理提供了新的解决思路。与传统的身份认证方式相比,人脸识别技术具有非接触、便捷和高效的特点,可以大幅度提升旅客的通关体验。然而,面对复杂多变的通关环境和旅客的不同面部表情、姿势等,如何提高人脸识别的准确性和鲁棒性,确保其在各种环境下都能稳定高效地工作,是当前面临的一大挑战。
发明内容
本申请提供了一种基于大数据的信息采集分析方法、装置、设备及存储介质,用于采用大数据技术提高了出入境信息采集和分析的准确率。
第一方面,本申请提供了一种基于大数据的信息采集分析方法,所述基于大数据的信息采集分析方法包括:
基于预置的出入境管理大数据平台分别对多个第一运动目标用户进行通关业务场景人脸图像采集,得到每个第一运动目标用户的多个初始人脸图像序列,并对所述多个初始人脸图像序列进行图像去噪和人脸光谱分析,得到每个第一运动目标用户的多个标准人脸图像序列;
对每个第一运动目标用户的多个标准人脸图像序列进行人脸三维变换和人脸图像编码,得到每个第一运动目标用户的多个人脸编码图像序列;
对所述多个人脸编码图像序列进行人脸图像解码和人脸三维逆变换,得到每个第一运动目标用户的多个训练人脸图像序列;
将所述多个训练人脸图像序列输入预置的人脸三维特征检测模型进行人脸三维特征检测,得到每个第一运动目标用户的人脸三维融合特征;
对所述多个第一运动目标用户进行出入境签注信息匹配,得到每个第一运动目标用户的目标出入境签注信息,并对所述人脸三维融合特征和所述目标出入境签注信息进行通关校验业务场景建模,得到通关校验分析模型;
通关预置的出入境自助闸机获取第二运动目标用户的目标人脸图像序列,并通过所述通关校验分析模型对所述第二运动目标用户进行通关校验,得到通关校验分析结果,以及根据所述通关校验分析结果控制所述出入境自助闸机进行放行或者报警。
第二方面,本申请提供了一种基于大数据的信息采集分析装置,所述基于大数据的信息采集分析装置包括:
采集模块,用于基于预置的出入境管理大数据平台分别对多个第一运动目标用户进行通关业务场景人脸图像采集,得到每个第一运动目标用户的多个初始人脸图像序列,并对所述多个初始人脸图像序列进行图像去噪和人脸光谱分析,得到每个第一运动目标用户的多个标准人脸图像序列;
编码模块,用于对每个第一运动目标用户的多个标准人脸图像序列进行人脸三维变换和人脸图像编码,得到每个第一运动目标用户的多个人脸编码图像序列;
解码模块,用于对所述多个人脸编码图像序列进行人脸图像解码和人脸三维逆变换,得到每个第一运动目标用户的多个训练人脸图像序列;
检测模块,用于将所述多个训练人脸图像序列输入预置的人脸三维特征检测模型进行人脸三维特征检测,得到每个第一运动目标用户的人脸三维融合特征;
建模模块,用于对所述多个第一运动目标用户进行出入境签注信息匹配,得到每个第一运动目标用户的目标出入境签注信息,并对所述人脸三维融合特征和所述目标出入境签注信息进行通关校验业务场景建模,得到通关校验分析模型;
分析模块,用于通关预置的出入境自助闸机获取第二运动目标用户的目标人脸图像序列,并通过所述通关校验分析模型对所述第二运动目标用户进行通关校验,得到通关校验分析结果,以及根据所述通关校验分析结果控制所述出入境自助闸机进行放行或者报警。
本申请第三方面提供了一种基于大数据的信息采集分析设备,包括:存储器和至少一个处理器,所述存储器中存储有指令;所述至少一个处理器调用所述存储器中的所述指令,以使得所述基于大数据的信息采集分析设备执行上述的基于大数据的信息采集分析方法。
本申请的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述的基于大数据的信息采集分析方法。
本申请提供的技术方案中,通过预置的出入境管理大数据平台,能够高效地对多个运动目标用户进行通关业务场景下的人脸图像采集。通过引入Wiener滤波和人脸光谱分析,进一步提高了人脸图像序列的质量。这不仅提升了图像处理的效率,还确保了后续步骤中人脸识别的准确性。通过对标准人脸图像序列进行人脸三维变换和人脸图像编码,能够准确捕捉每个运动目标用户的独特人脸特征,并将这些特征有效编码,为后续的人脸比对和识别提供了可靠的数据基础。采用先进的三维特征检测模型,包括多维人脸特征提取网络、注意力机制编码网络、解码网络以及预测层,这些技术的综合运用大大提升了人脸特征检测的准确性和效率。尤其是注意力机制编码网络,它通过聚焦于图像的关键部分,进一步提高了特征提取的准确性。不仅结合了人脸三维融合特征和出入境签注信息,还通过支持向量机模型进行综合分析,这不仅提升了通关校验的准确性,也加强了系统对复杂情境的适应能力。这种综合化的分析模型能够有效识别和预防安全风险,提升整个出入境管理系统的安全水平。通过利用自助闸机对第二运动目标用户进行人脸图像序列的采集和三维特征检测,结合通关校验分析模型进行实时通关校验,大大提升了通关的自动化和智能化水平。不仅加快了通关速度,降低了人工成本,本申请采用大数据技术提高了出入境信息采集和分析的准确率。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以基于这些附图获得其他的附图。
图1为本申请实施例中基于大数据的信息采集分析方法的一个实施例示意图;
图2为本申请实施例中基于大数据的信息采集分析装置的一个实施例示意图。
具体实施方式
本申请实施例提供了一种基于大数据的信息采集分析方法、装置、设备及存储介质。本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”或“具有”及其任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
为便于理解,下面对本申请实施例的具体流程进行描述,请参阅图1,本申请实施例中基于大数据的信息采集分析方法的一个实施例包括:
步骤S101、基于预置的出入境管理大数据平台分别对多个第一运动目标用户进行通关业务场景人脸图像采集,得到每个第一运动目标用户的多个初始人脸图像序列,并对多个初始人脸图像序列进行图像去噪和人脸光谱分析,得到每个第一运动目标用户的多个标准人脸图像序列;
可以理解的是,本申请的执行主体可以为基于大数据的信息采集分析装置,还可以是终端或者服务器,具体此处不做限定。本申请实施例以服务器为执行主体为例进行说明。
具体的,基于预置的出入境管理大数据平台对多个第一运动目标用户进行通关业务场景下的人脸图像采集。通过高精度摄像头系统在出入境通关场景中捕捉旅客的初始人脸图像序列,其中,摄像头系统需要具备高分辨率和快速响应的特性,以确保在不同的环境光照条件下都能获取清晰、可用的人脸图像。对采集到的每个第一运动目标用户的多个初始人脸图像序列进行Wiener滤波处理,利用Wiener滤波算法来降低或消除图像噪声,改善图像质量。Wiener滤波是一种经典的图像去噪方法,其核心在于根据图像的统计特性来估计原始图像,能有效地处理由于光照不均、摄像头抖动等因素引入的噪声,从而获得更加清晰的人脸图像。对第一人脸图像序列进行人脸光谱属性的提取,对人脸图像中的光谱信息进行分析,以捕捉不同波段的光谱特征,这有助于提高人脸识别的准确性。在获取了人脸光谱波段信息后,对第一人脸图像序列进行光谱校正,以此来调整图像中的光谱失衡,补偿由于环境光源变化造成的颜色偏差,确保人脸图像在不同的光照条件下保持一致性。对经过光谱校正的第二人脸图像序列进行光谱标准化处理,将所有人脸图像转换到一个统一的光谱标准下,使其适应于后续的人脸识别和分析过程,最终获得每个第一运动目标用户的多个标准人脸图像序列。
步骤S102、对每个第一运动目标用户的多个标准人脸图像序列进行人脸三维变换和人脸图像编码,得到每个第一运动目标用户的多个人脸编码图像序列;
具体的,对每个第一运动目标用户的多个标准人脸图像序列进行光谱信息融合和人脸三维变换,将标准化后的二维人脸图像通过算法转换成三维表示,通过光谱信息融合技术集成不同波段下的人脸图像信息,从而增强人脸特征的表现力和辨识度。通过执行人脸三维变换,从融合后的二维图像中提取出三维结构信息,生成每个标准人脸图像序列的第一变换向量集合。对第一变换向量集合进行协方差矩阵计算。协方差矩阵的计算主要用于分析各向量之间的相关性,从而揭示不同人脸特征间的统计关系。这个过程中,每个标准人脸图像序列将被转换成对应的目标协方差矩阵,这些矩阵反映了人脸特征的内部结构和变化规律,有助于理解和表示人脸的多样性和复杂性。对目标协方差矩阵的特征值分解。特征值分解用于提取矩阵的主要特征和规律。通过这一过程,得到每个标准人脸图像序列的特征值及其相应的特征向量。这些特征值和特征向量共同构成了人脸的一个高效、紧凑的数学表示。根据得到的特征值和特征向量,对标准人脸图像序列进行人脸图像编码。通过特征值和特征向量生成每个第一运动目标用户的多个人脸编码图像序列。这种编码方式能够有效地捕捉和表示每个人脸的独特特征,同时保持了数据的压缩性和易处理性。
步骤S103、对多个人脸编码图像序列进行人脸图像解码和人脸三维逆变换,得到每个第一运动目标用户的多个训练人脸图像序列;
具体的,分别对多个人脸编码图像序列进行人脸图像解码,将之前生成的人脸编码图像序列转换回其原始或接近原始的图像形式,解码过程通过特定算法实现,其目的是从编码形式中恢复出人脸的基本视觉特征,这些编码通常包含了人脸图像的关键信息如形状、纹理和颜色等。解码操作产生了每个人脸编码图像序列的锚向量矩阵,这些矩阵作为人脸图像重建的基础。对锚向量矩阵进行光谱信息融合和人脸三维逆变换,得到每个人脸编码图像序列的第二变换向量集合。光谱信息融合起到了优化图像质量和特征表示的作用,它通过合并不同光谱波段下的信息来增强图像的细节和对比度。而人脸三维逆变换的目的是将之前得到的三维人脸数据转换回二维图像形式,这一转换是通过数学算法完成的,其核心在于精确地映射三维特征回原始或接近原始的二维平面,确保人脸特征在维度转换过程中的准确性和完整性。对第二变换向量集合进行人脸图像的进一步解码和图像重建,以生成每个第一运动目标用户的多个训练人脸图像序列。将第二变换向量集合转换成可用于机器学习训练的人脸图像,图像重建过程不仅要求恢复人脸的基本视觉特征,还要保留其原有的细节和质感。重建的图像序列将作为训练数据输入到人脸识别系统中,用于训练模型以识别和验证不同的第一运动目标用户。
步骤S104、将多个训练人脸图像序列输入预置的人脸三维特征检测模型进行人脸三维特征检测,得到每个第一运动目标用户的人脸三维融合特征;
具体的,将训练人脸图像序列输入预置的人脸三维特征检测模型中,该模型由多维人脸特征提取网络、注意力机制编码网络、解码网络和预测层组成。通过多维人脸特征提取网络对每个训练人脸图像序列进行分析,提取出多个第一人脸状态特征图,这些特征图包含了人脸的关键视觉信息和维度数据。将第一人脸状态特征图通过特征融合技术结合成更加综合和表现力强的第二人脸状态特征图,更全面地捕捉人脸的各个方面特征,包括表情变化、光照条件下的细节等。将第二人脸状态特征图输入注意力机制编码网络进行处理。该网络包含第一三层卷积层和残差网络,利用三维卷积操作来进一步加工这些特征图,产生第一人脸三维卷积特征图。注意力机制专注于特征图中的关键区域,确保模型能够捕捉到最具代表性和区分性的人脸特征。通过解码网络中的第二三层卷积层对第一人脸三维卷积特征图进行进一步的三维卷积运算,从而得到更加精细化的第二人脸三维卷积特征图。通过预测层对第二人脸三维卷积特征图进行反卷积处理和人脸三维特征的预测,从而得到每个训练人脸图像序列的初始人脸三维光谱特征。将所有先前的处理和分析转化为具体的、可用于后续应用的人脸三维特征。对每个训练人脸图像序列的初始人脸三维光谱特征进行特征加权平均处理,确保每个第一运动目标用户的人脸三维融合特征既具有高度的代表性又保持了个体特征的独特性。
步骤S105、对多个第一运动目标用户进行出入境签注信息匹配,得到每个第一运动目标用户的目标出入境签注信息,并对人脸三维融合特征和目标出入境签注信息进行通关校验业务场景建模,得到通关校验分析模型;
具体的,对多个第一运动目标用户的出入境签注信息进行精确匹配,通过出入境管理数据库系统对每个第一运动目标用户的个人信息和历史签注记录进行查询和比对,以确保能够准确地获取他们的目标出入境签注信息。这些签注信息包括用户的身份验证信息、过往出入境记录、签证类型和有效期等关键数据。将每个第一运动目标用户的人脸三维融合特征和相应的目标出入境签注信息作为输入特征和预测标签,分别作为模型训练的基础和目标。人脸三维融合特征提供了一种基于生物特征的用户身份验证手段,而目标出入境签注信息则作为预测模型的关键标签,用于指导模型学习如何根据用户的人脸特征来预测其签注状态。通过生物识别技术和数据分析技术,提高身份验证的准确性和效率。将人脸三维融合特征和目标出入境签注信息输入预置的支持向量机(SVM)模型中进行训练和优化。支持向量机是一种机器学习算法,通过在高维空间中构建一个或多个超平面来实现数据分类,适合于处理高维数据和复杂分类问题。SVM模型被训练来识别和分辨不同用户的人脸特征与其签注信息之间的关联,从而构建一个能够准确预测用户出入境身份的通关校验分析模型。
步骤S106、通关预置的出入境自助闸机获取第二运动目标用户的目标人脸图像序列,并通过通关校验分析模型对第二运动目标用户进行通关校验,得到通关校验分析结果,以及根据通关校验分析结果控制出入境自助闸机进行放行或者报警。
具体的,通过预置的出入境自助闸机获取第二运动目标用户的目标人脸图像序列。通过自助闸机内置的高精度摄像头系统,在用户通过自助闸机时捕捉其面部图像。将捕获的目标人脸图像序列输入人脸三维特征检测系统中,通过图像处理和深度学习技术,对图像序列进行分析,以提取出用户的目标三维融合特征。这些三维融合特征不仅包括用户的面部结构信息,还包括其面部表情、皮肤纹理等独特特征,从而为每个用户提供了一种高度个性化的生物识别标识。将目标三维融合特征输入通关校验分析模型中,进行实时的通关校验。校验分析模型通常基于机器学习算法,例如支持向量机或深度神经网络,能够根据输入的三维融合特征快速准确地确定用户的身份,并判断其是否符合通关条件。模型在处理时会比对用户的三维融合特征与数据库中预先存储的数据,以验证用户的身份和出入境资格。根据模型的分析结果,系统能够得到是否允许用户通关的决定。根据通关校验分析结果控制自助闸机进行相应的操作。如果用户通过了通关校验,闸机会自动放行,允许用户顺利通过;相反,如果用户未能通过校验,系统会触发报警,提示安全人员进行进一步的检查和处理。这个过程的自动化程度高,不仅极大提升了通关的效率,还增强了出入境安全管理的准确性和可靠性。
本申请实施例中,通过预置的出入境管理大数据平台,能够高效地对多个运动目标用户进行通关业务场景下的人脸图像采集。通过引入Wiener滤波和人脸光谱分析,进一步提高了人脸图像序列的质量。这不仅提升了图像处理的效率,还确保了后续步骤中人脸识别的准确性。通过对标准人脸图像序列进行人脸三维变换和人脸图像编码,能够准确捕捉每个运动目标用户的独特人脸特征,并将这些特征有效编码,为后续的人脸比对和识别提供了可靠的数据基础。采用先进的三维特征检测模型,包括多维人脸特征提取网络、注意力机制编码网络、解码网络以及预测层,这些技术的综合运用大大提升了人脸特征检测的准确性和效率。尤其是注意力机制编码网络,它通过聚焦于图像的关键部分,进一步提高了特征提取的准确性。不仅结合了人脸三维融合特征和出入境签注信息,还通过支持向量机模型进行综合分析,这不仅提升了通关校验的准确性,也加强了系统对复杂情境的适应能力。这种综合化的分析模型能够有效识别和预防安全风险,提升整个出入境管理系统的安全水平。通过利用自助闸机对第二运动目标用户进行人脸图像序列的采集和三维特征检测,结合通关校验分析模型进行实时通关校验,大大提升了通关的自动化和智能化水平。不仅加快了通关速度,降低了人工成本,本申请采用大数据技术提高了出入境信息采集和分析的准确率。
在一具体实施例中,执行步骤S101的过程可以具体包括如下步骤:
(1)基于预置的出入境管理大数据平台分别对多个第一运动目标用户进行通关业务场景人脸图像采集,得到每个第一运动目标用户的多个初始人脸图像序列;
(2)对每个第一运动目标用户的多个初始人脸图像序列进行Wiener滤波,得到每个第一运动目标用户的多个第一人脸图像序列;
(3)对多个第一运动目标用户进行运动状态的人脸光谱属性提取,得到人脸光谱波段信息,并根据人脸光谱波段信息对多个第一人脸图像序列进行光谱校正,得到每个第一运动目标用户的多个第二人脸图像序列;
(4)对多个第二人脸图像序列进行光谱标准化,得到每个第一运动目标用户的多个标准人脸图像序列。
具体的,通过高分辨率的摄像设备,对多个第一运动目标用户进行通关业务场景人脸图像采集。摄像设备安装在通关区域的关键位置,如海关检查点、自助通关机等,以捕捉经过该区域的旅客的面部图像。在这个过程中,确保所采集的人脸图像能够清晰反映每个旅客的面部特征,包括面部轮廓、眼睛、鼻子和嘴巴的位置及其相对大小。由于通关场景中存在不同的光照条件和背景干扰,因此采集到的初始人脸图像会包含各种噪声和畸变。为了提高图像质量,对每个第一运动目标用户采集到的多个初始人脸图像序列进行Wiener滤波处理,减少图像中的噪声并增强图像质量。Wiener滤波是一种经典的图像去噪技术,它通过考虑图像的统计特性来估计原始图像,适用于在未知噪声条件下对图像进行去噪。通过这种处理,每个第一运动目标用户的人脸图像将更加清晰,减少了由于环境因素造成的图像模糊和畸变,从而得到每个用户的多个第一人脸图像序列。对第一人脸图像序列进行人脸光谱属性提取。通过图像处理技术和光谱分析工具,提取出人脸图像在不同光谱波段下的特征。光谱分析能够揭示由于光照条件不同而在人脸图像上产生的细微变化,例如在不同波长的光照下,皮肤的反射特性会有所不同。通过这种分析,获得关于每个用户面部特征的更多信息,从而得到人脸光谱波段信息。根据人脸光谱波段信息对第一人脸图像序列进行光谱校正,调整图像中的颜色偏差,确保人脸图像在不同的光照条件下都能保持一致性,最终得到每个用户的多个第二人脸图像序列。对第二人脸图像序列进行光谱标准化处理。光谱标准化的目的是将所有人脸图像转换到一个统一的光谱标准下,使其适应于后续的人脸识别和分析过程。这通常通过调整图像中的色彩平衡和对比度来实现,以确保不同图像之间在色彩和亮度上具有一致性。通过这样的标准化处理,可以确保最终得到的人脸图像序列在不同用户和不同场景下都具有高度的一致性和可比较性。
在一具体实施例中,执行步骤S102的过程可以具体包括如下步骤:
(1)分别对多个标准人脸图像序列进行光谱信息融合和人脸三维变换,得到每个标准人脸图像序列的第一变换向量集合;
(2)分别对第一变换向量集合进行协方差矩阵计算,得到每个标准人脸图像序列的目标协方差矩阵;
(3)对目标协方差矩阵进行特征值分解,得到每个标准人脸图像序列的特征值以及特征向量;
(4)根据特征值以及特征向量,对多个标准人脸图像序列进行人脸图像编码,得到每个第一运动目标用户的多个人脸编码图像序列。
具体的,对多个标准人脸图像序列进行光谱信息融合和人脸三维变换。光谱信息融合旨在结合来自不同光谱范围的图像信息,以增强面部特征的可辨识度和鲁棒性。通过专门的图像处理算法,例如利用多波段图像融合技术,可以更好地揭示人脸的细节特征,如皮肤纹理、面部表情等。人脸三维变换则是为了从二维的人脸图像中重建出三维的人脸模型。通过三维重建算法和深度学习技术,准确地模拟人脸的三维结构。通过这些处理,每个标准人脸图像序列被转换成对应的第一变换向量集合,这些集合包含了人脸的重要三维几何信息。对每个第一变换向量集合进行协方差矩阵计算,得到每个标准人脸图像序列的目标协方差矩阵。协方差矩阵的作用是量化各个向量之间的相互关系,包括不同面部特征之间的关联性。通过这种统计分析,可以更好地理解面部特征的变化规律和相互依赖性。例如,协方差矩阵可以揭示面部特征如眼睛大小和脸部宽度之间的相互关系。对目标协方差矩阵进行特征值分解。特征值分解是一种数学方法,用于从协方差矩阵中提取关键的特征信息。这个过程中,目标协方差矩阵被分解为特征值和对应的特征向量,这些特征值和特征向量共同描述了人脸特征的主要变化模式和方向。例如,较大的特征值对应于影响面部识别的主要特征,如脸型和眼睛间距,而较小的特征值表示较不显著的变化。这样的分解使得人脸特征的表示更为精确和有区分性。根据特征值和特征向量,对多个标准人脸图像序列进行人脸图像编码。通过特征值和特征向量生成每个第一运动目标用户的人脸编码图像序列。这种编码方式不仅高效地捕捉了人脸的关键特征,还保持了数据的紧凑性和易于处理的特点。
在一具体实施例中,执行步骤S103的过程可以具体包括如下步骤:
(1)分别对多个人脸编码图像序列进行人脸图像解码,得到每个人脸编码图像序列的锚向量矩阵;
(2)分别对每个人脸编码图像序列的锚向量矩阵进行光谱信息融合和人脸三维逆变换,得到每个人脸编码图像序列的第二变换向量集合;
(3)分别对第二变换向量集合进行人脸图像解码和图像重建,得到每个第一运动目标用户的多个训练人脸图像序列。
具体的,对每个人脸编码图像序列进行解码,从编码状态恢复出可识别的图像信息。人脸编码图像序列包含了经过三维变换和进一步编码的人脸特征,这些编码是基于深度学习模型生成的高维数据表示。解码这些图像序列的目的是将这些高维数据重新转换成图像的可视化形式。其中每个编码序列被转换成对应的锚向量矩阵,这些矩阵包含了人脸图像的基本结构和特征信息。对每个人脸编码图像序列的锚向量矩阵进行光谱信息融合和人脸三维逆变换。光谱信息融合旨在增强图像中的面部特征,使得不同波段的光谱数据可以共同作用,提升面部特征的辨识度和清晰度。例如,结合红外和可见光光谱数据可以帮助揭示面部的不同纹理和细节。人脸三维逆变换是将先前获得的三维人脸数据转换回二维图像形式。这一转换是通过数学算法完成的,其核心在于精确地映射三维特征回原始或接近原始的二维平面,确保人脸特征在维度转换过程中的准确性和完整性。通过这些处理,获得每个人脸编码图像序列的第二变换向量集合,这些集合反映了人脸的细节和结构特征。对第二变换向量集合进行人脸图像解码和图像重建,生成每个第一运动目标用户的多个训练人脸图像序列。在这一过程中,第二变换向量集合被用于生成接近原始状态的人脸图像。图像重建过程不仅要求恢复人脸的基本视觉特征,还要保留其原有的细节和质感。这种重建的图像序列将作为训练数据输入到人脸识别系统中,用于训练模型以识别和验证不同的第一运动目标用户。通过以上处理过程,能够确保所获得的训练人脸图像序列在质量和准确性上都满足出入境管理系统的高标准要求,从而提升系统的识别性能和效率。
在一具体实施例中,执行步骤S104的过程可以具体包括如下步骤:
(1)将多个训练人脸图像序列输入预置的人脸三维特征检测模型,人脸三维特征检测模型包括:多维人脸特征提取网络、注意力机制编码网络、解码网络以及预测层;
(2)通过多维人脸特征提取网络分别对每个训练人脸图像序列进行特征图提取,得到每个训练人脸图像序列的多个第一人脸状态特征图,并对多个第一人脸状态特征图进行特征融合,得到每个训练人脸图像序列的第二人脸状态特征图;
(3)通过注意力机制编码网络对第二人脸状态特征图进行三维卷积操作,得到每个训练人脸图像序列的第一人脸三维卷积特征图,注意力机制编码网络包括第一三层卷积层和残差网络;
(4)通过解码网络中的第二三层卷积层,对第一人脸三维卷积特征图进行三维卷积运算,得到第二人脸三维卷积特征图;
(5)通过预测层对第二人脸三维卷积特征图进行反卷积处理和人脸三维特征预测,得到每个训练人脸图像序列的初始人脸三维光谱特征;
(6)对每个训练人脸图像序列的初始人脸三维光谱特征进行特征加权平均处理,得到每个第一运动目标用户的人脸三维融合特征。
具体的,将训练人脸图像序列输入到预置的人脸三维特征检测模型中。该模型是一个复杂的深度学习架构,包含多维人脸特征提取网络、注意力机制编码网络、解码网络以及预测层等多个组成部分。通过多维人脸特征提取网络对每个训练人脸图像序列进行特征图提取,从每个图像序列中提取出多个第一人脸状态特征图,这些特征图包含了丰富的面部信息,如轮廓、特征点位置等。对第一人脸状态特征图进行特征融合,得到每个训练人脸图像序列的第二人脸状态特征图。特征融合的目的是结合不同特征图中的信息,以形成一个更为全面和细致的人脸表示。通过注意力机制编码网络对第二人脸状态特征图进行进一步处理。该网络结构包括第一三层卷积层和残差网络,利用三维卷积操作加工这些特征图,产生每个训练人脸图像序列的第一人脸三维卷积特征图。注意力机制的作用是关注特征图中的关键区域,确保模型能够捕捉到最具代表性和区分性的人脸特征。通过解码网络中的第二三层卷积层对这些第一人脸三维卷积特征图进行进一步的三维卷积运算,从而得到更加精细化的第二人脸三维卷积特征图。通过预测层对第二人脸三维卷积特征图进行反卷积处理和人脸三维特征的预测。将所有先前的处理和分析转化为具体的、可用于后续应用的人脸三维特征。例如,反卷积处理可以帮助恢复人脸特征的空间分辨率,使得预测的三维特征更加接近真实世界中的人脸结构。每个训练人脸图像序列的初始人脸三维光谱特征通过特征加权平均处理得到每个第一运动目标用户的人脸三维融合特征,确保每个用户的人脸三维融合特征既具有高度的代表性又保持了个体特征的独特性。
在一具体实施例中,执行步骤S105的过程可以具体包括如下步骤:
(1)对多个第一运动目标用户进行出入境签注信息匹配,得到每个第一运动目标用户的目标出入境签注信息;
(2)将每个第一运动目标用户的人脸三维融合特征作为输入特征,并将目标出入境签注信息作为预测标签;
(3)将人脸三维融合特征以及目标出入境签注信息输入预置的支持向量机模型进行模型训练和模型优化,得到通关校验分析模型。
具体的,对多个第一运动目标用户进行出入境签注信息匹配。在这一阶段,系统访问一个包含了广泛的出入境记录和签注信息的数据库,该据库存储了用户的出入境历史、签证类型、有效期等关键信息。签注信息的匹配是通过比对数据库中存储的信息与用户实际提供的信息,如护照信息和签证申请等,确保能够准确地获取目标出入境签注信息。将每个第一运动目标用户的人脸三维融合特征作为输入特征,并将目标出入境签注信息作为预测标签。人脸三维融合特征是通过先前的深度学习和图像处理过程获得的,包含了用户面部的关键三维结构和光谱特征。这些特征作为输入,能够为支持向量机(SVM)模型提供生物识别数据。目标出入境签注信息作为预测标签,指导模型学习如何根据用户的生物特征来预测其签注状态。这种结合了生物识别技术和数据分析的方法,能够大大提高身份验证的准确性和效率。将人脸三维融合特征和目标出入境签注信息输入到预置的支持向量机模型中进行训练和优化。支持向量机是一种监督学习算法,适合于处理高维数据和复杂分类问题。本实施例中,SVM模型被训练来识别和区分不同用户的人脸特征与其签注信息之间的关联。模型训练过程涉及到选择合适的核函数、调整超参数等,以确保模型能够在不同的用户和不同的出入境情境下都保持高准确度。优化后的模型将成为一个通关校验分析模型,能够用于实时预测用户的出入境资格。
在一具体实施例中,执行步骤S106的过程可以具体包括如下步骤:
(1)通过预置的出入境自助闸机获取第二运动目标用户的目标人脸图像序列,并对目标人脸图像序列进行人脸三维特征检测,得到目标三维融合特征;
(2)将目标三维融合特征输入通关校验分析模型,并通过通关校验分析模型进行通关校验,得到通关校验分析结果;
(3)根据通关校验分析结果控制出入境自助闸机进行放行或者报警。
具体的,布置高精度的摄像头于自助闸机处,用于获取第二运动目标用户即旅客的目标人脸图像序列。这些摄像头需配置高分辨率和高帧率的特性,以确保能够在旅客通过自助闸机时快速并准确地捕捉其面部图像。将捕获的目标人脸图像序列输入人脸三维特征检测系统中,通过图像处理技术和深度学习模型来分析旅客的面部特征。在这个过程中,对图像序列进行预处理,包括去噪、对齐和归一化,以确保图像质量适合后续的深度分析。利用深度学习模型,如卷积神经网络(CNN),对每一幅图像进行特征提取,从而获取旅客面部的三维结构信息。这些信息被综合处理后,形成了旅客的目标三维融合特征,这一特征集包含了旅客面部的关键三维信息,如轮廓、眼睛、鼻子、嘴巴的位置及其相对关系。将目标三维融合特征输入预先训练好的通关校验分析模型中。这个模型基于支持向量机(SVM)机器学习算法,用于判断旅客是否满足通关条件。例如,模型将根据旅客的三维融合特征与其出入境签注信息进行比对,以确认旅客的身份并核实其出入境资格。在这个过程中,模型会考虑多种因素,如旅客的面部特征是否与护照照片一致,签证信息是否有效等,以确保通关的安全性和准确性。根据通关校验分析模型的结果,自助闸机将作出相应的反应。如果旅客通过了通关校验,自助闸机将自动开启,允许旅客顺利通过。相反,如果旅客未能通过校验,自助闸机将保持关闭,并触发警报,提示安全人员进行进一步检查。这种自动化的通关流程不仅提高了通关效率,也增强了安全管理的有效性。
上面对本申请实施例中基于大数据的信息采集分析方法进行了描述,下面对本申请实施例中基于大数据的信息采集分析装置进行描述,请参阅图2,本申请实施例中基于大数据的信息采集分析装置一个实施例包括:
采集模块201,用于基于预置的出入境管理大数据平台分别对多个第一运动目标用户进行通关业务场景人脸图像采集,得到每个第一运动目标用户的多个初始人脸图像序列,并对所述多个初始人脸图像序列进行图像去噪和人脸光谱分析,得到每个第一运动目标用户的多个标准人脸图像序列;
编码模块202,用于对每个第一运动目标用户的多个标准人脸图像序列进行人脸三维变换和人脸图像编码,得到每个第一运动目标用户的多个人脸编码图像序列;
解码模块203,用于对所述多个人脸编码图像序列进行人脸图像解码和人脸三维逆变换,得到每个第一运动目标用户的多个训练人脸图像序列;
检测模块204,用于将所述多个训练人脸图像序列输入预置的人脸三维特征检测模型进行人脸三维特征检测,得到每个第一运动目标用户的人脸三维融合特征;
建模模块205,用于对所述多个第一运动目标用户进行出入境签注信息匹配,得到每个第一运动目标用户的目标出入境签注信息,并对所述人脸三维融合特征和所述目标出入境签注信息进行通关校验业务场景建模,得到通关校验分析模型;
分析模块206,用于通关预置的出入境自助闸机获取第二运动目标用户的目标人脸图像序列,并通过所述通关校验分析模型对所述第二运动目标用户进行通关校验,得到通关校验分析结果,以及根据所述通关校验分析结果控制所述出入境自助闸机进行放行或者报警。
通过上述各个组成部分的协同合作,通过预置的出入境管理大数据平台,能够高效地对多个运动目标用户进行通关业务场景下的人脸图像采集。通过引入Wiener滤波和人脸光谱分析,进一步提高了人脸图像序列的质量。这不仅提升了图像处理的效率,还确保了后续步骤中人脸识别的准确性。通过对标准人脸图像序列进行人脸三维变换和人脸图像编码,能够准确捕捉每个运动目标用户的独特人脸特征,并将这些特征有效编码,为后续的人脸比对和识别提供了可靠的数据基础。采用先进的三维特征检测模型,包括多维人脸特征提取网络、注意力机制编码网络、解码网络以及预测层,这些技术的综合运用大大提升了人脸特征检测的准确性和效率。尤其是注意力机制编码网络,它通过聚焦于图像的关键部分,进一步提高了特征提取的准确性。不仅结合了人脸三维融合特征和出入境签注信息,还通过支持向量机模型进行综合分析,这不仅提升了通关校验的准确性,也加强了系统对复杂情境的适应能力。这种综合化的分析模型能够有效识别和预防安全风险,提升整个出入境管理系统的安全水平。通过利用自助闸机对第二运动目标用户进行人脸图像序列的采集和三维特征检测,结合通关校验分析模型进行实时通关校验,大大提升了通关的自动化和智能化水平。不仅加快了通关速度,降低了人工成本,本申请采用大数据技术提高了出入境信息采集和分析的准确率。
本申请还提供一种基于大数据的信息采集分析设备,所述基于大数据的信息采集分析设备包括存储器和处理器,存储器中存储有计算机可读指令,计算机可读指令被处理器执行时,使得处理器执行上述各实施例中的所述基于大数据的信息采集分析方法的步骤。
本申请还提供一种计算机可读存储介质,该计算机可读存储介质可以为非易失性计算机可读存储介质,该计算机可读存储介质也可以为易失性计算机可读存储介质,所述计算机可读存储介质中存储有指令,当所述指令在计算机上运行时,使得计算机执行所述基于大数据的信息采集分析方法的步骤。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,系统和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(random acceS memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (7)
1.一种基于大数据的信息采集分析方法,其特征在于,所述基于大数据的信息采集分析方法包括:
基于预置的出入境管理大数据平台分别对多个第一运动目标用户进行通关业务场景人脸图像采集,得到每个第一运动目标用户的多个初始人脸图像序列,并对所述多个初始人脸图像序列进行图像去噪和人脸光谱分析,得到每个第一运动目标用户的多个标准人脸图像序列;
对每个第一运动目标用户的多个标准人脸图像序列进行人脸三维变换和人脸图像编码,得到每个第一运动目标用户的多个人脸编码图像序列;具体包括:分别对所述多个标准人脸图像序列进行光谱信息融合和人脸三维变换,得到每个标准人脸图像序列的第一变换向量集合;分别对所述第一变换向量集合进行协方差矩阵计算,得到每个标准人脸图像序列的目标协方差矩阵;对所述目标协方差矩阵进行特征值分解,得到每个标准人脸图像序列的特征值以及特征向量;根据所述特征值以及所述特征向量,对所述多个标准人脸图像序列进行人脸图像编码,得到每个第一运动目标用户的多个人脸编码图像序列;
对所述多个人脸编码图像序列进行人脸图像解码和人脸三维逆变换,得到每个第一运动目标用户的多个训练人脸图像序列;具体包括:分别对所述多个人脸编码图像序列进行人脸图像解码,得到每个人脸编码图像序列的锚向量矩阵;分别对每个人脸编码图像序列的锚向量矩阵进行光谱信息融合和人脸三维逆变换,得到每个人脸编码图像序列的第二变换向量集合;分别对所述第二变换向量集合进行人脸图像解码和图像重建,得到每个第一运动目标用户的多个训练人脸图像序列;
将所述多个训练人脸图像序列输入预置的人脸三维特征检测模型进行人脸三维特征检测,得到每个第一运动目标用户的人脸三维融合特征;
对所述多个第一运动目标用户进行出入境签注信息匹配,得到每个第一运动目标用户的目标出入境签注信息,并对所述人脸三维融合特征和所述目标出入境签注信息进行通关校验业务场景建模,得到通关校验分析模型;具体包括:对所述多个第一运动目标用户进行出入境签注信息匹配,得到每个第一运动目标用户的目标出入境签注信息;将每个第一运动目标用户的人脸三维融合特征作为输入特征,并将所述目标出入境签注信息作为预测标签;将所述人脸三维融合特征以及所述目标出入境签注信息输入预置的支持向量机模型进行模型训练和模型优化,得到通关校验分析模型;
通关预置的出入境自助闸机获取第二运动目标用户的目标人脸图像序列,并通过所述通关校验分析模型对所述第二运动目标用户进行通关校验,得到通关校验分析结果,以及根据所述通关校验分析结果控制所述出入境自助闸机进行放行或者报警。
2.根据权利要求1所述的基于大数据的信息采集分析方法,其特征在于,所述基于预置的出入境管理大数据平台分别对多个第一运动目标用户进行通关业务场景人脸图像采集,得到每个第一运动目标用户的多个初始人脸图像序列,并对所述多个初始人脸图像序列进行图像去噪和人脸光谱分析,得到每个第一运动目标用户的多个标准人脸图像序列,包括:
基于预置的出入境管理大数据平台分别对多个第一运动目标用户进行通关业务场景人脸图像采集,得到每个第一运动目标用户的多个初始人脸图像序列;
对每个第一运动目标用户的多个初始人脸图像序列进行Wiener滤波,得到每个第一运动目标用户的多个第一人脸图像序列;
对多个第一运动目标用户进行运动状态的人脸光谱属性提取,得到人脸光谱波段信息,并根据所述人脸光谱波段信息对所述多个第一人脸图像序列进行光谱校正,得到每个第一运动目标用户的多个第二人脸图像序列;
对所述多个第二人脸图像序列进行光谱标准化,得到每个第一运动目标用户的多个标准人脸图像序列。
3.根据权利要求1所述的基于大数据的信息采集分析方法,其特征在于,所述将所述多个训练人脸图像序列输入预置的人脸三维特征检测模型进行人脸三维特征检测,得到每个第一运动目标用户的人脸三维融合特征,包括:
将所述多个训练人脸图像序列输入预置的人脸三维特征检测模型,所述人脸三维特征检测模型包括:多维人脸特征提取网络、注意力机制编码网络、解码网络以及预测层;
通过所述多维人脸特征提取网络分别对每个训练人脸图像序列进行特征图提取,得到每个训练人脸图像序列的多个第一人脸状态特征图,并对所述多个第一人脸状态特征图进行特征融合,得到每个训练人脸图像序列的第二人脸状态特征图;
通过所述注意力机制编码网络对所述第二人脸状态特征图进行三维卷积操作,得到每个训练人脸图像序列的第一人脸三维卷积特征图,所述注意力机制编码网络包括第一三层卷积层和残差网络;
通过所述解码网络中的第二三层卷积层,对所述第一人脸三维卷积特征图进行三维卷积运算,得到第二人脸三维卷积特征图;
通过所述预测层对所述第二人脸三维卷积特征图进行反卷积处理和人脸三维特征预测,得到每个训练人脸图像序列的初始人脸三维光谱特征;
对每个训练人脸图像序列的初始人脸三维光谱特征进行特征加权平均处理,得到每个第一运动目标用户的人脸三维融合特征。
4.根据权利要求1所述的基于大数据的信息采集分析方法,其特征在于,所述通关预置的出入境自助闸机获取第二运动目标用户的目标人脸图像序列,并通过所述通关校验分析模型对所述第二运动目标用户进行通关校验,得到通关校验分析结果,以及根据所述通关校验分析结果控制所述出入境自助闸机进行放行或者报警,包括:
通过预置的出入境自助闸机获取第二运动目标用户的目标人脸图像序列,并对所述目标人脸图像序列进行人脸三维特征检测,得到目标三维融合特征;
将所述目标三维融合特征输入所述通关校验分析模型,并通过所述通关校验分析模型进行通关校验,得到通关校验分析结果;
根据所述通关校验分析结果控制所述出入境自助闸机进行放行或者报警。
5.一种基于大数据的信息采集分析装置,其特征在于,所述基于大数据的信息采集分析装置包括:
采集模块,用于基于预置的出入境管理大数据平台分别对多个第一运动目标用户进行通关业务场景人脸图像采集,得到每个第一运动目标用户的多个初始人脸图像序列,并对所述多个初始人脸图像序列进行图像去噪和人脸光谱分析,得到每个第一运动目标用户的多个标准人脸图像序列;
编码模块,用于对每个第一运动目标用户的多个标准人脸图像序列进行人脸三维变换和人脸图像编码,得到每个第一运动目标用户的多个人脸编码图像序列;具体包括:分别对所述多个标准人脸图像序列进行光谱信息融合和人脸三维变换,得到每个标准人脸图像序列的第一变换向量集合;分别对所述第一变换向量集合进行协方差矩阵计算,得到每个标准人脸图像序列的目标协方差矩阵;对所述目标协方差矩阵进行特征值分解,得到每个标准人脸图像序列的特征值以及特征向量;根据所述特征值以及所述特征向量,对所述多个标准人脸图像序列进行人脸图像编码,得到每个第一运动目标用户的多个人脸编码图像序列;
解码模块,用于对所述多个人脸编码图像序列进行人脸图像解码和人脸三维逆变换,得到每个第一运动目标用户的多个训练人脸图像序列;具体包括:分别对所述多个人脸编码图像序列进行人脸图像解码,得到每个人脸编码图像序列的锚向量矩阵;分别对每个人脸编码图像序列的锚向量矩阵进行光谱信息融合和人脸三维逆变换,得到每个人脸编码图像序列的第二变换向量集合;分别对所述第二变换向量集合进行人脸图像解码和图像重建,得到每个第一运动目标用户的多个训练人脸图像序列;
检测模块,用于将所述多个训练人脸图像序列输入预置的人脸三维特征检测模型进行人脸三维特征检测,得到每个第一运动目标用户的人脸三维融合特征;
建模模块,用于对所述多个第一运动目标用户进行出入境签注信息匹配,得到每个第一运动目标用户的目标出入境签注信息,并对所述人脸三维融合特征和所述目标出入境签注信息进行通关校验业务场景建模,得到通关校验分析模型;具体包括:对所述多个第一运动目标用户进行出入境签注信息匹配,得到每个第一运动目标用户的目标出入境签注信息;将每个第一运动目标用户的人脸三维融合特征作为输入特征,并将所述目标出入境签注信息作为预测标签;将所述人脸三维融合特征以及所述目标出入境签注信息输入预置的支持向量机模型进行模型训练和模型优化,得到通关校验分析模型;
分析模块,用于通关预置的出入境自助闸机获取第二运动目标用户的目标人脸图像序列,并通过所述通关校验分析模型对所述第二运动目标用户进行通关校验,得到通关校验分析结果,以及根据所述通关校验分析结果控制所述出入境自助闸机进行放行或者报警。
6.一种基于大数据的信息采集分析设备,其特征在于,所述基于大数据的信息采集分析设备包括:存储器和至少一个处理器,所述存储器中存储有指令;
所述至少一个处理器调用所述存储器中的所述指令,以使得所述基于大数据的信息采集分析设备执行如权利要求1-4中任一项所述的基于大数据的信息采集分析方法。
7.一种计算机可读存储介质,所述计算机可读存储介质上存储有指令,其特征在于,所述指令被处理器执行时实现如权利要求1-4中任一项所述的基于大数据的信息采集分析方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410257675.8A CN117854138B (zh) | 2024-03-07 | 2024-03-07 | 基于大数据的信息采集分析方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410257675.8A CN117854138B (zh) | 2024-03-07 | 2024-03-07 | 基于大数据的信息采集分析方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117854138A CN117854138A (zh) | 2024-04-09 |
CN117854138B true CN117854138B (zh) | 2024-05-10 |
Family
ID=90540349
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410257675.8A Active CN117854138B (zh) | 2024-03-07 | 2024-03-07 | 基于大数据的信息采集分析方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117854138B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111476060A (zh) * | 2019-01-23 | 2020-07-31 | 北京奇虎科技有限公司 | 人脸清晰度分析方法、装置、计算机设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022266955A1 (zh) * | 2021-06-24 | 2022-12-29 | Oppo广东移动通信有限公司 | 图像解码及处理方法、装置及设备 |
WO2023000864A1 (zh) * | 2021-07-19 | 2023-01-26 | 清华大学 | 一种人脸识别方法及系统 |
WO2023116507A1 (zh) * | 2021-12-22 | 2023-06-29 | 北京沃东天骏信息技术有限公司 | 一种目标检测模型的训练方法、目标检测的方法和装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1880364A1 (en) * | 2005-05-12 | 2008-01-23 | Bracco Imaging S.P.A. | Method for coding pixels or voxels of a digital image and a method for processing digital images |
US20190320934A1 (en) * | 2018-04-18 | 2019-10-24 | Siemens Healthcare Gmbh | Medical image acquisition with sequence prediction using deep learning |
US20230281751A1 (en) * | 2022-03-03 | 2023-09-07 | Rensselaer Polytechnic Institute | Systems and methods for multi-modal multi-dimensional image registration |
-
2024
- 2024-03-07 CN CN202410257675.8A patent/CN117854138B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022266955A1 (zh) * | 2021-06-24 | 2022-12-29 | Oppo广东移动通信有限公司 | 图像解码及处理方法、装置及设备 |
WO2023000864A1 (zh) * | 2021-07-19 | 2023-01-26 | 清华大学 | 一种人脸识别方法及系统 |
WO2023116507A1 (zh) * | 2021-12-22 | 2023-06-29 | 北京沃东天骏信息技术有限公司 | 一种目标检测模型的训练方法、目标检测的方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN117854138A (zh) | 2024-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Del Rio et al. | Automated border control e-gates and facial recognition systems | |
Ismael et al. | Face recognition using Viola-Jones depending on Python | |
CN117854138B (zh) | 基于大数据的信息采集分析方法、装置、设备及存储介质 | |
US11232280B2 (en) | Method of extracting features from a fingerprint represented by an input image | |
US20230076017A1 (en) | Method for training neural network by using de-identified image and server providing same | |
CN108446687B (zh) | 一种基于移动端和后台互联的自适应人脸视觉认证方法 | |
Wati et al. | Security of facial biometric authentication for attendance system | |
CN111178130A (zh) | 一种基于深度学习的人脸识别方法、系统和可读存储介质 | |
Raharja et al. | Vehicle parking security system with face recognition detection based on eigenface algorithm | |
CN114218543A (zh) | 一种基于多场景表情识别的加密解锁系统及方法 | |
Al-Ghrairi et al. | Face detection and recognition with 180 degree rotation based on principal component analysis algorithm | |
Ngxande et al. | Detecting inter-sectional accuracy differences in driver drowsiness detection algorithms | |
CN117558011B (zh) | 基于自一致性矩阵和多尺度损失的图像文本篡改检测方法 | |
CN113657498B (zh) | 生物特征提取方法、训练方法、认证方法、装置和设备 | |
Soomro et al. | FPGA Based Real-Time Face Authorization System for Electronic Voting System | |
WO2023158408A1 (en) | Face recognition method | |
CN115116120A (zh) | 一种基于深度自编码器的人脸表情图像分析方法 | |
WO2016032410A1 (en) | Intelligent system for photorealistic facial composite production from only fingerprint | |
Wyzykowski et al. | A Universal Latent Fingerprint Enhancer Using Transformers | |
Cenys et al. | Genetic algorithm based palm recognition method for biometric authentication systems | |
CN111611848B (zh) | 尸体虹膜识别方法和装置 | |
Maradithaya et al. | Image Verification and Emotion Detection using Effective Modelling Techniques | |
Chhabra et al. | Image processing based Latent fingerprint forensics-A survey | |
CN117523616B (zh) | 商场监控环境下的儿童特征提取方法、装置 | |
CN116933041B (zh) | 力传感器编号校对系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |