CN116189262A - 一种基于大数据的人脸识别方法 - Google Patents
一种基于大数据的人脸识别方法 Download PDFInfo
- Publication number
- CN116189262A CN116189262A CN202310136079.XA CN202310136079A CN116189262A CN 116189262 A CN116189262 A CN 116189262A CN 202310136079 A CN202310136079 A CN 202310136079A CN 116189262 A CN116189262 A CN 116189262A
- Authority
- CN
- China
- Prior art keywords
- face
- module
- face image
- information
- data information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 230000001815 facial effect Effects 0.000 claims abstract description 36
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 23
- 238000007405 data analysis Methods 0.000 claims abstract description 8
- 125000003275 alpha amino acid group Chemical group 0.000 claims description 34
- 150000001875 compounds Chemical class 0.000 claims description 32
- 239000011159 matrix material Substances 0.000 claims description 29
- 230000002159 abnormal effect Effects 0.000 claims description 23
- 230000006870 function Effects 0.000 claims description 23
- 238000004364 calculation method Methods 0.000 claims description 18
- 230000004927 fusion Effects 0.000 claims description 18
- 238000013507 mapping Methods 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 17
- 238000003860 storage Methods 0.000 claims description 14
- 238000004891 communication Methods 0.000 claims description 13
- 238000001514 detection method Methods 0.000 claims description 7
- 238000007781 pre-processing Methods 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 6
- 238000012549 training Methods 0.000 claims description 6
- QBPPRVHXOZRESW-UHFFFAOYSA-N 1,4,7,10-tetraazacyclododecane Chemical compound C1CNCCNCCNCCN1 QBPPRVHXOZRESW-UHFFFAOYSA-N 0.000 claims description 3
- 230000007488 abnormal function Effects 0.000 claims description 3
- 230000005856 abnormality Effects 0.000 claims description 3
- 230000001133 acceleration Effects 0.000 claims description 3
- 230000005540 biological transmission Effects 0.000 claims description 3
- 238000003066 decision tree Methods 0.000 claims description 3
- 238000012544 monitoring process Methods 0.000 claims description 3
- 230000001629 suppression Effects 0.000 claims description 3
- 230000007613 environmental effect Effects 0.000 claims description 2
- 238000012545 processing Methods 0.000 abstract description 12
- 238000009826 distribution Methods 0.000 description 7
- 230000014509 gene expression Effects 0.000 description 5
- 238000005286 illumination Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 101100425816 Dictyostelium discoideum top2mt gene Proteins 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 150000001413 amino acids Chemical class 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 210000000720 eyelash Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 101150082896 topA gene Proteins 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000005303 weighing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开一种基于大数据的人脸识别方法,涉及大数据处理技术领域,包括步骤一:人脸图像采集与预处理;步骤二:人脸图像编码;步骤三:人脸图像的比对;步骤四:比对结果上传;通过本发明采用通过采用人脸图像特征比对模块通过设计根节点和分支结构的DDAGSVM多类分类器对编码的人脸图像进行分类;改进后的DDAGSVM多类分类器提高了分类性能以及分类速度;人脸图像特征比对模块通过采用改进Retinex算法模型实现人脸图像数据分析进行对比;提高图像的层次性,提高了识别速度。
Description
技术领域
本发明涉及大数据处理技术领域,且更具体地涉及一种基于大数据的人脸识别方法。
背景技术
人脸识别,是基于人的脸部特征信息进行身份识别的一种生物识别技术。随着其技术的成熟和社会认同度的提高,人脸识别被应用在很多领域,例如,人脸识别门禁考勤系统,人脸识别防盗门,人脸识别手机解锁,人脸识别来运行的机器人等。
人脸识别作为一种典型的生物特征鉴别方式,已经成为模式识别领域中一个重要的发明方向,具有广阔的应用前景。近年来移动互联网的迅速发展对人脸识别的应用也随之产生了新的需求,可是传统的人脸识别方法由于运算量较大,在移动环境下对内存容量、电池续航能力等硬件的要求较高,难以应对移动互联网环境下的大数据量处理,就出现了人脸识别速度慢,人脸识别精度不够高的问题,人脸数据信息采集能力差等问题。而且移动互联网是未来发展的趋势,而大数据环境下如何实现高质量、高速度的人脸识别,是未来人脸识别的一个发展方向。
基于此,本发明公开一种基于大数据的人脸识别方法。
发明内容
针对上述技术的不足,本发明公开一种一种基于大数据的人脸识别方法,本发明采用通过采用人脸图像特征比对模块通过设计根节点和分支结构的DDAGSVM多类分类器对编码的人脸图像进行分类;改进后的DDAGSVM多类分类器提高了分类性能以及分类速度;并通过包括特征分类模块和特征采集标识模块的人脸采集模块大大提高数据信息采集能力。
一种基于大数据的人脸识别方法,其中包括以下步骤:
步骤一:人脸图像采集与预处理;
在步骤一中,通过人脸采集模块采集人脸图像,并对人脸图像进行预处理;人脸采集模块用于采集当前用户的人脸图像,并对人脸图像进行预处理;所述人脸采集模块设置有语音播报系统,预处理方法包括直方图均衡和噪声抑制;其中人脸采集模块包括特征分类模块和特征采集标识模块,其中所述特征分类模块用于将采集到的不同数据信息划分为不同的数据信息集合,并设置不同数据信息集合之间的关联度,所述特征采集标识模块用于将不同数据信息集合用不同的符号进行标识,以区分不同人脸图像信息;
步骤二:人脸图像编码;
在步骤二中,采用人脸识别处理器对预处理好的人脸图像进行编码;人脸识别处理器用于将人脸采集器发送的需要识别的人脸信息与人脸识别处理器中预存的人脸信息进行配对,以实现人脸识别图像的配对;所述人脸识别处理器包括数据库共享模块、人脸图像编码模块、人脸图像特征比对模块、结果提示反馈模块和存储模块;所述数据库共享模块用于对样本人脸数据信息进行录入以及预存;所述人脸图像编码模块用于将人脸采集模块采集到的人脸图像以及数据库共享模块中的样本人脸图像进行编码,以提高人脸图像特征提取能力;所述人脸图像特征比对模块,用于对编码的人脸图像信息进行比对;所述结果提示反馈模块用于接收人脸图像特征比对模块比对的结果;所述存储模块用于存储结果提示反馈模块比对的结果;其中所述数据库共享模块的输出端与所述人脸图像编码模块的输入端连接,所述人脸图像编码模块的输出端与所述人脸图像特征比对模块的输入端连接,所述人脸图像特征比对模块的输出端与所述结果提示反馈模块的输入端连接,所述果提示反馈模块的输出端与所述存储模块的输入端连接;
步骤三:人脸图像的比对;
在步骤三中,人脸图像特征比对模块通过设计根节点和分支结构的DDAGSVM多类分类器对编码的人脸图像进行分类;人脸图像特征比对模块通过应用改进Retinex算法模型实现人脸图像数据分析进行对比;
其中所述改进Retinex算法模型通过LMR算法检测模型提高人脸图像对比能力;
步骤四:比对结果上传;
在步骤四中,通信模块将比对结果上传至识别终端模块,通过识别终端模块确认将结果显示在显示屏模块;通信模块用于将人脸比对结果上传到识别终端模块;识别终端模块用于对人脸识别过程进行实时监控以及对人脸比对结果进行确认接收;显示屏模块用于显示人脸图像识别最终结果;
其中所述通信模块的输出端与所述识别终端模块的输入端连接,所述识别终端模块的输出端与所述显示屏模块的输入端连接。
作为本发明进一步的技术方案,所述特征分类模块的方法为:
在公式(1)中,表示分类后人脸数据信息类别,n表示分类标识,M标识分类矩阵,设分布于不同子类内的两个人脸图像数据信息分别为s 1和s 2,对应的子类分别为m 1和m 2,子类m 1和m 2之间欧式距离为L m ,人脸图像数据信息s 1和s 2之间的欧式距离为L s ,对分布在不同种类内的人脸图像数据信息进行分类:
对于分布在多特征图像同一分类区域内的人脸图像数据信息,在进行数据分类时,以人脸图像数据信息间的相似度作为区分指标,多特征图像同一分类区域内的人脸图像数据信息s 1和s 2之间的相关因子b(l 1,l 2)的计算式为:
在公式(3)中,表示相关因子,l 1表示人脸图像数据信息s 1的相关因子,l 2表示人脸图像数据信息s 2的相关因子,计算得到人脸图像数据信息间的关联因子后,通过以下公式对不同分类区域的人脸图像数据信息进行数据分类:
设同一类各人脸图像数据信息间的相关程度的设置阈值为T(V),当b(l 1,l 2)>T(V)时,说明两个人脸图像数据信息之间的相似度较强,两个集合的区分公式为:
式(6)中,表示另一种人脸分类数据信息集合; 其中n表示同一分类区域内的人脸图像数据信息总量,P(x)是指人脸图像数据信息的数据分类正确概率;当b(l 1,l 2) ≤ T(V)时,说明两个人脸图像数据信息之间的相似度较弱,两个人脸数据信息集合的区分公式为:
作为本发明进一步的技术方案,所述特征采集标识模块通过以下函数对分类的人脸图像信息进行标识:
人脸图像数据信息异常标识函数Y的计算过程为:
式(11)中,表示第n个区域中人脸图像数据异常信息,/>表示人脸图像数据信息正常时标识均值偏差,/>表示人脸图像信息分类时分类速度;B(n,i)代表在一次循环过程中人脸图像数据信息检索n次时第i次搜索所对应的人脸图像数据信息节点,Y表示人脸图像数据信息异常标识函数;其中对应的人脸图像数据信息区域异常函数为:
S表示人脸图像识别区域内发生人脸识别数据信息异常参数。
作为本发明进一步的技术方案,DDAGSVM多类分类器包含决策树分类器、SVM分类器、DDAG分类器和信息匹配模块,其中所述信息匹配模块通过构建特征匹配模型将人脸数据识别信息输入至不同分类器,以自适应选择不同的分类器,其中特征匹配模型方程为:
式(13)中,表示不同分类器信息,T表示分类器标识,n表示分类器个数,E表示应用多种分类器进行特征匹配的函数值,/>表示人脸识别数据信息种类,/>表示匹配分类器的属性标识,/>表示匹配修复系数,DDAGSVM多类分类器对人脸数据识别信息分类输出函数为:
作为本发明进一步的技术方案,改进Retinex算法模型实现人脸图像数据分析的方法为:采用人脸图像特征比对模块将编码分类好的图像S(i,j)中的像素点的灰度值的数据由Byte类型转换为Double型。
作为本发明进一步的技术方案,所述存储模块设置有定期自动删除比对结果模块,定期自动删除比对结果。
作为本发明进一步的技术方案,所述通信模块采用5G模块、WiFi模块或NB-IoT模块进行网络传输。
作为本发明进一步的技术方案,人脸图像编码模块包括3D卷积模块、人脸图像融合模块、人脸数据信息映射模块和级联模块,其中所述3D卷积模块用于对人脸图像分类过程中连续图像之间信息进行分类;人脸图像融合模块用于将不同人脸图像信息进行信息融合;人脸数据信息映射模块用于将训练融合的人脸图像信息按照编码规则进行信息编码;级联模块用于将分割后的图像信息通过自适应规则调节以提高人脸图像编码和应用能力;其中3D卷积模块的输出端与人脸图像融合模块的输入端连接,人脸图像融合模块的输出端与人脸数据信息映射模块的输入端连接,人脸数据信息映射模块的输出端与级联模块的输入端连接。
作为本发明进一步的技术方案,人脸图像特征比对模块包括FPGA控制单元控制的模块匹配单元。
作为本发明进一步的技术方案,结果提示反馈模块包括预警模块。
本发明积极有益效果在于:
本发明采用通过采用人脸图像特征比对模块通过设计根节点和分支结构的DDAGSVM多类分类器对编码的人脸图像进行分类;传统DDAGSVM多类分类器易在结点上发生分类错误,影响分类性能;改进后的DDAGSVM多类分类器提高了分类性能以及分类速度;人脸图像特征比对模块通过应用改进Retinex算法模型实现人脸图像数据分析进行对比;传统的Retinex算法模型中的指数还原运算用灰度线性拉伸代替,同时对处理后的图像进行自适应对比度增强处理,用于提高图像的层次性,改善图象的视觉效果。
通过对一种基于大数据的人脸识别方法实现系统上的改进,设置太阳能LED模块,采用太阳能,节省人脸;设置定时自动删除,及时清理存储模块的存储信息。
通过设置包括3D卷积模块、人脸图像融合模块、人脸数据信息映射模块和级联模块构成的人脸图像编码模块大大提高人脸识别与计算能力。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图,其中:
图1为本发明一种基于大数据的人脸识别方法流程图;
图2为本发明系统结构连接图;
图3为本发明人脸图像编码模块的系统结构连接图;
图4 为本发明人脸特征识别过程中正常点和异常点分布差异;
图5 为本发明人脸特征识别过程中正常点和异常点的重构残差。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的实施例仅用于说明和解释本发明,并不用于限定本发明。
如图1所示,一种基于大数据的人脸识别方法,方法包括:
步骤一:人脸图像采集与预处理;
在步骤一中,通过人脸采集模块采集人脸图像,并对人脸图像进行预处理;人脸采集模块,用于采集当前用户的人脸图像,并对人脸图像进行预处理;所述人脸采集模块设置有语音播报系统,若待采集人员姿态不端正,语音播报系统进行语音提醒;预处理方法包括直方图均衡和噪声抑制;其中人脸采集模块包括特征分类模块和特征采集标识模块,其中所述特征分类模块用于将采集到的不同数据信息划分为不同的数据信息集合,并设置不同数据信息集合之间的关联度,所述特征采集标识模块用于将不同数据信息集合用不同的符号进行标识,以区分不同人脸图像信息;
步骤二:人脸图像编码;
在步骤二中,采用人脸识别处理器对预处理好的人脸图像进行编码;人脸识别处理器,用于将人脸采集器发送的需要识别的人脸信息与人脸识别处理器中预存的人脸信息进行配对,以实现人脸识别图像的配对;所述人脸识别处理器包括数据库共享模块、人脸图像编码模块、人脸图像特征比对模块、结果提示反馈模块和存储模块;所述数据库共享模块用于对样本人脸数据信息进行录入以及预存;所述人脸图像编码模块用于将人脸采集模块采集到的人脸图像以及数据库共享模块中的样本人脸图像进行编码,以提高人脸图像特征提取能力;所述人脸图像特征比对模块,用于对编码的人脸图像信息进行比对;所述结果提示反馈模块用于接收人脸图像特征比对模块比对的结果;所述存储模块用于存储结果提示反馈模块比对的结果;
其中,所述数据库共享模块的输出端与所述人脸图像编码模块的输入端连接,所述人脸图像编码模块的输出端与所述人脸图像特征比对模块的输入端连接,所述人脸图像特征比对模块的输出端与所述结果提示反馈模块的输入端连接,所述果提示反馈模块的输出端与所述存储模块的输入端连接;
步骤三:人脸图像的比对;
在步骤三中,人脸图像特征比对模块通过设计根节点和分支结构的DDAGSVM多类分类器对编码的人脸图像进行分类;人脸图像特征比对模块通过应用改进Retinex算法模型实现人脸图像数据分析进行对比;
步骤四:比对结果上传;
在步骤四中,通信模块将比对结果上传至识别终端模块,通过识别终端模块确认将结果显示在显示屏模块;通信模块用于将人脸比对结果上传到识别终端模块;识别终端模块用于对人脸识别过程进行实时监控以及对人脸比对结果进行确认接收;显示屏模块用于显示人脸图像识别最终结果;
其中,所述通信模块的输出端与所述识别终端模块的输入端连接,所述识别终端模块的输出端与所述显示屏模块的输入端连接。
在具体实施例中,直方图均衡对图像中像素个数多的灰度级进行展宽,同时压缩像素个数少的灰度级,以扩展像素取值动态范围,提高对比度,改善灰度色调变化,使采集到的人脸图像更加清晰。噪声点处的像素灰度值通常比非噪声点像素灰度值大或小,可以用一些合适的灰度值代替噪声点像素灰度值,以达到理想的滤波效果。
在具体实施例中,所述特征分类模块的方法为:
在公式(1)中,表示分类后人脸数据信息类别,n表示分类标识,M标识分类矩阵,设分布于不同子类内的两个人脸图像数据信息分别为s 1和s 2,对应的子类分别为m 1和m 2,子类m 1和m 2之间欧式距离为L m ,人脸图像数据信息s 1和s 2之间的欧式距离为L s ,对分布在不同种类内的人脸图像数据信息进行分类:
在具体实施例中,人脸信息的处理包括人脸数据信息的收集、存储、使用、加工、传输等,在人脸分析过程中,图像特征包括几何形状、图像、特征、尺寸等不同的信息特征,由于人脸呈现不同的类型和特征,导致数据信息也不同。因此在进行信息标识时,通过分类标识进行区分,应用标识分类矩阵对不同的信息进行标注、分类等。不同种类指的是人脸不同部位,比如眼睛、鼻子、嘴巴等。人脸图像数据信息可以为人脸部位或者形状等个体数据信息。对应的子类可以为眼睛、鼻子、嘴巴等具体信息的数据,比如眼睛的睫毛长度,眼角宽度等,鼻子的形状、高度等,嘴巴的形状等以此类推。欧式距离用于表示不同种类面部数据信息的关系与远近,比如嘴巴与鼻子之间的距离比嘴巴与眼睛之间的距离近,用欧式距离表示就是小。由于不同信息差异化,引入多特征图像的数据分类算子,实施中可以通过人工经验法计算、测量或者评估该数据分类算子的数值。
对于分布在多特征图像同一分类区域内的人脸图像数据信息,在进行数据分类时,以人脸图像数据信息间的相似度作为区分指标,多特征图像同一分类区域内的人脸图像数据信息s 1和s 2之间的相关因子b(l 1,l 2)的计算式为:
在公式(3)中,表示相关因子,l 1表示人脸图像数据信息s 1的相关因子,l 2表示人脸图像数据信息s 2的相关因子,计算得到人脸图像数据信息间的关联因子后,通过以下公式对不同分类区域的人脸图像数据信息进行数据分类:
设同一类各人脸图像数据信息间的相关程度的设置阈值为T(V),当b(l 1,l 2)>T(V)时,说明两个人脸图像数据信息之间的相似度较强,比如鼻子与嘴巴分割后的图像数据信息关联度比较强,两个集合的区分公式为:
式(6)中,表示另一种人脸分类数据信息集合; 其中n表示同一分类区域内的人脸图像数据信息总量,P(x)是指人脸图像数据信息的数据分类正确概率;当b(l 1,l 2) ≤ T(V)时,说明两个人脸图像数据信息之间的相似度较弱,两个人脸数据信息集合的区分公式为:
式(7)中,表示一种人脸分类数据信息集合信息;具体实施时,将不同分类区域的人脸图像数据信息进行数据分类与人脸图像数据信息的数据分类正确概率、人脸图像数据信息间的区分误差等多种数据信息关联起来,能够提高人脸分类数据信息计算能力。
式(7)中,表示第n种人脸分类数据信息集合信息;式(7)中,e是指两个人脸图像数据信息间的区分误差,/>表示人脸数据信息集合信息。所述特征采集标识模块通过以下函数对分类的人脸图像信息进行标识:在具体实施例中,能够将不同参数通过函数关系以及表达式有效地将人脸分类数据信息区分开来。
人脸图像数据信息异常标识函数Y的计算过程为:
式(11)中,表示第n个区域中人脸图像数据异常信息,/>表示人脸图像数据信息正常时标识均值偏差,/>表示人脸图像信息分类时分类速度;B(n,i)代表在一次循环过程中人脸图像数据信息检索n次时第i次搜索所对应的人脸图像数据信息节点,Y表示人脸图像数据信息异常标识函数;其中对应的人脸图像数据信息区域异常函数为:
S表示人脸图像识别区域内发生人脸识别数据信息异常参数。
由于受到多种数据信息的影响,本发明仅仅将上述主要影响因素及数据信息关联计算,而不是除了上述影响参数之外,不受其他参数因素影响。
在本发明中,DDAGSVM多类分类器包含决策树分类器、SVM分类器、DDAG分类器和信息匹配模块,其中所述信息匹配模块通过构建特征匹配模型将人脸数据识别信息输入至不同分类器,以自适应选择不同的分类器,其中特征匹配模型方程为:
式(13)中,表示不同分类器信息,T表示分类器标识,n表示分类器个数,E表示应用多种分类器进行特征匹配的函数值,/>表示人脸识别数据信息种类,/>表示匹配分类器的属性标识,/>表示匹配修复系数,DDAGSVM多类分类器对人脸数据识别信息分类输出函数为:
将人脸图像数据信息分类后,可以转换为不同的数据信息函数,将不同的函数输入分类器,在选择数据分类器时,可将人脸图像数据信息转换为不同数据信息的参数,以选择或者区分不同的分类器。在区分不同分类器时,也容易受到多种数据信息的影响,出于发明领域以及篇幅限制,本发明不局限于上述数据信息参数。
在进一步的实施例中,通过设计根节点和分支结构的DDAGSVM多类分类器对编码的人脸图像进行分类的方法为:
通过计算类别集合S中每两类样本在特征空间中的不可分离程度,计算公式为:
公式(15)中,i,j表示两类样本; i 表示i类样本标准差;/> j 表示j类样本标准差;D ij 表示第i类与第j类样本的中心距离;S ij 表示类间不可分离程度;公式(1)实现了对类间不可分离程度进行计算;
S ij 选择最小的两类作为根节点;根据i,j两类SVM的分类函数的值确定根节点;用于提高DDAGSVM多类分类器的分类性能;
DDAGSVM多类分类器输出数据信息记作为f(x),则分类后的人脸识别图像信息识别函数为:
在公式(16)中,其中r表示输入到DDAGSVM多类分类器数据信息参数,表示用户人脸识别图像样本变量,/>表示输入到支持DDAGSVM多类分类器的隐变量,/>表示支持DDAGSVM多类分类器隐变量的取值空间,/>表示DDAGSVM多类分类器中人脸识别图像样本说明,公式(2)实现了对分类后的人脸识别图像信息识别的计算;通过应用DDAGSVM多类分类器,数据训练通过最小化目标函数得到最优参数r,则被训练的人脸识别数据信息函数输出为:
在公式(17)中,表示目标函数,/>表示人脸识别过程中第/>个人脸识别数据信息的训练任务,在求最佳化数据目标函数后,r为每个面部人脸识别数据信息的正样本,/>表示第/>个人脸识别时影响数据信息获取的数值,/>表示在第/>个人脸识别时获取人脸数据信息的数据值,/>表示在获取每个面部人脸识别数据信息的正样本情况下获取第/>个人脸识别的数据信息数值,进而选取最佳隐变量值来优化人脸面部识别信息。
在具体实施例中,所述的一种基于大数据的人脸识别方法,其中应用改进Retinex算法模型实现人脸图像数据分析的方法为:
将传统的Retinex算法模型中的指数还原运算用灰度线性拉伸代替,同时对处理后的图像进行自适应对比度增强处理,用于提高图像的层次性,改善图象的视觉效果;
采用人脸图像特征比对模块将编码分类好的图像S(i,j)中的像素点的灰度值的数据由Byte类型转换为Double型;
通过对数乘法变加法运算原理对图像S两边取对数,将图像的照射光分量与反射光分量转化为求和的形式,求和公式为:
公式(18)中,E表示照射光分量,L表示反射光分量;log表示对数运算;公式(4)实现了将照射光分量与反射光分量转化为求和的计算;
采用高斯模板对图像中的每个像素点做高斯加权处理,得到不同尺度的估计照射光图像E(x,y),高斯加权计算公式为;
公式(19)中,S(x,y)表示原像素点;F(x,y)表示取不同尺度的高斯函数;公式(5)实现了对不同尺度的估计照射光图像E(x,y)的计算;
在对数域中,采用原像素点减去不同尺度高斯加权后的图像像素点得到图像在对数域中的增强图像V(x,y),计算公式为:
公式(20)中,W i 表示权重;公式(6)实现了对图像在对数域中的增强图像V(x,y)的计算;
通过将指数还原运算用灰度线性拉伸替代,对增强后的图像V(x,y)进行线性拉伸处理,使图像的灰度值覆盖整个灰度范围,图像线性拉伸公式为:
公式(21)中,R(x,y)表示拉伸后的图像;公式(7)实现了对拉伸后的图像R(x,y)的计算
采用自适应线性对比对拉伸后的图像R(x,y)进行图像增强处理,图像增强处理公式为:
公式(22)中,G(x,y)表示自适应增强后的图像,d为过渡值,C表示对比度调整因子,C值变化,图像对比度不断改变;公式(8)实现了对自适应增强后的图像G(x,y)的计算。
在上述实施例中,所述存储模块设置有定期自动删除比对结果模块,定期自动删除比对结果。
在上述实施例中,所述通信模块采用5G模块、WiFi模块或NB-IoT模块进行网络传输。
在具体实施例中,NB-IoT构建于蜂窝网络,只消耗大约180kHz的带宽,可直接部署于GSM网络、UMTS网络或LTE网络,以降低部署成本、实现平滑升级。NB-IoT是IoT领域一个新兴的技术,支持低功耗设备在广域网的蜂窝数据连接,也被叫作低功耗广域网(LPWAN)。NB-IoT支持待机时间长、对网络连接要求较高设备的高效连接。据说NB-IoT设备电池寿命可以提高至少10年,同时还能提供非常全面的室内蜂窝数据连接覆盖。
在进一步的实施例中,人脸图像编码模块包括3D卷积模块、人脸图像融合模块、人脸数据信息映射模块和级联模块,其中所述3D卷积模块用于对人脸图像分类过程中连续图像之间信息进行分类;人脸图像融合模块用于将不同人脸图像信息进行信息融合;人脸数据信息映射模块用于将训练融合的人脸图像信息按照编码规则进行信息编码;级联模块用于将分割后的图像信息通过自适应规则调节以提高人脸图像编码和应用能力;其中3D卷积模块的输出端与人脸图像融合模块的输入端连接,人脸图像融合模块的输出端与人脸数据信息映射模块的输入端连接,人脸数据信息映射模块的输出端与级联模块的输入端连接。
在上述实施例中,3D卷积模块在实施过程中,首先将输入的3D卷积进行计算,设置输入特征图、卷积核、数据通道以及设计参数对输入的图像信息进行处理。将3D卷积核的时空分类区域进行解耦操作,分为空间域和时间域两个卷积运 算部分。基于深度神经网络的权重训练规则,同时使得模型的数据处理简单化,通过层次化连接的结构在不增加额外参数的前提下,依次将一组卷积的输出特 征和另一组卷积的输入特征组合,等效扩大每个卷积的视野范围,以实现多尺度时空特征提取,该模块能够提高人脸图像技术能力。
在上述实施例中,在数据信息融合过程中,能够将获得的人脸图像数据信息进行同步整合,通过权衡人脸特征的数据信息,比如侧颜、正面细化信息,激发融合过程中的权重系数。
在具体实施例中,权重计算公式为:
在上述实施例中,人脸数据信息映射模块通过将不同参数的信息映射到算法模型中,以提高算法计算能力。通过计算所需的输入数据从CPU片外DRAM移至 FPGA片上BRAM,网络权重数据已在预处理阶段传输完成。
在预设的人脸数据信息映射模块中,标识出与所述目标人脸区域中目标特征点对应的映射特征点;确定所述映射特征点的三维信息和所述目标特征点的二维信息之间的转换关系;通过这种转换关系,能够将人脸图像的实际区域映射到目标区域中,并通过参数信息的转换,将所述目标人脸区域的信息映射至指定特征点,获取该指定特征点在所述目标人脸区域中的纹理信息,将所获取的纹理信息映射至该指定特征点的对应特征点上,能够通过本申请的算法模型识别。
级联模块在具体实施例中,可以为可伸缩级联模块(Scalable cascademodules,SCM),该模块使用多个卷积高效提取和融合人脸多尺度特征信息,从而提高人脸图像分割精度。SCM 结构通过提取特征,将不同的步骤提取过程分成k步,并且使用iConvX 来表示第i步的特征提取,将3D卷积模块、人脸图像融合模块、人脸数据信息映射模块和级联模块构建起来。
在具体实施例中,人脸图像特征比对模块包括FPGA控制单元控制的模板匹配匹配单元。通过设置人脸图像信息和模型图像信息,将二者数据信息结合起来,通过特征对比和纹理对比,以提高人脸图像信息的计算和识别能力。
在具体实施例中,结果提示反馈模块包括预警模块,比如分析预警,在预警时,对人脸图像分析趋势异常预警模块的系统分析、系统设计以及系统实现进行异常识别与辨识。以提高人脸图像识别能力。
如图4和图5所示,在具体实施例中,其中所述改进Retinex算法模型通过LMR算法检测模型提高人脸图像对比能力。
改进Retinex算法模型能够通过图像增强的方式提高图像识别能力,在具体实施例中,通过LMR算法检测模型提高图像分析能力,进而提高提高人脸图像对比能力。其中LMR算法检测模型的构建方法为:
假设A=[x 1,x 2,… x i ,…,x n ]为n×p异常人脸特征信息样本矩阵,比如通过提炼不同的数据信息,以将不同的人脸特征信息样本进行训练,其中n是样本数,即不同数据信息的人脸识别样本,p是指数据分类区域,即使人脸图像信息分类区域,根据PCA定义得到人脸特征信息A的协方差矩阵:
式(25)中,CO(A)是A的协方差矩阵,V(A)是p×p正交矩阵,D(A)是p×p对角矩阵,R表示速度加速器,CO(A)包含特征值λ i (i=1, 2,…, p),前h(h≤p)个异常人脸特征信息最大特征值的累积贡献率γ表达式为:
PCA包括投影和重构两个主要部分,相应的矩阵分别由方程式(11)计算得到:
式(27)中,Y h 是指投影过程的异常人脸特征信息数据特征矩阵,R h 是指重构过程的异常人脸特征信息数据特征矩阵,V h 是指一个p×h矩阵,包含对应于h个最大特征值的特征向量,即前h个主成分,在投影和重构之后,重构残差可以在公式(28)中计算出:
步骤四:比对结果上传;
经过PCA处理得出正常点和异常点的分布差异示意图如图4所示。在图4中,正常点的主成分方向是一致的,而异常点在主成分方向上不分布。当异常人脸特征信息数据样本的分布特征相似时,样本的重构残差较小。但是当一个或几个异常样本混入正常样本时,异常样本的重构残差大于正常样本的重构残差,如图5所示。
本发明结合原有的PCA找到违反相邻数据点统计分布的异常值,该异常人脸特征信息数据检测算法的具体步骤解释如下:
步骤1:形成局部分布矩阵。假设C为包含所有异常人脸特征信息人脸图像数据信息合,其中含有数据点p,p的k距离邻域定义为:
式(29)中,K=|N k (p)|并且K≥k。p是指被检测的人脸特征信息数据点,N k (p)是指p的k距离邻域,o是指领域矩阵。p的局部分布矩阵M(p)可以表示为:
式(15)中,M(p)是一个K×5矩阵。这一步是找出与p最相似的k个领域点。k的值影响检测的准确性。
步骤2:特征值分解。计算M(p)的协方差矩阵CO(M(p)),并进行协方差矩阵CO(M(p))的人脸特征信息数据特征值分解:
式(0)中,V(M(p))是一个5×5正交矩阵,V(M(p))的每一列是CO(M(p))的人脸特征信息数据特征向量。D(M(p))是一个5×5对角矩阵,其对角元素是CO(M(p))的人脸特征信息数据特征值(λp,1,λ p,2,...,λ p,5)。
步骤3:矩阵投影与重构。矩阵[M(p);DLC p ]表示p的其k距离邻域被重构,当矩阵[M(p);DLC p ]进入主成分空间,可以得出:
式(31)中,V h (M(p))是指矩阵V(M(p))的前h列,对应最大的人脸特征信息数据特征值为5,R h ((p)M)是指使用前h个主成分重构后的局部分布矩阵。计算对象p的局部重构误差err,其计算方法如等式(32)中所示:
式(32)中,r K+1 M(p)表示矩R h ((p)M)的第(K+1)行,λ p,i 表示矩阵CO(M(p))的第i大特征值。γ h (p)反映了前h个主成分在所有主成分中的比例。理论上,h越小,计算重构残差时考虑的主成分越少,矩阵重构的效果越差。
步骤4:局部异常值的计算。p的局部重构误差仅与其k距离邻域中的异常人脸特征信息数据样本进行比较:如果p是正常人脸特征信息数据样本,则其局部重构误差小于其k距离邻域内其他人脸特征信息数据样本的局部重构误差;如果p是异常人脸特征信息数据样本,则其局部重构误差大于其k距离邻域内其他人脸特征信息数据样本的局部重构误差。为此,采用LOSLMR(p)可以反映p与其相邻样本之间的差异,其表达式为:
式(33)中,dist(p,o i (p))是p与其k距离邻域o i (p)内的数据点之间的距离。设置阈值σ:如果LOSLMR(p)>σ,则p被认为是异常人脸特征信息数据,阈值σ可由用户在人脸识别过程中工作经验进行设置。虽然以上描述了本发明的具体实施方式,但是本领域的技术人员应当理解,这些具体实施方式仅是举例说明,本领域的技术人员在不脱离本发明的原理和实质的情况下,可以对上述方法和系统的细节进行各种省略、替换和改变。例如,合并上述方法步骤,从而按照实质相同的方法执行实质相同的功能以实现实质相同的结果则属于本发明的范围。因此,本发明的范围仅由所附权利要求书限定。
Claims (10)
1.一种基于大数据的人脸识别方法,其特征在于:包括以下步骤:
步骤一:人脸图像采集与预处理;
在步骤一中,通过人脸采集模块采集人脸图像,并对人脸图像进行预处理;人脸采集模块用于采集当前用户的人脸图像,并对人脸图像进行预处理;所述人脸采集模块设置有语音播报系统,预处理方法包括直方图均衡和噪声抑制;其中人脸采集模块包括特征分类模块和特征采集标识模块,其中所述特征分类模块用于将采集到的不同数据信息划分为不同的数据信息集合,并设置不同数据信息集合之间的关联度,所述特征采集标识模块用于将不同数据信息集合用不同的符号进行标识,以区分不同人脸图像信息;
步骤二:人脸图像编码;
在步骤二中,采用人脸识别处理器对预处理好的人脸图像进行编码;人脸识别处理器用于将人脸采集器发送的需要识别的人脸信息与人脸识别处理器中预存的人脸信息进行配对,以实现人脸识别图像的配对;所述人脸识别处理器包括数据库共享模块、人脸图像编码模块、人脸图像特征比对模块、结果提示反馈模块和存储模块;所述数据库共享模块用于对样本人脸数据信息进行录入以及预存;所述人脸图像编码模块用于将人脸采集模块采集到的人脸图像以及数据库共享模块中的样本人脸图像进行编码,以提高人脸图像特征提取能力;所述人脸图像特征比对模块,用于对编码的人脸图像信息进行比对;所述结果提示反馈模块用于接收人脸图像特征比对模块比对的结果;所述存储模块用于存储结果提示反馈模块比对的结果;其中所述数据库共享模块的输出端与所述人脸图像编码模块的输入端连接,所述人脸图像编码模块的输出端与所述人脸图像特征比对模块的输入端连接,所述人脸图像特征比对模块的输出端与所述结果提示反馈模块的输入端连接,所述果提示反馈模块的输出端与所述存储模块的输入端连接;
步骤三:人脸图像的比对;
在步骤三中,人脸图像特征比对模块通过设计根节点和分支结构的DDAGSVM多类分类器对编码的人脸图像进行分类;人脸图像特征比对模块通过应用改进Retinex算法模型实现人脸图像数据分析进行对比;
其中所述改进Retinex算法模型通过LMR算法检测模型提高人脸图像对比能力;
步骤四:比对结果上传;
在步骤四中,通信模块将比对结果上传至识别终端模块,通过识别终端模块确认将结果显示在显示屏模块;通信模块用于将人脸比对结果上传到识别终端模块;识别终端模块用于对人脸识别过程进行实时监控以及对人脸比对结果进行确认接收;显示屏模块用于显示人脸图像识别最终结果;
其中所述通信模块的输出端与所述识别终端模块的输入端连接,所述识别终端模块的输出端与所述显示屏模块的输入端连接。
2.根据权利要求1所述的一种基于大数据的人脸识别方法,其特征在于:所述特征分类模块的方法为:
在公式(1)中,表示分类后人脸数据信息类别,n表示分类标识,M标识分类矩阵,设分布于不同子类内的两个人脸图像数据信息分别为s 1和s 2,对应的子类分别为m 1和m 2,子类m 1和m 2之间欧式距离为L m ,人脸图像数据信息s 1和s 2之间的欧式距离为L s ,对分布在不同种类内的人脸图像数据信息进行分类:
对于分布在多特征图像同一分类区域内的人脸图像数据信息,在进行数据分类时,以人脸图像数据信息间的相似度作为区分指标,多特征图像同一分类区域内的人脸图像数据信息s 1和s 2之间的相关因子b(l 1, l 2)的计算式为:
在公式(3)中,表示相关因子,l 1表示人脸图像数据信息s 1的相关因子,l 2表示人脸图像数据信息s 2的相关因子,计算得到人脸图像数据信息间的关联因子后,通过以下公式对不同分类区域的人脸图像数据信息进行数据分类:
设同一类各人脸图像数据信息间的相关程度的设置阈值为T(V),当b(l 1,l 2) > T(V)时,说明两个人脸图像数据信息之间的相似度较强,两个集合的区分公式为:
式(6)中,表示另一种人脸分类数据信息集合; 其中n表示同一分类区域内的人脸图像数据信息总量,P(x)是指人脸图像数据信息的数据分类正确概率;当b(l 1,l 2) ≤ T(V)时,说明两个人脸图像数据信息之间的相似度较弱,两个人脸数据信息集合的区分公式为:
3.根据权利要求1所述的一种基于大数据的人脸识别方法,其特征在于:所述特征采集标识模块通过以下函数对分类的人脸图像信息进行标识:
人脸图像数据信息异常标识函数Y的计算过程为:
式(11)中,表示第n个区域中人脸图像数据异常信息,/>表示人脸图像数据信息正常时标识均值偏差,/>表示人脸图像信息分类时分类速度;B(n,i)代表在一次循环过程中人脸图像数据信息检索n次时第i次搜索所对应的人脸图像数据信息节点,Y表示人脸图像数据信息异常标识函数;其中对应的人脸图像数据信息区域异常函数为:
S表示人脸图像识别区域内发生人脸识别数据信息异常参数。
4. 根据权利要求1所述的一种基于大数据的人脸识别方法,其特征在于:DDAGSVM多类分类器包含决策树分类器、SVM分类器、DDAG分类器和信息匹配模块,其中所述信息匹配模块通过构建特征匹配模型将人脸数据识别信息输入至不同分类器,以自适应选择不同的分类器,其中特征匹配模型方程为:
式(13)中,表示不同分类器信息,T表示分类器标识,n表示分类器个数,E表示应用多种分类器进行特征匹配的函数值,/>表示人脸识别数据信息种类,/>表示匹配分类器的属性标识,/>表示匹配修复系数,DDAGSVM多类分类器对人脸数据识别信息分类输出函数为:
5.根据权利要求1所述的一种基于大数据的人脸识别方法,其特征在于:
改进Retinex算法模型实现人脸图像数据分析的方法为:采用人脸图像特征比对模块将编码分类好的图像S(i,j)中的像素点的灰度值的数据由Byte类型转换为Double型。
6.根据权利要求1所述的一种基于大数据的人脸识别方法,其特征在于:所述存储模块设置有定期自动删除比对结果模块,定期自动删除比对结果。
7.根据权利要求1所述的一种基于大数据的人脸识别方法,其特征在于:所述通信模块采用5G模块、WiFi模块或NB-IoT模块进行网络传输。
8.根据权利要求1所述的一种基于大数据的人脸识别方法,其特征在于:人脸图像编码模块包括3D卷积模块、人脸图像融合模块、人脸数据信息映射模块和级联模块,其中所述3D卷积模块用于对人脸图像分类过程中连续图像之间信息进行分类;人脸图像融合模块用于将不同人脸图像信息进行信息融合;人脸数据信息映射模块用于将训练融合的人脸图像信息按照编码规则进行信息编码;级联模块用于将分割后的图像信息通过自适应规则调节以提高人脸图像编码和应用能力;其中3D卷积模块的输出端与人脸图像融合模块的输入端连接,人脸图像融合模块的输出端与人脸数据信息映射模块的输入端连接,人脸数据信息映射模块的输出端与级联模块的输入端连接。
9.根据权利要求1所述的一种基于大数据的人脸识别方法,其特征在于:
人脸图像特征比对模块包括FPGA控制单元控制的模块匹配单元。
10.根据权利要求1所述的一种基于大数据的人脸识别方法,其特征在于:
结果提示反馈模块包括预警模块。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310136079.XA CN116189262A (zh) | 2023-02-20 | 2023-02-20 | 一种基于大数据的人脸识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310136079.XA CN116189262A (zh) | 2023-02-20 | 2023-02-20 | 一种基于大数据的人脸识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116189262A true CN116189262A (zh) | 2023-05-30 |
Family
ID=86441877
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310136079.XA Withdrawn CN116189262A (zh) | 2023-02-20 | 2023-02-20 | 一种基于大数据的人脸识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116189262A (zh) |
-
2023
- 2023-02-20 CN CN202310136079.XA patent/CN116189262A/zh not_active Withdrawn
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110443143B (zh) | 多分支卷积神经网络融合的遥感图像场景分类方法 | |
CN108346145B (zh) | 一种病理切片中非常规细胞的识别方法 | |
CN112418117B (zh) | 一种基于无人机图像的小目标检测方法 | |
CN106845510B (zh) | 基于深度层级特征融合的中国传统视觉文化符号识别方法 | |
Kong | Facial expression recognition method based on deep convolutional neural network combined with improved LBP features | |
CN109033978B (zh) | 一种基于纠错策略的cnn-svm混合模型手势识别方法 | |
CN107169117B (zh) | 一种基于自动编码器和dtw的手绘图人体运动检索方法 | |
CN110321805B (zh) | 一种基于时序关系推理的动态表情识别方法 | |
CN112287839A (zh) | 一种基于迁移学习的ssd红外图像行人检测方法 | |
CN110796199A (zh) | 一种图像处理方法、装置以及电子医疗设备 | |
JP2005202932A (ja) | データを複数のクラスに分類する方法 | |
JP2011248879A (ja) | テスト画像内のオブジェクトを分類するための方法 | |
CN113095370A (zh) | 图像识别方法、装置、电子设备及存储介质 | |
Zuobin et al. | Feature regrouping for cca-based feature fusion and extraction through normalized cut | |
CN112215268A (zh) | 一种灾害天气卫星云图分类方法和装置 | |
CN111652177A (zh) | 基于深度学习的信号特征提取方法 | |
CN111242028A (zh) | 基于U-Net的遥感图像地物分割方法 | |
CN112016592B (zh) | 基于交叉领域类别感知的领域适应语义分割方法及装置 | |
CN114358279A (zh) | 图像识别网络模型剪枝方法、装置、设备及存储介质 | |
CN113642479A (zh) | 人脸图像的评价方法、装置、电子设备及存储介质 | |
CN112132207A (zh) | 基于多分支特征映射目标检测神经网络构建方法 | |
Yao | A compressed deep convolutional neural networks for face recognition | |
CN115100509B (zh) | 基于多分支块级注意力增强网络的图像识别方法及系统 | |
CN116704378A (zh) | 一种基于自生长卷积神经网络的国土测绘数据分类方法 | |
Chun-man et al. | Face expression recognition based on improved MobileNeXt |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20230530 |