CN116342115B - 一种基于人脸识别的停车场收费系统及方法 - Google Patents

一种基于人脸识别的停车场收费系统及方法 Download PDF

Info

Publication number
CN116342115B
CN116342115B CN202310298845.2A CN202310298845A CN116342115B CN 116342115 B CN116342115 B CN 116342115B CN 202310298845 A CN202310298845 A CN 202310298845A CN 116342115 B CN116342115 B CN 116342115B
Authority
CN
China
Prior art keywords
coefficient
eye
data
closed
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310298845.2A
Other languages
English (en)
Other versions
CN116342115A (zh
Inventor
肖播达
杨文州
王滨
欧阳旦
胡涵旭
肖检元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Couns Technology Co ltd
Original Assignee
Shenzhen Couns Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Couns Technology Co ltd filed Critical Shenzhen Couns Technology Co ltd
Priority to CN202310298845.2A priority Critical patent/CN116342115B/zh
Publication of CN116342115A publication Critical patent/CN116342115A/zh
Application granted granted Critical
Publication of CN116342115B publication Critical patent/CN116342115B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/14Payment architectures specially adapted for billing systems
    • G06Q20/145Payments according to the detected use or quantity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/38Payment protocols; Details thereof
    • G06Q20/40Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
    • G06Q20/401Transaction verification
    • G06Q20/4014Identity check for transactions
    • G06Q20/40145Biometric identity checks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07BTICKET-ISSUING APPARATUS; FARE-REGISTERING APPARATUS; FRANKING APPARATUS
    • G07B15/00Arrangements or apparatus for collecting fares, tolls or entrance fees at one or more control points
    • G07B15/02Arrangements or apparatus for collecting fares, tolls or entrance fees at one or more control points taking into account a variable factor such as distance or time, e.g. for passenger transport, parking systems or car rental systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Accounting & Taxation (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Finance (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Security & Cryptography (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Collating Specific Patterns (AREA)

Abstract

本发明公开了一种基于人脸识别的停车场收费系统及方法,涉及人脸识别技术领域,接收采集的人脸图像数据,并进行预处理,并进行特征提取,然后标记,利用标记后的人脸图像数据计算,根据闭眼睁眼情况,得出闭眼图像识别系数和睁眼图像识别系数,设定闭眼图像标准识别系数和睁眼图像标准识别系数,得出闭眼判定系数和睁眼判定系数,利用闭眼判定系数和设定的闭眼判定系数阈值计算得出闭眼比例判定系数,若大于等于1,将闭眼图像识别系数进行特征识别,若小于1,则需重新进行采集,睁眼同理,利用人脸图像数据集与闭眼图像识别系数或睁眼图像识别系数进行特征匹配,若匹配,则直接进行费用扣除,若不匹配,则需用户录入信息后再进行费用扣除。

Description

一种基于人脸识别的停车场收费系统及方法
技术领域
本发明涉及人脸识别技术领域,具体的是一种基于人脸识别的停车场收费系统及方法。
背景技术
国内人口基数大,人们生活质量不断提高,小型轿车已经普及。由于小型汽车数目的增加,导致许多车主停车难等问题。在城市不仅人口众多,经济发达,汽车更是城市交通重要工具,汽车数目的增多,需要的停车位置也增加。停车场需要付款,一般都是人工或者扫码,比较复杂。这就需要车主必须携带现金或者手机。而随着社会的发展,人们出行往往习惯了扫码支付的方式,不带现金,因为只需要带着手机就可以解决问题。然而,一旦手机没电了,会严重影响在停车场停车的车主,比如一个车主在停车场停车,如果手机没电了并且该车主没有携带现金,那样他进出停车场可能会发生不便,浪费时间。
发明内容
为解决上述背景技术中提到的不足,本发明的目的在于提供一种基于人脸识别的停车场收费系统及方法,能够使车主选择人脸识别的方法进行支付。
本发明的目的可以通过以下技术方案实现:一种基于人脸识别的停车场收费系统,包括:
按键模块:用于提供用户选择,选择是否采用人脸识别进行支付,如未按下按键,则说明用户不采用人脸识别进行支付,若按下按键则说明用户采用人脸识别进行支付,按键模块发送采集信号至数据采集模块;
数据采集模块:用于对人脸图像数据进行采集,并且对采集得到的人脸图像数据进行预处理,将预处理后的人脸图像数据发送至数据处理模块进行处理;
数据处理模块:用于对人脸图像数据进行特征提取,从而将人脸图像数据分为眼睛数据、嘴巴数据、鼻子数据和人脸整体轮廓数据,并对眼睛数据、嘴巴数据、鼻子数据和人脸整体轮廓数据进行标记,利用标记后的眼睛数据、嘴巴数据、鼻子数据和人脸整体轮廓数据计算得出闭眼图像识别系数和睁眼图像识别系数,将计算得出的闭眼图像识别系数和睁眼图像识别系数发送至数据分析模块进行分析;
数据分析模块:用于分别设定闭眼图像标准识别系数和睁眼图像标准识别系数,且将得到的闭眼图像识别系数和闭眼图像标准识别系数计算得出闭眼判定系数,将闭眼判定系数与设定的闭眼判定系数阈值计算得出闭眼比例判定系数,若闭眼比例判定系数大于等于1,则无需重新进行采集,将闭眼图像识别系数发送至控制中心进行特征识别,若闭眼比例判定系数大于0小于1,则发送重新采集信号至数据采集模块进行再次采集,将睁眼图像识别系数和睁眼图像标准识别系数计算得出睁眼判定系数,将睁眼判定系数与设定的睁眼判定系数阈值计算得出睁眼比例判定系数,若睁眼比例判定系数大于等于1,则无需重新进行采集,将睁眼图像识别系数发送至控制中心进行特征识别,若睁眼比例判定系数大于0小于1,则发送重新采集信号至数据采集模块进行再次采集;
数据库:用于收集录入并存储人脸图像数据集,并发送至控制中心;
控制中心:用于将闭眼图像识别系数和睁眼图像识别系数与人脸图像数据集进行特征匹配,若闭眼图像识别系数和睁眼图像识别系数无法与人脸图像数据集相匹配,则用户需进行人脸录入并进行支付,若闭眼图像识别系数和睁眼图像识别系数与人脸图像数据集相匹配,则控制中心直接进行费用扣除。
优选地,所述数据采集模块包括摄像头和预处理单元,所述摄像头用于采集人脸图像数据,并发送至预处理单元,所述预处理单元用于将摄像头发送的人脸图像数据进行预处理。
优选地,所述预处理单元对人脸图像数据进行预处理的过程包括:光线补偿、归一化、滤波和锐化处理,从而使得人脸图像数据被矫正和音频过滤。
优选地,所述数据处理模块对人脸图像数据进行数据处理的过程包括以下步骤:
将眼睛数据标记为Yi,嘴巴数据标记为Zi,鼻子数据标记为Bi,人脸整体轮廓数据标记为Li,其中i为采集次数标号,且i=1、2、3、...n,其中n为采集次数总数;
当提取到的眼睛数据为闭眼时的眼睛数据时,利用公式计算得出闭眼图像识别系数Txi1,式中,Y0为眼睛数据影响系数,Z0为嘴巴数据影响系数,B0为鼻子数据影响系数,L0为人脸整体轮廓数据影响系数,α为第一修正因子,β为第二修正因子,P为第三修正因子,Q为第四修正因子;
当提取到的眼睛数据为睁眼时的眼睛数据时,利用公式计算得出睁眼图像识别系数Txi2
将计算得出的闭眼图像识别系数Txi1和睁眼图像识别系数Txi2发送至数据分析模块。
优选地,所述数据处理模块包括特征提取单元和计算分析单元,所述特征提取单元用于将人脸图像数据进行特征提取得到眼睛数据、嘴巴数据、鼻子数据和人脸整体轮廓数据,发送至计算分析单元进行计算,所述计算分析单元用于将得到的眼睛数据、嘴巴数据、鼻子数据和人脸整体轮廓数据进行计算分析。
优选地,所述数据分析模块的分析过程包括以下步骤:
设定闭眼图像标准识别系数Td10,利用公式计算得出闭眼判定系数Pd1,式中,C为闭眼预设系数,并且将闭眼判定系数Pd1与设定的闭眼判定系数阈值Pd10利用公式/>计算得出闭眼比例判定系数Bl1,式中/>为闭眼预设比例系数,若闭眼比例判定系数Bl1≥1,则说明闭眼图像识别系数Txi1有效,无需重新进行采集,将闭眼图像识别系数Txi1发送至控制中心进行特征识别,若闭眼比例判定系数0<Bl1<1,则说明闭眼图像识别系数Txi1无效,发送重新采集信号至数据采集模块进行再次采集;
设定睁眼图像标准识别系数Td20,利用公式计算得出睁眼判定系数Pd2,式中,M为睁眼预设系数,并且将睁眼判定系数Pd2与设定的睁眼判定系数阈值Pd20利用公式/>计算得出闭眼比例判定系数Bl2,式中/>为睁眼预设比例系数,若睁眼比例判定系数Bl2≥1,则说明睁眼图像识别系数Txi2有效,无需重新进行采集,将睁眼图像识别系数Txi2发送至控制中心进行特征识别,若睁眼比例判定系数0<Bl2<1,则说明睁眼图像识别系数Txi2无效,发送重新采集信号至数据采集模块进行再次采集。
优选地,所述控制中心在分别接收数据分析模块发送的闭眼图像识别系数Txi1和睁眼图像识别系数Txi2后,并接收数据库发送的人脸图像数据集Txj,其中Txj={Tx1、Tx2、Tx3、...、Txm},其中j为录入图像标号,j=1、2、3、...、m,m为录入图像总数,然后将闭眼图像识别系数Txi1和睁眼图像识别系数Txi2与人脸图像数据集Txj进行特征匹配,若闭眼图像识别系数Txi1和睁眼图像识别系数Txi2无法与人脸图像数据集Txj相匹配,则用户需进行人脸录入并进行支付,若闭眼图像识别系数Txi1和睁眼图像识别系数Txi2与人脸图像数据集Txj相匹配,则控制中心可直接进行费用扣除。
优选地,所述数据库内的人脸图像数据集的获取过程如下:
通过数据库内的数据采集终端来对人脸图像进行录入,其中,人脸图像包括眼睛关键点、鼻子关键点、嘴巴关键点和人脸整体轮廓;
将人脸图像与人脸映射模型相结合,获取并存储人脸图像,然后将所有获取得到的人脸图像进行整合形成人脸图像数据集,所述人脸映射模型基于人工智能模型进行训练。
优选地,基于人工智能模型来对人脸映射模型进行训练,过程为:
通过服务器整合并获取标准训练数据,其中,标准训练数据包括人脸图像数据;
通过标准训练数据对人工智能模型进行训练,获取并存储人脸映射模型;其中,所述人工智能模型包括深度卷积神经网络模型和RBF神经网络模型。
一种基于人脸识别的停车场收费方法,方法包括以下步骤:
选择人脸支付后,接收采集的人脸图像数据,并进行预处理,将预处理后的人脸图像数据进行特征提取,分为眼睛数据、嘴巴数据、鼻子数据和人脸整体轮廓数据,并进行标记,然后利用标记后的人脸图像数据进行计算,根据闭眼睁眼两种情况,得出闭眼图像识别系数和睁眼图像识别系数,并设定闭眼图像标准识别系数和睁眼图像标准识别系数,将闭眼图像识别系数和闭眼图像标准识别系数计算得出闭眼判定系数,将睁眼图像识别系数和睁眼图像标准识别系数计算得出睁眼判定系数,利用得出的闭眼判定系数和设定的闭眼判定系数阈值计算得出闭眼比例判定系数,若闭眼比例判定系数大于等于1,则说明闭眼图像识别系数有效,将闭眼图像识别系数进行特征识别,若闭眼比例判定系数大于0小于1,则需重新进行采集,利用得出的睁眼判定系数和设定的睁眼判定系数阈值计算得出睁眼比例判定系数,若睁眼比例判定系数大于等于1,则说明睁眼图像识别系数有效,将睁眼图像识别系数进行特征识别,若睁眼比例判定系数大于0小于1,则需重新进行采集,然后利用人脸图像数据集与闭眼图像识别系数或睁眼图像识别系数进行特征匹配,若相匹配,则直接进行费用扣除,若不匹配,则需用户录入信息后再进行费用扣除。
本发明的有益效果:
本发明在使用的过程中,利用人脸识别的功能特性实现人工选择人脸识别进行支付停车场费用的功能。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图;
图1是本发明原理示意图;
图2是本发明流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
如图1所示,一种基于人脸识别的停车场收费系统,包括:
按键模块、数据采集模块、数据处理模块、数据分析模块、数据库和控制中心;
所述按键模块用于提供用户选择,选择是否采用人脸识别进行支付,如未按下按键,则说明用户不采用人脸识别进行支付,若按下按键则说明用户采用人脸识别进行支付,按键模块发送采集信号至数据采集模块;
所述数据采集模块在接收到按键模块发送的采集信号后,对人脸图像数据进行采集,并且对采集得到的人脸图像数据进行预处理,将预处理后的人脸图像数据发送至数据处理模块进行处理;
需要进一步进行说明的是,在具体实施过程中,所述数据采集模块包括摄像头和预处理单元,所述摄像头用于采集人脸图像数据,并发送至预处理单元,所述预处理单元用于将摄像头发送的人脸图像数据进行预处理;
需要进一步进行说明的是,在具体实施过程中,所述预处理单元对人脸图像数据进行预处理的过程包括:光线补偿、归一化、滤波和锐化处理,从而使得人脸图像数据被矫正和音频过滤;
所述数据处理模块在接收到数据采集模块发送的预处理后的人脸图像数据后,进行数据处理,具体的,数据处理模块对预处理后的人脸图像数据进行处理的过程包括以下步骤:
对人脸图像数据进行特征提取,从而将人脸图像数据分为眼睛数据、嘴巴数据、鼻子数据和人脸整体轮廓数据;
将眼睛数据标记为Yi,嘴巴数据标记为Zi,鼻子数据标记为Bi,人脸整体轮廓数据标记为Li,其中i为采集次数标号,且i=1、2、3、...n,其中n为采集次数总数;
当提取到的眼睛数据为闭眼时的眼睛数据时,利用公式计算得出闭眼图像识别系数Txi1,式中,Y0为眼睛数据影响系数,Z0为嘴巴数据影响系数,B0为鼻子数据影响系数,L0为人脸整体轮廓数据影响系数,α为第一修正因子,β为第二修正因子,P为第三修正因子,Q为第四修正因子;
当提取到的眼睛数据为睁眼时的眼睛数据时,利用公式计算得出睁眼图像识别系数Txi2
将计算得出的闭眼图像识别系数Txi1和睁眼图像识别系数Txi2发送至数据分析模块进行数据分析;
需要进一步进行说明的是,在具体实施过程中,所述数据处理模块包括特征提取单元和计算分析单元,所述特征提取单元用于将人脸图像数据进行特征提取得到眼睛数据、嘴巴数据、鼻子数据和人脸整体轮廓数据,发送至计算分析单元进行计算,所述计算分析单元用于将得到的眼睛数据、嘴巴数据、鼻子数据和人脸整体轮廓数据进行分析,分析眼睛数据为闭眼的眼睛数据还是睁眼的眼睛数据,并根据不同的眼睛数据,利用不同的计算方法分别计算得出闭眼图像识别系数和睁眼图像识别系数;
所述数据分析模块在接收到数据处理模块发送的闭眼图像识别系数Txi1和睁眼图像识别系数Txi2后,进行数据分析,具体的,数据分析模块的分析过程包括以下步骤:
设定闭眼图像标准识别系数Td10,利用公式计算得出闭眼判定系数Pd1,式中,C为闭眼预设系数,并且将闭眼判定系数Pd1与设定的闭眼判定系数阈值Pd10利用公式/>计算得出闭眼比例判定系数Bl1,式中/>为闭眼预设比例系数,若闭眼比例判定系数Bl1≥1,则说明闭眼图像识别系数Txi1有效,无需重新进行采集,将闭眼图像识别系数Txi1发送至控制中心进行特征识别,若闭眼比例判定系数0<Bl1<1,则说明闭眼图像识别系数Txi1无效,发送重新采集信号至数据采集模块进行再次采集;
设定睁眼图像标准识别系数Td20,利用公式计算得出睁眼判定系数Pd2,式中,M为睁眼预设系数,并且将睁眼判定系数Pd2与设定的睁眼判定系数阈值Pd20利用公式/>计算得出闭眼比例判定系数Bl2,式中/>为睁眼预设比例系数,若睁眼比例判定系数Bl2≥1,则说明睁眼图像识别系数Txi2有效,无需重新进行采集,将睁眼图像识别系数Txi2发送至控制中心进行特征识别,若睁眼比例判定系数0<Bl2<1,则说明睁眼图像识别系数Txi2无效,发送重新采集信号至数据采集模块进行再次采集;
需要进一步进行说明的是,所述控制中心在分别接收数据分析模块发送的闭眼图像识别系数Txi1和睁眼图像识别系数Txi2后,并接收数据库发送的人脸图像数据集Txj,其中Txj={Tx1、Tx2、Tx3、...、Txm},其中j为录入图像标号,j=1、2、3、...、m,m为录入图像总数,然后将闭眼图像识别系数Txi1和睁眼图像识别系数Txi2与人脸图像数据集Txj进行特征匹配,若闭眼图像识别系数Txi1和睁眼图像识别系数Txi2无法与人脸图像数据集Txj相匹配,则用户需进行人脸录入并进行支付,若闭眼图像识别系数Txi1和睁眼图像识别系数Txi2与人脸图像数据集Txj相匹配,则控制中心可直接进行费用扣除,需要进行说明的是,所述控制中心与用户录入的第三方支付平台相连接,从而能够直接扣除费用,在本实施例中,第三方支付平台为支付宝;
需要进行说明的是,所述数据库内的人脸图像数据集的获取过程如下:
通过数据库内的数据采集终端来对人脸图像进行录入,其中,人脸图像包括眼睛关键点、鼻子关键点、嘴巴关键点和人脸整体轮廓;
将人脸图像与人脸映射模型相结合,获取并存储人脸图像,然后将所有获取得到的人脸图像进行整合形成人脸图像数据集,所述人脸映射模型基于人工智能模型进行训练。
进一步地,基于人工智能模型来对人脸映射模型进行训练,过程为:
通过服务器整合并获取标准训练数据,其中,标准训练数据包括人脸图像数据;
通过标准训练数据对人工智能模型进行训练,获取并存储人脸映射模型;其中,所述人工智能模型包括深度卷积神经网络模型和RBF神经网络模型。
需要进行说明的是,所述数据库用于存储用户录入的人脸图像数据集,所述数据库包括临时存储库和长久存储库,其中临时存储库和长久存储库根据用户自行选择,若选择临时存储库则能够对用户录入的人脸图像存储一个月的时间,在一个月时间到期后,用户需再次进行录入人脸图像,长久存储库能够将用户录入的人脸图像进行永久存储,在本实施例中,数据库用于对用户录入的人脸图像进行存储,并将采集处理后的人脸图像与数据库内存储的人脸图像进行比对,分析此用户是否为录入过人脸图像的用户,从而提高人脸图像的识别速度;
需要进一步进行说明的是,所述深度卷积神经网络模型是一类包含卷积计算且具有深度结构的前馈神经网络(FeedforwardNeural Networks),是深度学习(deeplearning)的代表算法之一,卷积神经网络具有表征学习(representation learning)能力,能够按其阶层结构对输入信息进行平移不变分类,卷积是一种线性运算,需要将一组权重与输入相乘,以生成称为滤波器的二维权重数组。如果调整滤波器以检测输入中的特定特征类型,则在整个输入图像中重复使用该滤波器可以发现图像中任意位置的特征,结构包括:输入层:卷积神经网络的输入层可以处理多维数据,常见地,一维卷积神经网络的输入层接收一维或二维数组,其中一维数组通常为时间或频谱采样;二维数组可能包含多个通道;二维卷积神经网络的输入层接收二维或三维数组;三维卷积神经网络的输入层接收四维数组[16]。由于卷积神经网络在计算机视觉领域应用较广,因此许多研究在介绍其结构时预先假设了三维输入数据,即平面上的二维像素点和RGB通道。与其它神经网络算法类似,由于使用梯度下降算法进行学习,卷积神经网络的输入特征需要进行标准化处理。具体地,在将学习数据输入卷积神经网络前,需在通道或时间/频率维对输入数据进行归一化。
隐含层:卷积神经网络的隐含层包含卷积层、池化层和全连接层3类常见构筑,在一些更为现代的算法中可能有Inception模块、残差块(residual block)等复杂构筑。在常见构筑中,卷积层和池化层为卷积神经网络特有。卷积层中的卷积核包含权重系数,而池化层不包含权重系数,因此在文献中,池化层可能不被认为是独立的层。以LeNet-5为例,3类常见构筑在隐含层中的顺序通常为:输入-卷积层-池化层-全连接层-输出。
所述RBF神经网络模型又称为径向基神经网络模型,是一种三层前向网络,第一层为由信号源节点组成的输入层,第二层为隐层,隐单元数视问题需要而定,隐单元的变换函数为非负非线性的函数RBF(径向基函数),第三层为输出层,输出层是对隐层神经元输出的线性组合,RBF神经网络模型的基本思想是:用RBF作为隐单元的基构成隐含层空间,这样就可以将输入矢量直接映射到隐空间,而不需要通过权连接。当RBF的中心点确定以后,这种映射关系也就确定了。而隐含层空间到输出空间的映射是线性的,即网络的输出是隐单元输出的线性加权和,此处的权即为网络可调参数。其中,隐含层的作用是把向量从低维度的映射到高维度的,这样低维度线性不可分的情况到高维度就可以变得线性可分了,主要就是核函数的思想。这样,网络由输入到输出的映射是非线性的,而网络输出对可调参数而言却又是线性的。网络的权就可由线性方程组直接解出,从而大大加快学习速度并避免局部极小问题。
如图2所示,一种基于人脸识别的停车场收费方法,方法包括以下步骤:
选择人脸支付后,接收采集的人脸图像数据,并进行预处理,将预处理后的人脸图像数据进行特征提取,分为眼睛数据、嘴巴数据、鼻子数据和人脸整体轮廓数据,并进行标记,然后利用标记后的人脸图像数据进行计算,根据闭眼睁眼两种情况,得出闭眼图像识别系数和睁眼图像识别系数,并设定闭眼图像标准识别系数和睁眼图像标准识别系数,将闭眼图像识别系数和闭眼图像标准识别系数计算得出闭眼判定系数,将睁眼图像识别系数和睁眼图像标准识别系数计算得出睁眼判定系数,利用得出的闭眼判定系数和设定的闭眼判定系数阈值计算得出闭眼比例判定系数,若闭眼比例判定系数大于等于1,则说明闭眼图像识别系数有效,将闭眼图像识别系数进行特征识别,若闭眼比例判定系数大于0小于1,则需重新进行采集,利用得出的睁眼判定系数和设定的睁眼判定系数阈值计算得出睁眼比例判定系数,若睁眼比例判定系数大于等于1,则说明睁眼图像识别系数有效,将睁眼图像识别系数进行特征识别,若睁眼比例判定系数大于0小于1,则需重新进行采集,然后利用人脸图像数据集与闭眼图像识别系数或睁眼图像识别系数进行特征匹配,若相匹配,则直接进行费用扣除,若不匹配,则需用户录入信息后再进行费用扣除。
在本说明书的描述中,参考术语“一个实施例”、“示例”、“具体示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本公开的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
以上显示和描述了本公开的基本原理、主要特征和本公开的优点。本行业的技术人员应该了解,本公开不受上述实施例的限制,上述实施例和说明书中描述的只是说明本公开的原理,在不脱离本公开精神和范围的前提下,本公开还会有各种变化和改进,这些变化和改进都落入要求保护的本公开范围内容。

Claims (8)

1.一种基于人脸识别的停车场收费系统,其特征在于,包括:
按键模块:用于提供用户选择,选择是否采用人脸识别进行支付,如未按下按键,则说明用户不采用人脸识别进行支付,若按下按键则说明用户采用人脸识别进行支付,按键模块发送采集信号至数据采集模块;
数据采集模块:用于对人脸图像数据进行采集,并且对采集得到的人脸图像数据进行预处理,将预处理后的人脸图像数据发送至数据处理模块进行处理;
数据处理模块:用于对人脸图像数据进行特征提取,从而将人脸图像数据分为眼睛数据、嘴巴数据、鼻子数据和人脸整体轮廓数据,并对眼睛数据、嘴巴数据、鼻子数据和人脸整体轮廓数据进行标记,利用标记后的眼睛数据、嘴巴数据、鼻子数据和人脸整体轮廓数据计算得出闭眼图像识别系数和睁眼图像识别系数,将计算得出的闭眼图像识别系数和睁眼图像识别系数发送至数据分析模块进行分析;
所述数据处理模块对人脸图像数据进行数据处理的过程包括以下步骤:
将眼睛数据标记为Yi,嘴巴数据标记为Zi,鼻子数据标记为Bi,人脸整体轮廓数据标记为Li,其中i为采集次数标号,且i=1、2、3、...n,其中n为采集次数总数;
当提取到的眼睛数据为闭眼时的眼睛数据时,利用公式计算得出闭眼图像识别系数Txi1,式中,Y0为眼睛数据影响系数,Z0为嘴巴数据影响系数,B0为鼻子数据影响系数,L0为人脸整体轮廓数据影响系数,α为第一修正因子,β为第二修正因子,P为第三修正因子,Q为第四修正因子;
当提取到的眼睛数据为睁眼时的眼睛数据时,利用公式计算得出睁眼图像识别系数Txi2
将计算得出的闭眼图像识别系数Txi1和睁眼图像识别系数Txi2发送至数据分析模块;
数据分析模块:用于分别设定闭眼图像标准识别系数和睁眼图像标准识别系数,且将得到的闭眼图像识别系数和闭眼图像标准识别系数计算得出闭眼判定系数,将闭眼判定系数与设定的闭眼判定系数阈值计算得出闭眼比例判定系数,若闭眼比例判定系数大于等于1,则无需重新进行采集,将闭眼图像识别系数发送至控制中心进行特征识别,若闭眼比例判定系数大于0小于1,则发送重新采集信号至数据采集模块进行再次采集,将睁眼图像识别系数和睁眼图像标准识别系数计算得出睁眼判定系数,将睁眼判定系数与设定的睁眼判定系数阈值计算得出睁眼比例判定系数,若睁眼比例判定系数大于等于1,则无需重新进行采集,将睁眼图像识别系数发送至控制中心进行特征识别,若睁眼比例判定系数大于0小于1,则发送重新采集信号至数据采集模块进行再次采集;
所述数据分析模块的分析过程包括以下步骤:
设定闭眼图像标准识别系数Td10,利用公式计算得出闭眼判定系数Pd1,式中,C为闭眼预设系数,并且将闭眼判定系数Pd1与设定的闭眼判定系数阈值Pd10利用公式/>计算得出闭眼比例判定系数Bl1,式中/>为闭眼预设比例系数,若闭眼比例判定系数Bl1≥1,则说明闭眼图像识别系数Txi1有效,无需重新进行采集,将闭眼图像识别系数Txi1发送至控制中心进行特征识别,若闭眼比例判定系数0<Bl1<1,则说明闭眼图像识别系数Txi1无效,发送重新采集信号至数据采集模块进行再次采集;
设定睁眼图像标准识别系数Td20,利用公式计算得出睁眼判定系数Pd2,式中,M为睁眼预设系数,并且将睁眼判定系数Pd2与设定的睁眼判定系数阈值Pd20利用公式/>计算得出闭眼比例判定系数Bl2,式中/>为睁眼预设比例系数,若睁眼比例判定系数Bl2≥1,则说明睁眼图像识别系数Txi2有效,无需重新进行采集,将睁眼图像识别系数Txi2发送至控制中心进行特征识别,若睁眼比例判定系数0<Bl2<1,则说明睁眼图像识别系数Txi2无效,发送重新采集信号至数据采集模块进行再次采集;
数据库:用于收集录入并存储人脸图像数据集,并发送至控制中心;
控制中心:用于将闭眼图像识别系数和睁眼图像识别系数与人脸图像数据集进行特征匹配,若闭眼图像识别系数和睁眼图像识别系数无法与人脸图像数据集相匹配,则用户需进行人脸录入并进行支付,若闭眼图像识别系数和睁眼图像识别系数与人脸图像数据集相匹配,则控制中心直接进行费用扣除。
2.根据权利要求1所述的一种基于人脸识别的停车场收费系统,其特征在于,所述数据采集模块包括摄像头和预处理单元,所述摄像头用于采集人脸图像数据,并发送至预处理单元,所述预处理单元用于将摄像头发送的人脸图像数据进行预处理。
3.根据权利要求2所述的一种基于人脸识别的停车场收费系统,其特征在于,所述预处理单元对人脸图像数据进行预处理的过程包括:光线补偿、归一化、滤波和锐化处理,从而使得人脸图像数据被矫正和音频过滤。
4.根据权利要求1所述的一种基于人脸识别的停车场收费系统,其特征在于,所述数据处理模块包括特征提取单元和计算分析单元,所述特征提取单元用于将人脸图像数据进行特征提取得到眼睛数据、嘴巴数据、鼻子数据和人脸整体轮廓数据,发送至计算分析单元进行计算,所述计算分析单元用于将得到的眼睛数据、嘴巴数据、鼻子数据和人脸整体轮廓数据进行计算分析。
5.根据权利要求1所述的一种基于人脸识别的停车场收费系统,其特征在于,所述控制中心在分别接收数据分析模块发送的闭眼图像识别系数Txi1和睁眼图像识别系数Txi2后,并接收数据库发送的人脸图像数据集Txj,其中Txj={Tx1、Tx2、Tx3、...、Txm},其中j为录入图像标号,j=1、2、3、...、m,m为录入图像总数,然后将闭眼图像识别系数Txi1和睁眼图像识别系数Txi2与人脸图像数据集Txj进行特征匹配,若闭眼图像识别系数Txi1和睁眼图像识别系数Txi2无法与人脸图像数据集Txj相匹配,则用户需进行人脸录入并进行支付,若闭眼图像识别系数Txi1和睁眼图像识别系数Txi2与人脸图像数据集Txj相匹配,则控制中心可直接进行费用扣除。
6.根据权利要求5所述的一种基于人脸识别的停车场收费系统,其特征在于,所述数据库内的人脸图像数据集的获取过程如下:
通过数据库内的数据采集终端来对人脸图像进行录入,其中,人脸图像包括眼睛关键点、鼻子关键点、嘴巴关键点和人脸整体轮廓;
将人脸图像与人脸映射模型相结合,获取并存储人脸图像,然后将所有获取得到的人脸图像进行整合形成人脸图像数据集,所述人脸映射模型基于人工智能模型进行训练。
7.根据权利要求6所述的一种基于人脸识别的停车场收费系统,其特征在于,基于人工智能模型来对人脸映射模型进行训练,过程为:
通过服务器整合并获取标准训练数据,其中,标准训练数据包括人脸图像数据;
通过标准训练数据对人工智能模型进行训练,获取并存储人脸映射模型;其中,所述人工智能模型包括深度卷积神经网络模型和RBF神经网络模型。
8.一种基于人脸识别的停车场收费方法,其特征在于,方法包括以下步骤:
选择人脸支付后,接收采集的人脸图像数据,并进行预处理,将预处理后的人脸图像数据进行特征提取,分为眼睛数据、嘴巴数据、鼻子数据和人脸整体轮廓数据,并进行标记;
利用标记后的人脸图像数据进行计算,根据闭眼睁眼两种情况,得出闭眼图像识别系数和睁眼图像识别系数,并设定闭眼图像标准识别系数和睁眼图像标准识别系数,将闭眼图像识别系数和闭眼图像标准识别系数计算得出闭眼判定系数,将睁眼图像识别系数和睁眼图像标准识别系数计算得出睁眼判定系数;
过程如下:
将眼睛数据标记为Yi,嘴巴数据标记为Zi,鼻子数据标记为Bi,人脸整体轮廓数据标记为Li,其中i为采集次数标号,且i=1、2、3、...n,其中n为采集次数总数;
当提取到的眼睛数据为闭眼时的眼睛数据时,利用公式计算得出闭眼图像识别系数Txi1,式中,Y0为眼睛数据影响系数,Z0为嘴巴数据影响系数,B0为鼻子数据影响系数,L0为人脸整体轮廓数据影响系数,α为第一修正因子,β为第二修正因子,P为第三修正因子,Q为第四修正因子;
当提取到的眼睛数据为睁眼时的眼睛数据时,利用公式计算得出睁眼图像识别系数Txi2
设定闭眼图像标准识别系数Td10,利用公式计算得出闭眼判定系数Pd1,式中,C为闭眼预设系数,设定睁眼图像标准识别系数Td20,利用公式/>计算得出睁眼判定系数Pd2,式中,M为睁眼预设系数;
利用得出的闭眼判定系数和设定的闭眼判定系数阈值计算得出闭眼比例判定系数,若闭眼比例判定系数大于等于1,则说明闭眼图像识别系数有效,将闭眼图像识别系数进行特征识别,若闭眼比例判定系数大于0小于1,则需重新进行采集;
过程如下:将闭眼判定系数Pd1与设定的闭眼判定系数阈值Pd10利用公式计算得出闭眼比例判定系数Bl1,式中/>为闭眼预设比例系数,若闭眼比例判定系数Bl1≥1,则说明闭眼图像识别系数Txi1有效,无需重新进行采集,将闭眼图像识别系数Txi1进行特征识别,若闭眼比例判定系数0<Bl1<1,则说明闭眼图像识别系数Txi1无效,进行再次采集;
利用得出的睁眼判定系数和设定的睁眼判定系数阈值计算得出睁眼比例判定系数,若睁眼比例判定系数大于等于1,则说明睁眼图像识别系数有效,将睁眼图像识别系数进行特征识别,若睁眼比例判定系数大于0小于1,则需重新进行采集;
过程如下:将睁眼判定系数Pd2与设定的睁眼判定系数阈值Pd20利用公式计算得出闭眼比例判定系数Bl2,式中/>为睁眼预设比例系数,若睁眼比例判定系数Bl2≥1,则说明睁眼图像识别系数Txi2有效,无需重新进行采集,将睁眼图像识别系数Txi2进行特征识别,若睁眼比例判定系数0<Bl2<1,则说明睁眼图像识别系数Txi2无效,进行再次采集;
利用人脸图像数据集与闭眼图像识别系数或睁眼图像识别系数进行特征匹配,若相匹配,则直接进行费用扣除,若不匹配,则需用户录入信息后再进行费用扣除。
CN202310298845.2A 2023-03-24 2023-03-24 一种基于人脸识别的停车场收费系统及方法 Active CN116342115B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310298845.2A CN116342115B (zh) 2023-03-24 2023-03-24 一种基于人脸识别的停车场收费系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310298845.2A CN116342115B (zh) 2023-03-24 2023-03-24 一种基于人脸识别的停车场收费系统及方法

Publications (2)

Publication Number Publication Date
CN116342115A CN116342115A (zh) 2023-06-27
CN116342115B true CN116342115B (zh) 2023-10-13

Family

ID=86878421

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310298845.2A Active CN116342115B (zh) 2023-03-24 2023-03-24 一种基于人脸识别的停车场收费系统及方法

Country Status (1)

Country Link
CN (1) CN116342115B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017193272A1 (zh) * 2016-05-10 2017-11-16 深圳市赛亿科技开发有限公司 一种基于人脸识别的车载疲劳预警系统及预警方法
CN115205990A (zh) * 2022-05-19 2022-10-18 杭州电子科技大学上虞科学与工程研究院有限公司 一种基于人脸识别的停车场收费系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017193272A1 (zh) * 2016-05-10 2017-11-16 深圳市赛亿科技开发有限公司 一种基于人脸识别的车载疲劳预警系统及预警方法
CN115205990A (zh) * 2022-05-19 2022-10-18 杭州电子科技大学上虞科学与工程研究院有限公司 一种基于人脸识别的停车场收费系统

Also Published As

Publication number Publication date
CN116342115A (zh) 2023-06-27

Similar Documents

Publication Publication Date Title
CN113065558B (zh) 一种结合注意力机制的轻量级小目标检测方法
CN112270347B (zh) 一种基于改进ssd的医疗废弃物分类检测方法
CN108388888B (zh) 一种车辆识别方法、装置和存储介质
CN110502998B (zh) 车辆定损方法、装置、设备和存储介质
CN107622229A (zh) 一种基于融合特征的视频车辆重识别方法与系统
CN111507426B (zh) 基于视觉融合特征的无参考图像质量分级评价方法及装置
CN108830254B (zh) 一种基于数据均衡策略和密集注意网络的细粒度车型检测与识别方法
CN110232564A (zh) 一种基于多模态数据的交通事故法律自动决策方法
CN108764371A (zh) 图像处理方法、装置、计算机可读存储介质和电子设备
CN107293011A (zh) 一种智能家居的门禁系统
CN111046858A (zh) 一种基于图像的动物物种细分类方法、系统及介质
CN116704585A (zh) 一种基于质量感知的人脸识别方法
CN113657498B (zh) 生物特征提取方法、训练方法、认证方法、装置和设备
CN114821735A (zh) 一种基于人脸识别和语音识别的智能储物柜
CN116342115B (zh) 一种基于人脸识别的停车场收费系统及方法
CN107317846B (zh) 基于云平台的车辆管理系统
KR20200084946A (ko) 차량의 주차면 분석을 위한 지능형 cctv 장치
CN112749731A (zh) 一种基于深度神经网络的票据数量识别方法及系统
CN114627493A (zh) 一种基于步态特征的身份识别方法及系统
CN114140361A (zh) 融合多级特征的生成式对抗网络图像去雾方法
CN113723455A (zh) 一种基于度量学习的强引力透镜系统分类方法及装置
CN111507258B (zh) 聚焦关键样本的基于集成学习的道路区域检测方法、系统
CN117011719B (zh) 一种基于卫星图像的水资源信息采集方法
CN110378412B (zh) 基于局部几何特征序列建模的二维轮廓形状识别分类方法
CN117558025A (zh) 图像识别处理方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant