CN110414312A - 人脸识别方法、装置、服务器及存储介质 - Google Patents
人脸识别方法、装置、服务器及存储介质 Download PDFInfo
- Publication number
- CN110414312A CN110414312A CN201910487838.0A CN201910487838A CN110414312A CN 110414312 A CN110414312 A CN 110414312A CN 201910487838 A CN201910487838 A CN 201910487838A CN 110414312 A CN110414312 A CN 110414312A
- Authority
- CN
- China
- Prior art keywords
- identification
- human face
- recognition model
- face recognition
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 76
- 238000003860 storage Methods 0.000 title claims abstract description 20
- 230000001815 facial effect Effects 0.000 claims abstract description 27
- 230000015654 memory Effects 0.000 claims description 22
- 238000000605 extraction Methods 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 19
- 238000010801 machine learning Methods 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 13
- 238000012549 training Methods 0.000 claims description 13
- 238000012827 research and development Methods 0.000 abstract description 5
- 238000012423 maintenance Methods 0.000 abstract description 4
- 230000006870 function Effects 0.000 description 20
- 238000013475 authorization Methods 0.000 description 13
- 238000013527 convolutional neural network Methods 0.000 description 13
- 230000005764 inhibitory process Effects 0.000 description 13
- 238000004891 communication Methods 0.000 description 11
- 239000000284 extract Substances 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 10
- 238000013526 transfer learning Methods 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 8
- 230000007774 longterm Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 238000010295 mobile communication Methods 0.000 description 6
- 238000012544 monitoring process Methods 0.000 description 6
- 238000003062 neural network model Methods 0.000 description 6
- 230000007423 decrease Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000005611 electricity Effects 0.000 description 5
- 238000012790 confirmation Methods 0.000 description 4
- 238000013508 migration Methods 0.000 description 4
- 230000005012 migration Effects 0.000 description 4
- 230000006978 adaptation Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000000116 mitigating effect Effects 0.000 description 2
- 210000004218 nerve net Anatomy 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000035800 maturation Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biophysics (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Image Analysis (AREA)
Abstract
一种人脸识别方法,包括:接收摄像头采集的视频图像;根据所述视频图像识别当前业务场景;根据识别的当前业务场景选择对应的人脸识别模型;及通过所述人脸识别模型识别所述视频图像中的人脸图像。本发明还提供一种人脸识别装置、服务器及存储介质。通过本发明可以支持不同业务场景,动态配置人脸识别模型,实现算法升级自动化,减少研发和维护工作量,增加系统易用和可靠性。
Description
技术领域
本发明涉及图像识别技术领域,具体涉及一种人脸识别方法、装置、服务器及存储介质。
背景技术
互联网上有海量的人脸照片,通过搜索引擎优图也积累了海量带身份标注的互联网人脸数据。这部分数据无论从人数,图像数、数据多样性上都是最好的,为优图人脸识别技术的研发提供了基础条件。随着人脸识别技术的日渐成熟,实际业务中涌现出大量新场景下的应用需求,例如微众银行的核身业务,会议签到业务都涉及证件照和手机自拍照的比对,公安的监控需要视频监控数据与证件照的比对,公司大门门禁人脸图像比对,以及公司资料库门禁需要的高级授权人员的人脸图像比对。为适应不同业务场景,需要多套算法模型,提供不同类型的人脸识别服务。不同场景下获取的人脸图像存在巨大差异,如何对人脸识别模型进行快速调整,在各个不同场景下快速落地就成为一个非常具有挑战性的问题。
发明内容
鉴于以上内容,有必要提出一种人脸识别方法、装置、服务器及存储介质,能够根据不同的业务场景使用不同的人脸识别模型来识别人脸图像。
本发明的第一方面提供一种人脸识别方法,所述方法包括:
接收摄像头采集的视频图像;
根据所述视频图像识别当前业务场景;
根据识别的当前业务场景选择对应的人脸识别模型;及通过所述人脸识别模型识别所述视频图像中的人脸图像。
进一步地,所述根据所述视频图像识别当前业务场景包括:
从所述视频图像中提取图像作为待识别图像;
将所述待识别图像导入预先存储的业务场景识别模型中,得到所述待识别图像对应的场景类型,其中,所述业务场景识别模型用于表征待识别图像与场景类型之间的对应关系。
进一步地,所述业务场景识别模型为根据图片样本集训练的机器学习模型。
进一步地,在所述根据识别的当前业务场景选择对应的人脸识别模型之前,所述方法还包括:
接收麦克风采集的周围环境的声音信号;
根据所述声音信号识别当前业务场景。
进一步地,所述根据所述声音信号识别当前业务场景包括:
提取所述声音信号中的声音特征信息,并判断所述声音特征信息是否存在于数据库中,当所述声音特征信息存在于所述数据库中时,查询数据库中存储的声音特征信息与业务场景对应表来识别当前业务场景;或
将所述声音信号转换成语义信息,提取所述语义信息中的关键字,判断所述提取的关键字是否存在于所述数据库中,当所述提取的关键字存在于所述数据库中时,查询所述数据库中存储的关键字与业务场景对应表来识别当前业务场景。
进一步地,所述根据识别的当前业务场景选择对应的人脸识别模型包括:
根据所述识别的当前业务场景查询所述预先存储的业务场景与人脸识别模型对应表,以得到查询结果;
根据所述查询结果选择对应的人脸识别模型。
进一步地,所述根据识别的当前业务场景选择对应的人脸识别模型包括:
预先建立一基础人脸识别模型;及
根据识别的当前业务场景实时调整所述基础人脸识别模型以得到新的人脸识别模型。
本发明的第二方面提供一种人脸识别装置,所述装置包括:
接收模块,用于接收摄像头采集的视频图像;
识别模块,用于根据所述视频图像识别当前业务场景;
选择模块,用于根据识别的当前业务场景选择对应的人脸识别模型;及
处理模块,用于通过所述人脸识别模型识别所述视频图像中的人脸图像。
本发明的第三方面提供一种服务器,所述服务器包括处理器和存储器,所述处理器用于执行所述存储器中存储的计算机程序时实现所述人脸识别方法。
本发明的第四方面提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现所述人脸识别方法。
本发明所述的人脸识别方法、装置、系统及存储介质,能够根据不同的业务场景使用不同的人脸识别模型来识别人脸图像。不仅可以支持不同业务场景,动态配置人脸识别模型,实现算法升级自动化,减少研发和维护工作量,增加系统易用和可靠性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1是本发明实施例一提供的人脸识别方法的流程图。
图2是本发明实施例二提供的本发明人脸识别装置较佳实施例中的功能模块图。
图3是本发明实施例三提供的服务器的示意图。
如下具体实施方式将结合上述附图进一步说明本发明。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施例对本发明进行详细描述。需要说明的是,在不冲突的情况下,本发明的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”和“第三”等是用于区别不同对象,而非用于描述特定顺序。此外,术语“包括”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
本发明实施例的人脸识别方法应用在由至少一个服务器和通过网络与所述服务器进行连接的移动终端所构成的硬件环境中。网络包括但不限于:广域网、城域网或局域网。本发明实施例的人脸识别方法可以由服务器来执行,也可以由移动终端来执行;还可以是由服务器和移动终端共同执行。
所述对于需要进行人脸识别方法的服务器,可以直接在服务器上集成本发明的方法所提供的人脸识别功能,或者安装用于实现本发明的方法的客户端。再如,本发明所提供的方法还可以以软件开发工具包(Software Development Kit,SDK)的形式运行在服务器等设备上,以SDK的形式提供人脸识别功能的接口,服务器或其他设备通过提供的接口即可实现人脸识别功能。
实施例一
图1是本发明实施例一提供的人脸识别方法的流程图。根据不同的需求,该流程图中的执行顺序可以改变,某些步骤可以省略。
步骤S1,接收摄像头采集的视频图像。
在本实施方式中,通过摄像头采集视频图像,所述摄像头被安装在不同的业务场景中。所述业务场景描述的是需要进行人物侦测和/或人脸识别的场景。例如,所述业务场景为识别公司员工的门禁业务场景,所述业务场景还可以是识别高级授权人员的资料库安防业务场景,所述业务场景还可以是在大型商场中人物侦测和监控的业务场景。在所述门禁业务场景中,所述摄像头被安装在公司大门入口,用于集中在某时间段(如上下班期间)识别公司员工,允许公司员工进入。在所述门禁业务场景中,需要对所述摄像头拍摄的视频图像进行快速人脸识别。在所述资料库安防业务场景中,所述摄像头可以被安装在公司资料库门口,用于识别具有高级授权的人员。在所述资料库安防业务场景中,需要对所述摄像头拍摄的视频图像进行高精度的人脸识别。
在本实施方式中,所述摄像头与所述服务器之间通过有线或无线网络通信连接。所述有线网络可以为传统有线通讯的任何类型,例如因特网、局域网。所述无线网络可以为传统无线通讯的任何类型,例如无线电、无线保真(Wireless Fidelity,WIFI)、蜂窝、卫星、广播等。无线通讯技术可以包括,但不限于,全球移动通信系统(Global System forMobile Communications,GSM)、通用分组无线业务(General Packet Radio Service,GPRS)、码分多址(Code Division Multiple Access,CDMA),宽带码分多址(W-CDMA)、CDMA2000、IMT单载波(IMT Single Carrier)、增强型数据速率GSM演进(Enhanced DataRates for GSM Evolution,EDGE)、长期演进技术(Long-Term Evolution,LTE)、高级长期演进技术、时分长期演进技术(Time-Division LTE,TD-LTE)、第五代移动通信技术(5G)、高性能无线电局域网(High Performance Radio Local Area Network,HiperLAN)、高性能无线电广域网(High Performance Radio Wide Area Network,HiperWAN)、本地多点派发业务(Local Multipoint Distribution Service,LMDS)、全微波存取全球互通(WorldwideInteroperability for Microwave Access,WiMAX)、紫蜂协议(ZigBee)、蓝牙、正交频分复用技术(Flash Orthogonal Frequency-Division Multiplexing,Flash-OFDM)、大容量空分多路存取(High Capacity Spatial Division Multiple Access,HC-SDMA)、通用移动电信系统(Universal Mobile Telecommunications System,UMTS)、通用移动电信系统时分双工(UMTS Time-Division Duplexing,UMTS-TDD)、演进式高速分组接入(Evolved HighSpeed Packet Access,HSPA+)、时分同步码分多址(Time Division Synchronous CodeDivision Multiple Access,TD-SCDMA)、演进数据最优化(Evolution-Data Optimized,EV-DO)、数字增强无绳通信(Digital Enhanced Cordless Telecommunications,DECT)及其他。
所述业务场景还可以是设备登录、机场及公共区域的监控等场景。
在本实施方式中,所述人脸识别方法还包括:通过所述摄像头将采集的视频图像发送至所述服务器。
步骤S2,根据所述视频图像识别当前业务场景。
在本实施方式中,所述服务器的数据库中预先存储有业务场景识别模型。所述业务场景识别模型用于表征待识别图像与场景类型之间的对应关系。所述场景类型包括上述的门禁业务场景和资料库安防业务场景等。
具体地,所述根据所述视频图像识别当前业务场景的方法包括:
从所述视频图像中提取图像作为待识别图像;
将所述待识别图像导入所述业务场景识别模型中,得到所述待识别图像对应的场景类型。
在本实施方式中,所述业务场景识别模型为根据图片样本集训练的机器学习模型。所述机器学习模型为可以进行图像识别的人工智能算法模型,包括:卷积神经网络模型CNN、循环神经网络模块RNN和深度神经网络模型DNN。其中,卷积神经网络模型CNN是一种多层神经网络,可以将数据量庞大的图像识别问题不断降维,最终使其能够被训练,因此,本申请实施例中的机器学习模型可以为CNN模型。
在CNN网络结构的演化上,出现了许多CNN网络,包括LeNet、AlexNet、VGGNet、GoogleNet和ResNet。其中,ResNet网络提出了一种减轻网络训练负担的残差学习框架,这种网络比以前使用过的网络本质上层次更深,解决了其他神经网络随着网络加深,准确率下降的问题。在本实施方式中,所述机器学习模型可以是卷积神经网络模型CNN中的ResNet模型。需要说明的是,此处仅是举例说明,其他可以进行图像识别的机器学习模型同样适用于本申请,此处不进行赘述。
可以理解的是,在将所述待识别图像导入所述业务场景识别模型中,得到所述待识别图像对应的场景类型前,所述人脸识别方法还包括:对所述待识别图像进行图像预处理。所述图像预处理的过程包括:数据类型转换、直方图均衡化、归一化、几何校正和锐化。由于场景图像的质量将影响模型的识别效果,因此在导入至业务场景识别模型前对图像进行预处理。
优选地,在其他实施方式中,还可以结合其他传感器侦测的信息来识别当前场景。例如,在所述摄像头周围设置有一麦克风,所述麦克风用于采集周围环境的声音信号,并发送所述声音信号至所述服务器。
所述服务器还可以根据所述声音信号识别当前业务场景。
在一实施方式中,可以通过提取所述声音信号中的声音特征信息,并通过查询预先存储的声音特征信息与业务场景对应表来识别当前业务场景;还可以通过将所述声音信号转换成语义信息,再提取所述语义信息中的关键字,通过判断所述提取的关键字是否存在于预先存储有关键字的数据库中来识别当前业务场景。
具体地,所述通过提取所述声音信号中的声音特征信息,并通过查询预先存储的声音特征信息与业务场景对应表来识别当前业务场景包括:
提取所述声音信号中的声音特征信息;
判断所述声音特征信息是否存在于数据库中;
当所述声音特征信息存在于所述数据库中时,查询数据库中存储的声音特征信息与业务场景对应表来识别当前业务场景。
例如,所述服务器的数据库中预先存储有高级授权人员的声音特征信息,当所述麦克风接收到周围环境的声音信息后,发送所述声音信息至服务器,所述服务器提取所述声音信息中的特征信息,并判断提取的特征信息是否存在于预先存储有声音特征信息的数据库中,当所述提取的特征信息存在于预先存储有声音特征信息的数据库中时,确认当前场景为资料库安防业务场景。
所述通过将所述声音信号转换成语义信息,再提取所述语义信息中的关键字,通过判断所述提取的关键字是否存在于预先存储有关键字的数据库中来识别当前业务场景包括:
将所述声音信号转换成语义信息;
提取所述语义信息中的关键字;
判断所述提取的关键字是否存在于所述数据库中;
当所述提取的关键字存在于所述数据库中时,查询所述数据库中存储的关键字与业务场景对应表来识别当前业务场景。
例如,所述服务器的数据库中预先存储有不同业务场景对应的关键字(如,门禁业务场景对应了“打卡”、“迟到”等关键字)。当所述麦克风接收到周围环境的声音信息后,发送所述声音信息至服务器,所述服务器将所述声音信号转换成语义信息,再提取所述语义信息中的关键字(如打卡),通过判断所述提取的关键字是否存在于所述数据库中,当所述提取的关键字存在于所述数据库中时,确认当前场景为门禁业务场景。
步骤S3,根据识别的当前业务场景选择对应的人脸识别模型。
在一实施方式中,所述服务器的数据库中预先存储有业务场景与人脸识别模型对应表。所述人脸识别模型为根据不同的业务场景训练的定制化人脸识别模型。
具体地,所述根据识别的当前业务场景选择对应的人脸识别模型包括:
根据所述识别的当前业务场景查询所述预先存储的业务场景与人脸识别模型对应表,以得到查询结果;
根据所述查询结果选择对应的人脸识别模型。
例如,当所述识别的当前业务场景为资料库安防业务场景时,由于对公司资料库安全性要求高,需要高级授权者才能出入,因此,对人脸图像识别的精度要求高,其对应的人脸识别模型为高精度识别模型。
优选地,在根据识别的当前业务场景选择对应的人脸识别模型之后,所述人脸识别方法包括:检测所述视频图像中的人脸图像,将所述人脸图像输入至对应的人脸识别模型。
目前人脸检测的基本方法包括:基于肤色模型的方法、基于模板匹配的方法、弹性匹配方法、特征脸法(基于KL变换)、人工神经网络法、支持向量机法、基于积分图像特征法及基于概率模型法。
在另一实施方式中,所述根据识别的当前业务场景选择对应的人脸识别模型包括:预先建立一基础人脸识别模型;根据识别的当前业务场景实时调整所述基础人脸识别模型以得到新的人脸识别模型。
通常情况下,采用迁移学习方法来处理不同场景下的人脸识别问题。所述迁移学习方法包括:在复杂任务上进行基础模型的预训练(pre-train),在特定任务上对模型进行精细化调整(fine-tune)。具体地,只需要将训练好的基础人脸识别模型在新场景的新数据上进行精细化调整。在本实施方式中,由于深度神经网络模型具备更加优秀的迁移学习能力,可以采用所述深度神经网络模型训练方法来训练所述基础人脸识别模型。
传统的迁移学习方法确实能帮助基础人脸识别模型完成新场景下的人脸识别任务。但是无法将迁移学习中学到的新信息反馈给所述基础人脸识别模型。迁移之后的人脸识别模型只能应用在特定场景,在原集合上的性能甚至可能会大幅下降。由于深度神经网络的强大表达能力,完全可以在迁移学习过程中保持基础人脸识别模型的通用性能。采用增量学习的方式进行新场景的适应,在完成新场景下识别的同时也能保持其他场景下的能力,从而得到通用性更好的基础人脸识别模型。
在另一实施方式中,所述人脸识别方法还包括:根据识别的当前业务场景查询业务场景与拍摄模式关系表,以得到查询结果,并根据所述查询结果设置摄像头的拍摄模式。
在本实施方式中,所述服务器中预先存储有业务场景与拍摄模式关系表。所业务场景与拍摄模式关系表描述的是在不同业务场景下对应的不同的摄像头拍摄模式。通过调整不同的拍摄模式可以得到不同的视频图像,从而方便识别人脸图像。所述拍摄模式至少包括快速拍摄模式和高精度拍摄模式。
例如,若识别的当前业务场景为门禁业务场景时,由于大门门禁通过人数较多,对于图像识别的速度要求高,精度要求适当低,其对应的拍摄模式为快速拍摄模式。
在本实施方式中,所述服务器发送控制信息至所述摄像头,以设置所述摄像头的拍摄模式。例如,若识别的当前业务场景为资料库安防业务场景时,由于对公司资料库安全性要求高,不允许人员随意出入,需要高级授权者才能出入,因此,对图像识别的精度要求高,需要摄像头拍摄最适合人类识别的最优图像,以提高视频图像的可检测性,其对应的拍摄模式为高精度拍摄模式。
步骤S4,通过所述人脸识别模型识别所述视频图像中的人脸图像。
例如,当所述识别的当前业务场景为门禁业务场景时,由于大门门禁通过人数较多,对于图像识别的速度要求高,精度要求适当低,因此,采用的人脸识别模型可以是进行高速识别,而非高精度识别的模式来识别所述视频图像中的人脸图像。
当所述识别的当前业务场景为资料库安防业务场景时,由于对公司资料库安全性要求高,不允许人员随意出入,需要高级授权者才能出入,对图像识别的精度要求高,因此,采用的人脸识别模型可以是高精度识别的模式来识别所述视频图像中的人脸图像。
综上所述,本发明提供的人脸识别方法,包括接收摄像头采集的视频图像;根据所述视频图像识别当前业务场景;根据识别的当前业务场景选择对应的人脸识别模型;及通过所述人脸识别模型识别所述视频图像中的人脸图像。可以支持不同业务场景,动态配置人脸识别模型,实现算法升级自动化,减少研发和维护工作量,增加系统易用和可靠性。
以上所述,仅是本发明的具体实施方式,但本发明的保护范围并不局限于此,对于本领域的普通技术人员来说,在不脱离本发明创造构思的前提下,还可以做出改进,但这些均属于本发明的保护范围。
下面结合图2至图3,分别对实现上述人脸识别方法的服务器的功能模块及硬件结构进行介绍。
实施例二
图2为本发明人脸识别装置较佳实施例中的功能模块图。
在一些实施例中,所述人脸识别装置20运行于服务器中。所述人脸识别装置20可以包括多个由程序代码段所组成的功能模块。所述人脸识别装置20中的各个程序段的程序代码可以存储于存储器中,并由至少一个处理器所执行,以执行人脸识别功能。
本实施例中,所述人脸识别装置20根据其所执行的功能,可以被划分为多个功能模块。所述功能模块可以包括:接收模块201、识别模块202、选择模块203及处理模块204。本发明所称的模块是指一种能够被至少一个处理器所执行并且能够完成固定功能的一系列计算机程序段,其存储在存储器中。在一些实施例中,关于各模块的功能将在后续的实施例中详述。
所述接收模块201用于接收摄像头采集的视频图像。
在本实施方式中,通过摄像头采集视频图像,所述摄像头被安装在不同的业务场景中。所述业务场景描述的是需要进行人物侦测和/或人脸识别的场景。例如,所述业务场景为识别公司员工的门禁业务场景,所述业务场景还可以是识别高级授权人员的资料库安防业务场景,所述业务场景还可以是在大型商场中人物侦测和监控的业务场景。在所述门禁业务场景中,所述摄像头被安装在公司大门入口,用于集中在某时间段(如上下班期间)识别公司员工,允许公司员工进入。在所述门禁业务场景中,需要对所述摄像头拍摄的视频图像进行快速人脸识别。在所述资料库安防业务场景中,所述摄像头可以被安装在公司资料库门口,用于识别具有高级授权的人员。在所述资料库安防业务场景汇总,需要对所述摄像头拍摄的视频图像进行高精度的人脸识别。
所述业务场景还可以是设备登录、机场及公共区域的监控等场景。
在本实施方式中,所述摄像头与所述服务器之间通过有线或无线网络通信连接。所述有线网络可以为传统有线通讯的任何类型,例如因特网、局域网。所述无线网络可以为传统无线通讯的任何类型,例如无线电、无线保真(Wireless Fidelity,WIFI)、蜂窝、卫星、广播等。无线通讯技术可以包括,但不限于,全球移动通信系统(Global System forMobile Communications,GSM)、通用分组无线业务(General Packet Radio Service,GPRS)、码分多址(Code Division Multiple Access,CDMA),宽带码分多址(W-CDMA)、CDMA2000、IMT单载波(IMT Single Carrier)、增强型数据速率GSM演进(Enhanced DataRates for GSM Evolution,EDGE)、长期演进技术(Long-Term Evolution,LTE)、高级长期演进技术、时分长期演进技术(Time-Division LTE,TD-LTE)、第五代移动通信技术(5G)、高性能无线电局域网(High Performance Radio Local Area Network,HiperLAN)、高性能无线电广域网(High Performance Radio Wide Area Network,HiperWAN)、本地多点派发业务(Local Multipoint Distribution Service,LMDS)、全微波存取全球互通(WorldwideInteroperability for Microwave Access,WiMAX)、紫蜂协议(ZigBee)、蓝牙、正交频分复用技术(Flash Orthogonal Frequency-Division Multiplexing,Flash-OFDM)、大容量空分多路存取(High Capacity Spatial Division Multiple Access,HC-SDMA)、通用移动电信系统(Universal Mobile Telecommunications System,UMTS)、通用移动电信系统时分双工(UMTS Time-Division Duplexing,UMTS-TDD)、演进式高速分组接入(Evolved HighSpeed Packet Access,HSPA+)、时分同步码分多址(Time Division Synchronous CodeDivision Multiple Access,TD-SCDMA)、演进数据最优化(Evolution-Data Optimized,EV-DO)、数字增强无绳通信(Digital Enhanced Cordless Telecommunications,DECT)及其他。
所述识别模块202用于根据所述视频图像识别当前业务场景。
在本实施方式中,所述服务器的数据库中预先存储有业务场景识别模型。所述业务场景识别模型用于表征待识别图像与场景类型之间的对应关系。所述场景类型包括上述的门禁业务场景和资料库安防业务场景等。
具体地,所述根据所述视频图像识别当前业务场景的方法包括:
从所述视频图像中提取图像作为待识别图像;
将所述待识别图像导入所述业务场景识别模型中,得到所述待识别图像对应的场景类型。
在本实施方式中,所述业务场景识别模型为根据图片样本集训练的机器学习模型。所述机器学习模型为可以进行图像识别的人工智能算法模型,包括:卷积神经网络模型CNN、循环神经网络模块RNN和深度神经网络模型DNN。其中,卷积神经网络模型CNN是一种多层神经网络,可以将数据量庞大的图像识别问题不断降维,最终使其能够被训练,因此,本申请实施例中的机器学习模型可以为CNN模型。
在CNN网络结构的演化上,出现了许多CNN网络,包括LeNet、AlexNet、VGGNet、GoogleNet和ResNet。其中,ResNet网络提出了一种减轻网络训练负担的残差学习框架,这种网络比以前使用过的网络本质上层次更深,解决了其他神经网络随着网络加深,准确率下降的问题。在本实施方式中,所述机器学习模型可以是卷积申请网络模型CNN中的ResNet模型。需要说明的是,此处仅是举例说明,其他可以进行图像识别的机器学习模型同样适用于本申请,此处不进行赘述。
可以理解的是,在将所述待识别图像导入所述业务场景识别模型中,得到所述待识别图像对应的场景类型前,所述人脸识别方法还包括:对所述待识别图像进行图像预处理。所述图像预处理的过程包括:数据类型转换、直方图均衡化、归一化、几何校正和锐化。由于场景图像的质量将影响模型的识别效果,因此在导入至业务场景识别模型前对图像进行预处理。
优选地,在其他实施方式中,还可以结合其他传感器侦测的信息来识别当前场景。例如,在所述摄像头周围设置有一麦克风,所述麦克风用于采集周围环境的声音信号,并发送所述声音信号至所述服务器。
所述服务器还可以根据所述声音信号识别当前业务场景。
在一实施方式中,可以通过提取所述声音信号中的声音特征信息,并通过查询预先存储的声音特征信息与业务场景对应表来识别当前业务场景;还可以通过将所述声音信号转换成语义信息,再提取所述语义信息中的关键字,通过判断所述提取的关键字是否存在于预先存储有关键字的数据库中来识别当前业务场景。
具体地,所述通过提取所述声音信号中的声音特征信息,并通过查询预先存储的声音特征信息与业务场景对应表来识别当前业务场景包括:
提取所述声音信号中的声音特征信息;
判断所述声音特征信息是否存在于数据库中;
当所述声音特征信息存在于所述数据库中时,查询数据库中存储的声音特征信息与业务场景对应表来识别当前业务场景。
例如,所述服务器的数据库中预先存储有高级授权人员的声音特征信息,当所述麦克风接收到周围环境的声音信息后,发送所述声音信息至服务器,所述服务器提取所述声音信息中的特征信息,并判断提取的特征信息是否存在于预先存储有声音特征信息的数据库中,当所述提取的特征信息存在于预先存储有声音特征信息的数据库中时,确认当前场景为资料库安防业务场景。
具体地,所述通过将所述声音信号转换成语义信息,再提取所述语义信息中的关键字,通过判断所述提取的关键字是否存在于预先存储有关键字的数据库中来识别当前业务场景包括:
将所述声音信号转换成语义信息;
提取所述语义信息中的关键字;
判断所述提取的关键字是否存在于所述数据库中;
当所述提取的关键字存在于所述数据库中时,查询所述数据库中存储的关键字与业务场景对应表来识别当前业务场景。
例如,所述服务器的数据库中预先存储有不同业务场景对应的关键字(如,门禁业务场景对应了“打卡”、“迟到”等关键字)。当所述麦克风接收到周围环境的声音信息后,发送所述声音信息至服务器,所述服务器将所述声音信号转换成语义信息,再提取所述语义信息中的关键字(如打卡),通过判断所述提取的关键字是否存在于所述数据库中,当所述提取的关键字存在于所述数据库中时,确认当前场景为门禁业务场景。
所述选择模块203用于根据识别的当前业务场景选择对应的人脸识别模型。
在一实施方式中,所述服务器的数据库中预先存储有业务场景与人脸识别模型对应表。所述人脸识别模型为根据不同的业务场景训练的定制化人脸识别模型。
具体地,所述根据识别的当前业务场景选择对应的人脸识别模型包括:
根据所述识别的当前业务场景查询所述预先存储的业务场景与人脸识别模型对应表,以得到查询结果;
根据所述查询结果选择对应的人脸识别模型。
例如,当所述识别的当前业务场景为资料库安防业务场景时,由于对公司资料库安全性要求高,需要高级授权者才能出入,因此,对人脸图像识别的精度要求高,其对应的人脸识别模型为高精度识别模型。
优选地,在根据识别的当前业务场景选择对应的人脸识别模型之后,所述人脸识别装置20还可以检测所述视频图像中的人脸图像,将所述人脸图像输入至对应的人脸识别模型。
目前人脸检测的基本方法包括:基于肤色模型的方法、基于模板匹配的方法、弹性匹配方法、特征脸法(基于KL变换)、人工神经网络法、支持向量机法、基于积分图像特征法及基于概率模型法。
在另一实施方式中,所述根据识别的当前业务场景选择对应的人脸识别模型包括:
预先建立一基础人脸识别模型;
根据识别的当前业务场景实时调整所述基础人脸识别模型以得到新的人脸识别模型。
通常情况下,采用迁移学习方法来处理不同场景下的人脸识别问题。所述迁移学习方法包括:在复杂任务上进行基础模型的预训练(pre-train),在特定任务上对模型进行精细化调整(fine-tune)。具体地,只需要将训练好的基础人脸识别模型在新场景的新数据上进行精细化调整。在本实施方式中,由于深度神经网络模型具备更加优秀的迁移学习能力,可以采用所述深度神经网络模型训练方法来训练所述基础人脸识别模型。
传统的迁移学习方法确实能帮助基础人脸识别模型完成新场景下的人脸识别任务。但是无法将迁移学习中学到的新信息反馈给所述基础人脸识别模型。迁移之后的人脸识别模型只能应用在特定场景,在原集合上的性能甚至可能会大幅下降。由于深度神经网络的强大表达能力,完全可以在迁移学习过程中保持基础人脸识别模型的通用性能。采用增量学习的方式进行新场景的适应,在完成新场景下识别的同时也能保持其他场景下的能力,从而得到通用性更好的基础人脸识别模型。
在另一实施方式中,所述人脸识别装置20还可以根据识别的当前业务场景查询业务场景与拍摄模式关系表,以得到查询结果,并根据所述查询结果设置摄像头的拍摄模式。
在本实施方式中,所述服务器中预先存储有业务场景与拍摄模式关系表。所业务场景与拍摄模式关系表描述的是在不同业务场景下对应的不同的摄像头拍摄模式。通过调整不同的拍摄模式可以得到不同的视频图像,从而方便识别人脸图像。所述拍摄模式至少包括快速拍摄模式和高精度拍摄模式。
例如,若识别的当前业务场景为门禁业务场景时,由于大门门禁通过人数较多,对于图像识别的速度要求高,精度要求适当低,其对应的拍摄模式为快速拍摄模式。
在本实施方式中,所述服务器发送控制信息至所述摄像头,以设置所述摄像头的拍摄模式。例如,若识别的当前业务场景为资料库安防业务场景时,由于对公司资料库安全性要求高,不允许人员随意出入,需要高级授权者才能出入,因此,对图像识别的精度要求高,需要摄像头拍摄最适合人类识别的最优图像,以提高视频图像的可检测性,其对应的拍摄模式为高精度拍摄模式。
所述处理模块204用于通过所述人脸识别模型识别所述视频图像中的人脸图像。
例如,当所述识别的当前业务场景为门禁业务场景时,由于大门门禁通过人数较多,对于图像识别的速度要求高,精度要求适当低,因此,采用的人脸识别模型可以是进行高速识别,而非高精度识别的模式来识别所述视频图像中的人脸图像。
当所述识别的当前业务场景为资料库安防业务场景时,由于对公司资料库安全性要求高,不允许人员随意出入,需要高级授权者才能出入,对图像识别的精度要求高,因此,采用的人脸识别模型可以是高精度识别的模式来识别所述视频图像中的人脸图像。
综上所述,本发明提供的人脸识别装置20,包括接收模块201、识别模块202、选择模块203及处理模块204。所述接收模块201用于接收摄像头采集的视频图像;所述识别模块202用于根据所述视频图像识别当前业务场景;所述选择模块203用于根据识别的当前业务场景选择对应的人脸识别模型;及所述处理模块204用于通过所述人脸识别模型识别所述视频图像中的人脸图像。可以支持不同业务场景,动态配置人脸识别模型,实现算法升级自动化,减少研发和维护工作量,增加系统易用和可靠性。
上述以软件功能模块的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能模块存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,双屏设备,或者网络设备等)或处理器(processor)执行本发明各个实施例所述方法的部分。
实施例三
图3为本发明实施例三提供的服务器的示意图。
所述服务器3包括:数据库31、存储器32、至少一个处理器33、存储在所述存储器32中并可在所述至少一个处理器33上运行的计算机程序34及至少一条通讯总线35。
所述至少一个处理器33执行所述计算机程序34时实现上述人脸识别方法实施例中的步骤。
示例性的,所述计算机程序34可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器32中,并由所述至少一个处理器33执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序34在所述服务器3中的执行过程。
所述服务器3是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(应用程序licationSpecific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable GateArray,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。本领域技术人员可以理解,所述示意图3仅仅是服务器3的示例,并不构成对服务器3的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述服务器3还可以包括输入输出设备、网络接入设备、总线等。
所述数据库(Database)31是按照数据结构来组织、存储和管理数据的建立在所述服务器3上的仓库。数据库通常分为层次式数据库、网络式数据库和关系式数据库三种。在本实施方式中,所述数据库31用于存储所述车险图像信息。
所述至少一个处理器33可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。该处理器33可以是微处理器或者该处理器33也可以是任何常规的处理器等,所述处理器33是所述服务器3的控制中心,利用各种接口和线路连接整个服务器3的各个部分。
所述存储器32可用于存储所述计算机程序34和/或模块/单元,所述处理器33通过运行或执行存储在所述存储器32内的计算机程序和/或模块/单元,以及调用存储在存储器32内的数据,实现所述服务器3的各种功能。所述存储器32可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据服务器3的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器32可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(SecureDigital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
所述存储器32中存储有程序代码,且所述至少一个处理器33可调用所述存储器32中存储的程序代码以执行相关的功能。例如,图2中所述的各个模块(接收模块201、识别模块202、选择模块203及处理模块204)是存储在所述存储器32中的程序代码,并由所述至少一个处理器33所执行,从而实现所述各个模块的功能以达到人脸识别目的。
所述接收模块201用于接收摄像头采集的视频图像;
所述识别模块202用于根据所述视频图像识别当前业务场景;
所述选择模块203用于根据识别的当前业务场景选择对应的人脸识别模型;及
所述处理模块204用于通过所述人脸识别模型识别所述视频图像中的人脸图像。
进一步地,所述根据所述视频图像识别当前业务场景包括:
从所述视频图像中提取图像作为待识别图像;
将所述待识别图像导入预先存储的业务场景识别模型中,得到所述待识别图像对应的场景类型,其中,所述业务场景识别模型用于表征待识别图像与场景类型之间的对应关系。
进一步地,所述业务场景识别模型为根据图片样本集训练的机器学习模型。
进一步地,在所述根据识别的当前业务场景选择对应的人脸识别模型之前,所述接收模块201还用于接收麦克风采集的周围环境的声音信号;根据所述声音信号识别当前业务场景。
进一步地,所述根据所述声音信号识别当前业务场景包括:
提取所述声音信号中的声音特征信息,并判断所述声音特征信息是否存在于数据库中,当所述声音特征信息存在于所述数据库中时,查询数据库中存储的声音特征信息与业务场景对应表来识别当前业务场景;或
将所述声音信号转换成语义信息,提取所述语义信息中的关键字,判断所述提取的关键字是否存在于所述数据库中,当所述提取的关键字存在于所述数据库中时,查询所述数据库中存储的关键字与业务场景对应表来识别当前业务场景。
进一步地,所述根据识别的当前业务场景选择对应的人脸识别模型包括:
根据所述识别的当前业务场景查询所述预先存储的业务场景与人脸识别模型对应表,以得到查询结果;
根据所述查询结果选择对应的人脸识别模型。
进一步地,所述根据识别的当前业务场景选择对应的人脸识别模型包括:
预先建立一基础人脸识别模型;及
根据识别的当前业务场景实时调整所述基础人脸识别模型以得到新的人脸识别模型。
所述服务器3集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
尽管未示出,所述服务器3还可以包括给各个部件供电的电源(比如电池),优选的,电源可以通过电源管理系统与所述至少一个处理器33逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述服务器3还可以包括蓝牙模块、Wi-Fi模块等,在此不再赘述。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
在本发明所提供的几个实施例中,应该理解到,所揭露的电子设备和方法,可以通过其它的方式实现。例如,以上所描述的电子设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
另外,在本发明各个实施例中的各功能单元可以集成在相同处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在相同单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神范围。
Claims (10)
1.一种人脸识别方法,其特征在于,所述方法包括:
接收摄像头采集的视频图像;
根据所述视频图像识别当前业务场景;
根据识别的当前业务场景选择对应的人脸识别模型;及
通过所述人脸识别模型识别所述视频图像中的人脸图像。
2.如权利要求1所述的人脸识别方法,其特征在于,所述根据所述视频图像识别当前业务场景包括:
从所述视频图像中提取图像作为待识别图像;
将所述待识别图像导入预先存储的业务场景识别模型中,得到所述待识别图像对应的场景类型,其中,所述业务场景识别模型用于表征待识别图像与场景类型之间的对应关系。
3.如权利要求2所述的人脸识别方法,其特征在于,所述业务场景识别模型为根据图片样本集训练的机器学习模型。
4.如权利要求3所述的人脸识别方法,其特征在于,在所述根据识别的当前业务场景选择对应的人脸识别模型之前,所述方法还包括:
接收麦克风采集的周围环境的声音信号;
根据所述声音信号识别当前业务场景。
5.如权利要求4所述的人脸识别方法,其特征在于,所述根据所述声音信号识别当前业务场景包括:
提取所述声音信号中的声音特征信息,并判断所述声音特征信息是否存在于数据库中,当所述声音特征信息存在于所述数据库中时,查询数据库中存储的声音特征信息与业务场景对应表来识别当前业务场景;或
将所述声音信号转换成语义信息,提取所述语义信息中的关键字,判断所述提取的关键字是否存在于所述数据库中,当所述提取的关键字存在于所述数据库中时,查询所述数据库中存储的关键字与业务场景对应表来识别当前业务场景。
6.如权利要求1所述的人脸识别方法,其特征在于,所述根据识别的当前业务场景选择对应的人脸识别模型包括:
根据所述识别的当前业务场景查询所述预先存储的业务场景与人脸识别模型对应表,以得到查询结果;
根据所述查询结果选择对应的人脸识别模型。
7.如权利要求1所述的人脸识别方法,其特征在于,所述根据识别的当前业务场景选择对应的人脸识别模型包括:
预先建立一基础人脸识别模型;及
根据识别的当前业务场景实时调整所述基础人脸识别模型以得到新的人脸识别模型。
8.一种人脸识别装置,其特征在于,所述装置包括:
接收模块,用于接收摄像头采集的视频图像;
识别模块,用于根据所述视频图像识别当前业务场景;
选择模块,用于根据识别的当前业务场景选择对应的人脸识别模型;及
处理模块,用于通过所述人脸识别模型识别所述视频图像中的人脸图像。
9.一种服务器,其特征在于,所述服务器包括处理器和存储器,所述处理器用于执行所述存储器中存储的计算机程序时实现如权利要求1至7中任意一项所述的人脸识别方法。
10.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任意一项所述的人脸识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910487838.0A CN110414312A (zh) | 2019-06-05 | 2019-06-05 | 人脸识别方法、装置、服务器及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910487838.0A CN110414312A (zh) | 2019-06-05 | 2019-06-05 | 人脸识别方法、装置、服务器及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110414312A true CN110414312A (zh) | 2019-11-05 |
Family
ID=68358243
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910487838.0A Pending CN110414312A (zh) | 2019-06-05 | 2019-06-05 | 人脸识别方法、装置、服务器及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110414312A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111259292A (zh) * | 2020-02-13 | 2020-06-09 | 京东数字科技控股有限公司 | 图像呈现控制方法和装置 |
CN112199171A (zh) * | 2020-09-10 | 2021-01-08 | 中信银行股份有限公司 | 一种人脸识别方法、装置、电子设备及可读存储介质 |
CN112560721A (zh) * | 2020-12-21 | 2021-03-26 | 平安银行股份有限公司 | 无感知模型切换方法、装置、电子设备及存储介质 |
CN113378768A (zh) * | 2021-06-28 | 2021-09-10 | 北京百度网讯科技有限公司 | 垃圾桶状态识别方法、装置、设备以及存储介质 |
CN113536966A (zh) * | 2021-06-25 | 2021-10-22 | 佛山君兰智能科技有限公司 | 一种基于物联网的人脸识别系统及方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103456301A (zh) * | 2012-05-28 | 2013-12-18 | 中兴通讯股份有限公司 | 一种基于环境声音的场景识别方法及装置及移动终端 |
WO2018119599A1 (zh) * | 2016-12-26 | 2018-07-05 | 深圳前海达闼云端智能科技有限公司 | 人员查找的方法、装置及通信系统 |
CN108960209A (zh) * | 2018-08-09 | 2018-12-07 | 腾讯科技(深圳)有限公司 | 身份识别方法、装置及计算机可读存储介质 |
-
2019
- 2019-06-05 CN CN201910487838.0A patent/CN110414312A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103456301A (zh) * | 2012-05-28 | 2013-12-18 | 中兴通讯股份有限公司 | 一种基于环境声音的场景识别方法及装置及移动终端 |
WO2018119599A1 (zh) * | 2016-12-26 | 2018-07-05 | 深圳前海达闼云端智能科技有限公司 | 人员查找的方法、装置及通信系统 |
CN108960209A (zh) * | 2018-08-09 | 2018-12-07 | 腾讯科技(深圳)有限公司 | 身份识别方法、装置及计算机可读存储介质 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111259292A (zh) * | 2020-02-13 | 2020-06-09 | 京东数字科技控股有限公司 | 图像呈现控制方法和装置 |
CN112199171A (zh) * | 2020-09-10 | 2021-01-08 | 中信银行股份有限公司 | 一种人脸识别方法、装置、电子设备及可读存储介质 |
CN112560721A (zh) * | 2020-12-21 | 2021-03-26 | 平安银行股份有限公司 | 无感知模型切换方法、装置、电子设备及存储介质 |
CN112560721B (zh) * | 2020-12-21 | 2023-12-08 | 平安银行股份有限公司 | 无感知模型切换方法、装置、电子设备及存储介质 |
CN113536966A (zh) * | 2021-06-25 | 2021-10-22 | 佛山君兰智能科技有限公司 | 一种基于物联网的人脸识别系统及方法 |
CN113378768A (zh) * | 2021-06-28 | 2021-09-10 | 北京百度网讯科技有限公司 | 垃圾桶状态识别方法、装置、设备以及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110414312A (zh) | 人脸识别方法、装置、服务器及存储介质 | |
CN109522304B (zh) | 异常对象识别方法及装置、存储介质 | |
CN108305636B (zh) | 一种音频文件处理方法及装置 | |
CN110619889B (zh) | 体征数据识别方法、装置、电子设备和存储介质 | |
CN109326058A (zh) | 基于智慧柜员机的身份核查方法、装置、终端及可读介质 | |
CN110414313A (zh) | 异常行为告警方法、装置、服务器及存储介质 | |
CN108346034A (zh) | 一种会议智能管理方法及系统 | |
CN108320752A (zh) | 应用于社区门禁的云声纹识别系统及其方法 | |
CN110443116A (zh) | 视频行人检测方法、装置、服务器及存储介质 | |
CN111125409B (zh) | 一种门禁系统的控制方法、装置及门禁系统 | |
CN109543507A (zh) | 身份认证方法、装置、终端设备及存储介质 | |
CN109872419A (zh) | 基于人脸识别的客房入住方法、装置、服务器及存储介质 | |
CN110210194A (zh) | 电子合同显示方法、装置、电子设备及存储介质 | |
CN104751321A (zh) | 一种嵌入特定人群识别的公交智能支付系统及其实现方法 | |
CN107878370A (zh) | 一种车辆的控制方法及装置 | |
CN110414376A (zh) | 更新人脸识别模型的方法、人脸识别相机及服务器 | |
CN111508493B (zh) | 语音唤醒方法、装置、电子设备及存储介质 | |
CN109840289A (zh) | 基于人脸识别的客房确定方法、装置、服务器及存储介质 | |
CN110298240A (zh) | 一种汽车用户识别方法、装置、系统及存储介质 | |
CN109119095A (zh) | 疲劳等级识别方法、装置、计算机设备及存储介质 | |
CN112199530B (zh) | 多维度脸库图片自动更新方法、系统、设备及介质 | |
CN111460418A (zh) | 基于智能头盔的生物特征识别方法及智能头盔 | |
US10230789B2 (en) | Method for presenting schedule reminder information, terminal device, and cloud server | |
CN110047486A (zh) | 语音控制方法、装置、服务器、系统及存储介质 | |
CN116756576B (zh) | 数据处理方法、模型训练方法、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |