CN111428572A - 信息处理方法、装置、电子设备和介质 - Google Patents
信息处理方法、装置、电子设备和介质 Download PDFInfo
- Publication number
- CN111428572A CN111428572A CN202010133807.8A CN202010133807A CN111428572A CN 111428572 A CN111428572 A CN 111428572A CN 202010133807 A CN202010133807 A CN 202010133807A CN 111428572 A CN111428572 A CN 111428572A
- Authority
- CN
- China
- Prior art keywords
- facial
- image
- expression
- standard
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本公开提供了一种信息处理方法,包括:获取对当前用户对目标对象进行操作加以表示的视频信息;基于视频信息,确定当前用户对目标对象进行操作时的第一脸部图像;将第一脸部图像与当前用户的标准脸部图像进行比对,以确定当前用户的脸部表情是否异常;在确定脸部表情异常的情况下,确定脸部表情是否属于预设表情;以及在确定脸部表情属于预设表情的情况下,确定针对操作的处理策略。本公开的另一方面提供了一种信息处理装置、电子设备和介质。
Description
技术领域
本公开涉及互联网技术领域,更具体地,涉及一种信息处理方法和一种信息处理装置、电子设备和介质。
背景技术
人工智能、自动控制、通信和计算机技术的快速发展,机器被越来越多地应用于工农业生产、建筑、物流、和日常生活等诸多领域,给人们的生活带来了极大的方便。例如用户可以在自助银行办理业务。然而在给人们的生活带来极大便利的同时也增加了违规行为发生的概率。
在相关技术中,还无法对违规行为进行有效防范导致用户的人身安全性和资产安全性较低。
发明内容
有鉴于此,本公开提供了一种信息处理方法和一种信息处理装置、电子设备和介质。
本公开的一个方面提供了一种信息处理方法,包括:获取对当前用户对目标对象进行操作加以表示的视频信息;基于视频信息,确定当前用户对目标对象进行操作时的第一脸部图像;将第一脸部图像与当前用户的标准脸部图像进行比对,以确定当前用户的脸部表情是否异常;在确定脸部表情异常的情况下,确定脸部表情是否属于预设表情;以及在确定脸部表情属于预设表情的情况下,确定针对操作的处理策略。
根据本公开的实施例,该方法还包括采集多个用户中每个用户处于正常状态的标准视频信息;获取每个用户的身份信息;基于每个用户的标准视频信息,确定每个用户的标准脸部图像;以及生成多个用户的身份信息与多个标准脸部图像之间的对应关系,以便通过当前用户的身份信息确定当前用户的标准脸部图像。
根据本公开的实施例,身份信息包括人脸数据库中的预存人脸图像;方法还包括:将标准脸部图像与预存人脸图像进行比对;在标准脸部图像与预存人脸图像中的差异大于第一阈值的情况下,丢弃标准脸部图像。
根据本公开的实施例,获取每个用户的身份信息包括:从每个标准视频信息中提取用户的第二脸部图像;确定第二脸部图像的第二特征向量;从人脸数据库中确定特定人脸图像,其中,特定人脸图像的第一特征向量与第二特征向量的相似度大于第一预设值;计算第一特征向量和第二特征向量之间的欧式距离;以及在欧式距离小于第二预设值的情况下,确定特定人脸图像的身份信息为标准视频信息中用户的身份信息。
根据本公开的实施例,确定脸部表情是否属于预设表情包括:将第一脸部图像输入到情绪检测模型中,以由情绪检测模型对第一脸部图像进行检测而获得第一脸部图像所展示的脸部表情;确定脸部表情是否在预设表情列表中;以及在确定脸部表情在预设表情列表中的情况下,确定脸部表情属于预设表情。
根据本公开的实施例,该方法还包括获取已知脸部表情的人脸训练图像;基于人脸训练图像和人脸训练图像的脸部表情,利用多层卷积神经网络对情绪检测模型进行训练;利用交叉熵损失函数评价情绪检测模型的拟合程度;以及在拟合程度大于第二阈值的情况下,通过反向传播算法调整情绪检测模型中的权重参数,以得到情绪检测模型。
根据本公开的实施例,处理策略包括:在操作为与交易相关的操作的情况下,控制交易暂停,并发出告警信息。
本公开的另一个方面提供了一种信息处理装置,包括:获取模块,用于获取对当前用户对目标对象进行操作加以表示的视频信息;第一确定模块,用于基于视频信息,确定当前用户对目标对象进行操作时的第一脸部图像;分析模块,用于将第一脸部图像与当前用户的标准脸部图像进行比对,以确定当前用户的脸部表情是否异常;识别模块,用于在确定脸部表情异常的情况下,确定脸部表情是否属于预设表情;以及第二确定模块,用于在确定脸部表情属于预设表情的情况下,确定针对操作的处理策略。
本公开的另一个方面提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,其中,当一个或多个程序被一个或多个处理器执行时,使得所述一个或多个处理器执行上述的方法。
本公开的另一方面提供了一种计算机可读存储介质,存储有计算机可执行指令,所述指令在被执行时用于实现如上所述的方法。
本公开的另一方面提供了一种计算机程序,所述计算机程序包括计算机可执行指令,所述指令在被执行时用于实现如上所述的方法。
根据本公开的实施例,可以至少部分地解决无法对违规行为甚至不法行为进行有效防范,用户人身安全性和资产安全性较低的问题,并因此可以实现提高用户人身安全性和资产安全性的技术效果。
附图说明
通过以下参照附图对本公开实施例的描述,本公开的上述以及其他目的、特征和优点将更为清楚,在附图中:
图1示意性示出了根据本公开实施例的可以应用信息处理方法的示例性系统架构;
图2示意性示出了根据本公开实施例的信息处理方法的流程图;
图3示意性示出了根据本公开另一实施例的信息处理方法流程图;
图4示意性示出了根据本公开实施例的获取每个用户的身份信息的方法流程图;
图5示意性示出了根据本公开实施例的确定所述脸部表情是否属于预设表情的方法流程图;
图6示意性示出了根据本公开实施例的建立情绪检测模型的方法流程图;
图7示意性示出了根据本公开另一实施例的信息处理方法的流程图;
图8示意性示出了根据本公开实施例的信息处理装置的框图;以及
图9示意性示出了根据本公开实施例的电子设备的方框图。
具体实施方式
以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本公开实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释 (例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和 C、和/或具有A、B、C的系统等)。在使用类似于“A、B或C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B或C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A 和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。
本公开的实施例提供了一种信息处理方法。该方法包括获取对当前用户对目标对象进行操作加以表示的视频信息;基于视频信息,确定当前用户对目标对象进行操作时的第一脸部图像;将第一脸部图像与当前用户的标准脸部图像进行比对,以确定当前用户的脸部表情是否异常;在确定脸部表情异常的情况下,确定脸部表情是否属于预设表情;以及在确定脸部表情属于预设表情的情况下,确定针对操作的处理策略。
图1示意性示出了根据本公开实施例的可以应用信息处理方法的示例性系统架构100。需要注意的是,图1所示仅为可以应用本公开实施例的系统架构的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、系统、环境或场景。
如图1所示,根据该实施例的系统架构100可以包括终端设备101、 102、103,网络104和服务器105。网络104用以在终端设备101、102、 103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105 交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如交易类应用(仅为示例)。
终端设备101、102、103可以是具有显示屏的各种电子设备,例如可以是ATM机、平板电脑和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对用户利用终端设备101、102、103所进行的交易支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。
需要说明的是,本公开实施例所提供的信息处理方法一般可以由服务器105执行。相应地,本公开实施例所提供的信息处理装置一般可以设置于服务器105中。本公开实施例所提供的信息处理方法也可以由不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群执行。相应地,本公开实施例所提供的信息处理装置也可以设置于不同于服务器105且能够与终端设备101、102、103 和/或服务器105通信的服务器或服务器集群中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
图2示意性示出了根据本公开实施例的信息处理方法的流程图。
如图2所示,该方法包括在操作S201~S205。
在操作S201,获取对当前用户对目标对象进行操作加以表示的视频信息。
例如可以在ATM机上安装摄像头,摄像头可以向后台服务器发送所采集到的用户利用ATM机进行交易时的视频信息。后台服务器接收来自ATM机的视频信息从而获取到当前用户对目标对象进行操作加以表示的视频信息。
在操作S202,基于视频信息,确定当前用户对目标对象进行操作时的第一脸部图像。
根据本公开的实施例,例如可以利用人脸识别算法对视频信息进行分析,以从视频信息中确定当前用户的第一脸部图像。
在操作S203,将第一脸部图像与当前用户的标准脸部图像进行比对,以确定当前用户的脸部表情是否异常。
例如可以服务器中存储有每个用户的标准脸部图像,从多个标准脸部图像中确定出当前用户的标准脸部图像,从而将第一脸部图像与当前用户的标准脸部图像进行比对。
例如在用户在ATM机前进行操作时,可以读取用户插入的银行卡来确定用户的身份信息,从而确定该身份信息的标准脸部图像。
又例如在用户未提供银行卡号、证件等表明用户身份的信息时,可以通过人脸检测和人脸识别技术识别视频信息中的用户,并匹配用户的身份信息。
具体地,例如可以使用MTCNN技术精确的定位人脸,利用FaceNet 技术遍历服务器中存储的标准脸部图像,从而找出与视频中的用户的脸部最接近的标准脸部图像即为当前用户的标准脸部图像。
根据本公开的实施例,例如可以提取第一脸部图像的特征和当前用户的标准脸部图像的特征,当第一脸部图像的特征和当前用户的标准脸部图像的特征的相似度大于阈值的情况下,确定当前用户的脸部表情正常。相反地,当第一脸部图像的特征和当前用户的标准脸部图像的特征的相似度小于等于第一阈值的情况下,确定当前用户的脸部表情异常。或者也可以利用神经网络模型来对第一脸部图像进行分类,由神经网络模型输出第一脸部图像为当前用户的标准脸部图像的概率,当概率大于第二阈值的情况下,确定当前用户的脸部表情正常。相反地,当概率小于等于第二阈值的情况下,确定当前用户的脸部表情异常。
在操作S204,在确定脸部表情异常的情况下,确定脸部表情是否属于预设表情。
根据本公开的实施例,例如可以将人脸表情分为高兴、惊讶、愤怒、悲伤、厌恶、恐惧、中性共7类主要表情。预设表情例如可以是愤怒、厌恶、恐惧的表情。
在操作S205,在确定脸部表情属于预设表情的情况下,确定针对操作的处理策略。
例如可以是在确定脸部表情为愤怒、厌恶、恐惧中的任意一个表情时,确定处理策略可以是向用户操作的客户端发送警示,并暂停响应该操作以及向报警系统发送告警信息。
根据本公开的实施例,该信息处理方法可以根据用户对目标对象进行操作时的表情来确定处理该操作的处理策略,从而至少部分地避免了违规操作的发生,保证用户的财产和人身安全。例如在表情指示用户处于紧张、慌张等的情绪时,例如可以执行报警处理。
图3示意性示出了根据本公开另一实施例的信息处理方法流程图。
如图3所示,该信息处理方法在图2所示的操作S201~S205的基础上还可以包括操作S301~S304。操作S301~304例如可以在操作S201之前执行。
在操作S301,采集多个用户中每个用户处于正常状态的标准视频信息。
根据本公开的实施例,用户在银行柜台前或者银行内办理业务时往往处于正常状态。标准视频信息例如可以是用户在银行柜台前或者银行内办理业务时的视频信息。
在操作S302,获取每个用户的身份信息。
例如可以将用户在银行柜台前或者银行内办理业务时使用的银行卡号、证件等信息作为用户的身份信息。又例如,针对用户在在银行大厅区域未办理业务,而不能直接获取银行卡号、证件等信息的情况下,可通过人脸检测和人脸识别技术实时识别采集的标准视频信息中的客户,并匹配客户的身份信息。下文参考图4说明了该实施例的实施方式,在此不再赘述。
在操作S303,基于每个用户的标准视频信息,确定每个用户的标准脸部图像。
例如可以从标准视频信息中提取出用户的脸部图像,并且将该脸部图像与身份信息相关联,从而将该脸部图像作为该身份信息的用户的标准脸部图像。
在操作S304,生成多个用户的身份信息与多个标准脸部图像之间的对应关系,以便通过当前用户的身份信息确定当前用户的标准脸部图像。
图4示意性示出了根据本公开实施例的在操作S302获取每个用户的身份信息的方法流程图。
如图4所示,该方法可以包括操作S312~S352。
在操作S312,从每个标准视频信息中提取用户的第二脸部图像。
根据本公开的实施例,例如可以使用人脸检测的深度学习模型 MTCNN来从标准视频信息中提取用户的第二脸部图像。MTCNN是一种基于深度卷积神经网络的高精度的实时人脸检测和对齐技术,是多任务级联CNN的人脸检测深度学习模型,可以同时完成人脸检测和人脸对齐两项任务,可以精确的定位人脸,并且可以做到实时的人脸检测。
在操作S322,确定第二脸部图像的第二特征向量。
例如可以将第二脸部图像输入到深度学习模型FaceNet中,利用深度学习模型FaceNet来确定第二脸部图像的第二特征向量。FaceNet采用基于深度神经网络的图像映射方法和基于triplets(三联子)的loss函数训练神经网络,网络直接输出为128维度的向量空间。
在操作S332,从人脸数据库中确定特定人脸图像,其中,特定人脸图像的第一特征向量与第二特征向量的相似度大于第一预设值。
根据本公开的实施例,例如可以在人脸数据库中遍历出特征向量与该第二特征向量相近的特定人脸图像。
在操作S342,计算第一特征向量和第二特征向量之间的欧式距离。
在操作S352,在欧式距离小于第二预设值的情况下,确定特定人脸图像的身份信息为标准视频信息中用户的身份信息。
需要理解的是,上文参考图4描述的获取每个用户的身份信息的方法是针对例如银行中已存储有客户的预存人脸图像的情况。客户的预存人脸图像可以是对于首次进入银行的客户,首先由银行在客户进行业务办理时采集客户预存人脸图像等预留信息,并存储进入银行的人脸数据库中,再通过上述方法进行用户身份信息识别。
根据本公开的实施例,身份信息可以包括人脸数据库中的预存人脸图像,该方法还可以包括将标准脸部图像与预存人脸图像进行比对,在标准标准脸部图像与预存人脸图像中的差异大于第一阈值的情况下,丢弃标准脸部图像。在丢弃该标准脸部图像之后,可以从另一个标准视频信息中提取标准脸部图像,直到提取到与预存人脸图像差异不大的标准脸部图像。该方法可以至少部分地避免提取到的异常的标准脸部图像。
图5示意性示出了根据本公开实施例的在操作S204确定所述脸部表情是否属于预设表情的方法流程图。
如图5所示,该方法可以包括操作S214~S234。
在操作S214,将第一脸部图像输入到情绪检测模型中,以由情绪检测模型对第一脸部图像进行检测而获得第一脸部图像所展示的脸部表情。
根据本公开的实施例,情绪检测模型可以是通过神经网络训练多个被标注的情绪的人脸而获取的。情绪检测模型可以对第一脸部图像进行识别,从而输出第一脸部图像中脸部表情。
在操作S224,确定脸部表情是否在预设表情列表中。
根据本公开的实施例,例如可以将人脸表情分为高兴、惊讶、愤怒、悲伤、厌恶、恐惧、中性共7类主要表情。预设表情列表中例如可以包括愤怒、厌恶、恐惧的表情。
在操作S234,在确定脸部表情在预设表情列表中的情况下,确定脸部表情属于预设表情。
例如可以是在情绪检测模型输出的脸部表情的结果为预设表情列表中的任意一个表情的情况下,确定脸部表情属于预设表情。
根据本公开的实施例,上述信息处理方法还可以可以包括建立情绪检测模型。
图6示意性示出了根据本公开实施例的建立情绪检测模型的方法流程图。
如图6所示,该方法可以包括操作S601~S604。
在操作S601,获取已知脸部表情的人脸训练图像。
例如可以获取国际公开的fer2013人脸图像库中的人脸训练图像。
在操作S602,基于人脸训练图像和人脸训练图像的脸部表情,利用多层卷积神经网络对情绪检测模型进行训练。
根据本公开的实施例,构建的情绪检测模型的多层卷积神经网络可以包含1个输入层(input)、4个卷积层(conv1、conv2、conv3和conv4), 2个池化层(pool1和pool2),3个全连接层(1层dropout)以及1个softmax 层。多层卷积神经网络的网络架构例如可以是input->conv1->conv2 ->pool1->conv3->conv4->pool2->全连接层->softmax层。输入层例如可以是48*48的人脸像素矩阵。卷积层和池化层有若干个特征图,每个特征图都与其前一层特征图以局部连接的方式相连接。卷积层分别使用32、64、128个卷积核进行卷积操作,每个卷积层使用的卷积核的大小都为3*3。池化层使用的采样窗口的大小为2*2。全连接层含有256 个神经元,与池化层进行全连接。softmax层含有7个神经元,对全连接层输出的特征进行分类,将人脸表情分为高兴、惊讶、愤怒、悲伤、厌恶、恐惧、中性共7类。
在操作S603,利用交叉熵损失函数评价情绪检测模型的拟合程度。
在操作S604,在拟合程度大于第二阈值的情况下,通过反向传播算法调整情绪检测模型中的权重参数,以得到情绪检测模型。
根据本公开的实施例,dropout层是为了防止CNN在训练过程中出现过拟合的情况,保证输入层和中间层的神经元随机置零,并使得这些神经元不参与前向和反向传播的过程,保持其权重不发生改变。在本训练过程中,对于全连接层的神经元,以0.5的概率将神经元的输出值清 0,而用反向传播算法更新权值时,不再更新与神经元相连的权值。
根据本公开的实施例,该信息处理方法还可以包括对训练出的情绪检测模型进行测试。测试情绪检测模型包括:利用情绪检测模型对人脸测试图像进行识别测试,得到测试结果,人脸测试图像例如可以使用国际公开的fer2013人脸图像库,根据测试结果,生成情绪检测模型的混淆矩阵;通过混淆矩阵,计算情绪检测模型的识别正确率。若情绪检测模型的识别正确率未达到预设值,则通过反向传播调整情绪检测模型中的各个权重参数后,重新对人脸测试图像进行识别测试,并计算情绪检测模型在该次测试中的识别正确率,直至情绪检测模型的识别正确率达到预设值时,得到训练完成后的情绪检测模型。
图7示意性示出了根据本公开另一实施例的信息处理方法的流程图。
如图7所示,该信息处理方法可以包括操作S01~S13。
在操作S01,获取正常业务交易下客户标准视频信息,获取客户身份信息。例如可以执行上文参考图3描述的操作S301和操作S302。具体为在银行的关键区域设置采集点,在客户进入银行大厅或在银行柜台进行正常业务办理时,通过摄像头等图像捕捉工具采集视频信息,通过深度学习技术识别客户的身份信息,跟踪提取客户在不同时点下的多张客户脸部图像。
在操作S02,对客户脸部图像进行图像处理,获取客户标准脸部图像。例如可以从多张客户脸部图像中提取出频次最高的脸部图像,并与人脸数据库中的预存人脸图像进行比对。当确定该出频次最高的脸部图像与人脸数据库中的预存人脸图像的差异小于等于第一阈值时,确定该出现频次最高的脸部图像可以作为标准脸部图像。例如可以执行上文参考图3描述的操作S303。
在操作S03,将获取的客户身份信息和客户标准脸部图像共同存储于标准表情库中。例如可以执行上文参考图3描述的操作S304。
在操作S04,获取ATM交易下客户脸部图像,并获取客户身份信息。例如可以执行操作S201和操作S202,获取客户在ATM交易下的视频信息,并且从视频信息中提取第一脸部图像,该第一脸部图像即为客户脸部图像。具体地,例如可以是客户在银行自助柜员机进行取款和转账操作时,通过摄像头等图像捕捉工具采集操作人视频信息,通过人脸检测算法检测出人脸区域,得到交易发生时客户脸部图像。
在操作S05,对客户脸部图像进行预处理。例如可以是将ATM交易下客户脸部图像进行归一化处理等预处理操作。
在操作S06,通过客户身份信息调取客户标准脸部图像。
在操作S07,例如可以执行上文参考图2描述的操作S203,将客户脸部图像与客户标准脸部图像进行比对,确定当前脸部表情是否异常。若当前脸部表情异常,则可以执行操作S08。若当前脸部表情正常,则可以执行操作S13。
在操作S08,例如可以是利用深度神经网络作为提取特征的工具,获取异常表情特征。
在操作S09,将异常表情特征输入到情绪检测模型中,以由情绪检测模型确定该客户脸部图像是否为异常报警表情。例如可以是执行上文参考图5描述的操作S214。
在操作S10,例如可以是执行上文参考图5描述的操作S224和操作S234。即判断脸部表情是否为异常报警表情。若客户脸部图像指示的脸部表情属于预设表情则为异常报警表情。若确定为异常报警表情,则可以执行操作S11,若确定不是异常报警表情,则可以执行操作S13。
在操作S11,发送报警指令触发报警。
在操作S12,对ATM交易特殊处理。例如可以是暂停处理该交易。
操作S11和操作S12例如可以是执行上文参考图2描述的操作S205。
在操作S13,ATM交易正常处理完成。
图8示意性示出了根据本公开实施例的信息处理装置800的框图。
如图8所示,信息处理装置800包括获取模块810、第一确定模块820、分析模块830、识别模块840和第二确定模块850。
获取模块810,例如可以是执行上文参考图2描述的操作S201,用于获取对当前用户对目标对象进行操作加以表示的视频信息。
第一确定模块820,例如可以是执行上文参考图2描述的操作S202,用于基于所述视频信息,确定所述当前用户对目标对象进行操作时的第一脸部图像。
分析模块830,例如可以是执行上文参考图2描述的操作S203,用于将所述第一脸部图像与所述当前用户的标准脸部图像进行比对,以确定所述当前用户的脸部表情是否异常。
识别模块840,例如可以是执行上文参考图2描述的操作S204,用于在确定所述脸部表情异常的情况下,确定所述脸部表情是否属于预设表情。
第二确定模块850,例如可以是执行上文参考图2描述的操作S205,用于在确定所述脸部表情属于预设表情的情况下,确定针对所述操作的处理策略。
根据本公开的实施例的模块、子模块、单元、子单元中的任意多个、或其中任意多个的至少部分功能可以在一个模块中实现。根据本公开实施例的模块、子模块、单元、子单元中的任意一个或多个可以被拆分成多个模块来实现。根据本公开实施例的模块、子模块、单元、子单元中的任意一个或多个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式的硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,根据本公开实施例的模块、子模块、单元、子单元中的一个或多个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
例如,获取模块810、第一确定模块820、分析模块830、识别模块 840和第二确定模块850中的任意多个可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。根据本公开的实施例,获取模块810、第一确定模块820、分析模块830、识别模块840和第二确定模块850中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列 (FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,获取模块810、第一确定模块820、分析模块830、识别模块840和第二确定模块850中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
图9示意性示出了根据本公开实施例的电子设备的方框图。图9示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图9所示,根据本公开实施例的电子设备900包括处理器901,其可以根据存储在只读存储器(ROM)902中的程序或者从存储部分908 加载到随机访问存储器(RAM)903中的程序而执行各种适当的动作和处理。处理器901例如可以包括通用微处理器(例如CPU)、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC)),等等。处理器901还可以包括用于缓存用途的板载存储器。处理器901 可以包括用于执行根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
在RAM 903中,存储有电子设备900操作所需的各种程序和数据。处理器901、ROM902以及RAM 903通过总线904彼此相连。处理器 901通过执行ROM 902和/或RAM 903中的程序来执行根据本公开实施例的方法流程的各种操作。需要注意,程序也可以存储在除ROM902 和RAM 903以外的一个或多个存储器中。处理器901也可以通过执行存储在一个或多个存储器中的程序来执行根据本公开实施例的方法流程的各种操作。
根据本公开的实施例,电子设备900还可以包括输入/输出(I/O) 接口905,输入/输出(I/O)接口905也连接至总线904。电子设备900 还可以包括连接至I/O接口905的以下部件中的一项或多项:包括键盘、鼠标等的输入部分906;包括诸如阴极射线管(CRT)、液晶显示器(LCD) 等以及扬声器等的输出部分907;包括硬盘等的存储部分908;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分909。通信部分 909经由诸如因特网的网络执行通信处理。驱动器910也根据需要连接至I/O接口905。可拆卸介质911,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器910上,以便于从其上读出的计算机程序根据需要被安装入存储部分908。
根据本公开的实施例,根据本公开实施例的方法流程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读存储介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分909从网络上被下载和安装,和/或从可拆卸介质911被安装。在该计算机程序被处理器901执行时,执行本公开实施例的系统中限定的上述功能。根据本公开的实施例,上文描述的系统、设备、装置、模块、单元等可以通过计算机程序模块来实现。
本公开还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的设备/装置/系统中所包含的;也可以是单独存在,而未装配入该设备/装置/系统中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本公开实施例的方法。
根据本公开的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质,例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。例如,根据本公开的实施例,计算机可读存储介质可以包括上文描述的ROM 902和/ 或RAM 903和/或ROM 902和RAM 903以外的一个或多个存储器。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时电可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合,即使这样的组合或结合没有明确记载于本公开中。特别地,在不脱离本公开精神和教导的情况下,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本公开的范围。
以上对本公开的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本公开的范围。尽管在以上分别描述了各实施例,但是这并不意味着各个实施例中的措施不能有利地结合使用。本公开的范围由所附权利要求及其等同物限定。不脱离本公开的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本公开的范围之内。
Claims (10)
1.一种信息处理方法,包括:
获取对当前用户对目标对象进行操作加以表示的视频信息;
基于所述视频信息,确定所述当前用户对目标对象进行操作时的第一脸部图像;
将所述第一脸部图像与所述当前用户的标准脸部图像进行比对,以确定所述当前用户的脸部表情是否异常;
在确定所述脸部表情异常的情况下,确定所述脸部表情是否属于预设表情;以及
在确定所述脸部表情属于预设表情的情况下,确定针对所述操作的处理策略。
2.根据权利要求1所述的方法,还包括:
采集多个用户中每个用户处于正常状态的标准视频信息;
获取所述每个用户的身份信息;
基于每个用户的所述标准视频信息,确定所述每个用户的标准脸部图像;以及
生成所述多个用户的身份信息与多个所述标准脸部图像之间的对应关系,以便通过所述当前用户的身份信息确定所述当前用户的标准脸部图像。
3.根据权利要求2所述的方法,其中,所述身份信息包括人脸数据库中的预存人脸图像;所述方法还包括:
将所述标准脸部图像与所述预存人脸图像进行比对;
在所述标准脸部图像与所述预存人脸图像中的差异大于第一阈值的情况下,丢弃所述标准脸部图像。
4.根据权利要求3所述的方法,其中,所述获取每个用户的身份信息包括:
从每个所述标准视频信息中提取所述用户的第二脸部图像;
确定所述第二脸部图像的第二特征向量;
从所述人脸数据库中确定特定人脸图像,其中,所述特定人脸图像的第一特征向量与所述第二特征向量的相似度大于第一预设值;
计算所述第一特征向量和所述第二特征向量之间的欧式距离;以及
在所述欧式距离小于第二预设值的情况下,确定所述特定人脸图像的身份信息为所述标准视频信息中用户的身份信息。
5.根据权利要求1所述的方法,其中,所述确定所述脸部表情是否属于预设表情包括:
将所述第一脸部图像输入到情绪检测模型中,以由所述情绪检测模型对所述第一脸部图像进行检测而获得所述第一脸部图像所展示的脸部表情;
确定所述脸部表情是否在预设表情列表中;以及
在确定所述脸部表情在预设表情列表中的情况下,确定所述脸部表情属于预设表情。
6.根据权利要求5所述的方法,还包括:
获取已知脸部表情的人脸训练图像;
基于所述人脸训练图像和所述人脸训练图像的脸部表情,利用多层卷积神经网络对情绪检测模型进行训练;
利用交叉熵损失函数评价情绪检测模型的拟合程度;以及
在所述拟合程度大于第二阈值的情况下,通过反向传播算法调整所述情绪检测模型中的权重参数,以得到情绪检测模型。
7.根据权利要求1所述的方法,其中,所述处理策略包括:
在所述操作为与交易相关的操作的情况下,控制所述交易暂停,并发出告警信息。
8.一种信息处理装置,包括:
获取模块,用于获取对当前用户对目标对象进行操作加以表示的视频信息;
第一确定模块,用于基于所述视频信息,确定所述当前用户对目标对象进行操作时的第一脸部图像;
分析模块,用于将所述第一脸部图像与所述当前用户的标准脸部图像进行比对,以确定所述当前用户的脸部表情是否异常;
识别模块,用于在确定所述脸部表情异常的情况下,确定所述脸部表情是否属于预设表情;以及
第二确定模块,用于在确定所述脸部表情属于预设表情的情况下,确定针对所述操作的处理策略。
9.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器执行如权利要求1~7任意一项所述的方法。
10.一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器执行如权利要求1~7任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010133807.8A CN111428572B (zh) | 2020-02-28 | 2020-02-28 | 信息处理方法、装置、电子设备和介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010133807.8A CN111428572B (zh) | 2020-02-28 | 2020-02-28 | 信息处理方法、装置、电子设备和介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111428572A true CN111428572A (zh) | 2020-07-17 |
CN111428572B CN111428572B (zh) | 2023-07-25 |
Family
ID=71547319
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010133807.8A Active CN111428572B (zh) | 2020-02-28 | 2020-02-28 | 信息处理方法、装置、电子设备和介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111428572B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111968029A (zh) * | 2020-08-19 | 2020-11-20 | 北京字节跳动网络技术有限公司 | 表情变换方法、装置、电子设备和计算机可读介质 |
CN112150288A (zh) * | 2020-09-30 | 2020-12-29 | 南宁学院 | 一种基于表情识别的股票交易风险警示系统 |
CN113432644A (zh) * | 2021-06-16 | 2021-09-24 | 苏州艾美睿智能系统有限公司 | 一种无人搬运车异常检测系统及检测方法 |
CN113570604A (zh) * | 2021-09-28 | 2021-10-29 | 武汉精创电子技术有限公司 | 晶粒检测样本自动生成方法和装置 |
CN113709165A (zh) * | 2021-08-31 | 2021-11-26 | 贵州东冠科技有限公司 | 用于微表情的信息安全过滤系统及方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107025737A (zh) * | 2016-01-29 | 2017-08-08 | 广州广电运通金融电子股份有限公司 | 一种自助服务终端安防系统安全联动方法和系统 |
CN109472608A (zh) * | 2018-10-16 | 2019-03-15 | 深圳壹账通智能科技有限公司 | 基于情绪识别的交易认证方法及终端设备 |
CN110121715A (zh) * | 2019-02-19 | 2019-08-13 | 深圳市汇顶科技股份有限公司 | 基于表情识别的呼救方法、装置、电子设备及存储介质 |
TW201942842A (zh) * | 2018-04-02 | 2019-11-01 | 華南商業銀行股份有限公司 | 金融交易詐騙偵測防範系統及其方法 |
CN110415108A (zh) * | 2019-07-29 | 2019-11-05 | 中国工商银行股份有限公司 | 业务处理方法及装置、电子设备和计算机可读存储介质 |
GB202000377D0 (en) * | 2019-04-01 | 2020-02-26 | Samsung Electronics Co Ltd | Methods for generating modified images |
-
2020
- 2020-02-28 CN CN202010133807.8A patent/CN111428572B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107025737A (zh) * | 2016-01-29 | 2017-08-08 | 广州广电运通金融电子股份有限公司 | 一种自助服务终端安防系统安全联动方法和系统 |
TW201942842A (zh) * | 2018-04-02 | 2019-11-01 | 華南商業銀行股份有限公司 | 金融交易詐騙偵測防範系統及其方法 |
CN109472608A (zh) * | 2018-10-16 | 2019-03-15 | 深圳壹账通智能科技有限公司 | 基于情绪识别的交易认证方法及终端设备 |
CN110121715A (zh) * | 2019-02-19 | 2019-08-13 | 深圳市汇顶科技股份有限公司 | 基于表情识别的呼救方法、装置、电子设备及存储介质 |
GB202000377D0 (en) * | 2019-04-01 | 2020-02-26 | Samsung Electronics Co Ltd | Methods for generating modified images |
CN110415108A (zh) * | 2019-07-29 | 2019-11-05 | 中国工商银行股份有限公司 | 业务处理方法及装置、电子设备和计算机可读存储介质 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111968029A (zh) * | 2020-08-19 | 2020-11-20 | 北京字节跳动网络技术有限公司 | 表情变换方法、装置、电子设备和计算机可读介质 |
CN112150288A (zh) * | 2020-09-30 | 2020-12-29 | 南宁学院 | 一种基于表情识别的股票交易风险警示系统 |
CN113432644A (zh) * | 2021-06-16 | 2021-09-24 | 苏州艾美睿智能系统有限公司 | 一种无人搬运车异常检测系统及检测方法 |
CN113709165A (zh) * | 2021-08-31 | 2021-11-26 | 贵州东冠科技有限公司 | 用于微表情的信息安全过滤系统及方法 |
CN113570604A (zh) * | 2021-09-28 | 2021-10-29 | 武汉精创电子技术有限公司 | 晶粒检测样本自动生成方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111428572B (zh) | 2023-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111428572B (zh) | 信息处理方法、装置、电子设备和介质 | |
US10410292B2 (en) | Method, system, apparatus, and storage medium for realizing antifraud in insurance claim based on consistency of multiple images | |
Singh et al. | Image classification: a survey | |
CN108229297B (zh) | 人脸识别方法和装置、电子设备、计算机存储介质 | |
CN112884092B (zh) | Ai模型生成方法、电子设备及存储介质 | |
Antonakaki et al. | Detecting abnormal human behaviour using multiple cameras | |
CN109345375B (zh) | 一种可疑洗钱行为识别方法及装置 | |
CN111915437A (zh) | 基于rnn的反洗钱模型的训练方法、装置、设备及介质 | |
US11657548B2 (en) | Information processing device, display method, and program storage medium for monitoring object movement | |
CN116129350B (zh) | 数据中心安全作业的智能监控方法、装置、设备及介质 | |
CN112085281B (zh) | 检测业务预测模型安全性的方法及装置 | |
CN112418167A (zh) | 图像的聚类方法、装置、设备和存储介质 | |
CN111372042B (zh) | 故障检测方法、装置、计算机设备和存储介质 | |
CN116307671A (zh) | 风险预警方法、装置、计算机设备、存储介质 | |
Rusli et al. | Evaluating the masked and unmasked face with LeNet algorithm | |
CN111738199A (zh) | 图像信息验证方法、装置、计算装置和介质 | |
Fang et al. | Fairness in face presentation attack detection | |
CN108898067B (zh) | 确定人和物关联度的方法、装置及计算机可读存储介质 | |
CN114255377A (zh) | 一种智能货柜的差异商品检测分类方法 | |
US11755929B2 (en) | System and method for time series pattern recognition | |
CN113469816A (zh) | 基于多组学技术的数字货币识别方法、系统和存储介质 | |
CN113255512A (zh) | 用于活体识别的方法、装置、设备以及存储介质 | |
CN114265757A (zh) | 一种设备异常检测方法、装置、存储介质及设备 | |
Devi et al. | Deep learn helmets-enhancing security at ATMs | |
KR102599020B1 (ko) | 인공지능 기반 행동 모니터링 방법, 프로그램 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |