CN111210589A - 一种实现报警的方法及装置 - Google Patents
一种实现报警的方法及装置 Download PDFInfo
- Publication number
- CN111210589A CN111210589A CN201811399276.6A CN201811399276A CN111210589A CN 111210589 A CN111210589 A CN 111210589A CN 201811399276 A CN201811399276 A CN 201811399276A CN 111210589 A CN111210589 A CN 111210589A
- Authority
- CN
- China
- Prior art keywords
- image
- environment
- terminal
- classification
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/0202—Child monitoring systems using a transmitter-receiver system carried by the parent and the child
- G08B21/0205—Specific application combined with child monitoring using a transmitter-receiver system
- G08B21/0208—Combination with audio or video communication, e.g. combination with "baby phone" function
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Child & Adolescent Psychology (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例公开了一种实现报警的方法及装置,首先可以通过第一终端的摄像头获取用户所处环境的环境图像,并从环境图像中提取人的面部图像,然后将面部图像输入预先训练生成的图像分类模型中,获得该面部图像的分类结果。当面部图像的分类结果对应于紧急环境时,向第一终端和/或第二终端发送报警信息。即,当用户处于紧急环境时,无需用户主动触发报警功能,而是可以根据提取的面部图像识别出用户处于紧急环境,自动向第一终端和/或第二终端发送报警信息,从而实现智能告警,提醒用户注意安全和/或通知用户亲属的目的,进而实现充分保护用户的安全。
Description
技术领域
本申请涉及互联网技术领域,具体涉及一种实现报警的方法及装置。
背景技术
在一些场景下用户所使用的智能终端可以用于保护用户的安全,例如儿童智能手表的一个主要作用是帮助家长保护儿童安全。在现有技术中,用户在使用智能终端的过程中,如遇到紧急情况,需要主动触发报警功能,例如需要触发某些按键,或者说出预设的报警关键词等才能触发智能终端进行报警操作。
但是,由于某些限制用户无法进行主动操作或者用户不愿触发报警时,则无法进行报警。例如,用户群体为儿童时,用户无法准确判断是否处于危险中,并及时说出报警关键词;或者用户在受到威胁后不敢告知其他人真实情况。因此,现有技术中终端的自动报警功能无法充分保护用户的安全。
发明内容
有鉴于此,本申请实施例提供一种实现报警的方法及装置,以解决现有技术中无法准确、及时地触发终端的自动报警功能,保护用户安全的技术问题。
为解决上述问题,本申请实施例提供的技术方案如下:
一种实现报警的方法,所述方法包括:
获取第一终端采集的环境图像;
从所述环境图像中提取面部图像;
将所述面部图像输入预先训练生成的图像分类模型,获得所述图像分类模型输出的所述面部图像的分类结果;
当所述面部图像的分类结果对应于紧急环境时,向所述第一终端和/或第二终端发送报警信息。
在一种可能的实现方式中,所述当所述面部图像的分类结果对应于紧急环境时,向所述第一终端和/或第二终端发送报警信息,包括:
当所述面部图像的分类结果对应于紧急环境时,获取所述分类结果对应的处理规则;
根据所述处理规则向所述第一终端和/或第二终端发送报警信息。
在一种可能的实现方式中,所述图像分类模型的训练过程包括:
获取待训练面部图像;
将所述待训练面部图像以及所述待训练面部图像对应的分类标签作为训练数据,所述分类标签包括紧急环境标签或者安全环境标签;
根据所述训练数据对初始模型进行训练生成图像分类模型。
在一种可能的实现方式中,所述图像分类模型的训练过程包括:
获取待训练面部图像;
将所述待训练面部图像以及所述待训练面部图像对应的分类标签作为训练数据,所述分类标签包括至少一种紧急情绪标签或者至少一种安全情绪标签,所述紧急情绪标签对应于紧急环境,所述安全情绪标签对应于安全环境;
根据所述训练数据对初始模型进行训练生成图像分类模型。
在一种可能的实现方式中,所述初始模型包括深度学习模型或者分类模型。
在一种可能的实现方式中,所述环境图像是由所述第一终端按照预设时间间隔采集的,或者,所述环境图像是由所述第一终端在识别到预设环境时采集的。
在一种可能的实现方式中,所述从所述环境图像中提取面部图像,包括:
从所述环境图像中提取所述第一终端对应的用户的面部图像。
一种实现报警的装置,所述装置包括:
获取单元,用于获取第一终端采集的环境图像;
提取单元,用于从所述环境图像中提取面部图像;
输入单元,用于将所述面部图像输入预先训练生成的图像分类模型,获得所述图像分类模型输出的所述面部图像的分类结果;
发送单元,用于当所述面部图像的分类结果对应于紧急环境时,向所述第一终端和/或第二终端发送报警信息。
在一种可能的实现方式中,所述发送单元,包括:
获取子单元,用于当所述面部图像的分类结果对应于紧急环境时,获取所述分类结果对应的处理规则;
发送子单元,用于根据所述处理规则向所述第一终端和/或第二终端发送报警信息。
在一种可能的实现方式中,所述图像分类模型的训练过程包括:
获取待训练面部图像;
将所述待训练面部图像以及所述待训练面部图像对应的分类标签作为训练数据,所述分类标签包括紧急环境标签或者安全环境标签;
根据所述训练数据对初始模型进行训练生成图像分类模型。
在一种可能的实现方式中,所述图像分类模型的训练过程包括:
获取待训练面部图像;
将所述待训练面部图像以及所述待训练面部图像对应的分类标签作为训练数据,所述分类标签包括至少一种紧急情绪标签或者至少一种安全情绪标签,所述紧急情绪标签对应于紧急环境,所述安全情绪标签对应于安全环境;
根据所述训练数据对初始模型进行训练生成图像分类模型。
在一种可能的实现方式中,所述初始模型包括深度学习模型或者分类模型。
在一种可能的实现方式中,所述环境图像是由所述第一终端按照预设时间间隔采集的,或者,所述环境图像是由所述第一终端在识别到预设环境时采集的。
在一种可能的实现方式中,所述提取单元,具体用于从所述环境图像中提取所述第一终端对应的用户的面部图像。
一种用于实现报警的装置,包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于进行以下操作的指令:
获取第一终端采集的环境图像;
从所述环境图像中提取面部图像;
将所述面部图像输入预先训练生成的图像分类模型,获得所述图像分类模型输出的所述面部图像的分类结果;
当所述面部图像的分类结果对应于紧急环境时,向所述第一终端和/或第二终端发送报警信息。
在一种可能的实现方式中,其上存储有指令,当由一个或多个处理器执行时,使得装置执行上述的实现报警的方法。
由此可见,本申请实施例具有如下有益效果:
本申请实施例中首先可以通过第一终端的摄像头获取用户所处环境的环境图像,并从环境图像中提取人的面部图像,然后将面部图像输入预先训练生成的图像分类模型中,获得该面部图像的分类结果。当面部图像的分类结果对应于紧急环境时,向第一终端和/或第二终端发送报警信息。即,当用户处于紧急环境时,无需用户主动触发报警功能,而是可以根据提取的面部图像识别出用户处于紧急环境,自动向第一终端和/或第二终端发送报警信息,从而实现智能告警,提醒用户注意安全和/或通知用户亲属的目的,进而实现充分保护用户的安全。
附图说明
图1为本申请实施例提供的示例性应用场景的框架示意图;
图2为本申请实施例提供的一种生成图像分类模型的方法的流程图;
图3为本申请实施例提供的另一种生成图像分类模型的方法的流程图;
图4为本申请实施例提供的一种实现报警的方法的流程图;
图5为本申请实施例提供的一种实现报警的装置结构图;
图6为本申请实施例提供的另一种实现报警的装置结构图;
图7为本申请实施例提供的一种服务器设备结构示意图。
具体实施方式
为使本申请的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本申请实施例作进一步详细的说明。
发明人在对传统的智能终端研究中发现,当用户遇到紧急情况时,需要用户主动触发报警功能才可实现报警。然而,在一些场景下,用户无法进行主动操作或者用户无法准确识别是否需要触发报警时,无法进行及时报警,进而导致无法充分保护用户的安全。
发明人通过研究发现,当用户处于紧急情况或危险情况的时候,通常会出现特殊的面部表情,例如,哭泣、惊恐、紧张等。因此,可以通过面部表情判断用户是否处于紧急环境,以便及时报警。
基于此,本申请实施例提供了一种实现报警的方法及装置,首先可以通过第一终端的摄像头采集用户所处的环境图像,并从环境图像中提取人的面部图像,然后将面部图像输入预先训练生成的图像分类模型,该图像分类模型可以对面部图像进行分类,当该面部图像的分类结果对应于紧急环境时,向用户所使用的第一终端和/或第一终端绑定的第二终端发送报警信息,从而实现智能报警,以充分保护用户的安全。
参见图1,该图为本申请实施例提供的示例性应用场景的框架示意图。其中,本申请实施例提供的实现报警的方法可以应用于服务器20中。
实际应用时,服务器20获取第一终端10采集的环境图像,并从该环境图像中提取人的面部图像,然后将提取的面部图像输入图像分类模型,获得该面部图像对应的分类结果,当分类结果对应于紧急环境时,向第一终端10和/或第二终端30发送报警信息。
本领域技术人员可以理解,图1所示的框架示意图仅是本申请的实施方式可以在其中得以实现的一个示例。本申请实施方式的适用范围不受到该框架任何方面的限制。
需要注意的是,第一终端10和第二终端30可以是现有的、正在研发的或将来研发的、能够通过任何形式的有线和/或无线连接(例如,Wi-Fi、LAN、蜂窝、同轴电缆等)相互交互的任何用户设备,包括但不限于:现有的、正在研发的或将来研发的智能可穿戴设备、智能手机、非智能手机、平板电脑、膝上型个人计算机、桌面型个人计算机、小型计算机、中型计算机、大型计算机等。本申请的实施方式在此方面不受任何限制。还需要注意的是,本申请实施例中服务器20可以是现有的、正在研发的或将来研发的、能够向用户提供信息推荐的应用服务的设备的一个示例。本申请的实施方式在此方面不受任何限制。
本申请实施例提供的实现报警的方法,利用了预先训练生成的图像分类模型。为便于后续实施例的理解,首先对图像分类模型的训练过程进行说明。
本申请实施例提供了两种训练生成图像分类模型的方法,一种是将用户所处环境类型以二分类形式进行图像分类模型的训练,使得生成的图像分类模型可以识别环境类型;另一种是将用户所处环境时的情绪以多分类形式进行图像分类模型的训练,使得生成的图像分类模型可以识别用户所处环境的情绪,进而识别环境类型。为便于理解本申请提供的技术方案呢,下面将结合附图对图像分类模型的训练过程进行说明。
参见图2,该图为本申请实施例提供的一种生成图像分类模型的方法流程图,该方法可以包括:
S201:获取待训练面部图像。
本实施例中,为训练生成图像分类模型,可以采集用户在面对不同环境时的面部图像。在具体实现时,可以通过摄像头拍摄图片或者视频的方式获取不同环境下待训练面部图像。其中。不同的环境可以为争吵环境、哭闹环境、安全环境等等。
在具体实现时,尽可能地获取各种不同环境下的待训练面部图像,以便训练生成的图像分类模型可以根据面部图像识别用户当前所处的环境类型。为使得训练生成的图像分类模型可以准确地对输入的面部图像进行分类,在获取待训练面部图像时,针对任意一种环境,可以获取该环境下多组待训练面部图像,利用多组待训练面部图像进行训练。
需要说明的是,为保护用户的隐私安全,在获取待训练面部图像时,需获取使用该待训练面部图像的权限。
S202:将待训练面部图像以及待训练面部图像对应的分类标签作为训练数据,分类标签包括紧急环境标签或安全环境标签。
本实施例中,由于在获取待训练面部图像的环境类型已知,因此可以为待训练面部图像添加对应的分类标签,然后将待训练面部图像以及该待训练面部图像对应的分类标签作为训练数据。
其中,分类标签包括紧急环境标签或者安全环境标签。也就是,将用户所处的环境类型分类两类:紧急环境和安全环境。例如,将争吵环境、哭闹环境、打架环境等均归属于紧急环境。当获取上述任意一种紧急环境下的待训练面部图像时,可以手动添加该待训练图像对应的分类标签,即紧急环境标签。
可以理解的是,由于用户所处的环境复杂多变,其所处的环境可能既不属于紧急环境,也不属于安全环境,可能为比较陌生的环境。为实现对环境进行全面的识别,可以设置其他环境标签。在实际应用中,为最大程度保护用户的安全,可以将其他环境标签归属于紧急环境标签中。
在实际应用时,为保证训练生成的图像分类模型能够准确识别用户当前所处环境类型,可以获取大量的各种类型的待训练面部图像,为获取的每一幅待训练面部图像添加对应的分类标签,将每一幅待训练面部图像以及该待训练面部图像对应的分类标签作为一条训练数据,从而获得大量的训练数据。
S203:根据训练数据对初始模型进行训练生成图像分类模型。
本实施例中,可以将大量的待训练面部图像以及该待训练面部图像对应的分类标签作为训练数据输入至初始模型中,从而实现对初始模型训练,生成图像分类模型。
其中,初始模型可以为分类模型或深度学习模型。常见的分类模型有随机森林(Random Forest)模型、朴素贝叶斯( Bayes)模型、逻辑回归(LogisticRegression)模型、支持向量机(Support Vector Machine)模型等。深度学习模型通常可以为带有attention机制的递归神经网络(Recurrent Neural Network)模型、卷积神经网络(Convolutional Neural Networks)模型以及具有卷积神经网络特征的区域模型(Regionswith Convolutional Neural Network Feature)等。
通过上述实施例可知,本申请实施例首先获取待训练面部图像,将该待训练面部图像以及该待训练面部图像对应的分类标签作为训练数据训练初始模型,以获得图像分类模型。可见,本申请实施例在训练生成图像分类模型时,以用户在环境中所表现出的面部表情为依据进行训练。在实际应用时,可以通过获取用户当前所处环境的面部图像,并通过图像分类模型对当前环境进行分类。当分类结果为紧急环境时,可以向用户所携带的第一终端和/或与第一终端绑定的第二终端发送报警信息,实现智能报警,充分保护用户的安全。
参见图3,该图为本申请实施例提供的另一种生成图像分类模型方法的流程图,该方法可以包括:
S301:获取待训练面部图像。
S302:将待训练面部图像以及待训练面部图像对应的分类标签作为训练数据,分类标签包括至少一种紧急情绪标签或至少一种安全情绪标签。
本实施例中,S301、S302分别与S201、S202具有相同的实现,具体可以参见上述实施例的实现,本实施例在此不做限定。
需要说明的是,本实施例中,分类标签不同于S202中所描述的分类标签。在S302中,分类标签可以包括至少一种紧急情绪标签或者至少一种安全情绪标签。其中,紧急情绪标签对应于紧急环境,安全情绪标签对应于安全环境。也就是,本实施例中,分类标签用于表征用户在不同环境下所表现的不同情绪,该情绪标签对应不同环境类型。其中,紧急情绪标签可以包括哭闹标签、委屈标签、惊恐标签、紧张标签、愤怒标签等等。安全环境标签可以包括开心标签、平静标签等等。当获取待训练面部图像时,为该待训练面部图像添加对应的紧急环境标签或安全环境标签。
可以理解的是,当用户所表现出的情绪比较复杂时,获取的待训练面部图像可能包括多种情绪,为充分利用获取的待训练面部图像,可以为该待训练面部图像添加不同的分类标签。针对待训练面部图像对应多钟分类标签时,将该待训练面部图像与该待训练面部图像对应的每一种分类标签作为一条训练数据。例如,获取的待训练面部图像既包括哭闹情绪,也包括委屈情绪,则将该待训练面部图像与对应的哭闹标签作为一条训练数据;将待训练面部图像与对应的委屈标签作为一条训练数据。
在具体实现时,由于面部表情与情绪具有对应关系,例如,心情愉悦时嘴角上翘,眼部会出现环形褶皱;愤怒时会皱眉,睁大眼睛等特征。因此,可以通过提取面部图像的图像特征进行训练。具体可以为,提取待训练面部图像中所包括的情绪对应的图像特征,然后将该图像特征以及待训练面部图像对应的分类标签作为训练数据进行训练。其中,图像特征可以包括眉毛、眼睛、嘴巴等不同部位的特征。
S303:根据训练数据对初始模型进行训练生成图像分类模型。
本实施例中,利用获取的训练数据对初始模型进行训练,以生成图像分类模型。该图像分类模型可以用于对面部图像中用户情绪进行分类,进而识别面部图像中用户的情绪标签。当识别出面部图像中用户的情绪标签为哭闹标签、委屈标签或惊恐标签等紧急情绪标签中一种或多种时,表明用户所处环境类型紧急环境,则向第一终端和/或第二终端发送报警信息。其中,初始模型可以为分类模型或深度学习模型。
通过上述描述,本申请实施例以面部图像所对应用户的情绪为依据进行图像分类模型的训练,当获取面部图像后,可以将面部图像输入至图像分类模型中,获得该面部图像对应的情绪分类标签,进而根据情绪分类标签识别用户所处环境类型。当用户处于紧急环境时,向第一终端和/或第二终端发送报警信息,以提示实现智能报警,充分保护用户的安全。
图2和图3分别说明了两种训练生成图像分类模型的方法,从而可以生成可以识别环境类型的图像分类模型。下面将结合附图对利用图像分类模型对用户当前所处环境进行识别。
参见图4,该图为本申请实施例提供的一种实现报警的方法流程图,该方法可以包括:
S401:获取第一终端采集的环境图像。
本实施例中,第一终端可以采集用户所处环境的环境图像,并将采集的环境图像发送给服务器,由服务器进行后续处理。可以理解的是,在所述第一终端具有足够处理能力的情况下,本实施例的操作过程也可以由该第一终端来实现。
在具体实现时,可以通过以下两种发送获取环境图像,一种是,用户预先设置第一终端采集环境图像的周期,第一终端按照预设时间间隔采集环境图像;另一种是,用户预先设置采集环境图像的预设环境,当第一终端识别到预设环境时,采集环境图像。其中,预设环境可以为用户设定的特定动作,例如,用户抬手臂,当第一终端识别到用户抬手臂时,则采集环境图像;也可以为预设声音环境,例如,哭闹环境,当第一终端识别到用户所处环境存在哭闹声音时,则采集环境图像。
需要说明的是,为保护用户隐私安全,可以先通过第一终端设置采集环境图像的权限。当用户设置为允许获取当前第一终端的环境图像时,才可以进行采集。
S402:从环境图像中提取面部图像。
本实例中,当服务器获取到环境图像时,从环境图像中提取人的面部图像。该面部图像既可以是佩戴第一终端的用户的面部图像,也可以为第一终端用户以及该用户所处环境中其他用户的面部图像。
当面部图像为第一终端对应的用户的面部图像时,可以预先在服务器中存储第一终端用户的面部图像特征。当环境图像中包括多个用户的面部图像时,可以根据预先存储的第一终端用户的面部图像特征,从环境图像中提取第一终端用户对应的面部图像,利用第一终端用户的面部图像进行后续处理,从而避免其他用户故意掩饰紧急环境,充分保护用户的安全。
当面部图像为第一终端用户以及其他用户的面部图像,且当环境图像中包括多个用户面部时,分别提取每位用户的面部图像,以便利用多个面部图像进行环境识别,提高识别的准确性。
S403:将面部图像输入预先训练生成的图像分类模型,获得图像分类模型输出的面部图像的分类结果。
本实施例中,当提取面部图像后,将该面部图像输入预先训练生成的图像分类模型,以获得该面部图像的分类结果。
在具体实现时,当该图像分类模型为通过图2所述方法训练生成时,则将面部图像输入图像分类模型,可以直接获得该面部图像所属的环境类别,紧急环境或安全环境;当图像分类模型为通过图3所述方法训练生成时,则将面部图像输入图像分类模型,获得的面部图像的分类结果为该面部图像对应的情绪分类结果,以根据情绪分类结果获得用户所处环境类别。
需要说明的是,当图像分类模型是通过提取待训练面部图像的图像特征训练生成,在利用该图像分类模型时,也需要提取面部图像的图像特征。而且,提取的图像特征种类需要与训练时提取的种类相同,从而保证可以利用训练生成的图像分类模型获得该面部图像的分类结果。例如,训练时提取眼睛、眉毛特征,则在利用图像分类模型时,也需提取眼睛、眉毛特征。
需要说明的是,当环境图像中包括多个用户的面部图像时,将多个面部图像输入至图像分类模型中,获得每个面部图像对应的分类结果。当分类结果不一致时,可以通过投票的方式确定其中一种分类结果作为最终分类结果。另外,为充分保护用户的安全,当获得的分类结果中存在一种分类结果对应于紧急环境时,则确定用户所处的环境为紧急环境,向第一终端和/或第二终端发送报警信息。
S404:当面部图像的分类结果对应于紧急环境时,向第一终端和/或第二终端发送报警信息。
本实施例中,当利用图像分类模型获得面部图像的分类结果为紧急环境时,可以向第一终端和/或第二终端发送报警信息,以提示用户注意安全,和/或通知用户的亲属当前用户所处环境较为危险,也就是通知预设的其他终端的用户。
在实际应用中,服务器可以根据具体的分类结果采取不同的处理方法,具体可以为,当面部图像的分类结果对应于紧急环境时,获取分类结果对应的处理规则;根据处理规则向第一终端和/或第二终端发送报警信息。例如,当面部图像的分类结果为紧急情绪标签中哭泣时,可以向第二终端发送报警信息,以提示第二终端用户当前第一终端用户可能处于紧急环境中;当面部图像的分类结果为紧急情绪标签中紧张时,可以同时向第一终端和第二终端发送报警信息,以提示用户离开当前环境,同时提示第二终端用户当前第一终端用户可能处于危险环境。
可以理解的是,第二终端用户可以为第一终端用户的亲属,也可为维护社会治安的一些安全机构,例如派出所。在实际应用中,为避免对社会公共资源的浪费,通常情况下第二终端用户为第一终端用户的亲属。
需要说明的是,针对不同的环境类别,可以对应不同的策略。其中,关于每种环境类别对应的策略,可以是第一终端出厂时,由厂商进行设置;也可以由第一终端用户根据自身需求进行设置,本实施例在此不做限定。
本申请实施例中首先可以通过第一终端的摄像头获取用户所处环境的环境图像,并从环境图像中提取面部图像,然后将面部图像输入预先训练生成的图像分类模型中,获得该面部图像的分类结果。当面部图像的分类结果对应于紧急环境时,向第一终端和/或第二终端发送报警信息。即,当用户处于紧急环境时,无需用户主动触发报警功能,而是可以根据提取的面部图像识别出用户处于紧急环境,自动向第一终端和/或第二终端发送报警信息,从而实现智能告警,提醒用户注意安全和/或通知用户亲属的目的,进而实现充分保护用户的安全。
基于上述方法实施例,本申请实施例还提供了一种实现报警的装置,下面将结合附图对该装置进行说明。
参见图5,该图为本申请实施例提供的一种实现报警的装置结构图,该装置可以包括:
获取单元501,用于获取第一终端采集的环境图像;
提取单元502,用于从所述环境图像中提取面部图像;
输入单元503,用于将所述面部图像输入预先训练生成的图像分类模型,获得所述图像分类模型输出的所述面部图像的分类结果;
发送单元504,用于当所述面部图像的分类结果对应于紧急环境时,向所述第一终端和/或第二终端发送报警信息。
在一种可能的实现方式中,所述发送单元,包括:
获取子单元,用于当所述面部图像的分类结果对应于紧急环境时,获取所述分类结果对应的处理规则;
发送子单元,用于根据所述处理规则向所述第一终端和/或第二终端发送报警信息。
在一种可能的实现方式中,所述图像分类模型的训练过程包括:
获取待训练面部图像;
将所述待训练面部图像以及所述待训练面部图像对应的分类标签作为训练数据,所述分类标签包括紧急环境标签或者安全环境标签;
根据所述训练数据对初始模型进行训练生成图像分类模型。
在一种可能的实现方式中,所述图像分类模型的训练过程包括:
获取待训练面部图像;
将所述待训练面部图像以及所述待训练面部图像对应的分类标签作为训练数据,所述分类标签包括至少一种紧急情绪标签或者至少一种安全情绪标签,所述紧急情绪标签对应于紧急环境,所述安全情绪标签对应于安全环境;
根据所述训练数据对初始模型进行训练生成图像分类模型。
在一种可能的实现方式中,所述初始模型包括深度学习模型或者分类模型。
在一种可能的实现方式中,所述环境图像是由所述第一终端按照预设时间间隔采集的,或者,所述环境图像是由所述第一终端在识别到预设环境时采集的。
在一种可能的实现方式中,所述提取单元,具体用于从所述环境图像中提取所述第一终端对应的用户的面部图像。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图6示出了一种实现报警的装置600的框图。例如,装置600可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图6,装置600可以包括以下一个或多个组件:处理组件602,存储器604,电源组件606,多媒体组件608,音频组件610,输入/输出(I/O)的接口612,传感器组件614,以及通信组件616。
处理组件602通常控制装置600的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理元件602可以包括一个或多个处理器620来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件602可以包括一个或多个模块,便于处理组件602和其他组件之间的交互。例如,处理部件602可以包括多媒体模块,以方便多媒体组件608和处理组件602之间的交互。
存储器604被配置为存储各种类型的数据以支持在设备600的操作。这些数据的示例包括用于在装置600上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器604可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件606为装置600的各种组件提供电力。电源组件606可以包括电源管理系统,一个或多个电源,及其他与为装置600生成、管理和分配电力相关联的组件。
多媒体组件608包括在所述装置600和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件608包括一个前置摄像头和/或后置摄像头。当设备600处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件610被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当装置600处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器604或经由通信组件616发送。在一些实施例中,音频组件610还包括一个扬声器,用于输出音频信号。
I/O接口612为处理组件602和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件614包括一个或多个传感器,用于为装置600提供各个方面的状态评估。例如,传感器组件614可以检测到设备600的打开/关闭状态,组件的相对定位,例如所述组件为装置600的显示器和小键盘,传感器组件614还可以检测装置600或装置600一个组件的位置改变,用户与装置600接触的存在或不存在,装置600方位或加速/减速和装置600的温度变化。传感器组件614可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件614还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件614还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件616被配置为便于装置600和其他设备之间有线或无线方式的通信。装置600可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信部件616经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信部件616还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置600可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行下述方法:
获取第一终端采集的环境图像;
从所述环境图像中提取面部图像;
将所述面部图像输入预先训练生成的图像分类模型,获得所述图像分类模型输出的所述面部图像的分类结果;
当所述面部图像的分类结果对应于紧急环境时,向所述第一终端和/或第二终端发送报警信息。
可选的,所述当所述面部图像的分类结果对应于紧急环境时,向所述第一终端和/或第二终端发送报警信息,包括:
当所述面部图像的分类结果对应于紧急环境时,获取所述分类结果对应的处理规则;
根据所述处理规则向所述第一终端和/或第二终端发送报警信息。
可选的,所述图像分类模型的训练过程包括:
获取待训练面部图像;
将所述待训练面部图像以及所述待训练面部图像对应的分类标签作为训练数据,所述分类标签包括紧急环境标签或者安全环境标签;
根据所述训练数据对初始模型进行训练生成图像分类模型。
可选的,所述图像分类模型的训练过程包括:
获取待训练面部图像;
将所述待训练面部图像以及所述待训练面部图像对应的分类标签作为训练数据,所述分类标签包括至少一种紧急情绪标签或者至少一种安全情绪标签,所述紧急情绪标签对应于紧急环境,所述安全情绪标签对应于安全环境;
根据所述训练数据对初始模型进行训练生成图像分类模型。
可选的,所述初始模型包括深度学习模型或者分类模型。
可选的,所述环境图像是由所述第一终端按照预设时间间隔采集的,或者,所述环境图像是由所述第一终端在识别到预设环境时采集的。
可选的,所述从所述环境图像中提取面部图像,包括:
从所述环境图像中提取所述第一终端对应的用户的面部图像。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器604,上述指令可由装置600的处理器620执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
一种非临时性计算机可读存储介质,当所述存储介质中的指令由移动终端的处理器执行时,使得移动终端能够执行报警的方法,所述方法包括:
获取第一终端采集的环境图像;
从所述环境图像中提取面部图像;
将所述面部图像输入预先训练生成的图像分类模型,获得所述图像分类模型输出的所述面部图像的分类结果;
当所述面部图像的分类结果对应于紧急环境时,向所述第一终端和/或第二终端发送报警信息。
可选的,所述当所述面部图像的分类结果对应于紧急环境时,向所述第一终端和/或第二终端发送报警信息,包括:
当所述面部图像的分类结果对应于紧急环境时,获取所述分类结果对应的处理规则;
根据所述处理规则向所述第一终端和/或第二终端发送报警信息。
可选的,所述图像分类模型的训练过程包括:
获取待训练面部图像;
将所述待训练面部图像以及所述待训练面部图像对应的分类标签作为训练数据,所述分类标签包括紧急环境标签或者安全环境标签;
根据所述训练数据对初始模型进行训练生成图像分类模型。
可选的,所述图像分类模型的训练过程包括:
获取待训练面部图像;
将所述待训练面部图像以及所述待训练面部图像对应的分类标签作为训练数据,所述分类标签包括至少一种紧急情绪标签或者至少一种安全情绪标签,所述紧急情绪标签对应于紧急环境,所述安全情绪标签对应于安全环境;
根据所述训练数据对初始模型进行训练生成图像分类模型。
可选的,所述初始模型包括深度学习模型或者分类模型。
可选的,所述环境图像是由所述第一终端按照预设时间间隔采集的,或者,所述环境图像是由所述第一终端在识别到预设环境时采集的。
可选的,所述从所述环境图像中提取面部图像,包括:
从所述环境图像中提取所述第一终端对应的用户的面部图像。
图7是本发明实施例中服务器的结构示意图。该服务器700可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上中央处理器(central processing units,CPU)722(例如,一个或一个以上处理器)和存储器732,一个或一个以上存储应用程序742或数据744的存储介质730(例如一个或一个以上海量存储设备)。其中,存储器732和存储介质730可以是短暂存储或持久存储。存储在存储介质730的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对服务器中的一系列指令操作。更进一步地,中央处理器722可以设置为与存储介质730通信,在服务器700上执行存储介质730中的一系列指令操作。
终端700还可以包括一个或一个以上电源726,一个或一个以上有线或无线网络接口750,一个或一个以上输入输出接口758,一个或一个以上键盘756,和/或,一个或一个以上操作系统741,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
需要说明的是,本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统或装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.一种实现报警的方法,其特征在于,所述方法包括:
获取第一终端采集的环境图像;
从所述环境图像中提取面部图像;
将所述面部图像输入预先训练生成的图像分类模型,获得所述图像分类模型输出的所述面部图像的分类结果;
当所述面部图像的分类结果对应于紧急环境时,向所述第一终端和/或第二终端发送报警信息。
2.根据权利要求1所述的方法,其特征在于,所述当所述面部图像的分类结果对应于紧急环境时,向所述第一终端和/或第二终端发送报警信息,包括:
当所述面部图像的分类结果对应于紧急环境时,获取所述分类结果对应的处理规则;
根据所述处理规则向所述第一终端和/或第二终端发送报警信息。
3.根据权利要求1所述的方法,其特征在于,所述图像分类模型的训练过程包括:
获取待训练面部图像;
将所述待训练面部图像以及所述待训练面部图像对应的分类标签作为训练数据,所述分类标签包括紧急环境标签或者安全环境标签;
根据所述训练数据对初始模型进行训练生成图像分类模型。
4.根据权利要求1所述的方法,其特征在于,所述图像分类模型的训练过程包括:
获取待训练面部图像;
将所述待训练面部图像以及所述待训练面部图像对应的分类标签作为训练数据,所述分类标签包括至少一种紧急情绪标签或者至少一种安全情绪标签,所述紧急情绪标签对应于紧急环境,所述安全情绪标签对应于安全环境;
根据所述训练数据对初始模型进行训练生成图像分类模型。
5.根据权利要求3或4所述的方法,其特征在于,所述初始模型包括深度学习模型或者分类模型。
6.根据权利要求1所述的方法,其特征在于,所述环境图像是由所述第一终端按照预设时间间隔采集的,或者,所述环境图像是由所述第一终端在识别到预设环境时采集的。
7.根据权利要求1所述的方法,其特征在于,所述从所述环境图像中提取面部图像,包括:
从所述环境图像中提取所述第一终端对应的用户的面部图像。
8.一种实现报警的装置,其特征在于,所述装置包括:
获取单元,用于获取第一终端采集的环境图像;
提取单元,用于从所述环境图像中提取面部图像;
输入单元,用于将所述面部图像输入预先训练生成的图像分类模型,获得所述图像分类模型输出的所述面部图像的分类结果;
发送单元,用于当所述面部图像的分类结果对应于紧急环境时,向所述第一终端和/或第二终端发送报警信息。
9.一种用于实现报警的装置,其特征在于,包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于进行以下操作的指令:
获取第一终端采集的环境图像;
从所述环境图像中提取面部图像;
将所述面部图像输入预先训练生成的图像分类模型,获得所述图像分类模型输出的所述面部图像的分类结果;
当所述面部图像的分类结果对应于紧急环境时,向所述第一终端和/或第二终端发送报警信息。
10.一种计算机可读介质,其上存储有指令,当由一个或多个处理器执行时,使得装置执行如权利要求1至7中一个或多个所述的实现报警的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811399276.6A CN111210589A (zh) | 2018-11-22 | 2018-11-22 | 一种实现报警的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811399276.6A CN111210589A (zh) | 2018-11-22 | 2018-11-22 | 一种实现报警的方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111210589A true CN111210589A (zh) | 2020-05-29 |
Family
ID=70789295
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811399276.6A Pending CN111210589A (zh) | 2018-11-22 | 2018-11-22 | 一种实现报警的方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111210589A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112330312A (zh) * | 2020-11-17 | 2021-02-05 | 葛云霞 | 基于区块链支付和面部识别的数据处理方法及大数据平台 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104887210A (zh) * | 2015-06-19 | 2015-09-09 | 四川分享微联科技有限公司 | 一种可在脉搏异常时触发无线报警的监护腕表 |
CN105046876A (zh) * | 2015-07-23 | 2015-11-11 | 中山大学深圳研究院 | 一种基于图像识别的儿童安全监测系统 |
CN105243780A (zh) * | 2015-09-11 | 2016-01-13 | 中山大学 | 一种儿童安全监控方法及系统 |
CN107944434A (zh) * | 2015-06-11 | 2018-04-20 | 广东欧珀移动通信有限公司 | 一种基于旋转摄像头的报警方法及终端 |
CN108449514A (zh) * | 2018-03-29 | 2018-08-24 | 百度在线网络技术(北京)有限公司 | 信息处理方法和装置 |
CN108734096A (zh) * | 2018-04-11 | 2018-11-02 | 北京搜狗科技发展有限公司 | 一种数据处理方法、装置和用于数据处理的装置 |
-
2018
- 2018-11-22 CN CN201811399276.6A patent/CN111210589A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107944434A (zh) * | 2015-06-11 | 2018-04-20 | 广东欧珀移动通信有限公司 | 一种基于旋转摄像头的报警方法及终端 |
CN104887210A (zh) * | 2015-06-19 | 2015-09-09 | 四川分享微联科技有限公司 | 一种可在脉搏异常时触发无线报警的监护腕表 |
CN105046876A (zh) * | 2015-07-23 | 2015-11-11 | 中山大学深圳研究院 | 一种基于图像识别的儿童安全监测系统 |
CN105243780A (zh) * | 2015-09-11 | 2016-01-13 | 中山大学 | 一种儿童安全监控方法及系统 |
CN108449514A (zh) * | 2018-03-29 | 2018-08-24 | 百度在线网络技术(北京)有限公司 | 信息处理方法和装置 |
CN108734096A (zh) * | 2018-04-11 | 2018-11-02 | 北京搜狗科技发展有限公司 | 一种数据处理方法、装置和用于数据处理的装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112330312A (zh) * | 2020-11-17 | 2021-02-05 | 葛云霞 | 基于区块链支付和面部识别的数据处理方法及大数据平台 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111243224A (zh) | 一种实现报警的方法及装置 | |
US10509540B2 (en) | Method and device for displaying a message | |
JP2021515945A (ja) | 画像処理方法及び装置、電子機器並びに記憶媒体 | |
CN105701997A (zh) | 报警方法和装置 | |
CN107666536B (zh) | 一种寻找终端的方法和装置、一种用于寻找终端的装置 | |
CN111063354B (zh) | 人机交互方法及装置 | |
CN110493474A (zh) | 一种数据处理方法、装置和电子设备 | |
CN106911845B (zh) | 来电提醒方法及装置 | |
CN106202150A (zh) | 信息显示方法及装置 | |
US10083346B2 (en) | Method and apparatus for providing contact card | |
EP3301892B1 (en) | Method and apparatus for disabling alarm in device, computer program and recording medium | |
CN106331328B (zh) | 信息提示的方法及装置 | |
CN104332037A (zh) | 告警检测的方法及装置 | |
CN114882681A (zh) | 工单处理方法及装置、电子设备和存储介质 | |
CN113032627A (zh) | 视频分类方法、装置、存储介质及终端设备 | |
CN107734303B (zh) | 视频标识方法及装置 | |
CN106331281A (zh) | 移动终端及信息处理方法 | |
CN110010135B (zh) | 一种基于语音的身份识别方法、装置和电子设备 | |
US20180288579A1 (en) | Short message identification method and device, and storage medium | |
CN111209381B (zh) | 对话场景中时间管理方法及装置 | |
CN106550012B (zh) | 智能设备的监控方法及智能设备 | |
CN111145080B (zh) | 一种图像生成模型的训练方法、图像生成方法及装置 | |
CN111951787A (zh) | 语音输出方法、装置、存储介质和电子设备 | |
CN111210589A (zh) | 一种实现报警的方法及装置 | |
US20170201479A1 (en) | Group message display method, device and medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200529 |