CN107479703A - 自动语音报时方法、设备及计算机可读存储介质 - Google Patents
自动语音报时方法、设备及计算机可读存储介质 Download PDFInfo
- Publication number
- CN107479703A CN107479703A CN201710669657.0A CN201710669657A CN107479703A CN 107479703 A CN107479703 A CN 107479703A CN 201710669657 A CN201710669657 A CN 201710669657A CN 107479703 A CN107479703 A CN 107479703A
- Authority
- CN
- China
- Prior art keywords
- facial image
- automatic speech
- correct time
- speech
- collected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G04—HOROLOGY
- G04G—ELECTRONIC TIME-PIECES
- G04G13/00—Producing acoustic time signals
- G04G13/02—Producing acoustic time signals at preselected times, e.g. alarm clocks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72448—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
- H04M1/72451—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to schedules, e.g. using calendar applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72448—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
- H04M1/72454—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Environmental & Geological Engineering (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明公开了一种自动语音报时方法,所述方法包括以下步骤:当接收到自动语音报时指令时,提取预设的采集人脸图像时间段;判断当前时间是否处于所述预设的采集人脸图像时间段;若当前时间处于所述预设的采集人脸图像时间段,则开启采集人脸图像功能;判断是否采集到人脸图像;若采集到人脸图像,则在移动终端处于黑屏状态时进行语音报时。本发明还公开了一种自动语音报时设备及计算机可读存储介质。本发明能够满足用户人性化需求,避免用户要进行复杂的操作,即可进行语音报时,提高了视力障碍情况或者夜间获取时间的易用性和舒适度。
Description
技术领域
本发明涉及移动终端领域,尤其涉及一种自动语音报时方法、设备及计算机可读存储介质。
背景技术
目前,移动终端的使用越来越普及,移动终端不仅可以充当通话设备,还可以充当相机、闹钟等。
当用户在深夜从睡梦中醒来,抑或是睡眼惺忪,此时用户想获知时间时,一般需要睁开眼睛,在黑夜中首先寻找移动终端,然后对移动终端进行解锁,点亮移动终端屏幕,才能获知当前时间,步骤比较繁琐。特别是在夜间睡眠期间,用户需要起床并且在黑暗中寻找移动终端,很不方便。而且起夜后眼睛看着移动终端屏幕光亮操作舒适度差。不利于用户看完时间后快速入睡。
发明内容
本发明的主要目的在于提出一种自动语音报时方法、设备及计算机可读存储介质,旨在解决用户夜间睡眠期间,获知时间的步骤繁琐、舒适度差的技术问题。
为实现上述目的,本发明提供一种自动语音报时方法,所述方法包括:
当接收到自动语音报时指令时,提取预设的采集人脸图像时间段;
判断当前时间是否处于所述预设的采集人脸图像时间段;
若当前时间处于所述预设的采集人脸图像时间段,则开启采集人脸图像功能;
判断是否采集到人脸图像;
若采集到人脸图像,则在移动终端处于黑屏状态时进行语音报时。
可选地,所述进行语音报时的步骤之前,还包括:
提取预设的自动语音报时时段;
判断当前时间是否处于自动语音报时时段;
若当前时间处于自动语音报时时段,则执行所述进行语音报时的步骤,否则,不进行语音报时。
可选地,所述进行语音报时的步骤之前,还包括:
判断所述采集到的人脸图像是否与预存的人脸图像相匹配;
若所述采集到的人脸图像与预存的人脸图像相匹配,则执行所述进行语音报时的步骤,否则,不进行语音报时。
可选地,所述将采集到的人脸图像与预存的人脸图像进行对比的步骤包括:
采用识别准确度大于第一阈值的人脸识别算法提取所述采集到的人脸图像特征;
根据所述采集到的人脸图像特征和预存的人脸图像特征,分别计算所述采集到的人脸图像和预存的人脸之间的相似度;
检测所述采集到的人脸图像和预存的人脸之间的相似度是否大于第二阈值;
若所述相似度大于所述第二阈值,则确认所述相似度所对应的预存人脸对应用户为与所述采集到的人脸图像对应用户相匹配的目标用户。
可选地,所述采用识别准确度大于第一阈值的人脸识别算法提取所述采集到的人脸图像特征的步骤包括:
对所述采集到的人脸图像进行特征点定位;
根据特征点定位结果将所述采集到的人脸图像分割成若干个人脸区域;
采用所述人脸区域对应的深度网络对所述人脸区域进行特征提取;
将从各个人脸区域提取的特征进行重组,得到所述采集到的人脸图像的图像特征。
此外,为实现上述目的,本发明还提供一种自动语音报时设备,所述自动语音报时设备包括处理器及存储器,所述存储器中存储有自动语音报时程序;所述处理器用于执行所述自动语音报时程序,以实现以下步骤:
当接收到自动语音报时指令时,提取预设的采集人脸图像时间段;
判断当前时间是否处于所述预设的采集人脸图像时间段;
若当前时间处于所述预设的采集人脸图像时间段,则开启采集人脸图像功能;
判断是否采集到人脸图像;
若采集到人脸图像,则在移动终端处于黑屏状态时进行语音报时。
此外,为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有自动语音报时程序,所述自动语音报时程序被处理器执行时实现如上所述的自动语音报时方法的步骤。
本发明提出的自动语音报时方法、设备及计算机可读存储介质,通过当接收到自动语音报时指令时,提取预设的采集人脸图像时间段;然后判断当前时间是否处于所述预设的采集人脸图像时间段;若当前时间处于所述预设的采集人脸图像时间段,则开启采集人脸图像功能;并进一步判断是否采集到人脸图像;若采集到人脸图像,则在移动终端处于黑屏状态时进行语音报时,不需要睁开眼睛,对移动终端进行繁琐的操作,即可获知当前时间,提高了视力障碍情况或者夜间获取时间的易用性和舒适度,并且不需要点亮移动终端的屏幕,降低了移动终端的功耗。
附图说明
图1为本发明自动语音报时方法第一实施例的流程示意图;
图2为本发明自动语音报时方法第二实施例的流程示意图;
图3为本发明自动语音报时方法第三实施例的流程示意图;
图4为本发明自动语音报时方法第四实施例中将采集到的人脸图像与预存的人脸图像进行对比的步骤的细化流程示意图;
图5为本发明自动语音报时方法第五实施例中采用识别准确度大于第一阈值的人脸识别算法提取所述采集到的人脸图像特征的步骤的细化流程示意图;
图6为本发明实施例方案涉及的硬件运行环境的设备结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明实施例的主要解决方案是:通过当接收到自动语音报时指令时,提取预设的采集人脸图像时间段;然后判断当前时间是否处于所述预设的采集人脸图像时间段;若当前时间处于所述预设的采集人脸图像时间段,则开启采集人脸图像功能;并进一步判断是否采集到人脸图像;若采集到人脸图像,则在移动终端处于黑屏状态时进行语音报时,不需要睁开眼睛,对移动终端进行繁琐的操作,即可获知当前时间,提高了视力障碍情况或者夜间获取时间的易用性和舒适度,并且不需要点亮移动终端的屏幕,降低了移动终端的功耗。
本发明实施例考虑到,现有技术中,用户在深夜或黑暗中想获知时间时,一般需要睁开眼睛,在黑夜中首先寻找移动终端,然后对移动终端进行解锁,点亮移动终端屏幕,才能获知当前时间,步骤比较繁琐。特别是在夜间睡眠期间,用户需要起床并且在黑暗中寻找移动终端,很不方便。而且起夜后眼睛看着移动终端屏幕光亮操作舒适度差。不利于用户看完时间后快速入睡。
为此,本发明实施例提出一种自动语音报时方法,通过当接收到自动语音报时指令时,提取预设的采集人脸图像时间段;然后判断当前时间是否处于所述预设的采集人脸图像时间段;若当前时间处于所述预设的采集人脸图像时间段,则开启采集人脸图像功能;并进一步判断是否采集到人脸图像;若采集到人脸图像,则在移动终端处于黑屏状态时进行语音报时,不需要睁开眼睛,对移动终端进行繁琐的操作,即可获知当前时间,提高了视力障碍情况或者夜间获取时间的易用性和舒适度,并且不需要点亮移动终端的屏幕,降低了移动终端的功耗。
参照图1,图1为本发明自动语音报时方法第一实施例的流程示意图。
在本实施例中,该方法包括:
步骤S100,当接收到自动语音报时指令时,提取预设的采集人脸图像时间段;
在本实施例中,本发明中描述的移动终端可以包括诸如手机、平板电脑、笔记本电脑、掌上电脑、个人数字助理(Personal Digital Assistant,PDA)、便捷式媒体播放器(Portable Media Player,PMP)、可穿戴设备、智能手环等。移动终端中包括至少一种传感器,比如运动传感器、虹膜传感器以及其他传感器。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别移动终端姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;移动终端中还包括温度计等。
具体地,用户可以通过触摸或拿起移动终端,触发自动语音报时指令。移动终端通过温度计检测用户是否触摸移动终端,通过运动传感器检测移动终端的状态是否发生改变。当检测到用户触摸或改变移动终端的状态时,提取预设的采集人脸图像时间段;因此,用户可以设置采集人脸图像的时间段,具体可以根据用户的作息习惯进行设置,比如,用户在23:00-7:00一般在睡觉,用户即可将人脸图像采集时段设置为23:00-7:00。
步骤S200,判断当前时间是否处于所述预设的采集人脸图像时间段;
在提取到预设的采集人脸图像时间段之后,判断当前时间是否处于所述预设的采集人脸图像时间段,比如若用户预设的人脸图像采集时段为23:00-7:00,则判断当前时间是否在23:00-7:00内。
步骤S300,若当前时间处于所述预设的采集人脸图像时间段,则开启采集人脸图像功能;
通过判断之后,若当前时间处于所述预设的采集人脸图像时间段,则开启采集人脸图像功能;否则,不开启人脸采集功能。通过在人脸图像采集时段接收到自动语音报时指令时,才开启采集人脸图像功能,不在人脸图像采集时段接收到自动语音报时指令时,则不开启采集人脸图像功能,从而减少移动终端的后台采集功耗。
步骤S400,判断是否采集到人脸图像;
在开启采集人脸图像功能之后,通过移动终端的图像采集部件,如摄像头等对人脸进行采集,通过虹膜传感器对人眼进行识别,然后判断是否采集到人脸图像,具体可以通过检测是否获得人脸图像判断是否采集到人脸图像。
步骤S500,若采集到人脸图像,则在移动终端处于黑屏状态时进行语音报时。
若采集到人脸图像,移动终端则触发在黑屏状态时自动进行语音报时功能,进行自动语音报时,从而避免用户误操作时也进行语音报时,比如用户在睡觉时不小心触碰到移动终端,此时是不需要进行语音报时的,若不通过人脸识别,只在接收到用户的语音报时指令时即进行语音报时,则会导致误报时,给用户造成困扰。并且不需要用户进行解锁移动终端,进行软件操作,用户即可获知当前时间,且用户不需要睁开眼睛,提高了用户获取时间的舒适度。同时,对有视力障碍的用户而言,极大地方便了用户的生活,提高了用户获知时间的易用性和舒适性。进一步地,获知时间不需要点亮移动终端的屏幕等,降低了移动终端的功耗,提高了移动终端的市场竞争力。
本实施例提出的自动语音报时方法,通过当接收到自动语音报时指令时,提取预设的采集人脸图像时间段;然后判断当前时间是否处于所述预设的采集人脸图像时间段;若当前时间处于所述预设的采集人脸图像时间段,则开启采集人脸图像功能;并进一步判断是否采集到人脸图像;若采集到人脸图像,则在移动终端处于黑屏状态时进行语音报时,不需要睁开眼睛,对移动终端进行繁琐的操作,即可获知当前时间,提高了视力障碍情况或者夜间获取时间的易用性和舒适度,并且不需要点亮移动终端的屏幕,降低了移动终端的功耗。
进一步地,参照图2,基于本发明自动语音报时方法第一实施例提出本发明自动语音报时方法第二实施例。
在本实施例中,所述步骤S500之前的步骤还包括:
步骤S600,提取预设的自动语音报时时段;
步骤S700,判断当前时间是否处于自动语音报时时段;
若当前时间处于自动语音报时时段,则执行所述步骤S300;
步骤S800,若当前时间不处于自动语音报时时段,不进行语音报时。
在本实施例中,在进行语音报时之前,可以进一步判断当前时间是否处于自动语音报时时段,因此,用户可以根据自身的生活习惯设置自动语音报时时段,比如,用户在23:00-7:00一般在睡觉,用户即可将自动语音报时时段设置为23:00-7:00。具体地,在采集到人脸图像之后,首先提取用户预设的自动语音报时时段,然后提取当前时间,并判断当前时间是否处于自动语音报时时段,若当前时间处于自动语音报时时段,则进行语音报时;若当前时间不处于自动语音报时时段,不进行语音报时。避免用户在白天工作生活中,在使用移动终端时,触摸或改变移动终端的状态,也进行语音报时,给用户造成困扰和不便。
本实施例提出的自动语音报时方法,在采集人脸图像之后,首先提取预设的自动语音报时时段;判断当前时间是否处于自动语音报时时段;若当前时间处于自动语音报时时段,则进行语音报时,否则,不进行语音报时,从而提高语音报时的精准度,提高用户体验。
进一步地,参照图3,基于本发明自动语音报时方法第一实施例提出本发明自动语音报时方法第三实施例。
在本实施例中,所述步骤S500之前的步骤还包括:
步骤S900,判断所述采集到的人脸图像是否与预存的人脸图像相匹配;
若所述采集到的人脸图像与预存的人脸图像相匹配,则执行所述步骤S300;
步骤S1000,若所述采集到的人脸图像与预存的人脸图像不相匹配,不进行语音报时。
在本实施例中,在进行语音报时之前,可以进一步将采集到的人脸图像与预存的人脸图像进行对比,从而判断所述采集到的人脸图像是否与预存的人脸图像相匹配,若对比到与采集到的人脸图像相匹配的人脸图像,则进行语音报时;若没有对比到与采集到的人脸图像相匹配的人脸图像,不进行语音报时,从而保证移动终端的使用安全。
进一步地,参照图4,基于本发明自动语音报时方法第三实施例提出本发明自动语音报时方法第四实施例。
在本实施例中,所述步骤S900包括:
步骤S910,采用识别准确度大于第一阈值的人脸识别算法提取所述采集到的人脸图像特征;
步骤S920,根据所述采集到的人脸图像特征和预存的人脸图像特征,分别计算所述采集到的人脸图像和预存的人脸之间的相似度;
步骤S930,检测所述采集到的人脸图像和预存的人脸之间的相似度是否大于第二阈值;
步骤S940,若所述相似度大于所述第二阈值,则确认所述相似度所对应的预存人脸对应用户为与所述采集到的人脸图像对应用户相匹配的目标用户。
在本实施例中,识别准确度大于第一阈值的人脸识别算法具体可以为联合贝叶斯算法。在本发明实施例中,通过联合贝叶斯算法提取采集到的人脸图像的图像特征,及预存的人脸图像特征,然后将提取到的采集到的人脸图像的图像特征与预存的人脸图像特征进行匹配,分别计算采集到的人脸图像和预存的人脸图像之间的相似度;然后检测计算得到采集到的人脸图像和预存的人脸图像之间的相似度是否有超过第二阈值,若检测到预存的人脸图像中存在与用户的人脸图像的相似度大于第二阈值的人脸图像,则确认相似度大于第二阈值的预存人脸图像对应用户为与采集到的人脸图像对应用户相匹配的目标用户,从而保证采集到的人脸图像对应用户与预存用户之间的准确匹配,便可直接确认用户身份验证成功,无需通过手动验证用户的身份。
本实施例提出的自动语音报时方法,通过采用识别准确度大于第一阈值的人脸识别算法提取所述采集到的人脸图像特征;然后根据所述采集到的人脸图像特征和预存的人脸图像特征,分别计算所述采集到的人脸图像和预存的人脸之间的相似度;再检测所述采集到的人脸图像和预存的人脸之间的相似度是否大于第二阈值;若所述相似度大于所述第二阈值,则确认所述相似度所对应的预存人脸对应用户为与所述采集到的人脸图像对应用户相匹配的目标用户,无需通过手动验证用户的身份,从而减少用户操作,提高确认用户身份的效率。
进一步地,参照图5,基于本发明自动语音报时方法第四实施例提出本发明自动语音报时方法第五实施例。
在本实施例中,所述步骤S910包括:
步骤S911,对所述采集到的人脸图像进行特征点定位;
步骤S912,根据特征点定位结果将所述采集到的人脸图像分割成若干个人脸区域;
步骤S913,采用所述人脸区域对应的深度网络对所述人脸区域进行特征提取;
步骤S914,将从各个人脸区域提取的特征进行重组,得到所述采集到的人脸图像的图像特征。
在本实施例中,首先对采集到的人脸图像进行特征点定位,根据特征点定位结果将采集到的人脸图像分割成若干个人脸区域,对于每一个人脸区域,采用该人脸区域对应的深度网络对该人脸区域进行特征提取,然后将从各个人脸区域提取的特征进行重组,即可得到签到用户的人脸图像的图像特征。人脸图像中的特征点是指人脸中诸如双眼的中心、鼻尖、两侧嘴角之类的特征点。特征点定位结果可采用特征点向量进行表示,特征点向量中包括各个特征点的坐标。对于各个不同的人脸区域,预先分别训练相应的深度网络。深度网络用于从人脸区域中提取图像特征,深度网络可采用深度卷积神经网络Convolutional Neural Networks,CNNs)。在本发明实施例中,采用基于深度学习的人脸识别算法获取人脸图像的图像特征,相较于其它人脸识别算法,识别准确度更高。另外,针对不同的人脸区域(如眼部区域、鼻子区域、嘴部区域等),分别训练各自对应的深度网络,并采用各自对应的深度网络进行特征提取,充分确保特征提取的准确度。
本实施例提出的自动语音报时方法,首先对所述采集到的脸部图像进行特征点定位;然后根据特征点定位结果将所述采集到的脸部图像分割成若干个人脸区域;再采用所述人脸区域对应的深度网络对所述人脸区域进行特征提取;将从各个人脸区域提取的特征进行重组,即可得到所述签到用户的人脸图像的图像特征,确保了特征提取的准确度。
本发明进一步提供一种自动语音报时设备。
如图6所示,图6为本发明实施例方案涉及的硬件运行环境的设备结构示意图。
本发明实施例自动语音报时设备可以是PC,也可以是智能手机、平板电脑、便携计算机等终端设备。
如图6所示,自动语音报时设备可以包括:处理器1001,例如CPU,以及存储器1002。这些组件之间的连接通信可以通过通信总线实现。存储器1002可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1002可选的还可以是独立于前述处理器1001的存储装置。
可选地,自动语音报时设备还可以包括用户接口、网络接口、摄像头、RF(RadioFrequency,射频)电路,传感器、音频电路、WiFi模块等等。用户接口可以包括显示屏(Display)、输入单元比如键盘(Keyboard),可选用户接口还可以包括标准的有线接口、无线接口。网络接口可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。
本领域技术人员可以理解,图6中示出的自动语音报时设备结构并不构成对自动语音报时设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图6所示,作为一种计算机存储介质的存储器1002中可以包括操作系统以及自动语音报时程序。其中,操作系统是管理和控制自动语音报时设备硬件与软件资源的程序,支持自动语音报时程序及其他软件或程序的运行。
在图6所示的自动语音报时设备中,处理器1001可以用于执行存储器1002中存储的自动语音报时程序,以实现以下步骤:
当接收到自动语音报时指令时,提取预设的采集人脸图像时间段;
判断当前时间是否处于所述预设的采集人脸图像时间段;
若当前时间处于所述预设的采集人脸图像时间段,则开启采集人脸图像功能;
判断是否采集到人脸图像;
若采集到人脸图像,则在移动终端处于黑屏状态时进行语音报时。
进一步地,处理器1001还可以执行存储器1002中存储的自动语音报时程序,以实现以下步骤:
提取预设的自动语音报时时段;
判断当前时间是否处于自动语音报时时段;
若当前时间处于自动语音报时时段,则执行所述进行语音报时的步骤,否则,不进行语音报时。
进一步地,处理器1001还可以执行存储器1002中存储的自动语音报时程序,以实现以下步骤:
判断所述采集到的人脸图像是否与预存的人脸图像相匹配;
若所述采集到的人脸图像与预存的人脸图像相匹配,则执行所述进行语音报时的步骤,否则,不进行语音报时。
进一步地,处理器1001还可以执行存储器1002中存储的自动语音报时程序,以实现以下步骤:
采用识别准确度大于第一阈值的人脸识别算法提取所述采集到的人脸图像特征;
根据所述采集到的人脸图像特征和预存的人脸图像特征,分别计算所述采集到的人脸图像和预存的人脸之间的相似度;
检测所述采集到的人脸图像和预存的人脸之间的相似度是否大于第二阈值;
若所述相似度大于所述第二阈值,则确认所述相似度所对应的预存人脸对应用户为与所述采集到的人脸图像对应用户相匹配的目标用户。
进一步地,处理器1001还可以执行存储器1002中存储的自动语音报时程序,以实现以下步骤:
对所述采集到的人脸图像进行特征点定位;
根据特征点定位结果将所述采集到的人脸图像分割成若干个人脸区域;
采用所述人脸区域对应的深度网络对所述人脸区域进行特征提取;
将从各个人脸区域提取的特征进行重组,得到所述采集到的人脸图像的图像特征。
本发明自动语音报时设备的具体实施例与上述自动语音报时方法各实施例基本相同,在此不作赘述。
本发明进一步提供了一种计算机可读存储介质,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现以下步骤:
当接收到自动语音报时指令时,提取预设的采集人脸图像时间段;
判断当前时间是否处于所述预设的采集人脸图像时间段;
若当前时间处于所述预设的采集人脸图像时间段,则开启采集人脸图像功能;
判断是否采集到人脸图像;
若采集到人脸图像,则在移动终端处于黑屏状态时进行语音报时。
进一步地,所述一个或者多个程序可被所述一个或者多个处理器执行,还实现以下步骤:
提取预设的自动语音报时时段;
判断当前时间是否处于自动语音报时时段;
若当前时间处于自动语音报时时段,则执行所述进行语音报时的步骤,否则,不进行语音报时。
进一步地,所述一个或者多个程序可被所述一个或者多个处理器执行,还实现以下步骤:
判断所述采集到的人脸图像是否与预存的人脸图像相匹配;
若所述采集到的人脸图像与预存的人脸图像相匹配,则执行所述进行语音报时的步骤,否则,不进行语音报时。
进一步地,所述一个或者多个程序可被所述一个或者多个处理器执行,还实现以下步骤:
采用识别准确度大于第一阈值的人脸识别算法提取所述采集到的人脸图像特征;
根据所述采集到的人脸图像特征和预存的人脸图像特征,分别计算所述采集到的人脸图像和预存的人脸之间的相似度;
检测所述采集到的人脸图像和预存的人脸之间的相似度是否大于第二阈值;
若所述相似度大于所述第二阈值,则确认所述相似度所对应的预存人脸对应用户为与所述采集到的人脸图像对应用户相匹配的目标用户。
进一步地,所述一个或者多个程序可被所述一个或者多个处理器执行,还实现以下步骤:
对所述采集到的人脸图像进行特征点定位;
根据特征点定位结果将所述采集到的人脸图像分割成若干个人脸区域;
采用所述人脸区域对应的深度网络对所述人脸区域进行特征提取;
将从各个人脸区域提取的特征进行重组,得到所述采集到的人脸图像的图像特征。
本发明计算机可读存储介质的具体实施例与上述自动语音报时方法和自动语音报时设备各实施例基本相同,在此不作赘述。
还需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种自动语音报时方法,其特征在于,所述方法应用于移动终端,所述方法包括以下步骤:
当接收到自动语音报时指令时,提取预设的采集人脸图像时间段;
判断当前时间是否处于所述预设的采集人脸图像时间段;
若当前时间处于所述预设的采集人脸图像时间段,则开启采集人脸图像功能;
判断是否采集到人脸图像;
若采集到人脸图像,则在移动终端处于黑屏状态时进行语音报时。
2.如权利要求1所述的自动语音报时方法,其特征在于,所述进行语音报时的步骤之前,还包括:
提取预设的自动语音时段;
判断当前时间是否处于自动语音时段;
若当前时间处于自动语音时段,则执行所述进行语音报时的步骤,否则,不进行语音报时。
3.如权利要求1所述的自动语音报时方法,其特征在于,所述进行语音报时的步骤之前,还包括:
判断所述采集到的人脸图像是否与预存的人脸图像相匹配;
若所述采集到的人脸图像与预存的人脸图像相匹配,则执行所述进行语音报时的步骤,否则,不进行语音报时。
4.如权利要求3所述的自动语音报时方法,其特征在于,所述将采集到的人脸图像与预存的人脸图像进行对比的步骤包括:
采用识别准确度大于第一阈值的人脸识别算法提取所述采集到的人脸图像特征;
根据所述采集到的人脸图像特征和预存的人脸图像特征,分别计算所述采集到的人脸图像和预存的人脸之间的相似度;
检测所述采集到的人脸图像和预存的人脸之间的相似度是否大于第二阈值;
若所述相似度大于所述第二阈值,则确认所述相似度所对应的预存人脸对应用户为与所述采集到的人脸图像对应用户相匹配的目标用户。
5.如权利要求4所述的自动语音报时方法,其特征在于,所述采用识别准确度大于第一阈值的人脸识别算法提取所述采集到的人脸图像特征的步骤包括:
对所述采集到的人脸图像进行特征点定位;
根据特征点定位结果将所述采集到的人脸图像分割成若干个人脸区域;
采用所述人脸区域对应的深度网络对所述人脸区域进行特征提取;
将从各个人脸区域提取的特征进行重组,得到所述采集到的人脸图像的图像特征。
6.一种自动语音报时设备,其特征在于,所述自动语音报时设备包括处理器及存储器,所述存储器中存储有自动语音报时程序;所述处理器用于执行所述自动语音报时程序,以实现以下步骤:
当接收到自动语音报时指令时,开启采集人脸图像功能;
判断是否采集到人脸图像;
若采集到人脸图像,则进行语音报时。
7.如权利要求6所述的自动语音报时设备,所述处理器还用于执行所述自动语音报时程序,以实现以下步骤:
提取预设的自动语音报时时段;
判断当前时间是否处于自动语音报时时段;
若当前时间处于自动语音报时时段,则执行所述进行语音报时的步骤,否则,不进行语音报时。
8.如权利要求6所述的自动语音报时设备,所述处理器还用于执行所述自动语音报时程序,以实现以下步骤:
判断所述采集到的人脸图像是否与预存的人脸图像相匹配;
若所述采集到的人脸图像与预存的人脸图像相匹配,则执行所述进行语音报时的步骤,否则,不进行语音报时。
9.如权利要求8所述的自动语音报时设备,所述处理器还用于执行所述自动语音报时程序,以实现以下步骤:
采用识别准确度大于第一阈值的人脸识别算法提取所述采集到的人脸图像特征;
根据所述采集到的人脸图像特征和预存的人脸图像特征,分别计算所述采集到的人脸图像和预存的人脸之间的相似度;
检测所述采集到的人脸图像和预存的人脸之间的相似度是否大于第二阈值;
若所述相似度大于所述第二阈值,则确认所述相似度所对应的预存人脸对应用户为与所述采集到的人脸图像对应用户相匹配的目标用户。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有自动语音报时程序,所述自动语音报时程序被处理器执行时实现如权利要求1至5中任一项所述的自动语音报时方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710669657.0A CN107479703A (zh) | 2017-08-07 | 2017-08-07 | 自动语音报时方法、设备及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710669657.0A CN107479703A (zh) | 2017-08-07 | 2017-08-07 | 自动语音报时方法、设备及计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107479703A true CN107479703A (zh) | 2017-12-15 |
Family
ID=60599808
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710669657.0A Withdrawn CN107479703A (zh) | 2017-08-07 | 2017-08-07 | 自动语音报时方法、设备及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107479703A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108509657A (zh) * | 2018-04-27 | 2018-09-07 | 深圳爱酷智能科技有限公司 | 数据分配保存方法、设备及计算机可读存储介质 |
CN110401775A (zh) * | 2019-07-29 | 2019-11-01 | Oppo广东移动通信有限公司 | 一种闹钟设定方法、闹钟设定装置及移动终端 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103152481A (zh) * | 2013-02-27 | 2013-06-12 | 上海斐讯数据通信技术有限公司 | 移动终端语音报时系统及移动终端语音报时方法 |
CN104537289A (zh) * | 2014-12-18 | 2015-04-22 | 乐视致新电子科技(天津)有限公司 | 保护终端设备中指定目标的方法和装置 |
CN105809415A (zh) * | 2016-03-04 | 2016-07-27 | 腾讯科技(深圳)有限公司 | 基于人脸识别的签到系统、方法和装置 |
CN106210320A (zh) * | 2016-07-14 | 2016-12-07 | 北京小米移动软件有限公司 | 时间提示方法及装置 |
-
2017
- 2017-08-07 CN CN201710669657.0A patent/CN107479703A/zh not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103152481A (zh) * | 2013-02-27 | 2013-06-12 | 上海斐讯数据通信技术有限公司 | 移动终端语音报时系统及移动终端语音报时方法 |
CN104537289A (zh) * | 2014-12-18 | 2015-04-22 | 乐视致新电子科技(天津)有限公司 | 保护终端设备中指定目标的方法和装置 |
CN105809415A (zh) * | 2016-03-04 | 2016-07-27 | 腾讯科技(深圳)有限公司 | 基于人脸识别的签到系统、方法和装置 |
CN106210320A (zh) * | 2016-07-14 | 2016-12-07 | 北京小米移动软件有限公司 | 时间提示方法及装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108509657A (zh) * | 2018-04-27 | 2018-09-07 | 深圳爱酷智能科技有限公司 | 数据分配保存方法、设备及计算机可读存储介质 |
CN110401775A (zh) * | 2019-07-29 | 2019-11-01 | Oppo广东移动通信有限公司 | 一种闹钟设定方法、闹钟设定装置及移动终端 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102097190B1 (ko) | 스마트 미러를 이용하여 실시간 운동 동작을 분석 및 디스플레이하기 위한 방법 및 이를 위한 스마트 미러 | |
CN108509037B (zh) | 一种信息显示方法及移动终端 | |
US8781991B2 (en) | Emotion recognition apparatus and method | |
CN107077551B (zh) | 基于传感器输入的可缩放验证过程选择 | |
JP5612756B2 (ja) | 移動情報端末、把持特徴認証方法及びプログラム | |
US20100117959A1 (en) | Motion sensor-based user motion recognition method and portable terminal using the same | |
CN104641657A (zh) | 基于用户意图和/或身份调整移动设备状态 | |
CN107582028A (zh) | 睡眠监测方法及装置 | |
KR20150118813A (ko) | 햅틱 정보 운용 방법 및 이를 지원하는 전자 장치 | |
CN103745235A (zh) | 人脸识别方法、装置及终端设备 | |
JP2012527810A (ja) | モバイル機器におけるコンテキスト認識 | |
WO2012050878A1 (en) | Systems and methods for ergonomic measurement | |
KR20190030140A (ko) | 시선 추적 방법 및 이를 수행하기 위한 사용자 단말 | |
CN107664841A (zh) | 智能眼镜及控制智能眼镜休眠唤醒的方法 | |
CN110827217B (zh) | 图像处理方法、电子设备及计算机可读存储介质 | |
CN111797854B (zh) | 场景模型建立方法、装置、存储介质及电子设备 | |
CN110765924A (zh) | 一种活体检测方法、装置以及计算机可读存储介质 | |
CN111046742B (zh) | 一种眼部行为检测方法、装置以及存储介质 | |
CN109660654A (zh) | 一种护眼提醒方法、柔性屏终端及计算机可读存储介质 | |
CN107479703A (zh) | 自动语音报时方法、设备及计算机可读存储介质 | |
CN110476180A (zh) | 用于提供基于文本阅读的奖励型广告服务的方法及用于实行该方法的用户终端 | |
KR20190109654A (ko) | 심장 박동을 측정하기 위한 전자 장치 및 방법 | |
US20150145763A1 (en) | Electronic device | |
KR102476619B1 (ko) | 전자 장치 및 이의 제어 방법 | |
CN117115596A (zh) | 对象动作分类模型的训练方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20171215 |
|
WW01 | Invention patent application withdrawn after publication |