CN108334196A - 一种文件处理方法及移动终端 - Google Patents
一种文件处理方法及移动终端 Download PDFInfo
- Publication number
- CN108334196A CN108334196A CN201810048774.XA CN201810048774A CN108334196A CN 108334196 A CN108334196 A CN 108334196A CN 201810048774 A CN201810048774 A CN 201810048774A CN 108334196 A CN108334196 A CN 108334196A
- Authority
- CN
- China
- Prior art keywords
- feature information
- facial feature
- expression label
- label
- file
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明提供一种文件处理方法及移动终端,该方法包括:若目标多媒体文件处于输出显示的状态,采集用户的脸部特征信息;根据所述脸部特征信息确定与所述脸部特征信息匹配的表情标签;若所述表情标签满足预设的截取条件,则对所述目标多媒体文件进行截取;将截取获得的文件保存在与所述表情标签对应的存储目录中。这样,在与表情标签对应的存储目录中,就可以查找到用户浏览过的内容,从而移动终端可以快速查找到用户浏览过的内容。
Description
技术领域
本发明涉及通信技术领域,尤其涉及一种文件处理方法及移动终端。
背景技术
随着移动终端的迅速发展,移动终端已经成为人们生活中必不可少的一种工具,并且为用户生活的各个方面带来了极大的便捷。用户可以使用移动终端浏览一些文件,例如观看一些视频,或者查看一些图片等等。当用户观看一些视频时,可能会觉得某些片段比较精彩,那么用户就会返回到某个时刻再次观看精彩的片段;或者用户在查看一些图片时,会觉得一些图片比较好看,从而返回再次浏览。
但是,用户有时候在浏览完这些文件之后,可能会忘记一些内容,需要用户返回去仔细查找才能找到这些内容。可见,移动终端查找用户浏览过的内容的过程比较繁琐。
发明内容
本发明实施例提供一种文件处理方法及移动终端,以解决移动终端查找用户浏览过的内容的过程比较繁琐的问题。
为了解决上述技术问题,本发明是这样实现的:一种文件处理方法,包括:
若目标多媒体文件处于输出显示的状态,采集用户的脸部特征信息;
根据所述脸部特征信息确定与所述脸部特征信息匹配的表情标签;
若所述表情标签满足预设的截取条件,则对所述目标多媒体文件进行截取;
将截取获得的文件保存在与所述表情标签对应的存储目录中。
第一方面,本发明实施例提供了一种文件处理方法,包括:
若目标多媒体文件处于输出显示的状态,采集用户的脸部特征信息;
根据所述脸部特征信息确定与所述脸部特征信息匹配的表情标签;
若所述表情标签满足预设的截取条件,则对所述目标多媒体文件进行截取;
将截取获得的文件保存在与所述表情标签对应的存储目录中。
第二方面,本发明实施例还提供一种移动终端,包括:
采集模块,用于若目标多媒体文件处于输出显示的状态,采集用户的脸部特征信息;
确定模块,用于根据所述脸部特征信息确定与所述脸部特征信息匹配的表情标签;
截取模块,用于若所述表情标签满足预设的截取条件,则对所述目标多媒体文件进行截取;
保存模块,用于将截取获得的文件保存在与所述表情标签对应的存储目录中。
第三方面,本发明实施例还提供一种移动终端,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现上述文件处理方法的步骤。
第四方面,本发明实施例还提供一种计算机可读存储介质,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现上述文件处理方法的步骤。
在本发明实施例中,若目标多媒体文件处于输出显示的状态,采集用户的脸部特征信息;根据所述脸部特征信息确定与所述脸部特征信息匹配的表情标签;若所述表情标签满足预设的截取条件,则对所述目标多媒体文件进行截取;将截取获得的文件保存在与所述表情标签对应的存储目录中。这样,在与表情标签对应的存储目录中,就可以查找到用户浏览过的内容,从而移动终端可以快速查找到用户浏览过的内容。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例提供的文件处理方法的流程图;
图2是本发明又一实施例提供的文件处理方法的流程图;
图3是本发明一实施例提供的移动终端的结构图之一;
图4是本发明一实施例提供的移动终端的确定模块的结构图之一;
图5是本发明一实施例提供的移动终端的确定模块的结构图之二;
图6是本发明一实施例提供的移动终端的结构图之二;
图7是本发明又一实施例提供的移动终端的结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1,图1是本发明实施例提供的文件处理方法的流程图,如图1所示,包括以下步骤:
步骤101、若目标多媒体文件处于输出显示的状态,采集用户的脸部特征信息。
本发明实施例中,上述目标多媒体文件,可以是视频文件、图像文件或者文本文件等等。上述若目标多媒体文件处于输出显示的状态,可以是视频文件处于播放的状态,可以是图像文件处于显示的状态,或者也可以是文本文件的内容处于显示的状态等等。
本发明实施例中,上述脸部特征信息,可以是眼睛的特征信息、鼻子的特征信息或者嘴巴的特征信息。或者,该脸部特征信息可以包括眼睛的特征信息、鼻子的特征信息和嘴巴的特征信息中的至少两种特征信息等等。当然,除了列举的这些特征信息之外,还可以是脸部一些其他的特征信息,对此本发明实施例不作限定。
步骤102、根据所述脸部特征信息确定与所述脸部特征信息匹配的表情标签。
本发明实施例中,上述根据所述脸部特征信息确定与所述脸部特征信息匹配的表情标签可以有多种实现方式。例如:可以是预先设置有脸部特征信息与表情标签的关联关系,然后查找与用户的脸部特征信息关联的表情标签,确定为匹配的表情标签。或者也可以是预先设置有某个模型,将用户的脸部特征信息输入该模型从而计算得到的表情标签,确定为匹配的表情标签等等。
本发明实施例中,上述表情标签可以是“开心”、“愉快”、“悲伤”、“平静”或者“搞笑”等等。当然除此之外还可以是一些其他的标签,对此本发明实施例不作限定。
步骤103、若所述表情标签满足预设的截取条件,则对所述目标多媒体文件进行截取。
本发明实施例中,可以预先设置一个标签,当与脸部特征信息匹配的表情标签为设置的这个标签时,就认为与脸部特征信息匹配的表情标签满足预设的截取条件。或者,也可以是预先设置多个标签,当与脸部特征信息匹配的表情标签为设置的多个标签中的任意一个时,就认为与脸部特征信息匹配的表情标签满足预设的截取条件。
本发明实施例中,上述对所述目标多媒体文件进行截取可以有多种方式。当目标多媒体文件为视频文件时,对该视频文件截取一部分,就可以理解为对目标多媒体文件进行截取;当目标多媒体文件为图像文件时,对该图像文件进行截图,就可以理解为对目标多媒体文件进行截取。
步骤104、将截取获得的文件保存在与所述表情标签对应的存储目录中。
本发明实施例中,上述存储目录,可以是一个文件夹,或者也可以是一个数据库中一个存储区域等等。若与脸部特征信息匹配的表情标签为“搞笑”,那么就可以将截取获得的文件保存在与“搞笑”对应的存储目录中,例如命名为“搞笑”的文件夹;若与脸部特征信息匹配的表情标签为“悲伤”,那么就可以将截取获得的文件保存在与“悲伤”对应的存储目录中,例如命名为“悲伤”的文件夹等等。
本发明实施例中,上述表情标签对应的存储目录,可以是预先设置的,或者也可以在需要保存文件时再创建等等。这样,用户就可以在存储目录中查找到对应的文件,无需在移动终端中到处进行查找,从而可以快速查找到自己浏览过的一些文件。
本发明实施例中,上述移动终端可以是手机、平板电脑(Tablet PersonalComputer)、膝上型电脑(Laptop Computer)、个人数字助理(personal digitalassistant,简称PDA)、移动上网装置(Mobile Internet Device,MID)或可穿戴式设备(Wearable Device)等等。
本发明实施例的一种文件处理方法,若目标多媒体文件处于输出显示的状态,采集用户的脸部特征信息;根据所述脸部特征信息确定与所述脸部特征信息匹配的表情标签;若所述表情标签满足预设的截取条件,则对所述目标多媒体文件进行截取;将截取获得的文件保存在与所述表情标签对应的存储目录中。这样,在与表情标签对应的存储目录中,就可以查找到用户浏览过的内容,从而移动终端可以快速查找到用户浏览过的内容。
参见图2,图2是本发明实施例提供的文件处理方法的流程图。本实施例与上个实施例的主要区别在于若存在与浏览内容的类别标签匹配的表情标签,则显示该表情标签对应的存储目录中的文件。如图2所示,包括以下步骤:
步骤201、若目标多媒体文件处于输出显示的状态,采集用户的脸部特征信息。
本发明实施例中,上述目标多媒体文件,可以是视频文件、图像文件或者文本文件等等。上述若目标多媒体文件处于输出显示的状态,可以是视频文件处于播放的状态,可以是图像文件处于显示的状态,或者也可以是文本文件的内容处于显示的状态等等。
本发明实施例中,上述脸部特征信息,可以是眼睛的特征信息、鼻子的特征信息或者嘴巴的特征信息。或者,该脸部特征信息可以包括眼睛的特征信息、鼻子的特征信息和嘴巴的特征信息中的至少两种特征信息等等。当然,除了列举的这些特征信息之外,还可以是脸部一些其他的特征信息,对此本发明实施例不作限定。
步骤202、根据所述脸部特征信息确定与所述脸部特征信息匹配的表情标签。
本发明实施例中,上述根据所述脸部特征信息确定与所述脸部特征信息匹配的表情标签可以有多种实现方式。例如:可以是预先设置有脸部特征信息与表情标签的关联关系,然后查找与用户的脸部特征信息关联的表情标签,确定为匹配的表情标签。或者也可以是预先设置有某个模型,将用户的脸部特征信息输入该模型从而计算得到的表情标签,确定为匹配的表情标签等等。
本发明实施例中,上述表情标签可以是“开心”、“愉快”、“悲伤”、“平静”或者“搞笑”等等。当然除此之外还可以是一些其他的标签,对此本发明实施例不作限定。
步骤203、若所述表情标签满足预设的截取条件,则对所述目标多媒体文件进行截取。
本发明实施例中,可以预先设置一个标签,当与脸部特征信息匹配的表情标签为设置的这个标签时,就认为与脸部特征信息匹配的表情标签满足预设的截取条件。或者,也可以是预先设置多个标签,当与脸部特征信息匹配的表情标签为设置的多个标签中的任意一个时,就认为与脸部特征信息匹配的表情标签满足预设的截取条件。
本发明实施例中,上述对所述目标多媒体文件进行截取可以有多种方式。当目标多媒体文件为视频文件时,对该视频文件截取一部分,就可以理解为对目标多媒体文件进行截取;当目标多媒体文件为图像文件时,对该图像文件进行截图,就可以理解为对目标多媒体文件进行截取。
步骤204、将截取获得的文件保存在与所述表情标签对应的存储目录中。
本发明实施例中,上述存储目录,可以是一个文件夹,或者也可以是一个数据库中一个存储区域等等。若与脸部特征信息匹配的表情标签为“搞笑”,那么就可以将截取获得的文件保存在与“搞笑”对应的存储目录中,例如命名为“搞笑”的文件夹;若与脸部特征信息匹配的表情标签为“悲伤”,那么就可以将截取获得的文件保存在与“悲伤”对应的存储目录中,例如命名为“悲伤”的文件夹等等。
本发明实施例中,上述表情标签对应的存储目录,可以是预先设置的,或者也可以在需要保存文件时再创建等等。这样,用户就可以在存储目录中查找到对应的文件,无需在移动终端中到处进行查找,从而可以快速查找到自己浏览过的一些文件。
步骤205、接收用户的触控操作,根据所述触控操作确定浏览内容。
本发明实施例中,上述触控操作,可以使用户的一次点击操作,或者也可以是用户的一次双击操作等等。根据所述触控操作确定浏览内容可以有多种方式,例如用户可以点击应用图标启动一个应用,或者也可以点击一个播放链接播放一个视频等等。
步骤206、若所述浏览内容存在类别标签,则查找与所述类别标签匹配的表情标签。
本发明实施例中,一些应用可以内嵌一些标签,或者一些视频也可以存在一些标签等等。而这些标签可以是“搞笑”、“新闻”或者“情感”等等。上述查找与所述类别标签匹配的表情标签可以有多种实现方式。例如:可以判断表情标签是否与类别标签相同,若相同则说明表情标签与类别标签相匹配。或者,也可以计算表情标签与类别标签的匹配度,当匹配度大于预设阈值时,就认为表情标签与类别标签相匹配。这里,可以计算表情标签与类别标签的余弦相似度或者杰卡德相似度,从而将计算得到的余弦相似度或者杰卡德相似度作为表情标签与类别标签的匹配度。
步骤207、显示该表情标签对应的存储目录中的文件。
本发明实施例中,上述显示该表情标签对应的存储目录中的文件,可以是以缩略图的方式侧边栏弹出,然后提醒用户回看,当用户点击某个缩略图时,再显示详情信息。或者也可以是直接在屏幕上显示该表情标签对应的存储目录中的文件的详情等等。
本发明实施例中,可以显示该表情标签对应的存储目录中的文件,从而可以智能的提示用户观看同类型的文件,用户就不必自己去查找这些文件,使用户操作更加便捷,移动终端的智能化程度得以提高。
可选的,所述根据所述脸部特征信息确定与所述脸部特征信息匹配的表情标签的步骤,包括:
向服务器发送所述脸部特征信息;
接收服务器发送的表情标签,所述表情标签为所述服务器根据所述脸部特征信息确定的与所述脸部特征信息匹配的表情标签。
本实施方式中,移动终端将采集的脸部特征信息发送给服务器进行处理,服务器从而确定与脸部特征信息匹配的表情标签。移动终端再接收服务器发送的表情标签,进行后续的处理。这样,移动终端就无需对脸部特征信息进行处理,节省了内存的开销,这样可以使移动终端的运行更加流畅,尽可能的避免了卡顿的发生。而这些计算的过程,都是由服务器进行的,移动终端只需要接收服务器的计算结果,即表情标签就可以。
可选的,所述根据所述脸部特征信息确定与所述脸部特征信息匹配的表情标签的步骤,包括:
获取所述脸部特征信息的多个像素值;
对所述多个像素值进行编码,获得所述脸部特征信息的特征编码序列;
通过预设模型对所述特征编码序列进行分类,得到与所述特征编码序列匹配的表情标签;
将与所述特征编码序列匹配的表情标签,确定为与所述脸部特征信息匹配的表情标签。
本实施方式中,上述特征编码序列,可以是二进制的序列,或者也可以是其他进制的序列等等。上述预设模型,可以是决策树模型,或者也可以是隐马尔科夫模型等等。将特征编码序列输入到预设模型中,就可以计算出与特征编码序列匹配的表情标签。通过预设模型对特征编码序列进行分类,得到与特征编码序列匹配的表情标签,这样可以使确定与特征编码序列匹配的表情标签比较准确。并且,后期也可以根据计算得到的结果不断的调整、优化预设模型,这样可以使预设模型的计算结果即表情标签更加准确。
可选的,所述对所述多个像素值进行编码,获得所述脸部特征信息的特征编码序列的步骤,包括:
对所述多个像素值进行分类识别;
若识别得到至少两个不同类别的像素值,对每个类别的像素值进行编码,获得所述脸部特征信息的至少两个特征编码序列;
所述通过预设模型对所述特征编码序列进行分类,得到与所述特征编码序列匹配的表情标签的步骤,包括:
通过预设模型对所述至少两个特征编码序列进行分类,得到与所述至少两个特征编码序列匹配的表情标签;
所述将与所述特征编码序列匹配的表情标签,确定为与所述脸部特征信息匹配的表情标签的步骤,包括:
将与所述至少两个特征编码序列匹配的表情标签,确定为与所述脸部特征信息匹配的表情标签。
本实施方式中,上述对多个像素值进行分类识别,就有可能识别到不同类别的像素值,例如表示眼睛的像素值或者表示嘴巴的像素值等等。若识别得到至少两个不同类别的像素值,对每个类别的像素值进行编码,获得脸部特征信息的至少两个特征编码序列。然后通过预设模型对至少两个特征编码序列进行分类,得到与至少两个特征编码序列匹配的表情标签。
本实施方式中,通过预设模型对至少两个特征编码序列进行分类,得到与至少两个特征编码序列匹配的表情标签,可以是首先将两个特征编码序列合并在输入预设模型进行计算,或者也可以是一起输入两个特征编码序列进行计算等等。这样,计算得到的表情标签就可以体现不同类别的像素值对它的影响,这样计算获得的表情标签可以更加准确。
例如,当用户开心的时候,嘴巴和眼睛都会存在一些特征;当用户悲伤的时候,嘴巴和眼睛会存在一些不同的特征。这样通过多个特征确定的表情标签,相对于通过某一个特征确定的表情标签,会更加准确。需要说明的是,服务器也可以使用移动终端这种计算方式获得表情标签。
可选的,若所述目标多媒体文件为视频文件,所述对所述目标多媒体文件进行截取的步骤,包括:以第一时刻为起点,第二时刻为终点对所述视频文件进行截取,其中,所述第一时刻与所述第二时刻之间的时间间隔为预设时间间隔,且所述视频文件当前的播放时刻在所述第一时刻与所述第二时刻之间;
若所述目标多媒体文件为图像或者文本,所述对所述目标多媒体文件进行截取的步骤,包括:对所述图像或者所述文本进行截图。
本实施方式中,若目标多媒体文件为视频文件时,预设时间间隔可以为20秒,视频文件当前的播放时刻可以是15分30秒,那么第一时刻可以为15分20秒,第二时刻可以为15分40秒;或者第一时刻可以为15分25秒,第二时刻可以为15分45秒等等。
本实施方式中,当第一时刻为15分20秒,第二时刻为15分40秒时,截取的视频文件就是15分20秒到15分40秒之间的视频片段;当第一时刻为15分25秒,第二时刻为15分45秒时,截取的视频文件就是15分25秒到15分45秒之间的视频片段。
本实施方式中,若目标多媒体文件为图像或者文本,则对图像或者文本进行截图,这样就可以保存浏览的文件。
本发明实施例的一种文件处理方法,若目标多媒体文件处于输出显示的状态,采集用户的脸部特征信息;根据所述脸部特征信息确定与所述脸部特征信息匹配的表情标签;若所述表情标签满足预设的截取条件,则对所述目标多媒体文件进行截取;将截取获得的文件保存在与所述表情标签对应的存储目录中;接收用户的触控操作,根据所述触控操作确定浏览内容;若所述浏览内容存在类别标签,则查找与所述类别标签匹配的表情标签;显示该表情标签对应的存储目录中的文件。这样,在与表情标签对应的存储目录中,就可以查找到用户浏览过的内容,从而移动终端可以快速查找到用户浏览过的内容。并且,可以显示该表情标签对应的存储目录中的文件,从而可以智能的提示用户观看同类型的文件,用户就不必自己去查找这些文件,使用户操作更加便捷,移动终端的智能化程度得以提高。
参见图3,图3是本发明实施例提供的移动终端的结构图,能实现上述实施例中文件处理方法的细节,并达到相同的效果。如图3所示,移动终端300包括采集模块301、确定模块302、截取模块303和保存模块304,采集模块301和确定模块302连接,确定模块302和截取模块303连接,截取模块303和保存模块304连接,其中:
采集模块301,用于若目标多媒体文件处于输出显示的状态,采集用户的脸部特征信息;
确定模块302,用于根据所述脸部特征信息确定与所述脸部特征信息匹配的表情标签;
截取模块303,用于若所述表情标签满足预设的截取条件,则对所述目标多媒体文件进行截取;
保存模块304,用于将截取获得的文件保存在与所述表情标签对应的存储目录中。
可选的,如图4所示,所述确定模块302,包括:
发送子模块3021,用于向服务器发送所述脸部特征信息;
接收子模块3022,用于接收服务器发送的表情标签,所述表情标签为所述服务器根据所述脸部特征信息确定的与所述脸部特征信息匹配的表情标签。
可选的,如图5所示,所述确定模块302,包括:
获取子模块3023,用于获取所述脸部特征信息的多个像素值;
编码子模块3024,用于对所述多个像素值进行编码,获得所述脸部特征信息的特征编码序列;
分类子模块3025,用于通过预设模型对所述特征编码序列进行分类,得到与所述特征编码序列匹配的表情标签;
确定子模块3026,用于将与所述特征编码序列匹配的表情标签,确定为与所述脸部特征信息匹配的表情标签。
可选的,若所述目标多媒体文件为视频文件,所述截取模块303,用于:以第一时刻为起点,第二时刻为终点对所述视频文件进行截取,其中,所述第一时刻与所述第二时刻之间的时间间隔为预设时间间隔,且所述视频文件当前的播放时刻在所述第一时刻与所述第二时刻之间;
若所述目标多媒体文件为图像或者文本,所述截取模块303,用于:对所述图像或者所述文本进行截图。
可选的,如图6所示,所述移动终端300还包括:
接收模块305,用于接收用户的触控操作,根据所述触控操作确定浏览内容;
查找模块306,用于若所述浏览内容存在类别标签,则查找与所述类别标签匹配的表情标签;
显示模块307,用于显示该表情标签对应的存储目录中的文件。
移动终端300能实现图1至图2的方法实施例中移动终端实现的各个过程,为避免重复,这里不再赘述。
本发明实施例的移动终端300,若目标多媒体文件处于输出显示的状态,采集用户的脸部特征信息;根据所述脸部特征信息确定与所述脸部特征信息匹配的表情标签;若所述表情标签满足预设的截取条件,则对所述目标多媒体文件进行截取;将截取获得的文件保存在与所述表情标签对应的存储目录中。这样,在与表情标签对应的存储目录中,就可以查找到用户浏览过的内容,从而移动终端可以快速查找到用户浏览过的内容。
参见图7,图7为实现本发明各个实施例的一种移动终端的硬件结构示意图,该移动终端700包括但不限于:射频单元701、网络模块702、音频输出单元703、输入单元704、传感器705、显示单元706、用户输入单元707、接口单元708、存储器709、处理器710、以及电源711等部件。本领域技术人员可以理解,图7中示出的移动终端结构并不构成对移动终端的限定,移动终端可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。在本发明实施例中,移动终端包括但不限于手机、平板电脑、笔记本电脑、掌上电脑、车载终端、可穿戴设备、以及计步器等。
其中,处理器710,用于若目标多媒体文件处于输出显示的状态,采集用户的脸部特征信息;根据所述脸部特征信息确定与所述脸部特征信息匹配的表情标签;若所述表情标签满足预设的截取条件,则对所述目标多媒体文件进行截取;将截取获得的文件保存在与所述表情标签对应的存储目录中。这样,在与表情标签对应的存储目录中,就可以查找到用户浏览过的内容,从而移动终端可以快速查找到用户浏览过的内容。
可选的,处理器710,还用于向服务器发送所述脸部特征信息;接收服务器发送的表情标签,所述表情标签为所述服务器根据所述脸部特征信息确定的与所述脸部特征信息匹配的表情标签。
可选的,处理器710,还用于获取所述脸部特征信息的多个像素值;对所述多个像素值进行编码,获得所述脸部特征信息的特征编码序列;通过预设模型对所述特征编码序列进行分类,得到与所述特征编码序列匹配的表情标签;将与所述特征编码序列匹配的表情标签,确定为与所述脸部特征信息匹配的表情标签。
可选的,若所述目标多媒体文件为视频文件,处理器710,还用于以第一时刻为起点,第二时刻为终点对所述视频文件进行截取,其中,所述第一时刻与所述第二时刻之间的时间间隔为预设时间间隔,且所述视频文件当前的播放时刻在所述第一时刻与所述第二时刻之间;若所述目标多媒体文件为图像或者文本,处理器710,还用于对所述图像或者所述文本进行截图。
可选的,处理器710,还用于接收用户的触控操作,根据所述触控操作确定浏览内容;若所述浏览内容存在类别标签,则查找与所述类别标签匹配的表情标签;显示该表情标签对应的存储目录中的文件。
应理解的是,本发明实施例中,射频单元701可用于收发信息或通话过程中,信号的接收和发送,具体的,将来自基站的下行数据接收后,给处理器710处理;另外,将上行的数据发送给基站。通常,射频单元701包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元701还可以通过无线通信系统与网络和其他设备通信。
移动终端通过网络模块702为用户提供了无线的宽带互联网访问,如帮助用户收发电子邮件、浏览网页和访问流式媒体等。
音频输出单元703可以将射频单元701或网络模块702接收的或者在存储器709中存储的音频数据转换成音频信号并且输出为声音。而且,音频输出单元703还可以提供与移动终端700执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元703包括扬声器、蜂鸣器以及受话器等。
输入单元704用于接收音频或视频信号。输入单元704可以包括图形处理器(Graphics Processing Unit,GPU)7041和麦克风7042,图形处理器7041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元706上。经图形处理器7041处理后的图像帧可以存储在存储器709(或其它存储介质)中或者经由射频单元701或网络模块702进行发送。麦克风7042可以接收声音,并且能够将这样的声音处理为音频数据。处理后的音频数据可以在电话通话模式的情况下转换为可经由射频单元701发送到移动通信基站的格式输出。
移动终端700还包括至少一种传感器705,比如光传感器、运动传感器以及其他传感器。具体地,光传感器包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板7061的亮度,接近传感器可在移动终端700移动到耳边时,关闭显示面板7061和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别移动终端姿态(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;传感器705还可以包括指纹传感器、压力传感器、虹膜传感器、分子传感器、陀螺仪、气压计、湿度计、温度计、红外线传感器等,在此不再赘述。
显示单元706用于显示由用户输入的信息或提供给用户的信息。显示单元706可包括显示面板7061,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板7061。
用户输入单元707可用于接收输入的数字或字符信息,以及产生与移动终端的用户设置以及功能控制有关的键信号输入。具体地,用户输入单元707包括触控面板7071以及其他输入设备7072。触控面板7071,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板7071上或在触控面板7071附近的操作)。触控面板7071可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器710,接收处理器710发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板7071。除了触控面板7071,用户输入单元707还可以包括其他输入设备7072。具体地,其他输入设备7072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。
进一步的,触控面板7071可覆盖在显示面板7061上,当触控面板7071检测到在其上或附近的触摸操作后,传送给处理器710以确定触摸事件的类型,随后处理器710根据触摸事件的类型在显示面板7061上提供相应的视觉输出。虽然在图7中,触控面板7071与显示面板7061是作为两个独立的部件来实现移动终端的输入和输出功能,但是在某些实施例中,可以将触控面板7071与显示面板7061集成而实现移动终端的输入和输出功能,具体此处不做限定。
接口单元708为外部装置与移动终端700连接的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。接口单元708可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到移动终端700内的一个或多个元件或者可以用于在移动终端700和外部装置之间传输数据。
存储器709可用于存储软件程序以及各种数据。存储器709可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器709可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器710是移动终端的控制中心,利用各种接口和线路连接整个移动终端的各个部分,通过运行或执行存储在存储器709内的软件程序和/或模块,以及调用存储在存储器709内的数据,执行移动终端的各种功能和处理数据,从而对移动终端进行整体监控。处理器710可包括一个或多个处理单元;优选的,处理器710可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器710中。
移动终端700还可以包括给各个部件供电的电源711(比如电池),优选的,电源711可以通过电源管理系统与处理器710逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
另外,移动终端700包括一些未示出的功能模块,在此不再赘述。
优选的,本发明实施例还提供一种移动终端,包括处理器710,存储器709,存储在存储器709上并可在所述处理器710上运行的计算机程序,该计算机程序被处理器710执行时实现上述文件处理方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述文件处理方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,所述的计算机可读存储介质,如只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本发明的保护之内。
Claims (11)
1.一种文件处理方法,其特征在于,包括:
若目标多媒体文件处于输出显示的状态,采集用户的脸部特征信息;
根据所述脸部特征信息确定与所述脸部特征信息匹配的表情标签;
若所述表情标签满足预设的截取条件,则对所述目标多媒体文件进行截取;
将截取获得的文件保存在与所述表情标签对应的存储目录中。
2.根据权利要求1所述的方法,其特征在于,所述根据所述脸部特征信息确定与所述脸部特征信息匹配的表情标签的步骤,包括:
向服务器发送所述脸部特征信息;
接收服务器发送的表情标签,所述表情标签为所述服务器根据所述脸部特征信息确定的与所述脸部特征信息匹配的表情标签。
3.根据权利要求1所述的方法,其特征在于,所述根据所述脸部特征信息确定与所述脸部特征信息匹配的表情标签的步骤,包括:
获取所述脸部特征信息的多个像素值;
对所述多个像素值进行编码,获得所述脸部特征信息的特征编码序列;
通过预设模型对所述特征编码序列进行分类,得到与所述特征编码序列匹配的表情标签;
将与所述特征编码序列匹配的表情标签,确定为与所述脸部特征信息匹配的表情标签。
4.根据权利要求1至3中任一项所述的方法,其特征在于,
若所述目标多媒体文件为视频文件,所述对所述目标多媒体文件进行截取的步骤,包括:以第一时刻为起点,第二时刻为终点对所述视频文件进行截取,其中,所述第一时刻与所述第二时刻之间的时间间隔为预设时间间隔,且所述视频文件当前的播放时刻在所述第一时刻与所述第二时刻之间;
若所述目标多媒体文件为图像或者文本,所述对所述目标多媒体文件进行截取的步骤,包括:对所述图像或者所述文本进行截图。
5.根据权利要求1至3中任一项所述的方法,其特征在于,在所述将截取获得的文件保存在与所述表情标签对应的存储目录中的步骤之后,所述方法还包括:
接收用户的触控操作,根据所述触控操作确定浏览内容;
若所述浏览内容存在类别标签,则查找与所述类别标签匹配的表情标签;
显示该表情标签对应的存储目录中的文件。
6.一种移动终端,其特征在于,包括:
采集模块,用于若目标多媒体文件处于输出显示的状态,采集用户的脸部特征信息;
确定模块,用于根据所述脸部特征信息确定与所述脸部特征信息匹配的表情标签;
截取模块,用于若所述表情标签满足预设的截取条件,则对所述目标多媒体文件进行截取;
保存模块,用于将截取获得的文件保存在与所述表情标签对应的存储目录中。
7.根据权利要求6所述的移动终端,其特征在于,所述确定模块,包括:
发送子模块,用于向服务器发送所述脸部特征信息;
接收子模块,用于接收服务器发送的表情标签,所述表情标签为所述服务器根据所述脸部特征信息确定的与所述脸部特征信息匹配的表情标签。
8.根据权利要求6所述的移动终端,其特征在于,所述确定模块,包括:
获取子模块,用于获取所述脸部特征信息的多个像素值;
编码子模块,用于对所述多个像素值进行编码,获得所述脸部特征信息的特征编码序列;
分类子模块,用于通过预设模型对所述特征编码序列进行分类,得到与所述特征编码序列匹配的表情标签;
确定子模块,用于将与所述特征编码序列匹配的表情标签,确定为与所述脸部特征信息匹配的表情标签。
9.根据权利要求6至8中任一项所述的移动终端,其特征在于,若所述目标多媒体文件为视频文件,所述截取模块,用于:以第一时刻为起点,第二时刻为终点对所述视频文件进行截取,其中,所述第一时刻与所述第二时刻之间的时间间隔为预设时间间隔,且所述视频文件当前的播放时刻在所述第一时刻与所述第二时刻之间;
若所述目标多媒体文件为图像或者文本,所述截取模块,用于:对所述图像或者所述文本进行截图。
10.根据权利要求6至8中任一项所述的移动终端,其特征在于,所述移动终端还包括:
接收模块,用于接收用户的触控操作,根据所述触控操作确定浏览内容;
查找模块,用于若所述浏览内容存在类别标签,则查找与所述类别标签匹配的表情标签;
显示模块,用于显示该表情标签对应的存储目录中的文件。
11.一种移动终端,其特征在于,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至5中任一项所述的文件处理方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810048774.XA CN108334196B (zh) | 2018-01-18 | 2018-01-18 | 一种文件处理方法及移动终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810048774.XA CN108334196B (zh) | 2018-01-18 | 2018-01-18 | 一种文件处理方法及移动终端 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108334196A true CN108334196A (zh) | 2018-07-27 |
CN108334196B CN108334196B (zh) | 2021-12-10 |
Family
ID=62926182
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810048774.XA Active CN108334196B (zh) | 2018-01-18 | 2018-01-18 | 一种文件处理方法及移动终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108334196B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110069446A (zh) * | 2019-04-28 | 2019-07-30 | 努比亚技术有限公司 | 移动终端文件管理方法、移动终端、装置及存储介质 |
CN111310096A (zh) * | 2020-02-25 | 2020-06-19 | 维沃移动通信有限公司 | 内容保存方法、电子设备及计算机可读存储介质 |
CN111352507A (zh) * | 2020-02-27 | 2020-06-30 | 维沃移动通信有限公司 | 信息提示方法及电子设备 |
CN111652014A (zh) * | 2019-03-15 | 2020-09-11 | 上海铼锶信息技术有限公司 | 一种眼神识别方法 |
CN111737964A (zh) * | 2020-06-23 | 2020-10-02 | 深圳前海微众银行股份有限公司 | 表格动态处理方法、设备及介质 |
CN111814540A (zh) * | 2020-05-28 | 2020-10-23 | 维沃移动通信有限公司 | 信息显示方法、装置、电子设备和可读存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101877056A (zh) * | 2009-12-21 | 2010-11-03 | 北京中星微电子有限公司 | 人脸表情识别方法及系统、表情分类器的训练方法及系统 |
CN106878809A (zh) * | 2017-02-15 | 2017-06-20 | 腾讯科技(深圳)有限公司 | 一种视频收藏方法、播放方法、装置、终端及系统 |
US20170289619A1 (en) * | 2016-03-29 | 2017-10-05 | Samsung Electronics Co., Ltd. | Method for positioning video, terminal apparatus and cloud server |
-
2018
- 2018-01-18 CN CN201810048774.XA patent/CN108334196B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101877056A (zh) * | 2009-12-21 | 2010-11-03 | 北京中星微电子有限公司 | 人脸表情识别方法及系统、表情分类器的训练方法及系统 |
US20170289619A1 (en) * | 2016-03-29 | 2017-10-05 | Samsung Electronics Co., Ltd. | Method for positioning video, terminal apparatus and cloud server |
CN106878809A (zh) * | 2017-02-15 | 2017-06-20 | 腾讯科技(深圳)有限公司 | 一种视频收藏方法、播放方法、装置、终端及系统 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111652014A (zh) * | 2019-03-15 | 2020-09-11 | 上海铼锶信息技术有限公司 | 一种眼神识别方法 |
CN110069446A (zh) * | 2019-04-28 | 2019-07-30 | 努比亚技术有限公司 | 移动终端文件管理方法、移动终端、装置及存储介质 |
CN111310096A (zh) * | 2020-02-25 | 2020-06-19 | 维沃移动通信有限公司 | 内容保存方法、电子设备及计算机可读存储介质 |
CN111352507A (zh) * | 2020-02-27 | 2020-06-30 | 维沃移动通信有限公司 | 信息提示方法及电子设备 |
CN111814540A (zh) * | 2020-05-28 | 2020-10-23 | 维沃移动通信有限公司 | 信息显示方法、装置、电子设备和可读存储介质 |
CN111737964A (zh) * | 2020-06-23 | 2020-10-02 | 深圳前海微众银行股份有限公司 | 表格动态处理方法、设备及介质 |
CN111737964B (zh) * | 2020-06-23 | 2024-03-19 | 深圳前海微众银行股份有限公司 | 表格动态处理方法、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN108334196B (zh) | 2021-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108334196A (zh) | 一种文件处理方法及移动终端 | |
CN108347704A (zh) | 信息推荐方法及移动终端 | |
CN108230283A (zh) | 一种贴图素材推荐方法和电子设备 | |
CN108337374A (zh) | 一种消息提示方法及移动终端 | |
CN109445894A (zh) | 一种截图方法及电子设备 | |
CN107633098A (zh) | 一种内容推荐方法及移动终端 | |
CN109660728B (zh) | 一种拍照方法及装置 | |
CN106921791B (zh) | 一种多媒体文件的存储和查看方法、装置及移动终端 | |
CN109508399A (zh) | 一种表情图像处理方法、移动终端 | |
CN107635110A (zh) | 一种视频截图方法及终端 | |
CN108616448A (zh) | 一种信息分享的路径推荐方法及移动终端 | |
CN108093130A (zh) | 一种查找联系人的方法及移动终端 | |
CN108765522B (zh) | 一种动态图像生成方法及移动终端 | |
CN110955788A (zh) | 一种信息显示方法及电子设备 | |
CN109726303A (zh) | 一种图像推荐方法和终端 | |
CN107728877B (zh) | 一种应用推荐方法及移动终端 | |
CN108712321A (zh) | 一种消息的提示方法及移动终端 | |
CN108958623A (zh) | 一种应用程序启动方法及终端设备 | |
CN109670105B (zh) | 搜索方法及移动终端 | |
CN111143614A (zh) | 视频显示方法及电子设备 | |
CN108462794A (zh) | 一种信息显示方法及移动终端 | |
CN108459813A (zh) | 一种搜索方法及移动终端 | |
CN108197302A (zh) | 一种文件夹创建方法及移动终端 | |
CN108494949B (zh) | 一种图像分类方法及移动终端 | |
CN108197898B (zh) | 一种着装推荐方法及移动终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |