CN105787496A - 一种数据的归集方法和电子设备 - Google Patents
一种数据的归集方法和电子设备 Download PDFInfo
- Publication number
- CN105787496A CN105787496A CN201410814925.XA CN201410814925A CN105787496A CN 105787496 A CN105787496 A CN 105787496A CN 201410814925 A CN201410814925 A CN 201410814925A CN 105787496 A CN105787496 A CN 105787496A
- Authority
- CN
- China
- Prior art keywords
- attribute
- data
- information
- bit
- characteristic information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种数据的归集方法和电子设备,电子设备包括显示单元和采集单元,电子设备存储有至少一个数据;该方法包括:当检测到所述显示单元显示所述数据时,利用所述采集单元采集用于针对所述数据的用户行为的行为特征信息;确定符合所述行为特征信息的属性标识,为所述数据添加所述属性标识;由此可见,本发明可以根据用户针对数据的用户行为自动实现数据的归集,无需用户手动对数据进行分类,简化了用户操作,提高了用户体验。
Description
技术领域
本发明涉及数据处理技术领域,更具体的说是涉及一种数据的归集方法和电子设备。
背景技术
随着电子设备的功能越来越大,电子设备的存储空间也越来越大,所存储的数据也越来越多。而随着电子设备中存储的数据的增多,如图像、视频等,用户存在对电子设备所存储的数据进行分类的需求。
在现有技术中,电子设备可以预先依据数据本身的属性信息对数据进行分类,如依据数据的创建时间、数据的大小等对数据进行分类。
而用户在浏览数据过程中,往往存在现场想要对数据分类的情况,这种情况下,用户只能采用手动的方式逐一对数据进行分类,操作十分繁琐,用户体验低。
发明内容
有鉴于此,本发明提供一种数据的归集方法和电子设备,以解决现有技术中用户在浏览数据过程中,现场想要对数据进行分类时,只能采用手动的方式,操作繁琐的技术问题。
为实现上述目的,本发明提供如下技术方案:
一种数据的归集方法,应用于电子设备中,所述电子设备包括显示单元和采集单元,所述电子设备存储有至少一个数据;
该方法包括:
当检测到所述显示单元显示所述数据时,利用所述采集单元采集用于针对所述数据的用户行为的行为特征信息;
确定符合所述行为特征信息的属性标识;
为所述数据添加所述属性标识。
优选的,所述行为特征信息包括用于表征用户操作行为的操作行为特性信息;
所述确定符合所述行为特征信息的属性标识,包括:
确定与所述用户操作行为特征信息对应的属性标识。
优选的,所述行为特征信息包括用于表征用户表现行为的表现行为特征信息;
所述确定符合所述行为特征信息的属性标识,包括:
确定与所述用户表现行为特性信息对应的属性标识。
优选的,所述利用所述采集单元采集用于针对所述数据的用户行为特征的行为特征信息,具体为:
利用所述采集单元采集用户操作所述电子设备使得所述显示单元显示所述数据的显示时间信息或显示次数信息;
所述确定与所述用户操作行为特性信息对应的属性标识,具体为:
确定与所述显示时间信息或显示次数信息对应的属性标识。
优选的,所述确定与所述显示时间信息或显示次数信息对应的属性标识,具体为:
基于预设分类标准对所述显示时间信息或显示次数信息进行归类,确定所述显示时间信息或显示次数信息的显示等级;
确定与所述显示等级对应的属性标识。
优选的,所述利用所述采集单元采集用于针对所述数据的用户行为特征的行为特征信息,具体为:
利用所述采集单元采集用户针对所述数据的语音信息;
利用语音识别转换算法将所述语音信息转换为文本信息;
所述确定与所述用户表现行为特征信息对应的属性标识,具体为:
确定与所述文本信息对应的属性标识。
优选的,所述确定与所述文本信息对应的属性标识之前,还包括:
确定所述文本信息的出现次数达到第一预设次数。
优选的,所述利用所述采集单元采集用于针对所述数据的用户行为特征的行为特征信息,具体为:
利用所述采集单元采集用户针对所述数据的面部对象信息;
利用面部识别算法提取所述面部对象信息的脸部表情特征信息;
所述确定与所述用户表现行为特征信息对应的属性标识,具体为:
确定与所述脸部表情特征信息对应的属性标识。
优选的,所述电子设备预建有表情数据库,所述表情数据库中存储有脸部表情属性标识与局部表情特征信息组的对应关系;
所述利用面部识别算法提取所述面部对象信息的脸部表情特征信息,具体为:
利用面部识别算法提取所述面部对象信息中的一个或多个局部表情特征信息;
所述确定与所述脸部表情特征对应的属性标识,具体为:
将所述一个或多个局部表情特征信息与所述局部表情特征信息组进行匹配,得致匹配度;
确定所述对应关系中,与所述匹配度高于预设匹配度的局部表情特征信息组对应的脸部表情属性标识为所述面部对象信息的属性标识。
优选的,所述确定与所述脸部表情特征对应的属性标识之前,还包括:
确定所述一个或多个局部表情特性信息的出现次数达到第二预设次数。
优选的,所述为所述数据添加所述属性标识,具体为:
将所述数据存储在所述电子设备中具有所述属性标识的第一位置;
和/或,为所述数据添加具有所述属性标识的属性信息。
一种电子设备,所述电子设备包括显示单元和采集单元,所述电子设备存储有至少一个数据;
该电子设备还包括:
检测采集单元,用于当检测到所述显示单元显示所述数据时,利用所述采集单元采集用于针对所述数据的用户行为的行为特征信息;
第一确定单元,用于确定符合所述行为特征信息的属性标识;
第一添加单元,用于为所述数据添加所述属性标识。
优选的,所述行为特征信息包括用于表征用户操作行为的操作行为特性信息;
所述第一确定单元具体用于确定与所述用户操作行为特征信息对应的属性标识。
优选的,所述行为特征信息包括用于表征用户表现行为的表现行为特征信息;
所述第一确定单元具体用于确定与所述用户表现行为特性信息对应的属性标识。
优选的,所述检测采集单元具体用于当检测到所述显示单元显示所述数据时,利用所述采集单元采集用户操作所述电子设备使得所述显示单元显示所述数据的显示时间信息或显示次数信息;
所述第一确定单元具体用于确定与所述显示时间信息或显示次数信息对应的属性标识。
优选的,所述第一确定单元包括:
归类确定模块,用于基于预设分类标准对所述显示时间信息或显示次数信息进行归类,确定所述显示时间信息或显示次数信息的显示等级;
第一确定模块,用于确定与所述显示等级对应的属性标识。
优选的,所述检测采集单元包括:
第一检测采集模块,用于当检测到所述显示单元显示所述数据时,利用所述采集单元采集用户针对所述数据的语音信息;
第一转换模块,用于利用语音识别转换算法将所述语音信息转换为文本信息;
所述第一确定单元具体用于确定与所述文本信息对应的属性标识。
优选的,还包括:
第二确定单元,用于确定所述文本信息的出现次数达到第一预设次数。
优选的,所述检测采集单元包括:
第二检测采集模块,用于当检测到所述显示单元显示所述数据时,利用所述采集单元采集用户针对所述数据的面部对象信息;
第一提取模块,用于利用面部识别算法提取所述面部对象信息的脸部表情特征信息;
所述第一确定单元具体用于确定与所述脸部表情特征信息对应的属性标识。
优选的,所述电子设备预建有表情数据库,所述表情数据库中存储有脸部表情属性标识与局部表情特征信息组的对应关系;
所述第一提取模块具体用于利用面部识别算法提取所述面部对象信息中的一个或多个局部表情特征信息;
所述第一确定单元包括:
第一匹配模块,用于将所述一个或多个局部表情特征信息与所述局部表情特征信息组进行匹配,得到匹配度;
第二确定模块,用于确定所述对应关系中,与所述匹配度高于预设匹配度的局部表情特征信息组对应的脸部表情属性标识为所述面部对象信息的属性标识。
优选的,还包括:
第三确定单元,用于确定所述一个或多个局部表情特性信息的出现次数达到第二预设次数。
优选的,所述第一添加单元包括:
第一存储模块,用于将所述数据存储在所述电子设备中具有所述属性标识的第一位置;
和/或,第一添加模块,用于为所述数据添加具有所述属性标识的属性信息。
经由上述的技术方案可知,与现有技术相比,本发明实施例公开了一种数据的归集方法,在检测到显示单元显示数据时,可以利用采集单元采集用户针对数据的用户行为的行为特征信息,通过确定出符合行为特性信息的属性标识,来为数据添加属性标识;由此可见,本发明可以根据用户针对数据的用户行为自动实现数据的归集,无需用户手动对数据进行分类,简化了用户操作,提高了用户体验。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明一个实施例公开的一种数据的归集方法的流程示意图;
图2为本发明另一个实施例公开的一种数据的归集方法的流程示意图;
图3为本发明一个实施例公开的一种数据的归集方法的部分流程示意图;
图4为本发明又一个实施例公开的一种数据的归集方法的部分流程示意图;
图5为本发明又一个实施例公开的一种数据的归集方法的部分流程示意图;
图6为本发明又一个实施例公开的一种数据的归集方法的部分流程示意图;
图7为本发明又一个实施例公开的一种数据的归集方法的部分流程示意图;
图8为本发明一个实施例公开的一种电子设备的结构示意图;
图9为本发明一个实施例公开的第一确定单元的结构示意图;
图10为本发明另一个实施例公开的一种电子设备的结构示意图;
图11为本发明又一个实施例公开的一种电子设备的结构示意图;
图12为本发明又一个实施例公开的一种电子设备的结构示意图;
图13为本发明又一个实施例公开的一种电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明一个实施例公开了一种数据的归集方法,该方法可以应用于手机、平板电脑、掌上电脑等电子设备中。
其中,电子设备可以包括显示单元和采集单元,显示单元用于显示电子设备的输出内容。
电子设备存储有至少一个数据,该数据的类型在本发明并没有具体限定,可以为图片、视频等,当然也可以为文档、文件等;在实际应用中,用户可以根据实际需求对需要归集的数据的类型进行设定,或设定存储在电子设备某一特定位置的数据为需要归集的数据。
如图1所示,该方法可以包括:
步骤101:当检测到显示单元显示所述数据时,利用采集单元采集用于针对所述数据的用户行为的行为特性信息;
可以预先设定某一类型的数据为需归集的数据,具体的,可以检测显示单元当前所显示的数据是否为预先设定类型的数据,若是,确定检测到显示单元正在显示所述数据。
或者,还可以预先设定电子设备某一位置所存储的数据为需归集的数据,那么,具体的,可以检测显示单元当前所显示的数据是否为预先设定位置处的数据,若是,确定检测到显示单元正在显示所述数据。
当然,本发明并不仅限定为以上两种实现方式,如还可以针对电子设备上所存储的所有数据,那么,只要检测到显示单元显示数据即可;或者,还可以预先设定电子设备上占用空间大于某一值的数据为需归集的数据等等。
其中,针对数据的用户行为是指用户针对显示单元所显示的数据的行为,而行为特性信息用于表征用户行为的行为特征。关于针对数据的用户行为的行为特征信息会在后文详细介绍。
步骤102:确定符合行为特征信息的属性标识;
其中,在确定符合行为特性信息的属性标识过程中,若电子设备中之前存储有与行为特性信息相符的属性标识,那么直接从电子设备中确定与行为特性信息相符的属性标识即可。若电子设备中并未存储有与行为特性信息相符的属性标识,那么直接生成与行为特性信息相符的属性标识。
需说明的是,电子设备中可以预先设定有属性标识划分标准,从而依据属性标识划分标准确定符合行为特性信息的属性标识。
步骤103:为数据添加属性标识。
与行为特征信息相符的属性标识为具有该行为特性信息的用户行为所针对的数据的属性标识,为数据所添加的属性标识能够代表用户对该数据进行归类的类别。
而为数据添加属性标识的方式在本发明并没有具体限定;如,为数据添加属性标识,具体可以为:
将数据存储在电子设备中具有该属性标识的第一位置;
和/或,为数据添加具有属性标识的属性信息。
其中,具有该属性标识的第一位置可以为以能够表征该属性标识的位置,如以能够表征该属性标识的名称命名的文件夹,具体可以为以该属性标识命名的文件夹或者文件夹的名称中至少包含该属性标识,在为数据添加属性标识过程中,可以直接将该数据存储在该文件夹中即可。
其中,当为数据添加具有属性标识的属性信息后,用户可以在该数据的属性信息中确定该数据的属性标识。
在本发明实施例中,在检测到显示单元显示数据时,可以利用采集单元采集用户针对数据的用户行为的行为特征信息,通过确定出符合行为特性信息的属性标识,来为数据添加属性标识;由此可见,本发明可以根据用户针对数据的用户行为自动实现数据的归集,无需用户手动对数据进行分类,简化了用户操作,提高了用户体验。
在实际应用中,用户针对数据的用户行为可以有多种,具体的,用户行为至少可以包括用户操作行为和用户表现行为,用户操作行为具有操作行为特性信息,用户表现行为具有表现行为特性信息。
当针对数据的用户行为的行为特性信息为针对数据的用户操作行为的操作行为特性信息时,上述实施例中,确定符合行为特性信息的属性标识具体为可以:确定与用户操作行为特性信息对应的属性标识。
当针对数据的用户行为的行为特性信息为针对数据的用户表现行为的表现行为特性信息时,上述实施例中,确定符合行为特性信息的属性标识具体可以为:确定与用户表现行为特性信息对应的属性标识。
下面本发明以具体实施例针对不同用户行为的数据的归集方法进行详细介绍;
针对行为特性信息包括用于表征用户操作行为的操作行为特性信息,本发明另一实施例还公开了一种数据的归集方法,如图2所示,该方法可以包括以下步骤:
步骤201:当检测到显示单元显示数据时,利用采集单元采集用户操作电子设备使得显示单元显示数据的显示时间信息或显示次数信息;
其中,用户在操作电子设备使得显示单元显示数据过程中,针对不同的数据,用户浏览时间或浏览次数可能并不相同,采集单元可以采集显示单元显示数据的显示时间信息或显示次数信息。
该显示时间信息为用户操作电子设备使得显示单元开始显示该数据到用户操作电子设备使得显示单元结束显示该数据的时长;其中,用户操作电子设备使得显示单元结束显示该数据具体可以为用户操作电子设备使得显示单元退出显示该数据的时刻或者使得显示单元开始显示另一数据的时刻。
例如,显示单元显示一图片的时长为30秒,那么,显示时间信息为30秒。
该显示次数信息为用户操作电子设备使得显示单元显示该数据的操作次数,该操作次数即为显示单元显示该数据的次数。具体的,可以对显示单元显示数据的次数进行统计,从而使得采集单元可以采集到显示单元显示该数据的显示次数信息,仍以图片为例,假设显示单元当前显示该图片为第五次显示该图片,那么,显示次数信息为5次。
步骤202:确定与显示时间信息或显示次数信息对应的属性标识;
可以依据预先设定的属性标识划分标识确定与显示时间信息或显示次数信息对应的属性标识。
步骤203:为所述数据添加属性标识。
在本发明实施例中,在检测到显示单元显示数据时,可以利用采集单元采集用户针对数据的用户行为的行为特征信息,通过确定出符合行为特性信息的属性标识,来为数据添加属性标识;由此可见,本发明可以根据用户针对数据的用户行为自动实现数据的归集,无需用户手动对数据进行分类,简化了用户操作,提高了用户体验。
作为确定与显示时间信息或显示次数信息对应的属性标识的一种具体实现方式可参见图3,如图3所示,确定与显示时间信息或显示次数信息对应的属性标识,具体可以包括以下步骤:
步骤3021:基于预设分类标准对显示时间信息或显示次数信息进行归类,确定显示时间信息或显示次数信息的显示等级;
预设分类标准为预先设定的针对显示时间信息或显示次数信息的显示等级划分标准,即每一显示等级对应一个显示时间范围或显示次数范围。
以针对显示时间信息的显示等级划分标准为例,假设预设分类标准包括低显示等级、中显示等级和高显示等级,其中,低显示等级的显示时间范围为5秒以下(包含5秒),中显示等级的显示时间范围为6~10秒,高显示等级的显示时间范围为:11秒以上(包含11秒)。那么,可以基于该标准确定显示时间信息所处的显示等级,如显示时间信息为7秒,那么可以确定该显示时间信息的显示等级为中显示等级。
以针对显示次数信息的显示等级划分标准为例,假设预设分类标准包括低显示等级,中显示等级和高显示等级,低显示等级的显示次数范围可以为:3次以下(包含3次),中显示等级的显示次数范围为4~6次,高显示等级的显示次数范围为:7次以上(包含7次)。那么,可以基于该标准确定显示次数信息所处的等级,如显示次数信息为2次,那么可以确定该显示次数信息的显示等级为低显示等级。
当然这只是具体的实现方式,针对显示时间信息或显示次数信息的显示等级的分类标准可以为更详细的划分不同的显示等级。如高显示等级还可以包括高下、高中以及高上等。
步骤3022:确定与显示等级对应的属性标识。
每一显示等级具有一属性标识,而具体的确定方式可以根据实际情况进行设定。如低显示等级对应的属性标识为“普通”,中显示等级对应的属性标识为“不错”,高显示等级对应的属性标识为“喜欢”。
针对行为特性信息包括用于表征用户表现行为的操作行为特性信息,本发明又一实施例还公开了一种数据的归集方法,如图4所示,该方法可以包括以下步骤:
步骤401:当检测到显示单元显示数据时,利用采集单元采集用户针对数据的语音信息。
该语音信息为用户针对显示单元所显示的数据的用户表现行为所具有的特性信息。如该采集单元为语音采集单元,当检测到显示单元显示数据时,可以启动语音采集单元采集用户针对数据的语音信息。
在实际应用中,当用户操作电子设备使得显示单元显示数据时,用户可以通过语音的方式对数据进行归集,如,显示单元当前显示一张图片,用户希望将该图片归集为人物类,那么,用户可以发声说至少包括“人物”内容。
步骤402:利用语音识别转换算法将语音信息转换为文本信息;
当采集到针对数据的语音信息后,可以利用语音识别转换算法将语音信息转换为文本信息。
步骤403:确定与文本信息对应的属性标识;
确定与文本信息对应的属性标识具体可以为提取文本信息的关键字作为属性标识或者将文本信息的全部内容作为属性标识。
步骤404:为数据添加属性标识。
在本发明实施例中,在检测到显示单元显示数据时,可以利用采集单元采集用户针对数据的用户行为的行为特征信息,通过确定出符合行为特性信息的属性标识,来为数据添加属性标识;由此可见,本发明可以根据用户针对数据的用户行为自动实现数据的归集,无需用户手动对数据进行分类,简化了用户操作,提高了用户体验。
在实际应用中,在显示单元显示数据过程中,很有可能出现用户并不是针对数据的归集而无意中说话的情况,那么,会出现电子设备对数据的误归集情况;针对这种情况,本发明又一实施例还公开了一种数据的归集方法,如图5所示,该方法可以包括以下步骤:
步骤501:当检测到显示单元显示数据时,利用采集单元采集用户针对数据的语音信息。
步骤502:利用语音识别转换算法将语音信息转换为文本信息;
当采集到针对数据的语音信息后,可以利用语音识别转换算法将语音信息转换为文本信息。
步骤503:确定文本信息的出现次数达到第一预设次数。
将用户针对数据的语音信息转换为文本信息之后,可以判断该文本信息的出现次数是否达到第一预设次数;具体的,可以判断文本信息的全部内容的出现次数是否达到第一预设次数,当然,也可以判断文本信息的部分内容如提取文本信息的关键字的出现次数是否达到第一预设次数。当确定该文本信息的出现次数小于第一预设次数,则返回步骤501;而当确定该文本信息的出现次数达到第一预设次数,则说明该文本信息为确定归集数据的属性标识的信息。
第一预设次数可以根据实际情况进行设定,本发明并没有限定,如可以为3次。
步骤504:确定与文本信息对应的属性标识;
确定与文本信息对应的属性标识具体可以为提取文本信息的关键字作为属性标识或者将文本信息的全部内容作为属性标识。
步骤505:为数据添加属性标识。
针对行为特性信息包括用于表征用户表现行为的操作行为特性信息,本发明又一实施例还公开了一种数据的归集方法,如图6所示,该方法可以包括以下步骤:
步骤601:当检测到显示单元显示数据中,利用采集单元采集用户针对数据的面部对象信息;
该面部对象信息为用户针对显示单元所显示的数据的用户表现行为所具有的特性信息。如该采集单元为图像采集单元,当检测到显示单元显示数据时,可以启动图像采集单元采集用户针对数据的面部对象信息。
具体的,图像采集单元可以与显示单元设置在电子设备的同一侧,以便用户在浏览数据过程中实现针对用户的面部对象实时采集。
步骤602:利用面部识别算法提取面部对象信息的脸部表情特征信息;
在实际应用中,当用户操作电子设备使用显示单元显示数据时,用户可以通过面部表情的变化对数据进行归集。如当浏览显示单元当前显示的图片时,若用户希望将该图片归集为搞笑类,那么,用户可以做出一个笑脸;或者,若用户希望该图片归集为惊讶类,那么,用户可以做出一个惊讶的表情;若用户希望该图片归集为悲伤类,那么,用户可以做出一个难过的表情等等。
而当采集到用户针对数据的面部对象信息后,可以利用面部识别算法来提取面部对象信息的脸部表情特性信息,该脸部表情特性信息用于表征面部对象的面部表情。
步骤603:确定与脸部表情特征信息对应的属性标识;
具体的,可以确定与脸部表征特性信息所代表的面部表情作为属性标识。如脸部表情特性信息表征的面部对象的面部表情为笑,那么,可以将“高兴”作为与脸部表情特性信息对应的属性标识;如脸部表现特性信息表征的面部对象的面部表情为惊讶,那么,可以将“惊讶”作为与脸部表情特性信息对应的属性标识。
步骤604:为数据添加属性标识。
在本发明实施例中,在检测到显示单元显示数据时,可以利用采集单元采集用户针对数据的用户行为的行为特征信息,通过确定出符合行为特性信息的属性标识,来为数据添加属性标识;由此可见,本发明可以根据用户针对数据的用户行为自动实现数据的归集,无需用户手动对数据进行分类,简化了用户操作,提高了用户体验。
作为利用用户针对数据的面部对象信息对数据进行归集的一种实现方式,电子设备可以预建有表情数据库,而该表情数据库中存储有脸部表情属性标识与局部表情特性信息组的对应关系。
其中,局部表情特性信息组为脸部表情属性标识所具有的一个或多个局部表情特性信息。
如以脸部表情属性标识为“惊讶”为例,与之对应的局部表情信息组可以包括:眉毛抬高(眉毛与眼睛之间的距离达到某一距离)、眼睛瞪大(眼睛的形状与某一形状相匹配)、嘴巴张开(上嘴唇与下嘴唇之间的距离达到某一距离)等。
如以脸部表情属性标识为“高兴”为例,与之对应的局部表情信息组可以包括:嘴巴张开(上嘴唇与下嘴唇之间的距离达到某一距离)、嘴巴变宽(嘴巴的宽度达到某一宽度)等。
与图6所对应的实施例对应的,利用面部识别算法提取面部对象信息的脸部表情特征信息,具体可以为:利用面部识别算法提取面部对象信息中的一个或多个局部表情特征信息;
确定与所述脸部表情特征对应的属性标识,包括:
A1:将一个或多个局部表情特征信息与局部表情特征信息组进行匹配,得到匹配度;
将从面部对象信息中提取的一个或多个局部表情特性信息与局部表情特性信息组中的局部表情特性信息进行匹配,从而得到匹配度。
如,将从面部对象信息中提取的一个或多个局部表情特性信息分别与“惊讶”对应的局部表情特性信息组中的局部表情特性信息以及“高兴”对应的局部表情特性信息组中的局部表情特性信息进行匹配,分别得到匹配度为90%和60%。
A2:确定对应关系中,与匹配度高于预设匹配度的局部表情特征信息组对应的脸部表情属性标识为所述对象信息的属性标识。
预设匹配度可以由系统或用户预先设定。如预设匹配度为85%,那么,只有匹配度高于85%的局部表征特性信息组对应的脸部表情属性标识为对象信息的属性标识,在上述举例中,可以确定“惊讶”为面部对象信息的属性标识。
在实际应用中,在显示单元显示数据过程中,可能用户当前的面部表情并不是针对数据归集所做出的表情,那么,会出现电子设备对数据的误归集情况;针对这种情况,本发明又一实施例还公开了一种数据的归集方法,如图7所示,该方法可以包括以下步骤:
步骤701:当检测到显示单元显示数据中,利用采集单元采集用户针对数据的面部对象信息;
步骤702:利用面部识别算法提取面部对象信息中的一个或多个局部表情特征信息;
步骤703:确定一个或多个局部表情特性信息的出现次数达到第二预设次数;
提取出面部对象信息中的一个或多个局部表情特性信息之后,可以判断该一个或多个局部表情特性信息的出现次数是否达到第二预设次数。当确定该一个或多个局部表情特性信息的出现次数小于第二预设次数,则返回步骤701;而当确定该一个或多个局部表情特性信息的出现次数达到第二预设次数,则说明该面部对象信息为确定归集数据的属性标识的信息。
第二预设次数可以根据实际情况进行设定,本发明并没有限定,如可以为3次。
步骤704:将一个或多个局部表情特征信息与局部表情特征信息组进行匹配,得致匹配度;
步骤705:确定对应关系中,与匹配度高于预设匹配度的局部表情特征信息组对应的脸部表情属性标识为所述对象信息的属性标识;
步骤706:为数据添加属性标识。
本发明一个实施例还公开了一种电子设备,该电子设备可以为手机、平板电脑、掌上电脑等设备。
电子设备可以包括显示单元和采集单元,显示单元用于显示电子设备的输出内容。
其中,电子设备存储有至少一个数据;
如图8所示,该电子设备可以包括:检测采集单元801、第一确定单元802以及第一添加单元803;其中:
检测采集单元801,可以用于当检测到显示单元显示数据时,利用采集单元采集用于针对数据的用户行为的行为特征信息;
第一确定单元802,可以用于确定符合行为特征信息的属性标识;
第一添加单元803,可以用于为数据添加属性标识。
其中,第一添加单元803可以包括:第一存储模块和/或第一添加模块;
第一存储模块可以用于将所述数据存储在所述电子设备中具有所述属性标识的第一位置;
第一添加模块可以用于为所述数据添加具有所述属性标识的属性信息。
在本发明实施例中,在检测到显示单元显示数据时,可以利用采集单元采集用户针对数据的用户行为的行为特征信息,通过确定出符合行为特性信息的属性标识,来为数据添加属性标识;由此可见,本发明可以根据用户针对数据的用户行为自动实现数据的归集,无需用户手动对数据进行分类,简化了用户操作,提高了用户体验。
在实际应用中,用户针对数据的用户行为可以有多种,具体的,用户行为至少可以包括用户操作行为和用户表现行为,用户操作行为具有操作行为特性信息,用户表现行为具有表现行为特性信息。
当行为特征信息包括用于表征用户操作行为的操作行为特性信息时,第一确定单元具体可以用于确定与用户操作行为特征信息对应的属性标识。
当行为特征信息包括用于表征用户表现行为的表现行为特征信息时,第一确定单元具体可以用于确定与用户表现行为特性信息对应的属性标识。
针对行为特性信息包括用于表征用户操作行为的操作行为特性信息,检测采集单元具体可以用于当检测到显示单元显示数据时,利用采集单元采集用户操作电子设备使得显示单元显示数据的显示时间信息或显示次数信息;第一确定单元具体可以用于确定与显示时间信息或显示次数信息对应的属性标识。
作为第一确定单元确定与显示时间信息或显示次数信息对应的属性标识的一种具体结构,如图9所示,第一确定单元可以包括:归类确定模块9021以及第一确定模块9022;其中:
归类确定模块9021,可以用于基于预设分类标准对显示时间信息或显示次数信息进行归类,确定显示时间信息或显示次数信息的显示等级;
第一确定模块9022,可以用于确定与显示等级对应的属性标识。
针对行为特性信息包括用于表征用户表现行为的操作行为特性信息,本发明又一实施例还公开了一种电子设备,如图10所示,该电子设备可以包括:检测采集单元1001、第一确定单元1002以及第一添加单元1003;检测采集单元1001包括:第一检测采集模块10011以及第一转换模块10012;
第一检测采集模块10011,可以用于当检测到显示单元显示数据时,利用采集单元采集用户针对数据的语音信息;
第一转换模块10012,可以用于利用语音识别转换算法将语音信息转换为文本信息;
第一确定单元1002,可以用于确定与文本信息对应的属性标识;
第一添加单元1003,可以用于为数据添加属性标识。
在本发明实施例中,在检测到显示单元显示数据时,可以利用采集单元采集用户针对数据的用户行为的行为特征信息,通过确定出符合行为特性信息的属性标识,来为数据添加属性标识;由此可见,本发明可以根据用户针对数据的用户行为自动实现数据的归集,无需用户手动对数据进行分类,简化了用户操作,提高了用户体验。
在实际应用中,在显示单元显示数据过程中,很有可能出现用户并不是针对数据的归集而无意中说话的情况,那么,会出现电子设备对数据的误归集情况;针对这种情况,本发明又一实施例还公开了一种电子设备,如图11所示,该电子设备可以包括:检测采集单元1101、第二确定单元1102、第一确定单元1103以及第一添加单元1104;检测采集单元1101包括:第一检测采集模块11011以及第一转换模块11012;
第一检测采集模块11011,可以用于当检测到显示单元显示数据时,利用采集单元采集用户针对数据的语音信息;
第一转换模块11012,可以用于利用语音识别转换算法将语音信息转换为文本信息;
第二确定单元1102,用于确定所述文本信息的出现次数达到第一预设次数。
第一确定单元1103,可以用于确定与文本信息对应的属性标识;
第一添加单元1104,可以用于为数据添加属性标识。
针对行为特性信息包括用于表征用户表现行为的操作行为特性信息,本发明又一实施例还公开了一种电子设备,如图12所示,该电子设备可以包括:检测采集单元1201、第一确定单元1202以及第一添加单元1203;检测采集单元1201包括:第二检测采集模块12011以及第一提取模块12012;
第二检测采集模块12011,可以用于当检测到显示单元显示数据时,利用采集单元采集用户针对数据的面部对象信息;
第一提取模块12012,可以用于利用面部识别算法提取面部对象信息的脸部表情特征信息;
第一确定单元1202,可以用于确定与脸部表情特征信息对应的属性标识。
第一添加单元1203,可以用于为数据添加属性标识。
在本发明实施例中,在检测到显示单元显示数据时,可以利用采集单元采集用户针对数据的用户行为的行为特征信息,通过确定出符合行为特性信息的属性标识,来为数据添加属性标识;由此可见,本发明可以根据用户针对数据的用户行为自动实现数据的归集,无需用户手动对数据进行分类,简化了用户操作,提高了用户体验。
作为利用用户针对数据的面部对象信息对数据进行归集的一种实现方式,电子设备可以预建有表情数据库,而该表情数据库中存储有脸部表情属性标识与局部表情特性信息组的对应关系。
相应的,第一提取模块具体可以用于利用面部识别算法提取面部对象信息中的一个或多个局部表情特征信息;
第一确定单元可以包括:第一匹配模块和第二确定模块;
第一匹配模块,可以用于将一个或多个局部表情特征信息与局部表情特征信息组进行匹配,得到匹配度;
第二确定模块,可以用于确定对应关系中,与匹配度高于预设匹配度的局部表情特征信息组对应的脸部表情属性标识为面部对象信息的属性标识。
在实际应用中,在显示单元显示数据过程中,可能用户当前的面部表情并不是针对数据归集所做出的表情,那么,会出现电子设备对数据的误归集情况;针对这种情况,本发明又一实施例还公开了一种电子设备,如图13所示,该电子设备可以包括:检测采集单元1301、第三确定单元1302、第一确定单元1303以及第一添加单元1304;检测采集单元1301包括:第二检测采集模块13011以及第一提取模块13012;第一确定单元1303包括:第一匹配模块13031和第一确定模块13032;其中:
第二检测采集模块13011,可以用于当检测到显示单元显示数据时,利用采集单元采集用户针对数据的面部对象信息;
第一提取模块13012,可以用于利用面部识别算法提取面部对象信息中的一个或多个局部表情特征信息;
第三确定单元1302,可以用于确定所述一个或多个局部表情特性信息的出现次数达到第二预设次数;
第一匹配模块13031,可以用于将一个或多个局部表情特征信息与局部表情特征信息组进行匹配,得到匹配度;
第二确定模块13032,可以用于确定对应关系中,与匹配度高于预设匹配度的局部表情特征信息组对应的脸部表情属性标识为面部对象信息的属性标识。
第一添加单元1304,可以用于为数据添加属性标识。
以上各装置的实施例与方法实施例相对应,具体可参见方法实施例,在此不再详细赘述。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (22)
1.一种数据的归集方法,其特征在于,应用于电子设备中,所述电子设备包括显示单元和采集单元,所述电子设备存储有至少一个数据;
该方法包括:
当检测到所述显示单元显示所述数据时,利用所述采集单元采集用于针对所述数据的用户行为的行为特征信息;
确定符合所述行为特征信息的属性标识;
为所述数据添加所述属性标识。
2.根据权利要求1所述的方法,其特征在于,所述行为特征信息包括用于表征用户操作行为的操作行为特性信息;
所述确定符合所述行为特征信息的属性标识,包括:
确定与所述用户操作行为特征信息对应的属性标识。
3.根据权利要求1所述的方法,其特征在于,所述行为特征信息包括用于表征用户表现行为的表现行为特征信息;
所述确定符合所述行为特征信息的属性标识,包括:
确定与所述用户表现行为特性信息对应的属性标识。
4.根据权利要求2所述的方法,其特征在于,所述利用所述采集单元采集用于针对所述数据的用户行为特征的行为特征信息,具体为:
利用所述采集单元采集用户操作所述电子设备使得所述显示单元显示所述数据的显示时间信息或显示次数信息;
所述确定与所述用户操作行为特性信息对应的属性标识,具体为:
确定与所述显示时间信息或显示次数信息对应的属性标识。
5.根据权利要求4所述的方法,其特征在于,所述确定与所述显示时间信息或显示次数信息对应的属性标识,具体为:
基于预设分类标准对所述显示时间信息或显示次数信息进行归类,确定所述显示时间信息或显示次数信息的显示等级;
确定与所述显示等级对应的属性标识。
6.根据权利要求3所述的方法,其特征在于,所述利用所述采集单元采集用于针对所述数据的用户行为特征的行为特征信息,具体为:
利用所述采集单元采集用户针对所述数据的语音信息;
利用语音识别转换算法将所述语音信息转换为文本信息;
所述确定与所述用户表现行为特征信息对应的属性标识,具体为:
确定与所述文本信息对应的属性标识。
7.根据权利要求6所述的方法,其特征在于,所述确定与所述文本信息对应的属性标识之前,还包括:
确定所述文本信息的出现次数达到第一预设次数。
8.根据权利要求3所述的方法,其特征在于,所述利用所述采集单元采集用于针对所述数据的用户行为特征的行为特征信息,具体为:
利用所述采集单元采集用户针对所述数据的面部对象信息;
利用面部识别算法提取所述面部对象信息的脸部表情特征信息;
所述确定与所述用户表现行为特征信息对应的属性标识,具体为:
确定与所述脸部表情特征信息对应的属性标识。
9.根据权利要求8所述的方法,其特征在于,所述电子设备预建有表情数据库,所述表情数据库中存储有脸部表情属性标识与局部表情特征信息组的对应关系;
所述利用面部识别算法提取所述面部对象信息的脸部表情特征信息,具体为:
利用面部识别算法提取所述面部对象信息中的一个或多个局部表情特征信息;
所述确定与所述脸部表情特征对应的属性标识,具体为:
将所述一个或多个局部表情特征信息与所述局部表情特征信息组进行匹配,得到匹配度;
确定所述对应关系中,与所述匹配度高于预设匹配度的局部表情特征信息组对应的脸部表情属性标识为所述面部对象信息的属性标识。
10.根据权利要求8所述的方法,其特征在于,所述确定与所述脸部表情特征对应的属性标识之前,还包括:
确定所述一个或多个局部表情特性信息的出现次数达到第二预设次数。
11.根据权利要求1所述的方法,其特征在于,所述为所述数据添加所述属性标识,具体为:
将所述数据存储在所述电子设备中具有所述属性标识的第一位置;
和/或,为所述数据添加具有所述属性标识的属性信息。
12.一种电子设备,其特征在于,所述电子设备包括显示单元和采集单元,所述电子设备存储有至少一个数据;
该电子设备还包括:
检测采集单元,用于当检测到所述显示单元显示所述数据时,利用所述采集单元采集用于针对所述数据的用户行为的行为特征信息;
第一确定单元,用于确定符合所述行为特征信息的属性标识;
第一添加单元,用于为所述数据添加所述属性标识。
13.根据权利要求12所述的电子设备,其特征在于,所述行为特征信息包括用于表征用户操作行为的操作行为特性信息;
所述第一确定单元具体用于确定与所述用户操作行为特征信息对应的属性标识。
14.根据权利要求12所述的电子设备,其特征在于,所述行为特征信息包括用于表征用户表现行为的表现行为特征信息;
所述第一确定单元具体用于确定与所述用户表现行为特性信息对应的属性标识。
15.根据权利要求13所述的电子设备,其特征在于,所述检测采集单元具体用于当检测到所述显示单元显示所述数据时,利用所述采集单元采集用户操作所述电子设备使得所述显示单元显示所述数据的显示时间信息或显示次数信息;
所述第一确定单元具体用于确定与所述显示时间信息或显示次数信息对应的属性标识。
16.根据权利要求15所述的电子设备,其特征在于,所述第一确定单元包括:
归类确定模块,用于基于预设分类标准对所述显示时间信息或显示次数信息进行归类,确定所述显示时间信息或显示次数信息的显示等级;
第一确定模块,用于确定与所述显示等级对应的属性标识。
17.根据权利要求14所述的电子设备,其特征在于,所述检测采集单元包括:
第一检测采集模块,用于当检测到所述显示单元显示所述数据时,利用所述采集单元采集用户针对所述数据的语音信息;
第一转换模块,用于利用语音识别转换算法将所述语音信息转换为文本信息;
所述第一确定单元具体用于确定与所述文本信息对应的属性标识。
18.根据权利要求17所述的电子设备,其特征在于,还包括:
第二确定单元,用于确定所述文本信息的出现次数达到第一预设次数。
19.根据权利要求14所述的电子设备,其特征在于,所述检测采集单元包括:
第二检测采集模块,用于当检测到所述显示单元显示所述数据时,利用所述采集单元采集用户针对所述数据的面部对象信息;
第一提取模块,用于利用面部识别算法提取所述面部对象信息的脸部表情特征信息;
所述第一确定单元具体用于确定与所述脸部表情特征信息对应的属性标识。
20.根据权利要求19所述的电子设备,其特征在于,所述电子设备预建有表情数据库,所述表情数据库中存储有脸部表情属性标识与局部表情特征信息组的对应关系;
所述第一提取模块具体用于利用面部识别算法提取所述面部对象信息中的一个或多个局部表情特征信息;
所述第一确定单元包括:
第一匹配模块,用于将所述一个或多个局部表情特征信息与所述局部表情特征信息组进行匹配,得到匹配度;
第二确定模块,用于确定所述对应关系中,与所述匹配度高于预设匹配度的局部表情特征信息组对应的脸部表情属性标识为所述面部对象信息的属性标识。
21.根据权利要求19所述的电子设备,其特征在于,还包括:
第三确定单元,用于确定所述一个或多个局部表情特性信息的出现次数达到第二预设次数。
22.根据权利要求12所述的电子设备,其特征在于,所述第一添加单元包括:
第一存储模块,用于将所述数据存储在所述电子设备中具有所述属性标识的第一位置;
和/或,第一添加模块,用于为所述数据添加具有所述属性标识的属性信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410814925.XA CN105787496A (zh) | 2014-12-23 | 2014-12-23 | 一种数据的归集方法和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410814925.XA CN105787496A (zh) | 2014-12-23 | 2014-12-23 | 一种数据的归集方法和电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105787496A true CN105787496A (zh) | 2016-07-20 |
Family
ID=56377436
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410814925.XA Pending CN105787496A (zh) | 2014-12-23 | 2014-12-23 | 一种数据的归集方法和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105787496A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106328124A (zh) * | 2016-08-24 | 2017-01-11 | 安徽咪鼠科技有限公司 | 一种基于用户行为特征的语音识别方法 |
CN107493315A (zh) * | 2017-06-28 | 2017-12-19 | 武汉斗鱼网络科技有限公司 | 一种行为数据的收集方法、资源服务器及存储介质 |
CN115794839A (zh) * | 2023-02-08 | 2023-03-14 | 南昌维网数字传媒有限公司 | 基于Php+Mysql体系的数据归集方法、计算机设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101390167A (zh) * | 2005-07-26 | 2009-03-18 | 创新科技有限公司 | 基于智能随机选择来修改媒体内容回放的系统和方法 |
CN101686286A (zh) * | 2008-09-26 | 2010-03-31 | 中兴通讯股份有限公司 | 一种具有全语音服务的自动业务流程实现方法及系统 |
CN102520789A (zh) * | 2011-11-18 | 2012-06-27 | 上海聚力传媒技术有限公司 | 一种用于实现语音控制受控设备的方法与设备 |
CN102868815A (zh) * | 2012-09-06 | 2013-01-09 | 北京天宇朗通通信设备股份有限公司 | 移动终端的信息分类方法及装置 |
US8515937B1 (en) * | 2008-06-30 | 2013-08-20 | Alexa Internet | Automated identification and assessment of keywords capable of driving traffic to particular sites |
CN104078044A (zh) * | 2014-07-02 | 2014-10-01 | 深圳市中兴移动通信有限公司 | 移动终端及其录音搜索的方法和装置 |
-
2014
- 2014-12-23 CN CN201410814925.XA patent/CN105787496A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101390167A (zh) * | 2005-07-26 | 2009-03-18 | 创新科技有限公司 | 基于智能随机选择来修改媒体内容回放的系统和方法 |
US8515937B1 (en) * | 2008-06-30 | 2013-08-20 | Alexa Internet | Automated identification and assessment of keywords capable of driving traffic to particular sites |
CN101686286A (zh) * | 2008-09-26 | 2010-03-31 | 中兴通讯股份有限公司 | 一种具有全语音服务的自动业务流程实现方法及系统 |
CN102520789A (zh) * | 2011-11-18 | 2012-06-27 | 上海聚力传媒技术有限公司 | 一种用于实现语音控制受控设备的方法与设备 |
CN102868815A (zh) * | 2012-09-06 | 2013-01-09 | 北京天宇朗通通信设备股份有限公司 | 移动终端的信息分类方法及装置 |
CN104078044A (zh) * | 2014-07-02 | 2014-10-01 | 深圳市中兴移动通信有限公司 | 移动终端及其录音搜索的方法和装置 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106328124A (zh) * | 2016-08-24 | 2017-01-11 | 安徽咪鼠科技有限公司 | 一种基于用户行为特征的语音识别方法 |
CN107493315A (zh) * | 2017-06-28 | 2017-12-19 | 武汉斗鱼网络科技有限公司 | 一种行为数据的收集方法、资源服务器及存储介质 |
CN107493315B (zh) * | 2017-06-28 | 2021-04-23 | 武汉斗鱼网络科技有限公司 | 一种行为数据的收集方法、资源服务器及存储介质 |
CN115794839A (zh) * | 2023-02-08 | 2023-03-14 | 南昌维网数字传媒有限公司 | 基于Php+Mysql体系的数据归集方法、计算机设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20180054564A1 (en) | Apparatus and method for providing user's emotional information in electronic device | |
US20150055879A1 (en) | Method, Server and System for Setting Background Image | |
EP3407216B1 (en) | Method and device for displaying information resource, and computer readable storage medium | |
CN104410911B (zh) | 基于视频情感标注辅助识别面部表情的方法 | |
CN103399896B (zh) | 识别用户间关联关系的方法及系统 | |
CN105630915A (zh) | 一种移动终端中图片分类存储的方法及装置 | |
CN102819726A (zh) | 用于移动终端的照片处理系统及方法 | |
CN104598127B (zh) | 一种在对话界面插入表情的方法及装置 | |
CN104021398A (zh) | 一种可穿戴智能设备及辅助身份识别的方法 | |
CN106407358B (zh) | 一种图像搜索方法、装置及移动终端 | |
CN109508398B (zh) | 一种照片分类方法及其终端设备 | |
CN105404878A (zh) | 一种照片分类方法和装置 | |
CN109426785A (zh) | 一种人体目标身份识别方法及装置 | |
US20150033126A1 (en) | Video content providing scheme | |
CN103823858A (zh) | 信息处理方法及信息处理装置 | |
CN105630849A (zh) | 表情图像推荐系统及其方法 | |
TW201344546A (zh) | 相片資料夾之代表縮圖之自動選擇方法及自動選擇系統 | |
CN102831242A (zh) | 搜索图片信息的方法及装置 | |
CN103019369A (zh) | 基于脸部表情播放文档的电子装置及方法 | |
CN105787496A (zh) | 一种数据的归集方法和电子设备 | |
CN108228852A (zh) | 电子相册封面生成的方法、装置及计算机可读存储介质 | |
US9185236B2 (en) | Method and apparatus for visualizing record data | |
CN103167088B (zh) | 通讯录排序方法和移动终端 | |
CN105512119A (zh) | 一种实现图片排序的方法及终端 | |
CN109190032A (zh) | 推送方法、装置的存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20160720 |