CN108280166B - 表情的制作方法、装置、终端及计算机可读存储介质 - Google Patents
表情的制作方法、装置、终端及计算机可读存储介质 Download PDFInfo
- Publication number
- CN108280166B CN108280166B CN201810051376.3A CN201810051376A CN108280166B CN 108280166 B CN108280166 B CN 108280166B CN 201810051376 A CN201810051376 A CN 201810051376A CN 108280166 B CN108280166 B CN 108280166B
- Authority
- CN
- China
- Prior art keywords
- picture
- expression
- text information
- video frame
- matched
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Library & Information Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明属于图像处理技术领域,尤其涉及一种表情的制作方法、装置、终端及计算机可读存储介质,其中,所述方法包括:获取图像文件,对所述图像文件的图片进行表情识别,得到与表情标签匹配的图片;其中,所述表情标签用于标识所述图片的情感类型;获取与所述表情标签匹配的文本信息;加载所述文本信息至所述图片,并保存所述图片;实现了所述表情的批量制作,具有制作方法简单的特点,提高了表情制作的效率。
Description
技术领域
本发明属于图像处理技术领域,尤其涉及表情的制作方法、装置、终端及计算机可读存储介质。
背景技术
随着智能手机、平板电脑等智能终端的广泛普及,安装在所述智能终端上的即时聊天工具也得到了广泛的使用。
在利用所述即时聊天工具进行交流时,常常会使用表情进行信息表达,增加了聊天的趣味性。但是,现有技术中表情的制作过程较为繁琐,制作效率较低。
发明内容
本发明实施例提供一种表情的制作方法、装置、终端及计算机可读存储介质,可以提高表情的制作效率。
本发明实施例第一方面提供一种表情的制作方法,包括:
获取图像文件,对所述图像文件的图片进行表情识别,得到与表情标签匹配的图片;其中,所述表情标签用于标识所述图片的情感类型;
获取与所述表情标签匹配的文本信息;
加载所述文本信息至所述图片,并保存所述图片。
本发明实施例第二方面提供一种表情的制作装置,包括:
图片获取单元,用于获取图像文件,对所述图像文件的图片进行表情识别,得到与表情标签匹配的图片;其中,所述表情标签用于标识所述图片的情感类型;
文本获取单元,用于获取与所述表情标签匹配的文本信息;
加载单元,用于加载所述文本信息至所述图片,并保存所述图片。
本发明实施例第三方面提供一种终端,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述方法的步骤。
本发明实施例第四方面提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述方法的步骤。
本发明实施例中,通过对所述图像文件中的批量图片进行表情识别,从中得到与预设的表情标签匹配的图片,再通过获取与所述表情标签匹配的文本信息,并将所述文本信息加载到所述图片上,完成针对所述图片的表情制作。在所述表情的制作过程中,经过对批量的图片进行表情识别,因而能够得到较多的符合表情制作要求的图片,并且通过表情标签与文本信息进行匹配的方式,获取与所述图片匹配的文本信息,实现了所述表情的批量制作,具有制作方法简单的特点,提高了表情制作的效率。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1是本发明实施例提供的表情的制作方法的实现流程图;
图2是本发明实施例提供的表情的制作方法S101的实现流程图;
图3是本发明实施例提供的表情的制作方法S203的实现流程图;
图4是本发明实施例提供的面部运动单元限定的区域示意图;
图5是本发明实施例提供的表情的制作装置的结构示意图;
图6是本发明实施例提供的终端的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。同时,在本发明的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
图1示出了本发明第一实施例提供的一种表情的制作方法的实现流程图,所述方法由终端执行,所述终端包括个人电脑(PC)、平板电脑、智能手机、个人数字助理(PDA)、学习机等终端。所述方法可以包括步骤S101至步骤S103。
在S101中,获取图像文件,对所述图像文件的图片进行表情识别,得到与表情标签匹配的图片;其中,所述表情标签用于标识所述图片的情感类型。
其中,所述图像文件可以为视频文件,也可以为图片文件。例如,用户使用所述终端拍摄的视频或照片;或者从网络中下载的视频或照片,例如,电视剧、电影和短视频等等视频数据。
在获取了所述图像文件后,即可对所述图像文件的图片进行表情识别,得到与表情标签匹配的图片。也就是说,利用所述图像文件中的每一张图片作为制作表情的素材,通过对所述图片进行表情识别,判定所述图片是否能够表达出所述表情标签标定的某种情感类型;若其能表达出所述表情标签标定的某种情感类型,则表示所述图片可以用来制作表情,即,所述图片为与所述表情标签匹配的图片。
其中,所述表情标签可以包括用于标定几十种或上百种情感类型的表情标签,并且,每一种情感类型对应一个表情标签。例如,表示“高兴”的表情标签、表示“愤怒”的表情标签、表示“囧”的表情标签以及表示“恐惧”的表情标签等等。
在S102中,获取与所述表情标签匹配的文本信息。
在对所述图像文件的图片进行表情识别,得到与表情标签匹配的图片后,即得到了可以用于制作表情的图片及与所述图片匹配的表情标签;因此,可以通过获取与所述表情标签匹配的文本信息,得到可以加载在所述图片上的文本信息。
例如,与所述图片匹配的表情标签为“愤怒”,则与所述表情标签匹配的文本信息可以为“吼吼”。
可选地,所述获取与所述表情标签匹配的文本信息,包括:在本地数据库中查询与所述表情标签相匹配的文本信息;或根据所述表情标签生成查询指令,并将所述查询指令发送给服务器;接收所述服务器反馈的所述文本信息;所述查询指令用于指示所述服务器查询并反馈与所述表情标签相匹配的文本信息。
其中,所述本地数据库中存储有所述表情标签与所述文本信息的对应关系列表,通过查找所述对应关系列表,即可获取所述与所述表情标签匹配的文本信息。
在S103中,加载所述文本信息至所述图片,并保存所述图片。
在获取到与所述表情标签匹配的文本信息后,即可将所述文本信息加载至与所述表情标签匹配的图片上,从而完成表情的批量制作。
可选地,所述加载所述文本信息至所述图片,包括:确定所述文本信息在所述目标视频帧中的加载位置;将所述文本信息加载至所述加载位置。
例如,根据所述目标视频帧中的人脸位置,确定所述加载位置为所述人脸位置以外的位置;或者,确定所述加载位置为所述目标视频帧的空白位置;或者,确定所述加载位置为用户自定义的位置;或者,根据所述文本信息的预设位置确定所述加载位置。
可选地,所述获取与所述表情标签匹配的文本信息之后,还包括:若未获取到与所述表情标签匹配的文本信息,则直接保存所述与表情标签匹配的图片;或获取输入的文本信息,加载所述文本信息至所述图片,并保存所述图片。
上述从本地数据库中获取所述文本信息,以及从服务器中获取所述文本信息的方法属于自动获取方法,无需用户参与,即可通过将所述文本信息加载至所述图片上,完成所述表情的制作。
但是,当从所述本地数据库或所述服务器中未获取到所述文本信息时,例如,所述本地数据库或所述服务器中未存储有与所述表情标签匹配的文本信息时,则可以通过直接保存所述与表情标签匹配的图片完成所述表情的制作,即所述表情为不加载所述文本信息的表情。也就是说,所述表情标签并不需要与所述文本信息一一对应,即,所述表情标签可以没有与之对应的文本信息,此时,所述表情标签只用于筛选出适合制作成无需加载文本信息的图片。
可选地,所述获取与所述表情标签匹配的文本信息之后,还包括:若未获取到与所述表情标签匹配的文本信息,则获取输入的文本信息,并加载所述文本信息至所述图片,并保存所述图片。
也就是说,用户也可以参与所述表情的制作。例如,未获取到与所述表情标签匹配的文本信息时,通过输入所述文本信息,完成所述表情的制作,并得到个性化表情。
可选地,用户可以通过自定义所述表情标签的方式,将随意拍摄的视频或照片制作成表情。
例如,用户拍摄的“老鼠过街”的视频,并自定义表情标签为“流浪”,再将所述“老鼠过街”的视频匹配成所述表情标签“流浪”,即可将其直接保存为表情,或在输入文本信息后保存为表情。
如图2所示,在步骤S101中,当所述图像文件为视频文件时,所述对所述图像文件的图片进行表情识别,得到与表情标签匹配的图片,包括:步骤S201至步骤S203。
在S201中,获取视频文件。
在S202中,对所述视频文件的各视频帧进行人脸识别,得到包括目标人脸的目标视频帧。
所述目标人脸可以为用户指定的一个或多个特定人物的人脸。例如,用户想要以包含人物A和人物B的视频帧作为制作表情的素材时,则可以通过对所述视频文件的各视频帧进行人脸识别,得到包含人物A和人物B的目标视频帧,从而制作包含人物A和人物B的表情。需要说明的是,当用户不对所述特定人物进行指定时,所述目标人脸可以默认设置为所有人物的人脸,其中,所述人物的人脸可以包括人类的人脸和卡通人物的人脸。
在S203中,对所述目标视频帧的目标人脸进行表情识别,得到与表情标签匹配的所述目标视频帧。
在获取了所述目标视频帧后,需要对所述目标视频帧的目标人脸进行表情识别,得到与表情标签匹配的所述目标视频帧。例如,制作包含人物A和人物B的表情时,需要对包含人物A和人物B的目标视频帧中的人物A和人物B的人脸进行表情识别,判定所述目标视频帧是否能够表达出所述表情标签标定的某种情感类型;若其能表达出所述表情标签标定的某种情感类型,则表示所述目标视频帧可以用来制作表情,即,所述目标视频帧为与所述表情标签匹配的视频帧,从而实现表情的批量制作,简化了表情制作的流程。
在本发明的一些实施方式中,如图3所示,实施所述步骤S203的方法可以包括步骤S301至步骤S304。
在S301中,获取所述目标视频帧中目标人脸的各个面部运动单元。
所述各个面部运动单元是指将人脸分成的各个区域,例如,口部区域、鼻子区域、眼睛区域和眉毛区域。本发明实施例中,通过对所述各个小块进行分析,获取各个小块的特征,并将所述特征输入至表情分类器,由所述表情分类器根据各个面部运动单元加权后的特征确定所述目标视频帧是否与表情标签匹配。
其中,由于人脸的运动部位一般集中在眉毛到下巴的位置,因此,可以只对眉毛到下巴位置的运动单元进行捕捉与分析,实现减少表情识别的计算量的同时,能够较全面地得到人脸各个面部运动单元的特征。
可选地,所述获取所述目标视频帧中目标人脸的面部运动单元,包括:确定所述目标视频帧中目标人脸的眉毛特征点和下巴特征点;通过对称的所述眉毛特征点确定第一直线,通过所述下巴特征点确定平行于所述第一直线的第二直线;获取所述目标人脸在所述第一直线和第二直线所限定的区域内的面部运动单元。
例如,如图4所示,确定所述目标视频帧中目标人脸的眉毛特征点a、b和下巴特征点c;通过对称的所述眉毛特征点a、b确定第一直线L1,通过所述下巴特征点确定平行于所述第一直线L1的第二直线L2;获取所述目标人脸在所述第一直线L1和第二直线L2所限定的区域内的面部运动单元。
在S302中,提取所述各个面部运动单元的特征。
所述特征可以包括利用Ad-aboost方法提取的Gabor特征,Haar特征提取方法的Haar特征,LBP特征提取方法的LBP特征。
在S303中,将所述特征输入训练好的表情分类器,由所述表情分类器根据各个面部运动单元加权后的特征确定所述目标视频帧是否与表情标签匹配。
在提取了所述各个面部运动单元的特征之后,需要将所述特征输入到训练好的表情分类器中,由所述表情分类器根据各个面部运动单元加权后的特征确定所述目标视频帧是否与表情标签匹配。其中,一个面部运动单元包括可以多个特征。所述表情分类器按各个面部运动单元在所有面部运动单元中所占的比重,对所述特征进行加权,并根据所述加权后的特征确定所述目标视频帧是否与表情标签匹配。
例如,当目标视频帧中人脸的眉毛位置低垂、上眼睑上抬、眼睑紧凑、唇角下压、口唇压紧等特征的加权值达到预设阈值时,表示该目标视频帧与用于标识“愤怒”的表情标签匹配;否则,该目标视频帧与用于标识“愤怒”的表情标签不匹配。
在S304中,若所述目标视频帧与表情标签匹配,则输出所述目标视频帧及与所述目标视频帧匹配的表情标签。
例如,输出与“愤怒”的表情标签匹配的所述目标视频帧,及与所述目标视频帧匹配的表情标签“愤怒”。
可选地,当所述图像文件为视频文件时,所述加载所述文本信息至所述图片,并保存所述图片,包括:加载所述文本信息至所述目标视频帧,并保存所述目标视频帧。
需要说明的是,所述加载所述文本信息至所述目标视频帧的具体实现方式可以参考上述对加载所述文本信息至所述图片的实现方式,此处不再赘述。
在本发明的一些实施方式中,所述加载所述文本信息至所述目标视频帧,并保存所述目标视频帧之后,还包括:将加载有相同文本信息的连续设定数量的目标视频帧进行组合,生成表情动图并保存。
例如,当所述连续100帧的目标视频帧加载的文本信息都为“哈哈哈哈”,则可以将所述连续100帧的目标视频帧组合成表情动图,即,具有动画效果的表情,使得所述表情更具有趣味性。
在本发明的一些实施方式中,还可以将多个所述表情动图组合成新的表情动图,例如,将表情标签为“高兴”的表情动图与表情标签为“愤怒”的表情动图进行组合,或者其他自定义的表情动图的组合。
可选地,所述获取图像文件,对所述图像文件的图片进行表情识别,得到与表情标签匹配的图片,还包括:获取图片文件;对所述图片文件的图片进行表情识别,得到与表情标签匹配的所述图片。
例如,获取用户终端相册中的照片,并对所述照片进行表情识别,得到与表情标签匹配的所述照片。
图5示出了本发明实施例提供的一种表情的制作装置500的结构示意图,包括图片获取单元501、文本获取单元502和加载单元503。
图片获取单元501,用于获取图像文件,对所述图像文件的图片进行表情识别,得到与表情标签匹配的图片;所述表情标签用于标识所述图片的情感类型;
文本获取单元502,用于获取与所述表情标签匹配的文本信息;
加载单元503,用于加载所述文本信息至所述图片,并保存所述图片。
可选地,图片获取单元501包括图片获取第一子单元,用于获取视频文件;对所述视频文件的各视频帧进行人脸识别,得到包括目标人脸的目标视频帧;对所述目标视频帧的目标人脸进行表情识别,得到与表情标签匹配的所述目标视频帧。
可选地,所述图片获取第一子单元,具体用于获取所述目标视频帧中目标人脸的各个面部运动单元;提取所述各个面部运动单元的特征;将所述特征输入训练好的表情分类器,由所述表情分类器根据各个面部运动单元加权后的特征确定所述目标视频帧是否与表情标签匹配;若所述目标视频帧与表情标签匹配,则输出所述目标视频帧及与所述目标视频帧匹配的表情标签。
可选地,所述图片获取第一子单元,还具体用于确定所述目标视频帧中目标人脸的眉毛特征点和下巴特征点;通过对称的所述眉毛特征点确定第一直线,通过所述下巴特征点确定平行于所述第一直线的第二直线;获取所述目标人脸在所述第一直线和第二直线所限定的区域内的面部运动单元。
可选地,所述加载单元503,还用于加载所述文本信息至所述目标视频帧,并保存所述目标视频帧。
可选地,所述装置还包括组合单元,用于将加载有相同文本信息的连续设定数量的目标视频帧进行组合,生成表情动图并保存。
可选地,所述文本获取单元502,具体用于在本地数据库中查询与所述表情标签相匹配的文本信息;或根据所述表情标签生成查询指令,并将所述查询指令发送给服务器;所述查询指令用于指示所述服务器查询并反馈与所述表情标签相匹配的文本信息;接收所述服务器反馈的所述文本信息。
可选地,所述文本获取单元502,还具体用于若未获取到与所述表情标签匹配的文本信息,则直接保存所述与表情标签匹配的图片;或获取输入的文本信息,加载所述文本信息至所述图片,并保存所述图片。
可选地,所述加载单元503,还用于确定所述文本信息在所述目标视频帧中的加载位置;将所述文本信息加载至所述加载位置。
可选地,所述图片获取单元501,还用于获取图片文件;对所述图片文件的图片进行表情识别,得到与表情标签匹配的所述图片。
需要说明的是,为描述的方便和简洁,上述描述的表情的制作装置500的具体工作过程,可以参考上述图1至图4中所述方法的对应过程,在此不再过多赘述。
如图6所示,上述用户终端还可以包括:一个或多个输入设备63(图6中仅示出一个)和一个或多个输出设备64(图6中仅示出一个)。处理器61、存储器62、输入设备63和输出设备64通过总线65连接。
应当理解,在本发明实施例中,所称处理器61可以是中央处理单元(CentralProcessing Unit,CPU),该处理器还可以是其他通用处理器、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
输入设备63可以包括键盘、触控板、指纹采传感器(用于采集用户的指纹信息和指纹的方向信息)、麦克风等,输出设备64可以包括显示器、扬声器等。
存储器62可以包括只读存储器和随机存取存储器,并向处理器61提供指令和数据。存储器61的一部分或全部还可以包括非易失性随机存取存储器。例如,存储器62还可以存储设备类型的信息。
所述存储器62存储有计算机程序,所述计算机程序可在所述处理器61上运行,例如,所述计算机程序为表情的制作程序。所述处理器61执行所述计算机程序时实现上述各个表情的制作方法实施例中的步骤,例如图1所示的步骤101至103,以及图2所示的步骤201至203。或者,所述处理器61执行所述计算机程序时实现上述各装置实施例中各模块/单元的功能,例如图5所示单元501至503的功能。
所述计算机程序可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器62中,并由所述处理器61执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序在所述表情的制作的用户终端中的执行过程。例如,所述计算机程序可以被分割成图片获取单元、文本获取单元和加载单元,各单元具体功能如下:图片获取单元,用于获取图像文件,对所述图像文件的图片进行表情识别,得到与表情标签匹配的图片;所述表情标签用于标识所述图片的情感类型;文本获取单元,用于获取与所述表情标签匹配的文本信息;加载单元,用于加载所述文本信息至所述图片,并保存所述图片。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的装置/用户终端和方法,可以通过其它的方式实现。例如,以上所描述的装置/用户终端实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种表情的制作方法,其特征在于,包括:
获取图像文件,对所述图像文件的图片进行表情识别,得到与表情标签匹配的图片;其中,所述表情标签用于标识所述图片的情感类型;
获取与所述表情标签匹配的文本信息;
加载所述文本信息至所述图片,并保存所述图片;
所述获取图像文件,对所述图像文件的图片进行表情识别,得到与表情标签匹配的图片,包括:
获取视频文件;
对所述视频文件的各视频帧进行人脸识别,得到包括目标人脸的目标视频帧;所述目标人脸包括用户指定的一个或多个特定人物的人脸,或者,所述目标人脸包括所有人物的人脸;
对所述目标视频帧的目标人脸进行表情识别,得到与表情标签匹配的所述目标视频帧;
所述加载所述文本信息至所述图片,并保存所述图片,包括:
加载所述文本信息至所述目标视频帧;
将加载有相同文本信息的连续设定数量的目标视频帧进行组合,生成表情动图并保存。
2.如权利要求1所述的制作方法,其特征在于,所述对所述目标视频帧的目标人脸进行表情识别,得到与表情标签匹配的所述目标视频帧,包括:
获取所述目标视频帧中目标人脸的各个面部运动单元;
提取所述各个面部运动单元的特征;
将所述特征输入训练好的表情分类器,由所述表情分类器根据各个面部运动单元加权后的特征确定所述目标视频帧是否与表情标签匹配;
若所述目标视频帧与表情标签匹配,则输出所述目标视频帧及与所述目标视频帧匹配的表情标签。
3.如权利要求2所述的制作方法,其特征在于,所述获取所述目标视频帧中目标人脸的面部运动单元,包括:
确定所述目标视频帧中目标人脸的眉毛特征点和下巴特征点;
通过对称的所述眉毛特征点确定第一直线,通过所述下巴特征点确定平行于所述第一直线的第二直线;
获取所述目标人脸在所述第一直线和第二直线所限定的区域内的面部运动单元。
4.如权利要求1所述的制作方法,其特征在于,所述获取与所述表情标签匹配的文本信息,包括:
在本地数据库中查询与所述表情标签相匹配的文本信息;或
根据所述表情标签生成查询指令,并将所述查询指令发送给服务器;所述查询指令用于指示所述服务器查询并反馈与所述表情标签相匹配的文本信息;
接收所述服务器反馈的所述文本信息。
5.如权利要求1所述的制作方法,其特征在于,所述获取与所述表情标签匹配的文本信息之后,还包括:
若未获取到与所述表情标签匹配的文本信息,则直接保存所述与表情标签匹配的图片;或
获取输入的文本信息,加载所述文本信息至所述图片,并保存所述图片。
6.如权利要求1-5任意一项所述的制作方法,其特征在于,所述加载所述文本信息至所述图片,包括:
确定所述文本信息在所述目标视频帧中的加载位置;
将所述文本信息加载至所述加载位置。
7.如权利要求1-5任意一项所述的制作方法,其特征在于,所述获取图像文件,对所述图像文件的图片进行表情识别,得到与表情标签匹配的图片,包括:
获取图片文件;
对所述图片文件的图片进行表情识别,得到与表情标签匹配的所述图片。
8.一种表情的制作装置,其特征在于,包括:
图片获取单元,用于获取图像文件,对所述图像文件的图片进行表情识别,得到与表情标签匹配的图片;其中,所述表情标签用于标识所述图片的情感类型;
文本获取单元,用于获取与所述表情标签匹配的文本信息;
加载单元,用于加载所述文本信息至所述图片,并保存所述图片;
所述图片获取单元,还用于获取视频文件;对所述视频文件的各视频帧进行人脸识别,得到包括目标人脸的目标视频帧;所述目标人脸包括用户指定的一个或多个特定人物的人脸,或者,所述目标人脸包括所有人物的人脸;对所述目标视频帧的目标人脸进行表情识别,得到与表情标签匹配的所述目标视频帧;
所述加载单元,还用于加载所述文本信息至所述目标视频帧;将加载有相同文本信息的连续设定数量的目标视频帧进行组合,生成表情动图并保存。
9.一种终端,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810051376.3A CN108280166B (zh) | 2018-01-17 | 2018-01-17 | 表情的制作方法、装置、终端及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810051376.3A CN108280166B (zh) | 2018-01-17 | 2018-01-17 | 表情的制作方法、装置、终端及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108280166A CN108280166A (zh) | 2018-07-13 |
CN108280166B true CN108280166B (zh) | 2020-01-10 |
Family
ID=62804251
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810051376.3A Active CN108280166B (zh) | 2018-01-17 | 2018-01-17 | 表情的制作方法、装置、终端及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108280166B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109741423A (zh) * | 2018-12-28 | 2019-05-10 | 北京奇艺世纪科技有限公司 | 表情包生成方法及系统 |
CN111383302A (zh) * | 2018-12-29 | 2020-07-07 | 中兴通讯股份有限公司 | 一种图像配文方法及装置、终端和计算机可读存储介质 |
CN110321845B (zh) * | 2019-07-04 | 2021-06-18 | 北京奇艺世纪科技有限公司 | 一种从视频中提取表情包的方法、装置及电子设备 |
CN110321009B (zh) * | 2019-07-04 | 2023-04-07 | 北京百度网讯科技有限公司 | Ar表情处理方法、装置、设备和存储介质 |
CN111241342A (zh) * | 2020-01-15 | 2020-06-05 | 北京奇艺世纪科技有限公司 | 素材文件存储管理方法及装置、素材文件检索方法及装置 |
CN111353064B (zh) * | 2020-02-28 | 2023-06-13 | 北京百度网讯科技有限公司 | 表情包生成方法、装置、设备和介质 |
CN111882625B (zh) * | 2020-07-07 | 2024-04-05 | 北京达佳互联信息技术有限公司 | 生成动态图的方法、装置、电子设备及存储介质 |
CN112905791B (zh) * | 2021-02-20 | 2024-07-26 | 北京小米松果电子有限公司 | 表情包生成方法及装置、存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101719223A (zh) * | 2009-12-29 | 2010-06-02 | 西北工业大学 | 静态图像中陌生人面部表情的识别方法 |
KR20150089827A (ko) * | 2014-01-28 | 2015-08-05 | 트랜스지보강 주식회사 | 3d 기술을 이용한 메시지 전송 방법 및 시스템 |
CN107369196A (zh) * | 2017-06-30 | 2017-11-21 | 广东欧珀移动通信有限公司 | 表情包制作方法、装置、存储介质及电子设备 |
-
2018
- 2018-01-17 CN CN201810051376.3A patent/CN108280166B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101719223A (zh) * | 2009-12-29 | 2010-06-02 | 西北工业大学 | 静态图像中陌生人面部表情的识别方法 |
KR20150089827A (ko) * | 2014-01-28 | 2015-08-05 | 트랜스지보강 주식회사 | 3d 기술을 이용한 메시지 전송 방법 및 시스템 |
CN107369196A (zh) * | 2017-06-30 | 2017-11-21 | 广东欧珀移动通信有限公司 | 表情包制作方法、装置、存储介质及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN108280166A (zh) | 2018-07-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108280166B (zh) | 表情的制作方法、装置、终端及计算机可读存储介质 | |
JP6926339B2 (ja) | 画像のクラスタリング方法及び装置、電子機器並びに記憶媒体 | |
CN107909065B (zh) | 用于检测人脸遮挡的方法及装置 | |
US20200402304A1 (en) | Electronic device and method for managing custom object on basis of avatar | |
JP6662876B2 (ja) | アバター選択機構 | |
CN107578459A (zh) | 表情嵌入输入法候选项的方法及装置 | |
CN111696176A (zh) | 图像处理方法、装置、电子设备及计算机可读介质 | |
CN110889379A (zh) | 表情包生成方法、装置及终端设备 | |
CN112328823A (zh) | 多标签分类模型的训练方法、装置、电子设备及存储介质 | |
CN104077597B (zh) | 图像分类方法及装置 | |
CN111191503A (zh) | 一种行人属性识别方法、装置、存储介质及终端 | |
CN106960187A (zh) | 化妆导航系统、装置和方法 | |
CN105787976A (zh) | 一种处理图片的方法和装置 | |
CN106942878A (zh) | 局部放大化妆系统、装置和方法 | |
CN112839223A (zh) | 图像压缩方法、装置、存储介质及电子设备 | |
CN113793256A (zh) | 基于用户标签的动漫人物生成方法、装置、设备及介质 | |
CN112785488A (zh) | 一种图像处理方法、装置、存储介质及终端 | |
CN114708443A (zh) | 截图处理方法及装置、电子设备和计算机可读介质 | |
CN107423441B (zh) | 一种图片关联方法及其装置、电子设备 | |
CN113361419A (zh) | 一种图像处理方法、装置、设备及介质 | |
CN117689752A (zh) | 文学作品插图生成方法、装置、设备及存储介质 | |
CN111274476B (zh) | 基于人脸识别的房源匹配方法、装置、设备和存储介质 | |
KR20160013537A (ko) | 감정표현 콘텐츠를 자동으로 생성하고 분류하는 시스템 및 그 방법 | |
CN105022480A (zh) | 一种输入方法及终端 | |
CN110059739B (zh) | 图像合成方法、装置、电子设备和计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: Changan town in Guangdong province Dongguan 523860 usha Beach Road No. 18 Applicant after: OPPO Guangdong Mobile Communications Co., Ltd. Address before: Changan town in Guangdong province Dongguan 523860 usha Beach Road No. 18 Applicant before: Guangdong Opel Mobile Communications Co., Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |