CN112905791A - 表情包生成方法及装置、存储介质 - Google Patents
表情包生成方法及装置、存储介质 Download PDFInfo
- Publication number
- CN112905791A CN112905791A CN202110193597.6A CN202110193597A CN112905791A CN 112905791 A CN112905791 A CN 112905791A CN 202110193597 A CN202110193597 A CN 202110193597A CN 112905791 A CN112905791 A CN 112905791A
- Authority
- CN
- China
- Prior art keywords
- text
- expression
- picture
- label
- list
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000014509 gene expression Effects 0.000 title claims abstract description 284
- 238000000034 method Methods 0.000 title claims abstract description 51
- 230000001815 facial effect Effects 0.000 claims abstract description 15
- 230000008921 facial expression Effects 0.000 claims abstract description 10
- 238000002372 labelling Methods 0.000 claims description 43
- 238000005520 cutting process Methods 0.000 claims description 9
- 238000004891 communication Methods 0.000 description 15
- 238000013145 classification model Methods 0.000 description 13
- 238000012545 processing Methods 0.000 description 11
- 230000008451 emotion Effects 0.000 description 10
- 230000007958 sleep Effects 0.000 description 8
- 241001282135 Poromitra oscitans Species 0.000 description 7
- 206010048232 Yawning Diseases 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 206010011469 Crying Diseases 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000007935 neutral effect Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 230000036651 mood Effects 0.000 description 2
- 238000012015 optical character recognition Methods 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 206010067171 Regurgitation Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000000366 juvenile effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000003997 social interaction Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/355—Class or cluster creation or modification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/175—Static expression
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/51—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/5866—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/635—Overlay text, e.g. embedded captions in a TV program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/278—Subtitling
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Signal Processing (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Library & Information Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本公开是关于一种表情包生成方法及装置、存储介质。该方法包括:将人像图片中人脸图片输入到表情识别模型中,得到所述人脸图片对应的第一表情标签列表;基于所述第一表情标签列表和预设文本与第二表情标签列表的对应关系,确定所述人脸图片对应的至少一个标注文本;确定所述人像图片对应的表情图片,所述人脸图片为所述表情图片的部分图片;将至少一个所述标注文本标注在所述表情图片中,生成表情包。本公开实施例能够针对人脸图片个性化制定人脸表情对应的标注文本,进而能够得到个性化的表情包。如此,能够实现自动生成个性化表情包。
Description
技术领域
本公开涉及图像处理技术领域,尤其涉及一种表情包生成方法及装置、存储介质。
背景技术
表情包是一种常用的社交沟通手段,通过图片或图文结合的方式可以形象的传达交流的内容,更好的实现情感的表达。在不同的群体圈子,用户在社交中用到的表情包的类型也有很大的差异,例如,同事之间,朋友之间或者家人之间用的表情包是有明显的风格差异的。然而在家人之间将宝宝人像图片转化为表情包的过程中,需要手动操作,存在自动化程度低的问题。
发明内容
本公开提供一种表情包生成方法及装置、存储介质。
根据本公开实施例的第一方面,提供一种表情包生成方法,包括:
将人像图片中人脸图片输入到表情识别模型中,得到所述人脸图片对应的第一表情标签列表;
基于所述第一表情标签列表和预设文本与第二表情标签列表的对应关系,确定所述人脸图片对应的至少一个标注文本;
确定所述人像图片对应的表情图片,所述人脸图片为所述表情图片的部分图片;
将至少一个所述标注文本标注在所述表情图片中,生成表情包。
在一些实施例中,所述基于所述第一表情标签列表和预设文本与第二表情标签列表的对应关系,确定所述人脸图片对应的至少一个所述标注文本,包括:
确定所述第一表情标签列表与所述第二表情标签列表是否存在相同的表情标签;当存在相同的表情标签时,将相同的表情标签对应的文本样本作为所述标注文本。
在一些实施例中,不同的所述文本样本具有不同的权重,所述将相同的表情标签对应的文本样本作为所述标注文本,包括:
当相同的表情标签对应的所述文本样本为多个时,选择权重最高的所述文本样本作为所述标注文本。
在一些实施例中,所述方法还包括:
将文本库中的每一条收录文本进行文本分类,得到适用于制作表情包图片的文本集合;
将所述文本集合中每一条文本样本进行标签分类,得到所述预设文本与第二表情标签列表的对应关系。
在一些实施例中,所述方法还包括:
获取新增的收录文本;
基于所述新增的收录文本,更新所述预设文本与第二表情标签列表的对应关系。
在一些实施例中,所述将至少一个所述标注文本标注在所述表情图片中,生成表情包,包括:
确定所述标注文本在所述表情图片中的标注位置;
基于所述标注位置设置所述标注文本,得到所述表情包。
在一些实施例中,所述标注位置包括:所述标注文本的标注坐标以及所述标注文本的字体标注尺寸;
所述确定所述标注文本在所述表情图片中的标注位置,包括:
基于所述表情图片的尺寸和所述标注文本的长度,确定所述字体标注尺寸;
根据所述表情图片的尺寸、所述文本的长度和所述字体标注尺寸,确定所述标注文本的标注坐标。
在一些实施例中,所述确定所述人像图片对应的表情图片,包括:
对所述人脸图片的图片框进行扩充,得到表情框;
基于所述表情框对所述人像图片进行裁剪,得到所述表情图片。
根据本公开实施例的第二方面,提供一种表情包生成装置,所述装置包括:
第一确定模块,配置为将人像图片中人脸图片输入到表情识别模型中,得到所述人脸图片对应的第一表情标签列表;
第二确定模块,配置为基于所述第一表情标签列表和预设文本与第二表情标签列表的对应关系,确定所述人脸图片对应的至少一个标注文本;
第三确定模块,配置为确定所述人像图片对应的表情图片,所述人脸图片为所述表情图片的部分图片;
生成模块,配置为将至少一个所述标注文本标注在所述表情图片中,生成表情包。
在一些实施例中,第二确定模块,还配置为确定所述第一表情标签列表与所述第二表情标签列表是否存在相同的表情标签;当存在相同的表情标签时,将相同的表情标签对应的文本样本作为所述标注文本。
在一些实施例中,所述第二确定模块,还配置为当相同的表情标签对应的所述文本样本为多个时,选择权重最高的所述文本样本作为所述标注文本。
在一些实施例中,所述装置还包括:
第四确定模块,配置为将文本库中的每一条收录文本进行文本分类,得到适用于制作表情包图片的文本集合;
第五确定模块,配置为将所述文本集合中每一条文本样本进行标签分类,得到所述预设文本与第二表情标签列表的对应关系。
在一些实施例中,所述装置还包括:
获取模块,配置为获取新增的收录文本;
更新模块,配置为基于所述新增的收录文本,更新所述预设文本与第二表情标签列表的对应关系。
在一些实施例中,所述生成模块,包括:
第六确定模块,配置为确定所述标注文本在所述表情图片中的标注位置;
设置模块,配置为基于所述标注位置设置所述标注文本,得到所述表情包。
在一些实施例中,所述标注位置包括:所述标注文本的标注坐标以及所述标注文本的字体标注尺寸;
所述第六确定模块,还配置为基于所述表情图片的尺寸和所述标注文本的长度,确定所述字体标注尺寸;根据所述表情图片的尺寸、所述文本的长度和所述字体标注尺寸,确定所述标注文本的标注坐标。
在一些实施例中,所述第三确定模块,还配置为对所述人脸图片的图片框进行扩充,得到表情框;基于所述表情框对所述人像图片进行裁剪,得到所述表情图片。
根据本公开实施例的第三方面,提供一种表情包生成装置,所述装置至少包括:处理器和用于存储能够在所述处理器上运行的可执行指令的存储器,其中:
处理器用于运行所述可执行指令时,所述可执行指令执行上述第一方面中提供的表情包生成方法中的步骤。
根据本公开实施例的第四方面,提供一种非临时性计算机可读存储介质,所述计算机可读存储介质中存储有计算机可执行指令,该计算机可执行指令被处理器执行时实现如上述第一方面中提供的表情包生成方法。
本公开的实施例提供的技术方案可以包括以下有益效果:
本公开实施例确定人脸图片对应的标注文本,确定人像图片对应的表情图片,将至少一个标注文本标注在表情图片中,生成表情包。也就是说,本公开实施例能够针对人脸图片个性化制定人脸表情对应的标注文本,进而能够得到个性化的表情包。如此,能够实现自动生成个性化表情包。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
图1是本公开实施例示出的一种表情包生成方法流程图一。
图2是本公开实施例示出的一种表情包生成方法流程图二。
图3是本公开实施例示出的一种表情包生成方法流程图三。
图4是本公开实施例示出的一种表情包生成装置示意图。
图5是本公开实施例示出的一种表情包生成装置框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
图1是本公开实施例示出的一种表情包生成方法流程图一,如图1所示,应用于终端设备,终端设备执行表情包生成方法包括以下步骤:
S101、将人像图片中人脸图片输入到表情识别模型中,得到所述人脸图片对应的第一表情标签列表;
S102、基于所述第一表情标签列表和预设文本与第二表情标签列表的对应关系,确定所述人脸图片对应的至少一个标注文本;
S103、确定所述人像图片对应的表情图片,所述人脸图片为所述表情图片的部分图片;
S104、将至少一个所述标注文本标注在所述表情图片中,生成表情包。
本公开实施例中,上述表情包生成方法可应用在终端设备中,适用于在不同社交场景下传达交流内容。例如,在朋友圈社交场景下使用朋友表情包图片传达交流内容,表达真实情感;在家人群社交场景下使用宝宝表情包图片在家人之间传达交流内容,以增强家庭用户之间的粘性。
其中,终端设备可以为可穿戴式电子设备或者移动终端,该移动终端包括手机、笔记本或者平板电脑,该可穿戴式电子设备包括智能手表或者智能手环,本公开实施例不作限制。
在步骤S101中,上述人像图片可包括终端设备相册中的照片、截图或者网上下载的图片。上述人脸图片为人像图片中人脸部分的图片。
本公开实施例中,人像图片可包含有多种不同年龄段的人像。对应的,人脸图片可包括人像图片中不同年龄段人像的人脸图片。例如,该人脸图片包括:宝宝人脸图片、少年人脸图片或者老年人脸图片,本公开实施例不作限制。
需要说明的是,终端设备可通过对人像图片进行人脸检测和识别,来得到多个不同的人脸图片。例如,通过对相册中的多个照片进行人脸识别能够得到多个宝宝人脸图片。又例如,通过截取视频中的多个图片进行人脸识别,来得到多个宝宝人脸图片。
上述第一表情标签列表包括至少一个表情标签。该表情标签用于表示人脸图片所表达的表情。例如,表情标签包括但不限于笑,哭,吃手,吐舌头,嘟嘟嘴,皱眉,中立,睡觉,哈欠。比如,第一表情标签列表L1可记为:L1={笑,吐舌头};或者,L1={睡觉,哈欠}。
本公开实施例中,终端设备存储有表情识别模型,该表情识别模型的输入为人脸图片,输出为至少一个表情标签。该至少一个表情标签形成该第一表情标签列表。
其中,该表情识别模型可为通过样本表情训练卷积神经网络而形成的,能够用于对人脸图片进行表情识别。该样本表情包括但不限于笑、哭、吃手、吐舌头、嘟嘟嘴、皱眉、中立、睡觉和哈欠等表情。
需要说明的是,一个人脸图片可对应有多个表情标签。例如,人脸图片为宝宝人脸图片,该宝宝人脸图片可以对应有“笑”和“吐舌头”两个表情标签;一张宝宝人脸图片还可以对应“哭”和“皱眉”两个表情标签。
在步骤S102中,第二表情标签列表中的表情标签个数,大于或者等于第一表情标签列表中的表情标签个数。在一些实施例中,第二表情标签列表除了包含有第一表情标签列表中的表情标签外,还可包含额外的表情标签。例如,当第一表情标签列表中的表情标签为“笑”,“嘟嘟嘴”,对应的第二表情标签列表还可以包含的额外表情标签为“皱眉”、“中立”、“睡觉”和“哈欠”。
在预设文本与第二表情标签列表的对应关系中,第二表情标签列表也可包括至少一个表情标签,即一个预设文本可以对应一个或多个表情标签。
示例性地,文本“感觉自己敲可爱”,可以对应第二表情标签列表为“笑”,“嘟嘟嘴”,“吐舌头”这三个表情标签;文本“我只想睡觉”,可以对应第二表情标签列表为“哈欠”,“睡觉”这两个表情标签。
本公开实施例中,该标注文本用于表示人脸图片中人脸表情所传达的内容。该标注文本可包括人脸表情的情绪信息、状态信息或者内涵信息中的至少一种信息,但并不限于此。
上述情绪信息可包括:积极情绪信息(例如,感谢信息)和消极情绪信息(例如,大哭对应的不开心、焦虑等信息)中的至少一种。
上述状态信息可包括:日常行为信息和表达信息中的至少一种。
上述内涵信息可包括:各种笑点信息。
例如,当人脸图片中人脸表情为睡着表情时,该人脸图片对应的标注文本可包含有状态信息,该状态信息可为“天亮我睡着了”或者“宝宝好困还想睡”;当人脸图片中人脸表情为笑脸表情时,该人脸图片对应的标注文本可包含有积极情绪信息,该积极情绪信息可为“谢谢爸爸”或者“谢谢妈妈”,本公开实施例不作限制。
本公开实施例中,可先通过对人脸图片的表情识别得到第一表情标签列表,再基于第一表情标签列表和对应关系,得到人脸图片对应的标注文本,使得标注文本能够更加贴合人脸图片的表情,还能够直接通过两个表情标签列表进行对比确定标注文本,使得标注文本的确定更加准确。
在步骤S103中,人脸图片为表情图片的部分图片。该表情图片的尺寸大于或者等于人脸图片的尺寸。
本公开实施例中,该表情图片除了包括人脸图像中的人脸以外,还可包括人像图像中的背景部分和/或连接人脸的躯干部分,本公开实施例不作限制。
上述确定人像图片对应的表情图片,包括:以人像图像中的人脸为裁剪中向周围进行裁剪,将裁剪后的图片作为表情图片;或者,对人脸图片的图片框进行扩充,得到表情框,基于表情框对人脸图片进行裁剪得到表情图片。
在步骤S104中,将至少一个标注文本标注在表情图片中生成表情包,包括:将至少一个标注文本标注在表情图片中,可得到至少一个表情包图片,基于该至少一个表情包图片形成表情包。
本公开实施例中,在标注该标注文本的过程中,可将标注文本叠加在表情图片上,生成表情包。
上述将至少一个标注文本标注在表情图片中,包括:从至少一个标注文本中选择一个标注文本或者多个标注文本,标注在表情图片中。其中,本公开实施例可根据标注文本的使用频次、标注文本的长度和标注文本的语义中的至少一种,从至少一个标注文本中选择一个标注文本或者多个标注文本。
本公开实施例中,该标注文本会遮挡表情图片,因此在生成表情包的过程中可将标注文本标注在表情图片中非人脸部分。该非人脸部分包括:背景部分和连接人脸的躯干部分。例如,可将标注文本标注在表情图片的背景部分;或者,可将标注文本标注在表情图片的躯干部分。
示例性地,上述表情包中的表情包图片可为静态图片,还可为动态图片,本公开实施例不作限制。
本公开实施例中,确定人脸图片对应的标注文本,确定人像图片对应的表情图片,将至少一个所述标注文本标注在所述表情图片中,生成表情包。也就是说,本公开实施例能够针对人脸图片个性化制定人脸表情对应的标注文本,进而能够得到个性化的表情包。如此,能够实现自动生成个性化表情包。
在一些实施例中,如图2所示,所述基于所述第一表情标签列表和预设文本与第二表情标签列表的对应关系,确定所述人脸图片对应的至少一个标注文本,包括:
S102a、确定所述第一表情标签列表与所述第二表情标签列表是否存在相同的表情标签;
S102b、当存在相同的表情标签时,将相同的表情标签对应的文本样本作为所述标注文本。
本公开实施例中,第一表情标签列表包含有多个表情标签,第二表情标签列表包含有多个表情标签,可通过对比第一表情标签列表和第二表情标签列表,便可以确定是否存在相同的表情标签。
例如,第一表情标签列表包含的表情标签为“笑”,“嘟嘟嘴”和“吐舌头”;第二表情标签列表包含的表情标签为“笑”和“吐舌头”。这时,可确定第一表情标签列表和第二表情标签列表具有相同的表情标签,且相同的表情标签为“笑”和“吐舌头”。
本公开实施例中,当存在相同的表情标签时,将表情标签对应的文本样本作为标注文本。该相同的表情标签的个数可为一个或者多个,对应的,文本样本的个数也可为一个或者多个,进而标注文本也可为一个或者多个。
在一些实施例中,在相同的表情标签的个数为多个时,可以将该多个标签表情对应的文本样本全部作为标注文本,也可以从该多个标签表情对应的文本样本中选择一个或多个作为标注文本;在从该多个标签表情对应的文本样本中选择一个或多个作为标注文本时,可以基于该多个标签表情对应的文本样本的权重进行选择,比如可以选择权重最高的文本样本作为标注样本或者可以选择权重值为前3的文本样本作为标注样本,但并不限于此。
示例性地,相同的表情标签为“笑”和“吐舌头”,“笑”对应的文本可为“谢谢妈妈”,“吐舌头”对应的文本可为“感觉自己敲可爱”。此时,可将文本“谢谢妈妈”和文本“感觉自己敲可爱”均作为标注文本;或者文本“谢谢妈妈”的权重,大于文本“感觉自己敲可爱”,则可选择文本“谢谢妈妈”作为标注文本。
在一些实施例中,同一个表情标签对应的文本样本也可以是一个或多个,在为多个的情况下,可以将多个文本样本作为标注文本,也可以选择该多个文本样本中的一个作为标注文本。
本公开实施例中,可通过将第一表情标签列表中的表情标签与第二表情标签列表中的表情标签进行比较,将相同的表情标签对应的文本样本作为标注文本。如此,通过相同的表情标签便可以准确的得到不同人脸表情对应的标注文本。
在一些实施例中,所述将相同的表情标签对应的文本样本作为所述标注文本,包括:
当相同的表情标签对应的所述文本样本为多个时,选择权重最高的所述文本样本作为所述标注文本。
本公开实施例中,不同的文本样本具有不同的权重,该文本样本对应的权重可依据文本样本的使用频率和/或用户操作选择进行确定。其中,文本样本的使用频率越高,对应的可设置该文本样本对应的权重越高;在制作表情包的过程中,显示多个文本样本供用户操作选择,进而可将用户操作选择的文本样本对应的权重,设置为高于未被用户操作选择的文本样本对应的权重。
例如,多个文本样本包括:“谢谢妈妈”和“感觉自己敲可爱”,且文本“谢谢妈妈”的权重,大于文本“感觉自己敲可爱”,进而可将文本“谢谢妈妈”作为标注文本。
需要说明的是,上述相同的表情标签对应的文本样本为多个,可以理解为以下至少之一情况:第一,相同的表情标签有多个,每个表情标签对应一个或多个文本样本;第二,相同的表情标签有一个,该表情标签对应多个文本样本。
本公开实施例中,当文本样本为多个时,选择权重最高的文本样本作为标注文本,能够使得标注文本更好的反映人脸图片所表达的内容,提高标注文本选择的准确度。
在一些实施例中,所述方法还包括:
将文本库中的每一条收录文本进行文本分类,得到适用于制作表情包图片的文本集合;
将所述文本集合中每一条文本样本进行表情分类,得到所述预设文本与第二表情标签列表的对应关系。
本公开实施例中,文本库可为由第一文本库和第二文本库构成的。该第一文本库可为由现有表情包图片中的常用语形成的;第二文本库可为由社交媒体上的热词或者流行语形成的,本公开实施例不作限制。
其中,可通过网路爬虫方式搜集社交媒体中的现有表情包图片,对每一张现有表情包图片进行光学字符识别(Optical Character Recognition,OCR)提取文本样本,进而基于每一张现有表情包图片对应的文本样本,可形成第一文本库。可通过网路爬虫方式搜集社交媒体中常用热词或者流行语形成第二文本库。上述对文本库中的每一条收录文本进行文本分类,得到适用于制作表情包图片的文本集合,包括:通过文本分类模型或者第一预设规则,从文本库中选择适用于制作表情包的文本集合。
需要说明的是,上述文本分类模型为通过样本文本训练卷积神经网络得到的,能够用于对文本库中的文本进行分类,得到适用于制作表情包的文本。其中,样本文本可为文本库中的表情包图像对应的文本,还可为文本库中常用热词或者流行语,本公开实施例不作限制。
本公开实施例中,在通过文本分类模型得到文本集合的过程中,可通过文本分类模型的不同输出来确定文本集合。例如,当文本分类模型的输出为0时,确定该输入的文本不适用于制作表情包,当文本分类模型的输出为1时,确定该输入的文本适用制作表情包。
上述第一预设规则,为根据用户需求进行设置,即可通过手动选择文本库中的文本来得到文本集合。本公开实施例中,对于文本库中第一文本库中的文本,可采用文本分类模型进行分类;对于文本库中第二文本库中的文本,可采用第一预设规则进行分类。如此,通过对不同类型文本库采用不同分类方式,可提高分类准确度。
本公开实施例中,将文本集合中每一条文本样本进行标签分类,得到预设文本与第二表情标签列表的对应关系,包括:通过标签分类模型或者第二预设规则对文本集合进行分类,确定预设文本与第二表情标签列表的对应关系。
上述标签分类模型可为通过卷积神经网络训练得到的,能够用于对文本集合中的文本进行标签分类得到预设文本对应的第二表情标签列表。上述第二预设规则为根据用户需求进行设置,即可通过手动选择文本对应的表情标签。
本公开实施例中,对于文本集合中属于第一文本库中的文本,可采用标签分类模型进行分类;对于文本集合中属于第二文本库中的文本,可采用第二预设规则进行分类,本公开实施例不作限制。
需要说明的是,在通过标签分类模型进行分类的过程中,可通过标签分类模型的不同输出来确定预设文本与第二表情标签列表的对应关系。例如,标签分类模型的输入可为文本样本,输出可为N个表情标签对应的分数,可将大于分数阈值对应的至少一个表情标签形成所述文本样本对应的第二表情标签列表,即可得到预设文本与第二表情标签列表的对应关系。
示例性地,N个表情标签包括:笑,哭,吃手,吐舌头,嘟嘟嘴,皱眉,中立,睡觉,哈欠。一条文本可以分类对应多个表情标签,例如,文本“感觉自己敲可爱”,可以分类对应“笑”、“嘟嘟嘴”和“吐舌头”这三个表情标签;文本“我只想睡觉”,可以分类对应“哈欠”和“睡觉”这个两个表情标签。
本公开实施例中,先将文本库中的文本进行文本分类,再进行标签分类,来得到预设文本与第二表情标签列表的对应关系。相对于先标签分类再文本分类,能够不需要对不适用制作表情包的文本进行标签分类,能够减少分类处理量,提高分类效率。
在一些实施例中,所述方法还包括:
获取新增的收录文本;
基于所述新增的收录文本,更新所述预设文本与第二表情标签列表的对应关系。
本公开实施例中,新增的收录文本包括:不同于文本库中的当下社交媒体上的热词、流行语或者表情包的常用语。
需要说明的是,随着时间的推移,社交媒体上的热词、流行语或者表情包的常用语会发生更新,因此,本公开实施例可在预设时间间隔内获取新增的收录文本。其中,预设时间间隔可根据实际情况进行设置,该预设时间可设置为一个星期或者一个月,本公开实施例不作限制。
上述在获取新增的收录文本后,可基于新增的收录文本,更新预设文本与第二表情标签列表的对应关系。该更新方式包括:通过对新增的收录文本进行文本分类和标签分类,得到新增的对应关系,将新增的对应关系更新到预设文本与第二表情标签列表的对应关系中。
本公开实施例中,根据社交媒体中热词、流行语或者表情包的常用语的更新,及时更新预设文本与第二表情标签列表的对应关系,能够使得更新后的列表更加丰富,进而能够得到更加准确的标注文本。
在一些实施例中,所述将至少一个所述标注文本标注在所述表情图片中,生成表情包,包括:
确定所述标注文本在所述表情图片中的标注位置;
基于所述标注位置设置所述标注文本,得到所述表情包。
本公开实施例中,表情图片包括人脸部分、背景部分或者躯干部分。该标注位置可设置在背景部分或者躯干部分,本公开实施例不作限制。
需要说明的是,该标注位置包括:标注文本的标注坐标以及标注文本的字体标注尺寸。通过该字体标注尺寸可确定标注文本的尺寸。例如,可确定标注文本的长度或者宽度。
本公开实施例中,基于标注位置设置标注文本得到表情包,包括:基于标注坐标以及字体标注尺寸,将标注文本叠加在表情图片上,得到表情包。
需要说明的是,本公开实施例可自动的确定标注位置,并基于标注位置设置标注文本得到表情包,使得表情包的生成更加智能化。
在一些实施例中,所述标注位置包括:所述标注文本的标注坐标以及所述标注文本的字体标注尺寸;
所述确定所述标注文本在所述表情图片中的标注位置,包括:
基于所述表情图片的尺寸和所述标注文本的长度,确定所述字体标注尺寸;
根据所述表情图片的尺寸、所述文本的长度和所述字体标注尺寸,确定所述标注文本的标注坐标。
本公开实施例中,基于表情图片的尺寸和标注文本的长度确定字体标注尺寸,可采用公式(1)。其中,zw表示为字体标注尺寸,wd表示为表情图片尺寸中的宽度,len(text)表示为标注文本的长度,int()函数表示取整数,min()函数表示取最小值。
本公开实施例中,标注文本的标注坐标包括标注横坐标和标注纵坐标,根据表情图片的尺寸、文本的长度和字体标注尺寸,确定标注文本的标注坐标可采用公式(2)和公式(3)。其中,zx表示为标注横坐标,zy表示为标注纵坐标,zw表示为字体标注尺寸,wd表示为表情图片尺寸中的宽度,ht表示为表情图片尺寸中的高度,len(text)表示为标注文本的长度。
zx=0.5*(wd-(len(text)*zw)) (2)
zy=min(0.75*ht,ht-zw-4) (3)
本公开实施例中,通过字体标注尺寸和标注坐标,可使得标注文本更加准确的标注在表情图片中。
在一些实施例中,所述确定所述人像图片对应的表情图片,包括:
对所述人脸图片的图片框进行扩充,得到表情框;
基于所述表情框对所述人像图片进行裁剪,得到所述表情图片。
本公开实施例中,对人脸图片的图片框进行扩充得到表情框可采用公式(4)。其中,Rect1(x,y,x2,y2)表示为图片框,其中,(x,y)和(x2,y2)分别为图片框的两个顶点坐标中的横坐标和纵坐标;人脸图片的宽度记为w=x2-x;人脸图片的高度记为h=y2-y;r表示人脸扩充比例;Rect2表示为表情框;imgw表示人像图片的宽度。
Rect2=(max(0,x-r*w),max(0,y-r*w),min(x2+r*w,imgw),min(y2,(r+0.5)*w)) (4)
上述人脸扩充比例可根据实际情况进行设置,例如,人脸扩充比例可设置为0.3,本公开实施例不作限制。
为了便于理解上述实施例,本公开实施例示例如下:
如图3所示,以人脸图片为宝宝人脸图片,对应的生成宝宝表情包为例,本公开实施例生成宝宝表情包的方法包括以下步骤:
S201、对人像图片进行人脸检测和识别,确定宝宝人脸图片;
S202、将宝宝人脸图片输入到表情识别模型中,得到第一表情标签列表;
S203、将文本库中的每一条收录文本进行文本分类,得到适用于制作表情包图片的文本集合;
S204、将所述文本集合中每一条文本样本进行标签分类,得到所述预设文本与第二表情标签列表的对应关系;
S205、基于第一表情标签列表和预设的文本与第二表情标签列表的对应关系,确定宝宝人脸图片对应的至少一个标注文本;
S206、对宝宝人脸图片的图片框进行扩充,得到表情框;并基于表情框对人像图片进行裁剪,得到宝宝表情图片;
S207、将至少一个标注文本标注在宝宝表情图片中生成宝宝表情包。
本公开实施例可基于宝宝表情图片以及宝宝人脸图片对应的至少一个标注文本,生成宝宝表情包。如此,能够实现自动生成宝宝表情包。
图4是根据一示例性实施例示出的一种表情包生成装置示意图。参照图4,该表情包生成装置包括第一确定模块1001,第二确定模块1002、第三确定模块1003和生成模块1004,其中,
第一确定模块1001,配置为将人像图片中人脸图片输入到表情识别模型中,得到所述人脸图片对应的第一表情标签列表;;
第二确定模块1002,配置为基于所述第一表情标签列表和预设文本与第二表情标签列表的对应关系,确定所述人脸图片对应的至少一个标注文本;
第三确定模块1003,配置为确定所述人像图片对应的表情图片,所述人脸图片为所述表情图片的部分图片;
生成模块1004,配置为将至少一个所述标注文本标注在所述表情图片中,生成表情包。
在一些实施例中,第二确定模块,还配置为确定所述第一表情标签列表与所述第二表情标签列表是否存在相同的表情标签;当存在相同的表情标签时,将相同的表情标签对应的文本样本作为所述标注文本。
在一些实施例中,所述第二确定模块,还配置为当相同的表情标签对应的所述文本样本为多个时,选择权重最高的所述文本样本作为所述标注文本。
在一些实施例中,所述装置还包括:
第四确定模块,配置为将文本库中的每一条收录文本进行文本分类,得到适用于制作表情包图片的文本集合;
第五确定模块,配置为将所述文本集合中每一条文本样本进行标签分类,得到所述预设文本与第二表情标签列表的对应关系。
在一些实施例中,所述装置还包括:
获取模块,配置为获取新增的收录文本;
更新模块,配置为基于所述新增的收录文本,更新所述预设文本与第二表情标签列表的对应关系。
在一些实施例中,所述生成模块,包括:
第六确定模块,配置为确定所述标注文本在所述表情图片中的标注位置;
设置模块,配置为基于所述标注位置设置所述标注文本,得到所述表情包。
在一些实施例中,所述标注位置包括:所述标注文本的标注坐标以及所述标注文本的字体标注尺寸;
所述第六确定模块,还配置为基于所述表情图片的尺寸和所述标注文本的长度,确定所述字体标注尺寸;根据所述表情图片的尺寸、所述文本的长度和所述字体标注尺寸,确定所述标注文本的标注坐标。
在一些实施例中,所述第三确定模块,还配置为对所述人脸图片的图片框进行扩充,得到表情框;基于所述表情框对所述人像图片进行裁剪,得到所述表情图片。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图5是根据一示例性实施例示出的一种表情包生成装置框图。例如,装置可以是移动电话,移动电脑等。
参照图5,装置可以包括以下一个或多个组件:处理组件802,存储器804,电源组件806,多媒体组件808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制装置的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件802可以包括一个或多个处理器820来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理组件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在设备的操作。这些数据的示例包括用于在装置上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电力组件806为装置的各种组件提供电力。电力组件806可以包括电源管理系统,一个或多个电源,及其他与为装置生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述装置和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当设备处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当装置处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
I/O接口812为处理组件802和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为装置提供各个方面的状态评估。例如,传感器组件814可以检测到设备的打开/关闭状态,组件的相对定位,例如所述组件为装置的显示器和小键盘,传感器组件814还可以检测装置或装置一个组件的位置改变,用户与装置接触的存在或不存在,装置方位或加速/减速和装置的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于装置和其他设备之间有线或无线方式的通信。装置可以接入基于通信标准的无线网络,如Wi-Fi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件816经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器804,上述指令可由装置的处理器820执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
一种非临时性计算机可读存储介质,当所述存储介质中的指令由计算机的处理器执行时,使得计算机能够执行表情包生成方法,所述方法包括:
确定人像图片中人脸图片对应的至少一个标注文本;
确定所述人像图片对应的表情图片,所述人脸图片为所述表情图片的部分图片;
将至少一个所述标注文本标注在所述表情图片中,生成表情包。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本申请旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由下面的权利要求指出。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本发明的范围仅由所附的权利要求来限制。
Claims (18)
1.一种表情包生成方法,其特征在于,所述方法包括:
将人像图片中人脸图片输入到表情识别模型中,得到所述人脸图片对应的第一表情标签列表;
基于所述第一表情标签列表和预设文本与第二表情标签列表的对应关系,确定所述人脸图片对应的至少一个标注文本,其中,所述标注文本用于表示人脸图片中人脸表情所传达的内容;
确定所述人像图片对应的表情图片,所述人脸图片为所述表情图片的部分图片;
将至少一个所述标注文本标注在所述表情图片中,生成表情包。
2.根据权利要求1所述的方法,其特征在于,所述基于所述第一表情标签列表和预设文本与第二表情标签列表的对应关系,确定所述人脸图片对应的至少一个所述标注文本,包括:
确定所述第一表情标签列表与所述第二表情标签列表是否存在相同的表情标签;
当存在相同的表情标签时,将相同的表情标签对应的文本样本作为所述标注文本。
3.根据权利要求2所述的方法,其特征在于,不同的所述文本样本具有不同的权重,所述将相同的表情标签对应的文本样本作为所述标注文本,包括:
当相同的表情标签对应的所述文本样本为多个时,选择权重最高的所述文本样本作为所述标注文本。
4.根据权利要求1至3任一项所述的方法,其特征在于,所述方法还包括:
将文本库中的每一条收录文本进行文本分类,得到适用于制作表情包图片的文本集合;
将所述文本集合中每一条文本样本进行标签分类,得到所述预设文本与第二表情标签列表的对应关系。
5.根据权利要求1至3任一项所述的方法,其特征在于,所述方法还包括:
获取新增的收录文本;
基于所述新增的收录文本,更新所述预设文本与第二表情标签列表的对应关系。
6.根据权利要求1至3任一项所述的方法,其特征在于,所述将至少一个所述标注文本标注在所述表情图片中,生成表情包,包括:
确定所述标注文本在所述表情图片中的标注位置;
基于所述标注位置设置所述标注文本,得到所述表情包。
7.根据权利要求6所述的方法,其特征在于,所述标注位置包括:所述标注文本的标注坐标以及所述标注文本的字体标注尺寸;
所述确定所述标注文本在所述表情图片中的标注位置,包括:
基于所述表情图片的尺寸和所述标注文本的长度,确定所述字体标注尺寸;
根据所述表情图片的尺寸、所述文本的长度和所述字体标注尺寸,确定所述标注文本的标注坐标。
8.根据权利要求1至3任一项所述的方法,其特征在于,所述确定所述人像图片对应的表情图片,包括:
对所述人脸图片的图片框进行扩充,得到表情框;
基于所述表情框对所述人像图片进行裁剪,得到所述表情图片。
9.一种表情包生成装置,其特征在于,所述装置包括:
第一确定模块,配置为将人像图片中人脸图片输入到表情识别模型中,得到所述人脸图片对应的第一表情标签列表;
第二确定模块,配置为基于所述第一表情标签列表和预设文本与第二表情标签列表的对应关系,确定所述人脸图片对应的至少一个标注文本;
第三确定模块,配置为确定所述人像图片对应的表情图片,所述人脸图片为所述表情图片的部分图片;
生成模块,配置为将至少一个所述标注文本标注在所述表情图片中,生成表情包。
10.根据权利要求9所述的装置,其特征在于,第二确定模块,还配置为确定所述第一表情标签列表与所述第二表情标签列表是否存在相同的表情标签;当存在相同的表情标签时,将相同的表情标签对应的文本样本作为所述标注文本。
11.根据权利要求10所述的装置,其特征在于,所述第二确定模块,还配置为当相同的表情标签对应的所述文本样本为多个时,选择权重最高的所述文本样本作为所述标注文本。
12.根据权利要求9至11任一项所述的装置,其特征在于,所述装置还包括:
第四确定模块,配置为将文本库中的每一条收录文本进行文本分类,得到适用于制作表情包图片的文本集合;
第五确定模块,配置为将所述文本集合中每一条文本样本进行标签分类,得到所述预设文本与第二表情标签列表的对应关系。
13.根据权利要求9至11任一项所述的装置,其特征在于,所述装置还包括:
获取模块,配置为获取新增的收录文本;
更新模块,配置为基于所述新增的收录文本,更新所述预设文本与第二表情标签列表的对应关系。
14.根据权利要求9至11任一项所述的装置,其特征在于,所述生成模块,包括:
第六确定模块,配置为确定所述标注文本在所述表情图片中的标注位置;
设置模块,配置为基于所述标注位置设置所述标注文本,得到所述表情包。
15.根据权利要求14所述的装置,其特征在于,所述标注位置包括:所述标注文本的标注坐标以及所述标注文本的字体标注尺寸;
所述第六确定模块,还配置为基于所述表情图片的尺寸和所述标注文本的长度,确定所述字体标注尺寸;根据所述表情图片的尺寸、所述文本的长度和所述字体标注尺寸,确定所述标注文本的标注坐标。
16.根据权利要求9至11任一项所述的装置,其特征在于,所述第三确定模块,还配置为对所述人脸图片的图片框进行扩充,得到表情框;基于所述表情框对所述人像图片进行裁剪,得到所述表情图片。
17.一种表情包生成装置,其特征在于,所述装置至少包括:处理器和用于存储能够在所述处理器上运行的可执行指令的存储器,其中:
处理器用于运行所述可执行指令时,所述可执行指令执行上述权利要求1至8中任一项提供的表情包生成方法中的步骤。
18.一种非临时性计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机可执行指令,该计算机可执行指令被处理器执行时实现上述权利要求1至8中任一项提供的表情包生成方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110193597.6A CN112905791A (zh) | 2021-02-20 | 2021-02-20 | 表情包生成方法及装置、存储介质 |
US17/486,622 US11922725B2 (en) | 2021-02-20 | 2021-09-27 | Method and device for generating emoticon, and storage medium |
EP21199396.9A EP4047568A1 (en) | 2021-02-20 | 2021-09-28 | Method and device for generating emoticon, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110193597.6A CN112905791A (zh) | 2021-02-20 | 2021-02-20 | 表情包生成方法及装置、存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112905791A true CN112905791A (zh) | 2021-06-04 |
Family
ID=76124120
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110193597.6A Pending CN112905791A (zh) | 2021-02-20 | 2021-02-20 | 表情包生成方法及装置、存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11922725B2 (zh) |
EP (1) | EP4047568A1 (zh) |
CN (1) | CN112905791A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023197888A1 (zh) * | 2022-04-12 | 2023-10-19 | 华为技术有限公司 | 交互方法、设备及介质 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102054033A (zh) * | 2010-12-25 | 2011-05-11 | 百度在线网络技术(北京)有限公司 | 表情搜索引擎、使用该表情搜索引擎的表情管理系统及表情管理方法 |
US20140063236A1 (en) * | 2012-08-29 | 2014-03-06 | Xerox Corporation | Method and system for automatically recognizing facial expressions via algorithmic periocular localization |
CN104063683A (zh) * | 2014-06-06 | 2014-09-24 | 北京搜狗科技发展有限公司 | 一种基于人脸识别的表情输入方法和装置 |
US20170098122A1 (en) * | 2010-06-07 | 2017-04-06 | Affectiva, Inc. | Analysis of image content with associated manipulation of expression presentation |
CN107369196A (zh) * | 2017-06-30 | 2017-11-21 | 广东欧珀移动通信有限公司 | 表情包制作方法、装置、存储介质及电子设备 |
US20180024726A1 (en) * | 2016-07-21 | 2018-01-25 | Cives Consulting AS | Personified Emoji |
CN108280166A (zh) * | 2018-01-17 | 2018-07-13 | 广东欧珀移动通信有限公司 | 表情的制作方法、装置、终端及计算机可读存储介质 |
CN110298212A (zh) * | 2018-03-21 | 2019-10-01 | 腾讯科技(深圳)有限公司 | 模型训练方法、情绪识别方法、表情显示方法及相关设备 |
CN110458916A (zh) * | 2019-07-05 | 2019-11-15 | 深圳壹账通智能科技有限公司 | 表情包自动生成方法、装置、计算机设备及存储介质 |
CN110706312A (zh) * | 2019-09-20 | 2020-01-17 | 北京奇艺世纪科技有限公司 | 一种表情包的文案确定方法、装置及电子设备 |
CN111882625A (zh) * | 2020-07-07 | 2020-11-03 | 北京达佳互联信息技术有限公司 | 生成动态图的方法、装置、电子设备及存储介质 |
CN112036247A (zh) * | 2020-08-03 | 2020-12-04 | 北京小米松果电子有限公司 | 表情包文字生成方法、装置及存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109475294B (zh) | 2016-05-06 | 2022-08-19 | 斯坦福大学托管董事会 | 用于治疗精神障碍的移动和可穿戴视频捕捉和反馈平台 |
US20190205627A1 (en) * | 2017-12-28 | 2019-07-04 | Facebook, Inc. | Systems and methods for generating amplified facial expressions based on facial recognition |
CN111582136B (zh) * | 2020-04-30 | 2024-04-16 | 京东方科技集团股份有限公司 | 表情识别方法及装置、电子设备、存储介质 |
-
2021
- 2021-02-20 CN CN202110193597.6A patent/CN112905791A/zh active Pending
- 2021-09-27 US US17/486,622 patent/US11922725B2/en active Active
- 2021-09-28 EP EP21199396.9A patent/EP4047568A1/en active Pending
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170098122A1 (en) * | 2010-06-07 | 2017-04-06 | Affectiva, Inc. | Analysis of image content with associated manipulation of expression presentation |
CN102054033A (zh) * | 2010-12-25 | 2011-05-11 | 百度在线网络技术(北京)有限公司 | 表情搜索引擎、使用该表情搜索引擎的表情管理系统及表情管理方法 |
US20140063236A1 (en) * | 2012-08-29 | 2014-03-06 | Xerox Corporation | Method and system for automatically recognizing facial expressions via algorithmic periocular localization |
CN104063683A (zh) * | 2014-06-06 | 2014-09-24 | 北京搜狗科技发展有限公司 | 一种基于人脸识别的表情输入方法和装置 |
US20180024726A1 (en) * | 2016-07-21 | 2018-01-25 | Cives Consulting AS | Personified Emoji |
CN107369196A (zh) * | 2017-06-30 | 2017-11-21 | 广东欧珀移动通信有限公司 | 表情包制作方法、装置、存储介质及电子设备 |
CN108280166A (zh) * | 2018-01-17 | 2018-07-13 | 广东欧珀移动通信有限公司 | 表情的制作方法、装置、终端及计算机可读存储介质 |
CN110298212A (zh) * | 2018-03-21 | 2019-10-01 | 腾讯科技(深圳)有限公司 | 模型训练方法、情绪识别方法、表情显示方法及相关设备 |
CN110458916A (zh) * | 2019-07-05 | 2019-11-15 | 深圳壹账通智能科技有限公司 | 表情包自动生成方法、装置、计算机设备及存储介质 |
WO2021004114A1 (zh) * | 2019-07-05 | 2021-01-14 | 深圳壹账通智能科技有限公司 | 表情包自动生成方法、装置、计算机设备及存储介质 |
CN110706312A (zh) * | 2019-09-20 | 2020-01-17 | 北京奇艺世纪科技有限公司 | 一种表情包的文案确定方法、装置及电子设备 |
CN111882625A (zh) * | 2020-07-07 | 2020-11-03 | 北京达佳互联信息技术有限公司 | 生成动态图的方法、装置、电子设备及存储介质 |
CN112036247A (zh) * | 2020-08-03 | 2020-12-04 | 北京小米松果电子有限公司 | 表情包文字生成方法、装置及存储介质 |
Non-Patent Citations (3)
Title |
---|
RIZA VELIOĞLU; TUĞBA YILDIZ; SAVAS YILDIRIM: "Sentiment Analysis Using Learning Approaches Over Emojis for Turkish Tweets", 2018 3RD INTERNATIONAL CONFERENCE ON COMPUTER SCIENCE AND ENGINEERING (UBMK), 9 December 2018 (2018-12-09), pages 303 - 307 * |
张丽园;洪如霞;: "基于卷积神经网络情感识别的表情包输出", 豫章师范学院学报, no. 06, pages 124 - 128 * |
董飞艳: "卷积神经网络的分布式训练在表情识别中的应用", 软件, vol. 41, no. 01, 31 January 2020 (2020-01-31), pages 160 - 164 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023197888A1 (zh) * | 2022-04-12 | 2023-10-19 | 华为技术有限公司 | 交互方法、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
US11922725B2 (en) | 2024-03-05 |
EP4047568A1 (en) | 2022-08-24 |
US20220269880A1 (en) | 2022-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10013600B2 (en) | Digital image processing method and apparatus, and storage medium | |
CN110286976B (zh) | 界面显示方法、装置、终端及存储介质 | |
CN109189985B (zh) | 文本风格处理方法、装置、电子设备及存储介质 | |
WO2022237129A1 (zh) | 视频录制方法、装置、设备、介质及程序 | |
CN104408402B (zh) | 人脸识别方法及装置 | |
CN111465918B (zh) | 在预览界面中显示业务信息的方法及电子设备 | |
CN109660728B (zh) | 一种拍照方法及装置 | |
EP3340077B1 (en) | Method and apparatus for inputting expression information | |
CN113051427A (zh) | 一种表情制作方法和装置 | |
CN106789551B (zh) | 会话消息展示方法及装置 | |
CN111526287A (zh) | 图像拍摄方法、装置、电子设备、服务器、系统及存储介质 | |
CN106547850B (zh) | 表情注释方法及装置 | |
CN111797262A (zh) | 诗词生成方法、装置、电子设备和存储介质 | |
CN111783517A (zh) | 图像识别方法、装置、电子设备及存储介质 | |
US11922725B2 (en) | Method and device for generating emoticon, and storage medium | |
CN113157972A (zh) | 视频封面文案的推荐方法、装置、电子设备及存储介质 | |
CN113923517B (zh) | 一种背景音乐生成方法、装置及电子设备 | |
CN109977303A (zh) | 多媒体信息的交互方法、装置及存储介质 | |
CN110162710A (zh) | 输入场景下信息推荐方法及装置 | |
CN111831132A (zh) | 一种信息推荐方法、装置和电子设备 | |
CN111292743B (zh) | 语音交互方法及装置、电子设备 | |
CN110662103B (zh) | 多媒体对象重构方法及装置、电子设备、可读存储介质 | |
CN115830303A (zh) | 图像处理方法、装置及存储介质 | |
CN110929122B (zh) | 一种数据处理方法、装置和用于数据处理的装置 | |
CN113377271A (zh) | 文本获取方法、装置、计算机设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |