CN106803057B - 图像信息处理方法及装置 - Google Patents
图像信息处理方法及装置 Download PDFInfo
- Publication number
- CN106803057B CN106803057B CN201611018568.1A CN201611018568A CN106803057B CN 106803057 B CN106803057 B CN 106803057B CN 201611018568 A CN201611018568 A CN 201611018568A CN 106803057 B CN106803057 B CN 106803057B
- Authority
- CN
- China
- Prior art keywords
- image
- map
- information
- face part
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 38
- 238000003672 processing method Methods 0.000 title claims abstract description 30
- 238000000034 method Methods 0.000 claims abstract description 37
- 238000012545 processing Methods 0.000 claims description 40
- 241001465754 Metazoa Species 0.000 claims description 31
- 238000013507 mapping Methods 0.000 claims description 25
- 230000000694 effects Effects 0.000 claims description 18
- 230000001815 facial effect Effects 0.000 claims description 16
- 230000014509 gene expression Effects 0.000 claims description 15
- 239000000284 extract Substances 0.000 claims description 7
- 230000008859 change Effects 0.000 claims description 5
- 230000004044 response Effects 0.000 claims description 3
- 238000004519 manufacturing process Methods 0.000 claims 1
- 230000008569 process Effects 0.000 description 17
- 241000282472 Canis lupus familiaris Species 0.000 description 9
- 208000025174 PANDAS Diseases 0.000 description 8
- 208000021155 Paediatric autoimmune neuropsychiatric disorders associated with streptococcal infection Diseases 0.000 description 8
- 240000004718 Panda Species 0.000 description 8
- 235000016496 Panda oleosa Nutrition 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 241000282326 Felis catus Species 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 210000000697 sensory organ Anatomy 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 206010011469 Crying Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- -1 e.g. Species 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2621—Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/04—Real-time or near real-time messaging, e.g. instant messaging [IM]
- H04L51/046—Interoperability with other network applications or services
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/07—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
- H04L51/10—Multimedia information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/07—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
- H04L51/18—Commands or executable codes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/52—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail for supporting social networking services
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明实施例公开了一种图像信息处理方法及装置,所述方法还包括:识别第一图像中指定图形对象的第一部位,提取第一部位特征信息;根据所述第一部位特征信息与贴图的描述信息进行匹配,确定与所述第一部位匹配的第一贴图;将所述第一贴图应用到所述第一图像中的第一部位,形成显示有所述第一贴图的第二图像。
Description
技术领域
本发明涉及信息技术领域,尤其涉及一种图像信息处理方法及装置。
背景技术
随着信息技术的发展,电子设备的图像处理能力越来越强了。这里的电子设备可包括手机、平板电脑、笔记本电脑、台式电脑或可穿戴式设备等。这些电子设备可利用人脸识别技术,确定出图像中的某一个用户的人脸与哪个明星很像,这样会电子设备会显示一个文本或输出一个与图像中人脸很像的明星脸。在这个过程还是不能满足用户更多的需求和更多的趣味性操作,电子设备的智能性还很低。
发明内容
有鉴于此,本发明实施例期望提供一种图像信息处理方法及装置,至少部分解决现有技术中图像处理过程中的智能性低的问题。
为达到上述目的,本发明的技术方案是这样实现的:
本发明实施例第一方面提供一种图像信息处理方法,所述方法包括:
识别第一图像中图形对象的第一部位,提取第一部位特征信息;
根据所述第一部位特征信息与贴图的描述信息进行匹配,确定所具有的描述信息与所述第一部位特征信息匹配的第一贴图;
将所述第一贴图应用到所述第一图像中的所述第一部位,形成显示有所述第一贴图的第二图像。
本发明实施例第二方面提供一种图像信息处理装置,所述装置包括:
识别单元,用于识别第一图像中指定图形对象的第一部位,提取第一部位特征信息;
匹配单元,用于根据所述第一部位特征信息与贴图的描述信息进行匹配,确定与所述第一部位匹配的第一贴图;
形成单元,用于将所述第一贴图处理所述第一图像中的第一部位,形成显示有所述第一贴图的第二图像。
本发明实施例第三方面提供一种存储介质,存储有可执行指令,用于执行本发明实施例提供的图像信息处理方法。
本发明实施例第四方面提供一种图像处理装置,包括存储器和处理器,存储器在存储有可执行指令,用于引起处理器执行包括以下的操作:
识别第一图像中图形对象的第一部位,提取第一部位特征信息;
根据所述第一部位特征信息与贴图的描述信息进行匹配,确定所具有的描述信息与所述第一部位特征信息匹配的第一贴图;
将所述第一贴图应用到所述第一图像中的所述第一部位,形成显示有所述第一贴图的第二图像。
本发明实施例中,将智能的识别第一图像中的第一部位获得第一部位特征信息,在利用第一部位特征信息与贴图描述信息的匹配,获得与所述第一部位匹配的第一贴图,最终将第一贴图处理掉第一图像中的第一部位形成第二图像,这样的话,丰富了图像的形成和图像的表现形式,提升了图像的趣味性,简化了用户在贴图过程中的操作,提升了设备的智能性及用户使用满意度。
附图说明
图1为本发明实施例提供给的第一种图像信息处理方法的流程示意图;
图2A为本发明实施例提供的一种第一图像的效果示意图;
图2B至图2D为基于本发明实施例提供的图像信息处理方法进行图像处理之后,形成的第二图像的效果示意图;
图3A为本发明实施例提供的第一种基于本发明实施例提供的图像信息处理方法的处理效果示意图;
图3B为本发明实施例提供的第二种基于本发明实施例提供的图像信息处理方法的处理效果示意图;
图4和图5为本发明实施例提供的基于本发明实施例提供的图像信息处理方法进行图像处理之后,形成的第二图像的效果示意图;
图6-1为本发明实施例提供的第一种图像信息处理装置的结构示意图;
图6-2为本发明实施例提供的第一种图像信息处理装置的结构示意图;
图7为本发明实施例提供的第二种图像信息处理装置的结构示意图。
具体实施方式
以下结合说明书附图及具体实施例对本发明的技术方案做进一步的详细阐述。
实施例一:
如图1所示,本实施例提供了一种图像信息处理方法,所述方法包括:
步骤S110:识别第一图像中图形对象的第一部位,提取第一部位特征信息;
步骤S120:根据所述第一部位特征信息与贴图的描述信息进行匹配,确定所具有的描述信息与所述第一部位特征信息匹配的第一贴图;
步骤S130:将所述第一贴图应用到所述第一图像中的第一部位,形成显示有所述第一贴图的第二图像,下文中步骤S130也称为贴图处理。
本实施例所述的图像信息处理方法可以应用于手机、平板电脑、可穿戴示设备等终端设备中。
在步骤S110将对所述第一图像进行识别,例如通过人脸识别技术识别所述第一图像中的人脸。本实施例中所述第一图像中的指定图形对象可包括人物图形对象,动物图形对象和景物图形对象。所述人物图形对象包括对人进行图像采集形成的图形,所述动物图形对象包括对动物进行采集形成的图形,所述景物图形对象包括对各种物体或风景进行采集形成的图形对象。
作为一个示例,本实施例步骤S110中所述图形对象可以为第一图像中全部的图形图像,例如第一图像中人物、动物和景物等类型的图形对象。
作为另一个示例,本实施例步骤S110中所述图形对象可以为第一图像中的指定图形对象,指定图形对象可为电子设备默认设置的图形对象,也可以是基于用户指示确定的图形对象。
例如,本实施例中所述指定图形对象可为电子设备默认设置的类型(如人物、动物和景物至少一种)的图形对象,也可以是用户指示确定的类型的图形对象。
这里的指定图形对象可为一种或两种以上类型的图形对象。
以指定图形对象为两种以上类型的图形对象为例,当指定图形对象包括两个以上类型的图形对象时,利用所具有的描述信息与指定图形对象中第一部位的特征信息(第一部位特征信息)匹配的第一贴图,可以利用贴图,应用到第一图像中人物图形对象和动物图形对象的身体部位,使得第一图像中人物图形对象和动物图形对象的身体部位显示有相应的第一贴图,这个时候所述指定图形对象就包括人物图形对象和动物图形对象这两种类型。
可选地,所述第一部位为所述指定图形对象中的特定部分。
例如,人物图形对象中的人脸、身体或头发等各个身体部位。例如,所述第一图像可以为包括一张或多张人脸的图像。通常所述第一图像为包括一张或多张人脸的原始图像。
又例如,在步骤S110中提取所述第一部位可为所述第一图像中人物的一张或部分人脸。假设所述第一图像中包括3张人脸,若用户需要对其中一张或多张人脸进行贴图处理,这个时候用户可以通过向电子设备输入对应的选择操作;设备将根据检测到的选择操作,选定用户选中其中的一张或多张人脸确定为需要进行贴图的第一部位。值得注意的是:在本实施例中所述第一部位中的“第一”仅是泛指,并不专用于指示哪一张人脸。
所述第一贴图可为各种类型的贴图,例如人物贴图、动物贴图或景物贴图等。在本实施例中所述第一贴图指的是众多贴图中与所述第一部位特征信息相匹配的贴图。例如,通过提取第一部位信息的提取,发现第一部位展现的是一个憨态可掬的人物形象,这个时候贴图中的熊猫脸贴图的描述信息也包括憨态可掬。显然这个熊猫脸贴图即可为与所述憨态可掬的人物形象(即所述第一部位)匹配的第一贴图。
作为步骤S130中将第一贴图应用到所述第一图像中的第一部位的一个示例,在步骤S130中,将所述第一贴图替换所述第一部位,形成显示有所述第一贴图的第二图像。若利用熊猫脸替换一个人像A的人脸,则替换形成的第二图像中不再显示有所述人像A的人脸,而是在所述人像A的人脸位置处显示有所述熊猫脸贴图。
作为步骤S130中将第一贴图应用到所述第一图像中的第一部位的另一个示例,所述步骤S130可包括:电子设备自动将第一贴图调整到与所述第一部位的大小相适配,然后覆盖在所述第一部位之上。
而对于前述所述第一贴图替换所述第一部位的处理来说,作为一个示例;可以直接去除所述第一图像中的第一部位,再将所述第一贴图置 于被去除的第一部位的图像部分对应的位置。
具体来说,对于上述方式1),可以这样实现:电子设备自动将第一贴图调整到与所述第一部位的大小相适配,基于调整后的第一贴图制作图层,图层的尺寸与第一图像一致,调整后的第一贴图在图层中的位置与第一部位在第一图像中的位置一致,将基于第一贴图制作的图层覆盖到第一图像,实现第一图像的第一部位被第一贴图覆盖的显示效果。另外,根据需要,图层中除第一贴图之外的区域设置有透明效果或不同程度的半透明效果。
值得注意的是,所述第一贴图包括静态贴图和动态贴图两种。所述静态贴图通常只包括一张图片;而所述动态贴图是由至少两种(或两个)贴图,在形成的第二图像进行显示时,动态贴图所包括的至少两种(或两个)贴图以一定频率进行切换显示,进而第一部位会发生形态或内容的变化,从而呈现出动态效果。
例如,假设所述第一贴图为动态贴图,该动态贴图包括三张猫的表情贴图,形成第二图像之后,第二图像在显示时,会依次在三张猫的标签贴图之间进行切换,形成动态显示效果。
以图形对象为人物,第一部位为人脸为例为例,所述步骤S130的具体实现可包括:
通过人脸识别技术定位所述第一部位在所述第一图像中的第一位置;
将所述第一贴图贴到所述第一位置处,形成所述第二图像。在具体的实现过程中,还可包括将所述第一贴图的尺寸调整到与所述第一部位的尺寸相匹配,和/或,将所述第一贴图的显示色调调整到与所述第一部位的显示色调一致后,再根据所述第一位置将调整后的所述第一贴图应用到所述第一图像的第一部位。这样就能够提高第二图像的显示效果。
在具体的实现过程中,设备上设置有触发执行上述步骤S110至步骤S130 的实体控件或虚拟控件,通过实体控件或虚拟控件的检测贴图操作,在检测到所述贴图操作之后,设备将自动顺序执行上述步骤S110至步骤S130。
在具体的实现过程中,所述方法还可包括:存储所述第二图像和/或所述第一图像的操作。在形成所述第二图形的操作界面上设置有分享入口,当检测到分享操作时,可以将所述第二图像分享到指定的网页或应用中。
在分享时,为了提高分享的趣味性,当检测到分享第二图像的操作之后,电子设备还会在分享所述第二图像之后,自动分享第一图像,并将第一图像分享到已经分享了所述第二图像的指定网页或应用中,这样用户就不用实现两次分享操作,来达到揭晓第二图像中谜底的效果。
示例性地,电子设备响应于针对第二图像的分享操作并分享第二图像至指定的网页或应用后,并在自动分享第一图像之前,检测是否满足预定条件,例如,包括:1)分享第二图像之后的等待时间到达;2)第二图像的访问用户提交第二图像中图形对象的错误预测结果的次数到达预定次数;3)第二图像的访问用户提交第二图像中图形对象的正确预测结果。在满足预定条件时将第一图像分享到已经分享了所述第二图像的指定网页或应用中。
结合一个实际的使用场景进行说明,用户使用手机为多个朋友拍摄合影的照片,这里,设定用户已经在手机中指定图形对象的类型为人物,手机对于拍摄的图像(第一图像)采用边缘检测算法识别出各个朋友的轮廓,进一步使用人脸检测算法检测图像中分布有朋友人脸的部位(第一部位),基于人脸提取出各朋友的特征信息(如性别、年龄和面部表情类型等),匹配出与各朋友的人脸匹配的贴图(第一贴图)并应用到图像中的人脸部位,应用有贴图的图像(第二图像)被用户分享到博客,供博客好友猜测人脸部位应用有贴图的朋友的真实身份,如果猜测正确,或者,连续猜测三次则将用户拍摄的原始图像 (第一图像)分分享到博客,供博客好友查看。
当然,所述电子设备还可在检测到分享第一图像的操作时,将第一图像和第二图像横排并列排版的方式分享到指定的网页或应用中,方便接收到分享的用户对照查看第一图像和第二图像。这样用户在执行分享操作时,就不用再去额外的勾选第一图像或找到第一图像单独分享。这里的指定的网页,例如微博,接受分享的应用可包括微信或QQ等应用。
显然本实施例提供了一种图像处理方法,更好的利用现有设备的软硬件资源,进行人脸与各种贴图之间的匹配替换,从而获得表现形式丰富,趣味性强的图像,且简化了用户在贴图过程中的操作,提升了设备的智能性及用户使用满意度。
基于本实施例所述图像处理方法,图2A是作为所述第一图像的原图像,图2B为利用动物贴图进行对图2A所示的图像中人脸进行贴图处理之后形成的包括动物贴图的第二图像。图2C是对图2A所示的图像中人脸进行贴图处理之后形成的包括卡通贴图的第二图像。图2D为对图2A所示的图像中人脸贴图处理形成的包括面具贴图的第二图像。通过图2A至图2D可知,进行了贴图处理之后,形成的第二图像与第一图像有很大的区别,第二图像表达的信息与第一图像表达的信息差异很大,形成的第二图像的趣味性很强,丰富了图像的形成和趣味性表达。
图3A所示的为基于本实施例中所述图像处理方法,以人脸为第一部位执行的流程,首先,从原始图像中采集人脸特征信息;其次,将人脸特征信息与狗贴图的描述信息进行匹配,最后贴图处理形成了第二图像。
图3B所示的为基于本实施例中所述图像处理方法,以人体作为第一部位进行贴图处理的效果示意图,在图3B左图中是未贴图处理之前的第一图像,图3B中右图形成的为贴图处理之后的第二图像。在3B所示的第二图像中,将第一图像中的人体替换成了马身,显然形成了一个信息量差别大且趣味性很浓的第二图像。
实施例二:
如图1所示,本实施例提供了一种图像信息处理方法,所述方法包括:
步骤S110:识别第一图像中指定图形对象的第一部位,提取第一部位特征信息;
步骤S120:根据所述第一部位特征信息与贴图的描述信息进行匹配,确定与所述第一部位匹配的第一贴图;
步骤S130:将所述第一贴图应用到所述第一图像中的第一部位,形成在所述第一部位显示有所述第一贴图的第二图像。
所述步骤S110可包括:
识别所述第一部位并提取所述第一部位的性别特征、年龄特征、脸部轮廓特征、形体特征及表情特征的至少之一。
在本实施例中所述第一部位特征信息包括性别特征,例如是男还是女。所述年龄特征可以小孩、青年或老年人等。所述脸部轮廓信息可包括长脸、方脸、圆脸或尖脸等。所述脸部轮廓特征还可包括人脸中五官的轮廓、五官之间的位置等能够标识人脸的特征。所述形体特征,可以包括人脸的胖瘦,人像的胖瘦等。这样可以根据多个人像之间的比对等方式来确定。所述表情特征,通过人脸识别可以看到当前的第一部位是笑的、哭的及没有表情的。
当然,在具体实现时,所述第一部位特征信息还可包括脸部佩戴饰物特征,例如人脸是否有戴眼镜、戴的眼镜是透明眼镜还是墨镜等本实施例中提到的所述第一部位特征信息不局限于以上所述。
在步骤S130中会将这些第一部位特征信息与贴图的描述信息进行匹配,确定出所述第一贴图。如,依据所述脸部轮廓信息与明星贴图的描述信息进行匹配,找到与该第一部位相似的明星贴图。再比如,将所述表情特征与动物贴图的描述信息相匹配,找到与所述表情特征相匹配的动物贴图。例如,在第一图像中有一张愤怒的脸,可以将愤怒的小鸟等贴图替换该张愤怒的脸,形成一张趣味性很强的第二图像。
实施例三:
如图1所示,本实施例提供了一种图像信息处理方法,所述方法包括:
步骤S110:识别第一图像中指定图形对象的第一部位,提取第一部位特征信息;
步骤S120:根据所述第一部位特征信息与贴图的描述信息进行匹配,确定与所述第一部位匹配的第一贴图;
步骤S130:将所述第一贴图应用到所述第一图像中的第一部位,形成显示有所述第一贴图的第二图像。
所述步骤S120可包括:
将所述第一部位特征信息与明星贴图、动物贴图、卡通贴图、电影贴图及面具贴图的其中之一的描述信息进行匹配。
在本实施例中所述明星贴图为各种贴图中定义为知名人士的人像,例如,娱乐明星贴图,体育明星贴图、政客明星贴图。通常明星贴图中包括的是明显的人脸。所述动物贴图可包括各种动物的贴图,例如猫、狗等各种宠物或各种野生动物的贴图,通常所述动物贴图也是包括各种宠物的头部图像。所述卡通贴图可包括各种卡通动漫人物的贴图,通常也是包括卡通形象或动漫形象的脸部或头部贴图。所述面具贴图可包括各种类型的小丑面具、京剧脸谱面具等。所述电影贴图可为来自电影中各种元素的贴图,例如电影人物贴图、电影动物贴图及电影造型贴图等。
在具体实现时,所述贴图还可包括景物贴图,例如各种花的贴图,各种建筑的贴图。
所述步骤S120中,可以根据实施例二中所述性别特征,确定明星贴图包括明星的性别,根据所述年龄特征选择贴图的人物的年纪或动物的大小,还可包括利用所述脸部轮廓特征查找与该脸部特征轮廓相同或相似的明显脸贴图等。再比如,利用所述形体特征选择对应的动物贴图,再比如根据所述表情特征,确定贴图中象形的表情等。
所述贴图还可以根据部位的不同进行分类,可以分为脸部贴图、肢体贴图、躯干贴图等各种贴图;这个时候所述步骤S120还包括:确定所述第一部位对应的贴图类型;根据所确定的贴图类型,将对应类型的贴图的描述信息与所述第一部位特征信息进行匹配,确定所具有的描述信息与所述第一部位特征信息匹配的第一贴图。
总之,本实施例所述图像信息处理方法,可以根据各种第一部位特征信息中的一种或多种贴图的描述信息进行匹配,确定出一个与所述第一部位匹配的第一贴图。在具体的实现过程中,所述方法还包括:检测用户指示;根据用户指示确定与所述第一部位匹配的贴图的种类。例如,用户A拥有一张包括用户 B人脸的图像,想将用户B的人脸换成宠物头像;这个时候,用户A可以通过向电子设备输入选择宠物头像作为贴图的用户指示,这样电子设备在检测到所述用户指示之后,在执行所述图像信息处理方法的过程中,将选择宠物头像贴图的描述信息与所述第一部位特征信息进行匹配,从而选择出宠物头像的贴图中与所述第一部位最匹配的第一贴图。在步骤S130中将选择出的第一贴图处理掉所述用户B人脸。这样就形成了第二图像中包括的用户B的身体加上宠物头像,从而简便的形成了趣味头像。
在进行本实施例所述图像信息处理的显示界面中,可以显示选定贴图种类的勾选框或对话框,用于可以勾选对应的勾选框或参与对应的对话,简便的完成所述贴图种类的选择。例如,如图3A所示,在图像的下方,有各种贴图的选中图标,在图3A中用半透明的阴影表示的为狗的贴图,且呈现半阴影状表示当前选择了狗的贴图来替换图像中的人脸。在图3A展示的贴图下方是形成第二图像的各种操作控件;在此就不一一介绍了。
总之,本实施例中若用户未指定贴图种类或电子设备未设置默认选择贴图种类时,在步骤S120中可将所述第一部位特征信息与各个种类贴图的描述信息进行匹配,确定出最满足所述第一部位特征信息的第一贴图,进而在后续步骤中进行所述第一部位的替换,形成具有趣味性的第二图像。
实施例四:
如图1所示,本实施例提供了一种图像信息处理方法,所述方法包括:
步骤S110:识别第一图像中指定图形对象的第一部位,提取第一部位特征信息;
步骤S120:根据所述第一部位特征信息与贴图的描述信息进行匹配,确定与所述第一部位匹配的第一贴图;
步骤S130:将所述第一贴图应用到所述第一图像中的第一部位,形成显示有所述第一贴图的第二图像。
所述方法还包括:
在所述第二图像形成标签信息;具体如,在在所述第二图像中对应于所述第一部位的相邻区域(如上方或者左侧)显示标签信息。当然,在第二图像中形成的标签信息还可以位于所述第二图像中的任意一个位置,不局限于对应于所述第一部位的周围。
在本实施例中所述方法还包括,显示标签信息。这里的标签信息可为所述贴图的特征描述。例如,所述标签信息可包括所述第一贴图的名称和主要特点。具体的如,所述标签信息包括所述第一贴图的贴图名称、所述第一贴图的描述信息和所述第一贴图映射的趣味对白的至少其中之一。例如,所述第一贴图为熊猫,可在所述标签信息可包括如下内容“熊猫,憨态可掬”的文字或图片内容。这样显然会增加第二图像的信息量,提高第二图片的趣味性或信息传达性。
当然所述标签信息还可包括所述第一部位特征信息的标签信息,包括根据所述第一部位特征信息形成的评价信息。例如“如花美貌”等各种信息。
所述标签信息还可包括贴图匹配结果的标签信息,例如,没有找到与某一个人脸特征信息相匹配的第一贴图,此时,就可以通过所述标签信息向用户传达匹配结果。例如,目前将一幅包括多张人脸的图像与各种狗的贴图的描述信息进行匹配,发现其中某一张人脸没有匹配成功到狗的贴图。此时,可以通过标签信息给出如下文字内容:“无法匹配,脸部特征奇特,没有狗缘”等趣味语句,提升第二图像的趣味性和用户的使用满意度。
在图3A中显示有标签信息,例如,图3A中的“沙皮犬”及“无法匹配,没有狗缘”等标签信息。在图3A中的标签信息性显示在被替换的人脸(第一部位)的周围,即此时的标签信息显示在所述第二图像中对应于第一部位的周围。
在图4中显示有标签信息“教练,我想打篮球!!”;在图5中显示有“面对坏人,力量超过智商”。显然在图4和图5中标签信息未显示在被替换的人脸(即第一部位)的周围,而是显示在第二图像中的下半部。
实施例五:
如图6-1所示,本实施例提供一种图像信息处理装置,所述装置包括:
识别单元110,用于识别第一图像中指定图形对象的第一部位,提取第一部位特征信息;
匹配单元120,用于根据所述第一部位特征信息与贴图的描述信息进行匹配,确定与所述第一部位匹配的第一贴图;
形成单元130,用于将所述第一贴图应用到所述第一图像中的第一部位,形成显示有所述第一贴图的第二图像。
本实施例所述的图像信息处理装置可应用于各种类型的电子设备中,例如手机、平板电脑或可穿戴式设备,笔记本电脑或台式电脑等各种类型的电子设备。
所述识别单元110、匹配单元120和形成单元130都可对应于处理器或处理电路。所述处理器可包括中央处理器、微处理器、数字信号处理或可编程阵列等处理结构。所述处理电路可包括专用集成电路。
所述识别单元110、匹配单元120和形成单元130可集成对应于相同的处理器或处理电路,也可以分别对应不同的处理器或处理电路。当所述识别单元 110、匹配单元120和形成单元130集成对应于同一个处理器或处理电路时,所述处理器或处理电路可以采用时分复用或并发线程来实现上述所述识别单元 110、匹配单元120和形成单元130的功能。当然所述装置还可对应于存储介质,该存储介质能够与所述处理器或处理电路通过总线等结构相连,在该存储介质可存储所处处理器或处理电路能够执行的指令。所述处理器或处理电路读取并执行上述指令,可以实现上述各个功能单元的功能。
本实施例所述图像信息处理装置可为用于实施前述实施例一至实施例四所述的图像信息处理方法的硬件结构;能够自动进行信息匹配,并执行第一图像中的指定图形对象的第一部位的进行贴图处理,形成了具有趣味性或不同于第一图像的第二图像,丰富了图像的形成方式,提高了装置的智能性及用户使用满意度。
实施例六:
如图6-1所示,本实施例提供一种图像信息处理装置,所述装置包括:
识别单元110,用于识别第一图像中指定图形对象的第一部位,提取第一部位特征信息;
匹配单元120,用于根据所述第一部位特征信息与贴图的描述信息进行匹配,确定与所述第一部位匹配的第一贴图;
形成单元130,用于将所述第一贴图应用到所述第一图像中的第一部位,形成显示有所述第一贴图的第二图像。
所述识别单元110,具体用于识别出所述第一图像中人物和动物中至少一个图形对象,从所识别出的图形对象中识别所述第一部位并提取所述第一部位的性别特征、年龄特征、脸部轮廓特征、形体特征及表情特征的至少之一。
总之,本实施例中所述识别单元110识别的特征可为所述第一部位的至少一个特征。例如所述第一部位为脸部,则所述第一部位特征可包括脸部轮廓特征、表情特征等信息。当然,所述第一部位为人物图形对象的身体,可能识别的将是所述形体特征等;具有结构简单及实现简便的特点。
实施例七:
如图6-1所示,本实施例提供一种图像信息处理装置,所述装置包括:
识别单元110,用于识别第一图像中指定图形对象的第一部位,提取第一部位特征信息;
匹配单元120,用于根据所述第一部位特征信息与贴图的描述信息进行匹配,确定与所述第一部位匹配的第一贴图;
形成单元130,用于将所述第一贴图应用到所述第一图像中的第一部位,形成显示有所述第一贴图的第二图像。
本实施例是在前述实施例五或实施例六所述的装置上的进一步限定。在本实施例中,所述匹配单元120,具体用于将所述第一部位特征信息与明星贴图、动物贴图、卡通贴图、电影贴图及面具贴图的至少其中之一的描述信息进行匹配。可以将所述第一部位特征信息与各种贴图进行的描述信息的至少一个进行匹配,得到符合匹配条件的第一贴图。在本实施例中所述贴图的种类繁多,从而可以满足用户需要进行各种贴图处理,形成自己想要看到的第二图像,提高了电子设备的智能性及用户使用满意度。
实施例八:
如图6-1所示,本实施例提供一种图像信息处理装置,所述装置包括:
识别单元110,用于识别第一图像中指定图形对象的第一部位,提取第一部位特征信息;
匹配单元120,用于根据所述第一部位特征信息与贴图的描述信息进行匹配,确定与所述第一部位匹配的第一贴图;
形成单元130,用于将所述第一贴图应用到所述第一图像中的第一部位,形成显示有所述第一贴图的第二图像。
所述识别单元110,具体用于从所述第一图像中识别在电子设备中默认设置的图形对象的第一部位,或者,从所述第一图像中识别用户预先指定的图形对象的第一部位。
所述识别单元110,具体用于从所述第一图像中识别出人物、动物和景物中至少两种图形对象,并识别出所述至少两种图形对象中具有特定部分的所述第一部位。
所述识别单元110,具体用于从所述第一图像中识别出各图形对象的具有特定部分的候选的所述第一部位,根据用户操作在候选的所述第一部位中选定需要进行贴图处理的所述第一部位。
所述匹配单元120,具体用于确定所述第一部位对应的贴图类型;根据所确定的贴图类型,将对应类型的贴图的描述信息与所述第一部位特征信息进行匹配,确定所具有的描述信息与所述第一部位特征信息匹配的第一贴图。
所述匹配单元120,具体用于检测用户指示;根据用户指示确定与所述第一部位匹配的贴图的种类。
所述形成单元130,还用于将所述第一贴图应用到所述第一图像中的所述第一部位之前,将所述第一贴图的尺寸调整到与所述第一部位的尺寸相匹配,和/或将所述第一贴图的显示色调调整到与所述第一部位的显示色调一致。
所述形成单元130,具体用于定位所述第一部位在所述第一图像中的第一位置,根据所述第一位置将所述第一贴图叠加到所述第一图像中的所述第一位置;或者,去除所述第一图像中的所述第一部位,将所述第一贴图置于被去除的所述第一部位对应的位置。
所述形成单元130,还用于所述第一贴图为动态贴图时,将所述第一贴图包括的各个贴图进行切换显示,在所述第一部位形成形态或内容的变化的动态效果。
所述形成单元130,还用于基于所述第一贴图的标签信息、所述第一部位特征信息的标签信息和贴图匹配结果的标签信息的至少之一,在所述第二图像形成标签信息。
具体如,在在所述第二图像中对应于所述第一部位的周围显示标签信息。
如图6-2所示,基于图6-1,图像信息处理装置还包括:
分享单元140,用于响应于针对所述第二图像的分享操作,将所述第二图像分享到指定的网页或应用中,检测到满足预定条件时,将所述第一图像分享到所述指定的网页或应用中。
所述分享单元140,具体用于响应于针对所述第一图像的分享操作,将所述第一图像、以及所述第二图像以并列排版的方式分享到指定的网页或应用中。
所述分享单元140,具体用于将所述第二图像分享到指定的网页或应用中,检测到满足预定条件时,将所述第一图像分享到所述指定的网页或应用中。
当然,所述装置还包括:
显示单元,用于在所述第二图像中对应于所述第一部位的周围显示标签信息。
在本实施例中所述装置还提供了显示单元,所述显示单元可对应于各种类型的显示屏,例如,液晶显示屏、电子墨水显示屏、投影显示屏或有机发光二极管显示屏等。这些显示屏都能够显示第二图像,并且在所述第二图像对应于第一部位的周围显示标签信息。这些标签信息可以增加所述第二图像的信息量,丰富第二图像。在具体的实现过程中,所述装置还可包括存储单元,该存储单元存储有第二图像及所述标签信息。所述装置还可包括通信单元,通过连接到社交应用分享形成的所述第二图像。所述存储单元可对应于各种存储介质。所述通信单元可对应于各种类型的通信接口,例如,有线接口中的电缆接口和光缆接口,无线接口中的各种类型的天线。
作为本实施例的进一步改进,所述标签信息可包括在所述第一贴图的标签信息和第一部位特征信息的标签信息和贴图匹配结果的标签信息的至少其中之一。在本实施例中所述标签信息可为第一贴图的标签信息、第一部位特征信息的标签 信息或贴图匹配结果的标签信息。这里的标签信息可为标题,特征描述或各种类型的趣味对白等。
以下结合上述实施例提供两个具体示例:
示例一:
本示例提供一种图像信息处理方法:
选择宠物贴图;
自动检测原始图像中的人脸;
提取原始图像中各个人脸的性别、年龄、胖瘦等特征信息。
自动将提取的特征信息匹配与宠物贴图的描述信息进行匹配。
最后,将匹配得到的宠物贴图面部自动叠加在对应的人脸上,并在脸的旁边贴上标签信息。与此同时,在百千内容的展示上,也会通过酷炫的动效,来增强体验的趣味感。
例如,电子设备通过人脸识别技术来分析检测人脸的特征信息为:性别男,年龄30岁,脸型偏胖。最后的匹配成功的贴图为熊猫。
然后,在信息分析的过程中,人的面部会通过动画的形式,反馈给用户正在进行对面部识别处理。最后,将匹配的熊猫头像覆盖在对应人像的面部,完成人脸的替换。
示例二:
本发明实施例还提供了一个用于实现本发明实施例所述图像信息处理方法的图像处理装置的结构示意图。如图7所示,所述装置包括处理器302、存储介质304以及至少一个外部通信接口301;所述处理器302、存储介质304以及外部通信接口301均通过总线303连接。所述处理器302可为微处理器、中央处理器、数字信号处理器或可编程逻辑阵列等具有处理功能的电子元器件。
所述存储介质304上存储有计算机可执行指令;所述处理器302执行所述存储介质304中存储的所述计算机可执行指令可实现实施例一至实施例四中任意一个图像信息处理方法。
示例三:
本发明实施例前文中均以对第一图像进行贴图处理进行说明,可以理解地,对第一图像进行贴图处理适用于这样的场景:
场景1)应用于智能手机、平板电脑等移动终端,用户利用智能手机、平板电脑等拍摄照片,对照片中的人脸(当然,也可以为其他的图形对象)提取特征,如基于人脸所提取的年龄、性别和表情等特征,确定相匹配的贴图,如不同主题的贴图,基于相匹配的贴图对人脸进行贴图处理形成新的照片,新照片中人脸部位显示为相匹配的贴图,实现了对拍摄的照片进行实时贴图处理形成新照片,便于用户进行分享等操作。
虽然上述场景是以对拍摄的照片进行贴图处理为例进行说明,但是对于本领域的技术人员来说,可以理解地,本发明实施例提供的信息处理方法可以应用于拍摄视频并对拍摄的人脸(当然,可以为其他类型的图形对象,抑或是图形对象的其他的部位)进行实时贴图处理,结合场景2)进行说明。
场景2)
在用户使用手机自拍时,手机在屏幕中显示实时采集的图像,通过人脸识别技术识别出用户的脸部并提取特征信息,基于特征信息,与不同主题(当然,用户可以预设主题)的候选贴图的描述信息进行匹配,如卡通人物主题贴图和电影人物主题贴图等的描述信息进行匹配,得到匹配程度最高的若干贴图供用户选择,基于用户选中的贴图,对采集的视频中各帧图像的人脸部位进行贴图处理,实现对手机采集的视频中的人脸实时应用贴图的效果。
特别地,对用户的脸部特征进行实时提取,从而不断匹配出与用户变换的表情相匹配的贴图,这样在贴图处理后的视频中,人脸的贴图会跟随人脸的表情动态变化,增进了贴图处理的智能化程度。
当然,本发明实施例同样适用于用户利用手机对多个其他的用户拍摄视频时进行贴图处理,基于被拍摄的多个用户的面部特征,从候选的贴图主题中选取与描述信息与各用户的面部特征匹配的贴图。
例如,为多个用户的面部匹配的贴图从同一主题(如卡通主题)的候选贴图匹配得到,实现各用户的面部贴图一致的风格。当然,也可以基于各用户的面部特征从不同的贴图主题中匹配贴图,实现各用户的面部贴图的风格“混搭”的效果,根据实际需求选用。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元,即可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本发明各实施例中的各功能单元可以全部集成在一个处理模块中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (18)
1.一种图像信息处理方法,其特征在于,包括:
识别第一图像中图形对象的人脸部位,提取人脸部位特征信息;
检测用户指示,并根据所述用户指示确定与所述人脸部位匹配的贴图类型;
根据所确定的贴图类型,将对应所述贴图类型的贴图的描述信息与所述人脸部位特征信息进行匹配,确定所具有的描述信息与所述人脸部位特征信息匹配的第一贴图;
将所述第一贴图的尺寸调整到与所述人脸部位的尺寸相匹配,基于调整后的第一贴图制作图层,所述图层的尺寸与所述第一图像的尺寸一致,所述调整后的第一贴图在所述图层中的位置与人脸部位在第一图像中的位置一致;将所述图层覆盖到所述第一图像,形成显示有所述第一贴图的第二图像;
在所述第二图像中对应于所述人脸部位的相邻区域显示标签信息;所述标签信息包括以下至少之一:所述第一贴图的标签信息、所述人脸部位特征信息的标签信息和所述贴图匹配结果的标签信息;
响应于针对所述第二图像的分享操作,将所述第二图像分享到指定的网页或应用中,检测到满足预定条件时,将所述第一图像分享到所述指定的网页或应用中;所述预定条件包括以下至少之一:分享所述第二图像之后的等待时间到达;所述第二图像的访问用户提交所述第二图像中图形对象的错误预测结果的次数到达预定次数;所述第二图像的访问用户提交第二图像中图形对象的正确预测结果;
响应于针对所述第一图像的分享操作,将所述第一图像以与所述第二图像并列排版的方式分享到指定的网页或应用中。
2.根据权利要求1所述的方法,其特征在于,所述识别第一图像中图形对象的人脸部位,包括:
从所述第一图像中识别在电子设备中默认设置的图形对象的人脸部位,或者,从所述第一图像中识别用户预先指定的图形对象的人脸部位。
3.根据权利要求1所述的方法,其特征在于,所述识别第一图像中图形对象的人脸部位,包括:
从所述第一图像中识别出人物、动物和景物中至少两种图形对象,并识别出所述至少两种图形对象中具有特定部分的所述人脸部位。
4.根据权利要求1所述的方法,其特征在于,所述识别第一图像中图形对象的人脸部位,包括:
从所述第一图像中识别出各图形对象的具有特定部分的候选的所述人脸部位,根据用户操作在候选的所述人脸部位中选定需要进行贴图处理的所述人脸部位。
5.根据权利要求1所述的方法,其特征在于,所述识别第一图像中图形对象的人脸部位,提取人脸部位特征信息,包括:
识别出所述第一图像中人物和动物中至少一个图形对象,从所识别出的图形对象中识别出所述人脸部位,基于所述人脸部位提取性别特征、年龄特征、脸部轮廓特征、形体特征及表情特征至少之一。
6.根据权利要求1所述的方法,其特征在于,所述方法还包括:
将所述人脸部位特征信息与明星贴图、动物贴图、卡通贴图、电影贴图及面具贴图中至少之一的描述信息进行匹配。
7.根据权利要求1所述的方法,其特征在于,还包括:
将所述第一贴图的显示色调调整到与所述人脸部位的显示色调一致。
8.根据权利要求1所述的方法,其特征在于,还包括:
所述第一贴图为动态贴图时,将所述第一贴图包括的各个贴图进行切换显示,在所述人脸部位形成形态或内容的变化的动态效果。
9.一种图像信息处理装置,其特征在于,包括:
识别单元,用于识别第一图像中指定图形对象的人脸部位,提取人脸部位特征信息;
匹配单元,用于检测用户指示,并根据所述用户指示确定与所述人脸部位匹配的贴图类型;根据所确定的贴图类型,将对应所述贴图类型的贴图的描述信息与所述人脸部位特征信息进行匹配,确定所具有的描述信息与所述人脸部位特征信息匹配的第一贴图;
形成单元,用于将所述第一贴图的尺寸调整到与所述人脸部位的尺寸相匹配,基于调整后的第一贴图制作图层,所述图层的尺寸与所述第一图像的尺寸一致,所述调整后的第一贴图在所述图层中的位置与人脸部位在第一图像中的位置一致;将所述图层覆盖到所述第一图像,形成显示有所述第一贴图的第二图像;
所述形成单元,还用于在所述第二图像中对应于所述人脸部位的相邻区域显示标签信息;所述标签信息包括以下至少之一:所述第一贴图的标签信息、所述人脸部位特征信息的标签信息和所述贴图匹配结果的标签信息;
分享单元,用于响应于针对所述第二图像的分享操作,将所述第二图像分享到指定的网页或应用中,检测到满足预定条件时,将所述第一图像分享到所述指定的网页或应用中;所述预定条件包括以下至少之一:分享所述第二图像之后的等待时间到达;所述第二图像的访问用户提交所述第二图像中图形对象的错误预测结果的次数到达预定次数;所述第二图像的访问用户提交第二图像中图形对象的正确预测结果;
所述分享单元,还用于响应于针对所述第一图像的分享操作,将所述第一图像以与所述第二图像并列排版的方式分享到指定的网页或应用中。
10.根据权利要求9所述的装置,其特征在于,
所述识别单元,具体用于从所述第一图像中识别在电子设备中默认设置的图形对象的人脸部位,或者,从所述第一图像中识别用户预先指定的图形对象的人脸部位。
11.根据权利要求9所述的装置,其特征在于,
所述识别单元,具体用于从所述第一图像中识别出人物、动物和景物中至少两种图形对象,并识别出所述至少两种图形对象中具有特定部分的所述人脸部位。
12.根据权利要求9所述的装置,其特征在于,
所述识别单元,具体用于从所述第一图像中识别出各图形对象的具有特定部分的候选的所述人脸部位,根据用户操作在候选的所述人脸部位中选定需要进行贴图处理的所述人脸部位。
13.根据权利要求9所述的装置,其特征在于,
所述识别单元,具体用于识别出所述第一图像中人物和动物中至少一个图形对象,从所识别出的图形对象中识别出所述人脸部位,基于所述人脸部位提取性别特征、年龄特征、脸部轮廓特征、形体特征及表情特征至少之一。
14.根据权利要求9所述的装置,其特征在于,
所述匹配单元,具体用于将所述人脸部位特征信息与明星贴图、动物贴图、卡通贴图、电影贴图及面具贴图的至少其中之一的描述信息进行匹配。
15.根据权利要求9所述的装置,其特征在于,
所述形成单元,还用于将所述第一贴图的显示色调调整到与所述人脸部位的显示色调一致。
16.根据权利要求9所述的装置,其特征在于,
所述形成单元,还用于所述第一贴图为动态贴图时,将所述第一贴图包括的各个贴图进行切换显示,在所述人脸部位形成形态或内容的变化的动态效果。
17.一种存储介质,其上存储有计算机指令,其特征在于,所述计算机指令被执行时实现如权利要求1-8任一项所述的图像信息处理方法。
18.一种图像信息处理方法,其特征在于,包括:
识别第一图像中图形对象的人脸部位,提取人脸部位特征信息,其中,所述人脸部位特征信息包括:性别特征、年龄特征、脸部轮廓特征、形体特征及表情特征的至少之一;
检测用户指示,并根据所述用户指示确定与所述人脸部位匹配的贴图类型,所述贴图类型包括明星贴图、动物贴图、卡通贴图、电影贴图及面具贴图的其中之一;
根据所确定的贴图类型,将对应所述贴图类型的贴图的描述信息与所述人脸部位特征信息进行匹配,确定所具有的描述信息与所述人脸部位特征信息匹配的第一贴图;
将所述第一贴图应用到所述第一图像中的所述人脸部位,形成显示有所述第一贴图的第二图像;
响应于针对所述第二图像的分享操作,将所述第二图像分享到指定的网页或应用中,检测到满足预定条件时,将所述第一图像分享到所述指定的网页或应用中;所述预定条件包括以下至少之一:分享所述第二图像之后的等待时间到达;所述第二图像的访问用户提交所述第二图像中图形对象的错误预测结果的次数到达预定次数;所述第二图像的访问用户提交第二图像中图形对象的正确预测结果;
响应于针对所述第一图像的分享操作,将所述第一图像以与所述第二图像并列排版的方式分享到指定的网页或应用中。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510830220 | 2015-11-25 | ||
CN2015108302201 | 2015-11-25 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106803057A CN106803057A (zh) | 2017-06-06 |
CN106803057B true CN106803057B (zh) | 2021-06-11 |
Family
ID=58762886
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611018568.1A Active CN106803057B (zh) | 2015-11-25 | 2016-11-18 | 图像信息处理方法及装置 |
Country Status (3)
Country | Link |
---|---|
US (2) | US10482316B2 (zh) |
CN (1) | CN106803057B (zh) |
WO (1) | WO2017088340A1 (zh) |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017088340A1 (zh) * | 2015-11-25 | 2017-06-01 | 腾讯科技(深圳)有限公司 | 图像信息处理方法、装置和计算机存储介质 |
CN107169135B (zh) * | 2017-06-12 | 2021-03-19 | 阿里巴巴(中国)有限公司 | 图像处理方法、装置和电子设备 |
CN107578459A (zh) * | 2017-08-31 | 2018-01-12 | 北京麒麟合盛网络技术有限公司 | 表情嵌入输入法候选项的方法及装置 |
CN107527041A (zh) * | 2017-09-08 | 2017-12-29 | 北京奇虎科技有限公司 | 图像采集设备数据实时处理方法及装置、计算设备 |
CN109509140A (zh) * | 2017-09-15 | 2019-03-22 | 阿里巴巴集团控股有限公司 | 显示方法及装置 |
CN107613360A (zh) * | 2017-09-20 | 2018-01-19 | 北京奇虎科技有限公司 | 视频数据实时处理方法及装置、计算设备 |
CN107743263B (zh) * | 2017-09-20 | 2020-12-04 | 北京奇虎科技有限公司 | 视频数据实时处理方法及装置、计算设备 |
CN107767391A (zh) * | 2017-11-02 | 2018-03-06 | 北京奇虎科技有限公司 | 风景图像处理方法、装置、计算设备及计算机存储介质 |
CN108022206A (zh) * | 2017-11-30 | 2018-05-11 | 广东欧珀移动通信有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
CN108122271A (zh) * | 2017-12-15 | 2018-06-05 | 南京变量信息科技有限公司 | 一种写真照片自动生成方法及装置 |
CN107945201B (zh) * | 2017-12-19 | 2021-07-23 | 北京奇虎科技有限公司 | 基于自适应阈值分割的视频风景处理方法及装置 |
CN108010038B (zh) * | 2017-12-19 | 2021-07-23 | 北京奇虎科技有限公司 | 基于自适应阈值分割的直播服饰装扮方法及装置 |
CN108230283A (zh) * | 2018-01-19 | 2018-06-29 | 维沃移动通信有限公司 | 一种贴图素材推荐方法和电子设备 |
CN110147796A (zh) * | 2018-02-12 | 2019-08-20 | 杭州海康威视数字技术股份有限公司 | 图像匹配方法及装置 |
CN108537725A (zh) * | 2018-04-10 | 2018-09-14 | 光锐恒宇(北京)科技有限公司 | 一种视频处理方法和装置 |
CN108648313A (zh) * | 2018-05-11 | 2018-10-12 | 广东汇泰龙科技有限公司 | 一种基于智能云锁的用户标签互动方法及系统 |
CN108632660A (zh) * | 2018-05-28 | 2018-10-09 | 深圳Tcl新技术有限公司 | 电视机的图像显示方法、电视机及存储介质 |
CN109033958A (zh) * | 2018-06-20 | 2018-12-18 | 北京微播视界科技有限公司 | 为特定对象的面部增加特效的方法及装置 |
KR102503939B1 (ko) * | 2018-09-28 | 2023-02-28 | 한국전자통신연구원 | 얼굴 이미지 비식별화 장치 및 방법 |
CN109361852A (zh) * | 2018-10-18 | 2019-02-19 | 维沃移动通信有限公司 | 一种图像处理方法及装置 |
CN109977868A (zh) * | 2019-03-26 | 2019-07-05 | 深圳市商汤科技有限公司 | 图像渲染方法及装置、电子设备和存储介质 |
CN112188074B (zh) | 2019-07-01 | 2022-08-05 | 北京小米移动软件有限公司 | 图像处理方法及装置、电子设备、可读存储介质 |
CN110413818B (zh) * | 2019-07-31 | 2023-11-17 | 腾讯科技(深圳)有限公司 | 贴纸推荐方法、装置、计算机可读存储介质和计算机设备 |
CN110619513A (zh) * | 2019-09-11 | 2019-12-27 | 腾讯科技(深圳)有限公司 | 电子资源领取方法、电子资源发放方法及相关设备 |
CN110751052A (zh) * | 2019-09-25 | 2020-02-04 | 恒大智慧科技有限公司 | 旅游区域指引推送方法、系统及存储介质 |
CN111191059B (zh) * | 2019-12-31 | 2023-05-05 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机存储介质及电子设备 |
WO2022012299A1 (zh) | 2020-07-14 | 2022-01-20 | 海信视像科技股份有限公司 | 显示设备及人物识别展示的方法 |
CN114945102A (zh) * | 2020-07-14 | 2022-08-26 | 海信视像科技股份有限公司 | 显示设备及人物识别展示的方法 |
CN112199534B (zh) * | 2020-10-10 | 2024-09-10 | 维沃移动通信有限公司 | 贴纸推荐方法、装置、电子设备及存储介质 |
US20220172431A1 (en) * | 2020-11-30 | 2022-06-02 | Sony Interactive Entertainment LLC | Simulated face generation for rendering 3-d models of people that do not exist |
CN112818147A (zh) * | 2021-02-22 | 2021-05-18 | 维沃移动通信有限公司 | 图片处理方法、装置、设备及存储介质 |
JP2022185536A (ja) * | 2021-06-02 | 2022-12-14 | 株式会社スクウェア・エニックス | プログラム、コンピュータ装置、及び制御方法。 |
EP4281848A4 (en) | 2021-06-11 | 2024-07-17 | Samsung Electronics Co Ltd | METHODS AND SYSTEMS FOR GENERATING ONE OR MORE EMOTICONS FOR ONE OR MORE USERS |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030007700A1 (en) * | 2001-07-03 | 2003-01-09 | Koninklijke Philips Electronics N.V. | Method and apparatus for interleaving a user image in an original image sequence |
JP4424364B2 (ja) * | 2007-03-19 | 2010-03-03 | ソニー株式会社 | 画像処理装置、画像処理方法 |
US8098904B2 (en) * | 2008-03-31 | 2012-01-17 | Google Inc. | Automatic face detection and identity masking in images, and applications thereof |
CN101324961B (zh) * | 2008-07-25 | 2011-07-13 | 上海久游网络科技有限公司 | 计算机虚拟世界中人脸部三维贴图方法 |
JP2010147808A (ja) * | 2008-12-18 | 2010-07-01 | Olympus Imaging Corp | 撮像装置および撮像装置における画像処理方法 |
TWI420405B (zh) * | 2010-10-20 | 2013-12-21 | Hon Hai Prec Ind Co Ltd | 人臉影像代換系統及方法 |
CN102196245A (zh) * | 2011-04-07 | 2011-09-21 | 北京中星微电子有限公司 | 一种角色互动的视频播放方法和视频播放装置 |
US9111134B1 (en) * | 2012-05-22 | 2015-08-18 | Image Metrics Limited | Building systems for tracking facial features across individuals and groups |
US9282153B2 (en) * | 2012-07-19 | 2016-03-08 | Empire Technology Development Llc | Content suggestion for posting on communication network |
JP2014085796A (ja) * | 2012-10-23 | 2014-05-12 | Sony Corp | 情報処理装置およびプログラム |
US20140153832A1 (en) * | 2012-12-04 | 2014-06-05 | Vivek Kwatra | Facial expression editing in images based on collections of images |
CN104284055A (zh) * | 2013-07-01 | 2015-01-14 | 索尼公司 | 图像处理方法、装置以及电子设备 |
CN104346620B (zh) * | 2013-07-25 | 2017-12-29 | 佳能株式会社 | 对输入图像中的像素分类的方法和装置及图像处理系统 |
US9460340B2 (en) * | 2014-01-31 | 2016-10-04 | Google Inc. | Self-initiated change of appearance for subjects in video and images |
CN103823858A (zh) * | 2014-02-21 | 2014-05-28 | 联想(北京)有限公司 | 信息处理方法及信息处理装置 |
WO2017088340A1 (zh) * | 2015-11-25 | 2017-06-01 | 腾讯科技(深圳)有限公司 | 图像信息处理方法、装置和计算机存储介质 |
-
2016
- 2016-03-29 WO PCT/CN2016/077762 patent/WO2017088340A1/zh active Application Filing
- 2016-11-18 CN CN201611018568.1A patent/CN106803057B/zh active Active
-
2017
- 2017-11-16 US US15/815,457 patent/US10482316B2/en active Active
-
2019
- 2019-10-14 US US16/601,465 patent/US11256901B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20180075289A1 (en) | 2018-03-15 |
US11256901B2 (en) | 2022-02-22 |
WO2017088340A1 (zh) | 2017-06-01 |
US20200042771A1 (en) | 2020-02-06 |
CN106803057A (zh) | 2017-06-06 |
US10482316B2 (en) | 2019-11-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106803057B (zh) | 图像信息处理方法及装置 | |
US11790589B1 (en) | System and method for creating avatars or animated sequences using human body features extracted from a still image | |
CN109729426B (zh) | 一种视频封面图像的生成方法及装置 | |
US20230078483A1 (en) | Controlling interactive fashion based on voice | |
US11900506B2 (en) | Controlling interactive fashion based on facial expressions | |
CN111640202B (zh) | 一种ar场景特效生成的方法及装置 | |
CN111627117B (zh) | 画像展示特效的调整方法、装置、电子设备及存储介质 | |
CN113362263B (zh) | 变换虚拟偶像的形象的方法、设备、介质及程序产品 | |
CN111638784B (zh) | 人脸表情互动方法、互动装置以及计算机存储介质 | |
US11651572B2 (en) | Light and rendering of garments | |
CN111640200B (zh) | 一种ar场景特效生成的方法及装置 | |
CN111667588A (zh) | 人物图像处理方法、装置、ar设备以及存储介质 | |
KR20240033041A (ko) | 가상 드레싱 룸들을 갖는 맞춤형 광고 | |
KR20240125620A (ko) | 실시간 상체 의복 교환 | |
KR20240128015A (ko) | 실시간 의복 교환 | |
US20230260127A1 (en) | Interactively defining an object segmentation | |
CN111627118A (zh) | 景物画像的展示方法、展示装置、电子设备及存储介质 | |
US20230316666A1 (en) | Pixel depth determination for object | |
US20240249346A1 (en) | Adaptive zoom try-on experience | |
US20230316665A1 (en) | Surface normals for pixel-aligned object | |
WO2023196387A1 (en) | Pixel depth determination for object | |
CN111274481A (zh) | 个性化环境场景提供方法、装置、电子设备及存储介质 | |
CN116612257A (zh) | 一种个人档案生成方法、装置、电子设备以及存储介质 | |
CN118469798A (zh) | 一种写真生成方法、装置、电子设备、存储介质及程序产品 | |
CN116524156A (zh) | 模型展示方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |