CN113709386A - 图像处理方法、装置、计算机设备及计算机可读存储介质 - Google Patents
图像处理方法、装置、计算机设备及计算机可读存储介质 Download PDFInfo
- Publication number
- CN113709386A CN113709386A CN202110296922.1A CN202110296922A CN113709386A CN 113709386 A CN113709386 A CN 113709386A CN 202110296922 A CN202110296922 A CN 202110296922A CN 113709386 A CN113709386 A CN 113709386A
- Authority
- CN
- China
- Prior art keywords
- image
- processed
- layer
- target
- layer information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 57
- 238000003672 processing method Methods 0.000 title claims abstract description 30
- 238000003860 storage Methods 0.000 title claims abstract description 14
- 238000001514 detection method Methods 0.000 claims abstract description 143
- 238000000034 method Methods 0.000 claims abstract description 42
- 238000005520 cutting process Methods 0.000 claims abstract description 39
- 230000014509 gene expression Effects 0.000 claims description 42
- 230000015654 memory Effects 0.000 claims description 21
- 230000008921 facial expression Effects 0.000 claims description 10
- 238000001914 filtration Methods 0.000 claims description 6
- 241000282414 Homo sapiens Species 0.000 description 24
- 238000010586 diagram Methods 0.000 description 23
- 230000008569 process Effects 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 10
- 238000013473 artificial intelligence Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 230000003796 beauty Effects 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 239000000284 extract Substances 0.000 description 6
- 230000010339 dilation Effects 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000012216 screening Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 230000014759 maintenance of location Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 210000000697 sensory organ Anatomy 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
- G06T5/30—Erosion or dilatation, e.g. thinning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/22—Cropping
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本申请提供了一种图像处理方法、装置、计算机设备及计算机可读存储介质;方法包括:对待处理图像进行目标对象检测得到对象检测结果,并对所述待处理图像进行图像显著性检测得到显著性检测结果;基于所述对象检测结果及所述显著性检测结果,对所述待处理图像进行裁剪得到相应的裁剪图像;获取用于指示图像样式的图像模板,并获取所述图像模板对应的图层信息;基于所述图像模板,在所述剪裁图像中添加所述图层信息,得到与所述图像模板所指示的图像样式相对应的目标图像。通过本申请,能够高效地生成适用性强的目标图像。
Description
技术领域
本申请涉及图像处理技术,尤其涉及一种图像处理方法、装置、计算机设备及计算机可读存储介质。
背景技术
在图像处理的一些场景中,需要对图像进行处理,以利用处理后的图像进行宣传投放。
相关技术中,为了保证图像的适用性,通常是人为针对性地对原始图像进行后期制作,对原始图像进行相应尺寸规格的裁剪和相关宣传信息的添加等,以得到符合要求的宣传图像。然而,人为制作的方式效率极低同时耗费人力成本。
发明内容
本申请实施例提供一种图像处理方法、装置及计算机可读存储介质,能够高效地生成适用性强的目标图像。
本申请实施例的技术方案是这样实现的:
本申请实施例提供一种图像处理方法,包括:
对待处理图像进行目标对象检测得到对象检测结果,并对所述待处理图像进行图像显著性检测得到显著性检测结果;
基于所述对象检测结果及所述显著性检测结果,对所述待处理图像进行裁剪得到相应的裁剪图像;
获取用于指示图像样式的图像模板,并获取所述图像模板对应的图层信息;
基于所述图像模板,在所述剪裁图像中添加所述图层信息,得到与所述图像模板所指示的图像样式相对应的目标图像。
本申请实施例提供一种图像处理装置,包括:
检测模块,用于对待处理图像进行目标对象检测得到对象检测结果,并对所述待处理图像进行图像显著性检测得到显著性检测结果;
裁剪模块,用于基于所述对象检测结果及所述显著性检测结果,对所述待处理图像进行裁剪得到相应的裁剪图像;
获取模块,用于获取用于指示图像样式的图像模板,并获取所述图像模板对应的图层信息;
图层添加模块,用于基于所述图像模板,在所述剪裁图像中添加所述图层信息,得到与所述图像模板所指示的图像样式相对应的目标图像。
上述方案中,所述检测模块,还用于对待处理图像进行人脸检测,以确定所述待处理图像中包含人脸的第一区域,并对所述待处理图像进行图像显著性检测,以确定所述待处理图像中包含显著性特征的第二区域。
上述方案中,所述裁剪模块,还用于当所述待处理图像中包含所述第一区域时,基于所述第一区域确定第一剪裁中心点,基于所述第二区域确定第二剪裁中心点,并基于所述第一剪裁中心点及所述第二剪裁中心点,对所述待处理图像进行裁剪得到相应的裁剪图像;当所述待处理图像中不包含所述第一区域时,基于所述第二区域确定第二剪裁中心点,并基于所述第二剪裁中心点,对所述待处理图像进行裁剪得到相应的裁剪图像。
上述方案中,所述裁剪模块,还用于当所述第一区域的数量为至少两个时,分别对所述待处理图像中各所述第一区域进行膨胀处理,得到相应的第一膨胀区域;当至少两个所述第一膨胀区域存在区域交集时,将存在区域交集的所述第一膨胀区域进行合并,得到相应的膨胀合并区域;基于所述膨胀合并区域,确定所述第一剪裁中心点。
上述方案中,所述裁剪模块,还用于当所述第一剪裁中心点位于所述第二区域外时,基于所述第一剪裁中心点,对所述待处理图像进行裁剪得到相应的裁剪图像;当所述第一剪裁中心点位于所述第二区域内时,基于所述第一剪裁中心点及所述第二剪裁中心点,确定相应的目标剪裁中心点,并基于所述目标剪裁中心点,对所述待处理图像进行裁剪得到相应的裁剪图像。
上述方案中,所述裁剪模块,还用于获取所述目标图像对应的应用场景类型;基于所述应用场景类型,确定所述裁剪图像对应的图像大小;基于所述对象检测结果及所述显著性检测结果,对所述待处理图像进行裁剪,得到对应所述图像大小的裁剪图像。
上述方案中,所述获取模块,还用于确定所述图像模板所指示的图像样式中的图层信息名称;基于所述图层信息名称,对所述待处理图像进行图层信息识别,得到对应所述图层信息名称的图层信息。
上述方案中,所述图像处理装置,还包括:过滤模块,用于当所述剪裁图像的数量为多个时,获取对应所述目标图像的清晰度阈值;基于所述清晰度阈值对多个所述剪裁图像进行过滤,得到达到清晰度阈值的至少一个剪裁图像;所述图层添加模块,还用于:基于所述图像模板,在达到清晰度阈值的剪裁图像中添加所述图层信息。
上述方案中,所述图层添加模块,还用于当所述图层信息的类型为固定图层时,基于所述图像模板,确定所述待处理图像中的第一图层放置区域;在所述图层放置区域中添加所述图层信息;当所述图层信息的类型为非固定图层时,基于所述图像模板,确定所述待处理图像中的第二图层放置区域;确定所述第二图层放置区域中像素方差最小的目标区域;在所述目标区域中添加所述图层信息。
上述方案中,所述图层添加模块,还用于当所述图层信息的类型为非固定图层时,基于所述图像模板,确定对应所述剪裁图像的第二图层放置区域;获取所述图层信息的图层尺寸,基于所述图层尺寸,从所述第二图层放置区域中选取像素方差最小的对应所述图层尺寸的目标区域;在所述目标区域中添加所述图层信息。
上述方案中,所述图层添加模块,还用于当所述图层信息的类型为非固定图层时,基于所述图像模板,确定对应所述剪裁图像的第二图层放置区域;确定所述第二图层放置区域与所述第一区域之间的第一交集区域,并确定所述第二图层放置区域与所述第二区域之间的第二交集区域,将所述第一交集区域与所述第二交集区域进行合并,得到相应的合并区域;获取所述图层信息的图层尺寸,基于所述图层尺寸,在所述第二图层放置区域内,选取与所述合并区域的交集最小的对应所述图层尺寸的目标区域;在所述目标区域中添加所述图层信息。
上述方案中,所述图像处理装置,还包括:图像筛选模块,用于当所述目标图像的数量为多个时,针对各所述目标图像执行以下处理:当所述目标图像中包含人脸时,对所述人脸进行表情特征的提取,得到相应的人脸表情特征;基于所述人脸表情特征,对所述目标图像进行评分,得到相应的表情分值;当所述表情分值未达到表情分阈值时,删除相应的所述目标图像。
本申请实施例提供一种计算机设备,包括:
存储器,用于存储可执行指令;
处理器,用于执行所述存储器中存储的可执行指令时,实现本申请实施例提供的图像处理方法。
本申请实施例提供一种计算机可读存储介质,存储有可执行指令,用于引起处理器执行时,实现本申请实施例提供的图像处理方法。
本申请实施例中,基于对待处理图像进行目标对象检测得到的对象检测结果、及进行显著性检测得到的显著性检测结果,对所述待处理图像进行裁剪,从而保留了待处理图像中的人脸及显著性特征,然后基于图像模板,在剪裁图像中添加图层信息,得到与图像模板所指示的图像样式相对应的目标图像,实现了对图像的自动处理,提高了处理效率,且得到的目标图像中保留了原始的待处理图像中的有效信息,具有较强的适用性。
附图说明
图1是本申请实施例提供的图像处理系统架构的一个可选的结构示意图;
图2是本申请实施例提供的图像处理方法的一个可选的流程示意图;
图3是本申请实施例提供的图像处理方法的一个可选的流程示意图;
图4是本申请实施例提供的待处理图像的一个可选的示意图;
图5是本申请实施例提供的裁剪图像的过程的一个可选的示意图;
图6是本申请实施例提供的裁剪图像的过程的一个可选的示意图;
图7是本申请实施例提供的图像处理方法的一个可选的流程示意图;
图8是本申请实施例提供的待处理图像的剪裁中心点的一个可选的示意图;
图9是本申请实施例提供的待处理图像的裁剪中心点的一个可选的示意图;
图10是本申请实施例提供的确定第一剪裁中心点的一个可选的示意图;
图11是本申请实施例提供的目标图像的一个可选的示意图;
图12是本申请实施例提供的图像处理方法的一个可选的流程示意图;
图13是本申请实施例提供的图像模板的一个可选的示意图;
图14是本申请实施例提供的图像处理装置的一个可选的结构示意图;
图15是本申请实施例提供的计算机设备的一个可选的结构示意图。
具体实施方式
为了使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请作进一步地详细描述,所描述的实施例不应视为对本申请的限制,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
在以下的描述中,涉及到“一些实施例”,其描述了所有可能实施例的子集,但是可以理解,“一些实施例”可以是所有可能实施例的相同子集或不同子集,并且可以在不冲突的情况下相互结合。
在以下的描述中,所涉及的术语“第一\第二\第三”仅仅是是区别类似的对象,不代表针对对象的特定排序,可以理解地,“第一\第二\第三”在允许的情况下可以互换特定的顺序或先后次序,以使这里描述的本申请实施例能够以除了在这里图示或描述的以外的顺序实施。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
对本申请实施例进行进一步详细说明之前,对本申请实施例中涉及的名词和术语进行说明,本申请实施例中涉及的名词和术语适用于如下的解释。
1)显著性检测,指通过智能算法模拟人的视觉特点,提取图像中的显著区域(即人类感兴趣的区域);
2)人脸特征图,指标记有图像中人脸区域和非人脸区域的二值图。
3)人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
基于上述对本申请实施例中涉及的名词和术语的解释,下面说明本申请实施例提供的图像处理系统进行说明,参见图1,图1是本申请实施例提供的图像处理系统100的一个可选的架构示意图,终端400通过网络300连接服务器200,网络300可以是广域网或者局域网,又或者是二者的组合,使用无线链路实现数据传输。
终端400(设置有图像处理客户端),用于在图像处理客户端的图形界面410内呈现视频选择功能项,响应于针对视频选择功能项的选择操作,获取所选择的待处理视频,对待处理视频进行抽帧处理,得到抽取的多帧待处理图像,分别将多帧待处理图像发送至服务器200。
服务器200,用于对待处理图像进行目标对象检测得到对象检测结果,并对所述待处理图像进行图像显著性检测得到显著性检测结果;基于所述对象检测结果及所述显著性检测结果,对所述待处理图像进行裁剪得到相应的裁剪图像;获取用于指示图像样式的图像模板,并获取所述图像模板对应的图层信息;基于所述图像模板,在所述剪裁图像中添加所述图层信息,得到与所述图像模板所指示的图像样式相对应的目标图像,并将目标图像发送至终端400。
终端400,还用于接收并展示目标图像。
在实际应用中,终端400可以是笔记本电脑,平板电脑,台式计算机,智能手机,专用消息设备,便携式游戏设备,智能音箱,智能电视、智能手表、智能车载设备等,但并不局限于此。服务器200可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器。网络300可以是广域网或者局域网,又或者是二者的组合。终端400以及服务器200可以通过有线或无线通信方式进行直接或间接地连接,本申请实施例中不做限制。
基于上述对本申请实施例的图像处理系统说明,下面说明本申请实施例提供的图像处理方法。在实际实施时,本申请实施例提供的图像处理方法可由图1所示的终端400或服务器200单独实施,还可以由图1所示的终端400及服务器200协同实施,接下来结合图1,以图1所示的终端400实施本申请实施例提供的图像处理方法为例进行说明。
参见图2,图2是本申请实施例提供的图像处理方法的一个可选的流程示意图,将结合图2示出的步骤进行说明。
步骤101,终端对待处理图像进行目标对象检测得到对象检测结果,并对所述待处理图像进行图像显著性检测得到显著性检测结果。
这里,终端获取待处理视频,对待处理视频进行图像帧的抽取,得到多帧抽取的图像,并将抽取的图像作为待处理图像。待处理视频可以为视频平台内的视频,该视频平台具有特定的视频标识。本申请实施例中,终端分别针对每一张待处理图像,执行本申请实施例提供的图像处理方法。
在实际实施时,终端对待处理图像进行目标对象检测,得到相应的对象检测结果。这里,目标对象检测为针对目标对象的目标检测,目标对象例如可以为人脸、人体、建筑、植物等等,终端可以根据实际应用场景进行相应目标对象检测算法的选择,通过目标对象检测算法对待处理图像进行相应目标对象的目标检测,得到对象检测结果。示例性地,当待处理视频为影视视频时,目标对象则可以为人脸或者人体。接着,终端还对待处理图像进行显著性检测,得到相应的显著性检测结果。
在一些实施例中,参见图3,图3是本申请实施例提供的图像处理方法的一个可选的流程示意图,基于图2,步骤101还可以通过如下方式实现:步骤1011,终端对待处理图像进行人脸检测,以确定所述待处理图像中包含人脸的第一区域,并对所述待处理图像进行图像显著性检测,以确定所述待处理图像中包含显著性特征的第二区域。
在实际实施时,终端分别对待处理图像进行人脸检测及显著性检测,得到包含人脸的第一区域及包含显著性特征的第二区域。需要说明的是,显著性特征可能包含人脸,也即是说,终端对待处理图像进行显著性检测后,得到显著度达到显著度阈值的至少一个显著性特征,当待处理图像中的人脸的显著度达到显著度阈值时,通过显著性检测则将得到包含人脸的显著性特征,而当待处理图像中的人脸的显著度未达到显著度阈值时,通过显著性检测则得到的显著性特征则不包含人脸。
示例性地,参见图4,图4是本申请实施例提供的待处理图像的一个可选的示意图。在实际实施时,终端对待处理图像进行人脸检测,得到包含人脸的第一区域41,并对待处理图像进行显著性检测,得到包含显著性特征的第二区域42。这里,显著性特征为待处理图像中的人体。
步骤102,基于所述对象检测结果及所述显著性检测结果,对所述待处理图像进行裁剪得到相应的裁剪图像。
在实际实施时,当在待处理图像中进行目标对象检测,并检测到目标对象后,得到的对象检测结果指示目标对象在待处理图像中的对象区域。对待处理图像进行显著性检测得到的显著性检测结果指示显著性特征在待处理图像中的显著性特征区域。终端基于对象区域及显著性特征区域,对待处理图像进行裁剪。这里,当检测到目标对象时,终端则基于目标对象对应的对象区域对待处理图像进行裁剪,当未检测到目标对象时,终端则基于显著性特征区域对待处理图像进行裁剪。在一些实施例中,当检测到目标对象时,终端还可以同时基于对象区域及显著性区域,对待处理图像进行裁剪。
具体地,终端基于对象区域及显著性区域,确定待处理图像的剪裁中心点,并基于剪裁中心点对待处理图像进行裁剪得到相应的裁剪图像。在实际实施时,终端获取裁剪尺寸规格,基于裁剪尺寸规格对待处理图像进行裁剪。这里,裁剪尺寸规格可以为宽高比w’/h’,也即是将待处理图像裁剪为该宽高比的裁剪图像。
本申请实施例中,待处理图像的宽高分别为w和h,当待处理图像的宽高比w/h大于裁剪尺寸规格的宽高比w’/h’,终端则将裁剪中心点作为裁剪框的宽度中心,保持裁剪框的高度为h,对待处理图像进行裁剪,得到宽高比为w’/h’裁剪图像。这里,裁剪图像的高度为h,宽度为(w’h)/h’。
示例性地,参见图5,图5是本申请实施例提供的裁剪图像的过程的一个可选的示意图。这里,待处理图像50的裁剪中心点为51,终端基于裁剪中心点51对待处理图像50进行裁剪,将待处理图像50裁剪为宽高比为w’/h’的图像。具体地,终端将裁剪中心点51作为裁剪框52的宽度中心,确定裁剪框52的高度为h,对待处理图像50进行裁剪,得到宽高比为w’/h’的裁剪图像53。这里,裁剪图像53的高度为h,宽度为(w’h)/h’。
在实际实施时,当待处理图像的宽高比小于裁剪尺寸规格的宽高比时,终端将裁剪中心点作为裁剪框高度的中心,保持裁剪框的宽度为w,对待处理图像进行裁剪,得到宽高比为w’/h’裁剪图像。这里,裁剪图像的宽度为w,高度为(wh’)/w’。示例性地,参见图6,图6是本申请实施例提供的裁剪图像的过程的一个可选的示意图。这里,待处理图像60的裁剪中心点为61,终端基于裁剪中心点61对待处理图像60进行裁剪,将待处理图像60裁剪为宽高比为w’/h’的图像。具体地,终端将裁剪中心点61作为裁剪框62的高度中心,确定裁剪框62的宽度为w,对待处理图像60进行裁剪,得到宽高比为w’/h’的裁剪图像63。
在实际实施时,当待处理图像的宽高比等于裁剪尺寸规格的宽高比时,终端不对待处理图像进行裁剪,直接对待处理图像进行图层信息的添加。
在一些实施例中,参见图7,图7是本申请实施例提供的图像处理方法的一个可选的流程示意图,基于图3,步骤102还可以通过如下方式实现:
步骤1021,当所述待处理图像中包含所述第一区域时,终端基于所述第一区域确定第一剪裁中心点,基于所述第二区域确定第二剪裁中心点。
在实际实施时,当待处理图像中包含第一区域时,也即终端对待处理图像进行人脸检测,检测到待处理图像中的人脸时,基于包含人脸的第一区域确定第一剪裁中心点。具体地,终端取第一区域的中心作为第一剪裁中心点。同时,终端基于第二区域确定第二剪裁中心点,这里,终端可以取第二区域的中心作为第二剪裁中心点。
示例性地,参见图8,图8是本申请实施例提供的待处理图像的剪裁中心点的一个可选的示意图。这里,终端基于第一区域41,确定第一区域41的中心点81,将第一区域41的中心点81作为第一剪裁中心点81。同理,终端确定得到第二区域42的第二剪裁中心点82。
步骤1022,基于所述第一剪裁中心点及所述第二剪裁中心点,对所述待处理图像进行裁剪得到相应的裁剪图像。
在实际实施时,当第一剪裁中心点与第二剪裁中心点不重合时,终端将第一剪裁中心点作为待处理图像的裁剪中心点对待处理图像进行裁剪,得到相应的裁剪图像。这里,对待处理图像进行裁剪的过程参见图5或图6,在此不再进行赘述。
在一些实施例中,基于图7,步骤1022还可以通过如下方式实现:当所述第一剪裁中心点位于所述第二区域外时,终端基于所述第一剪裁中心点,对所述待处理图像进行裁剪得到相应的裁剪图像;当所述第一剪裁中心点位于所述第二区域内时,基于所述第一剪裁中心点及所述第二剪裁中心点,确定相应的目标剪裁中心点,并基于所述目标剪裁中心点,对所述待处理图像进行裁剪得到相应的裁剪图像。
示例性地,参见图9,图9是本申请实施例提供的待处理图像的裁剪中心点的一个可选的示意图,这里,终端基于第一裁剪中心点91及第二裁剪中心点92确定目标裁剪中心点93。具体地,终端对第一裁剪中心点91及第二裁剪中心点92的坐标进行加权求和得到相应的加权坐标,将加权坐标对象的点作为目标裁剪中心点93。接着,终端将目标裁剪中心点作为对待处理图像的裁剪中心点,对待处理图像进行裁剪,得到相应的裁剪图像。
步骤1023,当所述待处理图像中不包含所述第一区域时,基于所述第二区域确定第二剪裁中心点,并基于所述第二剪裁中心点,对所述待处理图像进行裁剪得到相应的裁剪图像。
在实际实施时,当待处理图像中不包含所述第一区域时,也即未在待处理图像中检测到人脸时,则基于显著性检测得到的第二区域所确定的第二检测中心点,对待处理图像进行裁剪。
在一些实施例中,基于图7,步骤1021中的所述基于所述第一区域确定第一剪裁中心点,还可以通过如下方式实现:终端当所述第一区域的数量为至少两个时,分别对所述待处理图像中各所述第一区域进行膨胀处理,得到相应的第一膨胀区域;当至少两个所述第一膨胀区域存在区域交集时,确定存在区域交集的所述第一膨胀区域,将存在区域交集的所述第一膨胀区域进行合并,得到相应的膨胀合并区域;基于所述膨胀合并区域,确定所述第一剪裁中心点。
在实际实施时,若在待处理图像内检测到至少两张人脸时,对应的第一区域则为至少两个,基于人脸检测结果生成人脸特征图。这里,人脸特征图中包含用于指示待处理图像中第一区域的人脸框,人脸框的数量与待处理图像中人脸的数量相同,人脸框的大小与第一区域的大小相同。接着,终端基于膨胀系数,分别对各人脸框进行膨胀处理,得到相应的膨胀人脸框。当至少两个膨胀人脸框存在区域交集时,也即至少两个膨胀人脸框相连通时,终端将相连通的膨胀人脸框进行合并,得到合并人脸框。应当理解的是,得到的合并人脸框的数量为至少一个,终端从至少一个合并人脸框中选取面积最大的合并人脸框,确定该面积最大的合并人脸框的中心点,并基于该中心点对待处理图像进行裁剪。
示例性地,参见图10,图10是本申请实施例提供的确定第一剪裁中心点的一个可选的示意图,终端在对待处理图像1001进行人脸检测后,得到人脸特征图1002,该人脸特征图1002中包含用于指示待处理图像中的人脸的人脸框1003和1004,接着,终端分别对人脸特征图1002中的人脸框1003和1004进行膨胀处理,得到图示出的膨胀处理后的人脸特征图1005,这里,膨胀处理后的两个人脸框相连通,终端则合并这两个膨胀处理后的人脸框,作为合并人脸框1006。然后,终端确定合并人脸框1006的中心点1007,基于合并人脸框的中心点1007对待处理图像进行裁剪。这里,对待处理图像的裁剪过程参见上述实施例,在此不再赘述。
在一些实施例中,基于图2,步骤102还可以通过如下方式实现:终端获取所述目标图像对应的应用场景类型;基于所述应用场景类型,确定所述裁剪图像对应的图像大小;基于所述对象检测结果及所述显著性检测结果,对所述待处理图像进行裁剪,得到对应所述图像大小的裁剪图像。
步骤103,获取用于指示图像样式的图像模板,并获取所述图像模板对应的图层信息。
在一些实施例中,基于图2,步骤103中的所述获取所述图像模板对应的图层信息,还可以通过如下方式实现:终端确定所述图像模板所指示的图像样式中的图层信息名称;基于所述图层信息名称,对所述待处理图像进行图层信息识别,得到对应所述图层信息名称的图层信息。
步骤104,基于所述图像模板,在所述剪裁图像中添加所述图层信息,得到与所述图像模板所指示的图像样式相对应的目标图像。
在一些实施例中,步骤104之前,还可以执行:终端当所述剪裁图像的数量为多个时,获取对应所述目标图像的清晰度阈值;基于所述清晰度阈值对多个所述剪裁图像进行过滤,得到达到清晰度阈值的至少一个剪裁图像。步骤104,还可以通过如下方式实现:终端基于所述图像模板,在达到清晰度阈值的剪裁图像中添加所述图层信息。
在实际实施时,终端在对待处理图像进行裁剪得到裁剪图像后,对裁剪图像进行清晰度检测,以将清晰度未达到清晰度阈值的裁剪图像进行过滤。这里,终端可以清晰度算法对待处理图像进行过滤。当裁剪图像的清晰度达到清晰度阈值时,终端对裁剪图像进行图层信息的添加,生成相应的目标图像,即用于宣传投放的海报图。
在一些实施例中,基于图2,步骤104还可以通过如下方式实现:当所述图层信息的类型为固定图层时,终端基于所述图像模板,确定所述待处理图像中的第一图层放置区域;在所述图层放置区域中添加所述图层信息。
需要说明的是,图像模板用于指示对裁剪后的图像添加图层信息的图层位置,图层信息为待添加至裁剪后的图像中相应图层位置的图层,图像信息例如可以为一些图层。这里,图像信息可以包括多个图层,例如标识图层,电视剧名图层,搜索框图层,搜索文字图层等。其中,标识图层为视频平台的视频标识所对应的图层,该视频平台用于播放待处理图像对应的待处理视频。这里,视频平台可以实施为视频客户端,还可以实施为视频网站等。图层的类型包括固定图层和非固定图层。例如上述距离的几种图层中,标识图层、搜索框图层和搜索文字图层等可以为预先设置的固定图层,而电视剧名图层则可以为预先设置的非固定图层。
在实际实施时,当待添加的图层信息为固定图层时,终端获取预先设置的图像模板,基于图像模板确定对应裁剪图像中的图层位置,将固定图层添加至相应图层位置的裁剪图像中。应当理解的是,固定图层的图层位置是固定不变的,终端在对任意待处理图像进行图像处理时,均将固定图层添加至相同的图层位置。具体地,当图层信息为固定图层时,终端获取图像模板,从图像模板中解析出固定图层对应于剪裁图像中的图层位置,将固定图层添加至剪裁图像中的相应图层位置处,从而得到添加图层信息后的目标图像。具体地,终端基于图像模板,获取固定图层对应的第一图层放置区域,应当理解的是,一个第一图层放置区域对应一个固定图层,且第一图层放置区域与其对应的固定图层的尺寸比例相同,也即区域的宽高比与图层的宽高比相同。
在一些实施例中,基于图3,所述步骤104,还可以通过如下方式实现:当所述图层信息的类型为非固定图层时,终端基于所述图像模板,确定对应所述剪裁图像的第二图层放置区域;确定所述第二图层放置区域与所述第一区域之间的第一交集区域,并确定所述第二图层放置区域与所述第二区域之间的第二交集区域,将所述第一交集区域与所述第二交集区域进行合并,得到相应的合并区域;获取所述图层信息的图层尺寸,基于所述图层尺寸,在所述第二图层放置区域内,选取与所述合并区域的交集最小的对应所述图层尺寸的目标区域;在所述目标区域中添加所述图层信息,得到与所述图像模板所指示的图像样式相对应的目标图像。
在一些实施例中,基于图3,所述步骤104,还可以通过如下方式实现:当所述图层信息的类型为非固定图层时,终端基于所述图像模板,确定对应所述剪裁图像的第二图层放置区域;获取所述图层信息的图层尺寸,基于所述图层尺寸,从所述第二图层放置区域中选取像素方差最小的对应所述图层尺寸的目标区域;在所述目标区域中添加所述图层信息,得到与所述图像模板所指示的图像样式相对应的目标图像。
在实际实施时,当待添加的图层信息为非固定图层时,终端获取预先设置的图像模板,基于图像模板确定对应裁剪图像中的可放置区域。示例性地,假设待添加的图层的尺寸为w1和h1。需要说明的是,非固定图层的图层区域是非固定的,且大小不固定,在实际实施时,终端从可放置区域中选取与待处理图像中人脸区域或显著性区域相交最小的区域作为非固定图层的图层区域,将非固定图层添加至该图层区域内。在一些实施例中,当存在多个区域与人脸区域或显著性区域的交集为零时,则从可放置区域中选取像素变化最小的区域作为非固定图层的图层区域,将非固定图层添加至该图层区域内,得到相应的目标图像。
示例性地,参见图11,图11是本申请实施例提供的目标图像的一个可选的示意图。这里,图层信息包括固定图层和非固定图层。固定图层有搜索功能项图层1001、点击功能项图层1002、标识图层1003等,非固定图层包括电视剧名图层1004。
在实际实施时,终端在对待处理图像裁剪并添加图层信息得到目标图像后,通过目标客户端对目标图像进行展示。具体地,终端还将目标图像与目标链接进行绑定,当用户点击目标图像时,则自动跳转至目标链接。这里,目标连接可以为与待处理图像相对应的视频链接。
在一些实施例中,基于图2,还可以执行:当所述目标图像的数量为多个时,终端针对各所述目标图像执行以下处理:当所述目标图像中包含人脸时,对所述人脸进行表情特征的提取,得到相应的人脸表情特征;基于所述人脸表情特征,对所述目标图像进行评分,得到相应的表情分值;当所述表情分值未达到表情分阈值时,删除相应的所述目标图像。
在一些实施例中,由于待处理图像是从待处理视频中抽取得到,具有多张,终端在对待处理视频进行抽帧处理并对抽帧得到的多张待处理图像进行图像处理后,得到的目标图像也可能有多张。终端则进一步对目标图像进行筛选,以得到更加具有实用性的目标图像。本申请实施例中,当目标图像中包含人脸时,终端则对该人脸进行表情识别,提取得到相应的表情特征,基于表情特征对目标图像进行表情打分,得到相应的表情分值。在实际实施时,终端可以利用训练好的表情打分模型对目标图像进行表情特征的提取及评分,表情打分模型可以为基于携带有表情分值的图像进行训练得到。示例性地,可以对未扭曲五官的图像打上较高的分值,对扭曲五官的表情打上较低的分值等。这里,表情分值越高表示该图像中的人脸表情越具有美观性,也即未扭曲五官,若表情分值未达到表情分阈值,则将该目标图像进行删除,不对该目标图像进行后续的平台投放等。
在一些实施例中,终端还可以分别对目标图像进行清晰度检测,得到各目标图像的清晰度,基于清晰度对目标图像进行打分。在一些实施例中,终端还可以分别对目标图像进行美观度检测,具体地,终端基于美观度检测模型,对目标图像进行美观度检测,得到各目标图像的美观度,将美观度作为目标图像的打分。这里,美观度检测模型为基于大量标注有美观度的图像训练得到。在一些实施例中,终端还基于图像中人脸的表情来对目标图像进行打分,具体地,终端基于表情模型对目标图像进行表情检测,得到相应的表情分值,这里,表情模型为基于大量标注有表情分值的图像训练得到。应当理解的是,用于训练的图像中人物的表情分值根据表情的正常程度进行标注,例如将扭曲人物面部特征的表情打上较为低的分值,将人物面部特征清晰的表情打上较为高的分值等。在一些实施例中,终端还可以基于清晰度、美观度及表情分值中的至少之一,来对目标图像进行打分,以得到目标图像的分值。接着,终端将分值未达到分值阈值的目标图像进行过滤,将分值达到分值阈值的目标图像进行展示。在一些实施例中,终端还收集目标客户端中针对目标图像的用户反馈数据,基于用户反馈数据对该目标图像进行打分。这里,用户反馈数据包括该目标图像的点击率或目标图像的留存率等等。
在实际实施时,终端在得到多张目标图像的分值后,从多张目标图像中筛选出分值达到分值阈值的目标图像进行投放。本申请实施例中,目标图像可以投放至多个不同的目标客户端,不同目标客户端对目标图像的尺寸要求可能不同,在实际实施时,终端针对不同目标客户端的需求,获取相应平台所要求的裁剪尺寸规格,基于裁剪尺寸规格对待处理图像进行处理,从而得到符合该平台的目标图像。
在一些实施例中,得到的目标图像可以是应用于视频封面图横屏转竖屏,终端从横屏视频中抽取横屏图像,将其裁剪为符合竖屏尺寸的竖屏图像,并基于竖屏图像进行相应相关图层信息的添加,得到相应的目标图像,将该目标图像用于该竖屏视频的封面进行宣传。视频封面或专辑封面图通常是横屏样式,而随着竖版视频的兴起,封面图也需要适应竖屏风格,本申请实施例则是针对这种需要对视频图像进行处理。而对于图文缩略图一般有固定尺寸,上传的图片通常跟这个固定的尺寸比例不同,此时,缩略图只能显示图片的一部分,因此需要进行图片主体的选择,从而使得图文信息可以更有效地在缩略图中展示图片主要内容。在一些实施例中,处理后的目标图像还用于广告投放,从原始图像截取出主体区域,增加各种尺寸的满足出图需要的图层信息,将图层信息添加至要求的区域内,得到相应的用于宣传的目标图像。这里,目标图像可以进行多种平台的投放,以为相应网站进行广告投放,从而实现用户拉新等。例如将某视频网站的某一部剧视频进行视频帧抽取,并进行相应的目标图像的自动制作,得到多帧目标图像投放至不同平台,将该目标图像绑定至该剧视频的链接,从而为该剧视频拉观众,实现有效的宣传。
本申请实施例中,终端基于对待处理图像进行目标对象检测得到的对象检测结果、及进行显著性检测得到的显著性检测结果,对所述待处理图像进行裁剪,从而保留了待处理图像中的人脸及显著性特征,然后基于图像模板,在剪裁图像中添加图层信息,得到与图像模板所指示的图像样式相对应的目标图像,实现了对图像的自动处理,提高了处理效率,且得到的目标图像中保留了原始的待处理图像中的有效信息,具有较强的适用性。
接下来继续对本发明实施例提供的图像处理方法进行介绍,图12是本发明实施例提供的图像处理方法的一个可选的流程示意图,参见图12,本发明实施例提供的图像处理方法由终端、服务器协同实施。
步骤201,终端获取待处理视频,对待处理视频进行抽帧处理,得到抽取的多帧待处理图像。
在实际实施时,终端在图像处理客户端的图形界面内呈现视频选择功能项,终端响应于针对视频选择功能项的视频选择操作,获取所选择的待处理视频,并对待处理视频进行视频帧的抽取,得到抽取的多帧待处理图像。
步骤202,终端发送多帧待处理图像至服务器。
这里,终端在获取到待处理视频后,对待处理视频进行图像帧的抽取,得到多帧抽取的图像,并将抽取的图像作为待处理图像,将待处理图像发送至服务器。
步骤203,服务器对待处理图像进行目标对象检测得到对象检测结果,并对所述待处理图像进行图像显著性检测得到显著性检测结果。
在实际实施时,服务器获取待处理视频,并获取用于图像裁剪的尺寸规格,及用于指示图像样式的图像模板,并获取图像模板对应的图层信息。这里,图像模板用于指示对裁剪后的图像添加图层信息的图层位置,图层信息为待添加至裁剪后的图像中相应图层位置的图层。
接着,服务器对待处理图像进行人脸检测,得到相应的人脸检测结果。当人脸检测结果表征从待处理图像中检测到人脸时,从待处理图像中确定包含人脸的人脸区域。当检测到的人脸区域的数量为一个时,确定人脸区域的中心点,并基于人脸区域的中心点对待处理图像进行裁剪,也即将待处理图像裁剪为宽高比为w’/h’的图像。
步骤204,服务器基于所述对象检测结果及所述显著性检测结果,对所述待处理图像进行裁剪得到相应的裁剪图像。
步骤205,服务器获取用于指示图像样式的图像模板,并获取所述图像模板对应的图层信息。
步骤206,服务器基于所述图像模板,在所述剪裁图像中添加所述图层信息,得到与所述图像模板所指示的图像样式相对应的目标图像。
步骤207,服务器对目标图像进行评分,得到目标图像的分值。
步骤208,服务器发送分值达到分值阈值的目标图像至终端。
这里,服务器分别对目标图像进行打分,以得到目标图像的分值。接着,终端将分值未达到分值阈值的目标图像进行过滤,将分值达到分值阈值的目标图像发送至终端进行展示。在实际实施时,终端通过目标客户端对目标图像进行展示,这里,目标客户端可以为能够展示图像的任意客户端,例如新闻客户端、社交客户端、多媒体客户端、电子书客户端、购物客户端等等,本申请不对用于展示目标图像的目标客户端进行具体限定。
这里,对于目标图像的打分过程参见本申请提供的图像处理方法实施例,在此不再赘述。在一些实施例中,服务器还收集目标客户端中针对目标图像的用户反馈数据,基于用户反馈数据对该目标图像进行打分。这里,用户反馈数据包括该目标图像的点击率或目标图像的留存率等等。对于目标图像的筛选过程参见本申请上述实施例,在此不再赘述。
步骤209,终端接收并展示所述分值达到分值阈值的目标图像。
在实际实施时,终端在接收到目标图像后,将该目标图像绑定至目标图像所对应的视频链接,将绑定有视频链接的目标图像展示在目标客户端的图形界面内,以供用户浏览点阅,从而为目标图像所对应的视频拉用户,实现有效的宣传。
本申请实施例中,通过基于对待处理图像进行目标对象检测得到的对象检测结果、及进行显著性检测得到的显著性检测结果,对所述待处理图像进行裁剪,从而保留了待处理图像中的人脸及显著性特征,然后基于图像模板,在剪裁图像中添加图层信息,得到与图像模板所指示的图像样式相对应的目标图像,实现了对图像的自动处理,提高了处理效率,且得到的目标图像中保留了原始的待处理图像中的有效信息,具有较强的适用性。
下面,将说明本申请实施例在一个实际的应用场景中的示例性应用。
在实际实施时,终端获取待处理视频,并获取用于图像裁剪的尺寸规格,示例性地,获取的尺寸规格可以是宽高比w’/h’。在一些实施例中,终端还获取用于指示图像样式的图像模板,并获取图像模板对应的图层信息。这里,图像模板用于指示对裁剪后的图像添加图层信息的图层位置,图层信息为待添加至裁剪后的图像中相应图层位置的图层,图像信息例如可以为一些logo图层。
终端在获取到待处理视频、图像裁剪的尺寸规格、用于指示图像样式的图像模板、及图像模板对应的图层信息后,从待处理视频中抽取多帧图像,并分别对各帧图像进行图像处理。这里,终端将从待处理视频中抽取的图像作为待处理图像。首先,终端对待处理图像进行人脸检测,得到相应的人脸检测结果。人脸检测可以采用MTCNN模型。当人脸检测结果表征从待处理图像中检测到人脸时,从待处理图像中确定包含人脸的人脸区域。当检测到的人脸区域的数量为一个时,确定人脸区域的中心点,并基于人脸区域的中心点对待处理图像进行裁剪,也即将待处理图像裁剪为宽高比为w’/h’的图像。
需要说明的是,待处理图像的宽高分别为w和h,当待处理图像的宽高比w/h大于裁剪尺寸规格的宽高比w’/h’,终端则将人脸区域的中心点作为裁剪框的宽度中心,保持裁剪框的高度为h,对待处理图像进行裁剪,得到宽高比为w’/h’裁剪图像。这里,裁剪图像的高度为h,宽度为(w’h)/h’。
示例性地,终端首先对待处理图像进行人脸检测,得到该图像中的包含人脸的人脸区域。在实际实施时,通过对待处理图像中的人脸进行人脸框的标注来进行人脸区域的标注。这里,终端进行人脸检测得到的人脸区域的数量为一个,终端则直接基于该人脸区域的中心点对待处理图像进行裁剪。待处理图像的宽高比w/h大于裁剪尺寸规格的宽高比w’/h’,终端通过上述方式对待处理图像进行裁剪后,得到相应的裁剪图像。
在一些实施例中,当待处理图像的宽高比小于裁剪尺寸规格的宽高比时,终端将人脸区域的中心点作为裁剪框高度的中心,保持裁剪框的宽度为w,对待处理图像进行裁剪,得到宽高比为w’/h’裁剪图像。这里,裁剪图像的宽度为w,高度为(wh’)/w’。
示例性地,待处理图像的宽高比w/h小于裁剪尺寸规格的宽高比w’/h’,终端通过上述方式对待处理图像进行裁剪后,得到相应的裁剪图像。
在一些实施例中,当待处理图像的宽高比等于裁剪尺寸规格的宽高比时,终端则不对待处理图像进行裁剪,直接对待处理图像进行图层信息的添加。
在一些实施例中,终端在对待处理图像进行人脸检测后,未在待处理图像中检测到人脸时,则对待处理图像进行显著性检测,得到包含显著性特征的显著区域。这里,显著性检测可以采用基于反向注意力机制的显著性检测算法。在检测到显著区域后,确定显著区域的中心点,基于显著区域的中心点对待处理图像进行裁剪。这里,对待处理图像的裁剪过程同上,在此不再赘述。
在一些实施例中,终端在对待处理图像进行人脸检测后,若在待处理图像中检测到多张人脸,得到相应的人脸特征图,这里,人脸特征图中包含用于指示待处理图像中人脸的人脸框,人脸框的数量与待处理图像中人脸的数量相同。接着,终端基于膨胀系数,分别对各人脸框进行膨胀处理,得到相应的膨胀人脸框。接着,终端将相连通的膨胀人脸框进行合并,得到合并人脸框。应当理解的是,得到的合并人脸框的数量为至少一个,终端从至少一个合并人脸框中选取面积最大的合并人脸框,确定该面积最大的合并人脸框的中心点,并基于该中心点对待处理图像进行裁剪。
示例性地,这里,待处理图像中含有两张人脸,终端在对待处理图像进行人脸检测后,得到相应的人脸特征图,该人脸特征图中包含用于指示待处理图像中的人脸的人脸框,接着,终端对人脸特征图中的人脸框进行膨胀处理,得到膨胀处理后的人脸特征图,这里,膨胀处理后的两个人脸框相连通,终端则合并这两个膨胀处理后的人脸框,作为合并人脸框。然后,终端确定合并人脸框的中心点,基于合并人脸框的中心点对待处理图像进行裁剪。这里,对待处理图像的裁剪过程参见上述实施例,在此不再赘述。
在实际实施时,终端在对待处理图像进行裁剪得到裁剪图像后,对裁剪图像进行清晰度检测,以将清晰度未达到清晰度阈值的裁剪图像进行过滤。这里,终端可以采用opencv的Laplacian算子对待处理图像进行过滤,这里,清晰度阈值例如可以为0.8。当裁剪图像的清晰度达到清晰度阈值时,终端对裁剪图像进行图层信息的添加,生成相应的目标图像,即用于宣传投放的海报图。这里,图像信息可以包括多个图层,例如为视频APP的logo图层,电视剧名图层,搜索框图层,搜索文字图层等。图层的类型包括固定图层和非固定图层。例如上述距离的几种图层中,视频APP的logo图层、搜索框图层和搜索文字图层等可以为预先设置的固定图层,而电视剧名图层则可以为预先设置的非固定图层。
当待添加的图层信息为固定图层时,获取预先设置的图像模板,基于图像模板确定对应裁剪图像中的图层位置,将固定图层添加至相应图层位置的裁剪图像中。应当理解的是,固定图层的图层位置是固定不变的,终端在对任意待处理图像进行图像处理时,均将固定图层添加至相同的图层位置上。
当待添加的图层信息为非固定图层时,终端获取预先设置的图像模板,基于图像模板确定对应裁剪图像中的可放置区域。示例性地,假设待添加的图层的尺寸为w1和h1,参见图13,图13是本申请实施例提供的图像模板的一个可选的示意图。终端可以将第一固定图层直接添加至第一图层放置区域1301-1内,将第二固定图层直接添加至第一图层放置区域1301-2内。应当说明的是,第一图层放置区域1301-1与第一固定图层的宽高比相同,第一图层放置区域1301-2与第二固定图层的宽高比相同。这里,第一固定图层例如可以为搜索功能项图层,第二固定图层例如可以为标识图层。终端可以从第二图层放置区域1302-1内选取第一目标区域,将第一非固定图层添加至第一目标区域内,从第二图层放置区域1302-2内选取第二目标区域,将第二非固定图层添加至第二目标区域内。这里,关于第一目标区域及第二目标区域的选取过程参见本申请上述实施例,在此不再赘述。
在实际实施时,终端在对待处理图像裁剪并添加图层信息,得到目标图像后,将目标图像发送至终端进行展示。具体地,终端还将目标图像与目标链接进行绑定,并发送至终端进行展示,当用户通过设置在终端内的目标客户端点击目标图像时,则自动跳转至目标链接。这里,目标连接可以为与待处理图像相对应的视频链接。
在一些场景中,可以是应用于视频封面图横屏转竖屏,目前大部分视频封面,专辑封面图仍然是横屏样式,而随着竖版视频的兴起,封面图也需要适应竖屏风格,此时,一张图同时适应横屏和竖屏要求,需要对图片内容进行主体裁剪。对于图文缩略图一般有固定尺寸,而用户上传的图片通常跟这个固定的尺寸比例不同,此时,缩略图只能显示图片的一部分。通过图片主体的选择,图文信息可以更有效地在缩略图中展示图片主要内容。在一些场景中,处理后的图像还用于广告投放,对图片截取出主体区域,增加各尺寸出图需要的其他设计元素(如搜索框,logo等),即可完成海报图的制作,可以用于广告投放,用户拉新等。
本申请实施例中,通过基于对待处理图像进行目标对象检测得到的对象检测结果、及进行显著性检测得到的显著性检测结果,对所述待处理图像进行裁剪,从而保留了待处理图像中的人脸及显著性特征,然后基于图像模板,在剪裁图像中添加图层信息,得到与图像模板所指示的图像样式相对应的目标图像,实现了对图像的自动处理,提高了处理效率,且得到的目标图像中保留了原始的待处理图像中的有效信息,具有较强的适用性。
下面继续说明本申请实施例提供的图像处理装置14,参见图14,图14是本申请实施例提供的图像处理装置14的一个可选的结构示意图,本申请实施例提供的图像处理装置14包括:
检测模块141,用于对待处理图像进行目标对象检测得到对象检测结果,并对所述待处理图像进行图像显著性检测得到显著性检测结果;
裁剪模块142,用于基于所述对象检测结果及所述显著性检测结果,对所述待处理图像进行裁剪得到相应的裁剪图像;
获取模块143,用于获取用于指示图像样式的图像模板,并获取所述图像模板对应的图层信息;
图层添加模块144,用于基于所述图像模板,在所述剪裁图像中添加所述图层信息,得到与所述图像模板所指示的图像样式相对应的目标图像。
在一些实施例中,所述检测模块,还用于对待处理图像进行人脸检测,以确定所述待处理图像中包含人脸的第一区域,并对所述待处理图像进行图像显著性检测,以确定所述待处理图像中包含显著性特征的第二区域。
在一些实施例中,所述裁剪模块,还用于当所述待处理图像中包含所述第一区域时,基于所述第一区域确定第一剪裁中心点,基于所述第二区域确定第二剪裁中心点,并基于所述第一剪裁中心点及所述第二剪裁中心点,对所述待处理图像进行裁剪得到相应的裁剪图像;当所述待处理图像中不包含所述第一区域时,基于所述第二区域确定第二剪裁中心点,并基于所述第二剪裁中心点,对所述待处理图像进行裁剪得到相应的裁剪图像。
在一些实施例中,所述裁剪模块,还用于当所述第一区域的数量为至少两个时,分别对所述待处理图像中各所述第一区域进行膨胀处理,得到相应的第一膨胀区域;当至少两个所述第一膨胀区域存在区域交集时,确定存在区域交集的所述第一膨胀区域,将存在区域交集的所述第一膨胀区域进行合并,得到相应的膨胀合并区域;基于所述膨胀合并区域,确定所述第一剪裁中心点。
在一些实施例中,所述裁剪模块,还用于当所述第一剪裁中心点位于所述第二区域外时,基于所述第一剪裁中心点,对所述待处理图像进行裁剪得到相应的裁剪图像;当所述第一剪裁中心点位于所述第二区域内时,基于所述第一剪裁中心点及所述第二剪裁中心点,确定相应的目标剪裁中心点,并基于所述目标剪裁中心点,对所述待处理图像进行裁剪得到相应的裁剪图像。
在一些实施例中,所述裁剪模块,还用于获取所述目标图像对应的应用场景类型;基于所述应用场景类型,确定所述裁剪图像对应的图像大小;基于所述对象检测结果及所述显著性检测结果,对所述待处理图像进行裁剪,得到对应所述图像大小的裁剪图像。
在一些实施例中,所述获取模块,还用于确定所述图像模板所指示的图像样式中的图层信息名称;基于所述图层信息名称,对所述待处理图像进行图层信息识别,得到对应所述图层信息名称的图层信息。
在一些实施例中,所述图像处理装置,还包括:过滤模块,用于当所述剪裁图像的数量为多个时,获取对应所述目标图像的清晰度阈值;基于所述清晰度阈值对多个所述剪裁图像进行过滤,得到达到清晰度阈值的至少一个剪裁图像;所述图层添加模块,还用于:基于所述图像模板,在达到清晰度阈值的剪裁图像中添加所述图层信息。
在一些实施例中,所述图层添加模块,还用于当所述图层信息的类型为固定图层时,基于所述图像模板,确定所述待处理图像中的第一图层放置区域;在所述图层放置区域中添加所述图层信息;当所述图层信息的类型为非固定图层时,基于所述图像模板,确定所述待处理图像中的第二图层放置区域;确定所述第二图层放置区域中像素方差最小的目标区域;在所述目标区域中添加所述图层信息。
在一些实施例中,所述图层添加模块,还用于当所述图层信息的类型为非固定图层时,基于所述图像模板,确定对应所述剪裁图像的第二图层放置区域;获取所述图层信息的图层尺寸,基于所述图层尺寸,从所述第二图层放置区域中选取像素方差最小的对应所述图层尺寸的目标区域;在所述目标区域中添加所述图层信息。
在一些实施例中,所述图层添加模块,还用于当所述图层信息的类型为非固定图层时,基于所述图像模板,确定对应所述剪裁图像的第二图层放置区域;确定所述第二图层放置区域与所述第一区域之间的第一交集区域,并确定所述第二图层放置区域与所述第二区域之间的第二交集区域,将所述第一交集区域与所述第二交集区域进行合并,得到相应的合并区域;获取所述图层信息的图层尺寸,基于所述图层尺寸,在所述第二图层放置区域内,选取与所述合并区域的交集最小的对应所述图层尺寸的目标区域;在所述目标区域中添加所述图层信息。
在一些实施例中,所述图像处理装置,还包括:图像筛选模块,用于当所述目标图像的数量为多个时,针对各所述目标图像执行以下处理:当所述目标图像中包含人脸时,对所述人脸进行表情特征的提取,得到相应的人脸表情特征;基于所述人脸表情特征,对所述目标图像进行评分,得到相应的表情分值;当所述表情分值未达到表情分阈值时,删除相应的所述目标图像。
应用本申请上述实施例,通过对待处理图像进行目标对象检测得到的对象检测结果、及进行显著性检测得到的显著性检测结果,对所述待处理图像进行裁剪,从而保留了待处理图像中的人脸及显著性特征,然后基于图像模板,在剪裁图像中添加图层信息,得到与图像模板所指示的图像样式相对应的目标图像,实现了对图像的自动处理,提高了处理效率,且得到的目标图像中保留了原始的待处理图像中的有效信息,具有较强的适用性。
本申请实施例还提供一种计算机设备,参见图15,图15为本申请实施例提供的计算机设备500的一个可选的结构示意图,在实际应用中,计算机设备可以为图1中的终端400或服务器200,以计算机设备为图1所示的终端400为例,对实施本申请实施例提供的图像处理方法的计算机设备进行说明,计算机设备包括:
存储器550,用于存储可执行指令;
处理器510,用于执行所述存储器中存储的可执行指令时,实现本申请实施例提供的图像处理方法。
这里,处理器510可以是一种集成电路芯片,具有信号的处理能力,例如通用处理器、数字信号处理器(DSP,Digital Signal Processor),或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,其中,通用处理器可以是微处理器或者任何常规的处理器等。
存储器550可以是可移除的,不可移除的或其组合。示例性的硬件设备包括固态存储器,硬盘驱动器,光盘驱动器等。存储器550可选地包括在物理位置上远离处理器510的一个或多个存储设备。
存储器550包括易失性存储器或非易失性存储器,也可包括易失性和非易失性存储器两者。非易失性存储器可以是只读存储器(ROM,Read Only Memory),易失性存储器可以是随机存取存储器(RAM,Random Access Memory)。本申请实施例描述的存储器550旨在包括任意适合类型的存储器。
在一些实施例中还可包括至少一个网络接口520和用户接口530。计算机设备500中的各个组件通过总线系统540耦合在一起。可理解,总线系统540用于实现这些组件之间的连接通信。总线系统540除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图13中将各种总线都标为总线系统540。
本申请实施例提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行本申请实施例上述的图像处理方法。
本申请实施例提供一种存储有可执行指令的计算机可读存储介质,其中存储有可执行指令,当可执行指令被处理器执行时,将引起处理器执行本申请实施例提供的方法,例如,如图2示出的图像处理方法。
在一些实施例中,计算机可读存储介质可以是FRAM、ROM、PROM、EPROM、EEPROM、闪存、磁表面存储器、光盘、或CD-ROM等存储器;也可以是包括上述存储器之一或任意组合的各种设备。
在一些实施例中,可执行指令可以采用程序、软件、软件模块、脚本或代码的形式,按任意形式的编程语言(包括编译或解释语言,或者声明性或过程性语言)来编写,并且其可按任意形式部署,包括被部署为独立的程序或者被部署为模块、组件、子例程或者适合在计算环境中使用的其它单元。
作为示例,可执行指令可以但不一定对应于文件系统中的文件,可以可被存储在保存其它程序或数据的文件的一部分,例如,存储在超文本标记语言(HTML,Hyper TextMarkup Language)文档中的一个或多个脚本中,存储在专用于所讨论的程序的单个文件中,或者,存储在多个协同文件(例如,存储一个或多个模块、子程序或代码部分的文件)中。
作为示例,可执行指令可被部署为在一个计算机设备上执行,或者在位于一个地点的多个计算机设备上执行,又或者,在分布在多个地点且通过通信网络互连的多个计算机设备上执行。
综上所述,通过本申请实施例能够高效地生成适用性强的目标图像。
以上所述,仅为本申请的实施例而已,并非用于限定本申请的保护范围。凡在本申请的精神和范围之内所作的任何修改、等同替换和改进等,均包含在本申请的保护范围之内。
Claims (15)
1.一种图像处理方法,其特征在于,所述方法包括:
对待处理图像进行目标对象检测得到对象检测结果,并对所述待处理图像进行图像显著性检测得到显著性检测结果;
基于所述对象检测结果及所述显著性检测结果,对所述待处理图像进行裁剪得到相应的裁剪图像;
获取用于指示图像样式的图像模板,并获取所述图像模板对应的图层信息;
基于所述图像模板,在所述剪裁图像中添加所述图层信息,得到与所述图像模板所指示的图像样式相对应的目标图像。
2.如权利要求1所述的方法,其特征在于,所述对待处理图像进行目标对象检测得到对象检测结果,并对所述待处理图像进行图像显著性检测得到显著性检测结果,包括:
对待处理图像进行人脸检测,以确定所述待处理图像中包含人脸的第一区域,并对所述待处理图像进行图像显著性检测,以确定所述待处理图像中包含显著性特征的第二区域。
3.如权利要求2所述的方法,其特征在于,所述基于所述对象检测结果及所述显著性检测结果,对所述待处理图像进行裁剪得到相应的裁剪图像,包括:
当所述待处理图像中包含所述第一区域时,基于所述第一区域确定第一剪裁中心点,基于所述第二区域确定第二剪裁中心点,并基于所述第一剪裁中心点及所述第二剪裁中心点,对所述待处理图像进行裁剪得到相应的裁剪图像;
当所述待处理图像中不包含所述第一区域时,基于所述第二区域确定第二剪裁中心点,并基于所述第二剪裁中心点,对所述待处理图像进行裁剪得到相应的裁剪图像。
4.如权利要求3所述的方法,其特征在于,所述基于所述第一区域确定第一剪裁中心点,包括:
当所述第一区域的数量为至少两个时,分别对所述待处理图像中各所述第一区域进行膨胀处理,得到相应的第一膨胀区域;
当至少两个所述第一膨胀区域存在区域交集时,将存在区域交集的所述第一膨胀区域进行合并,得到相应的膨胀合并区域;
基于所述膨胀合并区域,确定所述第一剪裁中心点。
5.如权利要求3所述的方法,其特征在于,所述基于所述第一剪裁中心点及所述第二剪裁中心点,对所述待处理图像进行裁剪得到相应的裁剪图像,包括:
当所述第一剪裁中心点位于所述第二区域外时,基于所述第一剪裁中心点,对所述待处理图像进行裁剪得到相应的裁剪图像;
当所述第一剪裁中心点位于所述第二区域内时,基于所述第一剪裁中心点及所述第二剪裁中心点,确定相应的目标剪裁中心点,并基于所述目标剪裁中心点,对所述待处理图像进行裁剪得到相应的裁剪图像。
6.如权利要求2所述的方法,其特征在于,所述基于所述图像模板,在所述剪裁图像中添加所述图层信息,包括:
当所述图层信息的类型为非固定图层时,基于所述图像模板,确定对应所述剪裁图像的第二图层放置区域;
确定所述第二图层放置区域与所述第一区域之间的第一交集区域,并确定所述第二图层放置区域与所述第二区域之间的第二交集区域,将所述第一交集区域与所述第二交集区域进行合并,得到相应的合并区域;
获取所述图层信息的图层尺寸,基于所述图层尺寸,在所述第二图层放置区域内,选取与所述合并区域的交集最小的对应所述图层尺寸的目标区域;
在所述目标区域中添加所述图层信息。
7.如权利要求1所述的方法,其特征在于,所述基于所述对象检测结果及所述显著性检测结果,对所述待处理图像进行裁剪得到相应的裁剪图像,包括:
获取所述目标图像对应的应用场景类型;
基于所述应用场景类型,确定所述裁剪图像对应的图像大小;
基于所述对象检测结果及所述显著性检测结果,对所述待处理图像进行裁剪,得到对应所述图像大小的裁剪图像。
8.如权利要求1所述的方法,其特征在于,所述获取所述图像模板对应的图层信息,包括:
确定所述图像模板所指示的图像样式中的图层信息名称;
基于所述图层信息名称,对所述待处理图像进行图层信息识别,得到对应所述图层信息名称的图层信息。
9.如权利要求1所述的方法,其特征在于,所述基于所述图像模板,在所述剪裁图像中添加所述图层信息之前,所述方法还包括:
当所述剪裁图像的数量为多个时,获取对应所述目标图像的清晰度阈值;
基于所述清晰度阈值对多个所述剪裁图像进行过滤,得到达到清晰度阈值的至少一个剪裁图像;
所述基于所述图像模板,在所述剪裁图像中添加所述图层信息,包括:
基于所述图像模板,在达到清晰度阈值的剪裁图像中添加所述图层信息。
10.如权利要求1所述的方法,其特征在于,所述基于所述图像模板,在所述剪裁图像中添加所述图层信息,包括:
当所述图层信息的类型为固定图层时,基于所述图像模板,确定对应所述剪裁图像的第一图层放置区域;
在所述第一图层放置区域中添加所述图层信息。
11.如权利要求1所述的方法,其特征在于,所述基于所述图像模板,在所述剪裁图像中添加所述图层信息,包括:
当所述图层信息的类型为非固定图层时,基于所述图像模板,确定对应所述剪裁图像的第二图层放置区域;
获取所述图层信息的图层尺寸,基于所述图层尺寸,从所述第二图层放置区域中选取像素方差最小的对应所述图层尺寸的目标区域;
在所述目标区域中添加所述图层信息。
12.如权利要求1所述的方法,其特征在于,所述方法还包括:
当所述目标图像的数量为多个时,针对各所述目标图像执行以下处理:
当所述目标图像中包含人脸时,对所述人脸进行表情特征的提取,得到相应的人脸表情特征;
基于所述人脸表情特征,对所述目标图像进行评分,得到相应的表情分值;
当所述表情分值未达到表情分阈值时,删除相应的所述目标图像。
13.一种图像处理装置,其特征在于,包括:
检测模块,用于对待处理图像进行目标对象检测得到对象检测结果,并对所述待处理图像进行图像显著性检测得到显著性检测结果;
裁剪模块,用于基于所述对象检测结果及所述显著性检测结果,对所述待处理图像进行裁剪得到相应的裁剪图像;
获取模块,用于获取用于指示图像样式的图像模板,并获取所述图像模板对应的图层信息;
图层添加模块,用于基于所述图像模板,在所述剪裁图像中添加所述图层信息,得到与所述图像模板所指示的图像样式相对应的目标图像。
14.一种计算机设备,其特征在于,包括:
存储器,用于存储可执行指令;
处理器,用于执行所述存储器中存储的可执行指令时,实现权利要求1至12任一项所述的图像处理方法。
15.一种计算机可读存储介质,其特征在于,存储有可执行指令,用于被处理器执行时,实现权利要求1至12任一项所述的图像处理方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110296922.1A CN113709386A (zh) | 2021-03-19 | 2021-03-19 | 图像处理方法、装置、计算机设备及计算机可读存储介质 |
PCT/CN2022/080696 WO2022194102A1 (zh) | 2021-03-19 | 2022-03-14 | 图像处理方法、装置、计算机设备、存储介质及程序产品 |
US17/993,848 US20230091549A1 (en) | 2021-03-19 | 2022-11-23 | Image processing method and apparatus, computer device, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110296922.1A CN113709386A (zh) | 2021-03-19 | 2021-03-19 | 图像处理方法、装置、计算机设备及计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113709386A true CN113709386A (zh) | 2021-11-26 |
Family
ID=78647834
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110296922.1A Pending CN113709386A (zh) | 2021-03-19 | 2021-03-19 | 图像处理方法、装置、计算机设备及计算机可读存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230091549A1 (zh) |
CN (1) | CN113709386A (zh) |
WO (1) | WO2022194102A1 (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114092495A (zh) * | 2021-11-29 | 2022-02-25 | 阿里巴巴(中国)有限公司 | 图像展示方法、电子设备、存储介质及程序产品 |
CN114257762A (zh) * | 2021-12-20 | 2022-03-29 | 咪咕音乐有限公司 | 视频转换方法、装置、设备及存储介质 |
WO2022194102A1 (zh) * | 2021-03-19 | 2022-09-22 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机设备、存储介质及程序产品 |
WO2022242397A1 (zh) * | 2021-05-17 | 2022-11-24 | 腾讯科技(深圳)有限公司 | 一种图像处理方法、装置及计算机可读存储介质 |
EP4322163A1 (en) * | 2022-08-10 | 2024-02-14 | Beijing Xiaomi Mobile Software Co., Ltd. | Image processing method and device, and storage medium |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8363984B1 (en) * | 2010-07-13 | 2013-01-29 | Google Inc. | Method and system for automatically cropping images |
CN111768470A (zh) * | 2019-06-20 | 2020-10-13 | 北京京东尚科信息技术有限公司 | 图片生成方法、装置、计算机设备及计算机可读存储介质 |
CN110349082B (zh) * | 2019-06-28 | 2023-08-29 | 腾讯科技(深圳)有限公司 | 图像区域的裁剪方法和装置、存储介质及电子装置 |
CN111626126A (zh) * | 2020-04-26 | 2020-09-04 | 腾讯科技(北京)有限公司 | 一种人脸情绪识别的方法、装置、介质及电子设备 |
CN112330532A (zh) * | 2020-11-12 | 2021-02-05 | 上海枫河软件科技有限公司 | 图像解析处理方法及设备 |
CN113709386A (zh) * | 2021-03-19 | 2021-11-26 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机设备及计算机可读存储介质 |
-
2021
- 2021-03-19 CN CN202110296922.1A patent/CN113709386A/zh active Pending
-
2022
- 2022-03-14 WO PCT/CN2022/080696 patent/WO2022194102A1/zh unknown
- 2022-11-23 US US17/993,848 patent/US20230091549A1/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022194102A1 (zh) * | 2021-03-19 | 2022-09-22 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机设备、存储介质及程序产品 |
WO2022242397A1 (zh) * | 2021-05-17 | 2022-11-24 | 腾讯科技(深圳)有限公司 | 一种图像处理方法、装置及计算机可读存储介质 |
CN114092495A (zh) * | 2021-11-29 | 2022-02-25 | 阿里巴巴(中国)有限公司 | 图像展示方法、电子设备、存储介质及程序产品 |
CN114257762A (zh) * | 2021-12-20 | 2022-03-29 | 咪咕音乐有限公司 | 视频转换方法、装置、设备及存储介质 |
EP4322163A1 (en) * | 2022-08-10 | 2024-02-14 | Beijing Xiaomi Mobile Software Co., Ltd. | Image processing method and device, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
WO2022194102A1 (zh) | 2022-09-22 |
US20230091549A1 (en) | 2023-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113709386A (zh) | 图像处理方法、装置、计算机设备及计算机可读存储介质 | |
CN110139159B (zh) | 视频素材的处理方法、装置及存储介质 | |
CN110602554B (zh) | 封面图像确定方法、装置及设备 | |
CN110297943B (zh) | 标签的添加方法、装置、电子设备及存储介质 | |
CN107273502B (zh) | 一种基于空间认知学习的图像地理标注方法 | |
US9317738B2 (en) | Intelligent cropping of images based on multiple interacting variables | |
US20160292494A1 (en) | Face detection and recognition | |
CN111881755B (zh) | 一种视频帧序列的裁剪方法及装置 | |
CN113766296B (zh) | 直播画面的展示方法和装置 | |
CN113627402B (zh) | 一种图像识别方法及相关装置 | |
CN113590854B (zh) | 一种数据处理方法、设备以及计算机可读存储介质 | |
CN114332374A (zh) | 一种虚拟显示方法、设备以及存储介质 | |
CN111222450A (zh) | 模型的训练及其直播处理的方法、装置、设备和存储介质 | |
CN111954087B (zh) | 视频中图像的截取方法和装置、存储介质和电子设备 | |
CN114372172A (zh) | 生成视频封面图像的方法、装置、计算机设备及存储介质 | |
CN110418148B (zh) | 视频生成方法、视频生成设备及可读存储介质 | |
CN114092670A (zh) | 一种虚拟现实显示方法、设备以及存储介质 | |
CN113709544B (zh) | 视频的播放方法、装置、设备及计算机可读存储介质 | |
CN111008295A (zh) | 书页检索方法、装置、电子设备和存储介质 | |
CN113905188B (zh) | 一种视频拼接动态调整方法、系统、电子装置及存储介质 | |
CN113761281B (zh) | 虚拟资源处理方法、装置、介质及电子设备 | |
CN112632317B (zh) | 基于用户图片的多目标交互方法及装置 | |
CN113569616A (zh) | 内容识别方法、装置和存储介质及电子设备 | |
CN111866573B (zh) | 视频的播放方法、装置、电子设备及存储介质 | |
CN112312205A (zh) | 一种视频处理方法、装置、电子设备和计算机存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20221124 Address after: 1402, Floor 14, Block A, Haina Baichuan Headquarters Building, No. 6, Baoxing Road, Haibin Community, Xin'an Street, Bao'an District, Shenzhen, Guangdong 518133 Applicant after: Shenzhen Yayue Technology Co.,Ltd. Address before: 518057 Tencent Building, No. 1 High-tech Zone, Nanshan District, Shenzhen City, Guangdong Province, 35 floors Applicant before: TENCENT TECHNOLOGY (SHENZHEN) Co.,Ltd. |