CN108805095A - 图片处理方法、装置、移动终端及计算机可读存储介质 - Google Patents

图片处理方法、装置、移动终端及计算机可读存储介质 Download PDF

Info

Publication number
CN108805095A
CN108805095A CN201810630408.5A CN201810630408A CN108805095A CN 108805095 A CN108805095 A CN 108805095A CN 201810630408 A CN201810630408 A CN 201810630408A CN 108805095 A CN108805095 A CN 108805095A
Authority
CN
China
Prior art keywords
picture
target object
scene
pending
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810630408.5A
Other languages
English (en)
Inventor
张弓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority to CN201810630408.5A priority Critical patent/CN108805095A/zh
Publication of CN108805095A publication Critical patent/CN108805095A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene

Abstract

本申请提供了一种图片处理方法、装置、移动终端及计算机可读存储介质,所述方法包括:获取待处理图片;检测所述待处理图片中的目标物体,获得检测结果;对所述待处理图片进行场景分类,获得分类结果;根据所述检测结果以及所述分类结果对所述待处理图片进行处理。本申请所提供的技术方案可以获得待处理图片更多的信息,能够对待处理图片进行更加精细丰富的处理,有效提升图片整体的处理效果。

Description

图片处理方法、装置、移动终端及计算机可读存储介质
技术领域
本申请属于图片处理技术领域,尤其涉及一种图片处理方法、装置、移动终端及计算机可读存储介质。
背景技术
目前,很多用户喜欢在社交公共平台分享自己所拍摄的图片,为了使自己所拍摄的图片更加富有美感,通常都会使用修图软件对图片进行处理,常用的修图软件有美图秀秀、光影魔术手或者Photoshop等。
现有的修图软件对图片的处理方法通常为:识别图片中所包含的某一个预设目标,比如人脸、动物或者食物等,根据所识别的该预设目标,对整张图片进行相应的处理。比如,若识别出图片中包含人脸,则对整张图片进行美白以及磨皮等处理。但是,在对图片进行处理之前,能够获得的图片信息较少,一般都是对图片统一进行磨皮、滤镜处理,导致图片美化效果较差,不能满足用户追求精致修图的使用体验。
发明内容
有鉴于此,本申请提供了一种图片处理方法、装置、移动终端及计算机可读存储介质,可以有效提升图片处理的整体效果。
本申请第一方面提供了一种图片处理方法,包括:
获取待处理图片;
检测上述待处理图片中的目标物体,获得检测结果;
对上述待处理图片进行场景分类,获得分类结果;
根据上述检测结果以及上述分类结果对上述待处理图片进行处理。
本申请第二方面提供了一种图片处理装置,包括:
图片获取模块,用于获取待处理图片;
场景检测模块,用于检测上述待处理图片中的目标物体,获得检测结果;
场景分类模块,用于对上述待处理图片进行场景分类,获得分类结果;
图片处理模块,用于根据上述检测结果以及上述分类结果对上述待处理图片进行处理。
本申请第三方面提供了一种移动终端,包括存储器、处理器以及存储在上述存储器中并可在上述处理器上运行的计算机程序,上述处理器执行上述计算机程序时实现如上述第一方面方法的步骤。
本申请第四方面提供了一种计算机可读存储介质,上述计算机可读存储介质存储有计算机程序,上述计算机程序被处理器执行时实现如上述第一方面方法的步骤。
本申请第五方面提供了一种计算机程序产品,上述计算机程序产品包括计算机程序,上述计算机程序被一个或多个处理器执行时实现如上述第一方面方法的步骤。
由上可见,本申请提供了一种图片处理方法,首先,获取待处理图片;其次,检测该待处理图片中的目标物体,比如,人脸、动物以及食物等,获得检测结果;然后,对上述待处理图片进行场景分类,比如,将待处理图片分类为海滩场景、森林场景、草地场景、雪地场景或沙漠场景等,获得分类结果;最后,根据上述检测结果以及上述分类结果对上述待处理图片进行处理。因此,本申请所提供的技术方案,需要事先对待处理图片进行场景检测以及场景分类,获取该待处理图片中关于目标物体以及场景类别的信息,然后根据所获取的信息对该待处理图片进行处理,而现有的图片处理方式仅仅是获取图片中有无某个特定的预设目标,因此,本申请所提供的技术方案与现有的图片处理方式相比,可以获得待处理图片更多的信息,因此,本申请可以根据所获得的信息对待处理图片进行更加精细丰富的处理,能够更进一步提高用户体验。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1是本申请实施例一提供的一种图片处理方法的实现流程示意图;
图2(a)是本申请实施例一提供的场景检测模型的训练流程示意图;
图2(b)是本申请实施例一提供的利用样本图片训练场景检测模型的示意图;
图3是本申请实施例一提供的场景分类模型的训练流程示意图;
图4是本申请实施例一提供的风格图片确定方法示意图;
图5是本申请实施例一提供的风格转换前后界面显示示意图;
图6是本申请实施例二提供的另一种图片处理方法的实现流程示意图;
图7(a)是本申请实施例二提供的第一对应关系表的示意图;
图7(b)是本申请实施例二提供的第二对应关系表的示意图;
图8是本申请实施例三提供的一种图片处理装置的结构示意图;
图9是本申请实施例四提供的移动终端的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
本申请实施例提供的图片处理方法可以适用于移动终端,示例性地,上述移动终端包括但不限于:智能手机、平板电脑、智能穿戴设备等。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本申请说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本申请。如在本申请说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
具体实现中,本申请实施例中描述的移动终端包括但不限于诸如具有触摸敏感表面(例如,触摸屏显示器和/或触摸板)的移动电话、膝上型计算机或平板计算机之类的其它便携式设备。还应当理解的是,在某些实施例中,上述设备并非便携式通信设备,而是具有触摸敏感表面(例如,触摸屏显示器和/或触摸板)的台式计算机。
在接下来的讨论中,描述了包括显示器和触摸敏感表面的移动终端。然而,应当理解的是,移动终端可以包括诸如物理键盘、鼠标和/或控制杆的一个或多个其它物理用户接口设备。
移动终端支持各种应用程序,例如以下中的一个或多个:绘图应用程序、演示应用程序、文字处理应用程序、网站创建应用程序、盘刻录应用程序、电子表格应用程序、游戏应用程序、电话应用程序、视频会议应用程序、电子邮件应用程序、即时消息收发应用程序、锻炼支持应用程序、照片管理应用程序、数码相机应用程序、数字摄影机应用程序、web浏览应用程序、数字音乐播放器应用程序和/或数字视频播放器应用程序。
可以在移动终端上执行的各种应用程序可以使用诸如触摸敏感表面的至少一个公共物理用户接口设备。可以在应用程序之间和/或相应应用程序内调整和/或改变触摸敏感表面的一个或多个功能以及终端上显示的相应信息。这样,终端的公共物理架构(例如,触摸敏感表面)可以支持具有对用户而言直观且透明的用户界面的各种应用程序。
另外,在本申请的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。为了说明本申请上述的技术方案,下面通过具体实施例来进行说明。
实施例一
下面对本申请实施例一提供的一种图片处理方法进行描述,请参阅附图1,本申请实施例一提供的图片处理方法包括:
在步骤S101中,获取待处理图片;
在本申请实施例中,上述待处理图片可以是移动终端启动相机或摄像机后的预览画面中的某一帧图片,比如,用户启动相机应用程序,在移动终端的显示屏上所显示的某一帧图片;或者,可以是用户通过本地相机所拍摄的图片,比如,用户启动移动终端中的相机应用程序,利用相机应用程序所拍摄的图片;或者,可以是用户通过其他应用程序新接收的图片,比如,用户在微信中接收到的其他微信联系人所发送的图片;或者,也可以是用户从互联网上下载的图片,比如,用户通过公共运营商网络在浏览器中下载的图片;或者,还可以是视频中的某一帧图片,比如,用户所观看的动画片或者电视剧中的其中一帧图片。此处对待处理图片的来源不作限定。
在步骤S102中,检测上述待处理图片中的目标物体,获得检测结果;
在本申请实施例中,可以利用训练后的场景检测模型(即用于场景检测的神经网络模型)检测上述待处理图片中的目标物体,或者,也可以利用本领域常用的其他场景检测方法来检测上述待处理图片中的目标物体,此处对目标物体的检测方法不作限定。
若利用训练后的场景检测模型检测上述待处理图片中的目标物体,则该场景检测模型可以为单点多盒检测(Single Shot Multibox Detection,SSD)模型,其中,SSD模型是一种卷积神经网络模型。其中,上述目标物体可以为经常出现在用户照片中的前景,该前景可以是指具有动态特征的目标物体,例如人脸、动物等;也可以是指距离观赏者较近且具有静态特征的景物,例如鲜花、食物等。在本申请实施例中,为了获取待处理图片所包含的更多信息,便于后续对待处理图片的处理,可以预先训练该场景检测模型能够检测多个不同种类的前景(比如训练后的场景检测模型能够检测的目标物体为人脸、食物以及动物)。
在本申请实施例中,上述检测结果可以用于指示上述待处理图片中有无目标物体,并且在包含目标物体时用于指示上述待处理图片中所包含的各个目标物体的类别;或者,也可以在包含目标物体时,用于指示上述待处理图片中所包含的各个目标物体的类别以及位置,此处对检测结果不作限定。其中,上述位置用于对目标物体进行定位,在本申请实施例中,可以用方框、圆框、椭圆形框等对各个目标物体进行定位,若用方框对目标物体进行定位的话,可以用该方框左上角以及右下角的坐标来表示目标物体的位置;若用圆框对目标物体进行定位的话,可以用圆框的圆心坐标以及圆半径来表示目标物体的位置,此处对目标物体的位置的表示方式不作限定。
此外,若利用训练后的场景检测模型检测上述待处理图片中的目标物体,则该场景检测模型可以在移动终端出厂之前预先训练好,固化在移动终端中;也可以是在用户使用过程中,不断对用户所拍摄的照片中的目标物体进行检测,对场景检测模型进行个性化训练,使得不同用户的移动终端中的场景检测模型能够准确检测的场景不同。比如,用户A经常拍摄植物和食物,则用户A所使用的移动终端中的场景检测模型对植物和食物的检测准确率较高,用户B经常拍摄人脸和动物,则用户B所使用的移动终端中的场景检测模型对人脸和动物的检测准确率较高。
在本申请实施例中,上述训练后的场景检测模型如果是在移动终端出厂之前预先训练好的,则可以根据数据库中的各个样本图片训练得到;若上述训练后的场景检测模型是在用户使用过程中训练完成的,则训练过程可以不需要数据库,可以在用户拍摄完照片后,未训练好的场景检测模型输出该照片的检测结果(比如,该照片包含人脸、位置为X),然后由用户对该检测结果进行更正(比如将位置X更正为位置Y),然后该场景检测模型根据用户的更正结果来不断调整自身参数,直到用户不再更正检测结果为止。此时,该场景检测模型的训练过程需要用户的参与,这在一定程度上可以增加用户与手机之间的互动,可以增加一定的趣味性。
下面假设上述训练后的场景检测模型是在移动终端出厂之前训练好的,且该训练后的场景检测模型用于检测目标物体的类别和位置,则该场景检测模型的训练过程可以如图2(a)所示,包括步骤S201-S203:
在步骤S201中,预先获取各个样本图片以及各个样本图片对应的检测结果;
其中,每一个样本图片所对应的检测结果用于指示该样本图片有无目标物体以及各个目标物体的类别和位置。
通常情况下,训练后的场景检测模型都只能对图片尺寸(该图片尺寸包括图片宽度方向上像素点个数以及高度方向上像素点个数,通常用“宽度方向上像素点个数×高度方向上像素点个数”来表示)固定的图片进行场景检测,假设训练后的场景检测模型是用来对图片尺寸为A×B的图片进行场景检测,且能够检测到的目标物体为人脸和动物。则需要事先获取图片尺寸为A×B的各个样本图片,且每个样本图片所对应的检测结果用于指示该样本图片中有无人脸或动物,若包含人脸或动物,则该检测结果用于指示该样本图片所包含的各个目标物体的类别(是人脸还是动物)以及各个目标物体的位置。
示例性地,如图2(b)所示,预先获取4个图片尺寸为A×B为样本图片,分别为样本图片1、样本图片2、样本图片3以及样本图片4,样本图片1对应的检测结果为:人脸、{(X1人脸 样本1,Y1人脸 样本1),(X2人脸 样本1,Y2人脸 样本1)},动物、{(X1动物 样本1,Y1动物 样本1),(X2动物 样本1,Y2动物 样本1)};样本图片2的检测结果为:人脸、{(X1人脸 样本2,Y1人脸 样本2),(X2人脸 样本2,Y2人脸 样本2)};样本图片3的检测结果为:未包含目标物体;样本图片4的检测结果为:动物、{(X1动物 样本3,Y1动物 样本3),(X2动物 样本3,Y2动物 样本3)}。
在步骤S202中,利用初始的场景检测模型检测上述各个样本图片中的目标物体,并根据预先获取的各个样本图片对应的检测结果,计算该初始的场景检测模型的检测准确率;
在本申请实施例中,针对某一样本图片,比如样本图片1,由步骤S201可知,该样本图片1包含人脸以及动物,然而,若上述初始的场景检测模型输出的检测结果指示“样本图片1中未包含目标物体”,则认为该初始的场景检测模型未准确检测该样本图片1;若上述初始的场景检测模型输出的检测结果指示“样本图片1中只包含人脸”,则也认为未准确检测该样本图片1。
若上述初始的场景检测模型输出的检测结果指示“样本图片1包含人脸以及动物”,则可以进一步计算该初始的场景检测模型所检测到的人脸所位于的图片区域与步骤S201中预先获取的人脸所位于的图片区域的交并比(Intersection over Union,IOU)值,同时计算该初始的场景检测模型所检测到的动物所位于的图片区域与步骤S201中预先获取的动物所位于的图片区域的IOU值;若上述两个IOU值均大于预设的IOU阈值,则认为该初始的场景检测模型准确检测了该样本图片1,否则,认为未准确检测该样本图片1。
遍历所有的样本图片,统计该初始的场景检测模型准确检测的样本图片在所有样本图片中所占的比例,可以将该比例设置为检测准确率。
在步骤S203中,若上述检测准确率小于预设的检测阈值,则调整上述初始的场景检测模型的参数,直到调整后的上述场景检测模型的检测准确率大于或等于上述检测阈值;
在本申请实施例中,若该初始的场景检测模型的检测准确率小于预设的检测阈值,则说明该初始的场景检测模型不能非常好的实现对图片中的目标物体的检测,需要重新训练该场景检测模型,因此,调整该场景检测模型的参数,直到检测准确率达到检测阈值为止。常用的调整参数的方法有随机梯度下降算法(Stochastic Gradient Descent,SGD)、动力更新算法(Momentum update)等等,此处对调整参数所使用的方法不作限定。
在步骤S103中,对上述待处理图片进行场景分类,获得分类结果;
在本申请实施例中,可以利用训练后的场景分类模型(即用于场景分类的神经网络模型)对上述待处理图片进行场景分类,或者,也可以利用本领域常用的其他场景分类方法来对上述待处理图片进行场景分类,此处对场景分类的方法不作限定。
若利用训练后的场景分类模型对上述待处理图片进行场景分类,则该场景分类模型可以为MobileNet模型,其中,MobileNet模型是一种卷积神经网络模型。一般情况下,用户所拍摄的照片的背景通常为草地、雪地、海滩以及室内,因此,可以预先训练场景分类模型,使得训练后的场景分类模型能够识别出用户所拍摄的照片的背景,比如,能够识别出草地场景、雪地场景、海滩场景以及室内场景。
其中,该场景分类模型可以在移动终端出厂之前预先训练好,固化在移动终端中;也可以是在用户使用的过程中不断识别用户所拍摄的照片的背景,对场景分类模型进行个性化训练,使得不同移动终端的场景分类模型能够准确识别的背景不同。比如,用户A经常在草地和沙漠拍照,则用户A所使用的移动终端中的场景分类模型对草地和沙漠的识别准确率较高,用户B经常在室内和机场,则用户B所使用的移动终端中的场景分类模型对对室内和机场的识别准确率较高。
在本申请实施例中,上述训练后的场景分类模型如果是在移动终端出厂之前预先训练好的,则可以根据数据库中的各个样本图片训练得到;若上述训练后的场景分类模型是在用户使用过程中训练完成的,则训练过程可以不需要数据库,可以在用户拍摄完照片后,利用未训练好的场景分类模型输出该照片的场景类别(比如,草地场景),然后由用户对该分类结果进行更正(比如修正为室内场景),然后该场景分类模型根据用户的更正结果来不断调整自身参数,直到用户不再更正分类结果为止。此时,该场景分类模型的训练过程需要用户的参与,这在一定程度上可以增加用户与手机之间的互动,可以增加一定的趣味性。
下面假设该训练后的场景分类模型是在移动终端出厂之前训练好的,则该场景分类模型的训练过程如图3所示,可以包括步骤S301-S303:
在步骤S301中,预先获取各个样本图片以及各个样本图片对应的分类结果;
假设训练后的场景分类模型能够识别的场景类别包括:草地场景、雪地场景以及海滩场景。则需要事先获取各个样本图片以及各个样本图片所对应的分类结果,比如样本图片1为草地场景、样本图片2为雪地场景、样本图片3为海滩场景。
在步骤S302中,利用初始的场景分类模型对各个样本图片进行场景分类,并根据预先获取的各个样本图片的分类结果,计算该初始的场景分类模型的分类准确率;
在本申请实施例中,针对某一样本图片,比如样本图片1,由步骤S401可知,该样本图片1为草地场景,然而,若上述初始的场景分类模型输出的分类结果指示“样本图片1为雪地场景”,则认为该初始的场景分类模型未准确分类该样本图片1。
遍历所有的样本图片,统计该初始的场景分类模型准确分类的样本图片在所有样本图片中所占的比例,可以将该比例设置为分类准确率。
在步骤S303中,若上述分类准确率小于预设的分类阈值,则调整上述初始的场景分类模型的参数,直到调整后的上述场景分类模型的分类准确率大于或等于上述分类阈值;
若初始的场景分类模型的分类准确率小于预设的分类阈值,则说明该初始的场景分类模型不能非常好的实现对图片的分类,需要重新训练该场景分类模型,因此,调整该场景分类模型的参数,直到分类准确率达到分类阈值为止。常用的调整参数的方法有随机梯度下降算法、动力更新算法等等,此处对调整参数所使用的方法不作限定。
此外,在本申请实施例中,若利用训练后的场景分类模型对该待处理图片进行场景分类,则上述分类结果可以用于指示上述场景分类模型是否识别出上述待处理图片的场景,并且在识别出上述待处理图片的场景时用于指示上述待处理图片的场景类别。
在步骤S104中,根据上述检测结果以及上述分类结果对上述待处理图片进行处理;
在本申请实施例中,根据上述步骤S102获取的检测结果以及上述步骤S103获取的分类结果对该待处理图片进行处理。
若上述检测结果指示该待处理图片中包含目标物体,比如,检测到该待处理图片包含人脸和食物,并且上述分类结果指示上述场景分类模型能够识别该待处理图片的场景类别,比如识别出该待处理图片的场景类别为草地场景,则可以根据各个目标物体的类别、各个目标物体的位置以及该待处理图片的场景类别对该待处理图片进行处理,比如可以对该待处理图片进行风格转换,以下论述如何根据检测结果以及分类结果对该待处理图片进行风格转换。
在本申请实施例中,可以根据上述检测结果以及分类结果,在数据库中寻找与该待处理图片布局比较相似的风格图片,其中,该风格图片可以是世界名画,比如梵高的《向日葵》、莫奈的《撑洋伞的女人》、维米尔的《戴珍珠耳环的少女》或者马奈的《草地上的午餐》等等,在获得该风格图片之后,可以利用事先训练好的用于风格转换的神经网络模型提取该风格图片的风格特征,并根据所提取出的风格特征对该待处理图片进行风格转换。
如图4所示,分别利用场景检测模型402以及场景分类模型403对待处理图片401进行场景检测和场景分类,获得该待处理图片所对应的检测结果和分类结果。假设该场景检测模型402可以检测出的目标物体包括人脸,该场景分类模型403所能识别的场景类别包括草地场景,则该待处理图片401所对应的检测结果可以指示该待处理图片401中包含3个人脸,并且还可以指示各个人脸所在的位置,该待处理图片401所对应的分类结果可以指示该待处理图片401的场景类别为草地场景。在本申请实施例中,可以根据上述检测结果和分类结果,获取与该待处理图片401布局比较相似的世界名画,比如,可以在数据库中寻找所包含的人脸数目接近3个(还可以为2个、3个或4个等)、场景类别为草地场景、且各个人脸的位置与该待处理图片401中各个人脸的位置比较接近(比如,各个人脸均位于图片的中间区域)的世界名画。在本申请实施例中,可以将该待处理图片401所对应的风格图片404确定为马奈的《草地上的午餐》,并可以将该待处理图片401转换为马奈《草地上的午餐》的风格。此外,在本申请实施例中,还可以在风格转换后的图片上显示当前风格为马奈《草地上的午餐》,这样,不仅可以提高用户体验,而且可以提高用户的艺术修养,提高用户的生活情趣。
此外,在本申请实施例中,若上述检测结果指示上述待处理图片中不包含目标物体,但是上述分类结果指示上述场景分类模型识别出上述待处理图片的场景,则可以仅仅根据上述分类结果指示的上述待处理图片的场景类别,对上述待处理图片进行处理。比如,如图5所示,若场景检测模型未检测出待处理图片501包含目标物体,而场景分类模型识别出该待处理图片501的场景,并将该待处理图片501分类为蓝天场景,则可以仅仅根据该分类结果对该待处理图片进行处理,比如根据该分类结果确定风格图片502,比如,为梵高的《星空》,然后利用该风格图片502将该待处理图片501进行风格转换,生成风格转换后的图片503;另外,若上述检测结果指示上述待处理图片中包含目标物体,但是上述分类结果指示上述场景分类模型没有识别出上述待处理图片的场景,则可以根据上述检测结果指示的各个目标物体的类别、各个目标物体的位置对上述待处理图片进行处理,比如风格转换等等;若上述检测结果指示上述待处理图片中不包含目标物体,并且上述分类结果指示上述场景分类模型没有识别出上述待处理图片的场景,则在本申请实施例中,可以不对上述待处理图片进行处理。
在本申请实施例中,对待处理图片的处理并不局限于上述所述的风格转换,还可以对待处理图片的饱和度、亮度和/或对比度等图片参数进行调节。具体可以参加本申请实施例二的论述。
在本申请实施例一中,需要事先对待处理图片进行场景检测以及场景分类,对该待处理图片的处理是基于检测结果和分类结果的,而现有的图片处理方式仅仅是基于图片中的某一个预设目标,因此,本申请所提供的技术方案与现有的图片处理方式相比,可以获得待处理图片更多的信息,因此,本申请可以根据所获得的信息对待处理图片进行更加精细丰富的处理,比如可以根据检测结果以及分类结果确定与该待处理图片布局比较相似的世界名画,并根据该世界名画对该待处理图片进行风格转换,因此,本申请实施例一能够更进一步提高用户体验。
实施例二
下面对本申请实施例二提供的另一种图片处理方法进行描述,请参阅附图6,本申请实施例二的图片处理方法包括步骤S601-S610:
在步骤S601中,获取待处理图片;
在步骤S602中,利用训练后的场景检测模型检测上述待处理图片中的目标物体,获得检测结果;
在步骤S603中,利用训练后的场景分类模型对上述待处理图片进行场景分类,获得分类结果;
在本申请实施例中,上述步骤S601-S603与在实施例一中的步骤S101-S103中已经有比较详细的论述,具体可参见实施例一的描述,此处不再赘述。
在步骤S604中,判断上述待处理图片中是否包含目标物体且上述场景分类模型是否识别出上述待处理图片的场景,若是,则执行步骤S605,否则,执行步骤S610;
在本申请实施例中,首先根据步骤S602所获得的检测结果判断该待处理图片中是否包含目标物体,并且根据步骤S603所获得的分类结果判断上述场景分类模型能否识别该待处理图片的场景,然后根据判断结果,对待处理图片进行不同的处理,若该待处理图片中包含目标物体,且上述场景分类模型能够识别该待处理图片的场景,则执行步骤S605,否则,执行步骤S610。
在步骤S605中,根据上述待处理图片的场景类别,获取该待处理图片的图片处理模式,并根据该图片处理模式对该待处理图片进行处理,获得第一处理图片;
在本申请实施例中,首先根据上述分类结果所指示的该待处理图片的场景类别,获取该待处理图片的图片处理模式。其中,该图片处理模式包括对该待处理图片的亮度、对比度、锐化度、色彩饱和度以及色温等等图片参数的调节模式,如图7(a)所示,给出了第一对应关系表的示意图,其中,该第一对应关系表包含各个不同的场景类别与相应的图片处理模型的对应关系信息。移动终端在获取到该待处理图片的场景类别之后,根据该第一对应关系表查找与该待处理图片的场景类别相对应的图片处理模式,然后根据该图片处理模式调节该待处理图片的图片参数,从而得到第一处理图片。比如,若检测到该待处理图片为草地场景,则可以提高该待处理图片的色彩饱和度,这样可以使得草地更绿,色彩更为鲜艳。
此外,本申请实施例中的上述第一对应关系表中,某一场景类别所对应的图片处理模式也可以为“不对该待处理图片进行处理”。
在步骤S606中,根据上述待处理图片的场景类别以及各个目标物体的类别,获取各个目标物体的图片处理模式;
在本申请实施例中,首先根据上述分类结果所指示的该待处理图片的场景类别,以及上述检测结果所指示的各个目标物体的类别,获取该待处理图片中各个目标物体的图片处理模式。其中,各个目标物体的图片处理模式包括对各个目标物体的亮度、对比度、锐化度、色彩饱和度以及色温等等图片参数的调节模式。如图7(b)所示,给出了第二对应关系表的示意图,其中,该第二对应关系表包含不同的场景类别以及不同类别的目标物体与相应的图片处理模型的对应关系信息。移动终端在获取到该待处理图片的场景类别以及各个目标物体的类别之后,根据该第二对应关系表查找各个目标物体的图片处理模式,然后根据各个目标物体的图片处理模式调节各个目标物体所在的图片区域的图片参数。
此外,在本申请实施例中,相同的目标物体在不同的场景类别下,具备不同的图片处理模式,如图7(b)所示,人脸在草地场景与雪地场景下的图片处理模式有所不同。另外,本申请实施例中的上述第二对应关系表中,某一目标物体所对应的图片处理模式也可以为“不对该目标物体进行处理”。
在步骤S607中,利用上述检测结果指示的各个目标物体在该待处理图片中的位置,对该待处理图片中的各个目标物体进行框选,以确定各个目标物体所在的图片区域;
在本申请实施例中,根据步骤S602所获得的检测结果,对各个目标物体进行框选,可采用矩形框对各个目标物体进行框选。若步骤S602中的检测结果是利用方框对目标物体进行定位的,上述检测结果中的位置是由方框的左上角以及右下角的坐标组成,则可以直接根据由该左上角坐标以及该右下角坐标所构成的方框,来框选目标物体。若步骤S602中的检测结果是利用圆框对目标物体进行定位的,上述检测结果中的位置是由该圆框的圆心坐标以及圆半径组成,则可以获取由该圆心坐标以及该圆半径所构成的圆形框的外切矩形,利用该外切矩形来框选目标物体。
在本申请实施例中,若根据步骤S606,获得某个目标物体不需要进行处理,则可以不对该目标物体进行框选。
在步骤S608中,利用各个目标物体的图片处理模式,对各个目标物体所在的图片区域进行处理,获得对应的处理后的图片区域;
在本申请实施例中,根据步骤S606所获得的各个目标物体的图片处理模式,对各个目标物体所位于的图片区域进行相应的处理,从而获得处理后的图片区域。
此外,在本申请实施例中,通常情况下步骤S607所获得的图片区域是一个矩形区域,除了包含目标物体之外,还会包含除目标物体之外的部分,因此,为了保证仅仅只对目标物体进行处理,可以利用图像分割算法对各个图片区域进行处理,获得各个图片区域中的目标物体的边缘轮廓线,然后根据各个目标物体的图片处理模式,对各个图片区域中的由边缘轮廓线组成的封闭区域进行处理,从而获取各个处理后的图片区域。这样可以实现所获得的处理后的图片区域中仅仅只对目标物体进行了相应的处理。
在步骤S609中,将上述第一处理图片中的各个目标物体所在的图片区域替换成对应的处理后的图片区域,获得第二处理图片;
在本申请实施例中,在获取到第一处理图片以及各个处理后的图片区域后,将该第一处理图片中的各个目标物体所在的图片区域替换成对应的处理后的图片区域,从而获得第二处理图片。并且在获得该第二处理图片之后,可以将该第二处理图片显示至显示屏幕上,以便用户查看该处理后的图片。
在步骤S610中,不对该待处理图片进行处理;
在本申请实施例中,若步骤S602所获得的检测结果判断该待处理图片中不包含目标物体,或者步骤S603所获得的分类结果指示上述场景分类模型不能识别该待处理图片的场景,则可以不对该待处理图片进行处理。
另外,若上述检测结果判断该待处理图片中不包含目标物体,但是上述分类结果指示上述场景分类模型能够识别该待处理图片的场景,也可以仅仅根据第一对应关系表,对该待处理图片进行处理;若上述检测结果判断该待处理图片中包含目标物体,但是上述分类结果指示上述场景分类模型不能识别该待处理图片的场景,则可以仅仅根据该检测结果,对该待处理图片进行处理,比如,可以事先创建第三对应关系表,该第三对应关系表中包含不同类别的目标物体与相应的图片处理模式的对应关系信息,根据该第三对应关系表,对该待处理图片中进行处理。
此外,在本申请实施例中,上述待处理图片为相机预览界面下的预览图片,若上述检测结果指示该预览图片中包含目标物体,则根据该检测结果指示的各个目标物体的类别,判断该待处理图片中是否包含动物,若该待处理图片中包含动物,则启动相机进行拍照。
本申请实施例二相比于实施例一,给出了一种具体的对待处理图片的处理方式,本申请实施例二根据待处理图片的检测结果以及分类结果实现了对待处理图片的图片参数的调节,可以根据检测结果以及分类结果实现对待处理图片的美化,而现有的图片处理方式仅仅是基于图片中的某一个预设目标对图片进行处理,因此,本申请所提供的技术方案与现有的图片处理方式相比,可以对待处理图片进行更加精细丰富的处理,能够更进一步提高用户体验。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
实施例三
本申请实施例三提供了一种图片处理装置,为便于说明,仅示出与本申请相关的部分,如图8所示图片处理装置800包括,
图片获取模块801,用于获取待处理图片;
场景检测模块802,用于检测上述待处理图片中的目标物体,获得检测结果;
场景分类模块803,用于对上述待处理图片进行场景分类,获得分类结果;
图片处理模块804,用于根据上述检测结果以及上述分类结果对上述待处理图片进行处理。
可选地,上述场景检测模块802具体用于:利用训练后的场景检测模型检测上述待处理图片中的目标物体,获得检测结果;
上述场景分类模块803具体用于:利用训练后的场景分类模型对上述待处理图片进行场景分类,获得分类结果。
可选地,上述检测结果用于指示上述待处理图片中有无目标物体,并且在包含目标物体时用于指示所包含的各个目标物体的类别和位置,上述分类结果用于指示上述场景分类模型是否识别出上述待处理图片的场景,并且在识别出上述待处理图片的场景时用于指示上述待处理图片的场景类别,上述图片处理模块804具体用于:若所述检测结果指示所述待处理图片中包含目标物体,并且所述分类结果指示所述场景分类模型识别出所述待处理图片的场景,则根据所述检测结果指示的各个目标物体的类别、各个目标物体的位置以及所述分类结果指示的所述待处理图片的场景类别,对所述待处理图片进行处理。可选地,上述图片处理模块804,包括:
第一处理单元,用于根据上述场景分类模块803确定的上述待处理图片的场景类别,获取上述待处理图片的图片处理模式,并根据上述图片处理模式对上述待处理图片进行处理,获得第一处理图片;
目标处理模式单元,用于根据上述场景分类模块803确定的上述待处理图片的场景类别以及上述场景检测模块802确定的各个目标物体的类别,获取各个目标物体的图片处理模式;
目标区域单元,用于利用上述场景检测模块802确定的各个目标物体在上述待处理图片中的位置,对上述待处理图片中的各个目标物体进行框选,以确定各个目标物体所在的图片区域;
目标处理单元,用于利用各个目标物体的图片处理模式,对各个目标物体所在的图片区域进行处理,获得对应的处理后的图片区域;
第二处理单元,用于将上述第一处理图片中的各个目标物体所在的图片区域替换成对应的处理后的图片区域,获得第二处理图片。
可选地,上述图片处理模块804还包括:
第一对应关系单元,用于获取第一对应关系表,上述第一对应关系表包括各个不同的场景类别与图片处理模式的对应关系信息;
相应地,上述第一处理单元具体用于:
根据上述场景分类模块803确定的上述待处理图片的场景类别,在上述第一对应关系表中查找与上述待处理图片的场景类别相对应的图片处理模式,并根据上述图片处理模式对上述待处理图片进行处理,获得第一处理图片。
可选地,上述图片处理模块804还包括:
第二对应关系单元,用于获取第二对应关系表,上述第二对应关系表包括不同场景类别以及不同类别目标物体与图片处理模式的对应关系信息;
相应地,上述目标处理模式单元具体用于:
根据上述场景分类模块803确定的上述待处理图片的场景类别以及上述场景检测模块802确定的各个目标物体的类别,在上述第二对应关系表中查找上述待处理图片中各个目标物体相对应的图片处理模式。
可选地,上述目标处理单元包括:
边缘获取子单元,用于利用图像分割算法对各个目标物体所在的图片区域进行处理,获取各个图片区域中的目标物体的边缘轮廓线;
目标处理子单元,用于根据各个目标物体所对应的图片处理模式,对各个图片区域中边缘轮廓线组成的封闭区域进行处理,获得对应的处理后的图片区域。
可选地,上述图片获取单元801所获取的上述待处理图片为相机预览界面下的预览图片,上述图片处理装置800还包括:
动物判断模块,用于若上述检测结果指示上述待处理图片中包含目标物体,则根据上述检测结果指示的各个目标物体的类别,判断上述待处理图片中是否包含动物;
抓拍模块,用于若上述待处理图片中包含动物,则启动相机进行拍照。
需要说明的是,上述装置/单元之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
实施例四
图9是本申请实施例提供的移动终端的示意图。如图9所示,该实施例的移动终端9包括:处理器90、存储器91以及存储在上述存储器91中并可在上述处理器90上运行的计算机程序92。上述处理器90执行上述计算机程序92时实现上述实施例中的步骤,例如图1所示的步骤S101至S103。
上述移动终端9可包括,但不仅限于,处理器90、存储器91。本领域技术人员可以理解,图9仅仅是移动终端9的示例,并不构成对移动终端9的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如上述移动终端9还可以包括输入输出设备、网络接入设备、总线等。
所称处理器90可以是中央处理单元(Central Processing Unit,CPU),还可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
上述存储器91可以是上述移动终端9的内部存储单元,例如移动终端9的硬盘或内存。上述存储器91也可以是上述移动终端9的外部存储设备,例如上述移动终端9上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,上述存储器91还可以既包括上述移动终端9的内部存储单元也包括外部存储设备。上述存储器91用于存储上述计算机程序以及上述移动终端所需的其它程序和数据。上述存储器91还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将上述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/移动终端和方法,可以通过其它的方式实现。例如,以上所描述的装置/移动终端实施例仅仅是示意性的,例如,上述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
上述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,上述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,上述计算机程序包括计算机程序代码,上述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。上述计算机可读介质可以包括:能够携带上述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,上述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上上述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (11)

1.一种图片处理方法,其特征在于,包括:
获取待处理图片;
检测所述待处理图片中的目标物体,获得检测结果;
对所述待处理图片进行场景分类,获得分类结果;
根据所述检测结果以及所述分类结果对所述待处理图片进行处理。
2.如权利要求1所述的图片处理方法,其特征在于,所述检测所述待处理图片中的目标物体,获得检测结果,包括:
利用训练后的场景检测模型检测所述待处理图片中的目标物体,获得检测结果;
所述对所述待处理图片进行场景分类,获得分类结果,包括:
利用训练后的场景分类模型对所述待处理图片进行场景分类,获得分类结果。
3.如权利要求2所述的图片处理方法,其特征在于,所述检测结果用于指示所述待处理图片中有无目标物体,并且在包含目标物体时用于指示所包含的各个目标物体的类别和位置,所述分类结果用于指示所述场景分类模型是否识别出所述待处理图片的场景,并且在识别出所述待处理图片的场景时用于指示所述待处理图片的场景类别;
所述根据所述检测结果以及所述分类结果对所述待处理图片进行处理,包括:
若所述检测结果指示所述待处理图片中包含目标物体,并且所述分类结果指示所述场景分类模型识别出所述待处理图片的场景,则:
根据所述检测结果指示的各个目标物体的类别、各个目标物体的位置以及所述分类结果指示的所述待处理图片的场景类别,对所述待处理图片进行处理。
4.如权利要求3所述的图片处理方法,其特征在于,所述根据所述检测结果指示的各个目标物体的类别、各个目标物体的位置以及所述分类结果指示的所述待处理图片的场景类别,对所述待处理图片进行处理,包括:
根据所述待处理图片的场景类别,获取所述待处理图片的图片处理模式,并根据所述图片处理模式对所述待处理图片进行处理,获得第一处理图片;
根据所述待处理图片的场景类别以及各个目标物体的类别,获取各个目标物体的图片处理模式;
利用所述检测结果所指示的各个目标物体在所述待处理图片中的位置,对所述待处理图片中的各个目标物体进行框选,以确定各个目标物体所在的图片区域;
利用各个目标物体的图片处理模式,对各个目标物体所在的图片区域进行处理,获得对应的处理后的图片区域;
将所述第一处理图片中的各个目标物体所在的图片区域替换成对应的处理后的图片区域,获得第二处理图片。
5.如权利要求4所述的图片处理方法,其特征在于,在所述根据所述待处理图片的场景类别,获取所述待处理图片的图片处理模式之前,还包括:
获取第一对应关系表,所述第一对应关系表包括各个不同的场景类别与图片处理模式的对应关系信息;
相应地,所述根据所述待处理图片的场景类别,获取所述待处理图片的图片处理模式,包括:
根据所述待处理图片的场景类别,在所述第一对应关系表中查找与所述待处理图片的场景类别相对应的图片处理模式,并将与所述待处理图片的场景类别相对应的图片处理模式确定为所述待处理图片的图片处理模式。
6.如权利要求4所述的图片处理方法,其特征在于,在所述根据所述待处理图片的场景类别以及各个目标物体的类别,获取各个目标物体的图片处理模式之前,还包括:
获取第二对应关系表,所述第二对应关系表包括不同场景类别以及不同类别目标物体与图片处理模式的对应关系信息;
相应地,根据所述待处理图片的场景类别以及各个目标物体的类别,获取各个目标物体的图片处理模式,包括:
根据所述待处理图片的场景类别以及各个目标物体的类别,在所述第二对应关系表中查找所述待处理图片中各个目标物体相对应的图片处理模式。
7.如权利要求4所述的图片处理方法,其特征在于,所述利用各个目标物体的图片处理模式,对各个目标物体所在的图片区域进行处理,获得对应的处理后的图片区域,包括:
利用图像分割算法对各个目标物体所在的图片区域进行处理,获取各个图片区域中的目标物体的边缘轮廓线;
根据各个目标物体所对应的图片处理模式,对各个图片区域中边缘轮廓线组成的封闭区域进行处理,获得对应的处理后的图片区域。
8.如权利要求3至7中任一项所述的图片处理方法,其特征在于,所述待处理图片为相机预览界面下的预览图片,所述图片处理方法还包括:
若所述检测结果指示所述预览图片中包含目标物体,则根据所述检测结果指示的各个目标物体的类别,判断所述预览图片中是否包含人和/或动物;
若所述待处理图片中包含人和/或动物,则进行拍照。
9.一种图片处理装置,其特征在于,包括:
图片获取模块,用于获取待处理图片;
场景检测模块,用于检测所述待处理图片中的目标物体,获得检测结果;
场景分类模块,用于对所述待处理图片进行场景分类,获得分类结果;
图片处理模块,用于根据所述检测结果以及所述分类结果对所述待处理图片进行处理。
10.一种移动终端,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至8任一项所述方法的步骤。
11.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至8任一项所述方法的步骤。
CN201810630408.5A 2018-06-19 2018-06-19 图片处理方法、装置、移动终端及计算机可读存储介质 Pending CN108805095A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810630408.5A CN108805095A (zh) 2018-06-19 2018-06-19 图片处理方法、装置、移动终端及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810630408.5A CN108805095A (zh) 2018-06-19 2018-06-19 图片处理方法、装置、移动终端及计算机可读存储介质

Publications (1)

Publication Number Publication Date
CN108805095A true CN108805095A (zh) 2018-11-13

Family

ID=64083416

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810630408.5A Pending CN108805095A (zh) 2018-06-19 2018-06-19 图片处理方法、装置、移动终端及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN108805095A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109597912A (zh) * 2018-12-05 2019-04-09 上海碳蓝网络科技有限公司 用于处理图片的方法
CN111666800A (zh) * 2019-12-23 2020-09-15 珠海大横琴科技发展有限公司 一种行人重识别模型训练方法及行人重识别方法
CN113473246A (zh) * 2020-03-30 2021-10-01 阿里巴巴集团控股有限公司 媒体文件的发布方法、装置及电子设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105100491A (zh) * 2015-08-11 2015-11-25 努比亚技术有限公司 一种处理照片的装置和方法
CN105138693A (zh) * 2015-09-18 2015-12-09 联动优势科技有限公司 一种访问数据库的方法及装置
CN106101547A (zh) * 2016-07-06 2016-11-09 北京奇虎科技有限公司 一种图像数据的处理方法、装置和移动终端
US20170277363A1 (en) * 2015-07-15 2017-09-28 Fyusion, Inc. Automatic tagging of objects on a multi-view interactive digital media representation of a dynamic entity
CN107798653A (zh) * 2017-09-20 2018-03-13 北京三快在线科技有限公司 一种图像处理的方法和一种装置
CN107845072A (zh) * 2017-10-13 2018-03-27 深圳市迅雷网络技术有限公司 图像生成方法、装置、存储介质及终端设备
CN207200855U (zh) * 2017-09-20 2018-04-06 中国科学院深圳先进技术研究院 一种具有数据处理功能的电子相框

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170277363A1 (en) * 2015-07-15 2017-09-28 Fyusion, Inc. Automatic tagging of objects on a multi-view interactive digital media representation of a dynamic entity
CN105100491A (zh) * 2015-08-11 2015-11-25 努比亚技术有限公司 一种处理照片的装置和方法
CN105138693A (zh) * 2015-09-18 2015-12-09 联动优势科技有限公司 一种访问数据库的方法及装置
CN106101547A (zh) * 2016-07-06 2016-11-09 北京奇虎科技有限公司 一种图像数据的处理方法、装置和移动终端
CN107798653A (zh) * 2017-09-20 2018-03-13 北京三快在线科技有限公司 一种图像处理的方法和一种装置
CN207200855U (zh) * 2017-09-20 2018-04-06 中国科学院深圳先进技术研究院 一种具有数据处理功能的电子相框
CN107845072A (zh) * 2017-10-13 2018-03-27 深圳市迅雷网络技术有限公司 图像生成方法、装置、存储介质及终端设备

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109597912A (zh) * 2018-12-05 2019-04-09 上海碳蓝网络科技有限公司 用于处理图片的方法
CN111666800A (zh) * 2019-12-23 2020-09-15 珠海大横琴科技发展有限公司 一种行人重识别模型训练方法及行人重识别方法
CN113473246A (zh) * 2020-03-30 2021-10-01 阿里巴巴集团控股有限公司 媒体文件的发布方法、装置及电子设备
CN113473246B (zh) * 2020-03-30 2023-09-01 阿里巴巴集团控股有限公司 媒体文件的发布方法、装置及电子设备

Similar Documents

Publication Publication Date Title
US11854072B2 (en) Applying virtual makeup products
US11854070B2 (en) Generating virtual makeup products
CN108550107A (zh) 一种图片处理方法、图片处理装置及移动终端
US10922860B2 (en) Line drawing generation
US9401032B1 (en) Image-based color palette generation
KR102485503B1 (ko) 이미지 데이터베이스 분석 기반 상품 추천 장치 및 방법
CN108765278A (zh) 一种图像处理方法、移动终端及计算机可读存储介质
CN108961157A (zh) 图片处理方法、图片处理装置及终端设备
US20110292051A1 (en) Automatic Avatar Creation
CN109325988A (zh) 一种面部表情合成方法、装置及电子设备
CN107995428A (zh) 图像处理方法、装置及存储介质和移动终端
CN108198130B (zh) 图像处理方法、装置、存储介质及电子设备
CN108694703A (zh) 用于精细化深度图像的方法和装置
CN107395958A (zh) 一种图像处理方法、装置、电子设备及存储介质
CN108279238A (zh) 一种果实成熟度判断方法及装置
CN108805095A (zh) 图片处理方法、装置、移动终端及计算机可读存储介质
CN104580883B (zh) 图像处理装置、图像处理方法以及记录介质
CN108961267A (zh) 图片处理方法、图片处理装置及终端设备
CN110502974A (zh) 一种视频图像的展示方法、装置、设备、及可读存储介质
CN108898082A (zh) 图片处理方法、图片处理装置及终端设备
CN108024105A (zh) 图像色彩调节方法、装置、电子设备及存储介质
CN110097616B (zh) 一种联合绘画方法、装置、终端设备及可读存储介质
CN109584153A (zh) 修饰眼部的方法、装置和系统
CN108701355A (zh) Gpu优化和在线基于单高斯的皮肤似然估计
Qiu et al. Learning to display high dynamic range images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination