CN112819685B - 一种图像的风格模式推荐方法和终端 - Google Patents

一种图像的风格模式推荐方法和终端 Download PDF

Info

Publication number
CN112819685B
CN112819685B CN201911120103.0A CN201911120103A CN112819685B CN 112819685 B CN112819685 B CN 112819685B CN 201911120103 A CN201911120103 A CN 201911120103A CN 112819685 B CN112819685 B CN 112819685B
Authority
CN
China
Prior art keywords
style
image
processed
scene
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911120103.0A
Other languages
English (en)
Other versions
CN112819685A (zh
Inventor
张培龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hisense Mobile Communications Technology Co Ltd
Original Assignee
Hisense Mobile Communications Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hisense Mobile Communications Technology Co Ltd filed Critical Hisense Mobile Communications Technology Co Ltd
Priority to CN201911120103.0A priority Critical patent/CN112819685B/zh
Publication of CN112819685A publication Critical patent/CN112819685A/zh
Application granted granted Critical
Publication of CN112819685B publication Critical patent/CN112819685B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • G06T3/04
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种图像的风格模式推荐方法和终端,用以减少用户选择风格模式的时间,从而提升用户使用体验。本申请方法包括:将待处理图像输入到已训练的场景识别神经网络模型中,获取所述场景识别神经网络模型输出的至少一个场景以及所述场景对应的置信度;根据预设的场景与风格模式的对应关系,确定获取的所述场景对应的风格模式;根据所述置信度对确定的风格模式进行排序,并通过显示屏进行显示;确定用户选择的风格模式,并使用所述用户选择的风格模式对应的图片参数对所述待处理图像进行风格化处理。这样,根据待处理图像的场景,为用户推荐适合待处理图像的风格模式,可以减少用户选择风格模式的时间,提升用户使用体验。

Description

一种图像的风格模式推荐方法和终端
技术领域
本申请涉及图像处理领域,尤其涉及一种图像的风格模式推荐方法和终端。
背景技术
图像风格迁移技术是对图像进行风格化处理,使其获得风格图片的艺术风格,从而将普通的拍照图片变成了艺术作品。但现有技术的做法是将大量的风格模式按固定顺序排列在用户界面上,让用户自行选择一种风格,然后软件根据用户的选择进行相应的风格化处理。用户需要在多种风格模式中不断选择才能得到较为满意的结果。
因此,现有的风格模式推荐方法会导致用户耗费大量时间来选择合适的风格模式。
发明内容
本申请实施例提供一种图像的风格模式推荐方法和终端,用以减少用户选择合适的风格模式的时间,提升用户使用体验。
第一方面,本申请实施例提供一种图像的风格模式推荐方法,该方法包括:
将待处理图像输入到已训练的场景识别神经网络模型中,获取所述场景识别神经网络模型输出的至少一个场景以及所述场景对应的置信度;其中,所述待处理图像为通过摄像头获取的图像帧或本地存储的图像;
根据预设的场景与风格模式的对应关系,确定获取的所述场景对应的风格模式;
根据所述置信度对确定的风格模式进行排序,并通过显示屏进行显示;
确定用户选择的风格模式,并使用所述用户选择的风格模式对应的图片参数对所述待处理图像进行风格化处理。
上述方法,通过对待处理图像进行场景识别,确定待处理图像包含的场景,并根据确定的场景对风格模式进行排序显示。这样,根据待处理图像的场景,为用户推荐适合待处理图像的风格模式,可以减少用户选择风格模式的时间,提升用户使用体验。
在一种可能的实现方式中,若一个场景对应至少两种风格模式,则确定获取的所述场景对应的风格模式之后,通过显示屏进行显示之前,所述方法还包括:
获取所述待处理图像的内容特征以及确定的所述风格模式的内容特征;
针对同一场景对应的任意一种风格模式,将所述风格模式的内容特征与所述待处理图像的内容特征进行对比,得到所述风格模式与所述待处理图像的相似度;
根据同一场景对应的每种所述风格模式与所述待处理图像的相似度,对所述同一场景对应的每种风格模式进行排序。
上述方法,限定了一个场景对应多种风格模式的情况下时,通过对比风格模式的内容特征,为同一场景下的风格模式进行排序。这样,可以使推荐的风格模式更加准确,从而进一步提高用户的操作体验。
在一种可能的实现方式中,获取所述待处理图像的内容特征,包括:
将所述待处理图像输入到已训练的特征提取神经网络模型中,获取所述特征提取神经网络模型输出的所述待处理图像的内容特征;或;
将所述场景识别神经网络模型中特征提取层的输出结果作为所述待处理图像的内容特征。
上述方法,限定了待处理图像的内容特征的获取,可以从特征提取神经网络模型中获取,也可以将场景识别神经网络模型中特征提取层的输出结果作为内容特征。这样,通过多种方式获取待处理图像的内容特征,可以使方案更加灵活,且将场景识别神经网络模型中特征提取层的输出结果作为内容特征,可以减少计算量,提升处理效率。
在一种可能的实现方式中,获取确定的所述风格模式的内容特征,包括:
从预存的风格模式与风格图片的对应关系中,获取确定的所述风格模式对应的风格图片,并将所述风格图片输入到所述特征提取神经网络模型中,获取所述特征提取神经网络模型输出的所述风格模式的内容特征;或;
从预存的风格模式与内容特征的对应关系中,获取确定的所述风格模式对应的内容特征。
上述方法,限定了风格模式的内容特征的获取,可以从预存的对应关系中确定内容特征,也可以从特征提取神经网络模型中获取。这样,通过多种方式获取风格模式的内容特征,可以使方案更加灵活。
在一种可能的实现方式中,所述针对同一场景对应的任意一种风格模式,将所述风格模式的内容特征与所述待处理图像的内容特征进行对比,得到所述风格模式与所述待处理图像的相似度,包括:
针对同一场景对应的任意一种风格模式,计算所述风格模式的内容特征与所述待处理图像的内容特征的欧氏距离,并将计算结果作为所述风格模式与所述待处理图像的相似度。
上述方法,限定了通过欧氏距离来确定相似度。这样,通过计算的相似度对风格模式进行排序,可以使推荐的风格模式更加准确。
第二方面,本申请实施例提供的一种图像的风格模式推荐的终端包括:处理器和显示屏;
所述处理器:用于将待处理图像输入到已训练的场景识别神经网络模型中,获取所述场景识别神经网络模型输出的至少一个场景以及所述场景对应的置信度;其中,所述待处理图像为通过摄像头获取的图像帧或本地存储的图像;根据预设的场景与风格模式的对应关系,确定获取的所述场景对应的风格模式;根据所述置信度对确定的风格模式进行排序;确定用户选择的风格模式,并使用所述用户选择的风格模式对应的图片参数对所述待处理图像进行风格化处理。
所述显示屏:用于显示排序后的风格模式。
在一种可能的实现方式中,若一个场景对应至少两种风格模式,所述终端还包括:
获取所述待处理图像的内容特征以及确定的所述风格模式的内容特征;
针对同一场景对应的任意一种风格模式,将所述风格模式的内容特征与所述待处理图像的内容特征进行对比,得到所述风格模式与所述待处理图像的相似度;
根据同一场景对应的每种所述风格模式与所述待处理图像的相似度,对所述同一场景对应的每种风格模式进行排序。
在一种可能的实现方式中,所述处理器具体用于:
将所述待处理图像输入到已训练的特征提取神经网络模型中,获取所述特征提取神经网络模型输出的所述待处理图像的内容特征;或;
将所述场景识别神经网络模型中特征提取层的输出结果作为所述待处理图像的内容特征。
在一种可能的实现方式中,所述处理器具体用于:
从预存的风格模式与风格图片的对应关系中,获取确定的所述风格模式对应的风格图片,并将所述风格图片输入到所述特征提取神经网络模型中,获取所述特征提取神经网络模型输出的所述风格模式的内容特征;或;
从预存的风格模式与内容特征的对应关系中,获取确定的所述风格模式对应的内容特征。
在一种可能的实现方式中,所述处理器具体用于:
针对同一场景对应的任意一种风格模式,计算所述风格模式的内容特征与所述待处理图像的内容特征的欧氏距离,并将计算结果作为所述风格模式与所述待处理图像的相似度。
第三方面,本申请实施例还提供一种图像的风格模式推荐的终端,该终端包括获取场景和置信度模块、确定风格模式模块、排序模块和处理模块:
获取场景和置信度模块,用于将待处理图像输入到已训练的场景识别神经网络模型中,获取所述场景识别神经网络模型输出的至少一个场景以及所述场景对应的置信度;其中,所述待处理图像为通过摄像头获取的图像帧或本地存储的图像;
确定风格模式模块,用于根据预设的场景与风格模式的对应关系,确定获取的所述场景对应的风格模式;
第一排序模块,用于根据所述置信度对确定的风格模式进行排序,并通过显示屏进行显示;
处理模块,用于确定用户选择的风格模式,并使用所述用户选择的风格模式对应的图片参数对所述待处理图像进行风格化处理。
在一种可能的实现方式中,若一个场景对应至少两种风格模式,所述终端还包括:
获取内容特征模块,用于确定风格模式模块确定获取的所述场景对应的风格模式之后,第一排序模块通过显示屏进行显示之前,获取所述待处理图像的内容特征以及确定的所述风格模式的内容特征;
对比模块,用于针对同一场景对应的任意一种风格模式,将所述风格模式的内容特征与所述待处理图像的内容特征进行对比,得到所述风格模式与所述待处理图像的相似度;
第二排序模块,用于根据同一场景对应的每种所述风格模式与所述待处理图像的相似度,对所述同一场景对应的每种风格模式进行排序。
在一种可能的实现方式中,获取内容特征模块包括:
第一获取待处理图像的内容特征单元,用于将所述待处理图像输入到已训练的特征提取神经网络模型中,获取所述特征提取神经网络模型输出的所述待处理图像的内容特征;或;
第二获取待处理图像的内容特征单元,用于将所述场景识别神经网络模型中特征提取层的输出结果作为所述待处理图像的内容特征。
在一种可能的实现方式中,获取内容特征模块包括:
第一获取风格模式的内容特征单元,用于从预存的风格模式与风格图片的对应关系中,获取确定的所述风格模式对应的风格图片,并将所述风格图片输入到所述特征提取神经网络模型中,获取所述特征提取神经网络模型输出的所述风格模式的内容特征;或;
第二获取风格模式的内容特征单元,用于从预存的风格模式与内容特征的对应关系中,获取确定的所述风格模式对应的内容特征。
在一种可能的实现方式中,对比模块具体用于针对同一场景对应的任意一种风格模式,计算所述风格模式的内容特征与所述待处理图像的内容特征的欧氏距离,并将计算结果作为所述风格模式与所述待处理图像的相似度。
第四方面,本申请还提供一种计算机存储介质,其上存储有计算机程序,该程序被处理器执行时实现第一方面所述方法的步骤。
另外,第二方面至第三方面中任一种实现方式所带来的技术效果可参见第一方面中不同实现方式所带来的技术效果,此处不再赘述。
本申请的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本申请而了解。本申请的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本申请实施例中一种图像的风格模式推荐的方法流程示意图;
图2为本申请实施例中第一种风格推荐的界面示意图;
图3为本申请实施例中第二种风格推荐的界面示意图;
图4为本申请实施例中第三种风格推荐的界面示意图;
图5为本申请实施例中一种图像的风格模式推荐的完整方法流程图;
图6为本申请实施例中第一种图像的风格模式推荐的终端的示意图;
图7为本申请实施例中第二种图像的风格模式推荐的终端的示意图;
图8为本申请实施例中第三种图像的风格模式推荐的终端的示意图。
具体实施方式
为了使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请作进一步地详细描述,显然,所描述的实施例仅仅是本申请一部份实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
下面对文中出现的一些词语进行解释:
1、本申请实施例中术语“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
2、本申请实施例中术语“终端”是指可以在移动中使用的计算机设备,即手机、平板等。
3、本申请实施例中术语“风格模式”,指通过风格迁移技术得到的图像纹理。其中,图像的风格迁移技术,是指利用算法学习著名画作的风格,然后再把这种风格应用到另外一张图片上的技术。通过风格模式,可以将普通用户的照片自动变换为具有艺术家的风格的图片。
4、本申请实施例中术语“场景”,是指图片的内容、对象、环境的语义概括,场景例如:雪地、草地、蓝天、植物、人像、室内、渔港、城市街道、建筑、文字、花朵等。
4、本申请实施例中术语“置信度”,也称为可靠度,或置信水平、置信系数,即获得的场景在所有场景中所占的概率。
5、本申请实施例中术语“内容特征”,是指通过特征提取得到的图片的特征。
本申请实施例描述的应用场景是为了更加清楚的说明本申请实施例的技术方案,并不构成对于本申请实施例提供的技术方案的限定,本领域普通技术人员可知,随着新应用场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。其中,在本申请的描述中,除非另有说明,“多个”的含义是两个或两个以上。
为了更好的理解本申请实施例提供的技术方案,下面对该方案的基本原理做一下简单说明:
西方油画、中国水墨画等众多艺术门类、流派,在几千年的人类文明史中诞生了很多引人入胜的艺术作品。通过图像风格迁移技术则可以将普通的拍照图片变成艺术作品。在现有技术中,图像风格迁移技术被应用在拍照领域,用户在拍完照片后,可以通过预存的风格模式对照片进行风格化处理。通过风格模式可以使普通的拍照图片变成艺术作品,但是同一种风格模式并不适用所有的照片,但是现有技术的做法是将大量的风格模式按固定顺序排列在用户界面上,让用户自行选择一种风格,然后软件根据用户的选择进行相应的风格化处理。用户需要在多种风格模式中不断选择才能得到较为满意的结果。因此,用户需要耗费大量时间来选择合适的风格模式。
有鉴于此,本申请提供了一种图像的风格模式推荐方法和终端,通过对待处理图像进行场景识别,确定待处理图像包含的场景,并根据确定的场景对风格模式进行排序显示。这样,根据待处理图像的场景,为用户推荐适合待处理图像的风格模式,可以减少用户选择风格模式的时间,提升用户使用体验。
为便于理解,下面结合附图对本申请提供的技术方案做进一步说明。
如图1所示,本申请实施例的一种图像的风格模式推荐方法,具体包括以下步骤:
步骤101:将待处理图像输入到已训练的场景识别神经网络模型中,获取所述场景识别神经网络模型输出的至少一个场景以及所述场景对应的置信度;其中,所述待处理图像为通过摄像头获取的图像帧或本地存储的图像。
为了实现本申请提供的一种图像的风格模式推荐方法,首先需要训练场景识别神经网络模型,并根据训练好的场景识别神经网络模型对待处理图像进行识别。场景识别神经网络模型可通过以下方法进行训练:
将包含各种场景标签以及场景置信度标签的训练样本输入到待训练的场景识别神经网络模型中,得到输出的场景以及场景置信度。通过调整场景识别神经网络模型的参数,使得输出的场景与场景标签相同,以及场景置信度与场景的置信度标签相同,从而完成场景识别神经网络模型的训练。
在本申请实施例中,为了使待处理图像的图像格式与场景识别神经网络模型识别的图像格式一致,需要将本地存储的图像或通过摄像头获取的图像帧进行转码。通常将待处理图像的图像格式作为红绿蓝(RGB)三通道图像格式,当然,也可以使用其他图像格式,本申请对此不做限定。
在本申请实施例中,将待处理图像输入到训练好的场景识别神经网络模型中,可以得到至少一个场景以及场景对应的置信度。例如:将待处理图像输入到训练好的场景识别神经网络模型中,识别出3个场景,分别为场景1、场景2、场景3,且3个场景的置信度分别为0.5、0.3、0.2。这样,输出的结果为(场景1,0.5)、(场景2,0.3)、(场景3,0.2)。其中,所有场景的置信度的和为1。
步骤102:根据预设的场景与风格模式的对应关系,确定获取的所述场景对应的风格模式。
在本申请实施例中,风格模式是风格图片通过风格模式神经网络模型得到的,其中,风格模式的风格化参数为风格图片通过风格模式神经网络模型输出得到的权重、激励函数参数、实例归一化参数等。
在本申请实施例中,将风格图片进行场景分类,得到该风格图片所包含的场景。这样,将风格图片经场景分类得到的场景与风格图片的风格模式相关联。
需要说明的是,由于一张风格图片可以得到多种场景,因此,一种风格模式可以对应多种场景。
步骤103:根据所述置信度对确定的风格模式进行排序,并通过显示屏进行显示。
在本申请实施例中,若得到的输出的结果为(场景1,0.5)、(场景2,0.3)、(场景3,0.2),且场景1对应风格1,场景2对应风格2,场景3对应风格3,则通过排序,最终显示在界面上的风格模式的排序如图2所示,按照从左向右的顺序将风格模式显示在显示界面上。
在本申请实施例中,可能会出现一种场景对应多种风格模式的情况,在这种情况下,根据置信度对不同场景的风格模式进行排序,而对于同一场景的风格模式,则进行随机排序。例如:得到的输出的结果为(场景1,0.5)、(场景2,0.3)、(场景3,0.2),且场景1对应风格1、风格2和风格3,场景2对应风格4和风格5,场景3对应风格6,则通过排序,最终显示在界面上的风格模式的排序如图3所示,为风格2,风格3,风格1,风格5,风格4,风格6。
步骤104:确定用户选择的风格模式,并使用所述用户选择的风格模式对应的图片参数对所述待处理图像进行风格化处理。
通过对待处理图像进行场景识别,确定待处理图像包含的场景,并根据确定的场景对风格模式进行排序显示。这样,根据待处理图像的场景,为用户推荐适合待处理图像的风格模式,可以减少用户选择风格模式的时间,提升用户使用体验。
为了使推荐的风格模式更加准确,在上述方法的基础上,增加了内容特征的对比,通过将待处理图像与风格模式的内容特征进行对比,可以对同一场景下对应的多种风格模式进行排序,从而进一步的提高推荐风格模式的准确性。具体的,可实施为如下步骤:
步骤A1:获取所述待处理图像的内容特征以及确定的所述风格模式的内容特征。
在本申请实施例中,可通过以下方法来确定待处理图像的内容特征:
方法一、根据特征提取神经网络模型确定内容特征:
通过特征提取神经网络模型确定待处理图像的内容特征,具体可实施为:将所述待处理图像输入到已训练的特征提取神经网络模型中,获取所述特征提取神经网络模型输出的所述待处理图像的内容特征。
在本申请实施例中,可以采用VGG-19DNN(Deep Neural Networks,深度神经网络)模型作为特征提取网络,也可以选择Resnet、Mobilenet、Shufflenet(神经网络的种类)等模型,本申请对此不做限定。
由于深度卷积的计算过程就是对图像的特征提取的过程,因此,将待处理图像输出到特征提取神经网络模型中,得到的输出结果即为待处理图像的内容特征。
方法二、根据场景识别神经网络模型确定内容特征:
通过场景识别神经网络模型确定内容特征,具体可实施为:将所述场景识别神经网络模型中特征提取层的输出结果作为所述待处理图像的内容特征。
在本申请实施例中,由于在场景识别神经网络模型中对待处理图像进行了特征提取,因此,将场景识别和特征提取合并到场景识别神经网络模型中,提取场景识别神经网络模型中特征提取层的输出结果作为待处理图像的内容特征,可以节省了后续再次计算内容特征的计算时间。
需要说明的是,场景识别神经网络模型中包括多层特征提取卷积层,选择其中一层的输出结果作为内容特征。
在介绍完如何确定待处理图像的内容特征后,下面对如何确定风格模式的内容特征作解释说明:
方法一、根据特征提取神经网络模型确定内容特征:
通过特征提取神经网络模型确定风格模式的内容特征,具体可实施为:从预存的风格模式与风格图片的对应关系中,获取确定的所述风格模式对应的风格图片,并将所述风格图片输入到所述特征提取神经网络模型中,获取所述特征提取神经网络模型输出的所述风格模式的内容特征。
在本申请实施例中,每一个风格模式都会对应一张风格图片,将风格图像输入到特征提取神经网络模型,得到风格模式的内容特征。其中,特征提取神经网络模型与确定待处理图像的内容特征的特征提取神经网络模型相同。
方法二、根据风格模式与内容特征的对应关系确定内容特征:
通过风格模式与内容特征的对应关系确定内容特征,具体可实施为:从预存的风格模式与内容特征的对应关系中,获取确定的所述风格模式对应的内容特征。
在本申请实施例中,可以预先获取各风格模式的内容特征,并将获取的内容特征存储起来,并与风格模式相关联。其中,可以通过特征提取神经网络模型或者场景识别神经网络模型预先获取风格模式的内容特征。
步骤A2:针对同一场景对应的任意一种风格模式,将所述风格模式的内容特征与所述待处理图像的内容特征进行对比,得到所述风格模式与所述待处理图像的相似度。
在本申请实施例中,可通过计算风格模式的内容特征与待处理图像的内容特征的欧氏距离,来确定相似度,具体可实施为:针对同一场景对应的任意一种风格模式,计算所述风格模式的内容特征与所述待处理图像的内容特征的欧氏距离,并将计算结果作为所述风格模式与所述待处理图像的相似度。
在本申请实施例中,计算欧式距离的计算公式为Li=‖Ci-Cs2;i=1,2…n;
其中,Li为欧氏距离;Cs为待处理图像的内容特征;Ci为风格模式的内容特征。
步骤A3:根据同一场景对应的每种所述风格模式与所述待处理图像的相似度,对所述同一场景对应的每种风格模式进行排序。
在本申请实施例中,若得到的输出的结果为(场景1,0.5)、(场景2,0.3)、(场景3,0.2),且场景1对应风格1、风格2和风格3,场景2对应风格4和风格5,场景3对应风格6,获取待处理图像的内容特征Cs,以及风格1的内容特征C1,风格2的内容特征C2,风格3的内容特征C3,风格4的内容特征C4,风格5的内容特征C5。
分别计算C1,C2,C3与Cs之间的欧氏距离,以及C4,C5与Cs之间的欧氏距离。并根据欧氏距离来确定相似度。欧氏距离Li越小,则认为相似度越高。若计算得到的结果为L1>L2>L3,L4>L5,则经过排序,最终显示在界面上的风格模式的排序如图4所示,为风格1,风格2,风格3,风格4,风格5,风格6。
如图5所示,本申请实施例提供的一种图像的风格模式推荐的完整方法,包括:
步骤501:将待处理图像输入到已训练的场景识别神经网络模型中,获取所述场景识别神经网络模型输出的至少一个场景以及所述场景对应的置信度;其中,所述待处理图像为通过摄像头获取的图像帧或本地存储的图像。
步骤502:根据预设的场景与风格模式的对应关系,确定获取的所述场景对应的风格模式。
步骤503:获取所述待处理图像的内容特征以及确定的所述风格模式的内容特征。
步骤504:针对同一场景对应的任意一种风格模式,计算所述风格模式的内容特征与所述待处理图像的内容特征的欧氏距离,并将计算结果作为所述风格模式与所述待处理图像的相似度。
步骤505:根据同一场景对应的每种所述风格模式与所述待处理图像的相似度,对所述同一场景对应的每种风格模式进行排序。
步骤506:根据所述置信度对确定的风格模式进行排序,并通过显示屏进行显示。
步骤507:确定用户选择的风格模式,并使用所述用户选择的风格模式对应的图片参数对所述待处理图像进行风格化处理。
这样,根据待处理图像的场景,以及内容特征,可以使推荐的风格模式更加准确,从而进一步提高用户的操作体验。
如图6所示,本申请实施例提供的一种图像的风格模式推荐的终端包括:处理器610和显示屏620;
所述处理器610:用于将待处理图像输入到已训练的场景识别神经网络模型中,获取所述场景识别神经网络模型输出的至少一个场景以及所述场景对应的置信度;其中,所述待处理图像为通过摄像头获取的图像帧或本地存储的图像;根据预设的场景与风格模式的对应关系,确定获取的所述场景对应的风格模式;根据所述置信度对确定的风格模式进行排序;确定用户选择的风格模式,并使用所述用户选择的风格模式对应的图片参数对所述待处理图像进行风格化处理。
所述显示屏620:用于显示排序后的风格模式。
可选的,若一个场景对应至少两种风格模式,所述处理器610具体用于:
获取所述待处理图像的内容特征以及确定的所述风格模式的内容特征;
针对同一场景对应的任意一种风格模式,将所述风格模式的内容特征与所述待处理图像的内容特征进行对比,得到所述风格模式与所述待处理图像的相似度;
根据同一场景对应的每种所述风格模式与所述待处理图像的相似度,对所述同一场景对应的每种风格模式进行排序。
可选的,所述处理器610具体用于:
将所述待处理图像输入到已训练的特征提取神经网络模型中,获取所述特征提取神经网络模型输出的所述待处理图像的内容特征;或;
将所述场景识别神经网络模型中特征提取层的输出结果作为所述待处理图像的内容特征。
可选的,所述处理器610具体用于:
从预存的风格模式与风格图片的对应关系中,获取确定的所述风格模式对应的风格图片,并将所述风格图片输入到所述特征提取神经网络模型中,获取所述特征提取神经网络模型输出的所述风格模式的内容特征;或;
从预存的风格模式与内容特征的对应关系中,获取确定的所述风格模式对应的内容特征。
可选的,所述处理器610具体用于:
针对同一场景对应的任意一种风格模式,计算所述风格模式的内容特征与所述待处理图像的内容特征的欧氏距离,并将计算结果作为所述风格模式与所述待处理图像的相似度。
如图7所示,本申请实施例还提供一种图像的风格模式推荐的终端,该终端包括获取场景和置信度模块701、确定风格模式模块702、排序模块703和处理模块704:
获取场景和置信度模块701,用于将待处理图像输入到已训练的场景识别神经网络模型中,获取所述场景识别神经网络模型输出的至少一个场景以及所述场景对应的置信度;其中,所述待处理图像为通过摄像头获取的图像帧或本地存储的图像;
确定风格模式模块702,用于根据预设的场景与风格模式的对应关系,确定获取的所述场景对应的风格模式;
第一排序模块703,用于根据所述置信度对确定的风格模式进行排序,并通过显示屏进行显示;
处理模块704,用于确定用户选择的风格模式,并使用所述用户选择的风格模式对应的图片参数对所述待处理图像进行风格化处理。
在一种可能的实现方式中,若一个场景对应至少两种风格模式,所述终端还包括:
获取内容特征模块,用于确定风格模式模块确定获取的所述场景对应的风格模式之后,第一排序模块通过显示屏进行显示之前,获取所述待处理图像的内容特征以及确定的所述风格模式的内容特征;
对比模块,用于针对同一场景对应的任意一种风格模式,将所述风格模式的内容特征与所述待处理图像的内容特征进行对比,得到所述风格模式与所述待处理图像的相似度;
第二排序模块,用于根据同一场景对应的每种所述风格模式与所述待处理图像的相似度,对所述同一场景对应的每种风格模式进行排序。
在一种可能的实现方式中,获取内容特征模块包括:
第一获取待处理图像的内容特征单元,用于将所述待处理图像输入到已训练的特征提取神经网络模型中,获取所述特征提取神经网络模型输出的所述待处理图像的内容特征;或;
第二获取待处理图像的内容特征单元,用于将所述场景识别神经网络模型中特征提取层的输出结果作为所述待处理图像的内容特征。
在一种可能的实现方式中,获取内容特征模块包括:
第一获取风格模式的内容特征单元,用于从预存的风格模式与风格图片的对应关系中,获取确定的所述风格模式对应的风格图片,并将所述风格图片输入到所述特征提取神经网络模型中,获取所述特征提取神经网络模型输出的所述风格模式的内容特征;或;
第二获取风格模式的内容特征单元,用于从预存的风格模式与内容特征的对应关系中,获取确定的所述风格模式对应的内容特征。
在一种可能的实现方式中,对比模块具体用于针对同一场景对应的任意一种风格模式,计算所述风格模式的内容特征与所述待处理图像的内容特征的欧氏距离,并将计算结果作为所述风格模式与所述待处理图像的相似度。
下面结合图8对所述终端800的各个构成部件进行具体的介绍:
所述RF电路810可用于通信或通话过程中,数据的接收和发送。特别地,所述RF电路810在接收到基站的下行数据后,发送给所述处理器830处理;另外,将待发送的上行数据发送给基站。通常,所述RF电路810包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器(Low Noise Amplifier,LNA)、双工器等。
此外,RF电路810还可以通过无线通信与网络和其他终端通信。所述无线通信可以使用任一通信标准或协议,包括但不限于全球移动通讯系统(Global System of Mobilecommunication,GSM)、通用分组无线服务(General Packet Radio Service,GPRS)、码分多址(Code Division Multiple Access,CDMA)、宽带码分多址(Wideband Code DivisionMultiple Access,WCDMA)、长期演进(Long Term Evolution,LTE)、电子邮件、短消息服务(Short Messaging Service,SMS)等。
WiFi技术属于短距离无线传输技术,所述终端800通过WiFi模块890可以连接接入点(Access Point,AP),从而实现数据网络的访问。所述WiFi模块890可用于通信过程中,数据的接收和发送。
所述终端800可以通过所述通信接口880与其他终端实现物理连接。在一些实施方式中,所述通信接口880与所述其他终端的通信接口通过电缆连接,实现所述终端800和其他终端之间的数据传输。
由于在本申请实施例中,所述终端800能够实现通信业务,向其他联系人发送信息,因此所述终端800需要具有数据传输功能,即所述终端800内部需要包含通信模块。虽然图8示出了所述RF电路810、所述WiFi模块890、和所述通信接口880等通信模块,但是可以理解的是,所述终端800中存在上述部件中的至少一个或者其他用于实现通信的通信模块(如蓝牙模块),以进行数据传输。
例如,当所述终端800为手机时,所述终端800可以包含所述RF电路810,还可以包含所述WiFi模块890;当所述终端800为计算机时,所述终端800可以包含所述通信接口880,还可以包含所述WiFi模块890;当所述终端800为平板电脑时,所述终端800可以包含所述WiFi模块。
所述存储器840可用于存储软件程序以及模块。所述处理器830通过运行存储在所述存储器840的软件程序以及模块,从而执行所述终端800的各种功能应用以及数据处理,并且当处理器830执行存储器840中的程序代码后,可以实现本公开实施例图3中的部分或全部过程。
在一些实施方式中,所述存储器840可以主要包括存储程序区和存储数据区。其中,存储程序区可存储操作系统、各种应用程序(比如通信应用)以及人脸识别模块等;存储数据区可存储根据所述终端的使用所创建的数据(比如各种图片、视频文件等多媒体文件,以及人脸信息模板)等。
此外,所述存储器840可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
所述输入单元850可用于接收用户输入的数字或字符信息,以及产生与所述终端800的用户设置以及功能控制有关的键信号输入。
在一些实施方式中,输入单元850可包括触控面板851以及其他输入终端852。
其中,所述触控面板851,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在所述触控面板851上或在所述触控面板851附近的操作),并根据预先设定的程式驱动相应的连接装置。在一些实施方式中,所述触控面板851可以包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给所述处理器830,并能接收所述处理器830发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现所述触控面板851。
在一些实施方式中,所述其他输入终端852可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
所述显示单元860可用于显示由用户输入的信息或提供给用户的信息以及所述终端800的各种菜单。所述显示单元860即为所述终端800的显示系统,用于呈现界面,实现人机交互。
进一步的,所述触控面板851可覆盖所述显示面板861,当所述触控面板851检测到在其上或附近的触摸操作后,传送给所述处理器830以确定触摸事件的类型,随后所述处理器830根据触摸事件的类型在所述显示面板861上提供相应的视觉输出。
虽然在图8中,所述触控面板851与所述显示面板861是作为两个独立的部件来实现所述终端800的输入和输入功能,但是在某些实施例中,可以将所述触控面板851与所述显示面板861集成而实现所述终端800的输入和输出功能。
所述处理器830是所述终端800的控制中心,利用各种接口和线路连接各个部件,通过运行或执行存储在所述存储器840内的软件程序和/或模块,以及调用存储在所述存储器840内的数据,执行所述终端800的各种功能和处理数据,从而实现基于所述终端的多种业务。
在一些实施方式中,所述处理器830可包括一个或多个处理器。在一些实施方式中,所述处理器830可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到所述处理器830中。
所述摄像头870,用于实现所述终端800的拍摄功能,拍摄图片或视频。所述摄像头870还可以用于实现终端800的扫描功能,对扫描对象(二维码/条形码)进行扫描。
所述终端800还包括用于给各个部件供电的电源820(比如电池)。在一些实施方式中,所述电源820可以通过电源管理系统与所述处理器830逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗等功能。
尽管未示出,所述终端800还可以包括至少一种传感器、音频电路等,在此不再赘述。
其中,存储器830可以存储与存储器620相同的有程序代码,当所述程序代码被处理器820执行时,使得处理器820实现处理器610的所有功能。
本申请实施例还提供一种计算机可读非易失性存储介质,包括程序代码,当所述程序代码在计算终端上运行时,所述程序代码用于使所述计算终端执行上述本申请实施例处理应用的方法的步骤。
以上参照示出根据本申请实施例的方法、装置(系统)和/或计算机程序产品的框图和/或流程图描述本申请。应理解,可以通过计算机程序指令来实现框图和/或流程图示图的一个块以及框图和/或流程图示图的块的组合。可以将这些计算机程序指令提供给通用计算机、专用计算机的处理器和/或其它可编程数据处理装置,以产生机器,使得经由计算机处理器和/或其它可编程数据处理装置执行的指令创建用于实现框图和/或流程图块中所指定的功能/动作的方法。
相应地,还可以用硬件和/或软件(包括固件、驻留软件、微码等)来实施本申请。更进一步地,本申请可以采取计算机可使用或计算机可读存储介质上的计算机程序产品的形式,其具有在介质中实现的计算机可使用或计算机可读程序代码,以由指令执行系统来使用或结合指令执行系统而使用。在本申请上下文中,计算机可使用或计算机可读介质可以是任意介质,其可以包含、存储、通信、传输、或传送程序,以由指令执行系统、装置或设备使用,或结合指令执行系统、装置或设备使用。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。

Claims (8)

1.一种图像的风格模式推荐终端,其特征在于,该终端包括:处理器和显示屏;
所述处理器:用于将待处理图像进行转码处理,获得与场景识别神经网络模型识别的图像格式一致的目标处理图像,将所述目标处理图像输入到已训练的场景识别神经网络模型中,获取所述场景识别神经网络模型输出的至少一个场景以及所述场景对应的置信度;其中,所述待处理图像为通过摄像头获取的图像帧或本地存储的图像;根据预设的场景与风格模式的对应关系,确定获取的所述场景对应的风格模式;根据所述置信度对确定的风格模式进行排序;确定用户选择的风格模式,并使用所述用户选择的风格模式对应的图片参数对所述待处理图像进行风格化处理;
所述显示屏:用于显示排序后的风格模式;
其中,若一个场景对应至少两种风格模式,所述处理器具体用于:
获取所述待处理图像的内容特征以及确定的所述风格模式的内容特征;
针对同一场景对应的任意一种风格模式,将所述风格模式的内容特征与所述待处理图像的内容特征进行对比,得到所述风格模式与所述待处理图像的相似度;
根据同一场景对应的每种所述风格模式与所述待处理图像的相似度,对所述同一场景对应的每种风格模式进行排序。
2.根据权利要求1所述的终端,其特征在于,所述处理器具体用于:
将所述待处理图像输入到已训练的特征提取神经网络模型中,获取所述特征提取神经网络模型输出的所述待处理图像的内容特征;或
将所述场景识别神经网络模型中特征提取层的输出结果作为所述待处理图像的内容特征。
3.根据权利要求1所述的终端,其特征在于,所述处理器具体用于:
从预存的风格模式与风格图片的对应关系中,获取确定的所述风格模式对应的风格图片,并将所述风格图片输入到特征提取神经网络模型中,获取所述特征提取神经网络模型输出的所述风格模式的内容特征;或
从预存的风格模式与内容特征的对应关系中,获取确定的所述风格模式对应的内容特征。
4.根据权利要求1所述的终端,其特征在于,所述处理器具体用于:
针对同一场景对应的任意一种风格模式,计算所述风格模式的内容特征与所述待处理图像的内容特征的欧氏距离,并将计算结果作为所述风格模式与所述待处理图像的相似度。
5.一种图像的风格模式推荐方法,其特征在于,所述方法包括:
将待处理图像进行转码处理,获得与场景识别神经网络模型识别的图像格式一致的目标处理图像,将所述目标处理图像输入到已训练的场景识别神经网络模型中,获取所述场景识别神经网络模型输出的至少一个场景以及所述场景对应的置信度;其中,所述待处理图像为通过摄像头获取的图像帧或本地存储的图像;
根据预设的场景与风格模式的对应关系,确定获取的所述场景对应的风格模式;
根据所述置信度对确定的风格模式进行排序,并通过显示屏进行显示;
确定用户选择的风格模式,并使用所述用户选择的风格模式对应的图片参数对所述待处理图像进行风格化处理;
其中,若一个场景对应至少两种风格模式,则确定获取的所述场景对应的风格模式之后,通过显示屏进行显示之前,所述方法还包括:
获取所述待处理图像的内容特征以及确定的所述风格模式的内容特征;
针对同一场景对应的任意一种风格模式,将所述风格模式的内容特征与所述待处理图像的内容特征进行对比,得到所述风格模式与所述待处理图像的相似度;
根据同一场景对应的每种所述风格模式与所述待处理图像的相似度,对所述同一场景对应的每种风格模式进行排序。
6.根据权利要求5所述的方法,其特征在于,获取所述待处理图像的内容特征,包括:
将所述待处理图像输入到已训练的特征提取神经网络模型中,获取所述特征提取神经网络模型输出的所述待处理图像的内容特征;或
将所述场景识别神经网络模型中特征提取层的输出结果作为所述待处理图像的内容特征。
7.根据权利要求5所述的方法,其特征在于,获取确定的所述风格模式的内容特征,包括:
从预存的风格模式与风格图片的对应关系中,获取确定的所述风格模式对应的风格图片,并将所述风格图片输入到特征提取神经网络模型中,获取所述特征提取神经网络模型输出的所述风格模式的内容特征;或
从预存的风格模式与内容特征的对应关系中,获取确定的所述风格模式对应的内容特征。
8.根据权利要求5所述的方法,其特征在于,所述针对同一场景对应的任意一种风格模式,将所述风格模式的内容特征与所述待处理图像的内容特征进行对比,得到所述风格模式与所述待处理图像的相似度,包括:
针对同一场景对应的任意一种风格模式,计算所述风格模式的内容特征与所述待处理图像的内容特征的欧氏距离,并将计算结果作为所述风格模式与所述待处理图像的相似度。
CN201911120103.0A 2019-11-15 2019-11-15 一种图像的风格模式推荐方法和终端 Active CN112819685B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911120103.0A CN112819685B (zh) 2019-11-15 2019-11-15 一种图像的风格模式推荐方法和终端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911120103.0A CN112819685B (zh) 2019-11-15 2019-11-15 一种图像的风格模式推荐方法和终端

Publications (2)

Publication Number Publication Date
CN112819685A CN112819685A (zh) 2021-05-18
CN112819685B true CN112819685B (zh) 2022-11-04

Family

ID=75851704

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911120103.0A Active CN112819685B (zh) 2019-11-15 2019-11-15 一种图像的风格模式推荐方法和终端

Country Status (1)

Country Link
CN (1) CN112819685B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103197850A (zh) * 2011-09-30 2013-07-10 索尼公司 信息处理设备、信息处理方法和计算机可读介质
CN107845072A (zh) * 2017-10-13 2018-03-27 深圳市迅雷网络技术有限公司 图像生成方法、装置、存储介质及终端设备
CN108205803A (zh) * 2017-07-19 2018-06-26 北京市商汤科技开发有限公司 图像处理方法、神经网络模型的训练方法及装置
CN109409928A (zh) * 2018-09-14 2019-03-01 上海晶赞融宣科技有限公司 一种素材推荐方法、装置、存储介质、终端
CN109727208A (zh) * 2018-12-10 2019-05-07 北京达佳互联信息技术有限公司 滤镜推荐方法、装置、电子设备及存储介质
WO2019134560A1 (zh) * 2018-01-08 2019-07-11 Oppo广东移动通信有限公司 搭配模型构建方法、服饰推荐方法、装置、介质及终端
CN110097574A (zh) * 2019-04-24 2019-08-06 南京邮电大学 一种已知刚体的实时位姿估计方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103197850A (zh) * 2011-09-30 2013-07-10 索尼公司 信息处理设备、信息处理方法和计算机可读介质
CN108205803A (zh) * 2017-07-19 2018-06-26 北京市商汤科技开发有限公司 图像处理方法、神经网络模型的训练方法及装置
CN107845072A (zh) * 2017-10-13 2018-03-27 深圳市迅雷网络技术有限公司 图像生成方法、装置、存储介质及终端设备
WO2019134560A1 (zh) * 2018-01-08 2019-07-11 Oppo广东移动通信有限公司 搭配模型构建方法、服饰推荐方法、装置、介质及终端
CN110021061A (zh) * 2018-01-08 2019-07-16 广东欧珀移动通信有限公司 搭配模型构建方法、服饰推荐方法、装置、介质及终端
CN109409928A (zh) * 2018-09-14 2019-03-01 上海晶赞融宣科技有限公司 一种素材推荐方法、装置、存储介质、终端
CN109727208A (zh) * 2018-12-10 2019-05-07 北京达佳互联信息技术有限公司 滤镜推荐方法、装置、电子设备及存储介质
CN110097574A (zh) * 2019-04-24 2019-08-06 南京邮电大学 一种已知刚体的实时位姿估计方法

Also Published As

Publication number Publication date
CN112819685A (zh) 2021-05-18

Similar Documents

Publication Publication Date Title
CN113132618B (zh) 辅助拍照方法、装置、终端设备及存储介质
CN111417028B (zh) 信息处理方法、装置、存储介质及电子设备
CN110689500B (zh) 一种人脸图像的处理方法、装置、电子设备及存储介质
CN111464716B (zh) 一种证件扫描方法、装置、设备及存储介质
CN111556278A (zh) 一种视频处理的方法、视频展示的方法、装置及存储介质
CN109495616B (zh) 一种拍照方法及终端设备
CN111209423B (zh) 一种基于电子相册的图像管理方法、装置以及存储介质
CN111672109B (zh) 一种游戏地图生成的方法、游戏测试的方法以及相关装置
CN105868282A (zh) 聋哑人进行信息交流的方法、装置及智能终端
CN104200249A (zh) 一种衣物自动搭配的方法,装置及系统
CN111143543A (zh) 一种对象推荐方法、装置、设备及介质
CN108460817B (zh) 一种拼图方法及移动终端
CN111209812A (zh) 目标人脸图片提取方法、装置及终端设备
CN111259200A (zh) 视频类别划分方法、装置、电子设备及存储介质
CN111125523A (zh) 搜索方法、装置、终端设备及存储介质
CN110689479A (zh) 一种人脸上妆方法、装置、设备及介质
CN112699849A (zh) 手势识别方法和装置、电子设备、可读存储介质和芯片
CN110347858B (zh) 一种图片的生成方法和相关装置
CN113037925B (zh) 信息处理方法、信息处理装置、电子设备和可读存储介质
CN104424485A (zh) 一种基于图像识别来获取特定信息的方法与装置
CN110796096B (zh) 一种手势识别模型的训练方法、装置、设备及介质
CN110516689B (zh) 图像处理方法、装置以及电子设备、存储介质
CN112819685B (zh) 一种图像的风格模式推荐方法和终端
CN116958715A (zh) 一种手部关键点的检测方法、装置以及存储介质
CN110825475A (zh) 一种输入方法及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder
CP01 Change in the name or title of a patent holder

Address after: 266071 Shandong city of Qingdao province Jiangxi City Road No. 11

Patentee after: Qingdao Hisense Mobile Communication Technology Co.,Ltd.

Address before: 266071 Shandong city of Qingdao province Jiangxi City Road No. 11

Patentee before: HISENSE MOBILE COMMUNICATIONS TECHNOLOGY Co.,Ltd.