CN107798653B - 一种图像处理的方法和一种装置 - Google Patents

一种图像处理的方法和一种装置 Download PDF

Info

Publication number
CN107798653B
CN107798653B CN201710853951.7A CN201710853951A CN107798653B CN 107798653 B CN107798653 B CN 107798653B CN 201710853951 A CN201710853951 A CN 201710853951A CN 107798653 B CN107798653 B CN 107798653B
Authority
CN
China
Prior art keywords
image
region
characteristic region
characteristic
preset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710853951.7A
Other languages
English (en)
Other versions
CN107798653A (zh
Inventor
康丽萍
李圣喜
梁书宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sankuai Online Technology Co Ltd
Original Assignee
Beijing Sankuai Online Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sankuai Online Technology Co Ltd filed Critical Beijing Sankuai Online Technology Co Ltd
Priority to CN201710853951.7A priority Critical patent/CN107798653B/zh
Publication of CN107798653A publication Critical patent/CN107798653A/zh
Application granted granted Critical
Publication of CN107798653B publication Critical patent/CN107798653B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明实施例提供了一种图像处理的方法和装置一种移动终端,所述方法应用于移动终端;所述的方法包括:接收用户发起的图像采集命令,采集第一图像;从所述第一图像中确定第一特征区域,以及第二特征区域;分别对所述第一特征区域进行第一调整操作,以及,对所述第二特征区域进行第二调整操作,获得执行完所述第一调整操作和第二调整操作后的第二图像;展现所述第二图像。本发明实施例可以针对同一图像中不同区域的特点分别进行差异化调整,而不是对同一图像进行统一调整,增加了图像的美感,提升了用户体验。

Description

一种图像处理的方法和一种装置
技术领域
本发明涉及信息数据技术领域,特别是涉及一种图像处理方法和一种图像处理的装置。
背景技术
近年来,用户对于美图的需求逐渐增多,场景越来越广泛。
例如,美团和大众点评均有用户上传美食场景图片的入口,但却没有相应的美图功能。用户如果需要对图像进行美化,需要借助于其他的美图APP,再将处理后的图片上传,这样会影响用户体验。
此外,现有美食场景包含大量人物和美食同时出现在一幅图像中的情况,而传统的美图APP一般需要用户手动为图像整体进行美化,或者对图像中用户指定的某一区域进行美化,这样美图的效果也不太理想。
发明内容
本发明实施例提供一种图像处理的方法和相应的一种图像处理的装置、一种电子设备、一种计算机可读存储介质,以解决用户在对图片美化的过程中操作繁琐、图片美化效果不理想的上述问题。
为了解决上述问题,本发明实施例公开了一种图像处理的方法,所述方法应用于移动终端,所述的方法包括:
接收用户发起的图像采集命令,采集第一图像;
从所述第一图像中确定第一特征区域,以及第二特征区域;
分别对所述第一特征区域进行第一调整操作,以及,对所述第二特征区域进行第二调整操作,获得执行完所述第一调整操作和第二调整操作后的第二图像;
展现所述第二图像。
优选地,所述移动终端上安装有指定的应用程序;
所述接收用户发起的图像采集指令,采集第一图像的步骤包括:
接收用户通过所述指定的应用程序发起的图像采集命令,采集第一图像;
所述展现所述第二图像的步骤包括:
通过所述指定的应用程序展现所述第二图像。
优选地,所述第一特征区域为包含人像的区域,所述第二特征区域为包含菜品的区域。
优选地,所述从所述第一图像中确定第一特征区域,以及第二特征区域的步骤包括:
利用预先设置的基于深度卷积神经网络的实例分割模型,对所述第一图像进行实例分割,获取每个像素对应的标签,以及标签的类型;
分别将所有标签的类型相同的像素组成的区域确定为第一特征区域,以及第二特征区域。
优选地,所述对所述第一特征区域进行第一调整操作的步骤包括:
对所述第一特征区域进行人脸识别,以及定位关键点;
利用预先设置的年龄检测深度卷积神经网络模型检测所述第一特征区域中人物的年龄,以及,利用预先设置的性别检测深度卷积神经网络模型检测所述第一特征区域中人物的性别;
获取与所述年龄、性别具有对应关系的特效参数;
针对所述关键点,将所述第一特征区域的当前图像参数更改为所述特效参数。
优选地,所述对所述第二特征区域进行第二调整操作的步骤包括:
利用预先设置的基于深度卷积神经网络的菜品识别模型识别所述第二特征区域的菜品的名称;
获取与所述菜品的名称具有对应关系的滤镜参数;
采用所述滤镜参数对所述第二特征区域添加滤镜效果。
优选地,获得执行完所述第一调整操作和第二调整操作后的第二图像的步骤包括:
从预置的个性化语句库中获取与菜品名称具有对应关系的个性化语句;
在预设关键点添加所述个性化语句;
基于调整操作后的第一特征区域、第二特征区域,以及所述个性化语句,生成第二图像。
为了解决上述问题,本发明实施例还公开了一种图像处理的装置,包括:
采集模块,用于接收用户发起的图像采集命令,采集第一图像;
区域确定模块,用于从所述第一图像中确定第一特征区域,以及第二特征区域;
图像调整模块,用于分别对所述第一特征区域进行第一调整操作,以及,对所述第二特征区域进行第二调整操作,获得执行完所述第一调整操作和第二调整操作后的第二图像;
展现模块,用于展现所述第二图像。
优选地,包括所述装置的移动终端上安装有指定的应用程序;
所述采集模块还用于接收用户通过所述指定的应用程序发起的图像采集命令,采集第一图像;
所述展现模块还用于通过所述指定的应用程序展现所述第二图像。
优选地,所述第一特征区域为包含人像的区域,所述第二特征区域为包含菜品的区域。
优选地,所述区域确定模块包括:
图像分割子模块,用于利用预先设置的基于深度卷积神经网络的实例分割模型,对所述第一图像进行实例分割,获取每个像素对应的标签,以及标签的类型;
区域划分子模块,用于分别将所有标签的类型相同的像素组成的区域确定为第一特征区域,以及第二特征区域。
优选地,所述图像调整模块包括:
人脸识别子模块,用于对所述第一特征区域进行人脸识别,以及定位关键点;
人物特征检测子模块,用于利用预先设置的年龄检测深度卷积神经网络模型检测所述第一特征区域中人物的年龄,以及,利用预先设置的性别检测深度卷积神经网络模型检测所述第一特征区域中人物的性别;
人物参数获取子模块,用于获取与所述年龄、性别具有对应关系的特效参数;
人物参数调整子模块,用于针对所述关键点,将所述第一特征区域的当前图像参数更改为所述特效参数。
优选地,所述图像调整模块还包括:
菜品识别子模块,用于利用预先设置的基于深度卷积神经网络的菜品识别模型识别所述第二特征区域的菜品的名称;
菜品参数识别子模块,用于获取与所述菜品的名称具有对应关系的滤镜参数;
菜品参数调整子模块,用于采用所述滤镜参数对所述第二特征区域添加滤镜效果。
优选地,所述图像调整模块还包括:
个性化语句获取子模块,用于从预置的个性化语句库中获取与菜品名称具有对应关系的个性化语句;
个性化语句设置子模块,用于在预设关键点添加所述个性化语句;
图像生成子模块,用于基于调整操作后的第一特征区域、第二特征区域,以及所述个性化语句,生成第二图像。
为了解决上述问题,本发明实施例公开了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述任意一项方法的步骤。
为了解决上述问题,本发明实施例公开了一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现上述任意一项方法的步骤。
本发明实施例包括以下优点:
在本发明实施例中,当接收到用户发起的图像采集命令时,采集第一图像,然后基于实例分割从第一图像中确定第一特征区域和第二特征区域,然后分别对第一特征区域进行第一调整操作,以及,对第二特征区域进行第二调整操作,最后,将获得执行完第一调整操作和第二调整操作后的第二图像展现给用户。实现了对同一图像中的不同目标分别进行识别,并确定出包含不同目标的各个区域,再针对各个区域的不同特点分别进行相应的调整操作。这样,用户不需要使用第三方应用程序手动对图像进行调整操作,提升了用户体验,而且,可以针对同一图像中不同区域的特点分别进行差异化调整,而不是对同一图像进行统一调整,增加了图像的美感。
附图说明
图1是本发明的一种图像处理的方法实施例的步骤流程图;
图2是本发明的人脸的各个关键点的分布示意图;
图3是本发明的一种图像处理的装置实施例的结构框图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
参照图1,示出了本发明的一种图像处理的方法实施例的步骤流程图,所述方法应用于移动终端。
在本发明实施例中,移动终端可以可以具有如下特点:
(1)在硬件体系上,设备具备中央处理器、存储器、输入部件和输出部件,也就是说,设备往往是具备通信功能的微型计算机设备。另外,还可以具有多种输入方式,诸如键盘、鼠标、触摸屏、送话器和摄像头等,并可以根据需要进行调整输入。同时,设备往往具有多种输出方式,如受话器、显示屏等,也可以根据需要进行调整;
(2)在软件体系上,设备必须具备操作系统,如Windows Mobile、Symbian、Palm、Android、iOS等。同时,这些操作系统越来越开放,基于这些开放的操作系统平台开发的个性化应用程序层出不穷,如通信簿、日程表、记事本、计算器以及各类游戏等,极大程度地满足了个性化用户的需求;
(3)在通信能力上,设备具有灵活的接入方式和高带宽通信性能,并且能根据所选择的业务和所处的环境,自动调整所选的通信方式,从而方便用户使用。设备可以支持GSM、WCDMA、CDMA2000、TDSCDMA、Wi-Fi以及WiMAX等,从而适应多种制式网络,不仅支持语音业务,更支持多种无线数据业务;
(4)在功能使用上,设备更加注重人性化、个性化和多功能化。随着计算机技术的发展,设备从“以设备为中心”的模式进入“以人为中心”的模式,集成了嵌入式计算、控制技术、人工智能技术以及生物认证技术等,充分体现了以人为本的宗旨。由于软件技术的发展,设备可以根据个人需求调整设置,更加个性化。同时,设备本身集成了众多软件和硬件,功能也越来越强大。
在本发明一种优选实施例中,所述移动终端上安装有指定的应用程序。具体的,用户可以使用该指定的应用程序通过网络在商家购买外卖等餐饮,并且通过该指定的应用程序对餐饮、商家进行评价,任何人都可以在网络上看到商家、餐饮的所有评价,其中,评价可以包括文字评价、图片评价等方式的评价。
所述的方法具体可以包括如下步骤:
步骤101,接收用户发起的图像采集命令,采集第一图像;
在具体实现中,用户在对餐饮、商家进行图片评价时,需要现场拍摄图像,此时,当移动终端接收到用户发起图像采集命令时,移动终端采集第一图像。
在本发明一种优选实施例中,所述接收用户发起的图像采集指令,采集第一图像的步骤包括:
接收用户通过所述指定的应用程序发起的图像采集命令,采集第一图像。
具体的,用户使用指定的应用程序在对餐饮、商家进行图片评价时,可以点击具有拍摄功能的虚拟按钮,此时,应用程序就会调用移动终端的摄像头,移动终端的当前界面就会从评价界面跳转到图像采集界面,用户可以通过点击图像采集界面中具有拍摄功能的虚拟按钮进行图像采集,也可以通过移动终端的实体拍摄按钮进行图像采集。
当然,用户除了可以采集图像,也可以采集视频,例如,图像采集界面包括图像采集模式、视频采集模式两种模式,当用户选择图像采集模式时,采集到的就是静止的图像,当用户选择视频采集模式时,采集到的就是动态的视频。
而实现视频采集可以通过用户按住虚拟按钮,或实体按钮一定时间的方式来采集,也可以通过用户第一次点击虚拟按钮,或实体按钮开始采集视频,用户第二次点击虚拟按钮,或实体按钮结束采集视频的方式来采集,或者通过其它方式来采集视频也是可以的。
步骤102,从所述第一图像中确定第一特征区域,以及第二特征区域;
“实例分割”是图像分割中的一个细分领域,与“语义分割”相对应。所谓语义分割,顾名思义,像素级别的语义分割是对图像中的每个像素都划分出对应的类别,即实现像素级别的分类。而类的具体对象,即为实例,那么实例分割不但要进行像素级别的分类,还需在具体的类别基础上区别开不同的实例。也就是说,是将一幅图像中所有物体框出来,并将物体进行像素级别的分割提取。
比如说图像有甲、乙、丙三个人,如果对图像进行语义分割,那么只能识别出图像中有人,当三个人是分开不重叠时,则可以分别识别出三个人,当三个人是重叠时,那么只能识别出整体轮廓,无法区分具体有几个人,但是如果对图像进行实例分割,那么不管三个人是否是重叠的,都可以识别出具体有几个人,以及每个人的轮廓。
本发明实施例正是利用上述原理来识别第一图像中是否包括人像,在本发明一种优选实施例中,所述第一特征区域为包含人像的区域。
在具体实现中,用户在对餐饮、商家进行图片评价时,图片有可能会包含人像。例如,用户在拍摄“红烧肉”时,将同伴一起拍摄到图片中了,那么图片中就包含“人”和“菜品(红烧肉)”了,那么此时就采用实例分割就能够识别图像中是包括人像的了,因此,将包含人像的区域确定为第一特征区域。
需要说明的是,第一特征区域并不是指该只包含一个人的区域,而是指包含了人的区域,都可以算第一特征区域,例如第一图像中有三个人,那么第一特征区域就为包含三个人像的区域。
在判断第一图像中是否包含第一特征区域的同时,会判断第一图像中是否包含第二特征区域,在本发明一种优选实施例中,所述第二特征区域为包含菜品的区域,其中,菜品可以是饮品,也可以是食物,例如,包含咖啡,和/或蛋糕,和/或红烧肉的区域等等。
需要说明的是,第二特征区域并不是指该只包含一种菜品的区域,而是指包含了一种或多种菜品的区域,都可以算第二特征区域,例如第一图像中包含咖啡、蛋糕、红烧肉,那么第二特征区域就为包含咖啡、蛋糕、红烧肉的区域。
在本发明一种优选实施例中,所述从所述第一图像中确定第一特征区域,以及第二特征区域的步骤包括:
利用预先设置的基于深度卷积神经网络的实例分割模型,对所述第一图像进行实例分割,获取每个像素对应的标签,以及标签的类型;
分别将所有标签的类型相同的像素组成的区域确定为第一特征区域,以及第二特征区域。
卷积网络是为识别二维形状而特殊设计的一个多层感知器,这种网络结构对平移、比例缩放、倾斜或者共他形式的变形具有高度不变性。这些良好的性能是网络在有监督方式下学会的,网络的结构主要有稀疏连接和权值共享两个特点,包括如下形式的约束:
1、特征提取。每一个神经元从上一层的局部接受域得到突触输人,因而迫使它提取局部特征。一旦一个特征被提取出来,只要它相对于其他特征的位置被近似地保留下来,它的精确位置就变得没有那么重要了。
2、特征映射。网络的每一个计算层都是由多个特征映射组成的,每个特征映射都是平面形式的。平面中单独的神经元在约束下共享相同的突触权值集,这种结构形式具有如下的有益效果:a.平移不变性。b.自由参数数量的缩减(通过权值共享实现)。
3、子抽样。每个卷积层后面跟着一个实现局部平均和子抽样的计算层,由此特征映射的分辨率降低。这种操作具有使特征映射的输出对平移和其他形式的变形的敏感度下降的作用。
卷积神经网络是一个多层的神经网络,每层由多个二维平面组成,而每个平面由多个独立神经元组成。
例如,一张1000x1000像素的图像,就有1百万个隐层神经元,那么他们全连接的话(每个隐层神经元都连接图像的每一个像素点),就有1000x1000x1000000=10^12个连接,也就是10^12个权值参数。然而图像的空间联系是局部的,就像人是通过一个局部的感受野去感受外界图像一样,每一个神经元都不需要对全局图像做感受,每个神经元只感受局部的图像区域,然后在更高层,将这些感受不同局部的神经元综合起来就可以得到全局的信息了。这样,我们就可以减少连接的数目,也就是减少神经网络需要训练的权值参数的个数了。假如局部感受野是10x10,隐层每个感受野只需要和这10x10的局部图像相连接,所以1百万个隐层神经元就只有一亿个连接,即10^8个参数。比原来减少了四个0(数量级),这样训练起来就没那么费力了。
应用在本发明实施例中,要实现使用深度卷积神经网络模型识别人物、菜品,就需要先分别对预先设置的年龄检测深度卷积神经网络模型,预先设置的基于深度卷积神经网络的菜品识别模型,进行训练。
首先收集经过像素级标注的训练数据,针对图像的每个像素进行类别标注,且在标注中对不同的实例进行区分,也就是将不同种类、不同名称的菜品的图像输入深度卷积神经网络模型。然后利用深度学习方法,例如FCN(Fully Convolutional Networks,全卷积)、FCIS(Fully Convolutional Instance-aware Semantic Segmentation,全卷积感知语义分割)、Mask R-CNN(Mask Representation-Convolutional Neural Network,模板代表卷积神经网络)等,进行实例分割模型的训练。在使用时,将第一图像输入预先设置深度卷积神经网络模型,利用预先设置的基于深度卷积神经网络的实例分割模型对第一图像进行实例分割,获取每个像素对应的标签,以及标签的类型。在现实应用中,用户在拍摄的第一图像通常都不会只有一个主体,所以在匹配的过程中,会匹配到多个主体,因此,针对不同的主体区域的像素,需要生成不同的标签,然后将标签相同的像素形成的区域确定为第一特征区域,以及第二特征区域。其中,标签的类型可以分为“人”和“非人”,比如,人像区域的像素的标签的类型可以是“1”,而非人像区域的像素的标签的类型就可以是“0”。
例如,人像区域的像素的标签可以为“人”,标签的类型为“1”,而咖啡区域的像素的标签可以为“咖啡”,标签的类型为“0”,蛋糕区域的像素的标签可以为“蛋糕”,标签的类型为“0”,针对某一图像,深度卷积神经网络模型对第一图像匹配并生成了“人”、“咖啡”、“蛋糕”三种标签,然后,将所有标签的类型为“1”的像素所形成的区域确定为第一特征区域,将所有标签为“0”的区域确定为第二特征区域。
步骤103,分别对所述第一特征区域进行第一调整操作,以及,对所述第二特征区域进行第二调整操作,获得执行完所述第一调整操作和第二调整操作后的第二图像;
在确定了第一图像中的第一特征区域以及第二特征区域后,就可以分别对第一特征区域和第二特征和区域进行美化处理了。
需要注意的是,对第一特征区域进行美化处理,和对第二特征区域进行美化处理是独立的,对第一特征区域进行第一调整操作不会应用于第二特征区域,对第二特征区域进行第二调整操作也不会应用于第一特征区域。
在本发明一种优选实施例中,所述深度卷积神经网络模型包括年龄检测深度卷积神经网络模型,和性别检测深度卷积神经网络模型;所述对所述第一特征区域进行第一调整操作的步骤包括:
对所述第一特征区域区域进行人脸识别,以及定位关键点;
利用预先设置的年龄检测深度卷积神经网络模型检测所述第一特征区域中人物的年龄,以及,利用所述性别检测深度卷积神经网络模型检测所述第一特征区域中人物的性别;
获取与所述年龄、性别具有对应关系的特效参数;
针对所述关键点,将所述第一特征区域的当前图像参数更改为所述特效参数。
在本发明实施例中,深度卷积神经网络模型包括年龄检测深度卷积神经网络模型,和性别检测深度卷积神经网络模型,二者是两个分开独立的模型。在对年龄检测深度卷积神经网络模型进行训练时,可以在输入的每张人物图像中设置人物的年龄、性别等标签,例如图像X的年龄、性别参数为(0,30),其中,“0”代表男性,“30”代表年龄为30岁,图像Y的年龄、性别参数为(1,18),其中,“1”代表女生,“18”代表年龄为18岁。然后利用深度卷积网路模型,例如VGG(visual geometry group,二维物体识别)、AlexNet等算法分别对年龄检测深度卷积神经网络模型,和性别检测深度卷积神经网络模型进行训练。例如,在使用时,将第一图像输入到已经训练好的性别检测深度卷积神经网络模型中,性别检测深度卷积神经网络模型会得到一个二维的向量,分别代表该图像为男性和女性的概率大小,选取概率最大的类别为该图像的分类标签,即可判定该图像为男性还是女性,年龄的检测方法同理。
在检测到了人物的年龄、性别后,就可以从预置的特效参数数据库中获取与年龄、性别具有对应关系的特效参数了。其中,特效参数数据库中会存储不同性别、年龄一一对应的特效参数,例如18岁女性对应的特效参数与40岁女性对应的特效参数就是不同的。然后将人物区域的当前参数更改为对应的特效参数,从而实现对人物的美化。
而对人物区域进行人脸识别则可以定位人脸的各个关键点,如图2所示。
在本发明一种优选实施例中,所述对所述第二特征区域进行第二调整操作的步骤包括:
利用预先设置的菜品识别深度卷积神经网络模型识别所述第二特征区域的菜品的名称;
获取与所述菜品的名称具有对应关系的滤镜参数;
采用所述滤镜参数对所述第二特征区域添加滤镜效果;
具体的,在训练菜品分类模型时,通常需要大量类别的菜品的图像作为训练图像。基于深度卷积神经网络的模型的训练图像的格式通常为(label,image),其中,label为图像的类别标签,image为菜品图像,每种菜品图像对应的的的名称,其中,菜品可以包括饮品、食物等分类。基于菜品识别深度卷积神经网络通过对不同类别的图像进行学习,训练的分类模型的参数。在使用时,可以利用训练得到的的分类模型对其他待识别图像进行分类,得到该图像对应的的类别,以及该的的名称。然后从预置的滤镜数据库中获取与菜品的名称具有对应关系的滤镜参数,最后采用获取的滤镜参数对菜品区域添加滤镜效果。其中,滤镜数据库中存储有不同类别的菜品一一对应的滤镜效果,和/或不同名称的菜品一一对应的滤镜效果,例如,面条类别选择美味风格的滤镜效果,饮品类别选择清凉风格的滤镜效果,甜品类别选择香甜风格的滤镜效果等。
在本发明一种优选实施例中,所述获得执行完所述第一调整操作和第二调整操作后的第二图像的步骤包括包括:
从预置的个性化语句库中获取与菜品名称具有对应关系的个性化语句;
在预设关键点添加所述个性化语句;
基于调整操作后的第一特征区域、第二特征区域,以及所述个性化语句,生成第二图像;
在具体实现中,预置的个性化语句库中存储有不同类别的菜品一一对应的个性化语句,和/或不同名称的菜品一一对应的个性化语句,当识别到菜品的名称或类别后,可以从个性化语句库中获取与菜品名称具有对应关系的个性化语句,然后在预设的关键点附近添加该个性化语句,其中,预设的关键点为图2中的任意一点。最后,基于特效处理后的第一特征区域、添加滤镜效果后的第二特征区域,以及个性化语句,生成第二图像。
当然,除了将图2中的任意一点设置为预设的关键点之外,也可以将第一图像中的其它位置,例如将第二特征区域的某个点设为预设的关键点,也是可以的,本发明实施例对此不作限制。
步骤104,展现所述第二图像。
在本发明一种优选实施例中,所述展现所述第二图像的步骤包括:
通过所述指定的应用程序展现所述第二图像。
具体的,指定的应用程序对第一图像进行一系列处理生成第二图像后,将生成的第二图像展现给用户。也就是说,用户通过虚拟拍摄按钮或者实体拍摄按钮拍摄图像,实际看到的并不是第一图像,而是指定的应用程序对第一图像经过一系列处理后生成的第二图像。
在本发明实施例中,当接收到用户发起的图像采集命令时,采集第一图像,然后基于实例分割从第一图像中确定第一特征区域和第二特征区域,然后分别对第一特征区域进行第一调整操作,以及,对第二特征区域进行第二调整操作,最后,将获得执行完第一调整操作和第二调整操作后的第二图像展现给用户。实现了对同一图像中的不同目标分别进行识别,并确定出包含不同目标的各个区域,再针对各个区域的不同特点分别进行相应的调整操作。这样,用户不需要使用第三方应用程序手动对图像进行调整操作,提升了用户体验,而且,可以针对同一图像中不同区域的特点分别进行差异化调整,而不是对同一图像进行统一调整,增加了图像的美感。
需要说明的是,对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明实施例并不受所描述的动作顺序的限制,因为依据本发明实施例,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本发明实施例所必须的。
参照图3,示出了本发明的一种图像处理的装置实施例的结构框图,具体可以包括如下模块:
采集模块301,用于接收用户发起的图像采集命令,采集第一图像;
区域确定模块302,用于从所述第一图像中确定第一特征区域,以及第二特征区域;
图像调整模块303,用于分别对所述第一特征区域进行第一调整操作,以及,对所述第二特征区域进行第二调整操作,获得执行完所述第一调整操作和第二调整操作后的第二图像;
展现模块304,用于展现所述第二图像。
在本发明一种优选实施例中,包括所述装置的移动终端上安装有指定的应用程序;
所述采集模块还用于接收用户通过所述指定的应用程序发起的图像采集命令,采集第一图像;
所述展现模块还用于通过所述指定的应用程序展现所述第二图像。
在本发明一种优选实施例中,所述第一特征区域为包含人像的区域,所述第二特征区域为包含菜品的区域。
在本发明一种优选实施例中,所述区域确定模块包括:
图像分割子模块,用于利用预先设置的基于深度卷积神经网络的实例分割模型,对所述第一图像进行实例分割,获取每个像素对应的标签,以及标签的类型;
区域划分子模块,用于分别将所有标签的类型相同的像素组成的区域确定为第一特征区域,以及第二特征区域。
在本发明一种优选实施例中,所述图像调整模块包括:
人脸识别子模块,用于对所述第一特征区域进行人脸识别,以及定位关键点;
人物特征检测子模块,用于利用预先设置的年龄检测深度卷积神经网络模型检测所述第一特征区域中人物的年龄,以及,利用预先设置的性别检测深度卷积神经网络模型检测所述第一特征区域中人物的性别;
人物参数获取子模块,用于获取与所述年龄、性别具有对应关系的特效参数;
人物参数调整子模块,用于针对所述关键点,将所述第一特征区域的当前图像参数更改为所述特效参数。
在本发明一种优选实施例中,所述图像调整模块还包括:
菜品识别子模块,用于利用预先设置的基于深度卷积神经网络的菜品识别模型识别所述第二特征区域的菜品的名称;
菜品参数识别子模块,用于获取与所述菜品的名称具有对应关系的滤镜参数;
菜品参数调整子模块,用于采用所述滤镜参数对所述第二特征区域添加滤镜效果。
在本发明一种优选实施例中,所述图像调整模块还包括:
个性化语句获取子模块,用于从预置的个性化语句库中获取与菜品名称具有对应关系的个性化语句;
个性化语句设置子模块,用于在预设关键点添加所述个性化语句;
图像生成子模块,用于基于调整操作后的第一特征区域、第二特征区域,以及所述个性化语句,生成第二图像。
本发明实施例提供了一种电子设备和一种计算机可读存储介质,所述电子设备包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现以下步骤:
接收用户发起的图像采集命令,采集第一图像;
从所述第一图像中确定第一特征区域,以及第二特征区域;
分别对所述第一特征区域进行第一调整操作,以及,对所述第二特征区域进行第二调整操作,获得执行完所述第一调整操作和第二调整操作后的第二图像;
展现所述第二图像。
优选地,所述移动终端上安装有指定的应用程序;
所述接收用户发起的图像采集指令,采集第一图像的步骤包括:
接收用户通过所述指定的应用程序发起的图像采集命令,采集第一图像;
所述展现所述第二图像的步骤包括:
通过所述指定的应用程序展现所述第二图像。
优选地,所述第一特征区域为包含人像的区域,所述第二特征区域为包含菜品的区域。
优选地,所述从所述第一图像中确定第一特征区域,以及第二特征区域的步骤包括:
利用预先设置的基于深度卷积神经网络的实例分割模型,对所述第一图像进行实例分割,获取每个像素对应的标签,以及标签的类型;
分别将所有标签的类型相同的像素组成的区域确定为第一特征区域,以及第二特征区域。
优选地,所述对所述第一特征区域进行第一调整操作的步骤包括:
对所述第一特征区域进行人脸识别,以及定位关键点;
利用预先设置的年龄检测深度卷积神经网络模型检测所述第一特征区域中人物的年龄,以及,利用预先设置的性别检测深度卷积神经网络模型检测所述第一特征区域中人物的性别;
获取与所述年龄、性别具有对应关系的特效参数;
针对所述关键点,将所述第一特征区域的当前图像参数更改为所述特效参数。
优选地,所述对所述第二特征区域进行第二调整操作的步骤包括:
利用预先设置的基于深度卷积神经网络的菜品识别模型识别所述第二特征区域的菜品的名称;
获取与所述菜品的名称具有对应关系的滤镜参数;
采用所述滤镜参数对所述第二特征区域添加滤镜效果。
优选地,获得执行完所述第一调整操作和第二调整操作后的第二图像的步骤包括:
从预置的个性化语句库中获取与菜品名称具有对应关系的个性化语句;
在预设关键点添加所述个性化语句;
基于调整操作后的第一特征区域、第二特征区域,以及所述个性化语句,生成第二图像。
所述计算机可读存储介质存储有计算机程序,该程序被处理器执行时可以实现如下步骤:
接收用户发起的图像采集命令,采集第一图像;
从所述第一图像中确定第一特征区域,以及第二特征区域;
分别对所述第一特征区域进行第一调整操作,以及,对所述第二特征区域进行第二调整操作,获得执行完所述第一调整操作和第二调整操作后的第二图像;
展现所述第二图像。
优选地,所述移动终端上安装有指定的应用程序;
所述接收用户发起的图像采集指令,采集第一图像的步骤包括:
接收用户通过所述指定的应用程序发起的图像采集命令,采集第一图像;
所述展现所述第二图像的步骤包括:
通过所述指定的应用程序展现所述第二图像。
优选地,所述第一特征区域为包含人像的区域,所述第二特征区域为包含菜品的区域。
优选地,所述从所述第一图像中确定第一特征区域,以及第二特征区域的步骤包括:
利用预先设置的基于深度卷积神经网络的实例分割模型,对所述第一图像进行实例分割,获取每个像素对应的标签,以及标签的类型;
分别将所有标签的类型相同的像素组成的区域确定为第一特征区域,以及第二特征区域。
优选地,所述对所述第一特征区域进行第一调整操作的步骤包括:
对所述第一特征区域进行人脸识别,以及定位关键点;
利用预先设置的年龄检测深度卷积神经网络模型检测所述第一特征区域中人物的年龄,以及,利用预先设置的性别检测深度卷积神经网络模型检测所述第一特征区域中人物的性别;
获取与所述年龄、性别具有对应关系的特效参数;
针对所述关键点,将所述第一特征区域的当前图像参数更改为所述特效参数。
优选地,所述对所述第二特征区域进行第二调整操作的步骤包括:
利用预先设置的基于深度卷积神经网络的菜品识别模型识别所述第二特征区域的菜品的名称;
获取与所述菜品的名称具有对应关系的滤镜参数;
采用所述滤镜参数对所述第二特征区域添加滤镜效果。
优选地,获得执行完所述第一调整操作和第二调整操作后的第二图像的步骤包括:
从预置的个性化语句库中获取与菜品名称具有对应关系的个性化语句;
在预设关键点添加所述个性化语句;
基于调整操作后的第一特征区域、第二特征区域,以及所述个性化语句,生成第二图像。
对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
本领域内的技术人员应明白,本发明实施例的实施例可提供为方法、装置、或计算机程序产品。因此,本发明实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明实施例是参照根据本发明实施例的方法、终端设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明实施例的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明实施例范围的所有变更和修改。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。
以上对本发明所提供的一种图像处理的方法和一种图像处理的装置,进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (8)

1.一种图像处理的方法,其特征在于,所述方法应用于移动终端,所述的方法包括:
接收用户发起的图像采集命令,采集第一图像;
从所述第一图像中确定第一特征区域,以及第二特征区域;
分别对所述第一特征区域进行第一调整操作,以及,对所述第二特征区域进行第二调整操作,获得执行完所述第一调整操作和第二调整操作后的第二图像;
展现所述第二图像;
其中,所述对所述第一特征区域进行第一调整操作的步骤包括:对所述第一特征区域进行人脸识别,以及定位关键点;利用预先设置的年龄检测深度卷积神经网络模型检测所述第一特征区域中人物的年龄,以及,利用预先设置的性别检测深度卷积神经网络模型检测所述第一特征区域中人物的性别;获取与所述年龄、性别具有对应关系的特效参数;针对所述关键点,将所述第一特征区域的当前图像参数更改为所述特效参数;
所述对所述第二特征区域进行第二调整操作的步骤包括:利用预先设置的基于深度卷积神经网络的菜品识别模型识别所述第二特征区域的菜品的名称;获取与所述菜品的名称具有对应关系的滤镜参数;采用所述滤镜参数对所述第二特征区域添加滤镜效果。
2.根据权利要求1所述的方法,其特征在于,所述移动终端上安装有指定的应用程序;
所述接收用户发起的图像采集命令,采集第一图像的步骤包括:
接收用户通过所述指定的应用程序发起的图像采集命令,采集第一图像;
所述展现所述第二图像的步骤包括:
通过所述指定的应用程序展现所述第二图像。
3.根据权利要求1所述的方法,其特征在于,所述第一特征区域为包含人像的区域,所述第二特征区域为包含菜品的区域。
4.根据权利要求1所述的方法,其特征在于,所述从所述第一图像中确定第一特征区域,以及第二特征区域的步骤包括:
利用预先设置的基于深度卷积神经网络的实例分割模型,对所述第一图像进行实例分割,获取每个像素对应的标签,以及标签的类型;
分别将标签的类型相同的所有像素组成的区域确定为第一特征区域,以及第二特征区域。
5.根据权利要求1-4任一项所述的方法,其特征在于,获得执行完所述第一调整操作和第二调整操作后的第二图像的步骤包括:
从预置的个性化语句库中获取与菜品名称具有对应关系的个性化语句;
在预设关键点添加所述个性化语句;所述预设关键点为所述第一特征区域中的各个关键点中的任意一点;
基于调整操作后的第一特征区域、第二特征区域,以及所述个性化语句,生成第二图像。
6.一种图像处理的装置,其特征在于,包括:
采集模块,用于接收用户发起的图像采集命令,采集第一图像;
区域确定模块,用于从所述第一图像中确定第一特征区域,以及第二特征区域;
图像调整模块,用于分别对所述第一特征区域进行第一调整操作,以及,对所述第二特征区域进行第二调整操作,获得执行完所述第一调整操作和第二调整操作后的第二图像;
展现模块,用于展现所述第二图像;
其中,所述图像调整模块包括:人脸识别子模块,用于对所述第一特征区域进行人脸识别,以及定位关键点;人物特征检测子模块,用于利用预先设置的年龄检测深度卷积神经网络模型检测所述第一特征区域中人物的年龄,以及,利用预先设置的性别检测深度卷积神经网络模型检测所述第一特征区域中人物的性别;人物参数获取子模块,用于获取与所述年龄、性别具有对应关系的特效参数;人物参数调整子模块,用于针对所述关键点,将所述第一特征区域的当前图像参数更改为所述特效参数;
所述图像调整模块还包括:菜品识别子模块,用于利用预先设置的基于深度卷积神经网络的菜品识别模型识别所述第二特征区域的菜品的名称;菜品参数识别子模块,用于获取与所述菜品的名称具有对应关系的滤镜参数;菜品参数调整子模块,用于采用所述滤镜参数对所述第二特征区域添加滤镜效果。
7.一种电子设备,所述设备包括有存储器和处理器,所述存储器上存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器运行所述计算机程序时执行上述权利要求1至5任一项所述的方法。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器运行时执行上述权利要求1至5任一项所述的方法。
CN201710853951.7A 2017-09-20 2017-09-20 一种图像处理的方法和一种装置 Active CN107798653B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710853951.7A CN107798653B (zh) 2017-09-20 2017-09-20 一种图像处理的方法和一种装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710853951.7A CN107798653B (zh) 2017-09-20 2017-09-20 一种图像处理的方法和一种装置

Publications (2)

Publication Number Publication Date
CN107798653A CN107798653A (zh) 2018-03-13
CN107798653B true CN107798653B (zh) 2019-12-24

Family

ID=61531963

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710853951.7A Active CN107798653B (zh) 2017-09-20 2017-09-20 一种图像处理的方法和一种装置

Country Status (1)

Country Link
CN (1) CN107798653B (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108764051B (zh) * 2018-04-28 2021-07-13 Oppo广东移动通信有限公司 图像处理方法、装置及移动终端
CN108846314A (zh) * 2018-05-08 2018-11-20 天津大学 一种基于深度学习的食材辨识系统和食材辨识方法
CN108629319B (zh) * 2018-05-09 2020-01-07 北京嘀嘀无限科技发展有限公司 图像检测方法及系统
CN108776819A (zh) * 2018-06-05 2018-11-09 Oppo广东移动通信有限公司 一种目标识别方法、移动终端及计算机可读存储介质
CN109117701B (zh) * 2018-06-05 2022-01-28 东南大学 基于图卷积的行人意图识别方法
CN108764370B (zh) * 2018-06-08 2021-03-12 Oppo广东移动通信有限公司 图像处理方法、装置、计算机可读存储介质和计算机设备
CN108898587A (zh) * 2018-06-19 2018-11-27 Oppo广东移动通信有限公司 图片处理方法、图片处理装置及终端设备
CN108805095A (zh) * 2018-06-19 2018-11-13 Oppo广东移动通信有限公司 图片处理方法、装置、移动终端及计算机可读存储介质
CN108875676B (zh) * 2018-06-28 2021-08-10 北京旷视科技有限公司 活体检测方法、装置及系统
CN109035147B (zh) * 2018-08-10 2023-12-12 Oppo广东移动通信有限公司 图像处理方法及装置、电子装置、存储介质和计算机设备
CN113129312B (zh) 2018-10-15 2022-10-28 华为技术有限公司 一种图像处理方法、装置与设备
CN109814551A (zh) * 2019-01-04 2019-05-28 丰疆智慧农业股份有限公司 谷物处理自动驾驶系统、自动驾驶方法以及自动识别方法
CN110298405A (zh) * 2019-07-03 2019-10-01 北京字节跳动网络技术有限公司 类别识别方法及装置、存储介质与终端
CN110826504A (zh) * 2019-11-07 2020-02-21 深圳市微埃智能科技有限公司 一种结合细粒度分类的视觉识别方法、装置及计算机设备
CN111340912B (zh) * 2020-02-20 2022-12-23 北京市商汤科技开发有限公司 场景图生成方法及装置、存储介质
CN111882501A (zh) * 2020-07-28 2020-11-03 北京三快在线科技有限公司 图像获取方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103578098A (zh) * 2012-08-07 2014-02-12 阿里巴巴集团控股有限公司 在商品图片中提取商品主体的方法和装置
CN103761241A (zh) * 2013-12-13 2014-04-30 北京奇虎科技有限公司 一种图片数据的上传方法和浏览器
CN104794462A (zh) * 2015-05-11 2015-07-22 北京锤子数码科技有限公司 一种人物图像处理方法及装置
CN106959759A (zh) * 2017-03-31 2017-07-18 联想(北京)有限公司 一种数据处理方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103578098A (zh) * 2012-08-07 2014-02-12 阿里巴巴集团控股有限公司 在商品图片中提取商品主体的方法和装置
CN103761241A (zh) * 2013-12-13 2014-04-30 北京奇虎科技有限公司 一种图片数据的上传方法和浏览器
CN104794462A (zh) * 2015-05-11 2015-07-22 北京锤子数码科技有限公司 一种人物图像处理方法及装置
CN106959759A (zh) * 2017-03-31 2017-07-18 联想(北京)有限公司 一种数据处理方法及装置

Also Published As

Publication number Publication date
CN107798653A (zh) 2018-03-13

Similar Documents

Publication Publication Date Title
CN107798653B (zh) 一种图像处理的方法和一种装置
JP7413400B2 (ja) 肌質測定方法、肌質等級分類方法、肌質測定装置、電子機器及び記憶媒体
CN106462242B (zh) 使用视线跟踪的用户界面控制
CN104715023B (zh) 基于视频内容的商品推荐方法和系统
WO2020078119A1 (zh) 模拟用户穿戴服装饰品的方法、装置和系统
CN113711235A (zh) 使用深度学习网络从用户照片进行重量测量的系统和方法
CN106682632B (zh) 用于处理人脸图像的方法和装置
CN111491187B (zh) 视频的推荐方法、装置、设备及存储介质
CN109815776B (zh) 动作提示方法和装置、存储介质及电子装置
CN110287771B (zh) 图像手掌区域提取方法及装置
CN104598869A (zh) 基于人脸识别装置的智能广告推送方法
CN107911643B (zh) 一种视频通信中展现场景特效的方法和装置
CN106507199A (zh) 电视节目推荐方法及装置
CN104575339A (zh) 基于人脸检测界面的传媒信息推送方法
CN111401318A (zh) 动作识别方法及装置
CN107766403A (zh) 一种相册处理方法、移动终端以及计算机可读存储介质
CN107609487B (zh) 一种用户头像的生成方法和装置
Yao et al. A fall detection method based on a joint motion map using double convolutional neural networks
CN109784185A (zh) 基于微表情识别的客户餐饮评价自动获取方法及装置
CN112862558A (zh) 产品详情页面的生成方法和系统、数据处理方法
CN113361387A (zh) 人脸图像融合方法及装置、存储介质及电子设备
CN116452745A (zh) 手部建模、手部模型处理方法、设备和介质
CN114708443A (zh) 截图处理方法及装置、电子设备和计算机可读介质
Liu et al. RGB-D action recognition using linear coding
CN108875496B (zh) 行人画像的生成及基于画像的行人识别

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant