CN108198159A - 一种图像处理方法、移动终端以及计算机可读存储介质 - Google Patents
一种图像处理方法、移动终端以及计算机可读存储介质 Download PDFInfo
- Publication number
- CN108198159A CN108198159A CN201711454550.0A CN201711454550A CN108198159A CN 108198159 A CN108198159 A CN 108198159A CN 201711454550 A CN201711454550 A CN 201711454550A CN 108198159 A CN108198159 A CN 108198159A
- Authority
- CN
- China
- Prior art keywords
- image
- identified
- user
- obtains
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/70—Multimodal biometrics, e.g. combining information from different biometric modalities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Abstract
本发明公开了一种图像处理方法,对人体的预定部位或预定动作进行识别;获取识别的结果对应的图像;将获取到的图像与基础图像进行融合处理,本发明还公开了一种移动终端和计算机可读存储介质,解决了相关技术中简单的图像处理不能满足用户的需求的问题,通过识别用户的某个部位或某个动作,通过某个部位或动作确定图像,将确定的图像与基础图像融合,使得图像的处理更加多元化,效果也更生动有趣,提高了用户体验。
Description
技术领域
本发明涉及移动通信技术领域,尤其涉及一种图像处理方法、移动终端以及计算机可读存储介质。
背景技术
目前,相关技术中仅仅可以实现简单的抠图,将抠出的目标与另外的基础图片进行融合,得到较有趣的图像,但是远远不能满足用户对图像越来越高的要求。
针对相关技术中简单的图像处理不能满足用户的需求的问题,目前尚未提出解决方案。
发明内容
本发明的主要目的在于提出一种图像处理方法、移动终端以及计算机可读存储介质,旨在解决相关技术中简单的图像处理不能满足用户的需求的问题。
为实现上述目的,本发明实施例提出一种图像处理方法,包括:
对人体的预定部位或预定动作进行识别;
获取识别的结果对应的图像;
将获取到的图像与基础图像进行融合处理。
可选的,对人体的预定部位或预定动作进行识别包括以下之一:
通过摄像头对用户的手势进行识别,得到手势信息;
通过麦克风对用户的语音信息进行采集,识别采集到的语音信息得到文字信息;
通过摄像头对用户的面部表情进行采集,得到面部表情信息;
通过摄像头对用户的虹膜信息进行采集,得到虹膜信息;
通过传感器对用户的指纹信息进行采集,得到指纹信息。
可选的,获取识别的结果对应的图像包括:
根据预先设置的预定部位或预定动作与图像的对应关系获取识别的结果对应的图像。
可选的,在对人体的预定部位或预定动作进行识别之前,所述方法还包括:
根据选定的图像的特征对选定的图像进行标记;
通过标记的方式设置所述预定部位或预定动作与图像的对应关系。
可选的,将获取到的图像与基础图像进行融合处理包括:
提取出所述获取到的图像中所述识别的结果对应的目标,以所述基础图像作为背景将所述目标融合到所述基础图像中;或者,
对所述基础图像中的人物进行提取,以所述获取到图像为背景将提取出的人物融合到所述获取到的图像中。
可选的,在对人体的预定部位或预定动作进行识别之前,所述方法还包括:
接收触发对图像进行融合处理的触发指令;
根据所述触发指令触发对图像进行融合处理。
可选的,在对人体的预定部位或预定动作进行识别之前,所述方法还包括:
通过摄像头获取用于对图像进行融合处理的所述基础图像。
根据本发明实施例的另一方面,还提供了一种移动终端,所述移动终端包括:处理器、存储器及通信总线,其中,
所述通信总线,用于实现所述处理器和所述存储器之间的连接通信;
所述处理器,用于执行存储器中存储的图像处理程序,以实现以下步骤:
对人体的预定部位或预定动作进行识别;
获取识别的结果对应的图像;
将获取到的图像与基础图像进行融合处理。
可选的,所述处理器还用于执行图像处理程序,以实现以下步骤:
对人体的预定部位或预定动作进行识别包括以下之一:
通过摄像头对用户的手势进行识别,得到手势信息;
通过麦克风对用户的语音信息进行采集,识别采集到的语音信息得到文字信息;
通过摄像头对用户的面部表情进行采集,得到面部表情信息;
通过摄像头对用户的虹膜信息进行采集,得到虹膜信息;
通过传感器对用户的指纹信息进行采集,得到指纹信息。
可选的,所述处理器还用于执行图像处理程序,以实现以下步骤:
根据预先设置的预定部位或预定动作与图像的对应关系获取识别的结果对应的图像。
可选的,所述处理器还用于执行图像处理程序,以实现以下步骤:
在对人体的预定部位或预定动作进行识别之前,根据选定的图像的特征对选定的图像进行标记;
通过标记的方式设置所述预定部位或预定动作与图像的对应关系。
可选的,所述处理器还用于执行图像处理程序,以实现以下步骤:
提取出所述获取到的图像中所述识别的结果对应的目标,以所述基础图像作为背景将所述目标融合到所述基础图像中;或者,
对所述基础图像中的人物进行提取,以所述获取到图像为背景将提取出的人物融合到所述获取到的图像中。
可选的,所述处理器还用于执行图像处理程序,以实现以下步骤:
在对人体的预定部位或预定动作进行识别之前,接收触发对图像进行融合处理的触发指令;
根据所述触发指令触发对图像进行融合处理。
可选的,所述处理器还用于执行图像处理程序,以实现以下步骤:
在对人体的预定部位或预定动作进行识别之前,通过摄像头获取用于对图像进行融合处理的所述基础图像。
根据本发明实施例的另一方面,还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现上述图像处理方法的步骤。
通过本发明,对人体的预定部位或预定动作进行识别;获取识别的结果对应的图像;将获取到的图像与基础图像进行融合处理,解决了相关技术中简单的图像处理不能满足用户的需求的问题,通过识别用户的某个部位或某个动作,通过某个部位或动作确定图像,将确定的图像与基础图像融合,使得图像的处理更加多元化,效果也更生动有趣,提高了用户体验。
附图说明
图1为实现本发明各个实施例一可选的移动终端的硬件结构示意图;
图2为如图1所示的移动终端的无线通信系统示意图;
图3是根据本发明实施例的图像处理方法的流程图;
图4是根据本发明实施例的基础图像获取的示意图一;
图5是根据本发明实施例的目标融合到基础图像的示意图一;
图6是根据本发明实施例的基础图像获取的示意图二;
图7是根据本发明实施例的目标融合到基础图像的示意图二;
图8是根据本发明实施例的移动终端的框图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
在后续的描述中,使用用于表示元件的诸如“模块”、“部件”或“单元”的后缀仅为了有利于本发明的说明,其本身没有特定的意义。因此,“模块”、“部件”或“单元”可以混合地使用。
终端可以以各种形式来实施。例如,本发明中描述的终端可以包括诸如手机、平板电脑、笔记本电脑、掌上电脑、个人数字助理(Personal Digital Assistant,PDA)、便捷式媒体播放器(Portable Media Player,PMP)、导航装置、可穿戴设备、智能手环、计步器等移动终端,以及诸如数字TV、台式计算机等固定终端。
后续描述中将以移动终端为例进行说明,本领域技术人员将理解的是,除了特别用于移动目的的元件之外,根据本发明的实施方式的构造也能够应用于固定类型的终端。
请参阅图1,其为实现本发明各个实施例的一种移动终端的硬件结构示意图,该移动终端100可以包括:RF(Radio Frequency,射频)单元101、WiFi模块102、音频输出单元103、A/V(音频/视频)输入单元104、传感器105、显示单元106、用户输入单元107、接口单元108、存储器109、处理器110、以及电源111等部件。本领域技术人员可以理解,图1中示出的移动终端结构并不构成对移动终端的限定,移动终端可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
下面结合图1对移动终端的各个部件进行具体的介绍:
射频单元101可用于收发信息或通话过程中,信号的接收和发送,具体的,将基站的下行信息接收后,给处理器110处理;另外,将上行的数据发送给基站。通常,射频单元101包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元101还可以通过无线通信与网络和其他设备通信。上述无线通信可以使用任一通信标准或协议,包括但不限于GSM(Global System of Mobile communication,全球移动通讯系统)、GPRS(General Packet Radio Service,通用分组无线服务)、CDMA2000(CodeDivision Multiple Access 2000,码分多址2000)、WCDMA(Wideband Code DivisionMultiple Access,宽带码分多址)、TD-SCDMA(Time Division-Synchronous CodeDivision Multiple Access,时分同步码分多址)、FDD-LTE(Frequency DivisionDuplexing-Long Term Evolution,频分双工长期演进)和TDD-LTE(Time DivisionDuplexing-Long Term Evolution,分时双工长期演进)等。
WiFi属于短距离无线传输技术,移动终端通过WiFi模块102可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图1示出了WiFi模块102,但是可以理解的是,其并不属于移动终端的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
音频输出单元103可以在移动终端100处于呼叫信号接收模式、通话模式、记录模式、语音识别模式、广播接收模式等等模式下时,将射频单元101或WiFi模块102接收的或者在存储器109中存储的音频数据转换成音频信号并且输出为声音。而且,音频输出单元103还可以提供与移动终端100执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元103可以包括扬声器、蜂鸣器等等。
A/V输入单元104用于接收音频或视频信号。A/V输入单元104可以包括图形处理器(Graphics Processing Unit,GPU)1041和麦克风1042,图形处理器1041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元106上。经图形处理器1041处理后的图像帧可以存储在存储器109(或其它存储介质)中或者经由射频单元101或WiFi模块102进行发送。麦克风1042可以在电话通话模式、记录模式、语音识别模式等等运行模式中经由麦克风1042接收声音(音频数据),并且能够将这样的声音处理为音频数据。处理后的音频(语音)数据可以在电话通话模式的情况下转换为可经由射频单元101发送到移动通信基站的格式输出。麦克风1042可以实施各种类型的噪声消除(或抑制)算法以消除(或抑制)在接收和发送音频信号的过程中产生的噪声或者干扰。
移动终端100还包括至少一种传感器105,比如光传感器、运动传感器以及其他传感器。具体地,光传感器包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板1061的亮度,接近传感器可在移动终端100移动到耳边时,关闭显示面板1061和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;至于手机还可配置的指纹传感器、压力传感器、虹膜传感器、分子传感器、陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
显示单元106用于显示由用户输入的信息或提供给用户的信息。显示单元106可包括显示面板1061,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板1061。
用户输入单元107可用于接收输入的数字或字符信息,以及产生与移动终端的用户设置以及功能控制有关的键信号输入。具体地,用户输入单元107可包括触控面板1071以及其他输入设备1072。触控面板1071,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板1071上或在触控面板1071附近的操作),并根据预先设定的程式驱动相应的连接装置。触控面板1071可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器110,并能接收处理器110发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板1071。除了触控面板1071,用户输入单元107还可以包括其他输入设备1072。具体地,其他输入设备1072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种,具体此处不做限定。
进一步的,触控面板1071可覆盖显示面板1061,当触控面板1071检测到在其上或附近的触摸操作后,传送给处理器110以确定触摸事件的类型,随后处理器110根据触摸事件的类型在显示面板1061上提供相应的视觉输出。虽然在图1中,触控面板1071与显示面板1061是作为两个独立的部件来实现移动终端的输入和输出功能,但是在某些实施例中,可以将触控面板1071与显示面板1061集成而实现移动终端的输入和输出功能,具体此处不做限定。
接口单元108用作至少一个外部装置与移动终端100连接可以通过的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。接口单元108可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到移动终端100内的一个或多个元件或者可以用于在移动终端100和外部装置之间传输数据。
存储器109可用于存储软件程序以及各种数据。存储器109可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器109可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器110是移动终端的控制中心,利用各种接口和线路连接整个移动终端的各个部分,通过运行或执行存储在存储器109内的软件程序和/或模块,以及调用存储在存储器109内的数据,执行移动终端的各种功能和处理数据,从而对移动终端进行整体监测。处理器110可包括一个或多个处理单元;优选的,处理器110可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器110中。
移动终端100还可以包括给各个部件供电的电源111(比如电池),优选的,电源111可以通过电源管理系统与处理器110逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
尽管图1未示出,移动终端100还可以包括蓝牙模块等,在此不再赘述。
为了便于理解本发明实施例,下面对本发明的移动终端所基于的通信网络系统进行描述。
请参阅图2,图2为本发明实施例提供的一种通信网络系统架构图,该通信网络系统为通用移动通信技术的LTE系统,该LTE系统包括依次通讯连接的UE(User Equipment,用户设备)201,E-UTRAN(Evolved UMTS Terrestrial Radio Access Network,演进式UMTS陆地无线接入网)202,EPC(Evolved Packet Core,演进式分组核心网)203和运营商的IP业务204。
具体地,UE201可以是上述终端100,此处不再赘述。
E-UTRAN202包括eNodeB2021和其它eNodeB2022等。其中,eNodeB2021可以通过回程(backhaul)(例如X2接口)与其它eNodeB2022连接,eNodeB2021连接到EPC203,eNodeB2021可以提供UE201到EPC203的接入。
EPC203可以包括MME(Mobility Management Entity,移动性管理实体)2031,HSS(Home Subscriber Server,归属用户服务器)2032,其它MME2033,SGW(Serving Gate Way,服务网关)2034,PGW(PDN Gate Way,分组数据网络网关)2035和PCRF(Policy andCharging Rules Function,政策和资费功能实体)2036等。其中,MME2031是处理UE201和EPC203之间信令的控制节点,提供承载和连接管理。HSS2032用于提供一些寄存器来管理诸如归属位置寄存器(图中未示)之类的功能,并且保存有一些有关服务特征、数据速率等用户专用的信息。所有用户数据都可以通过SGW2034进行发送,PGW2035可以提供UE 201的IP地址分配以及其它功能,PCRF2036是业务数据流和IP承载资源的策略与计费控制策略决策点,它为策略与计费执行功能单元(图中未示)选择及提供可用的策略和计费控制决策。
IP业务204可以包括因特网、内联网、IMS(IP Multimedia Subsystem,IP多媒体子系统)或其它IP业务等。
虽然上述以LTE系统为例进行了介绍,但本领域技术人员应当知晓,本发明不仅仅适用于LTE系统,也可以适用于其他无线通信系统,例如GSM、CDMA2000、WCDMA、TD-SCDMA以及未来新的网络系统等,此处不做限定。
基于上述移动终端硬件结构以及通信网络系统,提出本发明方法各个实施例。
实施例1
基于上述的移动终端,本发明实施例提供了一种图像处理方法,图3是根据本发明实施例的图像处理方法的流程图,如图3所示,该方法包括以下步骤:
步骤S301,对人体的预定部位或预定动作进行识别;
步骤S302,获取识别的结果对应的图像;
步骤S303,将获取到的图像与基础图像进行融合处理。
通过上述步骤,对人体的预定部位或预定动作进行识别;获取识别的结果对应的图像;将获取到的图像与基础图像进行融合处理,解决了相关技术中简单的图像处理不能满足用户的需求的问题,通过识别用户的某个部位或某个动作,通过某个部位或动作确定图像,将确定的图像与基础图像融合,使得图像的处理更加多元化,效果也更生动有趣,提高了用户体验。
上述的步骤S301,可以通过很多种方式实现,对人体的预定部位或预定动作进行识别可以包括以下之一:
1、通过摄像头对用户的手势进行识别,得到手势信息;
手势识别:手势无论是静态或动态,其识别顺序首先需进行图像的获取手的检测和分割手势的分析,然后进行静态或动态的手势识别。
手势识别是将模型参数空间里的轨迹(或点)分类到该空间里某个子集的过程,其包括静态手势识别和动态手势识别,动态手势识别最终可转化为静态手势识别。从手势识别的技术实现来看,常见手势识别方法主要有:模板匹配法神经网络法和隐马尔可夫模型法。
对静态手势进行识别具体可以包括:
对于通过摄像头捕捉的图像采用基于RGB和YCbCr颜色空间肤色模型对手势区域进行分割处理,得到手势图像,此时分割得到的手势图像含有噪点和较大的非手势区域。
对上一步得到的手势图像首先进行两次去噪处理,经过这一步,图像中的噪点将被消去;其次对上一步得到的图像进行腐蚀处理,使手势图像中略微相连的连通域划分为两个独立的连通域,然后对手势图像做连通域处理,并计算各个连通域的面积,将较大的非手势区域做背景处理,即将非手势区域置为黑色,手势区域置为红色;最后对处理后的图像进行膨胀处理以还原经过腐蚀处理的图像。背景置为黑色,手势区域置为红色。
将获得标准的手势图像进行包围盒处理,并将其投影到标准图像,具体如下:
包围盒算法是一种求解离散点集最优包围空间的方法。基本思想是用体积稍大且特性简单的几何体(称为包围盒)来近似地代替复杂的几何对象。本发明采用矩形包围盒。
依次从图像的各个边向内部扫描,当扫描线碰到手势图像时即为包围盒在该边的边界,四个边界围成的矩形即为此手势图像的包围盒。如图2所示。包围盒外部的区域为无效数据区域,包围盒内部的区域才为有效数据区域。
为解决在手势识别过程中捕捉的手势图像大小对识别精度的影响,减少图像数据,提高手势识别速度,将包围盒区域图像映射到标准图像上。
获取标准图像中的手势区域形心、最远点和主方向;二维图像的形心,可以通过求取二维图像的重心求得,因图像单位点没有重量,此时手势图像的形心同重心重合。
获取标准手势图像12区域最远点特征信息。以形心为中心,以30度角为旋转角将手势区域划分为12个区域,其中第一区域主方向左右15度角组成的区域。从第一区域开始,逆时针方向上依次为第二区域到第十二区域。则取得12区域最远点的特征信息步骤如下:
Step1.计算得到每个区域的最远点,并计算最远点到形心点的距离,比较得到其中的最大距离;
Step2.将最大距离平均分为5段,则得到5个分组,距离形心最近的为第一组,距离形心最远的为第五组;
Step3.分别计算12个最远点落到5个区域的次数;
Step4.将得到的落到5个区域的次数除以12以均一化12区域最远点特征数据。
经过上述步骤将得到长度为5的12区域最远点特征向量U={μ1,μ2,μ3,μ4,μ5}。
获取面积特征信息模块:获取标准手势图像面积特征信息。
获取手势图像的面积特征信息作为PCA手势识别的特征信息。该方法的基本思路是:以手势区域形心点为圆心的同心圆和以圆心为起点的射线将手势图像划分组成60个区域,分别统计每个区域包含手势区域像素点的个数作为该区域的面积,并计算60个区域的最大面积,对获得的面积特征数据均一化处理,从而获得面积特征信息。
采用PCA算法进行静态手势识别。基于PCA算法的人手识别一般经过三个阶段:第一个阶段利用训练图像数据构建特征手空间;第二阶段是训练阶段,主要是将训练图像投影到特征手子空间上;最后一个是识别阶段,将待识别的手势图像同样投影到特征手子空间上,并与投影后的训练图像相比较,最终得出识别结果。
2、通过麦克风对用户的语音信息进行采集,识别采集到的语音信息得到文字信息;
具体地,对于声音信号,通过深度学习方法,识别出语音信号,并将语音信号进行语义解读,得到文字信息。具体地,将原始声音,经过数字转换,采用神经网络,分类器,最后输出所识别的语音的语义含义。比如识别到的是风景,那么下一步就是要把风景做为标签,在图片库中寻找所代表的图片。
此处所说的图片库包含每张图片的标签及分类,此图片库由初始时候通过CNN卷积神经网络训练得到,并且可以不断抓取网络图片进行分类。优选地,可以设置每次分类只需要在每种分类中识别前5名的经典图片供使用。
网络图片分类,可以基于CNN卷积神经网络。分类器可以使用常见的SOFTMAX分类器等。当我们的语音系统识别到声音是风景的时候,此时,将风景寻找对应的空间经典图片即可。当然,将所识别的风景做为标签,为了与建立的图片库的标签进行匹配,也就是说将识别的标签分类到所建立的标签类别中,也需要一个深度学习的网络进行分类。当然也可以用传统的分类器,比如softmax等进行分类。方法多种,不一一列举。
3、通过摄像头对用户的面部表情进行采集,得到面部表情信息;
在一个可选的实施例中,具体可以包括:
1、表情库的建立:目前,研究中比较常用的表情库主要有:美国CMU机器人研究所和心理学系共同建立的Cohn-Kanade AU-Coded Facial Expression Image Database(简称CKACFEID)人脸表情数据库;日本ATR建立的日本女性表情数据库(JAFFE),它是研究亚洲人表情的重要测试库。
2、表情识别:
(1)图像获取:通过摄像头等图像捕捉工具获取静态图像或动态图像序列。
(2)图像预处理:图像的大小和灰度的归一化,头部姿态的矫正,图像分割等。
可以改善图像质量,消除噪声,统一图像灰度值及尺寸,为后序特征提取和分类识别打好基础。人脸表情识别子区域的分割以及表情图像的归一化处理(尺度归一和灰度归一)。
(3)特征提取:将点阵转化成更高级别图像表述:如形状、运动、颜色、纹理、空间结构等,在尽可能保证稳定性和识别率的前提下,对庞大的图像数据进行降维处理。
特征提取的主要方法有:提取几何特征、统计特征、频率域特征和运动特征等。
1)采用几何特征进行特征提取主要是对人脸表情的显著特征,如眼睛、眉毛、嘴巴等的位置变化进行定位、测量,确定其大小、距离、形状及相互比例等特征,进行表情识别。
2)基于整体统计特征的方法主要强调尽可能多的保留原始人脸表情图像中的信息,并允许分类器发现表情图像中相关特征,通过对整幅人脸表情图像进行变换,获取特征进行识别。主要方法:PCA和ICA(独立主元分析):PCA,用一个正交维数空间来说明数据变化的主要方向;ICA,可以获取数据的独立成份,具有很好的可分性,基于图像整体统计特征的提取方法。
3)基于频率域特征提取:是将图像从空间域转换到频率域提取其特征(较低层次的特征)。主要方法:Gabor小波变换,小波变换能够通过定义不同的核频率、带宽和方向对图像进行多分辨率分析,能有效提取不同方向不同细节程度的图像特征并相对稳定,但作为低层次的特征,不易直接用于匹配和识别,常与ANN或SVM分类器结合使用,提高表情识别的准确率。
4)基于运动特征的提取:提取动态图像序列的运动特征(今后研究的重点)。主要方法:光流法,光流是指亮度模式引起的表观运动,是景物中可见点的三维速度矢量在成像平面上的投影,它表示景物表面上的点在图像中位置的瞬时变化,同时光流场携带了有关运动和结构的丰富信息。光流模型是处理运动图像的有效方法,其基本思想是将运动图像函数f(x,y,t)作为基本函数,根据图像强度守恒原理建立光流约束方程,通过求解约束方程,计算运动参数。
(4)分类判别:包括设计和分类决策,在表情识别的分类器设计和选择阶段,主要有以下方法:用线性分类器、神经网络分类器、支持向量机、隐马尔可夫模型等分类识别方法。
在一个可选的实施例中,通过外置或者内置摄像头获取图像,并将图像信息转换成电信号,根据电信号对人脸进行检测与定位,再根据人脸检测与定位的结果从人脸图像或图像序列中提取能够表征输入表情本质的信息,并且在提取特征数据的过程中,为了避免维数危机,一般还需要对提取特征进行降维、特征分解的操作;根据分解出的表情特征,分析各特征之间的关系并将输入的表情特征分类到相应的表情类别中,例如人类的基本情感类别。
具体地,检测人脸与定位的过程如下:
第一,从图像采集中输入的图像中初步确定人脸所在的位置,并将该位置定义为待测区域;
第二,用基于知识或者统计的人脸检测方法对人脸建模,比较待测区域与人脸建模的匹配程度,根据预先规定的匹配程度值,从而将达到该匹配程度值的区域确定为存在人脸的区域。
所述的基于知识的人脸检测方法是利用人的知识建立若干规则,从而将人脸检测问题转化为假设、验证问题;
所述基于统计的人脸检测方法包括样本学习法、子空间方法及模板法;在本发明中主要利用的是样本学习法,即将人脸检测视为从非人脸样本中识别人脸样本的模式分类问题,通过对人脸样本集合非人脸样本集进行学习以产生分类器。
采用一种基于动态图像序列的面部表情提取方法,具体工作方法如下:
选择脸部的显著特征点来进行运行估计,为了防止在跟踪过程中丢失特征点,特征点一般都选取在脸部的永久特征上,例如嘴巴或者眼睛。这种方法只需考虑主要的特征点来分析表情,而不必理会背景等无关信息,减少了运算量。
基于模板的匹配方法对人脸表情进行识别的,具体地:预先建立一个表情模板库,包括可能要识别的表情模板,该表情模板与表情图释是一一对应的;当获取到确定的表情特征后,将该待测的表情特征与每个表情模板进行匹配,匹配度越高则表明待测表情与某个表情模块所代表的表情越相似,并确定该匹配度最高的表情模板代表待测表情。
在存储器中存储有代表不同面部表情的表情图释,其能够根据确认的待测表情选取对应的表情图释。例如,待测表情为微笑,则根据匹配度,选取匹配度最高的表情模板来代表待测表情,根据该表情模板查找到对应的表情图释并显示。
4、通过摄像头对用户的虹膜信息进行采集,得到虹膜信息;
虹膜识别技术是基于眼睛中的虹膜进行身份识别,应用于安防设备(如门禁等),以及有高度保密需求的场所。人的眼睛结构由巩膜、虹膜、瞳孔晶状体、视网膜等部分组成。虹膜是位于黑色瞳孔和白色巩膜之间的圆环状部分,其包含有很多相互交错的斑点、细丝、冠状、条纹、隐窝等的细节特征。而且虹膜在胎儿发育阶段形成后,在整个生命历程中将是保持不变的。这些特征决定了虹膜特征的唯一性,同时也决定了身份识别的唯一性。因此,可以将眼睛的虹膜特征作为每个人的身份识别对象。
虹膜识别技术是人体生物识别技术的一种。虹膜识别的步骤,主要分为虹膜图像获取、图像预处理(对获取到的虹膜图像进行如下处理,使其满足提取虹膜特征的需求。)、特征提取、特征匹配。常见特征提取和特征匹配算法有:基于边缘的方法,基于角度的方法、马尔可夫(Markov)随机场(MRF)模型法和Gibbs随机场模型法等。
具体地,虹膜图像采集需要先将待识别的人眼对准摄像头,调整人眼位置,使之进入采集区域,才能采集到质量较高较清晰的图片,为便于调整人眼位置。具体包括:
扫描所述终端设备的采集范围内是否有人体出现。所述扫描,包括但不限于:通过红外线、超声波、视频扫描、或温度监测等方式进行扫描。
可以理解的是,不同的终端设备因其自身的配置、安全要求、安装位置的不同,在正式采集前会设置不同的采集范围。比如:摄像头的像素越高,则支持的采集的范围越远;应用于车库门禁时,识别距离要比应用手机时,采集范围远的多,前者可在12米左右,后者在0.5米左右即可。当然,以上具体距离不应视为对本案采集范围的限制,仅用于举例说明。
当存在人体时,通过调整拍摄角度以采集所述人体的虹膜图像。具体而言,所述调整拍摄角度,包括:
(1)获取人脸的位置,并拍摄人脸图像;
(2)对所述人脸图像中的虹膜进行定位,包括:通过确定内圆(虹膜与瞳孔的边界)、外圆(虹膜与巩膜的边界)和二次曲线(虹膜与上下眼皮的边界)在图像中的位置,以进行虹膜定位;以及(3)将虹膜图像中的虹膜大小进行归一化处理,以调整到预设的固定尺寸,以形成所述虹膜图像。
从所述虹膜图像中提取特征点。可以理解的是,在提取特征点前,还包括预处理的步骤,即:针对上述归一化处理后虹膜图像,进行亮度、对比度、和平滑度等处理,以提高虹膜图像中虹膜特征的识别度。
判断所述虹膜图像中的特征点是否清晰。若所述虹膜图像中的特征点不清晰,则返回继续通过调整拍摄角度以采集所述人体的虹膜图像,以采集当前人体的虹膜图像,直至清晰。
具体而言,所述清晰的判断步骤,包括:
(1)判断特征点是否包括色素点、放射纹、斑点、和隐窝四个要素。
所述虹膜500的识别要素,包括:色素点51、放射纹52、斑点53、和隐窝54。
(2)判断所述虹膜图像中是否存在模糊区域。
可以理解的是,所述模糊区域,通常是由于距离稍远,局部被遮挡而形成的,尤其是眼镜、头发、发饰等。
(3)若包括四个要素、且不存在模糊区域,则判断为特征点清晰。
(4)若不包括四个要素之一、或存在模糊区域,则判断为特征点不清晰。
若所述虹膜图像中的特征点清晰,将所述特征点进行编码,以生成当前用户的虹膜信息。目前,常用的是子波分析的数学技术,将虹膜图像转换成一串数字代码。人的虹膜具有大约266项可检测的特征,相比之下,人的指纹只有大约40项可检测的特征。
本发明实施例,首先通过扫描采集范围后才进行虹膜图像的采集,避免拍摄到无法或不易识别的图像,其次仅对清晰的虹膜图像进行编码,避免因模糊而造成识别错误、以及资源的浪费,进而提升识别的速度和提高识别的准确率。
5、通过传感器对用户的指纹信息进行采集,得到指纹信息。
上述的步骤S302,获取识别的结果对应的图像进一步包括:
根据预先设置的预定部位或预定动作与图像的对应关系获取识别的结果对应的图像。当识别到预定部位或预定动作之后,便可根据该对应关系获取到该预定部位或预定动作对应的图像,例如,识别到“V”的手势信息,根据预先设置的“V”的手势信息与某个人物的图像的对应关系,便可获取到某个人物的图像,其他情形也是类型的,在此一一不再赘述。
可选的,在对人体的预定部位或预定动作进行识别之前,所述方法还包括:根据选定的图像的特征对选定的图像进行标记,通过标记的方式设置所述预定部位或预定动作与图像的对应关系。其中,图像的特征可以风景、人物、某种动物、某种建筑、某种鸟兽、天气等等,进一步地,还可以将人物具体进行标记名字或关系昵称,如,家人、朋友等,也可以根据人物图像的表情状态进行标记,如,高兴、忧伤、生气等,如果选定的图像的特征为风景,将选定的图像标记为风景,如果选定的图像为某种建筑,则将选定的图像标记为某种建筑,对于其他特征是类似的,不再赘述。之后,便可以设置预定部位或预定动作与图像的对应关系,例如,将“V”手势与某个人物的图像对应,将某种面部表情与标记为该面部表情对应的图像进行对应等等。
上述的步骤S303,可以通过多种方式实现,将获取到的图像与基础图像进行融合处理进一步可以包括:
在一个可选的实施例中,图4是根据本发明实施例的基础图像获取的示意图一,如图4所示,通过摄像头拍摄采集图片,该图片为纯风景图像。此时用户触发了图像融合,通过摄像头对用户的虹膜信息进行采集,得到虹膜信息,根据该虹膜信息获取与虹膜信息对应的目标,提取出所述获取到的图像中所述识别的结果对应的目标,以所述基础图像作为背景将所述目标融合到所述基础图像中;图5是根据本发明实施例的目标融合到基础图像的示意图一,如图5所示,将根据虹膜信息提取出的目标人物与基础图像的风景融合处理后得到组合的图像。
在另一个可选的实施例中,图6是根据本发明实施例的基础图像获取的示意图二,如图6所示,通过摄像头拍摄采集图片,该图片为人物图像,背景为纯色背景或为用户不喜欢的背景。此时用户触发了图像融合,通过麦克风对用户的语音信息进行采集,识别采集到的语音信息得到文字信息,根据该文字信息获取与文字信息对应的目标,对所述基础图像中的人物进行提取,以所述获取到图像为背景将提取出的人物融合到所述获取到的图像中。例如,通过识别语音信息得到的文字信息为“街道”,查找与街道标签对应的目标。图7是根据本发明实施例的目标融合到基础图像的示意图二,如图7所示,对所述基础图像中的人物进行提取,将提取出的人物与查找到的目标进行融合,得到组合图像。
可选的,在对人体的预定部位或预定动作进行识别之前,所述方法还包括:接收触发对图像进行融合处理的触发指令,根据所述触发指令触发对图像进行融合处理。其中,所述触发指令可以进行设置,例如,可以是双击指令,或长按指令等等,即用户可以实现将双击指令或长按指令设置为触发对图像进行融合处理的触发指令。
可选的,在对人体的预定部位或预定动作进行识别之前,所述方法还包括:通过摄像头获取用于对图像进行融合处理的所述基础图像。
本发明实施例,通过摄像头,麦克风,传感器等信号采集系统,利用生物识别技术,比如手势识别,虹膜识别,人脸表情识别等,将所识别的信号在图像数据中进行二次处理,并且与图像本身进行融合处理,达到类似贴图或涂鸦等效果,比如,声音信号,通过深度学习方法,识别语音信号,并将语音信号进行语义解读,依托于图像分类算法,获取分类标签中的经典图片,与基础图片进行融合,获得新的创意图片。
对现有生物识别技术,进行后段反向转换,实现跨技术领域的技术融合,在用户价值层面,为用户带来更加炫酷及现代的图像处理体验。其中点在于语义图像转换系统,所涉及的方法可以是深度学习算法的反向应用,或者传统分类器的反向应用。同时本发明提出一种新的转换方法,从图片库进行训练分类,通过对标签的反向识别,加入自定义约束,对图片库中图片进行针对约束的二次训练,获取最优的图片信息,输入到图像融合系统。
实施例2
根据本发明实施例的另一方面,还提供了一种移动终端,图8是根据本发明实施例的移动终端的框图,如图8所示,所述移动终端包括:处理器110、存储器109及通信总线,其中,
所述通信总线,用于实现所述处理器和所述存储器之间的连接通信;
所述处理器110,用于执行存储器中存储的图像处理程序,以实现以下步骤:
对人体的预定部位或预定动作进行识别;
获取识别的结果对应的图像;
将获取到的图像与基础图像进行融合处理。
可选的,所述处理器110还用于执行图像处理程序,以实现以下步骤:
对人体的预定部位或预定动作进行识别包括以下之一:
通过摄像头对用户的手势进行识别,得到手势信息;
通过麦克风对用户的语音信息进行采集,识别采集到的语音信息得到文字信息;
通过摄像头对用户的面部表情进行采集,得到面部表情信息;
通过摄像头对用户的虹膜信息进行采集,得到虹膜信息;
通过传感器对用户的指纹信息进行采集,得到指纹信息。
可选的,所述处理器110还用于执行图像处理程序,以实现以下步骤:
根据预先设置的预定部位或预定动作与图像的对应关系获取识别的结果对应的图像。
可选的,所述处理器110还用于执行图像处理程序,以实现以下步骤:
在对人体的预定部位或预定动作进行识别之前,根据选定的图像的特征对选定的图像进行标记;
通过标记的方式设置所述预定部位或预定动作与图像的对应关系。
可选的,所述处理器110还用于执行图像处理程序,以实现以下步骤:
提取出所述获取到的图像中所述识别的结果对应的目标,以所述基础图像作为背景将所述目标融合到所述基础图像中;或者,
对所述基础图像中的人物进行提取,以所述获取到图像为背景将提取出的人物融合到所述获取到的图像中。
可选的,所述处理器110还用于执行图像处理程序,以实现以下步骤:
在对人体的预定部位或预定动作进行识别之前,接收触发对图像进行融合处理的触发指令;
根据所述触发指令触发对图像进行融合处理。
可选的,所述处理器110还用于执行图像处理程序,以实现以下步骤:
在对人体的预定部位或预定动作进行识别之前,通过摄像头获取用于对图像进行融合处理的所述基础图像。
实施例3
根据本发明实施例的另一方面,还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现上述图像处理方法的以下步骤:
S11,对人体的预定部位或预定动作进行识别;
S12,获取识别的结果对应的图像;
S13,将获取到的图像与基础图像进行融合处理。
本发明实施例,对人体的预定部位或预定动作进行识别;获取识别的结果对应的图像;将获取到的图像与基础图像进行融合处理,解决了相关技术中简单的图像处理不能满足用户的需求的问题,通过识别用户的某个部位或某个动作,通过某个部位或动作确定图像,将确定的图像与基础图像融合,使得图像的处理更加多元化,效果也更生动有趣,提高了用户体验。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。
Claims (10)
1.一种图像处理方法,其特征在于,包括:
对人体的预定部位或预定动作进行识别;
获取识别的结果对应的图像;
将获取到的图像与基础图像进行融合处理。
2.根据权利要求1所述的方法,其特征在于,对人体的预定部位或预定动作进行识别包括以下之一:
通过摄像头对用户的手势进行识别,得到手势信息;
通过麦克风对用户的语音信息进行采集,识别采集到的语音信息得到文字信息;
通过摄像头对用户的面部表情进行采集,得到面部表情信息;
通过摄像头对用户的虹膜信息进行采集,得到虹膜信息;
通过传感器对用户的指纹信息进行采集,得到指纹信息。
3.根据权利要求1所述的方法,其特征在于,获取识别的结果对应的图像包括:
根据预先设置的预定部位或预定动作与图像的对应关系获取识别的结果对应的图像。
4.根据权利要求3所述的方法,其特征在于,在对人体的预定部位或预定动作进行识别之前,所述方法还包括:
根据选定的图像的特征对选定的图像进行标记;
通过标记的方式设置所述预定部位或预定动作与图像的对应关系。
5.根据权利要求1所述的方法,其特征在于,将获取到的图像与基础图像进行融合处理包括:
提取出所述获取到的图像中所述识别的结果对应的目标,以所述基础图像作为背景将所述目标融合到所述基础图像中;或者,
对所述基础图像中的人物进行提取,以所述获取到图像为背景将提取出的人物融合到所述获取到的图像中。
6.根据权利要求1至5中任一项所述的方法,其特征在于,在对人体的预定部位或预定动作进行识别之前,所述方法还包括:
接收触发对图像进行融合处理的触发指令;
根据所述触发指令触发对图像进行融合处理。
7.根据权利要求6所述的方法,其特征在于,在对人体的预定部位或预定动作进行识别之前,所述方法还包括:
通过摄像头获取用于对图像进行融合处理的所述基础图像。
8.一种移动终端,其特征在于,所述移动终端包括:处理器、存储器及通信总线,其中,
所述通信总线,用于实现所述处理器和所述存储器之间的连接通信;
所述处理器,用于执行存储器中存储的图像处理程序,以实现以下步骤:
对人体的预定部位或预定动作进行识别;
获取识别的结果对应的图像;
将获取到的图像与基础图像进行融合处理。
9.根据权利要求8所述的移动终端,其特征在于,所述处理器还用于执行图像处理程序,以实现以下步骤:
对人体的预定部位或预定动作进行识别包括以下之一:
通过摄像头对用户的手势进行识别,得到手势信息;
通过麦克风对用户的语音信息进行采集,识别采集到的语音信息得到文字信息;
通过摄像头对用户的面部表情进行采集,得到面部表情信息;
通过摄像头对用户的虹膜信息进行采集,得到虹膜信息;
通过传感器对用户的指纹信息进行采集,得到指纹信息。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现权利要求1-7中任一项所述图像处理方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711454550.0A CN108198159A (zh) | 2017-12-28 | 2017-12-28 | 一种图像处理方法、移动终端以及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711454550.0A CN108198159A (zh) | 2017-12-28 | 2017-12-28 | 一种图像处理方法、移动终端以及计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108198159A true CN108198159A (zh) | 2018-06-22 |
Family
ID=62584961
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711454550.0A Pending CN108198159A (zh) | 2017-12-28 | 2017-12-28 | 一种图像处理方法、移动终端以及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108198159A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109035420A (zh) * | 2018-08-21 | 2018-12-18 | 维沃移动通信有限公司 | 一种增强现实ar图像的处理方法及移动终端 |
CN109598678A (zh) * | 2018-12-25 | 2019-04-09 | 维沃移动通信有限公司 | 一种图像处理方法、装置和终端设备 |
CN109739414A (zh) * | 2018-12-29 | 2019-05-10 | 努比亚技术有限公司 | 一种图片处理方法、移动终端、计算机可读存储介质 |
CN109769213A (zh) * | 2019-01-25 | 2019-05-17 | 努比亚技术有限公司 | 用户行为轨迹记录的方法、移动终端及计算机存储介质 |
CN109783094A (zh) * | 2018-12-15 | 2019-05-21 | 深圳壹账通智能科技有限公司 | 前端页面生成方法、装置、计算机设备及存储介质 |
CN111382644A (zh) * | 2018-12-29 | 2020-07-07 | Tcl集团股份有限公司 | 手势识别方法、装置、终端设备及计算机可读存储介质 |
CN111507142A (zh) * | 2019-01-31 | 2020-08-07 | 北京字节跳动网络技术有限公司 | 人脸表情图像处理方法、装置和电子设备 |
CN112347301A (zh) * | 2019-08-09 | 2021-02-09 | 北京字节跳动网络技术有限公司 | 图像特效处理方法、装置、电子设备和计算机可读存储介质 |
CN114602173A (zh) * | 2022-05-13 | 2022-06-10 | 上海英立视电子有限公司 | 一种真人游戏中人体图像清除方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103685940A (zh) * | 2013-11-25 | 2014-03-26 | 上海斐讯数据通信技术有限公司 | 一种通过表情识别拍摄照片的方法 |
CN105657254A (zh) * | 2015-12-28 | 2016-06-08 | 努比亚技术有限公司 | 一种图像合成方法及装置 |
CN107203263A (zh) * | 2017-04-11 | 2017-09-26 | 北京峰云视觉技术有限公司 | 一种虚拟现实眼镜系统及图像处理方法 |
CN107358657A (zh) * | 2017-06-30 | 2017-11-17 | 海南职业技术学院 | 基于增强现实技术实现互动的方法和系统 |
-
2017
- 2017-12-28 CN CN201711454550.0A patent/CN108198159A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103685940A (zh) * | 2013-11-25 | 2014-03-26 | 上海斐讯数据通信技术有限公司 | 一种通过表情识别拍摄照片的方法 |
CN105657254A (zh) * | 2015-12-28 | 2016-06-08 | 努比亚技术有限公司 | 一种图像合成方法及装置 |
CN107203263A (zh) * | 2017-04-11 | 2017-09-26 | 北京峰云视觉技术有限公司 | 一种虚拟现实眼镜系统及图像处理方法 |
CN107358657A (zh) * | 2017-06-30 | 2017-11-17 | 海南职业技术学院 | 基于增强现实技术实现互动的方法和系统 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109035420A (zh) * | 2018-08-21 | 2018-12-18 | 维沃移动通信有限公司 | 一种增强现实ar图像的处理方法及移动终端 |
CN109783094A (zh) * | 2018-12-15 | 2019-05-21 | 深圳壹账通智能科技有限公司 | 前端页面生成方法、装置、计算机设备及存储介质 |
CN109598678A (zh) * | 2018-12-25 | 2019-04-09 | 维沃移动通信有限公司 | 一种图像处理方法、装置和终端设备 |
CN109598678B (zh) * | 2018-12-25 | 2023-12-12 | 维沃移动通信有限公司 | 一种图像处理方法、装置和终端设备 |
CN109739414A (zh) * | 2018-12-29 | 2019-05-10 | 努比亚技术有限公司 | 一种图片处理方法、移动终端、计算机可读存储介质 |
CN111382644A (zh) * | 2018-12-29 | 2020-07-07 | Tcl集团股份有限公司 | 手势识别方法、装置、终端设备及计算机可读存储介质 |
CN109769213A (zh) * | 2019-01-25 | 2019-05-17 | 努比亚技术有限公司 | 用户行为轨迹记录的方法、移动终端及计算机存储介质 |
CN111507142A (zh) * | 2019-01-31 | 2020-08-07 | 北京字节跳动网络技术有限公司 | 人脸表情图像处理方法、装置和电子设备 |
CN112347301A (zh) * | 2019-08-09 | 2021-02-09 | 北京字节跳动网络技术有限公司 | 图像特效处理方法、装置、电子设备和计算机可读存储介质 |
CN114602173A (zh) * | 2022-05-13 | 2022-06-10 | 上海英立视电子有限公司 | 一种真人游戏中人体图像清除方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108198159A (zh) | 一种图像处理方法、移动终端以及计算机可读存储介质 | |
WO2020199926A1 (zh) | 一种图像识别网络模型训练方法、图像识别方法及装置 | |
CN108198130B (zh) | 图像处理方法、装置、存储介质及电子设备 | |
CN107679506A (zh) | 智能产品的唤醒方法、智能产品及计算机可读存储介质 | |
CN107767333A (zh) | 美颜拍照的方法、设备及计算机可存储介质 | |
CN107945789A (zh) | 语音识别方法、装置及计算机可读存储介质 | |
CN108965954A (zh) | 使用用于减少视频的回放时间的智能分析的终端 | |
CN103745235A (zh) | 人脸识别方法、装置及终端设备 | |
CN109167910A (zh) | 对焦方法、移动终端及计算机可读存储介质 | |
CN108259758B (zh) | 图像处理方法、装置、存储介质和电子设备 | |
CN110163806A (zh) | 一种图像处理方法、装置以及存储介质 | |
CN107766403B (zh) | 一种相册处理方法、移动终端以及计算机可读存储介质 | |
CN107705251A (zh) | 图片拼接方法、移动终端及计算机可读存储介质 | |
CN108174093A (zh) | 拍摄瞬间图像的方法、设备及计算机可存储介质 | |
CN111009031B (zh) | 一种人脸模型生成的方法、模型生成的方法及装置 | |
CN109743504A (zh) | 一种辅助拍照方法、移动终端和存储介质 | |
CN110765924A (zh) | 一种活体检测方法、装置以及计算机可读存储介质 | |
CN108154121A (zh) | 基于智能镜的化妆辅助方法、智能镜及存储介质 | |
CN108230270A (zh) | 一种降噪方法、终端及计算机可读存储介质 | |
CN107707751A (zh) | 视频播放省电方法及对应的移动终端 | |
WO2018214115A1 (zh) | 一种评价脸妆的方法及装置 | |
CN107066085A (zh) | 一种基于眼球追踪控制终端的方法及装置 | |
CN108549853A (zh) | 一种图像处理方法、移动终端以及计算机可读存储介质 | |
CN107944022A (zh) | 图片分类方法、移动终端及计算机可读存储介质 | |
CN109769213A (zh) | 用户行为轨迹记录的方法、移动终端及计算机存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180622 |