CN107247548B - 图像显示方法、图像处理方法及装置 - Google Patents

图像显示方法、图像处理方法及装置 Download PDF

Info

Publication number
CN107247548B
CN107247548B CN201710400342.6A CN201710400342A CN107247548B CN 107247548 B CN107247548 B CN 107247548B CN 201710400342 A CN201710400342 A CN 201710400342A CN 107247548 B CN107247548 B CN 107247548B
Authority
CN
China
Prior art keywords
image
models
terminal
server
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710400342.6A
Other languages
English (en)
Other versions
CN107247548A (zh
Inventor
梁宇轩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201710400342.6A priority Critical patent/CN107247548B/zh
Publication of CN107247548A publication Critical patent/CN107247548A/zh
Priority to PCT/CN2018/086377 priority patent/WO2018219120A1/zh
Application granted granted Critical
Publication of CN107247548B publication Critical patent/CN107247548B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种图像显示方法、图像处理方法及装置,属于图像处理领域。该图像显示方法包括:向服务器发送原始图像对应的第一图像数据;接收服务器发送的AR模型数据,AR模型数据用于渲染至少一个AR模型,AR模型用于展示图像处理效果;根据AR模型数据渲染并显示AR模型;向服务器发送对目标AR模型的选择信号,服务器用于根据目标AR模型对应的图像处理参数,对第一图像数据进行图像处理;接收服务器发送的图像处理后的第二图像数据,并进行渲染显示。本发明实施例中,通过AR模型展示不同图像处理的实际效果,相较于图片或文字描述更加形象准确,有利于提高用户选择图像处理方式的效率。

Description

图像显示方法、图像处理方法及装置
技术领域
本发明实施例涉及图像处理领域,特别涉及一种图像显示方法、图像处理方法及装置。
背景技术
随着图像处理技术的不断成熟,越来越多的图像处理应用程序应运而生。用户拍摄照片或视频的同时,能够利用这类图像处理应用程序对拍摄画面进行实时美化。
常见的图像处理应用程序包括:美颜相机应用程序。用户选择开启美颜相机应用程序的美颜功能后,美颜相机应用程序即对拍摄画面中的人物进行实时美颜处理,比如,对拍摄画面中的人物进行肤色美白处理、眼睛放大处理等等,从而达到美颜效果。
相关技术中,美颜相机应用程序以图片或文字的方式提供不同的美颜方案供用户选择使用,但是,对于部分美颜方案,通过图片或文字无法精准体现出实际美颜效果。比如,对于抬高鼻梁这种美颜方式,图片或文字无法精准体现出实际的美颜效果。
发明内容
为了解决上述技术问题,本发明实施例提供了一种图像显示方法、图像处理方法及装置。所述技术方案如下:
根据本发明实施例的第一方面,提供了一种图像显示方法,该方法包括:
向服务器发送原始图像对应的第一图像数据;
接收服务器发送的AR(Augmented Reality,增强现实)模型数据,AR模型数据用于渲染至少一个AR模型,AR模型用于展示图像处理效果;
根据AR模型数据渲染并显示AR模型;
向服务器发送对目标AR模型的选择信号,服务器用于根据目标AR模型对应的图像处理参数,对第一图像数据进行图像处理;
接收服务器发送的图像处理后的第二图像数据,并进行渲染显示。
根据本发明实施例的第二方面,提供了一种图像处理方法,该方法包括:
接收终端发送的原始图像对应的第一图像数据;
向终端发送AR模型数据,终端用于根据AR模型数据渲染并显示至少一个AR模型,AR模型用于展示图像处理效果;
接收终端发送的对目标AR模型的选择信号;
根据目标AR模型对应的图像处理参数,对第一图像数据进行图像处理;
向终端发送图像处理后的第二图像数据,终端用于对第二图像数据进行渲染显示。
根据本发明实施例的第三方面,提供了一种图像显示装置,该装置包括:
第一发送模块,用于向服务器发送原始图像对应的第一图像数据;
第一接收模块,用于接收服务器发送的AR模型数据,AR模型数据用于渲染至少一个AR模型,AR模型用于展示图像处理效果;
第一显示模块,用于根据AR模型数据渲染并显示AR模型;
第二发送模块,用于向服务器发送对目标AR模型的选择信号,服务器用于根据目标AR模型对应的图像处理参数,对第一图像数据进行图像处理;
第二显示模块,用于接收服务器发送的图像处理后的第二图像数据,并进行渲染显示。
根据本发明实施例的第四方面,提供了一种图像处理装置,该装置包括:
第二接收模块,用于接收终端发送的原始图像对应的第一图像数据;
第三发送模块,用于向终端发送AR模型数据,终端用于根据AR模型数据渲染并显示至少一个AR模型,AR模型用于展示图像处理效果;
第三接收模块,用于接收终端发送的对目标AR模型的选择信号;
处理模块,用于根据目标AR模型对应的图像处理参数,对第一图像数据进行图像处理;
第四发送模块,用于向终端发送图像处理后的第二图像数据,终端用于对第二图像数据进行渲染显示。
根据本发明实施例的第五方面,提供了一种终端,该终端包括处理器和存储器,所述存储器中存储有至少一条指令,所述指令由所述处理器加载并执行以实现如第一方面所述的图像显示方法。根据本发明实施例的第六方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令,所述指令由处理器加载并执行以实现如第一方面所述的图像显示方法。
根据本发明实施例的第七方面,提供了一种服务器,该服务器包括处理器和存储器,所述存储器中存储有至少一条指令,所述指令由所述处理器加载并执行以实现如第二方面所述的图像处理方法。
根据本发明实施例的第八方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令,所述指令由处理器加载并执行以实现如第一方面所述的图像处理方法。
本发明实施例中,终端根据服务器发送的AR模型数据渲染显示相应的AR模型,并向服务器反馈用户选中的目标AR模型,使得服务器根据目标AR模型所展示的图像处理效果,对原始图像进行相应的图像处理,并将图像处理后的数据反馈给终端,供终端进行渲染显示;本发明实施例利用AR模型展示图像处理效果,相较于现有技术中采用图片或文字描述图像处理效果更加直观准确,有利于提高用户选择图像处理方式的效率。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了本发明一个实施例提供的实施环境的示意图;
图2示出了本发明一个实施例提供的图像处理方法的流程图;
图3示出了本发明另一个实施例提供的图像处理方法的流程图;
图4是web服务器利用双线程进行人脸识别和图像处理的实施示意图;
图5是图4所示图像处理方法所涉及的确定候选AR模型过程的流程图;
图6A和6B是终端显示AR模型的界面示意图;
图7示出了本发明一个实施例提供的图像显示装置的结构方框图;
图8示出了本发明一个实施例提供的图像处理装置的结构方框图;
图9示出了本发明一个实施例提供的服务器的结构方框图;
图10示出了本发明一个实施例提供的终端的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
为了方便理解,下面对本发明实施例中涉及的名词进行解释。
AR:即增强现实技术,是一种将真实世界信息与虚拟世界信息进行集成的技术。利用AR技术,能够在现实图像中展示构建的虚拟模型,且用户能够与该虚拟模型进行交互,比如,用户可以通过手势选中虚拟模型或者对虚拟模型执行相应的操作(例如抓取、放置等等)。本发明实施例中,终端根据web服务器发送的AR模型数据,在显示的原始图像中以AR模型的形式展示图像处理效果,并进一步获取用户选中的AR模型,其中,该AR模型为三维立体人脸模型。
webGL(web Graphics Library,网页图形库):一种3D(3-dimension,三维)绘图标准,允许把JavaScript(Java脚本)和OpenGL ES 2.0(OpenGL for Embedded Systems,嵌入式系统开放图形库2.0)结合在一起。通过增加OpenGL ES 2.0的一个JavaScript绑定,webGL可以为HTML5(HyperText Markup Language 5,超文本标记语言第五版)网页提供硬件3D加速渲染,从而借助GPU(Graphics Processing Unit,图形处理器)在网页浏览器中渲染显示3D场景和模型。
Vertex Shader(顶点着色器):用于渲染3D模型形状顶点的程序代码。本发明实施例中,顶点着色器用于渲染AR模型中各个形状顶点,从而绘制出AR模型的形状轮廓。
Fragment Shader(片段着色器):用于渲染3D模型的表面颜色和/或表面纹理的程序代码。本发明实施例中,利用顶点着色器渲染出AR模型的形状顶点后,即使用片段着色器渲染AR模型的颜色及纹理。
与现有技术中,图像处理由终端独立执行不同,本发明实施例中,图像处理由终端与服务器交互完成。其中,终端负责原始图像采集、图像处理方式选择以及对图像处理后的图像进行显示,服务器则负责提供不同的图像处理方式以及对原始图像进行处理。
请参考图1,其示出了本发明一个实施例提供的实施环境的示意图,该实施环境中包括终端110和服务器120。
终端110是具有图像采集功能的电子设备。该电子设备为智能手机、平板变脑、个人便携式计算机等等。可选的,本发明实施例中,终端110中安装并运行有支持webRTC(WebReal-Time Communication,网页实时通信)以及webGL技术的网页浏览器,利用webRTC技术,用户能够使用网页浏览器进行实时音视频对话或录制;利用webGL技术,当需要在网页中显示复杂的3D模型或场景时,网页浏览器即可调用终端110中的GPU进行3D渲染。
终端110与服务器120之间通过有线或无线网络相连。
服务器120是一台服务器、若干台服务器构成的服务器集群或云计算中心。在一种可能的实施方式中,服务器120为图像处理应用程序的后台服务器;在另一种可能的实施方式中,服务器120为图像处理网页对应的web服务器,用于对通过图像处理网页接收到的原始图像进行图像处理。
在一个示意性的应用场景下,用户使用网页浏览器访问图像处理网页并进行视频录制时,终端110即通过图像采集组件采集原始图像,并采用webRTC技术将原始图像发送至图像处理网页对应的web服务器120,由该web服务器120对原始图像进行相应图像处理后,采用webRTC技术将图像处理后的原始图像反馈给终端110,供终端110进行实时显示。
本发明实施例中,服务器120还用于提供不同的图像处理方式供用户选择使用。可选的,如图1所示,服务器120中构建有AR模型数据库121,该AR模型数据库121中存储有用于展示不同图像处理效果的AR模型。比如,该AR模型为3D人脸模型,用于以动画的形式展现图像处理前后人脸的变化情况。在一种可能的实施方式中,服务器接收到终端110发送的原始图像后,从AR模型数据库121中选择若干个AR模型并反馈给终端110,由终端110对若干个AR模型进行渲染显示,以便用户根据AR模型展示的图像处理效果选择相应的图像处理方式。
本发明实施例中,服务器120还用于为特定用户的人脸图像提供图像处理。可选的,如图1所示,服务器120中构建有人脸图像数据库122,该人脸图像数据库122中存储有终端上传的人脸图像。在一种可能的实施方式中,服务器120接收到终端110发送的原始图像后,从人脸图像数据库122中获取终端110对应目标用户的人脸图像,当识别出原始图像中包含多张人脸时,服务器120仅对原始图像中目标用户的人脸图像进行图像处理。
可选地,上述的无线网络或有线网络使用标准通信技术和/或协议。网络通常为因特网、但也可以是任何网络,包括但不限于局域网(Local Area Network,LAN)、城域网(Metropolitan Area Network,MAN)、广域网(Wide Area Network,WAN)、移动、有线或者无线网络、专用网络或者虚拟专用网络的任何组合)。在一些实施例中,使用包括超文本标记语言(Hyper Text Mark-up Language,HTML)、可扩展标记语言(Extensible MarkupLanguage,XML)等的技术和/或格式来代表通过网络交换的数据。此外还可以使用诸如安全套接字层(Secure Socket Layer,SSL)、传输层安全(Transport Layer Security,TLS)、虚拟专用网络(Virtual Private Network,VPN)、网际协议安全(Internet ProtocolSecurity,IPsec)等常规加密技术来加密所有或者一些链路。在另一些实施例中,还可以使用定制和/或专用数据通信技术取代或者补充上述数据通信技术。
请参考图2,其示出了本发明一个实施例提供的图像处理方法的流程图,本实施例以该图像处理方法用于图1所示的实施环境为例进行说明,该方法包括:
步骤201,终端向服务器发送原始图像对应的第一图像数据。
在一种可能的实施方式中,当该服务器为web服务器,且终端通过网页浏览器访问图像处理网页并进行视频录制时,网页浏览器调用终端的图像采集组件(比如摄像头)进行原始图像采集,并采用视频图像编码技术(比如x264编码技术)对原始图像进行编码,得到第一图像数据,进而采用webRTC技术将第一图像数据传输至图像处理网页对应的web服务器。其中,该图像处理网页以及网页浏览器均支持webGL技术。
步骤202,服务器接收终端发送的原始图像的第一图像数据。
步骤203,服务器向终端发送AR模型数据。
不同于现有技术中,用户仅能够从图片或文字描述中获知图像处理的实际效果,本发明实施例中,服务器接收到第一图像数据后,向终端提供AR模型数据,供终端渲染显示至少一个展示图像处理效果的AR模型。
可选的,服务器中构建有AR模型数据库,该AR模型数据库中即存储有不同AR模型对应的数据。其中,该AR模型数据使用OpenGL定义,包含顶点着色器和片段着色器。
在一种可能的实施方式中,服务器接收到第一图像数据后,通过视频图像解码技术还原出原始图像,然后通过图像识别技术识别原始图像中人脸的人脸特征,并从AR模型数据库中查找与该人脸特征相匹配的目标AR模型,进而将目标AR模型的AR模型数据发送给终端,供终端进行渲染显示。由于终端显示的AR模型与用户人脸相似度较高,因此通过该AR模型展示出的图像处理效果(美颜效果)更加真实。
步骤204,终端接收服务器发送的AR模型数据。
步骤205,终端根据AR模型数据渲染并显示至少一个AR模型,AR模型用于展示图像处理效果。
在一种可能的实施方式中,当AR模型数据中包含顶点着色器和片段着色器(采用OpenGL定义),且终端运行的网页浏览器支持webGL技术时,网页浏览器根据AR模型数据调用终端中的GPU进行AR模型渲染,提高了AR模型的渲染速度,同时免去了开发额外的网页渲染插件。
终端在网页浏览器中对GPU渲染出的AR模型进行显示,使得用户通过AR模型能够直观了解到不同图像处理方式的实际效果,方便用户定向选择自身期望的图像处理方式。
步骤206,终端向服务器发送对目标AR模型的选择信号。
在一种可能的实施方式中,终端在屏幕上显示AR模型后,接收用户对目标AR模型的触摸选择信号,其中,该触摸选择信号是用户触摸目标AR模型所在显示区域时触发的。
在其他可能的实施方式中,用户通过执行预定交互动作与虚拟的AR模型进行实时交互时,终端将包含交互动作的互动图像发送至服务器后,服务器借助AR识别技术,确定用户通过交互动作所选中的目标AR模型。
比如,web服务器根据终端发送的互动图像,确定出用户手指在真实三维空间中的第一空间坐标,通过比较第一空间坐标与各个虚拟AR模型的第二空间坐标之间的坐标位置关系,服务器确定出用户手指选中的AR模型。
步骤207,服务器接收终端发送的对目标AR模型的选择信号。
步骤208,服务器根据目标AR模型对应的图像处理参数,对第一图像数据进行图像处理。
服务器确定出用户选择的目标AR模型后,即根据该目标AR模型对应的图像处理参数,对第一图像数据进行相应的图像处理,从而达到与目标AR模型一致的图像处理效果。可选的,该图像处理参数包括脸型调节参数、肤色调节参数、人脸器官尺寸调节参数等等。
在一种可能的实施方式中,服务器启用识别线程对原始图像中的人脸图像进行识别,从而根据人脸识别结果仅对原始图像中特定的目标人脸进行图像处理,对于原始图像中的非目标人脸,服务器则不会对其进行图像处理,实现个性化图像处理的效果。
步骤209,服务器向终端发送图像处理后的第二图像数据。
完成图像处理后,服务器通过webRTC技术向终端实时返回图像处理后的第二图像数据,以便终端根据第二图像数据进行实时渲染显示,从而观看到实时美颜的效果。
步骤210,终端接收服务器发送的第二图像数据,并进行渲染显示。
本实施例中,终端根据服务器发送的AR模型数据,以AR模型的方式向用户展现不同图像处理方式的实际效果,并指示服务器根据用户选择的图像处理方式对原始图像进行处理,提高了图像处理方式的选择效率,提升了用户操作体验。
综上所述,本实施例提供的图像处理方法中,终端根据服务器发送的AR模型数据渲染显示相应的AR模型,并向服务器反馈用户选中的目标AR模型,使得服务器根据目标AR模型所展示的图像处理效果,对原始图像进行相应的图像处理,并将图像处理后的数据反馈给终端,供终端进行渲染显示;本发明实施例利用AR模型展示图像处理效果,相较于现有技术中采用图片或文字描述图像处理效果更加直观准确,有利于提高用户选择图像处理方式的效率。
在一种可能的实施方式中,当服务器为web服务器,且web服务器提供的图像处理网页支持webGL,终端中运行的网页浏览器也支持webGL时,终端与web服务器之间能够借助webGL以及webRTC技术实现实时图像处理,从而免去了在终端中安装图像处理应用程序,下面采用示意性的实施例进行说明。
请参考图3,其示出了本发明一个实施例提供的图像处理方法的流程图,本实施例以该图像处理方法用于图1所示的实施环境为例进行说明,该方法包括:
步骤301,终端向web服务器上传目标人脸的目标人脸图像。
在一种可能的实施方式中,终端使用网页浏览器访问图像处理网页时,通过HTTP(HyperText Transfer Protocol,超文本传输协议)的post上传方式,将终端对应目标人脸的目标人脸图像上传到服务器。
可选的,为了提高图像上传的安全性,终端通过预设加密算法对目标人脸图像进行加密后,向web服务器上传加密后的目标人脸图像。其中,该预设加密算法为RSA(Rivest-Shamir-Adleman)算法、MD5(Message-Digest Algorithm5,信息摘要算法5)算法或DES(Data Encryption Standard,数据加密标准)算法等等。
步骤302,web服务器接收终端上传的目标人脸的目标人脸图像。
相应的,web服务器接收终端上传的目标人脸图像,并将该目标人脸图像与终端进行关联存储,以便后续进行人脸识别时调用。示意性的,web服务器将接收到的目标人脸图像存储在人脸图像数据库122中。
可选的,为了提高后续人脸识别的准确性,同一终端对应至少一张目标人脸图像。
步骤303,终端通过浏览器访问图像处理网页,图像处理网页支持网页图形库webGL技术,且浏览器支持webGL技术。
本实施例中,终端中运行的网页浏览器支持webGL技术,且终端访问的图像处理网页使用webGL技术开发。
步骤304,终端通过浏览器向图像处理网页对应的web服务器发送第一图像数据。
当通过网页浏览器访问图像处理网页,并进行视频录制时,终端即启用图像采集组件采集原始图像,并通过webRTC技术将原始图像发送至web服务器。
步骤305,web服务器通过图像处理网页接收终端发送的第一图像数据。
步骤306,web服务器将第一图像数据存入缓冲池。
为了同时执行人脸识别和图像处理这两种高并发性的操作,如图4所示,web服务器接收到第一图像数据,并非直接对第一图像数据进行处理,而是将该第一图像数据存入缓冲池内,并通过启用第一线程和第二线程分别对原始图像进行人脸识别以及图像处理。
步骤307,web服务器启用第一线程从缓冲池中读取第一图像数据。
其中,web服务器用于通过第一线程识别原始图像中的目标人脸。
针对web服务器启用第一线程的方式,在一种可能的实施方式中,web服务器在PHP(PHP:Hypertext Preprocessor,超文本预处理器)中使用shell_exec函数,以shell(壳)的方式启动一个独立的PHP脚本,从而独立启用一个shell进程执行人脸识别。
启用第一线程后,web服务器即通过第一线程从缓冲池中读取第一图像数据,从而基于该第一图像数据进行目标人脸识别。
步骤308,web服务器根据目标人脸图像识别原始图像中是否包含目标人脸。
在一种可能的实施方式中,如图4所示,在第一线程下,web服务器从人脸图像数据库中获取终端上传的目标人脸图像,并通过人脸识别技术从原始图像中截取脸部图像。进一步的,web服务器计算原始图像中脸部图像与目标人脸图像的相似度,从而基于该相似度识别原始图像中包含的目标人脸。
可选的,web服务器采用感知哈希算法计算原始图像中脸部图像与目标人脸图像的相似度,具体包括如下步骤。
1、根据原始图像中脸部图像生成预定尺寸的第一图片;根据目标人脸图像生成预定尺寸的第二图片。
为了摈弃不同尺寸和比例带来的图片差异性,web服务器对原始图像中脸部图像以及目标人脸图像进行尺寸缩放,从而生成相同尺寸的第一图片和第二图片。
在一种可能的实施方式中,web服务器生成的第一图片和第二图片的尺寸均为8×8,共64个像素点。
2、将第一图片转化为第一灰度图片;将第二图片转化为第二灰度图片。
在一种可能的实施方式中,第一灰度图片和第二灰度图片均为64级灰度图片,即第一灰度图片和第二灰度图片中,像素点总共有64种颜色。
3、计算第一灰度图片的第一灰度平均值;计算第二灰度图片的第二灰度平均值。
web服务器根据第一灰度图片中各个像素点的灰度值,计算得到第一灰度图片的第一灰度平均值;相似的,web服务器根据第二度图片中各个像素点的灰度值,计算得到第二灰度图片的第二灰度平均值。
4、根据第一灰度图片中各个像素点的灰度值和第一灰度平均值,生成第一灰度图片的第一图片指纹;根据第二灰度图片中各个像素点的灰度值和第二灰度平均值,生成第二灰度图片的第二图片指纹。
在一种可能的实施方式中,在计算第一灰度图片的第一图片指纹时,web服务器比较各个像素点的灰度值与第一灰度平均值的大小,若该像素点的灰度值大于等于第一灰度平均值,web服务器将该像素点的值设置为1;若该像素点的灰度值小于第一灰度平均值,web服务器将该像素点的值设置为0。web服务器将各个像素点的值进行组合,即得到第一灰度图片的第一图片指纹。
比如,当第一灰度图片和第二灰度图片的尺寸均为8×8时,第一图片指纹和第二图片指纹均为64位二进制数。
5、根据第一图片指纹和第二图片指纹计算相似度。
计算得到第一图片指纹和第二图片指纹后,web服务器统计第一图片指纹和第二图片指纹的不同位数。若不同位数小于第一阈值(比如5),web服务器确定原始图像中脸部图像与目标人脸图像相似度高,即原始图像中包含目标人脸;若不同位数大于第二阈值(比如10),web服务器确定原始图像中脸部图像与目标人脸图像相似度低,即原始图像中不包含目标人脸。
步骤309,当原始图像中包含目标人脸时,web服务器向终端发送AR模型数据。
由于web服务器仅对目标人脸进行图像处理,因此当识别出原始图像中包含目标人脸时,web服务器即向终端发送AR模型数据,当识别出原始图像中不包含目标人脸时,web服务器则不会向终端发送AR模型数据。
为了使用户能够选择到符合自身面部特点的图像处理方式,从而优化图像处理的效果,在一种可能的实施方式中,如图5所示,本步骤包括如下步骤。
步骤309A,通过预定图像识别技术识别原始图像中目标人脸的人脸特征,人脸特征包括肤色、脸型或人脸器官尺寸中的至少一种。
web服务器确定原始图像中包含目标人脸后,即通过图像识别技术对目标人脸进行人脸特征识别,从而得到肤色、脸型以及人脸器官尺寸等特征。
可选的,web服务器根据人脸特征识别结果,计算目标人脸中各个人脸器官的目标尺寸,从而根据该目标尺寸和实际的人脸器官尺寸,确定各个人脸器官的调整尺寸,以便后续基于该调整尺寸对人脸器官进行图像处理。
步骤309B,根据目标人脸的人脸特征从AR模型数据库中查找匹配的候选AR模型,候选AR模型的人脸特征所述目标人脸的人脸特征的相似度大于阈值。
可选的,web服务器中存储有不同人脸特征的AR模型,比如瓜子脸的AR模型、国字脸的AR模型、长发圆脸的AR模型等等。为了使用户查看到与自身人脸特征较为相似的AR模型,web服务器基于上述步骤309A得到的目标人脸的人脸特征,在AR模型数据库中查找相似度大于阈值的AR模型。
比如,当目标人脸的人脸特征为国字脸、深肤色时,web服务器将AR模型数据库中满足上述人脸特征的AR模型确定为候选AR模型。
步骤309C,向终端发送候选AR模型对应的AR模型数据。
进一步的,终端将查找到的候选AR模型对应的AR模型数据发送给终端,供终端进行渲染显示。
本发明实施例中,该AR模型数据采用OpenGL定义,包含顶点着色器和片段着色器,其中,顶点着色器是用于渲染AR模型的形状顶点的程序代码,片段着色器是用于渲染AR模型的颜色和/或纹理的程序代码。
步骤310,终端接收web服务器发送的AR模型数据。
步骤311,终端根据AR模型数据渲染并显示至少一个AR模型,AR模型用于展示图像处理效果。
在一种可能的实施方式中,当终端运行的网页浏览器支持webGL技术,且接收到的AR模型数据采用OpenGL定义,包含顶点着色器和片段着色器时,终端根据AR模型数据渲染显示AR模型包括如下步骤:
一、通过webGL技术对AR模型数据进行渲染,得到AR模型。
可选的,对于支持webGL技术的网页浏览器,当接收到web服务器发送的AR模型数据时,网页浏览器通过webGL调用终端的GPU,从而利用该GPU分别运行顶点着色器和片段着色器,渲染得到相应的AR模型。相较于现有技术中利用网页浏览器中专用的网页渲染插件(软件)进行3D模型渲染,本实施例中利用GPU(硬件)进行3D模型渲染的速度更快,且免去了开发额外的网页渲染插件。
二、在图像处理网页中绘制显示AR模型。
在一种可能的实施方式中,网页浏览器根据AR模型数据渲染出AR模型后,通过gldraw对该AR模型进行绘制,并最终将绘制出的AR模型显示在终端屏幕上。
示意性的,如图6A所示,终端在显示用户人脸61时,对渲染得到的第一AR模型62以及第二AR模型63进行显示,其中,第一AR模型62用于以3D动画的方式展示眼部放大的图像处理效果,第二AR模型63用于以3D动画的方式展示拉高鼻梁的图像处理效果。
为了能够将虚拟AR模型显示到真实三维空间中,从而达到更加逼真的3D人脸模型显示效果,在另一种可能的实施方式中,终端在图像处理网页中绘制显示AR模型包括如下步骤。
一、根据当前画面构建三维空间。
可选的,终端识别当前画面中包含的各个物体,并根据各个物体在当前画面中的景深及相对位置关系,构建出与真实环境对应的三维空间。
二、确定AR模型在三维空间中的显示坐标。
在一种可能的实施方式中,终端进一步获取用户头部在三维空间中的头部坐标,并根据头部坐标确定AR模型在三维空间中的显示坐标,其中,AR模型的显示坐标与头部坐标相邻,即三维空间中,AR模型显示在用户头部周侧。
三、根据该显示坐标在当前画面中绘制显示AR模型。
进一步的,终端根据确定出的显示坐标,在当前画面的相应位置显示AR模型,并调整AR模型的显示角度,从而模拟出在真实三维空间中显示虚拟模型的效果。
示意性的,如图6B所示,终端显示的当前画面中,用户人脸61的三维空间周侧显示有第一AR模型62和第二AR模型63。
步骤312,终端向web服务器发送对目标AR模型的选择信号。
示意性的,如图6A所示,当用户触摸第一AR模型62对应的显示区域时,终端即向web服务器发送对第一AR模型的选择信号;当用户触摸第二AR模型63对应的显示区域时,终端即向web服务器发送对第二AR模型的选择信号。
当虚拟AR模型显示在真实三维空间时,用户可以在三维空间中通过手势选中虚拟AR模型。如图6B所示,终端识别用户手指选中的三维空间区域,当检测到手指选中的三维空间区域与第一AR模型62对应的显示坐标相匹配时,即确定选中第一AR模型62,并向web服务器发送对第一AR模型的选择信号。
步骤313,web服务器接收终端发送的对目标AR模型的选择信号。
步骤314,web服务器启用第二线程从缓冲池中读取第一图像数据。
如图4所示,web服务器在启用第一线程进行人脸识别的同时,并行启用第二线程对原始图像进行图像处理。其中,web服务器启用第二线程的方式与启用第一线程的方式相似,本实施例在此不再赘述。
在第二线程下,web服务器从缓冲池中读取第一图像数据,从而基于第一图像数据以及终端反馈的图像处理方式对原始图像中的目标人脸进行图像处理。
步骤315,web服务器根据目标AR模型对应的图像处理参数,对原始图像中的目标人脸进行图像处理。
在一种可能的实施方式中,web服务器在执行第二线程的同时轮询第一线程,并在第一线程中用户选中的目标AR模型发生变化,即用户切换图像处理方式时,根据变化后目标AR模型所展示的图像处理效果重新进行图像处理。
需要说明的是,当未接收到对目标AR模型的选择信号或原始图像中不包含目标人脸时,web服务器直接向终端反馈原始图像。
步骤316,web服务器向终端发送图像处理后的第二图像数据。
步骤317,终端接收web服务器发送第二图像数据,并进行渲染显示。
本实施例中,web服务器启用双线程,分别对原始图像进行人脸识别和图像处理,充分利用web服务器的处理资源,最大限度发挥硬件性能,提高终端界面的响应速度;同时,由于高并发的人脸识别和图像处理在web服务器侧执行,终端仅负责对图像处理后的原始图像进行渲染显示,因此即使在终端性能较差的情况下,也能达到较好的图像处理效果。
区别于现有技术中对图像进行一致性处理,本实施例中服务器仅对原始图像中特定的目标人脸进行图像处理,达到了个性化美颜的效果。
需要说明的是,上述各个实施例中,以终端为执行主体的步骤可以单独实现成为终端侧的图像显示方法,以服务器或web服务器为执行主体的步骤可以单独实现成为服务器侧的图像处理方法,本实施例在此不再赘述。
下述为本发明装置实施例,对于装置实施例中未详尽描述的细节,可以参考上述一一对应的方法实施例。
请参考图7,其示出了本发明一个实施例提供的图像显示装置的结构方框图。该图像显示装置通过硬件或者软硬件的结合实现成为图1中终端110的全部或者一部分。该装置包括:第一发送模块710、第一接收模块720、第一显示模块730、第二发送模块740和第二显示模块750。
第一发送模块710,用于实现上述步骤201的功能;
第一接收模块720,用于实现上述步骤204或310的功能;
第一显示模块730,用于实现上述步骤205或311的功能;
第二发送模块740,用于实现上述步骤206或312的功能;
第二显示模块750,用于实现上述步骤210或317的功能。
可选的,第一发送模块710,包括:访问单元、第一发送单元、
访问单元,用于实现上述步骤303的功能;
第一发送单元,用于实现上述步骤304的功能;
第一显示模块730,包括:
渲染单元,用于通过webGL技术对AR模型数据进行渲染,得到AR模型;
显示单元,用于在图像处理网页中绘制显示AR模型。
可选的,渲染单元,用于:
通过webGL技术调用GPU;
通过所述GPU运行顶点着色器和片段着色器,渲染得到AR模型。
可选的,该装置,还包括:上传模块;
上传模块,用于实现上述步骤301的功能。
请参考图8,其示出了本发明一个实施例提供的图像处理装置的结构方框图。该图像处理装置通过硬件或者软硬件的结合实现成为图1中服务器120的全部或者一部分。该装置包括:第二接收模块810、第三发送模块820、第三接收模块830、处理模块840和第四发送模块850;
第二接收模块810,用于实现上述步骤202的功能;
第三发送模块820,用于实现上述步骤203的功能;
第三接收模块830,用于实现上述步骤207或313的功能;
处理模块840,用于实现上述步骤208或315的功能;
第四发送模块850,用于实现上述步骤209或316的功能。
可选的,第二接收模块810,还用于实现上述步骤305的功能。
可选的,该装置,还包括:第四接收模块;
第四接收模块,用于实现上述步骤302的功能;
该装置,还包括:存储模块、第一读取模块和识别模块;
存储模块,用于实现上述步骤306的功能;
第一读取模块,用于实现上述步骤307的功能;
识别模块,用于实现上述步骤308的功能;
第三发送模块820,还用于实现上述步骤309的功能;
该装置,还包括:第二读取模块;
第二读取模块,用于实现上述步骤314的功能。
可选的,第三发送模块820,包括:识别单元、查找单元和发送单元;
识别单元,用于实现上述步骤309A的功能;
查找单元,用于实现上述步骤309B的功能;
发送单元,用于实现上述步骤309C的功能。
请参考图9,其示出了本发明一个实施例提供的服务器的结构方框图。该服务器900实现为图1中的服务器120。具体来讲:
服务器900包括中央处理单元(CPU)901、包括随机存取存储器(RAM)902和只读存储器(ROM)903的系统存储器904,以及连接系统存储器904和中央处理单元901的系统总线905。所述服务器900还包括帮助计算机内的各个器件之间传输信息的基本输入/输出系统(I/O系统)906,和用于存储操作系统913、应用程序914和其他程序模块915的大容量存储设备907。
所述基本输入/输出系统906包括有用于显示信息的显示器908和用于用户输入信息的诸如鼠标、键盘之类的输入设备909。其中所述显示器908和输入设备909都通过连接到系统总线905的输入输出控制器910连接到中央处理单元901。所述基本输入/输出系统906还可以包括输入输出控制器910以用于接收和处理来自键盘、鼠标、或电子触控笔等多个其他设备的输入。类似地,输入输出控制器910还提供输出到显示屏、打印机或其他类型的输出设备。
所述大容量存储设备907通过连接到系统总线905的大容量存储控制器(未示出)连接到中央处理单元901。所述大容量存储设备907及其相关联的计算机可读介质为服务器900提供非易失性存储。也就是说,所述大容量存储设备907可以包括诸如硬盘或者CD-ROM驱动器之类的计算机可读介质(未示出)。
不失一般性,所述计算机可读介质可以包括计算机存储介质和通信介质。计算机存储介质包括以用于存储诸如计算机可读指令、数据结构、程序模块或其他数据等信息的任何方法或技术实现的易失性和非易失性、可移动和不可移动介质。计算机存储介质包括RAM、ROM、EPROM、EEPROM、闪存或其他固态存储其技术,CD-ROM、DVD或其他光学存储、磁带盒、磁带、磁盘存储或其他磁性存储设备。当然,本领域技术人员可知所述计算机存储介质不局限于上述几种。上述的系统存储器904和大容量存储设备907可以统称为存储器。
根据本发明的各种实施例,所述服务器900还可以通过诸如因特网等网络连接到网络上的远程计算机运行。也即服务器900可以通过连接在所述系统总线905上的网络接口单元911连接到网络912,或者说,也可以使用网络接口单元911来连接到其他类型的网络或远程计算机系统(未示出)。
所述存储器还包括一个或者一个以上的程序,所述一个或者一个以上程序存储于存储器中,所述一个或者一个以上程序包含用于进行本发明实施例提供的图像处理方法的指令。本领域普通技术人员可以理解上述实施例的图像处理方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,RandomAccess Memory)、磁盘或光盘等。
请参考图10,其示出了本发明一个实施例提供的终端的结构示意图。该终端1000为图1中的终端110。具体来讲:
终端1000可以包括RF(Radio Frequency,射频)电路1010、包括有一个或一个以上计算机可读存储介质的存储器1020、输入单元1030、显示单元1040、传感器1050、音频电路1060、近场通信模块1070、包括有一个或者一个以上处理核心的处理器1080、以及电源1090等部件。本领域技术人员可以理解,图10中示出的终端结构并不构成对终端的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
RF电路1010可用于收发信息或通话过程中,信号的接收和发送,特别地,将基站的下行信息接收后,交由一个或者一个以上处理器1080处理;另外,将涉及上行的数据发送给基站。通常,RF电路1010包括但不限于天线、至少一个放大器、调谐器、一个或多个振荡器、用户身份模块(SIM)卡、收发信机、耦合器、LNA(Low Noise Amplifier,低噪声放大器)、双工器等。此外,RF电路1010还可以通过无线通信与网络和其他设备通信。所述无线通信可以使用任一通信标准或协议,包括但不限于GSM(Global System of Mobile communication,全球移动通讯系统)、GPRS(General Packet Radio Service,通用分组无线服务)、CDMA(Code Division Multiple Access,码分多址)、WCDMA(Wideband Code DivisionMultiple Access,宽带码分多址)、LTE(Long Term Evolution,长期演进)、电子邮件、SMS(Short Messaging Service,短消息服务)等。
存储器1020可用于存储软件程序以及模块,处理器1080通过运行存储在存储器1020的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器1020可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据终端1000的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器1020可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器1020还可以包括存储器控制器,以提供处理器1080和输入单元1030对存储器1020的访问。
输入单元1030可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。具体地,输入单元1030可包括图像输入设备1031以及其他输入设备1032。图像输入设备1031可以是摄像头,也可以是光电扫描设备。除了图像输入设备1031,输入单元1030还可以包括其他输入设备1032。具体地,其他输入设备1032可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
显示单元1040可用于显示由用户输入的信息或提供给用户的信息以及终端1000的各种图形用户接口,这些图形用户接口可以由图形、文本、图标、视频和其任意组合来构成。显示单元1040可包括显示面板1041,可选的,可以采用LCD(Liquid Crystal Display,液晶显示器)、OLED(Organic Light-Emitting Diode,有机发光二极管)等形式来配置显示面板1041。
终端1000还可包括至少一种传感器1050,比如光传感器、运动传感器以及其他传感器。具体地,光传感器可包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板1041的亮度,接近传感器可在终端1000移动到耳边时,关闭显示面板1041和/或背光。作为运动传感器的一种,重力加速度传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;至于终端1000还可配置的陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
音频电路1060、扬声器1061,传声器1062可提供用户与终端1000之间的音频接口。音频电路1060可将接收到的音频数据转换后的电信号,传输到扬声器1061,由扬声器1061转换为声音信号输出;另一方面,传声器1062将收集的声音信号转换为电信号,由音频电路1060接收后转换为音频数据,再将音频数据输出处理器1080处理后,经RF电路1010以发送给比如另一电子设备,或者将音频数据输出至存储器1020以便进一步处理。音频电路1060还可能包括耳塞插孔,以提供外设耳机与终端1000的通信。
终端1000通过近场通信模块1070与外部设备建立近场通信连接,并通过该近场通信连接进行数据交互。本实施例中,该近场通信模块1070具体包括蓝牙模块和/或WiFi模块。
处理器1080是终端1000的控制中心,利用各种接口和线路连接整个手机的各个部分,通过运行或执行存储在存储器1020内的软件程序和/或模块,以及调用存储在存储器1020内的数据,执行终端1000的各种功能和处理数据,从而对手机进行整体监控。可选的,处理器1080可包括一个或多个处理核心;优选的,处理器1080可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器1080中。
终端1000还包括给各个部件供电的电源1090(比如电池),优选的,电源可以通过电源管理系统与处理器1080逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源1090还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
尽管未示出,终端1000还可以包括蓝牙模块等,在此不再赘述。
具体在本实施例中,终端1000还包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行以实现上述图像显示方法。
本领域普通技术人员可以理解上述实施例的图像显示方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于计算机可读存储介质中,存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,RandomAccess Memory)、磁盘或光盘等。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (18)

1.一种图像显示方法,其特征在于,所述方法包括:
向服务器上传目标人脸的目标人脸图像;
向所述服务器发送原始图像对应的第一图像数据;
接收所述服务器发送的增强现实AR模型数据,所述AR模型数据是所述原始图像中包含所述目标人脸时发送的,所述AR模型数据用于渲染至少一个AR模型,所述AR模型用于展示图像处理效果;
根据所述AR模型数据渲染并显示所述AR模型;
向所述服务器发送对目标AR模型的选择信号,所述服务器用于根据所述目标AR模型对应的图像处理参数,对所述原始图像中的所述目标人脸进行图像处理;
接收所述服务器发送的图像处理后的第二图像数据,并进行渲染显示。
2.根据权利要求1所述的方法,其特征在于,所述服务器为网页web服务器,所述向所述服务器发送原始图像对应的第一图像数据,包括:
通过浏览器访问图像处理网页,所述图像处理网页支持网页图形库webGL技术,且所述浏览器支持webGL技术;
通过所述浏览器向所述图像处理网页对应的所述web服务器发送所述第一图像数据;
所述根据所述AR模型数据渲染并显示所述AR模型,包括:
通过webGL技术对所述AR模型数据进行渲染,得到所述AR模型;
在所述图像处理网页中绘制显示所述AR模型。
3.根据权利要求2所述的方法,其特征在于,所述AR模型数据中包含顶点着色器和片段着色器,所述顶点着色器是用于渲染所述AR模型的形状顶点的程序代码,所述片段着色器是用于渲染所述AR模型的颜色和/或纹理的程序代码;
所述通过所述webGL技术对所述AR模型数据进行渲染,得到所述AR模型,包括:
通过所述webGL技术调用图像处理器GPU;
通过所述GPU运行所述顶点着色器和所述片段着色器,渲染得到所述AR模型。
4.一种图像处理方法,其特征在于,所述方法包括:
接收终端上传的目标人脸的目标人脸图像;
接收所述终端发送的原始图像对应的第一图像数据;
当所述原始图像中包含所述目标人脸时,向所述终端发送增强现实AR模型数据,所述终端用于根据所述AR模型数据渲染并显示至少一个AR模型,所述AR模型用于展示图像处理效果;
接收终端发送的对目标AR模型的选择信号;
根据所述目标AR模型对应的图像处理参数,对所述原始图像中的所述目标人脸进行图像处理;
向所述终端发送图像处理后的第二图像数据,所述终端用于对所述第二图像数据进行渲染显示。
5.根据权利要求4所述的方法,其特征在于,所述接收所述终端发送的原始图像对应的第一图像数据,包括:
通过图像处理网页接收所述终端发送的第一图像数据,所述图像处理网页支持网页图形库webGL技术,且所述终端通过支持webGL技术的浏览器访问所述图像处理网页时,通过所述浏览器发送所述第一图像数据。
6.根据权利要求4或5所述的方法,其特征在于,所述接收所述终端发送的原始图像的第一图像数据之后,还包括:
将所述第一图像数据存入缓冲池;
启用第一线程从所述缓冲池中读取所述第一图像数据;
根据所述目标人脸图像识别所述原始图像中是否包含所述目标人脸;
当所述原始图像中包含所述目标人脸时,执行所述向所述终端发送AR模型数据的步骤;
所述根据所述目标AR模型对应的图像处理参数,对所述原始图像中的所述目标人脸进行图像处理之前,还包括:
启用第二线程从所述缓冲池中读取所述第一图像数据。
7.根据权利要求6所述的方法,其特征在于,所述向所述终端发送AR模型数据,包括:
通过预定图像识别技术识别所述原始图像中所述目标人脸的人脸特征,所述人脸特征包括肤色、脸型或人脸器官尺寸中的至少一种;
根据所述目标人脸的人脸特征从AR模型数据库中查找匹配的候选AR模型,所述候选AR模型的人脸特征所述目标人脸的人脸特征的相似度大于阈值;
向所述终端发送所述候选AR模型对应的AR模型数据。
8.一种图像显示装置,其特征在于,所述装置包括:
上传模块,用于向服务器上传目标人脸的目标人脸图像;
第一发送模块,用于向所述服务器发送原始图像对应的第一图像数据;
第一接收模块,用于接收所述服务器发送的增强现实AR模型数据,所述AR模型数据是所述原始图像中包含所述目标人脸时发送的,所述AR模型数据用于渲染至少一个AR模型,所述AR模型用于展示图像处理效果;
第一显示模块,用于根据所述AR模型数据渲染并显示所述AR模型;
第二发送模块,用于向所述服务器发送对目标AR模型的选择信号,所述服务器用于根据所述目标AR模型对应的图像处理参数,对所述原始图像中的所述目标人脸进行图像处理;
第二显示模块,用于接收所述服务器发送的图像处理后的第二图像数据,并进行渲染显示。
9.根据权利要求8所述的装置,其特征在于,所述服务器为网页web服务器,所述第一发送模块,包括:
访问单元,用于通过浏览器访问图像处理网页,所述图像处理网页支持网页图形库webGL技术,且所述浏览器支持webGL技术;
第一发送单元,用于通过所述浏览器向所述图像处理网页对应的所述web服务器发送所述第一图像数据;
所述第一显示模块,包括:
渲染单元,用于通过webGL技术对所述AR模型数据进行渲染,得到所述AR模型;
显示单元,用于在所述图像处理网页中绘制显示所述AR模型。
10.根据权利要求9所述的装置,其特征在于,所述AR模型数据中包含顶点着色器和片段着色器,所述顶点着色器是用于渲染所述AR模型的形状顶点的程序代码,所述片段着色器是用于渲染所述AR模型的颜色和/或纹理的程序代码;
所述渲染单元,用于:
通过所述webGL技术调用图像处理器GPU;
通过所述GPU运行所述顶点着色器和所述片段着色器,渲染得到所述AR模型。
11.一种图像处理装置,其特征在于,所述装置包括:
第四接收模块,用于接收终端上传的目标人脸的目标人脸图像;
第二接收模块,用于接收所述终端发送的原始图像对应的第一图像数据;
第三发送模块,用于当所述原始图像中包含所述目标人脸时,向所述终端发送增强现实AR模型数据,所述终端用于根据所述AR模型数据渲染并显示至少一个AR模型,所述AR模型用于展示图像处理效果;
第三接收模块,用于接收终端发送的对目标AR模型的选择信号;
处理模块,用于根据所述目标AR模型对应的图像处理参数,对所述原始图像中的所述目标人脸进行图像处理;
第四发送模块,用于向所述终端发送图像处理后的第二图像数据,所述终端用于对所述第二图像数据进行渲染显示。
12.根据权利要求11所述的装置,其特征在于,所述第二接收模块,用于:
通过图像处理网页接收所述终端发送的第一图像数据,所述图像处理网页支持网页图形库webGL技术,且所述终端通过支持webGL技术的浏览器访问所述图像处理网页时,通过所述浏览器发送所述第一图像数据。
13.根据权利要求11或12所述的装置,其特征在于,所述装置,还包括:
存储模块,用于将所述第一图像数据存入缓冲池;
第一读取模块,用于启用第一线程从所述缓冲池中读取所述第一图像数据;
识别模块,用于根据所述目标人脸图像识别所述原始图像中是否包含所述目标人脸;
所述装置,还包括:
第二读取模块,用于启用第二线程从所述缓冲池中读取所述第一图像数据。
14.根据权利要求13所述的装置,其特征在于,所述第三发送模块,包括:
识别单元,用于通过预定图像识别技术识别所述原始图像中所述目标人脸的人脸特征,所述人脸特征包括肤色、脸型或人脸器官尺寸中的至少一种;
查找单元,用于根据所述目标人脸的人脸特征从AR模型数据库中查找匹配的候选AR模型,所述候选AR模型的人脸特征所述目标人脸的人脸特征的相似度大于阈值;
发送单元,用于向所述终端发送所述候选AR模型对应的AR模型数据。
15.一种终端,其特征在于,所述终端包括处理器和存储器,所述存储器中存储有至少一条指令,所述指令由所述处理器加载并执行以实现如权利要求1至3任一所述的图像显示方法。
16.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令,所述指令由处理器加载并执行以实现如权利要求1至3任一所述的图像显示方法。
17.一种服务器,其特征在于,所述服务器包括处理器和存储器,所述存储器中存储有至少一条指令,所述指令由所述处理器加载并执行以实现如权利要求4至7任一所述的图像处理方法。
18.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令,所述指令由处理器加载并执行以实现如权利要求4至7任一所述的图像处理方法。
CN201710400342.6A 2017-05-31 2017-05-31 图像显示方法、图像处理方法及装置 Active CN107247548B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201710400342.6A CN107247548B (zh) 2017-05-31 2017-05-31 图像显示方法、图像处理方法及装置
PCT/CN2018/086377 WO2018219120A1 (zh) 2017-05-31 2018-05-10 图像显示方法、图像处理方法、装置、终端及服务器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710400342.6A CN107247548B (zh) 2017-05-31 2017-05-31 图像显示方法、图像处理方法及装置

Publications (2)

Publication Number Publication Date
CN107247548A CN107247548A (zh) 2017-10-13
CN107247548B true CN107247548B (zh) 2018-09-04

Family

ID=60017813

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710400342.6A Active CN107247548B (zh) 2017-05-31 2017-05-31 图像显示方法、图像处理方法及装置

Country Status (2)

Country Link
CN (1) CN107247548B (zh)
WO (1) WO2018219120A1 (zh)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107247548B (zh) * 2017-05-31 2018-09-04 腾讯科技(深圳)有限公司 图像显示方法、图像处理方法及装置
CN107767462B (zh) * 2017-10-16 2023-08-25 北京视据科技有限公司 一种非穿戴增强现实全息展示方法及展示系统
CN107766012A (zh) * 2017-10-18 2018-03-06 重庆德固科技有限公司 基于支持终端和现场美颜的3d打印设备
CN107766013A (zh) * 2017-10-18 2018-03-06 重庆德固科技有限公司 一种支持无线传输的3d打印系统
CN107521110A (zh) * 2017-10-18 2017-12-29 重庆德固科技有限公司 一种能自动美颜的3d打印机
CN107833264B (zh) 2017-11-13 2019-02-01 百度在线网络技术(北京)有限公司 一种图片处理方法、装置、设备和计算机可读存储介质
CN108364324B (zh) * 2018-01-22 2021-10-08 杭州橙云科技创新服务有限公司 图像数据处理方法、装置及电子终端
CN108597028A (zh) * 2018-04-11 2018-09-28 北京邮电大学 一种连续加载Web AR对象的方法、装置及设备
CN108629296A (zh) * 2018-04-17 2018-10-09 广州视源电子科技股份有限公司 图像处理方法和装置
CN109379551B (zh) * 2018-11-26 2021-05-18 京东方科技集团股份有限公司 一种增强内容显示方法、处理方法、显示装置及处理装置
CN109743626B (zh) * 2019-01-02 2022-08-12 京东方科技集团股份有限公司 一种图像显示方法、图像处理方法和相关设备
CN111832060B (zh) * 2019-04-17 2024-07-12 北京搜狗科技发展有限公司 一种信息保护方法、装置和电子设备
CN112700525A (zh) * 2019-10-21 2021-04-23 华为技术有限公司 一种图像处理方法及电子设备
CN111192641B (zh) * 2019-12-20 2023-06-23 深圳晶泰科技有限公司 一种用于复杂web 3D场景下用户交互的系统和方法
CN112099712B (zh) * 2020-09-17 2022-06-07 北京字节跳动网络技术有限公司 人脸图像显示方法、装置、电子设备及存储介质
CN112333468B (zh) * 2020-09-28 2023-05-12 影石创新科技股份有限公司 图像处理方法、装置、设备及存储介质
CN114042311A (zh) * 2021-11-15 2022-02-15 中国联合网络通信集团有限公司 信息处理方法、边缘服务器、电子设备、计算机介质
CN114462117A (zh) * 2021-12-29 2022-05-10 北京五八信息技术有限公司 房屋装修的处理方法、装置、电子设备及存储介质
CN114554079A (zh) * 2022-01-11 2022-05-27 浙江大华技术股份有限公司 智能业务管理方法和智能业务管理系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007066177A (ja) * 2005-09-01 2007-03-15 Media Groove:Kk 画像処理装置、画像処理方法、および、画像処理プログラム
CN103632165A (zh) * 2013-11-28 2014-03-12 小米科技有限责任公司 一种图像处理的方法、装置及终端设备
CN104461215A (zh) * 2014-11-12 2015-03-25 深圳市东信时代信息技术有限公司 基于虚拟增强技术的增强现实系统及方法
CN105321196A (zh) * 2014-07-21 2016-02-10 上海羽舟网络科技有限公司 一种3d图像的处理方法及系统
CN105979035A (zh) * 2016-06-28 2016-09-28 广东欧珀移动通信有限公司 一种增强现实ar图像处理方法、装置及智能终端
CN106101575A (zh) * 2016-06-28 2016-11-09 广东欧珀移动通信有限公司 一种增强现实照片的生成方法、装置及移动终端
CN106250187A (zh) * 2016-07-29 2016-12-21 宇龙计算机通信科技(深圳)有限公司 一种增强现实ar的信息处理方法、装置及系统

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5620674B2 (ja) * 2009-12-15 2014-11-05 キヤノン株式会社 画像処理装置、画像処理装置の制御方法及びプログラム
JP5845830B2 (ja) * 2011-11-09 2016-01-20 ソニー株式会社 情報処理装置、表示制御方法、およびプログラム
KR20130117303A (ko) * 2012-04-18 2013-10-25 삼성전자주식회사 증강 현실 이미지를 디스플레이하기 위한 방법 및 그 전자 장치
US20140176548A1 (en) * 2012-12-21 2014-06-26 Nvidia Corporation Facial image enhancement for video communication
KR20140122054A (ko) * 2013-04-09 2014-10-17 삼성전자주식회사 2차원 이미지를 3차원 이미지로 변환하는 3차원 이미지 변환 장치 및 그 제어 방법
JP6376403B2 (ja) * 2015-05-08 2018-08-22 雅之 澤田 同一人物映像に対する顔画像間欠切出し制御機構を用いたターゲット発見システム
CN104967774B (zh) * 2015-06-05 2018-03-27 广东欧珀移动通信有限公司 一种控制双摄像头拍摄的方法及终端
KR20160146281A (ko) * 2015-06-12 2016-12-21 삼성전자주식회사 전자 장치 및 전자 장치에서 이미지 표시 방법
CN105096241A (zh) * 2015-07-28 2015-11-25 努比亚技术有限公司 人脸图像美化装置及方法
CN105139450B (zh) * 2015-09-11 2018-03-13 重庆邮电大学 一种基于人脸模拟的三维虚拟人物构建方法及系统
CN105657249A (zh) * 2015-12-16 2016-06-08 东莞酷派软件技术有限公司 一种图像处理方法及用户终端
CN105915782A (zh) * 2016-03-29 2016-08-31 维沃移动通信有限公司 一种基于人脸识别的照片获取方法和移动终端
CN106296701A (zh) * 2016-08-15 2017-01-04 北京小米移动软件有限公司 图像处理方法及装置
CN106294820A (zh) * 2016-08-16 2017-01-04 深圳市金立通信设备有限公司 一种指导化妆的方法及终端
CN106303354B (zh) * 2016-08-18 2020-04-28 北京奇虎科技有限公司 一种脸部特效推荐方法及电子设备
CN106303646A (zh) * 2016-08-18 2017-01-04 北京奇虎科技有限公司 一种特效匹配的方法、电子设备及服务器
CN107247548B (zh) * 2017-05-31 2018-09-04 腾讯科技(深圳)有限公司 图像显示方法、图像处理方法及装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007066177A (ja) * 2005-09-01 2007-03-15 Media Groove:Kk 画像処理装置、画像処理方法、および、画像処理プログラム
CN103632165A (zh) * 2013-11-28 2014-03-12 小米科技有限责任公司 一种图像处理的方法、装置及终端设备
CN105321196A (zh) * 2014-07-21 2016-02-10 上海羽舟网络科技有限公司 一种3d图像的处理方法及系统
CN104461215A (zh) * 2014-11-12 2015-03-25 深圳市东信时代信息技术有限公司 基于虚拟增强技术的增强现实系统及方法
CN105979035A (zh) * 2016-06-28 2016-09-28 广东欧珀移动通信有限公司 一种增强现实ar图像处理方法、装置及智能终端
CN106101575A (zh) * 2016-06-28 2016-11-09 广东欧珀移动通信有限公司 一种增强现实照片的生成方法、装置及移动终端
CN106250187A (zh) * 2016-07-29 2016-12-21 宇龙计算机通信科技(深圳)有限公司 一种增强现实ar的信息处理方法、装置及系统

Also Published As

Publication number Publication date
CN107247548A (zh) 2017-10-13
WO2018219120A1 (zh) 2018-12-06

Similar Documents

Publication Publication Date Title
CN107247548B (zh) 图像显示方法、图像处理方法及装置
CN109427083B (zh) 三维虚拟形象的显示方法、装置、终端及存储介质
CN109389664B (zh) 模型贴图渲染方法、装置及终端
CN108933723A (zh) 消息展示方法、装置及终端
US20220206581A1 (en) Communication interface with haptic feedback response
US11989348B2 (en) Media content items with haptic feedback augmentations
US11997422B2 (en) Real-time video communication interface with haptic feedback response
US11531400B2 (en) Electronic communication interface with haptic feedback response
US20240184372A1 (en) Virtual reality communication interface with haptic feedback response
US20220206584A1 (en) Communication interface with haptic feedback response
US20220317775A1 (en) Virtual reality communication interface with haptic feedback response
US20220317774A1 (en) Real-time communication interface with haptic and audio feedback response
US20230120037A1 (en) True size eyewear in real time
US20220319059A1 (en) User-defined contextual spaces
US20240248546A1 (en) Controlling augmented reality effects through multi-modal human interaction
US20220207819A1 (en) Light estimation using neural networks
US20220319125A1 (en) User-aligned spatial volumes
WO2022212144A1 (en) User-defined contextual spaces
US11922587B2 (en) Dynamic augmented reality experience
US20220377309A1 (en) Hardware encoder for stereo stitching
US20220373791A1 (en) Automatic media capture using biometric sensor data
US11825276B2 (en) Selector input device to transmit audio signals
US12050729B2 (en) Real-time communication interface with haptic and audio feedback response
US20220210336A1 (en) Selector input device to transmit media content items
US20230069614A1 (en) High-definition real-time view synthesis

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant