WO2016110188A1 - 一种即时视频中的人脸美化方法和电子设备 - Google Patents

一种即时视频中的人脸美化方法和电子设备 Download PDF

Info

Publication number
WO2016110188A1
WO2016110188A1 PCT/CN2015/098357 CN2015098357W WO2016110188A1 WO 2016110188 A1 WO2016110188 A1 WO 2016110188A1 CN 2015098357 W CN2015098357 W CN 2015098357W WO 2016110188 A1 WO2016110188 A1 WO 2016110188A1
Authority
WO
WIPO (PCT)
Prior art keywords
instant video
video frame
current instant
face
current
Prior art date
Application number
PCT/CN2015/098357
Other languages
English (en)
French (fr)
Inventor
武俊敏
冯加伟
Original Assignee
掌赢信息科技(上海)有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 掌赢信息科技(上海)有限公司 filed Critical 掌赢信息科技(上海)有限公司
Publication of WO2016110188A1 publication Critical patent/WO2016110188A1/zh

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working

Definitions

  • the present invention relates to the field of images, and in particular, to a face beautification method and an electronic device in an instant video.
  • the prior art provides a method for facial beautification in an instant video.
  • the method specifically includes: acquiring a current frame in an instant video, beautifying a face in the current frame, and replacing the original current with the beautified current frame.
  • the frame continues to perform the above steps on the next frame image of the current frame, thereby realizing face beautification in the instant video.
  • the hardware of the mobile terminal such as the smart phone and the tablet cannot meet the hardware requirements of the method, so that the mobile terminal cannot use the method provided by the prior art to perform real-time video.
  • the face is beautified, or when the mobile terminal uses the method provided by the prior art, the processing resources and storage resources of the device are largely occupied, which affects the use of the device, thereby reducing the user experience.
  • the embodiment of the invention provides a face beautification method and an electronic device in the instant video.
  • the technical solution is as follows:
  • a method for beautifying a face in an instant video comprising:
  • the detail map is merged with the filter map to generate a beautified current live video, and the beautified current live video includes at least a beautified face.
  • the method before the predicting the at least one detailed macroblock of the face in the current instant video frame, the method further includes:
  • the obtaining the current by predicting at least one detailed macroblock of a face in an instant video frame includes:
  • the obtaining the current by predicting at least one detailed macroblock of a face in an instant video frame also includes:
  • the filtering the real face in the current instant video frame Obtaining a filter map corresponding to the current instant video frame includes:
  • the detail map is merged with the filtered image
  • the current live video generated after beautification includes:
  • the detail map is merged with the filtered image
  • the current live video generated after beautification includes:
  • an electronic device comprising:
  • a prediction module configured to obtain a detailed map corresponding to the current instant video frame by predicting at least one detailed macroblock of a face in the current instant video frame;
  • a filtering module configured to filter a real face in the current instant video frame, and obtain a filter image corresponding to the current instant video frame
  • a fusion module configured to merge the detail map with the filtered image to generate a beautified current instant video, where the beautified current live video includes at least a beautified human face.
  • the device further includes:
  • a segmentation module configured to divide the current instant video frame to obtain a plurality of macroblocks
  • the filtering module is specifically configured to acquire the at least one detail macroblock from the plurality of macroblocks.
  • the prediction module is specifically configured to:
  • At least one detail of a face in the current instant video frame according to the current instant video frame Macroblocks are used for prediction.
  • the prediction module is further configured to:
  • the device further includes:
  • the filtering module is further configured to perform high frequency filtering on the real face in the current instant video frame, and acquire a filter map corresponding to the current instant video frame.
  • the fusion module is specifically configured to:
  • the merging module is further configured to:
  • a third aspect provides an electronic device, including a display screen, a transmitting module, a receiving module, a memory, and a processor respectively connected to the display screen, the transmitting module, the receiving module, and the memory, wherein
  • the memory stores a set of program codes
  • the processor is configured to call the program code stored in the memory to perform the following operations:
  • the detail map is merged with the filter map to generate a beautified current live video, and the beautified current live video includes at least a beautified face.
  • the processor is configured to invoke program code stored in the memory, and perform the following operations:
  • the processor is configured to invoke the program code stored in the memory, and perform the following operations:
  • the processor is configured to invoke the program code stored in the memory, and perform the following operations:
  • the processor is configured to invoke a program stored in the memory Code, do the following:
  • the processor is configured to invoke a program stored in the memory Code, do the following:
  • the processor is configured to invoke a program stored in the memory Code, do the following:
  • An embodiment of the present invention provides a method and an electronic device for facial glazing in an instant video, including: obtaining a detail map corresponding to a current instant video frame by predicting at least one detailed macroblock of a face in the current instant video frame; The real face in the current instant video frame is filtered to obtain a filter map corresponding to the current instant video frame; the detail map and the filter map are merged to generate the current instant video after the beautification, and the current instant video after the beautification includes at least the beautified person face.
  • FIG. 1 is a schematic diagram of an interaction system according to an embodiment of the present invention
  • FIG. 2 is a schematic diagram of an interaction system according to an embodiment of the present invention.
  • FIG. 3 is a flowchart of a face beautification method in an instant video according to an embodiment of the present invention.
  • FIG. 4 is a flowchart of a method for facializing a face in an instant video according to an embodiment of the present invention
  • FIG. 5 is a schematic structural diagram of an electronic device according to an embodiment of the present invention.
  • FIG. 6 is a schematic structural diagram of an electronic device according to an embodiment of the present invention.
  • An embodiment of the present invention provides a method for facial landscaping in an instant video.
  • the method is applied to an interactive system including at least two mobile terminals and a server.
  • the interactive system may be as shown in FIG. 1 , wherein the mobile terminal 1 is an instant video sender, the mobile terminal 2 is an instant video receiver, and the instant video sent by the mobile terminal 1 is forwarded to the mobile terminal 2 via the server; wherein the mobile terminal can be a smart phone or a tablet (Tablet Personal Computer), which may also be other mobile terminals, and the specific mobile terminal is not limited in the embodiment of the present invention.
  • the mobile terminal includes at least a video input module and a video display module.
  • the video input module can include a camera.
  • the video display module can include a display screen, and at least one instant video program can be run in the mobile terminal, and the instant video program controls the video input module of the mobile terminal. Instant video with the video display module.
  • the execution body of the method provided by the embodiment of the present invention may be any one of the mobile terminal 1, the mobile terminal 2, and the server.
  • the execution subject of the method is the mobile terminal 1
  • the instant is The face in the video is beautified, and then the beautified instant video is sent to the server, and then sent by the server to the mobile terminal 2, and the beautified instant video is displayed by the video display module in the mobile terminal 2;
  • the mobile terminal 1 sends the instant video to the server after inputting the instant video through the video input module of the user, and the server visualizes the face in the instant video, and then sends the beautified face to the server.
  • the mobile terminal 2 displays the beautified instant video by the video display module in the mobile terminal 2; if the execution subject of the method is the mobile terminal 2, the mobile terminal 1 inputs the instant video through its own video input module.
  • the video is sent to the server, and the server sends the instant video to the mobile terminal 2, and the mobile terminal 2 is in the live video. Face beautification, and through its own video display module to display real-time video after the landscaping.
  • the specific implementation body of the method in the interaction system is not limited in the embodiment of the present invention.
  • the method provided by the embodiment of the present invention can also be applied to an interactive system including only the mobile terminal 1 and the mobile terminal 2.
  • the interactive system can be referred to FIG. 2, wherein the mobile terminal 1 is instant. a video sender, the mobile terminal 2 is an instant video receiver, and the mobile terminal includes at least a video input module and a video display module, the video input module can include a camera, the video display module can include a display screen, and at least one instant can be run in the mobile terminal A video program that controls the video input module and the video display module of the mobile terminal to perform instant video.
  • the execution body of the method provided by the embodiment of the present invention may be any one of the mobile terminal 1 and the mobile terminal 2.
  • the execution subject of the method is the mobile terminal 1
  • the mobile terminal 1 is After inputting the live video through the video input module of the user, the face in the instant video is beautified, and then the beautified instant video is sent to the mobile terminal 2, and the beautified instant is displayed by the video display module in the mobile terminal 2.
  • the execution body of the method is the mobile terminal 2
  • the mobile terminal 1 sends the live video to the mobile terminal 2 after inputting the live video through its own video input module, and the mobile terminal 2 beautifies the face in the instant video. And then display the beautified instant video through its own video display module.
  • the specific implementation body of the method in the interaction system is not limited in the embodiment of the present invention.
  • An embodiment of the present invention provides a method and an electronic device for facial glazing in an instant video, including: obtaining a detail map corresponding to a current instant video frame by predicting at least one detailed macroblock of a face in the current instant video frame; Filtering the real face in the current instant video frame, obtaining a filter map corresponding to the current instant video frame; fusing the detail map and the filter map to generate the current instant video after the beautification, and the beautified current live video includes at least the beautified human face. Therefore, by predicting the macroblocks in the current instant video frame and synthesizing the detailed graphs generated after the prediction, the current instant video after the beautification is generated, thereby improving the efficiency of the face beautification in the instant video, increasing User experience.
  • An embodiment of the present invention provides a method for facializing a face in an instant video.
  • the Methods include:
  • At least one detailed macroblock of the face in the current instant video frame is predicted according to the current instant video frame.
  • At least one detailed macroblock of the face in the current instant video frame is predicted according to the last instant video frame of the current instant video frame.
  • the method further includes:
  • the detail map and the filter map are merged to generate a current instant video frame after the fusion
  • An embodiment of the present invention provides a method for facializing a face in an instant video, by synthesizing a detailed macroblock in a current instant video frame, and merging the filtered detail map generated by the prediction to generate a beautified Current live video improves the efficiency of face beautification in instant video and increases users Experience the effect.
  • An embodiment of the present invention provides a method for facializing a face in an instant video. Referring to FIG. 4, the method includes:
  • the size of the macro block may be set according to the size of the current instant video frame
  • the size of the macroblock may be set to m*n; wherein width includes i m, i is a positive integer; height includes j n, and j is a positive integer;
  • the first variance and the second variance of each macroblock are respectively calculated, wherein the first variance is used to indicate whether the macroblock is a flat region, and the second variance is used to indicate whether the macroblock is a detailed macroblock. Specifically, including:
  • stdDef 1 ⁇ 1 indicating that the macroblock is a flat region, otherwise it is a non-flat region, where stdDef 1 represents a first variance and ⁇ 1 represents a first preset threshold;
  • stdDef 2 > ⁇ 2 indicating that the macroblock is a detail macroblock, otherwise it is a non-detail macroblock, wherein stdDef 2 represents a second variance, and ⁇ 2 represents a second preset threshold;
  • a filtering condition may be set, according to which at least one detailed macroblock is obtained from a plurality of macroblocks.
  • the filter condition can be:
  • ⁇ 3 and ⁇ 4 are the third-party difference and the fourth variance corresponding to the respective macroblocks, and the third-party difference and the fourth variance acquisition process and the first variance in step 401
  • the acquisition process is the same as the second variance, and is not described here again.
  • the third-party difference may be any one of the first variance and the second variance, or may be other variances;
  • the fourth variance It can also be any one of the first variance and the second variance, and can also be other variances, which is not limited in the embodiment of the present invention.
  • the process of obtaining at least one detailed macroblock from a plurality of macroblocks may be:
  • At least one detail macroblock may be obtained from a plurality of macroblocks by other means, which is not limited by the embodiment of the present invention.
  • the specific prediction manner is not limited in the embodiment of the present invention.
  • the prediction may be determined to be successful.
  • the determining process may be:
  • a process of obtaining a detail map corresponding to the current instant video frame by predicting at least one detailed macroblock of the face in the current instant video frame may also be:
  • the specific prediction manner is not limited in the embodiment of the present invention.
  • the prediction may be determined to be successful.
  • the determining process may be:
  • the preset condition may be:
  • the fifth variance may be any of the first variance, the second variance, the third-party difference, and the fourth variance
  • One may also be other variances, which are not limited in the embodiment of the present invention.
  • the pixel vertices are replaced by the predicted pixel vertices, and the process is specifically as follows:
  • the macro region where the vertices of the pixel is located is a non-detail macroblock and a non-flat region, and replacing the previous pixel vertices with the predicted pixel vertices after determining that the prediction is successful
  • the specific setting process of the embodiment of the present invention is not limited.
  • the high-frequency filtering of the real face in the current instant video frame can be performed by setting the filtering condition on the basis of the high-frequency filtering parameter.
  • the specific manner of the embodiment of the present invention is not limited.
  • the detail map is merged with the filter map through a detail mask, and the process can be:
  • the detail mask generation condition the detail mask is created, and the preset detail mask generation condition may be:
  • mean is the mean of the variance
  • x is the variance of each detail macroblock
  • y is the variance of each detail after processing
  • ⁇ 7 is the seventh variance corresponding to the variance of the detail macroblock.
  • the detail map and the filter map may be superimposed to realize the fusion of the detail map and the filter map.
  • the fusion of the detail map and the filter map may be implemented by using a preset fusion formula, wherein the embodiment of the present invention is specific to The fusion formula is not limited.
  • the fusion of the detail map and the filter map can be implemented in other manners, and the specific manner of the embodiment of the present invention is not limited.
  • the brightness parameter of the current current video frame after the merging is adjusted according to the ambient brightness in the instant video frame.
  • the specific process in the embodiment of the present invention is not limited.
  • the influence of the face display effect in the current instant video after the beautification is reduced when the current surrounding video frame is dark or bright in the current instant video frame, and the effect is improved. user experience.
  • step 406 to step 407 the detail map and the filter map are merged to generate a beautified current instant video, and the beautified current live video includes at least a beautified face, in addition to the above process, for:
  • the red channel parameter, the yellow channel parameter, and the blue channel parameter of the merged current instant video frame may be adjusted according to at least one of a red channel parameter, a yellow channel parameter, and a blue channel parameter of an environment in the instant video frame.
  • the specific process of the present invention is not limited.
  • the current instant video frame is reduced
  • the effect on the face display effect in the current instant video after the beautification is improved, and the user experience is improved.
  • the brightness parameter, the red channel parameter, the yellow channel parameter, and the blue channel parameter of the current current video frame after the fusion can be adjusted at the same time.
  • An embodiment of the present invention provides a method for facializing a face in an instant video, by synthesizing a detailed macroblock in a current instant video frame, and merging the filtered detail map generated by the prediction to generate a beautified
  • the current instant video improves the efficiency of face beautification in instant video and increases the user experience.
  • an electronic device 5 includes:
  • the prediction module 51 is configured to obtain a detail map corresponding to the current instant video frame by predicting at least one detailed macroblock of the face in the current instant video frame;
  • the filtering module 52 is configured to filter a real face in the current instant video frame, and obtain a filter map corresponding to the current instant video frame.
  • the fusion module 53 is configured to fuse the detail map and the filter map to generate the current instant video after the beautification, and the beautified current instant video includes at least the beautified face.
  • the device further includes:
  • the filtering module 52 is specifically configured to acquire at least one detailed macroblock from a plurality of macroblocks.
  • the prediction module 51 is specifically configured to:
  • the prediction module 51 is further specifically configured to:
  • the device further includes:
  • the filtering module 52 is further configured to perform high-frequency filtering on the real face in the current instant video frame to obtain a filter map corresponding to the current instant video frame.
  • the fusion module 53 is specifically configured to:
  • An embodiment of the present invention provides an electronic device, by synthesizing a detailed macroblock in a current instant video frame, and merging the filtered detail map generated by the prediction to generate a currentized live video, which is improved.
  • the efficiency of face beautification in instant video increases the user experience.
  • An embodiment of the present invention provides an electronic device 6, as shown in FIG. 6, including a display screen 61, a transmitting module 62, a receiving module 63, a memory 64, and a display screen 61, a transmitting module 62, a receiving module 63, and a memory 64, respectively.
  • the connected processor 65 wherein the memory 64 stores a set of program codes, and the processor 65 is configured to call the program code stored in the memory 64 to perform the following operations:
  • the detail map and the filter map are merged to generate the current instant video after the beautification, and the current instant video after the beautification includes at least the beautified face.
  • the processor 65 is configured to call the program code stored in the memory 64, and perform the following operations:
  • the processor 65 is configured to call the program code stored in the memory 64, and perform the following operations:
  • the processor 65 is configured to call the program code stored in the memory 64, and perform the following operations:
  • the processor 65 is configured to call the program code stored in the memory 64, and perform the following operations:
  • the processor 65 is configured to call the program code stored in the memory 64, and perform the following operations:
  • the processor 65 is configured to call the program code stored in the memory 64, and perform the following operations:
  • An embodiment of the present invention provides an electronic device, by synthesizing a detailed macroblock in a current instant video frame, and merging the filtered detail map generated by the prediction to generate a currentized live video, which is improved.
  • the efficiency of face beautification in instant video increases the user experience.
  • Embodiments of the present invention provide a face beautification system in an instant video, and the system includes
  • a prediction device configured to obtain a detail map corresponding to the current instant video frame by predicting at least one detailed macroblock of the face in the current instant video frame;
  • Filtering device for filtering real faces in the current instant video frame to obtain current instant view a filter map corresponding to the frequency frame
  • the fusion device is configured to fuse the detail map and the filter map to generate the current instant video after the beautification, and the current instant video after the beautification includes at least the beautified face.
  • An embodiment of the present invention provides a face beautification system in an instant video, which is formed by predicting a detailed macroblock in a current instant video frame, and merging the filtered detail map generated by the prediction to generate a beautified Current live video improves the efficiency of face beautification in instant video and increases user experience
  • the method for performing the face beautification in the instant video in the electronic device provided by the foregoing embodiment is only illustrated by the division of the foregoing functional modules. In actual applications, the functions may be assigned differently according to needs.
  • the function module is completed, that is, the internal structure of the device and the device are divided into different functional modules to complete all or part of the functions described above.
  • the method and the device embodiments provided by the foregoing embodiments are in the same concept, and the specific implementation process is described in detail in the method embodiments, and details are not described herein again.
  • a person skilled in the art may understand that all or part of the steps of implementing the above embodiments may be completed by hardware, or may be instructed by a program to execute related hardware, and the program may be stored in a computer readable storage medium.
  • the storage medium mentioned may be a read only memory, a magnetic disk or an optical disk or the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)

Abstract

一种即时视频中的人脸美化方法和电子设备,属于图像领域,该方法包括:通过对当前即时视频帧中人脸的至少一个细节宏块进行预测,获取当前即时视频帧对应的细节图(301);对当前即时视频帧中真实人脸进行滤波,获取当前即时视频帧对应的滤波图(302);将细节图与滤波图进行融合,生成美化后的当前即时视频,美化后的当前即时视频至少包括美化后的人脸(303)。从而通过对当前即时视频帧中的细节宏块进行预测,并将预测后生成的细节图和滤波图进行融合,生成美化后的当前即时视频,提高了即时视频中人脸美化的效率,增加了用户体验效果。

Description

一种即时视频中的人脸美化方法和电子设备 技术领域
本发明涉及图像领域,特别涉及一种即时视频中的人脸美化方法和电子设备。
背景技术
随着即时视频应用在移动终端上的普及,使得越来越多的用户通过即时视频应用来实现与他人之间的交互,然而,由于移动终端设备的局限性以及交互场景摄像环境的影响,导致即时视频的质量较差,尤其是即时视频中的人脸画面质量较差,所以需要提供一种即时视频中的人脸美化方法。
现有技术提供一种即时视频中的人脸美化方法,该方法具体包括:获取即时视频中的当前帧,对当前帧中的人脸进行美化,并利用美化后的当前帧替换原有的当前帧,对当前帧的下一帧图像继续执行上述步骤,从而实现即时视频中的人脸美化。
由于现有技术提供的方法对设备的硬件要求较高,而如智能手机和平板电脑等移动终端的硬件无法满足该方法的硬件要求,使得移动终端无法使用现有技术提供的方法进行即时视频中的人脸美化,或者,在移动终端使用现有技术提供的方法时,大量占用设备的处理资源和存储资源,影响设备的使用,从而降低了用户体验效果。
发明内容
为了提高即时视频中人脸美化的效率,增加用户体验效果,本发明实施例提供了一种即时视频中的人脸美化方法和电子设备。所述技术方案如下:
第一方面,提供了一种即时视频中的人脸美化方法,所述方法包括:
通过对当前即时视频帧中人脸的至少一个细节宏块进行预测,获取所述当前即时视频帧对应的细节图;
对所述当前即时视频帧中真实人脸进行滤波,获取所述当前即时视频帧对应的滤波图;
将所述细节图与所述滤波图进行融合,生成美化后的当前即时视频,所述美化后的当前即时视频至少包括美化后的人脸。
结合第一方面,在第一种可能的实现方式中,所述通过对当前即时视频帧中人脸的至少一个细节宏块进行预测之前,所述方法还包括:
将所述当前即时视频帧进行分割,获取多个宏块;
从所述多个宏块中获取所述至少一个细节宏块。
结合第一方面或第一方面的第一种可能的实现方式,在第二种可能的实现方式中,所述通过对即时视频帧中人脸的至少一个细节宏块进行预测,获取所述当前即时视频帧对应的细节图包括:
根据所述当前即时视频帧,对所述当前即时视频帧中人脸的至少一个细节宏块进行预测。
结合第一方面或第一方面的第一种可能的实现方式,在第三种可能的实现方式中,所述通过对即时视频帧中人脸的至少一个细节宏块进行预测,获取所述当前即时视频帧对应的细节图还包括:
根据所述当前即时视频帧的上一个即时视频帧,对所述当前即时视频帧中人脸的至少一个细节宏块进行预测。
结合第一方面的第一种可能的实现方式至第一方面的第三种可能的实现方式,在第四种可能的实现方式中,所述对所述当前即时视频帧中真实人脸进行滤波,获取所述当前即时视频帧对应的滤波图包括:
设置高频滤波参数;
对所述当前即时视频帧中真实人脸进行高频滤波,获取所述当前即时视频 帧对应的滤波图。
结合第一方面的第一种可能的实现方式至第一方面的第四种可能的实现方式,在第五种可能的实现方式中,所述将所述细节图与所述滤波图进行融合,生成美化后的当前即时视频包括:
将所述细节图与所述滤波图进行融合,生成融合后的当前即时视频帧;
调整所述融合后的当前即时视频帧的亮度参数,生成所述美化后的当前即时视频。
结合第一方面的第一种可能的实现方式至第一方面的第四种可能的实现方式,在第六种可能的实现方式中,所述将所述细节图与所述滤波图进行融合,生成美化后的当前即时视频包括:
将所述细节图与所述滤波图进行融合,生成融合后的当前即时视频帧;
调整所述融合后的当前即时视频帧的红色通道参数、黄色通道参数以及蓝色通道参数中的至少一个,生成所述美化后的当前即时视频。
第二方面,提供了一种电子设备,其特征在于,所述设备包括:
预测模块,用于通过对当前即时视频帧中人脸的至少一个细节宏块进行预测,获取所述当前即时视频帧对应的细节图;
滤波模块,用于对所述当前即时视频帧中真实人脸进行滤波,获取所述当前即时视频帧对应的滤波图;
融合模块,用于将所述细节图与所述滤波图进行融合,生成美化后的当前即时视频,所述美化后的当前即时视频至少包括美化后的人脸。
结合第二方面,在第一种可能的实现方式中,所述设备还包括:
分割模块,用于将所述当前即时视频帧进行分割,获取多个宏块;
所述滤波模块具体用于从所述多个宏块中获取所述至少一个细节宏块。
结合第二方面或第二方面的第一种可能的实现方式,在第二种可能的实现方式中,所述预测模块具体用于:
根据所述当前即时视频帧,对所述当前即时视频帧中人脸的至少一个细节 宏块进行预测。
结合第二方面或第二方面的第一种可能的实现方式,在第三种可能的实现方式中,所述预测模块还具体用于:
根据所述当前即时视频帧的上一个即时视频帧,对所述当前即时视频帧中人脸的至少一个细节宏块进行预测。
结合第二方面的第一种可能的实现方式至第二方面的第三种任一可能的实现方式,在第四种可能的实现方式中,所述设备还包括:
设置模块,用于设置高频滤波参数;
所述滤波模块还用于对所述当前即时视频帧中真实人脸进行高频滤波,获取所述当前即时视频帧对应的滤波图。
结合第二方面的第一种可能的实现方式至第二方面的第四种任一可能的实现方式,在第五种可能的实现方式中,所述融合模块具体用于:
将所述细节图与所述滤波图进行融合,生成融合后的当前即时视频帧;
调整所述融合后的当前即时视频帧的亮度参数,生成所述美化后的当前即时视频。
结合第二方面的第一种可能的实现方式至第二方面的第四种任一可能的实现方式,在第六种可能的实现方式中,所述融合模块还用于:
将所述细节图与所述滤波图进行融合,生成融合后的当前即时视频帧;
调整所述融合后的当前即时视频帧的红色通道参数、黄色通道参数以及蓝色通道参数中的至少一个,生成所述美化后的当前即时视频。
第三方面,提供了一种电子设备,包括显示屏、发送模块、接收模块、存储器以及分别与所述显示屏、所述发送模块、所述接收模块、所述存储器连接的处理器,其中,所述存储器中存储一组程序代码,所述处理器用于调用所述存储器中存储的程序代码,执行以下操作:
通过对当前即时视频帧中人脸的至少一个细节宏块进行预测,获取所述当前即时视频帧对应的细节图;
对所述当前即时视频帧中真实人脸进行滤波,获取所述当前即时视频帧对应的滤波图;
将所述细节图与所述滤波图进行融合,生成美化后的当前即时视频,所述美化后的当前即时视频至少包括美化后的人脸。
结合第三方面,在第一种可能的实现方式中,所述处理器用于调用所述存储器中存储的程序代码,执行以下操作:
将所述当前即时视频帧进行分割,获取多个宏块;
从所述多个宏块中获取所述至少一个细节宏块。
结合第三方面或第三方面的第一种可能的实现方式,在第二种可能的实现方式中,所述处理器用于调用所述存储器中存储的程序代码,执行以下操作:
根据所述当前即时视频帧,对所述当前即时视频帧中人脸的至少一个细节宏块进行预测。
结合第三方面或第三方面的第一种可能的实现方式,在第三种可能的实现方式中,所述处理器用于调用所述存储器中存储的程序代码,执行以下操作:
根据所述当前即时视频帧的上一个即时视频帧,对所述当前即时视频帧中人脸的至少一个细节宏块进行预测。
结合第三方面的第一种可能的实现方式至第三方面的第三种任一可能的实现方式,在第四种可能的实现方式中,所述处理器用于调用所述存储器中存储的程序代码,执行以下操作:
设置高频滤波参数;
对所述当前即时视频帧中真实人脸进行高频滤波,获取所述当前即时视频帧对应的滤波图。
结合第三方面的第一种可能的实现方式至第三方面的第四种任一可能的实现方式,在第五种可能的实现方式中,所述处理器用于调用所述存储器中存储的程序代码,执行以下操作:
将所述细节图与所述滤波图进行融合,生成融合后的当前即时视频帧;
调整所述融合后的当前即时视频帧的亮度参数,生成所述美化后的当前即时视频。
结合第三方面的第一种可能的实现方式至第三方面的第四种任一可能的实现方式,在第六种可能的实现方式中,所述处理器用于调用所述存储器中存储的程序代码,执行以下操作:
将所述细节图与所述滤波图进行融合,生成融合后的当前即时视频帧;
调整所述融合后的当前即时视频帧的红色通道参数、黄色通道参数以及蓝色通道参数中的至少一个,生成所述美化后的当前即时视频。
本发明实施例提供了一种即时视频中的人脸美化方法和电子设备,包括:通过对当前即时视频帧中人脸的至少一个细节宏块进行预测,获取当前即时视频帧对应的细节图;当前即时视频帧中真实人脸进行滤波,获取当前即时视频帧对应的滤波图;将细节图与滤波图进行融合,生成美化后的当前即时视频,美化后的当前即时视频至少包括美化后的人脸。通过将通过对当前即时视频帧中的细节宏块进行预测,并将预测后生成的细节图滤波图进行融合,生成美化后的当前即时视频,提高了即时视频中人脸美化的效率,增加了用户体验效果。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种交互系统示意图;
图2是本发明实施例提供的一种交互系统示意图;
图3是本发明实施例提供的一种即时视频中的人脸美化方法流程图;
图4是本发明实施例提供的一种即时视频中的人脸美化方法流程图;
图5是本发明实施例提供的一种电子设备结构示意图;
图6是本发明实施例提供的一种电子设备结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
本发明实施例提供了一种即时视频中的人脸美化方法,该方法应用于一种包括至少两个移动终端和服务器的交互系统中,该交互系统可以参照图1所示,其中,移动终端1为即时视频发送方,移动终端2为即时视频接收方,移动终端1所发送的即时视频经由服务器转发至移动终端2;其中,该移动终端可以是智能手机(Smart Phone),可以是平板电脑(Tablet Personal Computer),还可以是其他移动终端,本发明实施例对具体的移动终端不加以限定。移动终端至少包括视频输入模块和视频显示模块,视频输入模块可以包括摄像头,视频显示模块可以包括显示屏,且移动终端中至少可以运行一即时视频程序,该即时视频程序控制移动终端的视频输入模块和视频显示模块进行即时视频。
特别的,本发明实施例所提供的方法的执行主体,即电子设备,可以是移动终端1、移动终端2和服务器中的任意一个,若该方法的执行主体是移动终端1,则对该即时视频中的人脸进行美化,然后将美化后的即时视频发送至服务器,再由服务器发送至移动终端2,由移动终端2中的视频显示模块显示该美化后的即时视频;若该方法的执行主体是服务器,则移动终端1在通过自身的视频输入模块输入即时视频后,将该即时视频发送至服务器,由服务器对即时视频中的人脸进行美化,再将该美化后的人脸发送至移动终端2,由移动终端2中的视频显示模块显示该美化后的即时视频;若该方法的执行主体是移动终端2,移动终端1在通过自身的视频输入模块输入即时视频后,将该即时视频发送至服务器,服务器将该即时视频发送至移动终端2,移动终端2对即时视频中的人脸进行美化,再通过自身的视频显示模块显示该美化后的即时视频。本发明实施例对该交互系统中的该方法的具体的执行主体不加以限定。
除此之外,本发明实施例所提供的方法还可以应用于一种只包括移动终端1和移动终端2的交互系统中,该交互系统可以参照图2所示,其中,移动终端1为即时视频发送方,移动终端2为即时视频接收方,且移动终端至少包括视频输入模块和视频显示模块,视频输入模块可以包括摄像头,视频显示模块可以包括显示屏,且移动终端中至少可以运行一即时视频程序,该即时视频程序控制移动终端的视频输入模块和视频显示模块进行即时视频。
特别的,本发明实施例所提供的方法的执行主体,即电子设备,可以是移动终端1和移动终端2中的任意一个,若该方法的执行主体是移动终端1,则该移动终端1在通过自身的视频输入模块输入即时视频之后,对该即时视频中的人脸进行美化,然后将美化后的即时视频发送至移动终端2,由移动终端2中的视频显示模块显示该美化后的即时视频;若该方法的执行主体是移动终端2,移动终端1在通过自身的视频输入模块输入即时视频后,将该即时视频发送至移动终端2,移动终端2对即时视频中的人脸进行美化,再通过自身的视频显示模块显示该美化后的即时视频。本发明实施例对该交互系统中的该方法的具体的执行主体不加以限定。
本发明实施例提供了一种即时视频中的人脸美化方法和电子设备,包括:通过对当前即时视频帧中人脸的至少一个细节宏块进行预测,获取当前即时视频帧对应的细节图;对当前即时视频帧中真实人脸进行滤波,获取当前即时视频帧对应的滤波图;将细节图与滤波图进行融合,生成美化后的当前即时视频,美化后的当前即时视频至少包括美化后的人脸。从而通过将通过对当前即时视频帧中的细节宏块进行预测,并将预测后生成的细节图滤波图进行融合,生成美化后的当前即时视频,提高了即时视频中人脸美化的效率,增加了用户体验效果。
实施例一
本发明实施例提供了一种即时视频中的人脸美化方法,参照图3所示,该 方法包括:
301、通过对当前即时视频帧中人脸的至少一个细节宏块进行预测,获取当前即时视频帧对应的细节图。
具体的,根据当前即时视频帧,对当前即时视频帧中人脸的至少一个细节宏块进行预测。
可选的,根据当前即时视频帧的上一个即时视频帧,对当前即时视频帧中人脸的至少一个细节宏块进行预测。
可选的,在步骤301之前,还包括:
将当前即时视频帧进行分割,获取多个宏块;
从多个宏块中获取至少一个细节宏块。
302、对当前即时视频帧中真实人脸进行滤波,获取当前即时视频帧对应的滤波图。
具体的,设置高频滤波参数;
对当前即时视频帧中真实人脸进行高频滤波,获取当前即时视频帧对应的滤波图。
303、将细节图与滤波图进行融合,生成美化后的当前即时视频,美化后的当前即时视频至少包括美化后的人脸。
具体的,将细节图与滤波图进行融合,生成融合后的当前即时视频帧;
调整融合后的当前即时视频帧的亮度参数,生成美化后的当前即时视频。
可选的,
将细节图与滤波图进行融合,生成融合后的当前即时视频帧;
调整融合后的当前即时视频帧的红色通道参数、黄色通道参数以及蓝色通道参数中的至少一个,生成美化后的当前即时视频。
本发明实施例提供了一种即时视频中的人脸美化方法,通过将通过对当前即时视频帧中的细节宏块进行预测,并将预测后生成的细节图滤波图进行融合,生成美化后的当前即时视频,提高了即时视频中人脸美化的效率,增加了用户 体验效果。
实施例二
本发明实施例提供了一种即时视频中的人脸美化方法,参照图4所示,该方法包括:
401、将当前即时视频帧进行分割,获取多个宏块。
具体的,可以根据当前即时视频帧的尺寸,设置宏块的尺寸;
假设当前即时视频帧的尺寸为width*height,则可以设置宏块的尺寸为m*n;其中,width包括i个m,i为正整数;height包括j个n,j为正整数;
在完成分割之后,分别计算每一个宏块的第一方差和第二方差,其中,第一方差用于指示宏块是否为平坦区域,第二方差用于指示宏块是否为细节宏块,具体包括:
若stdDef11,则指示宏块为平坦区域,否则为非平坦区域,其中stdDef1表示第一方差,δ1表示第一预设阈值;
若stdDef22,则指示宏块为细节宏块,否则为非细节宏块,其中,stdDef2表示第二方差,δ2表示第二预设阈值;
402、从多个宏块进行滤波,获取至少一个细节宏块。
具体的,可以设置过滤条件,根据该过滤条件,从多个宏块中获取至少一个细节宏块。示例性的,该过滤条件可以为:
r>δ3&r-b>δ4
其中,r和b分别为预设参数,δ3和δ4为分别宏块所对应的第三方差和第四方差,该第三方差与第四方差的获取过程与步骤401中第一方差和第二方差的获取过程相同,此处再不加以赘述,且在实际应用中,该第三方差可以为第一方差和第二方差中的任意一个,也可以为其他方差;该第四方差也可以为第一方差和第二方差中的任意一个,也可以为其他方差,本发明实施例不加以限定。
根据该过滤条件,从多个宏块中获取至少一个细节宏块的过程可以为:
分别判断任意一个宏块对应的第三方差和第四方差是否满足该过滤条件, 则确定为细节宏块,若不满足,则继续对下一个宏块重复上述过程。
除此之外,还可以通过其他方式,从多个宏块中获取至少一个细节宏块,本发明实施例不加以限定。
403、根据当前即时视频帧,对当前即时视频帧中人脸的至少一个细节宏块进行预测,获取当前即时视频帧对应的细节图。
具体的,本发明实施例对具体的预测方式不加以限定,在预测完成之后,还可以判断预测是否成功,该判断过程可以为:
获取宏块中的任意一个预测像素顶点,并在该预测像素顶点的周围搜索其他满足预设条件的像素点,该预设条件可以为:
|r-ri|<δ5,其中,δ5是宏块对应的第五方差,在实际应用中,该第五方差可以为第一方差、第二方差、第三方差和第四方差中的任意一个,也可以为其他方差,本发明实施例不加以限定。
若该预测像素顶点的周围的任意一个像素点满足该预设条件,则判定预测成功。
特别的,步骤403是通过对当前即时视频帧中人脸的至少一个细节宏块进行预测,获取当前即时视频帧对应的细节图的过程,除了上述过程之外,还可以为:
根据当前即时视频帧的上一个即时视频帧,对当前即时视频帧中人脸的至少一个细节宏块进行预测。
具体的,本发明实施例对具体的预测方式不加以限定,在预测完成之后,还可以判断预测是否成功,该判断过程可以为:
获取宏块中的任意一个预测像素顶点,并在该预测像素顶点在上一帧所在的视频帧中搜索其他满足预设条件的像素点,该预设条件可以为:
r-ri|<δ6,其中,δ6是宏块对应的第六方差,在实际应用中,该第五方差可以为第一方差、第二方差、第三方差和第四方差中的任意一个,也可以为其他方差,本发明实施例不加以限定。
若该预测像素顶点在上一帧所在的视频帧中的任意一个像素点满足该预设条件,则判定预测成功。
在判定预测成功预测之后,利用预测像素顶点替换之前的像素顶点,其过程具体为:
确定该测像素顶点所在的宏区是非细节宏块和非平坦区域,则在判定预测成功之后,用预测像素顶点替换之前的像素顶点
在判定预测不成功,则对该视频帧中的每个像素顶点执行线性滤波或者双边滤波中的任意一个。
通过在预测成功后,利用预测像素点替换之前的像素顶点,在预测不成功后,对该视频帧中的每个像素点执行线性滤波或者双边滤波中的任意一个,可以提高即时视频中的人脸美化效率。
404、设置高频滤波参数。
具体的,本发明实施例对具体的设置过程不加以限定。
405、对当前即时视频帧中真实人脸进行高频滤波,获取当前即时视频帧对应的滤波图。
具体的,可以在高频滤波参数的基础上,通过设置滤波条件来对当前即时视频帧中真实人脸进行高频滤波,本发明实施例对具体的方式不加以限定。
特别的,步骤404至步骤405是对当前即时视频帧中真实人脸进行滤波,获取当前即时视频帧对应的滤波图的过程,由于视频信号中的高频信号为噪声信号,所以可以通过过滤该视频信号中高频信号,使得在对即时视频中的人脸进行美化的过程中,无需对该高频信号进行处理,从而提高了即时视频中的人脸美化效率。
406、将细节图与滤波图进行融合,生成融合后的当前即时视频帧。
具体的,通过细节面具,将细节图与滤波图进行融合,该过程可以为:
根据细节图,生成细节面具;
获取每个细节宏块的方差的均值,然后根据在该均值的基础上,通过预设 细节面具生成条件,制作细节mask,该预设细节面具生成条件可以为:
if|x-mean|<δ7
y=x-mean
else y=0
其中,mean为该方差的均值,x为每个细节宏块的方差,y为处理后的每个细节的方差,δ7为细节宏块的方差对应的第七方差。
可以将细节图与滤波图进行叠加,实现细节图与滤波图的融合,除此之外,还可以通过预设的融合公式,实现细节图与滤波图的融合,其中,本发明实施例对具体的融合公式不加以限定,除此之外,还可以通过其他方式,实现细节图与滤波图的融合,本发明实施例对具体的方式不加以限定。
407、调整融合后的当前即时视频帧的亮度参数,生成美化后的当前即时视频。
具体的,可以根据即时视频帧中的环境亮度来调整融合后的当前即时视频帧的亮度参数,本发明实施例对具体的过程不加以限定。
通过调整融合后的当前即时视频帧的亮度参数,减小了在当前即时视频帧中人脸周围环境较暗或者较亮时,对美化后的当前即时视频中人脸显示效果的影响,提高了用户体验。
特别的,步骤406至步骤407是将细节图与滤波图进行融合,生成美化后的当前即时视频,美化后的当前即时视频至少包括美化后的人脸的过程,除了上述过程之外,还可以为:
将细节图与滤波图进行融合,生成融合后的当前即时视频帧;
调整融合后的当前即时视频帧的红色通道参数、黄色通道参数以及蓝色通道参数中的至少一个,生成美化后的当前即时视频。
具体的,可以根据即时视频帧中的环境的红色通道参数、黄色通道参数以及蓝色通道参数中的至少一个来调整融合后的当前即时视频帧的红色通道参数、黄色通道参数以及蓝色通道参数,本发明实施例对具体的过程不加以限定。
通过调整融合后的当前即时视频帧的亮度参数,减小了在当前即时视频帧 中人脸周围环境较暗或者较亮时,对美化后的当前即时视频中人脸显示效果的影响,提高了用户体验。
在实际应用中,可以同时调整融合后的当前即时视频帧的亮度参数、红色通道参数、黄色通道参数以及蓝色通道参数。
本发明实施例提供了一种即时视频中的人脸美化方法,通过将通过对当前即时视频帧中的细节宏块进行预测,并将预测后生成的细节图滤波图进行融合,生成美化后的当前即时视频,提高了即时视频中人脸美化的效率,增加了用户体验效果。
实施例四
本发明实施例提供了一种电子设备5,参照图5所示,设备5包括:
预测模块51,用于通过对当前即时视频帧中人脸的至少一个细节宏块进行预测,获取当前即时视频帧对应的细节图;
滤波模块52,用于对当前即时视频帧中真实人脸进行滤波,获取当前即时视频帧对应的滤波图;
融合模块53,用于将细节图与滤波图进行融合,生成美化后的当前即时视频,美化后的当前即时视频至少包括美化后的人脸。
可选的,设备还包括:
分割模块,用于将当前即时视频帧进行分割,获取多个宏块;
滤波模块52具体用于从多个宏块中获取至少一个细节宏块。
可选的,预测模块51具体用于:
根据当前即时视频帧,对当前即时视频帧中人脸的至少一个细节宏块进行预测。
可选的,预测模块51还具体用于:
根据当前即时视频帧的上一个即时视频帧,对当前即时视频帧中人脸的至少一个细节宏块进行预测。
可选的,设备还包括:
设置模块,用于设置高频滤波参数;
滤波模块52还用于对当前即时视频帧中真实人脸进行高频滤波,获取当前即时视频帧对应的滤波图。
可选的,融合模块53具体用于:
将细节图与滤波图进行融合,生成融合后的当前即时视频帧;
调整融合后的当前即时视频帧的亮度参数,生成美化后的当前即时视频。
可选的,融合模块53还用于:
将细节图与滤波图进行融合,生成融合后的当前即时视频帧;
调整融合后的当前即时视频帧的红色通道参数、黄色通道参数以及蓝色通道参数中的至少一个,生成美化后的当前即时视频。
本发明实施例提供了一种电子设备,通过将通过对当前即时视频帧中的细节宏块进行预测,并将预测后生成的细节图滤波图进行融合,生成美化后的当前即时视频,提高了即时视频中人脸美化的效率,增加了用户体验效果。
实施例五
本发明实施例提供了一种电子设备6,参照图6所示,包括显示屏61、发送模块62、接收模块63、存储器64以及分别与显示屏61、发送模块62、接收模块63、存储器64连接的处理器65,其中,存储器64中存储一组程序代码,处理器65用于调用存储器64中存储的程序代码,执行以下操作:
通过对当前即时视频帧中人脸的至少一个细节宏块进行预测,获取当前即时视频帧对应的细节图;
对当前即时视频帧中真实人脸进行滤波,获取当前即时视频帧对应的滤波图;
将细节图与滤波图进行融合,生成美化后的当前即时视频,美化后的当前即时视频至少包括美化后的人脸。
可选的,处理器65用于调用存储器64中存储的程序代码,执行以下操作:
将当前即时视频帧进行分割,获取多个宏块;
从多个宏块中获取至少一个细节宏块。
可选的,处理器65用于调用存储器64中存储的程序代码,执行以下操作:
根据当前即时视频帧,对当前即时视频帧中人脸的至少一个细节宏块进行预测。
可选的,处理器65用于调用存储器64中存储的程序代码,执行以下操作:
根据当前即时视频帧的上一个即时视频帧,对当前即时视频帧中人脸的至少一个细节宏块进行预测。
可选的,处理器65用于调用存储器64中存储的程序代码,执行以下操作:
设置高频滤波参数;
对当前即时视频帧中真实人脸进行高频滤波,获取当前即时视频帧对应的滤波图
可选的,处理器65用于调用存储器64中存储的程序代码,执行以下操作:
将细节图与滤波图进行融合,生成融合后的当前即时视频帧;
调整融合后的当前即时视频帧的亮度参数,生成美化后的当前即时视频。
可选的,处理器65用于调用存储器64中存储的程序代码,执行以下操作:
将细节图与滤波图进行融合,生成融合后的当前即时视频帧;
调整融合后的当前即时视频帧的红色通道参数、黄色通道参数以及蓝色通道参数中的至少一个,生成美化后的当前即时视频。
本发明实施例提供了一种电子设备,通过将通过对当前即时视频帧中的细节宏块进行预测,并将预测后生成的细节图滤波图进行融合,生成美化后的当前即时视频,提高了即时视频中人脸美化的效率,增加了用户体验效果。
实施例六
本发明实施例提供了一种即时视频中的人脸美化系统,该系统包括
预测设备,用于通过对当前即时视频帧中人脸的至少一个细节宏块进行预测,获取当前即时视频帧对应的细节图;
滤波设备,用于对当前即时视频帧中真实人脸进行滤波,获取当前即时视 频帧对应的滤波图;
融合设备,用于将细节图与滤波图进行融合,生成美化后的当前即时视频,美化后的当前即时视频至少包括美化后的人脸。
本发明实施例提供了一种即时视频中的人脸美化系统,通过将通过对当前即时视频帧中的细节宏块进行预测,并将预测后生成的细节图滤波图进行融合,生成美化后的当前即时视频,提高了即时视频中人脸美化的效率,增加了用户体验效果
需要说明的是:上述实施例提供的电子设备在执行即时视频中的人脸美化方法,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置及设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的方法及设备施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (15)

  1. 一种即时视频中的人脸美化方法,其特征在于,所述方法包括:
    通过对当前即时视频帧中人脸的至少一个细节宏块进行预测,获取所述当前即时视频帧对应的细节图;
    对所述当前即时视频帧中真实人脸进行滤波,获取所述当前即时视频帧对应的滤波图;
    将所述细节图与所述滤波图进行融合,生成美化后的当前即时视频,所述美化后的当前即时视频至少包括美化后的人脸。
  2. 根据权利要求1所述的方法,其特征在于,所述通过对即时视频帧中人脸的至少一个细节宏块进行预测,获取所述当前即时视频帧对应的细节图包括:
    根据所述当前即时视频帧,对所述当前即时视频帧中人脸的至少一个细节宏块进行预测。
  3. 根据权利要求1或2所述的方法,其特征在于,所述通过对即时视频帧中人脸的至少一个细节宏块进行预测,获取所述当前即时视频帧对应的细节图还包括:
    根据所述当前即时视频帧的上一个即时视频帧,对所述当前即时视频帧中人脸的至少一个细节宏块进行预测。
  4. 根据权利要求1至3任一所述的方法,其特征在于,所述对所述当前即时视频帧中真实人脸进行滤波,获取所述当前即时视频帧对应的滤波图包括:
    设置高频滤波参数;
    对所述当前即时视频帧中真实人脸进行高频滤波,获取所述当前即时视频帧对应的滤波图。
  5. 根据权利要求1至4任一所述的方法,其特征在于,所述将所述细节图与所述滤波图进行融合,生成美化后的当前即时视频包括:
    将所述细节图与所述滤波图进行融合,生成融合后的当前即时视频帧;
    调整所述融合后的当前即时视频帧的亮度参数,生成所述美化后的当前即时视频。
  6. 一种电子设备,其特征在于,所述设备包括:
    预测模块,用于通过对当前即时视频帧中人脸的至少一个细节宏块进行预测,获取所述当前即时视频帧对应的细节图;
    滤波模块,用于对所述当前即时视频帧中真实人脸进行滤波,获取所述当前即时视频帧对应的滤波图;
    融合模块,用于将所述细节图与所述滤波图进行融合,生成美化后的当前即时视频,所述美化后的当前即时视频至少包括美化后的人脸。
  7. 根据权利要求6所述的设备,其特征在于,所述预测模块具体用于:
    根据所述当前即时视频帧,对所述当前即时视频帧中人脸的至少一个细节宏块进行预测。
  8. 根据权利要求6或7所述的设备,其特征在于,所述预测模块还具体用于:
    根据所述当前即时视频帧的上一个即时视频帧,对所述当前即时视频帧中人脸的至少一个细节宏块进行预测。
  9. 根据权利要求6至8任一所述的设备,其特征在于,所述设备还包括:
    设置模块,用于设置高频滤波参数;
    所述滤波模块还用于对所述当前即时视频帧中真实人脸进行高频滤波,获取所述当前即时视频帧对应的滤波图。
  10. 根据权利要求6至9任一所述的设备,其特征在于,所述融合模块具体用于:
    将所述细节图与所述滤波图进行融合,生成融合后的当前即时视频帧;
    调整所述融合后的当前即时视频帧的亮度参数,生成所述美化后的当前即时视频。
  11. 一种电子设备,其特征在于,包括显示屏、发送模块、接收模块、存 储器以及分别与所述显示屏、所述发送模块、所述接收模块、所述存储器连接的处理器,其中,所述存储器中存储一组程序代码,所述处理器用于调用所述存储器中存储的程序代码,执行以下操作:
    通过对当前即时视频帧中人脸的至少一个细节宏块进行预测,获取所述当前即时视频帧对应的细节图;
    对所述当前即时视频帧中真实人脸进行滤波,获取所述当前即时视频帧对应的滤波图;
    将所述细节图与所述滤波图进行融合,生成美化后的当前即时视频,所述美化后的当前即时视频至少包括美化后的人脸。
  12. 根据权利11所述的电子设备,其特征在于,所述处理器用于调用所述存储器中存储的程序代码,执行以下操作:
    根据所述当前即时视频帧,对所述当前即时视频帧中人脸的至少一个细节宏块进行预测。
  13. 根据权利11或12所述的电子设备,其特征在于,所述处理器用于调用所述存储器中存储的程序代码,执行以下操作:
    根据所述当前即时视频帧的上一个即时视频帧,对所述当前即时视频帧中人脸的至少一个细节宏块进行预测。
  14. 根据权利11至13任一所述的电子设备,其特征在于,所述处理器用于调用所述存储器中存储的程序代码,执行以下操作:
    设置高频滤波参数;
    对所述当前即时视频帧中真实人脸进行高频滤波,获取所述当前即时视频帧对应的滤波图。
  15. 根据权利11至14任一所述的电子设备,其特征在于,所述处理器用于调用所述存储器中存储的程序代码,执行以下操作:
    将所述细节图与所述滤波图进行融合,生成融合后的当前即时视频帧;
    调整所述融合后的当前即时视频帧的亮度参数,生成所述美化后的当前即 时视频。
PCT/CN2015/098357 2015-01-05 2015-12-23 一种即时视频中的人脸美化方法和电子设备 WO2016110188A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201510003501.XA CN104469253A (zh) 2015-01-05 2015-01-05 一种即时视频中的人脸美化方法和电子设备
CN201510003501.X 2015-01-05

Publications (1)

Publication Number Publication Date
WO2016110188A1 true WO2016110188A1 (zh) 2016-07-14

Family

ID=52914532

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2015/098357 WO2016110188A1 (zh) 2015-01-05 2015-12-23 一种即时视频中的人脸美化方法和电子设备

Country Status (2)

Country Link
CN (1) CN104469253A (zh)
WO (1) WO2016110188A1 (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104469253A (zh) * 2015-01-05 2015-03-25 掌赢信息科技(上海)有限公司 一种即时视频中的人脸美化方法和电子设备
CN104952036B (zh) * 2015-06-18 2018-11-06 福州瑞芯微电子股份有限公司 一种即时视频中的人脸美化方法和电子设备
CN105005441B (zh) * 2015-06-18 2018-11-06 美国掌赢信息科技有限公司 一种即时视频的显示方法和电子设备
WO2016202286A1 (zh) * 2015-06-19 2016-12-22 美国掌赢信息科技有限公司 一种即时视频的传输方法和电子设备
CN105163199A (zh) * 2015-06-19 2015-12-16 美国掌赢信息科技有限公司 一种即时视频的编码方法和电子设备
CN104967867A (zh) * 2015-06-19 2015-10-07 美国掌赢信息科技有限公司 一种即时视频的传输方法和电子设备
CN105163198B (zh) * 2015-06-19 2019-03-19 美国掌赢信息科技有限公司 一种即时视频的编码方法和电子设备
CN106358004B (zh) * 2015-07-14 2019-08-16 腾讯科技(深圳)有限公司 视频通话方法及装置
CN105611216B (zh) * 2015-12-31 2018-09-11 北京奇艺世纪科技有限公司 一种美肤视频通话方法和设备
CN105979195B (zh) * 2016-05-26 2019-04-19 努比亚技术有限公司 一种视频图像处理装置和方法
CN108762829B (zh) * 2018-05-03 2021-07-09 北京奇虎科技有限公司 一种用于图像美化的方法、客户端及终端

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103607554A (zh) * 2013-10-21 2014-02-26 无锡易视腾科技有限公司 一种基于全自动人脸无缝合成的视频合成方法
US20140369554A1 (en) * 2013-06-18 2014-12-18 Nvidia Corporation Face beautification system and method of use thereof
CN104469253A (zh) * 2015-01-05 2015-03-25 掌赢信息科技(上海)有限公司 一种即时视频中的人脸美化方法和电子设备
CN104574306A (zh) * 2014-12-24 2015-04-29 掌赢信息科技(上海)有限公司 一种即时视频中的人脸美化方法和电子设备

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101778188B (zh) * 2009-01-14 2013-01-02 华晶科技股份有限公司 数字图像中的人脸美化方法
CN101916370B (zh) * 2010-08-31 2012-04-25 上海交通大学 人脸检测中非特征区域图像处理的方法
CN103268475A (zh) * 2013-05-10 2013-08-28 中科创达软件股份有限公司 一种基于人脸、肤色检测的皮肤美容方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140369554A1 (en) * 2013-06-18 2014-12-18 Nvidia Corporation Face beautification system and method of use thereof
CN103607554A (zh) * 2013-10-21 2014-02-26 无锡易视腾科技有限公司 一种基于全自动人脸无缝合成的视频合成方法
CN104574306A (zh) * 2014-12-24 2015-04-29 掌赢信息科技(上海)有限公司 一种即时视频中的人脸美化方法和电子设备
CN104469253A (zh) * 2015-01-05 2015-03-25 掌赢信息科技(上海)有限公司 一种即时视频中的人脸美化方法和电子设备

Also Published As

Publication number Publication date
CN104469253A (zh) 2015-03-25

Similar Documents

Publication Publication Date Title
WO2016110188A1 (zh) 一种即时视频中的人脸美化方法和电子设备
US11671712B2 (en) Apparatus and methods for image encoding using spatially weighted encoding quality parameters
CN106331850B (zh) 浏览器直播客户端、浏览器直播系统及浏览器直播方法
WO2016101883A1 (zh) 一种即时视频中的人脸美化方法和电子设备
CN105874776B (zh) 图像处理设备和方法
CN111016445B (zh) 使用块匹配的镜头阴影颜色校正的方法和系统
US11100613B2 (en) Systems and methods for enhancing edges in images
US9661298B2 (en) Depth image enhancement for hardware generated depth images
WO2012086120A1 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム
JP6615917B2 (ja) 実時間ビデオエンハンスメント方法、端末及び非一時的コンピュータ可読記憶媒体
CN109345485A (zh) 一种图像增强方法、装置、电子设备及存储介质
CN107948733B (zh) 视频图像处理方法及装置、电子设备
US9361537B2 (en) Techniques to reduce color artifacts in a digital image
CN108616700B (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
CN104754221B (zh) 一种拍照方法及移动终端
US11475652B2 (en) Automatic representation toggling based on depth camera field of view
CN106803920B (zh) 一种图像处理的方法、装置及智能会议终端
CN107295261B (zh) 图像去雾处理方法、装置、存储介质和移动终端
CN115205164B (zh) 图像处理模型的训练方法、视频处理方法、装置及设备
WO2017101570A1 (zh) 照片的处理方法及处理系统
JP6155349B2 (ja) デコンボリューション画像において色収差を減じる方法、装置及びコンピュータプログラム製品
EP3848894A1 (en) Method and device for segmenting image, and storage medium
US20190007666A1 (en) Image details processing method, apparatus, terminal, and storage medium
CN109034068B (zh) 视频处理方法及装置、电子设备和存储介质
EP4287639A1 (en) Image processing method and apparatus, electronic device, storage medium and chip

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15876688

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 14.11.2017)

122 Ep: pct application non-entry in european phase

Ref document number: 15876688

Country of ref document: EP

Kind code of ref document: A1