WO2015078151A1 - 一种图像处理的方法、装置及终端设备 - Google Patents

一种图像处理的方法、装置及终端设备 Download PDF

Info

Publication number
WO2015078151A1
WO2015078151A1 PCT/CN2014/077463 CN2014077463W WO2015078151A1 WO 2015078151 A1 WO2015078151 A1 WO 2015078151A1 CN 2014077463 W CN2014077463 W CN 2014077463W WO 2015078151 A1 WO2015078151 A1 WO 2015078151A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
information
processed
facial information
face
Prior art date
Application number
PCT/CN2014/077463
Other languages
English (en)
French (fr)
Inventor
唐明勇
张波
刘萧
王琳
Original Assignee
小米科技有限责任公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 小米科技有限责任公司 filed Critical 小米科技有限责任公司
Priority to RU2015125297A priority Critical patent/RU2615320C2/ru
Priority to MX2014008798A priority patent/MX343021B/es
Priority to KR1020147021479A priority patent/KR101619685B1/ko
Priority to JP2015549985A priority patent/JP6309540B2/ja
Priority to BR112014017937A priority patent/BR112014017937A8/pt
Priority to US14/462,577 priority patent/US9652661B2/en
Publication of WO2015078151A1 publication Critical patent/WO2015078151A1/zh

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof

Definitions

  • the present invention is based on a Chinese patent application with the application number of CN 201310626089.8 and the application date of November 28, 2013, and claims the priority of the Chinese patent application, the Chinese patent application The entire disclosure is hereby incorporated by reference.
  • the present disclosure relates to the field of data processing technologies, and in particular, to a method, an apparatus, and a terminal device for image processing. Background technique
  • the present disclosure provides a method, an apparatus, and a terminal device for image processing, which can automatically identify a part of a to-be-processed image that needs beauty according to the template image and the facial information in the image to be processed, and For beauty treatment, users do not need to manually set the beauty parameters item by item, which is convenient for users.
  • the present disclosure provides a method of image processing, comprising: acquiring face information in a template image;
  • the face in the image to be processed is subjected to a beauty treatment according to the face information in the template image.
  • the present disclosure is capable of automatically recognizing a stencil image and a face in an image to be processed, and performing beauty in a portion of the image to be processed according to facial information in the stencil image.
  • the color processing does not require the user to manually set the beauty parameters item by item, which is convenient for the user to use, saves the user's time and improves the efficiency of the beauty treatment.
  • the facial information includes: position and spacing of facial organs, size and proportion of facial organs and faces, shape of facial organs, angular orientation of facial organs, color of facial organs and faces One or more.
  • Some of the benefits of the present disclosure may include that the present disclosure may automatically perform a beauty treatment for various information of the face to meet different needs of the user.
  • Performing the beauty treatment on the face in the image to be processed according to the facial information in the template image comprising: acquiring facial information in the image to be processed;
  • the present disclosure provides a first beauty treatment solution to improve the efficiency of cosmetic treatment.
  • Performing the beauty treatment on the face in the image to be processed according to the facial information in the template image comprising: acquiring facial information in the image to be processed;
  • Determining whether the face information in the template image is the same as the face information in the image to be processed Determining whether the face information in the template image is the same as the face information in the image to be processed; generating information when the face information in the template image is the same as the face information in the image to be processed Content processing information that is empty;
  • the present disclosure provides a second beauty treatment solution that improves the efficiency of the beauty treatment.
  • the method further includes:
  • the difference between the face information in the template image and the face information in the image to be processed is greater than a second threshold, generating beauty treatment information using the second beauty level for beauty, according to the Performing facial treatment on the face in the image to be processed by using the beauty treatment information of the second beauty level, the second threshold being greater than the first threshold.
  • the present disclosure provides a third beauty treatment solution that improves the efficiency of the cosmetic treatment.
  • the method further includes:
  • the selected template image is received.
  • the stencil image obtained by the present disclosure may be a stencil image obtained by the user; or may be a stencil image selected by the user; or may be a stencil image obtained by other means to meet different needs of the user.
  • the present disclosure provides an apparatus for image processing, including: an acquiring module, configured to acquire facial information in a template image;
  • a processing module configured to perform a facial treatment on the face in the image to be processed according to the facial information in the template image.
  • the processing module includes:
  • a first acquiring unit configured to acquire facial information in an image to be processed
  • a comparison unit configured to compare facial information in the template image with facial information in the image to be processed to obtain a comparison result
  • the processing module includes:
  • a second acquiring unit configured to acquire facial information in the image to be processed
  • a first determining unit configured to determine whether the facial information in the template image is the same as the facial information in the image to be processed
  • a first generating unit configured to generate, when the face information in the template image is the same as the face information in the image to be processed, the beauty processing information that the information content is empty;
  • a second processing unit configured to perform a beauty treatment on the face in the image to be processed according to the information content being the empty beauty processing information.
  • the processing module further includes:
  • a second determining unit configured to: when the first determining unit determines whether the facial information in the template image is the same as the facial information in the image to be processed, when the facial information in the template image is When the facial information in the image to be processed is different, determining whether a difference between the facial information in the template image and the facial information in the image to be processed is less than or equal to a first threshold;
  • a second generating unit configured to: when the difference between the face information in the template image and the face information in the image to be processed is less than or equal to the first threshold, generate the first beauty level Beauty treatment information of the beauty, performing facial treatment on the face in the image to be processed according to the beauty treatment information using the first beauty level;
  • a third generating unit configured to generate a beauty of using the second beauty level when the difference between the facial information in the template image and the facial information in the image to be processed is greater than a second threshold
  • the face processing information is subjected to the beauty treatment of the face in the image to be processed according to the beauty treatment information of the beauty processed by the second beauty level, wherein the second threshold is greater than the first threshold.
  • the device also includes:
  • a first receiving module configured to receive the input template image before the acquiring module acquires facial information in the template image
  • a second receiving module configured to receive the selected template image before the acquiring module acquires facial information in the template image.
  • the present disclosure provides a terminal device including a memory, and one or more programs, wherein one or more programs are stored in a memory and configured to be Or the one or more processors executing the one or more programs include instructions for performing the following operations:
  • the face in the image to be processed is subjected to a beauty treatment according to the face information in the template image.
  • FIG. 1 is an exemplary flowchart of a method of image processing according to an exemplary embodiment
  • FIG. 2A is an exemplary flow chart shown in accordance with an exemplary embodiment
  • FIG. 2B is a schematic diagram of a face before and after facial treatment in an image to be processed, according to an exemplary embodiment
  • FIG. 3A is an exemplary flowchart shown according to an exemplary embodiment
  • FIG. 3B is a schematic diagram of a face before and after facial treatment in an image to be processed, according to an exemplary embodiment
  • FIG. 4 is an exemplary structural diagram of an apparatus for image processing according to an exemplary embodiment
  • FIG. 5 is a first exemplary structural diagram of a processing module in an apparatus for image processing according to an exemplary embodiment
  • FIG. 6 is a second exemplary structural diagram of a processing module in an apparatus for image processing according to an exemplary embodiment
  • FIG. 7 is a third exemplary structural diagram of a processing module in an apparatus for image processing according to an exemplary embodiment
  • FIG. 8 is a detailed exemplary structural diagram of an apparatus for image processing according to an exemplary embodiment.
  • FIG. 9 is another detailed exemplary diagram of an apparatus for image processing according to an exemplary embodiment.
  • FIG. 10 is a schematic structural diagram of a terminal device according to an exemplary embodiment.
  • the embodiments of the present disclosure provide a method, an apparatus, and a terminal device for image processing.
  • the present disclosure will be described in detail below with reference to the accompanying drawings.
  • the stencil image and the face in the image to be processed can be automatically recognized, and the part of the image to be processed is processed according to the facial information in the stencil image, and the user does not need to manually set the beauty item by item.
  • the parameters are convenient for the user to use, saving the user's time and improving the efficiency of the beauty treatment.
  • an image processing method includes the following steps: In step 101, the facial information in the template image is obtained, and the method in this embodiment can be used for a terminal device such as a smart phone or a tablet computer.
  • the template image may be obtained by acquiring a template image input by the user; or may be obtaining a template image selected by the user; or may be a template image obtained by other methods to meet different needs of the user.
  • Acquiring facial information in the template image may be obtaining facial information in the template image by facial recognition technology.
  • Face recognition technology is to identify the face visual characteristics by analyzing and comparing the facial features. It belongs to the biometric recognition technology and distinguishes the biological individual from the biological characteristics of the living object (generally refers to the person). At present, face recognition technology has been applied in many fields, such as digital camera face autofocus and smile shutter technology; enterprise, residential security and management; access control system; camera monitoring system.
  • Common face recognition algorithms include: Feature-based recognition algorithms, Appearance-based recognition algorithms, Template-based recognition, and methods. (Template-based recognition algorithms), algorithms using neural networks (Recognition algorithms using neural network), and so on.
  • the face information may be any of the position and spacing of the face organ, the size and proportion of the face organ and face, the shape of the face organ, the angular direction of the face organ, the color of the face organ and the face. Or a variety.
  • step 102 the face in the image to be processed is subjected to a beauty treatment based on the face information in the template image.
  • the above step 102 "perfecting the face in the image to be processed according to the face information in the template image” may include the following steps A1-A3:
  • Step A Acquire face information in the image to be processed.
  • Step A2 Comparing the facial information in the template image with the facial information in the image to be processed, and obtaining a comparison result.
  • Step A3 Perform facial treatment on the face in the image to be processed according to the comparison result.
  • the template image is a star photo
  • the face information in the template image is compared with the face information in the image to be processed
  • the star is a big eye
  • the image to be processed is a small eye
  • the eye in the image to be processed is processed.
  • Large-eye processing is performed; and, the proportion of the lips of the star is relatively uniform, and the upper lip of the image to be processed is thicker, and the proportion of the lips in the image to be processed is adjusted.
  • the parts of the image that need to be beautifully processed can be automatically processed, and the user does not need to manually set the beauty parameters item by item, which is convenient for the user to use, saves the user's time, and improves the efficiency of the beauty treatment.
  • step 102 perfecting the face in the image to be processed according to the face information in the template image
  • steps B1-B7 may include the following steps B1-B7:
  • Step Bl Acquire face information in the image to be processed.
  • Step B2 Determine whether the facial information in the template image is the same as the facial information in the image to be processed; if they are the same, proceed to step B3; otherwise, continue to step B4.
  • Step B3 Generate a beauty processing information whose information content is empty, and perform facial treatment on the face in the image to be processed according to the beauty processing information whose information content is empty.
  • Step B4 determining whether the difference between the facial information in the template image and the facial information in the image to be processed is less than or equal to the first threshold; if yes, proceeding to step B5; otherwise, proceeding to step B6.
  • step B5 the beauty treatment information of the beauty level is generated by using the first beauty level, and the facial treatment in the image is processed according to the beauty treatment information of the first beauty level.
  • Step B6 determining whether a difference between the facial information in the template image and the facial information in the image to be processed is greater than a second threshold, and the second threshold is greater than the first threshold; if yes, proceeding to step B7.
  • Step B7 Generating the beauty treatment information of the beauty level by using the second beauty level, and performing facial treatment on the face in the image according to the beauty treatment information of the second beauty level.
  • comparing the face information in the template image with the face information in the image to be processed if the face information in the template image is the same as the face information in the image to be processed, no beauty processing is required; The difference between the face information in the template image and the face information in the image to be processed is small, and the slight beauty processing; if the difference between the face information in the template image and the face information in the image to be processed Larger, it enhances the beauty treatment to meet different user needs.
  • the stencil image and the face in the image to be processed can be automatically recognized, and the part of the image to be processed is processed according to the facial information in the stencil image, and the user does not need to manually set the beauty item by item.
  • the parameters are convenient for the user to use, save the user's time, improve the efficiency of the beauty treatment; and can perform the corresponding beauty treatment according to the difference between the facial information in the template image and the facial information in the image to be processed. Meet the needs of different users.
  • the template image selected by the user is obtained, and the template image is a star photo, and the part of the image that needs to be beautiful is processed according to the facial information of the star photo, and the user does not need to manually set the item by item.
  • the beauty parameters are convenient for the user to use, saving the user's time and improving the efficiency of the beauty treatment.
  • a method of image processing includes the following steps:
  • a template image selected by the user is obtained, and the method of the embodiment can be used for a terminal device such as a smart phone or a tablet computer.
  • the template image is a star photo.
  • step 202 facial information in the template image is obtained.
  • the star's photo is a large eye, and the length of the chin is 1/5 of the face length, which is the standard chin ratio in the facial aesthetics of the face.
  • step 203 face information in the image to be processed is acquired.
  • the image to be processed is a small eye, the length of the chin is 1/6 of the face length, and the chin is wider.
  • step 204 it is determined whether the face information in the template image is the same as the face information in the image to be processed; if they are the same, proceeding to step 205; otherwise, proceeding to step 206.
  • step 205 the beauty treatment information in which the information content is empty is generated, and the facial treatment in the image to be processed is subjected to the beauty treatment according to the beauty treatment information in which the information content is empty.
  • step 206 it is determined whether the difference between the face information in the template image and the face information in the image to be processed is less than or equal to the first threshold; if yes, proceed to step 207; otherwise, proceed to step 208.
  • step 207 the beauty treatment information for performing the beauty using the first beauty level is generated, and the facial treatment in the image to be processed is performed according to the beauty treatment information of the beauty using the first beauty level.
  • step 208 it is determined whether the difference between the face information in the template image and the face information in the image to be processed is greater than a second threshold, and the second threshold is greater than the first threshold; if yes, proceeding to step 209.
  • step 209 the beauty treatment information for the beauty of the second beauty level is generated, and the facial treatment in the image to be processed is performed according to the beauty treatment information of the beauty level using the second beauty level.
  • the star photo is big eye, and the chin length is 1/5 of the face length; while the image to be processed is small eye, and the chin length is 1/6 of the face length, the chin is wider, and the eye of the image to be processed needs to be adjusted. Chin length.
  • the eyes of the image to be processed are subjected to enhancement processing, and the chin of the image to be processed is slightly elongated. FIG.
  • 2B is a schematic diagram of the face before and after the facial treatment in the image to be processed, wherein 21 is a schematic diagram before processing, 22 is a schematic diagram after processing, 211 is a schematic diagram before eye treatment, and 221 is a schematic diagram after eye treatment, 212 For the chin to process the front schematic, 222 is the schematic diagram after the chin is processed.
  • the template image selected by the user is obtained, and the template image is a star photo, and the part of the image that needs to be beautiful is processed according to the facial information of the star photo, and the user does not need to manually edit the item.
  • a method of image processing includes the following steps:
  • a template image selected by the user is obtained, and the method of the embodiment can be used for a terminal device such as a smart phone or a tablet computer.
  • the template image is a pet photo.
  • step 302 facial information in the template image is obtained.
  • the pet's photo has a nose and the lips are ruddy.
  • step 303 facial information in the image to be processed is acquired.
  • the image to be processed has a nose and a pale lips.
  • step 304 the face information in the template image is compared with the face information in the image to be processed to obtain a comparison result.
  • the pet's photo is collapsed and the lips are ruddy; while the image to be processed is quite nose and pale, so there is no need to cosmetically treat the nose, and the lip color needs to be reddened to make the lips look rosy.
  • FIG. 3B is a schematic diagram of the face before and after the facial treatment in the image to be processed, wherein 31 is a schematic diagram before processing, 32 is a schematic diagram after processing, 311 is a schematic diagram before lip color processing, and 321 is a lip color processing. schematic diagram.
  • the template image selected by the user is obtained, and the template image is a pet photo, and the part of the image that needs to be beautiful is processed according to the facial information of the pet photo, and the user does not need to manually Item setting
  • the beauty parameters are convenient for the user to use, saving the user's time and improving the efficiency of the beauty treatment; and according to the difference between the facial information in the template image and the facial information in the image to be processed, the corresponding beauty is performed. Face treatment, to meet the needs of different users.
  • an apparatus for image processing includes: an acquisition module 401 and a processing module 402.
  • the obtaining module 401 is configured to obtain facial information in the template image
  • the processing module 402 is configured to perform facial treatment on the face in the image to be processed according to the facial information in the template image.
  • the facial information includes: the position and spacing of the facial organs, the size and proportion of the facial organs and faces, the shape of the facial organs, the angular orientation of the facial organs, facial organs, and facials. Any one or more of the colors.
  • the processing module 402 may include:
  • a first acquiring unit 501 configured to acquire facial information in an image to be processed
  • the comparing unit 502 is configured to compare the facial information in the template image with the facial information in the image to be processed to obtain a comparison result
  • the first processing unit 503 is configured to perform a beauty process on the face in the image to be processed according to the comparison result.
  • the processing module 402 may include:
  • a second acquiring unit 601 configured to acquire facial information in an image to be processed
  • the first determining unit 602 is configured to determine whether the facial information in the template image is the same as the facial information in the image to be processed;
  • a first generating unit 603 configured to generate, when the face information in the template image is the same as the face information in the image to be processed, the beauty processing information that the information content is empty;
  • the second processing unit 604 is configured to perform facial treatment on the face in the image to be processed according to the beauty processing information that the information content is empty.
  • the processing module 402 shown in FIG. 6 above may further include:
  • the second determining unit 701 is configured to: when the first determining unit 602 determines whether the face information in the template image is the same as the face information in the image to be processed, the face information in the template image and the face in the image to be processed When the part information is different, determining whether a difference between the face information in the template image and the face information in the image to be processed is less than or equal to a first threshold;
  • the second generating unit 702 is configured to generate a beauty that uses the first beauty level to perform beauty when the difference between the facial information in the template image and the facial information in the image to be processed is less than or equal to the first threshold Processing the information, treating the face in the image to be treated according to the beauty treatment information of the beauty level using the first beauty level;
  • the third generating unit 703 is configured to generate, when the difference between the facial information in the template image and the facial information in the image to be processed is greater than a second threshold, generate facial beauty processing information using the second beauty level And performing facial treatment on the face in the processed image according to the beauty treatment information of the beauty using the second beauty level, and the second threshold is greater than the first threshold.
  • the apparatus shown in FIG. 4 above may further include:
  • the first receiving module 801 is configured to receive the input template image before the acquiring module 401 acquires the facial information in the template image;
  • the apparatus shown in FIG. 4 above may further include:
  • the second receiving module 901 is configured to receive the selected template image before the acquiring module 401 acquires facial information in the template image.
  • FIG. 10 is a schematic structural diagram of a terminal device in an embodiment of the present disclosure.
  • the terminal can be used to implement the methods provided in the above embodiments.
  • Terminal device 800 can include communication unit 110, memory 120 including one or more computer readable storage media, input unit 130, display unit 140, sensor 150, audio circuit 160, wireless communication unit 170, including one or more The core processor 180, and the power supply 190 and the like are processed. It will be understood by those skilled in the art that the terminal device structure shown in Fig. 10 does not constitute a limitation of the terminal device, and may include more or less components than those illustrated, or a combination of certain components, or different component arrangements. among them:
  • the communication unit 110 can be used for transmitting and receiving information and receiving and transmitting signals during a call.
  • the communication unit 110 can be a network communication device such as an RF (Radio Frequency) circuit, a router, a modem, or the like. Specifically, when the communication unit 110 is an RF circuit, the downlink information of the base station is received, and then processed by one or more processors 180; in addition, data related to the uplink is transmitted to the base station.
  • RF Radio Frequency
  • RF circuits as communication units include, but are not limited to, an antenna, at least one amplifier, a tuner, one or more oscillators, a Subscriber Identity Module (SIM) card, a transceiver, a coupler, and a LNA (Low Noise Amplifier, low) Noise amplifier), duplexer, etc.
  • the communication unit 110 can also communicate with the network and other devices through wireless communication.
  • Wireless communication can use any communication standard or protocol, including but not limited to GSM (Global System of Mobile communication), GPRS (General Packet Radio Service), CDMA (Code Division Multiple Access, code) Multiple access), WCDMA (Wideband Code Division Multiple Access), LTE (Long Term Evolution), e-mail, SMS (Short Messaging Service), etc.
  • the memory 120 can be used to store software programs and modules, and the processor 180 executes various functional applications and data processing by running software programs and modules stored in the memory 120.
  • the memory 120 may mainly include a storage program area and a storage data area, wherein the storage program area may store an operating system, an application required for at least one function (such as a sound playing function, an image playing function, etc.), and the like; the storage data area may be stored according to The data created by the use of the terminal device 800 (such as audio data, phone book, etc.) and the like.
  • memory 120 can include high speed random access memory, and can also include non-volatile memory, such as at least one magnetic disk storage device, flash memory device, or other volatile solid state storage device. Accordingly, the memory 120 may further include a memory controller, Access to memory 120 is provided by processor 180 and input unit 130.
  • Input unit 130 can be used to receive input numeric or character information, as well as to generate keyboard, mouse, joystick, optical or trackball signal inputs related to user settings and function controls.
  • Input unit 130 can include touch-sensitive surface 131 as well as other input devices 132.
  • Touch-sensitive surface 131 also referred to as a touch display or trackpad, can collect touch operations on or near the user (eg, the user uses a finger, stylus, etc., on any suitable object or accessory on touch-sensitive surface 131 or The operation near the touch-sensitive surface 131) and driving the corresponding connecting device according to a preset program.
  • the touch-sensitive surface 131 may include two portions of a touch detection device and a touch controller.
  • the touch detection device detects the touch orientation of the user, and detects a signal brought by the touch operation, and transmits the signal to the touch controller; the touch controller receives the touch information from the touch detection device, converts the touch information into contact coordinates, and sends the touch information
  • the processor 180 is provided and can receive commands from the processor 180 and execute them.
  • the touch-sensitive surface 131 can be implemented in various types such as resistive, capacitive, infrared, and surface acoustic waves.
  • the input unit 130 can also include other input devices 132.
  • Other input devices 132 may include, but are not limited to, one or more of a physical keyboard, function keys (such as volume control buttons, switch buttons, etc.), trackballs, mice, joysticks, and the like.
  • Display unit 140 can be used to display information entered by the user or information provided to the user as well as various graphical user interfaces of terminal device 800, which can be constructed from graphics, text, icons, video, and any combination thereof.
  • the display unit 140 may include a display panel 141.
  • the display panel 141 may be configured in the form of an LCD (Liquid Crystal Display), an OLED (Organic Light-Emitting Diode), or the like.
  • the touch-sensitive surface 131 may cover the display panel 141, and when the touch-sensitive surface 131 detects a touch operation thereon or nearby, it is transmitted to the processor 180 to determine the type of the touch event, and then the processor 180 according to the touch event The type provides a corresponding visual output on display panel 141.
  • touch-sensitive surface 131 and display panel 141 are implemented as two separate components to implement input and input functions, in some embodiments, touch-sensitive surface 131 can be integrated with display panel 141 for input. And output function.
  • Terminal device 800 can also include at least one type of sensor 150, such as a light sensor, motion sensor, and other sensors.
  • the light sensor may include an ambient light sensor and a proximity sensor, wherein the ambient light sensor may adjust the brightness of the display panel 141 according to the brightness of the ambient light, and the proximity sensor may close the display panel 141 and/or when the terminal device 800 moves to the ear.
  • Backlighting As a kind of motion sensor, the gravity acceleration sensor can detect the magnitude of acceleration in all directions (usually three axes). When it is stationary, it can detect the magnitude and direction of gravity.
  • the terminal device 800 can also be configured with gyroscopes, barometers, hygrometers, thermometers, infrared sensors and other sensors, here No longer.
  • the audio circuit 160, the speaker 161, and the microphone 162 can provide an audio interface between the user and the terminal device 800.
  • the audio circuit 160 can transmit the converted electrical data of the received audio data to the speaker 161 for conversion to the sound signal output by the speaker 161; on the other hand, the microphone 162 converts the collected sound signal into an electrical signal by the audio circuit 160. After receiving, it is converted into audio data, and then processed by the audio data output processor 180, transmitted to the terminal device, for example, by the RF circuit 110, or outputted to the memory 120 for further processing.
  • Audio circuit The 160 may also include an earbud jack to provide communication of the peripheral earphones with the terminal device 800.
  • the terminal device may be configured with a wireless communication unit 170, which may be a WIFI (Wireless Fidelity) module.
  • WIFI is a short-range wireless transmission technology, and the terminal device 800 can help users to send and receive emails, browse web pages, and access streaming media through the wireless communication unit 170, which provides users with wireless broadband Internet access.
  • the wireless communication unit 170 is shown in Fig. 10, it can be understood that it does not belong to the essential configuration of the terminal device 800, and may be omitted as needed within the scope of not changing the essence of the disclosure.
  • the processor 180 is the control center of the terminal device 800, which connects various portions of the entire handset using various interfaces and lines, by running or executing software programs and/or modules stored in the memory 120, and recalling data stored in the memory 120.
  • the various functions and processing data of the terminal device 800 are executed to perform overall monitoring of the mobile phone.
  • the processor 180 may include one or more processing cores; the processor 180 may integrate an application processor and a modem processor, where the application processor mainly processes an operating system, a user interface, an application, etc., and a modulation solution
  • the processor mainly handles wireless communication. It will be appreciated that the above described modem processor may also not be integrated into the processor 180.
  • the terminal device 800 also includes a power supply 190 (e.g., a battery) that supplies power to the various components.
  • the power supply can be logically coupled to the processor 180 through the power management system to manage charging, discharging, and power management functions through the power management system.
  • Power supply 190 may also include any one or more of a DC or AC power source, a recharging system, a power failure detection circuit, a power converter or inverter, a power status indicator, and the like.
  • the terminal device 800 may further include a camera, a Bluetooth module, and the like, and details are not described herein.
  • the terminal device further includes a memory, and one or more programs, wherein the one or more programs are stored in the memory, and configured to execute one or more programs by one or more processors Instructions for performing the methods provided by embodiments of the present disclosure:
  • the face in the image to be processed is subjected to a beauty treatment according to the face information in the template image.
  • the memory can also include instructions to:
  • the facial information includes: the position and spacing of the facial organs, the size and proportion of the facial organs and faces, the shape of the facial organs, the angular direction of the facial organs, the color of the facial organs and the face. Or a variety.
  • the memory can also include instructions to:
  • Performing a beauty treatment on the face in the image to be processed according to the facial information in the template image comprising: acquiring facial information in the image to be processed;
  • the face information in the template image is compared with the face information in the image to be processed to obtain a comparison result; the face in the image to be processed is subjected to the beauty treatment according to the comparison result.
  • the memory can also include instructions to:
  • Performing a beauty treatment on the face in the image to be processed according to the facial information in the template image comprising: acquiring facial information in the image to be processed;
  • the facial treatment in the image is treated according to the beauty processing information in which the information content is empty.
  • the memory can also include instructions to:
  • the method further includes: determining a face in the template image when the facial information in the template image is different from the facial information in the image to be processed Whether the difference between the partial information and the facial information in the image to be processed is less than or equal to the first threshold;
  • the difference between the facial information in the template image and the facial information in the image to be processed is less than or equal to the first threshold, generating the beauty treatment information using the first beauty level for beauty, according to adopting the first beauty
  • the beauty level processing information of the beauty level is treated to treat the face in the image for beauty treatment
  • the difference between the face information in the template image and the face information in the image to be processed is greater than a second threshold, generating a beauty treatment information using the second beauty level for beauty, according to the second beauty level Performing the beauty treatment information of the beauty to perform facial treatment on the face in the processed image, and the second threshold is greater than the first threshold.
  • the memory can also include instructions to:
  • the method further includes:
  • the stencil image and the face in the image to be processed can be automatically recognized, and the part of the image to be processed is processed according to the facial information in the stencil image, and the user does not need to manually set the beauty item by item.
  • the parameters are convenient for the user to use, save the user's time, improve the efficiency of the beauty treatment; and can perform the corresponding beauty treatment according to the difference between the facial information in the template image and the facial information in the image to be processed. Meet the needs of different users.
  • the mobile terminal of the present disclosure may be a variety of handheld terminal devices, such as mobile phones, personal digital assistants (PDAs), etc., and thus the scope of protection of the present disclosure should not be limited to a particular type of mobile terminal.
  • PDAs personal digital assistants
  • the method according to the present disclosure may also be implemented as a computer program executed by a central processing unit CPU.
  • the computer program is executed by the CPU, the above-described functions defined in the method of the present disclosure are performed.
  • the above method steps and system elements can also be implemented with a controller and a computer readable storage device for storing a computer program that causes the controller to implement the above described steps or unit functions.
  • the computer readable storage devices can be either volatile memory or nonvolatile memory, or can include both volatile and nonvolatile memory.
  • the nonvolatile memory may include read only memory (ROM), programmable ROM (PROM), electrically programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM) or flash.
  • Volatile memory can include random access memory (RAM), which can act as external cache memory.
  • RAM can be obtained in a variety of forms, such as synchronous RAM (DRAM), dynamic RAM (DRAM), synchronous DRAM (SDRAM), dual data rate SDRAM (DDR SDRAM), enhanced SDRAM. (ESDRAM), Synchronous Link DRAM (SLDRAM) and Direct Rambus RAM (DRRAM).
  • Storage devices of the disclosed aspects are intended to comprise, without being limited to, these and other suitable types of memory.
  • DSP digital signal processor
  • ASIC dedicated Integrated circuit
  • FPGA field programmable gate array
  • a general purpose processor may be a microprocessor, but in the alternative, the processor may be any conventional processor, controller, microcontroller or state machine.
  • the processor can also be implemented as a combination of computing devices, e.g., a combination of a DSP and a microprocessor, a plurality of microprocessors, one or more microprocessors in conjunction with a DSP core, or any other such configuration.
  • a software module may reside in RAM memory, flash memory, ROM memory, EPROM memory, EEPROM memory, registers, hard disk, a removable disk, a CD-ROM, or any other form of storage medium known in the art.
  • An exemplary storage medium is coupled to the processor, such that the processor can read information from or write information to the storage medium.
  • the storage medium can be integrated with a processor.
  • the processor and storage media can reside in an ASIC.
  • the ASIC can reside in the user terminal.
  • the processor and the storage medium may reside as a discrete component in the user terminal.
  • the functions may be implemented in hardware, software, firmware, or any combination thereof. If implemented in software, the functions may be stored on or transmitted as one or more instructions or code on a computer readable medium.
  • Computer readable media includes both computer storage media and communication media including any medium that facilitates transfer of a computer program from one location to another.
  • a storage medium may be any available media that can be accessed by a general purpose or special purpose computer.
  • the computer readable medium may comprise RAM, ROM, EEPROM, CD-ROM or other optical disk storage device, disk storage device or other magnetic storage device, or may be used for carrying or storing a form of instructions Or the required program code of the data structure and any other medium that can be accessed by a general purpose or special purpose computer or a general purpose or special purpose processor. Also, any connection is properly termed a computer-readable medium.
  • a magnetic disk and an optical disk include a compact disk (CD), a laser disk, an optical disk, a digital versatile disk (DVD), a floppy disk, a Blu-ray disk, wherein the disk typically reproduces data magnetically, and The optical disc optically reproduces data using a laser.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Evolutionary Computation (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本公开是关于一种图像处理的方法、装置及终端设备,能够根据模版图像及待处理图像中的脸部信息自动识别待处理图像中需要美颜的部位,并进行美颜处理,不需要用户手动逐项设置美颜参数,方便用户使用。其中,所述方法包括:获取模版图像中的脸部信息;根据所述模版图像中的脸部信息,对待处理图像中的脸部进行美颜处理。

Description

一种图像处理的方法、 装置及终端设备 本申请基于申请号为 CN 201310626089.8、申请日为 2013年 11月 28日的中国专利申 请提出, 并要求该中国专利申请的优先权, 该中国专利申请的全部内容在此引入本申请作 为参考。 技术领域
本公开是关于数据处理技术领域,尤其是关于一种图像处理的方法、装置及终端设备。 背景技术
随着相机及带有摄像头的其他移动终端的普及, 人们拍摄照片越来越方便, 拍摄的照 片的数量也越来越多。拍摄完成后, 通常会对照片进行美颜处理, 可以发送至博客、微博、 个人空间等平台与好友家人分享。
相关技术中需要用户手动逐项设置美颜参数(例如, 瘦脸、大眼、 磨皮等美颜参数), 不简便, 也不方便用户使用。 发明内容
为克服相关技术中存在的问题, 本公开提供一种图像处理的方法、 装置及终端设备, 能够根据模版图像及待处理图像中的脸部信息自动识别待处理图像中需要美颜的部位,并 进行美颜处理, 不需要用户手动逐项设置美颜参数, 方便用户使用。
根据本公开实施例的第一方面, 本公开提供了一种图像处理的方法, 包括: 获取模版图像中的脸部信息;
根据所述模版图像中的脸部信息, 对待处理图像中的脸部进行美颜处理。
本公开的实施例提供的技术方案可以包括以下有益效果:本公开能够自动识别模版图 像及待处理图像中的脸部,根据模版图像中的脸部信息对待处理图像中需要美颜的部位进 行美颜处理, 不需要用户手动逐项设置美颜参数, 方便用户使用, 节约用户的时间, 提高 美颜处理的效率。
所述脸部信息包括: 脸部器官的位置和间距、 脸部器官及脸部的尺寸和比例、 脸部器 官的形状、 脸部器官的角度方向、 脸部器官及脸部的颜色中的任一种或多种。
本公开的一些有益效果可以包括:本公开中可以针对脸部的各种信息自动进行美颜处 理, 满足用户的不同需求。
所述根据所述模版图像中的脸部信息, 对待处理图像中的脸部进行美颜处理, 包括: 获取待处理图像中的脸部信息;
将所述模版图像中的脸部信息与所述待处理图像中的脸部信息进行对比,获得对比结 果; 根据所述对比结果对所述待处理图像中的脸部进行美颜处理。
本公开提供了第一种美颜处理的方案, 提高美颜处理的效率。
所述根据所述模版图像中的脸部信息, 对待处理图像中的脸部进行美颜处理, 包括: 获取待处理图像中的脸部信息;
判断所述模版图像中的脸部信息与所述待处理图像中的脸部信息是否相同; 当所述模版图像中的脸部信息与所述待处理图像中的脸部信息相同时,生成信息内容 为空的美颜处理信息;
根据所述信息内容为空的美颜处理信息对所述待处理图像中的脸部进行美颜处理。 本公开提供了第二种美颜处理的方案, 提高美颜处理的效率。
所述判断所述模版图像中的脸部信息与所述待处理图像中的脸部信息是否相同之后, 还包括:
当所述模版图像中的脸部信息与所述待处理图像中的脸部信息不同时,判断所述模版 图像中的脸部信息与所述待处理图像中的脸部信息之间的差距是否小于或等于第一阈值; 当所述模版图像中的脸部信息与所述待处理图像中的脸部信息之间的差距小于或等 于所述第一阈值时, 生成采用第一美颜级别进行美颜的美颜处理信息, 根据所述采用第一 美颜级别进行美颜的美颜处理信息对所述待处理图像中的脸部进行美颜处理;
当所述模版图像中的脸部信息与所述待处理图像中的脸部信息之间的差距大于第二 阈值时, 生成采用第二美颜级别进行美颜的美颜处理信息, 根据所述采用第二美颜级别进 行美颜的美颜处理信息对所述待处理图像中的脸部进行美颜处理,所述第二阈值大于所述 第一阈值。
本公开提供了第三种美颜处理的方案, 提高美颜处理的效率。
所述获取模版图像中的脸部信息之前, 所述方法还包括:
接收输入的所述模版图像; 或者
接收选择的所述模版图像。
本公开获取模版图像可以是获取用户输入的模版图像;或者也可以是获取用户选择的 模版图像; 或者还可以是通过其它方式获取的模版图像, 以满足用户的不同需求。
根据本公开实施例的第二方面, 本公开提供了一种图像处理的装置, 包括: 获取模块, 用于获取模版图像中的脸部信息;
处理模块, 用于根据所述模版图像中的脸部信息, 对待处理图像中的脸部进行美颜处 理。
所述处理模块包括:
第一获取单元, 用于获取待处理图像中的脸部信息;
对比单元,用于将所述模版图像中的脸部信息与所述待处理图像中的脸部信息进行对 比, 获得对比结果;
第一处理单元, 用于根据所述对比结果对所述待处理图像中的脸部进行美颜处理。 所述处理模块包括:
第二获取单元, 用于获取待处理图像中的脸部信息;
第一判断单元,用于判断所述模版图像中的脸部信息与所述待处理图像中的脸部信息 是否相同;
第一生成单元,用于当所述模版图像中的脸部信息与所述待处理图像中的脸部信息相 同时, 生成信息内容为空的美颜处理信息;
第二处理单元,用于根据所述信息内容为空美颜处理信息对所述待处理图像中的脸部 进行美颜处理。
所述处理模块还包括:
第二判断单元,用于在所述第一判断单元判断所述模版图像中的脸部信息与所述待处 理图像中的脸部信息是否相同之后, 当所述模版图像中的脸部信息与所述待处理图像中的 脸部信息不同时,判断所述模版图像中的脸部信息与所述待处理图像中的脸部信息之间的 差距是否小于或等于第一阈值;
第二生成单元,用于当所述模版图像中的脸部信息与所述待处理图像中的脸部信息之 间的差距小于或等于所述第一阈值时, 生成采用第一美颜级别进行美颜的美颜处理信息, 根据所述采用第一美颜级别进行美颜的美颜处理信息对所述待处理图像中的脸部进行美 颜处理;
第三生成单元,用于当所述模版图像中的脸部信息与所述待处理图像中的脸部信息之 间的差距大于第二阈值时, 生成采用第二美颜级别进行美颜的美颜处理信息, 根据所述采 用第二美颜级别进行美颜的美颜处理信息对所述待处理图像中的脸部进行美颜处理,所述 第二阈值大于所述第一阈值。
所述装置还包括:
第一接收模块, 用于在所述获取模块获取模版图像中的脸部信息之前, 接收输入的所 述模版图像; 或者
第二接收模块, 用于在所述获取模块获取模版图像中的脸部信息之前, 接收选择的所 述模版图像。
根据本公开实施例的第三方面,本公开提供了一种终端设备,终端设备包括有存储器, 以及一个或者一个以上的程序, 其中一个或者一个以上程序存储于存储器中, 且经配置以 由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于进行以下操作的指 令:
获取模版图像中的脸部信息;
根据所述模版图像中的脸部信息, 对待处理图像中的脸部进行美颜处理。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性的,并不能限制本公开。 附图说明 此处的附图被并入说明书中并构成本说明书的一部分, 示出了符合本发明的实施例, 并与说明书一起用于解释本发明的原理。
此处所说明的附图用来提供对本公开的进一步理解, 构成本申请的一部分, 并不构成 对本公开的限定。 在附图中:
图 1是根据一示例性实施例示出的一种图像处理的方法的示例性流程图;
图 2A是根据一示例性实施例示出的一种示例性流程图;
图 2B 是根据一示例性实施例示出的一种待处理图像中的脸部美颜处理前后的示意 图;
图 3A是根据一示例性实施例示出的一种示例性流程图;
图 3B 是根据一示例性实施例示出的一种待处理图像中的脸部美颜处理前后的示意 图;
图 4是根据一示例性实施例示出的一种图像处理的装置的示例性结构图;
图 5 是根据一示例性实施例示出的一种图像处理的装置中处理模块的第一示例性结 构图;
图 6 是根据一示例性实施例示出的一种图像处理的装置中处理模块的第二示例性结 构图;
图 7 是根据一示例性实施例示出的一种图像处理的装置中处理模块的第三示例性结 构图;
图 8是根据一示例性实施例示出的一种图像处理的装置的一种详细示例性结构图; 图 9是根据一示例性实施例示出的一种图像处理的装置的另一种详细示例性结构图; 图 10是根据一示例性实施例示出的一种终端设备的结构示意图。
通过上述附图, 已示出本公开明确的实施例, 后文中将有更详细的描述。 这些附图和 文字描述并不是为了通过任何方式限制本公开构思的范围,而是通过参考特定实施例为本 领域技术人员说明本公开的概念。 具体实施方式
为使本公开的目的、 技术方案和优点更加清楚明白, 下面结合实施方式和附图, 对本 公开做进一步详细说明。 在此, 本公开的示意性实施方式及其说明用于解释本公开, 但并 不作为对本公开的限定。
本公开实施例提供一种图像处理的方法、装置及终端设备, 以下结合附图对本公开进 行详细说明。
本公开实施例中能够自动识别模版图像及待处理图像中的脸部,根据模版图像中的脸 部信息对待处理图像中需要美颜的部位进行美颜处理, 不需要用户手动逐项设置美颜参 数, 方便用户使用, 节约用户的时间, 提高美颜处理的效率。
在一个实施例中, 如图 1所示, 一种图像处理的方法包括以下步骤: 在步骤 101中, 获取模版图像中的脸部信息, 本实施例的方法可用于智能手机、 平板 电脑等终端设备。
其中, 获取模版图像可以是获取用户输入的模版图像; 或者也可以是获取用户选择的 模版图像; 或者还可以是通过其它方式获取的模版图像, 以满足用户的不同需求。 获取模 版图像中的脸部信息可以是通过脸部识别技术获取模版图像中的脸部信息。 脸部识别技 术, 是通过分析比较脸部视觉特征信息进行身份鉴别, 它属于生物特征识别技术, 是对生 物体(一般特指人)本身的生物特征来区分生物体个体。 目前, 脸部识别技术已应用在众 多领域当中, 例如, 数码相机脸部自动对焦和笑脸快门技术; 企业、 住宅安全和管理; 门 禁系统; 摄像监视系统等。 常用的脸部识别算法包括: 基于脸部特征点的识别算法 (Feature-based recognition algorithms)、基于整幅脸部图像的识别算法 (Appearance-based recognition algorithms) 、 基于模板的识另 lj算、法 (Template-based recognition algorithms) 、 利用神经网络进行识别的算法 (Recognition algorithms using neural network) 等等。
脸部信息可以是脸部器官的位置和间距、脸部器官及脸部的尺寸和比例、 脸部器官的 形状、 脸部器官的角度方向、 脸部器官及脸部的颜色中的任一种或多种。
在步骤 102中, 根据模版图像中的脸部信息, 对待处理图像中的脸部进行美颜处理。 在一个实施例中, 上述步骤 102 "根据模版图像中的脸部信息, 对待处理图像中的脸 部进行美颜处理"可包括以下步骤 A1-A3 :
步骤 Al、 获取待处理图像中的脸部信息。
步骤 A2、 将模版图像中的脸部信息与待处理图像中的脸部信息进行对比, 获得对比 结果。
步骤 A3、 根据对比结果对待处理图像中的脸部进行美颜处理。
例如, 模板图像是一张明星照片, 将模版图像中的脸部信息与待处理图像中的脸部信 息进行对比, 该明星照为大眼, 待处理图像为小眼, 则对待处理图像中的眼睛进行大眼处 理; 并且, 明星照的嘴唇比例较均匀, 待处理图像的上嘴唇较厚, 则调整待处理图像中的 嘴唇比例。 这里, 可自动对待处理图像中需要美颜的部位进行美颜处理, 不需要用户手动 逐项设置美颜参数, 方便用户使用, 节约用户的时间, 提高美颜处理的效率。
在一个实施例中, 上述步骤 102 "根据模版图像中的脸部信息, 对待处理图像中的脸 部进行美颜处理"可包括以下步骤 B1-B7:
步骤 Bl、 获取待处理图像中的脸部信息。
步骤 B2、 判断模版图像中的脸部信息与待处理图像中的脸部信息是否相同; 若相同, 则继续执行步骤 B3 ; 否则, 继续执行步骤 B4。
步骤 B3、 生成信息内容为空的美颜处理信息, 根据信息内容为空的美颜处理信息对 待处理图像中的脸部进行美颜处理。
步骤 B4、 判断模版图像中的脸部信息与待处理图像中的脸部信息之间的差距是否小 于或等于第一阈值; 若是, 则继续执行步骤 B5; 否则, 继续执行步骤 B6。 步骤 B5、 生成采用第一美颜级别进行美颜的美颜处理信息, 根据采用第一美颜级别 进行美颜的美颜处理信息对待处理图像中的脸部进行美颜处理。
步骤 B6、 判断模版图像中的脸部信息与待处理图像中的脸部信息之间的差距是否大 于第二阈值, 且该第二阈值大于第一阈值; 若是, 则继续执行步骤 B7。
步骤 B7、 生成采用第二美颜级别进行美颜的美颜处理信息, 根据采用第二美颜级别 进行美颜的美颜处理信息对待处理图像中的脸部进行美颜处理。
例如, 将模版图像中的脸部信息与待处理图像中的脸部信息进行对比, 如果模版图像 中的脸部信息与待处理图像中的脸部信息相同, 则不需要进行美颜处理; 如果模版图像中 的脸部信息与待处理图像中的脸部信息之间的差距较小, 则轻微美颜处理; 如果模版图像 中的脸部信息与待处理图像中的脸部信息之间的差距较大, 则加强美颜处理, 从而满足不 同的用户需求。
本公开实施例中能够自动识别模版图像及待处理图像中的脸部,根据模版图像中的脸 部信息对待处理图像中需要美颜的部位进行美颜处理, 不需要用户手动逐项设置美颜参 数, 方便用户使用, 节约用户的时间, 提高美颜处理的效率; 并且可以根据模版图像中的 脸部信息与待处理图像中的脸部信息之间的差距大小, 进行相应的美颜处理, 满足不同用 户的需求。
以上介绍了图 1所示的实施例中各环节的多种实现方式,下面通过几个实施例来详细 介绍实现过程。
实施例一
实施例一中, 获取用户选择的模版图像, 该模板图像为一张明星照片, 可根据该明星 照片的脸部信息对待处理图像中需要美颜的部位进行美颜处理,不需要用户手动逐项设置 美颜参数, 方便用户使用, 节约用户的时间, 提高美颜处理的效率。 如图 2A所示, 一种 图像处理的方法包括以下步骤:
在步骤 201中, 获取用户选择的模版图像, 本实施例的方法可用于智能手机、 平板电 脑等终端设备。 该模板图像为一张明星照片。
在步骤 202中, 获取模版图像中的脸部信息。 该明星照片为大眼, 且下巴长度为脸长 的 1/5, 属于脸部脸部结构美学中标准的下巴比例。
在步骤 203中, 获取待处理图像中的脸部信息。 该待处理图像为小眼, 下巴长度为脸 长的 1/6, 下巴较宽。
在步骤 204中, 判断模版图像中的脸部信息与待处理图像中的脸部信息是否相同; 若 相同, 则继续执行步骤 205 ; 否则, 继续执行步骤 206。
在步骤 205中, 生成信息内容为空的美颜处理信息, 根据信息内容为空的美颜处理信 息对待处理图像中的脸部进行美颜处理。
在步骤 206中,判断模版图像中的脸部信息与待处理图像中的脸部信息之间的差距是 否小于或等于第一阈值; 若是, 则继续执行步骤 207; 否则, 继续执行步骤 208。 在步骤 207中, 生成采用第一美颜级别进行美颜的美颜处理信息, 根据采用第一美颜 级别进行美颜的美颜处理信息对待处理图像中的脸部进行美颜处理。
在步骤 208中,判断模版图像中的脸部信息与待处理图像中的脸部信息之间的差距是 否大于第二阈值, 且该第二阈值大于第一阈值; 若是, 则继续执行步骤 209。
在步骤 209中, 生成采用第二美颜级别进行美颜的美颜处理信息, 根据采用第二美颜 级别进行美颜的美颜处理信息对待处理图像中的脸部进行美颜处理。
其中, 明星照片为大眼, 且下巴长度为脸长的 1/5 ; 而待处理图像为小眼, 且下巴长 度为脸长的 1/6, 下巴较宽, 需要调整待处理图像的眼睛和下巴长度。 根据上述步骤 204 至步骤 210, 对待处理图像的眼睛进行加强增大处理, 对待处理图像的下巴进行轻微拉长 处理。 如图 2B所示为待处理图像中的脸部美颜处理前后的示意图, 其中, 21为处理前的 示意图, 22处理后的示意图, 211 为眼睛处理前示意图, 221 为眼睛处理后示意图, 212 为下巴处理前示意图, 222为下巴处理后示意图。
本实施例一中, 获取用户选择的模版图像, 该模板图像为一张明星照片, 可根据该明 星照片的脸部信息对待处理图像中需要美颜的部位进行美颜处理,不需要用户手动逐项设 置美颜参数, 方便用户使用, 节约用户的时间, 提高美颜处理的效率; 并且可以根据模版 图像中的脸部信息与待处理图像中的脸部信息之间的差距大小, 进行相应的美颜处理, 满 足不同用户的需求。
实施例二
实施例二中, 获取用户选择的模版图像, 该模板图像为一张宠物照片, 可根据该宠物 照片的脸部信息对待处理图像中需要美颜的部位进行美颜处理,不需要用户手动逐项设置 美颜参数, 方便用户使用, 节约用户的时间, 提高美颜处理的效率。 如图 3A所示, 一种 图像处理的方法包括以下步骤:
在步骤 301中, 获取用户选择的模版图像, 本实施例的方法可用于智能手机、 平板电 脑等终端设备。 该模板图像为一张宠物照片。
在步骤 302中, 获取模版图像中的脸部信息。 该宠物照片鼻子塌, 嘴唇颜色红润。 在步骤 303中, 获取待处理图像中的脸部信息。 该待处理图像鼻子挺, 嘴唇苍白。 在步骤 304中, 将模版图像中的脸部信息与待处理图像中的脸部信息进行对比, 获得 对比结果。
其中, 宠物照片鼻子塌, 嘴唇颜色红润; 而待处理图像鼻子挺, 嘴唇苍白, 因此, 不 需要对鼻子进行美颜处理, 需要对嘴唇颜色进行加红处理, 使得嘴唇看上去红润。
在步骤 305中, 根据对比结果对待处理图像中的脸部进行美颜处理。 如图 3B所示为 待处理图像中的脸部美颜处理前后的示意图, 其中, 31为处理前的示意图, 32为处理后 的示意图, 311为嘴唇颜色处理前示意图, 321为嘴唇颜色处理后示意图。
本实施例二中, 获取用户选择的模版图像, 该模板图像为一张宠物照片, 可根据该宠 物照片的脸部信息对待处理图像中需要美颜的部位进行美颜处理,不需要用户手动逐项设 置美颜参数, 方便用户使用, 节约用户的时间, 提高美颜处理的效率; 并且可以根据模版 图像中的脸部信息与待处理图像中的脸部信息之间的差距大小, 进行相应的美颜处理, 满 足不同用户的需求。
需要说明的是, 实际应用中, 上述所有可选实施方式可以采用结合的方式任意组合, 形成本公开的可选实施例, 在此不再一一赘述。
通过以上描述了解了图像处理的方法实现过程, 该过程可由装置实现, 下面对装置的 内部结构和功能进行介绍。
在一个实施例中, 如图 4所示, 一种图像处理的装置, 包括: 获取模块 401和处理模 块 402。
获取模块 401, 用于获取模版图像中的脸部信息;
处理模块 402, 用于根据模版图像中的脸部信息, 对待处理图像中的脸部进行美颜处 理。
在一个实施例中, 脸部信息包括: 脸部器官的位置和间距、 脸部器官及脸部的尺寸和 比例、脸部器官的形状、脸部器官的角度方向、脸部器官及脸部的颜色中的任一种或多种。
在一个实施例中, 如图 5所示, 上述处理模块 402可包括:
第一获取单元 501, 用于获取待处理图像中的脸部信息;
对比单元 502, 用于将模版图像中的脸部信息与待处理图像中的脸部信息进行对比, 获得对比结果;
第一处理单元 503, 用于根据对比结果对待处理图像中的脸部进行美颜处理。
在一个实施例中, 如图 6所示, 上述处理模块 402可包括:
第二获取单元 601, 用于获取待处理图像中的脸部信息;
第一判断单元 602, 用于判断模版图像中的脸部信息与待处理图像中的脸部信息是否 相同;
第一生成单元 603,用于当模版图像中的脸部信息与待处理图像中的脸部信息相同时, 生成信息内容为空的美颜处理信息;
第二处理单元 604, 用于根据信息内容为空的美颜处理信息对待处理图像中的脸部进 行美颜处理。
在一个实施例中, 如图 7所示, 上述图 6展示的处理模块 402还可包括:
第二判断单元 701, 用于在第一判断单元 602判断模版图像中的脸部信息与待处理图 像中的脸部信息是否相同之后, 当模版图像中的脸部信息与待处理图像中的脸部信息不同 时,判断模版图像中的脸部信息与待处理图像中的脸部信息之间的差距是否小于或等于第 一阈值;
第二生成单元 702, 用于当模版图像中的脸部信息与待处理图像中的脸部信息之间的 差距小于或等于第一阈值时, 生成采用第一美颜级别进行美颜的美颜处理信息, 根据采用 第一美颜级别进行美颜的美颜处理信息对待处理图像中的脸部进行美颜处理; 第三生成单元 703, 用于当模版图像中的脸部信息与待处理图像中的脸部信息之间的 差距大于第二阈值时, 生成采用第二美颜级别进行美颜的美颜处理信息, 根据采用第二美 颜级别进行美颜的美颜处理信息对待处理图像中的脸部进行美颜处理,第二阈值大于第一 阈值。
在一个实施例中, 如图 8所示, 上述图 4展示的装置还可包括:
第一接收模块 801, 用于在获取模块 401获取模版图像中的脸部信息之前, 接收输入 的模版图像;
或者, 在一个实施例中, 如图 9所示, 上述图 4展示的装置还可包括:
第二接收模块 901, 用于在获取模块 401获取模版图像中的脸部信息之前, 接收选择 的模版图像。
图 10是本公开实施例中终端设备的结构示意图。 参见图 10, 该终端可以用于实施上 述实施例中提供的方法。
终端设备 800可以包括通信单元 110、 包括有一个或一个以上计算机可读存储介质的 存储器 120、输入单元 130、显示单元 140、传感器 150、音频电路 160、无线通信单元 170、 包括有一个或者一个以上处理核心的处理器 180、 以及电源 190等部件。 本领域技术人员 可以理解, 图 10中示出的终端设备结构并不构成对终端设备的限定, 可以包括比图示更 多或更少的部件, 或者组合某些部件, 或者不同的部件布置。 其中:
通信单元 110可用于收发信息或通话过程中, 信号的接收和发送, 该通信单元 110可 以为 RF (Radio Frequency, 射频) 电路、 路由器、 调制解调器、 等网络通信设备。 特别 地, 当通信单元 110为 RF电路时, 将基站的下行信息接收后, 交由一个或者一个以上处 理器 180处理; 另外, 将涉及上行的数据发送给基站。 通常, 作为通信单元的 RF电路包 括但不限于天线、 至少一个放大器、 调谐器、 一个或多个振荡器、 用户身份模块 (SIM) 卡、 收发信机、 耦合器、 LNA (Low Noise Amplifier, 低噪声放大器) 、 双工器等。 此外, 通信单元 110还可以通过无线通信与网络和其他设备通信。无线通信可以使用任一通信标 准或协议, 包括但不限于 GSM (Global System of Mobile communication, 全球移动通讯系 统) 、 GPRS (General Packet Radio Service, 通用分组无线服务) 、 CDMA (Code Division Multiple Access, 码分多址) 、 WCDMA (Wideband Code Division Multiple Access, 宽带 码分多址) 、 LTE (Long Term Evolution, 长期演进) 、 电子邮件、 SMS ( Short Messaging Service, 短消息服务)等。 存储器 120可用于存储软件程序以及模块, 处理器 180通过运 行存储在存储器 120的软件程序以及模块, 从而执行各种功能应用以及数据处理。存储器 120可主要包括存储程序区和存储数据区, 其中, 存储程序区可存储操作系统、 至少一个 功能所需的应用程序(比如声音播放功能、 图像播放功能等)等; 存储数据区可存储根据 终端设备 800的使用所创建的数据 (比如音频数据、 电话本等)等。 此外, 存储器 120可 以包括高速随机存取存储器, 还可以包括非易失性存储器, 例如至少一个磁盘存储器件、 闪存器件、 或其他易失性固态存储器件。 相应地, 存储器 120还可以包括存储器控制器, 以提供处理器 180和输入单元 130对存储器 120的访问。
输入单元 130可用于接收输入的数字或字符信息, 以及产生与用户设置以及功能控制 有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。输入单元 130可包括触敏表面 131 以及其他输入设备 132。 触敏表面 131, 也称为触摸显示屏或者触控板, 可收集用户在其 上或附近的触摸操作 (比如用户使用手指、 触笔等任何适合的物体或附件在触敏表面 131 上或在触敏表面 131附近的操作),并根据预先设定的程式驱动相应的连接装置。可选的, 触敏表面 131可包括触摸检测装置和触摸控制器两个部分。其中, 触摸检测装置检测用户 的触摸方位, 并检测触摸操作带来的信号, 将信号传送给触摸控制器; 触摸控制器从触摸 检测装置上接收触摸信息, 并将它转换成触点坐标, 再送给处理器 180, 并能接收处理器 180发来的命令并加以执行。 此外, 可以采用电阻式、 电容式、 红外线以及表面声波等多 种类型实现触敏表面 131。除了触敏表面 131,输入单元 130还可以包括其他输入设备 132。 其他输入设备 132可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、 轨迹球、 鼠标、 操作杆等中的一种或多种。
显示单元 140可用于显示由用户输入的信息或提供给用户的信息以及终端设备 800的 各种图形用户接口, 这些图形用户接口可以由图形、 文本、 图标、 视频和其任意组合来构 成。 显示单元 140可包括显示面板 141, 可选的, 可以采用 LCD (Liquid Crystal Display, 液晶显示器) 、 OLED (Organic Light-Emitting Diode, 有机发光二极管) 等形式来配置显 示面板 141。 进一步的, 触敏表面 131可覆盖显示面板 141, 当触敏表面 131检测到在其 上或附近的触摸操作后, 传送给处理器 180以确定触摸事件的类型, 随后处理器 180根据 触摸事件的类型在显示面板 141上提供相应的视觉输出。 虽然在图 10中, 触敏表面 131 与显示面板 141是作为两个独立的部件来实现输入和输入功能, 但是在某些实施例中, 可 以将触敏表面 131与显示面板 141集成而实现输入和输出功能。
终端设备 800还可包括至少一种传感器 150, 比如光传感器、 运动传感器以及其他传 感器。 光传感器可包括环境光传感器及接近传感器, 其中, 环境光传感器可根据环境光线 的明暗来调节显示面板 141的亮度, 接近传感器可在终端设备 800移动到耳边时, 关闭显 示面板 141和 /或背光。作为运动传感器的一种, 重力加速度传感器可检测各个方向上(一 般为三轴)加速度的大小, 静止时可检测出重力的大小及方向, 可用于识别手机姿态的应 用 (比如横竖屏切换、 相关游戏、 磁力计姿态校准) 、 振动识别相关功能 (比如计步器、 敲击)等; 至于终端设备 800还可配置的陀螺仪、 气压计、 湿度计、 温度计、 红外线传感 器等其他传感器, 在此不再赘述。
音频电路 160、扬声器 161, 传声器 162可提供用户与终端设备 800之间的音频接口。 音频电路 160可将接收到的音频数据转换后的电信号, 传输到扬声器 161, 由扬声器 161 转换为声音信号输出; 另一方面, 传声器 162将收集的声音信号转换为电信号, 由音频电 路 160接收后转换为音频数据, 再将音频数据输出处理器 180处理后, 经 RF电路 110以 发送给比如另一终端设备, 或者将音频数据输出至存储器 120以便进一步处理。 音频电路 160还可能包括耳塞插孔, 以提供外设耳机与终端设备 800的通信。
为了实现无线通信,该终端设备上可以配置有无线通信单元 170,该无线通信单元 170 可以为 WIFI (Wireless Fidelity, 无线保真) 模块。 WIFI属于短距离无线传输技术, 终端 设备 800通过无线通信单元 170可以帮助用户收发电子邮件、浏览网页和访问流式媒体等, 它为用户提供了无线的宽带互联网访问。虽然图 10中示出了无线通信单元 170,但是可以 理解的是, 其并不属于终端设备 800的必须构成, 完全可以根据需要在不改变公开的本质 的范围内而省略。
处理器 180是终端设备 800的控制中心,利用各种接口和线路连接整个手机的各个部 分, 通过运行或执行存储在存储器 120 内的软件程序和 /或模块, 以及调用存储在存储器 120内的数据, 执行终端设备 800的各种功能和处理数据, 从而对手机进行整体监控。 可 选的, 处理器 180可包括一个或多个处理核心; 处理器 180可集成应用处理器和调制解调 处理器, 其中, 应用处理器主要处理操作系统、 用户界面和应用程序等, 调制解调处理器 主要处理无线通信。 可以理解的是, 上述调制解调处理器也可以不集成到处理器 180中。
终端设备 800还包括给各个部件供电的电源 190 (比如电池) , 电源可以通过电源管 理系统与处理器 180逻辑相连, 从而通过电源管理系统实现管理充电、 放电、 以及功耗管 理等功能。 电源 190还可以包括一个或一个以上的直流或交流电源、 再充电系统、 电源故 障检测电路、 电源转换器或者逆变器、 电源状态指示器等任意组件。
尽管未示出, 终端设备 800还可以包括摄像头、 蓝牙模块等, 在此不再赘述。 在本实 施例中, 终端设备还包括有存储器, 以及一个或者一个以上的程序, 其中一个或者一个以 上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行一个或者一个以上程 序包含用于进行本公开实施例提供的方法的指令:
获取模版图像中的脸部信息;
根据模版图像中的脸部信息, 对待处理图像中的脸部进行美颜处理。
存储器还可以包括执行以下操作的指令:
脸部信息包括: 脸部器官的位置和间距、 脸部器官及脸部的尺寸和比例、 脸部器官的 形状、 脸部器官的角度方向、 脸部器官及脸部的颜色中的任一种或多种。
存储器还可以包括执行以下操作的指令:
根据模版图像中的脸部信息, 对待处理图像中的脸部进行美颜处理, 包括: 获取待处理图像中的脸部信息;
将模版图像中的脸部信息与待处理图像中的脸部信息进行对比, 获得对比结果; 根据对比结果对待处理图像中的脸部进行美颜处理。
存储器还可以包括执行以下操作的指令:
根据模版图像中的脸部信息, 对待处理图像中的脸部进行美颜处理, 包括: 获取待处理图像中的脸部信息;
判断模版图像中的脸部信息与待处理图像中的脸部信息是否相同; 当模版图像中的脸部信息与待处理图像中的脸部信息相同时,生成信息内容为空的美 颜处理信息;
根据信息内容为空的美颜处理信息对待处理图像中的脸部进行美颜处理。
存储器还可以包括执行以下操作的指令:
判断模版图像中的脸部信息与待处理图像中的脸部信息是否相同之后, 还包括: 当模版图像中的脸部信息与待处理图像中的脸部信息不同时,判断模版图像中的脸部 信息与待处理图像中的脸部信息之间的差距是否小于或等于第一阈值;
当模版图像中的脸部信息与待处理图像中的脸部信息之间的差距小于或等于第一阈 值时, 生成采用第一美颜级别进行美颜的美颜处理信息, 根据采用第一美颜级别进行美颜 的美颜处理信息对待处理图像中的脸部进行美颜处理;
当模版图像中的脸部信息与待处理图像中的脸部信息之间的差距大于第二阈值时,生 成采用第二美颜级别进行美颜的美颜处理信息,根据采用第二美颜级别进行美颜的美颜处 理信息对待处理图像中的脸部进行美颜处理, 第二阈值大于第一阈值。
存储器还可以包括执行以下操作的指令:
获取模版图像中的脸部信息之前, 方法还包括:
接收输入的模版图像; 或者
接收选择的模版图像。
本公开实施例中能够自动识别模版图像及待处理图像中的脸部,根据模版图像中的脸 部信息对待处理图像中需要美颜的部位进行美颜处理, 不需要用户手动逐项设置美颜参 数, 方便用户使用, 节约用户的时间, 提高美颜处理的效率; 并且可以根据模版图像中的 脸部信息与待处理图像中的脸部信息之间的差距大小, 进行相应的美颜处理, 满足不同用 户的需求。
此外, 典型地, 本公开所述的移动终端可为各种手持终端设备, 例如手机、 个人数字 助理 (PDA) 等, 因此本公开的保护范围不应限定为某种特定类型的移动终端。
此外, 根据本公开的方法还可以被实现为由中央处理器 CPU执行的计算机程序。 在 该计算机程序被 CPU执行时, 执行本公开的方法中限定的上述功能。
此外,上述方法步骤以及系统单元也可以利用控制器以及用于存储使得控制器实现上 述步骤或单元功能的计算机程序的计算机可读存储设备实现。
此外, 应该明白的是, 本文所述的计算机可读存储设备 (例如, 存储器)可以是易失 性存储器或非易失性存储器, 或者可以包括易失性存储器和非易失性存储器两者。作为例 子而非限制性的,非易失性存储器可以包括只读存储器(ROM)、可编程 ROM (PROM)、 电可编程 ROM (EPROM) 、 电可擦写可编程 ROM (EEPROM) 或快闪存储器。 易失性 存储器可以包括随机存取存储器(RAM) , 该 RAM可以充当外部高速缓存存储器。 作为 例子而非限制性的, RAM可以以多种形式获得, 比如同步 RAM (DRAM) 、 动态 RAM ( DRAM )、同步 DRAM ( SDRAM )、双数据速率 SDRAM ( DDR SDRAM )、增强 SDRAM (ESDRAM) 、 同步链路 DRAM ( SLDRAM) 以及直接 Rambus RAM (DRRAM) 。 所 公开的方面的存储设备意在包括但不限于这些和其它合适类型的存储器。
本领域技术人员还将明白的是, 结合这里的公开所描述的各种示例性逻辑块、 模块、 电路和算法步骤可以被实现为电子硬件、计算机软件或两者的组合。 为了清楚地说明硬件 和软件的这种可互换性, 已经就各种示意性组件、 方块、 模块、 电路和步骤的功能对其进 行了一般性的描述。这种功能是被实现为软件还是被实现为硬件取决于具体应用以及施加 给整个系统的设计约束。本领域技术人员可以针对每种具体应用以各种方式来实现所述的 功能, 但是这种实现决定不应被解释为导致脱离本公开的范围。
结合这里的公开所描述的各种示例性逻辑块、模块和电路可以利用被设计成用于执行 这里所述功能的下列部件来实现或执行: 通用处理器、 数字信号处理器 (DSP) 、 专用集 成电路 (ASIC) 、 现场可编程门阵列 (FPGA) 或其它可编程逻辑器件、 分立门或晶体管 逻辑、 分立的硬件组件或者这些部件的任何组合。 通用处理器可以是微处理器, 但是可替 换地, 处理器可以是任何传统处理器、 控制器、 微控制器或状态机。 处理器也可以被实现 为计算设备的组合, 例如, DSP 和微处理器的组合、 多个微处理器、 一个或多个微处理 器结合 DSP 核、 或任何其它这种配置。
结合这里的公开所描述的方法或算法的步骤可以直接包含在硬件中、由处理器执行的 软件模块中或这两者的组合中。软件模块可以驻留在 RAM存储器、快闪存储器、 ROM存 储器、 EPROM存储器、 EEPROM存储器、 寄存器、 硬盘、 可移动盘、 CD-ROM、 或本领 域已知的任何其它形式的存储介质中。示例性的存储介质被耦合到处理器, 使得处理器能 够从该存储介质中读取信息或向该存储介质写入信息。在一个替换方案中, 所述存储介质 可以与处理器集成在一起。 处理器和存储介质可以驻留在 ASIC 中。 ASIC可以驻留在用 户终端中。 在一个替换方案中, 处理器和存储介质可以作为分立组件驻留在用户终端中。
在一个或多个示例性设计中,所述功能可以在硬件、软件、固件或其任意组合中实现。 如果在软件中实现,则可以将所述功能作为一个或多个指令或代码存储在计算机可读介质 上或通过计算机可读介质来传送。计算机可读介质包括计算机存储介质和通信介质, 该通 信介质包括有助于将计算机程序从一个位置传送到另一个位置的任何介质。存储介质可以 是能够被通用或专用计算机访问的任何可用介质。作为例子而非限制性的, 该计算机可读 介质可以包括 RAM、 ROM、 EEPROM ^ CD-ROM 或其它光盘存储设备、 磁盘存储设备 或其它磁性存储设备,或者是可以用于携带或存储形式为指令或数据结构的所需程序代码 并且能够被通用或专用计算机或者通用或专用处理器访问的任何其它介质。此外, 任何连 接都可以适当地称为计算机可读介质。 例如, 如果使用同轴线缆、 光纤线缆、 双绞线、 数 字用户线路 (DSL) 或诸如红外线、 无线电和微波的无线技术来从网站、 服务器或其它远 程源发送软件, 则上述同轴线缆、 光纤线缆、 双绞线、 DSL或诸如红外先、 无线电和微波 的无线技术均包括在介质的定义。 如这里所使用的, 磁盘和光盘包括压缩盘 (CD) 、 激 光盘、 光盘、 数字多功能盘 (DVD) 、 软盘、 蓝光盘, 其中磁盘通常磁性地再现数据, 而 光盘利用激光光学地再现数据。 上述内容的组合也应当包括在计算机可读介质的范围内。 尽管前面公开的内容示出了本公开的示例性实施例, 但是应当注意, 在不背离权利要 求限定的本公开的范围的前提下, 可以进行多种改变和修改。根据这里描述的公开实施例 的方法权利要求的功能、 步骤和 /或动作不需以任何特定顺序执行。 此外, 尽管本公开的 元素可以以个体形式描述或要求, 但是也可以设想多个, 除非明确限制为单数。
以上所述的具体实施方式, 对本公开的目的、 技术方案和有益效果进行了进一步详细 说明, 所应理解的是, 以上所述仅为本公开的具体实施方式而已, 并不用于限定本公开的 保护范围, 凡在本公开的精神和原则之内, 所做的任何修改、 等同替换、 改进等, 均应包 含在本公开的保护范围之内。

Claims

权利要求
1、 一种图像处理的方法, 其特征在于, 包括:
获取模版图像中的脸部信息;
根据所述模版图像中的脸部信息, 对待处理图像中的脸部进行美颜处理。
2、 根据权利要求 1所述的方法, 其特征在于,
所述脸部信息包括: 脸部器官的位置和间距、脸部器官及脸部的尺寸和比例、脸部器 官的形状、 脸部器官的角度方向、 脸部器官及脸部的颜色中的任一种或多种。
3、根据权利要求 1所述的方法, 其特征在于, 所述根据所述模版图像中的脸部信息, 对待处理图像中的脸部进行美颜处理, 包括:
获取待处理图像中的脸部信息;
将所述模版图像中的脸部信息与所述待处理图像中的脸部信息进行对比,获得对比结 果;
根据所述对比结果对所述待处理图像中的脸部进行美颜处理。
4、 根据权利要求 1或 3所述的方法, 其特征在于, 所述根据所述模版图像中的脸部 信息, 对待处理图像中的脸部进行美颜处理, 包括:
获取待处理图像中的脸部信息;
判断所述模版图像中的脸部信息与所述待处理图像中的脸部信息是否相同; 当所述模版图像中的脸部信息与所述待处理图像中的脸部信息相同时,生成信息内容 为空的美颜处理信息;
根据所述信息内容为空的美颜处理信息对所述待处理图像中的脸部进行美颜处理。
5、 根据权利要求 4所述的方法, 其特征在于, 所述判断所述模版图像中的脸部信息 与所述待处理图像中的脸部信息是否相同之后, 还包括:
当所述模版图像中的脸部信息与所述待处理图像中的脸部信息不同时,判断所述模版 图像中的脸部信息与所述待处理图像中的脸部信息之间的差距是否小于或等于第一阈值; 当所述模版图像中的脸部信息与所述待处理图像中的脸部信息之间的差距小于或等 于所述第一阈值时,生成采用第一美颜级别进行美颜的美颜处理信息,根据所述采用第一 美颜级别进行美颜的美颜处理信息对所述待处理图像中的脸部进行美颜处理;
当所述模版图像中的脸部信息与所述待处理图像中的脸部信息之间的差距大于第二 阈值时,生成采用第二美颜级别进行美颜的美颜处理信息,根据所述采用第二美颜级别进 行美颜的美颜处理信息对所述待处理图像中的脸部进行美颜处理,所述第二阈值大于所述 第一阈值。
6、根据权利要求 1所述的方法, 其特征在于, 所述获取模版图像中的脸部信息之前, 所述方法还包括:
接收输入的所述模版图像; 或者
接收选择的所述模版图像。
7、 一种图像处理的装置, 其特征在于, 包括:
获取模块, 用于获取模版图像中的脸部信息;
处理模块,用于根据所述模版图像中的脸部信息,对待处理图像中的脸部进行美颜处 理。
8、 根据权利要求 6所述的装置, 其特征在于, 所述处理模块包括:
第一获取单元, 用于获取待处理图像中的脸部信息;
对比单元,用于将所述模版图像中的脸部信息与所述待处理图像中的脸部信息进行对 比, 获得对比结果;
第一处理单元, 用于根据所述对比结果对所述待处理图像中的脸部进行美颜处理。
9、 根据权利要求 7或 8所述的装置, 其特征在于, 所述处理模块包括:
第二获取单元, 用于获取待处理图像中的脸部信息;
第一判断单元,用于判断所述模版图像中的脸部信息与所述待处理图像中的脸部信息 是否相同;
第一生成单元,用于当所述模版图像中的脸部信息与所述待处理图像中的脸部信息相 同时, 生成信息内容为空的美颜处理信息;
第二处理单元,用于根据所述信息内容为空的美颜处理信息对所述待处理图像中的脸 部进行美颜处理。
10、 根据权利要求 9所述的装置, 其特征在于, 所述处理模块还包括:
第二判断单元,用于在所述第一判断单元判断所述模版图像中的脸部信息与所述待处 理图像中的脸部信息是否相同之后,当所述模版图像中的脸部信息与所述待处理图像中的 脸部信息不同时,判断所述模版图像中的脸部信息与所述待处理图像中的脸部信息之间的 差距是否小于或等于第一阈值;
第二生成单元,用于当所述模版图像中的脸部信息与所述待处理图像中的脸部信息之 间的差距小于或等于所述第一阈值时, 生成采用第一美颜级别进行美颜的美颜处理信息, 根据所述采用第一美颜级别进行美颜的美颜处理信息对所述待处理图像中的脸部进行美 颜处理;
第三生成单元,用于当所述模版图像中的脸部信息与所述待处理图像中的脸部信息之 间的差距大于第二阈值时,生成采用第二美颜级别进行美颜的美颜处理信息,根据所述采 用第二美颜级别进行美颜的美颜处理信息对所述待处理图像中的脸部进行美颜处理,所述 第二阈值大于所述第一阈值。
11、 根据权利要求 7所述的装置, 其特征在于, 所述装置还包括:
第一接收模块,用于在所述获取模块获取模版图像中的脸部信息之前,接收输入的所 述模版图像; 或者
第二接收模块,用于在所述获取模块获取模版图像中的脸部信息之前,接收选择的所 述模版图像。
12、 一种终端设备, 其特征在于, 终端设备包括有存储器, 以及一个或者一个以上的 程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理 器执行所述一个或者一个以上程序包含用于进行以下操作的指令:
获取模版图像中的脸部信息;
根据所述模版图像中的脸部信息, 对待处理图像中的脸部进行美颜处理。
PCT/CN2014/077463 2013-11-28 2014-05-14 一种图像处理的方法、装置及终端设备 WO2015078151A1 (zh)

Priority Applications (6)

Application Number Priority Date Filing Date Title
RU2015125297A RU2615320C2 (ru) 2013-11-28 2014-05-14 Способ, аппаратура и устройство терминала для обработки изображения
MX2014008798A MX343021B (es) 2013-11-28 2014-05-14 Metodo, aparato y dispositivo terminal para el procesamiento de imagenes.
KR1020147021479A KR101619685B1 (ko) 2013-11-28 2014-05-14 화상처리 방법, 화상처리 장치, 단말기장치, 프로그램 및 기록매체
JP2015549985A JP6309540B2 (ja) 2013-11-28 2014-05-14 画像処理方法、画像処理装置、端末装置、プログラム、及び記録媒体
BR112014017937A BR112014017937A8 (pt) 2013-11-28 2014-05-14 método, aparelho e dispositivo terminal para processamento de imagem
US14/462,577 US9652661B2 (en) 2013-11-28 2014-08-19 Method and terminal device for image processing

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201310626089.8 2013-11-28
CN201310626089.8A CN103632165B (zh) 2013-11-28 2013-11-28 一种图像处理的方法、装置及终端设备

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/462,577 Continuation US9652661B2 (en) 2013-11-28 2014-08-19 Method and terminal device for image processing

Publications (1)

Publication Number Publication Date
WO2015078151A1 true WO2015078151A1 (zh) 2015-06-04

Family

ID=50213192

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2014/077463 WO2015078151A1 (zh) 2013-11-28 2014-05-14 一种图像处理的方法、装置及终端设备

Country Status (9)

Country Link
US (1) US9652661B2 (zh)
EP (1) EP2879095B1 (zh)
JP (1) JP6309540B2 (zh)
KR (1) KR101619685B1 (zh)
CN (1) CN103632165B (zh)
BR (1) BR112014017937A8 (zh)
MX (1) MX343021B (zh)
RU (1) RU2615320C2 (zh)
WO (1) WO2015078151A1 (zh)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103632165B (zh) * 2013-11-28 2017-07-04 小米科技有限责任公司 一种图像处理的方法、装置及终端设备
CN104754221B (zh) * 2015-03-11 2018-11-16 广东欧珀移动通信有限公司 一种拍照方法及移动终端
CN104811684B (zh) * 2015-04-02 2017-06-16 广东欧珀移动通信有限公司 一种图像的三维美颜方法及装置
CN106412458A (zh) * 2015-07-31 2017-02-15 中兴通讯股份有限公司 一种图像处理方法和装置
CN106548117B (zh) * 2015-09-23 2019-03-08 腾讯科技(深圳)有限公司 一种人脸图像处理方法和装置
CN106940880A (zh) * 2016-01-04 2017-07-11 中兴通讯股份有限公司 一种美颜处理方法、装置和终端设备
CN105760882A (zh) * 2016-01-29 2016-07-13 宇龙计算机通信科技(深圳)有限公司 一种图像处理方法和终端设备
CN107085822B (zh) * 2016-02-16 2020-09-04 北京小米移动软件有限公司 人脸图像处理方法及装置
CN107204034B (zh) * 2016-03-17 2019-09-13 腾讯科技(深圳)有限公司 一种图像处理方法及终端
CN105825486B (zh) * 2016-04-05 2018-12-25 北京小米移动软件有限公司 美颜处理的方法及装置
CN106210521A (zh) * 2016-07-15 2016-12-07 深圳市金立通信设备有限公司 一种拍照方法及终端
CN106528925A (zh) * 2016-09-28 2017-03-22 珠海格力电器股份有限公司 基于美颜应用的美颜指导方法、装置及终端设备
CN106341672A (zh) * 2016-09-30 2017-01-18 乐视控股(北京)有限公司 图像处理方法、装置以及终端
CN106657793B (zh) * 2017-01-11 2019-01-22 维沃移动通信有限公司 一种图像处理方法及移动终端
CN108229278B (zh) 2017-04-14 2020-11-17 深圳市商汤科技有限公司 人脸图像处理方法、装置和电子设备
CN108229279B (zh) 2017-04-14 2020-06-02 深圳市商汤科技有限公司 人脸图像处理方法、装置和电子设备
CN107247548B (zh) * 2017-05-31 2018-09-04 腾讯科技(深圳)有限公司 图像显示方法、图像处理方法及装置
CN107239293B (zh) * 2017-06-29 2020-08-28 努比亚技术有限公司 一种图片编辑方法、终端及计算机可读存储介质
CN107395958B (zh) * 2017-06-30 2019-11-15 北京金山安全软件有限公司 一种图像处理方法、装置、电子设备及存储介质
CN107705356A (zh) * 2017-09-11 2018-02-16 广东欧珀移动通信有限公司 图像处理方法和装置
CN107808137A (zh) * 2017-10-31 2018-03-16 广东欧珀移动通信有限公司 图像处理方法、装置、电子设备及计算机可读存储介质
CN107833178A (zh) * 2017-11-24 2018-03-23 维沃移动通信有限公司 一种图像处理方法、装置及移动终端
CN107993209B (zh) * 2017-11-30 2020-06-12 Oppo广东移动通信有限公司 图像处理方法、装置、计算机可读存储介质和电子设备
CN108174094A (zh) * 2017-12-28 2018-06-15 努比亚技术有限公司 图像优化方法、移动终端以及计算机可读介质
US11100615B2 (en) * 2018-06-15 2021-08-24 Casio Computer Co., Ltd. Image processing device, image processing method, and image processing program
CN109461124A (zh) * 2018-09-21 2019-03-12 维沃移动通信(杭州)有限公司 一种图像处理方法及终端设备
CN109325929A (zh) * 2018-10-17 2019-02-12 联想(北京)有限公司 图像处理方法和电子设备
CN109242768B (zh) * 2018-10-29 2023-09-22 维沃移动通信有限公司 一种图像处理方法及终端设备
CN109872283A (zh) * 2019-01-18 2019-06-11 维沃移动通信有限公司 一种图像处理方法及移动终端
KR20200109634A (ko) * 2019-03-13 2020-09-23 주식회사 케이티 아바타를 이용하여 영상 통화를 수행하는 사용자 단말, 통화 중계 서버 및 방법
CN110472077A (zh) * 2019-07-12 2019-11-19 浙江执御信息技术有限公司 人像识别前置校验方法、系统、介质及电子设备
WO2021049824A1 (en) 2019-09-12 2021-03-18 Samsung Electronics Co., Ltd. Method and electronic device for applying beauty effect setting
US11869213B2 (en) 2020-01-17 2024-01-09 Samsung Electronics Co., Ltd. Electronic device for analyzing skin image and method for controlling the same
CN111275650B (zh) 2020-02-25 2023-10-17 抖音视界有限公司 美颜处理方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101308578A (zh) * 2008-06-20 2008-11-19 华南理工大学 一种手写汉字美化方法
CN102546945A (zh) * 2012-01-04 2012-07-04 广东步步高电子工业有限公司 手机拍照自动优化的方法
CN102999929A (zh) * 2012-11-08 2013-03-27 大连理工大学 一种基于三角网格化的人物图像瘦脸处理方法
CN103605975A (zh) * 2013-11-28 2014-02-26 小米科技有限责任公司 一种图像处理的方法、装置及终端设备
CN103632165A (zh) * 2013-11-28 2014-03-12 小米科技有限责任公司 一种图像处理的方法、装置及终端设备

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3040466B2 (ja) 1990-07-17 2000-05-15 ブリテイッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー 画像処理方法
JP3912834B2 (ja) * 1997-03-06 2007-05-09 有限会社開発顧問室 顔画像の修正方法、化粧シミュレーション方法、化粧方法、化粧サポート装置及びファンデーション転写膜
US6396599B1 (en) * 1998-12-21 2002-05-28 Eastman Kodak Company Method and apparatus for modifying a portion of an image in accordance with colorimetric parameters
US6687418B1 (en) * 1999-02-25 2004-02-03 Lester Frank Ludwig Correction of image misfocus via fractional fourier transform
US6571003B1 (en) * 1999-06-14 2003-05-27 The Procter & Gamble Company Skin imaging and analysis systems and methods
JP4421761B2 (ja) * 1999-12-27 2010-02-24 富士フイルム株式会社 画像処理方法および装置並びに記録媒体
JP4368513B2 (ja) * 1999-12-27 2009-11-18 富士フイルム株式会社 画像処理方法および装置並びに記録媒体
US6931147B2 (en) * 2001-12-11 2005-08-16 Koninklijke Philips Electronics N.V. Mood based virtual photo album
JP2004147288A (ja) * 2002-10-25 2004-05-20 Reallusion Inc 顔画像の補正方法
JP4419759B2 (ja) * 2004-09-01 2010-02-24 株式会社ニコン 電子カメラシステム
US7486808B2 (en) * 2004-09-21 2009-02-03 Fujifilm Corporation Image processing device, image processing method and image processing program
US7796827B2 (en) * 2004-11-30 2010-09-14 Hewlett-Packard Development Company, L.P. Face enhancement in a digital video
WO2007128117A1 (en) * 2006-05-05 2007-11-15 Parham Aarabi Method. system and computer program product for automatic and semi-automatic modification of digital images of faces
US8620038B2 (en) * 2006-05-05 2013-12-31 Parham Aarabi Method, system and computer program product for automatic and semi-automatic modification of digital images of faces
US8660319B2 (en) * 2006-05-05 2014-02-25 Parham Aarabi Method, system and computer program product for automatic and semi-automatic modification of digital images of faces
US7764303B2 (en) * 2006-10-02 2010-07-27 Johnson & Johnson Consumer Companies, Inc. Imaging apparatus and methods for capturing and analyzing digital images of the skin
FR2907569B1 (fr) 2006-10-24 2009-05-29 Jean Marc Robin Procede et dispositif de simulation virtuelle d'une sequence d'images video.
US8059187B2 (en) * 2007-12-27 2011-11-15 Eastman Kodak Company Image capturing apparatus
KR101446975B1 (ko) * 2008-07-30 2014-10-06 디지털옵틱스 코포레이션 유럽 리미티드 얼굴 검출 기능을 사용한 얼굴 및 피부의 자동 미화
US8498456B2 (en) * 2009-07-13 2013-07-30 Stylecaster, Inc. Method and system for applying cosmetic and/or accessorial enhancements to digital images
CA2769583A1 (en) * 2009-08-04 2011-02-10 Vesalis Image-processing method for correcting a target image with respect to a reference image, and corresponding image-processing device
US8550818B2 (en) * 2010-05-21 2013-10-08 Photometria, Inc. System and method for providing and modifying a personalized face chart
US8523570B2 (en) * 2010-05-21 2013-09-03 Photometria, Inc System and method for providing a face chart
CN102486868A (zh) 2010-12-06 2012-06-06 华南理工大学 一种基于平均脸的美丽人脸合成方法
CN102254180B (zh) * 2011-06-28 2014-07-09 北京交通大学 一种基于几何特征的人脸美感分析方法
KR20130063310A (ko) 2011-12-06 2013-06-14 엘지전자 주식회사 이동 단말기 및 이의 제어방법
WO2013104015A1 (en) 2012-01-11 2013-07-18 Steven Liew A method and apparatus for facial aging assessment and treatment management
CN103258343B (zh) 2013-05-07 2015-09-16 中南大学 一种基于图像编辑的眼部图像处理方法
CN103413268B (zh) * 2013-08-06 2017-11-07 厦门美图移动科技有限公司 一种自动优化脸型的拍照方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101308578A (zh) * 2008-06-20 2008-11-19 华南理工大学 一种手写汉字美化方法
CN102546945A (zh) * 2012-01-04 2012-07-04 广东步步高电子工业有限公司 手机拍照自动优化的方法
CN102999929A (zh) * 2012-11-08 2013-03-27 大连理工大学 一种基于三角网格化的人物图像瘦脸处理方法
CN103605975A (zh) * 2013-11-28 2014-02-26 小米科技有限责任公司 一种图像处理的方法、装置及终端设备
CN103632165A (zh) * 2013-11-28 2014-03-12 小米科技有限责任公司 一种图像处理的方法、装置及终端设备

Also Published As

Publication number Publication date
KR20150075058A (ko) 2015-07-02
CN103632165A (zh) 2014-03-12
CN103632165B (zh) 2017-07-04
RU2015125297A (ru) 2017-01-10
RU2615320C2 (ru) 2017-04-04
US9652661B2 (en) 2017-05-16
JP6309540B2 (ja) 2018-04-11
US20150146987A1 (en) 2015-05-28
EP2879095B1 (en) 2017-09-27
EP2879095A1 (en) 2015-06-03
MX343021B (es) 2016-10-20
MX2014008798A (es) 2015-07-17
JP2016507815A (ja) 2016-03-10
BR112014017937A8 (pt) 2021-03-02
KR101619685B1 (ko) 2016-05-10

Similar Documents

Publication Publication Date Title
WO2015078151A1 (zh) 一种图像处理的方法、装置及终端设备
US10728442B2 (en) Initializing camera subsystem for face detection based on sensor inputs
WO2018103525A1 (zh) 人脸关键点跟踪方法和装置、存储介质
RU2626090C2 (ru) Способ, устройство и оконечное устройство для обработки изображения
US9684778B2 (en) Extending user authentication across a trust group of smart devices
CN103605975B (zh) 一种图像处理的方法、装置及终端设备
US11290447B2 (en) Face verification method and device
US20170244703A1 (en) Method and apparatus for connecting between electronic devices using authentication based on biometric information
WO2016169432A1 (zh) 身份验证方法、装置及终端
KR20150128377A (ko) 지문 처리 방법 및 그 전자 장치
WO2016127795A1 (zh) 业务处理方法、服务器及终端
WO2016173453A1 (zh) 活体鉴别方法、信息生成方法和终端
CN109032675A (zh) 终端设备的屏幕解锁方法、装置及终端设备
WO2016078504A1 (zh) 身份鉴权方法和装置
WO2018059328A1 (zh) 一种终端控制方法及终端、存储介质
WO2019047862A1 (zh) 一种指纹采集方法及终端设备、存储介质
WO2015043200A1 (en) Method and apparatus for controlling applications and operations on a terminal
WO2019011108A1 (zh) 虹膜识别方法及相关产品
WO2019071424A1 (zh) 应用功能的控制方法及终端
WO2019057119A1 (zh) 基于移动终端的wifi热点连接方法及移动终端、存储介质
US9202033B2 (en) Techniques for skin tone activation
CN109413256B (zh) 联系人信息处理方法、装置、存储介质及电子设备
KR20150027687A (ko) 전자 장치에서 콘텐츠를 캡처할 때 사용자 인터랙션을 제공하는 방법 및 시스템
CN109218169A (zh) 即时通讯方法、装置及存储介质
CN110516473A (zh) 应用程序的启动方法、终端及计算机可读存储介质

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: MX/A/2014/008798

Country of ref document: MX

ENP Entry into the national phase

Ref document number: 20147021479

Country of ref document: KR

Kind code of ref document: A

Ref document number: 2015549985

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2015125297

Country of ref document: RU

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14865486

Country of ref document: EP

Kind code of ref document: A1

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112014017937

Country of ref document: BR

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14865486

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 112014017937

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20140721