WO2021169810A1 - 视频处理方法及服务器 - Google Patents

视频处理方法及服务器 Download PDF

Info

Publication number
WO2021169810A1
WO2021169810A1 PCT/CN2021/076349 CN2021076349W WO2021169810A1 WO 2021169810 A1 WO2021169810 A1 WO 2021169810A1 CN 2021076349 W CN2021076349 W CN 2021076349W WO 2021169810 A1 WO2021169810 A1 WO 2021169810A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
adjustment
picture
terminal
data
Prior art date
Application number
PCT/CN2021/076349
Other languages
English (en)
French (fr)
Inventor
李芳�
Original Assignee
游艺星际(北京)科技有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 游艺星际(北京)科技有限公司 filed Critical 游艺星际(北京)科技有限公司
Publication of WO2021169810A1 publication Critical patent/WO2021169810A1/zh

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2743Video hosting of uploaded data from client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally

Definitions

  • the present disclosure relates to the technical field of video processing, and in particular to a video processing method and server.
  • viewing users can watch short video files with superimposed effects on the platform, and can also make some regular adjustments to the short video during the viewing process, such as adjusting the playback speed of the short video.
  • a video processing method which is applied to a server, and the method includes:
  • the first video is a video selected through a candidate page displayed by the first terminal
  • the adjustment data is data for adjusting a picture parameter of the first video when the first terminal plays the first video
  • a video processing method which is applied to a first terminal, and the method includes:
  • a video processing device which is applied to a server, and the device includes:
  • the first video sending module is configured to execute acquiring a first video, where the first video is a video selected through a candidate page displayed by the first terminal;
  • An adjustment data acquisition module configured to perform acquisition of adjustment data, the adjustment data being data for adjusting picture parameters of the first video when the first terminal plays the first video;
  • the second video sending module is configured to execute sending the second video corresponding to the adjustment data to the first terminal.
  • a video processing device which is applied to a first terminal, and the device includes:
  • the adjustment operation detection module is configured to perform an adjustment operation of detecting the picture parameters of the first video by the user during the process of displaying the first video;
  • An adjustment data acquisition module configured to perform an adjustment operation on the picture parameters of the first video in response to detection of an adjustment operation, and determine adjustment data corresponding to the adjustment operation;
  • the second video acquisition module is configured to perform acquisition of the second video corresponding to the adjustment data.
  • a server including:
  • a memory for storing a computer program executable by the processor; wherein the processor is configured to execute the computer program in the memory to perform the following steps:
  • the first video is a video selected through a candidate page displayed by the first terminal
  • the adjustment data is data for adjusting a picture parameter of the first video when the first terminal plays the first video
  • a terminal including:
  • a memory for storing a computer program executable by the processor; wherein the processor is configured to execute the computer program in the memory to perform the following steps:
  • a storage medium is provided, and when an executable computer program in the storage medium is executed by a processor of a server, the processor can execute the following steps:
  • the first video is a video selected through a candidate page displayed by the first terminal
  • the adjustment data is data for adjusting a picture parameter of the first video when the first terminal plays the first video
  • a storage medium is provided, and when an executable computer program in the storage medium is executed by a processor of a terminal, the processor can execute the following steps:
  • a computer program product is provided.
  • the server can execute the following steps:
  • the first video is a video selected through a candidate page displayed by the first terminal
  • the adjustment data is data for adjusting a picture parameter of the first video when the first terminal plays the first video
  • a computer program product is provided.
  • the terminal can execute the following steps:
  • Fig. 1 is a structural diagram of an image processing system according to an exemplary embodiment.
  • Fig. 2 is a flowchart showing an image processing method according to an exemplary embodiment.
  • Fig. 3 is a flow chart of obtaining a second video according to an exemplary embodiment.
  • Fig. 4 is another flow chart of obtaining a second video according to an exemplary embodiment.
  • Fig. 5 is a flowchart showing another image processing method according to an exemplary embodiment.
  • Fig. 6 is a flow chart showing obtaining a video identifier according to an exemplary embodiment.
  • Fig. 7 is a flow chart of obtaining a second video according to an exemplary embodiment.
  • Fig. 8 is another flow chart of obtaining a second video according to an exemplary embodiment.
  • Fig. 9 is a flowchart showing yet another image processing method according to an exemplary embodiment.
  • Figs. 10-17 are block diagrams showing an image processing device according to an exemplary embodiment.
  • Fig. 18 is a block diagram showing a terminal according to an exemplary embodiment.
  • the embodiments of the present disclosure provide a video processing method, which can be applied to the video processing system illustrated in FIG. 1.
  • the first terminal 10, the server 30, and the second terminal 20 constitute a video processing system from video production, processing to consumption.
  • the second terminal 20 can shoot a video, and upload the video through the communication link between the second terminal 20 and the server 30.
  • the original video is referred to as the first video in the subsequent embodiments.
  • the user of the second terminal 20 (hereinafter referred to as the second user) can adjust the picture parameters of the first video.
  • the second terminal 20 can generate a data identifier according to the adjustment data corresponding to the adjusted picture parameter or the adjustment data corresponding to the adjustment bar of the picture parameter, and send the data identifier to the server 30, and the data identifier carries the adjustment data.
  • the server stores the data identifier, and the second user repeats the above adjustment operations multiple times to form a corresponding relationship between the data identifier and the screen parameters in the server 30.
  • the user of the first terminal 10 (hereinafter referred to as the first user) can play the video through the application installed on the first terminal 10.
  • the first user triggers the candidate video page to select a video (ie, the first video) to play.
  • the first user can adjust the picture parameters of the first video.
  • the first terminal 10 generates a data identifier based on the adjustment data, and sends the data identifier to the server 30.
  • the server 30 sends the second video corresponding to the data identifier to the first terminal 10, so that the first terminal 10 can switch the first video to the second video for playback.
  • the first terminal 10 and the second terminal 20 are only distinguished from the perspective of uploading and playing videos. In practical applications, the first terminal 10 and the second terminal 20 can be operated by an electronic device.
  • the device implementation such as smart phones, tablet computers, data terminals, etc., is not limited here.
  • the picture parameters include at least one of the following: painting color, painting style, and character enhancement. in:
  • the painting color includes at least one of the following: brightness, hue, hue, and saturation.
  • Brightness refers to the degree of light shining on the image. When the brightness increases, the image will appear dazzling, and when the brightness decreases, the image will appear dark.
  • Hue refers to the lightness and darkness of the primary color in the image color mode.
  • the level ranges from 0 to 255, a total of 256 levels of tones. When the hue level is 255, it is white, when the level is 0, it is black, and the middle is various degrees of gray;
  • the rgb three-color mode represents the brightness of the three primary colors of red, green, and blue.
  • Hue refers to the color of the image.
  • Saturation refers to the depth of the image color. The higher the saturation, the fuller and brighter the color, and the lower the saturation, the darker the color.
  • Paint style refers to the overall style of the picture and the visual experience it gives users, such as nostalgic style, oil painting style, film style, etc.
  • Character enhancement refers to the partial modification of the screen and the addition of props (ie special effects), such as character enlargement, and character addition such as hats, canes, halo and other props.
  • FIG. 2 is a flowchart of a video processing method, which can be applied to the server in FIG. 1.
  • the method may include
  • the server obtains the video identifier sent by the first terminal, where the video identifier is used to indicate the first video selected by the user from the candidate video page when the first terminal displays the candidate page.
  • an application program capable of playing videos is installed on the first terminal 10, the first user starts the application program installed on the first terminal 10, and the first terminal 10 can display the candidate video page through the application program,
  • the candidate video page includes several candidate videos, and the first user can select his favorite video from the candidate video page to play.
  • the first terminal 10 detecting the first user's selection operation such as clicking, double-clicking, sliding, etc.
  • the first video selected by the first user from the candidate video page can be determined according to the selection operation position, and the The video identifier is sent to the server 30.
  • the server obtains the first video corresponding to the video identifier, and sends the first video to the first terminal.
  • the server 30 correspondingly maintains a database including several videos. After receiving the video identifier, the server can compare the data identifier with the identifier of each video in the database. When the identifier of the video in the database is the same as the data identifier, the server determines that the first video is found, and sends the first video to the first terminal 10 for the first terminal 10 to play. After receiving the first video sent by the server, the first terminal 10 can play the first video through an application installed on the first terminal 10.
  • the server obtains the data identifier sent by the first terminal, where the data identifier is used to indicate adjustment data for adjusting the picture parameters of the first video when the first terminal is playing the first video.
  • the first user can watch the first video through the first terminal 10. In the process of watching the first video, the first user may not be satisfied with the picture of the first video.
  • the first user triggers the playing screen of the application program, and the adjustment menu can pop up in the playing screen.
  • the first user can select the picture parameter that needs to be adjusted from the adjustment menu. For example, the first user can input the adjustment data of the picture parameter in the adjustment box of the picture parameter or when the first user selects the picture parameter that needs to be adjusted in the adjustment menu.
  • the first terminal 10 can display a sliding adjustment bar, and the first user can drag the sliding adjustment bar to realize the adjustment of the screen parameters.
  • the first terminal 10 can generate a data identifier according to the aforementioned adjustment data or adjustment data corresponding to the adjustment bar, and send the data identifier to the server 30.
  • the first terminal 10 can arrange the adjustment data into a data sequence, and can also use the adjustment data to generate a hash value, which is not limited in the embodiment of the present disclosure.
  • a unique identification can be generated, the corresponding solution falls within the protection scope of the present disclosure.
  • the server can obtain the data identifier sent by the first terminal 10, and the data identifier is used to indicate adjustment data for adjusting the picture parameters of the first video.
  • the server obtains the second video corresponding to the data identifier, and sends the second video to the first terminal.
  • the server 30 sends the second video to the first terminal 10 for the first terminal to play the second video.
  • the server 30 stores a preset correspondence between the logo and the picture parameter, that is, each logo corresponds to a set of picture parameters, and adjustment data for each picture parameter, where the adjustment data is the adjusted picture parameter. value.
  • the server After acquiring the data identifier, the server obtains the adjustment data carried in the data identifier based on the preset correspondence relationship between the identifier and the screen parameters according to the data identifier.
  • the server generates a screen adjustment model based on the adjustment data.
  • the picture parameter includes a picture color
  • the picture adjustment model includes a picture color adjustment sub-model.
  • the color adjustment sub-model is a linear function.
  • the server adjusts the color of each video frame through the color adjustment sub-model and uses the following formula to obtain the second video:
  • I1(r1,g1,b1,a1) F1[I0(r,g,b,a)];
  • I1(r1) a11(r)+b11(g)+c11(b);
  • I1(g1) a12(r)+b12(g)+c12(b);
  • I1(b1) a13(r)+b13(g)+c13(b);
  • F1[] represents the transformation function of the pixel
  • a11-a14, b11-b14, and c11-c14 represent the transformation parameters, which can take any value.
  • the picture parameters include painting style;
  • the picture adjustment model includes a painting style adjustment sub-model.
  • the painting style adjustment sub-model is a non-linear function.
  • the server uses the painting style adjustment sub-model to adjust the painting style of each video frame using the following formula to obtain the second video:
  • I2(r2,g2,b2,a2) F2[I0(r,g,b,a)];
  • I2(r2) a21(r*r)+b21(g*g)+c21(b*b)+d21(r*b)+e21(r*g)+f21(b*g);
  • I2(g2) a22(r*r)+b22(g*g)+c22(b*b)+d22(r*b)+e22(r*g)+f22(b*g);
  • I2(b2) a23(r*r)+b23(g*g)+c23(b*b)+d23(r*b)+e23(r*g)+f23(b*g);
  • I2(a2) a24(r*r)+b24(g*g)+c24(b*b)+d24(r*b)+e24(r*g)+f24(b*g);
  • F2[] represents the transformation function of the pixel
  • a21-a24, b21-b24, c21-c24, d21-d24, e21-e24, f21-f24 represent transformation parameters, which can take any value.
  • a21-a24, b21-b24, c21-c24, d21-d24, e21-e24, f21-f24 can set the corresponding value range, and take values within this value range.
  • the adjustment data includes at least one of a scaling ratio and a prop image
  • the screen adjustment model includes at least one of a character image scaling sub-model and a prop adding sub-model:
  • the character image scaling sub-model is used to enlarge or reduce the character image in each video frame of the first video according to the scaling ratio corresponding to the adjustment data. That is, the server zooms in or out of the character image in each video frame in the first video based on the zoom ratio by using the character image scaling sub-model.
  • the prop adding sub-model is used to superimpose the prop image corresponding to the adjustment data on the character image in each video frame of the first video. That is, the server adds a sub-model through the props, and superimposes the prop image on the character image in each video frame in the first video.
  • scaling the character image and adding prop graphics may also be referred to as character enhancement, where the prop image may include props such as hats, crutches, and halos.
  • the server adjusts each video frame in the first video by using the picture adjustment model to obtain the second video.
  • the server stores a first video, the corresponding relationship between the preset logo and the picture parameters, and the storage space occupied by the corresponding relationship between the preset logo and the picture parameters can be ignored Not counting, which means that the server only stores 1 first video. In this scenario, storage space can be saved.
  • the server compares the adjustment data with the adjustment data corresponding to each video in the database.
  • the server can compare the data identifier and the identifier of each video in the database in turn when the data identifier is obtained, wherein the identifier of each video is used to indicate the comparison of the first video The adjustment data of the screen parameters.
  • the video is determined as the second video.
  • the server determines the video with the same identifier as the data identifier as the second video.
  • the database illustrated in Figure 4 can include 1 first video and N second videos, which is equivalent to the second user uploading N+1 videos.
  • the database will It occupies a relatively large storage space, but can save the computing power of the server.
  • the server can send the first video corresponding to the video ID to the first terminal according to the acquired video ID; then, the server can send the second video corresponding to the data ID to the first terminal according to the data ID, At this time, the first terminal can play the second video instead of playing the first video.
  • FIG. 5 is a video processing method, which can be applied to the first terminal in FIG. 1. The method includes:
  • the first terminal detects the user's adjustment operation on the picture parameters of the first video.
  • the application on the first terminal 10 can display a candidate video page after being started.
  • the candidate video page may include several candidate videos, and the first user can select himself from the candidate video page.
  • the favorite video is played.
  • the first terminal 10 detects the user's trigger operation in the candidate video page.
  • the first terminal 10 obtains the video identifier of the first video selected by the trigger operation, and sends the video identifier to the server. After receiving the video identifier, the server sends the first video corresponding to the video identifier to the first terminal 10.
  • the first user can trigger a play screen, and at this time, an adjustment menu may pop up in the play screen. Then, the first user can select the picture parameter that needs to be adjusted from the adjustment menu. According to the adjustment box of the picture parameter, the first user can input the adjustment data of the picture parameter, or slide the adjustment bar, or select one of the sub-parameters of the picture parameter When the above adjustment data, the position of the adjustment bar or the sub-parameters are acquired, it is determined that the user's adjustment operation on the picture parameters of the first video is detected. Otherwise, the first terminal 10 may determine that the user's adjustment operation of the picture parameters of the first video is not detected, and may continue to perform the detection.
  • step 52 in response to detecting the adjustment operation, the first terminal generates a data identifier based on the adjustment data corresponding to the adjustment operation.
  • the data identifier is used to indicate that the user adjusts the picture parameters of the first video when the first terminal is playing the first video. Adjustment data.
  • the first terminal 10 in response to detecting the adjustment operation, the first terminal 10 generates a data identifier according to the aforementioned adjustment data or adjustment data or sub-parameters corresponding to the adjustment bar, where the data identifier is used to indicate that the screen parameters of the first video are performed. Adjusted adjustment data.
  • the first user can input the adjustment data of the picture parameter in the adjustment box of the picture parameter or, after the first user selects the picture parameter to be adjusted in the adjustment menu, the first terminal 10 can display the sliding adjustment bar, the first The user can adjust the picture parameters by dragging the sliding adjustment bar.
  • the first terminal 10 can generate a data identifier according to the aforementioned adjustment data or adjustment data corresponding to the adjustment bar.
  • the first terminal when generating the data identification, can arrange the adjustment data into a data sequence, and can also use the adjustment data to generate a hash value. In the case that a unique identification can be generated, the corresponding solution falls into the present disclosure. The scope of protection.
  • step 53 the first terminal obtains the second video corresponding to the data identifier.
  • the first terminal 10 obtains the second video corresponding to the adjustment data carried in the data identifier.
  • the first terminal 10 after the first terminal 10 obtains the data identifier, it can perform processing in the following manner:
  • the first terminal 10 sends the data identifier to the server 30.
  • the server 30 obtains the second video based on the data identifier.
  • specific content refer to the content shown in FIG. 3, which will not be repeated here; or the server can query the database based on the data identifier to obtain the second video.
  • specific content refer to the content shown in FIG. 4, I won't repeat them here.
  • the server 30 sends the acquired second video to the first terminal 10, and the first terminal 10 acquires the second video sent by the server 30.
  • the corresponding relationship between the preset identifier and the screen parameter is pre-stored in the first terminal 10 or synchronized from the server.
  • the first terminal 10 acquires the picture parameter corresponding to the data identifier and the adjustment data of the picture parameter based on the preset correspondence relationship between the identifier and the picture parameter.
  • the first terminal 10 generates a screen adjustment model based on the adjustment data of the screen parameters. It should be noted that the first terminal 10 can also send the data identification to the server 30, and the server 30 obtains the adjustment data corresponding to the data identification, and sends the adjustment data to the first terminal 10. The corresponding solution also falls under the protection of the present disclosure. Scope.
  • the first terminal 10 is used to obtain the second video only when the picture parameter is the picture color, that is, the picture adjustment model includes the picture color.
  • the server adjusts the sub-model through the drawing color, and uses the following formula to adjust the drawing color of each video frame to obtain the second video:
  • I1(r1,g1,b1,a1) F1[I0(r,g,b,a)];
  • I1(r1) a11(r)+b11(g)+c11(b);
  • I1(g1) a12(r)+b12(g)+c12(b);
  • I1(b1) a13(r)+b13(g)+c13(b);
  • F1[] represents the transformation function of the pixel
  • a11-a14, b11-b14, and c11-c14 represent the transformation parameters.
  • the first terminal 10 uses the screen adjustment model to adjust each video frame in the first video to obtain the second video.
  • the first terminal 10 can directly adjust the first video after obtaining the adjustment data to obtain the second video. In this way, the steps of generating data identifiers and converting the identifiers into adjustment data can be omitted. The corresponding solutions are implemented. Into the protection scope of this disclosure.
  • the data identifier can be generated according to the user's adjustment data of the picture parameters of the first video, and the second video can be obtained by using the data identifier.
  • FIG. 9 is a video processing method, which can be applied to the second terminal in FIG. 1. The method includes:
  • the second terminal detects the user's adjustment operation on the picture parameter of the first video.
  • the second terminal 20 can upload the first video to the server 30.
  • the second terminal 20 can detect the user's adjustment operation on the picture parameters of the first video. For example, the second user can select the picture parameter that needs to be adjusted from the adjustment menu. According to the adjustment box of the picture parameter, the second user can input the adjustment data of the picture parameter, or slide the adjustment bar, or select one of the sub-parameters of the picture parameter.
  • the second terminal 20 can determine that the user's adjustment operation on the picture parameters of the first video is detected. Otherwise, the second terminal 20 can determine that the user's adjustment operation of the picture parameters of the first video is not detected, and can continue to perform the detection.
  • the second terminal In response to detecting the adjustment operation, the second terminal generates a data identifier based on the adjustment data of the screen parameter.
  • the second terminal 20 when an adjustment operation is detected, can generate a data identifier according to the aforementioned adjustment data or adjustment data or sub-parameters corresponding to the adjustment bar.
  • the data identifier is used to indicate the adjustment data of the picture parameter of the first video.
  • the method of generating the data identification can use the adjustment data to form a data sequence, and also can use the adjustment data to generate a hash value.
  • the corresponding solution falls within the protection scope of the present disclosure.
  • the second terminal reports the data identification and adjustment data to the server.
  • the second terminal 20 may upload the data identification and adjustment data to the server 30, so that the server 30 establishes the corresponding relationship between the identification and the screen parameters.
  • the server 30 may generate the second video according to the data identifier, see the content shown in FIG. 3.
  • the server 30 may store the data identifier, and adjust the picture parameters of the first video according to the data identifier when the first terminal 10 uploads the data identifier to obtain the second video, and send the second video to the first terminal 10 .
  • the second terminal can perform multiple picture parameter adjustments on the first video, so that the server establishes a corresponding relationship between the identifier and the picture parameter, which is equivalent to acquiring multiple second videos.
  • the multiple second videos can meet the preferences of different viewing users, which is beneficial to improve the viewing experience.
  • FIG. 10 is a video processing device applied to a server.
  • the device includes:
  • the first video acquisition module 101 is configured to perform acquisition of a first video, and the first video is a video selected through a candidate page displayed by the first terminal.
  • the first video sending module 102 is configured to execute sending the first video to the first terminal.
  • the adjustment data obtaining module 103 is configured to perform obtaining adjustment data, and the adjustment data is data for adjusting the picture parameters of the first video when the first terminal plays the first video.
  • the second video acquisition module 104 is configured to execute sending the second video corresponding to the adjustment data to the first terminal.
  • the second video acquisition module 104 includes:
  • the adjustment data obtaining unit 111 is configured to perform a preset corresponding relationship between the identifier and the screen parameter to obtain the screen parameter corresponding to the data identifier and the adjustment data of the screen parameter.
  • the adjustment model obtaining unit 112 is configured to execute the generation of a screen adjustment model based on the adjustment data.
  • the second video acquisition unit 113 is configured to perform the adjustment of the picture parameters of each video frame in the first video through the picture adjustment model to obtain the second video.
  • the picture parameters include picture color
  • the picture adjustment model includes a picture color adjustment sub-model.
  • the picture color adjustment sub-model Through the picture color adjustment sub-model, the picture color of each video frame is adjusted using the following formula to obtain the second video:
  • I1(r1,g1,b1,a1) F1[I0(r,g,b,a)].
  • I1(r1) a11(r)+b11(g)+c11(b).
  • I1(g1) a12(r)+b12(g)+c12(b).
  • I1(b1) a13(r)+b13(g)+c13(b).
  • F1[] represents the transformation function of the pixel
  • a11-a14, b11-b14, and c11-c14 represent the transformation parameters.
  • the picture parameters include the painting style
  • the picture adjustment model includes the painting style adjustment sub-model.
  • the painting style adjustment sub-model the painting style of each video frame is adjusted using the following formula to obtain the second video:
  • I2(r2,g2,b2,a2) F2[I0(r,g,b,a)].
  • I2(r2) a21(r*r)+b21(g*g)+c21(b*b)+d21(r*b)+e21(r*g)+f21(b*g).
  • I2(g2) a22(r*r)+b22(g*g)+c22(b*b)+d22(r*b)+e22(r*g)+f22(b*g).
  • I2(b2) a23(r*r)+b23(g*g)+c23(b*b)+d23(r*b)+e23(r*g)+f23(b*g).
  • I2(a2) a24(r*r)+b24(g*g)+c24(b*b)+d24(r*b)+e24(r*g)+f24(b*g).
  • F2[] represents the transformation function of the pixel
  • a21-a24, b21-b24, c21-c24, d21-d24, e21-e24, and f21-f24 represent transformation parameters.
  • the adjustment data includes at least one of a scaling ratio and a prop image
  • the screen adjustment model includes at least one of a character image scaling sub-model and a prop adding sub-model:
  • the character image in each video frame in the first video is enlarged or reduced based on the scaling ratio.
  • prop images are superimposed on the character images in each video frame in the first video.
  • the second video acquisition module 104 includes:
  • the data identification comparison unit 121 is configured to perform comparison between the adjustment data and the adjustment data corresponding to each video in the database.
  • the second video determining unit 122 is configured to perform, in response to detecting an adjustment operation on the picture parameters of the first video, determining adjustment data corresponding to the adjustment operation.
  • FIG. 13 is a video processing device applied to the first terminal.
  • the device includes:
  • the adjustment operation detection module 131 is configured to perform an adjustment operation on the screen parameters of the first video by the user during the process of displaying the first video.
  • the data identification generating module 132 is configured to perform an adjustment operation on the picture parameters of the first video in response to the detection of the adjustment operation, and determine adjustment data corresponding to the adjustment operation.
  • the second video acquiring module 133 is configured to execute acquiring the second video corresponding to the adjustment data.
  • the device further includes:
  • the adjustment operation detection module 141 is also configured to detect a user's trigger operation in the candidate video page during the process of displaying the candidate page.
  • the video identification generating module 142 is configured to perform, in response to detecting the user's triggering operation in the candidate video page, determining the video identification of the first video selected by the triggering operation. Send the video ID to the server. The first video determined by the receiving server based on the video identifier.
  • the second video acquisition module 133 includes:
  • the data identification sending unit 151 is configured to send the data identification corresponding to the adjustment data to the server.
  • the second video acquisition unit 152 is configured to receive the second video determined by the server based on the data identifier.
  • the second video acquisition module 133 includes:
  • the adjustment data obtaining unit 161 is configured to perform a preset corresponding relationship between the identifier and the screen parameter to obtain the screen parameter corresponding to the data identifier and the adjustment data of the screen parameter.
  • the adjustment model generation unit 162 is configured to execute adjustment data based on the screen parameters to generate a screen adjustment model.
  • the second video acquisition unit 163 is configured to execute the image adjustment model to adjust the image parameters of each video frame in the first video to obtain the second video.
  • the picture parameters include the picture color
  • the picture adjustment model includes the picture color adjustment model.
  • I1(r1,g1,b1,a1) F1[I0(r,g,b,a)];
  • I1(r1) a11(r)+b11(g)+c11(b);
  • I1(g1) a12(r)+b12(g)+c12(b);
  • I1(b1) a13(r)+b13(g)+c13(b);
  • F1[] represents the transformation function of the pixel
  • a11-a14, b11-b14, and c11-c14 represent the transformation parameters.
  • FIG. 17 is a video processing device applied to a second terminal.
  • the device includes:
  • the adjustment operation detection module 171 is configured to perform an adjustment operation to detect the picture parameters of the first video by the user;
  • the data identification generating module 172 is configured to generate a data identification based on the adjustment data of the screen parameter when an adjustment operation is detected;
  • the data identification reporting module 173 is configured to report the data identification and adjustment data to the server.
  • Figure 18 is a block diagram of a terminal. 18, the terminal 1800 may include one or more of the following components: a processing component 1802, a memory 1804, a power supply component 1806, a multimedia component 1808, an audio component 1810, an input/output (I/O) interface 1812, a sensor component 1814, And the communication component 1816.
  • a processing component 1802 a memory 1804
  • a power supply component 1806 a multimedia component 1808
  • an audio component 1810 an input/output (I/O) interface 1812
  • a sensor component 1814 the communication component 1816.
  • the processing component 1802 generally controls the overall operations of the terminal 1800, such as operations associated with display, telephone calls, data communications, camera operations, and recording operations.
  • the processing component 1802 may include one or more processors 1820 to execute instructions to complete all or part of the steps of the method shown in FIG. 3.
  • the processing component 1802 may include one or more modules to facilitate the interaction between the processing component 1802 and other components.
  • the processing component 1802 may include a multimedia module to facilitate the interaction between the multimedia component 1808 and the processing component 1802.
  • the memory 1804 is configured to store various types of data to support operations at the terminal 1800. Examples of these data include instructions for any application or method operated on the terminal 1800, contact data, phone book data, messages, pictures, videos, etc.
  • the memory 1804 can be implemented by any type of volatile or non-volatile storage device or their combination, such as static random access memory (SRAM), electrically erasable programmable read-only memory (EEPROM), erasable and Programmable Read Only Memory (EPROM), Programmable Read Only Memory (PROM), Read Only Memory (ROM), Magnetic Memory, Flash Memory, Magnetic Disk or Optical Disk.
  • SRAM static random access memory
  • EEPROM electrically erasable programmable read-only memory
  • EPROM erasable and Programmable Read Only Memory
  • PROM Programmable Read Only Memory
  • ROM Read Only Memory
  • Magnetic Memory Flash Memory
  • Magnetic Disk Magnetic Disk or Optical Disk.
  • the power supply component 1806 provides power for various components of the terminal 1800.
  • the power supply component 1806 may include a power management system, one or more power supplies, and other components associated with the generation, management, and distribution of power for the terminal 1800.
  • the multimedia component 1808 includes a screen that provides an output interface between the terminal 1800 and the user.
  • the screen may include a liquid crystal display (LCD) and a touch panel (TP). If the screen includes a touch panel, the screen may be implemented as a touch screen to receive input signals from the user.
  • the touch panel includes one or more touch sensors to sense touch, sliding, and gestures on the touch panel. The touch sensor can not only sense the boundary of the touch or slide action, but also detect the duration and pressure associated with the touch or slide operation.
  • the multimedia component 1808 includes a front camera and/or a rear camera. When the terminal 1800 is in an operation mode, such as a shooting mode or a video mode, the front camera and/or the rear camera can receive external multimedia data. Each front camera and rear camera can be a fixed optical lens system or have focal length and optical zoom capabilities.
  • the audio component 1810 is configured to output and/or input audio signals.
  • the audio component 1810 includes a microphone (MIC).
  • the microphone is configured to receive external audio signals.
  • the received audio signal may be further stored in the memory 1804 or transmitted via the communication component 1816.
  • the audio component 1810 further includes a speaker for outputting audio signals.
  • the I/O interface 1812 provides an interface between the processing component 1802 and a peripheral interface module.
  • the above-mentioned peripheral interface module may be a keyboard, a click wheel, a button, and the like. These buttons may include, but are not limited to: home button, volume button, start button, and lock button.
  • the sensor component 1814 includes one or more sensors for providing the terminal 1800 with various status assessments.
  • the sensor component 1814 can detect the open/close state of the terminal 1800 and the relative positioning of components, such as the display and keypad of the terminal 1800.
  • the sensor component 1814 can also detect the position change of the terminal 1800 or a component of the terminal 1800. The presence or absence of contact with the terminal 1800, the orientation or acceleration/deceleration of the terminal 1800, and the temperature change of the terminal 1800.
  • the sensor assembly 1814 may include a proximity sensor configured to detect the presence of nearby objects when there is no physical contact.
  • the sensor component 1814 may also include a light sensor, such as a CMOS or CCD image sensor, for use in imaging applications.
  • the sensor component 1814 may also include an acceleration sensor, a gyroscope sensor, a magnetic sensor, a pressure sensor, or a temperature sensor.
  • the communication component 1816 is configured to facilitate wired or wireless communication between the terminal 1800 and other devices.
  • the terminal 1800 can access a wireless network based on a communication standard, such as WiFi, an operator network (such as 2G, 3G, 4G, or 5G), or a combination thereof.
  • the communication component 1816 receives a broadcast signal or broadcast related information from an external broadcast management system via a broadcast channel.
  • the communication component 1816 also includes a near field communication (NFC) module to facilitate short-range communication.
  • the NFC module can be implemented based on radio frequency identification (RFID) technology, infrared data association (IrDA) technology, ultra-wideband (UWB) technology, Bluetooth (BT) technology and other technologies.
  • RFID radio frequency identification
  • IrDA infrared data association
  • UWB ultra-wideband
  • Bluetooth Bluetooth
  • the terminal 1800 may be implemented by one or more application specific integrated circuits (ASIC), digital signal processors (DSP), digital signal processing devices (DSPD), programmable logic devices (PLD), field programmable Gate array (FPGA), controller, microcontroller, microprocessor or other electronic components are implemented for the following steps:
  • ASIC application specific integrated circuits
  • DSP digital signal processors
  • DSPD digital signal processing devices
  • PLD programmable logic devices
  • FPGA field programmable Gate array
  • controller microcontroller, microprocessor or other electronic components are implemented for the following steps:
  • the user's adjustment operation on the picture parameters of the first video is detected.
  • the adjustment data corresponding to the adjustment operation is determined.
  • the terminal can also perform the following steps:
  • the user's trigger operation in the candidate video page is detected.
  • the video identifier of the first video selected by the trigger operation is determined.
  • the first video determined by the receiving server based on the video identifier.
  • the terminal can also perform the following steps:
  • the second video determined by the server based on the data identifier is received.
  • the terminal can also perform the following steps:
  • a screen adjustment model is generated.
  • the picture adjustment model is adopted to adjust the picture parameters of each video frame in the first video to obtain the second video.
  • the picture parameters include picture color
  • the picture adjustment model includes a picture color adjustment sub-model
  • the terminal can also perform the following steps:
  • the color of each video frame is adjusted by the following formula to obtain the second video:
  • I1(r1,g1,b1,a1) F1[I0(r,g,b,a)].
  • I1(r1) a11(r)+b11(g)+c11(b).
  • I1(g1) a12(r)+b12(g)+c12(b).
  • I1(b1) a13(r)+b13(g)+c13(b).
  • F1[] represents the transformation function of the pixel
  • a11-a14, b11-b14, and c11-c14 represent the transformation parameters.
  • a server including:
  • the processor is configured to execute a computer program in the memory to perform the following steps:
  • the first video is a video selected through a candidate page displayed by the first terminal.
  • the adjustment data is data for adjusting the picture parameters of the first video when the first terminal plays the first video.
  • the second video corresponding to the adjustment data is sent to the first terminal.
  • the server can also perform the following steps:
  • a screen adjustment model is generated.
  • the screen parameters of each video frame in the first video are adjusted to obtain the second video.
  • the screen parameters include painting color
  • the screen adjustment model includes a painting color adjustment sub-model
  • the server can also perform the following steps:
  • the color of each video frame is adjusted using the following formula to obtain the second video:
  • I1(r1,g1,b1,a1) F1[I0(r,g,b,a)].
  • I1(r1) a11(r)+b11(g)+c11(b).
  • I1(g1) a12(r)+b12(g)+c12(b).
  • I1(b1) a13(r)+b13(g)+c13(b).
  • F1[] represents the transformation function of the pixel
  • a11-a14, b11-b14, and c11-c14 represent the transformation parameters.
  • the screen parameters include painting style
  • the screen adjustment model includes a painting style adjustment sub-model
  • the server can also perform the following steps:
  • I2(r2,g2,b2,a2) F2[I0(r,g,b,a)].
  • I2(r2) a21(r*r)+b21(g*g)+c21(b*b)+d21(r*b)+e21(r*g)+f21(b*g).
  • I2(g2) a22(r*r)+b22(g*g)+c22(b*b)+d22(r*b)+e22(r*g)+f22(b*g).
  • I2(b2) a23(r*r)+b23(g*g)+c23(b*b)+d23(r*b)+e23(r*g)+f23(b*g).
  • I2(a2) a24(r*r)+b24(g*g)+c24(b*b)+d24(r*b)+e24(r*g)+f24(b*g).
  • F2[] represents the transformation function of the pixel
  • a21-a24, b21-b24, c21-c24, d21-d24, e21-e24, and f21-f24 represent transformation parameters.
  • the adjustment data includes at least one of a scaling ratio and a prop image
  • the screen adjustment model includes at least one of a character image scaling sub-model and a prop adding sub-model
  • the server can also perform the following steps:
  • the character image in each video frame in the first video is enlarged or reduced based on the scaling ratio.
  • prop images are superimposed on the character images in each video frame in the first video.
  • the server can also perform the following steps:
  • any video is determined as the second video.
  • a non-transitory computer-readable computer program storage medium including instructions is also provided.
  • the non-transitory computer-readable storage medium may be ROM, random access memory (RAM), CD -ROM, magnetic tape, floppy disk and optical data storage device, etc.
  • the above-mentioned computer program can be executed by the processor of the terminal as follows:
  • the user's adjustment operation on the picture parameters of the first video is detected.
  • the adjustment data corresponding to the adjustment operation is determined.
  • the terminal can also perform the following steps:
  • the user's trigger operation in the candidate video page is detected.
  • the video identifier of the first video selected by the trigger operation is determined.
  • the first video determined by the receiving server based on the video identifier.
  • the terminal can also perform the following steps:
  • the second video determined by the server based on the data identifier is received.
  • the terminal can also perform the following steps:
  • a screen adjustment model is generated.
  • the picture adjustment model is adopted to adjust the picture parameters of each video frame in the first video to obtain the second video.
  • the picture parameters include picture color
  • the picture adjustment model includes a picture color adjustment sub-model
  • the terminal can also perform the following steps:
  • the color of each video frame is adjusted by the following formula to obtain the second video:
  • I1(r1,g1,b1,a1) F1[I0(r,g,b,a)].
  • I1(r1) a11(r)+b11(g)+c11(b).
  • I1(g1) a12(r)+b12(g)+c12(b).
  • I1(b1) a13(r)+b13(g)+c13(b).
  • F1[] represents the transformation function of the pixel
  • a11-a14, b11-b14, and c11-c14 represent the transformation parameters.
  • a non-transitory computer-readable computer program storage medium including instructions is also provided.
  • the non-transitory computer-readable storage medium may be ROM, random access memory (RAM), CD -ROM, magnetic tape, floppy disk and optical data storage device, etc.
  • the above-mentioned computer program can be executed by the processor of the server as follows:
  • the first video is a video selected through a candidate page displayed by the first terminal.
  • the adjustment data is data for adjusting the picture parameters of the first video when the first terminal plays the first video.
  • the second video corresponding to the adjustment data is sent to the first terminal.
  • the server can also perform the following steps:
  • a screen adjustment model is generated.
  • the screen parameters of each video frame in the first video are adjusted to obtain the second video.
  • the screen parameters include painting color
  • the screen adjustment model includes a painting color adjustment sub-model
  • the server can also perform the following steps:
  • the color of each video frame is adjusted using the following formula to obtain the second video:
  • I1(r1,g1,b1,a1) F1[I0(r,g,b,a)].
  • I1(r1) a11(r)+b11(g)+c11(b).
  • I1(g1) a12(r)+b12(g)+c12(b).
  • I1(b1) a13(r)+b13(g)+c13(b).
  • F1[] represents the transformation function of the pixel
  • a11-a14, b11-b14, and c11-c14 represent the transformation parameters.
  • the screen parameters include painting style
  • the screen adjustment model includes a painting style adjustment sub-model
  • the server can also perform the following steps:
  • I2(r2,g2,b2,a2) F2[I0(r,g,b,a)].
  • I2(r2) a21(r*r)+b21(g*g)+c21(b*b)+d21(r*b)+e21(r*g)+f21(b*g).
  • I2(g2) a22(r*r)+b22(g*g)+c22(b*b)+d22(r*b)+e22(r*g)+f22(b*g).
  • I2(b2) a23(r*r)+b23(g*g)+c23(b*b)+d23(r*b)+e23(r*g)+f23(b*g).
  • I2(a2) a24(r*r)+b24(g*g)+c24(b*b)+d24(r*b)+e24(r*g)+f24(b*g).
  • F2[] represents the transformation function of the pixel
  • a21-a24, b21-b24, c21-c24, d21-d24, e21-e24, and f21-f24 represent transformation parameters.
  • the adjustment data includes at least one of a scaling ratio and a prop image
  • the screen adjustment model includes at least one of a character image scaling sub-model and a prop adding sub-model
  • the server can also perform the following steps:
  • the character image in each video frame in the first video is enlarged or reduced based on the scaling ratio.
  • prop images are superimposed on the character images in each video frame in the first video.
  • the server can also perform the following steps:
  • any video is determined as the second video.
  • an application program is also provided.
  • the server executes the following steps:
  • the first video is a video selected through a candidate page displayed by the first terminal.
  • the adjustment data is data for adjusting the picture parameters of the first video when the first terminal plays the first video.
  • the second video corresponding to the adjustment data is sent to the first terminal.
  • the server can also perform the following steps:
  • a screen adjustment model is generated.
  • the screen parameters of each video frame in the first video are adjusted to obtain the second video.
  • the screen parameters include painting color
  • the screen adjustment model includes a painting color adjustment sub-model
  • the server can also perform the following steps:
  • the color of each video frame is adjusted using the following formula to obtain the second video:
  • I1(r1,g1,b1,a1) F1[I0(r,g,b,a)].
  • I1(r1) a11(r)+b11(g)+c11(b).
  • I1(g1) a12(r)+b12(g)+c12(b).
  • I1(b1) a13(r)+b13(g)+c13(b).
  • F1[] represents the transformation function of the pixel
  • a11-a14, b11-b14, and c11-c14 represent the transformation parameters.
  • the screen parameters include painting style
  • the screen adjustment model includes a painting style adjustment sub-model
  • the server can also perform the following steps:
  • I2(r2,g2,b2,a2) F2[I0(r,g,b,a)].
  • I2(r2) a21(r*r)+b21(g*g)+c21(b*b)+d21(r*b)+e21(r*g)+f21(b*g).
  • I2(g2) a22(r*r)+b22(g*g)+c22(b*b)+d22(r*b)+e22(r*g)+f22(b*g).
  • I2(b2) a23(r*r)+b23(g*g)+c23(b*b)+d23(r*b)+e23(r*g)+f23(b*g).
  • I2(a2) a24(r*r)+b24(g*g)+c24(b*b)+d24(r*b)+e24(r*g)+f24(b*g).
  • F2[] represents the transformation function of the pixel
  • a21-a24, b21-b24, c21-c24, d21-d24, e21-e24, and f21-f24 represent transformation parameters.
  • the adjustment data includes at least one of a scaling ratio and a prop image
  • the screen adjustment model includes at least one of a character image scaling sub-model and a prop adding sub-model
  • the server can also perform the following steps:
  • the character image in each video frame in the first video is enlarged or reduced based on the scaling ratio.
  • prop images are superimposed on the character images in each video frame in the first video.
  • the server can also perform the following steps:
  • any video is determined as the second video.
  • an application program is also provided.
  • the terminal is caused to perform the following steps:
  • the user's adjustment operation on the picture parameters of the first video is detected.
  • the adjustment data corresponding to the adjustment operation is determined.
  • the terminal can also perform the following steps:
  • the user's trigger operation in the candidate video page is detected.
  • the video identifier of the first video selected by the trigger operation is determined.
  • the first video determined by the receiving server based on the video identifier.
  • the terminal can also perform the following steps:
  • the second video determined by the server based on the data identifier is received.
  • the terminal can also perform the following steps:
  • a screen adjustment model is generated.
  • the picture adjustment model is adopted to adjust the picture parameters of each video frame in the first video to obtain the second video.
  • the picture parameters include picture color
  • the picture adjustment model includes a picture color adjustment sub-model
  • the terminal can also perform the following steps:
  • the color of each video frame is adjusted by the following formula to obtain the second video:
  • I1(r1,g1,b1,a1) F1[I0(r,g,b,a)].
  • I1(r1) a11(r)+b11(g)+c11(b).
  • I1(g1) a12(r)+b12(g)+c12(b).
  • I1(b1) a13(r)+b13(g)+c13(b).
  • F1[] represents the transformation function of the pixel
  • a11-a14, b11-b14, and c11-c14 represent the transformation parameters.
  • a computer program product is also provided.
  • the server can execute the following steps:
  • the first video is a video selected through a candidate page displayed by the first terminal.
  • the adjustment data is data for adjusting the picture parameters of the first video when the first terminal plays the first video.
  • the second video corresponding to the adjustment data is sent to the first terminal.
  • the server can also perform the following steps:
  • a screen adjustment model is generated.
  • the screen parameters of each video frame in the first video are adjusted to obtain the second video.
  • the picture parameters include picture color
  • the picture adjustment model includes a picture color adjustment sub-model
  • the server can also perform the following steps:
  • the color of each video frame is adjusted using the following formula to obtain the second video:
  • I1(r1,g1,b1,a1) F1[I0(r,g,b,a)].
  • I1(r1) a11(r)+b11(g)+c11(b).
  • I1(g1) a12(r)+b12(g)+c12(b).
  • I1(b1) a13(r)+b13(g)+c13(b).
  • F1[] represents the transformation function of the pixel
  • a11-a14, b11-b14, and c11-c14 represent the transformation parameters.
  • the screen parameters include painting style
  • the screen adjustment model includes a painting style adjustment sub-model
  • the server can also perform the following steps:
  • I2(r2,g2,b2,a2) F2[I0(r,g,b,a)].
  • I2(r2) a21(r*r)+b21(g*g)+c21(b*b)+d21(r*b)+e21(r*g)+f21(b*g).
  • I2(g2) a22(r*r)+b22(g*g)+c22(b*b)+d22(r*b)+e22(r*g)+f22(b*g).
  • I2(b2) a23(r*r)+b23(g*g)+c23(b*b)+d23(r*b)+e23(r*g)+f23(b*g).
  • I2(a2) a24(r*r)+b24(g*g)+c24(b*b)+d24(r*b)+e24(r*g)+f24(b*g).
  • F2[] represents the transformation function of the pixel
  • a21-a24, b21-b24, c21-c24, d21-d24, e21-e24, and f21-f24 represent transformation parameters.
  • the adjustment data includes at least one of a scaling ratio and a prop image
  • the screen adjustment model includes at least one of a character image scaling sub-model and a prop adding sub-model
  • the server can also perform the following steps:
  • the character image in each video frame in the first video is enlarged or reduced based on the scaling ratio.
  • prop images are superimposed on the character images in each video frame in the first video.
  • the server can also perform the following steps:
  • any video is determined as the second video.
  • a computer program product is also provided.
  • the terminal can execute the following steps:
  • the user's adjustment operation on the picture parameters of the first video is detected.
  • the adjustment data corresponding to the adjustment operation is determined.
  • the server can also perform the following steps:
  • the user's trigger operation in the candidate video page is detected.
  • the video identifier of the first video selected by the trigger operation is determined.
  • the first video determined by the receiving server based on the video identifier.
  • the server can also perform the following steps:
  • the second video determined by the server based on the data identifier is received.
  • the server can also perform the following steps:
  • a screen adjustment model is generated.
  • the picture adjustment model is adopted to adjust the picture parameters of each video frame in the first video to obtain the second video.
  • the screen parameters include painting color
  • the screen adjustment model includes a painting color adjustment sub-model
  • the server can also perform the following steps:
  • the color of each video frame is adjusted by the following formula to obtain the second video:
  • I1(r1,g1,b1,a1) F1[I0(r,g,b,a)].
  • I1(r1) a11(r)+b11(g)+c11(b).
  • I1(g1) a12(r)+b12(g)+c12(b).
  • I1(b1) a13(r)+b13(g)+c13(b).
  • F1[] represents the transformation function of the pixel
  • a11-a14, b11-b14, and c11-c14 represent the transformation parameters.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本公开关于一种视频处理方法及服务器。该方法包括:获取第一视频,所述第一视频为通过第一终端显示的候选页面选择的视频;将所述第一视频发送给所述第一终端;获取调整数据,所述调整数据为所述第一终端播放所述第一视频时,对所述第一视频的画面参数进行调整的数据;将与所述调整数据对应的第二视频发送给所述第一终端。

Description

视频处理方法及服务器
本公开要求于2020年2月27日提交的申请号为202010123687.3、发明名称为“视频处理方法及装置、服务器、存储介质”的中国专利申请的优先权,其全部内容通过引用结合在本公开中。
技术领域
本公开涉及视频处理技术领域,尤其涉及一种视频处理方法及服务器。
背景技术
目前,针对短视频平台,用户可以向平台提供短视频文件和/或观看短视频文件。对于上传短视频文件的生产者而言,可以根据自身爱好为原始视频添加画面滤镜、背景音乐等效果,然后将叠加效果的短视频文件上传到平台。
相关技术中,观看用户可以在平台上观看叠加效果后的短视频文件,在观看过程中还能够对短视频做一些常规调整,比如调整短视频的播放速度等。
发明内容
本公开的技术方案如下:
一方面,提供一种视频处理方法,应用于服务器,所述方法包括:
获取第一视频,所述第一视频为通过第一终端显示的候选页面选择的视频;
将所述第一视频发送给所述第一终端;
获取调整数据,所述调整数据为所述第一终端播放所述第一视频时,对所述第一视频的画面参数进行调整的数据;
将与所述调整数据对应的第二视频发送给所述第一终端。
一方面,提供一种视频处理方法,应用于第一终端,所述方法包括:
在显示第一视频的过程中,检测用户对所述第一视频的画面参数的调整操作;
响应于检测到对所述第一视频的画面参数的调整操作,确定所述调整操作对应的调整数据;
获取所述调整数据对应的第二视频。
一方面,提供一种视频处理装置,应用于服务器,所述装置包括:
第一视频发送模块,被配置为执行获取第一视频,所述第一视频为通过第一终端显示的候选页面选择的视频;
调整数据获取模块,被配置为执行获取调整数据,所述调整数据为所述第一终端播放所述第一视频时,对所述第一视频的画面参数进行调整的数据;
第二视频发送模块,被配置为执行将与所述调整数据对应的第二视频发送给所述第一终端。
一方面,提供一种视频处理装置,应用于第一终端,所述装置包括:
调整操作检测模块,被配置为执行在显示第一视频的过程中,检测用户对所述第一视频的画面参数的调整操作;
调整数据获取模块,被配置为执行响应于检测到对所述第一视频的画面参数的调整操作,确定所述调整操作对应的调整数据;
第二视频获取模块,被配置为执行获取所述调整数据对应的第二视频。
一方面,提供一种服务器,包括:
处理器;
用于存储所述处理器可执行的计算机程序的存储器;其中,所述处理器被配置为执行所述存储器中的计算机程序,以执行以下步骤:
获取第一视频,所述第一视频为通过第一终端显示的候选页面选择的视频;
将所述第一视频发送给所述第一终端;
获取调整数据,所述调整数据为所述第一终端播放所述第一视频时,对所述第一视频的画面参数进行调整的数据;
将与所述调整数据对应的第二视频发送给所述第一终端。
一方面,提供一种终端,包括:
处理器;
用于存储所述处理器可执行的计算机程序的存储器;其中,所述处理器被配置为执行所述存储器中的计算机程序,以执行以下步骤:
在显示第一视频的过程中,检测用户对所述第一视频的画面参数的调整操作;
响应于检测到对所述第一视频的画面参数的调整操作,确定所述调整操作对应的调整 数据;
获取所述调整数据对应的第二视频。
一方面,提供一种存储介质,当所述存储介质中的可执行的计算机程序由服务器的处理器执行时,使得所述处理器能够执行以下步骤:
获取第一视频,所述第一视频为通过第一终端显示的候选页面选择的视频;
将所述第一视频发送给所述第一终端;
获取调整数据,所述调整数据为所述第一终端播放所述第一视频时,对所述第一视频的画面参数进行调整的数据;
将与所述调整数据对应的第二视频发送给所述第一终端。
一方面,提供一种存储介质,当所述存储介质中的可执行的计算机程序由终端的处理器执行时,使得所述处理器能够执行以下步骤:
在显示第一视频的过程中,检测用户对所述第一视频的画面参数的调整操作;
响应于检测到对所述第一视频的画面参数的调整操作,确定所述调整操作对应的调整数据;
获取所述调整数据对应的第二视频。
一方面,提供一种计算机程序产品,当该计算机程序产品被执行时,使得服务器能够执行以下步骤:
获取第一视频,所述第一视频为通过第一终端显示的候选页面选择的视频;
将所述第一视频发送给所述第一终端;
获取调整数据,所述调整数据为所述第一终端播放所述第一视频时,对所述第一视频的画面参数进行调整的数据;
将与所述调整数据对应的第二视频发送给所述第一终端。
一方面,提供一种计算机程序产品,当该计算机程序产品被执行时,使得终端能够执行以下步骤:
在显示第一视频的过程中,检测用户对所述第一视频的画面参数的调整操作;
响应于检测到对所述第一视频的画面参数的调整操作,确定所述调整操作对应的调整数据;
获取所述调整数据对应的第二视频。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理,并不构成对本公开的不当限定。显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是根据一示例性实施例示出的一种图像处理系统的架构图。
图2是根据一示例性实施例示出的一种图像处理方法的流程图。
图3是根据一示例性实施例示出的一种获取第二视频的流程图。
图4是根据一示例性实施例示出的另一种获取第二视频的流程图。
图5是根据一示例性实施例示出的另一种图像处理方法的流程图。
图6是根据一示例性实施例示出的获取视频标识的流程图。
图7是根据一示例性实施例示出的一种获取第二视频的流程图。
图8是根据一示例性实施例示出的另一种获取第二视频的流程图。
图9是根据一示例性实施例示出的又一种图像处理方法的流程图。
图10~图17是根据一示例性实施例示出的一种图像处理装置的框图。
图18是根据一示例性实施例示出的一种终端的框图。
具体实施方式
为了使本领域普通人员更好地理解本公开的技术方案,下面将结合附图,对本公开实施例中的技术方案进行清楚、完整地描述。
本公开实施例提供了一种视频处理方法,可以应用于图1示例的视频处理系统。参见图1,第一终端10、服务器30和第二终端20构成一个视频生产、处理到消费的视频处理系统。
其中,第二终端20能够拍摄视频,并通过第二终端20与服务器30之间的通信链路上传该视频。为方便描述,后续各实施例中将该原始的视频称之为第一视频。并且,第二终端20的用户(后称之为第二用户)能够对该第一视频的画面参数进行调整。第二终端20能够根据调整后的画面参数对应的调整数据或者画面参数的调整条对应的调整数据生 成数据标识,并将该数据标识发送给服务器30,该数据标识中携带有调整数据。服务器存储该数据标识,第二用户重复多次上述调整操作,能够在服务器30内形成一个数据标识与画面参数的对应关系。
第一终端10的用户(后称之第一用户)能够通过安装在第一终端10上的应用程序播放视频。第一用户触发候选视频页面选择视频(即第一视频)进行播放。在观看过程中,第一用户能够对第一视频的画面参数进行调整。第一终端10基于调整数据生成数据标识,将数据标识发送给服务器30。服务器30将数据标识对应的第二视频发送给第一终端10,这样第一终端10能够将第一视频切换到第二视频进行播放。
需要说明的是,本公开实施例中第一终端10和第二终端20仅是从视频的上传和播放的角度来区别的,实际应用中,第一终端10和第二终端20能够由一个电子设备实现,如智能手机、平板电脑、数据终端等,在此不作限定。
另需要说明的是,本公开实施例中,画面参数包括以下至少一种:画色、画风和角色增强。其中:
画色包括以下至少一种:亮度、色调、色相和饱和度。
亮度,是指照射在图像上光线的明暗程度,亮度增加时,图像会显得耀眼,而亮度减小时,图像会显得灰暗。
色调,是指图像色彩模式下原色的明暗程度,级别范围从0-255共256级色调,当色调级别为255时就是白色,当级别为0时就是黑色,中间是各种程度的灰色;在rgb三色模式中代表红、绿、蓝三种原色的明暗程度。
色相,是指图像的颜色。
饱和度,是指图像颜色的深度,饱和度越高,颜色越饱满鲜艳,饱和度越低,颜色越暗淡。
画风,是指画面的整体风格,给用户的视觉感受,例如怀旧风、油画风、胶片风等。
角色增强,是指画面的局部修改及道具(即特效)添加,例如角色放大、角色添加如帽子、拐杖、光环等道具。
本公开实施例还提供了一种视频处理方法,图2是一种视频处理方法的流程图,能够应用于图1中的服务器,该方法可以包括
21、服务器获取第一终端发送的视频标识,视频标识用于表示第一终端在显示候选页面的时用户从候选视频页面内选择的第一视频。
在一些实施例中,第一终端10上安装有能够播放视频的应用程序,第一用户启动安 装在第一终端10上的该应用程序,第一终端10能够通过该应用程序显示候选视频页面,候选视频页面内包括若干个候选视频,第一用户能够从候选视频页面上选择自己心仪的视频进行播放。响应于第一终端10检测到第一用户的选择操作(如点击、双击、滑动等),能够根据选择操作位置确定第一用户从候选视频页面选择的第一视频,并将该第一视频的视频标识发送给服务器30。
22、服务器获取视频标识对应的第一视频,将第一视频发送给第一终端。
在一些实施例中,服务器30中对应维护有一个包括若干个视频的数据库。在接收到视频标识后,服务器能够比较数据标识和数据库中各视频的标识。在数据库中的视频的标识与数据标识相同时,服务器确定查询到第一视频,并将该第一视频发送给第一终端10,以供第一终端10播放。第一终端10接收到服务器发送的第一视频后,能够通过第一终端10上安装的应用程序对第一视频进行播放。
23、服务器获取第一终端发送的数据标识,数据标识用于表示第一终端在播放第一视频时对第一视频的画面参数进行调整的调整数据。
在一些实施例中,第一终端10接收到第一视频后,第一用户能够通过第一终端10观看该第一视频。在观看第一视频的过程中,第一用户可能对第一视频的画面不太满意。此时,第一用户触发应用程序的播放画面,播放画面内能够弹出调整菜单。第一用户能够从调整菜单中选择所需要调整的画面参数,比如,第一用户能够在画面参数的调整框中输入画面参数的调整数据或者,当第一用户在调整菜单中选择所需调整的画面参数之后,第一终端10能够显示滑动调整条,第一用户拖动该滑动调整条即可实现对画面参数的调整。第一终端10能够根据上述调整数据或者调整条对应的调整数据生成数据标识,并将该数据标识发送给服务器30。其中,生成数据标识的方式时,第一终端10能够将调整数据排列成一个数据序列,还可以利用调整数据生成一个哈希值,本公开实施例对此不做限定。在能够生成唯一标识的情况下,相应方案落入本公开的保护范围。
也就是说即服务器能够获取第一终端10发送的数据标识,该数据标识用于表示对第一视频的画面参数进行调整的调整数据。
24、服务器获取与数据标识对应的第二视频,将第二视频发送给第一终端。
服务器30向第一终端10发送第二视频,以供第一终端播放第二视频。
在一些实施例中,服务器30内存储有预设的标识和画面参数的对应关系,即每个标识对应一组画面参数,以及各画面参数的调整数据,其中调整数据是画面参数调整后的取值。
参见图3,31、在获取到数据标识后,服务器基于预设的标识和画面参数的对应关系,根据数据标识获取到数据标识中携带的调整数据。
32、服务器基于该调整数据,生成画面调整模型。
在一些实施例中,画面参数包括画色,画面调整模型包括画色调整子模型。该画色调整子模型是线性函数,服务器通过画色调整子模型,采用以下公式对各视频帧的画色进行调整,得到第二视频:
I1(r1,g1,b1,a1)=F1[I0(r,g,b,a)];
I1(r1)=a11(r)+b11(g)+c11(b);
I1(g1)=a12(r)+b12(g)+c12(b);
I1(b1)=a13(r)+b13(g)+c13(b);
I1(a1)=a14(r)+b14(g)+c14(b);
其中,F1[]表示像素点的变换函数,a11-a14、b11-b14、c11-c14表示变换参数,可以取任意值。
在一些实施例中,画面参数包括画风;画面调整模型包括画风调整子模型。该画风调整子模型是非线性函数,服务器通过画风调整子模型,采用以下公式对各视频帧的画风进行调整,得到第二视频:
I2(r2,g2,b2,a2)=F2[I0(r,g,b,a)];
I2(r2)=a21(r*r)+b21(g*g)+c21(b*b)+d21(r*b)+e21(r*g)+f21(b*g);
I2(g2)=a22(r*r)+b22(g*g)+c22(b*b)+d22(r*b)+e22(r*g)+f22(b*g);
I2(b2)=a23(r*r)+b23(g*g)+c23(b*b)+d23(r*b)+e23(r*g)+f23(b*g);
I2(a2)=a24(r*r)+b24(g*g)+c24(b*b)+d24(r*b)+e24(r*g)+f24(b*g);
其中,F2[]表示像素点的变换函数;a21-a24、b21-b24、c21-c24、d21-d24、e21-e24、f21-f24表示变换参数,可以取任意值。实际使用中,a21-a24、b21-b24、c21-c24、d21-d24、e21-e24、f21-f24可以设置对应的取值范围,在该取值范围内取值。
在一些实施例中,调整数据包括缩放比例和道具图像中的至少一项,画面调整模型包括角色图像缩放子模型和道具添加子模型中的至少一种:
角色图像缩放子模型,用于对第一视频各视频帧内角色图像按照调整数据对应的缩放比例进行放大或者缩小。也即是,服务器通过角色图像缩放子模型,基于缩放比例,对第一视频中的各视频帧内角色图像进行放大或者缩小。
道具添加子模型,用于在第一视频各视频帧内角色图像上叠加调整数据对应的道具图 像。也即是,服务器通过道具添加子模型,在第一视频中的各视频帧内角色图像上叠加道具图像。
在一些实施例中,对角色图像进行缩放以及添加道具图形也可以被称为角色增强,其中,道具图像可以包括帽子、拐杖、光环等道具。
继续参见图3,33、服务器利用画面调整模型对第一视频中的各视频帧进行调整,得到第二视频。
需要说明的是,在图3所示方案中,服务器存储1个第一视频、预设的标识和画面参数的对应关系,由于预设的标识和画面参数的对应关系所占用的存储空间可以忽略不计,即相当于服务器仅存储1个第一视频即可,此场景下,能够节省存储空间。
参见图4,41、服务器将调整数据与数据库中各视频对应的调整数据进行比较。
在一些实施例中,若采用数据标识来表示调整数据,那么服务器在获取到数据标识时,能够依次对比数据标识和数据库中各视频的标识,其中,各视频的标识用于表示对第一视频的画面参数的调整数据。
42、响应于任一视频对应的调整数据与调整数据相同,将该视频确定为第二视频。
在一些实施例中,服务器将标识与该数据标识相同的视频确定为第二视频。
需要说明的是,图4所示例的数据库中针对同一视频,可以包括1个第一视频和N个第二视频,即相当于第二用户上传了N+1个视频,此场景下,数据库会占用比较大的存储空间,但能够节省服务器的算力资源。
需要说明的是,上述各实施例中服务器30与第一终端10、服务器30与第二终端20之间传输视频时需要对各视频帧进行分块、编码、压缩等过程,此部分内容可以参考相关技术,在此不再详细说明。
至此,在本公开实施例中,服务器能够根据获取的视频标识,向第一终端发送视频标识对应的第一视频;然后,服务器能够根据数据标识向第一终端发送数据标识对应的第二视频,此时第一终端可以播放第二视频以替代播放第一视频。
本公开实施例还提供了一种视频处理方法,图5是一种视频处理方法,可以应用于图1中的第一终端,方法包括:
51、在显示第一视频的过程中,第一终端检测用户对第一视频的画面参数的调整操作。
在一些实施例中,参见图6,61、第一终端10上的应用程序启动后能够显示候选视频页面,候选视频页面内可以包括若干个候选视频,第一用户能够从候选视频页面上选择 自己心仪的视频进行播放。第一终端10在显示候选视频页面的过程中,检测用户在候选视频页面内的触发操作。
62、响应于检测到触发操作,第一终端10获取触发操作所选择第一视频的视频标识,将该视频标识发送至服务器。服务器在接收到视频标识后,将该视频标识对应的第一视频发送给第一终端10。
在一些实施例中,在观看第一视频的过程中,第一用户能够触发播放画面,此时播放画面内可以弹出调整菜单。然后,第一用户可以从调整菜单中选择所需要调整的画面参数,根据画面参数的调整框,第一用户可以输入画面参数的调整数据,或者滑动调整条,或者选择画面参数的其中一个子参数,在获取到上述调整数据、调整条的位置或者子参数时,确定检测到用户对第一视频的画面参数的调整操作。否则,第一终端10可以确定未检测到用户对第一视频的画面参数的调整操作,并可以继续进行检测。
在步骤52中,响应于检测到调整操作,第一终端基于调整操作对应的调整数据生成数据标识,数据标识用于表示第一终端在播放第一视频时用户对第一视频的画面参数进行调整的调整数据。
在一些实施例中,响应于检测到调整操作,第一终端10根据上述调整数据或者调整条对应的调整数据或者子参数生成数据标识,其中,数据标识用于表示对第一视频的画面参数进行调整的调整数据。比如,第一用户能够在画面参数的调整框中输入画面参数的调整数据或者,当第一用户在调整菜单中选择所需调整的画面参数之后,第一终端10能够显示滑动调整条,第一用户拖动该滑动调整条即可实现对画面参数的调整。第一终端10能够根据上述调整数据或者调整条对应的调整数据生成数据标识。
需要说明的是,生成数据标识的时,第一终端能够将调整数据排列成一个数据序列,还能够利用调整数据生成一个哈希值,在能够生成唯一标识的情况下,相应方案落入本公开的保护范围。
在步骤53中,第一终端获取数据标识对应的第二视频。
也即是,第一终端10获取数据标识携带的调整数据对应的第二视频。
在一些实施例中,第一终端10获取到数据标识后,可以采用以下方式来进行处理:
在一些实施例中,参见图7,71、第一终端10将该数据标识发送给服务器30。服务器30基于数据标识获取第二视频,具体内容参见图3所示的内容,在此不再赘述;或者,服务器能够基于数据标识查询数据库获取第二视频,具体内容参见图4所示的内容,在此不再赘述。
72、服务器30将获取的第二视频发送给第一终端10,第一终端10获取服务器30发送的第二视频。
在一些实施例中,第一终端10中预先存储或者从服务器同步预设的标识与画面参数的对应关系。参见图8,81、在获取到数据标识后,第一终端10基于预设的标识与画面参数的对应关系,获取数据标识对应的画面参数及画面参数的调整数据。
82、第一终端10基于画面参数的调整数据生成画面调整模型。需要说明的是,第一终端10也能够将数据标识发送给服务器30,由服务器30获取数据标识对应的调整数据,并将调整数据发送给第一终端10,相应方案同样落入本公开的保护范围。
在一些实施例中,考虑到第一终端10的资源可能受限,因此,本公开实施例中仅在画面参数为画色时利用第一终端10获取第二视频,即画面调整模型包括画色调整子模型,服务器通过画色调整子模型,采用以下公式对各视频帧的画色进行调整,得到第二视频:
I1(r1,g1,b1,a1)=F1[I0(r,g,b,a)];
I1(r1)=a11(r)+b11(g)+c11(b);
I1(g1)=a12(r)+b12(g)+c12(b);
I1(b1)=a13(r)+b13(g)+c13(b);
I1(a1)=a14(r)+b14(g)+c14(b);
其中,F1[]表示像素点的变换函数,a11-a14、b11-b14、c11-c14表示变换参数。
83、第一终端10利用画面调整模型对第一视频中的各视频帧进行调整,得到第二视频。
在一些实施例中,第一终端10能够在获取到调整数据后直接对第一视频进行调整,得到第二视频,这样即能够省略生成数据标识以及利用标识转换成调整数据的步骤,相应方案落入本公开的保护范围。
至此,本公开实施例中,能够根据用户对第一视频的画面参数的调整数据生成数据标识,并利用数据标识获取到第二视频。
本公开实施例还提供了一种视频处理方法,图9是一种视频处理方法,能够应用于图1中的第二终端,方法包括:
91、第二终端检测用户对第一视频的画面参数的调整操作。
在一些实施例中,在获取到第一视频后,第二终端20能够将该第一视频上传到服务器30。在播放第一视频的过程中,第二终端20能够检测用户对第一视频的画面参数的调整操作。例如,第二用户可以从调整菜单中选择所需要调整的画面参数,根据画面参数的 调整框,第二用户可以输入画面参数的调整数据,或者滑动调整条,或者选择画面参数的其中一个子参数,在获取到上述调整数据、调整条的位置或者子参数时,第二终端20能够确定检测到用户对第一视频的画面参数的调整操作。否则,第二终端20能够确定未检测到用户对第一视频的画面参数的调整操作,并可以继续进行检测。
92、响应于检测到调整操作,第二终端基于画面参数的调整数据生成数据标识。
本公开实施例中,当检测到调整操作时,第二终端20能够根据上述调整数据或者调整条对应的调整数据或者子参数生成数据标识。其中,数据标识用于表示对第一视频的画面参数的调整数据。
需要说明的是,生成数据标识的方式可以利用调整数据形成一个数据序列,还可以利用调整数据生成一个哈希值,在能够生成唯一标识的情况下,相应方案落入本公开的保护范围。
93、第二终端将数据标识和调整数据上报到服务器。
本公开实施例中,第二终端20可以将数据标识和调整数据上传到服务器30,以使服务器30建立标识与画面参数的对应关系。服务器30可以根据数据标识生成第二视频,参见图3所示的内容。在第一终端上传数据标识时,通过标识对比查询到第二视频并发送给第一终端。或者,服务器30可以存储该数据标识,在第一终端10上传数据标识时再根据数据标识对第一视频的画面参数进行调整,得到第二视频,并将该第二视频发送给第一终端10。
至此,本公开实施例中,第二终端能够对第一视频进行多次画面参数调整,使服务器建立标识与画面参数的对应关系,相当于获取到多个第二视频。这样该多个第二视频可以满足不同观看用户的偏好,有利于提升观看体验。
本公开实施例还提供了一种视频处理装置,图10是一种视频处理装置,应用于服务器,装置包括:
第一视频获取模块101,被配置为执行获取第一视频,第一视频为通过第一终端显示的候选页面选择的视频。
第一视频发送模块102,被配置为执行将第一视频发送给第一终端。
调整数据获取模块103,被配置为执行获取调整数据,调整数据为第一终端播放第一视频时,对第一视频的画面参数进行调整的数据。
第二视频获取模块104,被配置为执行将与调整数据对应的第二视频发送给第一终端。
在一些实施例中,参见图11,第二视频获取模块104包括:
调整数据获取单元111,被配置为执行基于预设的标识与画面参数的对应关系,获取数据标识对应的画面参数及画面参数的调整数据。
调整模型获取单元112,被配置为执行基于调整数据,生成画面调整模型。
第二视频获取单元113,被配置为执行通过画面调整模型,对第一视频中的各视频帧的画面参数进行调整,得到第二视频。
在一些实施例中,画面参数包括画色,画面调整模型包括画色调整子模型,通过画色调整子模型,采用以下公式对各视频帧的画色进行调整,得到第二视频:
I1(r1,g1,b1,a1)=F1[I0(r,g,b,a)]。
I1(r1)=a11(r)+b11(g)+c11(b)。
I1(g1)=a12(r)+b12(g)+c12(b)。
I1(b1)=a13(r)+b13(g)+c13(b)。
I1(a1)=a14(r)+b14(g)+c14(b)。
其中,F1[]表示像素点的变换函数,a11-a14、b11-b14、c11-c14表示变换参数。
在一些实施例中,画面参数包括画风,画面调整模型包括画风调整子模型,通过画风调整子模型,采用以下公式对各视频帧的画风进行调整,得到第二视频:
I2(r2,g2,b2,a2)=F2[I0(r,g,b,a)]。
I2(r2)=a21(r*r)+b21(g*g)+c21(b*b)+d21(r*b)+e21(r*g)+f21(b*g)。
I2(g2)=a22(r*r)+b22(g*g)+c22(b*b)+d22(r*b)+e22(r*g)+f22(b*g)。
I2(b2)=a23(r*r)+b23(g*g)+c23(b*b)+d23(r*b)+e23(r*g)+f23(b*g)。
I2(a2)=a24(r*r)+b24(g*g)+c24(b*b)+d24(r*b)+e24(r*g)+f24(b*g)。
其中,F2[]表示像素点的变换函数,a21-a24、b21-b24、c21-c24、d21-d24、e21-e24、f21-f24表示变换参数。
在一些实施例中,调整数据包括缩放比例和道具图像中的至少一项,画面调整模型包括角色图像缩放子模型和道具添加子模型中的至少一种:
通过角色图像缩放子模型,基于缩放比例,对第一视频中的各视频帧内角色图像进行放大或者缩小。
通过道具添加子模型,在第一视频中的各视频帧内角色图像上叠加道具图像。
在一些实施例中,参见图12,第二视频获取模块104包括:
数据标识对比单元121,被配置为执行将调整数据与数据库中各视频对应的调整数据 进行比较。
第二视频确定单元122,被配置为执行响应于检测到对第一视频的画面参数的调整操作,确定调整操作对应的调整数据。
本公开实施例还提供了一种视频处理装置,图13是一种视频处理装置,应用于第一终端,装置包括:
调整操作检测模块131,被配置为执行在显示第一视频的过程中,检测用户对第一视频的画面参数的调整操作。
数据标识生成模块132,被配置为执行响应于检测到对第一视频的画面参数的调整操作,确定调整操作对应的调整数据。
第二视频获取模块133,被配置为执行获取调整数据对应的第二视频。
在一些实施例中,参见图14,装置还包括:
调整操作检测模块141,还被配置为执行在显示候选页面的过程中,检测用户在候选视频页面内的触发操作。
视频标识生成模块142,被配置为执行响应于检测到用户在候选视频页面内的触发操作,确定触发操作选择的第一视频的视频标识。向服务器发送视频标识。接收服务器基于视频标识确定的第一视频。
在一些实施例中,参见图15,第二视频获取模块133包括:
数据标识发送单元151,被配置为执行向服务器发送调整数据对应的数据标识。
第二视频获取单元152,被配置为执行接收服务器基于数据标识确定的第二视频。
在一些实施例中,参见图16,第二视频获取模块133包括:
调整数据获取单元161,被配置为执行基于预设的标识与画面参数的对应关系,获取数据标识对应的画面参数及画面参数的调整数据。
调整模型生成单元162,被配置为执行基于画面参数的调整数据生成画面调整模型。
第二视频获取单元163,被配置为执行采用画面调整模型,对第一视频中的各视频帧的画面参数进行调整,得到第二视频。
在一些实施例中,画面参数包括画色,画面调整模型包括画色调整模型,采用画色调整子模型,通过以下公式对各视频帧的画色进行调整,得到第二视频:
I1(r1,g1,b1,a1)=F1[I0(r,g,b,a)];
I1(r1)=a11(r)+b11(g)+c11(b);
I1(g1)=a12(r)+b12(g)+c12(b);
I1(b1)=a13(r)+b13(g)+c13(b);
I1(a1)=a14(r)+b14(g)+c14(b);
其中,F1[]表示像素点的变换函数,a11-a14、b11-b14、c11-c14表示变换参数。
本公开实施例还提供了一种视频处理装置,图17是一种视频处理装置,应用于第二终端,装置包括:
调整操作检测模块171,被配置为执行检测用户对第一视频的画面参数的调整操作;
数据标识生成模块172,被配置为执行当检测到调整操作时,基于画面参数的调整数据生成数据标识;
数据标识上报模块173,被配置为执行将数据标识和调整数据上报到服务器。
关于上述实施例中的装置,其中装置各模块的具体实现方式已经在描述方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图18是一种终端的框图。参照图18,终端1800可以包括以下一个或多个组件:处理组件1802,存储器1804,电源组件1806,多媒体组件1808,音频组件1810,输入/输出(I/O)的接口1812,传感器组件1814,以及通信组件1816。
处理组件1802通常控制终端1800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件1802可以包括一个或多个处理器1820来执行指令,以完成图3所示方法的全部或部分步骤。此外,处理组件1802可以包括一个或多个模块,便于处理组件1802和其他组件之间的交互。例如,处理组件1802可以包括多媒体模块,以方便多媒体组件1808和处理组件1802之间的交互。
存储器1804被配置为存储各种类型的数据以支持在终端1800的操作。这些数据的示例包括用于在终端1800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器1804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件1806为终端1800的各种组件提供电力。电源组件1806可以包括电源管理系统,一个或多个电源,及其他与为终端1800生成、管理和分配电力相关联的组件。
多媒体组件1808包括在终端1800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器 以感测触摸、滑动和触摸面板上的手势。触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件1808包括一个前置摄像头和/或后置摄像头。当终端1800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件1810被配置为输出和/或输入音频信号。例如,音频组件1810包括一个麦克风(MIC),当终端1800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器1804或经由通信组件1816发送。在一些实施例中,音频组件1810还包括一个扬声器,用于输出音频信号。
I/O接口1812为处理组件1802和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件1814包括一个或多个传感器,用于为终端1800提供各个方面的状态评估。例如,传感器组件1814可以检测到终端1800的打开/关闭状态,组件的相对定位,例如组件为终端1800的显示器和小键盘,传感器组件1814还可以检测终端1800或终端1800一个组件的位置改变,用户与终端1800接触的存在或不存在,终端1800方位或加速/减速和终端1800的温度变化。传感器组件1814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件1814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件1814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件1816被配置为便于终端1800和其他设备之间有线或无线方式的通信。终端1800可以接入基于通信标准的无线网络,如WiFi,运营商网络(如2G、3G、4G或5G),或它们的组合。在一个示例性实施例中,通信组件1816经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,通信组件1816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在本公开实施例中,终端1800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于以下步骤:
在显示第一视频的过程中,检测用户对第一视频的画面参数的调整操作。
响应于检测到对第一视频的画面参数的调整操作,确定调整操作对应的调整数据。
获取调整数据对应的第二视频。
在一些实施例中,终端还能够执行以下步骤:
显示候选页面的过程中,检测用户在候选视频页面内的触发操作。
响应于检测到用户在候选视频页面内的触发操作,确定触发操作选择的第一视频的视频标识。
向服务器发送视频标识。
接收服务器基于视频标识确定的第一视频。
在一些实施例中,终端还能够执行以下步骤:
向服务器发送调整数据对应的数据标识。
接收服务器基于数据标识确定的第二视频。
在一些实施例中,终端还能够执行以下步骤:
基于调整数据,生成画面调整模型。
采用画面调整模型,对第一视频中的各视频帧的画面参数进行调整,得到第二视频。
在一些实施例中,画面参数包括画色,画面调整模型包括画色调整子模型,终端还能够执行以下步骤:
采用画色调整子模型,通过以下公式对各视频帧的画色进行调整,得到第二视频:
I1(r1,g1,b1,a1)=F1[I0(r,g,b,a)]。
I1(r1)=a11(r)+b11(g)+c11(b)。
I1(g1)=a12(r)+b12(g)+c12(b)。
I1(b1)=a13(r)+b13(g)+c13(b)。
I1(a1)=a14(r)+b14(g)+c14(b)。
其中,F1[]表示像素点的变换函数,a11-a14、b11-b14、c11-c14表示变换参数。
在本公开实施例中,还提供了一种服务器,包括:
处理器。
用于存储处理器可执行的计算机程序的存储器。其中,处理器被配置为执行存储器中的计算机程序,以执行以下步骤:
获取第一视频,第一视频为通过第一终端显示的候选页面选择的视频。
将第一视频发送给第一终端。
获取调整数据,调整数据为第一终端播放第一视频时,对第一视频的画面参数进行调整的数据。
将与调整数据对应的第二视频发送给第一终端。
在一些实施例中,服务器还能够执行以下步骤:
基于调整数据,生成画面调整模型。
通过画面调整模型,对第一视频中的各视频帧的画面参数进行调整,得到第二视频。
在一些实施例中,画面参数包括画色,画面调整模型包括画色调整子模型,服务器还能够执行以下步骤:
通过画色调整子模型,采用以下公式对各视频帧的画色进行调整,得到第二视频:
I1(r1,g1,b1,a1)=F1[I0(r,g,b,a)]。
I1(r1)=a11(r)+b11(g)+c11(b)。
I1(g1)=a12(r)+b12(g)+c12(b)。
I1(b1)=a13(r)+b13(g)+c13(b)。
I1(a1)=a14(r)+b14(g)+c14(b)。
其中,F1[]表示像素点的变换函数,a11-a14、b11-b14、c11-c14表示变换参数。
在一些实施例中,画面参数包括画风,画面调整模型包括画风调整子模型,服务器还能够执行以下步骤:
通过画风调整子模型,采用以下公式对各视频帧的画风进行调整,得到第二视频:
I2(r2,g2,b2,a2)=F2[I0(r,g,b,a)]。
I2(r2)=a21(r*r)+b21(g*g)+c21(b*b)+d21(r*b)+e21(r*g)+f21(b*g)。
I2(g2)=a22(r*r)+b22(g*g)+c22(b*b)+d22(r*b)+e22(r*g)+f22(b*g)。
I2(b2)=a23(r*r)+b23(g*g)+c23(b*b)+d23(r*b)+e23(r*g)+f23(b*g)。
I2(a2)=a24(r*r)+b24(g*g)+c24(b*b)+d24(r*b)+e24(r*g)+f24(b*g)。
其中,F2[]表示像素点的变换函数,a21-a24、b21-b24、c21-c24、d21-d24、e21-e24、f21-f24表示变换参数。
在一些实施例中,调整数据包括缩放比例和道具图像中的至少一项,画面调整模型包括角色图像缩放子模型和道具添加子模型中的至少一种,服务器还能够执行以下步骤:
通过角色图像缩放子模型,基于缩放比例,对第一视频中的各视频帧内角色图像进行放大或者缩小。
通过道具添加子模型,在第一视频中的各视频帧内角色图像上叠加道具图像。
在一些实施例中,服务器还能够执行以下步骤:
将调整数据与数据库中各视频对应的调整数据进行比较。
响应于任一视频对应的调整数据与调整数据相同,将任一视频确定为第二视频。
在本公开实施例中,还提供了一种包括指令的非临时性计算机可读计算机程序的存储介质,例如,非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。上述计算机程序能够由终端的处理器执行以下步骤:
在显示第一视频的过程中,检测用户对第一视频的画面参数的调整操作。
响应于检测到对第一视频的画面参数的调整操作,确定调整操作对应的调整数据。
获取调整数据对应的第二视频。
在一些实施例中,终端还能够执行以下步骤:
显示候选页面的过程中,检测用户在候选视频页面内的触发操作。
响应于检测到用户在候选视频页面内的触发操作,确定触发操作选择的第一视频的视频标识。
向服务器发送视频标识。
接收服务器基于视频标识确定的第一视频。
在一些实施例中,终端还能够执行以下步骤:
向服务器发送调整数据对应的数据标识。
接收服务器基于数据标识确定的第二视频。
在一些实施例中,终端还能够执行以下步骤:
基于调整数据,生成画面调整模型。
采用画面调整模型,对第一视频中的各视频帧的画面参数进行调整,得到第二视频。
在一些实施例中,画面参数包括画色,画面调整模型包括画色调整子模型,终端还能够执行以下步骤:
采用画色调整子模型,通过以下公式对各视频帧的画色进行调整,得到第二视频:
I1(r1,g1,b1,a1)=F1[I0(r,g,b,a)]。
I1(r1)=a11(r)+b11(g)+c11(b)。
I1(g1)=a12(r)+b12(g)+c12(b)。
I1(b1)=a13(r)+b13(g)+c13(b)。
I1(a1)=a14(r)+b14(g)+c14(b)。
其中,F1[]表示像素点的变换函数,a11-a14、b11-b14、c11-c14表示变换参数。
在本公开实施例中,还提供了一种包括指令的非临时性计算机可读计算机程序的存储介质,例如,非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。上述计算机程序能够由服务器的处理器执行以下步骤:
获取第一视频,第一视频为通过第一终端显示的候选页面选择的视频。
将第一视频发送给第一终端。
获取调整数据,调整数据为第一终端播放第一视频时,对第一视频的画面参数进行调整的数据。
将与调整数据对应的第二视频发送给第一终端。
在一些实施例中,服务器还能够执行以下步骤:
基于调整数据,生成画面调整模型。
通过画面调整模型,对第一视频中的各视频帧的画面参数进行调整,得到第二视频。
在一些实施例中,画面参数包括画色,画面调整模型包括画色调整子模型,服务器还能够执行以下步骤:
通过画色调整子模型,采用以下公式对各视频帧的画色进行调整,得到第二视频:
I1(r1,g1,b1,a1)=F1[I0(r,g,b,a)]。
I1(r1)=a11(r)+b11(g)+c11(b)。
I1(g1)=a12(r)+b12(g)+c12(b)。
I1(b1)=a13(r)+b13(g)+c13(b)。
I1(a1)=a14(r)+b14(g)+c14(b)。
其中,F1[]表示像素点的变换函数,a11-a14、b11-b14、c11-c14表示变换参数。
在一些实施例中,画面参数包括画风,画面调整模型包括画风调整子模型,服务器还能够执行以下步骤:
通过画风调整子模型,采用以下公式对各视频帧的画风进行调整,得到第二视频:
I2(r2,g2,b2,a2)=F2[I0(r,g,b,a)]。
I2(r2)=a21(r*r)+b21(g*g)+c21(b*b)+d21(r*b)+e21(r*g)+f21(b*g)。
I2(g2)=a22(r*r)+b22(g*g)+c22(b*b)+d22(r*b)+e22(r*g)+f22(b*g)。
I2(b2)=a23(r*r)+b23(g*g)+c23(b*b)+d23(r*b)+e23(r*g)+f23(b*g)。
I2(a2)=a24(r*r)+b24(g*g)+c24(b*b)+d24(r*b)+e24(r*g)+f24(b*g)。
其中,F2[]表示像素点的变换函数,a21-a24、b21-b24、c21-c24、d21-d24、e21-e24、f21-f24表示变换参数。
在一些实施例中,调整数据包括缩放比例和道具图像中的至少一项,画面调整模型包括角色图像缩放子模型和道具添加子模型中的至少一种,服务器还能够执行以下步骤:
通过角色图像缩放子模型,基于缩放比例,对第一视频中的各视频帧内角色图像进行放大或者缩小。
通过道具添加子模型,在第一视频中的各视频帧内角色图像上叠加道具图像。
在一些实施例中,服务器还能够执行以下步骤:
将调整数据与数据库中各视频对应的调整数据进行比较。
响应于任一视频对应的调整数据与调整数据相同,将任一视频确定为第二视频。
在本公开实施例中,还提供了一种应用程序,当该应用程序由服务器的处理器执行时,使得服务器执行以下步骤:
获取第一视频,第一视频为通过第一终端显示的候选页面选择的视频。
将第一视频发送给第一终端。
获取调整数据,调整数据为第一终端播放第一视频时,对第一视频的画面参数进行调整的数据。
将与调整数据对应的第二视频发送给第一终端。
在一些实施例中,服务器还能够执行以下步骤:
基于调整数据,生成画面调整模型。
通过画面调整模型,对第一视频中的各视频帧的画面参数进行调整,得到第二视频。
在一些实施例中,画面参数包括画色,画面调整模型包括画色调整子模型,服务器还能够执行以下步骤:
通过画色调整子模型,采用以下公式对各视频帧的画色进行调整,得到第二视频:
I1(r1,g1,b1,a1)=F1[I0(r,g,b,a)]。
I1(r1)=a11(r)+b11(g)+c11(b)。
I1(g1)=a12(r)+b12(g)+c12(b)。
I1(b1)=a13(r)+b13(g)+c13(b)。
I1(a1)=a14(r)+b14(g)+c14(b)。
其中,F1[]表示像素点的变换函数,a11-a14、b11-b14、c11-c14表示变换参数。
在一些实施例中,画面参数包括画风,画面调整模型包括画风调整子模型,服务器还能够执行以下步骤:
通过画风调整子模型,采用以下公式对各视频帧的画风进行调整,得到第二视频:
I2(r2,g2,b2,a2)=F2[I0(r,g,b,a)]。
I2(r2)=a21(r*r)+b21(g*g)+c21(b*b)+d21(r*b)+e21(r*g)+f21(b*g)。
I2(g2)=a22(r*r)+b22(g*g)+c22(b*b)+d22(r*b)+e22(r*g)+f22(b*g)。
I2(b2)=a23(r*r)+b23(g*g)+c23(b*b)+d23(r*b)+e23(r*g)+f23(b*g)。
I2(a2)=a24(r*r)+b24(g*g)+c24(b*b)+d24(r*b)+e24(r*g)+f24(b*g)。
其中,F2[]表示像素点的变换函数,a21-a24、b21-b24、c21-c24、d21-d24、e21-e24、f21-f24表示变换参数。
在一些实施例中,调整数据包括缩放比例和道具图像中的至少一项,画面调整模型包括角色图像缩放子模型和道具添加子模型中的至少一种,服务器还能够执行以下步骤:
通过角色图像缩放子模型,基于缩放比例,对第一视频中的各视频帧内角色图像进行放大或者缩小。
通过道具添加子模型,在第一视频中的各视频帧内角色图像上叠加道具图像。
在一些实施例中,服务器还能够执行以下步骤:
将调整数据与数据库中各视频对应的调整数据进行比较。
响应于任一视频对应的调整数据与调整数据相同,将任一视频确定为第二视频。
在本公开实施例中,还提供了一种应用程序,当该应用程序由终端的处理器执行时,使得终端执行以下步骤:
在显示第一视频的过程中,检测用户对第一视频的画面参数的调整操作。
响应于检测到对第一视频的画面参数的调整操作,确定调整操作对应的调整数据。
获取调整数据对应的第二视频。
在一些实施例中,终端还能够执行以下步骤:
显示候选页面的过程中,检测用户在候选视频页面内的触发操作。
响应于检测到用户在候选视频页面内的触发操作,确定触发操作选择的第一视频的视 频标识。
向服务器发送视频标识。
接收服务器基于视频标识确定的第一视频。
在一些实施例中,终端还能够执行以下步骤:
向服务器发送调整数据对应的数据标识。
接收服务器基于数据标识确定的第二视频。
在一些实施例中,终端还能够执行以下步骤:
基于调整数据,生成画面调整模型。
采用画面调整模型,对第一视频中的各视频帧的画面参数进行调整,得到第二视频。
在一些实施例中,画面参数包括画色,画面调整模型包括画色调整子模型,终端还能够执行以下步骤:
采用画色调整子模型,通过以下公式对各视频帧的画色进行调整,得到第二视频:
I1(r1,g1,b1,a1)=F1[I0(r,g,b,a)]。
I1(r1)=a11(r)+b11(g)+c11(b)。
I1(g1)=a12(r)+b12(g)+c12(b)。
I1(b1)=a13(r)+b13(g)+c13(b)。
I1(a1)=a14(r)+b14(g)+c14(b)。
其中,F1[]表示像素点的变换函数,a11-a14、b11-b14、c11-c14表示变换参数。
在本公开实施例中,还提供了一种计算机程序产品,当该计算机程序产品由服务器的处理器执行时,使得服务器能够执行以下步骤:
获取第一视频,第一视频为通过第一终端显示的候选页面选择的视频。
将第一视频发送给第一终端。
获取调整数据,调整数据为第一终端播放第一视频时,对第一视频的画面参数进行调整的数据。
将与调整数据对应的第二视频发送给第一终端。
在一些实施例中,服务器还能够执行以下步骤:
基于调整数据,生成画面调整模型。
通过画面调整模型,对第一视频中的各视频帧的画面参数进行调整,得到第二视频。
在一些实施例中,画面参数包括画色,画面调整模型包括画色调整子模型,服务器还 能够执行以下步骤:
通过画色调整子模型,采用以下公式对各视频帧的画色进行调整,得到第二视频:
I1(r1,g1,b1,a1)=F1[I0(r,g,b,a)]。
I1(r1)=a11(r)+b11(g)+c11(b)。
I1(g1)=a12(r)+b12(g)+c12(b)。
I1(b1)=a13(r)+b13(g)+c13(b)。
I1(a1)=a14(r)+b14(g)+c14(b)。
其中,F1[]表示像素点的变换函数,a11-a14、b11-b14、c11-c14表示变换参数。
在一些实施例中,画面参数包括画风,画面调整模型包括画风调整子模型,服务器还能够执行以下步骤:
通过画风调整子模型,采用以下公式对各视频帧的画风进行调整,得到第二视频:
I2(r2,g2,b2,a2)=F2[I0(r,g,b,a)]。
I2(r2)=a21(r*r)+b21(g*g)+c21(b*b)+d21(r*b)+e21(r*g)+f21(b*g)。
I2(g2)=a22(r*r)+b22(g*g)+c22(b*b)+d22(r*b)+e22(r*g)+f22(b*g)。
I2(b2)=a23(r*r)+b23(g*g)+c23(b*b)+d23(r*b)+e23(r*g)+f23(b*g)。
I2(a2)=a24(r*r)+b24(g*g)+c24(b*b)+d24(r*b)+e24(r*g)+f24(b*g)。
其中,F2[]表示像素点的变换函数,a21-a24、b21-b24、c21-c24、d21-d24、e21-e24、f21-f24表示变换参数。
在一些实施例中,调整数据包括缩放比例和道具图像中的至少一项,画面调整模型包括角色图像缩放子模型和道具添加子模型中的至少一种,服务器还能够执行以下步骤:
通过角色图像缩放子模型,基于缩放比例,对第一视频中的各视频帧内角色图像进行放大或者缩小。
通过道具添加子模型,在第一视频中的各视频帧内角色图像上叠加道具图像。
在一些实施例中,服务器还能够执行以下步骤:
将调整数据与数据库中各视频对应的调整数据进行比较。
响应于任一视频对应的调整数据与调整数据相同,将任一视频确定为第二视频。
在本公开实施例中,还提供了一种计算机程序产品,当该计算机程序产品由终端的处理器执行时,使得终端能够执行以下步骤:
在显示第一视频的过程中,检测用户对第一视频的画面参数的调整操作。
响应于检测到对第一视频的画面参数的调整操作,确定调整操作对应的调整数据。
获取调整数据对应的第二视频。
在一些实施例中,服务器还能够执行以下步骤:
显示候选页面的过程中,检测用户在候选视频页面内的触发操作。
响应于检测到用户在候选视频页面内的触发操作,确定触发操作选择的第一视频的视频标识。
向服务器发送视频标识。
接收服务器基于视频标识确定的第一视频。
在一些实施例中,服务器还能够执行以下步骤:
向服务器发送调整数据对应的数据标识。
接收服务器基于数据标识确定的第二视频。
在一些实施例中,服务器还能够执行以下步骤:
基于调整数据,生成画面调整模型。
采用画面调整模型,对第一视频中的各视频帧的画面参数进行调整,得到第二视频。
在一些实施例中,画面参数包括画色,画面调整模型包括画色调整子模型,服务器还能够执行以下步骤:
采用画色调整子模型,通过以下公式对各视频帧的画色进行调整,得到第二视频:
I1(r1,g1,b1,a1)=F1[I0(r,g,b,a)]。
I1(r1)=a11(r)+b11(g)+c11(b)。
I1(g1)=a12(r)+b12(g)+c12(b)。
I1(b1)=a13(r)+b13(g)+c13(b)。
I1(a1)=a14(r)+b14(g)+c14(b)。
其中,F1[]表示像素点的变换函数,a11-a14、b11-b14、c11-c14表示变换参数。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置/服务器/存储介质实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。

Claims (20)

  1. 一种视频处理方法,应用于服务器,所述方法包括:
    获取第一视频,所述第一视频为通过第一终端显示的候选页面选择的视频;
    将所述第一视频发送给所述第一终端;
    获取调整数据,所述调整数据为所述第一终端播放所述第一视频时,对所述第一视频的画面参数进行调整的数据;
    将与所述调整数据对应的第二视频发送给所述第一终端。
  2. 根据权利要求1所述的视频处理方法,其中,所述方法还包括:
    基于所述调整数据,生成画面调整模型;
    通过所述画面调整模型,对所述第一视频中的各视频帧的画面参数进行调整,得到所述第二视频。
  3. 根据权利要求2所述的视频处理方法,其中,所述画面参数包括画色,所述画面调整模型包括画色调整子模型,所述通过所述画面调整模型,对所述第一视频中的各视频帧的画面参数进行调整,得到所述第二视频包括:
    通过所述画色调整子模型,采用以下公式对所述各视频帧的画色进行调整,得到所述第二视频:
    I1(r1,g1,b1,a1)=F1[I0(r,g,b,a)];
    I1(r1)=a11(r)+b11(g)+c11(b);
    I1(g1)=a12(r)+b12(g)+c12(b);
    I1(b1)=a13(r)+b13(g)+c13(b);
    I1(a1)=a14(r)+b14(g)+c14(b);
    其中,F1[]表示像素点的变换函数,a11-a14、b11-b14、c11-c14表示变换参数。
  4. 根据权利要求2所述的视频处理方法,其中,所述画面参数包括画风,所述画面调整模型包括画风调整子模型,所述通过所述画面调整模型,对所述第一视频中的各视频帧的画面参数进行调整,得到所述第二视频包括:
    通过所述画风调整子模型,采用以下公式对所述各视频帧的画风进行调整,得到所述第二视频:
    I2(r2,g2,b2,a2)=F2[I0(r,g,b,a)];
    I2(r2)=a21(r*r)+b21(g*g)+c21(b*b)+d21(r*b)+e21(r*g)+f21(b*g);
    I2(g2)=a22(r*r)+b22(g*g)+c22(b*b)+d22(r*b)+e22(r*g)+f22(b*g);
    I2(b2)=a23(r*r)+b23(g*g)+c23(b*b)+d23(r*b)+e23(r*g)+f23(b*g);
    I2(a2)=a24(r*r)+b24(g*g)+c24(b*b)+d24(r*b)+e24(r*g)+f24(b*g);
    其中,F2[]表示像素点的变换函数,a21-a24、b21-b24、c21-c24、d21-d24、e21-e24、f21-f24表示变换参数。
  5. 根据权利要求2所述的视频处理方法,其中,所述调整数据包括缩放比例和道具图像中的至少一项,所述画面调整模型包括角色图像缩放子模型和道具添加子模型中的至少一种,所述通过所述画面调整模型,对所述第一视频中的各视频帧的画面参数进行调整,得到所述第二视频包括下述至少一项:
    通过所述角色图像缩放子模型,基于所述缩放比例,对所述第一视频中的各视频帧内角色图像进行放大或者缩小;
    通过所述道具添加子模型,在所述第一视频中的各视频帧内角色图像上叠加所述道具图像。
  6. 根据权利要求1所述的视频处理方法,其中,所述方法还包括:
    将所述调整数据与数据库中各视频对应的调整数据进行比较;
    响应于任一视频对应的调整数据与所述调整数据相同,将所述任一视频确定为所述第二视频。
  7. 一种视频处理方法,应用于第一终端,所述方法包括:
    在显示第一视频的过程中,检测用户对所述第一视频的画面参数的调整操作;
    响应于检测到对所述第一视频的画面参数的调整操作,确定所述调整操作对应的调整数据;
    获取所述调整数据对应的第二视频。
  8. 根据权利要求7所述的视频处理方法,其中,所述方法还包括:
    显示候选页面的过程中,检测用户在所述候选视频页面内的触发操作;
    响应于检测到用户在所述候选视频页面内的触发操作,确定所述触发操作选择的第一 视频的视频标识;
    向服务器发送所述视频标识;
    接收所述服务器基于所述视频标识确定的所述第一视频。
  9. 根据权利要求7所述的视频处理方法,其中,所述获取所述调整数据对应的第二视频,包括:
    向服务器发送所述调整数据对应的数据标识;
    接收所述服务器基于所述数据标识确定的所述第二视频。
  10. 根据权利要求7所述的视频处理方法,其中,所述获取所述调整数据对应的第二视频,包括:
    基于所述调整数据,生成画面调整模型;
    采用所述画面调整模型,对所述第一视频中的各视频帧的画面参数进行调整,得到所述第二视频。
  11. 根据权利要求10所述的视频处理方法,其中,所述画面参数包括画色,所述画面调整模型包括画色调整子模型,所述采用所述画面调整模型,对所述第一视频中的各视频帧的画面参数进行调整,得到所述第二视频包括:
    采用所述画色调整子模型,通过以下公式对所述各视频帧的画色进行调整,得到所述第二视频:
    I1(r1,g1,b1,a1)=F1[I0(r,g,b,a)];
    I1(r1)=a11(r)+b11(g)+c11(b);
    I1(g1)=a12(r)+b12(g)+c12(b);
    I1(b1)=a13(r)+b13(g)+c13(b);
    I1(a1)=a14(r)+b14(g)+c14(b);
    其中,F1[]表示像素点的变换函数,a11-a14、b11-b14、c11-c14表示变换参数。
  12. 一种视频处理装置,应用于服务器,所述装置包括:
    第一视频发送模块,被配置为执行获取第一视频,所述第一视频为通过第一终端显示的候选页面选择的视频;
    调整数据获取模块,被配置为执行获取调整数据,所述调整数据为所述第一终端播放 所述第一视频时,对所述第一视频的画面参数进行调整的数据;
    第二视频发送模块,被配置为执行将与所述调整数据对应的第二视频发送给所述第一终端。
  13. 一种视频处理装置,应用于第一终端,所述装置包括:
    调整操作检测模块,被配置为执行在显示第一视频的过程中,检测用户对所述第一视频的画面参数的调整操作;
    调整数据获取模块,被配置为执行响应于检测到对所述第一视频的画面参数的调整操作,确定所述调整操作对应的调整数据;
    第二视频获取模块,被配置为执行获取所述调整数据对应的第二视频。
  14. 一种服务器,包括:
    处理器;
    用于存储所述处理器可执行的计算机程序的存储器;其中,所述处理器被配置为执行所述存储器中的计算机程序,以执行以下步骤:
    获取第一视频,所述第一视频为通过第一终端显示的候选页面选择的视频;
    将所述第一视频发送给所述第一终端;
    获取调整数据,所述调整数据为所述第一终端播放所述第一视频时,对所述第一视频的画面参数进行调整的数据;
    将与所述调整数据对应的第二视频发送给所述第一终端。
  15. 根据权利要求14所述的服务器,其中,所述处理器还用于执行以下步骤:
    基于所述调整数据,生成画面调整模型;
    通过所述画面调整模型,对所述第一视频中的各视频帧的画面参数进行调整,得到所述第二视频。
  16. 根据权利要求15所述的服务器,其中,所述画面参数包括画色,所述画面调整模型包括画色调整子模型,所述处理器还用于执行以下步骤:
    通过所述画色调整子模型,采用以下公式对所述各视频帧的画色进行调整,得到所述第二视频:
    I1(r1,g1,b1,a1)=F1[I0(r,g,b,a)];
    I1(r1)=a11(r)+b11(g)+c11(b);
    I1(g1)=a12(r)+b12(g)+c12(b);
    I1(b1)=a13(r)+b13(g)+c13(b);
    I1(a1)=a14(r)+b14(g)+c14(b);
    其中,F1[]表示像素点的变换函数,a11-a14、b11-b14、c11-c14表示变换参数。
  17. 根据权利要求15所述的服务器,其中,所述画面参数包括画风,所述画面调整模型包括画风调整子模型,所述处理器还用于执行以下步骤:
    通过所述画风调整子模型,采用以下公式对所述各视频帧的画风进行调整,得到所述第二视频:
    I2(r2,g2,b2,a2)=F2[I0(r,g,b,a)];
    I2(r2)=a21(r*r)+b21(g*g)+c21(b*b)+d21(r*b)+e21(r*g)+f21(b*g);
    I2(g2)=a22(r*r)+b22(g*g)+c22(b*b)+d22(r*b)+e22(r*g)+f22(b*g);
    I2(b2)=a23(r*r)+b23(g*g)+c23(b*b)+d23(r*b)+e23(r*g)+f23(b*g);
    I2(a2)=a24(r*r)+b24(g*g)+c24(b*b)+d24(r*b)+e24(r*g)+f24(b*g);
    其中,F2[]表示像素点的变换函数,a21-a24、b21-b24、c21-c24、d21-d24、e21-e24、f21-f24表示变换参数。
  18. 一种终端,包括:
    处理器;
    用于存储所述处理器可执行的计算机程序的存储器;其中,所述处理器被配置为执行所述存储器中的计算机程序,以执行以下步骤:
    在显示第一视频的过程中,检测用户对所述第一视频的画面参数的调整操作;
    响应于检测到对所述第一视频的画面参数的调整操作,确定所述调整操作对应的调整数据;
    获取所述调整数据对应的第二视频。
  19. 一种存储介质,当所述存储介质中的可执行的计算机程序由服务器的处理器执行时,使得所述处理器能够执行以下步骤:
    获取第一视频,所述第一视频为通过第一终端显示的候选页面选择的视频;
    将所述第一视频发送给所述第一终端;
    获取调整数据,所述调整数据为所述第一终端播放所述第一视频时,对所述第一视频的画面参数进行调整的数据;
    将与所述调整数据对应的第二视频发送给所述第一终端。
  20. 一种存储介质,当所述存储介质中的可执行的计算机程序由终端的处理器执行时,使得所述处理器能够执行以下步骤:
    在显示第一视频的过程中,检测用户对所述第一视频的画面参数的调整操作;
    响应于检测到对所述第一视频的画面参数的调整操作,确定所述调整操作对应的调整数据;
    获取所述调整数据对应的第二视频。
PCT/CN2021/076349 2020-02-27 2021-02-09 视频处理方法及服务器 WO2021169810A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010123687.3A CN111263190A (zh) 2020-02-27 2020-02-27 视频处理方法及装置、服务器、存储介质
CN202010123687.3 2020-02-27

Publications (1)

Publication Number Publication Date
WO2021169810A1 true WO2021169810A1 (zh) 2021-09-02

Family

ID=70954560

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2021/076349 WO2021169810A1 (zh) 2020-02-27 2021-02-09 视频处理方法及服务器

Country Status (2)

Country Link
CN (1) CN111263190A (zh)
WO (1) WO2021169810A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111263190A (zh) * 2020-02-27 2020-06-09 游艺星际(北京)科技有限公司 视频处理方法及装置、服务器、存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110125868A1 (en) * 2002-06-06 2011-05-26 International Business Machines Corporation Audio/video speedup system and method in a server-client streaming architecture
CN106470353A (zh) * 2016-09-27 2017-03-01 北京金山安全软件有限公司 一种多媒体数据处理方法及其装置、电子设备
WO2017162980A1 (fr) * 2016-03-25 2017-09-28 Orange Procédé et dispositif de contrôle du réglage d'au moins un paramètre audio et/ou vidéo, terminal et programme d'ordinateur correspondants
CN107948733A (zh) * 2017-12-04 2018-04-20 腾讯科技(深圳)有限公司 视频图像处理方法及装置、电子设备
CN109151573A (zh) * 2018-09-30 2019-01-04 Oppo广东移动通信有限公司 视频增强控制方法、装置以及电子设备
CN109448089A (zh) * 2018-10-22 2019-03-08 美宅科技(北京)有限公司 一种渲染方法及装置
CN109840879A (zh) * 2017-11-28 2019-06-04 腾讯科技(深圳)有限公司 图像渲染方法、装置、计算机存储介质及终端
CN111263190A (zh) * 2020-02-27 2020-06-09 游艺星际(北京)科技有限公司 视频处理方法及装置、服务器、存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104967801B (zh) * 2015-02-04 2019-09-17 腾讯科技(深圳)有限公司 一种视频数据处理方法和装置
CN105578275A (zh) * 2015-12-16 2016-05-11 小米科技有限责任公司 视频显示方法及装置
CN107623798A (zh) * 2016-07-15 2018-01-23 中兴通讯股份有限公司 一种视频局部缩放的方法及装置
CN108769562B (zh) * 2018-06-29 2021-03-26 广州酷狗计算机科技有限公司 生成特效视频的方法和装置
CN110446083A (zh) * 2019-08-29 2019-11-12 北京达佳互联信息技术有限公司 视频播放方法、装置、电子设备及存储介质
CN110809171B (zh) * 2019-11-12 2022-08-12 腾讯科技(深圳)有限公司 视频处理方法及相关设备

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110125868A1 (en) * 2002-06-06 2011-05-26 International Business Machines Corporation Audio/video speedup system and method in a server-client streaming architecture
WO2017162980A1 (fr) * 2016-03-25 2017-09-28 Orange Procédé et dispositif de contrôle du réglage d'au moins un paramètre audio et/ou vidéo, terminal et programme d'ordinateur correspondants
CN106470353A (zh) * 2016-09-27 2017-03-01 北京金山安全软件有限公司 一种多媒体数据处理方法及其装置、电子设备
CN109840879A (zh) * 2017-11-28 2019-06-04 腾讯科技(深圳)有限公司 图像渲染方法、装置、计算机存储介质及终端
CN107948733A (zh) * 2017-12-04 2018-04-20 腾讯科技(深圳)有限公司 视频图像处理方法及装置、电子设备
CN109151573A (zh) * 2018-09-30 2019-01-04 Oppo广东移动通信有限公司 视频增强控制方法、装置以及电子设备
CN109448089A (zh) * 2018-10-22 2019-03-08 美宅科技(北京)有限公司 一种渲染方法及装置
CN111263190A (zh) * 2020-02-27 2020-06-09 游艺星际(北京)科技有限公司 视频处理方法及装置、服务器、存储介质

Also Published As

Publication number Publication date
CN111263190A (zh) 2020-06-09

Similar Documents

Publication Publication Date Title
US20170032725A1 (en) Method, device, and computer-readable medium for setting color gamut mode
CN109345485B (zh) 一种图像增强方法、装置、电子设备及存储介质
CN109360261B (zh) 图像处理方法、装置、电子设备及存储介质
CN110677734B (zh) 视频合成方法、装置、电子设备及存储介质
JP2017513075A (ja) 画像フィルタを生成する方法及び装置
CN111290723A (zh) 显示背景的调节方法、装置、终端及存储介质
WO2017012232A1 (zh) 一种图片的显示方法及装置
CN114067003A (zh) 色域转换方法及装置、电子设备及存储介质
CN111953903A (zh) 拍摄方法、装置、电子设备及存储介质
WO2022199038A1 (zh) 画面调节参数调整方法及装置
CN105677352B (zh) 应用图标颜色的设置方法和装置
WO2021169810A1 (zh) 视频处理方法及服务器
US10627996B2 (en) Method and apparatus for sorting filter options
CN106375787B (zh) 视频播放的方法及装置
CN114067740A (zh) 屏幕校准方法及装置、电子设备及存储介质
CN112905141A (zh) 屏幕显示方法及装置、计算机存储介质
CN109427036B (zh) 皮肤颜色的处理方法和装置
CN114067739B (zh) 色域映射方法及装置、电子设备及存储介质
US20220094772A1 (en) Photographing method and apparatus, terminal, and storage medium
WO2021147976A1 (zh) 图像处理方法、装置、电子设备及存储介质
CN106571127B (zh) 一种显示目标图像的方法和装置
WO2023240624A1 (zh) 亮度调整方法及装置、存储介质
CN113254118B (zh) 肤色显示及装置
CN118102080A (zh) 图像拍摄方法、装置、终端及存储介质
CN116820367A (zh) 图像显示方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21759935

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21759935

Country of ref document: EP

Kind code of ref document: A1