WO2022042089A1 - 直播间的互动方法及装置 - Google Patents

直播间的互动方法及装置 Download PDF

Info

Publication number
WO2022042089A1
WO2022042089A1 PCT/CN2021/105843 CN2021105843W WO2022042089A1 WO 2022042089 A1 WO2022042089 A1 WO 2022042089A1 CN 2021105843 W CN2021105843 W CN 2021105843W WO 2022042089 A1 WO2022042089 A1 WO 2022042089A1
Authority
WO
WIPO (PCT)
Prior art keywords
virtual gift
face image
video data
server
live broadcast
Prior art date
Application number
PCT/CN2021/105843
Other languages
English (en)
French (fr)
Inventor
张奇
Original Assignee
北京达佳互联信息技术有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 北京达佳互联信息技术有限公司 filed Critical 北京达佳互联信息技术有限公司
Publication of WO2022042089A1 publication Critical patent/WO2022042089A1/zh

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4532Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
    • H04N21/4753End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for user identification, e.g. by entering a PIN or password
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting

Definitions

  • the present disclosure relates to the field of mobile Internet applications, and in particular, to an interactive method and device, electronic equipment and storage medium for a live broadcast room.
  • Webcasting is an emerging social networking method, and in the webcasting, viewers and anchors can interact, making webcasting popular among users.
  • the user in order to increase the interest of the interaction between the host and the user, the user can generally buy virtual gifts, and then give them to the host to create an opportunity for interaction.
  • the viewer and the host each maintain a long connection channel with the server, which can be used to send and receive information.
  • the host When the viewer sends a gift to the host, the host will receive the viewer's gift message through the long connection channel, and then send the gift to the host.
  • the rendering effect is displayed on the streamer's mobile phone interface.
  • the present disclosure provides an interactive method, device and electronic device for a live broadcast room.
  • the technical solutions of the present disclosure are as follows:
  • an interaction method between live broadcasts including:
  • play first video data where the first video data includes the first face image and the second face image of the target user.
  • an interaction method between live broadcasts including:
  • the server In response to receiving the virtual gift information sent by the server, acquiring a second face image collected by the camera, wherein the virtual gift information includes identification information of the virtual gift;
  • the rendered video data is sent to the server.
  • an interactive device in a live room including:
  • a first sending module configured to send a first instruction to the server in response to a first input on the live broadcast interactive interface, wherein the first instruction is used to instruct to present a virtual gift to the target user;
  • a first acquisition module configured to acquire the first face image collected by the camera
  • the playing module is configured to play first video data on the playing interface of the live video stream, where the first video data includes the first face image and the second face image of the target user.
  • an interactive device in a live room including:
  • the second obtaining module is configured to obtain the second face image collected by the camera device in response to receiving the virtual gift information sent by the server, wherein the virtual gift information includes identification information of the virtual gift;
  • a rendering module configured to render the virtual gift to a preset position based on the identification information of the virtual gift and the second face image, and avoid a part of the second face image
  • the third sending module is configured to send the rendered video data to the server.
  • an electronic device comprising:
  • a memory for storing instructions executable by the processor; wherein the processor is configured to execute the instructions to implement the steps of:
  • play first video data where the first video data includes the first face image and the second face image of the target user.
  • an electronic device comprising:
  • a memory for storing instructions executable by the processor; wherein the processor is configured to execute the instructions to implement the steps of:
  • the server In response to receiving the virtual gift information sent by the server, acquiring a second face image collected by the camera, wherein the virtual gift information includes identification information of the virtual gift;
  • the rendered video data is sent to the server.
  • a non-volatile computer-readable storage medium storing instructions, wherein, when the instructions in the storage medium are executed by a processor of an electronic device, the electronic device is caused to perform the following steps:
  • play first video data where the first video data includes the first face image and the second face image of the target user.
  • a non-volatile computer-readable storage medium storing instructions, wherein the instructions in the storage medium, when executed by a processor of an electronic device, enable the electronic device to perform the following steps :
  • the server In response to receiving the virtual gift information sent by the server, acquiring a second face image collected by the camera, wherein the virtual gift information includes identification information of the virtual gift;
  • the rendered video data is sent to the server.
  • a computer program product that, when the instructions in the computer program product are executed by a processor of an electronic device, cause the electronic device to perform the following steps:
  • play first video data where the first video data includes the first face image and the second face image of the target user.
  • a computer program product that, when the instructions in the computer program product are executed by a processor of an electronic device, cause the electronic device to perform the following steps:
  • the server In response to receiving the virtual gift information sent by the server, acquiring a second face image collected by the camera, wherein the virtual gift information includes identification information of the virtual gift;
  • the rendered video data is sent to the server.
  • FIG. 1 is a flowchart of an interaction method in a live broadcast room according to an exemplary embodiment
  • FIG. 2 is a flow chart of an interaction method in a live broadcast room according to an exemplary embodiment
  • FIG. 3 is a flowchart of another interactive method in a live broadcast room according to an exemplary embodiment
  • FIG. 4 is a flowchart of another interactive method in a live broadcast room according to an exemplary embodiment
  • FIG. 5 is a schematic diagram of an application scenario for implementing live broadcasting according to an exemplary embodiment
  • FIG. 6 is a flow chart of interaction among three parties of a first client, a second client, and a server during interaction in a live room according to an exemplary embodiment
  • FIG. 7 is a block diagram of an interactive device in a live room according to an exemplary embodiment
  • FIG. 8 is a block diagram of another interactive device in a live room according to an exemplary embodiment
  • FIG. 9 is a block diagram of an electronic device according to an exemplary embodiment.
  • Fig. 10 is a block diagram of an electronic device according to an exemplary embodiment.
  • Embodiments of the present disclosure provide an interactive method, device, and electronic device for a live broadcast room.
  • the interactive method in a live broadcast room can be applied to the interaction between a client watching the live broadcast and the live broadcast host during the live broadcast. For example, a user presents a virtual host to the host. gift situation.
  • the method can be executed by the interactive device in the live room provided by the embodiment of the present disclosure, and the device can be integrated into any terminal device with a network communication function and a camera function, such as a mobile terminal device (such as a smart phone, a tablet computer, etc.), a notebook or a fixed A terminal (desktop computer, etc.), the interactive device in the live room can be implemented by means of hardware and/or software.
  • FIG. 1 is a flowchart of an interaction method in a live broadcast room according to an exemplary embodiment of the present disclosure. As shown in FIG. 1 , the method is applied to the first client end giving gifts, that is, the client end of the user watching the live broadcast in the live broadcast room, and the method may include the contents shown in steps S11 to S13 .
  • step S11 in response to the first input on the live broadcast interactive interface, a first instruction is sent to the server.
  • the first instruction is used to instruct to present a virtual gift to the target user.
  • the first client terminal when it receives the first input input by the user on the live broadcast interactive interface, it sends to the server a first instruction for giving a virtual gift to the target user.
  • the first client may be a viewer.
  • the first input may be a selection input, such as a single-click, double-click, etc. input, or a text input, or other input.
  • step S12 the first face image collected by the camera is acquired.
  • the first client when the first client receives the first input, it sends the first instruction to the server, and at the same time starts the camera device to acquire the first face image collected by the camera device.
  • the camera device may be activated to collect an image or video containing a human face, and then the human face may be recognized to obtain the first human face image.
  • step S13 on the playback interface of the live video stream, the first video data is played.
  • the first video data includes a first face image and a second face image of the target user.
  • the interactive effect of the user (ie the viewer) of the first client and the user of the target user client being in the same frame is displayed.
  • the first instruction is sent to the server, and at the same time, the first face image collected by the camera device is acquired.
  • the play interface play the first video data including the first face image and the second face image of the target user.
  • the user's face image can be added to the video stream to show the interaction effect of the user and the user receiving the gift in the same frame, making the interaction effect more interesting and increasing the user's interactivity.
  • FIG. 2 it is a flowchart of an interaction method in a live broadcast room according to an exemplary embodiment of the present disclosure. Steps S21 to S23 in FIG. 2 may adopt the same implementation manner as steps S11 to S13 in FIG. 1 , and thus will not be repeated here.
  • the confluence of face special effects may be performed on the first client, that is, after the first client receives the video returned by the server and includes the rendered gift and the second face image of the target user, the first client uses the first client The face image replaces the rendered gift.
  • the interaction method in the live broadcast room may further include steps S24 to S25 .
  • step S24 the second video data returned by the server is received.
  • the second video data is the video stream data returned by the client of the target user and includes the rendered virtual gift, and the second video data includes the virtual gift and the second face image of the target user.
  • the first client receives the first input on the live broadcast interface, and then sends to the server a first instruction for instructing to present a virtual gift to the target user, and after receiving the first instruction, the server parses the The first instruction obtains the client identification of the target user and the identification of the virtual gift, and then sends the virtual gift information to the target user according to the client identification of the target user and the identification of the virtual gift obtained by the above analysis, and the target user client receives the After the virtual gift information is obtained, the virtual gift is rendered into the video data collected by the camera device to obtain video stream data including the rendered virtual gift, which is returned to the server, and the server returns the video stream to the first client.
  • the target user client can send the video data rendered by the virtual gift into the video stream to the server, so that the first client, the target user client and other clients watching the live broadcast in the live broadcast room can all After seeing the rendered video stream of the virtual gift, there is no need to perform the gift rendering process in the first client and other clients, that is, the audience client, which makes the rendering process simpler, reduces the data processing of the first client, and makes the video for smoother viewing.
  • step S25 the collected first face image is added to the video stream data, and the virtual gift is replaced to obtain the first video data.
  • the first client adds the collected first face image to the video stream data returned by the above-mentioned server, replaces the virtual gift, and obtains the first video data.
  • the interactive effect of the first client user and the target client user being in the same frame can be presented.
  • the replacement mode may be determined according to the type of the virtual gift, or the replacement mode may be determined according to the shape of the acquired first face image.
  • the replacement method may be a direct covering method, a partial covering method, or the like.
  • the type of virtual gift is sticker
  • the rendered gift is close to the face image of the target client user, and the size is similar to the face of the target user
  • the virtual gift is directly replaced with the first face image, showing the first The interactive effect that a face image is close to the face image of the target client user.
  • the virtual gift can be directly replaced with the first face image, showing The interactive effect of the first face image towards the face image of the target client user;
  • the type of the virtual gift can be an overall image of an animated character, then the face of the animated character can be replaced with the first face image to present the first face image.
  • the combination of a face image and an animated character body, and the effect of being in the same frame with the target user's face increases the fun of interaction.
  • the first face image of the first client may be the face image of the audience in the live room
  • the face image of the target client user may be the face image of the host of the live room.
  • adding the collected first face image to the video stream data and replacing the virtual gift to obtain the first video data which specifically includes: identifying the location information of the virtual gift in the video stream data ; Based on the position information of the virtual gift, replace the virtual gift with the first face image to obtain the first video data.
  • the first client user by adding the first face image to the video data returned by the target client, the first client user can have a more sense of participation, and the interactivity of the first client user, that is, the audience can be enhanced.
  • the confluence of face special effects may be performed on the server side, that is, the server receives the first face image sent by the first client and the face image of the target user sent by the target user server, and uses the first face image sent by the target user server.
  • the face image replaces the rendered gift.
  • the interaction method in the live broadcast room may further include steps S26 to S27 .
  • step S26 the first face image is sent to the server.
  • step S27 the first video data returned by the server is received.
  • the server side replaces the virtual gift with the first face image, and forms the first video data in which the first face image and the target user's face image are in the same frame, and then sends the video data to the first client, and then sends the video data to the first client.
  • a client display can make the first client user feel more involved and enhance the interactivity of the first client user, that is, the audience.
  • the interaction method in the live broadcast room may further include step S28.
  • step S28 if it is detected that the playback duration of the video stream including the first video data reaches the preset display duration, the playback of the first video data is stopped.
  • the effect that the first face image and the target user's face image are in the same frame can only be displayed within a certain period of time after the user presents the gift. After this period of time, the interactive effect will disappear, so as not to affect the user's viewing of the live broadcast room for a long time. 's live broadcast.
  • FIG. 3 it is a flowchart of another method for interacting between live broadcasts according to an exemplary embodiment of the present disclosure.
  • the method can be applied to the second client terminal of the target user who receives the virtual gift, that is, the client terminal of the user who broadcasts the live broadcast in the live broadcast room.
  • the method may include steps S31 to S33.
  • step S31 in response to receiving the virtual gift information sent by the server, a second face image collected by the camera is acquired.
  • the virtual gift information includes identification information of the virtual gift.
  • step S32 based on the identification information of the virtual gift and the second face image, the virtual gift is rendered to a preset position, and a part of the second face image is avoided.
  • step S33 the rendered video data is sent to the server.
  • the second client when the second client receives the virtual gift information sent by the server, it obtains the second face image collected by the camera. The video stream of the face is then recognized, and the second face image is obtained. Then, the type of the virtual gift can be determined according to the identification information of the virtual gift, and then the virtual gift is rendered to a preset position avoiding a part of the second face image according to the type, and finally the rendered video data is sent to the server.
  • the virtual gift can be added to different positions near the face of the second person in the live video stream, so that the gift display effect is more interesting and the interaction between the audience and the anchor is increased.
  • the types of virtual gifts may be different categories classified according to the size or effect of the virtual gifts.
  • virtual gifts are divided into three types: small gifts, that is, only gift tray animation display; sticker gift, gift tray and sticker prop animation display; large gift, gift tray and full-screen animation exhibit.
  • the data of the virtual gift effect can be the specific effect data used to display the virtual gift on the live interactive interface, such as data such as the motion effect or background color in the virtual gift effect, including the control animation of the gift, entering the effect from outside the screen, and displaying the connection. Click effect, disappear and other related effects.
  • the sticker gift can be added to the specific position of the second face image according to the form of the collected second face image in the video, static or dynamic, etc.
  • the second client user is the movement of the anchor, and the sticker dynamically follows the user's movement.
  • the virtual gift is a crown, and the crown can be moved left and right with the anchor and dynamically displayed on the head of the anchor, increasing the interactivity of the gift.
  • FIG. 4 it is a flowchart of another method for interacting between live broadcasts according to an exemplary embodiment of the present disclosure.
  • Step S41 in FIG. 4 can adopt the same implementation as step S31 in FIG. 3
  • step S43 in FIG. 4 can adopt the same implementation as step S33 in FIG. 3 , so it is not repeated here.
  • step S42 in FIG. 4 may adopt the same implementation as step S32 in FIG. 3 , and further includes steps S421 to S422 .
  • step S421 the rendering effect of the virtual gift is determined according to the identification information of the virtual gift.
  • step S422 according to the rendering effect, the virtual gift is rendered to a preset position, and a part of the second face image is avoided.
  • the type of the virtual gift can be determined according to the identification information of the virtual gift, the rendering effect of the virtual gift can be determined according to the type, and then the virtual gift is rendered to the corresponding position of the second face image. That is, the rendering position corresponds to the specific type of the virtual gift. Different types have different rendering effects and corresponding rendering positions. However, the virtual gift will not block the second person's face after rendering.
  • the types of virtual gifts have been described in detail in the above embodiments, and will not be repeated here.
  • FIG. 5 it is a schematic diagram of an application scenario for implementing live broadcast according to an exemplary embodiment of the present disclosure.
  • the first client is the viewer client, which can be installed on the terminal device 501 or 502.
  • the server 503 can select the channel according to each channel and the target user client, that is, the second client, that is, the anchor.
  • the corresponding relationship of the client is connected to a corresponding second terminal, and the second terminal can be installed on the terminal device 504 .
  • the second client can record a video, take a photo, or create a live broadcast image through a camera device, and then send it to the server 503 through the network.
  • the server 503 is also used for providing background services of live video, storing the correspondence between the second client and each channel, and so on. Viewers can also interact with streamers by giving virtual gifts.
  • the specific interactive manner is as shown in the above embodiment.
  • FIG. 6 an interaction flow diagram of a first client, a second client, and a server during interaction in a live room according to an exemplary embodiment of the present disclosure is shown. Some of these steps can be as follows.
  • the first client sends a first instruction to the server, where the first instruction is used to instruct to present a virtual gift to a target user who uses the second client.
  • the server parses the first instruction.
  • the server sends the parsed virtual gift information to the second client.
  • the second client renders the virtual gift information into the video stream to obtain rendered video data.
  • the second client sends the video data to the server.
  • the server sends the video data to the first client.
  • the first client adds the first face image to the video data and plays it.
  • the user's first face image can be added to the video stream from the second client, showing the user of the first client and the second client
  • the interactive effect of the user on the terminal in the same frame makes the interactive effect more interesting and increases the interactivity of the user.
  • the first client may send a first instruction to the server, where the first instruction is used to instruct a virtual gift to be given to the target user who uses the second client; the server parses the first instruction; the server Send the parsed virtual gift information to the second client; the second client renders the virtual gift information into the video stream to obtain rendered video data; the second client sends the rendered video data to the server; A client sends the first face image to the server; the server replaces the virtual gift in the video data with the first face image to obtain the first video data; the server sends the first video data to the first client; the first client The terminal plays the first video data.
  • Fig. 7 is a block diagram of an interactive device in a live room according to an exemplary embodiment.
  • the apparatus 700 may include a first sending module 701 , a first obtaining module 702 and a playing module 703 .
  • the first sending module 701 is configured to, in response to a first input on the live broadcast interactive interface, send a first instruction to the server, where the first instruction is used to instruct a virtual gift to be given to the target user;
  • the first obtaining module 702 is configured by It is configured to obtain the first face image collected by the camera;
  • the playback module 703 is configured to play the first video data on the playback interface of the live video stream, and the first video data includes the first face image and the target user's The second face image.
  • the first sending module 701 sends a first instruction to the server in response to the first input on the live interactive interface
  • the first obtaining module 702 obtains the first face collected by the camera device image
  • the playing module 703 plays the first video data including the first face image and the second face image of the target user on the playing interface of the live video stream.
  • the user's face image can be added to the video stream to show the interaction effect of the user and the user receiving the gift in the same frame, making the interaction effect more interesting and increasing the user's interactivity.
  • the interactive device in the live room may further include: a first receiving module and an adding module.
  • the first receiving module is configured to receive second video data returned by the server, wherein the second video data is video stream data returned by the client of the target user and includes the rendered virtual gift, and the second video data includes the virtual gift and the target user.
  • the adding module is configured to add the collected first face image to the video stream data, and replace the virtual gift to obtain the first video data.
  • the adding module may be configured to: identify the location information of the virtual gift in the video stream data; based on the location information of the virtual gift, replace the virtual gift with a first face image to obtain the first video data.
  • the interactive device in the live room may further include: a second sending module and a second receiving module.
  • the second sending module is configured to send the first face image to the server; the second receiving module is configured to receive the first video data returned by the server.
  • the interactive device in the live broadcast room may further include: a cancellation module.
  • the cancellation module is configured to stop playing the first video data if it is detected that the playing duration of the video stream containing the first video data reaches a preset display duration.
  • Fig. 8 is a block diagram of another interactive device in a live room according to an exemplary embodiment.
  • the apparatus 800 may include a second acquiring module 801 , a rendering module 802 and a third sending module 803 .
  • the second obtaining module 801 is configured to, in response to receiving the virtual gift information sent by the server, obtain a second face image collected by the camera, wherein the virtual gift information includes identification information of the virtual gift;
  • the rendering module 802 is configured to In order to render the virtual gift to a preset position based on the identification information of the virtual gift and the second face image, and avoid a part of the second face image;
  • the third sending module 803 is configured to send the rendered video data to server.
  • the virtual gift by determining the type of the virtual gift, the virtual gift can be added to different positions of the second face in the live video stream, so that the gift display effect is more interesting and the interaction between the audience and the host is increased.
  • the rendering module 802 includes: a determination unit and a rendering unit.
  • the determining unit is configured to determine a rendering effect of the virtual gift according to the identification information of the virtual gift; the rendering unit is configured to render the virtual gift to a preset position according to the rendering effect and avoid a part of the second face image.
  • FIG. 9 is a block diagram illustrating an electronic device 900 according to an exemplary embodiment.
  • the electronic device 900 may be a mobile phone, a computer, a digital broadcasting terminal, a messaging device, a game console, a tablet device, a medical device, a fitness devices, personal digital assistants, etc.
  • an electronic device 900 may include one or more of the following components: a processing component 902, a memory 904, a power supply component 906, a multimedia component 908, an audio component 910, an input/output (I/O) interface 912, a sensor component 914, And the communication component 916 .
  • the processing component 902 generally controls the overall operations of the electronic device 900, such as operations associated with display, phone calls, data communications, camera operations, and recording operations.
  • the processing component 902 may include one or more processors 920 to execute instructions to perform all or some of the steps of the methods described above. Additionally, processing component 902 may include one or more modules to facilitate interaction between processing component 902 and other components. For example, processing component 902 may include a multimedia module to facilitate interaction between multimedia component 908 and processing component 902.
  • Memory 904 is configured to store various types of data to support the operation of device 900 . Examples of such data include instructions for any application or method operating on electronic device 900, contact data, phonebook data, messages, pictures, videos, and the like. Memory 904 may be implemented by any type of volatile or nonvolatile storage device or combination thereof, such as static random access memory (SRAM), electrically erasable programmable read only memory (EEPROM), erasable Programmable Read Only Memory (EPROM), Programmable Read Only Memory (PROM), Read Only Memory (ROM), Magnetic Memory, Flash Memory, Magnetic or Optical Disk.
  • SRAM static random access memory
  • EEPROM electrically erasable programmable read only memory
  • EPROM erasable Programmable Read Only Memory
  • PROM Programmable Read Only Memory
  • ROM Read Only Memory
  • Magnetic Memory Flash Memory
  • Magnetic or Optical Disk Magnetic Disk
  • Power supply assembly 906 provides power to various components of electronic device 900 .
  • Power supply components 906 may include a power management system, one or more power supplies, and other components associated with generating, managing, and distributing power to electronic device 900 .
  • Multimedia component 908 includes a screen that provides an output interface between the electronic device 900 and the user.
  • the screen may include a liquid crystal display (LCD) and a touch panel (TP). If the screen includes a touch panel, the screen may be implemented as a touch screen to receive input signals from a user.
  • the touch panel includes one or more touch sensors to sense touch, swipe, and gestures on the touch panel. The touch sensor may not only sense the boundaries of a touch or swipe action, but also detect the duration and pressure associated with the touch or swipe action.
  • the multimedia component 908 includes a front-facing camera and/or a rear-facing camera. When the electronic device 900 is in an operation mode, such as a shooting mode or a video mode, the front camera and/or the rear camera may receive external multimedia data. Each of the front and rear cameras can be a fixed optical lens system or have focal length and optical zoom capability.
  • Audio component 910 is configured to output and/or input audio signals.
  • audio component 910 includes a microphone (MIC) that is configured to receive external audio signals when electronic device 900 is in operating modes, such as calling mode, recording mode, and voice recognition mode. The received audio signal may be further stored in memory 904 or transmitted via communication component 916 .
  • audio component 910 also includes a speaker for outputting audio signals.
  • the I/O interface 912 provides an interface between the processing component 902 and a peripheral interface module, which may be a keyboard, a click wheel, a button, or the like. These buttons may include, but are not limited to: home button, volume buttons, start button, and lock button.
  • Sensor assembly 914 includes one or more sensors for providing status assessments of various aspects of electronic device 900 .
  • the sensor assembly 914 can detect the open/closed state of the device 900, the relative positioning of the components, such as the display and keypad of the electronic device 900, the sensor assembly 914 can also detect the electronic device 900 or a component of the electronic device 900 The position of the electronic device 900 changes, the presence or absence of the user's contact with the electronic device 900, the orientation or acceleration/deceleration of the electronic device 900, and the temperature change of the electronic device 900.
  • Sensor assembly 914 may include a proximity sensor configured to detect the presence of nearby objects in the absence of any physical contact.
  • Sensor assembly 914 may also include a light sensor, such as a CMOS or CCD image sensor, for use in imaging applications.
  • the sensor assembly 914 may also include an acceleration sensor, a gyroscope sensor, a magnetic sensor, a pressure sensor, or a temperature sensor.
  • Communication component 916 is configured to facilitate wired or wireless communication between electronic device 900 and other devices.
  • Electronic device 900 may access wireless networks based on communication standards, such as WiFi, carrier networks (eg, 2G, 3G, 4G, or 5G), or a combination thereof.
  • the communication component 916 receives broadcast signals or broadcast related information from an external broadcast management system via a broadcast channel.
  • the communication component 916 also includes a near field communication (NFC) module to facilitate short-range communication.
  • the NFC module may be implemented based on radio frequency identification (RFID) technology, infrared data association (IrDA) technology, ultra-wideband (UWB) technology, Bluetooth (BT) technology, and other technologies.
  • RFID radio frequency identification
  • IrDA infrared data association
  • UWB ultra-wideband
  • Bluetooth Bluetooth
  • electronic device 900 may be implemented by one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable A programmed gate array (FPGA), controller, microcontroller, microprocessor or other electronic component implementation is used to perform the above method.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGA field programmable A programmed gate array
  • controller microcontroller, microprocessor or other electronic component implementation is used to perform the above method.
  • a non-volatile computer-readable storage medium including instructions such as a memory 904 including instructions, executable by the processor 920 of the electronic device 900 to perform the method described above is also provided.
  • the storage medium may be a non-transitory computer-readable storage medium, for example, the non-transitory computer-readable storage medium may be ROM, random access memory (RAM), CD-ROM, magnetic tape, floppy disk, and optical disk data storage devices, etc.
  • a computer program product comprising readable program code executable by the processor 920 of the electronic device 900 to accomplish the description in any of the embodiments The interactive method of the live room.
  • the program code may be stored in a storage medium of the electronic device 900, and the storage medium may be a non-transitory computer-readable storage medium, for example, the non-transitory computer-readable storage medium may be a ROM, a random Access memory (RAM), CD-ROMs, magnetic tapes, floppy disks, and optical data storage devices, etc.
  • FIG. 10 is a block diagram of an electronic device 1000 shown in the present disclosure.
  • the electronic device 1000 may be provided as a server.
  • electronic device 1000 includes processing component 1022, which further includes one or more processors, and a memory resource represented by memory 1032 for storing instructions executable by processing component 1022, such as application programs.
  • An application program stored in memory 1032 may include one or more modules, each module corresponding to a set of instructions.
  • the processing component 1022 is configured to execute the instruction to execute the interactive method between live broadcasts described in any of the embodiments.
  • the electronic device 1000 may also include: a power supply component 1026 configured to perform power management of the electronic device 1000; a wired or wireless network interface 1050 configured to connect the electronic device 1000 to a network; and an input output (I/O) interface 1058 .
  • Electronic device 1000 may operate based on an operating system stored in memory 1032, such as Windows ServerTM, Mac OS XTM, UnixTM, LinuxTM, FreeBSDTM, or the like.

Abstract

本公开关于一种直播间的互动方法及装置、电子设备和存储介质,涉及移动互联网应用领域,其中,该方法包括:响应于在直播互动界面上的第一输入,向服务器发送第一指令,其中,第一指令用于指示向目标用户赠送虚拟礼物;获取摄像装置采集到的第一人脸图像;以及在直播视频流的播放界面上,播放第一视频数据,第一视频数据包括第一人脸图像和目标用户的第二人脸图像。

Description

直播间的互动方法及装置
相关申请的交叉引用
本公开基于申请号为202010883187.X、申请日为2020年08月28日的中国专利申请提出,并要求该中国专利申请的优先权,该中国专利申请的全部内容在此引入本公开作为参考。
技术领域
本公开涉及移动互联网应用领域,尤其涉及一种直播间的互动方法及装置、电子设备和存储介质。
背景技术
网络直播是一种新兴的网络社交方式,而且在网络直播中观众与主播之间可以进行互动,使得网络直播收到广大用户的喜爱。在网络直播中,为了增加主播与用户之间的互动的趣味性,用户一般可以购买虚拟礼物,然后赠送给主播制造互动的机会。在一些实例中,观众端和主播端各自与服务端维持一个长连接通道,可以用来收发信息,当观众向主播送出礼物后,主播端会通过长连接通道接收到观众送礼信息,然后将礼物渲染效果显示在主播的手机界面上。
发明内容
本公开提供一种直播间的互动方法、装置及电子设备。本公开的技术方案如下:
在一些实施例中,提供一种直播间的互动方法,包括:
响应于在直播互动界面上的第一输入,向服务器发送第一指令,其中,所述第一指令用于指示向目标用户赠送虚拟礼物;
获取摄像装置采集到的第一人脸图像;以及
在直播视频流的播放界面上,播放第一视频数据,所述第一视频数据包括所述第一人脸图像和所述目标用户的第二人脸图像。
在一些实施例中,提供一种直播间的互动方法,包括:
响应于接收到服务器发送的虚拟礼物信息,获取摄像装置采集到的第二人脸图像,其中,所述虚拟礼物信息包括所述虚拟礼物的标识信息;
基于所述虚拟礼物的标识信息及所述第二人脸图像,将所述虚拟礼物渲染到预设位置,且避让所述第二人脸图像的一部分;以及
将渲染后的视频数据发送至所述服务器。
在一些实施例中,提供一种直播间的互动装置,包括:
第一发送模块,被配置为响应于在直播互动界面上的第一输入,向服务器发送第一指令,其中,所述第一指令用于指示向目标用户赠送虚拟礼物;
第一获取模块,被配置为获取摄像装置采集到的第一人脸图像;以及
播放模块,被配置为在直播视频流的播放界面上,播放第一视频数据,所述第一视频数据包括所述第一人脸图像和所述目标用户的第二人脸图像。
在一些实施例中,提供一种直播间的互动装置,包括:
第二获取模块,被配置为响应于接收到服务器发送的虚拟礼物信息,获取摄像装置采集到的第二人脸图像,其中,虚拟礼物信息包括所述虚拟礼物的标识信息;
渲染模块,被配置为基于所述虚拟礼物的标识信息及所述第二人脸图像,将所述虚拟礼物渲染到预设位置,且避让所述第二人脸图像的一部分;
第三发送模块,被配置为将渲染后的视频数据发送至所述服务器。
在一些实施例中,提供了一种电子设备,包括:
处理器;以及
用于存储所述处理器可执行指令的存储器;其中,所述处理器被配置为执行所述指令,以实现如下步骤:
响应于在直播互动界面上的第一输入,向服务器发送第一指令,其中,所述第一指令用于指示向目标用户赠送虚拟礼物;
获取摄像装置采集到的第一人脸图像;以及
在直播视频流的播放界面上,播放第一视频数据,所述第一视频数据包括所述第一人脸图像和所述目标用户的第二人脸图像。
在一些实施例中,提供了一种电子设备,包括:
处理器;以及
用于存储所述处理器可执行指令的存储器;其中,所述处理器被配置为执行所述指令,以实现如下步骤:
响应于接收到服务器发送的虚拟礼物信息,获取摄像装置采集到的第二人脸图像,其中,所述虚拟礼物信息包括所述虚拟礼物的标识信息;
基于所述虚拟礼物的标识信息及所述第二人脸图像,将所述虚拟礼物渲染到预设位置,且避让所述第二人脸图像的一部分;以及
将渲染后的视频数据发送至所述服务器。
在一些实施例中,提供了一种非易失性计算机可读存储介质,存储有指令,其中,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备执行如下步骤:
响应于在直播互动界面上的第一输入,向服务器发送第一指令,其中,所述第一指令用于指示向目标用户赠送虚拟礼物;
获取摄像装置采集到的第一人脸图像;以及
在直播视频流的播放界面上,播放第一视频数据,所述第一视频数据包括所述第一人脸图像和所述目标用户的第二人脸图像。
在一些实施例中,提供了一种非易失性计算机可读存储介质,存储有指令,其中,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行如下步骤:
响应于接收到服务器发送的虚拟礼物信息,获取摄像装置采集到的第二人脸图像,其中,所述虚拟礼物信息包括所述虚拟礼物的标识信息;
基于所述虚拟礼物的标识信息及所述第二人脸图像,将所述虚拟礼物渲染到预设位置,且避让所述第二人脸图像的一部分;以及
将渲染后的视频数据发送至所述服务器。
在一些实施例中,提供一种计算机程序产品,当所述计算机程序产品中的指令由电子设备的处理器执行时,使得所述电子设备执行以下步骤:
响应于在直播互动界面上的第一输入,向服务器发送第一指令,其中,所述第一指令用于指示向目标用户赠送虚拟礼物;
获取摄像装置采集到的第一人脸图像;以及
在直播视频流的播放界面上,播放第一视频数据,所述第一视频数据包括所述第一人脸图像和所述目标用户的第二人脸图像。
在一些实施例中,提供一种计算机程序产品,当所述计算机程序产品中的指令由电子设备的处理器执行时,使得所述电子设备执行以下步骤:
响应于接收到服务器发送的虚拟礼物信息,获取摄像装置采集到的第二人脸图像,其中,所述虚拟礼物信息包括所述虚拟礼物的标识信息;
基于所述虚拟礼物的标识信息及所述第二人脸图像,将所述虚拟礼物渲染到预设位置,且避让所述第二人脸图像的一部分;以及
将渲染后的视频数据发送至所述服务器。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施 例,并与说明书一起用于解释本公开的原理,并不构成对本公开的不当限定。
图1是根据一示例性实施例示出的一种直播间的互动方法的流程图;
图2是根据一示例性实施例示出的一种直播间的互动方法的流程图;
图3是根据一示例性实施例示出的另一种直播间的互动方法的流程图;
图4是根据一示例性实施例示出的另一种直播间的互动方法的流程图;
图5是根据一示例性实施例示出的一种实现直播的一个应用场景的示意图;
图6是根据一示例性实施例示出的一种直播间互动时第一客户端、第二客户端与服务器三方的交互流程图;
图7是根据一示例性实施例示出的一种直播间的互动装置的框图;
图8是根据一示例性实施例示出的另一种直播间的互动装置的框图;
图9是根据一示例性实施例示出的一种电子设备的框图;以及
图10是根据一示例性实施例示出的一种电子设备的框图。
具体实施方式
为了使本领域普通人员更好地理解本公开的技术方案,下面将结合附图,对本公开实施例中的技术方案进行清楚、完整地描述。
需要说明的是,本公开的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开的实施例能够以除了在这里图示或描述的那些以外的顺序实施。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
在本公开实施例提供了一种直播间的互动方法、装置及电子设备,该直播间的互动方法可适用于直播过程中观看直播的用户端与直播的主播端的互动,例如用户向主播赠送虚拟礼物的情形。该方法可以由本公开实施例提供的直播间的互动装置执行,该装置可以集成于任何具有网络通信功能和摄像功能的终端设备,例如移动终端设备(例如智能手机、平板电脑等)、笔记本或固定终端(台式电脑等),该直播间的互动装置可以通过硬件和/或软件的方式实现。
如图1所示为本公开一示例性实施例示出的一种直播间的互动方法的流程图。如图1所示,该方法应用于赠送礼物的第一客户端,也就是直播间中观看直播的用户的客户端,该方法可以包括:步骤S11至步骤S13所示的内容。
在步骤S11中,响应于在直播互动界面上的第一输入,向服务器发送第一指令。
其中,第一指令用于指示向目标用户赠送虚拟礼物。
也就是,在第一客户端接收到用户在直播互动界面上输入的第一输入的情况下,向服务器发送向目标用户赠送虚拟礼物的第一指令。其中,第一客户端可以是观众端。第一输入可以是选择输入,例如单击、双击等输入,也可以是文字输入,还可以是其他输入。
在步骤S12中,获取摄像装置采集到的第一人脸图像。
在本公开实施例中,第一客户端接收到第一输入时,向服务器发送第一指令,同时还会启动摄像装置,以获取该摄像装置采集到的第一人脸图像。
例如,可以启动摄像装置采集含有人脸的图像或视频,进而对人脸进行识别,获取到第一人脸图像。
在步骤S13中,在直播视频流的播放界面上,播放第一视频数据。
其中,第一视频数据包括第一人脸图像和目标用户的第二人脸图像。
也就是,在直播视频流的播放界面上,显示出第一客户端的用户(即观众)与目标用户客户端的用户同框的互动效果。
因此,在本公开的实施例中,首先响应于在直播互动界面上的第一输入,向服务器发送第一指令,与此同时获取摄像装置采集到的第一人脸图像,在直播视频流的播放界面上,播放包括第一人脸图像和目标用户的第二人脸图像的第一视频数据。在用户赠送礼物后,可以将该用户的人脸图像添加到视频流中,展示出该用户与接收礼物的用户同框的互动效果,使得互动效果更加有趣,增加用户的互动性。
在本公开的一个实施方式中,如图2所示,为本公开一示例性实施例示出的一种直播间的互动方法的流程图。图2中的步骤S21至步骤S23可以采用与图1中的步骤S11至步骤S13相同的实施方式,故在此不在赘述。
在一些实施例中,人脸特效合流可以是在第一客户端进行的,也就是第一客户端接收服务器返回的包含渲染礼物和目标用户的第二人脸图像的视频后,用第一人脸图像替换渲染礼物。如图2所示,在步骤S23之前,该直播间的互动方法还可以包括步骤S24至步骤S25。
在步骤S24中,接收服务器返回的第二视频数据。
其中,第二视频数据为目标用户的客户端返回的包含渲染虚拟礼物的视频流数据,第二视频数据包括虚拟礼物和目标用户的第二人脸图像。
在一些实施例中,第一客户端接收到在直播界面上的第一输入,然后向服务器发送用于指示向目标用户赠送虚拟礼物的第一指令,服务器接收到该第一指令后,解析该第一指令得到目标用户的客户端标识以及虚拟礼物的标识,再根据上述解析得到的目标用户的客户端标识以及虚拟礼物的标识,向目标用户发送该虚拟礼物信息,目标用户客户端接收到 该虚拟礼物信息后,将该虚拟礼物渲染到摄像装置采集的视频数据中,得到包含渲染虚拟礼物的视频流数据,返回至服务器,服务器将该视频流再返回至第一客户端。
在本公开实施例中,目标用户客户端可以将虚拟礼物渲染到视频流中的视频数据发送至服务器,这样第一客户端和目标用户客户端及其他在该直播间观看直播的客户端都可以看到虚拟礼物渲染后的视频流,不需要在第一客户端及其他客户端,也就是观众客户端中进行礼物渲染的过程,使得渲染过程较为简单,减少第一客户端的数据处理,使得视频的观看更加流畅。
在步骤S25中,将采集到的第一人脸图像添加到视频流数据中,并替换虚拟礼物,得到第一视频数据。
在本公开实施例中,第一客户端将采集到的第一人脸图像添加到上述服务器返回的视频流数据中,替换虚拟礼物,得到第一视频数据。可以呈现出第一客户端用户与目标客户端用户同框的互动效果。
在一些实施例中,可以根据虚拟礼物的类型确定替换方式,也可以根据获取到的第一人脸图像的形态确定替换方式。替换方式可以是直接覆盖的方式,也可以是部分覆盖的方式等。
例如,虚拟礼物的类型为贴纸类,渲染后的礼物在目标客户端用户的人脸图像贴近,大小也与目标用户的人脸相近,则用第一人脸图像直接替换虚拟礼物,展示出第一人脸图像与目标客户端用户的人脸图像贴近的互动效果。进一步地,在获取到的第一人脸图像的形态为左侧脸图像,而虚拟礼物在目标用户的人脸的右侧的情况下,可以用第一人脸图像直接替换虚拟礼物,展示出第一人脸图像朝向目标客户端用户的人脸图像的互动效果;虚拟礼物的类型可以是一个动画人物的整体图,则可以用第一人脸图像替换该动画人物的脸部,呈现出第一人脸图像和动画人物身体相结合,并且与目标用户的人脸同框的效果,增加互动的趣味性。
其中,第一客户端的第一人脸图图像可以是直播间的观众的人脸图像,目标客户端用户的人脸图像可以是直播间的主播的人脸图像。
在本公开的一个实施方式中,将采集到的第一人脸图像添加到视频流数据中,并替换虚拟礼物,得到第一视频数据,具体包括:识别视频流数据中的虚拟礼物的位置信息;基于虚拟礼物的位置信息,用第一人脸图像替换虚拟礼物,得到第一视频数据。
在本公开实施例中,通过上述将第一人脸图像添加到目标客户端返回的视频数据中,可以使得第一客户端用户更加有参与感,加强第一客户端用户即观众的互动性。
在一些实施例中,人脸特效合流可以是在服务器端进行的,也就是服务器接收第一客户端发送的第一人脸图像和目标用户服务端发送的目标用户的人脸图像,用第一人脸图像 替换渲染礼物。如图2所示,在步骤S23之前,该直播间的互动方法还可以包括步骤S26至步骤S27。
在步骤S26中,将第一人脸图像发送至服务器。
在步骤S27中,接收服务器返回的第一视频数据。
也就是,服务器端用第一人脸图像替换虚拟礼物,形成第一人脸图像与目标用户的人脸图像同框的第一视频数据,然后将该视频数据发送至第一客户端,在第一客户端显示,可以使得第一客户端用户更加有参与感,加强第一客户端用户即观众的互动性。
在本公开的一个实施方式中,该直播间的互动方法还可以包括步骤S28。
在步骤S28中,若检测到包含第一视频数据的视频流的播放时长达到预设展示时长,则停止播放第一视频数据。
也就是,第一人脸图像与目标用户的人脸图像同框的效果只有在用户赠送礼物后的一定时长内显示,超过该时长后,互动效果就会消失,以免长时间影响用户观看直播间的直播。
如图3所示,为本公开一示例性实施例示出的另一种直播间的互动方法的流程图。该方法可以应用于接收虚拟礼物的目标用户的第二客户端,也就是直播间中直播的用户的客户端。如图3所示,该方法可以包括步骤S31至步骤S33。
在步骤S31中,响应于接收到服务器发送的虚拟礼物信息,获取摄像装置采集到的第二人脸图像。
其中,虚拟礼物信息包括虚拟礼物的标识信息。
在步骤S32中,基于虚拟礼物的标识信息及第二人脸图像,将虚拟礼物渲染到预设位置,且避让第二人脸图像的一部分。
在步骤S33中,将渲染后的视频数据发送至服务器。
在本公开实施例中,第二客户端接收到服务器发送的虚拟礼物信息时,获取摄像装置采集的第二人脸图像,例如,可以启动摄像装置采集包含人脸的图像或是直播中包含人脸的视频流,进而对人脸进行识别,获取第二人脸图像。然后根据虚拟礼物的标识信息可以确定出虚拟礼物的类型,然后根据类型将虚拟礼物渲染到避让第二人脸图像的有一部分的预设位置,最后将渲染后的视频数据发送至服务器。可以通过确定虚拟礼物的类型,将虚拟礼物添加到直播的视频流中的第二人脸附近的不同位置,使得礼物展示效果更加有趣,增加观众与主播间的互动性。
在一些实施例中,虚拟礼物的类型可以是按照虚拟礼物的大小或效果等进行分类的不同种类。例如,以虚拟礼物的动画效果,把虚拟礼物分为三种:小礼物,即只有礼物托盘动效展示;贴纸礼物,礼物托盘和贴纸道具动效的展示;大礼物,礼物托盘以及全屏的动 画展示。虚拟礼物效果的数据可以是用于将虚拟礼物展示在直播互动界面的具体效果数据,比如虚拟礼物效果中的动效或背景色等数据,包括礼物的控制动画,从屏幕外面进入效果、显示连击效果、消失等相关的效果。例如,对贴纸礼物而言,可以根据采集的第二人脸图像在视频中的形态,静态或动态等,将贴纸礼物添加至第二人脸图像的具体位置,更具体地,可以随着第二客户端用户即主播的移动,将贴纸动态的跟随用户移动,例如,虚拟礼物为王冠,可以将王冠随着主播的左右移动,动态的显示在主播的头上,增加礼物的互动性。
在本公开的一个实施方式中,如图4所示,为本公开一示例性实施例示出的另一种直播间的互动方法的流程图。图4中的步骤S41可以采用与图3中的步骤S31相同的实施方式,并且图4中的步骤S43可以采用与图3中的步骤S33相同的实施方式,故在此不再赘述。如图4所示,图4中的步骤S42可以采用与图3中的步骤S32相同的实施方式,并且还包括步骤S421至步骤S422。
在步骤S421中,根据虚拟礼物的标识信息,确定虚拟礼物的渲染效果。
在步骤S422中,根据渲染效果,将虚拟礼物渲染到预设位置,且避让第二人脸图像的一部分。
在本公开实施例中,可以根据虚拟礼物的标识信息,确定出虚拟礼物的类型,根据类型确定虚拟礼物的渲染效果,然后再将虚拟礼物渲染到第二人脸图像的相应位置。也就是渲染位置与虚拟礼物的具体类型是对应的,不同类型对应的渲染效果不同,相应的渲染位置也不相同,但是虚拟礼物渲染后不会遮挡住第二人脸。虚拟礼物的类型在上述实施例中已详细描述,在此不再赘述。
如图5所示,为本公开一示例性实施例示出的一种实现直播的一个应用场景的示意图。第一客户端即为观众客户端,可以被安装于终端设备501或502上,当第一客户端选择频道后,服务器503可根据各个频道与目标用户客户端即第二客户端,也就是主播客户端对应的关系,连接到对应的第二终端,该第二终端可以被安装于终端设备504上。第二客户端可以通过摄像装置录制视频、拍摄照片、或通过其他方式制作直播画面,然后通过网络发送给服务器503。服务器503还用于提供视频直播的后台服务,存储第二客户端与各频道之间的对应关系等。观众也可以通过赠送虚拟礼物的方式与主播进行互动。具体地互动方式如上述实施例所示。
如图6所示,为本公开一示例性实施例示出的一种直播间互动时第一客户端、第二客户端与服务器三方的交互流程图。其中部分步骤可以如下所示。
S601、第一客户端发送第一指令至服务器,其中,第一指令用于指示向使用第二客户端的目标用户赠送虚拟礼物。
S602、服务器解析该第一指令。
S603、服务器将解析后的虚拟礼物信息发送至第二客户端。
S604、第二客户端将虚拟礼物信息渲染到视频流中,得到渲染后的视频数据。
S605、第二客户端将视频数据发送至服务器。
S606、服务器将视频数据发送至第一客户端。
S607、第一客户端将第一人脸图像添加到视频数据中并播放。
在本公开实施例中,在第一客户端的用户赠送礼物后,可以将该用户的第一人脸图像添加到来自第二客户端的视频流中,展示出该第一客户端的用户与第二客户端的用户同框的互动效果,使得互动效果更加有趣,增加用户的互动性。
在本公开的另一实施例中,第一客户端可以发送第一指令至服务器,其中,第一指令用于指示向使用第二客户端的目标用户赠送虚拟礼物;服务器解析该第一指令;服务器将解析后的虚拟礼物信息发送至第二客户端;第二客户端将虚拟礼物信息渲染到视频流中,得到渲染后的视频数据;第二客户端将渲染后的视频数据发送至服务器;第一客户端将第一人脸图像发送至服务器;服务器用第一人脸图像替换视频数据中的虚拟礼物,得到第一视频数据;服务器将第一视频数据发送至第一客户端;第一客户端播放第一视频数据。
本公开实施例的详细描述已在上述实施例中,在此不再赘述。
图7是根据一示例性实施例示出的一种直播间的互动装置的框图。参照图7,该装置700可以包括第一发送模块701、第一获取模块702和播放模块703。
本实施例提供的直播间的互动装置可以参照用于执行上述的图1和图2所示的方法流程,并且,该装置中的各个单元/模块和上述其他操作和/或功能分别为了实现如图1和图2所示的直播间的互动方法中的相应流程,并且能够达到相同或等同的技术效果,为了简洁,在此不再赘述。
该第一发送模块701被配置为响应于在直播互动界面上的第一输入,向服务器发送第一指令,其中,第一指令用于指示向目标用户赠送虚拟礼物;该第一获取模块702被配置为获取摄像装置采集到的第一人脸图像;该播放模块703被配置为在直播视频流的播放界面上,播放第一视频数据,第一视频数据包括第一人脸图像和目标用户的第二人脸图像。
在本公开实施例中,首先第一发送模块701响应于在直播互动界面上的第一输入,向服务器发送第一指令,与此同时第一获取模块702获取摄像装置采集到的第一人脸图像,最后播放模块703在直播视频流的播放界面上,播放包括第一人脸图像和目标用户的第二人脸图像的第一视频数据。在用户赠送礼物后,可以将该用户的人脸图像添加到视频流中,展示出该用户与接收礼物的用户同框的互动效果,使得互动效果更加有趣,增加用户的互动性。
在本公开的一个实施方式中,该直播间的互动装置还可以包括:第一接收模块和添加模块。
该第一接收模块被配置为接收服务器返回的第二视频数据,其中,第二视频数据为目标用户的客户端返回的包含渲染虚拟礼物的视频流数据,第二视频数据包括虚拟礼物和目标用户的第二人脸图像;该添加模块被配置为将采集的第一人脸图像添加到视频流数据中,并替换虚拟礼物,得到第一视频数据。
在本公开的一个实施方式中,添加模块可以配置为:识别视频流数据中的虚拟礼物的位置信息;基于虚拟礼物的位置信息,用第一人脸图像替换虚拟礼物,得到第一视频数据。
在本公开的一个实施方式中,该直播间的互动装置还可以包括:第二发送模块和第二接收模块。
该第二发送模块被配置为将第一人脸图像发送至服务器;该第二接收模块被配置为接收服务器返回的第一视频数据。
在本公开的一个实施方式中,该直播间的互动装置还可以包括:取消模块。
该取消模块被配置为若检测到包含第一视频数据的视频流的播放时长达到预设展示时长,则停止播放第一视频数据。
图8是根据一示例性实施例示出的另一种直播间的互动装置的框图。参照图8,该装置800可以包括第二获取模块801、渲染模块802和第三发送模块803。
本实施例提供的直播间的互动装置可以参照用于执行上述的图3和图4所示的方法流程,并且,该装置中的各个单元/模块和上述其他操作和/或功能分别为了实现如图3和图4所示的直播间的互动方法中的相应流程,并且能够达到相同或等同的技术效果,为了简洁,在此不再赘述。
该第二获取模块801被配置为响应于接收到服务器发送的虚拟礼物信息,获取摄像装置采集到的第二人脸图像,其中,虚拟礼物信息包括虚拟礼物的标识信息;该渲染模块802被配置为基于虚拟礼物的标识信息及第二人脸图像,将虚拟礼物渲染到预设位置,且避让第二人脸图像的一部分;该第三发送模块803被配置为将渲染后的视频数据发送至服务器。
在本公开实施例中,可以通过确定虚拟礼物的类型,将虚拟礼物添加到直播的视频流中的第二人脸的不同位置,使得礼物展示效果更加有趣,增加观众与主播间的互动性。
在本公开的一个实施方式中,该渲染模块802包括:确定单元和渲染单元。
该确定单元被配置为根据虚拟礼物的标识信息,确定虚拟礼物的渲染效果;该渲染单元被配置为根据渲染效果,将虚拟礼物渲染到预设位置,且避让第二人脸图像的一部分。
图9是根据一示例性实施例示出的一种电子设备900的框图,例如,电子设备900可以是移动电话、计算机、数字广播终端、消息收发设备、游戏控制台、平板设备、医疗设 备、健身设备、个人数字助理等。
参照图9,电子设备900可以包括以下一个或多个组件:处理组件902、存储器904、电源组件906、多媒体组件908、音频组件910、输入/输出(I/O)接口912、传感器组件914、以及通信组件916。
处理组件902通常控制电子设备900的整体操作,诸如与显示、电话呼叫、数据通信、相机操作和记录操作相关联的操作。处理组件902可以包括一个或多个处理器920来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件902可以包括一个或多个模块,便于处理组件902和其他组件之间的交互。例如,处理组件902可以包括多媒体模块,以方便多媒体组件908和处理组件902之间的交互。
存储器904被配置为存储各种类型的数据以支持设备900的操作。这些数据的示例包括用于在电子设备900上操作的任何应用程序或方法的指令、联系人数据、电话簿数据、消息、图片、视频等。存储器904可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM)、电可擦除可编程只读存储器(EEPROM)、可擦除可编程只读存储器(EPROM)、可编程只读存储器(PROM)、只读存储器(ROM)、磁存储器、快闪存储器、磁盘或光盘。
电源组件906为电子设备900的各种组件提供电力。电源组件906可以包括电源管理系统,一个或多个电源,及其他与为电子设备900生成、管理和分配电力相关联的组件。
多媒体组件908包括在所述电子设备900和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件908包括一个前置摄像头和/或后置摄像头。当电子设备900处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件910被配置为输出和/或输入音频信号。例如,音频组件910包括一个麦克风(MIC),当电子设备900处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器904或经由通信组件916发送。在一些实施例中,音频组件910还包括一个扬声器,用于输出音频信号。
I/O接口912为处理组件902和外围接口模块之间提供接口,上述外围接口模块可以是键盘、点击轮、按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和 锁定按钮。
传感器组件914包括一个或多个传感器,用于为电子设备900提供各个方面的状态评估。例如,传感器组件914可以检测到设备900的打开/关闭状态,组件的相对定位,例如所述组件为电子设备900的显示器和小键盘,传感器组件914还可以检测电子设备900或电子设备900一个组件的位置改变,用户与电子设备900接触的存在或不存在,电子设备900方位或加速/减速和电子设备900的温度变化。传感器组件914可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件914还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件914还可以包括加速度传感器、陀螺仪传感器、磁传感器、压力传感器或温度传感器。
通信组件916被配置为便于电子设备900和其他设备之间有线或无线方式的通信。电子设备900可以接入基于通信标准的无线网络,如WiFi,运营商网络(如2G、3G、4G或5G),或它们的组合。在一个示例性实施例中,通信组件916经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件916还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术、红外数据协会(IrDA)技术、超宽带(UWB)技术、蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,电子设备900可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非易失性计算机可读存储介质,例如包括指令的存储器904,上述指令可由电子设备900的处理器920执行以完成上述方法。在一些实施例中,存储介质可以是非临时性计算机可读存储介质,例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
在示例性实施例中,还提供了一种计算机程序产品,该计算机程序产品包括可读性程序代码,该可读性程序代码可由电子设备900的处理器920执行以完成任一实施例所述的直播间的互动方法。在一些实施例中,该程序代码可以存储在电子设备900的存储介质中,该存储介质可以是非临时性计算机可读存储介质,例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
图10是本公开示出的一种电子设备1000的框图。例如,电子设备1000可以被提供为 一服务器。
参照图10,电子设备1000包括处理组件1022,其进一步包括一个或多个处理器,以及由存储器1032所代表的存储器资源,用于存储可由处理组件1022执行的指令,例如应用程序。存储器1032中存储的应用程序可以包括一个或多个模块,每一个模块对应于一组指令。此外,处理组件1022被配置为执行指令,以执行任一实施例所述的直播间的互动方法。
电子设备1000还可以包括:电源组件1026,被配置为执行电子设备1000的电源管理;有线或无线网络接口1050,被配置为将电子设备1000连接到网络;以及输入输出(I/O)接口1058。电子设备1000可以基于存储在存储器1032中的操作系统操作,例如Windows ServerTM、Mac OS XTM、UnixTM、LinuxTM、FreeBSDTM或类似。
本公开所有实施例均可以单独被执行,也可以与其他实施例相结合被执行,均视为本公开要求的保护范围。
本领域技术人员在考虑说明书及实践本公开后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (18)

  1. 一种直播间的互动方法,包括:
    响应于在直播互动界面上的第一输入,向服务器发送第一指令,其中,所述第一指令用于指示向目标用户赠送虚拟礼物;
    获取摄像装置采集到的第一人脸图像;以及
    在直播视频流的播放界面上,播放第一视频数据,所述第一视频数据包括所述第一人脸图像和所述目标用户的第二人脸图像。
  2. 根据权利要求1所述的直播间的互动方法,所述方法还包括:
    接收所述服务器返回的第二视频数据,其中,所述第二视频数据为所述目标用户的客户端返回的包含渲染虚拟礼物的视频流数据,所述第二视频数据包括所述虚拟礼物和所述目标用户的第二人脸图像;以及
    将采集到的第一人脸图像添加到所述视频流数据中,并替换所述虚拟礼物,得到所述第一视频数据。
  3. 根据权利要求2所述的直播间的互动方法,其中,所述将采集到的第一人脸图像添加到所述视频流数据中,并替换所述虚拟礼物,得到所述第一视频数据,包括:
    识别所述视频流数据中的所述虚拟礼物的位置信息;以及
    基于所述虚拟礼物的位置信息,用所述第一人脸图像替换所述虚拟礼物,得到所述第一视频数据。
  4. 根据权利要求1所述的直播间的互动方法,所述方法还包括:
    将所述第一人脸图像发送至所述服务器;以及
    接收所述服务器返回的第一视频数据。
  5. 根据权利要求1所述的直播间的互动方法,所述方法还包括:
    若检测到包含所述第一视频数据的视频流的播放时长达到预设展示时长,则停止播放所述第一视频数据。
  6. 一种直播间的互动方法,包括:
    响应于接收到服务器发送的虚拟礼物信息,获取摄像装置采集到的第二人脸图像,其中,所述虚拟礼物信息包括所述虚拟礼物的标识信息;
    基于所述虚拟礼物的标识信息及所述第二人脸图像,将所述虚拟礼物渲染到预设位置,且避让所述第二人脸图像的一部分;以及
    将渲染后的视频数据发送至所述服务器。
  7. 根据权利要求6所述的直播间的互动方法,其中,所述基于所述虚拟礼物的标识信息及所述第二人脸图像,将所述虚拟礼物渲染到预设位置,且避让所述第二人脸图像的一部分,包括:
    根据所述虚拟礼物的标识信息,确定所述虚拟礼物的渲染效果;以及
    根据所述渲染效果,将所述虚拟礼物渲染到所述预设位置,且避让所述第二人脸图像的一部分。
  8. 一种直播间的互动装置,包括:
    第一发送模块,被配置为响应于在直播互动界面上的第一输入,向服务器发送第一指令,其中,所述第一指令用于指示向目标用户赠送虚拟礼物;
    第一获取模块,被配置为获取摄像装置采集到的第一人脸图像;以及
    播放模块,被配置为在直播视频流的播放界面上,播放第一视频数据,所述第一视频数据包括所述第一人脸图像和所述目标用户的第二人脸图像。
  9. 根据权利要求8所述的直播间的互动装置,所述装置还包括:
    第一接收模块,被配置为接收所述服务器返回的第二视频数据,其中,所述第二视频数据为所述目标用户的客户端返回的包含渲染虚拟礼物的视频流数据,所述第二视频数据包括所述虚拟礼物和所述目标用户的第二人脸图像;以及
    添加模块,被配置为将采集的第一人脸图像添加到所述视频流数据中,并替换所述虚拟礼物,得到所述第一视频数据。
  10. 根据权利要求9所述的直播间的互动装置,其中,所述添加模块用于:
    识别所述视频流数据中的所述虚拟礼物的位置信息;以及
    基于所述虚拟礼物的位置信息,用所述第一人脸图像替换所述虚拟礼物,得到所述第一视频数据。
  11. 根据权利要求8所述的直播间的互动装置,所述装置还包括:
    第二发送模块,被配置为将所述第一人脸图像发送至所述服务器;以及
    第二接收模块,被配置为接收所述服务器返回的第一视频数据。
  12. 根据权利要求8所述的直播间的互动装置,所述装置还包括:
    取消模块,被配置为若检测到包含所述第一视频数据的视频流的播放时长达到预设展示时长,则停止播放所述第一视频数据。
  13. 一种直播间的互动装置,包括:
    第二获取模块,被配置为响应于接收到服务器发送的虚拟礼物信息,获取摄像装置采集到的第二人脸图像,其中,所述虚拟礼物信息包括所述虚拟礼物的标识信息;
    渲染模块,被配置为基于所述虚拟礼物的标识信息及所述第二人脸图像,将所述虚拟礼物渲染到预设位置,且避让所述第二人脸图像的一部分;以及
    第三发送模块,被配置为将渲染后的视频数据发送至所述服务器。
  14. 根据权利要求13所述的直播间的互动装置,其中,所述渲染模块包括:
    确定单元,被配置为根据所述虚拟礼物的标识信息,确定所述虚拟礼物的渲染效果;以及
    渲染单元,被配置为根据所述渲染效果,将所述虚拟礼物渲染到所述预设位置,且避让所述第二人脸图像的一部分。
  15. 一种电子设备,包括:
    处理器;以及
    用于存储所述处理器可执行指令的存储器;
    其中,所述处理器被配置为执行所述指令,以实现以下步骤:
    响应于在直播互动界面上的第一输入,向服务器发送第一指令,其中,所述第一指令用于指示向目标用户赠送虚拟礼物;
    获取摄像装置采集到的第一人脸图像;以及
    在直播视频流的播放界面上,播放第一视频数据,所述第一视频数据包括所述第一人脸图像和所述目标用户的第二人脸图像。
  16. 一种电子设备,包括:
    处理器;以及
    用于存储所述处理器可执行指令的存储器;
    其中,所述处理器被配置为执行所述指令,以实现以下步骤:
    响应于接收到服务器发送的虚拟礼物信息,获取摄像装置采集到的第二人脸图像,其中,所述虚拟礼物信息包括所述虚拟礼物的标识信息;
    基于所述虚拟礼物的标识信息及所述第二人脸图像,将所述虚拟礼物渲染到预设位置,且避让所述第二人脸图像的一部分;以及
    将渲染后的视频数据发送至所述服务器。
  17. 一种非易失性计算机可读存储介质,存储有指令,其中,当所述存储介质中的指令由电子设备的处理器执行时,使得所述电子设备执行如下步骤:
    响应于在直播互动界面上的第一输入,向服务器发送第一指令,其中,所述第一指令用于指示向目标用户赠送虚拟礼物;
    获取摄像装置采集到的第一人脸图像;以及
    在直播视频流的播放界面上,播放第一视频数据,所述第一视频数据包括所述第一人脸图像和所述目标用户的第二人脸图像。
  18. 一种非易失性计算机可读存储介质,存储有指令,其中,当所述存储介质中的指令由电子设备的处理器执行时,使得所述电子设备执行如下步骤:
    响应于接收到服务器发送的虚拟礼物信息,获取摄像装置采集到的第二人脸图像,其中,所述虚拟礼物信息包括所述虚拟礼物的标识信息;
    基于所述虚拟礼物的标识信息及所述第二人脸图像,将所述虚拟礼物渲染到预设位置,且避让所述第二人脸图像的一部分;以及
    将渲染后的视频数据发送至所述服务器。
PCT/CN2021/105843 2020-08-28 2021-07-12 直播间的互动方法及装置 WO2022042089A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010883187.XA CN111970533B (zh) 2020-08-28 2020-08-28 直播间的互动方法、装置及电子设备
CN202010883187.X 2020-08-28

Publications (1)

Publication Number Publication Date
WO2022042089A1 true WO2022042089A1 (zh) 2022-03-03

Family

ID=73400491

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2021/105843 WO2022042089A1 (zh) 2020-08-28 2021-07-12 直播间的互动方法及装置

Country Status (2)

Country Link
CN (1) CN111970533B (zh)
WO (1) WO2022042089A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114679596A (zh) * 2022-03-04 2022-06-28 北京达佳互联信息技术有限公司 基于游戏直播的互动方法、装置、电子设备及存储介质
CN114845129A (zh) * 2022-04-26 2022-08-02 北京达佳互联信息技术有限公司 虚拟空间中的互动方法、装置、终端以及存储介质
CN115314749A (zh) * 2022-06-15 2022-11-08 网易(杭州)网络有限公司 互动信息的响应方法、装置和电子设备
CN117119259A (zh) * 2023-09-07 2023-11-24 北京优贝在线网络科技有限公司 一种基于场景分析的特效自合成系统

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111970533B (zh) * 2020-08-28 2022-11-04 北京达佳互联信息技术有限公司 直播间的互动方法、装置及电子设备
CN112804546B (zh) * 2021-01-07 2022-10-21 腾讯科技(深圳)有限公司 基于直播的互动方法、装置、设备和存储介质
CN112907804A (zh) * 2021-01-15 2021-06-04 北京市商汤科技开发有限公司 门禁机的交互方法及装置、门禁机组件、电子设备和介质
CN112929681B (zh) * 2021-01-19 2023-09-05 广州虎牙科技有限公司 视频流图像渲染方法、装置、计算机设备及存储介质
CN112929680B (zh) * 2021-01-19 2023-09-05 广州虎牙科技有限公司 直播间图像渲染方法、装置、计算机设备及存储介质
CN112866741B (zh) * 2021-02-03 2023-03-31 百果园技术(新加坡)有限公司 一种基于3d人脸动画重建的礼物动效展示方法及系统
CN113453030B (zh) * 2021-06-11 2023-01-20 广州方硅信息技术有限公司 直播中的音频交互方法、装置、计算机设备及存储介质
CN113992927A (zh) * 2021-10-22 2022-01-28 广州方硅信息技术有限公司 二次元虚拟礼物生成方法、装置、电子设备及存储介质
CN114928748A (zh) * 2022-04-07 2022-08-19 广州方硅信息技术有限公司 虚拟礼物的动效视频的渲染处理方法、终端及存储介质
CN115314728A (zh) * 2022-07-29 2022-11-08 北京达佳互联信息技术有限公司 信息展示方法、系统、装置、电子设备及存储介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106303662A (zh) * 2016-08-29 2017-01-04 网易(杭州)网络有限公司 视频直播中的图像处理方法和装置
CN107438200A (zh) * 2017-09-08 2017-12-05 广州酷狗计算机科技有限公司 直播间礼物展示的方法和装置
CN108924661A (zh) * 2018-07-12 2018-11-30 北京微播视界科技有限公司 基于直播间的数据交互方法、装置、终端和存储介质
CN109246445A (zh) * 2018-11-29 2019-01-18 广州市百果园信息技术有限公司 一种直播间中表白的方法、装置、系统、设备和存储介质
WO2019042064A1 (zh) * 2017-08-30 2019-03-07 乐蜜有限公司 一种基于直播的事件提醒方法及装置
CN110418155A (zh) * 2019-08-08 2019-11-05 腾讯科技(深圳)有限公司 直播互动方法、装置、计算机可读存储介质和计算机设备
CN110493630A (zh) * 2019-09-11 2019-11-22 广州华多网络科技有限公司 虚拟礼物特效的处理方法和装置、直播系统
CN110830811A (zh) * 2019-10-31 2020-02-21 广州酷狗计算机科技有限公司 直播互动方法及装置、系统、终端、存储介质
CN110958463A (zh) * 2019-12-06 2020-04-03 广州华多网络科技有限公司 虚拟礼物展示位置的检测、合成方法、装置和设备
CN111970533A (zh) * 2020-08-28 2020-11-20 北京达佳互联信息技术有限公司 直播间的互动方法、装置及电子设备

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106303662A (zh) * 2016-08-29 2017-01-04 网易(杭州)网络有限公司 视频直播中的图像处理方法和装置
WO2019042064A1 (zh) * 2017-08-30 2019-03-07 乐蜜有限公司 一种基于直播的事件提醒方法及装置
CN107438200A (zh) * 2017-09-08 2017-12-05 广州酷狗计算机科技有限公司 直播间礼物展示的方法和装置
CN108924661A (zh) * 2018-07-12 2018-11-30 北京微播视界科技有限公司 基于直播间的数据交互方法、装置、终端和存储介质
CN109246445A (zh) * 2018-11-29 2019-01-18 广州市百果园信息技术有限公司 一种直播间中表白的方法、装置、系统、设备和存储介质
CN110418155A (zh) * 2019-08-08 2019-11-05 腾讯科技(深圳)有限公司 直播互动方法、装置、计算机可读存储介质和计算机设备
CN110493630A (zh) * 2019-09-11 2019-11-22 广州华多网络科技有限公司 虚拟礼物特效的处理方法和装置、直播系统
CN110830811A (zh) * 2019-10-31 2020-02-21 广州酷狗计算机科技有限公司 直播互动方法及装置、系统、终端、存储介质
CN110958463A (zh) * 2019-12-06 2020-04-03 广州华多网络科技有限公司 虚拟礼物展示位置的检测、合成方法、装置和设备
CN111970533A (zh) * 2020-08-28 2020-11-20 北京达佳互联信息技术有限公司 直播间的互动方法、装置及电子设备

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114679596A (zh) * 2022-03-04 2022-06-28 北京达佳互联信息技术有限公司 基于游戏直播的互动方法、装置、电子设备及存储介质
CN114679596B (zh) * 2022-03-04 2024-02-23 北京达佳互联信息技术有限公司 基于游戏直播的互动方法、装置、电子设备及存储介质
CN114845129A (zh) * 2022-04-26 2022-08-02 北京达佳互联信息技术有限公司 虚拟空间中的互动方法、装置、终端以及存储介质
CN115314749A (zh) * 2022-06-15 2022-11-08 网易(杭州)网络有限公司 互动信息的响应方法、装置和电子设备
CN115314749B (zh) * 2022-06-15 2024-03-22 网易(杭州)网络有限公司 互动信息的响应方法、装置和电子设备
CN117119259A (zh) * 2023-09-07 2023-11-24 北京优贝在线网络科技有限公司 一种基于场景分析的特效自合成系统
CN117119259B (zh) * 2023-09-07 2024-03-08 北京优贝在线网络科技有限公司 一种基于场景分析的特效自合成系统

Also Published As

Publication number Publication date
CN111970533A (zh) 2020-11-20
CN111970533B (zh) 2022-11-04

Similar Documents

Publication Publication Date Title
WO2022042089A1 (zh) 直播间的互动方法及装置
CN106791893B (zh) 视频直播方法及装置
CN109600659B (zh) 播放视频时的操作方法、装置、设备及存储介质
CN106506448B (zh) 直播显示方法、装置及终端
WO2020093901A1 (zh) 数据生成方法、装置、电子设备及可读存储介质
CN111314768A (zh) 投屏方法、投屏装置、电子设备以及计算机可读存储介质
CN112153400B (zh) 直播互动方法、装置、电子设备及存储介质
US20170064245A1 (en) Method, device, terminal device, and storage medium for video effect processing
US11545188B2 (en) Video processing method, video playing method, devices and storage medium
WO2019153925A1 (zh) 一种搜索方法及相关装置
RU2666626C1 (ru) Способ и устройство для управления состоянием воспроизведения
CN105786507B (zh) 显示界面切换的方法及装置
CN109451341B (zh) 视频播放方法、视频播放装置、电子设备及存储介质
WO2022198934A1 (zh) 卡点视频的生成方法及装置
CN112738544B (zh) 直播间互动方法、装置、电子设备及存储介质
CN108495168B (zh) 弹幕信息的显示方法及装置
CN111479158B (zh) 视频展示方法、装置、电子设备及存储介质
CN113065008A (zh) 信息推荐方法、装置、电子设备及存储介质
CN112019893A (zh) 终端的投屏方法和终端的投屏装置
CN111866531A (zh) 直播视频处理方法、装置、电子设备及存储介质
US20220078221A1 (en) Interactive method and apparatus for multimedia service
CN110719530A (zh) 一种视频播放方法、装置、电子设备及存储介质
CN112188230A (zh) 虚拟资源处理方法、装置、终端设备及服务器
CN108174269B (zh) 可视化音频播放方法及装置
WO2023098011A1 (zh) 视频播放方法及电子设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21859929

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 23/06/2023)

122 Ep: pct application non-entry in european phase

Ref document number: 21859929

Country of ref document: EP

Kind code of ref document: A1