WO2010003332A1 - 视频会议实现方法、设备及系统 - Google Patents

视频会议实现方法、设备及系统 Download PDF

Info

Publication number
WO2010003332A1
WO2010003332A1 PCT/CN2009/071766 CN2009071766W WO2010003332A1 WO 2010003332 A1 WO2010003332 A1 WO 2010003332A1 CN 2009071766 W CN2009071766 W CN 2009071766W WO 2010003332 A1 WO2010003332 A1 WO 2010003332A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
video
information
image data
service management
Prior art date
Application number
PCT/CN2009/071766
Other languages
English (en)
French (fr)
Inventor
禹辉
莫晓军
朱祥文
龚浩
Original Assignee
华为技术有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 华为技术有限公司 filed Critical 华为技术有限公司
Priority to EP09793807A priority Critical patent/EP2173098A4/en
Publication of WO2010003332A1 publication Critical patent/WO2010003332A1/zh
Priority to US12/796,938 priority patent/US20100245537A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • H04L12/1822Conducting the conference, e.g. admission, detection, selection or grouping of participants, correlating users to one or more conference sessions, prioritising transmission

Definitions

  • the present invention relates to the field of network communication technologies, and specifically relates to a video conference implementation method, a media resource device, a video service management device, a video conference implementation system, and a video conference terminal.
  • Background technique
  • NTN Next Generation Network
  • IMS IP Multimedia Subsystem
  • the participating users participating in the video conference include: User A, User B, and User C.
  • the user A can watch the video of the user B through a request operation of the protocol.
  • the user B can view the video of the user C through a request operation of the protocol, and the user C can specify the preset video file through another request operation of the protocol.
  • the image data generally includes the user's video (i.e., the user's image data) and/or a preset video file.
  • the video file is also regarded as the input data of a special user, it can be said that the media resource server maintains the data interaction relationship between the users. Therefore, the current video conference is targeted at the user.
  • This video conference model can be called a video conference model based on the user.
  • the inventor has found that the above prior art has at least the following problems:
  • the video conference model needs to enable multiple conference users to watch the same video through multiple video playback operations. For example, for each participant who watches the video, the media resource server will receive a play command, and according to the received Play command execution Put the operation.
  • the media resource server needs to maintain a large number of data interaction relationships between participating users; in addition, since the media resource server receives the playback commands in a sequential order, if there are multiple participating users who need to watch the same video, To receive the video at the same time, you need to consider the time synchronization problem between playing videos for multiple participating users.
  • the embodiment of the invention provides a video conference implementation method, device and system, which can realize video conference easily and conveniently, and improve the scalability of the video conference.
  • a video conference implementation method provided by an embodiment of the present invention includes: creating a video image, where the video image has image identification information;
  • the image data is acquired and transmitted based on the image data source and the image data output of the video image having the image identification information.
  • Creating an image module configured to create a video image for the video conference, the video image having image identification information
  • the image processing module is configured to define an image data source and an image data output for the created video image, and acquire and transmit the image data according to the image data source and the image data output information of the video image having the image identification information.
  • the definition image information including the image identification information is transmitted to the media resource device to instruct the media resource device to define an image data source and an image data output for the video image having the image identification information.
  • Creating a display module configured to send, to the media resource device, create image information, to instruct the media resource device to create a video image for the video conference;
  • a definition indication module configured to send the definition image information including the image identification information to the media resource device, to instruct the media resource device to define an image data source and an image data output for the video image having the image identification information.
  • a video service management device configured to send, to the media resource device, create image information, and define image information
  • a media resource device configured to create a video image with image identification information for the video conference according to the received created image information, and define an image data source and an image data output for the created video image according to the received definition image information, according to The image data source and the image data output of the video image of the image identification information acquire and transmit the image data.
  • a creating module configured to receive an external input creation command, and send a creation indication information to the video service management device, to trigger the video service management device to send the creation image information to the media resource device
  • a definition module configured to receive an external input definition command, And sending definition indication information to the video service management device, to trigger the video service management device to send the definition image information to the media resource device.
  • a video conference model based on an image is established by creating a video image, defining an image data source for the video image, and outputting the image data, and abstracting an image layer between the user and the video conference.
  • the operation of the video conference can be implemented for the video image, so that the image-based video conference model is more in line with the requirements of the video conference service; since the operation of the video conference is for the video image, it can be avoided for multiple conferences.
  • User There are multiple play commands, a record for each participant watching the video image, and a time synchronization for playing the same video image for multiple participants, which simplifies the operation of the video conference and improves the video conference. Scalability. DRAWINGS
  • FIG. 1a is a schematic diagram of a system for implementing a video conference with a video image as an object
  • FIG. 1b is a flowchart of a specific implementation manner of a video conference implementation method
  • FIG. 2 is a schematic diagram of a specific embodiment of a video conference model
  • FIG. 3 is a schematic diagram of an application scenario of the video conference model in FIG. 2;
  • FIG. 4 is a schematic diagram of an execution sequence of an image operation message in a specific embodiment
  • FIG. 5 is a flow chart of another embodiment of a video conference implementation method
  • FIG. 6 is a schematic diagram of a media stream connection between an MRS and a user in a specific embodiment
  • FIG. 7 is a schematic diagram of a specific implementation of creating a video image
  • FIG. 8 is a schematic diagram of a specific embodiment of setting image data source for a video image
  • FIG. 9 is a schematic diagram of a specific embodiment of setting image data output for a video image
  • FIG. 10 is another embodiment of setting image data output for a video image. Schematic diagram of an embodiment
  • FIG. 11 is a schematic diagram of a specific embodiment of image data for transmitting a video image
  • FIG. 12 is a schematic structural diagram of a specific implementation manner of a media resource device
  • FIG. 13 is a schematic structural diagram of a specific implementation manner of a video service management device
  • FIG. 14 is a schematic structural diagram of a specific embodiment of a video conference terminal. detailed description
  • the embodiment of the present invention abstracts the image layer between the user and the video conference, so that the operation in the video conference service can be implemented by using the video image as the object, that is, the video conference service can be for the video image, and the video image has the image image.
  • the image of the attribute By using video images, the video conference model in the embodiment of the present invention can be made into an image-based video conference. Discussion model.
  • Figure la is a schematic diagram of a system for implementing a video conference with a video image as an object
  • Figure lb is a flowchart of a specific implementation method of a video conference implementation method. As shown in Figure la, the system includes:
  • the video service management device 110 transmits the create image information and the definition image information to the media resource device 120 to instruct the media resource device 120 to create a video image for the video conference, and define image data sources and image data output information and the like for the video images.
  • Image identification information can be included in the creation of image information and definition image information.
  • Image information can also be included in the created image information.
  • the media resource device 120 creates a video image with image identification information for the video conference according to the created image information sent by the video service management device 110, and defines an image data source and image data for the video image according to the defined image information sent by the video service management device 110. Output.
  • the media resource device 120 acquires image data based on the image data source of the video image, and the media resource device 120 outputs the transmission image data according to the image data of the video image.
  • the system may further include one or more video conferencing terminals 100 for receiving externally input commands, such as creating commands and defining commands.
  • the video conferencing terminal 100 sends the video service management device 110 to the video service management device 110.
  • the video service management device 110 sends the creation image information to the media resource device 120 according to the creation indication information; after receiving the externally input definition command, the video conference terminal 100 sends the video to the video.
  • the service management device 110 sends the definition indication information, and after receiving the definition indication information, the video service management device 110 sends the definition image information to the media resource device 120 according to the definition indication information.
  • step 200 creating a video image for the video conference, the video image having image identification information.
  • the video image may also have image picture attributes. Go to step 210.
  • the image identification information is used to identify the created video image.
  • Image identification information should be uniquely labeled Identify a created video image, that is, an image identifier corresponding to a video image.
  • the image identification information may be composed of a video conference identifier and a sequence number sequentially prepared for each video image in the video conference, or may be composed only of sequence numbers sequentially prepared for each video image in each video conference.
  • Image screen attributes such as image screen size, background color of the image, and so on.
  • the image screen properties can be set according to actual needs.
  • the image picture attributes may also be included in the subsequent definition image information, or the image information may be created using default settings and the like.
  • the subsequent definition image information modifies the image picture attribute of the created video image.
  • a network device that performs a video image creation for a video conference may be a media resource device.
  • the media resource device may be referred to as a Media Resource Function (MRF).
  • MRF Media Resource Function
  • MRS Media Resource Server
  • the media resource server can create a video image during the process of creating a video conference, or create a video image after the video conference is successfully created.
  • the video images created for a video conference can be one or more.
  • the media resource server may create one or more video images based on the created image information after receiving the message carrying the created image information.
  • the media resource server can create a video image without receiving the creation image information. For example, after the media resource server receives the message for creating a video conference and successfully creates a video conference based on the message, one or more video images are created according to the default setting information.
  • the above-described created image information may include image identification information (or a rule for generating image identification information) and image screen attributes of the video image, and the like.
  • image identification information or a rule for generating image identification information
  • image screen attributes of the video image, and the like.
  • image identification information and map may not be included in the creation image information.
  • Image identification information and map One or both of the picture attribute information may also be information stored in the media resource server.
  • the above default setting information may include image identification information (or a rule for generating image identification information), a default image screen attribute, and the like.
  • the image identification information here may be one or more.
  • the message carrying the created image information may be a message dedicated to carrying the created image information, or may be an existing message.
  • the existing message can be extended to carry the created image information in the existing message.
  • the entity that sends the message carrying the created image information may be the video service management side, and the video service management side, such as an application server (referred to as AS), or a service call session control function (Serving-Ca ll Ses s ion) Control Funct ion, referred to as: S-CSCF) entity.
  • AS application server
  • S-CSCF service call session control function
  • the media resource server can optionally send a response message to the video service management side.
  • the response message may carry information that successfully creates a video image, and may also carry information that does not successfully create a video image.
  • the information for successfully creating the video image may include: one or more of identification information of the video conference, number of created video images, attribute information of the video image, and successful creation of the identification information.
  • the trigger condition for creating a video image carries the specific name of the message for creating the image information, the information content carried in the response message, the content included in the image screen attribute, and the specific network device name represented by the video service management side. Wait.
  • Step 210 Define an image data source and an image data output for the created video image. Other examples or parameters such as image screen attributes can also be defined in other examples. Go to step 220.
  • the image data source is used to represent input information of a video image, that is, source information of image data output for the video image.
  • the image data source may be a preset video file, or may be some or some of the participating user information participating in the video conference. Of course, it can also be a preset video file and a participant user information participating in the video conference, or a preset video file and some participation. Participant user information for video conferences.
  • multi-screen display may be required.
  • the image data output is used to represent the output information of the video image, i.e., the destination information of the image data (the image data may also be referred to as video data) for the video image.
  • the destination information may be the participant user information of the video image, that is, the recipient of the image data of the video image participates in the user information.
  • the destination information may also be storage information of the video file, that is, the image data input by the video image is output to a video file of a media resource server or other network device.
  • the image data output information may be the information of the participating users participating in the video conference, may be the information of the participating users participating in the video conference, or may be the information of the participating users participating in the video conference and the storage location information of the video file. , or it may be the storage location information of some participating user information and video files participating in the video conference.
  • other content or parameters may also be defined for the created video image.
  • the video conference in which the video image is located, the comment information of the video image, and the like are used to describe the information of the video image; for example, defining the image screen attribute for the video image is equivalent to modifying the image screen attribute of the created video image. No longer here - for example.
  • the network device performing the definition video image operation may be a media resource server.
  • the media resource server can define the created video image according to its stored default setting information after the video image is successfully created.
  • the media resource server may also define parameters such as image data source, image data output, and image screen attributes for the created video image after receiving the message carrying the defined image information.
  • the definition image information may include image identification information, image data source, and image data output information.
  • the definition image information may further include image screen attribute information.
  • the image setting information, the image data source, and the image data output information may also be included in the default setting information for defining the operation.
  • the message carrying the defined image information may be a message dedicated to carrying definition image information, or may be an existing message.
  • the existing message can be extended to carry the defined image information in the existing message.
  • Send carry definition The entity of the message of the image information may be a video service management side, and the video service management side such as an AS or an S-CSCF entity.
  • the media resource server may optionally send a response message to the video service management side.
  • the response message may carry information that is successfully defined for the video image, and may also carry information that is not successfully defined for the video image.
  • Successfully The information defined for the video image may include: identification information of the video conference, parameters defined for the video image, and the like.
  • the media resource server stores the information of the video image.
  • the media resource server stores a record for the video image, the record including: image identification information, image picture attribute information, image data source information, image data output information, and the like.
  • image data source of the video image may be multiple
  • image data output information of the video image may be plural, but the media resource server only needs to store one record.
  • the operation of the media resource server to store information of the video image can be done in steps. For example, in the process of creating a video image, image identification information and image frame attribute information are stored for the video image, and image data source information and image data output information are added to the information stored in the video image during the definition operation.
  • a trigger condition for defining a video image carries a specific name of a message defining the image information, information content carried in the response message, and a specific network device name represented by the video service management side.
  • Step 220 Acquire image data for a video image having image identification information, that is, acquire image data according to an image data source of the video image having the image identification information. Go to step 230.
  • the network device performing step 220 may be a media resource server.
  • the media resource server may acquire image data directly from the image data source defined for the video image after successfully performing the video image definition operation.
  • the media resource server may also obtain an image according to the image data source defined for the video image after receiving the message carrying the acquired image data information.
  • the acquired image data information includes image identification information.
  • the message carrying the information of the acquired image data may be a message dedicated to carrying information for acquiring image data, or may be an existing message.
  • the existing message may be extended to carry the acquired image data information in the existing message.
  • the entity that sends the message carrying the information of the acquired image data may be the video service management side, and the video service management side such as the AS, or the S-CSCF entity.
  • the image data obtained by the media resource server according to the image data source information may be one or more preset video files; or may be input image data of the user, that is, input the video of the user; or may be a preset video file and input user Image data.
  • the input user here can be one or more. That is to say, the process of acquiring the image data by the media resource server may be to search for the stored preset video file, or to receive the image data sent by the input user, and may also include the above-mentioned searching and receiving process.
  • the media resource server may optionally send a report message to the video service management side.
  • the reported message may carry information that successfully acquires image data, and may also carry information that does not successfully acquire image data.
  • the information for successfully acquiring the image data may include: image identification information, image data source information, and successful acquisition of image data identification information.
  • a trigger condition for acquiring image data carrying a specific name of a message for acquiring image data information, information content carried in a report message, a process of searching for a preset video file, a location of a preset video file storage, and a video service
  • the specific network device name and so on displayed on the management side may be different situations, and may be replaced or improved by those skilled in the art, and will not be described herein.
  • a trigger condition for acquiring image data carrying a specific name of a message for acquiring image data information, information content carried in a report message, a process of searching for a preset video file, a location of a preset video file storage, and a video service The specific network device name and so on displayed on the management side.
  • Step 230 Send the acquired image data for the video image having the image identification information, that is, obtain the image data according to the image data of the video image having the image identification information.
  • the network device performing step 230 may be a media resource server.
  • the media resource server can directly define the video image according to the operation of acquiring the image data.
  • Image data output sends image data.
  • the media resource server may also output and transmit image data for the image data defined by the video image after receiving the message carrying the information of the transmitted image data.
  • the image data information is included in the transmitted image data information.
  • the step of transmitting image data includes transmitting image data to a participating user, and/or transmitting the image data to a video file. When the image data is output as a video file, video recording is realized; when the image data source is a preset video file, or the user, and the image data is output as a user, video playback is realized.
  • the message carrying the information of the transmitted image data may be a message dedicated to carrying information for transmitting image data, or may be an existing message.
  • the existing message may be extended to carry the transmitted image data information in the existing message.
  • the entity that sends the message carrying the information of the image data may be the video service management side, that is, the video service management device, and the video service management side, such as an AS, or an S-CSCF entity.
  • the media resource server sends the image data according to the one or more preset video files; the image data may also be sent according to the received image data of the input user; and the image may also be sent according to the preset video file and the image data of the input user. data.
  • the input user here can be one or more. That is to say, according to the image data source of the video image and the image image attribute, the image data sent by the media resource server to the participating user may be presented as a single picture mode, or a picture-in-picture mode, or presented at the participating user. For multi-screen mode, etc.
  • the media resource server may optionally send the report message to the video service management side.
  • the reported message may carry information of the transmitted image data, and may also carry information that cannot successfully transmit the image data.
  • a trigger condition for transmitting image data carrying a specific name of a message for transmitting image data information, information content carried in a report message, a specific form of the sent image data at a participant user, a process of recording a video file, and recording The location of the video file storage, and the video service management side The network device name and so on.
  • the information defined for the video image can be modified.
  • parameters such as the image data source and image data output of the video image may change due to the user joining the video conference or the user exiting the video conference, and thus the parameters of the video image need to be modified.
  • the modified content may be: Modifying the image data output of the video image to change the object watching the video image. Alternatively, increase and/or decrease participation user information, etc., in the image data source of the video image.
  • the above modifications can be made during video playback, video recording, etc., or before video playback, video recording, etc.
  • the process of modifying video image parameters is a process of redefining video image parameters. Therefore, the process of modifying video image parameters can also be referred to as a process of redefining video images.
  • the process of modifying the parameters of the video image may be: the video service management side sends the modification information to the media resource server, and the media resource server modifies the parameters of the stored video image according to the received modification information.
  • the parameters of the video image stored by the media resource server may include: image identification information, image screen attribute information, image data source, and image data output, and the like.
  • the parameters of the video image stored at the media resource server are targeted to the video image, it is possible to avoid the phenomenon that a record is maintained for each participating user who views the video image.
  • the media resource server may return the response information to the video service management side to notify the video service management side to successfully define the parameters of the video image.
  • the media resource server Need to delete the corresponding video image.
  • the media resource server may delete the corresponding video image according to the received deleted image information. For example, the media resource server receives the message carrying the deleted image information sent by the video service management side, and the media resource server obtains the image identification information from the deleted image information. And delete with The video image identified by the image.
  • the media resource server may return response information to the video service management side to notify the video service management side to successfully delete the video image.
  • step 210, step 220, and step 230 of transmitting the image data although the viewing user or other receiving object of the video image may be multiple, the video service management side issues a command for the video image (such as sending Commands, etc., therefore, it is possible to express image data to a plurality of users or other receiving objects by a single command, thereby avoiding separately transmitting commands for each user or other receiving objects.
  • the source of the video image may be multiple users or video files
  • the video service management side issues commands for video images (such as sending commands, etc.)
  • other video files acquire image data, thereby avoiding separately transmitting commands for acquiring image data for each user or other video files. This not only simplifies the process of sending and acquiring image data, but also does not need to consider the time synchronization problem when playing the same video image for multiple participants.
  • an image-based video conferencing model can be established, the video conferencing model including a video conferencing layer, an image layer, and a user layer.
  • the video conference layer can contain the conference ID, conference properties, and the like of the video conference.
  • the image layer includes one or more video images, and the image layer can cause some of the operations in the video conference to be embodied as operations for the image.
  • the user layer may contain one or more participating users; one participating user may provide input data for one or more video images in the image layer, but a participating user can only receive image data of one video image, and Multiple participating users can simultaneously view image data of the same video image (ie, the output of one video image can include one or more users).
  • FIG. 2 is a schematic diagram of a specific embodiment of a video conference model.
  • a specific example of the image-based video conference model can be as shown in FIG. 2.
  • Three video images are defined in Figure 2, all of which correspond to image identification, image data source, image data output, and image picture attributes.
  • the image identifiers of these three video images are: Image Image2 and Image3.
  • the input of the video image Image1 is a preset video file, and the output of the video image Image1 is the user A, that is, the user A watches the preset video file.
  • the input of the video image Image2 is User B and User C, and the output of the video image Image2 is User C.
  • the input of the video image Image3 is user C, and the output of the video image Image3 is user B.
  • the image picture attributes of the three video images may be set according to actual needs.
  • the image picture attributes may include: picture size, picture background color, and multi-picture attributes. Multi-picture attributes such as four pictures, or six pictures.
  • some of the operations in the video conference are performed on the video image, that is, regardless of the video conference to achieve the speech mode, multi-picture service, video Playback, video recording, or expansion of new video services are all performed on video images.
  • an operation of creating a video image an operation of defining an image data source for a video image, an image data output, an image picture attribute (how the input data of the video image constitutes an image)
  • an operation of transmitting image data for video image acquisition Not only can the data interaction relationship between the participating users be blocked, but also, it is possible to specify which participating users view the image data of the image data source through a separate protocol request operation.
  • the image-based video conferencing model is more in line with the video conferencing service logic, so that the video conferencing service can control the participating users to view different video images according to the different service attributes of the participating users, so that the realization level of the video conferencing service is clear.
  • the image-based video conferencing model is advantageous for the expansion of the video service. For example, if the current 6-picture function supported by the video conference needs to be extended to the 16-picture function, only the video conference service interface extension for the video image is needed. That is, as long as the media resource server supports the modified image screen attribute.
  • FIG. 3 is a schematic diagram of an application scenario of the video conference model in FIG. 2, as shown in FIG. 3, which is a system for implementing video conference in IMS.
  • the system includes MRF, AS, and S-CSCF.
  • the MRF is a media resource server
  • the media resource control interfaces of the MRF are an Mr interface and an Sr interface, respectively.
  • the Mr interface is the interface between the F and the S-CSCF
  • the Sr interface is the interface between the AS and the MRF.
  • Both the AS and the S-CSCF can be video service management devices.
  • the Mr interface and the Sr interface can both be based on the Session Startup Protocol (SIP) interface.
  • SIP Session Startup Protocol
  • the AS (or S-CSCF) and the MRF operation for the video image can be implemented by extending the SIP interface of the Mr interface and the Sr interface, such as the AS (or S-CSCF) opposing F to create a video.
  • the MRF reports the processing result information to the AS or the S-CSCF.
  • the following operations can be performed to implement a video conference for a video image: Create lmage operation, Operatelmage operation, Resul t lmage, and Deletelmage operation. . Specifically, including:
  • a Create lmage operation is performed to cause the AS or S-CSCF to instruct the media resource server to create a video image, and the media resource server creates a video image according to the instructions of the AS or S-CSCF.
  • the media resource server can also allocate resources for the created video image instance and activate the video image instance; for example, when a video file needs to be recorded, resources need to be allocated for the video image instance.
  • the parameters of the Cr ea t Image operation can include Image I d, ImageS izelnf o, and ImageBackColor.
  • an image data source defining a video image, an image data output, an image screen attribute, and the like.
  • the parameters of the Operatelmage operation can include Imageld, Imagelnput, and ImageOutput.
  • CSCF Returns the result information of the image processing. For example, video playback is completed, image data recording is completed, and so on.
  • the parameters of the Resul t lmage operation can include Imageld and ImageResul t.
  • the image deletion deletelmage operation is performed to enable the media resource server to delete one or some video images, and when the video image is allocated with resources, the media resource server can also release the resources occupied by the video image.
  • the parameters of the Deletelmage operation can include Imageld and so on.
  • the above Image I d parameter is used to represent a video image in a video conference, that is, a video image.
  • Image identification like.
  • One or more video images may exist in a video conference, and multiple video images may be identified by Imageld.
  • One Imageld identifies only one video image.
  • the above ImageS i zelnfo parameter is used to indicate the picture size of the video image.
  • the ImageBackCo lor parameter above is used to represent the background color of the video image.
  • the above Imagelnput is used to represent the source of the image data of the video image, that is, the input of the video image. If the image data source includes the image data of the participating user, Imagelnput needs to be able to represent the participating user information. Further, Imagelnput can also indicate the position of the image data of the participating user (ie, the screen of the participating user) in the image. , as well as information such as scaling. If the image data source includes preset video file data, Image lnput needs to indicate the attributes of the video file itself (such as file name, etc.), and further, Imagelnput can also indicate the position of the video file corresponding to the video image.
  • the video playback function is achieved by the information such as the zoom ratio and the playback duration.
  • Imagelnput needs to be able to display the contents of the string, the font, and the type of the font. Further, Imagelnput can also indicate that the string is in the viewing screen. Information such as position, and scaling.
  • the above ImageOutput parameter is used to represent image data output information of a video image. If the image data is output to the participating user, ImageOutput needs to indicate the participating user information. If you want to implement the recording function (that is, output image data to a video file), Imagelnput needs to be able to display information such as the properties of the video file itself (such as the file name), the format of the video file, the image size, and the frame rate.
  • the above ImageResu t t parameter is used to indicate execution result information of an image processing operation.
  • the media resource server can feed back the execution result information of the image processing operation to the video service application layer (ie, the video service management side) such as AS through the ImageResul t parameter.
  • the foregoing four operations may be performed to send four image operation messages, and the embodiment of the present invention does not limit the manner in which the foregoing parameters are carried in the message.
  • the video conferencing terminal can pass to AS Or the video service management device such as the S-CSCF sends the corresponding information to trigger the foregoing operation; for example, the video conference terminal sends the creation indication information to the video service management device to trigger the Creat lmage operation; for example, the video conference terminal manages the device to the video service.
  • Send definition instructions to trigger the Operate Image operation for example, the video conference terminal sends the creation indication information to the video service management device to trigger the Creat lmage operation; for example, the video conference terminal manages the device to the video service.
  • FIG. 4 is a schematic diagram of an execution sequence of an image operation message in a specific embodiment. As shown in FIG. 4, a schematic diagram of an execution sequence of a video conference using an image operation message in the IMS system shown in FIG. 3 is applied.
  • the AS or S-CSCF triggers the media resource server to create a video image by creating an image (Creat lmage) operation message.
  • the AS or S-CSCF triggers the media resource server to perform operations for defining parameters, acquiring input image data, outputting image data, and the like for the created video image by processing the image (Operatelmage) operation message.
  • the media resource server may report the execution result information of the image processing operation to the AS or the S-CSCF through an image event (Resul t lmage ) message during the image processing operation triggered by the operation of the operation image (Operational Grid) operation message.
  • the AS or S-CSCF can continue to execute the video conference service logic according to the execution result information reported by the media resource server.
  • the AS or the S-CSCF may continue to send an Operational Image (Opera telmage) operation message to the Media Resource Server to indicate that the Media Resource Server continues to perform subsequent operations, if the AS needs to continue the image processing operation during the execution of the video conference service logic.
  • Image processing operations During the image processing operation of the entire video image, the AS or S-CSCF can perform multiple interactions between the operation image (Operatetelmage) operation message and the Resul tlmage message with the media resource server.
  • the AS or the S-CSCF may send a delete image operation message to the media resource server to end the image processing operation flow.
  • the image identification ID (Imageld) in each operation message must be the same.
  • the image operation message may be carried in the SIP message body by extending the SIP message body. And completing the AS or S-CSCF to perform the foregoing image creation operation, the image processing operation, and the image deletion operation on the media resource server, and the image event operation of the media resource server reporting the image event operation result information to the AS or the S-CSCF.
  • a specific example of using SIP to implement each image operation message may be to add a new application type to the SIP message body, such as adding a content type (Content-Type) whose application type is vid, and carrying a specific image in the message body.
  • Operation information such as information for creating an image, processing (defining) image information, deleting image information, and reporting content.
  • the content type is added to the SIP message body, it can be defined in the SIP message as follows:
  • the image operation information carried in the message body can be defined as the following format:
  • Length_value l* ( DIGIT )
  • ci Creatlmage operation
  • oi Operatelmage operation
  • ri Resultlmage operation
  • di Deletelmage operation
  • message-type parameter can be set as mandatory parameter.
  • the Message_len in the above definition indicates the length of the message-content parameter carried in the message body; the Message. len parameter can be set as an optional parameter.
  • the message-content in the above definition carries parameter data required for image operations, such as image identification information.
  • Message-content can be set as an optional parameter.
  • parameter data is needed in image operations, information can be carried in message-content.
  • the length of the information carried in message-content can be represented by the Message.len parameter.
  • the location of message-content can be contiguous with Message. len and can be set after the Message.len parameter.
  • the message-content can be set by the upper layer service of the AS or S-CSCF and received and parsed by the MRF service script.
  • the video service management side is the AS
  • the media resource server is the MRS
  • the application scenario is the IMS.
  • the video conference implementation method is described in conjunction with FIG. 5 and FIG.
  • FIG. 5 is a flowchart of another embodiment of a video conference implementation method, and a flowchart of a video conference implementation method according to an embodiment of the present invention is shown in FIG. 5.
  • Step 501 The AS sends an INVITE message to the MRS to establish a connection between the user equipment (User Equipment, UE for short) and the MRS.
  • the message body of the INVITE message carries the Session Description Protocol (SDP) information of the UE.
  • SDP Session Description Protocol
  • Step 502 After receiving the INVITE message sent by the AS, the MRS returns a 2000K response message to the AS.
  • the MRS can carry the SDP information local to the MRF in the 2000K response message.
  • Step 503 After receiving the 2000K response message, the AS returns an acknowledgement (ACK) message to the MRS.
  • ACK acknowledgement
  • Step 1 to Step 3 above are required between AS and MRS for each user.
  • users A, B, and C join the video conference. After that, establish a media stream connection between the MRS and each participating user.
  • FIG. 6 is a schematic diagram of a media stream connection between an MRS and a user in a specific embodiment. As can be seen from FIG. 6, although user A, user B, and user C respectively establish a media stream connection with the MRS, the user A, The remote images seen by User B and User C are all black screens.
  • Step 504 After the UE establishes a media stream connection with the MRS, the AS sends an INFO message to the MRS, and the INFO message body carries a Create Image message.
  • a specific example of creating an image message carried in the I NF0 message may be:
  • the above image creation message indicates: For image 1, the image size is c if and the background color of the image is RGB.
  • Step 505 After receiving the INF0 message, the MRS returns a 200 OK message to the AS. At the same time, the MRS performs a video image creation operation according to the created image message carried in the INF0 message.
  • Figure 7 is a schematic diagram of a specific embodiment of creating a video image, as shown in Figure 7, which is a schematic diagram of a video image created in a specific example.
  • the MRS successfully creates two video images according to the created image message carried in the INF0 message, and the image identifiers of the two video images are image 1 and image 2, respectively.
  • Image 1 and Image 2 are video images associated with a video conference, i.e., Image 1 and Image 2 are video images in a video conference.
  • the MRS can set image attribute information of two video images, such as setting the image size and background color of the video image.
  • the MRS may set the image attribute information of the video image according to the stored default setting information, and may also set the image attribute information of the video image according to the information in the created image message carried by the INF0 message sent by the AS.
  • the process of creating a video image can also be combined with the process of creating a video conference.
  • Two is one, that is, when creating a video conference, several video images associated with the video conference are created by default.
  • Step 506 The AS sends an INFO message to the MRS, and the INFO message body carries an operation message (Operate Image) to instruct the MRS to perform an image processing operation of defining a video image, acquiring input image data, and transmitting image data.
  • an operation message (Operate Image) to instruct the MRS to perform an image processing operation of defining a video image, acquiring input image data, and transmitting image data.
  • a specific example of an image processing operation message carried in the I NF0 message body is:
  • Step 507 After receiving the INF0 message, the MRS sends a 200 OK response message to the AS, and at the same time, the MRS performs an image processing operation according to the information carried in the image processing operation message of the INF0 message body.
  • the video image 1 is defined in the foregoing step 506 (the image data source is the user A, and the image data is output as the user B), and the video of the user A is obtained, and the acquired image data of the user A is sent to the user B, that is, User B transmits the image data of User A.
  • the content of the defined video image may include a plurality of different states.
  • different aspects may be defined sequentially or simultaneously; for different video images, the same or different definitions may be performed sequentially or simultaneously.
  • the AS can modify the image data output information and/or the image data source of the video image, that is, The frequency image can be switched, and the AS can switch the operation information to the MRS to send a video image to other users or to other video files.
  • Figure 8 is a schematic illustration of an embodiment of setting image data sources for video images.
  • a content defining a video image is the source of the image data specifying or defining the video image 1 as user A and user C.
  • the state of the video conference model is as shown in FIG. Among them, the user
  • the image data of A is represented by a black person silhouette
  • the image data of the user C is represented by a white character cutout
  • the video image 1 is represented by a side-by-side black character silhouette and a white character silhouette.
  • Figure 9 is a schematic diagram of a specific embodiment of setting image data output for a video image.
  • the other content defining the video image is the image data source specifying or defining the video image 2 as the user B, and the image data of the image 2 is output as the user A, the user B, and the user C.
  • the state of the video conference model is as shown in Fig. 9.
  • the video image of user B and the image data source of video image 2 are represented by gray person silhouette.
  • Figure 10 is a schematic diagram of another embodiment of setting image data output for a video image.
  • Yet another content defining the video image is the image data source specifying or defining the video image 1 as user A and user C, and the image data of the image 1 is output as user B and user C.
  • the state of the video conference model is as shown in FIG. Among them, the image data of the user A is represented by a black person silhouette, the image data of the user C is represented by a white person silhouette, and the video image 1 is represented by a side-by-side black person silhouette and a white person silhouette.
  • FIG. 11 is a schematic diagram of a specific embodiment of image data for transmitting a video image.
  • Yet another content defining the video image is the video data of the specified or defined video image 1 is the preset video file, the image data of the video image 1 is output as the user B and the user C; and the image data source of the video image 2 is the user B.
  • the image data of image 2 is output as a video file and user A.
  • the state of the video conference model is as shown in FIG.
  • the preset video file is represented by an M-type icon
  • the video image of the user B, the image data source of the video image 2, and the image data output of the video image 2 are all represented by a gray person silhouette.
  • Step 508 After performing the image processing operation required to complete the INFO message, the MRS sends the AS to the AS.
  • the INFO message carrying the image processing operation message body is reported to report the image processing result (Resul t Image) such as video playback completion and video recording completion to the AS.
  • a specific example of the image processing operation message body carried by the I NF0 message may be:
  • the above image processing message body indicates: For image 1, the video playback is successfully completed.
  • Step 509 After receiving the INFO message, the AS returns a 200 OK response message to the MRS.
  • a specific example of the image processing operation message body carried by the I NF0 message may be:
  • the above image processing operation message body indicates: Delete image 1.
  • Step 511 After receiving the INF0 message sent by the AS, the MRS returns a 200 0K response message to the AS. At the same time, the MRF performs a video image deletion operation according to the deleted image message body carried in the INF0 message, to delete the corresponding video image, such as Delete image 1.
  • Step 512 The AS sends a BYE request to the MRS according to the status change of the participating user, to release a session of a participant in the video conference. If a participant needs to exit the video conference, the AS sends a BYE request to the MRS. .
  • Step 513 After receiving the BYE request, the MRS returns a 200 OK response message to the AS.
  • the video image is created after the video conference is successfully created.
  • the video image may also be created during the process of creating a video conference.
  • the message for creating a video conference carries the created image information. This simplifies the process of creating a video image.
  • FIG. 12 is a schematic structural diagram of a specific implementation manner of a media resource device, which is a schematic structural diagram of a media resource device.
  • the media resource device in FIG. 12 may be a media resource server.
  • the media resource device may be an MRF, and in the NGN, the media resource device may be an MRS. It can perform the aforementioned method of video conferencing.
  • the media resource device includes: a create image module 121 0 and a process image module 1220.
  • the create image module 1210 creates a video image with image identification information for the video conference.
  • the create image module 1210 may create a video image during the process of creating a video conference, or may create a video image after the video conference is successfully created.
  • the video images created for a video conference can be one or more.
  • the creating image module 1210 may create one or more video images according to the created image information after receiving the message carrying the created image information sent by the video service management side; the creating image module 1210 may also not receive the created image information.
  • the video image is created in the case; for example, after the creation image module 1210 receives the message for creating the video conference and successfully creates the video conference according to the message, one or more video images are created according to the default setting information stored by the media resource device.
  • the create image module 121 may include a create image sub-module 12101 and a create response sub-module 12102.
  • the created image sub-module 12101 receives the message carrying the created image information sent by the video service management side, and creates a video image for the video conference according to the created image information carried in the message. .
  • the create response sub-module 12102 returns a response message to the video service management side based on the creation execution of the create image sub-module 12101.
  • the response message may carry information that successfully creates a video image, and may also carry information that does not successfully create a video image.
  • the information for successfully creating the video image may include: identification information of the video conference, the number of created video images, attribute information of the video image, and one or more of the successfully created identification information.
  • the processing image module 1220 defines an image data source and an image data output for the successfully created video image, and acquires the image data according to the image data source of the video image having the image identification information, according to The image data output information of the video image of the image identification information transmits the image data.
  • Processing image module 1220 defines an image data source for the video image representing the video image Input information
  • the image data source may be a preset video file, or may be some or some of the participating user information of the participating video conference, and of course, may be a preset video file and a participant participating in the video conference.
  • the processed image module 1220 outputs output information representing the video image for the image data defined by the video image.
  • the image data output information may be information of participating users participating in the video conference, or information of participating users participating in the video conference, and/or storage location information of the video file.
  • the processing image module 1220 may also define other content for the created video image, such as a video conference defining the video image, the remark information of the video image, and the like for explaining information of the video image; for example, the processing image module 1220 is
  • the video image defines the image screen properties (equivalent to modifying the image screen properties of the created video image). No longer here - for example.
  • the processing image module 1220 may define parameters such as an image data source, an image data output, and an image screen attribute for the created video image after receiving the message carrying the defined image information sent by the video service management side.
  • the processing image module 1220 can also perform definition operations for the created video image without receiving the defined image information, for example, processing the image module.
  • the 1220 defines a video image to be created according to the default setting information stored by the media resource device.
  • the processed image module 1220 can acquire the input image data and the output image data according to the instruction of the video service management side.
  • the processing image module 1220 can include: a definition sub-module 12201, an acquisition sub-module 12202, and a transmission sub-module 12203.
  • the definition sub-module 12201 defines an image data source and an image data output for the created video image according to the defined image information sent by the video service management side, and returns a response message to the video service management side.
  • the definition image information carried in the message may include image identification information, image data source, and image data output information.
  • the defined image information may further include image screen attribute information. If the definition sub-module 12201 defines the video image according to the default setting information stored in the media resource device, the default setting information may include image identification information and a map. Output information like data source, and image data.
  • the definition sub-module 12201 defines the video image
  • the information defined by the video image may be modified.
  • the user may join the video conference or the user may quit the video.
  • the parameters of the image data source, the image data output, and the like of the video image are changed, so that the definition sub-module 12201 needs to modify the parameters of the video image.
  • the modified content may be: Modifying the image data output of the video image to change the object watching the video image.
  • the definition sub-module 12201 can also modify other definition information of the video image, such as the definition sub-module 12201 adding and/or reducing the participation user information in the image data source of the video image.
  • the modification operations performed by the above definition sub-module 12201 can be performed during video playback, video recording, etc., or before video playback, video recording, and the like.
  • the specific modification process can be as described in the above method embodiments.
  • the definition sub-module 12201 may return the response information to the video service management side after re-defining the parameters of the video image to notify the video service management side to successfully define the parameters of the video image.
  • the obtaining sub-module 12202 searches for the image data source of the video image according to the image identification information sent by the video service management side, and acquires preset image data and/or input user image data according to the found image data source.
  • the image identification information herein may be the image identification information carried in the definition image information, or may be the image identification information carried in the message for acquiring the image data information separately sent by the video service management side. That is, the obtaining sub-module 12202 may directly acquire image data according to the image data source defined for the video image after the definition sub-module 12201 successfully performs the video image defining operation; the obtaining sub-module 12202 may also be carried on the receiving After acquiring the message of the image data information, the image data is acquired according to the image identification information in the acquired image data information and the image data source defined for the video image.
  • the transmitting sub-module 12203 outputs information to the participating users according to the image data of the video image and/or Or the video file is sent to acquire image data acquired by the sub-module 12202.
  • the sending sub-module 12203 may directly output the image data according to the image data defined for the video image (including sending the image data to the participating user, and / or send image data to a video file to record a video file).
  • the transmitting sub-module 1 2203 may also output and transmit image data for the image data defined by the video image according to the image identification information in the transmitted image data information after receiving the message carrying the transmitted image data information.
  • the sending sub-module 12203 sends the image data according to one or more preset video files; the sending sub-module 12203 can also send the image data according to the input user's image data; and can also be based on the preset video file and the input user's image data.
  • Send image data The sending sub-module 1 2203 can send the image data to the participating user to realize the video playing; the sending sub-module 12203 can also send the image data to the video file to realize the video recording.
  • the message carrying the information of the transmitted image data, the number of input users, the number of preset video files, and the like are as described in the above embodiment of the method.
  • the media resource device can optionally include an image event module 1230.
  • the image event module 1 230 reports the execution of the processed image module 1 220 to the video service management side, such as the execution status information of the image data acquired by the acquisition sub-module 12202 to the video service management side, and the execution of the image data sent by the transmission sub-module 12203. information.
  • the information carried in the reported message is as described in the above method embodiment.
  • the media resource device in the embodiment of the present invention may optionally include a delete image module 1240.
  • the deletion image module 1 240 deletes the created video image based on the image identification information in the deleted image information transmitted from the video service management side.
  • the deletion image module 1240 may return the response information to the video service management side after deleting the video image to notify the video service management side to successfully delete the video image. Specifically, it is as described in the above method embodiment.
  • the operation performed by the video service management device is as described in the video service management side, and the AS or S-CSCF in the above embodiment.
  • the operation performed by the media resource device is as shown in the above embodiment. Description of the volume resource server. The description will not be repeated here.
  • the video service management device will be described below in conjunction with FIG.
  • FIG 13 is a schematic structural diagram of a video service management device, and the video service management device in Figure 13 can be an AS or an S-CSCF.
  • the video service management device 1 3 includes: a creation indication module 1 300 and a definition indication module 1 310.
  • the video service management device 1 3 may also optionally include: an image event receiving module 1 320 and/or a delete indication module 1 330.
  • the create indication module 1 300 sends the create image information to the media resource device to instruct the media resource device to create a video image for the video conference.
  • the creation indication module 1 300 may send the creation image information to the media resource device according to the creation indication information after the video service management device where the video service management device is located receives the creation indication information sent by the video conference terminal.
  • the definition indication module 1 310 transmits the definition image information containing the image identification information to the media resource device to instruct the media resource device to define an image data source and an image data output for the video image having the image identification information.
  • the definition indication module 1 310 may send the definition image information to the media resource device according to the definition indication information after the video service management device 13 in which the video service management device 1 is located receives the definition indication information sent by the video conference terminal.
  • the image event receiving module 1 320 receives the execution status information of the acquired image data reported by the media resource device and the execution status information of the transmitted image data.
  • the image event receiving module 1 320 may transmit the received execution status information of the acquired image data and the execution status information of the transmitted image data to the video conference terminal.
  • the deletion indication module 1 330 transmits the deletion image information containing the image identification information to the media resource device to instruct the media resource device to delete the video image having the image identification information.
  • the deletion indication module 1 330 may send the deletion image information to the media resource device after receiving the deletion indication information sent by the video conference terminal.
  • the video conference terminal provided by the embodiment of the present invention will be described below by taking FIG. 14 as an example.
  • the video conference terminal can be an ordinary PC or the like.
  • the frequency conference terminal 14 includes: a creation module 1400 and a definition module 141 0.
  • Video conferencing terminal 14 may also optionally include: display module 1420 and/or deletion module 1430.
  • the creation instruction is sent to the video service management device according to the creation command to trigger the video service management device to send the creation image information to the media resource device.
  • the creation module 1400 can send creation instructions through customized messages.
  • the definition module 1410 After receiving the externally input definition command, the definition module 1410 sends the definition indication information to the video service management device according to the definition command, to trigger the video service management device to send the definition image information to the media resource device.
  • the definition module 1410 can send definition indication information through a customized message.
  • the display module 1420 receives execution status information of the acquired image data transmitted from the video service management device, and execution status information of the transmitted image data, and displays the received execution status information, for example, displayed on a screen or printed by a printer.
  • the deleting module 1430 After receiving the externally deleted command, the deleting module 1430 sends the deletion instruction information to the video service management device to trigger the video service management device to send the deleted image information including the image identification information to the media resource device.
  • the delete module 1430 can send deleted image information through a customized message.

Description

视频会议实现方法、 设备及系统 技术领域
本发明涉及网络通讯技术领域, 具体涉及视频会议实现方法、 媒体资源 设备、 视频业务管理设备、 视频会议实现系统、 以及视频会议终端。 背景技术
随着下一代网络(Next Generat ion Network, 简称: NGN )、 IP多媒体子 系统(IP Mul t imedia Subsys tem, 简称: IMS ) 的发展, 视频会议的应用越 来越广泛。
在现有的视频会议中, 假设参加视频会议的参会用户包括: 用户 A、 用户 B和用户 C。 通过协议的一个请求操作可以指定用户 A收看用户 B的视频, 通过 协议的一个请求操作可以指定用户 B收看用户 C的视频, 通过协议的另一个请 求操作可以指定用户 C收看预置的视频文件。
在媒体资源服务器侧, 只存在视频会议、 用户两个层次的概念, 媒体资 源服务器中维护有输入图像数据、 以及输出图像数据之间的对应关系。 图像 数据一般包括用户的视频 (即用户的图像数据 )和 /或预置的视频文件。 在将 视频文件也看成一种特殊用户的输入数据时, 可以说, 媒体资源服务器中维 护有用户之间的数据交互关系。 因此, 目前的视频会议是以用户为对象的, 这种视频会议模型可以称为基于用户为对象的视频会议模型。
在实现本发明的过程中, 发明人发现上述现有技术至少存在如下问题: 在视频会议实现过程中, 通常情况下, 多个参会用户需要收看同一个视 频, 此时, 基于用户为对象的视频会议模型需要通过多条视频播放操作才能 够使多个参会用户收看同一个视频, 例如, 针对每个收看视频的参会用户, 媒体资源服务器都会接收到一条播放命令, 并根据接收到的播放命令执行播 放操作。 而且, 媒体资源服务器需要维护数量庞大的参会用户之间的数据交 互关系; 另外, 由于媒体资源服务器接收到的播放命令会有先后顺序, 因此, 如果需要使多个收看同一视频的参会用户在同一时间收看到视频, 则需要考 虑为多个参会用户播放视频之间的时间同步问题。
综上所述, 现有的基于用户为对象的视频会议模型在视频业务实现过程 中操作复杂, 且不利于视频会议的扩展。 发明内容
本发明实施方式提供一种视频会议实现方法、 设备及系统, 可简单方便 的实现视频会议, 提高视频会议的可扩展性。
本发明实施方式提供的一种视频会议实现方法, 包括: 创建视频图像, 所述视频图像具有图像标识信息;
为所述创建的视频图像定义图像数据来源和图像数据输出;
根据具有图像标识信息的视频图像的图像数据来源和图像数据输出获取 并发送图像数据。
本发明实施方式提供的一种媒体资源设备, 包括:
创建图像模块, 用于为视频会议创建视频图像, 所述视频图像具有图像 标识信息;
处理图像模块, 用于为所述创建的视频图像定义图像数据来源和图像数 据输出, 并根据具有图像标识信息的视频图像的图像数据来源和图像数据输 出信息获取并发送图像数据。
本发明实施方式提供的一种视频会议实现方法, 包括:
向媒体资源设备发送创建图像信息 , 以指示媒体资源设备为视频会议创 建视频图像; 向媒体资源设备发送包含有图像标识信息的定义图像信息, 以指示媒体 资源设备为具有所述图像标识信息的视频图像定义图像数据来源和图像数据 输出。
本发明实施方式提供的一种视频业务管理设备, 包括:
创建指示模块, 用于向媒体资源设备发送创建图像信息, 以指示媒体资 源设备为视频会议创建视频图像;
定义指示模块, 用于向媒体资源设备发送包含有图像标识信息的定义图 像信息 , 以指示媒体资源设备为具有所述图像标识信息的视频图像定义图像 数据来源和图像数据输出。
本发明实施方式提供的一种视频会议实现系统, 包括:
视频业务管理设备, 用于向媒体资源设备发送创建图像信息、 定义图像 信息;
媒体资源设备, 用于根据接收到的创建图像信息为视频会议创建具有图 像标识信息的视频图像, 根据接收到的定义图像信息为所述创建的视频图像 定义图像数据来源和图像数据输出, 根据具有图像标识信息的视频图像的图 像数据来源和图像数据输出获取并发送图像数据。
本发明实施方式提供的一种视频会议终端, 包括:
创建模块, 用于接收外部输入的创建命令, 并向视频业务管理设备发送 创建指示信息,以触发视频业务管理设备向媒体资源设备发送创建图像信息; 定义模块, 用于接收外部输入的定义命令, 并向视频业务管理设备发送 定义指示信息,以触发视频业务管理设备向媒体资源设备发送定义图像信息。
通过上述技术方案的描述可知, 通过创建视频图像、 为视频图像定义图 像数据来源、 图像数据输出等操作, 建立了基于图像为对象的视频会议模型, 在用户与视频会议之间抽象出图像层, 使视频会议的操作可以针对视频图像 来实现,从而使基于图像为对象的视频会议模型更符合视频会议业务的要求; 由于视频会议的操作是针对视频图像的, 因此, 可以避免针对多个参会用户 存在多条播放命令、 针对每个收看视频图像的参会用户均维护一条记录、 为 多个参会用户播放同一视频图像时考虑时间同步等现象, 从而简化了视频会 议的操作, 提高了视频会议的可扩展性。 附图说明
图 1 a是一个以视频图像为对象来实现视频会议的系统的示意图; 图 1 b是一个视频会议实现方法具体实施方式的流程图;
图 2是一个视频会议模型具体实施方式的示意图;
图 3是图 2中的视频会议模型的一个应用场景示意图;
图 4是一个具体实施方式中图像操作消息的执行序列示意图;
图 5是另一个视频会议实现方法具体实施方式的流程图;
图 6是一个具体实施方式中 MRS和用户之间的媒体流连接示意图; 图 7是一个创建视频图像具体实施方式的示意图;
图 8是一个为视频图像设定图像数据来源具体实施方式的示意图; 图 9是一个为视频图像设定图像数据输出具体实施方式的示意图; 图 10是另一个为视频图像设定图像数据输出具体实施方式的示意图; 图 11是一个发送视频图像的图像数据具体实施方式示意图;
图 12是一个媒体资源设备具体实施方式的结构示意图;
图 1 3是一个视频业务管理设备具体实施方式的结构示意图;
图 14是一个视频会议终端具体实施方式的结构示意图。 具体实施方式
本发明实施方式在用户与视频会议之间抽象出了图像层, 这样, 视频 会议业务中操作可以以视频图像为对象来实现, 即视频会议业务可以是针 对视频图像的, 视频图像即具有图像画面属性的图像。 通过利用视频图像 能够使本发明实施方式中的视频会议模型成为基于图像为对象的视频会 议模型。
图 la是一个以视频图像为对象来实现视频会议的系统的示意图, 图 lb是一个视频会议实现方法具体实施方式的流程图。 如图 la所示, 该系 统包括:
视频业务管理设备 110向媒体资源设备 120发送创建图像信息和定义 图像信息, 以指示媒体资源设备 120为视频会议创建视频图像、 以及为视 频图像定义图像数据来源和图像数据输出信息等。创建图像信息和定义图 像信息中可以包含有图像标识信息。创建图像信息中还可以包含有图像属 性信息。
媒体资源设备 120根据视频业务管理设备 110发送来的创建图像信息 为视频会议创建具有图像标识信息的视频图像, 根据视频业务管理设备 110 发送来的定义图像信息为视频图像定义图像数据来源和图像数据输 出。 媒体资源设备 120根据视频图像的图像数据来源获取图像数据, 媒体 资源设备 120根据视频图像的图像数据输出发送图像数据。
该系统还可以包括一个或多个视频会议终端 100, 视频会议终端 100 用于接收外部输入的命令, 如创建命令和定义命令; 视频会议终端 100在 接收到创建命令后, 向视频业务管理设备 110发送创建指示信息, 使视频 业务管理设备 110在接收到创建指示信息后,根据该创建指示信息向媒体 资源设备 120发送创建图像信息;视频会议终端 100在接收到外部输入的 定义命令后, 向视频业务管理设备 110发送定义指示信息, 使视频业务管 理设备 110在接收到定义指示信息后,根据该定义指示信息向媒体资源设 备 120发送定义图像信息。 下面结合图 2b对视频会议实现方法的一个具 体的实施例进行说明。
图 lb中, 步骤 200、 为视频会议创建视频图像, 该视频图像具有图像 标识信息。其它例子中,该视频图像还可以具有图像画面属性。到步骤 210。
图像标识信息用于标识创建的视频图像。 图像标识信息应能够唯一标 识一个创建的视频图像, 即一个图像标识对应一个视频图像。 图像标识信 息可以由视频会议标识和为该视频会议内部各视频图像顺序编制的顺序 号组成, 也可以仅由为各视频会议中的各视频图像顺序编制的顺序号组 成。
图像画面属性如图像画面大小、 图像的背景色等。 图像画面属性可以 根据实际需要来设定。 而且, 图像画面属性也可以包含在后续定义图像信 息中, 或者创建图像信息采用默认设置等。 当图像画面属性保护在后续定 义图像信息中时, 即后续定义图像信息修改了创建的视频图像的图像画面 属性。
执行为视频会议创建视频图像的网络设备可以为媒体资源设备。 在
IMS中,媒体资源设备可以称为媒体资源功能(Media Resource Funct ion, 简称: MRF ) , 在 NGN中, 媒体资源设备可以称为媒体资源服务器(Media Resource Server , 简称: MRS ) 。 媒体资源服务器可以在创建视频会议的 过程中创建视频图像, 也可以在视频会议成功创建后再创建视频图像。 为 视频会议创建的视频图像可以为一个或多个。
媒体资源服务器可以在接收到携带有创建图像信息的消息后,根据创 建图像信息创建一个或多个视频图像。媒体资源服务器可以在没有接收到 创建图像信息的情况下创建视频图像。 例如, 媒体资源服务器接收到创建 视频会议的消息、 且根据该消息成功创建了视频会议后, 根据缺省设置信 息创建一个或多个视频图像。
当需要为一个视频会议创建多个视频图像时, 可以先后创建, 也可以 同时创建。 另外需要说明的是, 一个视频会议的所有视频图像可以分批次 的先后创建, 一个批次可以创建一个或多个视频图像。
上述创建图像信息可以包括图像标识信息 (或者生成图像标识信息的 规则)和视频图像的图像画面属性等。 当然, 创建图像信息中也可以不包 括图像标识信息和图像画面属性信息中的一个或两个。 图像标识信息和图 像画面属性信息中的一个或两个也可以为媒体资源服务器中存储的信息。 上述缺省设置信息可以包括图像标识信息 (或者生成图像标识信息的规 则)和默认的图像画面属性等。 这里的图像标识信息可以为一个或多个。
携带有创建图像信息的消息可以是专用于承载创建图像信息的消息, 也可以是现有消息。 在利用现有消息来携带创建图像信息时, 可以对该现 有的消息进行扩展, 以在现有消息中携带创建图像信息。
发送携带有创建图像信息的消息的实体可以为视频业务管理侧,视频 业务管理侧如应用服务器(Appl icat ion Server , 简称: AS ) 、 或服务呼 叫会话控制功能( Serv ing-Ca l l Ses s ion Control Funct ion,简称: S-CSCF ) 实体。
媒体资源服务器在创建了视频图像后, 可以可选的向视频业务管理侧 发送响应消息。 该响应消息中可以携带成功创建视频图像的信息, 也可以 携带未成功创建视频图像的信息。 成功创建视频图像的信息可以包括: 视 频会议的标识信息、 创建的视频图像的个数、 视频图像的属性信息以及成 功创建标识信息中的一个或多个。
在不同的实施方式中, 下述内容具体可以为不同的情况, 能够为本领 域技术人员进行替换或者改进, 在此将不贅述。 例如, 创建视频图像的触 发条件, 携带有创建图像信息的消息的具体名称、 响应消息中携带的信息 内容、 图像画面属性包含的内容、 以及视频业务管理侧所表现出来的具体 的网络设备名称等等。
步骤 210、 为创建的视频图像定义图像数据来源、 图像数据输出。 其 它例子中还可以定义图像画面属性等其它内容或者参数。 到步骤 220。
图像数据来源用于表示视频图像的输入信息, 即针对该视频图像输出 的图像数据的源端信息。 图像数据来源可以是预置的视频文件, 也可以是 某个或某些参加视频会议的参会用户信息。 当然, 还可以是预置的视频文 件和某个参加视频会议的参会用户信息、或者预置的视频文件和某些参加 视频会议的参会用户信息。 当视频图像的输入信息包括多个源端时, 可能 需要进行多画面显示。
图像数据输出用于表示视频图像的输出信息, 即针对该视频图像的图 像数据 (图像数据也可以称为视频数据 )的目的端信息。 该目的端信息可 以为收看视频图像的参会用户信息, 即该视频图像的图像数据的接收方参 会用户信息。 该目的端信息也可以为视频文件的存储信息, 即该视频图像 输入的图像数据输出到媒体资源服务器或其他网络设备的视频文件中。 图 像数据输出信息可以是某个参加视频会议的参会用户信息, 可以是某些参 加视频会议的参会用户信息,还可以是某个参加视频会议的参会用户信息 和视频文件的存储位置信息, 或者还可以是某些参加视频会议的参会用户 信息和视频文件的存储位置信息。
其它具体实施方式中,还可以为创建的视频图像定义其他内容或者参 数。 如定义该视频图像所在的视频会议, 该视频图像的备注信息等等用于 说明视频图像的信息; 再如, 为视频图像定义图像画面属性, 相当于修改 创建的视频图像的图像画面属性。 在此不再——例举。
执行定义视频图像操作的网络设备可以为媒体资源服务器。媒体资源 服务器可以在成功创建了视频图像后,根据其存储的缺省设置信息为创建 的视频图像进行定义操作。媒体资源服务器也可以在接收到携带有定义图 像信息的消息后, 为创建的视频图像定义图像数据来源、 图像数据输出和 图像画面属性等参数。 该定义图像信息可以包括图像标识信息、 图像数据 来源、 和图像数据输出信息。 可选的, 定义图像信息中还可以包括图像画 面属性信息。 用于定义操作的缺省设置信息中也可以包括图像标识信息、 图像数据来源、 和图像数据输出信息。
携带有定义图像信息的消息可以是专用于承载定义图像信息的消息, 也可以是现有消息。 在利用现有消息来携带定义图像信息时, 可以对该现 有的消息进行扩展, 以在现有消息中携带定义图像信息。 发送携带有定义 图像信息的消息的实体可以为视频业务管理侧,视频业务管理侧如 AS、或 S-CSCF实体。
媒体资源服务器在针对创建的视频图像执行了定义操作后,可以可选 的向视频业务管理侧发送响应消息。该响应消息中可以携带成功为视频图 像进行定义的信息, 也可以携带未成功为视频图像进行定义的信息。 成功 为视频图像进行定义的信息可以包括: 视频会议的标识信息、 及为视频图 像定义的各参数等。
在执行了定义操作后, 媒体资源服务器存储有该视频图像的信息。 例 如, 媒体资源服务器为该视频图像存储了一条记录, 该记录包括: 图像标 识信息、 图像画面属性信息、 图像数据来源信息、 图像数据输出信息等。 这样, 虽然该视频图像的图像数据来源可能是多个, 该视频图像的图像数 据输出信息也可能是多个, 但是, 媒体资源服务器只需要存储一条记录。 媒体资源服务器存储视频图像的信息的操作可以分步骤完成。 例如, 在创 建视频图像过程中,为该视频图像存储图像标识信息、图像画面属性信息, 在定义操作过程中,在该视频图像存储的信息中增加图像数据来源信息和 图像数据输出信息。
不同的实施方式中, 下述内容具体可以为不同的情况, 能够为本领域 技术人员进行替换或者改进, 在此将不贅述。 例如, 为视频图像进行定义 操作的触发条件, 携带有定义图像信息的消息的具体名称、 响应消息中携 带的信息内容、 以及视频业务管理侧所表现出来的具体的网络设备名称。
步骤 220、 针对具有图像标识信息的视频图像获取图像数据, 即根据 具有图像标识信息的视频图像的图像数据来源获取图像数据。到步骤 230。
执行步骤 220的网络设备可以为媒体资源服务器。媒体资源服务器可 以在成功的执行了视频图像定义操作后, 直接根据为该视频图像定义的图 像数据来源获取图像数据。媒体资源服务器也可以在接收到携带有获取图 像数据信息的消息后,再根据为该视频图像定义的图像数据来源获取图像 数据。 获取图像数据信息中包含有图像标识信息。
携带有获取图像数据信息的消息可以是专用于承载获取图像数据信 息的消息, 也可以是现有消息。 在利用现有消息来携带获取图像数据信息 时, 可以对该现有的消息进行扩展, 以在现有消息中携带获取图像数据信 息。
发送携带有获取图像数据信息的消息的实体可以为视频业务管理侧, 视频业务管理侧如 AS、 或 S-CSCF实体。
媒体资源服务器根据图像数据来源信息获取的图像数据可以是一个 或多个预置的视频文件; 也可以是输入用户的图像数据, 即输入用户的视 频; 还可以是预置的视频文件和输入用户的图像数据。 这里的输入用户可 以为一个或多个。 也就是说, 媒体资源服务器获取图像数据的过程可以是 查找已存储的预置的视频文件, 也可以是接收输入用户发送来的图像数 据, 还可以同时包括上述查找和接收过程。
媒体资源服务器在获取了图像数据后, 可以可选的向视频业务管理侧 发送上报消息。 该上报消息中可以携带成功获取图像数据的信息, 也可以 携带未成功获取图像数据的信息。 成功获取图像数据的信息可以包括: 图 像标识信息、 图像数据来源信息、 以及成功获取图像数据标识信息等。
在不同的实施方式中, 下述内容具体可以为不同的情况, 能够为本领 域技术人员进行替换或者改进, 在此将不贅述。 例如, 获取图像数据的触 发条件, 携带有获取图像数据信息的消息的具体名称、 上报消息中携带的 信息内容、 查找预置的视频文件的过程、 预置的视频文件存储的位置、 以 及视频业务管理侧所表现出来的具体的网络设备名称等等。
步骤 230、 针对具有图像标识信息的视频图像发送获取的图像数据, 即根据具有图像标识信息的视频图像的图像数据输出获取图像数据。
执行步骤 230的网络设备可以为媒体资源服务器。媒体资源服务器可 以在成功的执行了获取图像数据的操作后, 直接根据为该视频图像定义的 图像数据输出发送图像数据。媒体资源服务器也可以在接收到携带有发送 图像数据信息的消息后,再为该视频图像定义的图像数据输出发送图像数 据。 发送图像数据信息中包含有图像标识信息。 该发送图像数据的步骤包 括向参会用户发送图像数据、 和 /或将图像数据发送到视频文件中。 当图 像数据输出为视频文件时, 实现了视频录制; 当图像数据来源为预置的视 频文件, 或者用户、 且图像数据输出为用户时, 实现了视频播放。
携带有发送图像数据信息的消息可以是专用于承载发送图像数据信 息的消息, 也可以是现有消息。 在利用现有消息来携带发送图像数据信息 时, 可以对该现有的消息进行扩展, 以在现有消息中携带发送图像数据信 息。
发送携带有获取图像数据信息的消息的实体可以为视频业务管理侧, 即视频业务管理设备, 视频业务管理侧如 AS、 或 S-CSCF实体。
媒体资源服务器根据一个或多个预置的视频文件发送图像数据; 也可 以根据接收到的输入用户的图像数据来发送图像数据;还可以根据预置的 视频文件和输入用户的图像数据来发送图像数据。这里的输入用户可以为 一个或多个。 也就是说, 根据视频图像的图像数据来源、 以及图像画面属 性的不同,媒体资源服务器向参会用户发送的图像数据可以在参会用户处 呈现为单画面方式、 或者画中画方式, 或者呈现为多画面方式等。
媒体资源服务器执行了发送图像数据操作后, 可以可选的向视频业务 管理侧发送上报消息。 该上报消息中可以携带已发送图像数据的信息, 也 可以携带不能够成功发送图像数据的信息。
不同的实施方式中, 下述内容具体可以为不同的情况, 能够为本领域 技术人员进行替换或者改进, 在此将不贅述。 例如, 发送图像数据的触发 条件, 携带有发送图像数据信息的消息的具体名称、 上报消息中携带的信 息内容、 发送的图像数据在参会用户处呈现的具体形式、 录制视频文件的 过程、 录制的视频文件存储的位置、 以及视频业务管理侧所表现出来的具 体的网络设备名称等等。
需要说明的是, 在对视频图像进行了定义后, 可以修改为视频图像定 义的信息。 例如, 在视频会议进行过程中, 可能会由于用户加入视频会议 或者参会用户退出视频会议而导致视频图像的图像数据来源、 图像数据输 出等参数发生变化, 从而需要修改视频图像的参数。 修改的内容可以为: 修改视频图像的图像数据输出, 从而改变收看视频图像的对象。 或者, 在 视频图像的图像数据来源中增加和 /或减少参会用户信息等。 上述修改可 以在视频播放、 视频录制等过程中进行, 也可以在视频播放、 视频录制等 过程之前进行。修改视频图像参数的过程就是对视频图像参数重新定义的 过程, 因此, 修改视频图像参数的过程也可以称为对视频图像的重新定义 过程。
上述修改视频图像的参数的过程可以为: 视频业务管理侧向媒体资源 服务器发送修改信息 ,媒体资源服务器根据接收到的修改信息来修改其存 储的视频图像的参数。 媒体资源服务器存储的视频图像的参数可以包括: 图像标识信息、 图像画面属性信息、 图像数据来源、以及图像数据输出等。
由于媒体资源服务器处存储的视频图像的参数是以视频图像为对象 的, 因此, 可以避免针对每个收看视频图像的参会用户均维护一条记录的 现象。
媒体资源服务器可以在重新定义视频图像的参数后, 向视频业务管理 侧返回响应信息, 以通知视频业务管理侧成功定义该视频图像的参数。
在其它实施方式中, 在视频会议结束时, 或者在视频图像的图像数据 来源都退出视频会议, 或者在收看视频图像的参会用户都退出视频会议等 需要删除视频图像的情况下, 媒体资源服务器需要删除对应的视频图像。 媒体资源服务器可以根据接收到的删除图像信息删除对应的视频图像,例 如,媒体资源服务器接收视频业务管理侧发送来的携带有删除图像信息的 消息, 媒体资源服务器从删除图像信息中获取图像标识信息, 并删除具有 该图像标识的视频图像。
媒体资源服务器可以在删除视频图像后, 向视频业务管理侧返回响应 信息, 以通知视频业务管理侧成功删除该视频图像。
从上述发送图像数据的步骤 210、 步骤 220、 步骤 230可看到, 虽然 视频图像的收看用户或者其它接收对象可能是多个, 但是, 由于视频业务 管理侧是针对视频图像下发命令(如发送命令等) , 因此, 可以通过一条 命令来表示向多个用户或者其它接收对象发送图像数据,从而避免分别针 对每个用户或者其它接收对象的接收分别发送命令。 同理, 虽然视频图像 的来源可以是多个用户或者视频文件, 但是, 由于视频业务管理侧是针对 视频图像下发命令(如发送命令等) , 因此, 可以通过一条命令来表示从 多个用户或者其它视频文件获取图像数据,从而避免分别针对每个用户或 者其它视频文件分别发送获取图像数据的命令。 这样不但简化了发送、 获 取图像数据的过程, 而且, 媒体资源服务器可以不需要考虑为多个参会用 户播放同一视频图像时的时间同步问题。
通过前述发明实施方式, 可以建立一种基于图像的视频会议模型, 该 视频会议模型包括视频会议层、 图像层和用户层。 视频会议层可以包含视 频会议的会议 ID、会议属性等。 图像层包括一个或多个视频图像, 图像层 可以使视频会议中一些的操作体现为针对图像的操作。用户层可以包含一 个或多个参会用户; 一个参会用户可以为图像层中的一个或多个视频图像 提供输入数据 ,但是,一个参会用户只能够接收一个视频图像的图像数据 , 而且, 多个参会用户可以同时收看同一个视频图像的图像数据 (即一个视 频图像的输出可以包括一个或多个用户) 。
图 2是一个视频会议模型具体实施方式的示意图,该基于图像的视频 会议模型的一个具体的例子可以如图 2所示。图 2中定义了三个视频图像, 这三个视频图像均对应有图像标识、 图像数据来源、 图像数据输出和图像 画面属性。这三个视频图像的图像标识分别为: Image Image2和 Image3。 其中, 视频图像 Imagel的输入为预置的视频文件, 视频图像 Imagel 的输出为用户 A, 即用户 A收看预置的视频文件。视频图像 Image2的输入 为用户 B和用户 C, 视频图像 Image2的输出为用户 C。 视频图像 Image3 的输入为用户 C, 视频图像 Image3的输出为用户 B。 这三个视频图像的图 像画面属性可以根据实际需要设定, 例如, 图像画面属性可以包括: 画面 大小、 画面背景色、和多画面属性等。 多画面属性如四画面、或六画面等。
从图 2所示的基于图像的视频会议模型中可以看出,视频会议中的一 些操作均为针对视频图像进行的操作, 也就是说, 不论视频会议是要实现 演讲模式、 多画面业务、 视频播放、 视频录制、 或者扩展新的视频业务, 都是以视频图像为对象进行操作的。 通过执行创建视频图像的操作、 通过 执行为视频图像定义图像数据来源、 图像数据输出、 图像画面属性(视频 图像的输入数据如何构成图像)的操作、 通过执行为视频图像获取发送图 像数据的操作, 不仅可以屏蔽参会用户之间的数据交互关系, 而且, 可以 实现通过一条独立的协议请求操作指定哪些参会用户收看哪些图像数据 来源的图像数据。 另外, 该基于图像的视频会议模型更符合视频会议业务 逻辑,从而使视频会议业务能够根据参会用户不同的业务属性控制参会用 户看不同的视频图像, 使视频会议业务的实现层次清晰。 并且, 该基于图 像的视频会议模型有利于视频业务的扩展, 例如, 如果目前的视频会议支 持的 6画面功能需要扩展到 16画面功能, 则只需要针对视频图像进行视 频会议业务接口的扩展即可, 即只要媒体资源服务器支持修改后的图像画 面属性即可。
图 3是图 2中的视频会议模型的一个应用场景示意图, 如图 3所示, 为一种在 IMS中的实现视频会议的系统。该系统包括 MRF、 AS以及 S-CSCF。
在图 3所示的 IMS中, MRF为媒体资源服务器, MRF的媒体资源控制 接口分别为 Mr接口和 Sr接口。 Mr接口为置 F与 S-CSCF之间的接口, Sr 接口为 AS与 MRF之间的接口。 AS和 S-CSCF可以均为视频业务管理设备。 Mr 接口、 和 Sr 接口可以均为基于会话启动十办议 ( Ses s ion Ini t iat ion Protocol , 简称: S IP ) 的接口。 这样, 在 IMS应用场景中, 可以通过扩 展 Mr接口和 Sr接口的 SIP协议来实现 AS (或 S-CSCF ) 、 以及 MRF针对 视频图像的操作, 如 AS (或 S-CSCF )对置 F创建视频图像、 定义视频图 像等的控制; 再如, MRF向 AS或者 S-CSCF上报处理结果信息等。
在一具体实施方式中, 可以进行如下操作来实现针对视频图像的视频 会议: 创建图像(Creat lmage )操作、 处理图像( Operatelmage )操作、 图像事件(Resul t lmage )、 以及删除图像( Deletelmage )操作。 具体的, 包括:
进行创建图像(Creat lmage)操作, 以便使 AS或 S-CSCF指示媒体资源 服务器创建视频图像,媒体资源服务器根据 AS或 S-CSCF的指示创建视频 图像。根据实际需要媒体资源服务器还可以为创建的视频图像实例分配资 源、 并激活该视频图像实例; 例如, 在需要录制视频文件时, 需要为视频 图像实例分配资源。 Cr ea t Image 操作的参数可以包括 Image I d、 ImageS izelnf o、 和 ImageBackColor等。
进行图像处理 Operatelmage操作, 以便使媒体资源服务器为创建的 视频图像进行定义。 例如定义视频图像的图像数据来源、 图像数据输出、 图像画面属性等。 Operatelmage 操作的参数可以包括 Imageld、 Imagelnput , 和 ImageOutput等。
进行图像事件 Resul t lmage操作, 以便使媒体资源服务器向 AS (或
CSCF )返回图像处理的结果信息。 例如, 视频播放完成、 图像数据录制完 成等。 Resul t lmage操作的参数可以包括 Imageld和 ImageResul t等。
进行图像删除 Deletelmage操作, 以便使媒体资源服务器删除某个或 某些视频图像, 且在视频图像分配有资源时, 媒体资源服务器还可以译放 该视频图像占用的资源。 Deletelmage操作的参数可以包括 Imageld等。
上述 Image I d参数用于表示视频会议中的一个视频图像, 即为视频图 像的图像标识。 一个视频会议中可以存在一个或者多个视频图像, 多个视 频图像之间可以通过 Imageld来标识区分, 一个 Imageld仅标识一个视频 图像。
上述 ImageS i zelnfo参数用于表示视频图像的画面大小。
上述 ImageBackCo lor参数用于表示视频图像的背景色。
上述 Imagelnput用于表示视频图像的图像数据来源, 即视频图像的 输入。 如果图像数据来源包括参会用户的图像数据, 则 Imagelnput需要 能够表示出参会用户信息,进一步地, Imagelnput还可以表示出参会用户 的图像数据(即参会用户的画面)在图像中的位置、以及缩放比例等信息。 如果图像数据来源包括预置的视频文件数据, 则 Image lnput需要表示出 该视频文件本身的属性(如文件名等), 进一步地, Imagelnput还可以表 示出视频文件对应的画面在视频图像中的位置、 缩放比例、 以及播放时长 等信息, 从而实现了视频播放功能。 如果为了实现文字显示功能(即在画 面中显示文字的功能) , 则 Imagelnput需要能够表示出字符串内容、 字 体、 以及字库类型等信息, 进一步地, Imagelnput还可以表示出字符串在 收看画面中的位置、 以及缩放比例等信息。
上述 ImageOutput参数用于表示视频图像的图像数据输出信息。如果 图像数据输出到参会用户, 则 ImageOutput需要表示出参会用户信息。 如 果为了实现录像功能(即图像数据输出到视频文件) , 则 Imagelnput需 要能够表示出该视频文件本身的属性(如文件名) 、 视频文件的格式、 图 片大小、 以及帧频等信息。
上述 ImageResu l t参数用于表示图像处理操作的执行结果信息。媒体 资源服务器在完成图像处理操作后, 通过 ImageResul t参数可以向 AS等 视频业务应用层(即视频业务管理侧)反馈图像处理操作的执行结果信息。
上述四种操作可以体现为发送四种图像操作消息,本发明实施方式不 限制上述各参数在消息中的携带方式。另夕卜,视频会议终端可以通过向 AS 或 S-CSCF等视频业务管理设备发送相应的信息来触发上述操作; 例如, 视频会议终端向视频业务管理设备发送创建指示信息,以触发 Creat lmage 操作; 再例如, 视频会议终端向视频业务管理设备发送定义指示信息, 以 触发 Operate Image操作。
图 4是一个具体实施方式中图像操作消息的执行序列示意图, 如图 4 所示, 为应用图 3所示的 IMS系统中采用图像操作消息实现视频会议的一 个执行序列的示意图。
图 4中, AS或 S-CSCF通过创建图像 ( Creat lmage )操作消息触发媒 体资源服务器创建视频图像。 在创建视频图像之后, AS或 S-CSCF通过处 理图像(Operatelmage )操作消息触发媒体资源服务器执行为创建的视频 图像定义参数、 获取输入图像数据、 输出图像数据等操作。 媒体资源服务 器在执行处理图像( Operatelmage )操作消息触发的图像处理操作过程中, 可以通过图像事件(Resul t lmage ) 消息向 AS或 S-CSCF上报图像处理操 作的执行结果信息。 AS或 S-CSCF可以根据媒体资源服务器上报的执行结 果信息继续执行视频会议业务逻辑。 AS在执行视频会议业务逻辑过程中如 果确定需要继续进行图像处理操作, 则 AS或 S-CSCF可以继续向媒体资源 服务器下发处理图像(Opera telmage )操作消息, 以指示媒体资源服务器 继续进行后续的图像处理操作。 在整个视频图像的图像处理操作过程中, AS 或 S-CSCF 可以和媒体资源服务器之间进行多次的处理图像 ( Operatelmage )操作消息和 Resul t lmage消息的交互。 如果不需继续进 行图像处理操作, 则 AS或 S-CSCF可以向媒体资源服务器下发删除图像 ( Deletelmage )操作消息, 以结束图像处理操作流程。 在上述各操作过 程中, 如果各操作是对应同一个视频图像的, 则各操作消息中的图像标识 ID ( Imageld ) 必须相同。
在另一实施例中, 如果上述各图像操作消息在 SIP中实现, 则可以通 过对 SIP消息体进行扩展, 来实现在 SIP消息体中携带图像操作消息, 从 而完成 AS或 S-CSCF对媒体资源服务器进行前述的图像创建操作、 图像处 理操作和图像删除操作的控制、 以及媒体资源服务器向 AS或 S-CSCF上报 图像事件操作结果信息的图像事件操作。
利用 SIP来实现各图像操作消息的一个具体的例子可以为,在 SIP消 息体中增加新的应用类型, 如增加应用类型为 vid 的内容类型 (Content-Type) , 在消息体中携带具体的图像操作信息, 如创建图像的 信息、 处理(定义) 图像的信息、 删除图像的信息、 以及上报内容等。
如果在 SIP消息体中增加上述内容类型, 则可以在 SIP消息中进行如 下定义:
Con t en t-type=<Con tent- type. armater>
Con tent- type. parmater= "appl icat ion/vid
上述定义表示: 当 content - type的值为 appl icai tong/vid时, 贝1 J消 息体中携带的信息为图像操作信息。
消息体中携带的图像操作信息可以定义为如下格式:
MessageType=< message-type >
Message. len = <length_value>
MessageContent=< message-content >;
message - type= " c i " / " o i " / " r i " / "di" /
length_value=l* ( DIGIT )
message - content= byte-string
在上述定义中 , ci表示 Creatlmage操作, oi表示 Operatelmage操 作, ri表示 Resultlmage操作, di表示 Deletelmage操作; message-type 参数可以设置为必选参数。
上述定义中的 Message— len表示在消息体中携带的 message-content 参数的长度; Message. len参数可以设置为可选参数,在 message-content 中携带有图像标识信息等信息时, 可以设置 Me s s a ge _ 1 en参数。 上述定义中的 message-content携带有图像操作中需要的参数数据, 如图像标识信息等。 message-content可以设置为可选参数, 在图像操作 中需要参数数据时, 才可以在 message-content 中携带信息。 message-content 中携带的信息长度可以由 Message.len 参数来表示。 message-content 的位置可以与 Message. len 邻接, 并可以设置在 Message.len参数之后。 message-content可以由 AS或 S-CSCF的上层业 务设置, 并由 MRF的业务脚本进行接收和解析。
下面以视频业务管理侧为 AS、媒体资源服务器为 MRS、应用场景为 IMS 为例, 结合图 5-图 11对视频会议实现方法进行说明。
图 5是另一个视频会议实现方法具体实施方式的流程图,本发明实施 方式的视频会议实现方法流程图如图 5所示。
步骤 501、 AS向 MRS发送邀请 ( INVITE )消息, 以建立参会用户设备 (User Equipment, 简称: UE)与 MRS之间的连接。 INVITE消息的消息体 中携带有 UE的会话描述协议 ( Session Description Protocol, 简称: SDP)信息。
步骤 502、 MRS接收到 AS发送来的邀请 ( INVITE ) 消息后, 向 AS返 回 2000K响应消息。 MRS可以在该 2000K响应消息中携带 MRF本地的 SDP 信息。
步骤 503、 AS接收到 2000K响应消息后, 向 MRS返回确认( ACK ) 消 息。
如果参加视频会议的参会用户包括用户 A、 用户 B和用户 C, 则针对 每个用户, AS和 MRS之间均需要进行上述步骤 1至步骤 3的操作。通过上 述步骤后, 用户 A、 B、 C加入视频会议。 之后, 建立 MRS和各参会用户之 间的媒体流连接。
用户 A、 用户 B、 用户 C加入视频会议、 且建立了 MRS和各参会用户 之间的媒体流连接的示意图如图 6所示。 图 6是一个具体实施方式中 MRS和用户之间的媒体流连接示意图,从 图 6中可以看出, 虽然用户 A、 用户 B、 用户 C分别与 MRS建立了媒体流 连接, 但是, 用户 A、 用户 B、 用户 C看到的远程图像均是黑屏。
步骤 504、 AS在 UE与 MRS建立媒体流连接后,向 MRS发送 INFO消息、 且 INFO消息体中携带有创建图像 ( Create Image ) 消息。
I NF0消息中携带的创建图像消息的一个具体例子可以为:
Content-Length: ...
Content-Type=ap l icat ion/vid
Mes sageType=c i
Mes sage. len=60
Mes sageContent=ImageId: 1; ImageS izelnf o: c if ; ImageBackColor: R GB (255, 255, 255)
上述创建图像消息表示: 针对图像 1 , 图像大小为 c if , 图像背景色 为 RGB。
步骤 505、 MRS在接收到 INF0消息后, 向 AS返回 200 0K消息; 与此 同时, MRS根据 INF0消息中携带的创建图像消息执行视频图像的创建操作。
图 7是一个创建视频图像具体实施方式的示意图, 如图 7所示, 为一 个具体例子中, 创建的视频图像的示意图。 在图 Ί中, MRS根据 INF0消息 中携带的创建图像消息成功创建了两个视频图像, 这两个视频图像的图像 标识分别为图像 1和图像 2。 图像 1和图像 2是与视频会议相关联的视频 图像, 即图像 1和图像 2是视频会议中的视频图像。 MRS可以设置两个视 频图像的图像属性信息,如设置视频图像的图像大小、背景色等信息。 MRS 可以根据其存储的缺省设置信息来设置视频图像的图像属性信息,也可以 根据 AS发送来的 INF0消息携带的创建图像消息中的信息来设置视频图像 的图像属性信息。
需要说明的是,视频图像的创建过程也可以和视频会议的创建过程合 二为一, 即在创建视频会议时, 默认创建若干个和视频会议相关联的视频 图像。
步骤 506、 AS向 MRS发送 INFO消息、 且 INFO消息体中携带有图像处 理(Operate Image)操作消息, 以指示 MRS执行定义视频图像、 获取输入 图像数据、 发送图像数据等图像处理操作。
I NF0消息体中携带的图像处理操作消息的一个具体例子为:
Content-Length: ...
Content-Type=ap l icat ion/vid
Mes sageType=oi
Mes sage. len=45
Mes sageContent=ImageId: 1; Imagelnput: userA; ImageOutput: userB 上述图像处理操作消息表示: 针对图像 1 , 图像数据来源 (即输入) 为用户 A, 图像数据输出为用户 B; 即指示 MRS将用户 A的视频发送到用 户 B。 在上述例举的图像处理操作消息中, 是将图像数据来源和图像数据 输出通过一条 SIP消息来传输的,本发明实施方式也可以将图像数据来源 信息和图像数据输出信息通过多条 SIP消息来传输。
步骤 507、 MRS接收到 INF0消息后, 向 AS发送 200 0K响应消息, 与 此同时, MRS根据 INF0消息体的图像处理操作消息中携带的信息执行图像 处理操作。
例如为视频图像 1进行前述步骤 506中的定义 (图像数据来源为用户 A, 图像数据输出为用户 B ) , 并获取用户 A的视频, 将获取的用户 A的图 像数据发送给用户 B , 即向用户 B发送用户 A的图像数据。
对于前述步骤 506〜步骤 507 , 该定义视频图像的内容可以包括多种 不同的状态。 针对同一视频图像可以先后或者同时进行不同方面的定义; 对于不同的视频图象也可以先后或者同时进行相同或者不同的定义。或者 说, AS可以修改视频图像的图像数据输出信息和 /或图像数据来源, 即视 频图像可以切换, AS可以通过向 MRS下发图像切换操作信息, 以实现将某 视频图像发送到其他用户处、 或发送到其他视频文件处。
图 8是一个为视频图像设定图像数据来源具体实施方式的示意图。例 如,一个定义视频图像的内容为指定或者定义视频图像 1的图像数据来源 为用户 A和用户 C , 这时, 视频会议模型的状态如图 8所示。 其中, 用户
A的图像数据用黑色的人物剪影表示, 用户 C的图像数据用白色的人物剪 影表示, 视频图像 1用并列的黑色的人物剪影和白色的人物剪影表示。
图 9是一个为视频图像设定图像数据输出具体实施方式的示意图。 另 一个定义视频图像的内容为指定或者定义视频图像 2的图像数据来源为用 户 B、 且图像 2的图像数据输出为用户 A、 用户 B和用户 C。 这时, 视频会 议模型的状态如图 9所示。 其中, 用户 B的视频图像和视频图像 2的图像 数据来源都用灰色的人物剪影表示。
图 1 0是另一个为视频图像设定图像数据输出具体实施方式的示意图。 又一个定义视频图像的内容为指定或者定义视频图像 1的图像数据来源为 用户 A和用户 C、 且图像 1的图像数据输出为用户 B和用户 C。 这时, 视 频会议模型的状态如图 10所示。 其中, 用户 A的图像数据用黑色的人物 剪影表示, 用户 C的图像数据用白色的人物剪影表示, 视频图像 1用并列 的黑色的人物剪影和白色的人物剪影表示。
图 11是一个发送视频图像的图像数据具体实施方式示意图。 又一个 定义视频图像的内容为指定或者定义视频图像 1的图像数据来源为预置的 视频文件、 视频图像 1的图像数据输出为用户 B和用户 C; 并且视频图像 2的图像数据来源为用户 B、 图像 2的图像数据输出为视频文件和用户 A。 这时, 视频会议模型的状态如图 11所示。 其中, 预置的视频文件用 M型 图标表示, 用户 B的视频图像、 视频图像 2的图像数据来源、 视频图像 2 的图像数据输出都用灰色的人物剪影表示。
步骤 508、 MRS在执行完成 INFO消息要求的图像处理操作后, 向 AS 上报携带有图像处理操作消息体的 INFO 消息, 以便将图像处理结果 (Resul t Image)如视频播放完成、 视频录制完成等信息上报给 AS。
I NF0消息携带的图像处理操作消息体的一个具体的例子可以为:
Content-Length: ...
Content-Type=ap l icat ion/vid
Mes sageType=r i
Mes sage. len=30
Mes sageContent=ImageId: 1; ImageResul t: Succes s
上述图像处理消息体表示: 针对图像 1 , 视频播放成功完成。
步骤 509、 AS接收到 INFO消息后, 向 MRS返回 200 0K响应消息。 步骤 510、 AS向 MRF发送携带有图像处理操作消息体的 INF0消息, 以指示 MRS删除视频图像。 例如, 当视频图像不存在收看的参会用户时, AS要求 MRS删除视频图像。
I NF0消息携带的图像处理操作消息体的一个具体的例子可以为:
Content-Length: ...
Content-Type=ap l icat ion/vid
Mes sageType=di
Mes sage_ len=10
Mes sageContent=ImageId: 1
上述图像处理操作消息体表示: 删除图像 1。
步骤 511、 MRS接收到 AS发送的 INF0消息后, 向 AS返回 200 0K响 应消息,与此同时, MRF根据 INF0消息中携带的删除图像消息体执行视频 图像删除操作, 以删除对应的视频图像, 如删除图像 1。
步骤 512、 AS根据参会用户的状态变化向 MRS发送 BYE请求, 以译放 视频会议中的某个参会用户的会话, 如某个参会用户需要退出视频会议, 则 AS向 MRS发送 BYE请求。 步骤 513、 MRS接收到 BYE请求后, 向 AS返回 200 OK响应消息。 在图 5所示的流程中, 是在成功创建了视频会议后, 才创建视频图像 的。 另一个具体实施方式中也可以在创建视频会议过程中创建视频图像, 例如, 创建视频会议的消息中携带有创建图像信息。 从而可以简化视频图 像的创建过程。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到本 发明可借助软件加必需的硬件平台的方式来实现, 当然也可以全部通过硬 件来实施, 但很多情况下前者是更佳的实施方式。 基于这样的理解, 本发 明的技术方案对背景技术做出贡献的全部或者部分可以以软件产品的形 式体现出来, 该计算机软件产品可以存储在存储介质中, 如 ROM/ RAM、 磁 碟、光盘等, 包括若干指令用以使得一台计算机设备(可以是个人计算机, 服务器, 或者网络设备等)执行本发明各个实施例或者实施例的某些部分 所述的方法。
从上述方法描述可知, 通过创建视频图像、 为视频图像定义图像数据 来源、 图像数据输出等操作, 建立了基于图像为对象的视频会议模型, 在 用户与视频会议之间抽象出图像层,使视频会议的操作可以针对视频图像 来实现,从而使基于图像为对象的视频会议模型更符合视频会议业务的要 求; 由于视频会议的操作是针对视频图像的, 因此, 可以避免针对多个参 会用户存在多条播放命令、针对每个收看视频图像的参会用户均维护一条 记录、 为多个参会用户播放同一视频图像时考虑时间同步等现象; 从而简 化了视频会议的操作, 提高了视频会议的可扩展性。
图 12是一个媒体资源设备具体实施方式的结构示意图, 为一个媒体 资源设备的结构示意图。
图 12中的媒体资源设备可以为媒体资源服务器。 在 IMS中, 媒体资 源设备可以为 MRF, 在 NGN中, 媒体资源设备可以为 MRS。 其可以执行前 述的视频会议的方法。 该媒体资源设备包括: 创建图像模块 121 0和处理图像模块 1220。 创建图像模块 1210为视频会议创建具有图像标识信息的视频图像。 创建图像模块 1210可以在创建视频会议的过程中创建视频图像, 也可以 在视频会议成功创建后再创建视频图像。 为视频会议创建的视频图像可以 为一个或多个。
创建图像模块 1210可以在接收到视频业务管理侧发送来的携带有创 建图像信息的消息后, 根据创建图像信息创建一个或多个视频图像; 创建 图像模块 1210也可以在没有接收到创建图像信息的情况下创建视频图像; 例如, 创建图像模块 1210接收到创建视频会议的消息、 且根据该消息成 功创建了视频会议后,根据媒体资源设备存储的缺省设置信息创建一个或 多个视频图像。
在根据消息中携带的创建图像信 , 创建视频图像的情况下,创建图像 模块 121 0可以包括创建图像子模块 12101和创建响应子模块 12102。
在创建视频会议过程中或者在视频会议创建后, 创建图像子模块 12101接收到视频业务管理侧发送来的携带有创建图像信息的消息后, 根 据消息中携带的创建图像信息为视频会议创建视频图像。
创建响应子模块 12102根据创建图像子模块 12101的创建执行情况向 视频业务管理侧返回响应消息。该响应消息中可以携带成功创建视频图像 的信息, 也可以携带未成功创建视频图像的信息。 成功创建视频图像的信 息可以包括: 视频会议的标识信息、 创建的视频图像的个数、 视频图像的 属性信息以及成功创建标识信息中的一个或多个。
在创建图像模块 1210成功创建了视频图像后,处理图像模块 1220为 成功创建的视频图像定义图像数据来源和图像数据输出, 并根据具有图像 标识信息的视频图像的图像数据来源获取图像数据,根据具有图像标识信 息的视频图像的图像数据输出信息发送图像数据。
处理图像模块 1220为视频图像定义的图像数据来源表示视频图像的 输入信息, 图像数据来源可以是预置的视频文件, 也可以是某个或某些参 加视频会议的参会用户信息, 当然, 还可以是预置的视频文件和某个参加 视频会议的参会用户信息、或者预置的视频文件和某些参加视频会议的参 会用户信息。
处理图像模块 1220为视频图像定义的图像数据输出表示视频图像的 输出信息。 图像数据输出信息可以是某个参加视频会议的参会用户信息、 或者某些参加视频会议的参会用户信息、和 /或视频文件的存储位置信息。
处理图像模块 1220还可以为创建的视频图像定义其他内容, 如定义 该视频图像所述的视频会议,该视频图像的备注信息等等用于说明视频图 像的信息; 再如, 处理图像模块 1220为视频图像定义图像画面属性(相 当于修改创建的视频图像的图像画面属性) 。 在此不再——例举。
处理图像模块 1220可以在接收到视频业务管理侧发送来的携带有定 义图像信息的消息后, 为创建的视频图像定义图像数据来源、 图像数据输 出和图像画面属性等参数。 处理图像模块 1220也可以在没有接收到定义 图像信息的情况下为创建的视频图像进行定义操作, 例如, 处理图像模块
1220根据媒体资源设备存储的缺省设置信息为创建的视频图像进行定义 操作。 处理图像模块 1220 可以根据视频业务管理侧的指示获取输入的图 像数据、 输出图像数据。
处理图像模块 1220可以包括: 定义子模块 12201、 获取子模块 12202 和发送子模块 12203。
定义子模块 12201根据视频业务管理侧发送来的定义图像信息为创建 的视频图像定义图像数据来源和图像数据输出, 并向视频业务管理侧返回 响应消息。 消息中携带的定义图像信息可以包括图像标识信息、 图像数据 来源、 和图像数据输出信息。 可选的, 定义图像信息中还可以包括图像画 面属性信息。如果定义子模块 12201是根据媒体资源设备中存储的缺省设 置信息来定义视频图像的, 则缺省设置信息中可以包括图像标识信息、 图 像数据来源、 和图像数据输出信息。 携带有定义图像信息的消息、 定义子 模块 12201返回的响应消息等如上述方法实施方式的描述。
需要说明的是, 在定义子模块 12201对视频图像进行了定义后, 还可 以修改为视频图像定义的信息, 例如, 在视频会议进行过程中, 可能会由 于用户加入视频会议或者参会用户退出视频会议而导致视频图像的图像 数据来源、 图像数据输出等参数发生变化, 从而定义子模块 12201需要修 改视频图像的参数。 修改的内容可以为: 修改视频图像的图像数据输出, 从而改变收看视频图像的对象。 当然, 定义子模块 12201也可以对视频图 像的其他定义信息进行修改,如定义子模块 12201在视频图像的图像数据 来源中增加和 /或减少参会用户信息等。 上述定义子模块 12201执行的修 改操作可以在视频播放、 视频录制等过程中进行, 也可以在视频播放、 视 频录制等过程之前进行。具体的修改过程可以如上述方法实施方式中的描 述。
定义子模块 12201可以在重新定义视频图像的参数后, 向视频业务管 理侧返回响应信息, 以通知视频业务管理侧成功定义该视频图像的参数。
获取子模块 12202根据视频业务管理侧发送来的图像标识信息查找视 频图像的图像数据来源, 并根据查找到的图像数据来源获取预置的图像数 据和 /或输入用户的图像数据。
具体的, 这里的图像标识信息可以是定义图像信息中携带的图像标识 信息,也可以是视频业务管理侧单独发送来的获取图像数据信息的消息中 携带的图像标识信息。 也就是说, 获取子模块 12202 可以在定义子模块 12201成功的执行了视频图像定义操作后, 直接根据为该视频图像定义的 图像数据来源获取图像数据; 获取子模块 12202也可以在接收到携带有获 取图像数据信息的消息后, 再根据获取图像数据信息中的图像标识信息、 为该视频图像定义的图像数据来源获取图像数据。
发送子模块 12203根据视频图像的图像数据输出信息向参会用户和 / 或视频文件发送获取子模块 12202获取的图像数据。
具体的,发送子模块 12203可以在获取子模块 1 2202成功的执行了获 取图像数据的操作后, 直接根据为该视频图像定义的图像数据输出发送图 像数据(包括向参会用户发送图像数据、 和 /或将图像数据发送到视频文 件中即录制视频文件)。 发送子模块 1 2203也可以在接收到携带有发送图 像数据信息的消息后,根据发送图像数据信息中的图像标识信息为该视频 图像定义的图像数据输出发送图像数据。发送子模块 12203根据一个或多 个预置的视频文件发送图像数据;发送子模块 12203也可以根据输入用户 的图像数据来发送图像数据; 还可以根据预置的视频文件和输入用户的图 像数据来发送图像数据。发送子模块 1 2203可以将图像数据发送至参会用 户, 以实现视频播放; 发送子模块 12203也可以将图像数据发送至视频文 件, 以实现视频录制。携带有发送图像数据信息的消息、输入用户的个数、 预置的视频文件的个数等如上述方法实施方式中的描述。
在其它具体实施例中, 媒体资源设备可以可选的包括图像事件模块 1230。 图像事件模块 1 230向视频业务管理侧上报处理图像模块 1 220的执 行情况,如向视频业务管理侧上报获取子模块 12202获取图像数据的执行 情况信息、 以及发送子模块 12203发送图像数据的执行情况信息。 上报消 息中携带的信息如上述方法实施方式中的描述。
本发明实施方式中的媒体资源设备可以可选的包括删除图像模块 1240。
删除图像模块 1 240根据视频业务管理侧发送来的删除图像信息中的 图像标识信息删除创建的视频图像。 删除图像模块 1240可以在删除视频 图像后, 向视频业务管理侧返回响应信息, 以通知视频业务管理侧成功删 除该视频图像。 具体如上述方法实施方式中的描述。
视频业务管理设备执行的操作如上述实施方式中视频业务管理侧、 以 及 AS或者 S-CSCF的描述。媒体资源设备执行的操作如上述实施方式中媒 体资源服务器的描述。 在此不再重复说明。
下面结合图 1 3对视频业务管理设备进行说明。
图 1 3是一个视频业务管理设备具体实施方式的结构示意图, 图 1 3中 的视频业务管理设备可以为 AS、或 S-CSCF等。视频业务管理设备 1 3包括: 创建指示模块 1 300和定义指示模块 1 310。视频业务管理设备 1 3还可以可 选的包括: 图像事件接收模块 1 320和 /或删除指示模块 1 330。
创建指示模块 1 300向媒体资源设备发送创建图像信息, 以指示媒体 资源设备为视频会议创建视频图像。 创建指示模块 1 300可以在其所在的 视频业务管理设备接收到视频会议终端发送来的创建指示信息后,根据该 创建指示信息向媒体资源设备发送创建图像信息。
定义指示模块 1 310向媒体资源设备发送包含有图像标识信息的定义 图像信息, 以指示媒体资源设备为具有所述图像标识信息的视频图像定义 图像数据来源和图像数据输出。 定义指示模块 1 310可以在其所在的视频 业务管理设备 1 3接收到视频会议终端发送来的定义指示信息后, 根据该 定义指示信息向媒体资源设备发送定义图像信息。
图像事件接收模块 1 320接收媒体资源设备上报的获取图像数据的执 行情况信息、以及发送图像数据的执行情况信息。 图像事件接收模块 1 320 可以将接收到的获取图像数据的执行情况信息、 以及发送图像数据的执行 情况信息发送至视频会议终端。
删除指示模块 1 330向媒体资源设备发送包含有图像标识信息的删除 图像信息, 以指示媒体资源设备删除具有该图像标识信息的视频图像。 删 除指示模块 1 330可以在接收到视频会议终端发送来的删除指示信息后, 向媒体资源设备发送上述删除图像信息。
下面以图 14为例对本发明实施方式提供的视频会议终端进行说明。 视频会议终端可以为普通的 PC机等。
图 14是一个视频会议终端具体实施方式的结构示意图, 图 14中的视 频会议终端 14包括: 创建模块 1400和定义模块 141 0。 视频会议终端 14 还可以可选的包括: 显示模块 1420和 /或删除模块 1430。
创建模块 1400在接收到外部输入的创建命令后, 根据该创建命令向 视频业务管理设备发送创建指示信息, 以触发视频业务管理设备向媒体资 源设备发送创建图像信息。 创建模块 1400可以通过自定义的消息发送创 建指示信息。
定义模块 1410在接收到外部输入的定义命令后, 根据该定义命令向 视频业务管理设备发送定义指示信息, 以触发视频业务管理设备向媒体资 源设备发送定义图像信息。 定义模块 1410可以通过自定义的消息发送定 义指示信息。
显示模块 1420接收视频业务管理设备发送来的获取图像数据的执行 情况信息、 以及发送图像数据的执行情况信息, 并显示接收到的执行情况 信息, 例如显示在屏幕上或通过打印机打印显示。
删除模块 1430在接收到外部输入的删除命令后, 向视频业务管理设 备发送删除指示信息, 以触发视频业务管理设备向媒体资源设备发送包含 有图像标识信息的删除图像信息。 删除模块 1430可以通过自定义的消息 发送删除图像信息。
虽然通过实施例描绘了本发明, 本领域普通技术人员知道, 本发明有 许多变形和变化而不脱离本发明的精神,本发明的申请文件的权利要求包 括这些变形和变^ 。 最后应说明的是: 以上实施例仅用以说明本发明的技术方案, 而非对其 限制; 尽管参照前述实施例对本发明进行了详细的说明, 本领域的普通技术 人员应当理解: 其依然可以对前述各实施例所记载的技术方案进行修改, 或 者对其中部分技术特征进行等同替换; 而这些修改或者替换, 并不使相应技 术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims

权 利 要 求
1、 一种视频会议实现方法, 其特征在于, 所述方法包括:
创建视频图像, 所述视频图像具有图像标识信息;
为所述创建的视频图像定义图像数据来源和图像数据输出;
根据具有图像标识信息的视频图像的图像数据来源和图像数据输出获取 并发送图像数据。
2、 如权利要求 1所述的方法, 其特征在于, 所述创建视频图像包括: 根据视频业务管理侧发送来的创建图像信息为视频会议创建视频图像。
3、 如权利要求 1所述的方法, 其特征在于, 所述为所述创建的视频图像 定义图像数据来源和图像数据输出包括:
根据视频业务管理侧发送来的定义图像信息为所述视频图像定义图像数 据来源和图像数据输出。
4、 如权利要求 1所述的方法, 其特征在于, 所述根据具有图像标识信息 的视频图像的图像数据来源和图像数据输出获取并发送图像数据包括: 根据与视频业务管理侧提供的图像标识信息对应的视频图像的图像数据 来源获取预置的图像数据和 /或获取输入用户的图像数据;
根据与视频业务管理侧提供的图像标识信息对应的视频图像的图像数据 输出向参会用户发送和 /或向视频文件发送所述获取的图像数据。
5、 如权利要求 1所述的方法, 其特征在于, 所述方法还包括: 存储所述视频图像的图像标识信息、 图像数据来源、 图像数据输出和图 像画面属性信息。
6、 如权利要求 1所述的方法, 其特征在于, 所述方法还包括: 根据视频业务管理侧发送来的信息修改所述视频图像的下述信息之一或 者任何组合: 图像数据来源、 图像数据输出、 图像画面属性; 和 /或所述方法还包括:
接收视频业务管理侧发送来的删除图像信息;
根据删除图像信息中的图像标识信息删除所述创建的视频图像。
7、 如权利要求 1 - 6 中任一权利要求所述的方法, 其特征在于, 所述方 法还包括:
向视频业务管理侧发送包含各步骤执行情况的上报消息, 该上报消息携 带已成功执行的信息或者携带不能够成功执行的信息。
8、 一种媒体资源设备, 其特征在于, 所述设备包括:
创建图像模块, 用于为视频会议创建视频图像, 所述视频图像具有图像 标识信息;
处理图像模块, 用于为所述创建的视频图像定义图像数据来源和图像数 据输出, 并根据具有图像标识信息的视频图像的图像数据来源和图像数据输 出信息获取并发送图像数据。
9、 如权利要求 8所述的设备, 其特征在于, 所述创建图像模块包括: 创建图像子模块, 用于根据视频业务管理侧在创建视频会议过程中或者 在视频会议创建后发送来创建图像信息为视频会议创建视频图像;
创建响应子模块, 用于根据创建图像子模块的创建执行情况向视频业务 管理侧返回响应信息。
10、 如权利要求 8所述的设备, 其特征在于, 所述处理图像模块包括: 定义子模块, 用于根据视频业务管理侧发送来的定义图像信息为所述创 建的视频图像定义图像数据来源和图像数据输出, 并向视频业务管理侧返回 响应信息;
获取子模块,用于根据与视频业务管理侧提供的图像标识信息对应的视频 图像的图像数据来源获取预置的图像数据、 和 /或获取输入用户的图像数据; 发送子模块, 用于根据与视频业务管理侧提供的图像标识信息对应的视 频图像的图像数据输出向参会用户发送、和 /或向视频文件发送所述获取子模 块获取的图像数据。
11、 如权利要求 8所述的设备, 其特征在于, 所述设备还包括: 图像事件模块, 用于向视频业务管理侧上报所述获取图像数据的执行情 况信息、 以及发送图像数据的执行情况信息; 和 /或
删除图像模块, 用于根据视频业务管理侧发送来的删除图像信息中的图 像标识信息删除所述创建的视频图像, 并向视频业务管理侧返回响应信息。
12、 一种视频会议实现方法, 其特征在于, 所述方法包括:
向媒体资源设备发送创建图像信息 , 以指示媒体资源设备为视频会议创 建视频图像;
向媒体资源设备发送包含有图像标识信息的定义图像信息,以指示某体资源 设备为具有所述图像标识信息的视频图像定义图像数据来源和图像数据输出。
1 3、 如权利要求 12所述的方法, 其特征在于, 所述方法还包括: 接收媒体资源设备上报的获取图像数据的执行情况信息、 以及发送图像 数据的执行情况信息; 和 /或
向媒体资源设备发送包含有图像标识信息的删除图像信息 , 以指示媒体 资源设备删除具有所述图像标识信息的视频图像。
14、 一种视频业务管理设备, 其特征在于, 所述设备包括:
创建指示模块, 用于向媒体资源设备发送创建图像信息, 以指示媒体资 源设备为视频会议创建视频图像;
定义指示模块, 用于向媒体资源设备发送包含有图像标识信息的定义图 像信息 , 以指示媒体资源设备为具有所述图像标识信息的视频图像定义图像 数据来源和图像数据输出。
15、 如权利要求 14所述的设备, 其特征在于, 所述设备还包括: 图像事件接收模块, 用于接收媒体资源设备上报的获取图像数据的执行 情况信息、 以及发送图像数据的执行情况信息; 和 /或
删除指示模块, 用于向媒体资源设备发送包含有图像标识信息的删除图 像信息, 以指示媒体资源设备删除具有所述图像标识信息的视频图像。
16、 一种视频会议实现系统, 其特征在于, 所述系统包括:
视频业务管理设备,用于向媒体资源设备发送创建图像信息、定义图像信息; 媒体资源设备, 用于根据接收到的创建图像信息为视频会议创建具有图 像标识信息的视频图像, 根据接收到的定义图像信息为所述创建的视频图像 定义图像数据来源和图像数据输出, 根据具有图像标识信息的视频图像的图 像数据来源和图像数据输出获取并发送图像数据。
17、 如权利要求 16所述的系统, 其特征在于, 所述系统还包括: 视频会议终端, 用于接收外部输入的创建命令, 并向视频业务管理设备 发送创建指示信息, 以触发视频业务管理设备向媒体资源设备发送创建图像 信息; 接收外部输入的定义命令, 并向视频业务管理设备发送定义指示信息, 以触发视频业务管理设备向媒体资源设备发送定义图像信息。
18、 一种视频会议终端, 其特征在于, 所述终端包括:
创建模块, 用于接收外部输入的创建命令, 并向视频业务管理设备发送 创建指示信息,以触发视频业务管理设备向媒体资源设备发送创建图像信息; 定义模块, 用于接收外部输入的定义命令, 并向视频业务管理设备发送 定义指示信息,以触发视频业务管理设备向媒体资源设备发送定义图像信息。
19、 如权利要求 18所述的终端, 其特征在于, 所述终端还包括: 显示模块, 用于接收视频业务管理设备发送来的获取图像数据的执行情 况信息、 以及发送图像数据的执行情况信息, 并显示; 和 /或
删除模块, 用于接收外部输入的删除命令, 并向视频业务管理设备发送 删除指示信息, 以触发视频业务管理设备向媒体资源设备发送包含有图像标 识信息的删除图像信息。
PCT/CN2009/071766 2008-07-11 2009-05-12 视频会议实现方法、设备及系统 WO2010003332A1 (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP09793807A EP2173098A4 (en) 2008-07-11 2009-05-12 METHOD, EQUIPMENT AND SYSTEM FOR REALIZING VIDEO CONFERENCE
US12/796,938 US20100245537A1 (en) 2008-07-11 2010-06-09 Method, device and system for implementing video conference

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN200810116575.4 2008-07-11
CN2008101165754A CN101626482B (zh) 2008-07-11 2008-07-11 视频会议实现方法、设备及系统

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US12/796,938 Continuation US20100245537A1 (en) 2008-07-11 2010-06-09 Method, device and system for implementing video conference

Publications (1)

Publication Number Publication Date
WO2010003332A1 true WO2010003332A1 (zh) 2010-01-14

Family

ID=41506682

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2009/071766 WO2010003332A1 (zh) 2008-07-11 2009-05-12 视频会议实现方法、设备及系统

Country Status (4)

Country Link
US (1) US20100245537A1 (zh)
EP (1) EP2173098A4 (zh)
CN (1) CN101626482B (zh)
WO (1) WO2010003332A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103686063A (zh) * 2013-12-27 2014-03-26 上海斐讯数据通信技术有限公司 多方视频通话方法及支持多方视频通话的手机和服务器

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8384757B2 (en) 2011-01-11 2013-02-26 Baker Hughes Incorporated System and method for providing videoconferencing among a plurality of locations
CN102088592A (zh) * 2011-01-12 2011-06-08 中兴通讯股份有限公司 视频处理方法及装置
DE112013001461B4 (de) * 2012-03-14 2023-03-23 Google LLC (n.d.Ges.d. Staates Delaware) Modifizieren des Aussehens eines Teilnehmers während einer Videokonferenz
EP2704429B1 (en) * 2012-08-29 2015-04-15 Alcatel Lucent Video conference systems implementing orchestration models
CN103139531A (zh) * 2013-03-14 2013-06-05 广东威创视讯科技股份有限公司 视频会议终端的显示画面处理方法及装置
WO2014175919A1 (en) * 2013-04-26 2014-10-30 Intel IP Corporation Shared spectrum reassignment in a spectrum sharing context
CN110519544B (zh) * 2019-08-30 2021-03-23 维沃移动通信有限公司 一种视频通话方法及电子设备
CN114071061B (zh) * 2021-11-11 2023-06-13 华能招标有限公司 远程评标视频会议过程中评标专家行为评估方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997049244A1 (en) 1996-06-21 1997-12-24 Bell Communications Research, Inc. System and method for associating multimedia objects
WO2006068391A1 (en) * 2004-12-20 2006-06-29 Lg Electronics Inc. Multimedia access system
CN1852219A (zh) * 2005-07-14 2006-10-25 华为技术有限公司 一种音频/视频文件播放方法
US20070093238A1 (en) * 2005-10-12 2007-04-26 Benq Corporation System for video conference, proxy server and method thereof

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6724417B1 (en) * 2000-11-29 2004-04-20 Applied Minds, Inc. Method and apparatus maintaining eye contact in video delivery systems using view morphing
US7228567B2 (en) * 2002-08-30 2007-06-05 Avaya Technology Corp. License file serial number tracking
US8294923B2 (en) * 2003-07-25 2012-10-23 Carlos Gonzalez Marti Printing of electronic documents
US7477281B2 (en) * 2004-11-09 2009-01-13 Nokia Corporation Transmission control in multiparty conference
US8294823B2 (en) * 2006-08-04 2012-10-23 Apple Inc. Video communication systems and methods
KR101079591B1 (ko) * 2006-11-21 2011-11-07 삼성전자주식회사 화상통화기능을 가진 디스플레이장치, 그 제어방법 및화상통화시스템
US8248455B2 (en) * 2006-12-12 2012-08-21 Polycom, Inc. Method for creating a videoconferencing displayed image
US8035679B2 (en) * 2006-12-12 2011-10-11 Polycom, Inc. Method for creating a videoconferencing displayed image
US20080303949A1 (en) * 2007-06-08 2008-12-11 Apple Inc. Manipulating video streams
CN101924903B (zh) * 2009-06-17 2013-03-20 华为技术有限公司 实现视频通话的方法、装置和系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997049244A1 (en) 1996-06-21 1997-12-24 Bell Communications Research, Inc. System and method for associating multimedia objects
WO2006068391A1 (en) * 2004-12-20 2006-06-29 Lg Electronics Inc. Multimedia access system
CN1852219A (zh) * 2005-07-14 2006-10-25 华为技术有限公司 一种音频/视频文件播放方法
EP1744517A1 (en) 2005-07-14 2007-01-17 Huawei Technologies Co., Ltd. Method and system for playing multimedia files
US20070093238A1 (en) * 2005-10-12 2007-04-26 Benq Corporation System for video conference, proxy server and method thereof

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2173098A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103686063A (zh) * 2013-12-27 2014-03-26 上海斐讯数据通信技术有限公司 多方视频通话方法及支持多方视频通话的手机和服务器
CN103686063B (zh) * 2013-12-27 2018-02-02 上海斐讯数据通信技术有限公司 多方视频通话方法及支持多方视频通话的手机和服务器

Also Published As

Publication number Publication date
CN101626482B (zh) 2011-11-09
EP2173098A1 (en) 2010-04-07
CN101626482A (zh) 2010-01-13
US20100245537A1 (en) 2010-09-30
EP2173098A4 (en) 2010-07-21

Similar Documents

Publication Publication Date Title
WO2010003332A1 (zh) 视频会议实现方法、设备及系统
KR101428353B1 (ko) 이벤트 기반 소셜 네트워킹 애플리케이션
US9407867B2 (en) Distributed recording or streaming of a videoconference in multiple formats
US8780166B2 (en) Collaborative recording of a videoconference using a recording server
US8717404B2 (en) Recording a videoconference based on recording configurations
JP5120851B2 (ja) ウェブ・ベース統合通信システム及び方法、及びウェブ通信マネージャ
US8890929B2 (en) Defining active zones in a traditional multi-party video conference and associating metadata with each zone
JPWO2007055206A1 (ja) 通信装置、通信方法、通信システム、プログラム、および、コンピュータ読み取り可能な記録媒体
US20110061005A1 (en) Method, device, and system for implementing electronic whiteboard in audio/video conference
KR20060059334A (ko) 데이타를 스트리밍하기 위한 분산 토팔로지의 해결
WO2021088691A1 (zh) 一种增强现实ar通信系统及基于ar的通信方法
WO2021088690A1 (zh) 一种基于增强现实的通信方法及装置
WO2012155539A1 (zh) 在近场通信网络中共享数据和应用的方法及近场通信网络
US20070011232A1 (en) User interface for starting presentations in a meeting
WO2014056427A1 (zh) 展示多幅图像的方法、装置、家庭网络系统和移动终端
CN113242173A (zh) 屏幕的分享方法、装置、系统和即时通讯服务器
KR101122421B1 (ko) 화상 대화에 따른 실시간 다자 화상 데이터 저장 시스템 및 방법
JP2007243605A (ja) 通信装置、通信方法及びプログラム
JP4791213B2 (ja) 通信装置、通信方法及びプログラム
JP6669402B2 (ja) 通信装置、システム、情報処理方法及びプログラム
WO2022262729A1 (zh) 建立数据通道的方法、装置、设备、控制系统及存储介质
WO2022068674A1 (zh) 视频通话的方法、电子设备及系统
WO2023185648A1 (zh) 一种通信方法、装置及系统
WO2011069420A1 (zh) 计算机支持的电信应用服务的实现方法、装置及系统
JP2001282688A (ja) 電子メールを用いたデータ送受信方法、データ送信装置、メールサーバ、およびデータ受信装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2009793807

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09793807

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE