WO2012079424A1 - 分布式视频的处理方法、系统及多点控制单元 - Google Patents

分布式视频的处理方法、系统及多点控制单元 Download PDF

Info

Publication number
WO2012079424A1
WO2012079424A1 PCT/CN2011/081192 CN2011081192W WO2012079424A1 WO 2012079424 A1 WO2012079424 A1 WO 2012079424A1 CN 2011081192 W CN2011081192 W CN 2011081192W WO 2012079424 A1 WO2012079424 A1 WO 2012079424A1
Authority
WO
WIPO (PCT)
Prior art keywords
terminal
picture
video
screen
sub
Prior art date
Application number
PCT/CN2011/081192
Other languages
English (en)
French (fr)
Inventor
马铮
丁元欣
Original Assignee
中兴通讯股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 中兴通讯股份有限公司 filed Critical 中兴通讯股份有限公司
Publication of WO2012079424A1 publication Critical patent/WO2012079424A1/zh

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/152Multipoint control units therefor

Definitions

  • the present invention relates to the field of communications, and in particular to a distributed video processing method and system, and a multipoint control unit.
  • BACKGROUND Video conferencing systems are used for remote, multi-point, and real-time conferences to enable the transmission and interaction of video and sound between multiple points.
  • the video conferencing system is mainly composed of a terminal and a multipoint control unit (MCU).
  • MCU multipoint control unit
  • a video conferencing system usually multiple terminals are connected to one MCU to form a star topology network.
  • the media code streams of all the terminals are sent to the MCU in a centralized manner.
  • the MCU does not process or process the media code streams according to the corresponding principles, and then sends them to each terminal one by one.
  • multi-picture generation requires the following processing: First, the video code stream of each sub-picture constituting the multi-picture is decompressed, and then the decompressed video code stream is scaled according to the size of each sub-picture, Synthesis processing Finally, the synthesized multi-picture video is compression-encoded, so that a multi-picture video stream is generated.
  • the multi-pictures in the conference are completely generated by the MCU, because only the MCU has the video data of all the participating terminals.
  • the MCU's video centralized processing capability needs to be very powerful, because the MCU not only needs to implement multi-picture synthesis processing, but if each participating terminal separately uses different video capabilities to join the conference, the MCU also needs to separately compress and synthesize the synthesized multi-picture into each conference.
  • the code stream corresponding to the video capability of the terminal is sent to the terminal, for example, if there are five video capabilities corresponding to the participant terminal in the conference, the MCU needs to separately compile the multi-picture video stream of the five capabilities, and then one by one. Send to terminals that correspond to various capabilities.
  • the synthesizing the multi-screen image according to the multi-screen attribute information includes: the terminal acquiring the video code stream of the plurality of sub-pictures of the conference according to the multi-picture attribute information, and synthesizing the video code streams of the plurality of sub-pictures into the multi-picture image; After the multi-screen attribute information is synthesized into the multi-screen image, the above method further includes: the terminal displaying the multi-screen image.
  • the multi-screen attribute information includes at least one of the following: a number of sub-pictures of the multi-view of the conference, a multi-screen layout of the conference, a multi-screen composition of the conference, and a multicast of the video stream of each sub-picture constituting the multi-picture image.
  • the synthesizing the multi-picture image according to the multi-picture attribute information includes: the terminal acquiring the video code stream of the plurality of pictures of the current conference according to the multicast address of the video code stream of each sub-picture; the terminal is according to the multi-picture sub-part of the conference
  • the number of pictures, the multi-screen layout of the conference shown, and the multi-screen composition of the illustrated conference combine video streams of multiple pictures into a multi-picture image.
  • the multicast address of the video code stream constituting each sub-picture of the multi-picture image is different from the multicast address of the video code stream of the other sub-pictures, or a group of video code streams constituting all the sub-pictures of the multi-picture image.
  • the broadcast address is the same.
  • the method further includes: the terminal compressing the video of the terminal according to the multi-screen attribute information, and transmitting the compressed terminal video to the corresponding group of the terminal. Broadcast address.
  • the multipoint control unit determines that the first terminal does not support the distributed video processing capability; the multipoint control unit synthesizes the multiscreen image and transmits the multiscreen image to the first terminal.
  • the method further includes: the multipoint control unit compresses the video of the first terminal, and sends the compressed video of the first terminal to The multicast address corresponding to the first terminal.
  • a distributed video processing system including: a multipoint control unit and a terminal, wherein the multipoint control unit includes: a determining module configured to determine that the terminal supports distributed video processing capability; a sending module, configured to send the multi-screen attribute information of the current conference to the terminal; the terminal includes: an acquiring module, configured to acquire a video code stream of the plurality of sub-pictures of the conference according to the multi-screen attribute information; and a synthesizing module, configured to set the plurality of sub-pictures The video stream is synthesized into a multi-screen image; a display module is arranged to display the multi-screen image.
  • FIG. 2 is a schematic diagram of a system composition principle according to a third embodiment of the present invention
  • FIG. 4 is a structural block diagram of a distributed video processing system according to an embodiment of the present invention
  • FIG. 5 is a structural block diagram of an MCU according to an embodiment of the present invention.
  • FIG. 1 is a flowchart of a method for processing distributed video according to an embodiment of the present invention. As shown in FIG. 1, the method includes the following steps S102 to S104. Step S102, the MCU determines that the terminal supports the distributed video processing capability. Step S104: The MCU sends the multi-screen attribute information of the current conference to the terminal, so that the terminal synthesizes the multi-screen image according to the multi-screen attribute information.
  • the terminal can support distributed video processing capability.
  • the MCU does not need to synthesize multiple pictures, and only needs to send multi-picture attribute information to the terminal, and the terminal can implement multiple pictures.
  • the synthesis which reduces the load on the MCU.
  • the terminal may acquire the video code stream of the plurality of sub-pictures of the conference according to the multi-screen attribute information, and synthesize the video code streams of the plurality of sub-pictures into a multi-picture image, and then the terminal may display the multi-picture image.
  • the multi-screen attribute information may include at least one of the following: a number of sub-pictures of the multi-view of the conference, a multi-screen layout of the conference, a multi-screen composition of the conference, and a group of video code streams constituting each sub-picture of the multi-picture image.
  • the terminal synthesizes the multi-picture image according to the multi-picture attribute information by using the following manner: The terminal acquires the video code of the multiple pictures of the current conference according to the multicast address of the video code stream of each sub-picture.
  • the terminal synthesizes the plurality of sub-picture video code streams into a multi-picture image according to the number of sub-pictures of the multi-screen of the conference, the multi-screen layout of the conference, and the multi-screen composition of the conference.
  • the multicast address of the video stream of each sub-picture constituting the multi-picture image may be different from the multicast address of the video stream of the other sub-pictures, and the video code of all the sub-pictures of the multi-picture image is formed.
  • the multicast address of the stream can also be the same.
  • the video code stream of each sub-picture has a unique identifier.
  • the terminal can determine the source of the code stream according to the identifier, so that it can be determined whether the code stream is displayed and the location of the code stream is displayed.
  • the MCU sends the current conference multi-screen attribute information to the terminal, and the terminal compresses the video of the terminal according to the multi-screen attribute information, and sends the compressed terminal video to the corresponding group of the terminal. Broadcast address.
  • the terminal under the jurisdiction of the MCU may also not support distributed video processing capability.
  • the multi-picture image is synthesized by the MCU, and the multi-picture image is sent to the distributed video.
  • a terminal that handles capabilities eg, a first terminal.
  • the MCU compresses the video of the first terminal, and sends the compressed video of the first terminal to the first The multicast address corresponding to the terminal, so that the distributed video processing capability can acquire video from the multicast address and perform synthesis.
  • Embodiment 2 The technical problem to be solved in this embodiment is:
  • the media of the video conference system is processed centrally by the MCU, and the MCU device is inevitably faced with high load (especially in the case of multi-picture and hybrid capability conferences), and the network Problems such as high bandwidth transmission, resulting in high cost of MCU, low integration, and so on.
  • the embodiment provides a distributed media distributed processing method, which distributes the multi-screen synthesis processing to each participating terminal, thereby greatly reducing the MCU's ability to consume video processing, and consuming the capacity of the portion. It is assumed by each participating terminal, and the MCU is more concerned with signaling and process control. At the same time, for compatibility reasons, the MCU also provides compatibility processing when interworking with terminals that do not support the method, and only in this case the MCU processes the media.
  • This embodiment adopts the following technical solutions:
  • the MCU can perform the following processing: First, perform capability negotiation with the terminal.
  • the MCU sends the local capability set, indicating that the local end has distributed video control management capability; when the MCU receives the capability set of the terminal, the MCU judges whether the peer has distributed video processing capability and records.
  • the second step is to have a new terminal to join the conference.
  • the MCU uses the traditional multi-picture processing method to transmit the synthesized multi-picture to the new terminal.
  • the MCU sends the current conference multi-screen attribute information to the new conference terminal, where the multi-screen attribute information includes but is not limited to the following contents: 1) the number of multiple pictures of the conference;
  • the multicast address may include the following:
  • a unique Synchronization Source Identifier (S SRC) (the SSRC field in the Real-time Transport Protocol (RTP) header is used to identify the video source information).
  • S SRC Synchronization Source Identifier
  • RTP Real-time Transport Protocol
  • the multicast address may include the following: A. If the multicast address of the conference multi-screen is multiple, add a multicast address to the newly added subframe terminal for this purpose;
  • the new subframe terminal is assigned a new unique SSRC (the SSRC field in the RTP header is used to identify the video source information).
  • the composition of the multi-picture number, the multi-picture layout, or the multi-picture sub-picture changes in the conference.
  • the MCU uses traditional multi-picture processing to send new multi-picture video streams to the new terminal.
  • the MCU sends multi-screen attribute update information to all currently-viewing multi-view terminals, including but not limited to the following:
  • the multi-screen composition of the conference that is, the screen of which terminal is used for each sub-screen in the multi-screen; 4) a multicast address of a video stream constituting a terminal of each sub-picture of the multi-picture, and each terminal that views the multi-picture needs to receive a video stream on the multicast addresses for multi-picture synthesis; here, the group
  • the broadcast address can include the following methods:
  • the fourth step is to synthesize multiple pictures for terminals that do not support distributed video processing.
  • a terminal that does not support distributed video processing is a sub-picture in a multi-picture
  • the terminal since the terminal does not support distributed video processing, it cannot transmit the video stream to the corresponding group under the control of the MCU.
  • the MCU needs to perform the scaling process on the video stream sent by the terminal to the MCU and then forward it to the multicast address used by the sub-picture (if the multi-screen uses a multicast address, the MCU sends out
  • the SSRC in the RTP header of the video stream needs to be assigned the SSRC for the sub-picture, so that other terminals supporting distributed video processing can receive the video stream, thereby completing multi-picture synthesis.
  • the MCU also needs to receive the video stream from the multicast address of each sub-picture. (If the multi-picture uses a multicast address, the SSRC field in the RTP header of the video stream needs to be used to distinguish the video stream of each sub-picture. And synthesizing these video streams into a multi-picture image, and then transmitting the multi-picture image to a terminal that does not support distributed video processing, so that these terminals can also view the multi-picture image of the conference.
  • the terminal can perform the following processing: First, perform capability negotiation with the MCU.
  • the terminal sends the local capability set, indicating that the local end has distributed video processing capability; when the terminal receives the capability set of the MCU, the terminal determines whether the peer has distributed video control management capability and records; wherein, the distributed video processing capability includes But not limited to the following:
  • the ability to receive and process distributed video processing signaling 2. Receive the maximum video processing capability of distributed video, including but not limited to: supported video algorithms, maximum frame size, highest bandwidth, and other information.
  • the multi-picture attribute information sent by the MCU is received, and the multi-screen control instruction of the MCU is executed.
  • the terminal is a sub-screen composed of multiple pictures, and the implementation includes:
  • the third step is to perform multi-picture synthesis on the received video stream.
  • the video stream of each sub-picture in the received multi-picture is finally processed, and the multi-picture image is synthesized according to the multi-picture number, the multi-picture layout, the multi-picture composition and the like in the multi-picture attribute information sent by the MCU, and finally output to the Display on the device.
  • FIG. 2 is a schematic diagram of a system composition principle according to Embodiment 3 of the present invention.
  • terminals T1, ⁇ 2, and ⁇ 3 are terminals supporting distributed video processing
  • ⁇ 4 is a conventional conference television terminal, and does not support distribution.
  • Video processing capability, MCU supports distributed video control management. Taking four pictures as an example, Tl, ⁇ 2, ⁇ 3, ⁇ 4 are in one sub-picture of the four pictures.
  • ⁇ 3 supports distributed video processing. Therefore, its video stream can be scaled to an appropriate size and sent to the multicast address of the corresponding sub-picture. At the same time, the video stream of other sub-pictures is received from the multicast address corresponding to the sub-picture. The four-way video code stream received locally is synthesized, and finally a multi-picture is generated.
  • the terminal ⁇ 4 does not support distributed video processing, and therefore, the multi-picture it sees is a multi-picture image synthesized by the MCU.
  • the MCU performs capability negotiation with terminals that do not support distributed video processing capabilities and supports distributed video processing capabilities.
  • the capabilities of the MCUs include distributed video control management capabilities, while terminals that support distributed video processing capabilities are carried in capacity aggregation. This capability, unsupported terminals are not carried.
  • the MCU saves the capability negotiation result.
  • the terminal joins the conference.
  • the MCU sends the conference multi-screen attribute information to the conference, and the content carried in the multi-screen attribute information includes: a multi-screen number; a multi-screen layout, which includes the size and specific position coordinates of each sub-screen.
  • Multi-screen composition that is, which terminal each sub-picture is composed of; the multicast address used by each sub-picture in the multi-picture.
  • the terminal supporting the distributed video processing receives the multi-picture attribute information
  • the video of the terminal is compression-encoded according to the video format size of the sub-picture in which the video is located, and then the video code of the terminal is used.
  • the stream is sent to the multicast address used by the corresponding sub-picture.
  • the video stream of each sub-picture is received on the multicast address used by each sub-picture.
  • the video stream of these sub-pictures is video-decoded and synthesized according to information such as multi-picture number and multi-picture layout, and finally displayed.
  • the terminal sends the video code stream to the MCU, and the MCU processes the received video code stream. If the terminal is a sub-picture of the current multi-picture, according to the size of the sub-picture The size of the video stream is scaled and compressed and encoded, and then the video stream is sent to the multicast address corresponding to the sub-picture.
  • Embodiment 4 is a structural block diagram of a distributed video processing system according to an embodiment of the present invention. As shown in FIG. 4, the system includes: an MCU 42 and a terminal 44. The MCU 42 includes: a determining module 422, configured to determine terminal support.
  • the transmitting module 424 is coupled to the determining module 422, and configured to send the multi-screen attribute information of the current conference to the terminal.
  • the terminal 44 includes: an obtaining module 442, configured to acquire multiple sub-views of the conference according to the multi-screen attribute information. a video stream; a synthesizing module 444, coupled to the obtaining module 442, configured to synthesize the video streams of the plurality of sub-pictures into a multi-picture image; the display module 446, coupled to the synthesizing module 444, configured to display the multi-picture image.
  • the multi-screen attribute information includes at least one of the following: a number of sub-pictures of the multi-view of the conference, a multi-screen layout of the conference, a multi-screen composition of the conference, and a group of video code streams constituting each sub-screen of the multi-screen image.
  • the terminal 44 further includes: a compression module, configured to compress the video of the terminal according to the multi-screen attribute information, and the sending module is coupled to the compression module, and configured to send the video of the compressed terminal to the multicast address corresponding to the terminal. .
  • the MCU 42 further includes: a first determining module, configured to determine that the first terminal does not support the distributed video processing capability; the first synthesizing module is coupled to the first determining module, configured to synthesize the multi-picture image; and the first sending module And coupled to the first synthesis module, configured to send the multi-picture image to the first terminal.
  • the MCU 42 further includes: a first compression module, configured to compress the video of the first terminal, and a second sending module, coupled to the first compression module, configured to send the compressed video of the first terminal to the first The multicast address corresponding to the terminal.
  • Embodiment 5 The embodiment of the present invention further provides an MCU, which may be configured to perform the methods in Embodiments 1 to 3. FIG.
  • the MCU includes: a determining module 52, configured to determine that the terminal supports distributed video processing capability; and a sending module 54 coupled to the determining module 52,
  • the multi-screen attribute information of the current conference is sent to the terminal, where the terminal synthesizes the multi-screen image according to the multi-screen attribute information.
  • the multi-screen attribute information includes at least one of the following: a number of sub-pictures of the multi-view of the conference, a multi-screen layout of the conference, a multi-screen composition of the conference, and a multicast of the video stream of each sub-picture constituting the multi-picture image.
  • the address, where the multi-screen layout of the conference includes: the size and position coordinates of each sub-picture.
  • the multicast address of the video code stream constituting each sub-picture of the multi-picture image is different from the multicast address of the video code stream of the other sub-pictures, or a group of video code streams constituting all the sub-pictures of the multi-picture image.
  • the broadcast address is the same.
  • the video code stream of each sub-picture has a unique identifier.
  • the MCU further includes: a first determining module, configured to determine that the first terminal does not support the distributed video processing capability; the first synthesizing module is coupled to the first determining module, configured to synthesize the multi-picture image; Coupled to the first synthesis module, configured to transmit the multi-screen image to the first terminal.
  • the MCU further includes: a first compression module, configured to compress the video of the first terminal, and a second sending module, coupled to the first compression module, configured to send the compressed video of the first terminal to the first terminal Corresponding multicast address.
  • the terminal when the terminal supports the distributed video processing capability, the terminal synthesizes the multi-picture image, thereby achieving the effect of reducing the processing load of the MCU device.
  • the above modules or steps of the present invention can be implemented by a general-purpose computing device, which can be concentrated on a single computing device or distributed over a network composed of multiple computing devices. Alternatively, they may be implemented by program code executable by the computing device, such that they may be stored in the storage device by the computing device and, in some cases, may be different from the order herein.
  • the steps shown or described are performed, or they are separately fabricated into individual integrated circuit modules, or a plurality of modules or steps are fabricated as a single integrated circuit module.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本发明公开了一种分布式视频的处理方法、系统及多点控制单元,该方法包括:多点控制单元确定终端支持分布式视频处理能力;多点控制单元向终端发送当前会议的多画面属性信息,终端根据多画面属性信息合成多画面图像。本发明达到了减轻MCU设备处理负载的效果。

Description

分布式视频的处理方法、 系统及多点控制单元 技术领域 本发明涉及通信领域, 具体而言, 涉及一种分布式视频的处理方法、 系统及多点 控制单元。 背景技术 视频会议系统用于召开远程、 多点及实时的会议, 实现多点之间视频和声音的传 输和交互。 视频会议系统主要由终端和多点控制单元 (Multipoint Control Unit, 简称 为 MCU)组成。 在一个视频会议系统中, 通常有多个终端连接至一个 MCU上, 组成 星型拓扑结构网络。 所有终端的媒体码流都集中式地发送到 MCU上, MCU根据相应 的原则对媒体码流不进行处理或是进行处理后再一一发送给每个终端。 在多画面会议 中, 多画面的生成需要以下处理: 首先将构成多画面的每一路子画面的视频码流进行 解压缩, 然后根据每个子画面的大小尺寸对解压后的视频码流进行缩放、 合成处理, 最后, 将合成的多画面视频再进行压缩编码, 这样一路多画面视频码流就产生了。 在传统的视频会议系统中, 会议中的多画面都是完全由 MCU生成的, 因为只有 MCU才有所有与会终端的视频数据。这样, MCU的视频集中处理能力需要非常强大, 因为 MCU不光要实现多画面的合成处理, 如果各个与会终端分别使用不同的视频能 力加入会议, MCU还需要将合成的多画面分别压缩编码成各个与会终端相对应的视频 能力的码流后再发送给终端, 例如, 如果会议中的与会终端对应有 5种视频能力, 那 么 MCU需要分别编出这 5种能力的多画面视频码流, 再一一发送给各种能力相对应 的终端。 发明内容 针对相关技术中视频会议系统中 MCU设备处理负载高的问题, 本发明提供了一 种分布式视频的处理方案。 根据本发明的一个方面, 提供了一种分布式视频的处理方法, 包括: 多点控制单 元确定终端支持分布式视频处理能力; 多点控制单元向终端发送当前会议的多画面属 性信息, 终端根据多画面属性信息合成多画面图像。 优选地, 终端根据多画面属性信息合成多画面图像包括: 终端根据多画面属性信 息获取会议的多个子画面的视频码流,并将多个子画面的视频码流合成为多画面图像; 在终端根据多画面属性信息合成多画面图像之后, 上述方法还包括: 终端显示多画面 图像。 优选地, 多画面属性信息包括以下至少之一: 会议的多画面的子画面个数、 会议 的多画面布局、 会议的多画面构成、 构成多画面图像的每个子画面的视频码流的组播 地址, 其中, 会议的多画面布局包括: 每个子画面的尺寸和位置坐标。 优选地, 终端根据多画面属性信息合成多画面图像包括: 终端根据每个子画面的 视频码流的组播地址获取当前会议的多个画面的视频码流; 终端根据所示会议的多画 面的子画面个数、 所示会议的多画面布局和所示会议的多画面构成将多个画面的视频 码流合成为多画面图像。 优选地, 构成多画面图像的每个子画面的视频码流的组播地址与其他子画面的视 频码流的组播地址均不相同, 或者构成多画面图像的所有子画面的视频码流的组播地 址相同。 优选地, 当构成多画面图像的所有子画面的视频码流的组播地址相同时, 每个子 画面的视频码流具有唯一的标识。 优选地, 在多点控制单元向终端发送当前会议多画面属性信息之后, 上述方法还 包括: 终端根据多画面属性信息将终端的视频压缩, 并将压缩后的终端的视频发送到 终端对应的组播地址上。 优选地, 多点控制单元确定第一终端不支持分布式视频处理能力; 多点控制单元 合成多画面图像, 并将多画面图像发送给第一终端。 优选地, 在多点控制单元确定第一终端不支持分布式视频处理能力之后, 上述方 法还包括: 多点控制单元将第一终端的视频压缩, 并将压缩后的第一终端的视频发送 到第一终端对应的组播地址上。 根据本发明的另一方面, 提供了一种分布式视频的处理系统, 包括: 多点控制单 元和终端, 其中, 多点控制单元包括: 确定模块, 设置为确定终端支持分布式视频处 理能力; 发送模块, 设置为向终端发送当前会议的多画面属性信息; 终端包括: 获取 模块, 设置为根据多画面属性信息获取会议的多个子画面的视频码流; 合成模块, 设 置为将多个子画面的视频码流合成为多画面图像; 显示模块, 设置为显示多画面图像。 根据本发明的又一方面, 提供了一种多点控制单元, 包括: 确定模块, 设置为确 定终端支持分布式视频处理能力; 发送模块, 设置为向终端发送当前会议的多画面属 性信息, 其中, 所述终端根据多画面属性信息合成多画面图像。 通过本发明, 采用使终端支持分布式视频处理能力, 由终端对多画面图像进行合 成的方式, 解决了相关技术中视频会议系统中 MCU设备处理负载高的问题, 进而达 到了减轻 MCU设备处理负载的效果。 附图说明 此处所说明的附图用来提供对本发明的进一步理解, 构成本申请的一部分, 本发 明的示意性实施例及其说明用于解释本发明, 并不构成对本发明的不当限定。 在附图 中: 图 1是根据本发明实施例的分布式视频的处理方法的流程图; 图 2是根据本发明实施例三的系统组成原理的示意图; 图 3是根据本发明实施例三的分布式视频的处理方法的流程图; 图 4是根据本发明实施例的分布式视频的处理系统的结构框图; 图 5是根据本发明实施例的 MCU的结构框图。 具体实施方式 下文中将参考附图并结合实施例来详细说明本发明。 需要说明的是, 在不冲突的 情况下, 本申请中的实施例及实施例中的特征可以相互组合。 实施例一 本发明实施例提供了一种分布式视频的处理方法。 图 1是根据本发明实施例的分 布式视频的处理方法的流程图,如图 1所示,该方法包括如下的步骤 S102至步骤 S104。 步骤 S102, MCU确定终端支持分布式视频处理能力。 步骤 S104, MCU向终端发送当前会议的多画面属性信息, 以便终端根据多画面 属性信息合成多画面图像。 在本实施例中, 终端能够支持分布式视频处理能力, 在这种情况下, MCU不需要 对多个画面进行合成, 只需要将多画面属性信息发送给终端, 终端即可实现对多个画 面的合成, 从而减轻了 MCU的负载。 其中,在步骤 S104之后,终端可以根据多画面属性信息获取会议的多个子画面的 视频码流, 并将多个子画面的视频码流合成为多画面图像, 然后, 终端可以显示该多 画面图像。 优选地, 多画面属性信息可以包括以下至少之一: 会议的多画面的子画面个数、 会议的多画面布局、 会议的多画面构成、 构成多画面图像的每个子画面的视频码流的 组播地址, 其中, 会议的多画面布局包括: 每个子画面的尺寸和位置坐标。 在本发明实施例的一个优选实例中, 终端根据多画面属性信息合成多画面图像可 以通过以下方式实现: 终端根据每个子画面的视频码流的组播地址获取当前会议的多 个画面的视频码流, 然后, 终端根据会议的多画面的子画面个数、 会议的多画面布局 和会议的多画面构成将多个子画面视频码流合成为多画面图像。 在上述实施例中, 构成多画面图像的每个子画面的视频码流的组播地址可以与其 他子画面的视频码流的组播地址均不相同, 构成多画面图像的所有子画面的视频码流 的组播地址也可以是相同的。 优选地, 当构成多画面图像的所有子画面的视频码流的组播地址相同时, 每个子 画面的视频码流具有唯一的标识。 这样, 终端可以根据标识确定码流的来源, 从而可 以确定是否显示该码流以及显示该码流的位置。 在本发明实施例的另一个优选实例中, 在 MCU向终端发送当前会议多画面属性 信息, 终端根据多画面属性信息将终端的视频压缩, 并将压缩后的终端的视频发送到 终端对应的组播地址上。 在本发明实施例的又一个优选实例中, MCU管辖的终端也可以是不支持分布式视 频处理能力的, 此时, 由 MCU合成多画面图像, 并将多画面图像发送给不支持分布 式视频处理能力的终端 (例如, 第一终端)。 在本发明实施例的再一个优选实例中, 在 MCU确定第一终端不支持分布式视频 处理能力之后, MCU将第一终端的视频压缩, 并将压缩后的第一终端的视频发送到第 一终端对应的组播地址上, 这样, 支持分布式视频处理能力能够从该组播地址获取视 频, 并进行合成。 实施例二 本实施例要解决的技术问题是: 相关技术中, 视频会议系统的媒体由 MCU集中 处理, 必然面临 MCU设备处理高负载(在多画面和混合能力会议的情况下尤甚)、 网 络传输高带宽等问题, 导致 MCU高成本、 集成度不容易提升等等缺陷。 本实施例提 供了一种分布式媒体分布式处理的方法, 将多画面的合成处理分布到各个与会终端上 去进行, 从而大大降低了 MCU在视频处理上的能力消耗, 而将这部分的能力消耗由 各个与会终端来分别承担, MCU更多的是关注信令和流程控制。 同时, 为了兼容性考 虑, MCU在与不支持本方法的终端互通时, 也要提供兼容性处理, 只有在这种情况下 MCU才处理媒体。 本实施例采用以下技术方案:
MCU可以进行如下处理: 第一步、 与终端进行能力协商。
MCU发送本端能力集, 表明本端具有分布式视频控制管理能力; MCU收到终端 的能力集时进行判断, 判断对端是否具有分布式视频处理能力并记录。 第二步、 有新终端加入会议。
1. 若新入会终端不具有分布式视频处理能力, 则 MCU使用传统的多画面处理方 式, 将合成的多画面发送给新终端。
2. 若新入会终端具有分布式视频处理能力, 则 MCU向新入会终端发送当前会议 多画面属性信息, 其中多画面属性信息包括但不限于以下内容: 1 ) 会议的多画面数;
2)会议的多画面布局, 每个子画面的大小尺寸、 位置坐标(例如, 以整个多画面 的左下角为原点, 每个子画面的左下角为该子画面的位置起始坐标);
3 ) 会议的多画面构成, 即, 每个子画面由哪个终端的画面构成;
4)构成多画面的每个子画面的终端的视频码流的组播地址, 新入会终端需要到此 组播地址上接收视频码流; 在此, 组播地址可以包括以下方式:
A. 多画面的组播地址可以为多个, 即, 每个子画面使用一个组播地址; B. 多画面的组播地址均使用 1 个, 即, 整个多画面的每一路子画面视频码流均 发送到同一个组播地址上,但是, MCU在此为每一路子画面的视频码流分配唯一的同 步源标识符(Synchronization Source Identifier,简称为 S SRC) (实时传输协议(Real-time Transport Protocol, 简称为 RTP) 包头中的 SSRC字段, 用于标识视频源信息)。 3. 若新入会终端是构成当前多画面中的一个子画面, 则向所有之前已经加入会议 的正在观看多画面图像的终端发送会议多画面属性更新信息, 该属性更新信息包括但 不限于以下内容:
1 ) 会议的多画面数;
2)会议的多画面布局, 每个子画面的大小尺寸、 位置坐标(例如, 以整个多画面 的左下角为原点, 每个子画面的左下角为该子画面的位置起始坐标);
3 ) 会议的多画面构成, 即新增的子画面由哪个终端的画面构成;
4)新增的子画面的终端的视频码流的组播地址,所有观看多画面的终端需要到此 组播地址上接收新加入多画面的终端的视频码流, 以便进行合成多画面; 在此, 该组 播地址可以包括以下方式: A. 若会议多画面的组播地址为多个, 则为此新增子画面终端增加一个组播地址;
B. 若会议多画面的组播地址使用 1 个地址, 则为此新增子画面终端分配一个新 的唯一的 SSRC (RTP包头中的 SSRC字段, 用于标识视频源信息)。 第三步、 会议中多画面数、 多画面布局或是多画面的子画面组成发生改变。
1. 对于不具备分布式视频处理能力的终端, MCU使用传统的多画面处理方式, 将新的多画面视频码流发送给新终端。
2. 对于具备分布式视频处理能力的终端, MCU向当前所有正在观看多画面的终 端发送多画面属性更新信息, 该属性更新信息包括但不限于以下内容:
1 ) 会议的多画面数;
2)会议的多画面布局, 每个子画面的大小尺寸、 位置坐标(例如, 以整个多画面 的左下角为原点, 每个子画面的左下角为该子画面的位置起始坐标);
3 ) 会议的多画面构成, 即, 多画面中的各个子画面是由哪个终端的画面构成; 4)构成多画面的每个子画面的终端的视频码流的组播地址, 每个观看多画面的终 端需要到这些组播地址上接收视频码流, 以便进行多画面合成; 在此, 该组播地址可 以包括以下方式:
A. 多画面的组播地址可以为多个, 即, 每个子画面使用一个组播地址; B. 多画面的组播地址均使用 1 个, 即, 整个多画面的每一路子画面视频码流均 发送到同一个组播地址上,但 MCU在此为每一路子画面的视频码流分配唯一的 SSRC (RTP包头中的 SSRC字段, 用于标识视频源信息)。 第四步、 为不支持分布式视频处理的终端合成多画面。
1. 当不支持分布式视频处理的终端是多画面中的一个子画面时, 由于该终端不支 持分布式视频处理, 所以其也不能在 MCU的控制之下将视频码流发送到相应的组播 地址上, 因此, MCU需要将该终端发送到 MCU的视频码流根据需要进行缩放处理后 再转发到该子画面所使用的组播地址上 (若多画面使用一个组播地址, 则 MCU发出 的视频码流的 RTP包头中 SSRC需为该子画面所分配的 SSRC),以便其他支持分布式 视频处理的终端能够收到该视频码流, 从而完成多画面合成。 2. MCU还需从各个子画面的组播地址上接收视频码流 (若多画面使用一个组播 地址, 则需要从视频码流的 RTP包头中的 SSRC字段来区分每个子画面的视频码流), 并将这些视频码流合成为多画面图像, 再将多画面图像发送给不支持分布式视频处理 的终端, 以使得这些终端也能观看到会议的多画面图像。 终端可以进行如下处理: 第一步、 与 MCU进行能力协商。 终端发送本端能力集, 表明本端具有分布式视频处理能力; 终端收到 MCU的能 力集时进行判断, 判断对端是否具有分布式视频控制管理能力并记录; 其中, 分布式 视频处理能力包括但不限于以下内容:
1. 接收和处理分布式视频处理信令的能力; 2.接收分布式视频的最大视频处理能力,该能力包括但不限于:支持的视频算法、 最大的帧尺寸、 最高的带宽等信息。 第二步、 收到 MCU发来的多画面属性信息, 并执行 MCU的多画面控制指令。 1.本终端是多画面的一个子画面组成, 则本实施包括:
1 )根据本终端在多画面中的位置确定本终端视频图像的尺寸格式, 按照这个新的 尺寸格式重新对视频进行压缩编码, 再将编码后的码流发送到本终端所在的子画面地 组播地址上。 2) 将本端加入到其他子画面的视频接收组播组中 (若多画面使用一个组播地址, 则需要将分配的 SSRC字段填写在要发送的视频码流的 RTP包头中 SSRC字段中), 在这些组播地址上接收其他子画面的视频码流 (若多画面使用一个组播地址, 则需要 从视频码流的 RTP包头中的 SSRC字段来区分每个子画面的视频码流)。
2. 若本终端视频不是多画面的组成, 则需要将本端加入到所有子画面的视频接收 组播组中, 在这些组播地址上接收所有子画面终端的视频码流。 第三步、 对收到的视频码流进行多画面合成。 将收到的多画面中各个子画面的视频码流进行最终处理, 根据 MCU发来的多画 面属性信息中的多画面数、 多画面布局、 多画面组成等信息合成多画面图像, 最终输 出到显示设备上。 采用本实施例所述的方法, 降低了 MCU的视频处理复杂度,提高了 MCU的集成 度和容量, 并且大幅度节省了 MCU的单位终端端口的成本。 实施例三 图 2是本发明实施例三的系统组成原理的示意图, 如图 2所示, 终端 Tl、 Τ2、 Τ3 是支持分布式视频处理的终端, Τ4是传统的会议电视终端, 不支持分布式视频处理能 力, MCU支持分布式视频控制管理功能。 以四画面为例, Tl、 Τ2、 Τ3、 Τ4分处在四画面中的一个子画面中。 终端 Tl、 Τ2、
Τ3支持分布式视频处理, 因此, 可以将其视频码流缩放到合适的大小后发送到对应子 画面的组播地址上, 同时从子画面对应的组播地址上收取其他子画面的视频码流, 在 本地将收到的四路视频码流经过合成处理, 最后生成多画面。 终端 Τ4 不支持分布式 视频处理, 因此, 其看到的多画面是由 MCU合成的多画面图像。 MCU除了控制各个 终端将各自的视频码流缩放到合适的大小后发送到对应的组播地址上以外, 还要将收 到的 Τ4终端的视频码流缩放到合适的大小后发送到子画面 4所使用的组播地址上, 以供其它几个终端能够收到 Τ4终端的视频码流, 进行多画面合成。 同时, MCU还可 以从其他几个子画面的组播地址上接收视频码流, 将这四路视频码流合成为四画面, 然后将此四画面的视频码流发送给终端 T4。 图 3是本发明实施例三的分布式视频的处理方法的流程图。 MCU分别与不支持分 布式视频处理能力和支持分布式视频处理能力的终端进行能力协商, MCU发出的能力 集中包含有分布式视频控制管理能力, 而支持分布式视频处理能力的终端在能力集中 携带该能力, 不支持的终端不携带。 MCU保存能力协商结果。 能力协商后, 终端入会。对于支持分布式视频处理的终端, MCU向其发送会议多 画面属性信息, 在多画面属性信息中携带的内容包括: 多画面数; 多画面布局, 其包 含每个子画面的大小尺寸、 具体位置坐标; 多画面组成, 即, 每个子画面是由哪个终 端构成; 多画面中每个子画面所使用的组播地址。 支持分布式视频处理的终端收到多 画面属性信息后, 若该终端在多画面组成中, 则根据其所处子画面的视频格式大小对 该终端的视频进行压缩编码, 再将该终端的视频码流发送到对应子画面所使用的组播 地址上。 同时到每个子画面所使用的组播地址上接收每个子画面的视频码流, 最后, 将这些子画面的视频码流按照多画面数、多画面布局等信息进行视频解码和合成处理, 最终显示在显示设备上。 对于不支持分布式视频处理的终端, 该终端将视频码流发送给 MCU, MCU将收 到的视频码流进行处理, 如果该终端是当前多画面的一个子画面, 则根据该子画面的 大小尺寸对该终端的视频码流进行缩放和压缩编码, 然后将这路视频码流发送到该子 画面所对应的组播地址上。 同时 MCU还要在所有子画面的组播地址上接收每一路子 画面的视频码流, 将收到的视频码流进行合成处理, 最终合成多画面图像, 然后, 再 将其进行压缩编码, 发送给不支持分布式视频处理的终端。 实施例四 本发明实施例还提供了一种分布式视频的处理系统, 该系统可以设置为执行实施 例一至三中的方法。 图 4是根据本发明实施例的分布式视频的处理系统的结构框图, 如图 4所示, 该系统包括: MCU 42和终端 44, 其中, MCU 42包括: 确定模块 422, 设置为确定终端支持分布式视频处理能力; 发送模块 424, 耦合至确定模块 422, 设置 为向终端发送当前会议的多画面属性信息; 终端 44包括: 获取模块 442, 设置为根据 多画面属性信息获取会议的多个子画面的视频码流; 合成模块 444, 耦合至获取模块 442, 设置为将多个子画面的视频码流合成为多画面图像; 显示模块 446, 耦合至合成 模块 444, 设置为显示多画面图像。 优选地, 多画面属性信息包括以下至少之一: 会议的多画面的子画面的个数、 会 议的多画面布局、 会议的多画面构成、 构成多画面图像的每个子画面的视频码流的组 播地址, 其中, 会议的多画面布局包括: 每个子画面的尺寸和位置坐标。 优选地, 获取模块 442设置为根据每个子画面的视频码流的组播地址获取当前会 议的多个画面; 合成模块 444设置为终端根据所示会议的多画面的子画面的个数、 所 示会议的多画面布局和所示会议的多画面构成将多个画面的视频码流合成为多画面图 像。 优选地, 构成多画面图像的每个子画面的视频码流的组播地址与其他子画面的视 频码流的组播地址均不相同, 或者构成多画面图像的所有子画面的视频码流的组播地 址相同。 优选地, 当构成多画面图像的所有子画面的视频码流的组播地址相同时, 每个子 画面的视频码流具有唯一的标识。 优选地, 终端 44还包括: 压缩模块, 设置为根据多画面属性信息将终端的视频压 缩, 发送模块, 耦合至压缩模块, 设置为将压缩后的终端的视频发送到终端对应的组 播地址上。 优选地, MCU 42还包括: 第一确定模块, 设置为确定第一终端不支持分布式视 频处理能力; 第一合成模块, 耦合至第一确定模块, 设置为合成多画面图像; 第一发 送模块, 耦合至第一合成模块, 设置为将多画面图像发送给第一终端。 优选地, MCU 42还包括: 第一压缩模块, 设置为将第一终端的视频压缩, 第二 发送模块, 耦合至第一压缩模块, 设置为将压缩后的第一终端的视频发送到第一终端 对应的组播地址上。 实施例五 本发明实施例还提供了一种 MCU, 该 MCU可以设置为执行实施例一至三中的方 法。 图 5是根据本发明实施例的 MCU的结构框图, 如图 5所示, 该 MCU包括: 确定 模块 52, 设置为确定终端支持分布式视频处理能力; 发送模块 54, 耦合至确定模块 52, 设置为向终端发送当前会议的多画面属性信息, 其中, 终端根据多画面属性信息 合成多画面图像。 优选地, 多画面属性信息包括以下至少之一: 会议的多画面的子画面个数、 会议 的多画面布局、 会议的多画面构成、 构成多画面图像的每个子画面的视频码流的组播 地址, 其中, 会议的多画面布局包括: 每个子画面的尺寸和位置坐标。 优选地, 构成多画面图像的每个子画面的视频码流的组播地址与其他子画面的视 频码流的组播地址均不相同, 或者构成多画面图像的所有子画面的视频码流的组播地 址相同。 优选地, 当构成多画面图像的所有子画面的视频码流的组播地址相同时, 每个子 画面的视频码流具有唯一的标识。 优选地, MCU还包括: 第一确定模块, 设置为确定第一终端不支持分布式视频处 理能力; 第一合成模块, 耦合至第一确定模块, 设置为合成多画面图像; 第一发送模 块, 耦合至第一合成模块, 设置为将多画面图像发送给第一终端。 优选地, MCU还包括: 第一压缩模块, 设置为将第一终端的视频压缩, 第二发送 模块, 耦合至第一压缩模块, 设置为将压缩后的第一终端的视频发送到第一终端对应 的组播地址上。 综上所述, 本发明实施例中, 终端支持分布式视频处理能力时, 由终端对多画面 图像进行合成, 从而达到了减轻 MCU设备处理负载的效果。 显然, 本领域的技术人员应该明白, 上述的本发明的各模块或各步骤可以用通用 的计算装置来实现, 它们可以集中在单个的计算装置上, 或者分布在多个计算装置所 组成的网络上, 可选地, 它们可以用计算装置可执行的程序代码来实现, 从而, 可以 将它们存储在存储装置中由计算装置来执行, 并且在某些情况下, 可以以不同于此处 的顺序执行所示出或描述的步骤, 或者将它们分别制作成各个集成电路模块, 或者将 它们中的多个模块或步骤制作成单个集成电路模块来实现。 这样, 本发明不限制于任 何特定的硬件和软件结合。 以上所述仅为本发明的优选实施例而已, 并不用于限制本发明, 对于本领域的技 术人员来说, 本发明可以有各种更改和变化。 凡在本发明的精神和原则之内, 所作的 任何修改、 等同替换、 改进等, 均应包含在本发明的保护范围之内。

Claims

权 利 要 求 书
1. 一种分布式视频的处理方法, 包括:
多点控制单元确定终端支持分布式视频处理能力;
所述多点控制单元向所述终端发送当前会议的多画面属性信息, 所述终端 根据所述多画面属性信息合成多画面图像。
2. 根据权利要求 1所述的方法, 其中,
所述终端根据所述多画面属性信息合成多画面图像包括: 所述终端根据所 述多画面属性信息获取会议的多个子画面的视频码流, 并将所述多个子画面的 视频码流合成为所述多画面图像;
在所述终端根据所述多画面属性信息合成多画面图像之后, 所述方法还包 括: 所述终端显示所述多画面图像。
3. 根据权利要求 1所述的方法, 其中, 所述多画面属性信息包括以下至少之一: 会议的多画面的子画面个数、 会议的多画面布局、 会议的多画面构成、 构 成所述多画面图像的每个子画面的视频码流的组播地址, 其中, 所述会议的多 画面布局包括: 每个子画面的尺寸和位置坐标。
4. 根据权利要求 3所述的方法, 其中, 所述终端根据所述多画面属性信息合成多 画面图像包括:
所述终端根据所述每个子画面的视频码流的组播地址获取当前会议的多个 画面的视频码流;
所述终端根据所示会议的多画面的子画面个数、 所示会议的多画面布局和 所示会议的多画面构成将所述多个画面的视频码流合成为所述多画面图像。
5. 根据权利要求 3或 4所述的方法, 其中, 构成所述多画面图像的每个子画面的 视频码流的组播地址与其他子画面的视频码流的组播地址均不相同, 或者构成 所述多画面图像的所有子画面的视频码流的组播地址相同。
6. 根据权利要求 5所述的方法, 其中, 当构成所述多画面图像的所有子画面的视 频码流的组播地址相同时, 每个子画面的视频码流具有唯一的标识。
7. 根据权利要求 1所述的方法, 其中, 在所述多点控制单元向所述终端发送当前 会议多画面属性信息之后, 所述方法还包括:
所述终端根据所述多画面属性信息将所述终端的视频压缩, 并将压缩后的 所述终端的视频发送到所述终端对应的组播地址上。
8. 根据权利要求 1所述的方法, 其中,
所述多点控制单元确定第一终端不支持分布式视频处理能力; 所述多点控制单元合成所述多画面图像, 并将所述多画面图像发送给所述 第一终端。
9. 根据权利要求 8所述的方法, 其中, 在所述多点控制单元确定第一终端不支持 分布式视频处理能力之后, 所述方法还包括:
所述多点控制单元将所述第一终端的视频压缩, 并将压缩后的所述第一终 端的视频发送到所述第一终端对应的组播地址上。
10. 一种分布式视频的处理系统, 包括: 多点控制单元和终端, 其中,
所述多点控制单元包括:
确定模块, 设置为确定所述终端支持分布式视频处理能力; 发送模块, 设置为向所述终端发送当前会议的多画面属性信息; 所述终端包括:
获取模块, 设置为根据所述多画面属性信息获取会议的多个子画面的视频 码流;
合成模块, 设置为将所述多个子画面的视频码流合成为所述多画面图像; 显示模块, 设置为显示所述多画面图像。
11. 一种多点控制单元, 包括:
确定模块, 设置为确定终端支持分布式视频处理能力;
发送模块, 设置为向所述终端发送当前会议的多画面属性信息, 其中, 所 述终端根据所述多画面属性信息合成多画面图像。
PCT/CN2011/081192 2010-12-16 2011-10-24 分布式视频的处理方法、系统及多点控制单元 WO2012079424A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201010591782.2 2010-12-16
CN2010105917822A CN102572368A (zh) 2010-12-16 2010-12-16 分布式视频的处理方法、系统及多点控制单元

Publications (1)

Publication Number Publication Date
WO2012079424A1 true WO2012079424A1 (zh) 2012-06-21

Family

ID=46244065

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2011/081192 WO2012079424A1 (zh) 2010-12-16 2011-10-24 分布式视频的处理方法、系统及多点控制单元

Country Status (2)

Country Link
CN (1) CN102572368A (zh)
WO (1) WO2012079424A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104125271A (zh) * 2014-07-07 2014-10-29 四川中电启明星信息技术有限公司 一种应用于可视化数据推送平台的分布式架构方法

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015006910A1 (en) * 2013-07-16 2015-01-22 Harman International Industries, Incorporated Image layer composition
CN104469259A (zh) * 2014-12-15 2015-03-25 广东威创视讯科技股份有限公司 一种云端视频合成方法及系统
CN106878657A (zh) * 2015-12-14 2017-06-20 中国移动通信集团公司 一种视频会议方法及视频会议系统
CN105681731A (zh) * 2016-03-04 2016-06-15 福建星网智慧科技股份有限公司 一种基于多媒体终端实现四方视频会议的方法及系统
US10390076B2 (en) * 2016-03-29 2019-08-20 Mitsubishi Electric Corporation Image receiving/reproducing device, image generating/transmitting device, display system, image receiving/reproducing method, image generating/transmitting method, and computer readable medium
CN108810443A (zh) * 2017-04-28 2018-11-13 南宁富桂精密工业有限公司 视频画面合成方法及多点控制单元
CN110049277A (zh) * 2019-05-28 2019-07-23 南京南方电讯有限公司 一种会议接入实现方法
CN112804471A (zh) * 2019-11-14 2021-05-14 中兴通讯股份有限公司 一种视频会议方法、会议终端、服务器及存储介质
CN111641802A (zh) * 2020-06-04 2020-09-08 天津卓朗科技发展有限公司 视频数据共享方法、装置和服务器
WO2022088050A1 (zh) * 2020-10-30 2022-05-05 京东方科技集团股份有限公司 视频会议实现方法、装置、系统以及存储介质
CN112073810B (zh) * 2020-11-16 2021-02-02 全时云商务服务股份有限公司 一种多布局的云会议录制方法、系统和可读存储介质
CN112558854B (zh) * 2020-12-07 2022-06-24 深圳市捷视飞通科技股份有限公司 多画面分屏模式定制方法、装置和计算机设备
CN113691815B (zh) * 2021-07-30 2023-04-25 浙江大华技术股份有限公司 一种视频数据处理方法、设备和计算机可读存储介质
CN113923379B (zh) * 2021-09-30 2022-07-05 广州市保伦电子有限公司 一种自适应视窗的多画面合成方法及处理终端

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1543123A (zh) * 2003-04-28 2004-11-03 基于ip网络的分布式多媒体会议系统
CN1571508A (zh) * 2003-07-19 2005-01-26 华为技术有限公司 一种实现多画面的方法
CN101588252A (zh) * 2008-05-23 2009-11-25 华为技术有限公司 一种多点会议的控制方法及装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101047828B (zh) * 2006-03-31 2011-05-25 联想(北京)有限公司 分布式会议系统
CN101098244A (zh) * 2006-06-26 2008-01-02 华为技术有限公司 一种多点会议中媒体处理的方法和系统
CN101710962B (zh) * 2009-12-22 2012-07-18 中兴通讯股份有限公司 视频会议资源调度的方法和装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1543123A (zh) * 2003-04-28 2004-11-03 基于ip网络的分布式多媒体会议系统
CN1571508A (zh) * 2003-07-19 2005-01-26 华为技术有限公司 一种实现多画面的方法
CN101588252A (zh) * 2008-05-23 2009-11-25 华为技术有限公司 一种多点会议的控制方法及装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104125271A (zh) * 2014-07-07 2014-10-29 四川中电启明星信息技术有限公司 一种应用于可视化数据推送平台的分布式架构方法

Also Published As

Publication number Publication date
CN102572368A (zh) 2012-07-11

Similar Documents

Publication Publication Date Title
WO2012079424A1 (zh) 分布式视频的处理方法、系统及多点控制单元
US11503250B2 (en) Method and system for conducting video conferences of diverse participating devices
KR101081803B1 (ko) 상주 컨퍼런스 생성 방법 및 시스템
US8988486B2 (en) Adaptive video communication channel
JP6172610B2 (ja) テレビ会議用システム
WO2011116611A1 (zh) 用于电视会议的视频播放方法
WO2011140812A1 (zh) 多画面合成方法、系统及媒体处理装置
CN101198008A (zh) 一种实现多屏多画面的方法和系统
JP2009117896A (ja) 合成映像配信装置ならびにその方法およびプログラム
WO2011063763A1 (zh) 一种包含远程呈现会场的会议控制方法、装置及系统
WO2016110169A1 (zh) 一种显示处理方法及装置
WO2012028018A1 (zh) 分布式视频处理方法及视频会议系统
WO2015127799A1 (zh) 协商媒体能力的方法和设备
WO2012155739A1 (zh) 基于远程呈现系统的信令交互方法及装置
TWI495345B (zh) 視訊會議系統及其使用方法
WO2014012384A1 (zh) 通信数据的发送方法、系统及接收装置
WO2013067898A1 (zh) 传输信息的方法和终端
WO2010094213A1 (zh) 多路媒体流传输和接收的方法、装置及系统
CN110740286A (zh) 一种视频会议控制方法、多点控制单元及视频会议终端
JP6692922B2 (ja) 複数のビデオ会議用端末を用いてマルチスクリーンビデオ会議を提供できるビデオ会議サーバー及びその方法
JP2002290940A (ja) テレビ会議システム
CN115734028A (zh) 一种基于级联编码的媒体流推送方法及系统
JP2016174283A (ja) テレビ会議用通信装置
TW201537990A (zh) 視訊會議資料處理方法及系統

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11848508

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11848508

Country of ref document: EP

Kind code of ref document: A1