WO2011029402A1 - 视频图像数据处理方法、装置及视频会议系统及终端 - Google Patents

视频图像数据处理方法、装置及视频会议系统及终端 Download PDF

Info

Publication number
WO2011029402A1
WO2011029402A1 PCT/CN2010/076763 CN2010076763W WO2011029402A1 WO 2011029402 A1 WO2011029402 A1 WO 2011029402A1 CN 2010076763 W CN2010076763 W CN 2010076763W WO 2011029402 A1 WO2011029402 A1 WO 2011029402A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
video image
image data
unit
channel
Prior art date
Application number
PCT/CN2010/076763
Other languages
English (en)
French (fr)
Inventor
魏小霞
赵嵩
王静
刘源
李凯
Original Assignee
华为终端有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 华为终端有限公司 filed Critical 华为终端有限公司
Priority to EP10815004.6A priority Critical patent/EP2469853B1/en
Publication of WO2011029402A1 publication Critical patent/WO2011029402A1/zh
Priority to US13/416,919 priority patent/US20120169829A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display

Definitions

  • Video image data processing method, device and video conference system and terminal The application is submitted to the Chinese Patent Office on September 10, 2009, the application number is 200910161963.9, and the invention name is "video image data processing method, device and video conference system and terminal". The priority of the Chinese Patent Application, the entire contents of which is incorporated herein by reference.
  • the present invention relates to the field of communications, and in particular, to a video image data processing method and apparatus, and a video conference system and terminal. Background of the invention
  • a video conference terminal at the transmitting end uses a single high-definition camera to capture images, and the captured high-definition video resolutions are generally 720p30f, 720p60f, 1080i30f, 1080i 60f, 1080p30f, 1080p60f, etc., and then, The captured video is compression-encoded to generate a video code stream; then, the video code stream is transmitted to the video conference terminal at the receiving end through the data transmission network; the video conference terminal at the receiving end decodes the received video code stream, and obtains the high-end of the transmitting end. Video image, and display.
  • the above video conferencing terminal can provide a higher video resolution than the standard definition video conferencing terminal, and can provide a better visual experience for the user.
  • the video image angles provided are limited.
  • Cisco's "television” system solves the above problems to a certain extent.
  • the structure of the system is shown in Figure 1. It includes multiple video terminals, each video terminal is equipped with a high-definition camera, and multiple cameras are equipped with strict physical position. Put, so that the multiple video images collected in the video are on the same level When displayed on multiple display devices, the viewer's feeling is continuous.
  • the scheme has strict requirements on the decoration layout of the conference room, especially the position of the camera group and the distance between the user and the camera group. Otherwise, the images displayed on the display device will overlap. The phenomenon of this strict requirement makes the installation process of the system more complicated. Summary of the invention
  • the embodiments of the present invention provide a video image data processing method and apparatus, and a video conference system and a terminal, so as to solve the problem that the system installation process existing in the prior art is complicated.
  • a video image data processing method includes:
  • the wide-view video image data is reconstructed into multiple video image data adapted to the display requirement, and then sent to the display device for display.
  • a video image data processing apparatus includes:
  • a data input interface configured to acquire multiple inter-related video image data and associated information
  • a data combining unit configured to combine the multi-channel mutually associated video image data into a single-channel wide-view video image data by using the associated information ;
  • a data recombining unit configured to reassemble the wide-view video image data into multiple video image data adapted to display requirements
  • a plurality of data output interfaces connected to the external display device, for transmitting the video image data processed by the data recombining unit to the display device.
  • a video image data processing apparatus includes: a data input interface, configured to acquire multiple inter-related video image data and associated information of a plurality of camera sets;
  • a data combining unit configured to combine the multiplexed video image data into single-channel wide-view video image data by using the association information
  • a data recombining unit configured to reassemble the wide-view video image data into multiple video image data adapted to display requirements
  • a data sending unit configured to send the multi-channel video image data processed by the data recombining unit to the remote video conferencing device through the communication network, so that the video conferencing device displays through the corresponding display device.
  • a video image data processing apparatus includes:
  • a data input interface configured to obtain encoded multi-channel video image data
  • the plurality of data decoders simultaneously decode the encoded multi-channel video image data, and the decoded multi-channel video image data includes a plurality of sub-images into which the wide-view video image is divided and synchronization information and reconstruction information corresponding thereto ;
  • a data synchronization unit classifying the decoded sub-image according to synchronization information corresponding thereto;
  • a data reconstruction unit reconstructing the classified sub-image according to the reconstruction information, to obtain multiplexed video image data, wherein each video image data is arranged according to its position in the wide-view video image data;
  • the plurality of data output interfaces are connected to the plurality of external display devices, and are configured to respectively transmit the video image data obtained by the data reconstruction unit to the corresponding display device.
  • a video conferencing system includes:
  • a data input interface configured to acquire multiple inter-related video image data and associated information
  • a data combining unit configured to process the multi-channel mutually associated video image data into a single-channel wide-view video image data by using the associated information ;
  • a data sending unit configured to send the wide-view video image data through a communication network
  • a data receiving unit configured to receive wide-view video image data carried on the communication network
  • a data recombining unit configured to reassemble the wide-view video image data received by the data receiving unit into multiple video image data adapted to display requirements
  • the plurality of data output interfaces are connected to the plurality of external display devices for transmitting the respective video image data processed by the data recombining unit to the corresponding display device.
  • a video conferencing system includes:
  • a data input interface configured to acquire a plurality of mutually associated video image data and associated information
  • a data sending unit configured to send the plurality of mutually associated video image data and associated information through a communication network
  • a data receiving unit configured to receive the multiple interrelated video image data and associated information carried on the communication network
  • a data combining unit configured to process the multiplexed video image data into single-channel wide-view video image data by using the association information
  • a data recombining unit configured to reassemble the wide-view video image data into multiple video image data adapted to display requirements
  • the plurality of data output interfaces are connected to the plurality of external display devices for transmitting the respective video image data processed by the data recombining unit to the corresponding display device.
  • a video conferencing system includes:
  • a data input interface configured to acquire multiple inter-related video image data and associated information
  • a data combining unit configured to process the multi-channel mutually associated video image data into a single-channel wide-view video image data by using the associated information ;
  • a data recombining unit configured to reassemble the wide-view video image data into multiple video image data adapted to display requirements
  • a data sending unit configured to send the multi-channel video image data processed by the data recombining unit through a communication network
  • a data receiving unit configured to receive the multiple video image data carried in a communication network
  • the plurality of data output interfaces are connected to the plurality of external display devices, and are configured to respectively transmit the respective video image data received by the data receiving unit to the corresponding display device.
  • a video conference terminal includes:
  • a data input interface configured to acquire multiple inter-related video image data and associated information
  • a data combining unit configured to process the multi-channel mutually associated video image data into a single-channel wide-view video image data by using the associated information ;
  • a data transceiving unit configured to send the wide-view video image data to a remote video conferencing device through a communication network, and receive single-channel wide-view video image data sent by the video conferencing device through the communication network;
  • a data recombining unit configured to reassemble the wide-view video image data received by the data transceiver unit into multi-channel video image data adapted to display requirements
  • the plurality of data output interfaces are connected to the plurality of external display devices for transmitting the respective video image data processed by the data recombining unit to the corresponding display device.
  • a video conference terminal includes:
  • a data input interface configured to acquire a plurality of interrelated video image data and associated information
  • a data transceiving unit configured to send the multi-channel video image data and associated information to a remote video conferencing device through a communication network, and Receiving multi-channel video image data and associated information sent by the video conference device through the communication network
  • a data combining unit configured to process the multiplexed video image data into single-channel wide-view video image data by using the association information
  • a data recombining unit configured to reassemble the wide-view video image data processed by the data combining unit into multi-channel video image data adapted to display requirements
  • the plurality of data output interfaces are connected to the plurality of external display devices for transmitting the respective video image data processed by the data recombining unit to the corresponding display device.
  • a video conference terminal includes:
  • a data input interface configured to acquire multiple interrelated video image data and associated information
  • a data combining unit configured to process the multiplexed video image data into single-channel wide-view video image data by using the association information
  • a data recombining unit configured to reassemble the wide-view video image data processed by the data combining unit into multi-channel video image data adapted to display requirements
  • a data transceiving unit configured to send the multi-channel video image data processed by the data recombining unit to the remote video conferencing device through the communication network, and receive the reassembled by the video conferencing device by using the communication network Multiple video image data;
  • the plurality of data output interfaces are connected to the plurality of external display devices for transmitting the respective video image data received by the data transceiver unit to the corresponding display device.
  • the embodiment of the present invention processes the multi-channel video image data into a single-channel wide-view video image data after acquiring multiple video image data collected by multiple cameras. And according to the display needs to reconstitute a number of road video image data for display.
  • the operation of processing the multi-channel video image data into the single-channel wide-view video image data can eliminate the overlap between the video image data, and therefore, can allow the camera to collect the video image data between the video images. There is overlap, which reduces the requirement for the position of the camera and the distance between the user and the camera group, which simplifies the installation complexity of the system.
  • FIG. 1 is a schematic structural diagram of a video conference system provided by the prior art
  • FIG. 2 is a schematic diagram of an associated video image in an embodiment of the present invention.
  • FIG. 3 is a schematic diagram of combining associated video images in an embodiment of the present invention.
  • FIG. 4 is a flowchart of a video image data processing method according to an embodiment of the present invention
  • FIG. 5 is a schematic diagram of video image data recombination in a video image data processing method according to an embodiment of the present invention
  • 6 is a schematic diagram of a video image data transmission process in a video image data processing method according to an embodiment of the present invention
  • FIG. 7 is a schematic diagram of a video image data receiving process in a video image data processing method according to an embodiment of the present invention.
  • FIG. 8 is a schematic structural diagram of a video image data processing apparatus according to an embodiment of the present invention.
  • FIG. 9 is another schematic structural diagram of a video image data processing apparatus according to an embodiment of the present invention.
  • FIG. 10 is another schematic structural diagram of a video image data processing apparatus according to an embodiment of the present invention.
  • FIG. 11 is another schematic structural diagram of a video image data processing apparatus according to an embodiment of the present invention.
  • FIG. 12 is a schematic structural diagram of a video conference system according to an embodiment of the present invention
  • FIG. 13 is a schematic structural diagram of another video conference system according to an embodiment of the present invention
  • FIG. 15 is a schematic structural diagram of a video conference terminal according to an embodiment of the present invention
  • FIG. 16 is another schematic diagram of a video conference terminal according to an embodiment of the present invention
  • FIG. 17 is a schematic diagram of another structure of a video conference terminal according to an embodiment of the present invention
  • FIG. 18 is another schematic structural diagram of a video conference terminal according to an embodiment of the present invention. Mode for carrying out the invention
  • H.320 ITU-T Recommendation
  • H.320 Narrow-band visual telephone Systems and terminal equipment, a standard specified by the International Telecommunication Union Telecommunication Standards Department, which specifies a multimedia communication system based on a narrowband switching system
  • ITU-T Recommendation H.320
  • Narrow-band visual telephone Systems and terminal equipment a standard specified by the International Telecommunication Union Telecommunication Standards Department, which specifies a multimedia communication system based on a narrowband switching system
  • IP Internet Protocol
  • ie network protocol
  • ISDN Integrated Services Digital Network
  • Integrated Services Digital Network namely: Integrated Services Digital Network
  • RTP Real-time Transport Protocol, real-time transport protocol
  • MCU Multipoint Control Unit, multipoint control unit
  • DVI Digital Visual Interface
  • digital video interface digital video interface
  • HDMI High Definition Multimedia Interface
  • high definition multimedia interface high definition multimedia interface
  • VGA Video Graphic Array
  • display drawing array
  • MPEG Moving Pictures Experts Group
  • MPEG1 Moving Picture Experts Group
  • MPEG2 Moving Picture Experts Group
  • MPEG4 are all MPEG standards.
  • Correlated video images (hereinafter referred to as associated video images for convenience of description): Refers to video images acquired by multiple cameras in the same scene. Generally, since the camera positions are relatively random, these images exist between the images.
  • the overlapping area as shown in Fig. 2, is a superimposed area of the image 21 and the image 22, and the image 21 and the image 22 belong to the associated image.
  • the image combination combines a plurality of small-sized (small-view) images from the same scene into a large-sized (wide-angle) image; for the above-mentioned interrelated images, the overlapping regions are processed during assembly. For example, after processing the image 21 and the image 22 shown in 2, an image 23 is obtained, as shown in FIG. The image is reorganized, and a large-sized video image is segmented and filtered to form a plurality of small-sized video images.
  • the embodiment of the invention discloses a video image data processing method, which combines the acquired multi-channel mutually correlated video image data into single-channel wide-view video image data, and then weights the wide-view video image data according to display requirements.
  • the video image data constituting one or more channels is displayed by the display device.
  • the number of the display devices may be multiple, and after the combined wide-view video image data is reconstructed into multiple video image data, it may be separately sent to each display device.
  • the display device displays the position of each video image data in the wide-view video image data, thereby providing the user with a wide viewing angle visual experience.
  • the specific process is shown in Figure 4, including the following steps:
  • Step S41 Acquire multiple associated video image data and associated information between the video image data.
  • the plurality of interrelated video image data are from a plurality of cameras disposed in the same scene, and the cameras are mounted at different positions in the scene.
  • the association information includes: physical location information indicating the video image data, and timestamp information in which the video image data is captured.
  • Step S42 Combine the multiple video image data into single-channel wide-view video image data according to the associated information.
  • each video image data is combined according to the physical location of each video image data and the captured time stamp information to form a single-channel wide-view video image data.
  • Step S43 recombining the wide-view video image data into multiple video image data adapted to display requirements.
  • the wide-view video image data is recombined and filtered into video image data of the corresponding number of channels for the number of display devices, the size of the supported picture, and the supported video image data format.
  • Step S44 Send each of the reconstructed video image data to each display device for display.
  • the number of display devices is four, as shown in FIG. 5a, respectively, 51a, 52a, 53a, and 54a
  • the wide-view video image data is recomposed into four channels according to the display position, and then respectively transmitted to the corresponding display device display, and thus
  • Each display device can arrange the displayed image into a wide viewing angle video image according to the position of the image in the wide-view video image data; if the number of display devices is three, as shown in FIG. 5b, respectively 51b, 52b and 53b, the wide-view video image data is reorganized into three channels according to the image display position, and then transmitted to the corresponding display device display respectively.
  • the size of the display screen supported by the display device may be different. Therefore, when the wide-view video image data is reorganized, the wide-view video image data needs to be recomposed into the video image data of the corresponding size according to the display screen size supported by the display device.
  • the display device supports the HDMI video input interface and supports the 1080 ⁇ video format, and the resolution of the wide-view image is 4000*1080.
  • the wide-view video image data is recombined into two. It is more suitable to display 1080p video image data with a path resolution of 1920*1080.
  • the video interface type of acquiring the video image may be any one or more of a YPbPr interface, a DVI interface, an HDMI interface, or a VGA interface, that is, a video input interface provided by each camera. They can be the same or different.
  • the reconstructed video image data format is consistent with the video image format supported by the display device, and is determined according to the video image format supported by the display device.
  • the video input interface type in the above step S41 may be the same as the video output interface type outputted in step S44 (for example, the video input interface type is YPbPr interface, the output video interface type is also YPbPr interface) or different (such as video input).
  • the interface type is YPbPr interface, and the output video interface type can be HDMI interface).
  • the video interface type and the video image data format supported by each display device are different, after the single-channel wide-view video image data is reconstructed into the multi-channel video image data, the video interface type supported by the corresponding display device is also required. Supported videos The image format is separately formatted and converted to the corresponding display device.
  • the embodiment of the present invention After acquiring multiple video image data collected by multiple cameras, the embodiment of the present invention combines multiple video image data into single-channel wide-view video image data, and reconstructs a plurality of video image data according to display requirements, and then sends the video image data to the display.
  • the device is displayed. It is only necessary to arrange the display device according to the position of the video image in the wide-view video image data to combine the displayed video images into a wide-view video image to provide a better visual experience for the user.
  • the multi-channel video image data is combined into a single-channel wide-view video image data, and since the overlap between the video image data can be eliminated in the combining process, the images acquired by the cameras can be allowed to exist. Overlap, which means that there is no strict requirement for the position of the camera and the distance between the user and the camera group, which reduces the complexity of installing the camera.
  • the display device may also be a display device having image data adapted to wide-view video.
  • the number of the display devices may be one, and after the combined wide-view video image data is reconstructed into multiple video image data, the The multiplexed video image data is transmitted to the display device in accordance with its position in the wide-view video image data, and the display device combines the video images into wide-view video image data for display.
  • the embodiment of the present invention can be applied to a remote wide-view video conference process. Each party participating in the conference can send the video image data of the party to the other party (ie, the video image data transmission process), and receive the video image data sent by the other party and display it ( That is: video image data receiving process).
  • the video image data sending process may be as shown in FIG. 6, and includes the following steps:
  • Step S61 Acquire video image data collected by a plurality of cameras installed in the local conference site and associated information between the video image data.
  • each camera is set up in a different position, but the acquired video image data is associated with each other, and the related information includes a physical location of each video image data and a time stamp obtained.
  • Step S62 Combine the multiple video image data into one-way wide-view video image data according to the physical location of each video image data and the acquisition time stamp.
  • Step S63 Send the wide-view video image data through a communication network.
  • the acquisition process of the video image data collected by the plurality of cameras and the associated information between the video image data is performed simultaneously in the above step S61, and it is undoubted that the users in front of the plurality of displays can When you see the picture at the same time in front of the camera, you must ensure that multiple cameras simultaneously capture the scene image.
  • the network interface of the communication network may be: circuit-switched ISDN, El interface, V35 interface, packet-switched Ethernet interface, or wireless connection-based wireless port.
  • the video image data receiving process may be as shown in FIG. 7, and includes the following steps:
  • Step S71 Acquire wide-view video image data sent from the conference site from the communication network.
  • Step S72 Reassemble the wide-view video image data into multiple video image data adapted to display requirements.
  • Step S73 Send each video image to the corresponding display device for display.
  • the video image data transmission process may be: after acquiring the multi-channel video image data and the association information between the video image data, directly transmitting through the communication network.
  • the video image data receiving process is: after receiving the multi-channel video image data and associated information, combining the multi-channel video image data into single-channel wide-view video image data according to the associated information, according to the display device The quantity, the wide-view video image data is reconstructed into multiple video image data and sent to the corresponding display device for display.
  • the association information between the multiple video image data may be embedded in the video image data (or the compressed video image data) for transmission, for example, when the communication network is Ethernet.
  • the associated information may be embedded in a video RTP packet for transmission, which facilitates synchronization of the associated information with the video image data.
  • the associated information can also be transmitted separately, for example via an independent data channel.
  • the video image data sending process may further be: after acquiring the multi-channel video image data and the associated information between the video image data, the multi-channel video is obtained according to the related information.
  • the image data is combined into single-channel wide-view video image data, and the wide-view video image data is reconstructed into multi-channel video image data according to the number of display devices (display devices of the other party's site), and then transmitted through the communication network.
  • the video image data receiving process is: directly receiving the multi-channel video image data obtained by the recombination, and directly transmitting the data to the display device of the local conference.
  • the manner of the wide-view video image data sent by the transmitting end may be directly sent, or may be sent after being encoded.
  • the encoding method may be: H.261, H.263, H.264, MPEG1, MPEG2 or MPEG4.
  • the wide-view video image data received by the receiving end may be original data that has not been encoded, or may be encoded data.
  • the size of the combined image is generally several times the size of the original image. In this case, even if the encoder is used for encoding, the amount of data transmitted is still relatively large. The ability of the device poses demanding requirements.
  • another embodiment of the present invention uses a plurality of encoders to perform parallel processing.
  • the sequence of data after encoding cannot guarantee synchronization, in order to ensure display on multiple displays at the display end. The images are taken at the same time, and the encoded data needs to be synchronized.
  • the process of reorganizing the wide-view video image data is actually an image segmentation process, including the steps:
  • the synchronization information is specifically: the timestamp of the received wide-view video image data, which may also be a customized serial number, and the serial number is defined in such a manner as to ensure that multiple sub-images belonging to the same wide-view video image data are divided.
  • the serial number conforms to a predetermined rule, and may be the same or continuous, for example.
  • Reconstruction information is allocated for the division manner of each sub-image, and the reconstruction information is used to record the division manner of each sub-image.
  • the above video image data processing method further includes a synchronization process and a reconstruction process, The following are introduced separately:
  • the synchronization process is as follows:
  • each sub-image sent by the other device and its corresponding synchronization information and reconstruction information are received, and then the sub-images are classified according to the synchronization information to find out that the image belongs to the same wide-view video image.
  • the device performing the above method has a receiving buffer, a reconstruction buffer, and a sending buffer, and the receiving buffer receives the divided sub-images, and the synchronization information of the sub-images belonging to the same wide-view image conforms to a preset rule, for example, the same or consecutive,
  • the reconstructed cache stores the sub-images to be reconstructed, and the send buffer stores the reconstructed images.
  • the reconstruction information may be a segmentation manner, the reconstruction process is: reconstructing the classified sub-image according to the segmentation to obtain multi-channel video image data, wherein each channel video image data is in accordance with the width thereof The positional arrangement in the video image data.
  • the specific process of synchronization and reconstruction may include:
  • Step a initialization operation, that is, determining minimum synchronization information MinSyinfo;
  • the "minimum synchronization information" described in this step may not be minimal, and it may be arbitrarily selected, which is the assumed "minimum synchronization information”.
  • Step b The unselected sub-image is taken out from the receiving buffer, and the synchronization information CurrSyinfo is obtained.
  • Step c determining whether MinSyinfo is greater than CurrSyinfo, and if yes, proceeding to step d; otherwise, proceeding to step e;
  • Step d determining CurrSyinfo as MinSyinfo, returning to step b;
  • Step e performing CDT (Check Delay Time) processing, if the processing delay is greater than the specified delay, then proceeds to step f; otherwise, proceeds to step g;
  • CDT Check Delay Time
  • Step f directly output the image stored in the send buffer, and return to step a;
  • Step g determining whether MinSyinfo is smaller than CurrSyinfo, and if yes, returning to step b; otherwise, proceeding to step h;
  • Step h performing CDT processing, if the processing delay is greater than the specified delay, then entering the step f; Otherwise, proceed to step i;
  • Step i storing the sub image in a reconstruction cache
  • Step j determining whether there is still an unselected sub-image in the receiving buffer, and if so, returning to step b, if not, proceeding to step k;
  • Step k reconstruct the sub-image stored in the reconstruction cache according to the reconstruction information, store the reconstructed image in the transmission buffer, and proceed to step f.
  • the buffer is not released immediately, so when entering step f from step e or step f, the image stored in the sending buffer is the image of the previous frame successfully reconstructed.
  • the image stored in the sending buffer is updated by the step k, and the update may be a method of data coverage, or a method of releasing the sending buffer first, storing the data, or other data updating manner.
  • the plurality of sub-images and their corresponding synchronization information and reconstruction information are encoded before the plurality of sub-images and their corresponding synchronization information and reconstruction information are transmitted, and the coding manner is performed.
  • It can be a compressed standard stream format that conforms to the current mainstream standards, such as h261, h263, h263++, mpegl, mpeg2 or mpeg4.
  • the decoding is performed first, corresponding to multiple encoders of the recombination process, and corresponding decoders may also be configured with multiple . Then, the decoded sub-images are classified according to the synchronization information to find a plurality of sub-images that are divided by the same wide-view video image data, that is, image information obtained at the same time.
  • the embodiment of the invention also discloses a video image data processing device, which can implement the method disclosed in the above embodiment.
  • a structural form of the video image data processing apparatus is as shown in FIG. 8, and includes: a data combining unit 81, a data recombining unit 82, a data input interface 83, and a data output unit 84.
  • the number of data input interfaces 83 is multiple, and is respectively connected to multiple cameras for acquiring multiple channels.
  • the video image data and the association information between the video image data, the association information includes: physical location information for indicating the video image data, and time stamp information for capturing the video image data.
  • the data combining unit 81 is configured to combine the multiple video images into single-channel wide-view video image data according to the associated information. Specifically, the multi-channel video images are combined into single-channel wide-view video image data according to the physical location and acquisition time of each video image data.
  • the data recombining unit 82 reassembles the single-channel wide-view video image data into multiple video image data played by a plurality of display devices for the number and size of the display devices and the supported video image format.
  • the data output unit 84 is configured to: the multi-channel video image data processed by the data recombining unit 82, wherein the remote video conferencing device can position the multi-channel video image data according to the video image in the wide-view video image. After being arranged, it is transmitted to the plurality of display devices. The video images displayed by all display devices can be combined into a wide-angle video image to give the user a wide viewing experience.
  • the type of the data input interface 83 may be a YPbPr interface, a DVI interface, an HDMI interface, or a VGA interface.
  • another structure of the video image data processing apparatus may further include a functional unit for performing compression coding, as shown in FIG.
  • the combining unit 91, the data recombining unit 92, the data input interface 93, the data output unit 94, and the data encoder 95 may further include a functional unit for performing compression coding, as shown in FIG.
  • the functions of the data combining unit 91, the data recombining unit 92, the data input interface 93, and the data output unit 94 are substantially the same as those of the data combining unit 81, the data recombining unit 82, the data input interface 83, and the data output unit 84, respectively.
  • the data encoder 95 is configured to acquire the multi-channel video image data obtained by the data recombining unit 92, The code is supplied to the data output unit 94.
  • the encoding method can be: H.261, H.263, H.264, MPEG1, MPEG2 or MPEG4.
  • each of the video image data processed by the data recombining unit 92 includes: each sub-image after the reorganization of the wide-view video image and synchronization information and recombination information corresponding thereto.
  • the device that receives the multi-channel video image data may perform a synchronization process and a reconstruction process according to the synchronization information and the reconstruction information,
  • the specific content of the synchronization process and the reconstruction process can be referred to the description in the previous method section, and will not be described here.
  • the device for receiving the multi-channel video image data is another structural form of the video image data processing device, and includes: a plurality of data input interfaces and a plurality of data output interfaces, and further includes a data decoder and data synchronization.
  • Unit and data reconstruction unit where:
  • the data input interface is configured to obtain encoded multi-channel video image data
  • the number of the data decoders is multiple, and is used for simultaneously decoding the encoded multi-channel video image data, and the decoded multi-channel video image data includes a plurality of sub-images into which the wide-view video image is divided and corresponding thereto. Synchronization information and reconstruction information;
  • the data synchronization unit is configured to: classify the decoded sub-image according to the synchronization information corresponding thereto, and the specific process may refer to the description in the foregoing method embodiment.
  • the data reconstruction unit is configured to: reconstruct the classified sub-image according to the reconstruction information, obtain multi-channel video image data, and provide the data output interface, and each video image data according to the width thereof The positional arrangement in the video image data.
  • FIG. 10 Another structural form of the video image data processing apparatus is as shown in FIG. 10, including: a data combining unit 101, a data recombining unit 102, a data input interface 103, and a plurality of data output interfaces 104.
  • the functions of the data combining unit 101 and the data recombining unit 102 are substantially the same as those of the data combining unit 81 and the data recombining unit 82, respectively.
  • the difference between this structure and the structure shown in Fig. 8 is that the association information between the multi-channel video image data acquired by the data input interface 103 and each video image is transmitted by the other device from the communication network.
  • the plurality of data output interfaces 104 are respectively connected to the plurality of display devices, and the multi-channel video image data processed by the data recombining unit 102 is sent to each display device according to the position of the video image in the wide-view video image, and all the displays are displayed.
  • the video images displayed by the device can be combined into a wide viewing angle video image.
  • the data input interface 103 may be composed of a network interface and a data receiving unit, where the network interface is used to establish a connection with the communication network, and the data receiving unit receives the video image transmitted by the other device from the communication network through the network interface. data.
  • the network interface may be a circuit switched based ISDN, El interface, V35 interface, packet switched based Ethernet interface or a wireless connection based wireless port.
  • the functional unit includes: a data combining unit 111, a data recombining unit 112, a plurality of data input interfaces 113, and a data output interface 114, and a data decoder 115, wherein:
  • the functions of the data combining unit 111, the data recombining unit 112, the data input interface 113, and the data output interface 114 are substantially the same as those of the data combining unit 101, the data recombining unit 102, the data input interface 103, and the data output interface 104, respectively.
  • the data encoder 115 is configured to decode the multi-channel video image data acquired by the data input interface 113 and the association information between the video images, and then provide the data to the data combining unit 111.
  • the embodiment of the present invention further provides a video conference system.
  • the specific structure of the system is as shown in FIG. 12, and includes: a data combining unit 121, a data sending unit 122, a data receiving unit 123, and a data recombining unit 124.
  • the data combining unit 121, the data transmitting unit 122, and the data input interface 125 are located at a site of the video conference.
  • the plurality of data input interfaces 125 acquire the associated information between the multi-channel video image data and the respective video image data, and the data combining unit 121 combines the multi-channel video images into a single-channel wide-view video image according to the associated information.
  • Data, then, the single-channel wide-view video image data is transmitted by the data transmitting unit 122 to the other party located at the far end through the communication network.
  • the data receiving unit 123, the data recombining unit 124, and the data output interface 126 are located at the other party site located at the far end.
  • the data receiving unit 123 will receive the single-channel wide-view video image data carried on the communication network, and then provide the data to the data recombining unit 124.
  • the data recombining unit 124 will use the single device according to the number of display devices, the supported picture size, and the video image format.
  • the road wide video image data is reconstructed into multiple video image data adapted to be played by a plurality of display devices, and is provided by the data output interface 126 to the corresponding display device.
  • the display device is arranged according to the position of the video image in the wide-view video image, and the video images displayed by all the display devices can be combined into a wide-angle video image to provide a wide-view visual experience for the user.
  • the data input interface 125 and the data output interface 126 may be of a YPbPr interface, a DVI interface, an HDMI interface, or a VGA interface.
  • the types of the data input interface 125 and the data output interface 126 may be different.
  • the video image data acquired by the data input interface 125 may be format-converted by the data recombining unit 123 for the type of the data output interface 126 when recombined.
  • the data input interface 125 is a DVI interface
  • the captured video image data is in a DVI format
  • the data output interface 126 is an HDMI interface. Therefore, the data recombining unit 123 needs to display a D VI format video image when performing video image data recombination.
  • the data is converted to video image data in HDMI format.
  • the conference site needs to perform the work of the sender and the receiver at the same time, that is, the video image data of the local site is transmitted through the data input interface 125, the data combination unit 121, and the data sending unit 122, and the data receiving unit 123 and the data recombining unit are 124 and the data output interface 126 receive and process the pair Video image data of the party venue.
  • FIG. 13 is another schematic structural diagram of a video conference system according to an embodiment of the present invention, including: a data combining unit 131, a data sending unit 132, a data receiving unit 133, a data recombining unit 134, and multiple data inputs. Interface 135 and data output interface 136.
  • the data sending unit 132 and the plurality of data input interfaces 135 are located at one site, and the data receiving unit 133, the data combining unit 131, the data recombining unit 134, and the plurality of data output interfaces 136 are located at the other site.
  • the plurality of data input interfaces 135 acquire the associated information between the plurality of video image data and the respective video image data, and the data transmitting unit 132 transmits the associated information between the multiple video image data and each of the video image data to the communication network.
  • the data receiving unit 133 which is in the other party, receives the associated information between the video image data and the video image data, and provides the data to the data combining unit 131.
  • the data recombining unit 131 is based on the associated information.
  • the wide-view video image data is reconstructed into multiple video image data adapted to be played by a plurality of display devices, and is provided by the data output interface 136 to the corresponding display device.
  • the data transmitting unit since the above-mentioned data transmitting unit (data transmitting units 122 and 132) transmits the video image data through the communication network, in order to reduce the amount of transmitted data and ensure the security of the data, the data transmitting unit transmits The data can be encoded.
  • the data receiving unit (data receiving units 123 and 133) decodes after receiving the data transmitted by the communication network. It should be noted that, in other systems of the structure, after receiving the multi-channel video image data and the associated information, the sender combines the multi-channel video image data into a single-channel wide-view video image data according to the associated information.
  • the specific structural form is as shown in FIG. 14, and includes: a data combining unit 141, a data transmitting unit 142, a data receiving unit 143, a data recombining unit 144, and a plurality of data input interfaces 145 and a data output interface 146.
  • the functions of the units are basically the same as those of the units in FIG. 12 and FIG. 13, except that the data input interface 145, the data combining unit 141, the data recombining unit 144, and the data transmitting unit 142 are in one site, the data receiving unit. 143 and data output interface 146 are in the other party venue. This means that the data reorganization unit 144 at one site needs to reorganize the video image data according to the number of display devices of the other site, the supported picture size, and the video image format.
  • the data encoder, the data decoder, the data synchronization unit, and the data reconstruction unit may further be included, where:
  • the number of the data encoders is multiple, and is set in the site where the data recombining unit 144 is located, and is used to simultaneously process the multi-channel video image data recombined by the data recombining unit 144, and the video obtained by the data recombining unit 144 is recombined.
  • the image data includes: each sub-image after the wide-view video image segmentation and synchronization information and recombination information corresponding thereto;
  • the number of the data decoders is the same as the number of the data encoders, and is disposed at the site where the data receiving unit 143 is located, for simultaneously decoding the encoded multi-channel video image data received by the data receiving unit 143;
  • the data synchronization unit is configured to: classify the sub-images decoded by the respective data decoders according to their corresponding synchronization information, and the specific process may refer to the description in the foregoing method embodiment.
  • the data reconstruction unit is configured to: reconstruct the classified sub-image according to the reconstruction information, obtain multi-channel video image data, and provide the data output interface, and press each video image data according to Arranged according to their position in the wide-view video image data.
  • the embodiment of the present invention also discloses a video conference terminal, which considers that the roles of the parties of the video conference are mutual (simultaneously as the sender and the receiver).
  • a specific structure of the video conference terminal is as shown in FIG. 15, and includes: a data combination unit 151, a data transceiver unit 152, a network interface 153, a data reassembly unit 154, and a plurality of data input interfaces 155 and a data output interface 156.
  • the network interface 153 is used to establish a connection with an external communication network, and the data transceiving unit 152 is configured to acquire data transmitted by the communication network and transmit data to the communication network.
  • the video conference terminal needs to acquire the multi-channel video image data of the local site and the association information between the video image data of each party, and combine the single-channel wide-view video image data to be sent to the conference site through the communication network; At the same time, as the receiving party, the video conference terminal needs to receive the wide-view video image data sent by the other party's site through the communication network, and reassemble the image into a multi-channel video data image and transmit it to the display device of the local conference site.
  • FIG. 16 shows another structure of the video conference terminal, including a data combining unit 161, a data transceiving unit 162, a network interface 163, a data recombining unit 164, and a plurality of data input interfaces 165 and a data output interface 166, and also includes data.
  • Encoder 167 and data decoder 168 are also included in the video conference terminal.
  • the data encoder 167 encodes the data before the data transceiving unit 162 transmits the data, and the data decoder 168 decodes the data after the data transceiving unit 162 receives the data.
  • FIG. 17 Another structure of the video conferencing terminal is as shown in FIG. 17, and includes: a data combining unit 171, a data transceiving unit 172, a network interface 173, a data recombining unit 174, and a plurality of data input interfaces 175 and a data output interface 176.
  • the difference is that when the video conference terminal is the sender, the multiplex video image data of the local conference site and the association information between the video image data of each party are obtained, and then directly transmitted to the conference site through the communication network.
  • the multi-channel video image data sent by the other party's site through the communication network and the associated information between the video image data are received, and the single-channel wide-view video image data is combined and then reorganized into multiple channels.
  • the video data image is transmitted to the display device of the local conference site.
  • FIG. 18 shows another structure of the video conference terminal, including a data combining unit 181, a data transceiving unit 182, a network interface 183, a data recombining unit 184, and a plurality of data input interfaces 185 and a data output interface 186, and also includes data.
  • Encoder 187 and data decoder 188 where:
  • each unit is basically the same as the function of each unit shown in FIG. 16 .
  • the difference is: when the video conference terminal is used as the sender, the multi-channel video image data of the local conference site and the video image data of each channel are acquired.
  • the associated information is encoded and sent directly to the other site through the communication network.
  • the multi-channel video image data sent by the other party's site through the communication network and the associated information between the video image data of each channel are received, decoded and combined into a single-channel wide-view video image data, and then reorganized into multiple
  • the video data image is transmitted to the display device of the local conference site.
  • the multi-channel video image data of the local conference site and the associated information between the video image data of each party are acquired, and the single-channel wide-view video image is combined.
  • the single-channel wide-view video image data is recomposed into multiple video image data played by multiple display devices, and then communicated.
  • the network (or encoded and transmitted through the communication network) is sent to the other site.
  • receiving the multi-channel video data image sent by the other party through the communication network it is displayed to the display device of the local site (or displayed to the display device of the local site after decoding).
  • the multi-channel video image data obtained by the recombination can be simultaneously encoded by multiple encoders, and when decoding is performed, the encoded multiple is simultaneously performed by multiple decoders.
  • the road video image data is decoded, and the synchronization process and the reconstruction process are performed, that is, the sub-image decoded by the data decoder is classified according to the synchronization information corresponding thereto, and the classification is performed according to the reconstruction information.
  • the subsequent sub-images are reconstructed to obtain multiplexed video image data, wherein each of the video image data is arranged in accordance with its position in the wide-view video image data.
  • information, messages, and signals can be represented using any of a number of different processes and techniques.
  • the messages and information mentioned in the above description can be expressed as voltage, current, electromagnetic wave, magnetic field or magnetic particle, light field or any combination of the above.
  • the storage medium can include: , RAM, disk or CD, etc.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

视频图像数据处理方法、 装置及视频会议系统及终端 本申请要求于 2009 年 09 月 10 日提交中国专利局、 申请号为 200910161963.9、 发明名称为"视频图像数据处理方法、 装置及视频会议系统 及终端 "的中国专利申请的优先权, 其全部内容通过引用结合在本申请中。 技术领域
本发明涉及通信领域, 特别涉及一种视频图像数据处理方法、 装置及视 频会议系统及终端。 发明背景
随着编码和信息压缩技术的发展以及数字网络的高速发展, 视频会议系 统出现并步入市场, 从上世纪 90年代初期第一套关于视频会议系统的国际标 准(H.320 )获得通过并实施以来, 视频会议系统得到了越来越广泛的应用, 同时, 其所提供的语音体验、 视频体验的需求也越来越受到关注。 对于语音 体验需求方面, 将向着高保真语音重现方面演进, 而视频体验需求方面将向 着高分辨率、 宽视角方面演进。
现有的视频会议电视系统中, 由发送端的视频会议终端釆用单个高清摄 像头进行图像的捕获, 捕获的高清视频分辨率一般为 720p30f、 720p60f、 1080i30f、 1080i 60f、 1080p30f、 1080p60f等, 然后, 将捕获的视频进行压缩 编码, 生成视频码流; 接着, 通过数据传输网络, 将视频码流传送到接收端 的视频会议终端; 接收端的视频会议终端对接收到的视频码流进行解码, 得 到发送端的高清视频图像, 并显示。
上述视频会议终端能够提供比标清视频会议终端更高的视频分辨率, 能 够给用户带来更好的视觉体验。 但是, 提供的视频图像视角比较有限。
思科公司的"网真"系统一定程度上解决了上述问题,该系统的结构如图 1 所示, 包括多台视频终端、 各视频终端配备一台高清摄像头, 多台摄像头釆 用严格物理位置摆放, 以使得在釆集到的多路视频图像在位于同一水平面上 的多台显示设备上进行显示时, 给观看者的感觉是连续的。
然而, 发明人发现, 上述方案至少存在以下问题:
该方案对会议室的装修布局要求比较严格, 尤其是对摄像机组的位置摆 放、 使用者距离摄像机组间距离的大小都有及其严格的要求, 否则, 显示设 备上显示的图像将出现重叠的现象, 这种严格要求使得系统的安装过程比较 复杂。 发明内容
有鉴于此, 本发明实施例提供一种视频图像数据处理方法、 装置及视频 会议系统及终端, 以解决现有技术存在的系统安装过程复杂的问题。
本发明实施例是这样实现的:
一种视频图像数据处理方法, 包括:
获取多路相互关联的视频图像数据及关联信息;
利用所述关联信息将所述多路相互关联的视频图像数据组合成单路宽景 视频图像数据;
将所述宽景视频图像数据重组成适应显示需求的多路视频图像数据后, 发送给显示设备显示。
一种视频图像数据处理装置, 包括:
数据输入接口, 用于获取多路相互关联的视频图像数据及关联信息; 数据组合单元, 用于利用所述关联信息将所述多路相互关联的视频图像 数据组合成单路宽景视频图像数据;
数据重组单元, 用于将所述宽景视频图像数据重组成适应显示需求的多 路视频图像数据;
多个数据输出接口, 与外部显示设备相连, 用于将所述数据重组单元处 理得到的视频图像数据传输给所述显示设备。
一种视频图像数据处理装置, 包括: 数据输入接口, 用于获取多台摄像机釆集的多路相互关联的视频图像数 据及关联信息;
数据组合单元, 用于利用所述关联信息将所述多路相互关联的视频图像 数据组合成单路宽景视频图像数据;
数据重组单元, 用于将所述宽景视频图像数据重组成适应显示需求的多 路视频图像数据;
数据发送单元, 用于将所述数据重组单元处理得到的多路视频图像数据 通过通信网络发送给远端的视频会议设备, 以使该视频会议设备通过相应的 显示设备显示。
一种视频图像数据处理装置, 包括:
数据输入接口, 用于获取编码后的多路视频图像数据;
多个数据解码器, 同时对编码后的多路视频图像数据进行解码, 解码后 的多路视频图像数据包含所述宽景视频图像分割成的多个子图像及与其相对 应的同步信息和重建信息;
数据同步单元, 将所述解码后的子图像根据与其对应的同步信息进行归 类;
数据重建单元, 根据所述重建信息对所述归类后的子图像进行重建, 得 到多路视频图像数据, 其中各路视频图像数据按照其在所述宽景视频图像数 据中的位置排列;
多个数据输出接口, 与外部多个显示设备相连, 用于将所述数据重建单 元处理得到的各路视频图像数据分别传输给相应的显示设备。
一种视频会议系统, 包括:
数据输入接口, 用于获取多路相互关联的视频图像数据及关联信息; 数据组合单元, 用于利用所述关联信息将所述多路相互关联的视频图像 数据处理成单路宽景视频图像数据;
数据发送单元, 用于将所述宽景视频图像数据通过通信网络发送; 数据接收单元, 用于接收承载于通信网络的宽景视频图像数据; 数据重组单元, 用于将所述数据接收单元接收的所述宽景视频图像数据 重组成适应显示需求的多路视频图像数据;
多个数据输出接口, 与外部多个显示设备相连, 用于将所述数据重组单 元处理得到的各路视频图像数据分别传输给相应的显示设备。
一种视频会议系统, 包括:
数据输入接口, 用于获取多路相互关联的视频图像数据及关联信息; 数据发送单元, 用于将所述多路相互关联的视频图像数据及关联信息通 过通信网络发送;
数据接收单元, 用于接收承载于通信网络的所述多路相互关联的视频图 像数据及关联信息;
数据组合单元, 用于利用所述关联信息将所述多路相互关联的视频图像 数据处理成单路宽景视频图像数据;
数据重组单元, 用于将所述宽景视频图像数据重组成适应显示需求的多 路视频图像数据;
多个数据输出接口, 与外部多个显示设备相连, 用于将所述数据重组单 元处理得到的各路视频图像数据分别传输给相应的显示设备。
一种视频会议系统, 包括:
数据输入接口, 用于获取多路相互关联的视频图像数据及关联信息; 数据组合单元, 用于利用所述关联信息将所述多路相互关联的视频图像 数据处理成单路宽景视频图像数据;
数据重组单元, 用于将所述宽景视频图像数据重组成适应显示需求的多 路视频图像数据;
数据发送单元, 用于将所述数据重组单元处理得到的多路视频图像数据 通过通信网络发送;
数据接收单元, 用于接收承载于通信网络的所述多路视频图像数据; 多个数据输出接口, 与外部多个显示设备相连, 用于将所述数据接收单 元接收到的各路视频图像数据分别传输给相应的显示设备。
一种视频会议终端, 包括:
数据输入接口, 用于获取多路相互关联的视频图像数据及关联信息; 数据组合单元, 用于利用所述关联信息将所述多路相互关联的视频图像 数据处理成单路宽景视频图像数据;
数据收发单元, 用于将所述宽景视频图像数据通过通信网络发送给远端 的视频会议设备, 以及, 接收所述视频会议设备通过所述通信网络发送的单 路宽景视频图像数据;
数据重组单元, 用于将所述数据收发单元接收到的宽景视频图像数据重 组成适应显示需求的多路视频图像数据;
多个数据输出接口, 与外部多个显示设备相连, 用于将所述数据重组单 元处理得到的各路视频图像数据分别传输给相应的显示设备。
一种视频会议终端, 包括:
数据输入接口, 用于获取多路相互关联的视频图像数据及关联信息; 数据收发单元, 用于将所述多路视频图像数据及关联信息通过通信网络 发送给远端的视频会议设备, 以及, 接收所述视频会议设备通过所述通信网 络发送的多路视频图像数据及关联信息;
数据组合单元, 用于利用所述关联信息将所述多路相互关联的视频图像 数据处理成单路宽景视频图像数据;
数据重组单元, 用于将所述数据组合单元处理得到的宽景视频图像数据 重组成适应显示需求的多路视频图像数据;
多个数据输出接口, 与外部多个显示设备相连, 用于将所述数据重组单 元处理得到的各路视频图像数据分别传输给相应的显示设备。
一种视频会议终端, 包括:
数据输入接口, 用于获取多路相互关联的视频图像数据及关联信息; 数据组合单元, 用于利用所述关联信息将所述多路相互关联的视频图像 数据处理成单路宽景视频图像数据;
数据重组单元, 用于将所述数据组合单元处理得到的宽景视频图像数据 重组成适应显示需求的多路视频图像数据;
数据收发单元, 用于将所述数据重组单元处理得到的多路视频图像数据 通过通信网络发送给远端的视频会议设备, 以及, 接收所述视频会议设备通 过所述通信网络发送的经过重组得到的多路视频图像数据;
多个数据输出接口, 与外部多个显示设备相连, 用于将所述数据收发单 元接收到的各路视频图像数据分别传输给相应的显示设备。
从上述的技术方案可以看出, 与现有技术相比, 本发明实施例在获取多 个摄像机釆集的多路视频图像数据之后, 将多路视频图像数据处理成单路宽 景视频图像数据, 并根据显示需要重组成若干路视频图像数据进行显示。 此 过程中, 将多路视频图像数据处理成单路宽景视频图像数据的操作可以消除 各视频图像数据之间存在的重叠的情况, 因此, 能够允许摄像机釆集的各路 视频图像数据之间存在重叠, 降低了对摄像机摆放位置及使用者与摄像机组 之间的距离的要求, 简化了系统的安装复杂度。 附图简要说明
此处所说明的附图用来提供对本发明的进一步理解, 构成本申请的一部 分, 并不构成对本发明的限定。 在附图中:
图 1为现有技术提供的视频会议系统的结构示意图;
图 2为本发明实施例中关联视频图像示意图;
图 3为本发明实施例中对关联视频图像进行组合的示意图;
图 4为本发明实施例提供的一种视频图像数据处理方法的流程图; 图 5a-图 5b为本发明实施例提供的一种视频图像数据处理方法中进行视 频图像数据重组的示意图; 图 6 为本发明实施例提供的一种视频图像数据处理方法中视频图像数据 发送过程示意图;
图 7 为本发明实施例提供的一种视频图像数据处理方法中视频图像数据 接收过程示意图;
图 8 为本发明实施例提供的一种视频图像数据处理装置的一种结构示意 图;
图 9 为本发明实施例提供的一种视频图像数据处理装置的另一种结构示 意图;
图 10为本发明实施例提供的一种视频图像数据处理装置的另一种结构示 意图;
图 11为本发明实施例提供的一种视频图像数据处理装置的另一种结构示 意图;
图 12为本发明实施例提供的一种视频会议系统的一种结构示意图; 图 13为本发明实施例提供的一种视频会议系统的另一种结构示意图; 图 14为本发明实施例提供的一种视频会议系统的另一种结构示意图; 图 15为本发明实施例提供的一种视频会议终端的一种结构示意图; 图 16为本发明实施例提供的一种视频会议终端的另一种结构示意图; 图 17为本发明实施例提供的一种视频会议终端的另一种结构示意图; 图 18为本发明实施例提供的一种视频会议终端的另一种结构示意图。 实施本发明的方式
为使本发明的目的、 技术方案和优点更加清楚明白, 下面结合实施方式 和附图, 对本发明做进一步详细说明。 在此, 本发明的示意性实施方式及其 说明用于解释本发明, 但并不作为对本发明的限定。
为了引用和清楚起见, 本文中使用的技术名词、 简写或缩写总结如下: H.320 , ITU-T Recommendation H.320 , Narrow-band visual telephone systems and terminal equipment, 国际电信联盟电信标准部指定的一种标准, 此标准规定了基于窄带交换系统上的多媒体通信系统;
H.323 , ITU-T Recommendation H.323 , Packet-based Multimedia Communications Systems, 国际电信联盟电信标准部指定的一种标准, 此标准 规定了基于包交换系统下的多媒体通信系统架构;
IP, Internet Protocol, 即: 网络协议;
ISDN, Integrated Services Digital Network, 即: 综合服务数字网;
ITU-T , International Telecommunication Union Telecommunication Standardization Sector , 即: 国际电信联盟电信标准部;
RTP, Real-time Transport Protocol, 实时传输协议;
MCU, Multipoint Control Unit, 多点控制单元;
UDP, User Datagram Protocol, 用户数据报协议;
YPbPr, 亮度 0 与色差 (Pb/Pr);
DVI, Digital Visual Interface, 数字视频接口;
HDMI , High Definition Multimedia Interface , 高清晰多媒体接口;
VGA, Video Graphic Array, 显示绘图阵列;
MPEG, Moving Pictures Experts Group, 即动态图像专家组, MPEG1、 MPEG2和 MPEG4都是 MPEG标准。
相互关联的视频图像(为了方便描述, 下文统称为关联视频图像): 指的 是多个摄像机在同一场景中获取的视频图像, 一般来说, 由于摄像机摆设位 置相对随意, 因此这些图像之间存在重叠区域, 如图 2所示, 阴影部分为图 像 21和图像 22的重叠区域, 图像 21和图像 22属于关联图像。
图像组合, 将多幅来自同一场景的小尺寸 (小视角) 图像合成一幅大尺 寸 (广视角) 的图像; 针对上述互相关联的图像, 拼装时将重叠区域进行处 理。 例如, 对 2所示的图像 21和图像 22进行处理后, 得到图像 23 , 如图 3 所示。 图像重组, 将一幅大尺寸的视频图像进行分割、 滤波处理, 形成多幅小 尺寸视频图像。
下面将结合本发明实施例中的附图, 对本发明实施例中的技术方案进行 清楚、 完整地描述, 显然, 所描述的实施例仅仅是本发明一部分实施例, 而 不是全部的实施例。 基于本发明中的实施例, 本领域普通技术人员在没有作 出创造性劳动前提下所获得的所有其他实施例 , 都属于本发明保护的范围。
本发明实施例公开了一种视频图像数据处理方法, 通过将获取的多路相 互关联的视频图像数据组合成单路宽景视频图像数据, 然后根据显示需要, 将所述宽景视频图像数据重组成一路或多路(与显示设备数量相等)视频图 像数据, 由显示设备进行显示。
所述显示设备数量可以为多台, 在将组合成的宽景视频图像数据重组成 多路视频图像数据后, 可以分别发送给各台显示设备。 显示设备按照各路视 频图像数据在所述宽景视频图像数据中的位置排列进行显示, 即可为用户提 供宽视角的视觉体验。 具体过程如图 4所示, 包括以下步骤:
步骤 S41、获取多路相互关联的视频图像数据及各视频图像数据之间的关 联信息。
所述多路相互关联的视频图像数据来自设置在同一场景中的多台摄像 机, 这些摄像机架设于该场景中的不同位置。
所述关联信息包括: 用于指示所述视频图像数据的物理位置信息, 及所 述视频图像数据被捕获的时间戳信息。
步骤 S42、依据所述关联信息将所述多路视频图像数据组合成单路宽景视 频图像数据。
具体地, 依据各路视频图像数据的物理位置及被捕获的时间戳信息, 将 各路视频图像数据进行组合, 形成单路宽景视频图像数据。
步骤 S43、将所述宽景视频图像数据重组成适应显示需求的多路视频图像 数据。 针对显示设备的数量、 支持画面的大小及支持的视频图像数据格式, 将 宽景视频图像数据重组、 滤波成相应路数的视频图像数据。
步骤 S44、 将重组得到的各路视频图像数据分别发送给各显示设备显示。 如果显示设备的数量为 4个,如图 5a所示,分别为 51a、 52a、 53a和 54a, 将宽景视频图像数据按照显示位置重组成 4路, 然后分别传输给对应的显示 设备显示, 于是, 各显示设备依照图像在所述宽景视频图像数据中的位置排 列即可将显示的图像组成一幅广视角的视频图像; 如果显示设备的数量为 3 个, 如图 5b所示, 分别为 51b、 52b和 53b , 将宽景视频图像数据按照图像 显示位置重组成 3路, 然后分别传输给对应的显示设备显示。 另外, 显示设 备所支持的显示画面大小有可能不同, 于是, 在进行宽景视频图像数据重组 时, 需要根据显示设备所支持的显示画面大小将宽景视频图像数据重组成相 应尺寸的视频图像数据, 例如显示设备支持 HDMI视频输入接口, 同时支持 1080ρ视频格式, 而宽景图像的分辨率为 4000*1080, 则在进行宽景视频图像 数据重组时,将宽景视频图像数据重组成滤波成两路分辨率大小为 1920*1080 的 1080ρ的视频图像数据进行显示较为合适。
需要说明的是, 上述步骤 S41 中, 获取视频图像的视频接口类型可以为 YPbPr接口、 DVI接口、 HDMI接口或 VGA接口中的任意一种或几种 , 也就 是说, 各摄像机提供的视频输入接口可以相同, 也可以不同。 上述步骤 S43 中, 重组而成的视频图像数据格式与显示设备支持的视频图像格式相一致, 根据显示设备所支持视频图像格式而定。
另外需要说明的是, 上述步骤 S41 中视频输入接口类型与步骤 S44输出 的视频输出接口类型可以相同 (如视频输入接口类型为 YPbPr接口, 输出视 频接口类型也为 YPbPr接口)或不同 (如视频输入接口类型为 YPbPr接口, 输出视频接口类型可为 HDMI接口)。 当各显示设备所支持的视频接口类型、 视频图像数据格式不同时, 在将单路宽景视频图像数据重组成多路视频图像 数据之后, 还需要根据对应显示设备所支持的视频接口类型、 所支持的视频 图像格式, 将所述各路视频图像数据分别进行格式转换后, 再发送给相应显 示设备。
本发明实施例在获取多个摄像机釆集的多路视频图像数据之后, 将多路 视频图像数据组合成单路宽景视频图像数据, 根据显示需要重组成若干路视 频图像数据, 然后发送给显示设备显示。 只需要将显示设备按照视频图像在 所述宽景视频图像数据中的位置排列即可将显示的视频图像组合成广视角视 频图像, 为用户提供较好的视觉体验。 并且, 本发明实施例将多路视频图像 数据组合成单路宽景视频图像数据, 由于在组合过程中可以消除各视频图像 数据之间存在的重叠情况, 因此, 可以允许各摄像机获取的图像存在重叠现 象, 这意味着对摄像机摆放位置及使用者与摄像机组之间的距离没有特别严 格的要求, 降低了安装摄像机的复杂度。
所述显示设备也可以为具备适应宽景视频图像数据的显示设备, 此时, 其数量可以为一台, 在将组合成的宽景视频图像数据重组成多路视频图像数 据后, 将所述多路视频图像数据按照其在宽景视频图像数据中的位置分路发 送给所述显示设备, 由该显示设备将各路视频图像组合成宽景视频图像数据 后进行显示。 本发明实施例可以应用于远程宽景视频会议过程, 参加会议各 方都可以将本方视频图像数据发送给对方(即: 视频图像数据发送过程), 并 接收对方发送的视频图像数据并显示 (即: 视频图像数据接收过程)。
所述视频图像数据发送过程可以如图 6所示, 包括以下步骤:
步骤 S61、获取架设在本方会场的多台摄像机釆集的视频图像数据及各视 频图像数据间的关联信息。
其中, 各台摄像机架设位置不同, 但获取的视频图像数据相互关联, 所 述关联信息包括各视频图像数据的物理位置及获取时间戳。
步骤 S62、依据各视频图像数据的物理位置及获取时间戳,将多路视频图 像数据组合成单路宽景视频图像数据。
步骤 S63、 将所述宽景视频图像数据通过通信网络发送。 本技术领域人员可以理解, 在上述步骤 S61 中多台摄像机釆集的视频图 像数据及各视频图像数据间的关联信息的获取过程是同时进行的, 毋庸置疑, 为了让多个显示器前的用户能够看到摄像机前同一时间的画面, 必须保证多 个摄像机同步釆集场景图像。 另外, 为了保证所传输的视频图像的完整性, 必须保证相邻的摄像机拍摄的场景不能有脱离的现象, 最好有重叠区域, 在 图像组合过程中可以消除所述重叠区域。
本实施例中, 所述通信网络的网络接口可以是: 基于电路交换的 ISDN、 El接口、 V35接口、基于包交换的以太网接口或基于无线连接的无线端口等。
与上述视频图像发送过程相对应,所述视频图像数据接收过程可以如图 7 所示, 包括以下步骤:
步骤 S71、 从通信网络获取发自对方会场的宽景视频图像数据。
步骤 S72、将所述宽景视频图像数据重组成适应显示需求的多路视频图像 数据。
步骤 S73、 将各路视频图像发送给相应显示设备显示。
在其他实施例中, 所述视频图像数据发送过程也可以是: 在获取多路视 频图像数据及各视频图像数据间的关联信息后, 直接通过通信网络发送。 相 应地, 所述视频图像数据接收过程为: 接收所述多路视频图像数据及关联信 息后, 依据所述关联信息将多路视频图像数据组合成单路宽景视频图像数据, 根据显示设备的数量, 将所述宽景视频图像数据重组成多路视频图像数据后 发送给相应显示设备显示。 需要说明的是, 这些实施例中, 所述多路视频图 像数据间的关联信息可以嵌入视频图像数据 (或者经过压缩的视频图像数据) 中进行传输, 例如, 当所述通信网络为以太网时, 所述关联信息可以被嵌入 在视频 RTP包中进行传输, 此方式有利于关联信息与视频图像数据同步。 当 然, 所述关联信息也可以单独传输, 例如通过独立数据通道传输。
在其他实施例中, 所述视频图像数据发送过程还可以是: 获取多路视频 图像数据及各视频图像数据间的关联信息后, 依据所述关联信息将多路视频 图像数据组合成单路宽景视频图像数据, 根据显示设备(对方会场的显示设 备) 的数量, 将所述宽景视频图像数据重组成多路视频图像数据后, 通过通 信网络发送。 相应地, 所述视频图像数据接收过程为: 通过接收所述重组得 到的多路视频图像数据, 直接发送给本方会场的显示设备显示。
此外, 上述实施例中, 发送端发送的宽景视频图像数据的方式可以是直 接发送, 也可以是通过编码后发送。 所述编码方式可以是: H.261、 H.263、 H.264、 MPEG1、 MPEG2或 MPEG4。 相应的, 接收端接收的宽景视频图像数 据可以是没有经过编码的原始数据, 也可以是经过编码的数据。 需要说明的 是, 组合后的图像的尺寸一般情况下是原始图像的尺寸的几倍, 这种情况下, 即便釆用编码器进行编码, 其传输的数据量仍然是比较大的, 这对编码器的 能力提出了苛刻的要求。 基于此, 本发明另外实施例釆用多个编码器并列处 理的方式, 另外, 由于图像数据的随机性, 经过编码之后的数据顺序已经不 能保证同步性了, 为了保证在显示端多个显示器显示的图像为同一时间拍摄 的, 需要对编码之后的数据进行同步处理。
具体的, 上述将宽景视频图像数据重组的过程实际上是图像分割过程, 包括步骤:
a、 将所述宽景视频图像分割为多个子图像, 同时得到生成所述多个子图 像的多个同步信息, 每个子图像对应一个同步信息。
所述同步信息具体为: 接收到的所述宽景视频图像数据的时间戳, 也可 以为自定义的序号, 所述序号的定义方式要保证属于同一宽景视频图像数据 分割后的多个子图像的序号符合预先设定的规律, 例如可以是相同或者相连 续。
b、 为每个子图像的分割方式分配重建信息, 所述重建信息用来记录每个 子图像的分割方式。
c、 将各子图像及其对应的同步信息和重建信息发送给其他设备。
于是, 上述一种视频图像数据处理方法进一步包括同步过程和重建过程, 下面分别进行介绍:
所述同步过程如下:
首先, 接收所述其他设备发送的各子图像及其对应的同步信息和重建信 息, 然后, 根据所述同步信息对所述子图像进行归类, 找出属于同一宽景视 频图像数据分割后的多个子图像, 即在同一时间得到的图像信息。
执行上述方法的设备具有接收緩存、 重建緩存和发送緩存, 接收緩存接 收进行分割后的子图像, 属于同一幅宽景图像的子图像的同步信息符合预先 设定的规律, 例如相同或相连续, 重建緩存中存储待重建的子图像, 发送緩 存存储重建的图像。
所述重建信息可以是分割方式, 所述重建过程为: 根据所述分割对所述 归类后的子图像进行重建, 得到多路视频图像数据, 其中各路视频图像数据 按照其在所述宽景视频图像数据中的位置排列。
所述同步和重建的具体过程可以包括:
步骤 a、 初始化操作, 即确定最小同步信息 MinSyinfo;
该步骤所述的 "最小同步信息" 有可能不是最小的, 其可以是任意选出 来的, 是假定的 "最小同步信息"。
步骤 b、从接收緩存中取出未被选取子图像,获取其同步信息 CurrSyinfo。 步骤 c、 判断 MinSyinfo是否大于 CurrSyinfo, 如果是, 进入步骤 d; 否 则, 进入步骤 e;
步骤 d、 将 CurrSyinfo确定为 MinSyinfo, 返回步骤 b;
步骤 e、 进行 CDT(Check Delay Time, 检测处理延时)处理, 如果所述处 理延时大于规定延时, 则进入步骤 f; 否则, 进入步骤 g;
步骤 f、 将发送緩存中存储的图像直接输出, 并返回步骤 a;
步骤 g、 判断 MinSyinfo是否小于 CurrSyinfo, 如果是, 返回步骤 b; 否 则, 进入步骤 h;
步骤 h、 进行 CDT处理, 如果所述处理延时大于规定延时, 则进入步骤 f; 否则, 进入步骤 i;
步骤 i、 将该子图像存储至重建緩存;
步骤 j、 判断所述接收緩存中是否还存在未被选取的子图像, 若是, 返回 步骤 b, 若否, 进入步骤 k;
步骤 k、将重建緩存中存储的子图像根据重建信息进行重建, 将重建后的 图像存储至发送緩存, 并进入步骤 f。
可以理解的是, 步骤 f中发送緩存发送数据后, 并不立即释放该緩存, 因 此当从步骤 e或步骤 f进入步骤 f时, 所述发送緩存中存储的图像是成功重建 的前一帧图像; 所述发送緩存中存储的图像由步骤 k更新, 所述更新可以是 数据覆盖的方式, 也可以是先释放所述发送緩存, 再存入数据的方式, 或者 其他数据更新方式。
在其他实施例中, 在重组过程中, 在将所述多个子图像及其对应的同步 信息和重建信息发送之前, 将所述多个子图像及其对应的同步信息和重建信 息进行编码, 编码方式可以是符合现在主流的各种标准的压缩标准码流格式, 如 h261、 h263、 h263++、 mpegl、 mpeg2或 mpeg4等多种方式。
相应的, 在所述同步过程中, 接收所述子图像及其对应的同步信息和重 建信息后, 先进行解码, 对应上述重组过程的多个编码器, 相应的解码器也 可以设置有多个。 然后, 根据所述同步信息对所述解码后的子图像进行归类, 找出属于同一宽景视频图像数据分割后的多个子图像, 即在同一时间得到的 图像信息。
本发明实施例同时还公开了一种视频图像数据处理装置, 可实现上述实 施例公开的方法。
所述视频图像数据处理装置的一种结构形式如图 8 所示, 包括: 数据组 合单元 81、 数据重组单元 82、 数据输入接口 83和数据输出单元 84。
其中:
数据输入接口 83的数量为多个, 分别与多台摄像机相连, 用于获取多路 视频图像数据及各路视频图像数据间的关联信息, 所述关联信息包括: 用于 指示所述视频图像数据的物理位置信息, 及所述视频图像数据被捕获的时间 戳信息。
数据组合单元 81 , 用于依据所述关联信息, 将所述多路视频图像组合成 单路宽景视频图像数据。 具体的, 依据各路视频图像数据的物理位置及获取 时间, 将所述多路视频图像组合成单路宽景视频图像数据。
数据重组单元 82,针对显示设备的数量和大小及所支持的视频图像格式, 将所述单路宽景视频图像数据重组成适应多个显示设备播放的多路视频图像 数据。
数据输出单元 84,用于将数据重组单元 82处理得到的多路视频图像数据 于是, 所述处于远端的视频会议设备即可将多路视频图像数据按照视频 图像在宽景视频图像中的位置排列后, 传输给所述多个显示设备。 所有显示 设备显示的视频图像即可组合成一幅广视角的视频图像, 为用户带来宽景的 视觉体验。
数据输入接口 83的类型可以是 YPbPr接口、 DVI接口、 HDMI接口或 VGA接口等。
需要说明的是, 为了减少发送的数据量并保证发送的安全性, 所述视频 图像数据处理装置的另一种结构还可以包括用于进行压缩编码的功能单元, 如图 9所示, 包括数据组合单元 91、 数据重组单元 92、 数据输入接口 93、 数 据输出单元 94和数据编码器 95。
其中:
数据组合单元 91、 数据重组单元 92、 数据输入接口 93和数据输出单元 94的功能, 分别与数据组合单元 81、 数据重组单元 82、 数据输入接口 83和 数据输出单元 84的功能基本相同。
数据编码器 95,用于获取数据重组单元 92重组得到的多路视频图像数据, 进行编码后提供给数据输出单元 94。其编码方式可以是: H.261、H.263、H.264、 MPEG1、 MPEG2或 MPEG4。
为了使数据处理的速度更快, 以保证数据传输的实时性, 在另外实施例 中可釆用多个数据编码器同时对数据重组单元 92重组得到的多路视频图像数 据进行编码处理。 这种情况下, 数据重组单元 92处理得到的各路视频图像数 据均包括: 所述宽景视频图像重组后的每个子图像及与其对应的同步信息和 重组信息。 在数据输出单元 94将多个编码器编码处理的多路视频图像数据输 出后, 接收所述多路视频图像数据的设备即可依据所述同步信息和重建信息 进行同步过程和重建过程, 所述同步过程和重建过程的具体内容可参照前文 方法部分的描述, 在此不在赘述。
所述接收多路视频图像数据的设备即是所述视频图像数据处理装置的另 一种结构形式, 包括: 多个数据输入接口和多个数据输出接口, 另外, 还包 括数据解码器、 数据同步单元和数据重建单元, 其中:
所述数据输入接口用于获取编码后的多路视频图像数据;
所述数据解码器数量为多个, 用于同时对编码后的多路视频图像数据进 行解码, 解码后的多路视频图像数据包含所述宽景视频图像分割成的多个子 图像及与其相对应的同步信息和重建信息;
所述数据同步单元用于: 将所述解码后的子图像根据与其对应的同步信 息进行归类, 具体过程可参照前文方法实施例部分的描述。
所述数据重建单元用于: 根据所述重建信息对所述归类后的子图像进行 重建, 得到多路视频图像数据, 并提供给数据输出接口, 各路视频图像数据 按照其在所述宽景视频图像数据中的位置排列。
所述视频图像数据处理装置的另一种结构形式如图 10所示, 包括: 数据 组合单元 101、 数据重组单元 102及数据输入接口 103和多个数据输出接口 104。
其中: 数据组合单元 101和数据重组单元 102的功能, 分别与数据组合单元 81 和数据重组单元 82的功能基本相同。
本结构与图 8所示结构的区别在于: 数据输入接口 103获取的多路视频 图像数据和各路视频图像之间的关联信息, 是由其他设备从通信网络发送过 来的。 多个数据输出接口 104分别与多个显示设备相连接, 用于将数据重组 单元 102处理得到的多路视频图像数据按照视频图像在宽景视频图像中的位 置排列发送给各显示设备, 所有显示设备显示的视频图像即可组合成一幅广 视角的视频图像。
具体的, 数据输入接口 103 可以由网络接口和数据接收单元组成, 所述 网络接口用于与通信网络建立连接, 所述数据接收单元通过所述网络接口接 收其他设备从通信网络传送过来的视频图像数据。
所述网络接口可以是基于电路交换的 ISDN、 El接口、 V35接口、 基于 包交换的以太网接口或基于无线连接的无线端口。
另外, 如果数据输入接口 103接收到的多路视频图像数据和各路视频图 像之间的关联信息是经过编码的, 则所述视频图像数据处理装置的另一种结 构中需要包括用于解码的功能单元, 如图 11所示, 包括: 数据组合单元 111、 数据重组单元 112、 多个数据输入接口 113和数据输出接口 114, 还包括数据 解码器 115 , 其中:
数据组合单元 111、 数据重组单元 112、 数据输入接口 113和数据输出接 口 114的功能, 分别与数据组合单元 101、 数据重组单元 102、 数据输入接口 103和数据输出接口 104的功能基本相同。
数据编码器 115 ,用于对数据输入接口 113获取的多路视频图像数据和各 路视频图像之间的关联信息进行解码, 然后提供给数据组合单元 111。
此外, 本发明实施例还提供了一种视频会议系统, 该系统的一种具体结 构如图 12所示, 包括: 数据组合单元 121、 数据发送单元 122、 数据接收单 元 123、 数据重组单元 124及多个数据输入接口 125和数据输出接口 126。 其中:
数据组合单元 121、数据发送单元 122和数据输入接口 125位于视频会议 的一方会场。 多个数据输入接口 125获取多路视频图像数据及各路视频图像 数据间的关联信息, 并由数据组合单元 121依据所述关联信息, 将所述多路 视频图像组合成单路宽景视频图像数据, 然后, 由数据发送单元 122将该单 路宽景视频图像数据通过通信网络发送给位于远端的另一方会场。
数据接收单元 123、数据重组单元 124及数据输出接口 126位于所述位于 远端的另一方会场。 数据接收单元 123 将接收承载于通信网络的单路宽景视 频图像数据, 然后提供给数据重组单元 124,数据重组单元 124依据显示设备 的数量、 支持的画面大小及视频图像格式, 将所述单路宽景视频图像数据重 组成适应多个显示设备播放的多路视频图像数据, 由数据输出接口 126提供 给与其对应的显示设备。
所述显示设备按照所述视频图像在宽景视频图像中的位置摆放, 所有显 示设备显示的视频图像即可组合成一幅广视角的视频图像, 为用户带来宽景 的视觉体验。
需要说明的是, 数据输入接口 125 和数据输出接口 126 的类型可以是 YPbPr接口、 DVI接口、 HDMI接口或 VGA接口。 另夕卜, 数据输入接口 125 和数据输出接口 126的类型可以不一样, 数据输入接口 125获取的视频图像 数据可以由数据重组单元 123在重组时, 针对数据输出接口 126的类型进行 格式转换。 例如: 数据输入接口 125为 DVI接口, 其获取的视频图像数据为 DVI格式, 而数据输出接口 126是 HDMI接口, 因此, 数据重组单元 123在 进行视频图像数据重组时, 需要将 D VI格式视频图像数据转换为 HDMI格式 视频图像数据。
各方会场需要同时担当发送方和接收方的工作, 也即: 通过数据输入接 口 125、数据组合单元 121和数据发送单元 122发送本方会场的视频图像数据, 通过数据接收单元 123、数据重组单元 124及数据输出接口 126接收、处理对 方会场的视频图像数据。
需要说明的是, 在其他结构形式的系统中, 发送方的工作仅需通过数据 输入接口 125获取多路视频图像数据及各路视频图像数据之间的关联信息, 然后通过通信网络发送对方会场。 接收方从通信网络获取所述多路视频图像 数据及各路视频图像数据之间的关联信息后, 进行组合、 重组等操作。 请参 考图 13 , 为本发明实施例提供的一种视频会议系统的另一种结构示意图, 包 括: 数据组合单元 131、 数据发送单元 132、 数据接收单元 133、 数据重组单 元 134及多个数据输入接口 135和数据输出接口 136。
其中:
数据发送单元 132和多个数据输入接口 135位于一方会场, 数据接收单 元 133、 数据组合单元 131、 数据重组单元 134及多个数据输出接口 136位于 另一方会场。
多个数据输入接口 135获取多路视频图像数据及各路视频图像数据间的 关联信息, 数据发送单元 132将所述多路视频图像数据及各路视频图像数据 间的关联信息通过通信网络发送给另一方会场; 处于另一方会场的数据接收 单元 133接收到所述多路视频图像数据及各路视频图像数据间的关联信息后, 提供给数据组合单元 131 ,数据重组单元 131依据所述关联信息将所述多路视 频图像数据组合成单路宽景视频图像数据后,提供给数据重组单元 134, 数据 重组单元 134依据显示设备的数量、 支持的画面大小及视频图像格式, 将所 述单路宽景视频图像数据重组成适应多个显示设备播放的多路视频图像数 据, 由数据输出接口 136提供给与其对应的显示设备。
需要说明的是, 由于上述数据发送单元(数据发送单元 122和 132 )将视 频图像数据通过通信网络发送的, 因此, 为了减少发送的数据量并保证数据 的安全性, 所述数据发送单元发送的数据可以经过编码。 相应的, 所述数据 接收单元(数据接收单元 123和 133 )在接收到通信网络发送的数据后进行解 码。 需要说明的是, 在其他结构形式的系统中, 发送方在接收到多路视频图 像数据及关联信息后, 依据所述关联信息将所述多路视频图像数据组合成单 路宽景视频图像数据, 然后重组成若干路视频图像数据并发送; 接收方接收 所述若干路视频图像数据后提供给本方会场的显示设备显示。 具体结构形式 如图 14所示, 包括: 数据组合单元 141、 数据发送单元 142、 数据接收单元 143、 数据重组单元 144及多个数据输入接口 145和数据输出接口 146。
其中:
各单元的功能与图 12、 图 13中的各单元的功能基本相同, 所不同的是: 数据输入接口 145、数据组合单元 141、数据重组单元 144和数据发送单元 142 处于一方会场, 数据接收单元 143和数据输出接口 146处于另一方会场。 这 意味着, 处于一方会场的数据重组单元 144需要根据另一方会场的显示设备 的数量、 支持的画面大小及视频图像格式进行视频图像数据重组。
此外, 在另外的结构中, 还可以进一步包括数据编码器、 数据解码器、 数据同步单元和数据重建单元, 其中:
所述数据编码器数量为多个, 设置于数据重组单元 144所在会场, 用于 同时对数据重组单元 144 重组得到的多路视频图像数据进行处理, 所述数据 重组单元 144重组得到的各路视频图像数据包括: 所述宽景视频图像分割后 的每个子图像及与其对应的同步信息和重组信息;
所述数据解码器数量与所述数据编码器的数量相同, 设置于数据接收单 元 143所在会场, 用于同时对数据接收单元 143接收的经过编码的多路视频 图像数据进行解码;
所述数据同步单元用于: 将经过所述各个数据解码器解码后的子图像根 据与其对应的同步信息进行归类, 具体过程可参照前文方法实施例部分的描 述。
所述数据重建单元用于: 根据所述重建信息对所述归类后的子图像进行重 建, 得到多路视频图像数据, 并提供给数据输出接口, 各路视频图像数据按 照其在所述宽景视频图像数据中的位置排列。 量、 支持的画面大小及视频图像格式相同) 的情况。
针对上述视频图像数据处理方法、 装置及会议系统, 本发明实施例同时 还公开了一种视频会议终端, 考虑到视频会议的各方的角色都是相互的 (同 时作为发送方和接收方), 所述视频会议终端的一种具体结构如图 15 所示, 包括: 数据组合单元 151、 数据收发单元 152、 网络接口 153、 数据重组单元 154及多个数据输入接口 155和数据输出接口 156。
其中:
网络接口 153用于与外部通信网络建立连接, 数据收发单元 152用于获 取通信网络发送的数据, 及向所述通信网络发送数据。
其他的功能单元, 如数据组合单元 151、 数据重组单元 154、 数据输入接 口 155和数据输出接口 156的功能, 可参照前文视频图像数据处理装置及视 频会议系统部分的内容。
作为发送方, 所述视频会议终端需要获取本方会场的多路视频图像数据 及各路视频图像数据之间的关联信息, 组合成单路宽景视频图像数据后通过 通信网络发送给对方会场; 同时作为接收方, 所述视频会议终端需要接收对 方会场通过通信网络发送过来的宽景视频图像数据, 重组处理成多路视频数 据图像后传输给本方会场的显示设备。
图 16示出了所述视频会议终端的另一结构, 包括数据组合单元 161、 数 据收发单元 162、 网络接口 163、 数据重组单元 164及多个数据输入接口 165 和数据输出接口 166 , 还包括数据编码器 167和数据解码器 168。
其中:
数据组合单元 161、数据收发单元 162、网络接口 163、数据重组单元 164、 数据输入接口 165和数据输出接口 166的功能, 分别与数据组合单元 151、数 据收发单元 152、 网络接口 153、 数据重组单元 154、 数据输入接口 155和数 据输出接口 156的功能基本相同。
数据编码器 167在数据收发单元 162发送数据之前, 对数据进行编码, 数据解码器 168在数据收发单元 162接收数据之后, 对数据进行解码。
所述视频会议终端的另一结构如图 17所示, 包括: 数据组合单元 171、 数据收发单元 172、网络接口 173、数据重组单元 174及多个数据输入接口 175 和数据输出接口 176。
其中:
各单元的功能分别与图 15中各单元的功能基本相同。
所不同的是, 所述视频会议终端作为发送方时, 获取本方会场的多路视 频图像数据及各路视频图像数据之间的关联信息后, 直接通过通信网络发送 给对方会场。 同时, 作为接收方时, 接收对方会场通过通信网络发送过来的 多路视频图像数据及各路视频图像数据之间的关联信息, 组合成单路宽景视 频图像数据后, 再重组处理成多路视频数据图像后传输给本方会场的显示设 备。
图 18示出了所述视频会议终端的另一结构, 包括数据组合单元 181、 数 据收发单元 182、 网络接口 183、 数据重组单元 184及多个数据输入接口 185 和数据输出接口 186 , 还包括数据编码器 187和数据解码器 188, 其中:
各单元的功能与图 16所示的各单元的功能基本相同, 所不同的是: 所述视频会议终端作为发送方时, 获取本方会场的多路视频图像数据及 各路视频图像数据之间的关联信息, 并进行编码后直接通过通信网络发送给 对方会场。 同时, 作为接收方时, 接收对方会场通过通信网络发送过来的多 路视频图像数据及各路视频图像数据之间的关联信息, 解码后组合成单路宽 景视频图像数据, 然后重组处理成多路视频数据图像后传输给本方会场的显 示设备。
在另外的实施例中, 视频会议终端作为发送方时, 获取本方会场的多路 视频图像数据及各路视频图像数据之间的关联信息, 组合成单路宽景视频图 像数据, 并依据对方会场的显示设备的数量、 支持的画面大小及视频图像格 式, 将所述单路宽景视频图像数据重组成适应多个显示设备播放的多路视频 图像数据, 然后通过通信网络(或者进行编码后通过通信网络)发送往对方 会场。 同时, 作为接收方时, 接收对方通过通信网络发送的多路视频数据图 像后, 提供给本方会场的显示设备显示 (或者进行解码后提供给本方会场的 显示设备显示)。 需要说明的是, 在这种情况下, 在进行编码时可通过多个编 码器同时对重组得到的多路视频图像数据进行编码, 在进行解码时, 通过多 个解码器同时对经过编码的多路视频图像数据进行解码, 并且, 进行同步过 程和重建过程, 即: 将经过所述数据解码器解码后的子图像根据与其对应的 同步信息进行归类, 根据所述重建信息对所述归类后的子图像进行重建, 得 到多路视频图像数据, 其中各路视频图像数据按照其在所述宽景视频图像数 据中的位置排列。
本说明书中各个实施例釆用递进的方式描述, 每个实施例重点说明的都 是与其他实施例的不同之处, 各个实施例之间相同相似部分互相参见即可。 对于实施例公开的装置而言, 由于其与实施例公开的方法相对应, 所以描述 的比较简单, 相关之处参见方法部分说明即可。
本领域技术人员可以理解, 可以使用许多不同的工艺和技术中的任意一 种来表示信息、 消息和信号。 例如, 上述说明中提到过的消息、 信息都可以 表示为电压、 电流、 电磁波、 磁场或磁性粒子、 光场或以上任意组合。
专业人员还可以进一步意识到, 结合本文中所公开的实施例描述的各示 例的单元及算法步骤, 能够以电子硬件、 计算机软件或者二者的结合来实现, 为了清楚地说明硬件和软件的可互换性, 在上述说明中已经按照功能一般性 地描述了各示例的组成及步骤。 这些功能究竟以硬件还是软件方式来执行, 取决于技术方案的特定应用和设计约束条件。 专业技术人员可以对每个特定 的应用来使用不同方法来实现所描述的功能, 但是这种实现不应认为超出本 发明的范围。 本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步 骤是可以通过程序来指令相关硬件完成的, 该程序可以存储于一计算机可读 存储介质中, 存储介质可以包括: ROM、 RAM, 磁盘或光盘等。 以上所述的具体实施方式, 对本发明的目的、 技术方案和有益效果进行 了进一步详细说明, 所应理解的是, 以上所述仅为本发明的具体实施方式而 已, 并不用于限定本发明的保护范围, 凡在本发明的精神和原则之内, 所做 的任何修改、 等同替换、 改进等, 均应包含在本发明的保护范围之内。

Claims

权 利 要求
1、 一种视频图像数据处理方法, 其特征在于, 包括:
获取多路相互关联的视频图像数据及关联信息;
利用所述关联信息将所述多路相互关联的视频图像数据组合成单路宽景 视频图像数据;
将所述宽景视频图像数据重组成适应显示需求的多路视频图像数据后, 发送给显示设备显示。
2、 如权利要求 1所述的方法, 其特征在于, 所述关联信息包括: 各路视 频图像的物理位置关系信息和时间戳信息。
3、 如权利要求 1所述的方法, 其特征在于, 所述获取多路相互关联的视 频图像数据及关联信息具体为: 获取承载于通信网络上的多路相互关联的视 频图像数据及关联信息。
4、 如权利要求 1所述的方法, 其特征在于, 所述获取多路相互关联的视 频图像数据及关联信息具体为: 获取架设视频会议一方现场的多台摄像机釆 集的多路相互关联的视频图像数据及关联信息。
5、 如权利要求 1所述的方法, 其特征在于, 所述将宽景视频图像数据重 组的过程包括: 分割过程, 所述分割过程包括:
将所述宽景视频图像分割为多个子图像, 同时生成各子图像的同步信息; 按照分割方式为每个子图像分配重建信息;
发送所述多个子图像及其对应的同步信息和重建信息;
所述方法还包括, 同步过程和重建过程, 其中:
所述同步过程包括:
接收所述子图像、 同步信息和重建信息;
根据所述同步信息对所述子图像进行归类, 属于同一幅宽景视频图像的 子图像属于同一类;
所述重建过程包括: 根据所述重建信息对所述归类后的子图像进行重建, 得到多路视频图像 数据, 其中各路视频图像数据按照其在所述宽景视频图像数据中的位置排列。
6、 如权利要求 5所述的方法, 其特征在于, 所述同步信息为序号或时间 戳。
7、 如权利要求 5所述的方法, 其特征在于, 发送所述多个子图像及其对 应的同步信息和重建信息之前先对所述多个子图像及其对应的同步信息和重 建信息进行编码, 所述编码具体为: 利用多个编码器同时对所述分割后的多 路子图像及其对应的同步信息和重建信息进行编码;
所述同步过程中接收所述子图像、 同步信息和重建信息具体为: 利用多 个解码器同时对接收到的所述编码后的信息进行解码。
8、 如权利要求 5所述的方法, 其特征在于, 所述生成多个子图像的多个 同步信息具体为: 生成所述宽景视频图像数据时的时间戳, 或者, 生成自定 义的序号, 属于同一宽景视频图像数据分割后的多个子图像的序号相同。
9、 一种视频图像数据处理装置, 其特征在于, 包括:
数据输入接口, 用于获取多路相互关联的视频图像数据及关联信息; 数据组合单元, 用于利用所述关联信息将所述多路相互关联的视频图像 数据组合成单路宽景视频图像数据;
数据重组单元, 用于将所述宽景视频图像数据重组成适应显示需求的多 路视频图像数据;
多个数据输出接口, 与外部显示设备相连, 用于将所述数据重组单元处 理得到的视频图像数据传输给所述显示设备。
10、 如权利要求 9 所述的装置, 其特征在于, 所述多路相互关联的视频 图像数据及关联信息来自外部通信网络, 所述视频图像数据输入接口为 ISDN, El、 V35、 基于包交换的以太网接口或基于无线连接的无线端口。
11、 如权利要求 9所述的装置, 其特征在于, 还包括:
数据解码器, 当所述数据输入接口接收到的视频图像数据为经过编码后 的视频图像数据时, 对视频图像数据进行解码, 并提供给所述数据组合单元。
12、 如权利要求 9 所述的装置, 其特征在于, 所述关联信息包括: 各路 视频图像的物理位置关系信息和时间戳信息。
13、 一种视频图像数据处理装置, 其特征在于, 包括:
数据输入接口, 用于获取多台摄像机釆集的多路相互关联的视频图像数 据及关联信息;
数据组合单元, 用于利用所述关联信息将所述多路相互关联的视频图像 数据组合成单路宽景视频图像数据;
数据重组单元, 用于将所述宽景视频图像数据重组成适应显示需求的多 路视频图像数据;
数据发送单元, 用于将所述数据重组单元处理得到的多路视频图像数据 通过通信网络发送给远端的视频会议设备, 以使该视频会议设备通过相应的 显示设备显示。
14、 如权利要求 13所述的装置, 其特征在于, 所述数据重组单元生成的 所述多路视频图像数据包括: 所述宽景视频图像重组后的各个子图像及与各 子图像对应的同步信息和重组信息。
15、 如权利要求 13所述的装置, 其特征在于, 还包括:
数据编码器, 用于将所述数据重组单元处理得到的多路视频图像数据进 行编码后, 提供给所述数据发送单元。
16、 如权利要求 15所述的装置, 其特征在于, 所述数据编码器的个数为 多个, 多个数据编码器同时对多路视频图像数据进行编码。
17、 一种视频图像数据处理装置, 其特征在于, 包括:
数据输入接口, 用于获取编码后的多路视频图像数据;
多个数据解码器, 同时对编码后的多路视频图像数据进行解码, 解码后 的多路视频图像数据包含所述宽景视频图像分割成的多个子图像及与其相对 应的同步信息和重建信息; 数据同步单元, 将所述解码后的子图像根据与其对应的同步信息进行归 类;
数据重建单元, 根据所述重建信息对所述归类后的子图像进行重建, 得 到多路视频图像数据, 其中各路视频图像数据按照其在所述宽景视频图像数 据中的位置排列;
多个数据输出接口, 与外部多个显示设备相连, 用于将所述数据重建单 元处理得到的各路视频图像数据分别传输给相应的显示设备。
18、 一种视频会议系统, 其特征在于, 包括:
数据输入接口, 用于获取多路相互关联的视频图像数据及关联信息; 数据组合单元, 用于利用所述关联信息将所述多路相互关联的视频图像 数据处理成单路宽景视频图像数据;
数据发送单元, 用于将所述宽景视频图像数据通过通信网络发送; 数据接收单元, 用于接收承载于通信网络的宽景视频图像数据; 数据重组单元, 用于将所述数据接收单元接收的所述宽景视频图像数据 重组成适应显示需求的多路视频图像数据;
多个数据输出接口, 与外部多个显示设备相连, 用于将所述数据重组单 元处理得到的各路视频图像数据分别传输给相应的显示设备。
19、 如权利要求 18所述的系统, 其特征在于, 还包括:
数据编码器, 用于将所述数据组合单元处理得到的宽景视频图像数据进 行编码后, 提供给所述数据发送单元;
数据解码器, 用于将所述数据接收单元接收的宽景视频图像数据进行解 码后, 提供给所述数据重组单元。
20、 一种视频会议系统, 其特征在于, 包括:
数据输入接口, 用于获取多路相互关联的视频图像数据及关联信息; 数据发送单元, 用于将所述多路相互关联的视频图像数据及关联信息通 过通信网络发送; 数据接收单元, 用于接收承载于通信网络的所述多路相互关联的视频图 像数据及关联信息;
数据组合单元, 用于利用所述关联信息将所述多路相互关联的视频图像 数据处理成单路宽景视频图像数据;
数据重组单元, 用于将所述宽景视频图像数据重组成适应显示需求的多 路视频图像数据;
多个数据输出接口, 与外部多个显示设备相连, 用于将所述数据重组单 元处理得到的各路视频图像数据分别传输给相应的显示设备。
21、 如权利要求 20所述的系统, 其特征在于, 还包括:
数据编码器, 用于将所述数据输入接口获取的多路相互关联的视频图像 数据及关联信息进行编码后, 提供给所述数据发送单元;
数据解码器, 用于将所述数据接收单元接收的多路相互关联的视频图像 数据及关联信息进行解码后, 提供给所述数据组合单元。
22、 一种视频会议系统, 其特征在于, 包括:
数据输入接口, 用于获取多路相互关联的视频图像数据及关联信息; 数据组合单元, 用于利用所述关联信息将所述多路相互关联的视频图像 数据处理成单路宽景视频图像数据;
数据重组单元, 用于将所述宽景视频图像数据重组成适应显示需求的多 路视频图像数据;
数据发送单元, 用于将所述数据重组单元处理得到的多路视频图像数据 通过通信网络发送;
数据接收单元, 用于接收承载于通信网络的所述多路视频图像数据; 多个数据输出接口, 与外部多个显示设备相连, 用于将所述数据接收单 元接收到的各路视频图像数据分别传输给相应的显示设备。
23、 如权利要求 22所述的系统, 其特征在于, 还包括:
数据编码器, 用于将所述数据重组单元重组得到的多路视频图像数据进 行编码后, 提供给所述数据发送单元;
数据解码器, 用于将所述数据接收单元接收的多路视频图像数据进行解 码后, 提供给所述数据输出接口。
24、 如权利要求 23所述的系统, 其特征在于, 所述数据重组单元重组得 到的各路视频图像数据包括: 所述宽景视频图像重组后的每个子图像及与其 对应的同步信息和重组信息;
所述数据编码器和数据解码器的个数均为多个, 多个数据编码器同时对 多路视频图像数据进行编码, 多个数据解码器同时对多路视频图像数据进行 解码;
所述系统还包括:
数据同步单元, 将所述解码后的子图像根据与其对应的同步信息进行归 类;
数据重建单元, 根据所述重建信息对所述归类后的子图像进行重建, 得 到多路视频图像数据, 提供给多个数据输出接口, 其中各路视频图像数据按 照其在所述宽景视频图像数据中的位置排列。
25、 一种视频会议终端, 其特征在于, 包括:
数据输入接口, 用于获取多路相互关联的视频图像数据及关联信息; 数据组合单元, 用于利用所述关联信息将所述多路相互关联的视频图像 数据处理成单路宽景视频图像数据;
数据收发单元, 用于将所述宽景视频图像数据通过通信网络发送给远端 的视频会议设备, 以及, 接收所述视频会议设备通过所述通信网络发送的单 路宽景视频图像数据;
数据重组单元, 用于将所述数据收发单元接收到的宽景视频图像数据重 组成适应显示需求的多路视频图像数据;
多个数据输出接口, 与外部多个显示设备相连, 用于将所述数据重组单 元处理得到的各路视频图像数据分别传输给相应的显示设备。
26、 一种视频会议终端, 其特征在于, 包括:
数据输入接口, 用于获取多路相互关联的视频图像数据及关联信息; 数据收发单元, 用于将所述多路视频图像数据及关联信息通过通信网络 发送给远端的视频会议设备, 以及, 接收所述视频会议设备通过所述通信网 络发送的多路视频图像数据及关联信息;
数据组合单元, 用于利用所述关联信息将所述多路相互关联的视频图像 数据处理成单路宽景视频图像数据;
数据重组单元, 用于将所述数据组合单元处理得到的宽景视频图像数据 重组成适应显示需求的多路视频图像数据;
多个数据输出接口, 与外部多个显示设备相连, 用于将所述数据重组单 元处理得到的各路视频图像数据分别传输给相应的显示设备。
27、 一种视频会议终端, 其特征在于, 包括:
数据输入接口, 用于获取多路相互关联的视频图像数据及关联信息; 数据组合单元, 用于利用所述关联信息将所述多路相互关联的视频图像 数据处理成单路宽景视频图像数据;
数据重组单元, 用于将所述数据组合单元处理得到的宽景视频图像数据 重组成适应显示需求的多路视频图像数据;
数据收发单元, 用于将所述数据重组单元处理得到的多路视频图像数据 通过通信网络发送给远端的视频会议设备, 以及, 接收所述视频会议设备通 过所述通信网络发送的经过重组得到的多路视频图像数据;
多个数据输出接口, 与外部多个显示设备相连, 用于将所述数据收发单 元接收到的各路视频图像数据分别传输给相应的显示设备。
28、 如权利要求 27所述的终端, 其特征在于, 还包括:
多个数据编码器, 用于将所述数据重组单元重组得到的包含的多路视频 图像数据进行编码后, 提供给所述数据收发单元, 其中, 各路视频图像数据 包括所述宽景视频图像分割后的每个子图像及与其对应的同步信息和重组信 息的;
数据解码器, 用于将所述数据收发单元接收的所述多路视频图像数据进 行解码后, 提供给数据同步单元;
数据同步单元, 用于将经过所述数据解码器解码后的子图像根据与其对 应的同步信息进行归类;
数据重建单元, 用于根据所述重建信息对所述归类后的子图像进行重建, 得到多路视频图像数据, 提供给所述多个数据输出接口, 其中各路视频图像 数据按照其在所述宽景视频图像数据中的位置排列。
PCT/CN2010/076763 2009-09-10 2010-09-09 视频图像数据处理方法、装置及视频会议系统及终端 WO2011029402A1 (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP10815004.6A EP2469853B1 (en) 2009-09-10 2010-09-09 Method and device for processing video image data, system and terminal for video conference
US13/416,919 US20120169829A1 (en) 2009-09-10 2012-03-09 Method and apparatus for processing video image data and videoconferencing system and videoconferencing terminal

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN200910161963.9A CN101668160B (zh) 2009-09-10 2009-09-10 视频图像数据处理方法、装置及视频会议系统及终端
CN200910161963.9 2009-09-10

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/416,919 Continuation US20120169829A1 (en) 2009-09-10 2012-03-09 Method and apparatus for processing video image data and videoconferencing system and videoconferencing terminal

Publications (1)

Publication Number Publication Date
WO2011029402A1 true WO2011029402A1 (zh) 2011-03-17

Family

ID=41804568

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2010/076763 WO2011029402A1 (zh) 2009-09-10 2010-09-09 视频图像数据处理方法、装置及视频会议系统及终端

Country Status (4)

Country Link
US (1) US20120169829A1 (zh)
EP (1) EP2469853B1 (zh)
CN (1) CN101668160B (zh)
WO (1) WO2011029402A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102868880A (zh) * 2011-07-08 2013-01-09 中兴通讯股份有限公司 一种基于远程呈现的媒体传输方法及系统
CN113114985A (zh) * 2021-03-31 2021-07-13 联想(北京)有限公司 一种信息处理方法和信息处理装置

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101668160B (zh) * 2009-09-10 2012-08-29 华为终端有限公司 视频图像数据处理方法、装置及视频会议系统及终端
CN101877775A (zh) * 2010-04-06 2010-11-03 中兴通讯股份有限公司 远程呈现系统及其摄像机组
CN101951507A (zh) * 2010-10-11 2011-01-19 大道计算机技术(上海)有限公司 大屏幕ip视频流接入设备及其实现方法
KR101840008B1 (ko) * 2011-06-24 2018-05-04 에스케이플래닛 주식회사 고화질 비디오 스트리밍 서비스 방법 및 시스템
CN103096015B (zh) * 2011-10-28 2015-03-11 华为技术有限公司 一种视频处理方法和系统
CN103248944B (zh) * 2012-02-03 2017-08-25 海尔集团公司 一种图像传输方法及系统
CN103517025B (zh) * 2012-06-28 2016-08-31 华为技术有限公司 视频通讯的方法、装置及远程呈现系统
CN102801969A (zh) * 2012-07-25 2012-11-28 华为技术有限公司 处理多媒体数据的方法、装置及系统
CN102802039B (zh) * 2012-08-14 2015-04-15 武汉微创光电股份有限公司 多路视频混合解码输出方法及装置
GB2507127B (en) * 2012-10-22 2014-10-08 Gurulogic Microsystems Oy Encoder, decoder and method
FR3004565B1 (fr) * 2013-04-12 2016-11-11 Kolor Fusion de plusieurs flux video
CN104301746A (zh) * 2013-07-18 2015-01-21 阿里巴巴集团控股有限公司 视频文件处理、服务器及客户端
US9742995B2 (en) 2014-03-21 2017-08-22 Microsoft Technology Licensing, Llc Receiver-controlled panoramic view video share
CN104333731A (zh) * 2014-11-19 2015-02-04 成都实景信息技术有限公司 一种企业视频会议系统
CN104735464A (zh) * 2015-03-31 2015-06-24 华为技术有限公司 一种全景视频交互传输方法、服务器和客户端
CN106331576A (zh) * 2015-06-25 2017-01-11 中兴通讯股份有限公司 多媒体业务处理方法、系统及装置
CN106550239A (zh) * 2015-09-22 2017-03-29 北京同步科技有限公司 360度全景视频直播系统及其实现方法
CN106686523A (zh) * 2015-11-06 2017-05-17 华为终端(东莞)有限公司 数据处理方法及装置
CN105681682B (zh) * 2016-01-19 2019-06-14 广东威创视讯科技股份有限公司 视频数据传输方法和系统
JP6747158B2 (ja) 2016-08-09 2020-08-26 ソニー株式会社 マルチカメラシステム、カメラ、カメラの処理方法、確認装置および確認装置の処理方法
CN107018370B (zh) * 2017-04-14 2020-06-30 威盛电子股份有限公司 用于视频墙的显示方法及其系统
CN107481324B (zh) * 2017-07-05 2021-02-09 微幻科技(北京)有限公司 一种虚拟漫游的方法及装置
CN108881927B (zh) * 2017-11-30 2020-06-26 视联动力信息技术股份有限公司 一种视频数据合成方法和装置
CN108924470A (zh) * 2018-09-12 2018-11-30 湖北易都信息技术有限公司 一种用于视频会议系统的视频图像数据处理方法
CN111654644A (zh) * 2020-05-15 2020-09-11 西安万像电子科技有限公司 图像传输方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0906695A1 (en) * 1996-06-21 1999-04-07 Bell Communications Research, Inc. System and method for associating multimedia objects
CN1427618A (zh) * 2001-12-20 2003-07-02 中国科学院计算技术研究所 基于多进程的多视角视频节目网络转播方法
CN1738403A (zh) * 2004-09-10 2006-02-22 张保安 组合宽屏幕电视系统
CN101146231A (zh) * 2007-07-03 2008-03-19 浙江大学 根据多视角视频流生成全景视频的方法
CN101668160A (zh) * 2009-09-10 2010-03-10 深圳华为通信技术有限公司 视频图像数据处理方法、装置及视频会议系统及终端

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030025599A1 (en) * 2001-05-11 2003-02-06 Monroe David A. Method and apparatus for collecting, sending, archiving and retrieving motion video and still images and notification of detected events
JP3787498B2 (ja) * 2001-02-13 2006-06-21 キヤノン株式会社 撮像装置及び撮像システム
US7782357B2 (en) * 2002-06-21 2010-08-24 Microsoft Corporation Minimizing dead zones in panoramic images
US7428000B2 (en) * 2003-06-26 2008-09-23 Microsoft Corp. System and method for distributed meetings
EG23651A (en) * 2004-03-06 2007-03-21 Ct For Documentation Of Cultur Culturama
US7183549B2 (en) * 2004-09-09 2007-02-27 Flir Systems, Inc. Multiple camera systems and methods
DE102005012132A1 (de) * 2005-03-16 2006-09-28 Valenzuela, Carlos Alberto, Dr.-Ing. Anordnung zur Durchführung einer Videokonferenz
CN100355272C (zh) * 2005-06-24 2007-12-12 清华大学 一种交互式多视点视频系统中虚拟视点的合成方法
US20080101410A1 (en) * 2006-10-25 2008-05-01 Microsoft Corporation Techniques for managing output bandwidth for a conferencing server
CN101521745B (zh) * 2009-04-14 2011-04-13 王广生 一组多镜头光心重合式全方位摄像装置及全景摄像、转播的方法
US8310520B2 (en) * 2009-08-19 2012-11-13 Avaya Inc. Flexible decomposition and recomposition of multimedia conferencing streams using real-time control information

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0906695A1 (en) * 1996-06-21 1999-04-07 Bell Communications Research, Inc. System and method for associating multimedia objects
CN1427618A (zh) * 2001-12-20 2003-07-02 中国科学院计算技术研究所 基于多进程的多视角视频节目网络转播方法
CN1738403A (zh) * 2004-09-10 2006-02-22 张保安 组合宽屏幕电视系统
CN101146231A (zh) * 2007-07-03 2008-03-19 浙江大学 根据多视角视频流生成全景视频的方法
CN101668160A (zh) * 2009-09-10 2010-03-10 深圳华为通信技术有限公司 视频图像数据处理方法、装置及视频会议系统及终端

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2469853A4 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102868880A (zh) * 2011-07-08 2013-01-09 中兴通讯股份有限公司 一种基于远程呈现的媒体传输方法及系统
CN102868880B (zh) * 2011-07-08 2017-09-05 中兴通讯股份有限公司 一种基于远程呈现的媒体传输方法及系统
CN113114985A (zh) * 2021-03-31 2021-07-13 联想(北京)有限公司 一种信息处理方法和信息处理装置
CN113114985B (zh) * 2021-03-31 2022-07-26 联想(北京)有限公司 一种信息处理方法和信息处理装置

Also Published As

Publication number Publication date
EP2469853B1 (en) 2016-08-10
EP2469853A1 (en) 2012-06-27
US20120169829A1 (en) 2012-07-05
CN101668160A (zh) 2010-03-10
CN101668160B (zh) 2012-08-29
EP2469853A4 (en) 2013-05-15

Similar Documents

Publication Publication Date Title
WO2011029402A1 (zh) 视频图像数据处理方法、装置及视频会议系统及终端
US8436889B2 (en) System and method for videoconferencing using scalable video coding and compositing scalable video conferencing servers
JP4921488B2 (ja) スケーラブルなビデオ符号化を用いて、またスケーラブルなテレビ会議サーバを複合してテレビ会議を行うためのシステムおよび方法
AU2011258272B2 (en) Systems and methods for scalable video communication using multiple cameras and multiple monitors
JP5809052B2 (ja) カスケード接続のマルチポイントテレビ会議装置を提供するためのシステム、方法及び媒体
US9131110B2 (en) System and method for handling critical packets loss in multi-hop RTP streaming
JP2004536529A (ja) 複数のビデオチャネルから連続的にフレームを受信し、交互に連続的に、各々の該ビデオチャネルに関する情報を含む個々のフレームをテレビ会議における複数の参加者の各々に送信するための方法及び装置
EP1721462B1 (en) Arrangement and method for generating continuous presence images
JP2011505771A (ja) 3次元ビデオ通信の端末、システム、および方法
US20150208037A1 (en) Method for improving an mcu's performance using common properties of the h.264 codec standard
WO2012028018A1 (zh) 分布式视频处理方法及视频会议系统
CN103957391A (zh) 在可视对讲中多方通话时同时显示各方视频的方法及系统
US6560280B1 (en) Video transmission system
US20040071212A1 (en) System and method for decreasing end-to-end-delay during video conferencing session
Gaglianello et al. Montage: Continuous presence teleconferencing utilizing compressed domain video bridging
Shirai et al. Multi-point 4K/2K layered video streaming for remote collaboration
CN101340546A (zh) 高分辨率视频会议系统
CN101521790A (zh) 基于数字电视实现高清会议系统的方法
Johanson Designing an environment for distributed real-time collaboration
Chavarrías et al. 3D videoconferencing system using spatial scalability
KR20030057505A (ko) 실시간 전송 프로토콜을 이용한 멀티미디어 데이터 전송시스템
Simmons et al. Telecommunications and videoconferencing for psychiatry
Iglesias Gracia Development of an integrated interface between SAGE and Ultragrid

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10815004

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2010815004

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2010815004

Country of ref document: EP