EP3063616A1 - Synchronization of videos in a display wall - Google Patents

Synchronization of videos in a display wall

Info

Publication number
EP3063616A1
EP3063616A1 EP13786168.8A EP13786168A EP3063616A1 EP 3063616 A1 EP3063616 A1 EP 3063616A1 EP 13786168 A EP13786168 A EP 13786168A EP 3063616 A1 EP3063616 A1 EP 3063616A1
Authority
EP
European Patent Office
Prior art keywords
ngp
video
network graphics
master
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP13786168.8A
Other languages
German (de)
French (fr)
Inventor
Udo ZERWAS
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Barco Control Rooms GmbH
Original Assignee
Barco Control Rooms GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Barco Control Rooms GmbH filed Critical Barco Control Rooms GmbH
Publication of EP3063616A1 publication Critical patent/EP3063616A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1446Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display display composed of modules, e.g. video walls
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1438Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display using more than one graphics controller
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/12Synchronisation between the display unit and other units, e.g. other display units, video-disc players
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2300/00Aspects of the constitution of display devices
    • G09G2300/02Composition of display devices
    • G09G2300/026Video wall, i.e. juxtaposition of a plurality of screens to create a display screen of bigger dimensions
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • G09G2340/125Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/06Use of more than one graphics processor to process data before displaying to one or more screens

Definitions

  • the invention relates to the synchronization of videos or video frames from video streams which are displayed on two or more displays of a display screen composed of a plurality of displays.
  • a display wall also referred to as a video wall, comprises a plurality of displays (D1, D2, Dn), for example in projection modules or TFT, LED, OLED or LCD screens.
  • Projection modules comprise a projection screen for displaying an image generated by an imager on a reduced scale, which is magnified on the projection screen by means of a projection device.
  • Active displays such as TFT, LED, OLED or LCD screens generate the image even on an unimproved scale without a projection device.
  • a large image is understood here to mean images which typically have screen diagonals of more than 0.5 m and can be up to several meters.
  • Common uses for such large displays are images of images taken by several people be considered at the same time, for example at conferences and presentations.
  • the image is composed of sub-images, each displayed by a display.
  • the image displayed in each case by a display is in this case a partial image of the total image of a display screen or screen wall which is displayed together by all the displays and comprises several displays.
  • a common display wall thus includes several checkered, tiled juxtaposed displays and a display wall frame that carries the displays.
  • a large number of displays in a modular structure of a large-area display wall in order to display a large image composed of the many partial images of the individual displays on the display wall.
  • the number of displays leading to a display wall can be up to 150 or more.
  • Large-area display walls which are composed of, for example, twelve or more displays, have a display screen diagonal of several meters. Such display walls are common, for example, in modern control technology.
  • the number of video image sources displayed simultaneously on the display wall is in some cases only one, for example if only one video is to be displayed on a very large display wall. But there are also many applications, for example in the Leitwarttechnik or in monitoring devices in which at the same time numerous video image sources are displayed on a display wall, the display wall is thus not just a video, but many video image sources.
  • the display screen In the case of a display screen, however, not only does the problem of the arrangement of the displays which is as free of web as possible arise, but the images displayed on the displays must also be synchronized for moving objects which are displayed simultaneously on several adjacent displays in such a way that the composite of the participating displays Picture for the viewer offers a synchronous picture on the display wall.
  • optical "tearing effect” described in more detail below in the figure description can occur, whereby video frames belonging to a video image source belonging to the displays of a display wall can be displayed at different times.
  • This optical effect is particularly annoying with horizontally or vertically moving objects, and that at the edges of the moving object representing displays, because there appears the object in lack of synchronization at the transition from one display to another "torn".
  • the frame lock or genlock is implemented with a hardware solution to synchronize the vertical synchronization of the graphics processors.
  • Content buffer and swap buffer synchronization is accomplished by a single global synchronization master.
  • the refresh frequency (vertical display frequency) of the displays must be greater than the maximum of the frame rates of all displayed applications.
  • the content buffer and swap buffer synchronization requires intensive communication between the global synchronization master and the display node.
  • (m + 1) n synchronization messages and in the case of the described two-phase algorithm (m + 3) n synchronization messages must be transmitted over the network, where m is the number of video image sources and n is the number of displays on the display wall.
  • All PCs receive the same video stream, decompress it, cut their desired areas out of the decompressed video frame, and display them on their displays as they are synchronized with each other via a synchronization process.
  • a stream control based on the bit rate of the video stream as well as a prepuffering.
  • the system requires the availability of correct timestamps in the video frames and is only suitable for presenting a single video image source, but not multiple video image sources simultaneously on the display wall.
  • the present invention has the object to provide an improved method and a corresponding device, with which the simultaneously displayed on several (especially adjacent) displays of a display screen images of any video image sources can be synchronized such that the the involved displays composite picture for the Viewer provides a synchronous image on the display wall.
  • the frequency or frequency of the synchronization messages that are transmitted over the network for synchronizing the display on the displays should be reduced in order to minimize the burden on the network.
  • the network graphics processors involved in the presentation of a video image source are organized in a master-slave architecture, wherein a network graphics processor is configured as the master network graphics processor for the video image source and the other network graphics processors as the slave network graphics processors the role distribution for a video image source is given by synchronizing the representation of the video image source, the master network graphics processor sending synchronization messages to the slave network graphics processors received and evaluated by the slave network graphics processors, the video frames respectively identified by means of an embedded in the video stream absolute frame identification number, which is preferably derived from the RTP timestamps of the video frames, the presentation of the video frames is synchronized among the network graphics processors at frame synchronization times, to which in each case one lasting until the next frame synchronization time mediation follows, which extends over several image returns of the display wall, wherein each shortly before a frame synchronization time, ie before the start of meditation duration, at a synchronization message time from the master network graphics processor, a synchronization message to the slave network Graphic processors are
  • the invention is further directed to a computer program product, in particular a computer-readable digital storage medium having stored, computer-readable, computer-executable instructions for carrying out a method according to the invention, i. with instructions that, when loaded into a processor, computer or computer network, cause the processor, computer or computer network to perform method steps and operations in accordance with the inventive method.
  • a computer program product in particular a computer-readable digital storage medium having stored, computer-readable, computer-executable instructions for carrying out a method according to the invention, i. with instructions that, when loaded into a processor, computer or computer network, cause the processor, computer or computer network to perform method steps and operations in accordance with the inventive method.
  • the invention is further directed to a computer system comprising a plurality of network graphics processors, each having a computer with network card, graphics card and network interface and a video synchronization module for carrying out a method according to the invention.
  • the video synchronization module can be implemented as hardware or preferably completely as software.
  • the invention relates to a display wall, which is composed of several displays and serves to display one or more video streams from one or more video image sources and comprises a computer system according to the invention.
  • the invention is based on the finding that it is with a synchronization of video frames according to the invention, which is based essentially on the combined use of each one video frame queue for the Video frames in the network graphics processors and a mediation function shared in the network graphics processors that is synchronized at a comparatively low rate by a master network graphics processor, is capable of displaying the video frames of a video image source or video overlay on multiple displays Synchronize a display wall in frequency and phase so that a tearing-free presentation takes place, the network is only slightly burdened with the synchronization operations and synchronization messages.
  • the invention compensates for differences between the frequency of a displayed video stream and the vertical display frequency as well as differences in the transmission times of the video frames of a displayed video stream over the network to the individual network graphics processors as well as differences in the processing times of the video frames in the individual network graphics processors ,
  • the compensation of the different frequencies for the use of the mediation function and the compensation of the different transmission and processing times is based primarily, but not exclusively, on the use of the video frame queues.
  • the use according to the invention of a mediation function leads to a considerable reduction in the frequency of the synchronization messages.
  • the invention thus advantageously enables a tearing-free display while at the same time reducing the load on the network.
  • the refresh frequency (vertical display frequency) of the displays is independent of the frame rate (video stream frequency) of the individual video image sources, therefore multiple video image sources of any video streaming frequency can be displayed.
  • the role of the master is linked to a specific video image source. Therefore, various network graphics processors can act as masters for content synchronization of various video image sources. This is an advantage in implementing the invention as compared to a system where a single master is required for synchronization.
  • a mediation function determines which video frames are displayed consecutively.
  • the frequency at which frame synchronization is performed i. the frequency of the frame sync (recorrelation of the synchronous representation of the video frames), however, is much smaller than the vertical display frequency (synchronization repetition rate of the displays, image refresh rate, in English refresh rate). This significantly reduces the additional load on the network through synchronization operations that must occur to avoid tearing across the network. This is all the more advantageous the more video image sources or video impressions, e.g. 40 to 60, need to be synchronized.
  • the synchronization processes run independently for each video image source.
  • the synchronization processes for the several simultaneously synchronized video streams (video overlays IS) have no effect on each other, ie they operate completely independently of one another, at least if no transparent ones Crossfades of video inserts are needed, which is almost always the case in practice.
  • the invention Method of content synchronization thus runs separately and independently of each other for each video stream that is displayed on the display wall, without requiring the individual synchronization processes for the respective video streams (video overlays IS) a vote or synchronization with each other.
  • the synchronization of the image returns (English: vertical retraces) of the output signals of the graphics cards is done without additional hardware by the pixel clock on each graphics card is programmed by software. Since the video frames are rendered in an invisible second buffer (double-buffering) and can only be seen when this hidden buffer is copied into the visible area during the next picture return (swap-locking), the display of new video frames for Any number of video image sources automatically synced between all network GPUs.
  • the invention can handle a plurality of video image sources with mutually different frame rates.
  • the frame rates of the video image sources can also be different from the Refreshrate (vertical display frequency) of the tiled displays arranged display wall.
  • the timestamps embedded in the video stream are used in the invention only to identify the video frames, but the time information of the timestamps is not used to synchronize the video frames. This is advantageous because not all encoders provide a correct indication of time support stamping.
  • the solution according to the reference Giseok Choe et al. On the other hand, for a synchronous presentation of the video frames depends entirely on the fact that correct timestamps are available for the video frames.
  • the synchronized presentation of new video frames on the network graphics processors is not yet content sync, i. the synchronized visibility of a new video frame does not guarantee that it is the same video frame from the video stream.
  • the processes that eventually accomplish this content synchronization operate separately and independently for each individual video image source, with one network graphics processor being the master for each of these processes and all others being the slaves;
  • Various representations of video image sources may have different network graphics processors as masters.
  • the role of the master is to send the synchronization messages for video frame content synchronization to all involved slaves.
  • the main advantage of the mediation function according to the invention is that the network load required for the synchronization is greatly reduced, since a synchronization message does not have to be sent over the network for each individual video frame of a video stream, but only at a time interval of the frame synchronization times TS.
  • the time between two frame synchronizations, ie the mediation time TM between two frame synchronization times TS, in the invention is typically one second instead of 20 msec, as would be required for frame by frame synchronization with a framerate of the video stream of 50 Hz. It is furthermore particularly advantageous that no synchronization messages from the slave network graphics processors to the master network graphics processor are required for the frame synchronization according to the invention, but the transmission of synchronization messages from the master processor is required.
  • Network graphics processor to the slave network graphics processors sufficient.
  • the additional data processing effort on the network graphics processors to locally compare information from the synchronization message with locally stored information and to calculate the mediation function or to determine the video frame to be rendered is very low and in view of the high computing power of common network graphics processors
  • the implementation of the synchronization according to the invention consists of mediation and frame synchronization and is preferably carried out completely in software (eg on the operating system LINUX) on the standard hardware component that makes the rendering (and possibly also the software or hardware decoding).
  • Such a standard hardware component in the form of a network graphics processor includes a computer with network card, graphics card and (Ethernet) network interface).
  • the invention thus has the advantage that it can be implemented without additional hardware components in a conventional display wall with the standard hardware there.
  • the method according to the invention can in particular comprise one or more of the following further method steps:
  • the image returns of the graphics cards of the network graphics processors are counted locally by the network graphics processors by means of a Vsync counter synchronized under the network graphics processors;
  • the network graphics processors become local relative VSync Counter NSR, which is the difference between the current, synchronized vsync counter and its value at the last frame synchronization time, of the network graphics processors, the relative vsync counters NSR are used as the argument value of the mediation function MF, with the mediation function being MF
  • the mediation function MF calculates as function value a local relative video frame counter NFR that is the difference from the local video frame counter of the video frame to be selected from the video frame queue and the video frame frame of the video frame at the last frame synchronization time such that the network graphics processors use the local relative video frame counter NFR determines the video frame to be rendered by the respective network graphics processor for presentation on the display and is selected for rendering, the mediation function MF based on the quotient contained in the argument value of the mediation function MF divided video stream frequency f s divided by vertical display frequency f d (or the reciprocal quotient of the periods) in the processing of the video frames between these two frequencies balancing mediated, if they are different.
  • the method according to the invention may further comprise in particular one or more of the following further method steps:
  • the comparison of the snapshot received with the synchronization message of the video frame queue of the master network graphics processor with a locally stored snapshot of the video frame queue of the slave network is shown in FIG. factory graphics processor by means of the contained in the snapshots absolute frame ID numbers checked whether the two snapshots a common reference video frame is included, and formed for this reference video frame from the contained in the snapshots local association between the absolute frame number numbers and the local video frame counter, a video frame counter difference that the The difference between the local video frame counter of the reference video frame slave network graphics processor and the master video frame counter of the master network graphics processor of the reference video frame is determined, and the frame frame offset is determined by the video frame counter difference.
  • the slave network graphics processor computes the local video frame counter of the master network graphics processor for the video frame used for the video frame Synchronization message time was selected by the master to render by subtracting the conversion difference from the local video frame counter of the slave network graphics processor, and the frame offset as the difference of the local video frame counter of the master network graphics processor for the video frame, the synchronization message time from the slave network
  • the local video frame counter of the master network video processor for the video frame that was selected for rendering at the same synchronization message time by the master network graphics processor becomes.
  • the slave network graphics processor determines the local video frame counter from a video frame by means of the snapshot received in the synchronization message has the same video frame on the master network graphics processor.
  • the slave network graphics processor normalizes its local video frame counter to the master network graphics processor. This is done by using the video frame counter difference, which is constant and independent of the video frame, as long as a video frame is not lost from the video stream when decoding a video stream on a network graphics processor, such as a malfunction, malfunction, mis-transmission or timing problem.
  • the video frame counter difference of the local video frame counters is needed to determine and correct the frame offset between the slave network graphics processor and the master network graphics processor to convert the local video frame counter of the slave network graphics processor to the master network graphics processor.
  • the slave network graphics processor may, for any video frame, calculate the local video frame counter on the network graphics card processor by subtracting the conversion difference from its local video frame counter.
  • the first variant is that, in order to determine the video frame counter difference in the comparison of the snapshots, it is searched for the last, ie immediately before the dispatch of the synchronization message, from the slave network graphics processor to the video frame queue of the slave network graphics processor Video frame is included in the snapshot of the master network video processor. If so, this video frame can then be used as a common reference video frame.
  • the second variant is that for determining the video frame counter difference with the master network graphics processor's synchronization message to the slave network graphics processors, the value of the local video frame counter of the master network graphics processor is the last, ie, immediately before the synchronization the master network graphics processor scans the video frame mounted on the master network graphics processor video frame, and the absolute frame identification number of that video frame is transmitted, and if the comparison of the snapshots is searched for, the video frame is included in both compared snapshots , If so, this video frame can then be used as a common reference video frame.
  • the frame offset is determined by the slave network graphics processor taking the difference from the local video frame counter (converted to the master with the video frame counter difference) of the video frame selected for rendering at the last frame synchronization time and the local video frame counter of the corresponding video frame of the master frame.
  • Network graphics processor transmitted with the last synchronization message from the master network graphics processor
  • FIG. 1 shows an example of a display wall with 3x4 displays
  • FIG. 2 shows an example of a video overlay on a display wall
  • FIG. 3 shows an example of frametearing in the horizontal movement of a vertical test strip in a display wall
  • FIG. 4 shows an example of frametearing in the vertical movement of a horizontal test strip in a display wall
  • FIG. 5 shows a system configuration with frame lock
  • FIG. 6 shows a system configuration with genlock
  • Figure 7 shows an example of a video frame queue implemented as
  • FIG. 9 shows the rendering of a video stream on a network graphics processor for f s ⁇ f d
  • FIG. 10 shows the visualization of the video frames of FIG. 9 on a display
  • FIG. 11 shows the rendering of a video stream on a network graphics processor for f s > f d ,
  • Figure 12 shows the video frames of Figure 11 becoming visible on a
  • FIG. 13 shows the synchronization of two network graphics processors for a video image source.
  • FIG. 14 shows the effect of a mediation function for the case f s ⁇ f d .
  • FIG. 15 shows the effect of a mediation function for the case f s > f d .
  • FIG. 16 shows the function floor (x),
  • FIG. 17 shows a first preparation stage of the synchronization process
  • FIG. 18 shows a second preparation stage of the synchronization process
  • FIG. 19 shows the synchronization process
  • FIG. 20 shows the measurement of the frequencies f s and f d .
  • a display wall 1 which is also referred to as a video wall, generally comprises a plurality n of displays D (D1, D2, Dn), for example projection modules (FIG. Rear projection or incident light) or LCDs.
  • the n displays D have the same display frequency f d and preferably the same size and resolution.
  • the video image sources S to be displayed by the displays D of the display wall 1 are a plurality of m videos or video image sources S (Sl, S2, Sm). These videos are each a stream of pictures, ie a video stream of video frames. Many consecutive frames make a video or a movie. The frames of a multi-frame video or movie sequence represented by a display D are called video frames. net.
  • the video image sources S have video streaming frequencies f s , which may be different from one another as well as different from the vertical display frequency f d .
  • video image source S refers to the source side (for example, an encoder providing the video as a video image source) of the video data stream
  • the representations derived from the video streams of the video image sources S are displayed on the displays D the display wall 1 referred to as video inserts IS (English "insertions").
  • video inserts IS English "insertions"
  • a single video overlay IS can only be part of the image of a video image source S (so-called "cropping") or else the entire image of a video image source S.
  • the images of a video image source S can also be shown several times as multiple video overlays IS on one or more displays D, the same applies to parts of the images of a video image source S.
  • the number of video overlays IS is greater than or equal to the number m of video image sources S.
  • each video image source S is displayed only once on the display wall 1; in this case, the number of video overlays IS is then equal to the number m of video image sources S.
  • FIG. 2 shows an example of a logical video overlay IS on the display wall 1 of FIG. 1.
  • the spatial area of a video overlay IS shown on a display wall 1 will generally extend over a plurality of displays D, the video part overlays on the respective displays D together forming a logical one Video insertion IS form.
  • the overlaid area of the video insert IS extends over the entire display D6 and parts of the displays D1, D2, D3, D5, D7, D9, D10 and Dil, whereas the displays D4, D8 and D12 do not appear on the display the video insert IS involved.
  • the effect can occur if the composition and display of the individual images is not synchronized with the monitor playback, for example the refresh frequency (refresh rate, vertical frequency, vertical display frequency) or scrolling.
  • the refresh frequency refresh rate, vertical frequency, vertical display frequency
  • Scrolling This may be due to the lack of adaptation of the refresh frequency; in this case, as the phase difference changes, the tearing line moves at a speed that is proportional to the frequency difference. But it can also simply be due to a lack of synchronization of the phase between the same frame rates; in this case, the tearing line is at a fixed location given by the phase difference.
  • tearing leads to a torn appearance of edges of straight objects, which then no longer connect to each other.
  • the rendering engine's frame rate is exactly equal to the refresh frequency (vertical display frequency) of the monitor.
  • fluttering English "judder"
  • videos are usually recorded at a lower frame rate (24-30 video frames / sec) than the refresh frequency of the monitor (typically 60 Hz).
  • FIG. 3 shows an example of frametearing in a display wall 1 with horizontal movement (in the + x direction) of a vertical bar.
  • the display D3 shows the video frame i and the adjacent display D1 represents the earlier video frame (i-1) at the same time.
  • the offset falsifies the representation of the bar and attracts a viewer.
  • the offset is greater the greater the speed of the moving beam.
  • FIG. 4 shows an example of frametearing in a display wall 1 with vertical movement (in the + y direction) of a horizontal bar.
  • the display D3 shows the video frame i and the adjacent display D4 represents the earlier video frame (i-1) at the same time instant.
  • the temporal frame offset lies on the displays D of a display wall 1 without synchronization according to the invention of the representation of the video frames at +/- 1 to max. +/- 3 video frames.
  • the temporal frame offset lies on the displays D of a display wall 1 without synchronization according to the invention of the representation of the video frames at +/- 1 to max. +/- 3 video frames.
  • there is already a difference of +/- 1 video frame in the presentation a video overlay on adjacent displays D visible especially in the representation of fast-moving objects and because the frame offset varies, and should therefore be prevented by the synchronization.
  • the representation of the video frames preferably takes place by means of the network graphics processors NGP repeatedly buffered, preferably double-buffered, and swap-locked.
  • These terms refer to the process of how the image data (video frames) stored in a buffer memory of a network graphics processor NGP are displayed on the associated display D.
  • Double buffering uses two buffer memories, namely a front buffer (in English: visible buffer or front buffer) containing the image data currently being displayed on the display D and a back buffer containing the image data of the next video frame are.
  • Double buffering means that the onboard memory in the graphics card of the network graphics processor NGP has two memory areas, namely a visible area which is read out for display in the display D, and a back buffer area which is controlled by the GPU becomes.
  • buffer flipping copying from the back buffer into the front buffer or swapping the roles of these buffer areas (buffer flipping) occurs in the video retrace (vertical retrace) of the display D.
  • Swapping can be either true copying or a buffer flipping, ie a genuine replacement of the memory areas.
  • the buffer contents are not exchanged, but the reading is carried out from the other buffer.
  • Multiple or double buffering and swap-locked memory operation avoids tearing during image buildup on a single display D. This switching can be done by copying in the visible memory area or the video controller on the graphics card exchanges the roles of these two memory areas in hardware, which is referred to as buffer flipping
  • Rendering is the conversion or conversion of a geometric image description, such as a vector graphic, into a pixel representation.
  • OpenGL is a graphical subsystem that specifically allows texture rendering, where the frame content is mapped as a texture to the rendering rectangle of the video overlay to render video frames.
  • Double buffering means that the video frames are rendered in a back buffer whose contents are not visible on the D display. And this is done while the previous video frame contained in the front buffer is displayed.
  • a swap buffer function an OpenGL Library function
  • the back buffer and the front buffer are swapped, i. the back buffer becomes the new front buffer whose information is read out and becomes visible on display D, and the front buffer becomes the new back buffer for the rendering process of the next video frame.
  • the swap-locking means that this buffer exchange is performed during the vertical picture blanking interval (the picture return, picture return, display return, display return) of the display D.
  • the swap buffer function can be called at any time, but the back buffer is copied to the front buffer only during the next frame blanking interval of the display D. As a result, the tearing is prevented in each individually displayed image of a display D.
  • the image returns of the display D driving graphics cards are also synchronized in the network graphics processors, which means that the image return signals have the same frequency and have the same phase.
  • One possible method of implementation is to configure a computer with a graphics processor, in this case a network graphics processor NGP, as a master, which supplies, for example via a multidrop cable, to all computers with a graphics processor the image return signal Vsync.
  • This variant is referred to as "frame lock" and is shown in FIG.
  • the slaves are designed so that they listen to this signal and lock their synchronization after this image return signal Vsync (lock).
  • Another method is to use a multi-drop cable to lock each network graphics processor NGP to the same external video retrace signal Vsync. This external synchronization signal Vsync is then provided by a synchronization signal generator SS.
  • This implementation is also referred to as genlock and is shown in FIG.
  • Hardware synchronization of the image return signals Vsync of the displays D via a plurality of graphics processors NGP can be realized by a specific additional frame lock hardware.
  • the G-Sync board is commercially available from NVIDIA Corp., Santa Clara, Calif., USA.
  • the Vsync signals can also be synchronized by software, for example by means of multi-cast messages over the network.
  • the synchronization of the image returns of the displays D in terms of frequency and phase is typically carried out in practice with an accuracy of 1 msec or better.
  • the image returns of the displays D of the display wall 1 are thus synchronized with the image retrace signals Vsync in terms of frequency and phase.
  • the image retrace signals Vsync are counted up by a synchronized image retrace signal counter (synchronized VS sync counter NS) from one image retrace signal Vsync to the next, ie from one image retrace to the next.
  • a synchronized image retrace signal counter synchronized VS sync counter NS
  • the current value of the picture retrace signal counter (synchronized sync counter NS) is transmitted to the network graphics processors NGP together with the picture retrace signals Vsync, so that the same values of the picture retrace signal counter (synchronized VS sync counter NS) are available at the same times on the network graphics processors NGP.
  • the image return signals Vsync of all network graphics processors NGP it is therefore necessary for the image return signals Vsync of all network graphics processors NGP to have the same frequency and phase, for example by performing a frame lock or genlock.
  • the basic condition is satisfied that the image structure on the displays D with the same frequency and phase takes place.
  • FIG. 5 shows a system configuration with frame lock
  • FIG. 6 shows a system configuration with genlock
  • the video image sources S to be displayed by the n displays D1, D2, Dn of the display wall 1 are a plurality of m videos or video image sources S (S1, S2, S2). Sm). These videos are each a stream of pictures, ie a video stream of video frames.
  • the displays D are a plurality of displays (D1, D2, Dn), for example projection cubes (rear projection or incident light) or LCDs, each of which is provided by a separate network graphics processor NGP (NGP 1, NGP 2, NGP n). be controlled.
  • NGP network graphics processor
  • a network graphics processor NGP also referred to as a rendering engine or rendering engine, is the generic name for a dedicated display controller having a LAN connection, a CPU, a memory, a hard disk, an operating system (eg, Linux), software decoders, and / or hardware decoders , a graphics processor and all other components required for its functionality.
  • the display output of each network graphics processor NGP is connected via a video display interface, such as a digital visual interface (DVI), each with a display D.
  • DVI digital visual interface
  • a display D and an associated network graphics processor NGP are collectively referred to as a display unit.
  • the videos of the video image sources S can be coded.
  • the coding is done by means of an encoder EC and is a compression technique which serves to reduce the redundancy in video data and consequently to reduce the bandwidth required in the network for transmitting the videos of the video picture source S.
  • MPEG2, MPEG4, H.264 and JPEG2000 are examples of common standards of compression techniques for encoding video.
  • Some, many or all video image sources (Sl, S2, Sm) can be coded.
  • the EC encoders may be a mix of encoders from different manufacturers, eg, 105210- ⁇ (from Impath Networks Inc. Canada), VBrick 9000 series (from VBrick Systems Inc.), and VIP1000 (Bosch).
  • Variants of the standard communication protocols are implemented on these encoders EC. It may also be that uncompressed video image sources S are transmitted to the network graphics processors NGP of the display wall 1, but the transmission of uncompressed videos requires a higher load of the network.
  • the data stream from video images of the video image sources S compressed by the coders EC is transmitted to the network graphics processors NGP via a network LAN or IP network (eg a general purpose LAN or a dedicated video LAN) and possible network switches SW.
  • the computer network LAN is, for example, a Gigabit Ethernet GbE according to IEEE 802.3-2008 and / or an Ethernet network E.
  • the transmission of the video images over the network LAN takes place, for example, with the so-called UDP multicast.
  • multicasting is the simultaneous sending of a message or information from a transmitter (the video picture source S) to a group of receivers (receiving computers, network graphics processors NGP) in a single transmission from the transmitter to the receivers.
  • the advantage of multicast is that messages can be transmitted simultaneously to multiple subscribers or to a closed subscriber group without the transmitter's bandwidth multiplying by the number of receivers.
  • Multicast is the common term for IP multicast, which allows IP networks to efficiently send packets to many receivers at the same time.
  • the video streams received over the network LAN are again decoded for display on the displays D and displayed by the displays D.
  • the decoders may be hardware and / or software decoders.
  • the decoder function can handle the various compression standards, e.g. MPEG2, MPEG4, MJPEG and H.264.
  • all m video image sources S are sent via the IP network LAN to all network graphics processors NGP and represented by the displays D of the display wall 1 in a specific composition.
  • the network graphics processors NGP do not decide themselves which video image source S or video image sources S or Wel- chen part or which parts of a video image source S they represent on their respective associated display D, but this is controlled by a central entity or central unit, not shown.
  • the representation of the video image sources 1 on the displays D of the display wall 1 is carried out according to a specific layout, which is specified by the central instance, not shown.
  • the central entity notifies the network graphics processors NGP which part of which video image source S is to represent the display D assigned to the respective network graphics processor NGP at which point of the display D.
  • two networks are generally used, namely a video network that transmits all video image sources S to all network graphics processors NGP, and a control or home network, that supplies the control information for the individual display units from the central instance.
  • the control information indicates which video image source S or which part of a video image source S is to be displayed by which display D at which point of the display D.
  • each network graphics processor NGP involved in the presentation of a video logical insertion IS will receive the same video data stream from the network LAN and decode that part of the video logical overlay IS corresponding to the display D of the display wall 1 that is from the respective network Graphic processor NGP, on the associated display D must represent.
  • Synchronizing the image return signals Vsync of the displays D, in particular by means of frame lock or genlock, is therefore not sufficient alone to achieve a tearing-free operation of the display wall 1, as explained above, due to different transit times (network delay) between the encoders EC and the network Graphics processors NGP and / or different CPU utilization of the involved network graphics processors NGP can cause a particular video frame of a video stream of a video image source S on a display D of the display wall 1 with a small time shift compared to other displays D of the display wall is displayed, even if the image return signals Vsync the displays D and thus the image representations on the displays D are synchronized in terms of frequency and phase.
  • the synchronization of the image return signals Vsync of the displays D is therefore a necessary but not sufficient condition for content locking.
  • the invention For synchronizing the clocks on the network graphics processors NGP, the invention preferably uses the Precision Time Protocol (PTP), also known as IEEE 1588-2008. It is a network Protocol that synchronizes the clock settings of multiple devices on a computer network. It is a protocol used to synchronize the clocks of computers in a packet-switched computer network with variable latency. The computers of the network are organized in a master-slave architecture. The synchronization protocol determines the time offset of the slave clocks relative to the master clock.
  • PTP Precision Time Protocol
  • the PTP can be used to synchronize the various network graphics processors NGP. This is done using a network graphics processor NGP as reference (PTP master) and the clocks of all other network graphics processors NGP are synchronized with high accuracy for this PTP master.
  • the time of the PTP master is called the system time.
  • the time deviations of the clocks of the network graphics processors NGP from the clock of the PTP master can be kept below 100 ⁇ .
  • a video frame includes the encoded content of a complete video frame of a particular video image source S.
  • Each video frame is uniquely identified by the time stamp in the RTP (Real-time Transport Protocol) packet header.
  • RTP Real-time Transport Protocol
  • the realization of the contentlock takes place by means of buffers of video frames in a video frame. Queue and a frame synchronization process using a mediation function.
  • the video frames of a coded video signal ie a video picture source S distributed over a computer network LAN, do not arrive at the various network graphics processors NGP of the displays D in a temporally equidistant manner.
  • the video frames may be bursty or bursty, and then there may be a period when no video frames arrive.
  • the average period of time with which the video frames arrive is 20 ms, if this average value is determined over a sufficiently long time, for example 2 s. Viewed over shorter time intervals, the video frames can arrive at time intervals that are much shorter or much longer than 20 ms.
  • These temporal fluctuations are called video jitter. Jitter refers to a non-uniform spacing of video frames when displaying consecutive video frames.
  • the causes of the jitter are essentially the decoders, the network LAN and the network graphics processors NGP, but other components such as the encoders EC can contribute to the jitter.
  • the jitter makes it necessary to de-jitter the incoming video stream so that moving content can be displayed without jitter artifacts.
  • the decoded video frames of the video stream are buffered in a video frame queue 2.
  • this video frame queue 2 is preferably implemented as a ring buffer, since new video frames can be entered here all the time and video frames can be removed for rendering, without having to copy them over.
  • Figure 7 shows such a video frame queue 2 implemented as a ring buffer.
  • the ring buffer has a fixed number of possible entries slots (six places with indices 0 through 5 in the example of Figure 7).
  • a ring buffer is realized in software as an array, whereby the ring structure is achieved by the treatment of put and get pointers.
  • a video frame queue 2 for example a ring buffer according to FIG. 7, is provided in each network graphics processor NGP, to which the video frames of the video image source S are transmitted.
  • the video frames are entered directly into the video frame queue 2, in coded video image sources S, the video frames are previously decoded with the decoder 3.
  • the decoder 3 receives a coded stream of video frames, performs the decoding and enters the decoded video frames 4 in the ring buffer.
  • the first video frame is entered in position 0 of the ring buffer, the next video frame in position 1 and so on, until the last place 5 has been occupied and it starts again from the beginning at position 0.
  • the memory locations of the ring buffer are read out with the renderer 5 or a rendering process which supplies the back buffer 6 with video frames.
  • Decoding with a decoder 3 and rendering with a renderer 5 in Figure 7 takes place in two different processes in each network graphics processor NGP.
  • the renderers 5 respectively extract the video frame selected by the mediation function for rendering from the respective video frame queue 2, older entries in the video frame queue 2 have already been processed and are therefore invalidated, ie their places in the queue are released for new entries.
  • the put pointer of the video frame queue 2 points to the free space for the next video frame 4 provided by the decoder 3 and the get pointer to the location which the mediation function has designated for fetching the next video frame to be rendered.
  • An entry in the video frame queue 2 is invalidated when the Get pointer is set by the mediation function to a different location of the video frame queue 2.
  • the renderer 5, or the rendering process as the consumer of the video frame queue 2 (the ring buffer in FIG. 7), quickly store the video frames stored in the video frame queue 2 takes enough to render from the video frame queue 2, so that a memory space occupied in the video frame queue 2 with a video frame, which is later required for rendering, is not overwritten by a new decoding write operation from the decoder 3.
  • This is achieved in a video synchronization module by a mediation function which mediates between the video streaming frequency f s of the incoming video stream of the video image source S and the vertical display frequency (also referred to as vertical frequency, display frequency, frame rate, refresh rate or refresh frequency) f d of the display D.
  • the video synchronization module is part of the software implementing the synchronization according to the invention and is part of the rendering in the network graphics processor NGP.
  • the mediation function provides speed equalization between generator (decoder 3) and consumer (renderer 5) of the entries in the video frame queue 2. It determines which video frame is read from the video frame queue 2 and further processed (modified by the renderer 5). becomes.
  • An optimal size of the video frame queue 2 is present when it has an average filling level of about 50% in operation, ie half filled with valid and half with invalid (negotiated) video frames 4.
  • enough video frames 4 are cached in the video frame queue 2 so that the rendering can be done dejitter, and on the other hand, it is half empty and has Thus, enough free memory space to quickly successive incoming video frames 4 from the video stream to be able to cache without the video frame queue 2 overflows.
  • the vertical display frequency f d of the display D is preset with other display settings of the display D itself.
  • f d is defined by the "Display Data Channel” (DDC) protocol and the accompanying standard “Extended Display Identification Data” (EDID).
  • DDC Display Data Channel
  • EDID Extended Display Identification Data
  • the display settings and thus f d are not changed during operation of the system.
  • the vertical display frequency f d of the display D is usually in the range 50 Hz ⁇ f d ⁇ 100 Hz, but can also under-run or exceed this range.
  • the video stream frequency f s of the video stream is the rate of the decoded video frames 4 at the output of the decoder 3 or at the input of the video frame queue 2.
  • the "current" (or "differential") video streaming frequency f s of the video stream may also vary over time because different video frames may take a different route through the network LAN or because the throughput times may vary due to changing network load (see also FIG the jitter explained above).
  • f s f d Another important cause of a fluctuating video streaming frequency f s of a video stream is differences in the encoders EC or different utilization of the CPUs or GPUs of the various network graphics processors NGP. Therefore, in the general case f s f d , where both f s ⁇ f d and f s > f d is possible. In addition, the difference between f s and f d in the operation of the display wall 1 can change over time.
  • Figure 9 shows case (2), ie rendering a video stream on a network graphics processor NGP for f s ⁇ f d .
  • the time points at which the video frames FR are rendered in the back buffer not at the times of the picture returns VR.
  • the video frames FR rendered in the back buffer 6 are not yet visible, ie are not yet shown on the display D, but only when (after performing the swap buffer function) the image information is in the front buffer.
  • the timing of the rendering of a video frame and the visibility of the video frame are generally different.
  • FIG. 10 shows the visibility of the video frames FR of FIG. 9, which are stored in the back buffer 6, as video frames FV becoming visible on the display D.
  • some video frames here the video frames N + 1 and N + 3
  • T d time period 2 x T d
  • f s time period 2 x T d
  • T d time period 2 x T d
  • FIG. 11 shows case (3), ie the representation of a video stream on a network graphics processor NGP for f s > f d . Shown are the image returns VR of the display D illustrated as rectangular pulses as a function of the time t and the numbers N, N + 1, etc. of the video frames FR rendered in the back buffer 6.
  • FIG. 12 shows the visibility of the video frames FR of FIG. 11 stored in the back buffer 6 as video frames FV becoming visible on the display D. From this it is clear that some video frames (in the example shown the video frames N + 2, N + 5 and N + 8) are unavoidably skipped to compensate for T s ⁇ T d (ie f s > f d ). Also in this case, the movement of a moving object shown, for example a test strip, will not be uniform, except when T d is an integer multiple of T s .
  • the network graphics processor NGP 1 operates as the machine which takes the lead in the synchronization process for a particular video image source S. It is therefore called master and all other network graphics processors NGP are called slaves. Both displays D assigned to one of the network graphics processors NGP have the same vertical display frequency f d .
  • the graphics cards of the network graphics processors NGP are synchronized, preferably framelocked or genlocked, for example with the hardware method described above. That is, the picture retrace signals Vsync of the various network graphics processors NGP have the same frequency and the same phase.
  • FIG. 13 shows the image returns VR, which are illustrated as rectangular pulses, of the displays D belonging to the two network graphics processors NGP 1 and NGP 2 as a function of the time t and below them the numbers N-1, N, N + 1 etc. in the respective ones video frames FW of a video image source S or a video overlay IS written to a video graphics processor NGP belonging to video frame queue 2 (ring buffer) and thus available for reading in the video frame queue 2, ie the video frames resulting from the video frame waiting 2 can be read out for rendering in the back buffer 6.
  • the image returns VR of the two network graphics processors NGP 1 and NGP 2 have the same frequency (vertical display frequency f d ) and the same phase.
  • the video frames FW1 in the video frame queue 2 of the network graphics processor NGP 1 are 1.28 times the period T s of the video streaming frequency compared to the video frames FW2 in the video frame queue 2 of the network graphics processor NGP 2 delayed or delayed.
  • the vertical display frequency f d of the displays D is different from the period T s of the video streaming frequency f s .
  • both the relative time delay of the video frames FW1 and FW2 and the video streaming frequency f s and possibly the vertical display frequency f d of the displays D are subject to temporal variations. All of these effects, if not compensated, may result in different video frames being displayed on the two displays D of the network graphics processors NGP 1 and NGP 2 at a time, resulting in a tearing effect.
  • the frame synchronization according to the invention by means of a mediation function described below is designed precisely such that in such a situation, the actual times of becoming visible on the displays D are a best approximation to the ideal times and the Frametearing is avoided, so that on the presentation of the video stream a video image source S displays D (in Figure 13, the displays Dl and D2) at the same time the same video frames FR in the back buffer 6 are rendered.
  • the intermediate storage by means of the video frame queues 2 and a frame synchronization explained below by means of a mediation function, by a relative Vsync povertyer NSR identified image returns VR to a local relative video frame counter NFR for the processed, that is to be rendered video frames FR maps, both counters NSR and NFR begin at a common frame synchronization time TS at zero.
  • mapping is to be understood in the mathematical sense, ie the mediation function establishes a relationship between the relative vsync counter NSR as the function argument (independent variable) and the local relative video frame counter NFR as a function value (dependent variable) corresponding to each value of the relative Vsync povertyers NSR assigns a value of the local relative video frame counter NFR.
  • the values of the counters NSR and NFR are also shown in FIG.
  • the counter NSR for the picture returns VR counts up from the frame synchronization time TS on each picture return VR by one.
  • the counter NFR for the video frames FR to be rendered does not continuously count up by one, but results in the manner explained below by means of a mediation function.
  • the result of this frame synchronization ie the values of the counter NFR for the video frames FR to be rendered as a function of the time t, is shown in FIG. 13 above, as well as those rendered as a result of both network graphics processors NGP 1 and NGP 2 at the same time and thus at the same time of the associated displays Dl and D2 identical, that is shown without Frametearing video frames FR, which are shown in Figure 13 below.
  • a central idea of the present invention is to use a network graphics processor NGP "universal" mediation function involved in the representation of a video image source S or a video overlay IS, which balances the video streaming frequency f s and the vertical display frequency f d in order to time the occurrence of cases in which the same video frame is displayed again (in the case f s ⁇ f d ) or in which a video frame is omitted (in the case f s > f d ) as evenly as possible and to ensure, on the other hand, that the same video frames are displayed or omitted, if necessary, on all displays D representing a video picture source S or a video overlay IS.
  • NGP network graphics processor
  • This function forms image returns VR identified by a relative sync counter NSR beginning at a frame synchronization time TS at zero (hereafter the variable NSR for the relative sync counter NSR which returns the image returns from the last frame synchronization setting the origin for the counter) to video frames identified by a counter starting at zero at the same frame synchronization time TS (hereinafter the variable NFR for the local relative video frame counter NFR of the one to be processed, ie to be rendered Video frames FR from the last frame synchronization time TS, the sets the zero point for the counter).
  • the mediation function MF maps the relative Vsync ashameder NSR on the local relative video frame counter NFR, ie using the mediation function MF is determined locally from the local relative video frame counter NFR, which video frame (identified by the absolute frame identifier id) is rendered. In other words, the mediation function MF determines from the value NSR of the relative vsync counter NSR the video frame FR to be rendered, which is identified by the local relative video frame counter NFR.
  • the mediation function MF can be described for the general case as follows, where "mediation” stands for MF:
  • the function floor (x) returns the integer part of a real variable x, i. the largest integer ⁇ x.
  • the function floor (x) is a standard library function in the C programming language and is illustrated in FIG.
  • the frame synchronization process preferably comprises not only a frame start synchronization, ie a one-time frame synchronization performed at a frame synchronization time TS, but also subsequent frame synchronization performed at later frame synchronization times TS, which could also be referred to as frame synchronization times.
  • the frame start synchronization and the frame syncs are performed in the same way and therefore both are called frame synchronizations.
  • the master network graphics processor defined as the master for the video stream sends a multicast synchronization message to all network graphics processors defined as slaves involved in the presentation of the video stream and synchronized as dictated by the master network graphics processor become.
  • This multicast synchronization message may also include the system time (e.g., via PTP).
  • the system time is the local absolute time for a network graphics processor and is available there as a standard library function.
  • the synchronization message includes the frequencies f d (vertical display frequency measured by the master network graphics processor) and f s (video streaming frequency) as well as the absolute frame identification number of the most recent video frame on the master network graphics processor last before sending the synchronization message was rendered.
  • This absolute frame ID number is used to determine which video frame should start rendering after the frame synchronization time on the network graphics processors.
  • the absolute frame ID is embedded in the video stream. It is necessary for synchronization to identify the individual video frames in the video stream. In the slave network graphics processors this synchronization message is received and ensured that in the slave network graphics processors the frame synchronization using the Mediation function MF starts immediately with the transmitted values of the frequencies f d and f s .
  • the implementation can optionally take place, for example, by means of the use of threads (also referred to as activity carrier or lightweight process).
  • threads also referred to as activity carrier or lightweight process.
  • the mediation duration the number of image returns VR (relative synchronization NSR with a zero at the last frame synchronization time TS) is counted until the mediation function is restarted at the next frame synchronization time and starts again from zero.
  • This synchronization process is referred to below as frame synchronization.
  • Another suitable term would be correlation of video frames.
  • the local relative video frame counter is obtained as the function value of the mediation function MF by passing the relative vsync counter as an argument value.
  • NGP is added in the respective network graphics processor by adding the Value of the local relative video frame counter NFR determines the absolute frame identification number id of the video frame FR to be rendered. Since the same mediation function is used in both network graphics processors NGP, the result is a synchronous representation, ie the same video frames are displayed on both network graphics processors NGP.
  • the frame return NSR on all the network graphics processors NGP becomes simultaneous and synchronously the same video frame with the absolute frame ID id become visible.
  • the same video frames are skipped, ie skipped and not shown, or repetitively displayed, if required due to differences in the frequencies f s and f d .
  • FIG. 13 which relates to the case f s ⁇ f d , in which video frames have to be displayed multiple times, it can be seen that some video frames are repeated in the video frames FR to be rendered, that is to say they are displayed several times in succession on the displays, for example the video frames Nl and N + 7.
  • the frame synchronization according to the invention also compensates for different processing times and running times of a video frame that vary over time with respect to the respective back buffers 6 of the network graphics processors NGP such that the same video frames are displayed on the displays D at one time.
  • the same video frames FR are synchronously displayed by the displays in time and time-varying delays of the video frames FW1 and FW2.
  • the mediation function MF thus eliminates the jitter (eg from the encoders) or the same.
  • This jitter for example, at a video streaming frequency of 40 Hz, may result in the actual time interval of the video frames not being regularly 40 msec, but fluctuating between 20 msec and 70 msec, ie by +/- 50%. This can balance the mediation function MF.
  • the mediation function itself or alone does not yet cause a synchronization of the presentation of the video frame on the displays.
  • the process of starting or initiating the frame synchronization of video frames or frame numbers is preferably repeated at new frame synchronization times TP, for example in periodic, i. regular time intervals.
  • the mediation function is in this case applied in sections, namely from one frame synchronization time to the next frame synchronization time (from one frame synchronization to the next, from one reset of the mediation function to the next).
  • the transitions from one application of the mediation function to the next (at the frame synchronization times) could also be referred to as an interface.
  • frame synchronization Repeating the restart of the mediation function will be called frame synchronization.
  • Another suitable term would be recorrelation.
  • the rate or frequency of the frame synchronization ie the repetition of the frame synchronization, or the rate at which the synchronization messages SN are sent from the master network graphics processor master NGP to the slave network graphics processors slave NGP, ie
  • frame synchronization is performed at frame synchronization times between 0.05 Hz and 10 Hz, preferably between 0.1 Hz and 5.0 Hz, more preferably between 0.2 Hz and 3.0 Hz, especially preferred. is between 0.5 Hz and 2.0 Hz.
  • the rate at which the frame synchronization is performed ie the frequency of the frame synchronization times TS, and with which the mediation function MF is reset and synchronized by the master network graphics processor Master NGP, is thus considerably smaller than the vertical display frequency f d and may be less than 1/10, 1/20, 1/50 or 1/100 of the display frequency f d , in preferred embodiments about 1/50 of the video stream frequency f s . It can be adapted to the specific design of the LAN network, the hardware equipment and the type and frequency of one or more video image sources S. It can be fixed or dynamically adapted.
  • the frame sync runs in the same way as a frame start sync.
  • the video frame to be rendered before the next frame returns VR by the network graphics processors NGP is selected from the video stream in the same way as after frame synchronization using the mediation function MF.
  • the mediation time TM is a fixed value.
  • the duration of mediation TM can be specified as a fixed time interval, a fixed number of image return signals Vsync, a fixed number of image returns VR or a maximum value of the relative vsync counter.
  • the duration of mediation TM can also be designed to be variable in time, for example to dynamically adapt or regulate it so that sufficient content synchronization is still achieved at the lowest possible frequency of synchronization messages SN, ie with the longest possible mediation time TM.
  • the mediation function MF is modified with a (differential) controller in order to ensure that the video frame queue 2 always has an optimum fill level of 50%. When initializing the process becomes the video frame queue 2 is about half full and the rendering is started with a middle video frame. Thereafter, the fill level of the video frame queue 2 can be logged.
  • the mediation function MF is then modified by means of a correction variable whose value depends on how much the actual filling level deviates from a desired filling level.
  • This correction quantity is, for example, a factor which is attached to the determined ratio T d / T s in the argument of floor (x) of the mediation function MF.
  • FIG. 14 shows a schematic example of a mediation function MF according to the invention for the case f s ⁇ f d , in which some video frames have to be displayed several times.
  • This case corresponds to that of FIG. 13.
  • Shown are the image returns VR with the period T d of a display D as a function of the time t with the relative Vsyncemployeder NSR, which is counted up respectively at the ends VRE of the image returns VR, and selected for rendering video frames FR stored in the back buffer 6 with the period T s and the associated local relative video frame counter NFR for the video frames FR to be rendered.
  • both counters NSR and NFR are set to zero.
  • FIG. 15 shows a schematic example of a situation corresponding to FIG. 14 for the case f s > f d , in which video frames have to be omitted when displayed on the displays, with a corresponding mediation function MF.
  • FIGS. 17 to 19 illustrate the operation of the frame synchronization (content synchronization) according to the invention between the master network graphics processor master NGP and a slave network graphics processor slave NGP using the mediation function MF. Shown are various stages of preparation, from the initial initialization of the synchronization process over its gradual completion to complete execution with full synchronization.
  • This exemplary embodiment relates to a case f s ⁇ f d , in which some video frames are therefore repeated, ie represented again on displays D in order to compensate for the frequency difference.
  • the basic idea of the synchronization according to the invention is that the slave network graphics processors slave-NGP get notified all necessary for the synchronization of the master network graphics processor master NGP in a synchronization message SN to both a start point, the frame synchronization time TS, as well as in the period until the next synchronization message SN or until the next frame synchronization time TS, independently, locally and without further network load, ie during a mediation period TM, without further exchange of synchronization messages SN or synchronization information between the master network graphics processor master -NGP and the slave network graphics processors Slave NGP, which can synchronize and display video overlays.
  • the synchronization takes place only once for a mediation period TM, namely to the picture return in the frame synchronization time TS following a synchronization message SN belonging to the synchronization message SN.
  • irregular events eg, running empty or overflowing of the video frame queue 2, a strong change in frequency of the vertical dis- playfrequehz f d and / or the video stream frequency f s, etc.
  • irregular events it is accepted that during the current mediation period TM the presentation of the video insertion unsynchronizes, ie with tearing, and is only synchronized again after the next frame synchronization time TS.
  • FIG. 17 illustrates a first preparation stage of the synchronization process of the content synchronization. It shows the initial startup, ie starting after a first initialization to a frame synchronization time TS. Until the first frame sync tion time point TS run the representations of the video frames of a video insertion on the displays completely unsynchronized.
  • the master network graphics processor master NGP defined as master, the values of the synchronized vsync counter NS are shown in the course of time t.
  • the value of the synchronized vsync counter NS is supplied by the so-called vertical retrace management of the network graphics processors NGP and counts the image returns VR of the displays D or the display wall 1, ie the image retrace signals Vsync of the displays D.
  • the image retrace VR occurs with the Frequency of the video return signal Vsync, with which the displays D are synchronized (by means of frame lock or genlock), ie with the vertical display frequency f d .
  • the counting of the synchronized Vsync concerneders NS thus takes place with the display frequency f d , the frequency of the image return signal Vsync, at intervals of the period T d .
  • the synchronized VSync counter NS is a counter, ie its value increases from one vertical return VR to the next by one. The value is equal on all network graphics processors NGP, ie the synchronized VSync counter NS is synchronized on all network graphics processors NGP (for example by PTP and Framelock or Genlock) so that at a time on all network graphics processors NGP has the same absolute value for the synchronized Vsync Vietnameseer NS is present. For the slave network graphics processor slave NGP, therefore, the same synchronized sequence of the synchronized vsync counter NS results in FIG. 17.
  • the synchronization of the network graphics processors NGP and the implementation of the synchronization comprises three independent layers that build on each other.
  • the lowest layer is the synchronization of the local clocks on the individual network graphics processors NGP, for example by means of PTP (Precision Time Protocol).
  • NGP Precision Time Protocol
  • This layer has no knowledge of Vertical Retrace Management.
  • a second layer is vertical retrace management, which uses the synchronized clocks to control the graphics cards of each network graphics processor. To program NGP (by means of frame lock or genlock), their image returns take place with the required accuracy (deviation less than 0.5 msec) at the same time. This second layer has no knowledge of the video streams to be processed or presented.
  • the third layer is the so-called or actual Inter-NGP synchronization, which performs the content synchronization. It obtains from the second layer, via a function call, the synchronized VSync counter NS provided by the second layer which the third layer uses instead of direct time values of the local synchronized clocks.
  • the master network graphics processor master NGP and the slave network graphics processor slave NGP are shown the values of the relative Vsyncyamaer NSR. These are the relative value of the synchronized Vsyncsammlungers NS related to its value at the last restart of the mediation function MF, ie at the last preceding frame synchronization time TS.
  • the relative Vsync povertyer NSR is the difference between the current value of the synchronized Vsyncexcellenters NS and its value at the last frame synchronization time TS, so a relative counter, since it counts relative to the last frame synchronization time.
  • the relative Vsyncemployeder NSR are local counters, ie counters on the respective network graphics processors NGP, for the image returns VR, based on the image return VR at the last occurred frame synchronization time TS.
  • the image return VR occurs at the frequency of the image return signal Vsync, with which the displays D are synchronized (by means of frame lock or genlock), ie with the vertical display frequency f d .
  • the counting of the relative Vsync Vietnameseers NSR thus takes place with the frequency of the image return signal Vsync, ie with the same frequency as the synchronized Vsyncexcellenter NS.
  • the relative Vsynchaber NSR By coupling the relative Vsyncemployeder NSR to the synchronized Vsyncexcellenter NS and common for the D display frame synchronization times TS, the relative Vsyncexcellenter NSR on all network graphics processors NGP syn- so that at a time (after a first frame synchronization time TS) all network graphics processors NGP have the same value for the relative Vsyncemployeder NSR.
  • the relative Vsync counters NSR are used locally by the network graphics processors NGP to continue to stitch in the mediation function MF from a frame synchronization time TS.
  • the master network graphics processor master NGP and the slave network graphics processor slave NGP are also given the absolute frame identification numbers id of those video frames currently being decoded by the decoder 3 of the respective network graphics processor NGP as decoded stream 4 in FIG the video frame queue 2 are written. From the video frame queue 2, they are dealt with, that is, read out for display on the display D as a video frame FR to be rendered from the video frame queue 2, rendered with the renderer 5 and written as a visible video frame FV in the back buffer 6.
  • the absolute frame identification numbers id of the video frames of the video stream originate from the video stream itself, namely from the RTP time stamps of the encoder, which encodes the respective video stream, and are embedded in the video stream.
  • the absolute frame identification numbers id can only be used to identify the video frames, but not for purposes of "tinning", ie timing or synchronizing the presentation of the video frames. Furthermore, the absolute frame identification number id is not a counter, as evidenced by the fact that it may increase or increase irregularly by more than one from one video frame to the next.
  • the frequency of the video frames 4 in the video stream from the decoder 3, which are written in and out of video frame queue 2 corresponds on average to the video streaming frequency f s , so that the video frames are averaged at a time interval from the period T s Video streaming frequency consecutive. Due to the above-mentioned effects, in particular the jitter, the provision of the video frames of the video stream from the decoder 3, however, is not uniform in time, but varies without the synchronization according to the invention. This is illustrated in FIG. 17 by the fluctuating time interval ⁇ T S in the case of the absolute frame identification numbers id of the decoded video stream 4 from the decoder 3.
  • the rendering of video frames FR is not synchronized between network graphics processors NGP, so that in FIG. 17 both the times of completion of the decoding of the video frames also the absolute frame identification numbers id of the rendered video frames FR between the master network graphics fischer processor master NGP and the slave network graphics processor slave NGP are different.
  • video frames having different absolute frame ID numbers id will be rendered as Video Frames FR in the respective ones Buffer 6 rendered, resulting in the described frame reading.
  • the content synchronization according to the invention ensures that the same video frames, ie the video frames with the same absolute frame identification number id, are represented by all the video returns Vsync and thus to all values of the synchronized vsync counter NS by the displays D involved in the representation of a video insertion and thus the Frametearing is avoided.
  • local video frame queues 2 for the decoded video frames on the network graphics processors NGP local video frame counters NF (NFM on the master network graphics processor master NGP, NFS on the slave network graphics processors slave NGP), local relative Video frame counters NFR (NFRM on the Master Network Graphics Processor Master NGP, NFRS on the Slave Network Graphics Processors Slave NGP), belonging to frame synchronization times TS and shortly before these are sent from the master network graphics processor Master NGP to the Slave network graphics processors slave NGP sent synchronization messages SN and the mediation function MF causes.
  • the values of the local video frame counters NF (NFM on the master network graphics processor master NGP, NFS on the slave network graphics processors slave NGP) to the video frames of the video stream on the individual network graphics processors NGP are provided by the respective decoders 3 of the network graphics processors NGP and are thus locally available on the respective network graphics processors NGP.
  • the local video frame counters NF count those on the respective ones Network Graphics Processor NGP decodes video frames (in principle, starting from any initial value) stored in video frame queues 2 and are counters, ie their values increase one-by-one from video frame to video frame.
  • the local video frame counters NF of the network graphics processors NGP are not synchronized for the network graphics processors NGP involved in the display of a video overlay, ie on the individual network graphics processors NGP are each locally different values for a particular video frame (with a particular absolute frame ID id) assigned to the local video frame counter NF.
  • the local video frame counter NF increases from one video frame to the next video frame by one. Since this applies accordingly to all local video frame counters NF, it follows that the pairwise differences of the local video frame counters NF, i.
  • the difference (the "offset” or “offset” hereafter “the video frame counter difference") between the local video frame counter NF of a network graphics processor NGP and the local video frame counter NF of another network graphics processor NGP is constant over time while decoding a video stream a network graphics processor NGP no video frame is lost from the video stream, ie the sequence of video frames decoded by a network graphics processor NGP is not interrupted.
  • the video frame absolute frame IDs id and the respective frame ID numbers id associated with the local video frame counters NF (NFM on the master network graphics processor master NGP, NFS on the respective slave network graphics processor slave NGP), for a certain number of absolute frame identification numbers id.
  • the video frames written by the decoders 3 into the video frame queues 2 thus comprise not only the picture information per se (the decoded video frame), but also the respective absolute frame identifier id and the value of the respective video frame for each video frame associated local video frame counter NF.
  • This local allocation in the video frame queues 2 between the absolute frame ID id and the respective local Video frame counter NF is indicated in Figure 17 by references [2] to the video frame queues 2. It is logged locally by the network graphics processors NGP.
  • the values of the local relative video frame counters NFR are each locally on the network graphics processors NGP the current value of the local video frame counter NF less the value of the local video frame counter NF corr for the last reference video frame id corr (the video frame with the absolute reference frame ID id corr at the last frame synchronization time TS):
  • NFR NF - NF corr
  • the local relative video frame counter NFR is also the function value of the mediation function MF at any location (for any value of the relative sync counter NSR) and is used for selecting the video frame FR to be rendered, i. the local relative video frame counter NFR determines the video frame to be processed (counting) from the frame synchronization time TS and the video frame determined by the local relative video frame counter NFR is rendered for display on the display.
  • FIG. 17 still illustrates the completely unsynchronized initialization phase, no values for the local relative video frame counter NFRM on the master network graphics processor master NGP and the local relative video frame counter NFRS on the slave network graphics processor slave NGP are up to the first frame synchronization time TS shown.
  • the master network graphics processor master NGP sends a synchronization message SN to the slave network graphics processors slave NGP via the network.
  • Multicast Sync Messages or Multicast Sync telegrams are preferably transmitted in the Multicast mode (Multicast Sync Messages or Multicast Sync telegrams), but only by the Master Network Graphics Processor Master NGP to the Slave Network Graphics Processors Slave NGP, but not from the slave network graphics processors slave NGP to the master network graphics processor master NGP or between the slave network graphics processors slave NGP. They serve to perform the content synchronization at a frame synchronization instant TS shortly thereafter, by means of which the master network graphics processor master NGP and the slave network graphics processors slave NGP according to the specification of the master network graphics processor master NGP synchronized with each other.
  • Multicast mode Multicast Sync Messages or Multicast Sync telegrams
  • the synchronization messages SN from the master network graphics processor master NGP to the slave network graphics processors slave NGP ensure that on the network graphics processors NGP the mediation functions MF at the same times with the same relative Vsync counters NSR and the same frequency ratio f s / f d or T d / T s start. So that the synchronization messages SN are available in good time at the slave network graphics processors slave NGP and can be processed by the slave network graphics processors slave NGP at the same time, they are each sent shortly before the next frame synchronization time TS.
  • a frame synchronization time TS is the time at which an application portion of a mediation function MF ends and a new application portion starts with a reset local relative synchronization counter NSR.
  • a frame synchronization time TS is thus the interface between two mediation function sections, ie between two consecutive mediation durations TM. Because the latency of the MultiCast synchronization messages SN across the network is small (about 1 msec), it suffices if they have one or more two frame periods T d are sent before the frame synchronization time TS.
  • a synchronization message SN must be sent at a time interval before the next frame synchronization time TS in order for it to reach the slave network graphics processors slave NGP in time for the frame synchronization time TS.
  • a frame synchronization time advance TSV of less than 1 msec is sufficient for this purpose, and several milliseconds (less than 10 msec) are sufficient for peak loads in the network.
  • one or two picture returns are sufficient for this purpose, ie in general it is advantageous if this frame synchronization time advance TSV is between 1 ⁇ T d and 3 ⁇ T d .
  • an advantageous feature may be that the synchronization messages SN associated with the frame synchronization instants TS are sent at synchronization message instants TSN from the master network graphics processor to the slave network GPUs which are one frame synchronization timing advance TSV prior to the associated following frame synchronization time TS between one-half and five, preferably between one and three periods T d is the vertical display frequency f d , a preferred value being two periods T d .
  • a synchronization message SN of the master network graphics processor master NGP to the slave network graphics processors slave NGP contains an extract of information that is recorded locally on the master network graphics processor master NGP, for example in the form of table values or protocols , This recording does not take place for the entire past, but only for a certain, current past period, which corresponds approximately to the size of the video frame queue 2.
  • This recorded information includes the local mapping between the absolute frame ID numbers id and the local master network graphics processor master NGP video frame counter NFM in master video processor's video frame queue 2 Master NGP, ie each entry in the video frame queue 2 of the master network graphics processor master NGP contains the absolute frame ID id of the video frame and the associated local video frame counter NFM.
  • this recorded information includes the local association between the absolute frame ID numbers id and the local video frame counter NFS of the slave network graphics processor slave NGP of the video frames in the video frame queue 2 of the slave network graphics processor slave NGP, i. each entry in the video frame queue 2 of a slave network graphics processor Slave NGP contains the video frame absolute frame ID id and the associated local video frame counter NFS.
  • a synchronization message SN of the master network graphics processor master NGP to the slave network graphics processors slave NGP contains the following excerpt of the above-described, logged information:
  • a snapshot (snapshot) of the video frame queue 2 of the master network graphics processor master NGP at a time of the relative vsync counter NSR which is prior to the next frame synchronization time TS by the frame synchronization timing advance TSV.
  • the local association between the absolute frame ID numbers id and the local video frame counter NFM of the master network graphics processor master NGP of the video frames is contained in the video frame queue 2 of the master network graphics processor master NGP.
  • the value of the master video frame counter NFM of the master network graphics processor master NGP for the current video frame which is the last one, i. was read out from the video frame queue of the master NGP master graphics processor NGP for rendering, just before sending the synchronization message SN from the Master Network Graphics Processor Master NGP.
  • the video stream frequency f s (or the equivalent information of the period T s of the video streaming frequency f s ) measured by the master network graphics processor master NGP.
  • the vertical display frequency f d (or the equivalent information of the period T d of the vertical display frequency f d ).
  • the vertical display frequency f d is measured by the master network graphics processor master NGP and transmitted as a uniform value to all slave slave NGP, so that an exact match of the mediation function on the slave network graphics processors slave NGP with the master Network graphics processor Master NGP is present.
  • the graphics processor NGP master to the slave network graphics processors NGP slave also information about the master network graphics processor master NGP measured vertical display frequency f d (or the equivalent information of the period T d of the vertical display frequency f d ), this information comprising either the vertical display frequency f d itself or the quotient with the video stream frequency f s (or the equivalent information on the ratio of the period of the vertical display frequency and the period of the video streaming frequency).
  • the synchronization message SN may also be only the ratio
  • These variables, ie the quotient f s / f d or T d / T s contain, because in the mediation function only the ratio of these sizes is received and thus on the slave network graphics processors slave NGP only the value of this ratio, but not the frequencies themselves are needed. Such modifications are considered equivalent.
  • the master network graphics processor is master NGP and the slave network graphics processors synchronize slave NGP for the times at which the mediation function MF is restarted, ie at which the relative synchronization counter NSR begins again at zero.
  • FIG. 18 shows the sequence of the next preparation stage, namely the values of FIG. 17 at the time shortly before and after the second frame synchronization time TS, which follows the first synchronization time TS after a mediation period TM.
  • a synchronization message SN is sent from the master network graphics processor master NGP to the slave network graphics processors slave NGP.
  • the master network graphics processor Master NGP and the slave network graphics Processors slave NGP also synchronized with respect to the "phase" and the function value of the mediation function MF determines which video frame is locally rendered on a network graphics processor NGP from the local video frame queue 2 of the respective network graphics processor NGP.
  • the network graphics processors NGP the video frames are not only displayed in the same clock, but also consistent and thus tearing free the same video frames (with the same absolute frame identifier id ) being represented. Therefore, in general, after the second frame synchronization time TS, the video frames FR rendered in the back buffer 6 still differ between the master network graphics processor master NGP and the slave network graphics processor slave NGP or between the slave network graphics processors slave NGP.
  • a local additive value, the frame offset must be determined locally by the slave network graphics processors Slave-NGP, which specifies how many video frames the presentation of the video frames on the slave Network Graphics Processor Slave NGP (the rendered video frames FR on the slave network graphics processor slave NGP) versus the presentation of the video frames on the master network graphics processor master NGP (the rendered video frames FR on the master network graphics processor Master -NGP) immediately before the frame synchronization time TS (more precisely, before the synchronization message SN).
  • this frame offset is constant during the mediation time TM following a frame synchronization time TS, and the presentation of the video frames is correspondingly corrected in this period by adding frame offset, so that complete synchronization is achieved.
  • this frame offset is again determined or checked so that changes in this regard are corrected.
  • the master network graphics processor master NGP has the frame synchronization lead TSV, in the illustrated example, two picture returns before the next before the frame synchronization time TS and thus two picture returns before resetting the mediation function reset in multicast mode over the network to the slave network graphics processors slave NGP before the next reset, all slave network graphics processors slave NGP receive the current frame image of the video frame in good time before this next frame synchronization time TS Queue 2 of the master network graphics processor master NGP and can compare it with its own snapshot, which was stored at the same time as that of the master network graphics processor master NGP.
  • the snapshot of the video frame queue 2 of the master network graphics processor master NGP with a locally stored snapshot of the video frame queue 2 of the slave is stored locally in the slave network graphics processor slave NGP with the synchronization message SN Network Graphics Processor Slave NGP compared.
  • the entries in the video frame queues 2 are compared. These have an overlap area on the absolute frame IDs id, ie some absolute frame IDs id come both in the snapshot of the video frame queue 2 of the master network graphics processor master NGP and in the snapshot of the video frame queue 2 of the slave network graphics processor Slave NGP before.
  • an absolute frame ID id is taken, each contained in both snapshots, and the slave network graphics processor slave NGP locally determines the frame offset (the difference of the local relative video frame counters NFR).
  • the local relative video frame counter NFRS of the slave network graphics processor slave NGP can then be renormalized to the system of the master network graphics processor master NGP. It is thus possible to work on the slave network graphics processors slave NGP only with the local video frame counters NFRS or to work to determine the video frame FR to be rendered and the synchronization because the slave network graphics processors normalize slave NGP to the master NGP master network graphics processor master NGP system, ie, referenced and matched thereafter.
  • a master network graphics processor master NGP synchronization message SN to the Slave Network Graphics Processors Slave NGP also includes the absolute frame ID id of the latest video frame on the master network graphics processor master NGP, ie the video frame that was last rendered on the master network graphics processor master NGP, and at the comparison of the snapshots is searched for, o b this absolute frame ID id is included in the compared snapshots.
  • the offset in the video representation between slave network graphics processor slave NGP slave and master network graphics processor master NGP is so large that at the selected maximum number of Entries in the video frame queues 2 synchronization in the presentation of the video frames between these network graphics processors NGP can not be achieved.
  • the slave network graphics processor slave NGP would determine that the The content of its video frame queue 2, ie its snapshot, looks exactly like the snapshot of the video frame queue 2 of the master network graphics processor Master NGP sent by the master network graphics processor Master NGP via synchronization message and the content synchronization would not have to be governing intervene fen, In general, however, after the completed initialization after the second frame synchronization time TS, it can be established on the basis of the absolute frame identification numbers id that there is a mutual shift of the displayed contents, ie a frame offset, and it is the task of the content synchronization to eliminate or correct them.
  • the absolute frame ID numbers id can not be used directly because their values can not be presupposed except that they uniquely identify video frames. A distance between two video frames, ie the number of video frames lying between two video frames, would be very unreliable with the values of the absolute frame ID numbers id alone.
  • the local video frame counters NF are capable of determining the distance of two video frames (on the same network graphics processor NGP) by a simple difference, always assuming that on the way from the encoder over the network and the decoder with its (software) decoding no video frame has been lost since the local video frame counters NF are only generated after decoding on each network graphics processor NGP; In contrast to the absolute frame id, they do not come from the video stream. The latter, however, is precisely the reason why a distance between two video frames across network GPU boundaries can not be calculated simply as the difference of their local video frame counter NF; for identical video frames, the difference would have to be zero, but generally this will not be true since the local video frame counters NF are generated independently on each network graphics processor NGP.
  • this generally non-zero video frame difference DNF of the local video frame counter NF between two network graphics processors NGP for a video frame is independent. dependent on the selected video frame, for which the difference is considered.
  • This video frame counter difference DNF is precisely the constant by which the local video frame counters NF differ on the two network graphics processors NGP considered for comparison because of their different starting points or start times (always under the condition that no video frame has been lost).
  • the corresponding local video frame counter NFM of the same video frame (identified on the basis of its absolute frame identification number id) on a master network frame counter NFS on a slave network graphics processor slave NGP can be assigned to the master network frame. Graphics processor Master NGP or vice versa.
  • This video frame count difference DNF of the local video frame counter NFS of a slave network graphics processor Slave NGP to the master video frame processor NGP's local video frame counter NFM is independent of the operation of the synchronization method and is determined by using any video frame present in both the current video frame Momentary image of the slave network graphics processor slave NGP and in the last received by the master network graphics processor master NGP by synchronization message SN instantaneous image of the master network graphics processor master NGP, which was recorded at the same time, the difference DNF of the local video frame counter NF between slave network graphics processors slave NGP. and master network graphics processor Master NGP.
  • the next frame synchronization time TS here the third frame synchronization time TS in FIG.
  • the slave network graphics processor NGP calculates the video frame difference DNF of the video frames that the master network graphics processor master NGP and the slave Network graphics processor slave NGP at the time of sending the last synchronization message SN (here the synchronization message SN before the frame synchronization time TS in Figure 19) have taken from their video frame queue.
  • the master network graphics processor master NGP sends with the synchronization message SN also its local video frame counter NFM for the current, ie latest video frame that it was at the last preceding time Frame synchronization message SN (here the frame synchronization message SN immediately before the third frame synchronization time TS in Figure 19) has processed.
  • this frame offset can then be carried out in the manner described above then the "renormalization" of the local video frame counter NFS of the slave network graphics processor slave NGP on the local video frame counter NFM of the master network graphics processor master NGP, so that a difference of Zero means that the same video frame exists.
  • the number of video frames of the respective offset between slave network graphics processor slave NGP and master network graphics processor master NGP determined in this manner will now be extracted from video frames from the video frame queues to slave network graphics processors slave NGP corrected by delaying or advancing, thus achieving the synchronization of the presentation of the video frames.
  • the actual synchronization (content synchronization) of the video frames rendered on the network graphics processors NGP which ensures that all synchronized vsync counters have NS of
  • the displays D the same video frames are displayed, so using table values / logs in the form of snapshots, which are sent from the master network graphics processor master NGP with the synchronization messages SN to the slave network graphics processors slave NGP.
  • a local comparison process then runs in each case on the slave network graphics processors slave NGP in which this instantaneous image of the master network graphics processor master NGP is compared with the corresponding local instantaneous image of the respective slave network graphics processor slave NGP , It is checked whether there is an overlap for a certain absolute frame identification number id, for example the latest absolute frame identification number of the master network graphics processor master NGP. If absolute frame identification numbers id are contained several times in a momentary image (of the master network graphics processor master NGP or of the slave network graphics processor slave NGP), ie if they have been represented multiple times, the first occurring value is taken.
  • the local video frame counters NFM of the master network graphics processor master NGP are respectively assigned to the local video frame counters NFS of the slave network graphics processor slave NGP.
  • This comparison of the snapshots gives, on each slave network graphics processor slave NGP, the information about the number of video frames by which the representation of the video frames on the respective slave network graphics processor Slave NGP is compared to the master slave graphics processor.
  • Network Graphics Processor Master NGP was staggered, ie, hastened or lagged behind. This respective offset can then be determined at the next start of the mediation function, ie from the next frame synchronization time.
  • frame synchronization time TS thus a complete synchronization of the representation of the video insertion is achieved on the displays. From then synchronization continues in the same way as after the second frame synchronization time TS.
  • the slave network graphics processors slave NGP check whether the content synchronization has yet to be fulfilled or has occurred in the meantime and must therefore be corrected again.
  • the slave network graphics processors slave NGP again check which video frame was processed (rendered) by the master network graphics processor master NGP at the time of transmission of the immediately preceding synchronization message and determine from the comparison with the synchronization message SN of the Master network graphics processor master NGP received instant image with their stored snapshots each which video frame has processed with which absolute frame ID id of the respective slave network graphics processor slave NGP at the same time as the master network graphics processor master NGP.
  • an absolute frame ID id is taken, which is contained in both snapshots, and the slave network graphics processors Slave-NGP locally check the frame offset (the difference of the local video frame counter NF between the slave network Graphic processors, slave NGP and the master network graphics processor master NGP) to see if it has remained the same compared to the last mediation duration. As a rule, the content synchronization will still be fulfilled. If the frame offset has changed, this will change from the Frame synchronization time corrected by adjusting the correction value accordingly.
  • the frame offset the difference of the local video frame counter NF between the slave network Graphic processors, slave NGP and the master network graphics processor master NGP
  • the slave network graphics processors determine slave NGP by how many video frames they respectively time against the master network graphics processor Mas - ter-NGP are offset and renormalize their local relative video frame counter NFRS corresponding to the master relative network graphics processor NGP local relative video frame counter NFRM by means of the determined video frame counter difference of the local video frame counters between the master network graphics processor master NGP and the slave Network Graphics Processor Slave NGP.
  • the slave network graphics processor Slave NGP finds that it is leading or lagging behind two video frames in the display of the video overlay on the master network graphics processor Master NGP, that offset will be corrected.
  • the slave network graphics processor Slave NGP calculates the selected video frame, it compensates for this offsetting offset in the function value of the mediation function.
  • the vertical frequency f d of the displays D and for each video stream its framerate f s determine the function values of the mediation function MF for this video stream. Since the frequencies f s and f d can change slightly over time, according to an advantageous embodiment, they (or their quotient) are not only determined once, but the measurement of one or both variables is repeated every now and then, regularly or at intervals , For example, in periodic, ie regular time intervals and preferably in time with the vertical display frequency f d .
  • the determination of these frequencies f s and f d (by the master network graphics processor master NGP) or their quotient Further, it is preferably carried out by averaging over a plurality of periods, so that the values for the frequencies f s and f d used in the synchronization process according to the invention or the value for their quotient are averaged frequency values.
  • the averaging can take place in accordance with a preferred embodiment over a time-sliding measuring window of the time length t m , for example in time with the vertical display frequency f d . It is averaged over several periods that lie between a start and a final value, where t m denotes the measurement duration, is averaged over, ie the time length of the measurement window.
  • Figure 20 illustrates the measurement of the vertical display frequency f d and the video streaming frequency f s by the network graphics processor NGP serving as the master. Shown are, as a function of time t, the relative sync counter NSR to the ends VRE of the picture returns VR and the local relative video frame counter NFRM for video frames FW to be rendered, which are available in the video frame queue 2.
  • NSR start and NFRM start are initial values and NSR end and NFRM end end values in the current measurement window M of the time length t m . Also shown is a next measurement window M next . The current values of the frequencies f d and f s then result from the averaging over the current measurement window M as follows: NSR end - NSR start
  • the master network graphics processor for the determination of the display frequency f d instead of the relative Vsyncemployeders NSR also the synchronized Vsyncemployeder NS or for the determination of the video stream frequency f s instead of the local relative video frame counter NFRM use the local video frame counter NFM.
  • the number of periods to be averaged, ie the number of picture returns VR included in the averaging, should be greater than in the illustration of Figure 20 in order to achieve good averaging.
  • the number of image returns VR, over which is averaged, is advantageously between 50 and 200, preferably by 100. It can be fixed or dynamically adjusted.
  • the master network graphics processor NGP triggers an advanced frame synchronization independently of the base rate at which the frame synchronization is performed, as soon as the interval-like or continuous measurement of the frequencies f s and f d shows that the ratio f s / f d or T d / T s has changed by more than a limit of, for example, 0.01 relative to an initial value.
  • NFR local relative video frame counter (counter for to be rendered

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

The invention relates to a method and to a device for synchronizing the presentation of video frames from a video stream of a video insertion (IS) of a video image source, which video insertion is simultaneously presented on two or more displays (D) of a display wall (1) composed of a plurality of displays (D). According to the invention the synchronous, tearing-free presentation is realized by means of a video-frame queue for the video frames, a mediation function, which is common to the network graphics processors involved in the presentation of the video insertion (IS) and which, during a mediation duration that extends over a plurality of frame flybacks of the display wall (1), determines which video frame is presented by the displays (D) and establishes a balance between the vertical display frequency and the video stream frequency, and synchronization messages, which are sent before the start of a mediation duration by a master network graphics processor of a display (D) to the slave network graphics processors of the other displays (D).

Description

Synchronisieren von Videos in einer Displaywand  Sync videos in a display wall
Die Erfindung betrifft das Synchronisieren von Videos bzw. von Videoframes aus Videostreams, die auf zwei oder mehreren Displays einer aus mehreren Displays zusammengesetzten Displaywand dargestellt werden. Eine andere gebräuchliche Bezeichnung für ein Display ist Bildschirm oder Monitor. Eine Displaywand, die auch als Videowand bezeichnet wird, umfasst eine Mehrzahl von Displays (Dl, D2, Dn), zum Beispiel in Projektionsmodulen oder TFT-, LED-, OLED- oder LCD-Bildschirme. Projektionsmodule umfassen einen Projektionsschirm zum Darstellen eines von einem Bildgeber in einem verkleinerten Maßstab erzeugten Bildes, das mittels einer Projektionseinrichtung vergrößert auf den Projektionsschirm abgebildet wird. Man unterscheidet hierbei zwischen Rückprojektions- und Auflichtapparaten. Aktive Displays wie TFT-, LED-, OLED- oder LCD-Bildschirme erzeugen das Bild jeweils selbst in unverkleinertem Maßstab ohne Projektionseinrichtung. Große Displays finden eine breite Anwendung in Fällen, in denen ein großes komplexes Bild, beispielsweise bestehend aus verschiedenen Videooder Computerbildern, großflächig angezeigt werden soll. Unter einem großen Bild werden dabei Bilder verstanden, die typischerweise Bildschirmdiagonalen von mehr als 0,5 m aufweisen und bis zu mehreren Metern betragen können. Verbreitete Einsatzbereiche für solche großen Displays sind Darstellungen von Bildern, die von mehreren Personen gleichzeitig betrachtet werden, beispielsweise bei Konferenzen und Präsentationen. The invention relates to the synchronization of videos or video frames from video streams which are displayed on two or more displays of a display screen composed of a plurality of displays. Another common name for a display is screen or monitor. A display wall, also referred to as a video wall, comprises a plurality of displays (D1, D2, Dn), for example in projection modules or TFT, LED, OLED or LCD screens. Projection modules comprise a projection screen for displaying an image generated by an imager on a reduced scale, which is magnified on the projection screen by means of a projection device. Here one differentiates between rear projection and incident light apparatuses. Active displays such as TFT, LED, OLED or LCD screens generate the image even on an unimproved scale without a projection device. Large displays are widely used in cases where a large complex image consisting of, for example, various video or computer images is to be displayed over a large area. A large image is understood here to mean images which typically have screen diagonals of more than 0.5 m and can be up to several meters. Common uses for such large displays are images of images taken by several people be considered at the same time, for example at conferences and presentations.
Wenn das angezeigte Bild bei gegebenen Qualitätsanforderungen eine bestimmte Größe und Komplexität überschreiten soll, ist dies nicht mehr mit einem einzigen Display möglich. In solchen Fällen wird das Bild aus Teilbildern, die jeweils von einem Display angezeigt werden, zusammengesetzt. Das jeweils von einem Display angezeigte Bild ist in diesem Fall ein Teilbild des von allen Displays zusammen angezeigten Gesamtbildes einer Display- oder Bildwand, die mehrere Displays umfasst. Eine übliche Displaywand umfasst somit mehrere schachbrettartig, gekachelt nebeneinander gesetzte Displays und ein Displaywandgestell, das die Displays trägt. Mit den einzelnen Displays einer Displaywand wird jeweils ein Bildausschnitt eines mit der Bildwand anzuzeigenden Bildes dargestellt. Damit der Eindruck eines Gesamtbildes nicht gestört wird, müssen die einzelnen Displays im Wesentlichen spaltfrei aneinander angrenzen. Bereits ein Abstand von einem Millimeter ist für einen Betrachter deutlich in Form einer Kachelstruktur erkennbar und wird als störend empfunden. Daher stellt sich das Problem, die von den einzelnen Displays angezeigten Teilbilder derart zu einem Großbild zusammenzusetzen, dass ein schachbrettartiger Bildeindruck des Gesamtbildes vermieden wird. Dies betrifft einerseits den Intensitätsabfall eines Teilbildes vom Zentrum zu seinem Rand hin. Andererseits ist insbesondere ein breiter, deutlich sichtbarer Steg zwischen den einzelnen Teilbildern zu vermeiden. If the displayed image should exceed a certain size and complexity given the quality requirements, this is no longer possible with a single display. In such cases, the image is composed of sub-images, each displayed by a display. The image displayed in each case by a display is in this case a partial image of the total image of a display screen or screen wall which is displayed together by all the displays and comprises several displays. A common display wall thus includes several checkered, tiled juxtaposed displays and a display wall frame that carries the displays. With the individual displays of a display wall, an image section of an image to be displayed with the screen is shown in each case. So that the impression of an overall picture is not disturbed, the individual displays must essentially adjoin one another gap-free. Even a distance of one millimeter is clearly recognizable to a viewer in the form of a tile structure and is perceived as disturbing. Therefore, the problem arises to assemble the partial images displayed by the individual displays into a large image in such a way that a checkerboard-like image impression of the overall image is avoided. On the one hand, this relates to the drop in intensity of a partial image from the center to its edge. On the other hand, in particular, a broad, clearly visible bridge between the individual partial images is to be avoided.
Nach dem Stand der Technik ist es möglich, eine große Anzahl von Displays in einem modularen Aufbau einer großflächigen Displaywand anein- anderzureihen und/oder übereinanderzustapeln, um auf der Displaywand ein aus den vielen Teilbildern der einzelnen Displays zusammengesetztes Großbild darzustellen. Die Anzahl der Displays, die zu einer Displaywand zusammengesetzt werden, beträgt bis zu 150 oder mehr. Großflächige Displaywände, die beispielsweise aus zwölf oder mehr Displays zusammengesetzt sind, haben eine Displaywanddiagonale von mehreren Metern. Derartige Displaywände sind beispielsweise in der modernen Leitwarttech- nik verbreitet. According to the state of the art, it is possible to line up and / or stack one another a large number of displays in a modular structure of a large-area display wall in order to display a large image composed of the many partial images of the individual displays on the display wall. The number of displays leading to a display wall can be up to 150 or more. Large-area display walls, which are composed of, for example, twelve or more displays, have a display screen diagonal of several meters. Such display walls are common, for example, in modern control technology.
Die Anzahl der auf der Displaywand gleichzeitig dargestellten Videobildquellen ist in manchen Fällen nur eins, beispielsweise wenn nur ein Video auf einer sehr großen Displaywand dargestellt werden soll. Es gibt aber auch viele Anwendungen, z.B. in der Leitwarttechnik oder in Überwachungseinrichtungen, bei denen gleichzeitig zahlreiche Videobildquellen auf einer Displaywand dargestellt werden, die Displaywand also nicht nur ein Video, sondern viele Videobildquellen darstellt. Bei einer Displaywand stellt sich jedoch nicht nur das Problem der möglichst stegfreien Anordnung der Displays, sondern die auf den Displays dargestellten Bilder müssen auch für bewegte Objekte, die gleichzeitig auf mehreren benachbarten Displays dargestellt werden, derart synchronisiert werden, dass das aus den beteiligten Displays zusammengesetzte Bild für den Betrachter ein synchrones Bild auf der Displaywand bietet. Aufgrund der technischen Gegebenheiten, insbesondere von Laufzeitunterschieden, kann nämlich der unten in der Figurenbeschreibung näher erläuterte optische "Tearing -Effekt" auftreten, wobei zu einem bestimmten Zeitpunkt auf den Displays einer Displaywand zu verschiedenen Zeiten gehörende Videoframes einer Videobildquelle dargestellt werden können. Dieser optische Effekt ist besonders bei horizontal oder vertikal bewegten Objekten störend, und zwar an den Rändern der das bewegte Objekt darstellenden Displays, weil dort das Objekt bei mangelnder Synchronisation an dem Übergang von einem Display zum anderen "auseinandergerissen" erscheint. Im Stand der Technik gibt es folgende zwei Ansätze zur Lösung dieses Problems. The number of video image sources displayed simultaneously on the display wall is in some cases only one, for example if only one video is to be displayed on a very large display wall. But there are also many applications, for example in the Leitwarttechnik or in monitoring devices in which at the same time numerous video image sources are displayed on a display wall, the display wall is thus not just a video, but many video image sources. In the case of a display screen, however, not only does the problem of the arrangement of the displays which is as free of web as possible arise, but the images displayed on the displays must also be synchronized for moving objects which are displayed simultaneously on several adjacent displays in such a way that the composite of the participating displays Picture for the viewer offers a synchronous picture on the display wall. Because of the technical conditions, in particular differences in propagation time, the optical "tearing effect" described in more detail below in the figure description can occur, whereby video frames belonging to a video image source belonging to the displays of a display wall can be displayed at different times. This optical effect is particularly annoying with horizontally or vertically moving objects, and that at the edges of the moving object representing displays, because there appears the object in lack of synchronization at the transition from one display to another "torn". In the prior art, there are the following two approaches to solving this problem.
In Sungwon Nam, Sachin Deshpande, Venkatram Vishwanath, Byungil Jeong, Luc Renambot, Jason Leigh, "Multiapplication, Intertile Synchroni- zation on Ultra-High-Resolution Display Walls" Proceedings of the first annual ACM SIGMM Conference on multimedia Systems, 2010 Proceeding, S. 145-156 wird ein Verfahren zum Synchronisieren zwischen den Units oder Displays einer Displaywand zum Darstellen einer Vielzahl von Anwendungen und mit ultrahoher Auflösung beschrieben. Generische Anwendungen haben allerdings keine inhärente Frequenz, anders als Videostreams. In dieser Druckschrift werden die Displays von einem Cluster von Computern gesteuert und jeder Computer kann ein oder mehrere Displays steuern. Die auf den Displays dargestellten vielen Anwendungen können dabei unabhängig voneinander variierende Frameraten haben. Das Framelock oder Genlock wird mit einer Hardwarelösung realisiert, um die vertikale Synchronisation der Grafikprozessoren zu synchronisieren. Die Contentpuffer- und Swappuffer-Synchronisation wird durch einen einzigen globalen Synchronisationsmaster bewirkt. Die Refreshfrequenz (ver- tikale Displayfrequenz) der Displays muss größer sein als das Maximum der Frameraten aller dargestellten Anwendungen. Die Contentpuffer- und Swappuffer-Synchronisation erfordert eine intensive Kommunikation zwischen dem globalen Synchronisationsmaster und Display-Knoten. Um ein Frame darzustellen, müssen im Falle des in dieser Literaturstelle beschrie- benen Ein-Phasen-Algorithmus (m+l)n Synchronisationsnachrichten und im Falle des beschriebenen Zwei-Phasen-Algorithmus (m+3)n Synchronisationsnachrichten über das Netzwerk übertragen werden, wobei m die Anzahl der Videobildquellen und n die Anzahl der Displays der Displaywand ist. Dies führt zu einer hohen Netzwerkbelastung und verringert die Skalierbarkeit des Systems. In Giseok Choe, Jeongsoo Yu, Jeonghoon Choi, Jongho Nang, "Design and Implementation of a Real-time Video Player on Tiled-Display System", Seventh International Conference on Computer and Information Technology (CIT 2007), IEEE Computer Society, 2007, S. 621-626 wird ein real- time Videoplayer auf einem gekachelten Displaysystem beschrieben, das eine Vielzahl von PCs umfasst, um eine große Displaywand mit hoher Auflösung zu bilden. In dem dort vorgeschlagenen System überträgt ein Masterprozess einen komprimierten Videostream mittels UDP Multicast an eine Vielzahl von PCs. Alle PCs empfangen denselben Videostream, dekomprimieren ihn, schneiden ihre gewünschten Bereiche aus dem dekomprimierten Videoframe aus und stellen ihn auf ihren Displays dar, während sie mittels eines Synchronisationsverfahrens untereinander synchronisiert werden. Mittels einer Synchronisation der Hardwareuhren der PCs wird Skew zwischen den Displays der Displaywand vermieden, und mittels einer auf der Bitrate des Videostreams basierenden Flusskontrolle sowie einer Prepufferung wird Jitter vermieden. Das System erfordert jedoch die Verfügbarkeit korrekter Zeitstempel in den Videoframes und ist nur zum Darstellen einer einzigen Videobildquelle, nicht aber mehrerer Videobildquellen gleichzeitig auf der Displaywand geeignet. Sungwon Nam, Sachin Deshpande, Venkatram Vishwanath, Byungil Jeong, Luc Renambot, Jason Leigh, "Multiapplication, Intertile Synchronization on Ultra-High-Resolution Display Walls" Proceedings of the First Annual ACM SIGMM Conference on Multimedia Systems, 2010 Proceeding, See pages 145-156 for a method of synchronizing between the units or displays of a display wall to illustrate a variety of applications and ultra-high resolution. However, generic applications have no inherent frequency, unlike video streams. In this document, the displays are controlled by a cluster of computers and each computer can control one or more displays. The many applications shown on the displays can have independently varying frame rates. The frame lock or genlock is implemented with a hardware solution to synchronize the vertical synchronization of the graphics processors. Content buffer and swap buffer synchronization is accomplished by a single global synchronization master. The refresh frequency (vertical display frequency) of the displays must be greater than the maximum of the frame rates of all displayed applications. The content buffer and swap buffer synchronization requires intensive communication between the global synchronization master and the display node. In order to represent a frame, in the case of the one-phase algorithm described in this reference, (m + 1) n synchronization messages and in the case of the described two-phase algorithm (m + 3) n synchronization messages must be transmitted over the network, where m is the number of video image sources and n is the number of displays on the display wall. This leads to a high network load and reduces the scalability of the system. Giseok Choe, Jeongsoo Yu, Jeonghoon Choi, Jongho Nang, Design and Implementation of a Real-time Video Player on Tiled Display System, Seventh International Conference on Computer and Information Technology (CIT 2007), IEEE Computer Society, 2007, Pp. 621-626, a real-time video player is described on a tiled display system that includes a plurality of personal computers to form a large display screen with high resolution. In the system proposed there, a master process transmits a compressed video stream via UDP multicast to a large number of PCs. All PCs receive the same video stream, decompress it, cut their desired areas out of the decompressed video frame, and display them on their displays as they are synchronized with each other via a synchronization process. By synchronizing the hardware clocks of the PCs, skew between the display wall displays is avoided, and jitter is avoided by means of a stream control based on the bit rate of the video stream as well as a prepuffering. However, the system requires the availability of correct timestamps in the video frames and is only suitable for presenting a single video image source, but not multiple video image sources simultaneously on the display wall.
Die im Stand der Technik bekannten Lösungen sind somit nachteilig, insbesondere hinsichtlich des erforderlichen Hardwareaufwandes, der hohen Netzwerkbelastung und der fehlenden generellen Anwendbarkeit für eine Vielzahl von beliebigen Videobildquellen, die gleichzeitig auf der Displaywand dargestellt werden sollen. The solutions known in the prior art are thus disadvantageous, in particular with regard to the required hardware expenditure, the high network load and the lack of general applicability for a multiplicity of arbitrary video image sources which are to be displayed simultaneously on the display wall.
Ausgehend von diesem Stand der Technik liegt der vorliegenden Erfindung die Aufgabe zugrunde, ein verbessertes Verfahren und eine entsprechende Vorrichtung zu schaffen, mit denen die gleichzeitig auf mehreren (insbesondere benachbarten) Displays einer Displaywand dargestellten Bilder von beliebigen Videobildquellen derart synchronisiert werden können, dass das aus den beteiligten Displays zusammengesetzte Bild für den Betrachter ein synchrones Bild auf der Displaywand bietet. Dabei soll gegenüber herkömmlichen Synchronisationsverfahren die Frequenz bzw. Häufigkeit der Synchronisationsnachrichten, die zum Synchronisieren der Darstellung auf den Displays über das Netzwerk übertragen werden, redu- ziert werden, um das Netzwerk nur gering damit zu belasten. Based on this prior art, the present invention has the object to provide an improved method and a corresponding device, with which the simultaneously displayed on several (especially adjacent) displays of a display screen images of any video image sources can be synchronized such that the the involved displays composite picture for the Viewer provides a synchronous image on the display wall. Compared with conventional synchronization methods, the frequency or frequency of the synchronization messages that are transmitted over the network for synchronizing the display on the displays should be reduced in order to minimize the burden on the network.
Diese Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen des beigefügten Anspruchs 1 gelöst. Bevorzugte Ausgestaltungen, Weiterbildungen und Verwendungen der Erfindung ergeben sich aus den nebengeordneten und abhängigen Ansprüchen und der nachfolgenden Beschreibung mit zugehörigen Zeichnungen. This object is achieved by a method having the features of the attached claim 1. Preferred embodiments, developments and uses of the invention will become apparent from the independent and dependent claims and the following description with accompanying drawings.
Ein erfindungsgemäßes computer-implementiertes Verfahren zum Synchronisieren der Darstellung von Videoframes aus einem Videostream mit einer Videostreamfrequenz fs einer Videoeinblendung einer Videobildquelle, die gleichzeitig auf zwei oder mehreren Displays einer aus mehreren Displays zusammengesetzten Displaywand dargestellt wird, wobei die Displays jeweils von einem zugehörigen Netzwerk-Grafikprozessor, der einen Computer mit einer Netzwerk- und einer Grafikkarte umfasst, angesteuert und mit derselben vertikalen Displayfrequenz fd betrieben werden, die lokalen Uhren auf den Netzwerk-Grafikprozessoren synchronisiert wer- den, vorzugsweise durch PTP (Precision Time Protocol), die Bildrückläufe der die Displays ansteuernden Grafikkarten der Netzwerk-Grafikprozessoren mittels Framelock oder Genlock synchronisiert werden, und der Videostream von der Videobildquelle über ein Netzwerk an die Netzwerk-Grafikprozessoren übertragen wird, wobei vorzugsweise die Video- bildquelle vor der Übertragung über das Netzwerk mittels eines Kodierers kodiert und komprimiert und nach dem Empfangen von den Netzwerk- Grafikprozessoren jeweils mittels eines Dekodierers dekodiert wird, weist die Besonderheit auf, dass es folgende Verfahrensschritte umfasst: A computer-implemented method for synchronizing the presentation of video frames from a video stream with a video streaming frequency f s of a video display of a video image source simultaneously displayed on two or more displays of a display screen composed of a plurality of displays, the displays each being dependent on an associated network Graphics processor, comprising a computer with a network and a graphics card, driven and operated with the same vertical display frequency f d, which are synchronized to local clocks on the network graphics processors, preferably by PTP (Precision Time Protocol), the image returns the the displays controlling graphics cards of the network graphics processors are synchronized by framelock or genlock, and the video stream is transmitted from the video image source via a network to the network graphics processors, preferably the video image source is encoded and compressed by a coder before transmission over the network and decoded after receiving by the network graphics processors in each case by means of a decoder, has the special feature that it comprises the following method steps:
Die an der Darstellung einer Videobildquelle beteiligten Netzwerk-Grafikprozessoren werden in einer Master-Slave-Architektur organisiert, wobei ein Netzwerk-Grafikprozessor als Master-Netzwerk-Grafikprozessor für die Videobildquelle und die anderen Netzwerk-Grafikprozessoren als Slave- Netzwerk-Grafikprozessoren konfiguriert werden, wobei die Rollenverteilung jeweils für eine Videobildquelle dadurch gegeben ist, dass zum Synchronisieren der Darstellung der Videobildquelle der Master-Netzwerk- Grafikprozessor Synchronisationsnachrichten an die Slave-Netzwerk- Grafikprozessoren sendet, die von den Slave- Netzwerk-Grafikprozessoren empfangen und ausgewertet werden, die Videoframes werden jeweils mittels einer in den Videostream eingebetteten absoluten Framekennnummer identifiziert, die vorzugs- weise aus den RTP-Timestamps der Videoframes abgeleitet ist, die Darstellung der Videoframes wird unter den Netzwerk-Grafikprozessoren zu Framesynchronisationszeitpunkten synchronisiert, auf die jeweils eine bis zum nächsten Framesynchronisationszeitpunkt andauernde Mediationsdauer folgt, die sich über mehrere Bildrückläufe der Displaywand erstreckt, wobei jeweils kurz vor einem Framesynchronisationszeitpunkt, d.h. vor dem Beginn einer Meditationsdauer, zu einem Synchronisationsnachrichtzeitpunkt von dem Master-Netzwerk-Grafikprozessor eine Synchronisationsnachricht an die Slave-Netzwerk-Grafikprozessoren gesendet wird, und während der Mediationsdauer von den Netzwerk- Grafikprozessoren Videoframes synchron dargestellt werden, indem die Netzwerk-Grafikprozessoren jeweils lokal die darzustellenden Videoframes mittels einer Mediationsfunktion bestimmen, die den Netzwerk-Grafikprozessoren gemeinsam ist, und wobei in das Argument der Mediationsfunktion eingehende Parameter, die zum synchronen Darstellen der Videoframes erforderlich sind, in der Synchronisationsnachricht übermittelt wer- den, wobei entweder diese Parameter die vom Master-Netzwerk-Grafikprozessor gemessene Videostreamfrequenz fs oder die hierzu äquivalente vom Master-Netzwerk-Grafikprozessor gemessene Periode Ts der Videostream- frequenz fs und die vom Master-Netzwerk-Grafikprozessor gemessene vertikale Displayfrequenz fd oder die hierzu äquivalente vom Master-Netzwerk-Grafikprozessor gemessene Periode Td der vertikalen Displayfrequenz fd umfassen, oder diese Parameter den Quotienten fs / fd der vom Master-Netzwerk-Grafikprozessor gemessenen Videostreamfrequenz fs mit der vom Master-Netzwerk-Grafikprozessor gemessenen vertikalen Displayfrequenz fd oder dessen hierzu äquivalenten Kehrwert fd / fs umfassen, oder diese Parameter den Quotienten Td / Ts der vom Master-Netzwerk-Grafikprozessor gemessenen Periode Td der vertikalen Displayfrequenz fd mit der vom Master-Netzwerk-Grafikprozessor gemessenen Peri- ode Ts der Videostreamfrequenz fs oder dessen hierzu äquivalenten Kehrwert Ts / Td umfassen, die Mediationsfunktion wird von dem Master-Netzwerk-Grafikprozessor durch das Versenden von Synchronisationsnachrichten mit einer Rate syn- chronisiert, die kleiner als die vertikale Displayfrequenz f ist, die zu rendernden Videoframes des Videostreams werden jeweils lokal von den Netzwerk-Grafikprozessoren mittels lokaler Videoframezähler gezählt und durch Einhängen in jeweils eine Videoframe-Warteschlange gepuffert, einschließlich der zugehörigen absoluten Framekennnummer und des zugehörigen lokalen Videoframezählers, sodass eine Videoframe- Warteschlange jeweils die lokale Zuordnung zwischen den absoluten Framekennnummern und dem lokalen Videoframezähler enthält, mit der Synchronisationsnachricht des Master-Netzwerk-Grafikprozessors an die Slave-Netzwerk-Grafikprozessoren wird ein Momentbild der Videoframe-Warteschlange des Master-Netzwerk-Grafikprozessors zu dem Synchronisationsnachrichtzeitpunkt übermittelt, der um einen Framesynchro- nisationszeitpunktvorlauf vor dem nächsten Framesynchronisationszeitpunkt liegt, wobei das Momentbild die lokale Zuordnung zwischen den absoluten Framekennnummern und dem lokalen Videoframezähler des Master-Netzwerk-Grafikprozessors der Videoframes in der Videoframe- Warteschlange des Master-Netzwerk-Grafikprozessors enthält, zum Ermitteln eines lokalen Frameversatzes, der angibt, um wie viele Videoframes die Darstellung der Videoframes auf dem jeweiligen Slave- Netzwerk-Grafikprozessor gegenüber der Darstellung der Videoframes auf dem Master-Netzwerk-Grafikprozessor vor der Synchronisationsnachricht versetzt ist, wird lokal von den Slave-Netzwerk-Grafikprozessoren das mit der Synchronisationsnachricht empfangene Momentbild der Videoframe- Warteschlange des Master-Netzwerk-Grafikprozessors mit einem lokal gespeicherten Momentbild der Videoframe-Warteschlange des Slave-Netz- werk-Grafikprozessors verglichen und aus diesem Vergleich der Frameversatz bestimmt, und der lokale Frameversatz wird auf den Slave-Netzwerk-Grafikprozesso- ren ab dem Framesynchronisationszeitpunkt korrigiert, indem auf den Slave-Netzwerk-Grafikprozessoren ab dem Framesynchronisationszeitpunkt der Frameversatz zu dem lokalen Videoframezähler des Slave-Netz- werk-Grafikprozessors, der das zu rendernde Videoframe angibt, addiert wird, sodass den Slave-Netzwerk-Grafikprozessoren alles zum Synchronisieren Erforderliche von dem Master-Netzwerk-Grafikprozessor in der Synchronisationsnachricht mitgeteilt wird, um sowohl zu dem Framesynchronisationszeitpunkt als auch während der sich daran anschließenden Mediationsdauer bis zum folgenden Framesynchronisationszeitpunkt selbstständig lokal die Videoframes der Videoeinblendung mit dem Master-Netzwerk-Grafikprozessor synchronisiert darstellen zu können. The network graphics processors involved in the presentation of a video image source are organized in a master-slave architecture, wherein a network graphics processor is configured as the master network graphics processor for the video image source and the other network graphics processors as the slave network graphics processors the role distribution for a video image source is given by synchronizing the representation of the video image source, the master network graphics processor sending synchronization messages to the slave network graphics processors received and evaluated by the slave network graphics processors, the video frames respectively identified by means of an embedded in the video stream absolute frame identification number, which is preferably derived from the RTP timestamps of the video frames, the presentation of the video frames is synchronized among the network graphics processors at frame synchronization times, to which in each case one lasting until the next frame synchronization time mediation follows, which extends over several image returns of the display wall, wherein each shortly before a frame synchronization time, ie before the start of meditation duration, at a synchronization message time from the master network graphics processor, a synchronization message to the slave network Graphic processors are sent, and during the Mediationdauer of the network graphics processors video frames are displayed synchronously by the network graphics processors each locally the video frames to be displayed using a mediation function that is common to the network graphics processors, and where the argument of the mediation function is used to convey incoming parameters required to synchronously represent the video frames in the synchronization message, either these parameters being from the master network Graphics processor measured video stream frequency f s or the equivalent of the master network graphics processor measured period T s of the video stream frequency f s and measured by the master network graphics processor vertical display frequency f d or equivalent thereto measured by the master network graphics processor period T d of the vertical display frequency f d , or these parameters the quotient f s / f d measured by the master network graphics processor video stream frequency f s with the master network graphics processor measured vertical display frequency f d or its equivalent reciprocal f d / f s include, or di These parameters are the quotient T d / T s of the period T d of the vertical display frequency f d measured by the master network graphics processor with the period T s of the video streaming frequency f s measured by the master network graphics processor or its reciprocal value T s equivalent thereto / T d , the mediation function is synchronized by the master network graphics processor by sending synchronization messages at a rate less than the vertical display frequency f, the video streams to be rendered video frames each become local to the network graphics processors counted by local video frame counters and buffered into one video frame queue at a time, including the associated absolute frame ID number and the associated local video frame counter, so that a video frame Queue each containing the local association between the absolute frame identification numbers and the local video frame counter, with the master network graphics processor's synchronization message to the slave network graphics processors, a snapshot of the video frame queue of the master network graphics processor is transmitted at the synchronization message timing is a frame synchronization time advance before the next frame synchronization time, the snapshot containing the local mapping between the frame ID numbers and the video frame master of the video frames in the video frame queue of the master network graphics processor for determining a local Frame offset, which indicates how many video frames the presentation of the video frames on the respective slave network graphics processor versus the representation of the video frames on the master network graphics processor before the synchro When a message is sent, the slave network GPUs locally compare and extract from this the snapshot of the video frame queue of the master network graphics processor received with the synchronization message with a locally stored snapshot of the video frame queue of the slave network graphics processor Comparison, the frame offset is determined, and the local frame offset is corrected on the slave network graphics processors from the frame synchronization time point on the slave network graphics processors from the frame synchronization time frame offset to the local video frame counter of the slave network graphics processor, that specifies the video frame to render, is added, so that the slave network GPUs are notified of anything needed to synchronize what is required by the master network GPU in the synchronization message to independently independently locally connect the video frames of the video overlay to the master at both the frame synchronization time and during the subsequent mediation period until the following frame synchronization time Network graphics processor synchronized to represent.
Die Erfindung richtet sich ferner auf ein Computerprogrammprodukt, insbesondere ein computerlesbares digitales Speichermedium, mit gespeicherten, computerlesbaren, computerausführbaren Anweisungen zum Durchführen eines erfindungsgemäßen Verfahrens, d.h. mit Anweisungen, die, wenn sie in einen Prozessor, einen Computer oder ein Computernetzwerk geladen wurden und ausgeführt werden, den Prozessor, den Computer oder das Computernetzwerk veranlassen, Verfahrensschritte und Operationen gemäß dem erfindungsgemäßen Verfahren durchzuführen. The invention is further directed to a computer program product, in particular a computer-readable digital storage medium having stored, computer-readable, computer-executable instructions for carrying out a method according to the invention, i. with instructions that, when loaded into a processor, computer or computer network, cause the processor, computer or computer network to perform method steps and operations in accordance with the inventive method.
Die Erfindung richtet sich weiterhin auf ein Computersystem, umfassend mehrere Netzwerk-Grafikprozessoren, die jeweils einen Computer mit Netzwerkkarte, Grafikkarte und Netzwerk-Interface und ein Videosynchronisationsmodul zum Ausführen eines erfindungsgemäßen Verfahrens aufweisen. Das Videosynchronisationsmodul kann dabei als Hardware oder bevorzugt vollständig als Software implementiert sein. The invention is further directed to a computer system comprising a plurality of network graphics processors, each having a computer with network card, graphics card and network interface and a video synchronization module for carrying out a method according to the invention. The video synchronization module can be implemented as hardware or preferably completely as software.
Schließlich hat die Erfindung eine Displaywand zum Gegenstand, die aus mehreren Displays zusammengesetzt ist und zum Darstellen eines oder mehrerer Videostreams aus einer oder mehreren Videobildquellen dient und ein erfindungsgemäßes Computersystem umfasst. Finally, the invention relates to a display wall, which is composed of several displays and serves to display one or more video streams from one or more video image sources and comprises a computer system according to the invention.
Der Erfindung liegt die Erkenntnis zugrunde, dass es mit einer erfindungsgemäßen Synchronisation von Videoframes, die im Wesentlichen auf der kombinierten Verwendung jeweils einer Videoframe-Warteschlange für die Videoframes in den Netzwerk-Grafikprozessoren und einer in den Netzwerk-Grafikprozessoren gemeinsam verwendeten Mediationsfunktion, die von einem Master-Netzwerk-Grafikprozessor aus mit einer vergleichsweise geringen Rate synchronisiert wird, möglich ist, die Darstellung der Videoframes einer Videobildquelle bzw. einer Videoeinblendung auf mehreren Displays einer Displaywand derart in Frequenz und Phase zu synchronisieren, dass eine tearingfreie Darstellung erfolgt, wobei das Netzwerk nur gering mit den Synchronisationsvorgängen und Synchronisationsnachrichten belastet wird. Durch die Erfindung werden sowohl Unterschiede zwischen der Frequenz eines dargestellten Videostreams und der vertikalen Displayfrequenz als auch Unterschiede in den Übertragungsdauern der Videoframes eines dargestellten Videostreams über das Netzwerk zu den einzelnen Netzwerk-Grafikprozessoren sowie Unterschiede in den Verarbeitungsdauern der Videoframes in den einzelnen Netzwerk-Grafikprozessoren kompensiert. Dabei beruht primär, aber nicht ausschließlich, die Kompensation der unterschiedlichen Frequenzen auf der Verwendung der Mediationsfunktion und die Kompensation der unterschiedlichen Übertra- gungs- und Verarbeitungsdauern (sogenanntes Dejittering) auf der Verwendung der Videoframe-Warteschlangen. Die erfindungsgemäße Verwendung einer Mediationsfunktion führt zu einer erheblichen Reduktion der Frequenz der Synchronisationsnachrichten. Die Erfindung ermöglicht somit in vorteilhafter Weise eine tearingfreie Darstellung bei gleichzeitig geringer Belastung des Netzwerks. The invention is based on the finding that it is with a synchronization of video frames according to the invention, which is based essentially on the combined use of each one video frame queue for the Video frames in the network graphics processors and a mediation function shared in the network graphics processors that is synchronized at a comparatively low rate by a master network graphics processor, is capable of displaying the video frames of a video image source or video overlay on multiple displays Synchronize a display wall in frequency and phase so that a tearing-free presentation takes place, the network is only slightly burdened with the synchronization operations and synchronization messages. The invention compensates for differences between the frequency of a displayed video stream and the vertical display frequency as well as differences in the transmission times of the video frames of a displayed video stream over the network to the individual network graphics processors as well as differences in the processing times of the video frames in the individual network graphics processors , In doing so, the compensation of the different frequencies for the use of the mediation function and the compensation of the different transmission and processing times (so-called dejittering) is based primarily, but not exclusively, on the use of the video frame queues. The use according to the invention of a mediation function leads to a considerable reduction in the frequency of the synchronization messages. The invention thus advantageously enables a tearing-free display while at the same time reducing the load on the network.
Die Erfindung hat gegenüber der oben genannten Literaturstelle Sungwon Nam et al. folgende Vorteile: The invention has over the above reference Sungwon Nam et al. the following advantages:
(i) Die Refreshfrequenz (vertikale Displayfrequenz) der Displays ist unabhängig von der Framerate (Videostreamfrequenz) der einzelnen Videobildquellen, deshalb können mehrere Videobildquellen beliebiger Videostreamfrequenz dargestellt werden. Die Rolle des Masters ist mit einer bestimmten Videobildquelle verknüpft. Daher können verschiedene Netzwerk-Grafikprozessoren als Master für die Contentsynchronisation verschiedener Videobildquellen agieren. Dies ist ein Vorteil bei der Implementierung der Erfindung im Vergleich zu einem System, in dem ein einziger Master für das Synchronisieren erforderlich ist. (i) The refresh frequency (vertical display frequency) of the displays is independent of the frame rate (video stream frequency) of the individual video image sources, therefore multiple video image sources of any video streaming frequency can be displayed. The role of the master is linked to a specific video image source. Therefore, various network graphics processors can act as masters for content synchronization of various video image sources. This is an advantage in implementing the invention as compared to a system where a single master is required for synchronization.
Zwischen zwei aufeinanderfolgenden Framesynchronisationszeitpunkten wird mittels einer Mediationsfunktion bestimmt, welche Videoframes aufeinanderfolgend dargestellt werden. Die Frequenz, mit der die Framesynchronisationen durchgeführt werden, d.h. die Frequenz der Frameresynchronisationen (Rekorrelation der synchronen Darstellung der Videoframes), ist jedoch viel kleiner als die vertikale Displayfrequenz (Synchronisationswiederholfrequenz der Displays, Bildrücklauffrequenz, auf Englisch refresh rate). Dies verringert die zusätzliche Belastung des Netzwerks durch Synchronisationsvorgänge, die für das Vermeiden von Tearing über das Netzwerk ablaufen müssen, erheblich. Das ist umso mehr von Vorteil, je mehr Videobildquellen oder Videoeinblendungen, z.B. 40 bis 60, synchronisiert werden müssen. Between two consecutive frame synchronization times, a mediation function determines which video frames are displayed consecutively. The frequency at which frame synchronization is performed, i. the frequency of the frame sync (recorrelation of the synchronous representation of the video frames), however, is much smaller than the vertical display frequency (synchronization repetition rate of the displays, image refresh rate, in English refresh rate). This significantly reduces the additional load on the network through synchronization operations that must occur to avoid tearing across the network. This is all the more advantageous the more video image sources or video impressions, e.g. 40 to 60, need to be synchronized.
Die Synchronisationsprozesse laufen für jede Videobildquelle unabhängig. Bei der parallelen Durchführung einer Synchronisation von mehreren Videostreams (Videoeinblendungen IS) auf mehreren Netzwerk-Grafikprozessoren NGP haben die Synchronisationsprozesse für die mehreren gleichzeitig synchronisierten Videostreams (Videoeinblendungen IS) nämlich keine Auswirkung aufeinander, d.h. sie arbeiten voneinander vollständig unabhängig, zumindest dann, wenn keine transparenten Überblendungen von Videoeinblendungen benötigt werden, was in der Praxis nahezu immer der Fall ist. Das erfindungsgemäße Verfahren der Contentsynchronisation läuft somit für jeden Videostream, der auf der Displaywand dargestellt wird, gesondert und unabhängig voneinander ab, ohne dass dabei die einzelnen Synchronisationsprozesse für die jeweiligen Video- streams (Videoeinblendungen IS) eine Abstimmung oder Synchronisation untereinander benötigen. The synchronization processes run independently for each video image source. In fact, when synchronizing several video streams (video overlays IS) in parallel on several network graphics processors NGP, the synchronization processes for the several simultaneously synchronized video streams (video overlays IS) have no effect on each other, ie they operate completely independently of one another, at least if no transparent ones Crossfades of video inserts are needed, which is almost always the case in practice. The invention Method of content synchronization thus runs separately and independently of each other for each video stream that is displayed on the display wall, without requiring the individual synchronization processes for the respective video streams (video overlays IS) a vote or synchronization with each other.
Die-Synchronisation der Bildrückläufe (Englisch: vertical retra- ces) der Ausgangssignale der Grafikkarten erfolgt ohne zusätzliche Hardware, indem die Pixelclock auf jeder Grafikkarte durch Software programmiert wird. Da die Videoframes in einen unsichtbaren zweiten Puffer gerendert werden (Double-Buffe- ring) und erst dann zu sehen sind, wenn dieser verdeckte Puffer während des nächsten Bildrücklaufs in den sichtbaren Bereich kopiert wird (Swap-Locking), ist die Darstellung neuer Videoframes für beliebig viele Videobildquellen automatisch zwischen allen Netzwerk-Grafikprozessoren synchronisiert. The synchronization of the image returns (English: vertical retraces) of the output signals of the graphics cards is done without additional hardware by the pixel clock on each graphics card is programmed by software. Since the video frames are rendered in an invisible second buffer (double-buffering) and can only be seen when this hidden buffer is copied into the visible area during the next picture return (swap-locking), the display of new video frames for Any number of video image sources automatically synced between all network GPUs.
Die Erfindung hat gegenüber der oben genannten Literaturstelle The invention has over the above reference
Choe et al. insbesondere folgende Vorteile: Choe et al. in particular the following advantages:
Die Erfindung kann eine Vielzahl von Videobildquellen mit untereinander verschiedenen Frameraten handhaben. Die Frameraten der Videobildquellen können zudem auch verschieden von der Refreshrate (vertikale Displayfrequenz) der gekachelt angeordneten Displays der Displaywand sein. The invention can handle a plurality of video image sources with mutually different frame rates. The frame rates of the video image sources can also be different from the Refreshrate (vertical display frequency) of the tiled displays arranged display wall.
Die in den Videostream eingebetteten Zeitstempel werden bei der Erfindung nur zum Identifizieren der Videoframes verwendet, die Zeitinformation der Zeitstempel wird aber nicht zum Synchronisieren der Videoframes herangezogen. Dies ist vorteilhaft, weil nicht alle Kodierer eine korrekte Angabe von Zeit- stempeln unterstützen. Die Lösung nach der Literaturstelle Giseok Choe et al. hängt dagegen für eine synchrone Darstellung der Videoframes vollständig davon ab, dass für die Videoframes korrekte Zeitstempel zur Verfügung stehen. The timestamps embedded in the video stream are used in the invention only to identify the video frames, but the time information of the timestamps is not used to synchronize the video frames. This is advantageous because not all encoders provide a correct indication of time support stamping. The solution according to the reference Giseok Choe et al. On the other hand, for a synchronous presentation of the video frames depends entirely on the fact that correct timestamps are available for the video frames.
Die synchronisierte Darstellung neuer Videoframes auf den Netzwerk-Gra- fikprozessoren (NGP 1, NGP 2, NGP n) ist noch keine Content-Synchronisation, d.h. das synchronisierte Sichtbarwerden eines neuen Videoframes garantiert noch nicht, dass es sich dabei auch um dasselbe Video- frame aus dem Videostream handelt. Die Prozesse, die schließlich diese Contentsynchronisation bewerkstelligen, arbeiten getrennt und unabhängig für jede einzelne Videobildquelle, wobei für jeden dieser Prozesse ein Netzwerk-Grafikprozessor der Master ist und alle anderen sind die Slaves; dabei können verschiedene Darstellungen von Videobildquellen verschie- dene Netzwerk-Grafikprozessoren als Master haben. Die Rolle des Masters ist es, die Synchronisationsnachrichten für die Videoframe-Content-Synchronisation an alle beteiligten Slaves zu schicken. The synchronized presentation of new video frames on the network graphics processors (NGP 1, NGP 2, NGP n) is not yet content sync, i. the synchronized visibility of a new video frame does not guarantee that it is the same video frame from the video stream. The processes that eventually accomplish this content synchronization operate separately and independently for each individual video image source, with one network graphics processor being the master for each of these processes and all others being the slaves; Various representations of video image sources may have different network graphics processors as masters. The role of the master is to send the synchronization messages for video frame content synchronization to all involved slaves.
Der Hauptvorteil der erfindungsgemäßen Mediationsfunktion besteht da- rin, dass die für die Synchronisation erforderliche Netzwerkbelastung stark reduziert wird, da nicht für jedes einzelne Videoframe eines Video- streams eine Synchronisationsnachricht über das Netzwerk geschickt werden muss, sondern nur noch im zeitlichen Abstand der Framesynchronisationszeitpunkte TS. Die Zeit zwischen zwei Framesynchronisationen, d.h. die Mediationsdauer TM zwischen zwei Framesynchronisationszeitpunkten TS, beträgt bei der Erfindung typischerweise eine Sekunde statt 20 msec, wie sie bei einer Frame-by-Frame-Synchronisation mit einer Framerate des Videostreams von 50 Hz erforderlich wäre. Besonders vorteilhaft ist ferner, dass für die erfindungsgemäße Framesynchronisation kein Versen- den von Synchronisationsnachrichten von den Slave-Netzwerk-Grafikpro- zessoren zu dem Master-Netzwerk-Grafikprozessor erforderlich ist, sondern die Übermittlung von Synchronisationsnachrichten von dem Master- Netzwerk-Grafikprozessor an die Slave-Netzwerk-Grafikprozessoren ausreicht. Der zusätzliche Datenverarbeitungsaufwand auf den Netzwerk-Gra- fikprozessoren zum lokalen Vergleichen von Informationen aus der Synchronisationsnachricht mit lokal gespeicherten Informationen und zum Berechnen der Mediationsfunktion bzw. zum Ermitteln des zu rendernden Videoframes ist sehr gering und stellt im Hinblick auf die hohe Rechenleistung gebräuchlicher Netzwerk-Grafikprozessoren praktisch keine nennenswerte Belastung dar. Die Implementierung der erfindungsgemäßen Synchronisation besteht aus Mediation und Framesynchronisation und erfolgt vorzugweise vollständig in Software (z.B. auf dem Betriebssystem LINUX) auf der Standard-Hardware-Komponente, die das Rendering macht (und ggf. auch das Softwareoder Hardwaredecoding). Eine solche Standard-Hardware-Komponente in Form eines Netzwerk-Grafikprozessors umfasst einen Computer mit Netzwerkkarte, Grafikkarte und (Ethernet-)Netzwerk-Interface). Die Erfindung hat somit den Vorteil, dass sie ohne zusätzliche Hardwarekomponenten bei einer gebräuchlichen Displaywand mit der dort standardmäßig vorhandenen Hardware implementiert werden kann. The main advantage of the mediation function according to the invention is that the network load required for the synchronization is greatly reduced, since a synchronization message does not have to be sent over the network for each individual video frame of a video stream, but only at a time interval of the frame synchronization times TS. The time between two frame synchronizations, ie the mediation time TM between two frame synchronization times TS, in the invention is typically one second instead of 20 msec, as would be required for frame by frame synchronization with a framerate of the video stream of 50 Hz. It is furthermore particularly advantageous that no synchronization messages from the slave network graphics processors to the master network graphics processor are required for the frame synchronization according to the invention, but the transmission of synchronization messages from the master processor is required. Network graphics processor to the slave network graphics processors sufficient. The additional data processing effort on the network graphics processors to locally compare information from the synchronization message with locally stored information and to calculate the mediation function or to determine the video frame to be rendered is very low and in view of the high computing power of common network graphics processors The implementation of the synchronization according to the invention consists of mediation and frame synchronization and is preferably carried out completely in software (eg on the operating system LINUX) on the standard hardware component that makes the rendering (and possibly also the software or hardware decoding). , Such a standard hardware component in the form of a network graphics processor includes a computer with network card, graphics card and (Ethernet) network interface). The invention thus has the advantage that it can be implemented without additional hardware components in a conventional display wall with the standard hardware there.
In vorteilhaften praktischen Ausführungsformen kann das erfindungsgemäße Verfahren insbesondere einen oder mehrere folgender weiterer Verfahrensschritte umfassen : Die Bildrückläufe der Grafikkarten der Netzwerk-Grafikprozessoren werden von den Netzwerk-Grafikprozessoren lokal mittels eines unter den Netzwerk-Grafikprozessoren synchronisierten Vsynczählers gezählt, von den Netzwerk-Grafikprozessoren werden lokale relative Vsynczähler NSR gebildet, die die Differenz zwischen dem aktuellen, synchronisierten Vsynczähler und dessen Wert zum letzten Framesynchronisationszeitpunkt sind, von den Netzwerk-Grafikprozessoren werden die relativen Vsynczähler NSR als Argumentwert der Mediationsfunktion MF verwendet, wobei für die Mediationsfunktion MF gilt In advantageous practical embodiments, the method according to the invention can in particular comprise one or more of the following further method steps: The image returns of the graphics cards of the network graphics processors are counted locally by the network graphics processors by means of a Vsync counter synchronized under the network graphics processors; the network graphics processors become local relative VSync Counter NSR, which is the difference between the current, synchronized vsync counter and its value at the last frame synchronization time, of the network graphics processors, the relative vsync counters NSR are used as the argument value of the mediation function MF, with the mediation function being MF
NFR = MF(NSR) = mediation(NSR) =NFR = MF (NSR) = mediation (NSR) =
und die Mediationsfunktion MF als Funktionswert einen lokalen relativen Videoframezähler NFR berechnet, der die Differenz aus dem lokalen Videoframezähler des aus der Videoframe-Warteschlange zum Rendern zu selektierenden Videoframes und dem lokalen Videoframezähler des Videoframes zum letzten Framesynchronisationszeitpunkt ist, sodass von den Netzwerk-Grafikprozessoren mittels des lokalen relativen Videoframezählers NFR das von dem jeweiligen Netzwerk-Grafikprozessor für die Darstellung auf dem Display zu rendernde Videoframe bestimmt und zum Rendern ausgewählt wird, wobei die Mediationsfunktion MF aufgrund des in dem Argumentwert der Mediationsfunktion- MF enthaltenen Quotienten Videostreamfrequenz fs dividiert durch vertikale Displayfrequenz fd (bzw. des reziproken Quotienten der Periodendauern) in der Verarbeitung der Videoframes zwischen diesen beiden Frequenzen ausgleichend vermittelt, wenn diese verschieden sind . and the mediation function MF calculates as function value a local relative video frame counter NFR that is the difference from the local video frame counter of the video frame to be selected from the video frame queue and the video frame frame of the video frame at the last frame synchronization time such that the network graphics processors use the local relative video frame counter NFR determines the video frame to be rendered by the respective network graphics processor for presentation on the display and is selected for rendering, the mediation function MF based on the quotient contained in the argument value of the mediation function MF divided video stream frequency f s divided by vertical display frequency f d (or the reciprocal quotient of the periods) in the processing of the video frames between these two frequencies balancing mediated, if they are different.
In vorteilhaften Ausführungsformen kann das erfindungsgemäße Verfahren ferner insbesondere einen oder mehrere folgender weiterer Verfahrensschritte umfassen : In advantageous embodiments, the method according to the invention may further comprise in particular one or more of the following further method steps:
Zum Bestimmen des Frameversatzes wird in dem Vergleich des mit der Synchronisationsnachricht empfangenen Momentbildes der Videoframe- Warteschlange des Master-Netzwerk-Grafikprozessors mit einem lokal gespeicherten Momentbild der Videoframe-Warteschlange des Slave-Netz- werk-Grafikprozessors mittels der in den Momentbildern enthaltenen absoluten Framekennnummern geprüft, ob in den beiden Momentbildern ein gemeinsames Bezugsvideoframe enthalten ist, und für dieses Bezugsvideoframe aus der in den Momentbildern enthaltenen lokalen Zuordnung zwischen den absoluten Framekennnummern und den lokalen Videoframezählern eine Videoframezählerdifferenz gebildet, die die Differenz zwischen dem lokalen Videoframezähler des Slave-Netzwerk-Grafikprozes- sors des Bezugsvideoframes und dem lokalen Videoframezähler des Mas- ter-Netzwerk-Grafikprozessors des Bezugsvideoframes ist, und mittels der Videoframezählerdifferenz wird der Frameversatz bestimmt, . indem zunächst der Slave-Netzwerk-Grafikprozessor für das Bezugsvideoframe eine Umrechnungsdifferenz bildet, die die Differenz aus seinem lokalen Videoframezähler und der Videoframezählerdifferenz ist, und der Slave-Netzwerk-Grafikprozessor den lokalen Videoframezähler des Master-Netzwerk-Grafikprozessors für das Videoframe berechnet, das zum Synchronisationsnachrichtzeitpunkt vom Master zum Rendern ausgewählt wurde, indem er von dem lokalen Videoframezähler des Slave-Netzwerk-Grafikprozessor die Umrechnungsdifferenz abzieht, und der Frameversatz als die Differenz des lokalen Videoframezählers des Master-Netzwerk-Grafikprozessors für das Videoframe, das zum Synchronisationsnachrichtzeitpunkt vom Slave-Netzwerk-Grafikprozessor zum Rendern ausgewählt wurde, und des lokalen Videoframezählers des Mas- ter-Netzwerk-Grafikprozessors für das Videoframe, das zum gleichen Synchronisationsnachrichtzeitpunkt vom Master-Netzwerk-Grafikprozessor zum Rendern ausgewählt wurde, berechnet wird. To determine the frame offset, the comparison of the snapshot received with the synchronization message of the video frame queue of the master network graphics processor with a locally stored snapshot of the video frame queue of the slave network is shown in FIG. factory graphics processor by means of the contained in the snapshots absolute frame ID numbers checked whether the two snapshots a common reference video frame is included, and formed for this reference video frame from the contained in the snapshots local association between the absolute frame number numbers and the local video frame counter, a video frame counter difference that the The difference between the local video frame counter of the reference video frame slave network graphics processor and the master video frame counter of the master network graphics processor of the reference video frame is determined, and the frame frame offset is determined by the video frame counter difference. first by the slave network video processor for the reference video frame forming a conversion difference which is the difference between its local video frame counter and the video frame counter difference, and the slave network graphics processor computes the local video frame counter of the master network graphics processor for the video frame used for the video frame Synchronization message time was selected by the master to render by subtracting the conversion difference from the local video frame counter of the slave network graphics processor, and the frame offset as the difference of the local video frame counter of the master network graphics processor for the video frame, the synchronization message time from the slave network And the local video frame counter of the master network video processor for the video frame that was selected for rendering at the same synchronization message time by the master network graphics processor becomes.
Hinter diesem Vorgang steht die Frage, wie der Slave-Netzwerk-Grafikprozessor mittels des in der Synchronisationsnachricht empfangen Momentbildes von einem Videoframe den lokalen Videoframezähler bestimmt, den dasselbe Videoframe auf dem Master-Netzwerk-Grafikprozessor hat. Der Slave-Netzwerk-Grafikprozessor normiert dabei seinen lokalen Videoframezähler auf den Master-Netzwerk-Grafikprozessor. Dies erfolgt mit Hilfe der Videoframezählerdifferenz, die konstant und unabhängig vom Videoframe ist, solange beim Dekodieren eines Videostreams auf einem Netzwerk-Grafikprozessor kein Videoframe aus dem Videostream verloren geht, z.B. durch eine Fehlfunktion, eine Störung, eine Fehlübertragung oder ein Zeitproblem. Die Videoframezählerdifferenz der lokalen Videoframezähler wird beim Bestimmen und Korrigieren des Frameversatzes zwischen Slave-Netzwerk-Grafikprozessor und Master-Netzwerk-Grafikprozessor dazu benötigt, den lokalen Videoframezähler des Slave-Netz- werk-Grafikprozessors auf den Master-Netzwerk-Grafikprozessor umzurechnen. Der Slave-Netzwerk-Grafikprozessor kann für ein beliebiges Videoframe den lokalen Videoframezähler auf dem M aste r- Netz wer k- Grafikprozessor berechnen, indem er von seinem lokalen Videoframezähler die Umrechnungsdifferenz abzieht. Behind this process is the question of how the slave network graphics processor determines the local video frame counter from a video frame by means of the snapshot received in the synchronization message has the same video frame on the master network graphics processor. The slave network graphics processor normalizes its local video frame counter to the master network graphics processor. This is done by using the video frame counter difference, which is constant and independent of the video frame, as long as a video frame is not lost from the video stream when decoding a video stream on a network graphics processor, such as a malfunction, malfunction, mis-transmission or timing problem. The video frame counter difference of the local video frame counters is needed to determine and correct the frame offset between the slave network graphics processor and the master network graphics processor to convert the local video frame counter of the slave network graphics processor to the master network graphics processor. The slave network graphics processor may, for any video frame, calculate the local video frame counter on the network graphics card processor by subtracting the conversion difference from its local video frame counter.
Prinzipiell kann man zum Bestimmen des Frameversatzes beim Vergleichen der Momentbilder nach einer beliebigen absoluten Framekennnum- mer suchen, die in beiden Momentbildern, d.h. in dem Momentbild des Master-Netzwerk-Grafikprozessors, das mit der Synchronisationsnachricht an den Slave-Netzwerk-Grafikprozessor übermittelt wurde, und dem Momentbild der Videoframe-Warteschlange des Slave-Netzwerk-Grafikpro- zessors Slave-NGP enthalten ist, um anhand dieses gemeinsamen Bezugsvideoframes den Frameversatz zu bestimmen. Gemäß einer bevorzugten Ausführungsform, mit der in optimierter Weise überprüft werden kann, ob sich die Intervalle der enthaltenen absoluten Framekennnummern in den beiden Momentbildern überlappen und ein gemeinsames Bezugsvideoframe bestimmt wird, werden bevorzugt Tests mit den Ver- fahrensschritten gemäß einer oder beider folgender Varianten durchgeführt. Die erste Variante besteht darin, dass zum Bestimmen der Videoframezählerdifferenz bei dem Vergleich der Momentbilder danach gesucht wird, ob das als letztes, d.h. unmittelbar vor dem Versand der Synchronisationsnachricht vom Slave-Netzwerk-Grafikprozessor in die Videoframe- Warteschlange des Slave-Netzwerk-Grafikprozessors eingehängte Videoframe in dem Momentbild des Master-Netzwerk-Grafikprozessors enthalten ist. Falls ja, kann dieses Videoframe dann als gemeinsames Bezugsvideoframe verwendet werden. Die zweite Variante besteht darin, dass zum Bestimmen der Videoframezählerdifferenz mit der Synchronisationsnachricht des Master- Netzwerk- Grafikprozessors an die Slave-Netzwerk-Grafikprozessoren der Wert des lokalen Videoframezählers des Master-Netzwerk-Grafikprozessors für das als letztes, d.h. unmittelbar vor dem Versand der Synchronisationsnach- rieht vom Master-Netzwerk-Grafikprozessor in die Videoframe-Warteschlange des Master-Netzwerk-Grafikprozessors eingehängte Videoframe, und die absolute Framekennnummer dieses Videoframes übermittelt wird, und bei dem Vergleich der Momentbilder danach gesucht wird, ob dieses Videoframe in beiden verglichenen Momentbildern enthalten ist. Falls ja, kann dieses Videoframe dann als gemeinsames Bezugsvideoframe verwendet werden. In principle, in order to determine the frame offset when comparing the instantaneous pictures, one can search for any absolute frame number which was transmitted to the slave network graphics processor in both snapshots, ie in the instantaneous picture of the master network graphics processor which was sent with the synchronization message. and the snapshot of the video frame queue of the slave network graphics processor slave NGP to determine the frame offset based on this common reference video frame. According to a preferred embodiment, with which it can be checked in an optimized manner whether the intervals of the contained frame ID numbers in the two instant images overlap and a common reference video frame is determined, tests are preferably carried out with the method steps according to one or both of the following variants. The first variant is that, in order to determine the video frame counter difference in the comparison of the snapshots, it is searched for the last, ie immediately before the dispatch of the synchronization message, from the slave network graphics processor to the video frame queue of the slave network graphics processor Video frame is included in the snapshot of the master network video processor. If so, this video frame can then be used as a common reference video frame. The second variant is that for determining the video frame counter difference with the master network graphics processor's synchronization message to the slave network graphics processors, the value of the local video frame counter of the master network graphics processor is the last, ie, immediately before the synchronization the master network graphics processor scans the video frame mounted on the master network graphics processor video frame, and the absolute frame identification number of that video frame is transmitted, and if the comparison of the snapshots is searched for, the video frame is included in both compared snapshots , If so, this video frame can then be used as a common reference video frame.
Gemäß dieser Ausführungsform wird der Frameversatz bestimmt, indem der Slave-Netzwerk-Grafikprozessor die Differenz aus dem lokalen Video- framezähler (mit der Videoframezählerdifferenz auf den Master umgerechnet) des zum Rendern zum letzten Framesynchronisationszeitpunkt ausgewählten Videoframes und dem lokalen Videoframezähler des entsprechenden Videoframes des Master-Netzwerk-Grafikprozessors (übermittelt mit der letzten Synchronisationsnachricht vom Master-Netzwerk-Grafik- Prozessor) berechnet und mit dieser Differenz den lokalen relativen Videoframezähler des Slave-Netzwerk-Grafikprozessors durch Hinzuaddieren oder Subtrahieren korrigiert. Diese beiden Tests können in beliebiger Reihenfolge ausgeführt werden, und wenn einer der beiden Tests erfolgreich ist, d.h. dass eine Überlappung festgestellt wird, braucht der andere Test nicht mehr durchgeführt werden. Wenn dagegen beide Tests nicht erfolgreich sind, gibt es in den verglichenen Momentbildern kein gemeinsames Bezugsvideoframe According to this embodiment, the frame offset is determined by the slave network graphics processor taking the difference from the local video frame counter (converted to the master with the video frame counter difference) of the video frame selected for rendering at the last frame synchronization time and the local video frame counter of the corresponding video frame of the master frame. Network graphics processor (transmitted with the last synchronization message from the master network graphics processor) calculated and corrected with this difference the local relative video frame counter of the slave network graphics processor by adding or subtracting. These two tests can be performed in any order, and if either test is successful, that is, an overlap is detected, the other test will not need to be performed. On the other hand, if both tests are unsuccessful, there is no common reference video frame in the compared snapshots
Die Erfindung wird nachfolgend anhand in den Figuren dargestellter Ausführungsbeispiele näher erläutert. Die darin beschriebenen Besonderheiten können einzeln oder in Kombination miteinander eingesetzt werden, um bevorzugte Ausgestaltungen der Erfindung zu schaffen. Gleiche oder gleich wirkende Teile werden in den verschiedenen Figuren mit denselben Bezugszeichen bezeichnet und gewöhnlich nur einmal beschrieben, auch wenn sie bei anderen Ausführungsformen vorteilhaft eingesetzt werden können. Es zeigen: The invention will be explained in more detail with reference to embodiments shown in the figures. The features described therein may be used alone or in combination with each other to provide preferred embodiments of the invention. Identical or equivalent parts are denoted by the same reference numerals in the various figures and usually described only once, although they can be used advantageously in other embodiments. Show it:
Figur 1 ein Beispiel einer Displaywand mit 3x4 Displays, FIG. 1 shows an example of a display wall with 3x4 displays,
Figur 2 ein Beispiel einer Videoeinblendung auf einer Displaywand, FIG. 2 shows an example of a video overlay on a display wall,
Figur 3 ein Beispiel für Frametearing bei der horizontalen Bewegung eines vertikalen Teststreifens in einer Displaywand, FIG. 3 shows an example of frametearing in the horizontal movement of a vertical test strip in a display wall,
Figur 4 ein Beispiel für Frametearing bei der vertikalen Bewegung eines horizontalen Teststreifens in einer Displaywand, FIG. 4 shows an example of frametearing in the vertical movement of a horizontal test strip in a display wall,
Figur 5 eine Systemkonfiguration mit Framelock, FIG. 5 shows a system configuration with frame lock,
Figur 6 eine Systemkonfiguration mit Genlock, FIG. 6 shows a system configuration with genlock,
Figur 7 ein Beispiel einer Videoframe-Warteschlange, implementiert als  Figure 7 shows an example of a video frame queue implemented as
Ringpuffer,  Ring buffer,
Figur 8 das Rendern eines Videostreams auf einem Netzwerk-Grafikprozessor für fs = fd , d.h. die Videostreamfrequenz fs ist gleich der vertikalen Displayfrequenz fd , FIG. 8 shows the rendering of a video stream on a network graphics processor for f s = f d , ie the video streaming frequency f s is equal to the vertical display frequency f d ,
Figur 9 das Rendern eines Videostreams auf einem Netzwerk-Grafikprozessor für fs < fd , Figur 10 das Sichtbarwerden der Videoframes von Figur 9 auf einem Display, FIG. 9 shows the rendering of a video stream on a network graphics processor for f s <f d , FIG. 10 shows the visualization of the video frames of FIG. 9 on a display,
Figur 11 das Rendern eines Videostreams auf einem Netzwerk-Grafikprozessor für fs > fd , FIG. 11 shows the rendering of a video stream on a network graphics processor for f s > f d ,
Figur 12 das Sichtbarwerden der Videoframes von Figur 11 auf einem  Figure 12 shows the video frames of Figure 11 becoming visible on a
Display,  display
Figur 13 die Synchronisation von zwei Netzwerk-Grafikprozessoren für eine Videobildquelle,  FIG. 13 shows the synchronization of two network graphics processors for a video image source.
Figur 14 die Wirkung einer Mediationsfunktion für den Fall fs < fd , FIG. 14 shows the effect of a mediation function for the case f s <f d ,
Figur 15 die Wirkung einer Mediationsfunktion für den Fall fs > fd , FIG. 15 shows the effect of a mediation function for the case f s > f d ,
Figur 16 die Funktion floor(x), FIG. 16 shows the function floor (x),
Figur 17 eine erste Vorbereitungsstufe des Synchronisationsprozesses, Figur 18 eine zweite Vorbereitungsstufe des Synchronisationsprozesses, Figur 19 den Synchronisationsprozess und  FIG. 17 shows a first preparation stage of the synchronization process, FIG. 18 shows a second preparation stage of the synchronization process, FIG. 19 shows the synchronization process and FIG
Figur 20 die Messung der Frequenzen fs und fd . FIG. 20 shows the measurement of the frequencies f s and f d .
Die Figur 1 zeigt eine Aufsicht auf die Displays D einer beispielhaften Displaywand 1 mit 3x4 Displays D. Eine Displaywand 1, die auch als Videowand bezeichnet wird, umfasst allgemein eine Mehrzahl n von Displays D (Dl, D2, Dn), zum Beispiel Projektionsmodule (Rückprojektion oder Auflicht) oder LCDs. Die Architektur der Displaywand 1 umfasst n benachbarte Displays D in einer Matrixanordnung mit i Zeilen und j Spalten, d.h. i x j = n. Die n Displays D haben dieselbe Displayfrequenz fd und vorzugsweise dieselbe Größe und Auflösung. 1 shows a plan view of the displays D of an exemplary display wall 1 with 3x4 displays D. A display wall 1, which is also referred to as a video wall, generally comprises a plurality n of displays D (D1, D2, Dn), for example projection modules (FIG. Rear projection or incident light) or LCDs. The architecture of the display wall 1 comprises n adjacent displays D in a matrix arrangement with i rows and j columns, ie ixj = n. The n displays D have the same display frequency f d and preferably the same size and resolution.
Bei den von den Displays D der Displaywand 1 darzustellenden Videobildquellen S handelt es sich um eine Mehrzahl von m Videos bzw. Videobildquellen S (Sl, S2, Sm). Diese Videos sind jeweils ein Datenstrom von Bildern, d.h. ein Videostream (Videostrom) von Videoframes. Viele aufeinanderfolgende Einzelbilder ergeben ein Video bzw. einen Film. Die von einem Display D dargestellten Einzelbilder aus einer viele Einzelbilder umfassenden Video- oder Filmsequenz werden als Videoframes bezeich- net. Die Videobildquellen S haben Videostreamfrequenzen fs , die sowohl untereinander verschieden sein können als auch verschieden von der vertikalen Displayfrequenz fd sein können. Während die Bezeichnung Videobildquelle S (oder Bildquelle, englisch "source") sich auf die Erzeuger- bzw. Quellenseite (beispielsweise einen das Video als Videobildquelle liefernden Encoder) des Videodatenstreams bezieht, werden die aus den Videostreams der Videobildquellen S abgeleiteten Darstellungen auf den Displays D der Displaywand 1 als Videoein- blendungen IS (englisch "insertions") bezeichnet. Aus den m Videobildquellen S wird eine bestimmte Anzahl von Videoeinblendungen IS gewonnen und auf der Displaywand 1 dargestellt. Dabei kann eine einzelne Videoeinblendung IS nur ein Teil des Bildes einer Videobildquelle S (sogenanntes "cropping") oder aber das gesamte Bild einer Videobildquelle S sein. Die Bilder einer Videobildquelle S können auch mehrfach als mehrere Videoeinblendungen IS auf einem oder mehreren Displays D dargestellt werden, dasselbe gilt für Teile der Bilder einer Videobildquelle S. In der Regel ist die Anzahl der Videoeinblendungen IS größer oder gleich der Anzahl m der Videobildquellen S. Im praktisch häufigsten Fall wird jede Videobildquelle S nur einmal auf der Displaywand 1 dargestellt; in diesem Fall ist dann die Anzahl der Videoeinblendungen IS gleich der Anzahl m der Videobildquellen S. The video image sources S to be displayed by the displays D of the display wall 1 are a plurality of m videos or video image sources S (Sl, S2, Sm). These videos are each a stream of pictures, ie a video stream of video frames. Many consecutive frames make a video or a movie. The frames of a multi-frame video or movie sequence represented by a display D are called video frames. net. The video image sources S have video streaming frequencies f s , which may be different from one another as well as different from the vertical display frequency f d . While the term video image source S (or source) refers to the source side (for example, an encoder providing the video as a video image source) of the video data stream, the representations derived from the video streams of the video image sources S are displayed on the displays D the display wall 1 referred to as video inserts IS (English "insertions"). From the m video image sources S, a certain number of video overlays IS is obtained and displayed on the display wall 1. In this case, a single video overlay IS can only be part of the image of a video image source S (so-called "cropping") or else the entire image of a video image source S. The images of a video image source S can also be shown several times as multiple video overlays IS on one or more displays D, the same applies to parts of the images of a video image source S. In general, the number of video overlays IS is greater than or equal to the number m of video image sources S. In the most practical case, each video image source S is displayed only once on the display wall 1; in this case, the number of video overlays IS is then equal to the number m of video image sources S.
Die Figur 2 zeigt ein Beispiel einer logischen Videoeinblendung IS auf der Displaywand 1 von Figur 1. Der räumliche Bereich einer auf einer Displaywand 1 dargestellten Videoeinblendung IS wird sich im allgemeinen über mehrere Displays D erstrecken, wobei die Videoteileinblendungen auf den betreffenden Displays D zusammen eine logische Videoeinblendung IS bilden. In Figur 2 erstreckt sich der eingeblendete Bereich der Videoeinblen- dung IS über das gesamte Display D6 und Teile der Displays Dl, D2, D3, D5, D7, D9, D10 und Dil, wogegen die Displays D4, D8 und D12 nicht an der Darstellung der Videoeinblendung IS beteiligt sind. Aufgrund verschiedener Effekte, insbesondere aufgrund unterschiedlicher Übertragungsdauern (Netzwerkverzögerungen) von den Kodierern der Videobildquellen S zu den Netzwerk-Grafikprozessoren der Displays D und/oder aufgrund verschiedener Verarbeitungsdauern (Verarbeitungsverzögerungen) der bei der Bilderzeugung auf den Displays D beteiligten Netzwerk-Grafikprozessoren, die beispielsweise durch unterschiedliche CPU-Auslastungen verursacht werden, kann es passieren, dass ein bestimmtes Videoframe des Videostreams einer logischen Videoeinblen- dung IS auf einem Display D mit einer kleinen zeitlichen Verzögerung (oder allgemein mit einem kleinen zeitlichen Unterschied) gegenüber den anderen Displays D dargestellt wird. Das bedeutet, dass während zu einem Zeitpunkt ein Videoframe i auf einem Display D dargestellt wird, zu demselben Zeitpunkt auf einem oder mehreren anderen Displays D der Displaywand 1 ein oder mehrere in dem Videostream zeitlich vorausgehende Videoframes, z.B. Videoframe (i-1) oder (i-2), oder ein oder mehrere in dem Videostream zeitlich nachkommende Videoframes, z.B. Videoframe (i+1) oder (i+2), dargestellt werden. Dies führt zu einem Effekt, der allgemein Tearing (von engl, "to tear" = zerreißen, in deutsch etwa als "Einzelbild-Zerreißen" oder "Zeilenreißen" zu bezeichnen) genannt wird. Andere Gründe, die zum Tearing in der Darstellung auf den Displays D einer Displaywand 1 führen sind, bestehen darin, dass die verschiedenen Videobildquellen S, die kodiert über das Netzwerk verteilt werden, aus Videobildquellen S mit untereinander verschiedenen Frameraten stammen können, und dass die Frameraten der Videobildquellen S verschieden von den Refreshfrequenzen (vertikale Displayfrequenzen) der Displays D sein können. Das bekannte Tearing ist ein unerwünschter Effekt (ein sogenanntes "Artefakt") beim Darstellen bewegter Bilder auf einem einzelnen Display D, z.B. einem Computermonitor oder einem digitalen Fernseher. Tearing ist ein visuelles Artefakt in Videodarstellungen, das auftritt, wenn ein Videodisplay D die Information von einem oder mehreren Videoframes in einem einzigen Bilddurchlauf darstellt. Zu dem Effekt kann es kommen, wenn der Aufbau und das Anzeigen der Einzelbilder nicht mit der Monitor- Wiedergabe, beispielsweise der Refreshfrequenz (Bildwiederholfrequenz, vertikale Frequenz, vertikale Displayfrequenz) oder dem Bildlauf, synchronisiert ist. Dies kann an der fehlenden Anpassung der Refreshfrequenz liegen; in diesem Fall bewegt sich die Tearinglinie, wenn sich der Phasenunterschied verändert, mit einer Geschwindigkeit, die proportional zu dem Frequenzunterschied ist. Es kann aber auch einfach an einer fehlenden Synchronisation der Phase zwischen gleichen Frameraten liegen; in diesem Fall befindet sich die Tearinglinie an einem festen Ort, der durch die Phasendifferenz gegeben ist. Bei der Darstellung bewegter Bilder oder bei Kameraschwenks führt Tea- ring zu einem zerrissenen Aussehen von Kanten gerader Objekte, die dann nicht mehr aneinander anschließen. Der Betrachter sieht dann mehrere Teile aufeinander folgender Einzelbilder zur selben Zeit, d.h. die Bilder wirken "zerrissen". Dem kann man beispielsweise durch Mehrfach- pufferung, z.B. Doppelpufferung bei der Bilderzeugung und Bilddarstellung abhelfen, indem die Einzelbilder alternierend in zwei Speicherbereiche geschrieben werden, von denen immer einer sichtbar ist. Diese Speicherbereiche werden dann synchron mit der Refreshfrequenz des Monitors, etwa 60 mal pro Sekunde, während der vertikalen Synchronisation (Vsync) umgeschaltet, wodurch der Bildwechsel "unsichtbar" wird. Dieses Prinzip funktioniert in gleicher Art natürlich auch mit 30 Hz oder 15 Hz, wobei dann eben der Monitor jedes Bild etwas länger anzeigt. Besonders störend ist dieser Tearing-Effekt bei höheren Auflösungen, wobei je nach Aufbau der Monitor-Panels vertikales oder horizontales oder gar in beiden Richtungen auftretendes Tearing vorkommen kann. Zum Vermeiden des bekannten Tearings bei einem einzelnen Display D wird zumeist sowohl Mehrfachpufferung, z.B. Doppelpufferung, als auch vertikale Synchronisation verwendet. Die Videokarte wird solange daran gehindert, etwas Sichtbares an dem Displayspeicher zu tun, bis der Dis- playspeicher seinen aktuellen Refreshzyklus beendet hat, und während des vertikalen Austastintervalls veranlasst der Controller die Videokarte entweder dazu, den nicht sichtbaren Grafikbereich in den aktiven Displaybereich zu kopieren oder behandelt beide Speicherbereiche als darstellbar und schaltet einfach zwischen beiden um. Bei der vertikalen Synchronisa- tion ist die Framerate der Renderingmaschine genau gleich der Refreshfrequenz (vertikale Displayfrequenz) des Monitors. Sie hat jedoch auch manche Nachteile wie z.B. Flattern (englisch "judder"), was daran liegt, dass Videos üblicherweise mit geringerer Framerate (24-30 Video- frames/sec) als der Refreshfrequenz des Monitors (typischerweise 60 Hz) aufgenommen werden. Das daraus resultierende regelmäßige Verpassen von Startpunkten und etwas zu häufige Darstellen von Zwischenframes führt zu einem Bildflattern. FIG. 2 shows an example of a logical video overlay IS on the display wall 1 of FIG. 1. The spatial area of a video overlay IS shown on a display wall 1 will generally extend over a plurality of displays D, the video part overlays on the respective displays D together forming a logical one Video insertion IS form. In FIG. 2, the overlaid area of the video insert IS extends over the entire display D6 and parts of the displays D1, D2, D3, D5, D7, D9, D10 and Dil, whereas the displays D4, D8 and D12 do not appear on the display the video insert IS involved. Due to various effects, in particular due to different transmission times (network delays) from the encoders of the video image sources S to the network graphics processors of the displays D and / or due to different processing time (processing delays) involved in the image generation on the displays D network graphics processors, for example cause different CPU loads, it may happen that a particular video frame of the video stream of a logical video display IS is shown on a display D with a small time delay (or generally with a small time difference) over the other displays D. This means that while at one time a video frame i is displayed on a display D, at the same time on one or more other displays D the display wall 1 one or more in the video stream temporally preceding video frames, eg video frame (i-1) or ( i-2), or one or more video frames temporally following in the video stream, eg video frame (i + 1) or (i + 2). This leads to an effect commonly referred to as tearing (from English, to tear, to denote in German as "single-frame ripping" or "line ripping"). Other reasons that lead to tearing in the display on the display D of a display wall 1, are that the various video image sources S, which are distributed over the network encoded, can come from video image sources S with mutually different frame rates, and that the frame rates of the video image sources S may be different from the refresh frequencies (vertical display frequencies) of the displays D. The known tearing is an undesirable effect (a so-called "artifact") in displaying moving pictures on a single display D, eg a computer monitor or a digital television. tearing is a visual artifact in video representations that occurs when a video display D displays the information from one or more video frames in a single pass. The effect can occur if the composition and display of the individual images is not synchronized with the monitor playback, for example the refresh frequency (refresh rate, vertical frequency, vertical display frequency) or scrolling. This may be due to the lack of adaptation of the refresh frequency; in this case, as the phase difference changes, the tearing line moves at a speed that is proportional to the frequency difference. But it can also simply be due to a lack of synchronization of the phase between the same frame rates; in this case, the tearing line is at a fixed location given by the phase difference. When moving images are displayed or when panning a camera, tearing leads to a torn appearance of edges of straight objects, which then no longer connect to each other. The viewer then sees several parts of successive single images at the same time, ie the images appear "torn". This can be remedied, for example, by multiple buffering, for example double buffering during image generation and image display, in that the individual images are written alternately in two memory areas, one of which is always visible. These memory areas are then switched in synchronism with the refresh frequency of the monitor, about 60 times per second, during vertical synchronization (Vsync), rendering the picture change "invisible". This principle works in the same way, of course, with 30 Hz or 15 Hz, in which case just the monitor displays each image a little longer. Particularly disturbing is this tearing effect at higher resolutions, depending on the structure of the monitor panels vertical or horizontal or even occur in both directions tearing may occur. To avoid the known tearing in a single display D, mostly both multiple buffering, eg double buffering, and vertical synchronization are used. The video card is prevented from doing anything visible on the display memory until the display memory has completed its current refresh cycle, and during the vertical blanking interval, the controller either causes the video card to copy the non-visible graphics area to the active display area or treats both memory areas as displayable and simply switches between them. For vertical synchronization, the rendering engine's frame rate is exactly equal to the refresh frequency (vertical display frequency) of the monitor. However, it also has some disadvantages such as fluttering (English "judder"), which is because videos are usually recorded at a lower frame rate (24-30 video frames / sec) than the refresh frequency of the monitor (typically 60 Hz). The resulting regular miss of starting points and a little too much interframe rendering results in a fluttering image.
Während im Stand der Technik somit ein erheblicher technischer Aufwand betrieben wird, um bereits das Tearing bei der Darstellung auf einem einzelnen Display D zu vermeiden, lösen die dabei angewendeten bekannten Maßnahmen nicht das oben beschriebene Problem, dass aufgrund der beschriebenen Laufzeitunterschiede zu einem bestimmten Zeitpunkt auf den Displays D einer Displaywand 1 Videoframes dargestellt werden kön- nen, die in dem Videostream zu verschiedenen Zeiten gehören. Dieser bei Displaywänden 1 auftretende optische Effekt kann ebenfalls als "Tearing- Effekt" bezeichnet werden und ist besonders bei der Darstellung horizontal oder vertikal bewegter Objekte an den Rändern der das Objekt darstellenden Displays D störend, weil dort an dem Übergang von einem Dis- play zum benachbarten Display das Objekt "auseinandergerissen" erscheint. Dieser Effekt tritt umso eher auf, je größer die Refreshfrequenz (vertikale Displayfrequenz) und die Auflösung der Displays D sind. Der Effekt wird anhand der Figuren 3 und 4 veranschaulicht, bei denen ein sich über zwei benachbarte Displays D erstreckendes, zur Durchführung reproduzierbarer Prüfungen häufig verwendetes Testsignal in Form eines horizontal bzw. vertikal wandernden Balkens bzw. Teststreifens dargestellt wird. While in the prior art, therefore, a considerable technical effort is made to avoid the tearing when displayed on a single display D, the known measures used in this case do not solve the problem described above that due to the described differences in transit time at a certain time The displays D of a display wall 1 video frames can be represented, which belong in the video stream at different times. This optical effect occurring on display walls 1 can also be referred to as a "tearing effect" and is particularly disturbing in the representation of horizontally or vertically moved objects on the edges of the display D representing the object, because there at the transition from a display to the display adjacent object the object "torn apart" appears. This effect occurs all the more likely the greater the refresh frequency (vertical display frequency) and the resolution of the displays D are. Of the The effect is illustrated with reference to FIGS. 3 and 4, in which a test signal which extends over two adjacent displays D and is frequently used to carry out reproducible tests is represented in the form of a horizontally or vertically traveling beam or test strip.
Die Figur 3 zeigt ein Beispiel eines Frametearing in einer Displaywand 1 bei horizontaler Bewegung (in die +x Richtung) eines vertikalen Balkens. Das Display D3 zeigt das Videoframe i und das benachbarte Display Dl stellt zum selben Zeitpunkt das frühere Videoframe (i-1) dar. Dadurch kommt es zum Tearing, d.h. zu einem Versatz in der Darstellung des Balkens an dem Übergang zwischen den Displays Dl und D3, wobei der Versatz umso größer ist, je größer die Geschwindigkeit des bewegten Balkens ist. Der Versatz verfälscht die Darstellung des Balkens und fällt einem Betrachter störend auf. Der Versatz ist umso größer, je größer die Geschwindigkeit des bewegten Balkens ist. FIG. 3 shows an example of frametearing in a display wall 1 with horizontal movement (in the + x direction) of a vertical bar. The display D3 shows the video frame i and the adjacent display D1 represents the earlier video frame (i-1) at the same time. This causes tearing, i. to an offset in the representation of the bar at the transition between the displays Dl and D3, wherein the offset, the greater the speed of the moving bar is the greater. The offset falsifies the representation of the bar and attracts a viewer. The offset is greater the greater the speed of the moving beam.
Die Figur 4 zeigt ein Beispiel eines Frametearing in einer Displaywand 1 bei vertikaler Bewegung (in die +y Richtung) eines horizontalen Balkens. Das Display D3 zeigt das Videoframe i und das benachbarte Display D4 stellt im selben zeitlichen Moment das frühere Videoframe (i-1) dar. Dadurch kommt es zum Tearing, d.h. zu einem die Darstellung verfälschenden Versatz in der Darstellung des Balkens an dem Übergang zwischen den Displays D3 und D4, wobei der Versatz umso größer ist, je grö- ßer die Geschwindigkeit des bewegten Balkens ist. FIG. 4 shows an example of frametearing in a display wall 1 with vertical movement (in the + y direction) of a horizontal bar. The display D3 shows the video frame i and the adjacent display D4 represents the earlier video frame (i-1) at the same time instant. This causes tearing, i. to a representation distorting offset in the representation of the bar at the transition between the displays D3 and D4, wherein the offset, the greater the speed of the moving bar is the greater.
Schon ein Versatz der Darstellung eines Objekts auf benachbarten Displays um ein Videoframe fällt beim Betrachten einer Displaywand 1 auf (Gummibandeffekt). In der Praxis liegt der zeitliche Frameversatz auf den Displays D einer Displaywand 1 ohne erfindungsgemäße Synchronisation der Darstellung der Videoframes bei +/- 1 bis max. +/- 3 Videoframes. Jedoch ist schon ein Unterschied von +/- 1 Videoframe in der Darstellung einer Videoeinblendung auf benachbarten Displays D sichtbar, insbesondere bei der Darstellung schnell bewegter Objekte und weil der Frameversatz schwankt, und soll demzufolge durch die Synchronisation verhindert werden. In der Praxis reicht es in der Regel jedoch aus, eine Abweichung von +/- 3 Videoframes (d.h. drei aufeinanderfolgenden Bildrückläufen) erfindungsgemäß durch Videoframe-Warteschlangen und die Mediationsfunktion auszuregeln. Even an offset of the representation of an object on adjacent displays to a video frame falls when viewing a display wall 1 (rubber band effect). In practice, the temporal frame offset lies on the displays D of a display wall 1 without synchronization according to the invention of the representation of the video frames at +/- 1 to max. +/- 3 video frames. However, there is already a difference of +/- 1 video frame in the presentation a video overlay on adjacent displays D visible, especially in the representation of fast-moving objects and because the frame offset varies, and should therefore be prevented by the synchronization. In practice, however, it is generally sufficient to correct a deviation of +/- 3 video frames (ie, three consecutive picture returns) according to the invention by video frame queues and the mediation function.
Um diesen sichtbaren Artefakt des Frametearing in einer Displaywand 1 zu vermeiden, ist es wichtig, dass auf den verschiedenen (physikalischen) Displays D der Displaywand 1 zu einem Zeitpunkt genau dieselben Videoframes einer logischen Videoeinblendung IS dargestellt werden. Die Darstellung der Videoframes einer Videoeinblendung IS auf den Displays D einer Displaywand 1 muss also hinsichtlich Frequenz und Phase synchroni- siert werden, um zu vermeiden, dass zu einem Zeitpunkt von den Displays D unterschiedliche Videoframes dargestellt werden. In order to avoid this visible artifact of frametearing in a display wall 1, it is important that exactly the same video frames of a logical video overlay IS are displayed on the different (physical) displays D of the display wall 1 at a time. The representation of the video frames of a video overlay IS on the displays D of a display wall 1 must therefore be synchronized in terms of frequency and phase, in order to avoid that at a time of the displays D different video frames are displayed.
Um die vorstehend beschriebenen beiden Arten von Tearing bei der Darstellung von Videobildquellen rauf einer Displaywand 1 zu vermeiden, wer- den erfindungsgemäß bevorzugt folgende drei Maßnahmen ergriffen: In order to avoid the above-described two types of tearing when displaying video image sources r on a display wall 1, the following three measures are preferably taken according to the invention:
(i) Mehrfachpufferung, vorzugsweise Doppelpufferung, und Swap- Locking auf jedem der Netzwerk-Grafikprozessoren NGP, die ein einzelnes Display D der Displaywand 1 ansteuern. (i) Multiple buffering, preferably double buffering, and swap-locking on each of the network graphics processors NGP, which drive a single display D of the display wall 1.
(ii) Synchronisation der Bildrückläufe (Englisch: vertical retraces) der Grafikkarten in den einzelnen Displays (Framelocking oder(ii) Synchronization of the image retraces (English: vertical retraces) of the graphics cards in the individual displays (frame locking or
Genlocking). Genlocking).
(iii) Contentiocking; dabei wird die Darstellung von Videoframes einer Videobildquelle S derart synchronisiert, dass in demselben zeitlichen Moment auf jedem der beteiligten Displays D genau dieselben Videoframes dieser Videobildquelle, die zu einer logischen Videoeinblendung IS gehören, dargestellt werden. (iii) content icing; In this case, the representation of video frames of a video image source S is synchronized such that in the same temporal moment on each of the participating displays D exactly the same video frames of this video image source, which belong to a logical video overlay IS, are displayed.
Im Folgenden wird erläutert, wie erfindungsgemäß der tearingfreie Betrieb erreicht wird, insbesondere mittels eines erfindungsgemäßen Con- tentlockings. The following explains how tearing-free operation according to the invention is achieved, in particular by means of a content blocking according to the invention.
Im Rahmen der Erfindung erfolgt die Darstellung der Videoframes vorzugsweise mittels der Netzwerk-Grafikprozessoren NGP mehrfach gepuf- fert, vorzugsweise doppelt-gepuffert, und swap-locked. Diese Begriffe beziehen sich auf den Vorgang, wie die in einem Pufferspeicher eines Netzwerk-Grafikprozessors NGP gespeicherten Bilddaten (Videoframes) auf dem zugeordneten Display D zur Darstellung gelangen. Bei der Doppelpufferung werden zwei Pufferspeicher verwendet, nämlich ein Frontpuffer (in englisch: visible buffer oder front buffer), in dem die Bilddaten enthalten sind, die gerade auf dem Display D dargestellt werden, und ein Backpuffer, in dem die Bilddaten des nächsten Videoframes enthalten sind. Double Buffering bezeichnet also, dass das Onboard- Memory in der Grafikkarte des Netzwerk-Grafikprozessors NGP zwei Spei- cherbereiche hat, nämlich einen sichtbaren Bereich, der zur Darstellung in das Display D ausgelesen wird, und einen Backpuffer-Bereich, der von der GPU angesteuert wird. Bei der Mehrfachpufferung werden entsprechende weitere Pufferspeicher verwendet. Im Swap-Locking-Betrieb erfolgt das Kopieren aus dem Backpuffer in den Frontpuffer oder das Vertauschen der Rollen dieser Pufferbereiche (Buffer-Flipping) in der Bildaustastlücke (ver- tical retrace, Bildrücklauf) des Displays D. Das Swapping kann entweder ein echtes Kopieren sein oder ein Buffer-Flipping, d.h. ein echtes Austauschen der Speicherbereiche. Beim Austauschen werden nicht die Pufferinhalte vertauscht, sondern das Lesen erfolgt aus dem anderen Puffer. Durch das mehrfach oder double Buffering und den swap-locked Speicherbetrieb wird das Tearing während eines Bildaufbaus auf einem einzelnen Display D vermieden. Dieses Umschalten kann ein Kopieren vom verdeck- ten in den sichtbaren Speicherbereich sein oder der Video-Controller auf der Grafikkarte vertauscht hardwaremäßig die Rollen dieser beiden Speicherbereiche, was als Buffer-Flipping bezeichnet wird In the context of the invention, the representation of the video frames preferably takes place by means of the network graphics processors NGP repeatedly buffered, preferably double-buffered, and swap-locked. These terms refer to the process of how the image data (video frames) stored in a buffer memory of a network graphics processor NGP are displayed on the associated display D. Double buffering uses two buffer memories, namely a front buffer (in English: visible buffer or front buffer) containing the image data currently being displayed on the display D and a back buffer containing the image data of the next video frame are. Double buffering means that the onboard memory in the graphics card of the network graphics processor NGP has two memory areas, namely a visible area which is read out for display in the display D, and a back buffer area which is controlled by the GPU becomes. In the case of multiple buffering, corresponding additional buffer memories are used. In swap-lock mode, copying from the back buffer into the front buffer or swapping the roles of these buffer areas (buffer flipping) occurs in the video retrace (vertical retrace) of the display D. Swapping can be either true copying or a buffer flipping, ie a genuine replacement of the memory areas. When exchanging, the buffer contents are not exchanged, but the reading is carried out from the other buffer. Multiple or double buffering and swap-locked memory operation avoids tearing during image buildup on a single display D. This switching can be done by copying in the visible memory area or the video controller on the graphics card exchanges the roles of these two memory areas in hardware, which is referred to as buffer flipping
Mit Rendern bezeichnet man das Umsetzen bzw. Konvertieren einer geometrischen Bildbeschreibung, beispielsweise einer Vektorgrafik, in eine Pixeldarstellung. Das Rendern von Videoframes mittels OpenGL kann dop- pelt-gepuffert und swap-locked durchgeführt werden. OpenGL ist ein grafisches Subsystem, das speziell Rendern mit Textur erlaubt, wobei zum Rendern von Videoframes der Frameinhalt als Textur auf das Darstellungsrechteck der Videoeinblendung abgebildet (gemappt) wird. Doppeltes Puffern bedeutet, dass die Videoframes in einen Backpuffer gerendert werden, dessen Inhalt nicht auf dem Display D sichtbar ist. Und dies erfolgt, während das vorausgegangene, in dem Frontpuffer enthaltene Videoframe dargestellt wird. Wenn eine Swap-Puffer-Funktion (eine OpenGL Library Funktion) aufgerufen wird, werden der Backpuffer und der Frontpuffer ausgetauscht (swapped), d.h. der Backpuffer wird zum neuen Frontpuffer, dessen Information ausgelesen und auf dem Display D sichtbar wird, und der Frontpuffer wird zum neuen Backpuffer für den Renderungsvorgang des nächsten Videoframes. Rendering is the conversion or conversion of a geometric image description, such as a vector graphic, into a pixel representation. The rendering of video frames using OpenGL can be double-buffered and swap-locked. OpenGL is a graphical subsystem that specifically allows texture rendering, where the frame content is mapped as a texture to the rendering rectangle of the video overlay to render video frames. Double buffering means that the video frames are rendered in a back buffer whose contents are not visible on the D display. And this is done while the previous video frame contained in the front buffer is displayed. When a swap buffer function (an OpenGL Library function) is called, the back buffer and the front buffer are swapped, i. the back buffer becomes the new front buffer whose information is read out and becomes visible on display D, and the front buffer becomes the new back buffer for the rendering process of the next video frame.
Das Swap-Locking bedeutet, dass dieser Pufferaustausch während der vertikalen Bildaustastlücke (dem Bildrücklauf, Bildrücksprung, Displayrücklauf, Displayrücksprung) des Displays D durchgeführt wird. Die Swap- Puffer-Funktion kann zu jedem beliebigen Zeitpunkt aufgerufen werden, aber der Backpuffer wird nur während der nächsten Bildaustastlücke des Displays D in den Frontpuffer kopiert. Dadurch wird in jedem individuellen dargestellten Bild eines Displays D das Tearing verhindert. The swap-locking means that this buffer exchange is performed during the vertical picture blanking interval (the picture return, picture return, display return, display return) of the display D. The swap buffer function can be called at any time, but the back buffer is copied to the front buffer only during the next frame blanking interval of the display D. As a result, the tearing is prevented in each individually displayed image of a display D.
Im Rahmen der Erfindung werden ferner die Bildrückläufe der die Displays D ansteuernden Grafikkarten in den Netzwerk-Grafikprozessoren synchronisiert, was bedeutet, dass die Bildrücklaufsignale dieselbe Frequenz und dieselbe Phase haben. Ein mögliches Verfahren zur Implementierung besteht darin, dass ein Computer mit einem Grafikprozessor, d.h. hier ein Netzwerk-Grafikprozessor NGP, als Master konfiguriert wird, der beispielsweise über ein Multidropkabel an alle Computer mit einem Grafikprozessor das Bildrücklaufsignal Vsync liefert. Diese Variante wird als "Framelock" bezeichnet und ist in Figur 5 dargestellt. Die Slaves sind derart ausgebildet, dass sie auf dieses Signal hören und ihre Synchronisation nach diesem Bildrücklaufsignal Vsync einrasten (englisch: lock). Ein anderes Verfahren besteht darin, beispielsweise über ein Multidropkabel jeden Netz- werk-Grafikprozessor NGP nach demselben externen Bildrücklaufsignal Vsync einzurasten. Dieses externe Synchronisationssignal Vsync wird dann von einem Synchronisations-Signalgeber SS bereitgestellt. Diese Implementierung wird auch als "Genlock" bezeichnet und ist in Figur 6 dargestellt. In the context of the invention, the image returns of the display D driving graphics cards are also synchronized in the network graphics processors, which means that the image return signals have the same frequency and have the same phase. One possible method of implementation is to configure a computer with a graphics processor, in this case a network graphics processor NGP, as a master, which supplies, for example via a multidrop cable, to all computers with a graphics processor the image return signal Vsync. This variant is referred to as "frame lock" and is shown in FIG. The slaves are designed so that they listen to this signal and lock their synchronization after this image return signal Vsync (lock). Another method is to use a multi-drop cable to lock each network graphics processor NGP to the same external video retrace signal Vsync. This external synchronization signal Vsync is then provided by a synchronization signal generator SS. This implementation is also referred to as genlock and is shown in FIG.
Eine Hardware-Synchronisierung der Bildrücklaufsignale Vsync der Displays D über mehrere Grafikprozessoren NGP, beispielweise durch Framelock oder Genlock, kann von einer bestimmten zusätzlichen Frame Lock Hardware realisiert werden. Von der NVIDIA Corp., Santa Clara, Kalifor- nien, USA ist zum Beispiel das G-Sync-Board kommerziell erhältlich. Die Vsync-Signale können aber auch softwaremäßig synchronisiert werden, beispielsweise mittels MultiCast-Nachrichten über das Netzwerk. Das Synchronisieren der Bildrückläufe der Displays D hinsichtlich Frequenz und Phase erfolgt in der Praxis typischerweise mit einer Genauigkeit von 1 msec oder besser. Hardware synchronization of the image return signals Vsync of the displays D via a plurality of graphics processors NGP, for example by frame lock or genlock, can be realized by a specific additional frame lock hardware. For example, the G-Sync board is commercially available from NVIDIA Corp., Santa Clara, Calif., USA. The Vsync signals can also be synchronized by software, for example by means of multi-cast messages over the network. The synchronization of the image returns of the displays D in terms of frequency and phase is typically carried out in practice with an accuracy of 1 msec or better.
Die Bildrückläufe der Displays D der Displaywand 1 werden somit mit Bildrücklaufsignalen Vsync hinsichtlich Frequenz und Phase synchronisiert. Bei der erfindungsgemäßen Realisierung in Software werden die Bildrück- laufsignale Vsync mit einem synchronisierten Bildrücklaufsignalzähler (synchronisierter Vsynczähler NS) von einem Bildrücklaufsignal Vsync zum nächsten, d.h. von einem Bildrücklauf zum nächsten, hochgezählt. Der aktuelle Wert des Bildrücklaufsignalzählers (synchronisierter Vsync- zähler NS) wird zusammen mit den Bildrücklaufsignalen Vsync an die Netzwerk-Grafikprozessoren NGP übertragen, sodass zu denselben Zeitpunkten auf den Netzwerk-Grafikprozessoren NGP dieselben Werte des Bildrücklaufsignalzählers (synchronisierter Vsynczähler NS) zur Verfügung stehen. The image returns of the displays D of the display wall 1 are thus synchronized with the image retrace signals Vsync in terms of frequency and phase. In the implementation according to the invention in software, the image retrace signals Vsync are counted up by a synchronized image retrace signal counter (synchronized VS sync counter NS) from one image retrace signal Vsync to the next, ie from one image retrace to the next. The current value of the picture retrace signal counter (synchronized sync counter NS) is transmitted to the network graphics processors NGP together with the picture retrace signals Vsync, so that the same values of the picture retrace signal counter (synchronized VS sync counter NS) are available at the same times on the network graphics processors NGP.
Ohne Synchronisierung der Vsync-Signale, beispielsweise mittels Framelock oder Genlock, würde auf der Displaywand 1 ein Frametearing zwischen den Displays D auftreten. Der fundamentale Ursprung des Frametearing ist in diesem Fall ein anderer als bei dem oben beschriebenen Frametearing-Phänomen auf einem einzelnen Display D. Ohne Synchronisieren der Vsync-Signale aller Netzwerk-Grafikprozessoren NGP auf dieselbe Frequenz und dieselbe Phase, beispielsweise mittels Framelock oder Genlock, würde das Frametearing von der Phasendifferenz des vertikalen Scannens (des vertikalen Ablaufs der Bilddarstellung) benachbarter Displays D verursacht, die zu einer außerphasigen Darstellung des auf den Displays D dargestellten Videoframes auf verschiedenen Displays D führen würde. Without synchronization of the Vsync signals, for example by means of frame lock or genlock, a frametearing between the displays D would occur on the display wall 1. The fundamental origin of frametearing in this case is different from the frametearing phenomenon described above on a single display D. Without synchronizing the Vsync signals of all network graphics processors NGP to the same frequency and phase, for example by frame lock or genlock the frametearing of the phase difference of the vertical scanning (the vertical flow of the image display) of adjacent displays D causes, which would lead to an out-of-phase representation of the video frame shown on the display D on different displays D.
Um einen tearingfreien Betrieb zwischen den von den Displays D einer Displaywand 1 dargestellten Bildern zu gewährleisten, ist es daher notwendig, dass die Bildrücklaufsignale Vsync aller Netzwerk-Grafikprozessoren NGP dieselbe Frequenz und Phase haben, beispielsweise indem ein Framelock oder Genlock durchgeführt wird. Damit ist die Grundbedingung erfüllt, dass der Bildaufbau auf den Displays D mit derselben Frequenz und Phase erfolgt. In order to ensure tearing-free operation between the images represented by the displays D of a display wall 1, it is therefore necessary for the image return signals Vsync of all network graphics processors NGP to have the same frequency and phase, for example by performing a frame lock or genlock. Thus, the basic condition is satisfied that the image structure on the displays D with the same frequency and phase takes place.
Die Figur 5 zeigt eine Systemkonfiguration mit Framelock und die Figur 6 eine Systemkonfiguration mit Genlock. Bei den von den n Displays Dl, D2, Dn der Displaywand 1 darzustellenden Videobildquellen S handelt es sich um eine Mehrzahl von m Videos bzw. Videobildquellen S (Sl, S2, Sm). Diese Videos sind jeweils ein Datenstrom von Bildern, d.h. ein Videostream von Videoframes. Bei den Displays D handelt es sich um eine Mehrzahl von Displays (Dl, D2, Dn), zum Beispiel Projektionsquader (Rückprojektion oder Auflicht) oder LCDs, die jeweils von einem separaten Netzwerk-Grafikprozessor NGP (NGP 1, NGP 2, NGP n) angesteuert werden. Ein Netzwerk-Grafikprozessor NGP, der auch als Rendermaschine oder Renderingmaschine bezeichnet wird, ist die generische Bezeichnung für einen zweckbestimmten Displaycontroller mit einer LAN-Verbindung, einer CPU, einem Speicher, einer Festplatte, einem Betriebssystem (z.B. Linux), Softwaredekodierern und/oder Hardwaredekodierern, einem Grafikprozessor und allen anderen Komponenten, die für seine Funktionalität erforderlich sind. Der Displayausgang jedes Netzwerk-Grafikprozessors NGP ist über ein Video-Display-Interface, z.B. ein Digital Visual Interface (DVI), mit jeweils einem Display D verbunden. Ein Display D und ein zugeordneter Netzwerk-Grafikprozessor NGP werden gemeinsam auch als Displayunit bezeichnet. FIG. 5 shows a system configuration with frame lock, and FIG. 6 shows a system configuration with genlock. The video image sources S to be displayed by the n displays D1, D2, Dn of the display wall 1 are a plurality of m videos or video image sources S (S1, S2, S2). Sm). These videos are each a stream of pictures, ie a video stream of video frames. The displays D are a plurality of displays (D1, D2, Dn), for example projection cubes (rear projection or incident light) or LCDs, each of which is provided by a separate network graphics processor NGP (NGP 1, NGP 2, NGP n). be controlled. A network graphics processor NGP, also referred to as a rendering engine or rendering engine, is the generic name for a dedicated display controller having a LAN connection, a CPU, a memory, a hard disk, an operating system (eg, Linux), software decoders, and / or hardware decoders , a graphics processor and all other components required for its functionality. The display output of each network graphics processor NGP is connected via a video display interface, such as a digital visual interface (DVI), each with a display D. A display D and an associated network graphics processor NGP are collectively referred to as a display unit.
Die Videos der Videobildquellen S können kodiert sein. Das Kodieren erfolgt jeweils mittels eines Kodierers EC (englisch "encoder") und ist eine Kompressionstechnik, die dazu dient, die Redundanz in Videodaten zu erniedrigen und folglich die im Netzwerk zum Übertragen der Videos der Videobildquelle S erforderliche Bandbreite zu verringern. MPEG2, MPEG4, H.264 und JPEG2000 sind Beispiele üblicher Standards von Kompressionstechniken zum Kodieren von Videos. Manche, zahlreiche oder alle Video- bildquellen (Sl, S2, Sm) können kodiert sein. Die Kodierer EC können eine Mischung von Kodierern verschiedener Hersteller sein, z.B. Ϊ5210-Ε (von Impath Networks Inc. Canada), VBrick 9000 Serie (von VBrick Systems Inc.) und VIP1000 (Bosch). Auf diesen Kodierern EC sind Varianten der Standardkommunikationsprotokolle implementiert. Es kann auch sein, dass unkomprimierte Videobildquellen S an die Netzwerk-Grafikprozessoren NGP der Displaywand 1 übertragen werden, das Übertragen unkomprimierter Videos bedingt aber eine höhere Belastung des Netzwerks. Der Datenstrom aus von den Kodierern EC komprimierten Videobildern der Videobildquellen S wird über ein Netzwerk LAN bzw. IP-Netzwerk (z.B. ein general purpose LAN oder ein dedicated Video LAN) und eventuelle Netzwerk-Switches SW an die Netzwerk-Grafikprozessoren NGP übertragen. Das Computernetzwerk LAN ist z.B. ein Gigabit Ethernet GbE gemäß IEEE 802.3-2008 und/oder ein Ethernet-Netzwerk E. Die Übertragung der Videobilder über das Netzwerk LAN erfolgt beispielsweise mit dem sogenannten UDP Multicast. Bei Computernetzwerken bezeichnet man mit Multicast das gleichzeitige Senden einer Nachricht oder Information von einem Sender (der Videobildquelle S) an eine Gruppe von Empfängern (Empfangscomputern, Netzwerk-Grafikprozessoren NGP) in einer einzigen Übertragung von dem Sender an die Empfänger. Der Vorteil von Multicast besteht darin, dass gleichzeitig Nachrichten an mehrere Teilnehmer oder an eine geschlossene Teilnehmergruppe übertragen werden können, ohne dass sich beim Sender die Bandbreite mit der Zahl der Empfänger multipliziert. Multicast ist die übliche Bezeichnung für IP-Multicast, welches es ermöglicht, in IP-Netzwerken effizient Pakete an viele Empfänger zur gleichen Zeit zu senden. The videos of the video image sources S can be coded. The coding is done by means of an encoder EC and is a compression technique which serves to reduce the redundancy in video data and consequently to reduce the bandwidth required in the network for transmitting the videos of the video picture source S. MPEG2, MPEG4, H.264 and JPEG2000 are examples of common standards of compression techniques for encoding video. Some, many or all video image sources (Sl, S2, Sm) can be coded. The EC encoders may be a mix of encoders from different manufacturers, eg, 105210-Ε (from Impath Networks Inc. Canada), VBrick 9000 series (from VBrick Systems Inc.), and VIP1000 (Bosch). Variants of the standard communication protocols are implemented on these encoders EC. It may also be that uncompressed video image sources S are transmitted to the network graphics processors NGP of the display wall 1, but the transmission of uncompressed videos requires a higher load of the network. The data stream from video images of the video image sources S compressed by the coders EC is transmitted to the network graphics processors NGP via a network LAN or IP network (eg a general purpose LAN or a dedicated video LAN) and possible network switches SW. The computer network LAN is, for example, a Gigabit Ethernet GbE according to IEEE 802.3-2008 and / or an Ethernet network E. The transmission of the video images over the network LAN takes place, for example, with the so-called UDP multicast. In computer networks, multicasting is the simultaneous sending of a message or information from a transmitter (the video picture source S) to a group of receivers (receiving computers, network graphics processors NGP) in a single transmission from the transmitter to the receivers. The advantage of multicast is that messages can be transmitted simultaneously to multiple subscribers or to a closed subscriber group without the transmitter's bandwidth multiplying by the number of receivers. Multicast is the common term for IP multicast, which allows IP networks to efficiently send packets to many receivers at the same time.
Mittels Dekodierern in den Netzwerk-Grafikprozessoren NGP werden die über das Netzwerk LAN empfangenen Videostreams wieder zur Darstellung auf den Displays D dekodiert und von den Displays D dargestellt. Die Dekodierer können Hardware- und/oder Software-Dekodierer sein. Die Dekoderfunktion kann die verschiedenen Kompressionsstandards handhaben, z.B. MPEG2, MPEG4, MJPEG und H.264. By means of decoders in the network graphics processors NGP, the video streams received over the network LAN are again decoded for display on the displays D and displayed by the displays D. The decoders may be hardware and / or software decoders. The decoder function can handle the various compression standards, e.g. MPEG2, MPEG4, MJPEG and H.264.
Das bedeutet also, dass alle m Videobildquellen S über das IP-Netzwerk LAN an alle Netzwerk-Grafikprozessoren NGP gesendet und von den Dis- plays D der Displaywand 1 in einer bestimmten Zusammensetzung dargestellt werden. Die Netzwerk-Grafikprozessoren NGP entscheiden jedoch nicht selbst, welche Videobildquelle S oder Videobildquellen S bzw. wel- chen Teil oder welche Teile einer Videobildquelle S sie auf dem ihnen jeweils zugeordneten Display D darstellen, sondern dies wird von einer nicht dargestellten Zentralinstanz oder Zentraleinheit gesteuert. Die Darstellung der Videobildquellen 1 auf den Displays D der Displaywand 1 erfolgt gemäß einem bestimmten Layout, das von der nicht dargestellten Zentralinstanz vorgegeben wird. Die Zentralinstanz teilt den Netzwerk- Grafikprozessoren NGP mit, welchen Teil welcher Videobildquelle S das dem jeweiligen Netzwerk-Grafikprozessor NGP zugeordnete Display D an welcher Stelle des Displays D darstellen soll. This means that all m video image sources S are sent via the IP network LAN to all network graphics processors NGP and represented by the displays D of the display wall 1 in a specific composition. However, the network graphics processors NGP do not decide themselves which video image source S or video image sources S or Wel- chen part or which parts of a video image source S they represent on their respective associated display D, but this is controlled by a central entity or central unit, not shown. The representation of the video image sources 1 on the displays D of the display wall 1 is carried out according to a specific layout, which is specified by the central instance, not shown. The central entity notifies the network graphics processors NGP which part of which video image source S is to represent the display D assigned to the respective network graphics processor NGP at which point of the display D.
Zum Übertragen der Videobildquellen S über das Netzwerk LAN an die Netzwerk-Grafikprozessoren NGP werden in der Regel zwei Netzwerke verwendet, nämlich ein Video-Netz, das alle Videobildquellen S an alle Netzwerk-Grafikprozessoren NGP überträgt, und ein Steuer- oder Haus- Netz, das von der Zentralinstanz die Steuerungsinformation für die einzelnen Displayunits liefert. Die Steuerinformation gibt dabei an, welche Videobildquelle S oder welcher Teil einer Videobildquelle S von welchem Display D an welcher Stelle des Displays D dargestellt werden soll. To transmit the video image sources S via the network LAN to the network graphics processors NGP two networks are generally used, namely a video network that transmits all video image sources S to all network graphics processors NGP, and a control or home network, that supplies the control information for the individual display units from the central instance. The control information indicates which video image source S or which part of a video image source S is to be displayed by which display D at which point of the display D.
Es ist klar, dass jeder an der Darstellung einer logischen Videoeinblendung IS beteiligte Netzwerk-Grafikprozessor NGP von dem Netzwerk LAN denselben Videodatenstream erhalten, ihn dekodieren und denjenigen Teil der logischen Videoeinblendung IS, der demjenigen Display D der Displaywand 1 entspricht, der von dem jeweiligen Netzwerk-Grafikprozessor NGP gesteuert wird, auf dem ihm zugeordneten Display D darstellen muss. It will be appreciated that each network graphics processor NGP involved in the presentation of a video logical insertion IS will receive the same video data stream from the network LAN and decode that part of the video logical overlay IS corresponding to the display D of the display wall 1 that is from the respective network Graphic processor NGP, on the associated display D must represent.
Wie oben erläutert, kann aufgrund verschiedener Durchgangszeiten (Netzwerkverzögerung) zwischen den Kodierern EC und den Netzwerk- Grafikprozessoren NGP und/oder unterschiedlicher CPU-Auslastungen der beteiligten Netzwerk-Grafikprozessoren NGP ein bestimmtes Videoframe eines Videostreams einer Videobildquelle S auf einem Display D der Displaywand 1 mit einer kleinen zeitlichen Verschiebung gegenüber ande- ren Displays D der Displaywand 1 dargestellt werden. Während beispielsweise das Videoframe i auf einem Display D der Displaywand 1 dargestellt wird, können zum selben Zeitpunkt ein oder mehrere frühere Videoframes, z.B. die Videoframes (i-1) oder (i-2), auf anderen Displays D der Displaywand 1 dargestellt werden. Dies führt zu dem sichtbaren Artefakt, der "Tea ring -Effekt" oder "Frame-Tearing" genannt wird. As explained above, due to different transit times (network delay) between the encoders EC and the network graphics processors NGP and / or different CPU loads of the participating network graphics processors NGP a particular video frame of a video stream of a video image source S on a display D of the display wall 1 with a small time shift compared to other Ren displays D of the display wall 1 are shown. For example, while the video frame i is displayed on a display D of the display wall 1, one or more previous video frames, eg, the video frames (i-1) or (i-2), may be displayed on other displays D of the display wall 1 at the same time. This leads to the visible artifact called "tea ring effect" or "frame tearing".
Das Synchronisieren der Bildrücklaufsignale Vsync der Displays D, insbesondere mittels Framelock oder Genlock, reicht somit allein nicht aus, um einen tearingfreien Betrieb der Displaywand 1 zu erzielen, da es wie oben erläutert, aufgrund verschiedener Durchgangszeiten (Netzwerkverzögerung) zwischen den Kodierern EC und den Netzwerk-Grafikprozessoren NGP und/oder unterschiedlicher CPU-Auslastungen der beteiligten Netz- werk-Grafikprozessoren NGP dazu kommen kann, dass ein bestimmtes Videoframe eines Videostreams einer Videobildquelle S auf einem Display D der Displaywand 1 mit einer kleinen zeitlichen Verschiebung gegenüber anderen Displays D der Displaywand 1 dargestellt wird, auch wenn die Bildrücklaufsignale Vsync der Displays D und somit die Bilddarstellungen auf den Displays D hinsichtlich Frequenz und Phase synchronisiert sind. Um einen tearingfreien Betrieb zwischen den von den Displays D einer Displaywand 1 dargestellten Bildern zu gewährleisten, ist es zusätzlich notwendig, dass in demselben zeitlichen Moment auf jedem der beteiligten Displays D genau dieselben Videoframes einer bestimmten Videobildquelle S, die zu einer logischen Videoeinblendung IS gehören, dargestellt werden. Diese Bedingung wird mit "Contentlock" bezeichnet und das Verfahren zur Realisierung mit "Contentsynchronisation" oder "Content- Iocking"). Synchronizing the image return signals Vsync of the displays D, in particular by means of frame lock or genlock, is therefore not sufficient alone to achieve a tearing-free operation of the display wall 1, as explained above, due to different transit times (network delay) between the encoders EC and the network Graphics processors NGP and / or different CPU utilization of the involved network graphics processors NGP can cause a particular video frame of a video stream of a video image source S on a display D of the display wall 1 with a small time shift compared to other displays D of the display wall is displayed, even if the image return signals Vsync the displays D and thus the image representations on the displays D are synchronized in terms of frequency and phase. In order to ensure a tearing-free operation between the images represented by the displays D of a display wall 1, it is additionally necessary that exactly the same video frames of a particular video image source S belonging to a logical video overlay IS be recorded on each of the participating displays D at the same time instant. being represented. This condition is called "Content Lock" and the method of realization with "Content Synchronization" or "Content Iocking").
Das Synchronisieren der Bildrücklaufsignale Vsync der Displays D, bei- spielsweise mittels Framelock oder Genlock, ist daher eine notwendige, aber keine hinreichende Voraussetzung für Contentlock. Um den sichtbaren Artefakt des Frametearing zu vermeiden, ist es wesentlich, dass zu denselben Zeitpunkten genau dieselben Videoframes einer logischen Videoeinblendung IS auf den verschiedenen (physikalischen) Displays D (phasengleich) dargestellt werden, und das bedeutet, dass die Darstellung der Videoframes zwischen den an der Darstellung einer Videoeinblendung IS beteiligten Netzwerk-Grafikprozessoren NGP durch Contentlock synchronisiert werden muss. The synchronization of the image return signals Vsync of the displays D, for example by means of frame lock or genlock, is therefore a necessary but not sufficient condition for content locking. To avoid the visible artifact of frametearing, it is essential that the same time points exactly the same video frames of a logical video insertion IS on the different (physical) displays D (in phase) are shown, and that means that the representation of the video frames between the involved in the representation of a video overlay IS network graphics processors NGP must be synchronized by content locking ,
Die erfindungsgemäße Contentsynchronisation zum Synchronisieren der Darstellung der Videoframes auf den Displays D derart, dass in demselben zeitlichen Moment auf jedem der beteiligten Displays D genau dieselben Videoframes einer bestimmten Videobildquelle S, die zu einer logischen Videoeinblendung IS gehören, dargestellt werden, umfasst folgende Teile: The content synchronization according to the invention for synchronizing the presentation of the video frames on the displays D such that exactly the same video frames of a particular video image source S which belong to a logical video overlay IS are represented in the same temporal moment on each of the participating displays D, comprising the following parts:
Synchronisation der Uhren auf den Netzwerk-Grafikprozessoren NGP, vorzugsweise durch PTP. Synchronization of the clocks on the network graphics processors NGP, preferably by PTP.
Puffern der Videoframes in einer Videoframe-Warteschlange auf jedem Netzwerk-Grafikprozessor NGP. Buffer the video frames in a video frame queue on each network graphics processor NGP.
Verwendung einer Mediationsfunktion zum Dejittern. Use a mediation function to dejitter.
(d) Content-Locking durch Synchronisation der Zeitpunkte, zu denen die Mediationsfunktion auf allen beteiligten NGPs neu startet (Framesynchronisationszeitpunkte), des Parameters Frequenzverhältnis (Videostreamfrequenz fs dividiert durch Displayfrequenz fd ) dieser Funktion und des Videoframes, das zu diesem Zeitpunkt aus der Videoframe-Warteschlange zum Ren- dern ausgewählt wird. (d) content locking by synchronizing the times at which the mediation function restarts on all participating NGPs (frame synchronization times), the frequency ratio parameter (video stream frequency f s divided by display frequency f d ) of that function and the video frame that at that time is out of the Videoframe queue is selected for rendition.
Im Rahmen der Erfindung wird zum Synchronisieren der Uhren auf den Netzwerk-Grafikprozessoren NGP vorzugsweise das Precision Time Proto- col (PTP), auch bekannt als IEEE 1588-2008, benutzt. Es ist ein Netzwerk- Protokoll, das die Synchronizität der Uhrzeiteinstellungen mehrerer Geräte in einem Computernetzwerk bewirkt. Es ist ein Protokoll, das dazu verwendet wird, die Uhren von Computern in einem paketvermittelten Computernetzwerk mit variabler Latenzzeit zu synchronisieren. Die Computer des Netzwerks sind in einer Master-Slave-Architektur organisiert. Das Synchronisationsprotokoll bestimmt den Zeit-Offset der Slave-Uhren relativ zu der Master-Uhr. For synchronizing the clocks on the network graphics processors NGP, the invention preferably uses the Precision Time Protocol (PTP), also known as IEEE 1588-2008. It is a network Protocol that synchronizes the clock settings of multiple devices on a computer network. It is a protocol used to synchronize the clocks of computers in a packet-switched computer network with variable latency. The computers of the network are organized in a master-slave architecture. The synchronization protocol determines the time offset of the slave clocks relative to the master clock.
Im Rahmen der Erfindung kann das PTP zum Synchronisieren der ver- schiedenen Netzwerk-Grafikprozessoren NGP verwendet werden. Hierzu dient ein Netzwerk-Grafikprozessor NGP als Referenz (PTP Master) und die Uhren aller anderen Netzwerk-Grafikprozessoren NGP werden mit hoher Genauigkeit nach diesem PTP Master synchronisiert. Die Zeit des PTP Masters wird als Systemzeit bezeichnet. Die Zeitabweichungen der Uhren der Netzwerk-Grafikprozessoren NGP von der Uhr des PTP Masters können unter 100 με gehalten werden. Within the scope of the invention, the PTP can be used to synchronize the various network graphics processors NGP. This is done using a network graphics processor NGP as reference (PTP master) and the clocks of all other network graphics processors NGP are synchronized with high accuracy for this PTP master. The time of the PTP master is called the system time. The time deviations of the clocks of the network graphics processors NGP from the clock of the PTP master can be kept below 100 με.
Grundsätzlich könnte man daran denken, einen Contentlock, d.h. eine Contentsynchronisation, mit einer exakten Systemzeit und auf Basis der Zeitstempel von Videoframes zu realisieren. Ein Videoframe beinhaltet den kodierten Inhalt eines kompletten Videoframes einer bestimmten Videobildquelle S. Jedes Videoframe ist durch den Zeitstempel in dem RTP (Real-time Transport Protocol) Paket-Header eindeutig identifiziert. Es wurde jedoch festgestellt, dass viele Implementierungen von RTP unzu- verlässige oder falsche Zeitstempel haben. Wegen dieser Unsicherheit der Zeitstempel wird der Zeitstempel im Rahmen der Erfindung für keinen Zweck benutzt, der mit seiner Zeitangabe zusammenhängt, sondern er wird nur als Kennung (absolute Framekennnummer) für das Videoframe benutzt. In principle, one might think of having a contentlock, i. a content synchronization to realize with an exact system time and based on the timestamps of video frames. A video frame includes the encoded content of a complete video frame of a particular video image source S. Each video frame is uniquely identified by the time stamp in the RTP (Real-time Transport Protocol) packet header. However, it has been found that many implementations of RTP have unreliable or incorrect timestamps. Because of this uncertainty of the timestamps, the timestamp is not used within the scope of the invention for any purpose related to its timing, but is used only as an identifier (absolute frame identification number) for the video frame.
Erfindungsgemäß erfolgt die Realisierung des Contentlock, d.h. die Contentsynchronisation, mittels Puffern von Videoframes in einer Videoframe- Warteschlange und eines Framesynchronisationsprozesses, der eine Mediationsfunktion verwendet. Diese Komponenten und Konzepte werden im Folgenden erläutert. Die Videoframes eines kodierten Videosignals, d.h. einer Videobildquelle S, das über ein Computernetzwerk LAN verteilt wird, treffen nicht in zeitlich äquidistanter Weise bei den verschiedenen Netzwerk-Grafikprozessoren NGP der Displays D ein. Die Videoframes können bündel- oder stoßweise auftreten, und danach kann es einen Zeitraum geben, in dem keine Videoframes ankommen. Im Falle einer Videobildquelle S mit einer Framerate von 50 Hz beträgt die durchschnittliche Periodendauer, mit der die Videoframes eintreffen, 20 ms, wenn dieser Mittelwert über eine ausreichend lange Zeit von beispielsweise 2 s ermittelt wird. Über kürzere Zeitintervalle betrachtet können die Videoframes in zeitlichen Abständen ein- treffen, die viel kürzer oder viel länger als 20 ms sind. Diese zeitlichen Fluktuationen werden Videojitter genannt. Jitter bezeichnet einen nicht zeitlich gleichmäßigen Abstand von Videoframes beim Darstellen aufeinanderfolgender Videoframes. Die Ursachen des Jitters sind im Wesentlichen die Dekodierer, das Netzwerk LAN und die Netzwerk-Grafikprozessoren NGP, aber auch andere Komponenten wie die Kodierer EC können zum Jitter beitragen. Der Jitter macht es erforderlich, den ankommenden Videostream zu entjittern, damit bewegte Inhalte ohne Jitterartefakte dargestellt werden können. Dazu werden die dekodierten Videoframes des Videostreams in einer Videoframe-Warteschlange 2 gepuffert. Im Rahmen der Erfindung wird diese Videoframe-Warteschlange 2 bevorzugt als Ringpuffer implementiert, da hier umlaufend neu Videoframes eingetragen und Videoframes zum Rendern entnommen werden können, ohne dass diese umkopiert werden müssen. Die Figur 7 zeigt eine solche als Ringpuffer implementierte Videoframe- Warteschlange 2. Der Ringpuffer hat eine feste Anzahl von Plätzen für mögliche Einträge (in dem Beispiel von Figur 7 sechs Plätze mit den Indizes 0 bis 5). Ein Ringpuffer wird in Software als Array realisiert, wobei die Ringstruktur durch die Behandlung von Put- und Get-Pointer erreicht wird. According to the invention, the realization of the contentlock, ie the content synchronization, takes place by means of buffers of video frames in a video frame. Queue and a frame synchronization process using a mediation function. These components and concepts are explained below. The video frames of a coded video signal, ie a video picture source S distributed over a computer network LAN, do not arrive at the various network graphics processors NGP of the displays D in a temporally equidistant manner. The video frames may be bursty or bursty, and then there may be a period when no video frames arrive. In the case of a video image source S with a frame rate of 50 Hz, the average period of time with which the video frames arrive is 20 ms, if this average value is determined over a sufficiently long time, for example 2 s. Viewed over shorter time intervals, the video frames can arrive at time intervals that are much shorter or much longer than 20 ms. These temporal fluctuations are called video jitter. Jitter refers to a non-uniform spacing of video frames when displaying consecutive video frames. The causes of the jitter are essentially the decoders, the network LAN and the network graphics processors NGP, but other components such as the encoders EC can contribute to the jitter. The jitter makes it necessary to de-jitter the incoming video stream so that moving content can be displayed without jitter artifacts. For this, the decoded video frames of the video stream are buffered in a video frame queue 2. In the context of the invention, this video frame queue 2 is preferably implemented as a ring buffer, since new video frames can be entered here all the time and video frames can be removed for rendering, without having to copy them over. Figure 7 shows such a video frame queue 2 implemented as a ring buffer. The ring buffer has a fixed number of possible entries slots (six places with indices 0 through 5 in the example of Figure 7). A ring buffer is realized in software as an array, whereby the ring structure is achieved by the treatment of put and get pointers.
Pro Videobildquelle S wird in jedem Netzwerk-Grafikprozessor NGP eine Videoframe-Warteschlange 2, beispielsweise ein Ringpuffer gemäß Figur 7, vorgesehen, an den die Videoframes der Videobildquelle S übertragen werden. Bei unkodierten Videobildquellen S werden die Videoframes direkt in die Videoframe-Warteschlange 2 eingetragen, bei kodierten Videobildquellen S werden die Videoframes zuvor mit dem Dekodierer 3 dekodiert. Der Dekodierer 3 empfängt einen kodierten Stream von Videoframes, führt das Dekodieren durch und trägt die dekodierten Videofra- mes 4 in den Ringpuffer ein. Das erste Videoframe wird in Platz 0 des Ringpuffers eingetragen, das nächste Videoframe in Platz 1 und so weiter, bis der letzte Platz 5 belegt wurde und es wieder von vorne bei Platz 0 beginnt. Das Auslesen der Speicherplätze des Ringpuffers erfolgt mit dem Renderer 5 bzw. einem Renderprozess, der den Backpuffer 6 mit Videofra- mes beliefert. Das Dekodieren mit einem Dekodierer 3 und das Rendern mit einem Renderer 5 in Figur 7 findet in zwei verschiedenen Prozessen in jedem Netzwerk-Grafikprozessor NGP statt. Die Renderer 5 entnehmen jeweils das von der Mediationsfunktion ausgewählte Videoframe zum Rendern aus dem jeweiligen Videoframe-Warteschlange 2, ältere Einträge in der Videoframe-Warteschlange 2 sind bereits verarbeitet und gelten deshalb als invalidiert, d.h. ihre Plätze in der Warteschlange sind für neue Einträge freigegeben. Der Put-Pointer der Videoframe-Warteschlange 2 zeigt auf den freien Platz für das nächste vom Dekodierer 3 bereitgestellte Videoframe 4 und der Get-Pointer auf den Platz, den die Mediationsfunk- tion zum Abholen des nächsten zu rendernden Videoframes bestimmt hat. Ein Eintrag in die Videoframe-Warteschlange 2 wird invalidiert, wenn der Get-Pointer durch die Mediationsfunktion auf einen anderen Platz der Videoframe-Warteschlange 2 gesetzt wird. For each video image source S, a video frame queue 2, for example a ring buffer according to FIG. 7, is provided in each network graphics processor NGP, to which the video frames of the video image source S are transmitted. In uncoded video image sources S, the video frames are entered directly into the video frame queue 2, in coded video image sources S, the video frames are previously decoded with the decoder 3. The decoder 3 receives a coded stream of video frames, performs the decoding and enters the decoded video frames 4 in the ring buffer. The first video frame is entered in position 0 of the ring buffer, the next video frame in position 1 and so on, until the last place 5 has been occupied and it starts again from the beginning at position 0. The memory locations of the ring buffer are read out with the renderer 5 or a rendering process which supplies the back buffer 6 with video frames. Decoding with a decoder 3 and rendering with a renderer 5 in Figure 7 takes place in two different processes in each network graphics processor NGP. The renderers 5 respectively extract the video frame selected by the mediation function for rendering from the respective video frame queue 2, older entries in the video frame queue 2 have already been processed and are therefore invalidated, ie their places in the queue are released for new entries. The put pointer of the video frame queue 2 points to the free space for the next video frame 4 provided by the decoder 3 and the get pointer to the location which the mediation function has designated for fetching the next video frame to be rendered. An entry in the video frame queue 2 is invalidated when the Get pointer is set by the mediation function to a different location of the video frame queue 2.
Es ist für die Contentsynchronisation, die mit einem weiter unten beschriebenen Framesynchronisationsprozess durchgeführt wird, wichtig, dass der Renderer 5 bzw. der Renderprozess als Abnehmer der Videoframe-Warteschlange 2 (der Ringpuffer in Figur 7) die in der Videoframe- Warteschlange 2 gespeicherten Videoframes schnell genug zum Rendern aus der Videoframe-Warteschlange 2 entnimmt, sodass ein in der Video- frame-Warteschlange 2 mit einem Videoframe belegter Speicherplatz, das später noch zum Rendern benötigt wird, nicht von einem neuen Dekodier- Schreibvorgang aus dem Dekodierer 3 überschrieben wird. Dies wird in einem Videosynchronisationsmodul durch eine Mediationsfunktion erreicht, die zwischen der Videostreamfrequenz fs des ankommenden Videostreams der Videobildquelle S und der vertikalen Displayfrequenz (auch als vertikale Frequenz, Displayfrequenz, Bildfrequenz, Bildwiederholfrequenz oder Refreshfrequenz bezeichnet) fd des Displays D vermittelt. Das Videosynchronisationsmodul ist ein Teil der Software, die die erfindungsgemäße Synchronisation implementiert, und ist ein Teil des Rendering in dem Netzwerk-Grafikprozessor NGP. Die Mediationsfunktion sorgt für einen Geschwindigkeitsausgleich zwischen Erzeuger (Dekodierer 3) und Abnehmer (Renderer 5) der Einträge in die Videoframe-Warteschlange 2. Sie bestimmt, welches Videoframe aus der Videoframe-Warteschlange 2 ausgelesen und weiterbehandelt (von dem Renderer 5 geren- dert) wird. It is important for the content synchronization performed with a frame synchronization process described below that the renderer 5, or the rendering process as the consumer of the video frame queue 2 (the ring buffer in FIG. 7), quickly store the video frames stored in the video frame queue 2 takes enough to render from the video frame queue 2, so that a memory space occupied in the video frame queue 2 with a video frame, which is later required for rendering, is not overwritten by a new decoding write operation from the decoder 3. This is achieved in a video synchronization module by a mediation function which mediates between the video streaming frequency f s of the incoming video stream of the video image source S and the vertical display frequency (also referred to as vertical frequency, display frequency, frame rate, refresh rate or refresh frequency) f d of the display D. The video synchronization module is part of the software implementing the synchronization according to the invention and is part of the rendering in the network graphics processor NGP. The mediation function provides speed equalization between generator (decoder 3) and consumer (renderer 5) of the entries in the video frame queue 2. It determines which video frame is read from the video frame queue 2 and further processed (modified by the renderer 5). becomes.
Eine optimale Größe der Videoframe-Warteschlange 2 liegt dann vor, wenn sie im Betrieb einen mittleren Füllgrad von ca. 50 % aufweist, d.h. halb mit validen und halb mit invaliden (abgehandelten) Videoframes 4 gefüllt ist. In diesem Fall sind einerseits genug Videoframes 4 in der Videoframe- Warteschlange 2 zwischengespeichert, sodass das Rendern dejittert durchgeführt werden kann, und andererseits ist sie halb leer und hat somit ausreichend freie Speicherplätze, um schnell nacheinander eintreffende Videoframes 4 aus dem Videostream Zwischenspeichern zu können, ohne dass die Videoframe-Warteschlange 2 überläuft. In der praktischen Anwendung kommt man mit einer Videoframe-Warteschlange 2 aus, die ca. 5 bis 15 Plätze hat. Wenn doch größere zeitliche Verschiebungen der Videoframes 4 als beispielsweise +/- 3 Videoframes auftreten sollten, kann die Videoframe-Warteschlange 2 vergrößert werden. An optimal size of the video frame queue 2 is present when it has an average filling level of about 50% in operation, ie half filled with valid and half with invalid (negotiated) video frames 4. In this case, on the one hand, enough video frames 4 are cached in the video frame queue 2 so that the rendering can be done dejitter, and on the other hand, it is half empty and has Thus, enough free memory space to quickly successive incoming video frames 4 from the video stream to be able to cache without the video frame queue 2 overflows. In practical application, you will come out with a video frame queue 2, which has about 5 to 15 seats. If larger time shifts of the video frames 4 than, for example, +/- 3 video frames occur, the video frame queue 2 can be increased.
Die vertikale Displayfrequenz fd des Displays D wird mit anderen Display- einstellungen von dem Display D selbst vorgegeben. Während des Initialstarts der Displaywand 1 bzw. des Displays D wird fd von dem "Display Data Channel" (DDC) Protokoll und dem begleitenden Standard "Extended Display Identification Data" (EDID) definiert. Die Displayeinstellungen und somit fd werden während des Betriebs des Systems nicht verändert. Die Periode Td ergibt sich als Td = l / fd . Die vertikale Displayfrequenz fd des Displays D liegt üblicherweise in dem Bereich 50 Hz < fd < 100 Hz , kann diesen Bereich aber auch unter- oder überschreiten. The vertical display frequency f d of the display D is preset with other display settings of the display D itself. During the initial start of the display wall 1 or of the display D, f d is defined by the "Display Data Channel" (DDC) protocol and the accompanying standard "Extended Display Identification Data" (EDID). The display settings and thus f d are not changed during operation of the system. The period T d results as T d = l / f d . The vertical display frequency f d of the display D is usually in the range 50 Hz <f d <100 Hz, but can also under-run or exceed this range.
Die Videostreamfrequenz fs des Videostreams ist die Rate der dekodier- ten Videoframes 4 am Ausgang des Dekodierers 3 bzw. am Eingang der Videoframe-Warteschlange 2. Die Periode Ts ergibt sich als Ts = l / fs . Idealerweise ist fs = fd , aber es sind erhebliche Unterschiede möglich; beispielsweise kann der eintreffende Videostream eine Rate fs von 60 Hz haben, während die vertikale Displayfrequenz fd nur 50 Hz beträgt. Zudem kann die "momentane" (oder "differentielle") Videostreamfrequenz fs des Videostreams auch im Laufe der Zeit schwanken, weil verschiedene Videoframes einen unterschiedlichen Weg durch das Netzwerk LAN nehmen können oder weil die Durchgangszeiten aufgrund einer sich verändernden Netzwerkbelastung schwanken können (siehe auch den weiter oben erläuterten Jitter). Eine weitere wichtige Ursache für eine schwankende Videostreamfrequenz fs eines Videostreams sind Unterschiede in den Kodierern EC oder unterschiedliche Auslastungen der CPUs oder GPUs der verschiedenen Netzwerk-Grafikprozessoren NGP. Deshalb ist im allgemeinen Fall fs fd , wobei sowohl fs < fd als auch fs > fd möglich ist. Darüber hinaus kann sich der Unterschied zwischen fs und fd im Betrieb der Displaywand 1 zeitlich verändern. The video stream frequency f s of the video stream is the rate of the decoded video frames 4 at the output of the decoder 3 or at the input of the video frame queue 2. The period T s results as T s = 1 / f s . Ideally, f s = f d , but significant differences are possible; for example, the incoming video stream may have a rate f s of 60 Hz, while the vertical display frequency f d is only 50 Hz. In addition, the "current" (or "differential") video streaming frequency f s of the video stream may also vary over time because different video frames may take a different route through the network LAN or because the throughput times may vary due to changing network load (see also FIG the jitter explained above). Another important cause of a fluctuating video streaming frequency f s of a video stream is differences in the encoders EC or different utilization of the CPUs or GPUs of the various network graphics processors NGP. Therefore, in the general case f s f d , where both f s <f d and f s > f d is possible. In addition, the difference between f s and f d in the operation of the display wall 1 can change over time.
In den Figuren 8 bis 12 wird das Rendern eines Videostreams an einem Netzwerk-Grafikprozessor NGP für die drei unterschiedlichen Fälle In Figs. 8-12, rendering of a video stream to a network graphics processor NGP is illustrated for the three different cases
(1) fs = fd (1) f s = fd
(2) fs < fd (3) fs > fd erläutert. (2) f s <f d (3) f s > f d .
Die Figur 8 zeigt den Fall (1), d.h. die Verarbeitung eines Videostreams auf einem Netzwerk-Grafikprozessor NGP für fs = fd . Dargestellt sind die als Rechteckimpulse veranschaulichten Bildrückläufe VR des Displays D als Funktion der Zeit t und die Nummern N, N + l etc. der in den Backpuffer gerenderten Videoframes FR. In dieser idealen, in der Praxis kaum gegebenen Situation wird zwischen zwei aufeinanderfolgenden Bildrückläufen VR des Displays D genau ein Videoframe des Videostreams gerendert, kein Videoframe muss ausgelassen werden und kein Videoframe muss länger als während der Zeitdauer Td dargestellt werden. Dies trifft in den Fällen (2) und (3) nicht zu, die in den Figuren 9 bis 12 dargestellt werden. Figure 8 shows case (1), ie the processing of a video stream on a network graphics processor NGP for f s = f d . Shown are the image returns VR of the display D illustrated as rectangular pulses as a function of the time t and the numbers N, N + 1, etc. of the video frames FR rendered in the back buffer. In this ideal situation, barely given in practice, exactly one video frame of the video stream is rendered between two successive picture returns VR of the display D, no video frame has to be left out and no video frame has to be displayed longer than during the period T d . This is not the case in cases (2) and (3) shown in FIGS. 9 to 12.
Die Figur 9 zeigt den Fall (2), d.h. das Rendern eines Videostreams auf einem Netzwerk-Grafikprozessor NGP für fs < fd . Dargestellt sind die als Rechteckimpulse veranschaulichten Bildrückläufe VR des Displays D als Funktion der Zeit t und die Nummern N, N + l etc. der in den Backpuffer 6 gerenderten Videoframes FR. Im Unterschied zu Figur 8 fallen die Zeit- punkte, zu denen die Videoframes FR in den Backpuffer gerendert werden, nicht auf die Zeitpunkte der Bildrückläufe VR. Die in den Backpuffer 6 gerenderten Videoframes FR sind noch nicht sichtbar, d.h. werden noch nicht auf dem Display D dargestellt, sondern erst, wenn (nach dem Durchführen der Swap-Puffer-Funktion) die Bildinformation im Frontpuffer liegt. Die Zeitpunkte des Renderings eines Videoframes und des Sichtbarwerdens des Videoframes sind im allgemeinen verschieden. Hier wird nur zum Zwecke der Veranschaulichung des Prinzips idealerweise angenommen, dass der Videostream absolut jitterfrei ist, wenn die Videoframes aus dem Dekodierer 3 kommen, d.h. sie stehen mit einer konstanten Videostreamfrequenz fs zum Rendern in den Backpuffer 6 zur Verfügung. Es kann offensichtlich nicht sein, dass in jeder Periode Td zwischen zwei Bildrückläufen VR ein neues Videoframe dargestellt, d.h. als sichtbar werdendes Videoframes FV in den Frontpuffer kopiert wird, denn dies würde der Bedingung fs < fd widersprechen. Aus Figur 9 wird ersichtlich, wann in diesem Fall die Videoframes tatsächlich auf dem Display D sichtbar werden, und dies ist in Figur 10 dargestellt. Figure 9 shows case (2), ie rendering a video stream on a network graphics processor NGP for f s <f d . Shown are the image returns VR of the display D illustrated as rectangular pulses as a function of the time t and the numbers N, N + 1, etc. of the video frames FR rendered in the back buffer 6. In contrast to FIG. 8, the time points at which the video frames FR are rendered in the back buffer, not at the times of the picture returns VR. The video frames FR rendered in the back buffer 6 are not yet visible, ie are not yet shown on the display D, but only when (after performing the swap buffer function) the image information is in the front buffer. The timing of the rendering of a video frame and the visibility of the video frame are generally different. Here is only ideally assumed for purposes of illustration of the principle that the video stream is completely jitter if the video frames coming from the decoder 3, that is, they are at a constant video stream frequency f s for the rendering in the back buffer 6 is available. It obviously can not be that in each period T d between two picture returns VR a new video frame is displayed, ie copied as a visible video frame FV in the front buffer, because this would contradict the condition f s <f d . From FIG. 9 it can be seen when in this case the video frames actually become visible on the display D, and this is shown in FIG.
Die Figur 10 zeigt das Sichtbarwerden der in den Backpuffer 6 gerender- ten Videoframes FR von Figur 9 als auf dem Display D sichtbar werdende Videoframes FV. Man erkennt, dass unvermeidbar manche Videoframes (hier die Videoframes N+l und N+3) während der Zeitdauer 2 x Td , d.h. während zweier Framezeiten dargestellt werden (oder anders ausgedrückt, sie werden nochmal dargestellt), um zu kompensieren, dass Ts > Td (d.h. fs < fd ) ist. Dies führt im allgemeinen zu einer etwas sprunghaften Bewegung eines dargestellten bewegten Objektes, beispielsweise eines Teststreifens. Nur wenn Ts ein ganzzahliges Vielfaches von Td ist, wird die Bewegung gleichmäßig sein, aber nur mit größeren Weitersprüngen eines dargestellten bewegten Objekts von einer Bildphase auf die nächste um mehrere Pixel als im Fall (1), wenn die Geschwindigkeit des dargestellten bewegten Objektes in beiden Fällen dieselbe ist. Die Figur 11 zeigt den Fall (3), d.h. die Darstellung eines Videostreams auf einem Netzwerk-Grafikprozessor NGP für fs > fd . Dargestellt sind die als Rechteckimpulse veranschaulichten Bildrückläufe VR des Displays D als Funktion der Zeit t und die Nummern N, N + l etc. der in den Backpuffer 6 gerenderten Videoframes FR. In diesem Fall kommt es vor, dass die (idealen) Renderingzeitpunkte zweier aufeinanderfolgender Videoframes in dieselbe Periode Td zwischen zwei aufeinanderfolgende Bildrückläufe VR fallen können, sodass das erste Videoframe vor dem nächsten Bildrücklauf VR von dem zweiten Videoframe überschrieben wird. Das bedeutet im Ergebnis, dass das erste Videoframe nicht sichtbar, sondern ausgelassen wird. Aus Figur 11 wird deutlich, welche Videoframes auf dem Display D dargestellt werden, und dies ist in Figur 12 veranschaulicht. FIG. 10 shows the visibility of the video frames FR of FIG. 9, which are stored in the back buffer 6, as video frames FV becoming visible on the display D. It will be appreciated that some video frames (here the video frames N + 1 and N + 3) are inevitably displayed during the time period 2 x T d , ie during two frame times (or in other words, they are displayed again) to compensate for T s > T d (ie, f s <f d ). This generally leads to a somewhat erratic movement of a moving object shown, for example a test strip. Only if T s is an integer multiple of T d will the motion be uniform, but only with larger jumps of a moving object shown from one image phase to the next by several pixels than in case (1), if the velocity of the moving object shown is the same in both cases. FIG. 11 shows case (3), ie the representation of a video stream on a network graphics processor NGP for f s > f d . Shown are the image returns VR of the display D illustrated as rectangular pulses as a function of the time t and the numbers N, N + 1, etc. of the video frames FR rendered in the back buffer 6. In this case, it happens that the (ideal) rendering times of two consecutive video frames can fall within the same period T d between two consecutive image returns VR such that the first video frame before the next image retrace VR is overwritten by the second video frame. As a result, the first video frame is not visible, but left out. It is clear from FIG. 11 which video frames are displayed on the display D, and this is illustrated in FIG.
Die Figur 12 zeigt das Sichtbarwerden der in den Backpuffer 6 gerender- ten Videoframes FR von Figur 11 als auf dem Display D sichtbar werdende Videoframes FV. Daraus wird deutlich, dass manche Videoframes (in dem dargestellten Beispiel die Videoframes N+2, N+5 und N+8) unvermeidbar ausgelassen werden, um zu kompensieren, dass Ts < Td (d.h. fs > fd ) ist. Auch in diesem Fall wird die Bewegung eines dargestellten bewegten Objektes, beispielsweise eines Teststreifens, nicht gleichmäßig sein, ausgenommen wenn Td ein ganzzahliges Vielfaches von Ts ist. FIG. 12 shows the visibility of the video frames FR of FIG. 11 stored in the back buffer 6 as video frames FV becoming visible on the display D. From this it is clear that some video frames (in the example shown the video frames N + 2, N + 5 and N + 8) are unavoidably skipped to compensate for T s <T d (ie f s > f d ). Also in this case, the movement of a moving object shown, for example a test strip, will not be uniform, except when T d is an integer multiple of T s .
Die vorstehenden Betrachtungen gelten offensichtlich bereits für die Darstellung eines Videos (bzw. eine Videoeinblendung IS) auf nur einem Netzwerk-Grafikprozessor NGP. Wenn es nun darum geht, einen Video- stream auf mehreren Netzwerk-Grafikprozessoren NGP für die Darstellung des Videos auf nicht nur einem, sondern auf mehreren Displays D zu synchronisieren, ergibt sich unmittelbar die Anforderung, dass diejenigen Videoframes, die (in dem oben erläuterten Sinn) mehr als einmal darge- stellt oder ausgelassen werden, auf allen beteiligten Netzwerk-Grafikprozessoren NGP dieselben sein müssen, damit das Frametearing von einem Display zum anderen vermieden wird. Die folgenden Figuren veranschau- liehen die Synchronisation eines Videostreams auf mehreren Netzwerk- Grafikprozessoren NGP. The above considerations obviously already apply to the presentation of a video (or a video overlay IS) on only one network graphics processor NGP. When it comes to synchronizing a video stream on several network graphics processors NGP for the display of the video on not just one, but on multiple displays D, the immediate requirement is that those video frames (in the above-explained Meaning) have to be displayed or omitted more than once, NGP must be the same on all involved network graphics processors in order to avoid frametearing from one display to another. The following figures illustrate lent the synchronization of a video stream on several network graphics processors NGP.
In Figur 13 wird ein Beispiel betrachtet, in dem zwei Netzwerk-Grafikprozessoren NGP 1 und NGP 2 zum Darstellen eines Videostreams für den Fall fs < fd synchronisiert werden müssen. Die Figur 13 umfasst zwei Teile, nämlich einen ersten Teil (Figur 13a) mit den Videoframes N bis N+5 in dem Netzwerk-Grafikprozessor NGP 1 und einen zweiten Teil (Figur 13b) mit den Videoframes N+5 bis N+10 in dem Netzwerk-Grafikprozessor NGP 1. Die Figur 13b schließt sich also, mit einem dargestellten kleinen zeitlichen Überlapp, an die Figur 13a an. Die Figur 13 zeigt die Synchronisation von zwei Netzwerk-Grafikprozessoren NGP 1 und NGP 2 für den beispielhaften Fall fs = 40 Hz und fd = 50 Hz . Der Netzwerk-Grafikprozessor NGP 1 arbeitet als die Maschine, welche die Führung für den Synchronisationsablauf für eine bestimmte Videobildquelle S übernimmt. Er wird daher als Master und alle anderen Netzwerk-Grafikprozessoren NGP werden als Slaves bezeichnet. Beide, jeweils einem der Netzwerk-Grafikprozessoren NGP zugeordneten Displays D haben dieselbe vertikale Displayfrequenz fd . Die Grafikkarten der Netzwerk-Grafikprozessoren NGP sind synchronisiert, vorzugsweise framelocked oder genlocked, beispielsweise mit dem oben beschriebenen Hardwareverfahren. Das bedeutet, dass die Bildrücklaufsignale Vsync der verschiedenen Netzwerk-Grafikprozessoren NGP dieselbe Frequenz und dieselbe Phase haben. In Fig. 13, consider an example in which two network graphics processors NGP 1 and NGP 2 need to be synchronized to represent a video stream in the case f s <f d . Figure 13 comprises two parts, namely a first part (Figure 13a) with the video frames N to N + 5 in the network graphics processor NGP 1 and a second part (Figure 13b) with the video frames N + 5 to N + 10 in the Network graphics processor NGP 1. The figure 13b thus follows, with a small overlap shown time, to the figure 13a. FIG. 13 shows the synchronization of two network graphics processors NGP 1 and NGP 2 for the exemplary case f s = 40 Hz and f d = 50 Hz. The network graphics processor NGP 1 operates as the machine which takes the lead in the synchronization process for a particular video image source S. It is therefore called master and all other network graphics processors NGP are called slaves. Both displays D assigned to one of the network graphics processors NGP have the same vertical display frequency f d . The graphics cards of the network graphics processors NGP are synchronized, preferably framelocked or genlocked, for example with the hardware method described above. That is, the picture retrace signals Vsync of the various network graphics processors NGP have the same frequency and the same phase.
Die Figur 13 zeigt die als Rechteckimpulse veranschaulichten Bildrückläufe VR der zu den beiden Netzwerk-Grafikprozessoren NGP 1 und NGP 2 gehörenden Displays D als Funktion der Zeit t und darunter die Nummern N-1, N, N+l etc. der in den jeweils zu einem Netzwerk-Grafikprozessor NGP gehörenden Videoframe-Warteschlange 2 (Ringpuffer) geschriebenen und damit in der Videoframe-Warteschlange 2 zum Auslesen zur Verfügung stehenden Videoframes FW einer Videobildquelle S oder einer Videoeinblendung IS, d.h. der Videoframes, die aus der Videoframe-Warte- schlänge 2 zum Rendern in den Backpuffer 6 ausgelesen werden können. Durch Doppelpufferung und Swaplocking haben die Bildrückläufe VR der beiden Netzwerk-Grafikprozessoren NGP 1 und NGP 2 dieselbe Frequenz (vertikale Displayfrequenz fd ) und dieselbe Phase. Aufgrund der oben erläuterten Effekte, insbesondere unterschiedlicher Übertragungszeiten durch das Netzwerk LAN und die Dekodierer 3, treffen die einander entsprechenden Videoframes jedoch nicht zeitgleich aus den Dekodierern 3 bzw. in den Videoframe-Warteschlangen 2 ein, sondern mit einem zeitlichen Unterschied. In dem Beispiel von Figur 13 sind die Videoframes FW1 in der Videoframe-Warteschlange 2 des Netzwerk-Grafikprozessors NGP 1 um das 1,28-fache der Periode Ts der Videostreamfrequenz gegenüber den Videoframes FW2 in der Videoframe-Warteschlange 2 des Netzwerk- Grafikprozessors NGP 2 verzögert bzw. verspätet. Ferner ist die vertikale Displayfrequenz fd der Displays D verschieden von der Periode Ts der Videostreamfrequenz fs . Zudem können sowohl die relative zeitliche Verzögerung der Videoframes FW1 und FW2 als auch die Videostreamfrequenz fs und gegebenenfalls die vertikale Displayfrequenz fd der Displays D zeitlichen Schwankungen unterliegen. Alle diese Effekte können, wenn sie nicht kompensiert werden, dazu führen, dass auf den beiden Displays D der Netzwerk-Grafikprozessoren NGP 1 und NGP 2 zu einem Zeitpunkt unterschiedliche Videoframes dargestellt werden und somit ein Tearing- effekt auftritt. FIG. 13 shows the image returns VR, which are illustrated as rectangular pulses, of the displays D belonging to the two network graphics processors NGP 1 and NGP 2 as a function of the time t and below them the numbers N-1, N, N + 1 etc. in the respective ones video frames FW of a video image source S or a video overlay IS written to a video graphics processor NGP belonging to video frame queue 2 (ring buffer) and thus available for reading in the video frame queue 2, ie the video frames resulting from the video frame waiting 2 can be read out for rendering in the back buffer 6. Through double buffering and swaplocking, the image returns VR of the two network graphics processors NGP 1 and NGP 2 have the same frequency (vertical display frequency f d ) and the same phase. Due to the above-mentioned effects, in particular different transmission times through the network LAN and the decoder 3, but meet the corresponding video frames not simultaneously from the decoders 3 and in the video frame queues 2, but with a time difference. In the example of Fig. 13, the video frames FW1 in the video frame queue 2 of the network graphics processor NGP 1 are 1.28 times the period T s of the video streaming frequency compared to the video frames FW2 in the video frame queue 2 of the network graphics processor NGP 2 delayed or delayed. Furthermore, the vertical display frequency f d of the displays D is different from the period T s of the video streaming frequency f s . In addition, both the relative time delay of the video frames FW1 and FW2 and the video streaming frequency f s and possibly the vertical display frequency f d of the displays D are subject to temporal variations. All of these effects, if not compensated, may result in different video frames being displayed on the two displays D of the network graphics processors NGP 1 and NGP 2 at a time, resulting in a tearing effect.
Aufgrund von Doppelpufferung und Swaplocking werden Videoframes nur mit dem nächsten Bildrücklauf (VR, der mit der vertikalen Displayfrequenz fd durchgeführt wird, auf den Displays D sichtbar, nachdem sie aus dem jeweiligen Netzwerk-Grafikprozessor NGP als in den Backpuffer 6 geren- dertes Videoframe FR in den jeweiligen Backpuffer 6 geschrieben wurden und dann mit dem nächsten Bildrücklauf VR als sichtbar werdendes Video- frame FV auf den Displays D sichtbar werden. Wenn wie in dem Beispiel von Figur 13 fs < fd ist und fs kein ganzzahliges Vielfaches von fd ist, passen die Zeitpunkte des Sichtbarwerdens der Videoframes FV nicht in das von der vertikalen Displayfrequenz fd vorgegebene Zeitraster der Displays D. In Figur 13 würde ohne die erfindungsgemäße Contentsynchronisation beispielsweise der Netzwerk-Grafikprozessor NGP 1 das Videoframe FW1 = N + l als zu renderndes Videoframe FR auswählen und nach dem nächsten Bildrücklauf VR mit der relativen Vsynczählernummer NSR = 1 (die relative Vsynczählernummer ist die laufende Rücklaufzählernummer) auf dem Display Dl darstellen, während zeitgleich der Netzwerk-Grafikprozessor NGP 2 das Videoframe FW2 = N-l als zu renderndes Videoframe FR auswählen und nach dem nächsten Bildrücklauf VR mit der relativen Vsynczählernummer NSR = 1 auf dem Display D2 darstellen würde. Das führt zu einem Frametearing in der Darstellung eines auf den Displays Dl und D2 dargestellten bewegten Objekts, weil nach dem Bildrücklauf VR mit der relativen Vsynczählernummer NSR = 1 auf den Displays Dl und D2 diese verschiedenen Videoframes dargestellt werden. Etwas später würde in dem Beispiel von Figur 13 dann beispielsweise der Netzwerk-Grafikprozessor NGP 1 für das Display Dl das Videoframe FW1 = N+8 zum Rendern auswählen und zeitgleich der Netzwerk-Grafikprozessor NGP 2 für das Display D2 das Videoframe FW2 = N+7, was ebenfalls zu einem Frametearing führt, weil nach dem Bildrücklauf VR mit der relativen Vsynczählernummer NSR = 10 auf den Displays Dl und D2 diese verschiedenen Videoframes dargestellt werden. Due to double buffering and swaplocking, video frames are only visible on the displays D after the next frame return (VR, which is carried out with the vertical display frequency f d ), after being converted from the respective network graphics processor NGP into the video frame FR are written to the respective back buffer 6 and then become visible as the video frame FV becoming visible on the displays D with the next image retrace VR If, as in the example of Figure 13, f s <f d and f s is not an integer multiple of f d , the times of visualization of the video frames FV do not fit in the predetermined from the vertical display frequency f d time grid of the display D. would In Figure 13, without the inventive content synchronization, for example, the network graphics processor NGP 1, the video frame FW1 = N + Select l than-rendering video frame FR and after the next frame flyback VR relative to the Vsynczählernummer NSR = 1 (the relative Vsynczählernummer is the current Rücklaufzählernummer) represent on the display Dl, while at the same time the network graphics processor NGP 2 select the video frame FW2 = Nl as to be rendered video frame FR and after the next picture return VR with the relative Vsynczählernummer NSR = 1 on the display D2. This leads to a frame reading in the representation of a moving object represented on the displays D1 and D2, because these different video frames are displayed on the displays D1 and D2 after the image return VR with the relative vsync counter number NSR = 1. Somewhat later, in the example of FIG. 13, for example, the network graphics processor NGP 1 for the display D1 would select the video frame FW1 = N + 8 for rendering and at the same time the network graphics processor NGP 2 for the display D2 the video frame FW2 = N + 7 , which also leads to a frame reading, because after the picture return VR with the relative Vsynczählernummer NSR = 10 on the displays Dl and D2 these different video frames are displayed.
Die erfindungsgemäße Framesynchronisation mittels einer im Folgenden beschriebene Mediationsfunktion ist genau derart ausgebildet, dass in einer solchen Situation die tatsächlichen Zeitpunkte des Sichtbarwerdens auf den Displays D eine beste Näherung zu den idealen Zeitpunkten sind und das Frametearing vermieden wird, sodass auf den an der Darstellung des Videostreams einer Videobildquelle S beteiligten Displays D (in Figur 13 die Displays Dl und D2) zeitgleich dieselben Videoframes FR in den Backpuffer 6 gerendert werden. Hierzu dienen die Zwischenspeicherung mittels der Videoframe-Warteschlangen 2 und eine weiter unten erläuterte Framesynchronisation mittels einer Mediationsfunktion, die durch einen relativen Vsynczähler NSR identifizierte Bildrückläufe VR auf einen lokalen relativen Videoframezähler NFR für die zu verarbeitenden, d.h. zu rendernden Videoframes FR abbildet, wobei beide Zähler NSR und NFR zu einem gemeinsamen Framesynchronisationszeitpunkt TS bei Null begin- nen. Der Begriff "abbilden" ist hierbei im mathematischen Sinn zu verstehen, d.h. die Mediationsfunktion stellt eine Beziehung zwischen dem relativen Vsynczähler NSR als dem Funktionsargument (unabhängige Variable) und dem lokalen relativen Videoframezähler NFR als Funktionswert (abhängige Variable) her, die jedem Wert des relativen Vsynczählers NSR einen Wert des lokalen relativen Videoframezählers NFR zuordnet. The frame synchronization according to the invention by means of a mediation function described below is designed precisely such that in such a situation, the actual times of becoming visible on the displays D are a best approximation to the ideal times and the Frametearing is avoided, so that on the presentation of the video stream a video image source S displays D (in Figure 13, the displays Dl and D2) at the same time the same video frames FR in the back buffer 6 are rendered. For this purpose, the intermediate storage by means of the video frame queues 2 and a frame synchronization explained below by means of a mediation function, by a relative Vsynczähler NSR identified image returns VR to a local relative video frame counter NFR for the processed, that is to be rendered video frames FR maps, both counters NSR and NFR begin at a common frame synchronization time TS at zero. The term "mapping" is to be understood in the mathematical sense, ie the mediation function establishes a relationship between the relative vsync counter NSR as the function argument (independent variable) and the local relative video frame counter NFR as a function value (dependent variable) corresponding to each value of the relative Vsynczählers NSR assigns a value of the local relative video frame counter NFR.
Die Werte der Zähler NSR und NFR sind in Figur 13 ebenfalls dargestellt. Der Zähler NSR für die Bildrückläufe VR zählt von dem Framesynchronisationszeitpunkt TS ab bei jedem Bildrücklauf VR jeweils um eins hoch. Der Zähler NFR für die zu rendernden Videoframes FR zählt dagegen nicht kontinuierlich um eins hoch, sondern ergibt sich in der weiter unten erläuterten Weise mittels einer Mediationsfunktion. Das Ergebnis dieser Framesynchronisation, d.h. die Werte des Zählers NFR für die zu rendernden Videoframes FR in Abhängigkeit von der Zeit t, ist in Figur 13 oben darge- stellt, ebenso wie die im Ergebnis von beiden Netzwerk-Grafikprozessoren NGP 1 und NGP 2 zeitgleich gerenderten und somit zeitgleich von den zugehörigen Displays Dl und D2 identischen, d.h. ohne Frametearing dargestellten Videoframes FR, die in Figur 13 unten eingezeichnet sind. In dem oben beispielhaft genannten Zeitpunkt, in dem ohne erfindungs- gemäße Framesynchronisation der Netzwerk-Grafikprozessor NGP 1 das Videoframe FW1 = N+l als zu renderndes Videoframe FR auswählen würde, während zeitgleich das Display D2 zu dem Netzwerk-Grafikprozessor NGP 2 das Videoframe FW2 = N-l als zu renderndes Videoframe FR darstellen würde, ist NSR = 1 und NFR = 0 und das von beiden Netzwerk- Grafikprozessoren NGP 1 und NGP 2 zeitgleich als zu renderndes Videoframe FR ausgewählte und somit nach dem Bildrücklauf NSR = 1 von beiden Displays Dl und D2 synchron dargestellte Videoframe ist das Video- frame FR = N-l. In dem oben beispielhaft genannten späteren Zeitpunkt, in dem ohne erfindungsgemäße Framesynchronisation der Netzwerk- Grafikprozessor NGP 1 das Videoframe FW1 = N+8 als zu renderndes Videoframe FR auswählen würde, während zeitgleich das Display D2 zu dem Netzwerk-Grafikprozessor NGP 2 das Videoframe FW2 = N+7 als zu renderndes Videoframe FR darstellen würde, ist NSR = 10 und NFR = 8 und das von beiden Netzwerk-Grafikprozessoren NGP 1 und NGP 2 zeitgleich als zu renderndes Videoframe FR ausgewählte und somit nach dem Bildrücklauf NSR = 10 von beiden Displays Dl und D2 synchron darge- stellte Videoframe ist das Videoframe FR = N+6. The values of the counters NSR and NFR are also shown in FIG. The counter NSR for the picture returns VR counts up from the frame synchronization time TS on each picture return VR by one. By contrast, the counter NFR for the video frames FR to be rendered does not continuously count up by one, but results in the manner explained below by means of a mediation function. The result of this frame synchronization, ie the values of the counter NFR for the video frames FR to be rendered as a function of the time t, is shown in FIG. 13 above, as well as those rendered as a result of both network graphics processors NGP 1 and NGP 2 at the same time and thus at the same time of the associated displays Dl and D2 identical, that is shown without Frametearing video frames FR, which are shown in Figure 13 below. In the time exemplified above, in which, without frame synchronization according to the invention, the network graphics processor NGP 1 would select the video frame FW1 = N + 1 as the video frame FR to render, while at the same time the display D2 to the network graphics processor NGP 2 would store the video frame FW2 = Nl as the video frame FR to be rendered, NSR = 1 and NFR = 0 and that of both network graphics processors NGP 1 and NGP 2 are simultaneously selected as the video frame FR to be rendered, and thus after the frame return NSR = 1 of both displays D1 and D2 synchronously displayed video frame is the video frame FR = Nl. In the later time exemplified above, in which, without frame synchronization according to the invention, the network graphics processor NGP 1 would select the video frame FW1 = N + 8 as the video frame FR to be rendered, while at the same time the display D2 would go to the network graphics processor NGP 2 would represent the video frame FW2 = N + 7 as the video frame FR to be rendered, NSR = 10 and NFR = 8 and that of both network graphics processors NGP 1 and NGP 2 simultaneously selected as the video frame FR to be rendered, and thus after the frame return NSR = 10 video frame synchronously represented by both displays D1 and D2 is the video frame FR = N + 6.
Eine zentrale Idee der vorliegenden Erfindung besteht darin, eine für alle an der Darstellung einer Videobildquelle S oder einer Videoeinblendung IS beteiligten Netzwerk-Grafikprozessoren NGP "universelle" Mediationsfunk- tion zu verwenden, die einen Ausgleich zwischen der Videostreamfrequenz fs und der vertikalen Displayfrequenz fd vermittelt, um zum einen das Auftreten von Fällen, in denen dasselbe Videoframe nochmals dargestellt wird (im Fall fs < fd ) bzw. in denen ein Videoframe ausgelassen wird (im Fall fs > fd ) so gleichmäßig wie möglich zeitlich zu verteilen, und um zum anderen dafür zu sorgen, dass erforderlichenfalls auf allen eine Videobildquelle S oder eine Videoeinblendung IS darstellenden Displays D in jedem Zeitpunkt dieselben Videoframes dargestellt bzw. ausgelassen werden. Diese Funktion, die im Folgenden kurz Mediationsfunktion MF genannt wird, bildet Bildrückläufe VR, die durch einen relativen Vsynczähler NSR identifiziert werden, der zu einem Framesynchronisationszeitpunkt TS bei Null beginnt (im Folgenden die Variable NSR für den relativen Vsynczähler NSR, der die Bildrückläufe ab der letzten Framesynchronisation, die den Nullpunkt für den Zähler setzt), auf Videoframes ab, die durch einen Zähler identifiziert werden, der zu demselben Framesynchronisationszeitpunkt TS bei Null beginnt (im Folgenden die Variable NFR für den lokalen relativen Videoframezähler NFR der zu verarbeitenden, d.h. zu rendernden Videoframes FR ab dem letzten Framesynchronisationszeitpunkt TS, der den Nullpunkt für den Zähler setzt). Die Mediationsfunktion MF bildet den relativen Vsynczähler NSR auf den lokalen relativen Videoframezähler NFR ab, d.h. anhand der Mediationsfunktion MF wird lokal aus dem lokalen relativen Videoframezähler NFR ermittelt, welches Videoframe (identifi- ziert anhand der absoluten Framekennnummer id) gerendert wird. Mit anderen Worten bestimmt die Mediationsfunktion MF aus dem Wert NSR des relativen Vsynczählers NSR das zu rendernde Videoframe FR, das anhand des lokalen relativen Videoframezählers NFR identifiziert wird. A central idea of the present invention is to use a network graphics processor NGP "universal" mediation function involved in the representation of a video image source S or a video overlay IS, which balances the video streaming frequency f s and the vertical display frequency f d in order to time the occurrence of cases in which the same video frame is displayed again (in the case f s <f d ) or in which a video frame is omitted (in the case f s > f d ) as evenly as possible and to ensure, on the other hand, that the same video frames are displayed or omitted, if necessary, on all displays D representing a video picture source S or a video overlay IS. This function, hereafter referred to as the mediation function MF, forms image returns VR identified by a relative sync counter NSR beginning at a frame synchronization time TS at zero (hereafter the variable NSR for the relative sync counter NSR which returns the image returns from the last frame synchronization setting the origin for the counter) to video frames identified by a counter starting at zero at the same frame synchronization time TS (hereinafter the variable NFR for the local relative video frame counter NFR of the one to be processed, ie to be rendered Video frames FR from the last frame synchronization time TS, the sets the zero point for the counter). The mediation function MF maps the relative Vsynczähler NSR on the local relative video frame counter NFR, ie using the mediation function MF is determined locally from the local relative video frame counter NFR, which video frame (identified by the absolute frame identifier id) is rendered. In other words, the mediation function MF determines from the value NSR of the relative vsync counter NSR the video frame FR to be rendered, which is identified by the local relative video frame counter NFR.
Die Mediationsfunktion MF kann für den allgemeinen Fal wie folgt beschrieben werden, wobei "mediation" für MF steht: The mediation function MF can be described for the general case as follows, where "mediation" stands for MF:
NFR = mediation(NSR) = floor NSR = floor NSR i NFR = mediation (NSR) = floor NSR = floor NSR i
T.  T.
Dabei liefert die Funktion floor(x) den ganzzahligen Anteil (in englisch: integer part) einer reellen Variablen x, d.h. die größte ganze Zahl, die < x ist. Die Funktion floor(x) ist eine Standard-Bibliotheksfunktion in der Programmiersprache C und wird in Figur 16 veranschaulicht.  The function floor (x) returns the integer part of a real variable x, i. the largest integer <x. The function floor (x) is a standard library function in the C programming language and is illustrated in FIG.
Der lokale relative Videoframezähler NFR, d.h. der Funktionswert der Mediationsfunktion MF mit dem Argument NSR (NFR = mediation(NSR) ), ergibt sich dann als diejenige größte ganze Zahl NFR, für die das Produkt NFR x Ts < NSR x Td ist, oder entsprechend als diejenige größte ganze Zahl NFR, für die der Quotient NFR / fs < NSR / fd ist. The local relative video frame counter NFR, ie the function value of the mediation function MF with the argument NSR (NFR = mediation (NSR)), then results as the largest integer NFR for which the product NFR × T s <NSR × T d . or correspondingly, as the largest integer NFR for which the quotient NFR / f s <NSR / f d .
Der Framesynchronisationsprozess umfasst vorzugsweise nicht nur eine Framestartsynchronisation, d.h. eine einmalige Framesynchronisation, die zu einem Framesynchronisationszeitpunkt TS durchgeführt wird, sondern auch im Anschluss daran durchgeführte Frameresynchronisationen, die zu späteren Framesynchronisationszeitpunkten TS, die auch als Frameresyn- chronisationszeitpunkte bezeichnet werden könnten, durchgeführt werden. Die Framestartsynchronisation und die Frameresynchronisationen werden dabei in derselben Weise durchgeführt und daher beide als Framesynchronisationen bezeichnet. The frame synchronization process preferably comprises not only a frame start synchronization, ie a one-time frame synchronization performed at a frame synchronization time TS, but also subsequent frame synchronization performed at later frame synchronization times TS, which could also be referred to as frame synchronization times. The frame start synchronization and the frame syncs are performed in the same way and therefore both are called frame synchronizations.
Zum Starten einer Framesynchronisation eines Videostreams einer Video- bildquelle S auf mehreren Netzwerk-Grafikprozessoren NGP ist das Versenden von Synchronisationsnachrichten über das Netzwerk LAN erforderlich. Der Master-Netzwerk-Grafikprozessor, der für den Videostream als der Master definiert ist, sendet eine Mulitcast-Synchronisationsnachricht an alle als Slaves definierten Netzwerk-Grafikprozessoren, die an der DarStellung des Videostreams beteiligt sind und nach der Vorgabe des Master-Netzwerk-Grafikprozessors synchronisiert werden. To start a frame synchronization of a video stream of a video image source S on multiple network graphics processors NGP, the transmission of synchronization messages over the network LAN is required. The master network graphics processor defined as the master for the video stream sends a multicast synchronization message to all network graphics processors defined as slaves involved in the presentation of the video stream and synchronized as dictated by the master network graphics processor become.
Diese Multicast-Synchronisationsnachricht kann auch die Systemzeit (z.B. via PTP) beinhalten. Die Systemzeit ist die lokale absolute Zeit für einen Netzwerk-Grafikprozessor und steht dort als Standardbibliotheksfunktion zur Verfügung. This multicast synchronization message may also include the system time (e.g., via PTP). The system time is the local absolute time for a network graphics processor and is available there as a standard library function.
Ferner beinhaltet die Synchronisationsnachricht die Frequenzen fd (vertikale Displayfrequenz, die von dem Master-Netzwerk-Grafikprozessor gemessen wird) und fs (Videostreamfrequenz) sowie die absolute Framekennnummer des neuesten Videoframes, das auf dem Master-Netzwerk- Grafikprozessor als letztes vor dem Versenden der Synchronisationsnachricht gerendert wurde. Diese absolute Framekennnummer wird benutzt, um zu bestimmen, mit welchem Videoframe nach dem Framesynchronisa- tionszeitpunkt auf den Netzwerk- Grafik Prozessoren das Rendern beginnen soll. Die absolute Framekennnummer ist in den Videostream eingebettet. Sie ist notwendig für das Synchronisieren, um die einzelnen Videoframes in dem Videostream zu identifizieren. In den Slave-Netzwerk-Grafikprozessoren wird diese Synchronisationsnachricht empfangen und dafür gesorgt, dass in den Slave-Netzwerk- Grafikprozessoren die Framesynchronisation unter Verwendung der Mediationsfunktion MF sofort mit den übermittelten Werten der Frequenzen fd und fs beginnt. Die Implementierung kann dabei optional beispielsweise mittels der Verwendung von Threads (auch bezeichnet als Aktivitätsträger oder leichtgewichtiger Prozess) erfolgen. Dabei wird wäh- rend einer gewissen Zeit, der Mediationsdauer, die Anzahl der Bildrückläufe VR (relativer Vsynczähler NSR mit einem Nullpunkt beim letzten Framesynchronisationszeitpunkt TS) weitergezählt, bis die Mediationsfunktion bei dem nächsten Framesynchronisationszeitpunkt neu gestartet wird und wieder bei Null beginnt. Dieser Synchronisationsprozess wird im Folgenden als Framesynchronisation bezeichnet. Ein anderer geeigneter Begriff wäre Korrelation von Videoframes. Further, the synchronization message includes the frequencies f d (vertical display frequency measured by the master network graphics processor) and f s (video streaming frequency) as well as the absolute frame identification number of the most recent video frame on the master network graphics processor last before sending the synchronization message was rendered. This absolute frame ID number is used to determine which video frame should start rendering after the frame synchronization time on the network graphics processors. The absolute frame ID is embedded in the video stream. It is necessary for synchronization to identify the individual video frames in the video stream. In the slave network graphics processors this synchronization message is received and ensured that in the slave network graphics processors the frame synchronization using the Mediation function MF starts immediately with the transmitted values of the frequencies f d and f s . The implementation can optionally take place, for example, by means of the use of threads (also referred to as activity carrier or lightweight process). In this case, during a certain time, the mediation duration, the number of image returns VR (relative synchronization NSR with a zero at the last frame synchronization time TS) is counted until the mediation function is restarted at the next frame synchronization time and starts again from zero. This synchronization process is referred to below as frame synchronization. Another suitable term would be correlation of video frames.
Zwischen einem Framesynchronisationszeitpunkt TS und dem darauffolgenden wird der lokale relative Videoframezähler als Funktionswert der Mediationsfunktion MF erhalten, indem ihr der relative Vsynczähler als Argumentwert übergeben wird. Between a frame synchronization time TS and the subsequent one, the local relative video frame counter is obtained as the function value of the mediation function MF by passing the relative vsync counter as an argument value.
Damit die Zählung des relativen Vsynczählers NSR an der Nahtstelle (dem Framesynchronisationszeitpunkt TS) korrekt weitergeht, muss je nach Zählweise nach einem neuen Start der Mediationsfunktion mit NSR = 1 begonnen werden, wenn NSR = 0 würde das Bezugsvideoframe idcorr nochmal liefern würde, wobei seiner Darstellung wiederholt und der Anschluss nicht passen würde. Die Mediationsfunktion MF soll an jeder Nahtstelle, d.h. dem Framesynchronisationszeitpunkt TS am Ende eines Mediationsdauer, nur einmal aufgerufen werden. Das lässt sich auch mit einer anderen Zählweise realisieren, beispielsweise indem eine Mediationsdauer TM mit NSR-1 beendet und dann an der Nahtstelle (dem Framesynchronisationszeitpunkt TS) mit NSR=0 (statt NSR=1) weitergezählt wird. Derartige Abwandlungen werden als äquivalent angesehen. In order for the count of the relative vsync counter NSR to continue correctly at the interface (the frame synchronization time TS), a restart of the mediation function with NSR = 1 must begin depending on the method of counting, if NSR = 0 would return the reference video frame id corr , using its Presentation repeated and the connection would not fit. The mediation function MF should be called only once at each interface, ie the frame synchronization time TS at the end of a mediation period. This can also be realized with another counting method, for example by ending a mediation period TM with NSR-1 and then continuing at the interface (the frame synchronization time TS) with NSR = 0 (instead of NSR = 1). Such modifications are considered equivalent.
In Figur 13 ist die absolute Bezugsframekennnummer idcorr für den Netzwerk-Grafikprozessor NGP 1 die absolute Framekennnummer des Video- frames FW1 = N und für den Netzwerk-Grafikprozessor NGP 2 die absolute Framekennnummer des Videoframes FW2 = N-l. Von diesen absoluten Bezugsframekennnummern idcorr des jeweils neuesten Videoframes in der jeweiligen Videoframe-Warteschlange 2 wird dann in dem jeweiligen Netzwerk-Grafikprozessor NGP durch Hinzuzählen des Wertes des lokalen relativen Videoframezählers NFR die absolute Framekennnummer id des zu rendernden Videoframes FR bestimmt. Da in beiden Netzwerk-Grafikprozessoren NGP dieselbe Mediationsfunktion angewendet wird, ergibt sich eine synchrone Darstellung, d.h. es werden auf beiden Netzwerk-Gra- fikprozessoren NGP dieselben Videoframes dargestellt. In FIG. 13, the absolute reference frame identifier id corr for the network graphics processor NGP 1 is the absolute frame identification number of the video frames FW1 = N and for the network graphics processor NGP 2 the video frame absolute frame ID number FW2 = Nl. Of these absolute frame IDs id corr of the most recent video frame in the respective video frame queue 2 then NGP is added in the respective network graphics processor by adding the Value of the local relative video frame counter NFR determines the absolute frame identification number id of the video frame FR to be rendered. Since the same mediation function is used in both network graphics processors NGP, the result is a synchronous representation, ie the same video frames are displayed on both network graphics processors NGP.
Wenn auf diese Weise nach einer zu einem Framesynchronisationszeitpunkt TS durchgeführten Framesynchronisation in dem Zeitraum vor einem Bildrücklauf VR auf allen Netzwerk-Grafikprozessoren NGP jeweils das in den jeweiligen Backpuffer 6 zu rendernde Videoframe ausgewählt wird, wird mit dem Bildrücklauf NSR auf allen Netzwerk-Grafikprozessoren NGP gleichzeitig und synchron dasselbe Videoframe mit der absolute Framekennnummer id sichtbar werden. Insbesondere werden dieselben Videoframes ausgelassen, d.h. übersprungen und nicht dargestellt, oder wiederholt dargestellt, wenn das aufgrund von Unterschieden in den Frequenzen fs und fd erforderlich ist. In this way, after frame synchronization carried out at a frame synchronization timing TS in the period before frame return VR on each network graphics processors NGP, the video frame to be rendered to the respective back buffer 6 is selected, the frame return NSR on all the network graphics processors NGP becomes simultaneous and synchronously the same video frame with the absolute frame ID id become visible. In particular, the same video frames are skipped, ie skipped and not shown, or repetitively displayed, if required due to differences in the frequencies f s and f d .
In dem Beispiel von Figur 13, die den Fall fs < fd betrifft, in dem Videoframes mehrfach dargestellt werden müssen, ist zu erkennen, dass bei den zu rendernden Videoframes FR manche Videoframes wiederholt, also mehrfach hintereinander auf den Displays dargestellt werden, beispielsweise die Videoframes N-l und N+7. Durch die erfindungsgemäße Framesynchronisation werden aber auch unterschiedliche und zeitlich variierende Verarbeitungs- und Laufzeiten eines Videoframes zu den jeweiligen Backpuffern 6 der Netzwerk-Grafikprozessoren NGP derart kompensiert, dass zu einem Zeitpunkt dieselben Videoframes auf den Displays D dargestellt werden. In Figur 13 werden unabhängig von den unterschied- liehen und zeitlich variierenden zeitlichen Verzögerungen der Videoframes FW1 und FW2 von den Displays dieselben Videoframes FR synchron dargestellt. Die Mediationsfunktion MF beseitigt somit den Jitter (z.B. aus den Kodierern) bzw. gleich diesen aus. Dieser Jitter kann beispielsweise bei einer Videostreamfrequenz von 40 Hz zur Folge haben, dass der tatsächliche zeitliche Abstand der Videoframes nicht regelmäßig 40 msec beträgt, sondern zwischen 20 msec und 70 msec, d.h. um +/- 50 % schwankt. Dies kann die Mediationsfunktion MF ausgleichen. Die Mediationsfunktion selbst oder allein bewirkt aber noch keine Synchronisation der Darstellung des Videoframes auf den Displays. In the example of FIG. 13, which relates to the case f s <f d , in which video frames have to be displayed multiple times, it can be seen that some video frames are repeated in the video frames FR to be rendered, that is to say they are displayed several times in succession on the displays, for example the video frames Nl and N + 7. However, the frame synchronization according to the invention also compensates for different processing times and running times of a video frame that vary over time with respect to the respective back buffers 6 of the network graphics processors NGP such that the same video frames are displayed on the displays D at one time. In Figure 13, irrespective of the differences The same video frames FR are synchronously displayed by the displays in time and time-varying delays of the video frames FW1 and FW2. The mediation function MF thus eliminates the jitter (eg from the encoders) or the same. This jitter, for example, at a video streaming frequency of 40 Hz, may result in the actual time interval of the video frames not being regularly 40 msec, but fluctuating between 20 msec and 70 msec, ie by +/- 50%. This can balance the mediation function MF. The mediation function itself or alone does not yet cause a synchronization of the presentation of the video frame on the displays.
Der Prozess des Startens oder Auslösens der Framesynchronisation von Videoframes bzw. Framekennnummern wird vorzugsweise hin und wieder zu neuen Frameresynchronisationszeitpunkten TP wiederholt, beispiels- weise in periodischen, d.h. regelmäßigen zeitlichen Abständen. Die Mediationsfunktion wird in diesem Fall abschnittsweise angewendet, nämlich von einem Framesynchronisationszeitpunkt zum nächsten Framesynchronisationszeitpunkt (von einer Framesynchronisation zur nächsten, von einem Reset der Mediationsfunktion zum nächsten). Die Übergänge von einer Anwendung der Mediationsfunktion zur nächsten (zu den Framesynchronisationszeitpunkten) könnte man auch als Nahtstelle bezeichnen. The process of starting or initiating the frame synchronization of video frames or frame numbers is preferably repeated at new frame synchronization times TP, for example in periodic, i. regular time intervals. The mediation function is in this case applied in sections, namely from one frame synchronization time to the next frame synchronization time (from one frame synchronization to the next, from one reset of the mediation function to the next). The transitions from one application of the mediation function to the next (at the frame synchronization times) could also be referred to as an interface.
Das Wiederholen des neuen Startens der Mediationsfunktion wird als Fra- meresynchronisation bezeichnet werden. Ein anderer geeigneter Begriff wäre Rekorrelation. Die Rate bzw. Frequenz der Frameresynchronisation, d.h. der Wiederholung der Framesynchronisation, bzw. die Rate bzw. Frequenz, mit der die Synchronisationsnachrichten SN vom Master-Netzwerk- Grafikprozessor Master-NGP an die Slave-Netzwerk-Grafikprozessoren Slave-NGP gesendet werden, d.h. zu Framesynchronisationszeiten TS eine Framesynchronisation durchgeführt wird, beträgt vorteilhafterweise zum Beispiel zwischen 0,05 Hz und 10 Hz, bevorzugt zwischen 0,1 Hz und 5,0 Hz, weiter bevorzugt zwischen 0,2 Hz und 3,0 Hz, besonders bevor- zugt zwischen 0,5 Hz und 2,0 Hz. Die Rate, mit der die Framesynchronisation durchgeführt wird, d.h. die Frequenz der Framesynchronisationszeitpunkte TS, und mit der die Mediationsfunktion MF von dem Master-Netzwerk-Grafikprozessor Master-NGP zurückgesetzt und synchronisiert wird, ist somit erheblich kleiner als die vertikale Displayfrequenz fd und kann weniger als 1/10, 1/20, 1/50 oder ein 1/100 der Displayfrequenz fd betragen, in bevorzugten Ausführungsformen etwa 1/50 der Videostream- frequenz fs . Sie kann an die spezielle Auslegung des Netzwerks LAN, die Hardware-Ausstattung sowie die Art und die Frequenz einer oder mehre- rer Videobildquellen S angepasst sein. Sie kann fest vorgegeben sein oder auch dynamisch angepasst werden. Die Frameresynchronisation läuft in derselben Weise ab wie eine Framestartsynchronisation. Nach einem Framesynchronisationsstartzeitpunkt TS, d.h. zwischen zwei aufeinanderfolgenden Frameresynchronisationszeitpunkten, wird das vor den nächs- ten Bildrückläufen VR von den Netzwerk-Grafikprozessoren NGP jeweils zu rendernde Videoframe auf die gleiche Weise wie nach einer Framesynchronisation unter Verwendung der Mediationsfunktion MF aus dem Video- stream ausgewählt. In bevorzugten Ausführungsformen ist die Mediationsdauer TM ein fest vorgegebener Wert. Hierzu kann beispielsweise die Mediationsdauer TM als eine feste Zeitspanne, eine feste Anzahl von Bildrücklaufsignalen Vsync, eine feste Anzahl von Bildrückläufen VR oder ein maximaler Wert des relativen Vsynczählers vorgegeben sein. Optional kann die Media- tionsdauer TM auch zeitlich variabel gestaltet werden, beispielsweise um sie dynamisch derart anzupassen oder zu regeln, dass bei einer möglichst geringen Frequenz von Synchronisationsnachrichten SN, d.h. bei möglichst langer Mediationsdauer TM, noch eine ausreichende Contentsynchronisation erzielt wird. Eine entsprechende Variante besteht darin, dass die Mediationsfunktion MF mit einem (Differential)Regler modifiziert wird, um dafür zu sorgen, dass die Videoframe-Warteschlange 2 immer einen optimalen Füllgrad von 50 % hat. Beim Initialisieren des Prozesses wird die Videoframe-Warteschlange 2 etwa halb gefüllt und das Rendern wird mit einem mittleren Videoframe begonnen. Danach kann der Füllgrad der Videoframe-Warteschlange 2 protokolliert werden. Bei den auf die Initialisierung folgenden Mediationsdauern TM wird die Mediationsfunktion MF dann mittels einer Korrekturgröße modifiziert, deren Wert davon abhängt, wie stark der Ist-Füllgrad von einem Soll-Füllgrad abweicht. Diese Korrekturgröße ist beispielsweise ein Faktor, der an das ermittelte Verhältnis Td / Ts im Argument von floor (x) der Mediationsfunktion MF angebracht wird. Im Ergebnis erhält man dadurch sozusagen eine Beschleunigung der Verarbeitung, d.h. ein zeitlich früheres Darstellen, wenn der Füllgrad der Videoframe-Warteschlange 2 zu groß ist (dadurch wird die Videoframe- Warteschlange 2 etwas mehr geleert), oder ein zeitlich späteres Darstellen, wenn der Füllgrad der Videoframe-Warteschlange 2 zu klein ist (dadurch wird die Videoframe-Warteschlange 2 etwas mehr gefüllt). Repeating the restart of the mediation function will be called frame synchronization. Another suitable term would be recorrelation. The rate or frequency of the frame synchronization, ie the repetition of the frame synchronization, or the rate at which the synchronization messages SN are sent from the master network graphics processor master NGP to the slave network graphics processors slave NGP, ie For example, frame synchronization is performed at frame synchronization times between 0.05 Hz and 10 Hz, preferably between 0.1 Hz and 5.0 Hz, more preferably between 0.2 Hz and 3.0 Hz, especially preferred. is between 0.5 Hz and 2.0 Hz. The rate at which the frame synchronization is performed, ie the frequency of the frame synchronization times TS, and with which the mediation function MF is reset and synchronized by the master network graphics processor Master NGP, is thus considerably smaller than the vertical display frequency f d and may be less than 1/10, 1/20, 1/50 or 1/100 of the display frequency f d , in preferred embodiments about 1/50 of the video stream frequency f s . It can be adapted to the specific design of the LAN network, the hardware equipment and the type and frequency of one or more video image sources S. It can be fixed or dynamically adapted. The frame sync runs in the same way as a frame start sync. After a frame synchronization start time TS, ie between two successive frame synchronization times, the video frame to be rendered before the next frame returns VR by the network graphics processors NGP is selected from the video stream in the same way as after frame synchronization using the mediation function MF. In preferred embodiments, the mediation time TM is a fixed value. For this purpose, for example, the duration of mediation TM can be specified as a fixed time interval, a fixed number of image return signals Vsync, a fixed number of image returns VR or a maximum value of the relative vsync counter. Optionally, the duration of mediation TM can also be designed to be variable in time, for example to dynamically adapt or regulate it so that sufficient content synchronization is still achieved at the lowest possible frequency of synchronization messages SN, ie with the longest possible mediation time TM. A corresponding variant is that the mediation function MF is modified with a (differential) controller in order to ensure that the video frame queue 2 always has an optimum fill level of 50%. When initializing the process becomes the video frame queue 2 is about half full and the rendering is started with a middle video frame. Thereafter, the fill level of the video frame queue 2 can be logged. In the mediation periods TM following the initialization, the mediation function MF is then modified by means of a correction variable whose value depends on how much the actual filling level deviates from a desired filling level. This correction quantity is, for example, a factor which is attached to the determined ratio T d / T s in the argument of floor (x) of the mediation function MF. As a result, this gives, so to speak, an acceleration of the processing, ie an earlier presentation if the fill level of the video frame queue 2 is too large (thereby emptying the video frame queue 2 a little more), or a time later representing the degree of filling the video frame queue 2 is too small (thereby filling the video frame queue 2 slightly more).
Die Figur 14 zeigt ein schematisches Beispiel einer erfindungsgemäßen Mediationsfunktion MF für den Fall fs < fd , in dem manche Videoframes mehrfach dargestellt werden müssen. Dieser Fall entspricht insoweit demjenigen der Figur 13. Dargestellt sind die Bildrückläufe VR mit der Periode Td eines Displays D als Funktion der Zeit t mit dem relativen Vsynczähler NSR, der jeweils an den Enden VRE der Bildrückläufe VR hochgezählt wird, sowie zum Rendern ausgewählte, in den Backpuffer 6 gespeicherte Videoframes FR mit der Periode Ts und dem zugehörigen lokalen relativen Videoframezähler NFR für die zu rendernden Videoframes FR. Zu dem Framesynchronisationszeitpunkt TS werden beide Zähler NSR und NFR auf Null gesetzt. Natürlich ist es auch möglich, die Zähler nicht auf Null, sondern auf einen anderen Startwert zu setzen. In diesem Fall muss in den entsprechenden Gleichungen ein konstanter Wert, z.B. +1 oder +2, hinzuaddiert oder subtrahiert werden, um diese versetzte Zählweise zu berück- sichtigen. Derartige Abwandlungen sollen als gleichwertige Ausführungsformen angesehen werden. Die Mediationsfunktion MF bildet sowohl die Bildrückläufe VR mit NSR = 0 als auch NSR = 1 auf das zu rendernde Videoframe FR mit dem lokalen relativen Videoframezähler NFR = 0 ab. Ebenso werden die Bildrückläufe VR sowohl mit NSR = 3 als auch mit NSR = 4 auf das zu rendernde Video- frame FR mit NFR = 2 abgebildet. Das bedeutet, dass die Videoframes FR mit den Zählern NFR = 0 und NFR = 2 zweimal dargestellt werden, nämlich das Videoframe NFR = 0 bei den Bildrückläufen NSR = 0 und NSR = 1 und das Videoframe NFR = 2 bei den Bildrückläufen NSR = 3 und NSR = 4. Dagegen werden die Bildrückläufe NSR = 2, NSR = 5, NSR = 6 und NSR = 7 nur einmal abgebildet, nämlich auf NFR = 1, NFR = 3, NFR = 4 und NFR = 5. Durch diese Mediationsfunktion MF wird kompensiert, dass fs < fd ist. FIG. 14 shows a schematic example of a mediation function MF according to the invention for the case f s <f d , in which some video frames have to be displayed several times. This case corresponds to that of FIG. 13. Shown are the image returns VR with the period T d of a display D as a function of the time t with the relative Vsynczähler NSR, which is counted up respectively at the ends VRE of the image returns VR, and selected for rendering video frames FR stored in the back buffer 6 with the period T s and the associated local relative video frame counter NFR for the video frames FR to be rendered. At the frame synchronization time TS both counters NSR and NFR are set to zero. Of course it is also possible to set the counters not to zero, but to another start value. In this case, a constant value, eg +1 or +2, must be added or subtracted in the corresponding equations in order to take this staggered counting mode into account. Such modifications are to be considered as equivalent embodiments. The mediation function MF maps both the video returns VR with NSR = 0 and NSR = 1 to the video frame FR to be rendered with the local relative video frame counter NFR = 0. Likewise, the image returns VR with both NSR = 3 and NSR = 4 are mapped to the video frame FR to be rendered with NFR = 2. This means that the video frames FR are represented twice with the counters NFR = 0 and NFR = 2, namely the video frame NFR = 0 at the image returns NSR = 0 and NSR = 1 and the video frame NFR = 2 at the image returns NSR = 3 and NSR = 4. On the other hand, the image returns NSR = 2, NSR = 5, NSR = 6 and NSR = 7 are mapped only once, namely to NFR = 1, NFR = 3, NFR = 4 and NFR = 5. By this mediation function MF compensates that f s <f d .
Die folgende Tabelle zeigt ein Zahlenbeispiel für diesen Fall fs < fd wie in Figur 14 mit den beispielhaften Werten fs = 40 Hz (Ts = 25 ms) und fd = 50 Hz (Td = 20 ms) für 0 < NSR < 20. In diesem Fall werden die Videoframes mit NFR = 0, NFR = 4, NFR = 8 und NFR = 12 wiederholt, d.h. nochmal auf einem Display D dargestellt, wie durch die mit einem Ausrufezeichen markierten Werte veranschaulicht ist. The following table shows a numerical example for this case f s <f d as in FIG. 14 with the exemplary values f s = 40 Hz (T s = 25 ms) and f d = 50 Hz (T d = 20 ms) for 0 < NSR <20. In this case, the video frames are repeated with NFR = 0, NFR = 4, NFR = 8, and NFR = 12, that is, again shown on a display D, as illustrated by the values marked with an exclamation point.
9 7 9 7
10 8 !  10 8!
11 8 !  11 8!
12 9  12 9
13 10  13 10
14 11  14 11
15 12 !  15 12!
16 12 !  16 12!
17 13  17 13
18 14  18 14
19 15  19 15
20 16  20 16
Die Figur 15 zeigt ein schematisches Beispiel einer der Figur 14 entsprechenden Situation für den Fall fs > fd , in dem Videoframes bei der Darstellung auf den Displays ausgelassen werden müssen, mit einer entsprechenden Mediationsfunktion MF. Hierbei werden die Videoframes NFR = 4 und NFR = 8 ausgelassen, d.h. nicht gerendert und demzufolge nicht auf den Displays D dargestellt, wodurch kompensiert wird, dass fs > fd ist. FIG. 15 shows a schematic example of a situation corresponding to FIG. 14 for the case f s > f d , in which video frames have to be omitted when displayed on the displays, with a corresponding mediation function MF. In this case, the video frames NFR = 4 and NFR = 8 are omitted, ie not rendered and therefore not shown on the displays D, which compensates for that f s > f d .
Die folgende Tabelle zeigt ein Zahlenbeispiel für diesen Fall fs > fd wie in Figur 15 mit den beispielhaften Werten fs = 60 Hz (Ts = 16, 67 ms) und fd = 50 Hz (Td = 20 ms) für 0 < NSR < 20. In diesem Fall werden die Videoframes mit NFR = 5, NFR = 11, NFR = 17 und NFR = 23 ausgelassen, d.h. nicht auf den Displays dargestellt, wie durch die mit einem Ausrufezeichen markierten, hierzu benachbarten Werte veranschaulicht ist. The following table shows a numerical example for this case f s > f d as in FIG. 15 with the exemplary values f s = 60 Hz (T s = 16, 67 ms) and f d = 50 Hz (T d = 20 ms) for 0 <NSR <20. In this case, the video frames with NFR = 5, NFR = 11, NFR = 17 and NFR = 23 are omitted, ie not shown on the displays, as illustrated by the exclamation point marked adjacent values ,
NSRNSR
0 0  0 0
1 1 2 2 1 1 2 2
3 3  3 3
4 4 !  4 4!
5 6 !  5 6!
6 7  6 7
7 8  7 8
8 9  8 9
9 10 !  9 10!
10 12 !  10 12!
11 13  11 13
12 14  12 14
13 15  13 15
14 16 !  14 16!
15 18 !  15 18!
16 19  16 19
17 20  17 20
18 21  18 21
19 22 !  19 22!
20 24 !  20 24!
Die Figuren 17 bis 19 veranschaulichen die Funktionsweise der erfindungsgemäßen Framesynchronisation (Contentsynchronisation) zwischen dem Master-Netzwerk-Grafikprozessor Master-NGP und einem Slave-Netz- werk-Grafikprozessor Slave-NGP unter Verwendung der Mediationsfunktion MF. Dargestellt sind verschiedene Vorbereitungsstufen, von der erstmaligen Initialisierung des Synchronisationsprozesses über seine stufenweise Vervollständigung bis zum vollständigem Ablauf mit voller Synchronisation. Dieses Ausführungsbeispiel bezieht sich auf einen Fall fs < fd , in dem also manche Videoframes wiederholt, d.h. nochmal auf Displays D dargestellt werden, um den Frequenzunterschied auszugleichen. Die Grundidee der erfindungsgemäßen Synchronisation besteht darin, dass die Slave-Netzwerk-Grafikprozessoren Slave-NGP alles für die Synchronisation Erforderliche von dem Master-Netzwerk-Grafikprozessor Mas- ter-NGP in einer Synchronisationsnachricht SN mitgeteilt bekommen, um sowohl zu einem Startpunkt, dem Framesynchronisationszeitpunkt TS, als auch in dem Zeitraum bis zur nächsten Synchronisationsnachricht SN bzw. bis zum nächsten Framesynchronisationszeitpunkt TS, selbstständig, lokal und ohne weitere Netzwerkbelastung, d.h. während einer Mediationsdauer TM, ohne weiteren Austausch von Synchronisationsnachrichten SN oder Synchronisationsinformationen zwischen dem Master-Netzwerk-Grafikprozessor Master-NGP und den Slave-Netzwerk-Grafikprozessoren Slave-NGP, die Videoeinblendungen synchronisiert und tearingfrei darstellen können. Die Synchronisation findet für eine Mediationsdauer TM nur einmal statt, nämlich zu dem Bildrücklauf bei dem auf eine Synchronisationsnachricht SN folgenden, zu der Synchronisationsnachricht SN gehörenden Framesynchronisationszeitpunkt TS. Auf während einer Mediationsdauer TM auftretende irreguläre Ereignisse (z.B. Leerlaufen oder Überlaufen der Videoframe-Warteschlange 2, eine starke Frequenzänderung der vertikalen Dis- playfrequehz fd und/oder der Videostreamfrequenz fs etc.), die die Synchronisation stören oder unterbrechen, wird nicht sofort reagiert, sondern erst nach dem Ende der aktuellen Mediationsdauer TM, indem dann eine neue Synchronisation initialisiert wird. Bei irregulären Ereignissen wird hingenommen, dass während der aktuellen Mediationsdauer TM die Darstellung der Videoeinblendung unsynchronisiert, d.h. mit Tearing erfolgt, und erst nach dem nächsten Framesynchronisationszeitpunkt TS wieder synchronisiert wird. FIGS. 17 to 19 illustrate the operation of the frame synchronization (content synchronization) according to the invention between the master network graphics processor master NGP and a slave network graphics processor slave NGP using the mediation function MF. Shown are various stages of preparation, from the initial initialization of the synchronization process over its gradual completion to complete execution with full synchronization. This exemplary embodiment relates to a case f s <f d , in which some video frames are therefore repeated, ie represented again on displays D in order to compensate for the frequency difference. The basic idea of the synchronization according to the invention is that the slave network graphics processors slave-NGP get notified all necessary for the synchronization of the master network graphics processor master NGP in a synchronization message SN to both a start point, the frame synchronization time TS, as well as in the period until the next synchronization message SN or until the next frame synchronization time TS, independently, locally and without further network load, ie during a mediation period TM, without further exchange of synchronization messages SN or synchronization information between the master network graphics processor master -NGP and the slave network graphics processors Slave NGP, which can synchronize and display video overlays. The synchronization takes place only once for a mediation period TM, namely to the picture return in the frame synchronization time TS following a synchronization message SN belonging to the synchronization message SN. To occurring during a mediation duration TM irregular events (eg, running empty or overflowing of the video frame queue 2, a strong change in frequency of the vertical dis- playfrequehz f d and / or the video stream frequency f s, etc.) that interfere with the synchronization or interrupt is not immediately but only after the end of the current mediation period TM, by then initializing a new synchronization. In the case of irregular events, it is accepted that during the current mediation period TM the presentation of the video insertion unsynchronizes, ie with tearing, and is only synchronized again after the next frame synchronization time TS.
In Figur 17 ist eine erste Vorbereitungsstufe des Synchronisationsprozes- ses der Contentsynchronisation veranschaulicht. Sie zeigt das erstmalige Anlaufen, d.h. das Starten nach einer ersten Initialisierung zu einem Framesynchronisationszeitpunkt TS. Bis zu dem ersten Framesynchronisa- tionszeitpunkt TS laufen die Darstellungen der Videoframes einer Videoeinblendung auf den Displays völlig unsynchronisiert. Dargestellt sind für den als Master definierten Master-Netzwerk-Grafikprozessor Master-NGP die Werte des synchronisierten Vsynczählers NS im Verlauf der Zeit t. Der Wert des synchronisierten Vsynczählers NS wird vom sogenannten Verti- cal-Retrace-Management der Netzwerk-Grafikprozessoren NGP geliefert und zählt die Bildrückläufe VR der Displays D bzw. der Displaywand 1, d.h. die Bildrücklaufsignale Vsync der Displays D. Der Bildrücklauf VR erfolgt mit der Frequenz des Bildrücklaufsignals Vsync, mit dem die Dis- plays D synchronisiert werden (mittels Framelock oder Genlock), d.h. mit der vertikalen Displayfrequenz fd . Das Zählen des synchronisierten Vsynczählers NS erfolgt somit mit der Displayfrequenz fd , der Frequenz des Bildrücklaufsignals Vsync, in zeitlichen Abständen der Periode Td . Der synchronisierte Vsynczähler NS ist ein Zähler, d.h. sein Wert erhöht sich von einem vertikalen Rücksprung VR zum nächsten um eins. Der Wert ist auf allen Netzwerk-Grafikprozessoren NGP gleich, d.h. der synchronisierte Vsynczähler NS ist auf allen Netzwerk-Grafikprozessoren NGP synchronisiert (beispielsweise mittels PTP und Framelock oder Genlock), sodass zu einem Zeitpunkt auf allen Netzwerk-Grafikprozessoren NGP derselbe absolute Wert für den synchronisierten Vsynczähler NS vorliegt. Für den Slave-Netzwerk-Grafikprozessor Slave-NGP ergibt sich daher in Figur 17 dieselbe synchronisierte Abfolge des synchronisierten Vsynczählers NS. Die Synchronisation der Netzwerk-Grafikprozessoren NGP und die Implementierung der Synchronisation umfasst drei voneinander unabhängige Schichten, die aufeinander aufbauen. Die unterste Schicht ist die Synchronisation der lokalen Uhren auf den einzelnen Netzwerk-Grafikprozessoren NGP, beispielsweise mittels PTP (Precision Time Protocol). Diese Schicht hat kein Wissen von dem Vertical-Retrace-Management. Eine zweite Schicht ist das Vertical-Retrace-Management, das die synchronisierten Uhren benutzt, um die Grafikkarten der einzelnen Netzwerk-Grafikprozes- soren NGP so zu programmieren (mittels Framelock oder Genlock), das ihre Bildrückläufe mit der geforderten Genauigkeit (Abweichung kleiner 0,5 msec) zum selben Zeitpunkt erfolgen. Diese zweite Schicht hat kein Wissen von den zu verarbeitenden bzw. darzustellenden Videostreams. Die dritte Schicht ist die sogenannte oder eigentliche Inter-NGP-Syn- chronisation, die die Contentsynchronisation durchführt. Sie bezieht von der zweiten Schicht über einen Funktionsaufruf den von der zweiten Schicht zur Verfügung gestellten synchronisierten Vsynczähler NS, den die dritte Schicht anstelle direkter Zeitwerte der lokalen synchronisierten Uhren benutzt. FIG. 17 illustrates a first preparation stage of the synchronization process of the content synchronization. It shows the initial startup, ie starting after a first initialization to a frame synchronization time TS. Until the first frame sync tion time point TS run the representations of the video frames of a video insertion on the displays completely unsynchronized. For the master network graphics processor master NGP defined as master, the values of the synchronized vsync counter NS are shown in the course of time t. The value of the synchronized vsync counter NS is supplied by the so-called vertical retrace management of the network graphics processors NGP and counts the image returns VR of the displays D or the display wall 1, ie the image retrace signals Vsync of the displays D. The image retrace VR occurs with the Frequency of the video return signal Vsync, with which the displays D are synchronized (by means of frame lock or genlock), ie with the vertical display frequency f d . The counting of the synchronized Vsynczählers NS thus takes place with the display frequency f d , the frequency of the image return signal Vsync, at intervals of the period T d . The synchronized VSync counter NS is a counter, ie its value increases from one vertical return VR to the next by one. The value is equal on all network graphics processors NGP, ie the synchronized VSync counter NS is synchronized on all network graphics processors NGP (for example by PTP and Framelock or Genlock) so that at a time on all network graphics processors NGP has the same absolute value for the synchronized Vsynczähler NS is present. For the slave network graphics processor slave NGP, therefore, the same synchronized sequence of the synchronized vsync counter NS results in FIG. 17. The synchronization of the network graphics processors NGP and the implementation of the synchronization comprises three independent layers that build on each other. The lowest layer is the synchronization of the local clocks on the individual network graphics processors NGP, for example by means of PTP (Precision Time Protocol). This layer has no knowledge of Vertical Retrace Management. A second layer is vertical retrace management, which uses the synchronized clocks to control the graphics cards of each network graphics processor. To program NGP (by means of frame lock or genlock), their image returns take place with the required accuracy (deviation less than 0.5 msec) at the same time. This second layer has no knowledge of the video streams to be processed or presented. The third layer is the so-called or actual Inter-NGP synchronization, which performs the content synchronization. It obtains from the second layer, via a function call, the synchronized VSync counter NS provided by the second layer which the third layer uses instead of direct time values of the local synchronized clocks.
Ferner sind in Figur 17 für den Master-Netzwerk-Grafikprozessor Master- NGP und den Slave-Netzwerk-Grafikprozessor Slave-NGP die Werte der relativen Vsynczähler NSR dargestellt. Diese sind der relative Wert des synchronisierten Vsynczählers NS bezogen auf dessen Wert beim letzten Neustart der Mediationsfunktion MF, d.h. beim zuletzt vorausgehenden Framesynchronisationszeitpunkt TS. Der relative Vsynczähler NSR ist die Differenz zwischen dem aktuellen Wert des synchronisierten Vsynczählers NS und dessen Wert am letzten Framesynchronisationszeitpunkt TS, also ein relativer Zähler, da er relativ zum letzten Framesynchronisationszeitpunkt zählt. Die relativen Vsynczähler NSR sind lokale Zähler, d.h. Zähler auf den jeweiligen Netzwerk-Grafikprozessoren NGP, für die Bildrückläufe VR, bezogen auf den Bildrücklauf VR an dem zuletzt erfolgten Framesynchronisationszeitpunkt TS. Der Bildrücklauf VR erfolgt mit der Frequenz des Bildrücklaufsignals Vsync, mit dem die Displays D synchronisiert werden (mittels Framelock oder Genlock), d.h. mit der vertikalen Displayfrequenz fd . Das Zählen des relativen Vsynczählers NSR erfolgt somit mit der Frequenz des Bildrücklaufsignals Vsync, d.h. mit derselben Frequenz wie der synchronisierte Vsynczähler NS. Durch die Kopplung der relativen Vsynczähler NSR an den synchronisierten Vsynczähler NS und den für die Displays D gemeinsamen Framesynchronisationszeitpunkten TS sind die relativen Vsynczähler NSR auf allen Netzwerk-Grafikprozessoren NGP syn- chronisiert, sodass zu einem Zeitpunkt (nach einem ersten Framesynchronisationszeitpunkt TS) auf allen Netzwerk-Grafikprozessoren NGP derselbe Wert für die relativen Vsynczähler NSR vorliegt. Die relativen Vsynczähler NSR werden lokal von den Netzwerk-Grafikprozessoren NGP zum Weiterzähen in der Mediationsfunktion MF ab einem Framesynchronisationszeitpunkt TS verwendet. Further, in Fig. 17, the master network graphics processor master NGP and the slave network graphics processor slave NGP are shown the values of the relative Vsynczähler NSR. These are the relative value of the synchronized Vsynczählers NS related to its value at the last restart of the mediation function MF, ie at the last preceding frame synchronization time TS. The relative Vsynczähler NSR is the difference between the current value of the synchronized Vsynczählers NS and its value at the last frame synchronization time TS, so a relative counter, since it counts relative to the last frame synchronization time. The relative Vsynczähler NSR are local counters, ie counters on the respective network graphics processors NGP, for the image returns VR, based on the image return VR at the last occurred frame synchronization time TS. The image return VR occurs at the frequency of the image return signal Vsync, with which the displays D are synchronized (by means of frame lock or genlock), ie with the vertical display frequency f d . The counting of the relative Vsynczählers NSR thus takes place with the frequency of the image return signal Vsync, ie with the same frequency as the synchronized Vsynczähler NS. By coupling the relative Vsynczähler NSR to the synchronized Vsynczähler NS and common for the D display frame synchronization times TS, the relative Vsynczähler NSR on all network graphics processors NGP syn- so that at a time (after a first frame synchronization time TS) all network graphics processors NGP have the same value for the relative Vsynczähler NSR. The relative Vsync counters NSR are used locally by the network graphics processors NGP to continue to stitch in the mediation function MF from a frame synchronization time TS.
In der unsynchronisierten Anlaufphase bis zum ersten Framesynchronisationszeitpunkt TS in Figur 17 sind keine Werte für die relativen Vsynczäh- ler NSR angegeben, weil dies vor einem ersten Framesynchronisationszeitpunkt TS in Ermangelung eines Bezugswertes, einem zum Framesynchronisationszeitpunkt TS ausgewählten synchronisierten Vsynczähler NS, nicht möglich ist. Zum Framesynchronisationszeitpunkt TS werden die relativen Vsynczähler NSR auf einen Anfangswert (hier Null) gesetzt und zählen ab dann synchron. Der synchronisierte Wert der relativen Vsynczähler NSR kann ab dann als Argument in der Mediationsfunktion MF der Netzwerk-Grafikprozessoren NGP verwendet werden. In the unsynchronized start-up phase until the first frame synchronization time TS in FIG. 17, no values for the relative synchronization NSRs are given because this is not possible before a first frame synchronization time TS in the absence of a reference value, a synchronized VSync counter NS selected for the frame synchronization time TS. At the frame synchronization time TS, the relative Vsynczähler NSR are set to an initial value (zero here) and count from then synchronous. The synchronized value of the relative Vsynczähler NSR can then be used as an argument in the mediation function MF of the network graphics processors NGP.
In Figur 17 sind für den Master-Netzwerk-Grafikprozessor Master-NGP und den Slave-Netzwerk-Grafikprozessor Slave-NGP auch die absoluten Framekennnummern id derjenigen Videoframes angegeben, die von dem Dekodierer 3 des jeweiligen Netzwerk-Grafikprozessors NGP aktuell als dekodierter Stream 4 in die Videoframe-Warteschlange 2 geschrieben werden. Aus der Videoframe-Warteschlange 2 werden sie abgehandelt, d.h. für ihre Darstellung auf dem Display D als zu renderndes Videoframe FR aus der Videoframe-Warteschlange 2 ausgelesen, mit dem Renderer 5 gerendert und als sichtbar werdendes Videoframe FV in den Backpuffer 6 geschrieben. Die absoluten Framekennnummern id der Videoframes des Videostreams stammen aus dem Videostream selbst, nämlich aus den RTP Zeitstempeln des Kodierers, der den jeweiligen Videostream kodiert, und sind in den Videostream eingebettet. Sie identifizieren die einzelnen Videoframes, die in den Videostream eingebettet sind, und sind Netzwerk- Grafikprozessor übergreifend, d.h. für ein bestimmtes Videoframe in allen Netzwerk-Grafikprozessoren NGP gleich (daher als "absoluter" Wert bezeichnet) und können folglich beim Synchronisieren der Videoframes auf den einzelnen Netzwerk-Grafikprozessoren NGP zum Identifizieren der Videoframes in dem Videostream verwendet werden. Die absoluten Framekennnummern id können wegen der Unsicherheit der Zeitstempel im RTP-Protokoll jedoch nur zum Identifizieren der Videoframes, aber nicht für Zwecke des "Tinning", d.h. der zeitlichen Steuerung oder Synchronisation der Darstellung der Videoframes verwendet werden. Ferner ist die absolute Framekennnummer id kein Zähler, was sich beispielsweise darin zeigt, dass sie sich von einem Videoframe zum nächsten unregelmäßig auch um mehr als eins erhöht oder erhöhen kann. In FIG. 17, the master network graphics processor master NGP and the slave network graphics processor slave NGP are also given the absolute frame identification numbers id of those video frames currently being decoded by the decoder 3 of the respective network graphics processor NGP as decoded stream 4 in FIG the video frame queue 2 are written. From the video frame queue 2, they are dealt with, that is, read out for display on the display D as a video frame FR to be rendered from the video frame queue 2, rendered with the renderer 5 and written as a visible video frame FV in the back buffer 6. The absolute frame identification numbers id of the video frames of the video stream originate from the video stream itself, namely from the RTP time stamps of the encoder, which encodes the respective video stream, and are embedded in the video stream. They identify the individual video frames embedded in the video stream and are network GPU, ie, equal to a given video frame in all network graphics processors NGP (hence referred to as "absolute" value), and thus can be used in synchronizing the video frames on the individual network graphics processors NGP to identify the video frames in the video stream. However, due to the uncertainty of the timestamps in the RTP protocol, the absolute frame identification numbers id can only be used to identify the video frames, but not for purposes of "tinning", ie timing or synchronizing the presentation of the video frames. Furthermore, the absolute frame identification number id is not a counter, as evidenced by the fact that it may increase or increase irregularly by more than one from one video frame to the next.
Die Frequenz der Videoframes 4 in dem Videostream aus dem Dekodierer 3, die in Videoframe-Warteschlange 2 geschrieben bzw. aus diesem gerendert werden, entspricht im Mittel der Videostreamfrequenz fs , sodass die Videoframes im Mittel in einem zeitlichen Abstand von der Periode Ts der Videostreamfrequenz aufeinanderfolgen. Aufgrund der oben erläuterten Effekte, insbesondere des Jitters, ist die Bereitstellung der Videoframes des Videostreams aus dem Dekodierer 3 jedoch nicht zeitlich gleichmäßig, sondern schwankt ohne die erfindungsgemäße Synchronisation. Dies ist in Figur 17 durch den schwankenden zeitlichen Abstand ~ TS bei den absoluten Framekennnummern id des dekodierten Videostreams 4 aus dem Dekodierer 3 veranschaulicht. The frequency of the video frames 4 in the video stream from the decoder 3, which are written in and out of video frame queue 2 corresponds on average to the video streaming frequency f s , so that the video frames are averaged at a time interval from the period T s Video streaming frequency consecutive. Due to the above-mentioned effects, in particular the jitter, the provision of the video frames of the video stream from the decoder 3, however, is not uniform in time, but varies without the synchronization according to the invention. This is illustrated in FIG. 17 by the fluctuating time interval ~T S in the case of the absolute frame identification numbers id of the decoded video stream 4 from the decoder 3.
Aufgrund der oben erläuterten Effekte (unterschiedliche Netzwerkübertragungsdauern, unterschiedliche Verarbeitungszeiten der Dekodierer 3) ist ferner ohne die erfindungsgemäße Synchronisation das Rendern von Videoframes FR nicht zwischen Netzwerk-Grafikprozessoren NGP synchro- nisiert, sodass in Figur 17 sowohl die Zeitpunkte der Fertigstellung des Dekodierens der Videoframes als auch die absoluten Framekennnummern id der gerenderten Videoframes FR zwischen dem Master-Netzwerk-Gra- fikprozessor Master-NGP und dem Slave-Netzwerk-Grafikprozessor Slave- NGP verschieden sind. Im Ergebnis werden bei einem Bildrücklauf VR, d.h. bei einem bestimmten synchronisierten Vsynczähler NS, für den Master-Netzwerk-Grafikprozessor Master-NGP und den Slave-Netzwerk- Grafikprozessor Slave-NGP, Videoframes mit unterschiedlichen absoluten Framekennnummern id als gerenderte Videoframes FR in den jeweiligen Backpuffer 6 gerendert, was zu dem beschriebenen Frametearing führt. Die erfindungsgemäße Contentsynchronisation sorgt dafür, dass bei allen Bildrückläufen VR, d.h. bei allen Bildrücklaufsignalen Vsync und somit zu allen Werten des synchronisierten Vsynczählers NS von den an der Darstellung einer Videoeinblendung beteiligten Displays D dieselben Videoframes, d.h. die Videoframes mit derselben absoluten Framekennnummer id, dargestellt werden und dadurch das Frametearing vermieden wird. Dies wird mittels lokaler Videoframe-Warteschlangen 2 für die dekodierten Videoframes auf den Netzwerk-Grafikprozessoren NGP, lokaler Videoframezähler NF (NFM auf dem Master-Netzwerk-Grafikprozessor Master- NGP, NFS auf den Slave-Netzwerk-Grafikprozessoren Slave-NGP), lokalen relativen Videoframezählern NFR (NFRM auf dem Master-Netzwerk-Grafik- Prozessor Master-NGP, NFRS auf den Slave-Netzwerk-Grafikprozessoren Slave-NGP), zu Framesynchronisationszeitpunkten TS gehörenden und kurz vor diesen von dem Master-Netzwerk-Grafikprozessor Master-NGP an die Slave-Netzwerk-Grafikprozessoren Slave-NGP gesandte Synchronisationsnachrichten SN und die Mediationsfunktion MF bewirkt. Furthermore, due to the above-described effects (different network transmission times, different processing times of the decoder 3), without the synchronization according to the invention, the rendering of video frames FR is not synchronized between network graphics processors NGP, so that in FIG. 17 both the times of completion of the decoding of the video frames also the absolute frame identification numbers id of the rendered video frames FR between the master network graphics fischer processor master NGP and the slave network graphics processor slave NGP are different. As a result, at a frame return VR, ie at a certain synchronized VSync counter NS, for the Master Network Graphics Processor Master NGP and the Slave Network Graphics Processor Slave NGP, video frames having different absolute frame ID numbers id will be rendered as Video Frames FR in the respective ones Buffer 6 rendered, resulting in the described frame reading. The content synchronization according to the invention ensures that the same video frames, ie the video frames with the same absolute frame identification number id, are represented by all the video returns Vsync and thus to all values of the synchronized vsync counter NS by the displays D involved in the representation of a video insertion and thus the Frametearing is avoided. This is done by means of local video frame queues 2 for the decoded video frames on the network graphics processors NGP, local video frame counters NF (NFM on the master network graphics processor master NGP, NFS on the slave network graphics processors slave NGP), local relative Video frame counters NFR (NFRM on the Master Network Graphics Processor Master NGP, NFRS on the Slave Network Graphics Processors Slave NGP), belonging to frame synchronization times TS and shortly before these are sent from the master network graphics processor Master NGP to the Slave network graphics processors slave NGP sent synchronization messages SN and the mediation function MF causes.
Die Werte der lokalen Videoframezähler NF (NFM auf dem Master-Netzwerk-Grafikprozessor Master-NGP, NFS auf den Slave-Netzwerk-Grafikpro- zessoren Slave-NGP) zu den Videoframes des Videostreams auf den einzelnen Netzwerk-Grafikprozessoren NGP werden von den jeweiligen Dekodierern 3 der Netzwerk-Grafikprozessoren NGP geliefert und stehen somit auf den jeweiligen Netzwerk-Grafikprozessoren NGP lokal zur Verfügung. Die lokalen Videoframezähler NF zählen die auf dem jeweiligen Netzwerk-Grafikprozessor NGP dekodierten Videoframes (im Prinzip ab einem beliebigen Startwert), die in den Videoframe-Warteschlangen 2 abgespeichert werden, und sind Zähler, d.h. ihre Werte erhöhen sich von Videoframe zu Videoframe um eins. Die lokalen Videoframezähler NF der Netzwerk-Grafikprozessoren NGP sind aber für die an der Darstellung einer Videoeinblendung beteiligten Netzwerk-Grafikprozessoren NGP nicht synchronisiert, d.h. auf den einzelnen Netzwerk-Grafikprozessoren NGP sind einem bestimmten Videoframe (mit einer bestimmten absoluten Framekennnummer id) jeweils lokal unterschiedliche Werte der lokalen Videoframezähler NF zugeordnet. The values of the local video frame counters NF (NFM on the master network graphics processor master NGP, NFS on the slave network graphics processors slave NGP) to the video frames of the video stream on the individual network graphics processors NGP are provided by the respective decoders 3 of the network graphics processors NGP and are thus locally available on the respective network graphics processors NGP. The local video frame counters NF count those on the respective ones Network Graphics Processor NGP decodes video frames (in principle, starting from any initial value) stored in video frame queues 2 and are counters, ie their values increase one-by-one from video frame to video frame. However, the local video frame counters NF of the network graphics processors NGP are not synchronized for the network graphics processors NGP involved in the display of a video overlay, ie on the individual network graphics processors NGP are each locally different values for a particular video frame (with a particular absolute frame ID id) assigned to the local video frame counter NF.
Solange beim Dekodieren eines Videostreams auf einem Netzwerk-Grafikprozessor NGP kein Videoframe aus dem Videostream verloren geht, z.B. durch eine Fehlfunktion, eine Störung, eine Fehlübertragung oder ein Zeitproblem, erhöht sich auf einem Netzwerk-Grafikprozessor NGP der lokale Videoframezähler NF von einem Videoframe zum nächsten Videoframe jeweils um eins. Da dies entsprechend für alle lokalen Videoframezähler NF gilt, folgt daraus, dass die paarweisen Differenzen der lokalen Videoframezähler NF, d.h. der Unterschied (der "Versatz" oder "Offset", im Folgenden "die Videoframezählerdifferenz") zwischen dem lokalen Videoframezähler NF eines Netzwerk-Grafikprozessors NGP und dem lokalen Videoframezähler NF eines anderen Netzwerk-Grafikprozessors NGP zeitlich konstant ist, solange beim Dekodieren eines Videostreams auf einem Netzwerk-Grafikprozessor NGP kein Videoframe aus dem Videostream verloren geht, d.h. die Folge der von einem Netzwerk-Grafikprozessor NGP dekodierten Videoframes nicht unterbrochen wird. Unless a video frame is lost from the video stream when decoding a video stream on a network graphics processor NGP, e.g. due to a malfunction, a malfunction, a mis-transmission or a timing problem, on a network graphics processor NGP the local video frame counter NF increases from one video frame to the next video frame by one. Since this applies accordingly to all local video frame counters NF, it follows that the pairwise differences of the local video frame counters NF, i. the difference (the "offset" or "offset" hereafter "the video frame counter difference") between the local video frame counter NF of a network graphics processor NGP and the local video frame counter NF of another network graphics processor NGP is constant over time while decoding a video stream a network graphics processor NGP no video frame is lost from the video stream, ie the sequence of video frames decoded by a network graphics processor NGP is not interrupted.
Folglich ist auch die der Videoframezählerdifferenz DNF zwischen dem lokalen Videoframezähler NFS eines Slave-Netzwerk-Grafikprozessors Slave-NGP und dem lokalen Videoframezähler NFM des Master-Netzwerk- Grafikprozessors Master-NGP (DNF=NFS-NFM) zeitlich konstant, solange beim Dekodieren eines Videostreams kein Videoframe aus dem Video- stream auf einem der beiden Netzwerk-Grafikprozessoren NGP verloren geht. Diese letzte Eigenschaft, d.h. die zeitliche Konstanz der Videoframezählerdifferenz DNF eines lokalen Videoframezählers NFS eines Slave- Netzwerk-Grafikprozessors Slave-NGP gegenüber dem lokalen Video- framezähler NFM des Master-Netzwerk-Grafikprozessors Master-NGP macht sich die erfindungsgemäße Contentsynchronisation zu nutzte, denn sie ermöglicht lokal auf einem Slave-Netzwerk-Grafikprozessor Slave-NGP, den lokalen Videoframezähler NFS des Slave-Netzwerk-Grafikprozessors Slave-NGP auf den lokalen Videoframezähler NFM des Master- Netz werk- Grafikprozessors Master-NGP zu beziehen (zu normieren), um hierdurch auf dem Slave-Netzwerk-Grafikprozessor Slave-NGP dasselbe Videoframe, d.h. das Videoframe mit derselben absoluten Framekennnummern id, für die Darstellung wie auf dem Master-Netzwerk-Grafikprozessor Master-NGP auszuwählen. Ob die Videoframezählerdifferenz DNF konstant ist, wird mittels der Synchronisationsnachricht SN überprüft, und bei einer Veränderung wird erforderlichenfalls eine entsprechende Korrektur durchgeführt, um die synchrone Darstellung zu wieder herzustellen. Consequently, the video frame count difference DNF between the local video frame counter NFS of a slave network graphics processor slave NGP and the master video frame master NFM of the master network graphics processor master NGP (DNF = NFS-NFM) is also temporally constant while decoding a video stream no video frame from the video stream is lost on one of the two network graphics processors NGP. This last property, ie the temporal constancy of the video frame counter difference DNF of a local video frame counter NFS of a slave network graphics processor slave NGP compared to the local video frame counter NFM of the master network graphics processor master NGP takes advantage of the content synchronization according to the invention, because they locally on a slave network graphics processor, slave NGP allows the local video frame counter NFS of the slave network graphics processor slave NGP to be localized to the local video frame counter NFM of the master network graphics processor master NGP to thereby normalize on the slave network graphics processor slave NGP select the same video frame, ie the video frame with the same absolute frame ID id, for display as on the master network graphics processor master NGP. Whether the video frame count difference DNF is constant is checked by means of the synchronization message SN, and if necessary, a corresponding correction is made if necessary to restore the synchronous representation.
Von den Netzwerk-Grafikprozessoren NGP und werden jeweils in einer Videoframe-Warteschlange 2 die aus dem Videostream stammenden absoluten Framekennnummern id und die jeweils zu den absoluten Framekennnummern id gehörenden Werte der lokalen Videoframezähler NF (NFM auf dem Master-Netzwerk-Grafikprozessor Master-NGP, NFS auf dem jeweiligen Slave-Netzwerk-Grafikprozessor Slave-NGP) gespeichert, und zwar für eine gewisse Anzahl von absoluten Framekennnummern id. Die Videoframes, die von den Dekodierern 3 in die Videoframe-Warteschlangen 2 geschrieben werden, umfassen somit nicht nur die Bildinformation an sich (das dekodierte Videoframe), sondern für die einzelnen Videoframes jeweils auch die zugehörigen absoluten Framekennnum- mer id und den Wert des jeweiligen zugehörigen lokalen Videoframezählers NF. Diese lokale Zuordnung in den Videoframe-Warteschlangen 2 zwischen der absoluten Framekennnummer id und dem jeweiligen lokalen Videoframezähler NF ist in Figur 17 durch Verweise [2] auf die Videoframe-Warteschlangen 2 angedeutet. Sie wird von den Netz werk- Grafikprozessoren NGP jeweils lokal protokolliert. From the network graphics processors NGP and in each video frame queue 2, the video frame absolute frame IDs id and the respective frame ID numbers id associated with the local video frame counters NF (NFM on the master network graphics processor master NGP, NFS on the respective slave network graphics processor slave NGP), for a certain number of absolute frame identification numbers id. The video frames written by the decoders 3 into the video frame queues 2 thus comprise not only the picture information per se (the decoded video frame), but also the respective absolute frame identifier id and the value of the respective video frame for each video frame associated local video frame counter NF. This local allocation in the video frame queues 2 between the absolute frame ID id and the respective local Video frame counter NF is indicated in Figure 17 by references [2] to the video frame queues 2. It is logged locally by the network graphics processors NGP.
Ferner sind in Figur 17 die Werte der lokalen relativen Videoframezähler NFR (NFRM auf dem Master-Netzwerk-Grafikprozessor Master-NGP, NFRS auf den Slave-Netzwerk-Grafikprozessoren Slave-NGP), dargestellt. Sie sind jeweils lokal auf den Netzwerk-Grafikprozessoren NGP der aktuelle Wert des lokalen Videoframezählers NF abzüglich dem Wert des lokalen Videoframezählers NFcorr für das letzte Bezugsvideoframe idcorr (das Videoframe mit der absoluten Bezugsframekennnummer idcorr zum letzten Framesynchronisationszeitpunkt TS): Also shown in Figure 17 are the values of the local relative video frame counters NFR (NFRM on the master network graphics processor master NGP, NFRS on the slave network graphics processors slave NGP). They are each locally on the network graphics processors NGP the current value of the local video frame counter NF less the value of the local video frame counter NF corr for the last reference video frame id corr (the video frame with the absolute reference frame ID id corr at the last frame synchronization time TS):
NFR = NF - NFcorr NFR = NF - NF corr
Der lokale relative Videoframezähler NFR ist auch der Funktionswert der Mediationsfunktion MF an einer beliebigen Stelle (für einen beliebigen Wert des relativen Vsynczählers NSR) und wird für das Auswählen des zu rendernden Videoframes FR benutzt, d.h. der lokale relative Videoframezähler NFR bestimmt das zu verarbeitende (zu rendernde) Videoframe durch Zählen ab dem Framesynchronisationszeitpunkt TS und das mittels des lokalen relativen Videoframezählers NFR bestimmte Videoframe wird für die Darstellung auf dem Display gerendert. The local relative video frame counter NFR is also the function value of the mediation function MF at any location (for any value of the relative sync counter NSR) and is used for selecting the video frame FR to be rendered, i. the local relative video frame counter NFR determines the video frame to be processed (counting) from the frame synchronization time TS and the video frame determined by the local relative video frame counter NFR is rendered for display on the display.
Da Figur 17 noch die vollständig unsynchronisierte Initialisierungsphase veranschaulicht, sind bis zum ersten Framesynchronisationszeitpunkt TS keine Werte für den lokalen relativen Videoframezähler NFRM auf dem Master-Netzwerk-Grafikprozessor Master-NGP und den lokalen relativen Videoframezähler NFRS auf dem Slave- Netzwerk-Grafikprozessor Slave- NGP dargestellt. Zu einem Synchronisationsnachrichtzeitpunkt TSN sendet der Master- Netzwerk-Grafikprozessor Master-NGP über das Netzwerk den Slave-Netz- werk-Grafikprozessoren Slave-NGP eine Synchronisationsnachricht SN. Sie werden bevorzugt in der Betriebsart Multicast gesendet (Multicast Sync- Messages oder Multicast Sync-Telegramme), und zwar nur von dem Mas- ter-Netzwerk-Grafikprozessor Master-NGP an die Slave-Netzwerk-Grafik- prozessoren Slave-NGP, aber nicht von den Slave-Netzwerk-Grafikprozes- soren Slave-NGP an den Master-Netzwerk-Grafikprozessor Master-NGP oder zwischen den Slave-Netzwerk-Grafikprozessoren Slave-NGP. Sie die- nen dazu, die Contentsynchronisation an einem kurz darauf folgenden Framesynchronisationszeitpunkt TS durchzuführen, mittels der der Master-Netzwerk-Grafikprozessor Master-NGP und die Slave- Netzwerk-Grafikprozessoren Slave-NGP nach der Vorgabe des Master-Netzwerk-Grafikprozessors Master-NGP aufeinander synchronisiert werden. Since FIG. 17 still illustrates the completely unsynchronized initialization phase, no values for the local relative video frame counter NFRM on the master network graphics processor master NGP and the local relative video frame counter NFRS on the slave network graphics processor slave NGP are up to the first frame synchronization time TS shown. At a synchronization message time TSN, the master network graphics processor master NGP sends a synchronization message SN to the slave network graphics processors slave NGP via the network. They are preferably transmitted in the Multicast mode (Multicast Sync Messages or Multicast Sync telegrams), but only by the Master Network Graphics Processor Master NGP to the Slave Network Graphics Processors Slave NGP, but not from the slave network graphics processors slave NGP to the master network graphics processor master NGP or between the slave network graphics processors slave NGP. They serve to perform the content synchronization at a frame synchronization instant TS shortly thereafter, by means of which the master network graphics processor master NGP and the slave network graphics processors slave NGP according to the specification of the master network graphics processor master NGP synchronized with each other.
Die Synchronisationsnachrichten SN vom Master-Netzwerk-Grafikprozessor Master-NGP an die Slave-Netzwerk-Grafikprozessoren Slave-NGP sorgen dafür, dass auf den Netzwerk-Grafikprozessoren NGP die Mediationsfunktionen MF zu denselben Zeitpunkten mit denselben relativen Vsync- Zählern NSR und demselben Frequenzverhältnis fs / fd bzw. Td / Ts starten. Damit die Synchronisationsnachrichten SN rechtzeitig bei den Slave- Netzwerk-Grafikprozessoren Slave-NGP vorliegen und gleichzeitig von den Slave-Netzwerk-Grafikprozessoren Slave-NGP verarbeitet werden können, werden sie jeweils kurz vor dem nächsten Framesynchronisationszeit- punkt TS gesendet. Ein Framesynchronisationszeitpunkt TS ist der Zeitpunkt, in dem ein Anwendungsabschnitt einer Mediationsfunktion MF endet und ein neuer Anwendungsabschnitt mit einem zurückgesetzten lokalen relativen Vsynczähler NSR startet. Ein Framesynchronisationszeitpunkt TS ist somit die Nahtstelle zwischen zwei Mediationsfunktions- Abschnitten, d.h. zwischen zwei aufeinanderfolgenden Mediationsdauern TM. Weil die Latenz der MultiCast-Synchronisationsnachrichten SN über das Netzwerk klein ist (ca. 1 msec), reicht es aus, wenn sie eine oder zwei Bildperioden Td vor dem Framesynchronisationszeitpunkt TS gesendet werden. The synchronization messages SN from the master network graphics processor master NGP to the slave network graphics processors slave NGP ensure that on the network graphics processors NGP the mediation functions MF at the same times with the same relative Vsync counters NSR and the same frequency ratio f s / f d or T d / T s start. So that the synchronization messages SN are available in good time at the slave network graphics processors slave NGP and can be processed by the slave network graphics processors slave NGP at the same time, they are each sent shortly before the next frame synchronization time TS. A frame synchronization time TS is the time at which an application portion of a mediation function MF ends and a new application portion starts with a reset local relative synchronization counter NSR. A frame synchronization time TS is thus the interface between two mediation function sections, ie between two consecutive mediation durations TM. Because the latency of the MultiCast synchronization messages SN across the network is small (about 1 msec), it suffices if they have one or more two frame periods T d are sent before the frame synchronization time TS.
Aufgrund der Netzwerklatenz muss eine Synchronisationsnachricht SN in einem zeitlichen Sicherheitsabstand vor dem nächsten Framesynchronisationszeitpunkt TS gesendet werden, damit sie die Slave-Netzwerk-Grafik- prozessoren Slave-NGP rechtzeitig zum Framesynchronisationszeitpunkt TS erreicht. Bei normalen Betriebsbedingungen des Netzwerks genügt hierfür ein Framesynchronisationszeitpunktvorlauf TSV kleiner als 1 msec, bei Spitzenlast im Netzwerk genügen mehrere Millisekunden (kleiner als 10 msec). In der Praxis genügen hierfür ein oder zwei Bildrückläufe, d.h. allgemein ist es vorteilhaft, wenn dieser Framesynchronisationszeitpunkt- vorlauf TSV zwischen l x Td und 3 x Td beträgt. Ein vorteilhaftes Merkmal kann dementsprechend darin bestehen, dass die den Framesynchronisationszeitpunkten TS zugeordneten Synchronisationsnachrichten SN zu Synchronisationsnachrichtzeitpunkten TSN von dem Master-Netzwerk- Grafikprozessor an die Slave-Netzwerk-Grafikprozessoren gesendet werden, die um einen Framesynchronisationszeitpunktvorlauf TSV vor dem zugehörigen folgenden Framesynchronisationszeitpunkt TS liegen, der zwischen einer halben und fünf, bevorzugt zwischen ein und drei Perioden Td der vertikale Displayfrequenz fd beträgt, wobei ein bevorzugter Wert zwei Perioden Td ist. Due to the network latency, a synchronization message SN must be sent at a time interval before the next frame synchronization time TS in order for it to reach the slave network graphics processors slave NGP in time for the frame synchronization time TS. Under normal operating conditions of the network, a frame synchronization time advance TSV of less than 1 msec is sufficient for this purpose, and several milliseconds (less than 10 msec) are sufficient for peak loads in the network. In practice, one or two picture returns are sufficient for this purpose, ie in general it is advantageous if this frame synchronization time advance TSV is between 1 × T d and 3 × T d . Accordingly, an advantageous feature may be that the synchronization messages SN associated with the frame synchronization instants TS are sent at synchronization message instants TSN from the master network graphics processor to the slave network GPUs which are one frame synchronization timing advance TSV prior to the associated following frame synchronization time TS between one-half and five, preferably between one and three periods T d is the vertical display frequency f d , a preferred value being two periods T d .
Eine Synchronisationsnachricht SN des Master-Netzwerk-Grafikprozessors Master-NGP an die Slave-Netzwerk-Grafikprozessoren Slave-NGP enthält einen Auszug von Informationen, die auf dem Master-Netzwerk-Grafikprozessors Master-NGP lokal aufgezeichnet werden, z.B. in Form von Tabellenwerten oder Protokollen. Diese Aufzeichnung erfolgt nicht für die gesamte Vergangenheit, sondern nur für einen gewissen, aktuell zurückliegenden Zeitraum, der etwa dem Umfang der Videoframe-Warteschlange 2 entspricht. Diese aufgezeichneten Informationen umfassen die lokale Zuordnung zwischen den absoluten Framekennnummern id und dem loka- len Videoframezähler NFM des Master-Netzwerk-Grafikprozessors Master- NGP der Videoframes in der Videoframe-Warteschlange 2 des Master- Netzwerk-Grafikprozessors Master-NGP, d.h. jeder Eintrag in die Videoframe-Warteschlange 2 des Master-Netzwerk-Grafikprozessors Master- NGP enthält die absolute Framekennnummer id des Videoframes und den zugehörigen lokalen Videoframezähler NFM. A synchronization message SN of the master network graphics processor master NGP to the slave network graphics processors slave NGP contains an extract of information that is recorded locally on the master network graphics processor master NGP, for example in the form of table values or protocols , This recording does not take place for the entire past, but only for a certain, current past period, which corresponds approximately to the size of the video frame queue 2. This recorded information includes the local mapping between the absolute frame ID numbers id and the local master network graphics processor master NGP video frame counter NFM in master video processor's video frame queue 2 Master NGP, ie each entry in the video frame queue 2 of the master network graphics processor master NGP contains the absolute frame ID id of the video frame and the associated local video frame counter NFM.
Dieselben Informationen werden entsprechend jeweils in den Slave-Netz- werk-Grafikprozessoren Slave-NGP aufgezeichnet, und zwar während einer vergleichbaren Dauer wie in dem Master-Netzwerk-Grafikprozessor Master-NGP. Dementsprechend umfassen diese aufgezeichneten Informationen die lokale Zuordnung zwischen den absoluten Framekennnummern id und dem lokalen Videoframezähler NFS des Slave-Netzwerk-Grafikpro- zessors Slave-NGP der Videoframes in der Videoframe-Warteschlange 2 des Slave-Netzwerk-Grafikprozessors Slave-NGP, d.h. jeder Eintrag in die Videoframe-Warteschlange 2 eines Slave-Netzwerk-Grafikprozessors Slave-NGP enthält die absolute Framekennnummer id des Videoframes und den zugehörigen lokalen Videoframezähler NFS. The same information is respectively recorded in the slave network graphics processors Slave NGP, for a similar duration as in the master network graphics processor master NGP. Accordingly, this recorded information includes the local association between the absolute frame ID numbers id and the local video frame counter NFS of the slave network graphics processor slave NGP of the video frames in the video frame queue 2 of the slave network graphics processor slave NGP, i. each entry in the video frame queue 2 of a slave network graphics processor Slave NGP contains the video frame absolute frame ID id and the associated local video frame counter NFS.
Somit ist auf allen Netzwerk-Grafikprozessoren NGP bekannt, welche absoluten Framekennnummern id jeweils welchem lokalen Videoframezähler NF für die in der Videoframe-Warteschlange 2 gepufferten Videoframes zugeordnet ist. Dabei ist gewährleistet, dass alle Momentbilder der Videoframe-Warteschlangen 2 für Videoframes zum selben Zeitpunkt (im Rahmen der Genauigkeit der ersten (PTP) und zweiten Schicht (Vertical- Retrace-Management)) abgespeichert wurden. Thus, it is known on all network graphics processors NGP which absolute frame identification numbers id are respectively assigned to which local video frame counter NF for the video frames buffered in the video frame queue 2. This ensures that all snapshots of the video frame queues 2 for video frames are stored at the same time (within the accuracy of the first (PTP) and second layer (vertical retrace management)).
Eine Synchronisationsnachricht SN des Master-Netzwerk-Grafikprozessors Master-NGP an die Slave-Netzwerk-Grafikprozessoren Slave-NGP enthält folgenden Auszug der vorstehend erläuterten, protokollierten Informationen: Ein Momentbild (Snapshot, Momentaufnahme) der Videoframe- Warteschlange 2 des Master-Netzwerk-Grafikprozessors Master- NGP zu einem Zeitpunkt des relativen Vsynczählers NSR, der um den Framesynchronisationszeitpunktvorlauf TSV vor dem nächsten Framesynchronisationszeitpunkt TS liegt. In diesem Momentbild ist die lokale Zuordnung zwischen den absoluten Framekennnummern id und dem lokalen Videoframezähler NFM des Master-Netzwerk-Grafikprozessors Master-NGP der Videoframes in der Videoframe-Warteschlange 2 des Master-Netz- werk-Grafikprozessors Master-NGP enthalten. A synchronization message SN of the master network graphics processor master NGP to the slave network graphics processors slave NGP contains the following excerpt of the above-described, logged information: A snapshot (snapshot) of the video frame queue 2 of the master network graphics processor master NGP at a time of the relative vsync counter NSR which is prior to the next frame synchronization time TS by the frame synchronization timing advance TSV. In this snapshot, the local association between the absolute frame ID numbers id and the local video frame counter NFM of the master network graphics processor master NGP of the video frames is contained in the video frame queue 2 of the master network graphics processor master NGP.
Den Wert des lokalen Videoframezählers NFM des Master-Netz- werk-Grafikprozessors Master-NGP für das aktuelle Videoframe, das als letztes, d.h. unmittelbar vor dem Versand der Synchronisationsnachricht SN vom Master-Netzwerk-Grafikprozessor Master-NGP aus der Videoframe-Warteschlange des 2 Master- Netzwerk-Grafikprozessors Master-NGP zum Rendern ausgelesen wurde. The value of the master video frame counter NFM of the master network graphics processor master NGP for the current video frame, which is the last one, i. was read out from the video frame queue of the master NGP master graphics processor NGP for rendering, just before sending the synchronization message SN from the Master Network Graphics Processor Master NGP.
Die vom Master-Netzwerk-Grafikprozessor Master-NGP gemessene Videostreamfrequenz fs (oder die hierzu äquivalente Information der Periode Ts der Videostreamfrequenz fs ). The video stream frequency f s (or the equivalent information of the period T s of the video streaming frequency f s ) measured by the master network graphics processor master NGP.
Die vertikale Displayfrequenz fd (oder die hierzu äquivalente Information der Periode Td der vertikalen Displayfrequenz fd ). Die vertikale Displayfrequenz fd wird von dem Master-Netzwerk-Grafikprozessor Master-NGP gemessen und als einheitlicher Wert an alle Slave- Slave-NGP übermittelt, damit eine exakte Übereinstimmung der Mediationsfunktion auf den Slave- Netzwerk-Grafikprozessoren Slave-NGP mit dem Master-Netz- werk-Grafikprozessor Master-NGP vorliegt. Dementsprechend wird mit einer Synchronisationsnachricht SN des Master-Netz- werk-Grafikprozessors Master-NGP an die Slave-Netzwerk-Gra- fikprozessoren Slave-NGP auch eine Information über die vom Master-Netzwerk-Grafikprozessor Master-NGP gemessene vertikale Displayfrequenz fd (oder die hierzu äquivalente Information der Periode Td der vertikalen Displayfrequenz fd ) übermittelt wird, wobei diese Information entweder die vertikale Displayfrequenz fd selbst oder den Quotienten mit der Video- streamfrequenz fs (oder die hierzu äquivalente Information über das Verhältnis der Periode der vertikalen Displayfrequenz und der Periode der Videostreamfrequenz) umfasst. The vertical display frequency f d (or the equivalent information of the period T d of the vertical display frequency f d ). The vertical display frequency f d is measured by the master network graphics processor master NGP and transmitted as a uniform value to all slave slave NGP, so that an exact match of the mediation function on the slave network graphics processors slave NGP with the master Network graphics processor Master NGP is present. Accordingly, with a synchronization message SN of the master network The graphics processor NGP master to the slave network graphics processors NGP slave also information about the master network graphics processor master NGP measured vertical display frequency f d (or the equivalent information of the period T d of the vertical display frequency f d ), this information comprising either the vertical display frequency f d itself or the quotient with the video stream frequency f s (or the equivalent information on the ratio of the period of the vertical display frequency and the period of the video streaming frequency).
Anstatt der Informationen gemäß (iii) (Videostreamfrequenz fs oder Periode Ts der Videostreamfrequenz fs ) und (iv) (vertikale Displayfrequenz fd oder Periode Td der vertikalen Displayfrequenz fd ) kann in abgewandelten Ausführungsformen die Synchronisationsnachricht SN auch nur das Verhältnis dieser Größen, d.h. den Quotienten fs / fd oder Td / Ts , enthalten, da in die Mediationsfunktion nur das Verhältnis dieser Größen eingeht und somit auf den Slave-Netzwerk-Grafikprozessoren Slave- NGP nur der Wert dieses Verhältnisses, nicht aber die Frequenzen selbst benötigt werden. Derartige Abwandlungen werden als äquivalent angesehen. Instead of the information according to (iii) (video streaming frequency f s or period T s of the video streaming frequency f s ) and (iv) (vertical display frequency f d or period T d of the vertical display frequency f d ), in modified embodiments the synchronization message SN may also be only the ratio These variables, ie the quotient f s / f d or T d / T s , contain, because in the mediation function only the ratio of these sizes is received and thus on the slave network graphics processors slave NGP only the value of this ratio, but not the frequencies themselves are needed. Such modifications are considered equivalent.
Bis zum ersten Senden einer Synchronisationsnachricht SN bzw. bis zum Abschluss der stufenweisen Initialisierung der Synchronisation liegen noch nicht alle dieser gespeicherten Informationen auf dem Master- Netzwerk- Grafikprozessor Master-NGP bzw. den Slave-Netzwerk-Grafikprozessoren Slave-NGP bzw. alle Informationen einer vollständigen Synchronisationsnachricht SN vor. Bis zum ersten Framesynchronisationszeitpunkt TS, der in Figur 17 dargestellt ist, erfolgt die Darstellung der Videoframes auf den Displays D gänzlich unsynchronisiert. Ab dem ersten Framesynchronisationszeitpunkt TS sind der Master-Netzwerk-Grafikprozessor Master-NGP und die Slave-Netzwerk-Grafikprozessoren Slave-NGP hinsichtlich der Zeitpunkte synchronisiert, zu denen die Mediationsfunktion MF neu gestartet wird, d.h. zu denen der relative Vsynczähler NSR wieder bei Null beginnt. Diese Zeitpunkte sind die Framesynchronisationszeitpunkte TS und der Neustart erfolgt jeweils zu denselben Werten des synchronisierten Vsynczählers NS. Damit wird eine synchrone Grundtaktung erreicht, da ab dem Framesynchronisationszeitpunkt TS der relative Vsynczähler NSR zwischen dem Master-Netzwerk-Grafikprozessor Master-NGP und den Slave-Netzwerk-Grafikprozessoren Slave-NGP synchronisiert ist. Die loka- len relativen Videoframezähler NFR und die auf den Displays D dargestellten Videoframes sind jedoch noch nicht synchronisiert. Until the first transmission of a synchronization message SN or until the completion of the stepwise initialization of the synchronization, not all of this stored information on the master network graphics processor master NGP or the slave network graphics processors slave NGP or all information one complete synchronization message SN. Until the first frame synchronization time TS, which is shown in FIG. 17, the presentation of the video frames on the displays D is completely unsynchronized. From the first frame synchronization time TS, the master network graphics processor is master NGP and the slave network graphics processors synchronize slave NGP for the times at which the mediation function MF is restarted, ie at which the relative synchronization counter NSR begins again at zero. These times are the frame synchronization times TS and the restart takes place respectively to the same values of the synchronized Vsynczählers NS. Thus, a synchronous basic clocking is achieved because from the frame synchronization time TS, the relative Vsynczähler NSR is synchronized between the master network graphics processor master NGP and the slave network graphics processors slave NGP. However, the local relative video frame counters NFR and the video frames shown on the displays D are not yet synchronized.
Die Figur 18 zeigt den Ablauf der nächsten Vorbereitungsstufe, nämlich die Werte von Figur 17 zum Zeitpunkt kurz vor und nach dem zweiten Framesynchronisationszeitpunkt TS, der nach einer Mediationsdauer TM auf den ersten Synchronisationszeitpunkt TS folgt. In dem dargestellten Beispiel ist die Mediationsdauer TM dreißig mal so groß wie die Periode Td der vertikalen Displayfrequenz fd , d.h. TM = 30 x Td . Wiederum wird zu einem Zeitpunkt, der um den Framesynchronisationszeitpunktvorlauf TSV vor dem Synchronisationszeitpunkt TS liegt, von dem Master-Netzwerk- Grafikprozessor Master-NGP eine Synchronisationsnachricht SN an die Slave-Netzwerk-Grafikprozessoren Slave-NGP gesendet. Diese beinhaltet bereits die Frequenzen fs und fd (oder das Frequenzverhältnis fs / fd ), und da der relative Vsynczähler NSR schon bei dem ersten Framesynchro- nisationszeitpunkt synchronisiert wurde, sind ab dem zweiten Framesynchronisationszeitpunkt TS die Mediationsfunktionen MF zwischen dem Master-Netzwerk-Grafikprozessor Master-NGP und den Slave- Netzwerk- Grafikprozessoren Slave-NGP synchronisiert, da alle Werte für das Argument der Mediationsfunktion MF synchronisiert sind. FIG. 18 shows the sequence of the next preparation stage, namely the values of FIG. 17 at the time shortly before and after the second frame synchronization time TS, which follows the first synchronization time TS after a mediation period TM. In the illustrated example, the mediation time TM is thirty times the period T d of the vertical display frequency f d , ie, TM = 30 × T d . Again, at a time later than the frame synchronization timing advance TSV, prior to the synchronization time TS, a synchronization message SN is sent from the master network graphics processor master NGP to the slave network graphics processors slave NGP. This already includes the frequencies f s and f d (or the frequency ratio f s / f d ), and since the relative sync counter NSR has already been synchronized at the first frame synchronization time, the mediation functions MF between the master sync. Network graphics processor master NGP and the slave network graphics processors slave NGP synchronized, since all values for the argument of the mediation function MF are synchronized.
Ab dem zweiten Framesynchronisationszeitpunkt TS sind somit der Master- Netz werk- Grafikprozessor Master-NGP und die Slave-Netzwerk-Grafik- Prozessoren Slave-NGP auch hinsichtlich der "Phase" synchronisiert und der Funktionswert der Mediationsfunktion MF bestimmt, welches Videoframe jeweils lokal auf einem Netzwerk-Grafikprozessor NGP aus der lokalen Videoframe-Warteschlange 2 des jeweiligen Netzwerk-Grafikprozes- sors NGP gerendert wird. Es liegt aber noch keine vollständige Synchronisation vor, denn es fehlt noch die Contentsynchronisation, damit von den Netzwerk-Grafikprozessoren NGP die Videoframes nicht nur im gleichen Takt dargestellt werden, sondern auch übereinstimmend und somit tearingfrei dieselben Videoframes (mit der selben absoluten Framekenn- nummer id) dargestellt werden. Daher unterscheiden sich im allgemeinen nach dem zweiten Framesynchronisationszeitpunkt TS noch die in den Backpuffer 6 gerenderten Videoframes FR zwischen dem Master-Netz- werk-Grafikprozessor Master-NGP und dem Slave-Netzwerk-Grafikprozessor Slave-NGP bzw. zwischen den Slave-Netzwerk-Grafikprozessoren Slave-NGP. From the second frame synchronization time TS, the master network graphics processor Master NGP and the slave network graphics Processors slave NGP also synchronized with respect to the "phase" and the function value of the mediation function MF determines which video frame is locally rendered on a network graphics processor NGP from the local video frame queue 2 of the respective network graphics processor NGP. However, there is still no complete synchronization, because there is still missing the content synchronization, so that the network graphics processors NGP the video frames are not only displayed in the same clock, but also consistent and thus tearing free the same video frames (with the same absolute frame identifier id ) being represented. Therefore, in general, after the second frame synchronization time TS, the video frames FR rendered in the back buffer 6 still differ between the master network graphics processor master NGP and the slave network graphics processor slave NGP or between the slave network graphics processors slave NGP.
Für die vollständige Synchronisation muss nach dem zweiten Framesynchronisationszeitpunkt TS lokal von den Slave-Netzwerk-Grafikprozesso- ren Slave-NGP noch ein lokaler additiver Wert, der Frameversatz, bestimmt werden, der angibt, um wie viele Videoframes die Darstellung der Videoframes auf dem Slave-Netzwerk-Grafikprozessor Slave-NGP (der gerenderten Videoframes FR auf dem Slave-Netzwerk-Grafikprozessor Slave-NGP) gegenüber der Darstellung der Videoframes auf dem Master- Netzwerk-Grafikprozessor Master-NGP (der gerenderten Videoframes FR auf dem Master-Netzwerk-Grafikprozessor Master-NGP) unmittelbar vor dem Framesynchronisationszeitpunkt TS (genauer gesagt, vor der Synchronisationsnachricht SN) versetzt war. Es wird dann angenommen, dass dieser Frameversatz während der auf einen Framesynchronisationszeitpunkt TS folgenden Mediationsdauer TM konstant ist, und die Darstellung der Videoframes wird in diesem Zeitraum durch additive Berücksichtigung des Frameversatzes entsprechend korrigiert, sodass dann eine vollständige Synchronisierung erzielt wird. Bei jedem Framesynchronisationszeit- punkt TS wird dieser Frameversatz wieder neu ermittelt bzw. überprüft, sodass diesbezügliche Änderungen korrigiert werden. For the complete synchronization, after the second frame synchronization time TS, a local additive value, the frame offset, must be determined locally by the slave network graphics processors Slave-NGP, which specifies how many video frames the presentation of the video frames on the slave Network Graphics Processor Slave NGP (the rendered video frames FR on the slave network graphics processor slave NGP) versus the presentation of the video frames on the master network graphics processor master NGP (the rendered video frames FR on the master network graphics processor Master -NGP) immediately before the frame synchronization time TS (more precisely, before the synchronization message SN). It is then assumed that this frame offset is constant during the mediation time TM following a frame synchronization time TS, and the presentation of the video frames is correspondingly corrected in this period by adding frame offset, so that complete synchronization is achieved. At each frame synchronization time point TS, this frame offset is again determined or checked so that changes in this regard are corrected.
Diese Bestimmung des Frameversatzes zwischen den von dem Master- Netzwerk-Grafikprozessor Master-NGP und jeweils einem Slave-Netzwerk- Grafikprozessor Slave-NGP gerenderten Videoframes erfolgt mittels der Synchronisationsnachricht SN, die unmittelbar vor dem in Figur 19 dargestellten dritten Framesynchronisationszeitpunkt TS gesendet wird. Die Figur 19 veranschaulicht somit den Synchronisationsprozess, weil ab dem dritten Framesynchronisationszeitpunkt TS eine vollständige Synchronisation erzielt wird. This determination of the frame offset between the video frames, which are rendered by the master network graphics processor master NGP and in each case by a slave network graphics processor slave NGP, takes place by means of the synchronization message SN, which is transmitted immediately before the third frame synchronization time TS shown in FIG. FIG. 19 thus illustrates the synchronization process because a complete synchronization is achieved from the third frame synchronization time TS.
Jeweils ab dem Beginn eines neuen Abschnitts der Mediationsfunktion MF, d.h. zu Beginn einer neuen Mediationsdauer TM nach einem Reset der Mediationsfunktion MF Mediation-Function-Reset auf einen relativen relativen Vsynczähler NSR von Null zu einem Framesynchronisationszeitpunkt TS mittels einer kurz davor übermittelten Synchronisationsnachricht SN werden auf allen Netzwerk-Grafikprozessoren NGP, d.h. auf dem Master- Netzwerk-Grafikprozessor Master-NGP und allen Slave-Netzwerk-Grafik- Prozessoren Slave-NGP, die an der Darstellung der betrachteten Videoeinblendung beteiligt sind, Momentbilder der jeweiligen Videoframe-Warteschlange 2 abgespeichert. Genau gesagt werden die Momentbilder zu Beginn derselben Bildrücklaufe abgespeichert, die anhand des synchronisierten Vsynczählers NS identifiziert werden, der von dem Vertical- Retrace-Management auf allen beteiligten Netzwerk-Grafikprozessoren NGP bereitgestellt wird. Jeder Eintrag in die Videoframe-Warteschlange 2 und somit auch in die Momentbilder enthält die absolute Framekennnummer id des Videoframes und den zugehörigen lokalen Videoframezähler NF. Mit der nächsten Synchronisationsnachricht SN, die der Master-Netz- werk-Grafikprozessor Master-NGP um den Framesynchronisationsvorlauf TSV, in dem dargestellten Beispiel zwei Bildrückläufe vor dem nächsten vor dem Framesynchronisationszeitpunkt TS und somit zwei Bildrückläufe vor dem nächsten Reset der Mediationsfunktion-Reset im Multicast-Modus über das Netzwerk an die Slave-Netzwerk-Grafikprozessoren Slave-NGP schickt, erhalten alle Slave-Netzwerk-Grafikprozessoren Slave-NGP rechtzeitig vor diesem nächsten Framesynchronisationszeitpunkt TS das aktu- eile Momentbild der Videoframe-Warteschlange 2 des Master-Netzwerk- Grafikprozessors Master-NGP und können es mit ihrem eigenen Momentbild vergleichen, das zum selben Zeitpunkt wie das des Master-Netzwerk- Grafikprozessors Master-NGP abgespeichert wurde. Zum Bestimmen des Frame Versatzes wird lokal in dem Slave-Netzwerk- Grafikprozessor Slave-NGP das mit der Synchronisationsnachricht SN empfangene Momentbild der Videoframe-Warteschlange 2 des Master- Netzwerk-Grafikprozessors Master-NGP mit einem lokal gespeicherten Momentbild der Videoframe-Warteschlange 2 des Slave-Netzwerk-Grafik- Prozessors Slave-NGP verglichen. Dabei werden die Einträge in den Videoframe-Warteschlangen 2 verglichen. Diese haben einen Überlappungsbereich bei den absoluten Framekennnummern id, d.h. manche absolute Framekennnummern id kommen sowohl in dem Momentbild der Videoframe-Warteschlange 2 des Master-Netzwerk-Grafikprozessors Master- NGP als auch in dem Momentbild der Videoframe-Warteschlange 2 des Slave-Netzwerk-Grafikprozessors Slave-NGP vor. In each case from the beginning of a new section of the mediation function MF, ie at the beginning of a new mediation TM after a reset of the mediation function MF Mediation Function Reset to a relative relative Vsynczähler NSR from zero to a frame synchronization time TS by means of a shortly before transmitted synchronization message SN on all network graphics processors NGP, ie on the master network graphics processor master NGP and all slave network graphics processors slave NGP, which are involved in the representation of the considered video insertion, snapshots of the respective video frame queue 2 stored. Specifically, the snapshots are stored at the beginning of the same frame returns identified by the synchronized vsync counter NS provided by the vertical retrace management on all participating network graphics processors NGP. Each entry in the video frame queue 2, and thus also in the snapshots, contains the video frame absolute frame ID id and the associated local video frame counter NF. With the next synchronization message SN, the master network graphics processor master NGP has the frame synchronization lead TSV, in the illustrated example, two picture returns before the next before the frame synchronization time TS and thus two picture returns before resetting the mediation function reset in multicast mode over the network to the slave network graphics processors slave NGP before the next reset, all slave network graphics processors slave NGP receive the current frame image of the video frame in good time before this next frame synchronization time TS Queue 2 of the master network graphics processor master NGP and can compare it with its own snapshot, which was stored at the same time as that of the master network graphics processor master NGP. To determine the frame offset, the snapshot of the video frame queue 2 of the master network graphics processor master NGP with a locally stored snapshot of the video frame queue 2 of the slave is stored locally in the slave network graphics processor slave NGP with the synchronization message SN Network Graphics Processor Slave NGP compared. The entries in the video frame queues 2 are compared. These have an overlap area on the absolute frame IDs id, ie some absolute frame IDs id come both in the snapshot of the video frame queue 2 of the master network graphics processor master NGP and in the snapshot of the video frame queue 2 of the slave network graphics processor Slave NGP before.
Von diesen wird eine absolute Framekennnummer id genommen, die jeweils in beiden Momentbildern enthalten ist, und der Slave-Netzwerk- Grafikprozessor Slave-NGP bestimmt mit deren Hilfe lokal den Frameversatz (die Differenz der lokalen relativen Videoframezähler NFR). Mit dieser Information kann dann der lokale relative Videoframezähler NFRS des Slave-Netzwerk-Grafikprozessors Slave-NGP auf das System des Master- Netzwerk-Grafikprozessors Master-NGP renormiert werden. Es ist also möglich, auf den Slave-Netzwerk-Grafikprozessoren Slave-NGP nur mit den lokalen Videoframezählern NFRS zu rechnen bzw. zu arbeiten, um das zu rendernde Videoframe FR zu bestimmen und die Synchronisation durchzuführen, weil die Slave-Netzwerk-Grafikprozessoren Slave-NGP auf das System des Master-NGP Master-Netzwerk-Grafikprozessors Master- NGP normiert, d.h. darauf bezogen und danach abgeglichen sind. Prinzipiell kann man beim Vergleichen der Synchronisationsnachricht SN auf einem Slave-Netzwerk-Grafikprozessor Slave-NGP mit den auf dem Slave-Netzwerk-Grafikprozessor Slave-NGP gespeicherten Werten in einem Vergleichsprozess nach einer beliebigen, jüngeren, absoluten Framekennnummer id suchen, die in beiden Momentbildern, d.h. in dem Momentbild der Videoframe-Warteschlange 2 des Master-Netzwerk-Grafik- prozessors Master-NGP, das mit der Synchronisationsnachricht SN an den Slave-Netzwerk-Grafikprozessor Slave-NGP übermittelt wurde, und dem Momentbild der Videoframe-Warteschlange 2 des Slave-Netzwerk-Grafik- prozessors Slave-NGP enthalten ist, um anhand dieses Videoframes den Frameversatz zu bestimmen. In vorteilhaften Ausführungsformen, in denen die Synchronisationsnachricht SN optional die absolute Framekennnummer id des neuesten Videoframes auf dem Master-Netzwerk-Grafikprozessor Master-NGP umfasst, wird die absolute Framekennnummer id des neuesten Videoframes in einer Synchronisationsnachricht SN "von dem Master-Netzwerk-Grafikprozessor Master-NGP an die Slave-Netzwerk- Grafikprozessoren Slave-NGP übertragen, um zu überprüfen, ob für dieses bestimmte neueste Videoframe eine Überlappung vorliegt. Dementsprechend besteht eine vorteilhafte Ausführungsform darin, dass eine Synchronisationsnachricht SN des Master-Netzwerk-Grafikprozessors Master-NGP an die Slave-Netzwerk-Grafikprozessoren Slave-NGP auch die absolute Framekennnummer id des neuesten Videoframes auf dem Master-Netzwerk-Grafikprozessor Master-NGP, d.h. das Videoframe, das auf dem Master-Netzwerk-Grafikprozessor Master-NGP zuletzt gerendert wurde, umfasst, und bei dem Vergleich der Momentbilder danach gesucht wird, ob diese absolute Framekennnummer id in den verglichenen Momentbildern enthalten ist. Im Falle der Überlappung der Momentbilder (egal ob für ein beliebiges oder das neueste Videoframe) gibt es zwei Möglichkeiten. Entweder liegt die letzte absolute Framekennnummer id des Master-Netzwerk-Grafikprozessors Master-NGP in dem Momentbild der Videoframe-Warteschlange 2 des Slave-Netzwerk-Grafikprozessors Slave-NGP oder die letzte absolute Framekennnummer id des Slave-Netz- werk-Grafikprozessors Slave-NGP liegt in dem Momentbild der Videoframe-Warteschlange 2 des Master-Netzwerk-Grafikprozessors Master- NGP. Of these, an absolute frame ID id is taken, each contained in both snapshots, and the slave network graphics processor slave NGP locally determines the frame offset (the difference of the local relative video frame counters NFR). With this information, the local relative video frame counter NFRS of the slave network graphics processor slave NGP can then be renormalized to the system of the master network graphics processor master NGP. It is thus possible to work on the slave network graphics processors slave NGP only with the local video frame counters NFRS or to work to determine the video frame FR to be rendered and the synchronization because the slave network graphics processors normalize slave NGP to the master NGP master network graphics processor master NGP system, ie, referenced and matched thereafter. In principle, when comparing the synchronization message SN on a slave network graphics processor slave NGP with the values stored on the slave network graphics processor slave NGP, in a comparison process, one can look for any, younger, absolute frame identification number id which is in both instant pictures ie, in the snapshot of the video frame queue 2 of the master network graphics processor master NGP transmitted with the synchronization message SN to the slave network graphics processor slave NGP and the snapshot of the video frame queue 2 of the slave Network Graphics Processor Slave NGP is included to determine the frame offset based on this video frame. In advantageous embodiments, in which the synchronization message SN optionally comprises the absolute frame identification number id of the latest video frame on the master network graphics processor master NGP, the absolute frame identification number id of the most recent video frame is mastered in a synchronization message SN " from the master network graphics processor NGP is transmitted to the slave network graphics processors slave NGP to check whether there is an overlap for that particular latest video frame Accordingly, an advantageous embodiment is that a master network graphics processor master NGP synchronization message SN to the Slave Network Graphics Processors Slave NGP also includes the absolute frame ID id of the latest video frame on the master network graphics processor master NGP, ie the video frame that was last rendered on the master network graphics processor master NGP, and at the comparison of the snapshots is searched for, o b this absolute frame ID id is included in the compared snapshots. In the case of overlapping snapshots (whether for any or the latest video frame) there are two Options. Either the last absolute frame ID id of the master network graphics processor master NGP is in the snapshot of the video frame queue 2 of the slave network graphics processor slave NGP or the last absolute frame identification number id of the slave network graphics processor slave NGP lies in the snapshot of the video frame queue 2 of the master network graphics processor master NGP.
Gibt es keine Überlappung der beiden verglichenen Momentbilder, d.h. kein Videoframe mit gleicher absoluter Framekennnummer id, das beiden Momentbildern gemeinsam ist, dann ist der Versatz in der Videoframedarstellung zwischen Slave-Netzwerk-Grafikprozessor Slave-NGP Slave und Master-Netzwerk-Grafikprozessor Master-NGP so groß, dass bei der gewählten maximalen Anzahl von Einträgen in die Videoframe-Warte- schlänge 2 eine Synchronisation in der Darstellung der Videoframes zwischen diesen Netzwerk-Grafikprozessoren NGP nicht erreicht werden kann. Man kann dann versuchen, durch eine Vergrößerung der Videoframe-Warteschlangen 2 eine Synchronisation zu ermöglichen. Dadurch verzögert sich allerdings die Anzahl gepufferter Videoframes und somit die Verzögerung, mit der das Video dargestellt wird, sodass dem Grenzen gesetzt sind, wenn eine Darstellung mit geringer Verzögerung erfolgen soll. Is there no overlap of the two compared snapshots, i. no video frame with the same absolute frame ID id, which is common to both snapshots, then the offset in the video representation between slave network graphics processor slave NGP slave and master network graphics processor master NGP is so large that at the selected maximum number of Entries in the video frame queues 2 synchronization in the presentation of the video frames between these network graphics processors NGP can not be achieved. One can then try to enable by an increase in the video frame queues 2 synchronization. This, however, delays the number of buffered video frames, and thus the delay with which the video is displayed, so that the limits are set when a display with low delay is to take place.
Wenn nach dem zweiten Framesynchronisationszeitpunkt TS die Darstel- lung von Videoframes auf dem Slave-Netzwerk-Grafikprozessor Slave-NGP bereits mit dem Master-Netzwerk-Grafikprozessor Master-NGP synchronisiert wäre, würde der Slave-Netzwerk-Grafikprozessor Slave-NGP feststellen, dass der Inhalt seiner Videoframe-Warteschlange 2, d.h. seines Momentbildes, genauso aussieht wie das vom Master-Netzwerk-Grafikpro- zessor Master-NGP per Synchronisationsnachricht gesendete Momentbild der Videoframe-Warteschlange 2 des Master-Netzwerk-Grafikprozessors Master-NGP und die Contentsynchronisation müsste nicht regelnd eingrei- fen. Im allgemeinen wird aber nach der abgeschlossenen Initialisierung nach dem zweiten Framesynchronisationszeitpunkt TS anhand der absoluten Framekennnummern id festgestellt werden, dass eine gegenseitige Verschiebung der dargestellten Inhalte, d.h. ein Frameversatz vorliegt, und es ist die Aufgabe der Contentsynchronisation, diese zu beseitigen bzw. zu korrigieren. Dazu muss zunächst bestimmt werden, um wie viele Videoframes die Videoframeinhalte der Videoframe-Warteschlangen 2 gegeneinander "versetzt" sind. Die absoluten Framekennnummern id können jedoch dafür nicht direkt verwendet werden, da über ihre Werte nichts anderes vorausgesetzt werden kann, als dass sie Videoframes eindeutig identifizieren. Ein Abstand zwischen zwei Videoframes, d.h. die Anzahl der zwischen zwei Videoframes liegenden Videoframes, wäre mit den Werten der absoluten Framekennnummern id allein nur sehr unzuverlässig zu bestimmen. If, after the second frame synchronization time TS, the presentation of video frames on the slave network graphics processor slave NGP were already synchronized with the master network graphics processor master NGP, the slave network graphics processor slave NGP would determine that the The content of its video frame queue 2, ie its snapshot, looks exactly like the snapshot of the video frame queue 2 of the master network graphics processor Master NGP sent by the master network graphics processor Master NGP via synchronization message and the content synchronization would not have to be governing intervene fen, In general, however, after the completed initialization after the second frame synchronization time TS, it can be established on the basis of the absolute frame identification numbers id that there is a mutual shift of the displayed contents, ie a frame offset, and it is the task of the content synchronization to eliminate or correct them. For this purpose, it must first be determined by how many video frames the video frame content of the video frame queues 2 are "offset" from each other. However, the absolute frame ID numbers id can not be used directly because their values can not be presupposed except that they uniquely identify video frames. A distance between two video frames, ie the number of video frames lying between two video frames, would be very unreliable with the values of the absolute frame ID numbers id alone.
Die lokalen Videoframezähler NF sind aber dazu geeignet, den Abstand zweier Videoframes (auf demselben Netzwerk-Grafikprozessor NGP) durch eine einfache Differenzbildung zu bestimmen, immer vorausgesetzt, dass auf dem Weg vom Kodierer über das Netzwerk und den Dekodierer mit seinem (Software-)Decoding kein Videoframe verlorengegangen ist, da die lokalen Videoframezähler NF erst nach dem Decoding auf jedem Netzwerk-Grafikprozessor NGP erzeugt werden; sie stammen also im Gegensatz zur absoluten Framekennnummer id nicht aus dem Videostream. Letzteres ist aber genau der Grund, warum ein Abstand zwischen zwei Videoframes über Netzwerk-Grafikprozessor-Grenzen hinweg nicht auch einfach als Differenz ihrer lokalen Videoframezähler NF berechnet werden kann; bei identischen Videoframes müsste sich für Differenz Null ergeben, was aber im allgemeinen nicht stimmen wird, da die lokalen Videoframezähler NF unabhängig voneinander auf jedem Netzwerk-Grafikprozessor NGP erzeugt werden. Diese im allgemeinen von Null verschiedene Videoframezählerdifferenz DNF der lokalen Videoframezähler NF zwischen zwei Netzwerk-Grafikprozessoren NGP für ein Videoframe ist allerdings unab- hängig vom gewäh lten Videoframe, für das die Differenz betrachtet wird . Diese Videoframezählerdifferenz DNF ist gerade die Konstante, um die sich die lokalen Videoframezähler NF auf den beiden zum Vergleich betrachteten Netzwerk-Grafikprozessoren NGP aufgrund ihrer verschiede- nen Startpunkte oder Startzeitpunkte u nterscheiden (immer unter der genannten Voraussetzung, dass kein Videoframe verlorengegangen ist). Mit dieser (konstanten) Videoframezählerdifferenz DNF kann also zu einem vorgegebenen lokalen Videoframezähler NFS auf einem Slave-Netz- werk-Grafikprozessor Slave-NGP der entsprechende lokale Videoframe- Zähler NFM desselben Videoframes (identifiziert anhand seiner absoluten Framekennnummer id) auf dem Master-Netzwerk-Grafikprozessor Master- NGP bzw. umgekehrt angegeben werden. However, the local video frame counters NF are capable of determining the distance of two video frames (on the same network graphics processor NGP) by a simple difference, always assuming that on the way from the encoder over the network and the decoder with its (software) decoding no video frame has been lost since the local video frame counters NF are only generated after decoding on each network graphics processor NGP; In contrast to the absolute frame id, they do not come from the video stream. The latter, however, is precisely the reason why a distance between two video frames across network GPU boundaries can not be calculated simply as the difference of their local video frame counter NF; for identical video frames, the difference would have to be zero, but generally this will not be true since the local video frame counters NF are generated independently on each network graphics processor NGP. However, this generally non-zero video frame difference DNF of the local video frame counter NF between two network graphics processors NGP for a video frame is independent. dependent on the selected video frame, for which the difference is considered. This video frame counter difference DNF is precisely the constant by which the local video frame counters NF differ on the two network graphics processors NGP considered for comparison because of their different starting points or start times (always under the condition that no video frame has been lost). With this (constant) video frame counter difference DNF, the corresponding local video frame counter NFM of the same video frame (identified on the basis of its absolute frame identification number id) on a master network frame counter NFS on a slave network graphics processor slave NGP can be assigned to the master network frame. Graphics processor Master NGP or vice versa.
Diese Videoframezählerdifferenz DNF des lokalen Videoframezählers NFS eines Slave-Netzwerk-Grafikprozessors Slave-NGP gegenüber dem lokalen Videoframezähler NFM des Master-Netzwerk-Grafikprozessors Master-NGP ist unabhängig von der Arbeitsweise des Synchronisationsverfahrens und wird bestimmt, indem mit irgendeinem Videoframe, das sowohl im aktuellen Momentbild des Slave-Netzwerk-Grafikprozessors Slave-NGP als auch im vom Master-Netzwerk-Grafikprozessor Master-NGP per Synchronisationsnachricht SN zuletzt empfangenen Momentbild des Master-Netzwerk- Grafikprozessors Master-NGP, das zum gleichen Zeitpunkt aufgenommen wurde, enthalten ist, die Differenz DNF der lokalen Videoframezähler NF zwischen Slave-Netzwerk-Grafikprozessors Slave-NGP . und Master-Netz- werk-Grafikprozessor Master-NGP berechnet wird. This video frame count difference DNF of the local video frame counter NFS of a slave network graphics processor Slave NGP to the master video frame processor NGP's local video frame counter NFM is independent of the operation of the synchronization method and is determined by using any video frame present in both the current video frame Momentary image of the slave network graphics processor slave NGP and in the last received by the master network graphics processor master NGP by synchronization message SN instantaneous image of the master network graphics processor master NGP, which was recorded at the same time, the difference DNF of the local video frame counter NF between slave network graphics processors slave NGP. and master network graphics processor Master NGP.
Damit wird bei der Synchronisation bestimmt, um wie viele Videoframes der Slave-Netzwerk-Grafikprozessor Slave-NGP sein aktuelles Entnehmen von Videoframes aus seiner Videoframe-Warteschlange 2 für die weitere Verarbeitung, also zum Rendern für die Darstellung auf dem Display der Displaywand, nach vorne oder nach hinten (bezogen auf den Pointer, der das jeweilige Videoframe ausliest) korrigieren muss, damit seine Darstel- lung synchron zu der des Master-Netzwerk-Grafikprozessors Master-NGP ist. Dazu berechnet der Slave-Netzwerk-Grafikprozessor Slave-NGP beim oder bis zum nächsten Framesynchronisationszeitpunkt TS (hier dem dritten Framesynchronisationszeitpunkt TS in Figur 19) die Videoframezähler- differenz DNF der Videoframes, die der Master-Netzwerk-Grafikprozessor Master-NGP und der Slave-Netzwerk-Grafikprozessor Slave-NGP zum Zeitpunkt des Abschickens der letzten Synchronisationsnachricht SN (hier der Synchronisationsnachricht SN vor dem Framesynchronisationszeitpunkt TS in Figur 19) aus ihrer Videoframe-Warteschlange entnommen haben. Damit der Slave-Netzwerk-Grafikprozessor Slave-NGP diese Videoframezählerdifferenz DNF bestimmen kann, sendet der Master-Netzwerk-Grafikprozessor Master-NGP mit der Synchronisationsnachricht SN auch seinen lokalen Videoframezähler NFM für das aktuelle, d.h. neueste Videoframe, das er zum zuletzt vorausgehenden Zeitpunkt der Framesynchronisations- nachricht SN (hier der Framesynchronisationsnachricht SN unmittelbar vor dem dritten Framesynchronisationszeitpunkt TS in Figur 19) verarbeitet hat. Mit der Bestimmung dieses Frameversatzes kann dann auf die oben erläuterte Weise dann die "Renormierung" des lokalen Videoframezähler NFS des Slave-Netzwerk-Grafikprozessors Slave-NGP auf den lokalen Videoframezähler NFM des Master-Netzwerk-Grafikprozessors Master-NGP erfolgen, sodass eine Differenz von Null bedeutet, dass dasselbe Videoframe vorliegt. Um die auf diese Weise bestimmte Anzahl von Videoframes des jeweiligen Versatzes zwischen Slave-Netzwerk-Grafikprozessor Slave-NGP und Master-Netzwerk-Grafikprozessors Master-NGP wird nun das Entnehmen von Videoframes aus den Videoframe-Warteschlangen auf Slave-Netzwerk-Grafikprozessoren Slave-NGP durch Verzögern oder Vorziehen korrigiert, womit die Synchronisation der Darstellung der Videoframes erreicht ist. Der eigentliche Abgleich (die Contentsynchronisation) der Videoframes, die auf den Netzwerk-Grafikprozessoren NGP gerendert werden, womit dafür gesorgt wird, dass zu allen synchronisierten Vsynczählern NS von den Displays D dieselben Videoframes dargestellt werden, erfolgt also mittels Tabellenwerten/Protokollen in Form von Momentbildern, die von dem Master-Netzwerk-Grafikprozessor Master-NGP mit den Synchronisationsnachrichten SN an die Slave-Netzwerk-Grafikprozessoren Slave-NGP gesendet werden. Das Momentbild des Master-Netzwerk-Grafikprozessors Master-NGP mit den Daten, welche absolute Framekennnummer id auf dem Master-Netzwerk-Grafikprozessor Master-NGP zu welchem lokalem Videoframezähler NFM gehört, wird jeweils mit einer Synchronisationsnachricht SN von dem Master-Netzwerk-Grafikprozessor Master an die Slave-Netzwerk-Grafikprozessoren Slave-NGP gesendet. Auf den Slave- Netzwerk-Grafikprozessoren Slave-NGP läuft dann jeweils ein lokaler Ver- gleichsprozess ab, in dem dieses Momentbild des Master-Netzwerk-Grafikprozessors Master-NGP mit dem entsprechenden lokalen Momentbild des jeweiligen Slave-Netzwerk-Grafikprozessors Slave-NGP verglichen wird. Dabei wird überprüft, ob für eine bestimmte absolute Framekennnummer id, beispielsweise die neueste absolute Framekennnummer des Master- Netzwerk-Grafikprozessors Master-NGP, ein Überlapp vorliegt. Wenn dabei absolute Framekennnummern id mehrfach in einem Momentbild (des Mas- ter-Netzwerk-Grafikprozessors Master-NGP oder des Slave-Netzwerk- Grafikprozessors Slave-NGP) enthalten sind, d.h. mehrfach dargestellt wurden, wird der erste auftretende Wert genommen. Anhand der Netz- werk-Grafikprozessor-übergreifenden absoluten Framekennnummern id werden jeweils die lokalen Videoframezähler NFM des Master-Netzwerk- Grafikprozessors Master-NGP den lokalen Videoframezählern NFS des Slave-Netzwerk-Grafikprozessors Slave-NGP zugeordnet. Durch diesen Vergleich der Momentbilder erhält man auf jedem Slave-Netzwerk-Grafik- prozessor Slave-NGP die Information über die Anzahl der Videoframes, um die die Darstellung der Videoframes auf dem jeweiligen Slave-Netz- werk-Grafikprozessor Slave-NGP gegenüber dem Master-Netzwerk-Grafik- Prozessor Master-NGP versetzt war, d.h. vorausgeeilt ist oder hinterherhinkte. Diesen jeweiligen Versatz kann man dann bei dem nächsten Start der Mediationsfunktion, d.h. ab dem nächsten Framesynchronisationszeit- punkt TS als Korrekturwert zu dem jeweiligen lokalen relativen Videoframezähler NFSR der Slave-Netzwerk-Grafikprozessoren Slave-NGP hinzuaddieren oder subtrahieren, sodass im Ergebnis ab dann alle Slave- Netzwerk-Grafikprozessoren Slave-NGP synchron zu dem Master-Netz- werk-Grafikprozessor Master-NGP dieselben Videoframes darstellen. This is determined in the synchronization by how many video frames of the slave network graphics processor slave NGP its current removal of video frames from its video frame queue 2 for further processing, so for rendering for display on the display screen, forward or to the back (referring to the pointer reading the video frame), so that his is synchronous with that of the master network GPU Master NGP. For this purpose, at or until the next frame synchronization time TS (here the third frame synchronization time TS in FIG. 19), the slave network graphics processor NGP calculates the video frame difference DNF of the video frames that the master network graphics processor master NGP and the slave Network graphics processor slave NGP at the time of sending the last synchronization message SN (here the synchronization message SN before the frame synchronization time TS in Figure 19) have taken from their video frame queue. In order for the slave network graphics processor slave NGP to determine this video frame count difference DNF, the master network graphics processor master NGP sends with the synchronization message SN also its local video frame counter NFM for the current, ie latest video frame that it was at the last preceding time Frame synchronization message SN (here the frame synchronization message SN immediately before the third frame synchronization time TS in Figure 19) has processed. With the determination of this frame offset can then be carried out in the manner described above then the "renormalization" of the local video frame counter NFS of the slave network graphics processor slave NGP on the local video frame counter NFM of the master network graphics processor master NGP, so that a difference of Zero means that the same video frame exists. The number of video frames of the respective offset between slave network graphics processor slave NGP and master network graphics processor master NGP determined in this manner will now be extracted from video frames from the video frame queues to slave network graphics processors slave NGP corrected by delaying or advancing, thus achieving the synchronization of the presentation of the video frames. The actual synchronization (content synchronization) of the video frames rendered on the network graphics processors NGP, which ensures that all synchronized vsync counters have NS of The displays D the same video frames are displayed, so using table values / logs in the form of snapshots, which are sent from the master network graphics processor master NGP with the synchronization messages SN to the slave network graphics processors slave NGP. The snapshot of the master network graphics processor master NGP with the data which absolute frame ID id on the master network graphics processor master NGP belongs to which local video frame counter NFM is mastered with a synchronization message SN from the master network graphics processor sent to the slave network graphics processors slave NGP. A local comparison process then runs in each case on the slave network graphics processors slave NGP in which this instantaneous image of the master network graphics processor master NGP is compared with the corresponding local instantaneous image of the respective slave network graphics processor slave NGP , It is checked whether there is an overlap for a certain absolute frame identification number id, for example the latest absolute frame identification number of the master network graphics processor master NGP. If absolute frame identification numbers id are contained several times in a momentary image (of the master network graphics processor master NGP or of the slave network graphics processor slave NGP), ie if they have been represented multiple times, the first occurring value is taken. Based on the network GPU-wide absolute frame ID numbers id, the local video frame counters NFM of the master network graphics processor master NGP are respectively assigned to the local video frame counters NFS of the slave network graphics processor slave NGP. This comparison of the snapshots gives, on each slave network graphics processor slave NGP, the information about the number of video frames by which the representation of the video frames on the respective slave network graphics processor Slave NGP is compared to the master slave graphics processor. Network Graphics Processor Master NGP was staggered, ie, hastened or lagged behind. This respective offset can then be determined at the next start of the mediation function, ie from the next frame synchronization time. point TS as a correction value to the respective local relative video frame counter NFSR of the slave network graphics processors add or subtract slave NGP, so that as a result all slave network graphics processors slave NGP synchronous to the master network graphics processor master NGP represent the same video frames.
Ab dem dritten, in Figur 19 dargestellten Framesynchronisationszeitpunkt TS ist somit eine vollständige Synchronisation der Darstellung der Videoeinblendung auf den Displays erreicht. Ab dann läuft die Synchronisation in gleicher Weise wie nach dem zweiten Framesynchronisationszeitpunkt TS weiter. Zu den Framesynchronisationszeitpunkten TS überprüfen die Slave-Netzwerk-Grafikprozessoren Slave-NGP, ob die Contentsynchronisation noch erfüllt oder zwischenzeitlich eingetreten und damit wieder korrigiert werden muss. Hierzu überprüfen die Slave-Netzwerk-Grafikprozesso- ren Slave-NGP wiederum, welches Videoframe zum Sendezeitpunkt der unmittelbar vorausgehenden Synchronisationsnachricht von dem Master- Netzwerk-Grafikprozessor Master-NGP verarbeitet (gerendert) wurde und bestimmen aus dem Vergleich des mit der Synchronisationsnachricht SN von dem Master-Netzwerk-Grafikprozessor Master-NGP empfangenen Momentbildes mit ihren gespeicherten Momentbildern jeweils, welches Videoframe mit welcher absoluten Framekennnummer id der jeweilige Slave-Netzwerk-Grafikprozessor Slave-NGP zu einem selben Zeitpunkt wie der Master-Netzwerk-Grafikprozessor Master-NGP verarbeitet hat. Von diesen wird eine absolute Framekennnummer id genommen, die jeweils in beiden Momentbildern enthalten ist, und die Slave-Netzwerk-Grafikpro- zessoren Slave-NGP überprüfen mit deren Hilfe lokal den Frameversatz (die Differenz der lokalen Videoframezähler NF zwischen den Slave-Netz- werk-Grafikprozessoren Slave-NGP und dem Master-Netzwerk-Grafikprozessor Master-NGP) darauf, ob er gegenüber der letzten Mediationsdauer gleich geblieben ist. In der Regel wird die Contentsynchronisation noch erfüllt sein. Wenn sich der Frameversatz verändert hat, wird dies ab dem Framesynchronisationszeitpunkt durch Anpassung des Korrekturwertes entsprechend korrigiert. From the third, shown in Figure 19 frame synchronization time TS thus a complete synchronization of the representation of the video insertion is achieved on the displays. From then synchronization continues in the same way as after the second frame synchronization time TS. At the frame synchronization times TS, the slave network graphics processors slave NGP check whether the content synchronization has yet to be fulfilled or has occurred in the meantime and must therefore be corrected again. For this purpose, the slave network graphics processors slave NGP again check which video frame was processed (rendered) by the master network graphics processor master NGP at the time of transmission of the immediately preceding synchronization message and determine from the comparison with the synchronization message SN of the Master network graphics processor master NGP received instant image with their stored snapshots each which video frame has processed with which absolute frame ID id of the respective slave network graphics processor slave NGP at the same time as the master network graphics processor master NGP. From these, an absolute frame ID id is taken, which is contained in both snapshots, and the slave network graphics processors Slave-NGP locally check the frame offset (the difference of the local video frame counter NF between the slave network Graphic processors, slave NGP and the master network graphics processor master NGP) to see if it has remained the same compared to the last mediation duration. As a rule, the content synchronization will still be fulfilled. If the frame offset has changed, this will change from the Frame synchronization time corrected by adjusting the correction value accordingly.
Zum Fortführen der Mediationsfunktion ab einem Framesynchronisationszeitpunkt TS nach der Synchronisationsnachricht SN (in diesem Beispiel zwei Bildrückläufe nach der Synchronisationsnachricht SN) bestimmen die Slave-Netzwerk-Grafikprozessoren Slave-NGP also, um wie viele Videoframes sie jeweils zeitlich gegen den Master-Netzwerk-Grafikprozessor Mas- ter-NGP versetzt liegen, und renormieren ihre lokalen relativen Videoframezähler NFRS entsprechend auf den lokalen relativen Videoframezähler NFRM des Master-Netzwerk-Grafikprozessors Master-NGP mittels der ermittelten Videoframezählerdifferenz der lokalen Videoframezähler zwischen dem Master-Netzwerk-Grafikprozessor Master-NGP und dem Slave-Netzwerk-Grafikprozessor Slave-NGP. Wenn der Slave-Netzwerk- Grafikprozessor Slave-NGP beispielsweise feststellt, dass er mit seiner Darstellung zwei Videoframes der Darstellung der Videoeinblendung auf dem Master-Netzwerk-Grafikprozessor Master-NGP vorauseilt oder diesem hinterherhinkt, wird diese Abweichung bzw. der zeitliche Versatz korrigiert bzw. kompensiert, indem der Slave-Netzwerk-Grafikprozessor Slave-NGP beim Berechnen des selektierten Videoframes diesen Versatz mit Gegenvorzeichen im Funktionswert der Mediationsfunktion addiert. In order to continue the mediation function from a frame synchronization time TS after the synchronization message SN (in this example, two frame returns after the synchronization message SN), the slave network graphics processors determine slave NGP by how many video frames they respectively time against the master network graphics processor Mas - ter-NGP are offset and renormalize their local relative video frame counter NFRS corresponding to the master relative network graphics processor NGP local relative video frame counter NFRM by means of the determined video frame counter difference of the local video frame counters between the master network graphics processor master NGP and the slave Network Graphics Processor Slave NGP. For example, if the slave network graphics processor Slave NGP finds that it is leading or lagging behind two video frames in the display of the video overlay on the master network graphics processor Master NGP, that offset will be corrected. When the slave network graphics processor Slave NGP calculates the selected video frame, it compensates for this offsetting offset in the function value of the mediation function.
Die vertikale Frequenz fd der Displays D und für jeden Videostream seine Framerate fs bestimmen die Funktionswerte der Mediationsfunktion MF für diesen Videostream. Da sich die Frequenzen fs und fd im Laufe der Zeit geringfügig verändern können, werden sie (oder deren Quotient) gemäß einer vorteilhaften Ausführungsform nicht nur einmal bestimmt, sondern die Messung einer oder beider Größen wird hin und wieder, regelmäßig, oder intervallartig wiederholt, beispielsweise in periodischen, d.h. regelmäßigen zeitlichen Abständen und bevorzugt im Takt der vertikalen Displayfrequenz fd . Die Bestimmung dieser Frequenzen fs und fd (durch den Master-Netzwerk-Grafikprozessor Master-NGP) bzw. deren Quotient erfolgt ferner vorzugsweise durch Mittelung über eine Vielzahl von Perioden, sodass die in dem erfindungsgemäßen Synchronisationsprozess verwendeten Werte für die Frequenzen fs und fd bzw. der Wert für deren Quotient gemittelte Frequenzwerte sind. Die Mittelung kann gemäß einer bevorzugten Ausführungsform über ein zeitlich gleitendes Messfenster der zeitlichen Länge tm erfolgen, beispielsweise im Takt der vertikalen Displayfrequenz fd . Dabei wird über mehrere Perioden gemittelt, die zwischen einem Start- und einem Endwert liegen, wobei tm die Messdauer bezeichnet, über die gemittelt wird, d.h. die zeitliche Länge des Messfensters. Gemäß einem vorteilhaften Merkmal wird somit vorgeschlagen, dass die Bestimmung entweder der Videostreamfrequenz fs oder der hierzu äquivalenten Periode Ts der Videostreamfrequenz fs und der vertikalen Displayfrequenz fd oder der hierzu äquivalenten Periode Td der vertikalen Displayfrequenz fd , oder des Quotienten fs / fd der Videostreamfrequenz fs mit der vertikalen Displayfrequenz fd oder dessen hierzu äquivalenten Kehrwerts fd / fs , oder des Quotienten Td / Ts der Periode Td der vertikalen Displayfrequenz fd mit der Periode Ts der Videostreamfrequenz fs oder dessen hierzu äquivalenten Kehrwerts Ts / Td hin und wieder, regelmäßig, intervallartig oder bevorzugt mit einem gleitenden Messfenster M im Takt der vertikalen Displayfrequenz fd wiederholt wird. The vertical frequency f d of the displays D and for each video stream its framerate f s determine the function values of the mediation function MF for this video stream. Since the frequencies f s and f d can change slightly over time, according to an advantageous embodiment, they (or their quotient) are not only determined once, but the measurement of one or both variables is repeated every now and then, regularly or at intervals , For example, in periodic, ie regular time intervals and preferably in time with the vertical display frequency f d . The determination of these frequencies f s and f d (by the master network graphics processor master NGP) or their quotient Further, it is preferably carried out by averaging over a plurality of periods, so that the values for the frequencies f s and f d used in the synchronization process according to the invention or the value for their quotient are averaged frequency values. The averaging can take place in accordance with a preferred embodiment over a time-sliding measuring window of the time length t m , for example in time with the vertical display frequency f d . It is averaged over several periods that lie between a start and a final value, where t m denotes the measurement duration, is averaged over, ie the time length of the measurement window. According to an advantageous feature, it is thus proposed that the determination of either the video streaming frequency f s or the equivalent period T s of the video streaming frequency f s and the vertical display frequency f d or the equivalent period T d of the vertical display frequency f d , or the quotient f s / f d of the video streaming frequency f s with the vertical display frequency f d or its equivalent reciprocal f d / f s , or of the quotient T d / T s of the period T d of the vertical display frequency f d with the period T s of the video streaming frequency f s or its reciprocal value T s / T d equivalent thereto is repeated now and then, regularly, intermittently or preferably with a sliding measuring window M in time with the vertical display frequency f d .
Die Figur 20 veranschaulicht die Messung der vertikalen Displayfrequenz fd und der Videostreamfrequenz fs durch den Netzwerk-Grafikprozessor NGP, der als Master dient. Dargestellt sind als Funktion der Zeit t der relative Vsynczähler NSR zu den Enden VRE der Bildrückläufe VR und der lokale relative Videoframezähler NFRM für zu rendernden Videoframes FW, die in der Videoframe-Warteschlange 2 zur Verfügung stehen. Dabei sind NSRstart und NFRMstart: Anfangswerte und NSRend und NFRMend Endwerte in dem aktuellen Messfenster M der zeitlichen Länge tm . Dargestellt ist auch ein nächstes Messfenster Mnext . Die aktuellen Werte der Frequenzen fd und fs ergeben sich dann aus der Mittelung über das aktuelle Messfenster M wie folgt: NSRend - NSRstart Figure 20 illustrates the measurement of the vertical display frequency f d and the video streaming frequency f s by the network graphics processor NGP serving as the master. Shown are, as a function of time t, the relative sync counter NSR to the ends VRE of the picture returns VR and the local relative video frame counter NFRM for video frames FW to be rendered, which are available in the video frame queue 2. NSR start and NFRM start are initial values and NSR end and NFRM end end values in the current measurement window M of the time length t m . Also shown is a next measurement window M next . The current values of the frequencies f d and f s then result from the averaging over the current measurement window M as follows: NSR end - NSR start
d ~ t d ~ t
NFRMend - NFRMstart NFRM end - NFRM start
s " t s "t
Entsprechend kann der Master-Netzwerk-Grafikprozessor für die Bestimmung der Displayfrequenz fd statt des relativen Vsynczählers NSR auch den synchronisierten Vsynczähler NS oder für die Bestimmung der Video- streamfrequenz fs statt des lokalen relativen Videoframezählers NFRM den lokalen Videoframezähler NFM verwenden. Die Zahl an Perioden, über die gemittelt wird, d.h. die Anzahl der in die Mittelung einbezogenen Bildrückläufe VR, sollte größer als in der Veranschaulichung gemäß Figur 20 sein, um eine gute Mittelung zu erzielen. Die Zahl der Bildrückläufe VR, über die gemittelt wird, liegt vorteilhafterweise zwischen 50 und 200, bevorzugt um 100. Sie kann fest vorgegeben sein oder auch dynamisch angepasst werden. So kann es beispielsweise vorteilhaft sein, zunächst mit einem kleineren Messfenster M zu beginnen, um während der Initialisierung des Displays oder einer Synchronisation zunächst schnell grobe Werte für die Frequenzen fs und fd zur Verfügung zu haben, und im Laufe des Betriebs dann die Länge tm des Messfensters M zu vergrößern, beispielsweise indem die Fenstergröße von Messung zu Messung erhöht wird, bis der gewählte Endwert erreicht wird. Accordingly, the master network graphics processor for the determination of the display frequency f d instead of the relative Vsynczählers NSR also the synchronized Vsynczähler NS or for the determination of the video stream frequency f s instead of the local relative video frame counter NFRM use the local video frame counter NFM. The number of periods to be averaged, ie the number of picture returns VR included in the averaging, should be greater than in the illustration of Figure 20 in order to achieve good averaging. The number of image returns VR, over which is averaged, is advantageously between 50 and 200, preferably by 100. It can be fixed or dynamically adjusted. Thus, for example, it may be advantageous to start with a smaller measurement window M first in order to have rough values for the frequencies f s and f d at first during the initialization of the display or a synchronization, and then the length during operation t m of the measurement window M, for example by increasing the window size from measurement to measurement until the selected final value is reached.
Gemäß einer anderen vorteilhaften Ausführungsform kann vorgesehen sein, dass der Master-Netzwerk-Grafikprozessor NGP unabhängig von der Grundrate, mir der die Framesynchronisation durchgeführt wird, eine vorgezogene Framesynchronisation auslöst, sobald die intervallartige oder kontinuierliche Messung der Frequenzen fs und fd ergibt, dass sich das Verhältnis fs / fd bzw. Td / Ts um mehr als einen Grenzwert von beispielsweise 0,01 gegenüber einem Anfangswert verändert hat. According to another advantageous embodiment, it can be provided that the master network graphics processor NGP triggers an advanced frame synchronization independently of the base rate at which the frame synchronization is performed, as soon as the interval-like or continuous measurement of the frequencies f s and f d shows that the ratio f s / f d or T d / T s has changed by more than a limit of, for example, 0.01 relative to an initial value.
Bezugszeichenliste LIST OF REFERENCE NUMBERS
1 Displaywand 1 display wall
2 Videoframe-Warteschlange  2 video frame queue
3 Dekodierer  3 decoders
4 dekodiertes Videoframe  4 decoded video frame
5 Renderer  5 renderers
6 Backpuffer  6 baking buffers
D Display  D display
Dl Display 1  Dl Display 1
Dn Display n  Dn Display n
DNF Videoframezählerdifferenz NFS-NFM  DNF video frame counter difference NFS NFM
DVI Digital Visual Interface  DVI Digital Visual Interface
E Ethernet  E Ethernet
EC Kodierer  EC encoder
EC1 Kodierer 1  EC1 encoder 1
ECm Kodierer m  ECm encoder m
FR in Backpuffer gerendertes Videoframe  FR rendered in back buffer video frame
FV sichtbar werdendes Videoframe  FV becomes visible video frame
FW Videoframe in der Videoframe-Warteschlange  FW video frame in video frame queue
vertikale Displayfrequenz  vertical display frequency
Videostreamfrequenz  Video streaming frequency
GbE Gigabit Ethernet  GbE Gigabit Ethernet
IS Videoeinblendung  IS video insertion
id absolute Framekennnummer id absolute frame number
idcorr absolute Framekennnummer eines Bezugsvideoframesi d corr absolute frame identification number of a reference video frame
LAN Netzwerk M Messfenster LAN network M measurement window
Mnext nächstes Messfenster M next next measurement window
m Anzahl der Videobildquellen m number of video image sources
MF Mediationsfunktion  MF mediation function
n Anzahl der Displays der Displaywand n Number of displays on the display wall
NF lokaler Videoframezähler  NF local video frame counter
NFM lokaler Videoframezähler Master-NGP  NFM Local Video Frame Count Master NGP
NFS lokaler Videoframezähler Slave-NGP  NFS Local Video Frame Count Slave NGP
NFR lokaler relativer Videoframezähler (Zähler für zu renderndes  NFR local relative video frame counter (counter for to be rendered
Videoframe)  Video frame)
NFRM lokaler relativer Videoframezähler Master-NGP  NFRM local relative video frame counter Master NGP
NFRS lokaler relativer Videoframezähler Slave-NGP  NFRS Local Relative Video Frame Count Slave NGP
NFRend Endwert von NFR NFR end final value of NFR
NFRstart Startwert von NFR NFR start start value of NFR
NGP Netzwerk-Grafikprozessor NGP network graphics processor
NGP 1 Netzwerk-Grafikprozessor 1  NGP 1 network graphics processor 1
NGP n Netzwerk-Grafikprozessor n  NGP n network graphics processor n
NS synchronisierter Vsynczähler  NS synchronized vsync counter
NSR relativer Vsynczähler  NSR relative Vsynczähler
NSRend Endwert von NSR NSR end of NSR
NSRstart Startwert von NSR NSR start starting value of NSR
S Videobildquelle  S video image source
Sl Videobildquelle 1  Sl Video Image Source 1
Sm Videobildquelle m  Sm video image source m
SN Synchronisationsnachricht SN synchronization message
SW Switches  SW switches
SS Synchronisations-Signalgeber  SS synchronization signal generator
Td Periode der vertikalen Displayfrequenz T d Period of the vertical display frequency
TS Framesynchronisationszeitpunkt  TS frame synchronization time
TSN Synchronisationsnachrichtzeitpunkt TSN synchronization message time
TSV Framesynchronisationszeitpunktvorlauf  TSV frame synchronization timing advance
Ts Periode der Videostreamfrequenz t Zeit T s Period of the video streaming frequency t time
TM Mediationsdauer tm Länge MessfensterTM mediation duration t m length measurement window
VR BildrücklaufVR picture rewind
VRE Ende BildrücklaufVRE end of picture rewind
Vsync Bildrücklaufsignal Vsync image return signal

Claims

Patentansprüche claims
Computer-implementiertes Verfahren zum Synchronisieren der Darstellung von Videoframes aus einem Videostream mit einer Video- streamfrequenz ( fs ) einer Videoeinblendung (IS) einer Videobildquelle (S), die gleichzeitig auf zwei oder mehreren Displays (D) einer aus mehreren Displays (D) zusammengesetzten Displaywand (1) dargestellt wird, wobei die Displays (D) jeweils von einem zugehörigen I etzwerk-Grafikpro- zessor (NGP), der einen Computer mit einer Netzwerk- und einer Grafikkarte umfasst, angesteuert und mit derselben vertikalen Displayfrequenz ( fd ) betrieben werden, die lokalen Uhren auf den Netzwerk-Grafikprozessoren (NGP) synchronisiert werden, vorzugsweise durch PTP (Precision Time Proto- col), die Bildrückläufe (VR) der die Displays (D) ansteuernden Grafikkarten der Netzwerk-Grafikprozessoren (NGP) mittels Framelock oder Genlock synchronisiert werden, und der Videostream von der Videobildquelle (S) über ein Netzwerk (LAN) an die Netzwerk-Grafikprozessoren (NGP) übertragen wird, wobei vorzugsweise die Videobildquelle (S) vor der Übertragung über das Netzwerk (LAN) mittels eines Kodierers (EC) kodiert und komprimiert und nach dem Empfangen von den Netzwerk-Grafikprozessoren (NGP) jeweils mittels eines Dekodierers (3) dekodiert wird, umfassend folgende Verfahrensschritte: A computer-implemented method of synchronizing the presentation of video frames from a video stream with a video stream frequency (f s) of a video display (IS) of a video image source (S) simultaneously on two or more displays (D) one of a plurality of displays (D) assembled display screen (1), wherein the displays (D) in each case by an associated network graphics processor (NGP), which includes a computer with a network and a graphics card, driven and with the same vertical display frequency (f d ) The local clocks on the network graphics processors (NGP) are synchronized, preferably by PTP (Precision Time Protocol), the image returns (VR) of the display graphics (D) controlling the network graphics processors (NGP) by means of frame lock or genlock, and the video stream from the video image source (S) over a network (LAN) to the network graphics processors (NGP) wherein the video image source (S) is preferably coded and compressed by means of an encoder (EC) before being transmitted over the network (LAN) and decoded by the network graphics processors (NGP) in each case by means of a decoder (3), comprising the following method steps:
Die an der Darstellung einer Videobildquelle (S) beteiligten Netz- werk-Grafikprozessoren (NGP) werden in einer aster-Slave-Archi- tektur organisiert, wobei ein Netzwerk-Grafikprozessor (NGP) als Master-Netzwerk-Grafikprozessor (Master-NGP) für die Videobildquelle (S) und die anderen Netzwerk-Grafikprozessoren (NGP) als Slave-Netzwerk-Grafikprozessoren (Slave-NGP) konfiguriert werden, wobei die Rollenverteilung jeweils für eine Videobildquelle (S) dadurch gegeben ist, dass zum Synchronisieren der Darstellung der Videobildquelle (S) der Master-Netzwerk-Grafikprozessor (Master- NGP) Synchronisationsnachrichten (SN) an die Slave-Netzwerk- Grafikprozessoren (Slave-NGP) sendet, die von den Slave-Netzwerk- Grafikprozessoren (Slave-NGP) empfangen und ausgewertet werden, die Videoframes werden jeweils mittels einer in den Videostream eingebetteten absoluten Framekennnummer (id) identifiziert, die vorzugsweise aus den RTP-Timestamps der Videoframes abgeleitet ist, die Darstellung der Videoframes wird unter den Netzwerk-Grafikprozessoren (NGP) zu Framesynchronisationszeitpunkten (TS) synchronisiert, auf die jeweils eine bis zum nächsten Framesynchronisationszeitpunkt (TS) andauernde Mediationsdauer (TM) folgt, die sich über mehrere Bildrückläufe der Displaywand (1) erstreckt, wobei jeweils kurz vor einem Framesynchronisationszeitpunkt (TS), d.h. vor dem Beginn einer Meditationsdauer (TM), zu einem Synchronisationsnachrichtzeitpunkt (TSN) von dem Master-Netzwerk-Grafikprozessor (Master-NGP) eine Synchronisationsnachricht (SN) an die Slave- Netzwerk-Grafikprozessoren (Slave-NGP) gesendet wird, und während der Mediationsdauer (TM) von den Netzwerk-Grafikprozes- soren (NGP) Videoframes synchron dargestellt werden, indem die Netzwerk-Grafikprozessoren (NGP) jeweils lokal die darzustellenden Videoframes mittels einer Mediationsfunktion (MF) bestimmen, die den Netzwerk-Grafikprozessoren (NGP) gemeinsam ist, und wobei in das Argument der Mediationsfunktion (MF) eingehende Parameter, die zum synchronen Darstellen der Videoframes erforderlich sind, in der Synchronisationsnachricht (SN) übermittelt werden, wobei entweder diese Parameter die vom Master-Netzwerk-Grafikprozessor (Master-NGP) gemessene Videostreamfrequenz ( fs ) oder die hierzu äquivalente vom Master-Netzwerk-Grafikprozessor (Master-NGP) gemessene Periode ( Ts) der Videostreamfrequenz ( fs ) und die vom Master-Netzwerk-Grafikprozessor (Master-NGP) gemessene vertikale Displayfrequenz ( fd ) oder die hierzu äquivalente vom Master-Netzwerk-Grafikprozessor (Master-NGP) gemessene Periode ( Td ) der vertikalen Displayfrequenz ( fd ) umfassen, oder diese Parameter den Quotienten ( s / fd ) ^er vom Master-Netzwerk-Grafikprozessor (Master-NGP) gemessenen Videostreamfrequenz (fs ) mit der vom Master-Netzwerk-Grafikprozessor (Master-NGP) gemessenen vertikalen Displayfrequenz ( fd ) oder dessen hierzu äquivalenten Kehrwert ( fd / fs ) umfassen, oder diese Parameter den Quotienten ( Td / Ts ) der vom Master-Netzwerk-Grafikprozessor (Master-NGP) gemessenen Periode ( Td ) der vertikalen Displayfrequenz ( fd ) mit der vom Master-Netzwerk-Grafikprozessor (Master-NGP) gemessenen Periode ( Ts) der Videostreamfrequenz ( fs ) oder dessen hierzu äquivalenten Kehrwert (Ts / Td ) umfassen, die Mediationsfunktion (MF) wird von dem Master-Netzwerk-Grafikprozessor (Master-NGP) durch das Versenden von Synchronisationsnachrichten (SN) mit einer Rate synchronisiert, die kleiner als die vertikale Displayfrequenz ( fd ) ist, die zu rendernden Videoframes des Videostreams werden jeweils lokal von den Netzwerk-Grafikprozessoren (NGP) mittels lokaler Videoframezähler (NF) gezählt und durch Einhängen in jeweils eine Videoframe-Warteschlange (2) gepuffert, einschließlich der zugehörigen absoluten Framekennnummer (id) und des zugehörigen lokalen Videoframezählers (NF), sodass eine Videoframe-Warteschlange (2) jeweils die lokale Zuordnung zwischen den absoluten Framekennnummern (id) und dem lokalen Videoframezähler (NF) enthält, mit der Synchronisationsnachricht (SN) des Master-Netzwerk-Grafikprozessors (Master-NGP) an die Slave-Netzwerk-Grafikprozessoren (Slave-NGP) wird ein Momentbild der Videoframe-Warteschlange (2) des Master-Netzwerk-Grafikprozessors (Master-NGP) zu dem Synchronisationsnachrichtzeitpunkt (TSN) übermittelt, der um einen Framesynchronisationszeitpunktvorlauf (TSV) vor dem nächsten Framesynchronisationszeitpunkt (TS) liegt, wobei das Momentbild die lokale Zuordnung zwischen den absoluten Framekennnummern (id) und dem lokalen Videoframezähler (NFM) des Master- Netzwerk- Grafikprozessors (Master-NGP) der Videoframes in der Videoframe- Warteschlange (2) des Master-Netzwerk-Grafikprozessors (Master- NGP) enthält, zum Ermitteln eines lokalen Frameversatzes, der angibt, um wie viele Videoframes die Darstellung der Videoframes auf dem jeweiligen Slave-Netzwerk-Grafikprozessor (Slave-NGP) gegenüber der Darstellung der Videoframes auf dem Master-Netzwerk-Grafikprozessor (Master-NGP) vor der Synchronisationsnachricht (SN) versetzt ist, wird lokal von den Slave-Netzwerk-Grafikprozessoren (Slave- NGP) das mit der Synchronisationsnachricht (SN) empfangene Momentbild der Videoframe-Warteschlange (2) des Master- Netzwerk- Grafikprozessors (Master-NGP) mit einem lokal gespeicherten Momentbild der Videoframe-Warteschlange (2) des Slave-Netzwerk- Grafikprozessors (Slave-NGP) verglichen und aus diesem Vergleich der Frameversatz bestimmt, und der lokale Frameversatz wird auf den Slave-Netzwerk-Grafikpro- zessoren (Slave-NGP) ab dem Framesynchronisationszeitpunkt (TS) korrigiert, indem auf den Slave-Netzwerk-Grafikprozessoren (Slave- NGP) ab dem Framesynchronisationszeitpunkt (TS) der Frameversatz zu dem lokalen Videoframezähler (NFS) des Slave-Netzwerk-Grafik- prozessors (Slave-NGP), der das zu rendernde Videoframe angibt, addiert wird, sodass den Slave-Netzwerk-Grafikprozessoren (Slave-NGP) alles zum Synchronisieren Erforderliche von dem Master-Netzwerk-Grafikprozessor (Master-NGP) in der Synchronisationsnachricht (SN) mitgeteilt wird, um sowohl zu dem Framesynchronisationszeitpunkt (TS) als auch während der sich daran anschließenden Mediationsdauer (TM) bis zum folgenden Framesynchronisationszeitpunkt (TS) selbstständig lokal die Videoframes der Videoeinblendung (S) mit dem Master-Netzwerk-Grafikprozessor (Master-NGP) synchronisiert darstellen zu können. The network graphics processors (NGP) involved in the representation of a video image source (S) are organized in an aster-slave architecture, with a network graphics processor (NGP) acting as the master network graphics processor (master NGP) for the video image source (S) and the other network graphics processors (NGP) are configured as slave network graphics processors (slave NGP), the role distribution for a video image source (S) being given by synchronizing the representation of the video image source (S). S) the master network graphics processor (master NGP) sends synchronization messages (SN) to the slave network graphics processors (slave NGP) which are received and evaluated by the slave network graphics processors (slave NGP) which Video frames are each identified by means of an embedded in the video stream absolute frame identification number (id), which is preferably derived from the RTP timestamps of the video frames, the representation of Videofra mes is synchronized among the network graphics processors (NGP) at frame synchronization times (TS) followed by a mediation duration (TM) lasting until the next frame synchronization time (TS), which extends across multiple screen returns of the display wall (1) before a frame synchronization time (TS), ie before the start of a meditation period (TM), at a synchronization message time (TSN) from the master network graphics processor (master NGP), a synchronization message (SN) to the slave network graphics processors (slave). NGP), and video frames are synchronously displayed by the network graphics processors (NGP) during the mediation period (TM) by the Network Graphics Processors (NGPs) each locally determine the video frames to be presented by means of a mediation function (MF) common to the network graphics processors (NGPs) and in the argument of the mediation function (MF) are incoming parameters required for synchronously displaying the video frames are transmitted in the synchronization message (SN), either these parameters being the video stream frequency (f s ) measured by the master network graphics processor (master NGP) or the equivalent period measured by the master network graphics processor (master NGP) (T s ) of the video streaming frequency (f s ) and the vertical display frequency (f d ) measured by the master network graphics processor (master NGP) or the equivalent period measured by the master network graphics processor (master NGP) (T d ) of the vertical display frequency (f d ), or these parameters according to the quotient ( s / fd) ^ er of the master network graphics processor (master NGP) acc food video stream frequency (f s ) with the master network graphics processor (master NGP) measured vertical display frequency (f d ) or its equivalent reciprocal (f d / f s ) include, or these parameters the quotient (T d / T s ) the period (T d ) of the vertical display frequency (f d ) measured by the master network graphics processor (master NGP) with the period (T s ) of the video streaming frequency (f s ) measured by the master network graphics processor (master NGP) s ) or its equivalent reciprocal (T s / T d ), the mediation function (MF) is synchronized by the master network graphics processor (master NGP) by sending synchronization messages (SN) at a rate less than the vertical display frequency (f d ) is, the video streams to be rendered are each locally counted by the network graphics processors (NGPs) using local video frame counters (NF) and buffered by being hooked into each video frame queue (2), including the associated absolute frame ID number (id) and associated local Video frame counter (NF) such that a video frame queue (2) each contains the local association between the absolute frame identification numbers (id) and the local video frame counter (NF) with the master network graphics processor (master NGP) synchronization message (SN) to the slave network graphics processors (slave NGP), a snapshot of the video frame queue (2) of the master network graphics processor (master NGP) is communicated to the synchronization message time (TSN) prior to frame synchronization timing advance (TSV) next frame synchronization time (TS), where the instantaneous image is the local allocation between the absolute The frame IDs (id) and the local video frame counter (NFM) of the master network graphics processor (master NGP) of the video frames in the video frame queue (2) of the master network graphics processor (master NGP), for determining a local Frame offset, which indicates how many video frames offset the representation of the video frames on the respective slave network graphics processor (slave NGP) from the presentation of the video frames on the master network graphics processor (master NGP) before the synchronization message (SN) is, is locally from the slave network graphics processors (slave NGP) with the synchronization message (SN) received instant image of the video frame queue (2) of the master network graphics processor (master NGP) with a locally stored snapshot of the video frame Queue (2) of the slave network The graphics processor (slave NGP) is compared and the frame offset determined from this comparison, and the local frame offset is corrected on the slave network graphics processors (slave NGP) from the frame synchronization time point (TS) on the slave network graphics processors (Slave NGP) from the frame synchronization instant (TS) the frame offset is added to the local video frame counter (NFS) of the slave network graphics processor (slave NGP), which indicates the video frame to be rendered, so that the slave network Graphics Processor (Slave NGP) everything needed to synchronize required information is communicated by the master network graphics processor (master NGP) in the synchronization message (SN) to both the frame synchronization time (TS) and during the subsequent mediation period (TM) independently up to the following frame synchronization time (TS), locally synchronize the video frames of the video overlay (S) with the master network graphics processor (master NGP) to be able to represent.
Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Darstellung der Videoframes mittels der Netzwerk-Grafikprozessoren (NGP) mehrfach gepuffert, vorzugsweise doppelt-gepuffert, und swap-locked erfolgt. A method according to claim 1, characterized in that the representation of the video frames by means of the network graphics processors (NGP) repeatedly buffered, preferably double-buffered, and swap-locked.
Verfahren nach Anspruch 1 oder 2, umfassend folgende Verfahrensschritte: Method according to claim 1 or 2, comprising the following method steps:
Die Bildrückläufe der Grafikkarten der Netzwerk-Grafikprozessoren (NGP) werden von den Netzwerk-Grafikprozessoren (NGP) lokal mit- tels eines unter den Netzwerk-Grafikprozessoren (NGP) synchronisierten Vsynczählers (NS) gezählt, von den Netzwerk-Grafikprozessoren (NGP) werden lokale relative Vsynczähler (NSR) gebildet, die die Differenz zwischen dem aktuellen, synchronisierten Vsynczähler (NS) und dessen Wert zum letzten Framesynchronisationszeitpunkt (TS) sind, von den Netzwerk-Grafikprozessoren (NGP) werden die relativen Vsynczähler (NSR) als Argumentwert der Mediationsfunktion (MF) , verwendet, wobei für die Mediationsfunktion (MF) gilt The image returns of the graphics cards of the network graphics processors (NGP) are recorded locally by the network graphics processors (NGP). By means of a Network Graphics Processor (NGP) synchronized Vsync Counter (NS), the Network Graphics Processors (NGP) form local relative Vsync counters (NSR) representing the difference between the current synchronized Vsync Counter (NS) and its value last frame synchronization time (TS), of the network graphics processors (NGP), the relative vsync counters (NSR) are used as argument value of the mediation function (MF), where for the mediation function (MF)
NFR = MF(NSR) = mediation(NSR) = floor NSR = floor NSR— NFR = MF (NSR) = mediation (NSR) = floor NSR = floor NSR
s und die Mediationsfunktion (MF) als Funktionswert einen lokalen relativen Videoframezähler (NFR) berechnet, der die Differenz aus dem lokalen Videoframezähler (NF) des aus der Videoframe-Warteschlange (2) zum Rendern zu selektierenden Videoframes und dem lokalen Videoframezähler (NF) des Videoframes zum letzten Framesynchronisationszeitpunkt (TS) ist, sodass von den Netzwerk-Grafikprozessoren (NGP) mittels des lokalen relativen Videoframezählers (NFR) das von dem jeweiligen Netzwerk-Grafikprozessor (NGP) für die Darstellung auf dem Display (D) zu rendernde Videoframe bestimmt und zum Rendern ausgewählt wird, wobei die Mediationsfunktion (MF) aufgrund des in dem Argumentwert der Mediationsfunktion (MF) enthaltenen Quotienten Video- streamfrequenz ( fs ) dividiert durch vertikale Displayfrequenz ( fd ) (bzw. des reziproken Quotienten der Periodendauern) in der Verarbeitung der Videoframes zwischen diesen beiden Frequenzen ausgleichend vermittelt, wenn diese verschieden sind. Verfahren nach einem der vorhergehenden Ansprüche, umfassend folgende Verfahrensschritte: s and the mediation function (MF) calculates as function value a local relative video frame counter (NFR) representing the difference between the local video frame counter (NF) of the video frame to be selected from the video frame queue (2) for rendering and the local video frame counter (NF) of the video frame Video frames at the last frame synchronization time (TS) is such that the network graphics processor (NGP) uses the local relative video frame counter (NFR) to determine the video frame to be rendered by the respective network graphics processor (NGP) for display on the display (D) is selected for rendering, the mediation function (MF) based on the quotient contained in the argument value of the mediation function (MF) video stream frequency (f s ) divided by vertical display frequency (f d ) (or the reciprocal quotient of the period lengths) in the processing the video frames balancing between these two frequencies, if they are different. Method according to one of the preceding claims, comprising the following method steps:
Zum Bestimmen des Frameversatzes wird in dem Vergleich des mit der Synchronisationsnachricht (SN) empfangenen Momentbildes der Videoframe-Warteschlange (2) des Master-Netzwerk-Grafikprozessors (Master-NGP) mit einem lokal gespeicherten Momentbild der Videoframe-Warteschlange (2) des Slave-Netzwerk-Grafikprozessors (Slave-NGP) mittels der in den Momentbildern enthaltenen absoluten Framekennnummern (id) geprüft, ob in den beiden Momentbildern ein gemeinsames Bezugsvideoframe enthalten ist, und für dieses Bezugsvideoframe aus der in den Momentbildern enthaltenen lokalen Zuordnung zwischen den absoluten Framekennnummern (id) und den lokalen Videoframezählern (NF) eine Videoframezählerdifferenz (DNF) gebildet, die die Differenz zwischen dem lokalen Videoframezähler (NFS) des Slave-Netzwerk-Grafikprozessors (Slave-NGP) des Bezugsvideoframes und dem lokalen Videoframezähler (NFM) des Master-Netzwerk-Grafikprozessors (Master-NGP) (DNF=NFS-NFM) des Bezugsvideoframes ist, und mittels der Videoframezählerdifferenz (DNF) wird der Frameversatz bestimmt, indem zunächst der Slave-Netzwerk-Grafikprozessor (Slave-NGP) für das Bezugsvideoframe eine Umrechnungsdifferenz bildet, die die Differenz aus seinem lokalen Videoframezähler (NFS) und der Videoframezählerdifferenz (DNF) ist, und der Slave-Netzwerk-Grafikprozessor (Slave-NGP) den lokalen Videoframezähler (NFM) des Master-Netzwerk-Grafikprozessors (Master-NGP) für das Videoframe berechnet, das zum Synchronisationsnachrichtzeitpunkt (TSN) vom Master zum Rendern ausgewählt wurde, indem er von dem lokalen Videoframezähler (NFS) des Slave- Netzwerk-Grafikprozessor (Slave-NGP) die Umrechnungsdifferenz abzieht, und der Frameversatz als die Differenz des lokalen Videoframezählers (NFM) des Master-Netzwerk-Grafikprozessors (Master-NGP) für das Videoframe, das zum Synchronisationsnachrichtzeitpunkt (TSN) vom Slave-Netzwerk-Grafikprozessor (Slave-NGP) zum Rendern ausgewählt wurde, und des lokalen Videoframezählers (NFM) des Master-Netzwerk-Grafikprozessors (Master-NGP) für das Videoframe, das zum gleichen Synchronisationsnachrichtzeitpunkt (TSN) vom Master- Netzwerk-Grafikprozessor (Master-NGP) zum Rendern ausgewählt wurde, berechnet wird. In order to determine the frame offset, in the comparison of the snapshot received with the synchronization message (SN), the video frame queue (2) of the master network graphics processor (master NGP) with a locally stored snapshot of the video frame queue (2) of the slave Network graphics processors (slave NGP) using the contained in the snapshots absolute frame identification numbers (id) checked whether the two snapshots a common reference video frame is included, and for this reference video frame from the local mapping contained in the snapshots between the absolute frame identification numbers (id ) and the local video frame counters (NF) are formed of a video frame counter difference (DNF) representing the difference between the local video frame counter (NFS) of the slave network graphics processor (slave NGP) of the reference video frame and the local master video frame counter (NFM). GPU (Master NGP) (DNF = NFS NFM) of the reference video frame, and by means of the V idoframe counter difference (DNF), the frame offset is determined by first the slave network graphics processor (slave NGP) for the reference video frame forming a conversion difference that is the difference between its local video frame counter (NFS) and video frame counter difference (DNF), and the slave Network Graphics Processor (Slave NGP) calculates the master video graphics processor (Master NGP) Local Video Frame Count (NFM) for the video frame selected for synchronization message timing (TSN) from the master to render by the local video frame counter (NFS) of the slave Network graphics processor (slave NGP) subtracting the conversion difference, and the frame offset as the difference of the local video frame counter (NFM) of the master network graphics processor (master NGP) for the video frame sent to the synchronization message time (TSN) from the slave network The graphics processor (slave NGP) for rendering has been selected, and the master video frame processor (NFM) of the master network graphics processor (master NGP) for the video frame, which is the same synchronization message time (TSN) from the master network graphics processor (master NGP ) was selected for rendering.
Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zum Bestimmen der Videoframezählerdifferenz (DNF) bei dem Vergleich der Momentbilder danach gesucht wird, ob das als letztes, d.h. unmittelbar vor dem Versand der Synchronisationsnachricht (SN) vom Slave-Netzwerk-Grafikprozessor (Slave- NGP) in die Videoframe-Warteschlange (2) des Slave-Netzwerk-Gra- fikprozessors (Slave-NGP) eingehängte Videoframe in dem Momentbild des Master-Netzwerk-Grafikprozessors (Master-NGP) enthalten ist. Method according to one of the preceding claims, characterized in that in order to determine the video frame count difference (DNF) in the comparison of the snapshots it is searched for whether the latter is the last one, i.e. the last. video frame mounted in the snapshot of the master network immediately before the synchronization message (SN) is sent from the slave network graphics processor (slave NGP) to the video frame queue (2) of the slave network graphics processor (slave NGP) Graphics processor (master NGP) is included.
Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zum Bestimmen der Videoframezählerdifferenz (DNF) mit der Synchronisationsnachricht (SN) des Master-Netzwerk- Grafikprozessors (Master-NGP) an die Slave-Netzwerk-Grafikprozes- soren (Slave-NGP) der Wert des lokalen Videoframezählers (NFM) des Master-Netzwerk-Grafikprozessors (Master-NGP) für das als letztes, d.h. unmittelbar vor dem Versand der Synchronisationsnachricht vom Master-Netzwerk-Grafikprozessor (Master-NGP) in die Videoframe-Warteschlange (2) des Master-Netzwerk-Grafikprozessors (Master-NGP) eingehängte Videoframe, und die absolute Framekennnummer (id) dieses Videoframes übermittelt wird, und bei dem Vergleich der Momentbilder danach gesucht wird, ob dieses Videoframe in beiden verglichenen Momentbildern enthalten ist. Method according to one of the preceding claims, characterized in that for determining the video frame counter difference (DNF) with the synchronization message (SN) of the master network graphics processor (master NGP) to the slave network graphics processors (slave NGP) of the The value of the local video frame counter (NFM) of the master network graphics processor (master NGP) for the last, ie immediately before the sending of the synchronization message from the master network graphics processor (master NGP) in the video frame queue (2) of master network graphics processor (Master-NGP) mounted video frame, and the absolute frame identification number (id) of this video frame is transmitted, and when comparing the snapshots it is searched for whether this video frame is included in both compared snapshots.
Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Versenden einer Synchronisationsnachricht (SN) und das Synchronisieren der Darstellung von Videoframes zu Frameresynchronisationszeitpunkten (TS) wiederholt wird, vorzugsweise in periodischen, d.h. regelmäßigen zeitlichen Abständen. Method according to one of the preceding claims, characterized in that the transmission of a synchronization message (SN) and the synchronization of the presentation of video frames is repeated at frame synchronization times (TS), preferably in periodic, i.e. periodic, synchronous. regular time intervals.
Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Rate bzw. Frequenz, mit der die Synchronisationsnachrichten (SN) vom Master-Netzwerk-Grafikprozessor (Master-NGP) an die Slave-Netzwerk-Grafikprozessoren (Slave-NGP) gesendet werden, d.h. zu Framesynchronisationszeiten (TS) eine Framesynchronisation durchgeführt wird, zwischen 0,05 Hz und 10 Hz, bevorzugt zwischen 0,1 Hz und 5,0 Hz, weiter bevorzugt zwischen 0,2 Hz und 3,0 Hz, besonders bevorzugt zwischen 0,5 Hz und 2,0 Hz beträgt. Method according to one of the preceding claims, characterized in that the rate at which the synchronization messages (SN) are sent from the master network graphics processor (master NGP) to the slave network graphics processors (slave NGP), ie at frame synchronization times (TS) frame synchronization is performed between 0.05 Hz and 10 Hz, preferably between 0.1 Hz and 5.0 Hz, more preferably between 0.2 Hz and 3.0 Hz, most preferably between 0.5 Hz and 2.0 Hz.
Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Mediationsdauer (TM) ein fest vorgegebener Wert, insbesondere eine feste Zeitspanne, eine feste Anzahl von Bildrücklaufsignalen (Vsync), eine feste Anzahl von Bildrückläufen (VR) oder ein maximaler Wert des relativen Vsynczählers (NSR) ist. Method according to one of the preceding claims, characterized in that the mediation duration (TM) a fixed predetermined value, in particular a fixed period, a fixed number of frame return signals (Vsync), a fixed number of image returns (VR) or a maximum value of the relative Vsynczählers (NSR) is.
Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die den Framesynchronisationszeitpunkten (TS) zugeordneten Synchronisationsnachrichten (SN) zu Synchronisationsnachrichtzeitpunkten (TSN) von dem Master-Netzwerk-Grafikprozessor (Master-NGP) an die Slave-Netzwerk-Grafikprozessoren (Slave-NGP) gesendet werden, die um einen Framesynchronisations- zeitpunktvorlauf (TSV) vor dem zugehörigen folgenden Framesynchronisationszeitpunkt (TS) liegen, der zwischen einer halben und fünf, bevorzugt zwischen einer und vier und besonders bevorzugt zwischen ein und drei Perioden (Td) der vertikalen Displayfrequenz (fd) beträgt. Method according to one of the preceding claims, characterized in that the synchronization messages (SN) assigned to the frame synchronization times (TS) are sent at synchronization message times (TSN) from the master network graphics processor (master NGP) to the slave network graphics processors (Slave NGP), which are one frame synchronization timing advance (TSV) before the associated following frame synchronization time (TS), which is between one-half and five, preferably between one and four and more preferably between one and three periods (T d ) of the vertical display frequency (f d ) is.
Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Synchronisationsnachrichten (SN) von dem Master-Netzwerk-Grafikprozessor (Master-NGP) an die Slave-Netz- werk-Grafikprozessoren (Slave-NGP) als Mulitcast-Nachrichten gesendet werden. Method according to one of the preceding claims, characterized in that the synchronization messages (SN) are sent from the master network graphics processor (master NGP) to the slave network graphics processors (slave NGP) as multicast messages.
Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Bestimmung entweder der Videostreamfre- quenz (fs) oder der hierzu äquivalenten Periode (Ts) der Video- streamfrequenz (fs) und der vertikalen Displayfrequenz (fd) oder der hierzu äquivalenten Periode (Td) der vertikalen Displayfrequenz (fd), oder des Quotienten (fs /fd) der Videostreamfrequenz (fs) mit der vertikalen Displayfrequenz (fd) oder dessen hierzu äquivalenten Kehrwerts (fd/fs), oder des Quotienten (Td/Ts) der Periode (Td) der vertikalen Displayfrequenz (fd) mit der Periode (Ts) der Videostreamfrequenz (fs) oder dessen hierzu äquivalenten Kehrwerts (T s/T d) nin uncl wieder, regelmäßig, intervallartig oder bevorzugt mit einem gleitenden Messfenster (M) im Takt der vertikalen Displayfrequenz (fd) wiederholt wird. Method according to one of the preceding claims, characterized in that the determination of either the video stream frequency (f s ) or the equivalent period (T s ) of the video streaming frequency (f s ) and the vertical display frequency (f d ) or the thereto equivalent period (T d ) of the vertical display frequency (f d ), or the quotient (f s / f d ) of the video streaming frequency (f s ) with the vertical display frequency (f d ) or its equivalent reciprocal value (f d / f s ) , or the quotient (T d / T s ) of the period (T d ) of the vertical display frequency (f d ) with the period (T s ) of the video streaming frequency (f s ) or its equivalent reciprocal value ( T s / T d ) nin uncl again, regularly, intermittently or preferably with a sliding measuring window (M) in the cycle of the vertical display frequency (f d ) is repeated.
Computerprogrammprodukt, insbesondere ein computerlesbares digitales Speichermedium, mit gespeicherten, computerlesbaren, computerausführbaren Anweisungen zum Durchführen eines Verfahrens nach einem der vorhergehenden Ansprüche, d.h. mit Anweisungen, die, wenn sie in einen Prozessor, einen Computer oder ein Com- puternetzwerk geladen wurden und ausgeführt werden, den Prozessor, den Computer oder das Computernetzwerk veranlassen, Verfahrensschritte und Operationen gemäß einem der vorhergehenden Ansprüche durchzuführen. Computer program product, in particular a computer-readable digital storage medium, having stored, computer-readable, computer-executable instructions for carrying out a method according to one of the preceding claims, ie with instructions which, when incorporated in a processor, a computer or a computer computer network and cause the processor, the computer or the computer network to perform method steps and operations according to one of the preceding claims.
14. Computersystem, umfassend mehrere Netzwerk-Grafikprozessoren (NGP), die jeweils einen Computer mit Netzwerkkarte, Grafikkarte und Netzwerk-Interface und ein Videosynchronisationsmodul zum Ausführen eines Verfahrens nach einem der vorhergehenden Verfah- rensansprüche aufweisen. 14. A computer system comprising a plurality of network graphics processors (NGP), each having a computer with a network card, graphics card and network interface and a video synchronization module for performing a method according to any one of the preceding procedural claims.
15. Displaywand (1), die aus mehreren Displays (D) zusammengesetzt ist, zum Darstellen eines oder mehrerer Videostreams aus einer oder mehreren Videobildquellen (S), dadurch gekennzeichnet, dass sie ein Computersystem nach dem vorhergehenden Anspruch umfasst. A display panel (1) composed of a plurality of displays (D) for displaying one or more video streams from one or more video image sources (S), characterized in that it comprises a computer system according to the preceding claim.
EP13786168.8A 2013-10-30 2013-10-30 Synchronization of videos in a display wall Withdrawn EP3063616A1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2013/003268 WO2015062616A1 (en) 2013-10-30 2013-10-30 Synchronization of videos in a display wall

Publications (1)

Publication Number Publication Date
EP3063616A1 true EP3063616A1 (en) 2016-09-07

Family

ID=49518914

Family Applications (1)

Application Number Title Priority Date Filing Date
EP13786168.8A Withdrawn EP3063616A1 (en) 2013-10-30 2013-10-30 Synchronization of videos in a display wall

Country Status (4)

Country Link
US (1) US20160357493A1 (en)
EP (1) EP3063616A1 (en)
CN (1) CN105874422A (en)
WO (1) WO2015062616A1 (en)

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103747332B (en) * 2013-12-25 2018-08-10 乐视致新电子科技(天津)有限公司 A kind of smoothing processing method and device of video
CN103902337A (en) * 2014-03-14 2014-07-02 北京金山网络科技有限公司 Data download method and device
US9998634B2 (en) * 2014-11-03 2018-06-12 Google Llc Video frame playback scheduling
US9716913B2 (en) * 2014-12-19 2017-07-25 Texas Instruments Incorporated Generation of a video mosaic display
KR20160131673A (en) * 2015-05-08 2016-11-16 삼성전자주식회사 Display apparatus consisting a multi display system and control method thereof
KR101675804B1 (en) * 2015-05-27 2016-11-15 한화테크윈 주식회사 Surveillance system wherein video wall is formed
US10171429B2 (en) * 2015-06-12 2019-01-01 Arris Enterprises Llc Providing security to video frames
CN113259751A (en) * 2015-08-06 2021-08-13 麦克赛尔株式会社 Broadcast receiving apparatus
CN110391017A (en) * 2015-10-29 2019-10-29 佳能市场营销日本株式会社 Information processing unit and information processing method
CN105407252A (en) * 2015-11-19 2016-03-16 青岛海信电器股份有限公司 Method and device for synchronous display of pictures
CN105245759B (en) * 2015-11-23 2018-10-09 广东威创视讯科技股份有限公司 A kind of method and device realized image synchronization and shown
GB2549537B (en) * 2016-04-22 2022-01-05 Displaylink Uk Ltd Distributed video pipe
CN109804423A (en) * 2016-09-29 2019-05-24 惠普发展公司有限责任合伙企业 Modular attachment unit
WO2018142159A1 (en) * 2017-02-03 2018-08-09 Tv One Limited Method of video transmission and display
CN107018370B (en) * 2017-04-14 2020-06-30 威盛电子股份有限公司 Display method and system for video wall
CN107257262B (en) * 2017-05-08 2019-07-16 浙江大华技术股份有限公司 A kind of display control unit, display system and display synchronous method
WO2019087984A1 (en) * 2017-11-01 2019-05-09 シャープ株式会社 Image processing device, display device, image processing method, control program, and recording medium
KR102391981B1 (en) * 2017-11-10 2022-04-28 에스에에스-이마고탁 게엠베하 A system for synchronized video playback on multiple playback devices
US11170740B2 (en) * 2017-11-28 2021-11-09 Nvidia Corporation Determining allowable locations of tear lines when scanning out rendered data for display
TWI679895B (en) * 2017-12-15 2019-12-11 宏正自動科技股份有限公司 Electronic device and image synchronization method
EP3503569A1 (en) * 2017-12-19 2019-06-26 Thomson Licensing Method of transmitting video frames from a video stream to a display and corresponding apparatus
CN108334295B (en) * 2018-01-24 2019-06-25 广州国交润万交通信息有限公司 Method for synchronizing and separating operation and display of monitoring PC and spliced large screen
US10484578B2 (en) * 2018-03-30 2019-11-19 Cae Inc. Synchronizing video outputs towards a single display frequency
CN110324609B (en) * 2018-03-30 2021-07-09 杭州海康威视数字技术股份有限公司 Method and device for detecting synchronism of output signals, electronic equipment and storage medium
CN108566553B (en) * 2018-04-25 2020-12-04 威盛电子股份有限公司 Video wall media playing system, method and control server
CN108737689A (en) * 2018-04-27 2018-11-02 浙江大华技术股份有限公司 A kind of splicing display method and display control apparatus of video
US20190371271A1 (en) 2018-06-04 2019-12-05 Microsoft Technology Licensing, Llc Multiple display synchronization
JP7168351B2 (en) * 2018-06-05 2022-11-09 シャープ株式会社 Display system and display method
CN110636306B (en) * 2018-06-22 2021-07-20 杭州海康威视数字技术股份有限公司 Image display method, decoding equipment and television wall system
US10996912B2 (en) * 2018-08-03 2021-05-04 Innolux Corporation Tiled display system and tiled display device
KR102514636B1 (en) * 2018-10-22 2023-03-28 주식회사 엘엑스세미콘 Data processing device, data driving device and system for driving display device
WO2020179618A1 (en) * 2019-03-04 2020-09-10 パナソニックIpマネジメント株式会社 Video display system, video conversion device, and video display method
CN109819201A (en) * 2019-03-08 2019-05-28 厦门亿联网络技术股份有限公司 A kind of meeting secondary flow data transmission method, display methods, conference system and peripheral equipment
CN111835994B (en) * 2019-04-16 2022-09-20 瑞昱半导体股份有限公司 Multi-channel video processing method and system
CN112166618B (en) * 2019-04-29 2022-07-12 百度时代网络技术(北京)有限公司 Autonomous driving system, sensor unit of autonomous driving system, computer-implemented method for operating autonomous driving vehicle
CN111949068B (en) * 2019-05-14 2022-12-13 瑞芯微电子股份有限公司 Method and system for adjusting time sequence among multiple devices
CN112783458B (en) * 2019-11-08 2022-04-29 京东方科技集团股份有限公司 Synchronous display method, system, electronic device and computer readable medium
CN110868617B (en) * 2019-11-27 2022-03-22 烟台职业学院 Synchronous display method based on distributed system
CN111050025B (en) * 2019-12-04 2022-05-03 深圳市创凯智能股份有限公司 Audio and video display control method, device and system and computer readable storage medium
CN111147923A (en) * 2019-12-19 2020-05-12 北京凯视达科技有限公司 Intelligent multi-machine cascade cooperative work method
US11195452B1 (en) * 2020-05-14 2021-12-07 Cisco Technology, Inc. Sub-frame synchronization of multiple displays with independent vertical refresh rates
US11106919B1 (en) * 2020-06-02 2021-08-31 ULTINOUS Zrt. Processing of video streams
CN112422873B (en) * 2020-11-30 2022-09-16 Oppo(重庆)智能科技有限公司 Frame insertion method and device, electronic equipment and storage medium
CN114693532A (en) * 2020-12-28 2022-07-01 富泰华工业(深圳)有限公司 Image correction method and related equipment
US20220208145A1 (en) * 2020-12-28 2022-06-30 Ati Technologies Ulc Display wall synchronization using variable refresh rate modules
US20220210294A1 (en) * 2020-12-30 2022-06-30 Ati Technologies Ulc Software-implemented genlock and framelock
CN114327325B (en) * 2021-04-27 2022-06-07 北京仁光科技有限公司 Multi-window processing method, system, readable storage medium and electronic device
CN113965786B (en) * 2021-09-29 2024-03-26 杭州当虹科技股份有限公司 Method for precisely controlling video output playing
DE102021126312A1 (en) 2021-10-11 2023-04-13 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Background Playback Facility
US12039955B2 (en) 2022-03-10 2024-07-16 Rockwell Collins, Inc. Methodology for image synchronization to video imaging devices
CN115273748A (en) * 2022-09-01 2022-11-01 维沃移动通信有限公司 Display module, display system, display driver, display method and electronic equipment
CN117041508B (en) * 2023-10-09 2024-01-16 杭州罗莱迪思科技股份有限公司 Distributed projection method, projection system, equipment and medium

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6831648B2 (en) * 2000-11-27 2004-12-14 Silicon Graphics, Inc. Synchronized image display and buffer swapping in a multiple display environment
US7483031B2 (en) * 2003-04-17 2009-01-27 Nvidia Corporation Method for synchronizing graphics processing units
EP1768383B1 (en) * 2005-07-15 2016-02-24 Barco N.V. Network displays and method of their operation
JP4182124B2 (en) * 2006-06-30 2008-11-19 Necディスプレイソリューションズ株式会社 Image display device, dot clock phase adjustment circuit, and clock phase adjustment method
CN102769770B (en) * 2011-05-03 2015-04-15 瑞昱半导体股份有限公司 Measuring device of three-dimensional picture format and related method
US9086838B2 (en) * 2012-09-03 2015-07-21 Nvidia Corporation Synchronous media display through automatic hardware profiles across multiple display units
CN103369365A (en) * 2013-06-28 2013-10-23 东南大学 Audio and video synchronous recording device

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
None *
See also references of WO2015062616A1 *

Also Published As

Publication number Publication date
WO2015062616A1 (en) 2015-05-07
CN105874422A (en) 2016-08-17
US20160357493A1 (en) 2016-12-08

Similar Documents

Publication Publication Date Title
WO2015062616A1 (en) Synchronization of videos in a display wall
DE102015108424B4 (en) Dynamic frame repetition in a variable refresh rate system
DE112011105224B4 (en) Image information playback unit, image information playback apparatus, and synchronization control method
DE60310514T2 (en) Method and apparatus for synchronizing the reproduction of audio and / or video frames
DE19810062C2 (en) Synchronization of left / right channel display and vertical refresh in stereoscopic multi-display computer graphics systems
DE102020133263A1 (en) Update with low power consumption during semi-active workloads
DE102004007098A1 (en) Video device and method for synchronizing time bases of video devices
DE102020133877A1 (en) SYNCHRONIZATION BETWEEN ONE OR MORE DISPLAY BOARDS AND A DISPLAY ENGINE
EP2425627B1 (en) Method for the time synchronization of the intra coding of a plurality of sub images during the generation of a mixed image video sequence
DE102014100183B4 (en) A method and apparatus for using a separate reverse channel for user input when replicating the display of a mobile device
EP2569673A1 (en) Holographic live presentation system and method for the live transmission of a holographic presentation
DE19545356C2 (en) Device for displaying stereo video images
WO2021123365A1 (en) Method for transferring at least one image content to at least one viewer
EP0876033B1 (en) Transmission system with data streams synchronization
DE19962730C2 (en) Video signal processing system or video signal processing method
DE69523201T2 (en) Method and apparatus for reproducing a digital image sequence received from a remote source
DE102012108685B4 (en) Multi-converter for digital, high-resolution, stereoscopic video signals
EP1680929B1 (en) Stereoprojection control system
EP1591883A2 (en) Method and device for controlling a plurality of graphic displays
DE10308138B4 (en) Method for synchronizing picture and video phase of two or more MPEG-2 encoded video sequences for digital multi-projection systems
DE102012016487B4 (en) Image module for a screen
DE10339661B4 (en) Method and arrangement for synchronizing a video input signal with a video output signal
DE19546841C2 (en) Multiple overlay with an overlay controller
WO1999049660A1 (en) Method for outputting received image data
DE102008023501B4 (en) Method and arrangement for the synchronous recording of at least two video data streams of different formats

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20160517

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20170627

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20180109