DE102005012668A1 - Method for detecting missing frames in audio and video data streams in e.g. hard disk, involves making assumption by frames missing from located frame, where rough time of frames is smaller than or equal to time to output frames - Google Patents

Method for detecting missing frames in audio and video data streams in e.g. hard disk, involves making assumption by frames missing from located frame, where rough time of frames is smaller than or equal to time to output frames Download PDF

Info

Publication number
DE102005012668A1
DE102005012668A1 DE200510012668 DE102005012668A DE102005012668A1 DE 102005012668 A1 DE102005012668 A1 DE 102005012668A1 DE 200510012668 DE200510012668 DE 200510012668 DE 102005012668 A DE102005012668 A DE 102005012668A DE 102005012668 A1 DE102005012668 A1 DE 102005012668A1
Authority
DE
Germany
Prior art keywords
frames
video
frame
audio
stream
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE200510012668
Other languages
German (de)
Other versions
DE102005012668B4 (en
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Blochl Bernhard
BLOECHL BERNHARD
Original Assignee
Blochl Bernhard
BLOECHL BERNHARD
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Blochl Bernhard, BLOECHL BERNHARD filed Critical Blochl Bernhard
Priority to DE200510012668 priority Critical patent/DE102005012668B4/en
Publication of DE102005012668A1 publication Critical patent/DE102005012668A1/en
Application granted granted Critical
Publication of DE102005012668B4 publication Critical patent/DE102005012668B4/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder

Abstract

The method involves adding an offset of audio and video data streams to a rough time of frames such that the offset is determined from synchronization information in packet headers. The time and the offset are compared with the information for each located frame. The information are obtained from presentation time stamp and/or system clock reference. An assumption is made by the frames missing from the located frame when the time and the offset are smaller than or equal to the time stamp and/or clock reference, where the time is smaller than or equal to a time for outputting of the frames. An independent claim is also included for a device for detecting missing frames in audio and video data streams.

Description

Aufgabe der ErfindungObject of the invention

Diese Erfindung betrifft ein Verfahren zur in Echtzeit erfolgenden oder zur nachträglichen Detektion von Abschnitten, in denen bei der digitalen Aufzeichnung oder Übertragung von Bild- oder/und Tonsequenzen mittels digitaler, komprimierter Videosystemströme, bestehend aus miteinander verbundenen Bewegtbild- und Tonspuren Teile dieser Sequenzen verloren gegangen sind. Diese Erfindung betrifft weiterhin ein Verfahren zur Verbesserung derartiger digitaler Videosystemströme bei denen verlorene Bild- oder/und Tonsequenzen festgestellt werden.These The invention relates to a method for real-time or for later Detection of sections where in the digital recording or transmission of image and / or sound sequences by means of digital, compressed Video system streams consisting of linked video and audio tracks Parts of these sequences have been lost. This invention relates a method for improving such digital video system streams in which Lost image and / or sound sequences are detected.

Technisches Gebiet der ErfindungTechnical field of the invention

Die digitale Aufzeichnung von Videodaten einschließlich der dazu gehörenden Audiodaten erzeugt große Datenmengen. Die zu deren Speicherung für Produkte der Unterhaltungselektronik zur Verfügung stehenden Massenspeicher (z. B. Festplatte oder optische Medien wie DVD) verfügen zum Zeitpunkt der Stellung dieses Patentantrages in der Regel weder über eine ausreichende Zugriffsgeschwindigkeit, noch über die notwendige Speicherdichte, um eine unkomprimierte Speicherung von digitalen Videodaten und ggf. auch der dazu gehörenden Audiodaten bei einer ausreichenden Auflösung zu erlauben. Daher müssen digital aufgezeichnete Videodaten komprimiert werden, bevor sie gespeichert oder übertragen werden. Dieses Komprimieren sowohl von Video- als auch von Audiodaten bezeichnet man als Encodieren. International standardisiert für diesen Zweck wurden die Protokolle und Formate der Motion Pictures Expert Group (MPEG, z. B. MPEG 1, MPEG 2, oder MPEG 4). Industriestandards, die von diesen Protokollen mit nur geringen Änderungen abgeleitet wurden, sind z. B. DivX (basierend auf MPEG 4) oder das DVD-Whitebook (Standard für DVD's, basierend auf MPEG 2). Größere Unterschiede bestehen z. B. zu Quicktime und MJPEG, obwohl auch diese Formate teilweise auf den MPEG-Standards beruhen oder im Rahmen der Produktverbesserung Eigenschaften der MPEG-Standards implementiert haben. Die Bezeichnungen der genannten Standards oder Industriestandards sind teilweise eingetragene Warenzeichen.The digital recording of video data including the audio data associated therewith produces big ones Amounts of data. Those for their storage for consumer electronics products to disposal stationary mass storage (eg hard disk or optical media like DVD) at the time of filing this patent application usually neither one sufficient access speed, nor the necessary storage density, to an uncompressed storage of digital video data and if necessary, the associated Allow audio data at a sufficient resolution. Therefore, must be digital recorded video data is compressed before being stored or transferred become. This compression of both video and audio data is called encoding. Internationally standardized for this Purpose became the protocols and formats of the Motion Pictures Expert Group (MPEG, eg MPEG 1, MPEG 2, or MPEG 4). Industry standards, derived from these protocols with only minor changes, are z. DivX (based on MPEG 4) or the DVD Whitebook (standard for DVD's, based on MPEG 2). Bigger differences exist z. To Quicktime and MJPEG, though these formats too partly based on the MPEG standards or as part of the product improvement Have implemented properties of the MPEG standards. The names these standards or industry standards are partially registered Trademark.

Kern der Videodatenformate ist das Kompressionsverfahren. Daneben legen die Videodatenformate auch fest, wie die zu einem Video gehörenden Bild- und Audiodaten in einer Datei (für das Abspeichern) oder in einem Datenstrom (für die Übertragung) miteinander verbunden (gemultiplext) werden, und definieren zusätzliche Steuerinformationen.core The video data formats is the compression method. Place next to it the video data formats also determine how the video belonging to a video and audio data in a file (for storing) or in a data stream (for transmission) (multiplexed) and define additional control information.

Bei den MPEG-Formaten und den meisten anderen digitalen Videoformaten werden die Video- und Audiodaten zunächst voneinander getrennt als eigene Video- und Audiodatenströme digitalisiert bzw. digital aufgezeichnet (oder bei Hardwareencodern zumindest zwischengespeichert) und encodiert. Beim Encodieren werden der Video- und der Audiodatenstrom wiederum in einzelne Abschnitte, die als Rahmen (engl. Frames) bezeichnet werden, unterteilt. Dabei entspricht ein Videoframe in der Regel einem Bild des Films, der als Video aufgezeichnet wurde, während ein Audioframe einer Tonsequenz fester Länge entspricht. Die Dauer der in einem Audioframe enthaltenen Tonsequenz ist je nach dem verwendeten Audioformat unterschiedlich, sie bewegt sich jedoch in der Regel im zweistelligen Millisekundenbereich.at the MPEG formats and most other digital video formats The video and audio data are initially separated as their own Video and audio streams digitized or digitally recorded (or hardware encoders at least buffered) and encoded. When encoding will be the video and audio data streams in turn into individual sections, which are referred to as frames (engl. there A video frame usually corresponds to a picture of the movie that as video was recorded while an audio frame corresponds to a fixed length sound sequence. The duration of the sound sequence contained in an audio frame is different depending on the one used Audio format varies, but it usually moves in the tens of milliseconds range.

Innerhalb des Frames sind die Audio- und Videorohdaten in komprimierter Form enthalten. Ist die Komprimierung mit konstanter Datenrate erfolgt, hat der Frame eine feste Länge, die aus der in seinem Header enthaltenen Datenrate berechnet werden kann. Ist die Komprimierung mit variabler Datenrate erfolgt, hat der Frame eine variable Länge. In diesem Fall kann die Erkennung des Beginns eines Frames mit den im Header enthaltenen Daten erfolgen. So beginnt beispielsweise der in 2 dargestellte Picture Header, das ist der Header eines Videoframes, mit einer 24 Bit langen Synchronisationsbitfolge (0x000001), gefolgt von dem Identifikationsbyte des Picture Headers (0x00). Das MPEG-Format stellt sicher, dass innerhalb des Datenstroms keine Bitfolge, die der Synchronisationsbitfolge gleicht, auftreten kann. Dadurch ist gewährleistet, dass man, wenn man, innerhalb des Videodatenstroms nach einer Synchronisationsbitfolge sucht, den Beginn eines Headers findet. Die Header der Audiodatenströme verwenden ebenfalls eine Synchronisationsbitfolge, allerdings ist diese je nach Audiodatenformat unterschiedlich. So ist die Synchronisationsbitfolge bei dem Dolby-Digital-Audiodatenformat 16 Bit lang und hat den Wert 0x0B77.Within the frame, the audio and video raw data is contained in compressed form. If the compression was done at a constant data rate, the frame has a fixed length, which can be calculated from the data rate contained in its header. If the compression has been done with variable data rate, the frame has a variable length. In this case, the detection of the start of a frame can be done with the data contained in the header. For example, the in 2 represented Picture Header, which is the header of a video frame, with a 24-bit synchronization bit sequence (0x000001), followed by the identification byte of the Picture Header (0x00). The MPEG format ensures that no bit sequence similar to the synchronization bit string can occur within the data stream. This ensures that if one searches within the video data stream for a synchronization bit sequence, one finds the beginning of a header. The headers of the audio streams also use a sync bit string, but this is different depending on the audio data format. Thus, in the Dolby Digital audio data format, the synchronization bit string is 16 bits long and has the value 0x0B77.

Bevor das digitale Video auf einem Massenspeicher abgespeichert, terrestrisch oder per Satellit ausgestrahlt, oder über ein Übertragungsmedium wie z. B. das Internet oder ein Netzwerk übertragen wird, müssen die Frames der Audio- und Videodatenströme wieder zusammengebunden werden. Dieses Zusammenbinden der Datenströme nennt man Multiplexen. Beim Multiplexen werden auch zusätzliche Steuerinformationen, wie z. B. der Abspielzeitpunkt eines Rahmens erzeugt und dem Datenstrom hinzugefügt. Das Ergebnis des Multiplexen ist ein so genannter Systemstrom (System Stream), dieser wird hier auch als gebundenes digitales Video, gebundener Datenstrom oder gebundenes Video bezeichnet.Before the digital video stored on a mass storage, terrestrial or broadcast by satellite, or via a transmission medium such. B. to broadcast the internet or a network will have to the frames of the audio and video streams are tied together again become. This binding of data streams is called multiplexing. At the Multiplexing will also provide additional control information, such as B. the playback time of a frame generated and the data stream added. The result of the multiplexing is a so-called system stream (System Stream), this is also here as bound digital video, bound Called stream or bound video.

Das zum Multiplexen angewandte Verfahren arbeitet bei den MPEG-Formaten oder den davon abgeleiteten Formaten, unabhängig davon, für welches Übertragungs- oder Speichermedium das Video gemultiplext wird, prinzipiell auf die gleiche Weise. Bei den einzelnen Parameter dieses Verfahrens können jedoch, je nach dem, für welches Übertragungs- oder Speichermedium das Video gemultiplext wird, große Unterschiede auftreten. So ist z. B. bei DVD-Video nur ein Videodatenstrom erlaubt, während bei dem für die terrestrische Übertragung von digitalem Fernsehen verwendeten DVB-T-Format in der Regel vier Videodatenströme gemultiplext werden.The multiplexing method works with the MPEG formats or the formats derived therefrom, regardless of which Transmission or storage medium the video is multiplexed, in principle in the same way. However, depending on the transmission or storage medium for which the video is multiplexed, the individual parameters of this method can vary widely. So z. For example, in DVD-Video, only one video stream is allowed, while in the DVB-T format used for the terrestrial transmission of digital television, four video streams are typically multiplexed.

Beim Multiplexen werden die einzelnen Video- und Audiodatenströme, aus denen der Systemstrom bestehen soll, zunächst in Pakete gleicher Größe zerteilt. Die Größe der Pakete kann, je nach Übertragungs- oder Speichermedium aus bestimmten zulässigen Werten gewählt sein. Jedem Paket wird ein so genannter „Packet Header” vorangestellt, auf den ein „Packetetized Elementary Stream Header” (PES-Header) folgt. Hinter diesen beiden Headern werden Daten des Video- oder Audiodatenstroms eingefügt, bis das Paket voll ist. Dann beginnt ein neues Paket. Um die Hardware-Anforderungen an das für die Ausgabe digitaler Videos verwendete Gerät zu begrenzen, werden die Pakete der verschiedenen zusammenzubindenden Datenströme abwechselnd in einem ihrer Datenrate entsprechenden Verhältnis in den beim Multiplexen erzeugten Datenstrom geschrieben. Dadurch kann das Multiplexen auch z. B. in Hardwareencodern in einem Schritt mit dem Encodieren und in Echtzeit erfolgen. Für die Erkennung der beim Multiplexen erzeugten Header wird die von den Videodatenströmen bekannte Synchronisationsbitfolge 0x000001 verwendet.At the The individual video and audio streams are multiplexed which the system stream should consist of, first divided into packets of the same size. The size of the packages depending on the transmission or storage medium selected from certain allowable values. Each packet is preceded by a so-called "packet header", on the one "packetetized Elementary Stream Header "(PES header) follows. Behind these two headers will be data of the video or Inserted audio stream, until the package is full. Then a new package begins. To the hardware requirements to that for To limit the output of digital video devices used, the Packets of the various data streams to be connected alternately in a ratio corresponding to their data rate in the multiplexing written data stream written. This allows multiplexing as well z. B. in hardware encoder encoders in one step with the encoding and done in real time. For the detection of the headers generated during the multiplexing is performed by the the video data streams known synchronization bit sequence 0x000001 used.

Beim Packet Header folgt auf die 24 Bit langen Synchronisationsbitfolge (0x000001) das Identifikationsbyte des Packet Headers (0xBA). Der Packet Header (3) enthält u. a. die „SYSTEM CLOCK REFERENCE” (SCR). Wertet ein Abspielgerät dieses Feld aus, startet es die Wiedergabe des ersten Rahmens in diesem Paket erst, wenn ein beim Start des Videos gestarteter 27 MHz-Zähler den in der SCR enthaltenen Wert erreicht hat. Der SCR ist ein 48 Bit langes Feld, das gleich hinter dem Identifikationsbyte des Pack-Headers folgt. Das erste Byte des SCR-Feldes ist mit einer 0, weitere Bits des SCR-Feldes sind mit einer 1 vorbelegt, um sicherzustellen, dass innerhalb des Headers keine zweite Synchronisationsbitfolge auftreten kann. Der Wert des 27 MHz-Zählers wird durch 300 geteilt und in den vorderen Bereich des SCR geschrieben, der sich bei der Division ergebende Rest wird als 9 Bit lange Zahl ans Ende des SCR geschrieben. Der Aufbau des Packet Headers kann 3 entnommen werden.The packet header is followed by the identification byte of the packet header (0xBA) on the 24-bit synchronization bit string (0x000001). The packet header ( 3 ) contains among other things the "SYSTEM CLOCK REFERENCE" (SCR). If a player evaluates this field, it will not start playing the first frame in that packet until a 27 MHz counter started at the start of the video has reached the value contained in the SCR. The SCR is a 48-bit field that follows just after the identification byte of the pack header. The first byte of the SCR field is a 0, further bits of the SCR field are pre-assigned a 1 to ensure that no second sync bit sequence can occur within the header. The value of the 27 MHz counter is divided by 300 and written to the front of the SCR, the remainder resulting from the division being written as a 9-bit number at the end of the SCR. The structure of the packet header can 3 be removed.

Nach dem Pack Header folgt ein „Packetetized Elementary Stream Header” (PES-Header, 6). Dieser beginnt wieder mit der 24 Bit langen Synchronisationsbitfolge (0x000001). Anschließend folgt die 8 Bit lange Stream-ID. Zulässige Stream-ID's sind die Werte 0xBD bis 0xEF. Jeder in dem gebundenen Datenstrom enthaltene Datenstrom erhält eine eindeutige Stream-ID zugewiesen, an der er identifiziert werden kann. Die Stream-ID legt auch fest, wofür der Datenstrom genutzt wird. Dabei sind die Stream-ID's 0xE0 bis 0xEF für Videodatenströme und die Streams 0xC0 bis 0xDF für Audiodatenströme in einem der originären Audioformate der MPEG-Protokollfamilie reserviert. Weiterhin sind ein Padding-Datenstrom (Stream-ID 0xBE) zum Einfügen von Fülldaten und zwei private Datenströme (Stream-ID's 0xBD und 0xBF) zulässig. Bei DVD's wird beispielsweise der Private Datenstrom 0xBD für das Verpacken von Audiodaten in den nicht vom ursprünglichen MPEG-Standard unterstützten Audiodatenformaten DTS (Digital Theater Sound), AC3 (Dolby Digital) und PCM genutzt.The Pack Header is followed by a Packetetized Elementary Stream Header (PES header, 6 ). This starts again with the 24-bit synchronization bit sequence (0x000001). This is followed by the 8-bit stream ID. Permitted stream IDs are the values 0xBD to 0xEF. Each stream contained in the bound stream is assigned a unique stream ID at which it can be identified. The stream ID also determines what the data stream is used for. In this case, the stream IDs 0xE0 to 0xEF for video streams and the streams 0xC0 to 0xDF for audio streams are reserved in one of the original audio formats of the MPEG protocol family. Furthermore, a padding data stream (Stream-ID 0xBE) is allowed for inserting stuffing data and two private data streams (Stream-ID's 0xBD and 0xBF). For example, DVDs use Private Stream 0xBD to wrap audio data in DTS (Digital Theater Sound), AC3 (Dolby Digital), and PCM audio formats not supported by the original MPEG standard.

Im Packetetized Elementary Stream Header sind eine Reihe von Feldern zulässig. Welches davon tatsächlich vorhanden ist, entscheiden die Bits in einem 32 Bit langen Bitfeld, das als „PES-Header Extension” bezeichnet wird. Dieses Bitfeld folgt direkt auf die Stream-ID.in the Packetized Elementary Stream Headers are a set of fields allowed. Which of them actually is present, the bits in a 32-bit bit field, that as a "PES header Extension " becomes. This bit field directly follows the stream ID.

Für das Verständnis des erfindungsgemäßen Verfahrens ist nur das Feld „PRESENTATION TIME STAMP” (PTS) des PES-Headers wichtig. Es ist vorhanden, wenn das 7.Bit der „PES-Header Extension” den Wert 1 hat. In diesem Fall folgt der PTS direkt auf die PES-Header Extension. Der PTS gibt die Zeit in Millisekunden an, bei der, gemessen vom Start des Videos, ein Abspielgerät mit der Wiedergabe des ersten Rahmens in dem Paket, dem dieser PES-Header vorangeht, beginnen soll.For the understanding of inventive method is just the field "PRESENTATION TIME STAMP "(PTS) important to the PES header. It is present if the 7th bit of the "PES header Extension "the Value 1 has. In this case, the PTS directly follows the PES headers Extension. The PTS indicates the time in milliseconds at which, measured from the start of the video, a player playing the first Start frame in the packet that precedes this PES header should.

Der Aufbau des PES-Headers kann, so weit er für das erfindungsgemäße Verfahren erforderlich ist, 6 entnommen werden.The structure of the PES header can, as far as it is required for the inventive method, 6 be removed.

Der Erfindung zu Grunde liegende ProblematikThe invention underlying problem

Die MPEG-Formate sind insofern durchgängig, als die Video- und Audiodatenströme auf jedem möglichen Übertragungs- oder Speichermedium in der gleichen Form vorliegen können, so weit man nicht innerhalb dieser Formatfamilie in ein anderes Format wechselt. Dagegen unterscheiden sich die Systemströme je nach dem Medium, für das sie geschaffen wurden, in Bezug auf die bei dem Binden hinzugefügten Informationen häufig erheblich.The MPEG formats are consistent in that the video and audio streams on each possible transmission or storage medium can be in the same form, so far one does not fall within this format family in another format replaced. In contrast, the system flows differ depending on the medium, for that they were created in relation to the information added in the binding often considerably.

Nimmt man beispielsweise ein digitales Video mit einer TV-Tuner-Karte und einem PC auf, so wird ein Programm-Stream erzeugt. Um diese Aufnahme für die spätere Archivierung auf DVD zu brennen, muss er zumindest neu gebunden werden, da das bei DVD's für den Systemstrom verwendete Format (VOB – Video OBject) sich von dem des Program Streams unterscheidet. Da gegen sind die in den verschiedenen Systemströmen gebundenen Video- und Audiodatenströme zueinander. Somit muss man sie theoretisch nicht mehr encodieren, zumindest, wenn man bereits bei den Einstellungen für die Aufnahme bestimmte Randbedingungen (z. B. unterstützen DVD's nur wenige Auflösungen) beachtet hat. Dies ist besonders deshalb vorteilhaft, da die MPEG-Formate verlustbehaftete Kompressionsverfahren verwenden, so dass es bei jedem neuen Encodieren des Video- und Audiodatenstroms, zu einem Qualitätsverlust kommt.Take, for example, a digital video with a TV tuner card and a PC, so a program stream is generated. In order to burn this recording to DVD for later archiving, it must be at least rebounded because the format (VOB - Video OBject) used on DVD's for the system stream is different from that of the Program Streams is different. On the contrary, the video and audio data streams bound in the various system streams are mutually exclusive. So theoretically you do not have to encode them anymore, at least if you have already taken into account certain boundary conditions (eg support DVD's only a few resolutions) in the settings for the recording. This is particularly advantageous because the MPEG formats use lossy compression techniques so that quality degradation occurs each time the video and audio data streams are re-encoded.

Besonders beim MPEG-2-Format gibt es eine ganze Reihe von Anwendungsfällen, in denen eine solche Formatwandlung des Systemstroms durch erneutes Multiplexen erforderlich wird, bei der die Video- und Audiodatenströme nicht unbedingt neu encodiert werden müssen. Da das MPEG-2-Format besonders häufig verwendet wird, besitzt es entsprechend viele Derivate. Ein weiteres Beispiel für die Notwendigkeit einer solchen Formatwandlung ist es, eine digital im DVB-S oder DVB-T-Format ausgestrahlte Fernsehsendung auf einer DVD zu archivieren. Wenn man ein Video, das man z. B. als Transport-Stream auf einem DVB-Receiver mit eingebauter Festplatte empfangen hat, auf DVD brennen will, ist auf Grund der zusätzlichen Navigationsdaten, die die DVD im Private Stream 2 (Stream-ID 0xBF) benötigt, grundsätzlich ein neues Multiplexen so wie das Generieren zusätzlicher Steuerinformationen erforderlich.Especially in the MPEG-2 format there are a whole range of use cases, in where such a format conversion of the system stream by renewed Multiplexing is required in which the video and audio streams are not absolutely have to be re-encoded. Because the MPEG-2 format especially common is used, it has a corresponding number of derivatives. Another one Example of the Necessity of such a format conversion is to use a digital in DVB-S or DVB-T format broadcast on one DVD to archive. If you have a video that you z. B. as a transport stream received on a DVB receiver with built-in hard drive, burn on DVD is due to the additional navigation data, which requires the DVD in Private Stream 2 (Stream-ID 0xBF), basically one new multiplexing as well as generating additional control information required.

Wird das Video auf dem PC aufgezeichnet (z. B. mit einer analogen TV-Karte) und dort weiterverarbeitet, erfolgt das Encodieren, Schneiden und, wenn es auf DVD gebrannt werden soll, das Gestalten der Menüs und das Brennen häufig mit unterschiedlichen Programmen. Diese Programme führen jeweils intern ein Demultiplexen des Systemstromes durch und Multiplexen ihn nach der Weiterverarbeitung wieder. Einige dieser Programme können sogar keine aus Video- und Audiodatenströmen gebundenen Systemströme verarbeiten. In diesem Fall muss das Video vor der Weiterverarbeitung gedemultiplext und zur anschließenden Speicherung wieder gemultiplext werden. Das einzige dem Autor bekannte Programm, das hiervon abweicht, ist eine auf einen externen Hardware-Encoder angewiesene Version eines Videoschnittprogramms.Becomes the video is recorded on the PC (eg with an analogue TV card) and further processed there, the encoding, cutting and, if it is to be burned to DVD, the design of the menus and the Burning often with different programs. These programs run each internally demultiplexing the system stream and multiplexing him again after further processing. Some of these programs can even do not process system streams tied from video and audio streams. In this case the video must be demultiplexed before further processing and to the subsequent Storage be multiplexed again. The only one known to the author Program that deviates from this is an external hardware encoder instructed version of a video editing program.

So lange in den Audio- und Videostreams, die im Ausgangsvideo enthalten sind, keine Frames fehlen, ist dieses Demultiplexen mit anschließendem erneuten Multiplexen problemlos. Fehlen aber in einem der Datenströme Frames, sind nach dem Demultiplexen mit anschließendem erneuten Multiplexen Audio und Video für einen Teil des Videos nicht mehr Synchron. Bereits eine Differenz von weniger als einer halben Sekunde fällt dabei stark störend auf.So long in the audio and video streams included in the source video are missing, no frames, this demultiplexing is followed by renewed Multiplexing easily. However, if frames are missing in one of the data streams, are after demultiplexing followed by re-multiplexing Audio and video for a part of the video is no longer synchronous. Already a difference less than half a second is distracting.

Ursache dafür ist, dass sämtliche Informationen über den Zeitpunkt, an dem mit dem Abspielen eines Frames gestartet werden soll, nur in den Packet Headern und den PES-Headern des gemulti plexten Videos enthalten sind. Wird ein Video mit fehlenden Frames abgespielt, wartet das Abspielprogramm oder -gerät, bis der Zeitpunkt für das Abspielen des nächsten, wieder vorhandenen Frames erreicht ist. Bis dahin bleibt das Bild kurz stehen, oder der Ton ist kurzzeitig stumm.reason for that is, that all information about the time at which to start playing a frame should be multiplexed only in the packet headers and the PES headers Videos are included. If a video is played with missing frames, Wait for the player or device to play until the time of play the next, is reached again existing frames. Until then, the picture remains stand briefly, or the sound is temporarily mute.

Beim Demultiplexen werden diese Zeitmarken bzw. Synchronisationsinformationen entfernt, so dass sie bei einem erneuten Multiplexen nicht mehr richtig gebildet werden können. Statt dessen errechnet der Multiplexer die Zeitmarken aus der Anzahl der von ihm gezählten Frames und einigen anderen Parameter wie z. B. der Framerate. Dadurch kann das Video nach dem erneuten Multiplexen nicht mehr synchron angezeigt werden, wenn Frames verloren gegangen sind.At the Demultiplexing becomes these timestamps or synchronization information removed, so they no longer correct when multiplexing again can be formed. Instead, the multiplexer calculates the timestamps from the number the one counted by him Frames and some other parameters such. B. the frame rate. Thereby The video may become out of sync after re-multiplexing displayed when frames are lost.

Leider ist das Fehlen von Frames sehr häufig. Im folgenden werden einige mögliche Ursachen für einen Verlust von Frames beschrieben. Erschwert wird dieses Problem dadurch, dass in einem Video die Videodaten erheblich mehr Bandbreite als Audiodaten benötigen, so dass die Wahrscheinlichkeit für den Verlust von Videoframes sehr viel höher ist, als die für den Verlust von Audioframes. Kommt es zu einem Verlust von Frames, wird dieser Effekt noch dadurch verstärkt, dass Video- und Audioframes in der Regel unterschiedlich lang sind.Unfortunately The lack of frames is very common. Below are some possible ones Reasons for described a loss of frames. This problem is made more difficult in that in a video, the video data significantly more bandwidth as audio data, so the probability for that Loss of video frames is much higher than the loss from audio frames. If there is a loss of frames, this will Effect is even worse, that video and audio frames are usually of different lengths.

Eine Komprimierung in ein digitales Video in einem MPEG-Format in Echtzeit ist erforderlich, wenn Videos von einer analogen Quelle (analoger Videorecorder, analoges Kabelfernsehen, analoges terrestrisches Fernsehen) digitalisiert werden sollen. Für die Komprimierung von Videos in Echtzeit wird eine besonders hohe Rechenleistung benötigt. Darüber hinaus ist die Rechenzeit, die für das Komprimieren einer Bildfolge des Videos nötig ist, stark vom Bildinhalt abhängig, so dass es selbst mit den leistungsfähigsten verfügbaren Prozessoren nicht ausgeschlossen werden kann, dass einzelne Bilder nicht komprimiert werden können, bevor das nächste Bild empfangen wird. In diesem Fall können Frames, in der Regel zumeist Videoframes verworfen werden.A Compress to a digital video in MPEG format in real time is required when watching videos from an analog source (analogue Video recorder, analog cable TV, analogue terrestrial Television) should be digitized. For the compression of videos In real time, a particularly high computing power is needed. Furthermore is the computing time required for Compressing an image sequence of the video is necessary, much of the image content dependent, So do it yourself with the most powerful processors available It can not be ruled out that individual images are not compressed can be before the next Image is received. In this case, frames, usually mostly Video frames are discarded.

Wird ein analoges Fernsehsignal per terrestrischer Antenne oder Satellitenschüssel empfangen, können Störeinflüsse, wie z. B. leicht zeitversetzte Reflexionen am Erdboden oder an Hindernissen, Störsignale, und Wettereinflüsse, für die besonders der Satellitenempfang empfindlich ist, die Bildqualität beeinflussen. Bei zwei weit verbreiteten, vom Erfinder untersuchten TV-Decoder-Analog-Digitalwandler-Chips werden Takt und Synchronisationsinformationen (z. B. Starts der Generierung des nächsten Bildes/Frames bei der Austastlücke) aus dem Videoeingangssignal generiert. Dies ist auch notwendig, da bei Verwendung einer eigenen Zeitbasis bereits bei minimaler Abweichung von der Zeitbasis des Fernsehsignals ein durchlaufendes Bild entsteht. Es führt aber auch dazu, dass, weil z. B. die Austastlücke nicht sauber erkannt wird, Frames im von der Digitalisierung erzeugten Ausgangsdatenstrom fehlen können, oder Frames verworfen werden, weil kein Takt für die Abtastung des Signals gebildet werden konnte. Dieses Verhalten kann anhand der Datenblätter dieser Schaltkreise (z. B. Conextant Bt829 und Philips SAA 7113) nachvollzogen werden, und hat sich bei Tests des Erfinders mit dem SAA7113 bestätigt. Die Datenblätter waren zum Zeitpunkt des Schreibens dieses Patentantrages auf den Webseiten der jeweiligen Hersteller veröffentlicht.If an analog television signal is received via terrestrial antenna or satellite dish, interference, such. B. slightly delayed reflections on the ground or on obstacles, interference signals, and weather, for which especially the satellite reception is sensitive affect the image quality. In two widespread, examined by the inventor TV decoder analog-digital wall For example, clocks and sync information (eg, starts of generating the next frame / frame at the blanking interval) are generated from the video input signal. This is also necessary because using a separate time base already with minimal deviation from the time base of the television signal creates a continuous picture. But it also leads to that, because z. B. the blanking interval is not detected clean, frames may be missing in the output data stream generated by the digitization, or frames are discarded because no clock could be formed for the sampling of the signal. This behavior can be understood from the data sheets of these circuits (eg Conextant Bt829 and Philips SAA 7113) and has been confirmed by the inventor's tests with the SAA7113. The data sheets were published on the websites of the respective manufacturers at the time of writing of this patent application.

Der o. g. Effekt wird dadurch verschärft, dass die Videodecoder das Audiosignal nicht selbst weiterverarbeiten, sondern nur ein analoges Basisbandaudiosignal erzeugen, das entweder von der Soundkarte eines PC's aufgezeichnet wird, oder bei Hardwareencodern und Standalone-Geräten mit einem spezialisierten Audiodecoderchip (teilweise auch mit der CPU dieser Geräte) digitalisiert wird. Dies führt häufig dazu, dass in dem Audiosignal und dem Videosignal eine unterschiedliche Anzahl von Frames fehlen.Of the o. g. Effect is exacerbated by that the video decoders do not process the audio themselves, but only generate an analog baseband audio signal that either from the sound card of a PC or with hardware encoders and standalone devices a specialized audio decoder chip (sometimes with the CPU these devices) is digitized. This often leads that in the audio signal and the video signal a different Number of frames missing.

Eine weitere Quelle für Störungen im analogen Eingangssignal, die wie oben beschrieben zu verlorenen Frames führt, können Gleichlaufschwankungen oder mechanische Beschädigungen des Magnetbandes bei einem analogen Videorecorder sein. Diese führen in der Regel dazu, dass das Ausgangssignal kurzzeitig ausfällt. Auch wenn auf einer Videokassette, die digitalisiert werden soll, Stellen vorhanden sind, an denen die Aufnahme einsetzt oder endet, kann es es beim Abspielen über diese Stellen hinaus zu Störungen im Videosignal des Rekorders kommen. Die bereits beschriebene Eigenart der Videodigitalisierer-Chips führt dann in Folge dieser Störungen häufig zu einem Frameverlust, da vom Digitalisierungs-Schaltkreis mit dem fehlenden Video- oder Audiosignal auch kein Takt für die Aufzeichnung gebildet werden kann und keine Austastlücke erkannt wird, die die Erzeugung eines neuen Videoframes anstoßen würde. Diese Problematik wird verschärft dadurch, dass der Videokopf und der Audiokopf bei analogen Videorekordern des marktbeherrschenden VHS-Systems versetzt angebracht sind, so dass die Frameverluste im Audio und im Video sogar an unterschiedlichen Stellen auftreten und auch nicht die gleiche Dauer haben.A another source for disorders in the analog input signal, which is lost as described above Frames leads, can Fluctuation fluctuations or mechanical damage to the magnetic tape at an analog video recorder. These usually lead to that the output signal fails temporarily. Even if on a video cassette, which is to be digitized, bodies are present at which If the recording starts or ends, it can be played over it Put out to disturbances come in the video signal of the recorder. The already described peculiarity video digitizer chips then in consequence of these disturbances often to a frame loss, because of the digitizing circuit with the missing video or audio signal also no clock for recording can be formed and no blanking interval is detected, which is the generation to initiate a new video frame would. This problem is exacerbated by that the video head and the audio head on analog video recorders offset by the dominant VHS system, so that the frame losses in the audio and in the video even at different Jobs occur and do not have the same duration.

Auch bei dem Empfang von digitalen Quellen können Frames durch Störungen während der Übertragung verloren gehen, z. B. wenn digitales Fernsehen per Antenne vom Satellit (DVB-S) und in einigen Regionen mittlerweile auch terrestrisch empfangen (DVB-T) wird. Die für den analogen Fernsehempfang beschriebenen Störungen des Übertragungsweges gelten jedoch auch für die digitale Übertragung. So lange die Störungen so gering sind, dass sie bei der Demodulation im Empfänger keine Bitfehler verursachen, wird die Empfangsqualität nicht beeinträchtigt. Im Grenzbereich werden einzelne Makroblöcke des Bildes gestört, darin kommt es zu Klötzchenbildung. Überschreiten die Störungen ein bestimmtes Maß, ist der Empfang gänzlich gestört, oder es gehen einzelne Frames verloren, wobei ein Verlust von Audioframes weniger wahrscheinlich als der Verlust von Videoframes ist.Also when receiving digital sources, frames may be disrupted during transmission get lost, z. For example, if digital television by antenna from the satellite (DVB-S) and in some regions also terrestrial receive (DVB-T) becomes. The for However, the interference of the transmission path described in the analog television reception apply also for the digital transmission. As long as the disturbances are so small that they are not in the demodulation in the receiver Cause bit errors, the reception quality is not affected. In the border area become individual macroblocks disturbed of the picture, This leads to block formation. Exceed the disturbances a certain amount, the reception is complete disturbed, or individual frames are lost, causing a loss of audio frames less likely than the loss of video frames.

Problemstellungproblem

Der Verlust von Frames tritt, wie bereits aufgezeigt, recht häufig auf, und kann viele Ursachen haben. Am häufigsten tritt er auf, wenn Videos von analogen Quellen digitalisiert werden, und das Videosignal dieser Quellen eine unzureichende Qualität hat.Of the Loss of frames occurs quite often, as already pointed out, and can have many causes. Most often he occurs when Videos are digitized from analogue sources, and the video signal of these sources is of inadequate quality.

Digitale Videoaufzeichnungsgeräte (z. B. PC's mit TV-Tuner-Karte, DVD-Rekorder), die Videos in einem Format der MPEG-Protokollfamilie aufzeichnen, zeichnen diese in der Regel als Systemströme auf. Da in den Systemströmen auch Synchronisationsinformationen enthalten sind, die mit Hilfe der von dem empfangenen Videosignal unabhängigen Zeitbasis des Aufzeichnungsgerätes gebildet werden, wirken sich verlorene Frames zunächst nicht aus.digital Video recorders (eg PC's with TV tuner card, DVD recorder), the videos in a format of the MPEG protocol family record these usually record them as system streams. Because in the system streams sync information is also included with the help of formed from the received video signal independent time base of the recording device, Lost frames will initially affect not from.

Bei der Weiterverarbeitung z. B. durch das Schneiden des Videos oder durch das Brennen des Videos auf DVD gehen diese Synchronisationsinformationen in der Regel verloren. Zusätzlich dazu sind ist die gesamte Abspieldauer der in den Audiodatenströmen verlorenen Frames fast immer unterschiedlich zu der gesamten Abspieldauer der in den Videodatenströmen verlorenen Frames, wenn bei der Aufzeichnung oder Übertragung digitaler Videos Frames verloren gegangen sind. Dies hat zur Folge, dass bei der Weiterverarbeitung Ton und Bild für den gesamten Rest des Videos asynchron sind.at the further processing z. B. by cutting the video or Burning the video to DVD will trigger this synchronization information usually lost. additionally these are the total playing time of those lost in the audio streams Frames almost always different to the total playing time of the in the video data streams lost frames when recording or transferring digital video frames have been lost. As a consequence, that in the finishing process sound and picture for the entire rest of the video are asynchronous.

Der Erfindung liegt daher das Problem zu Grunde, ein Verfahren zu finden, mit dem während der Aufzeichnung oder nachträglich erkannt werden kann, wann ein Systemstrom nicht weiterverarbeitet werden kann, weil aus einem der o. g. Gründe Frames verloren gegangen sind.Of the The invention is therefore based on the problem of finding a method with that during the Recording or later It can be detected when a system stream is not further processed can, because of one of the o. g. Reasons frames have been lost are.

Ferner liegt weiteren Ausbildungen des erfindungsgemäßen Verfahrens die Aufgabe zu Grunde, verlorene Frames in die Audio- und Videodatenströmen von Sytemströmen nachträglich oder in Echtzeit einzufügen oder deren nachteilige Auswirkungen bei der Weiterverarbeitung, insbesondere die Verschiebung von Bild und Ton nachträglich zu korrigieren, oder den Verlust von Frames ganz zu verhindern.Further, further embodiments of the method according to the invention is based on the task of losing lost frames in the audio and video data streams inserting system streams later or in real time, or to subsequently correct their adverse effects on further processing, in particular the shift of picture and sound, or to completely prevent the loss of frames.

Ferner soll das erfindungsgemäße Verfahren auf alle Formate, in denen digitale Videos der MPEG-Protokollfamilie vorliegen können, anwendbar sein, unabhängig davon, auf welchem Medium das digitale Video gespeichert ist, oder über welches Medium und mit welchem Protokoll es übertragen wird.Further should the inventive method all formats in which MPEG video family digital video may be available may be applicable; independently of which medium the digital video is stored on or via which Medium and with which protocol it is transmitted.

Beschreibung der ErfindungDescription of the invention

Gelöst wird diese Aufgabe erfindungsgemäß durch ein im folgenden als Rahmenfehlerkorrekturverfahren bezeichnetes Verfahren, das die kennzeichnenden Merkmale des Anspruchs 1 aufweist. Danach wird ein gespeichertes oder empfangenes, als Systemstrom und in einem Format der MPEG-Protokollfamilie oder einem damit verwandten Format vorliegendes digitales Video durch Vergleich der jedem Frame zugeordneten Synchronisierungsinformationen mit der Summe der Abspielzeiten aller vor diesem Frame aufgetretenen Frames des selben Datenstroms auf fehlende Frames untersucht.Is solved this task according to the invention by hereinafter referred to as a frame error correction method Method having the characterizing features of claim 1. After that is a stored or received, as a system stream and in a format of the MPEG protocol family or a related format present digital video by comparison of each frame associated Synchronization information with the sum of all playing times Frames of the same data stream that occurred in this frame are missing Examined frames.

Bei dem erfindungsgemäßen Verfahren wird das Digitale Video vorzugsweise als Datenstrom behandelt und seriell eingelesen und ausgewertet. Die Patentansprüche sind jedoch nicht auf diese serielle Verarbeitung beschränkt. Durch eine serielle Verarbeitung entsteht der Vorteil, dass das erfindungsgemäße Verfahren unabhängig davon, ob das Video als Datei gespeichert vorliegt, von einem Netzwerk empfangen oder per Rundfunk übertragen wird, immer in der gleichen Weise verwendet werden kann.at the method according to the invention the digital video is preferably treated as a data stream and serially read in and evaluated. The claims are however, not limited to this serial processing. By a serial processing results in the advantage that the inventive method independently of whether the video is stored as a file, from a network received or transmitted by radio will always be used in the same way.

Bei der folgenden Beschreibung der Merkmale des erfindungsgemäßen Verfahrens wird auf die Beschreibung der Funktion, Datenstruktur und Nomenklatur der MPEG-Protokollfamilie im Abschnitt „Technisches Gebiet der Erfindung” dieser Patentanmeldung Bezug genommen. Dabei werden Datenströme oder Dateien, die aus mindestens einem Video- und optional einem oder mehreren jedem Videodatenstrom zugeordneten Audiodatenströmen zusammengebunden und in einem Format der MPEG-Protokollfamilie kodiert sind, als digitales Video bezeichnet.at the following description of the features of the method according to the invention is based on the description of the function, data structure and nomenclature of the MPEG protocol family in the section "Technical Field of the Invention" of this Patent application referred. This data streams or Files consisting of at least one video and optionally one or multiple audio streams associated with each video stream and encoded in a format of the MPEG protocol family, as called digital video.

Entsprechend der Beschreibung im Abschnitt „Technisches Gebiet der Erfindung” kann bei digitalen Videos in einem MPEG-Format davon ausgegangen werden, dass der Beginn eines Frames bei einem Videodatenstrom mit Hilfe des Picture Headers identifiziert werden. Bei mit konstanter Bitrate encodierten Audiodatenströmen kann die Anfangsposition des Frames anhand der festen Länge des Frames berechnet werden, ansonsten kann sie ebenfalls anhand ihres Headers und der darin enthaltenen, vom Kompressionsverfahren abhängigen Synchronisationsbitfolge identifiziert werden kann. Der Frame- oder Picture-Header ist Teil seines Video- und Audiodatenstroms und somit in den Paketen des digitalen Videos verpackt. Den Frames können in Folge dessen die Informationen des Packet-Headers und des Packetized Elementary Stream Headers (PES-Header) des Paketes, in denen der Header des Frames beginnt, eindeutig zugeordnet werden.Corresponding the description in the section "Technical Field of the invention " assuming digital videos in an MPEG format that the beginning of a frame with a video stream using of the Picture Header. When encoded at a constant bit rate Audio streams can change the start position of the frame based on the fixed length of the frame otherwise it can also be calculated by its header and the compression bit sequence dependent synchronization bit string contained therein can be identified. The frame or picture header is part its video and audio stream and thus in the packages of the packed with digital videos. As a result, the frames can receive the information Packet header and Packetized Elementary Stream Headers (PES header) of the packet in which the header of the frame starts, be clearly assigned.

Ein kennzeichnendes Merkmal des erfindungsgemäßen Verfahrens ist es, die einzelnen in einem digitalen Video enthaltenen Pakete zu identifizieren und in der Reihenfolge, in der sie gespeichert sind oder übertragen werden, zu verarbeiten. Die Stream-ID aus dem PES-Header (siehe 6) des Pakets ist daraufhin zu überprüfen, ob sie der Stream-ID eines auf fehlende Frames zu überprüfenden Video- oder Audiodatenstroms entspricht. Ist dies der Fall, ist für die weitere Verarbeitung des Paketes ein Registersatz oder ein Speicherbereich auszuwählen, in dem die von dem Verfahren für die Verarbeitung dieses Datenstroms benötigten Informationen zwischengespeichert werden.A characteristic feature of the method according to the invention is to identify the individual packets contained in a digital video and process them in the order in which they are stored or transmitted. The stream ID from the PES header (see 6 ) of the packet is to check whether it corresponds to the stream ID of a video or audio stream to be checked for missing frames. If this is the case, for the further processing of the packet a register set or a memory area is to be selected in which the information required by the method for processing this data stream is buffered.

Kennzeichnendes Merkmal des erfindungsgemäßen Verfahrens ist es weiterhin, dass aus den Headern des Paketes der Zeitstempel des Paketes ermittelt und in dem Registersatz oder Speicherbereich zwischengespeichert wird, der dem Datenstrom des Paketes zugeordnet ist. Als Zeitstempel des Paketes wird im folgenden der Zeitpunkt bezeichnet, zu dem mit dem Abspielen des Frames, dessen Daten in dem Paket enthalten sind, begonnen werden soll. Ist in einem Paket mehr als ein Frame vorhanden, so ist unter dem Zeitstempel der Zeitpunkt zu verstehen, zu dem mit dem Abspielen des ersten in dem Paket beginnenden Frames begonnen werden soll.Distinctive Feature of the method according to the invention it is still that from the headers of the package the time stamp of the packet and in the register file or memory area is cached associated with the data stream of the packet is. The time stamp of the package is the following to which the playing of the frame whose data in the Package included, should be started. Is more in a package as a frame, the time stamp is below the timestamp to understand the beginning of playing the first in the package Frames should be started.

Der Zeitstempel des Pakets wird dabei entsprechend den Merkmalen Spiegelstrich 5 und Spiegelstrich 6 des Patentanspruchs 1 aus den Synchronisationsinformationen in den Feldern „PRESENTATION TIME STAMP” (im „PACKETIZED ELEMENTARY STREAM” Header) „SYSTEM CLOCK REFERENCE” (aus dem „PACKET HEADER”) berechnet. Ohne die erfinderische Lehre zu verlassen, kann auch ein optionaler Plausibilitätsvergleich zwischen diesen beiden Werten durchgeführt werden, und der plausiblere Wert übernommen werden.Of the Timestamp of the package is thereby according to the characteristics indent 5 and indent 6 of claim 1 from the synchronization information in the fields "PRESENTATION TIME STAMP "(in the" PACKETIZED ELEMENTARY STREAM "header)" SYSTEM CLOCK REFERENCE "(off the "PACKET HEADER ") calculated. Without leaving the inventive teaching, too an optional plausibility comparison between these two values, and the more plausible one Value accepted become.

Ein weiteres kennzeichnendes Merkmal des erfindungsgemäßen Verfahrens ist die Untersuchung des Inhalts der Pakete der zu untersuchenden Datenströme. Würde man den Inhalt dieser Pakete unter Beibehaltung ihrer Reihenfolge zusammensetzen, könnte man den darin enthaltenen Datenstrom zurückgewinnen. Dieser so gebildete Datenstrom ist gemäß Merkmal Spiegelstrich 2 des Patentanspruchs 1 nach den Headern von Frames und bei Videoframes zusätzlich nach GOP-Headern (4) und nach Headern, die die Bildrate enthalten (z. B. Sequence Header) zu durchsuchen.Another characteristic feature of the method according to the invention is the examination of the contents of the packets of the data streams to be examined. If one were to assemble the contents of these packages while maintaining their order, one could add the data stream contained therein recover. This thus formed data stream is according to feature indent 2 of claim 1 after the headers of frames and video frames in addition to GOP headers ( 4 ) and to search for headers containing the frame rate (eg, sequence header).

Ebenfalls benötigt für das erfindungsgemäße Verfahren wird gemäß Merkmal Spiegelstrich 1 von Patentanspruch 1 die Abspieldauer der einzelnen Frames des Datenstroms. Bei den Audiodatenströmen hat die Abspieldauer jedes Frames einen festen Wert, der bei den einzelnen Audioformaten unterschiedlich ist. Um die Abspieldauer des gerade untersuchten Frames zu ermitteln, reicht es aus, das Audioformat, in dem der dazu gehörende Datenstrom vorliegt, zu bestimmen und die ihm zugeordnete Framerate in einem Register zu speichern. Um das Audioformat zu bestimmen, kann die Stream-ID herangezogen werden, ggf. müssen auch Informationen über Subformate (z. B. bei den MPEG-originären Audioformaten) aus dem Header des Audioframes ausgewertet werden. Bei Videodatenströmen sind dagegen mehrere unterschiedliche Bildwiderholraten möglich, die in verschiedenen Headern codiert sind. Ohne Einschränkung des erfindungsgemäßen Verfahrens kann die Bildwiderholrate des Videodatenstroms z. B. aus dem Sequence Header, der in 5 dargestellt wird, ermittelt werden.Also required for the inventive method is according to feature indent 1 of claim 1, the playback time of the individual frames of the data stream. For the audio data streams, the playing time of each frame has a fixed value that is different for each audio format. In order to determine the playing time of the currently examined frame, it is sufficient to determine the audio format in which the associated data stream exists and to store the frame rate assigned to it in a register. In order to determine the audio format, the stream ID can be used, if necessary also information on subformats (eg in the case of the MPEG-original audio formats) must be evaluated from the header of the audio frame. With video data streams, however, several different frame rates are possible, which are coded in different headers. Without limiting the method according to the invention, the image refresh rate of the video data stream z. For example, from the sequence header that is in 5 is shown determined.

Bei dieser Suche muss auch berücksichtigt werden, dass ein Frame-, Picture-, Sequence- oder GOP-Header auf 2 Pakete verteilt sein kann. Daher ist als Mindestanforderung an die für das erfindungsgemäße Verfahren verwendete Vorrichtung zu fordern, dass für jeden zu überprüfenden Video- oder Audiodatenstrom mindestens ein Schieberegister von der Länge des größten der für das Verfahren auszuwertenden Header im jeweiligen Datenstroms vorhanden ist. In dieses Register werden, xdie sequenziell aus dem Paket gelesenen Daten hinein geschoben. Die Auswahl des Registersatzes des Datenstroms erfolgt dabei gesteuert durch durch die Stream-ID aus dem PES-Header des Pakets, in dem der Frame beginnt. Nach jeder Schiebeoperation ist zu überprüfen, ob der Anfang dieses Registers die Kennung eines Frame-Headers enthält. Bei Videodatenströmen ist darüber hinaus zu prüfen, ob der Anfang dieses Registers die Kennung eines GOP-Headers oder eines Sequence-Headers enthält. Optional kann auch ein Puffer vorgesehen werden, in dem mindestens 2 Pakete jedes zu untersuchenden Datenstroms zwischengespeichert werden können, und in diesem Puffer nach dem Framestart und ggf. nach dem Beginn eines GOP-Headers oder eines Sequence-Headers zu suchen. Bei Audioframes, die mit konstanter Bitrate kodiert sind, ist es möglich (bei PCM nötig), den Framestart aus der Framegröße zu berechnen, wobei sich die Größe eines Frames wiederum aus der Bitrate ergibt.at this search must also be taken into account a frame, picture, sequence or GOP header can be distributed over 2 packets. Therefore, as a minimum requirement to those for the inventive method device used to request that for each video or audio stream to be checked at least one shift register of the length of the largest one to be evaluated for the method Header is present in the respective data stream. In this register x, the data read sequentially from the packet is pushed into it. The selection of the register set of the data stream is controlled through the stream ID from the PES header of the packet in which the Frame starts. After each sliding operation is to check if the beginning of this register contains the identifier of a frame header. at Video streams is about it to check out whether the beginning of this register is the identifier of a GOP header or a sequence header contains. Optionally, a buffer may be provided in which at least 2 packets of each data stream to be examined cached can be and in this buffer after the start of the frame and, if necessary, after the start a GOP header or a sequence header. In audio frames, which are coded with constant bit rate, it is possible (with PCM necessary), to calculate the frame start from the frame size, being the size of a Frames in turn results from the bitrate.

Beim Auffinden des Beginns eines Frames sind die folgenden für das erfindungsgemäße Verfahren kennzeichnenden Operationen durchzuführen:

  • • Entsprechend Merkmal Spiegelstrich 2 des Patentanspruchs 1 ist der Zähler für die Anzahl der Frames des Datenstrom zu erhöhen.
  • • Entsprechend Merkmal Spiegelstrich 3 des Patentanspruchs 1 ist bei Videodatenströmen zusätzlich der Zähler für die Anzahl der Frames des GOP ist zu erhöhen.
  • • Bei Videodatenströmen muss das Feld „TEMPORAL SEQUENCE NUMBER” aus dem Picture Header gelesen und im dem gerade untersuchten Datenstrom zugeordneten Registersatz oder Kontext zwischengespeichert werden. Dieses Feld wird benötigt, um die wegen der innerhalb eines GOP möglicherweise von der Übertragungs- oder Aufzeichnungsreihenfolge abweichenden Abspielreihenfolge erforderliche Korrektur der Zeitberechnung aus der Framezahl vorzunehmen.
  • • In den meisten Fällen beginnt das erste Frame eines jeden Datenstroms des digitalen Videos mit einem Offset. Dieser Offset dient dazu, Abspielgeräten oder -programmen die Zeit zu geben, sich zu initialisieren. Der Offset wird dadurch realisiert, dass dem ersten Frame jedes Datenstroms mittels der Synchronisationsinformationen in dem Packet- und PES-Header ein Zeitstempel zugeordnet wird, der größer als 0 ist. Ein sinnvoller Wert für diesen Offset sind 300 Millisekunden. Da es Multiplexer gibt, bei denen dieser Wert eingestellt werden kann, hängt es letztendlich von der Person, die das digitale Video erstellt hat, ab, welcher Wert vorgegeben ist.
When locating the start of a frame, the following operations characteristic of the method according to the invention are to be carried out:
  • According to feature indent 2 of claim 1, the counter for the number of frames of the data stream is to be increased.
  • • According to feature indent 3 of claim 1 is in video data streams in addition, the counter for the number of frames of the GOP is to increase.
  • • For video streams, the "TEMPORAL SEQUENCE NUMBER" field must be read from the Picture Header and cached in the register set or context associated with the data stream being examined. This field is needed to correct for the time calculation from frame number required because of the play order that may be different within a GOP from the transfer or record order.
  • • In most cases, the first frame of each stream of digital video begins with an offset. This offset is used to give players or programs the time to initialize. The offset is realized by assigning to the first frame of each data stream, by means of the synchronization information in the packet and PES headers, a time stamp which is greater than zero. A reasonable value for this offset is 300 milliseconds. Since there are multiplexers where this value can be set, it ultimately depends on the person who made the digital video, which value is given.

Gemäß Merkmal Spiegelstrich 5 des erfindungsgemäßen Verfahrens wird der Offset der zu untersuchenden Datenströme in den dem Datenstrom zugeordneten Registersatz oder Kontext geschrieben. Das Ermitteln des Offsets erfolgt, wenn der Beginn des ersten Frames eines Video- oder Audiodatenstrom detektiert wurde. Zu diesem Zeitpunkt entspricht der Offset des Datenstroms dem Zeitstempel des Paketes, in dem das erste Frame beginnt.According to feature Indent 5 of the method according to the invention becomes the offset the data streams to be examined written in the register set or context associated with the data stream. The offset is determined when the beginning of the first frame a video or Audio data stream was detected. At this time corresponds the offset of the data stream is the timestamp of the packet in which the first frame starts.

Der Offset kann für jeden Datenstrom unterschiedlich sein. Daher ist für jeden zu untersuchenden Video- und Audiodatenstrom eine Speicherzelle erforderlich, in der der Offset des jeweiligen Datenstroms gemerkt wird.

  • • Die Prüfung, ob vor dem Frame, dessen Header gerade ausgewertet wird, Frames verloren gegangen sind, ist entsprechend dem erfindungsgemäßen Verfahren beim Auftreten jedes neuen Frame-Headers auszuführen, wenn es sich um den ersten Frame-Header in dem Paket handelt. Dieses Verfahren wird im Anschluss an die Beschreibung der auf einen GOP-Header und einen Sequence-Header anzuwendenden Operationen beschrieben. Abhängig vom Ergebnis dieser Prüfung können weitere, in den Unteransprüchen beschriebene Operationen ausgeführt werden.
The offset can be different for each data stream. Therefore, a memory cell is required for each video and audio data stream to be examined, in which the offset of the respective data stream is noted.
  • The check whether frames have been lost before the frame whose header is being evaluated has to be executed according to the inventive method upon the occurrence of each new frame header, if it is the first frame header in the packet. This method will be described following the description of the operations to be applied to a GOP header and a sequence header. Depending on the result of this test Further operations described in the subclaims can be performed.

In den Videodatenströmen der MPEG-Protokollfamilie werden Frames zu Gruppen zusammengefasst, die als GOP (Group of Pictures) bezeichnet werden. Innerhalb eines GOP ist es zulässig, die Frames in einer anderen Reihenfolge abzuspeichern oder zu übertragen, als die Reihenfolge, in der sie angezeigt werden sollen. Diese Besonderheit von Videodatenströmen muss für das erfindungsgemäße Verfahren berücksichtigt werden. Wie im weiteren Verlauf dieser Beschreibung noch näher erläutert, vergleicht das erfindungsgemäße Verfahren die aus der aufsummierten Laufzeit der bisher im Datenstrom aufgetretenen Frames gebildete Laufzeit mit dem Zeitstempel des gerade geprüften Frames. Bei Videodatenströmen muss diese aufsummierte Laufzeit um einen aus der Abspielposition des Frames innerhalb des GOP berechneten Wert korrigiert werden, bevor der Vergleich mit dem Zeitstempel des Frames erfolgen kann.In the video data streams the MPEG protocol family groups frames into groups which are referred to as GOP (Group of Pictures). Within a GOP is allowed to save or transfer the frames in a different order, as the order in which they should be displayed. This special feature of video streams must for the inventive method considered become. As explained in more detail later in this description compares the inventive method the accumulated runtime of the data stream that has occurred so far Frames formed runtime with the timestamp of the currently checked frame. For video streams This accumulated runtime must be one from the playhead of the frame within the GOP calculated value to be corrected before the comparison can be made with the timestamp of the frame.

Um den sich aus der Abspielreihenfolge von Videoframes ergebenden Korrekturwert später zu bestimmen, muss die Übertragungs- bzw. Speicherposition des Frames innerhalb des GOP so wie seine Abspielposition bekannt sein. Ohne die erfinderische Lehre zu verlassen, können verschiedene Verfahren zu diesem Zweck eingesetzt werden. Am einfachsten ist es, am Beginn jedes GOP einen Zähler zu starten, der bei jedem Picture-Header, dies ist der Frame-Header bei Videodatenströmen, um 1 erhöht wird. Dieser Zähler muss für jeden Videodatenstrom, der auf fehlende Frames untersucht wird, einmal vorhanden sein.Around the correction value resulting from the play order of video frames later to determine the transmission or storage position of the frame within the GOP as well as its play position be known. Without departing from the inventive teaching, various Procedures used for this purpose. The easiest way is it, at the beginning of each GOP a counter To start with every picture header, this is the frame header in video streams, increased by 1. This counter must for any video stream being examined for missing frames, be present once.

Der Beginn eines GOP wird in den Videodatenströmen durch den GOP-Header gekennzeichnet. Der GOP-Header wird in 4 dargestellt. Er beginnt mit einer 24 Bit langen Synchronisationsbitfolge (0x000001), gefolgt von dem Identifikationsbyte des GOP Headers (0xB8). Der GOP-Header ist genau wie die Picture Header Teil des Videodatenstroms, er wird also nicht erst beim Multiplexen angelegt. Bei der Suche nach dem GOP-Header kann, abgesehen vom Wert des Identifikationsbytes, genau wie bei der Suche nach einem Picture Header (dieser dient bei Videodatenströmen als Frame Header) verfahren werden.The beginning of a GOP is indicated in the video streams by the GOP header. The GOP header is in 4 shown. It begins with a 24-bit synchronization bit string (0x000001), followed by the identification byte of the GOP header (0xB8). The GOP header is just like the picture header part of the video data stream, so it is not created until the multiplexing. In the search for the GOP header, apart from the value of the identification byte, the same procedure as for the search for a picture header (this is used as a frame header for video data streams).

Beim Auffinden des Beginns eines GOPs in einem Videodatenstrom sind die folgenden Operationen durchzuführen:

  • • Der Zähler für die Anzahl der Frames des GOP ist zurückzusetzen.
When locating the start of a GOP in a video stream, perform the following operations:
  • • The counter for the number of frames of the GOP must be reset.

Der Sequence-Header wird in 5 dargestellt. Er beginnt mit einer 24 Bit langen Synchronisationsbitfolge (0x000001), gefolgt von dem Identifikationsbyte des Sequence Headers (0xB3). Der Sequence-Header ist genau wie die Picture Header und der GOP-Header Teil des Videodatenstroms, er wird also nicht erst beim Multiplexen angelegt. Bei der Suche nach dem Sequence-Header kann, abgesehen vom Wert des Identifikationsbytes, genau wie bei der Suche nach einem Picture Header oder einem GOP-Header verfahren werden.The sequence header is in 5 shown. It begins with a 24-bit synchronization bit string (0x000001), followed by the identification byte of the sequence header (0xB3). The sequence header is just like the picture header and the GOP header part of the video data stream, so it is not created until the multiplexing. The search for the sequence header, apart from the value of the identification byte, can be used in the same way as for the search for a picture header or a GOP header.

Beim Auffinden des Beginns eines Sequence-Headers in einem Videodatenstrom sind die folgenden Operationen durchzuführen:

  • • Aus den Codes für die Bildrate des Videodatenstromes im Feld Framerate des Sequence Headers ist gemäß der Tabelle in 5 die Anzahl der pro Sekunde abzuspielenden Bilder zu ermitteln, aus der wiederum die Abspieldauer eines Bildes ermittelt werden kann.
When locating the start of a sequence header in a video stream, perform the following operations:
  • • From the frame rate codes of the video stream in the Frame Rate field of the Sequence Header, refer to the table in 5 determine the number of images to be played per second, from which in turn the playing time of an image can be determined.

Mit den wie oben beschrieben beim sequenziellen Einlesen der Datenströme aus den verschiedenen Headern gewonnen Informationen kann am Ende jedes ersten Frame-Headers in einem Paket das erfindungsgemäße Verfahren zur Überprüfung auf fehlende Pakete ausgeführt werden. Zu diesem Zeitpunkt stehen die folgenden Informationen für den gerade untersuchten Frame zur Verfügung:

TF:
Abspielstartzeitpunkt (Zeitstempel) des Frames (aus dem Feld SCR des Packet-Headers oder aus dem Feld PTS des PES-Header des Paketes berechnet, in den der Beginn des Frames fällt),
Fps:
Framerate bei Audiodatenströmen (abhängig von der Codierung des Datenstroms) oder Bildrate (aus dem Sequence-Header)
TOffs:
Der Offset (Abspielstartzeitpunkt/Zeitstempel) TF des ersten Frames des Datenstroms
NF:
Die Anzahl der bisher aufgetretenen Frame-Header einschließlich des Headers des gerade ausgewerteten Frames
With the information obtained from the various headers during sequential reading of the data streams as described above, the inventive method for checking for missing packets can be executed at the end of each first frame header in a packet. At this point, the following information is available for the frame being examined:
T F :
Playback start time (timestamp) of the frame (calculated from the field SCR of the packet header or from the field PTS of the PES header of the packet in which the beginning of the frame falls),
fps:
Frame rate for audio data streams (depending on the encoding of the data stream) or frame rate (from the sequence header)
T Offs :
The offset (playback start time / timestamp) T F of the first frame of the data stream
N F :
The number of frame headers that have occurred so far, including the header of the currently evaluated frame

Bei Videoframes stehen darüber hinaus die folgenden Informationen zur Verfügung:

TSN:
Abspielposition des aktuell bearbeiteten Frames im GOP (aus dem Picture Header des gerade ausgewerteten Frames entnommener Parameter Temporal Sequence Number)
NGOP:
Die Anzahl der bisher in dem aktuellen GOP gezählten Frames Mit diesen Informationen kann nun die Überprüfung, die Hauptgegenstand des erfindungsgemäßen Verfahrens ist, erfolgen. Dazu wird die Zeit berechnet, die benötigt worden wäre, um alle bisher aufgetretenen Frames des Datenstromes hintereinander abzuspielen. Diese Zeit wird im folgenden als
TR:
Rohzeit
bezeichnet. Für Audiodatenströme kann sie wie folgt berechnet werden: TR = (NF/Fps) + TOffs For video frames, the following information is also available:
TSN:
Play position of the currently edited frame in the GOP (parameter Temporal Sequence Number taken from the Picture Header of the currently evaluated frame)
N GOP :
The number of frames previously counted in the current GOP With this information, the review, the main object of the method according to the invention is now carried out. For this purpose, the time is calculated, which would have been needed to play all previously occurred frames of the data stream in a row. This time will be referred to below
T R :
Rohzeit
designated. For audio data streams, it can be calculated as follows: T R = (N F / Fps) + T offs

Bei Videoframes muss die Position des Frames im GOP berücksichtigt werden. Hier berechnet sich die Rohzeit wie folgt: TR = ((NF – NGOP + TSN)/Fps) + TOffs For video frames, the position of the frame in the GOP must be considered. Here the raw time is calculated as follows: T R = ((N F - N GOP + TSN) / Fps) + T offs

Nun kann überprüft werden, ob vor der Position des Frames, der gerade überprüft wird, Frames verloren gegangen sind. Dies ist der Fall, wenn die Rohzeit TR größer ist als die Abspielstartzeit TF, die für diesen Frame aus dem Packet-Header oder PES-Header des Paketes berechnet wurde, in den der Beginn des Frames fällt.Now it can be checked if frames have been lost in front of the position of the frame being checked. This is the case if the raw time T R is greater than the play start time T F calculated for that frame from the packet header or PES header of the packet in which the beginning of the frame falls.

Die o. g. Beschreibung des erfindungsgemäßen Verfahrens wird in Form eines Flussdiagramms in 7 für einen Videodatenstrom dargestellt. In 1 wird ein Flussdiagramm für die Anwendung des erfindungsgemäßen Verfahren auf einen Audiodatenstrom dargestellt.The above description of the method according to the invention is in the form of a flow chart in 7 for a video stream. In 1 a flow chart for the application of the method according to the invention to an audio data stream is shown.

Vorteile der ErfindungAdvantages of the invention

Die Vorteile des erfindungsgemäßen Verfahrens sind, dass es die Möglichkeiten zur Erkennung, ob ein Video fehlerhaft digitalisiert oder digital übertragen wurde, erweitert. Fehlende Frames in digitalen Videos sind ein häufig auftretender Fehler, der wie bereits im Abschnitt „Technisches Gebiet der Erfindung” beschrieben, eine ganze Reihe von Ursachen haben kann. Die persönliche Erfahrung des Antragstellers ist, dass bei der Digitalisierung von VHS-Videokassetten, wenn diese erst ein bestimmtes Alter erreicht haben, verlorene Frames nicht vermieden werden können, egal wie hochwertig die für die Digitalisierung eingesetzten Geräte sind und wie sorgfältig man vorgeht. Dazu kommt, dass sich bei herkömmlichem Vorgehen fehlende Frames erst dann bemerkbar machen, wenn man ein digitales Video weiterverarbeitet.The Advantages of the method according to the invention are that it's the possibilities to detect if a video is incorrectly digitized or transmitted digitally has been extended. Missing frames in digital video are common Error as described in the section "Technical field of the invention", can have a whole range of causes. The personal experience of the applicant is that, in the digitization of VHS video cassettes, when they reach a certain age, lost frames can not be avoided no matter how high the quality for the Digitization used devices are and how carefully you proceed. In addition, there is a lack of conventional procedure Only make frames noticeable when watching a digital video further processed.

Insbesondere auf Grund der unterschiedlichen Längen von Video- und Audioframes führen Bedingungen, bei denen während der Digitalisierung Frames verloren gehen, nach einer Weiterverarbeitung fast immer zu einem Verlust der Synchronisation von Bild und Ton. Eine fehlende Synchronisation von Bild und Ton wirkt sich aber sehr störend aus.Especially due to the different lengths of video and audio frames to lead Conditions during which the digitization frames are lost after further processing almost always a loss of synchronization of image and sound. A lack of synchronization of image and sound affects but very disturbing out.

Während sich bei analogen Video eine Störung nur für kurze Zeit auswirkt, kann das selbe Video nach der Digitalisierung und Weiterverarbeitung unbrauchbar sein, da die verlorene Synchronisation zwischen Audio und Video an der Stelle beginnt, an der Frames fehlen, und sich bis zu seinem Ende fortsetzt. Besonders ärgerlich ist es, wenn man ein analoges Video erst digitalisiert hat, es dann löscht, und erst nach der anschließenden Weiterverarbeitung bemerkt, dass die Digitalisierung misslungen ist. Dies lässt sich mit dem erfindungsgemäßen Verfahren vermeiden.While with analog video a disturbance only for short time, the same video after digitizing and further processing be useless, since the lost synchronization between Audio and video starts at the point where frames are missing, and continues until its end. It is particularly annoying when one analog video has been digitized, then deletes it, and only after the subsequent processing notes that digitization has failed. This is possible avoid with the method according to the invention.

In den Unteransprüchen sind weitere vorteilhafte Ausgestaltungen des erfindungsgemäßen Verfahrens angegeben, mit deren Hilfe sich fehlende Frames zumindest so weit korrigieren lassen, dass sie bei der Weiterverarbeitung keinen Verlust der Synchronisation von Bild und Ton mehr bewirken. Dies hat den Vorteil, dass sich auf diese Weise analoge Videos auch dann noch „retten” lassen, wenn keine fehlerfreie Digitalisierung mehr möglich ist.In the dependent claims are further advantageous embodiments of the method according to the invention specified, with the help of which missing frames at least so far correct that they do not have any loss during further processing the synchronization of image and sound effect more. This has the The advantage that analog videos can still be "saved" in this way, if error-free digitization is no longer possible.

Vorteilhafte Ausgestaltungen des erfindungsgemäßen VerfahrensAdvantageous embodiments the method according to the invention

Eine vorteilhafte Ausgestaltung der Erfindung ist im Patentanspruch 2 angegeben. Die Weiterbildung der Erfindung nach diesem Patentanspruch erlaubt es zu ermitteln, wie viele Frames vor dem gerade untersuchten Frame verloren gegangen sind. Dies ist erforderlich, da Störungen, die die korrekte Digitalisierung oder Übertragung verhindern, durchaus auch dazu führen können, dass mehrere Frames verloren gehen.A advantageous embodiment of the invention is in claim 2 specified. The development of the invention according to this claim allows to determine how many frames are in front of the one being examined Frame are lost. This is necessary because of disturbances, which prevent the correct digitization or transmission, quite also lead to it can, that several frames are lost.

Gemäß Patentanspruch 2 kann die Anzahl Nv der fehlenden Frames für Audiodatenströme mit der Formel Nv = (TF – (NF/Fps) + TOffs)·Fpsund durch Runden auf einen ganzzahligen Wert ermittelt werden. Bei Videoframes muss die Position des Frames im GOP berücksichtigt werden. Hier kann Nv mit der Formel Nv = (TF – ((NF – NGOP + TSN)/Fps) + TOffs)·Fpsund durch Runden auf einen ganzzahligen Wert ermittelt werden.According to claim 2, the number Nv of the missing frames for audio data streams with the formula Nv = (T F - (N F / Fps) + T offs ) · FPS and be determined by rounding to an integer value. For video frames, the position of the frame in the GOP must be considered. Here can Nv with the formula Nv = (T F - ((N F - N GOP + TSN) / Fps) + T offs ) · FPS and be determined by rounding to an integer value.

Die im Patentanspruch 3 angegebene vorteilhafte Ausgestaltung der Erfindung ist erforderlich, um nach der Erkennung des ersten Frames, vor dem ein einzelnes Frame oder ein Block von Frames verloren gegangen ist, auch noch weitere verlorene Frames zu erkennen. Würde man die Register des Verfahrens nach der Erkennung eines solchen Fehlers nicht korrigieren, würde bei jedem weiteren Frame ein Verlust von Frames erkannt werden. Diese Korrektur kann erfindungsgemäß durch addieren der Anzahl der entsprechend dem Verfahren laut Patentanspruch 2 berechneten Anzahl der verlorenen Frames Nv zu dem Zähler der bisher aufgetretenen Frames NF erfolgen. Diese Realisierung bedingt u. U. einen Rundungsfehler, ist jedoch insbesondere bei Integration des erfindungsgemäßen Verfahrens in eine Hardwarelösung sehr leicht zu realisieren. Eine dazu alternative vorteilhafte Ausgestaltung der Erfindung nach Spiegelstrich 2 des Patentanspruchs 3 besteht darin, das Register oder die Variable für den Offset des Datenstroms, in dem der Verlust von Frames entdeckt wurde, um die Abspieldauer der verlorenen Pakete zu erhöhen. Auch damit erreicht man, dass ein Fortsetzen des Vergleichs möglich ist.The specified in claim 3 advantageous embodiment of the invention is required to detect even after the detection of the first frame, before a single frame or a block of frames, even more lost frames. If one did not correct the registers of the method after detecting such an error, a loss of frames would be detected every other frame. This correction can be made according to the invention by adding the number of calculated according to the method according to claim 2 number of lost frames Nv to the counter of the previously occurred frames N F. This realization requires u. U. one Rounding error, however, is very easy to implement, especially when integrating the method according to the invention into a hardware solution. An alternative advantageous embodiment of the invention according to indent 2 of claim 3 is to increase the register or the variable for the offset of the data stream in which the loss of frames was discovered in order to increase the playing time of the lost packets. This also achieves that a continuation of the comparison is possible.

Gegenstand einer weiteren vorteilhaften Ausgestaltung der Erfindung gemäß Patentanspruch 4 ist es, den Verlust der Synchronisation zwischen Bild und Ton bei der Weiterverarbeitung von digitalen Videos, in deren Datenströmen Frames verloren gegangen sind, zu verhindern. Hierzu werden laut Merkmal Spiegelstrich 1 dieses Patentanspruchs die Synchronisationsinformationen, die nur in den Packet- und PES-Headern des gebundenen Videos vorhanden sind, und bei der Weiterverarbeitung verloren gehen können, in die Video- und Audiodatenströme formatkonform z. B. als User Data. eingefügt. Nach der Weiterverarbeitung des digitalen Videos ist dann noch eine Nachbearbeitung erforderlich, die die im Zuge der Weiterverarbeitung eventuell falsch gesetzten Synchronisationsinformationen mit Hilfe der in die Video- und Audiodatenströmen eingefügten Informationen korrigiert.object a further advantageous embodiment of the invention according to claim 4 is the loss of synchronization between picture and sound the further processing of digital videos in whose data streams frames are lost, prevent. These are according to feature Indent 1 of this claim the synchronization information, which exists only in the Packet and PES headers of the bound video are, and can be lost in further processing, in the video and audio data streams conform to format z. B. as user data. inserted. After further processing of the digital video is then one more Post-processing required, which in the course of further processing possibly incorrectly set synchronization information with help corrects the information inserted in the video and audio streams.

Bei Videodatenströmen kann man z. B. ausnutzen, dass die MPEG-Formate das Einfügen von Benutzerdaten zulassen. Diese Benutzerdaten werden z. B. zum Einfügen der Information, mit welchem Encoder das Video komprimiert wurde, genutzt. Benutzer-Daten können in Videodatenströmen an jede Stelle außerhalb eines von einem MPEG-Header umschlossenen Bereichs geschrieben werden. Sie beginnen mit einem User Data Header. der User Data Header besteht aus der 24 Bit langen Synchronisationsbitfolge (0x000001) und der 8 Bit langen Kennung des User Data Headers (0xB2). Bezüglich des Inhalts der Benutzerdaten gibt es nur die Einschränkung, dass diese die 24 Bit lange Synchronisationsbitfolge (0x000001) nicht enthalten darf, da diese den Beginn des nächsten MPEG-Headers signalisiert, mit dem der Benutzerdatenblock endet. Um die Synchronisationsinformationen aus dem Paket-Headern des Systemstroms zu sichern, die bei der Weiterverarbeitung verloren gehen würden, kann man somit einen User Data Block erzeugen. Dabei reicht es aus, aus jedem Paket, in dem ein Picture-Header oder ein Frame-Header beginnt, die Inhalte der Felder PRESENTATION TIME STAMP im PES-Header oder/und SYSTEM CLOCK REFERENCE im Packet Header des Paketes, als Benutzerdaten einzufügen. Zusätzlich müssen diese beiden Werte für das vorhergehende Frame im Datenstrom gesichert werden, um später erkennen zu können, ob das Video geschnitten wurde. Zusätzlich ist eine Kennung erforderlich, an der dieser Benutzerdatenblock als ein von dem erfindungsgemäßen Verfahren erzeugten Datensatz erkannt werden kann. Für diese Kennung kann z. B. eine Zeichenkette verwendet werden, eine zusätzliche Checksumme über die Zeichenkette und die gesicherten Daten kann die Wahrscheinlichkeit der Erkennung erhöhen.at Video streams can you z. B. exploit that the MPEG formats the insertion of user data allow. This user data is z. B. to insert the Information with which encoder the video was compressed, used. User data can in video streams anywhere outside of an area enclosed by an MPEG header. They start with a user data header. the user data header exists from the 24-bit synchronization bit sequence (0x000001) and the 8-bit identifier of the user data header (0xB2). Regarding the Content of the user data, there is only the limitation that this is not the 24-bit synchronization bit sequence (0x000001) as it signals the beginning of the next MPEG header, with which the user data block ends. To the synchronization information from the package headers to secure the system stream, which lost during further processing would go So you can create a user data block. It's enough from every package that contains a picture header or a frame header starts the contents of the PRESENTATION TIME STAMP fields in the PES header or / and SYSTEM CLOCK REFERENCE in the packet header of the package, as Insert user data. additionally have to these two values for the previous frame in the stream will be saved to recognize later to be able to if the video was cut. In addition, an identifier is required at this user data block as one of the inventive method generated record can be detected. For this identifier can z. Legs String can be used, an extra checksum over the String and the saved data can be the probability increase detection.

Das Merkmal Spiegelstrich 2 des Patentanspruchs 4 ist erforderlich zur Wiederherstellung der Synchronisation nach der Weiterverarbeitung des digitalen Videos. Bei dieser Weiterverarbeitung (z. B. das Authoring als DVD oder das Schneiden des Videos) werden in der Regel die Datenströme gedemultiplext und anschließend wieder gemultiplext. Dabei gehen in der Regel u. a. die beim erstmaligen Erzeugen des gebundenen Videos erzeugten Zeitstempel verloren. Wurden diese wie in Merkmal Spiegelstrich 1 des Patentanspruches 4 beschrieben im Datenstrom als Wiederherstellungsinformationen gespeichert, können mit Ihnen die Felder PRESENTATION TIME STAMP im PES-Header oder/und SYSTEM CLOCK REFERENCE im Packet Header aller Pakete des Datenstroms, aus dem sie entnommen wurden, wiederhergestellt werden. Wird in einem Video- oder Audiodatenstrom ein Block mit Wiederherstellungsinformationen gefunden, werden in die Paketheader des Paketes, in dem dieser Block endet, die in diesem Block enthaltenen Werte für die Felder PRESENTATION TIME STAMP oder/und SYSTEM CLOCK REFERENCE geschrieben. Alle folgenden Paketheader des Datenstroms mit der gleichen Stream-ID werden in gleicher Weise korrigiert, bis der nächste Block mit Wiederherstellungsinformationen gefunden wird. Wurde das digitale Video geschnitten, muss dieser Wert jedoch korrigiert werden. Dies kann daran erkannt werden, wenn die gesicherte Synchronisationsinformation des letzten Frames im gerade bearbeiteten Frame sich von der Synchronisationsinformation, die für das vorhergehende Frame gesichert war, abweicht. Dann muss die Synchronisationsinformation, die in den weiterverarbeiteten Systemstrom geschrieben wird, um die Differenz zwischen diesen beiden Werten korrigiert werden.The Feature indent 2 of claim 4 is required for Restore synchronization after further processing of the digital video. In this further processing (eg authoring as a DVD or editing the video), the data streams are usually demultiplexed and subsequently again multiplexed. It usually go u. a. the first time Generating the bound video generated timestamp lost. were these as described in feature indent 1 of claim 4 stored in the data stream as recovery information, can with The fields PRESENTATION TIME STAMP in the PES header and / or SYSTEM CLOCK REFERENCE in the packet header of all packets of the data stream, from which they were taken. Is in a block of recovery information to a video or audio stream are found in the package headers of the package in which this block ends the values contained in this block for the fields PRESENTATION TIME STAMP or / and SYSTEM CLOCK REFERENCE written. All following Packet headers of the stream with the same stream ID will be in corrected the same way until the next block with recovery information Is found. If the digital video was cut, this must be Value, however, be corrected. This can be recognized by it, though the saved synchronization information of the last frame in currently processed frame differ from the synchronization information, the for the previous frame was saved, deviates. Then the synchronization information, which is written to the further processed system stream the difference between these two values will be corrected.

Das Entfernen der in die Audio- und Videodatenströme gemäß Merkmal Spiegelstrich 1 des Patentanspruchs 4 eingefügten zusätzlichen Korrekturinformationen nach dem Binden bzw. Multiplexen des Videos ist sehr aufwändig. Dies gilt insbesondere, wenn das Video für das Brennen auf DVD gemultiplext wurde. In diesem Fall müssten die Navigationsparameter für die Menues der DVD so wie die Abspielmarken und Zeiger, die für den Suchlauf bzw. das Vor- und Rückwärts abspielen mit einem mehrfachen der normalen Geschwindigkeit erzeugt wurden, angepasst werden. Da die eingefügten Daten jedoch in den MPEG-Formaten konformen Headern verpackt sind, die vom Abspielgerät oder -programm ignoriert werden, ist es auch nicht unbedingt nötig, sie zu entfernen.The removal of the added in the audio and video data streams according to feature indent 1 of claim 4 additional correction information after binding or multiplexing the video is very complex. This is especially true if the video has been multiplexed to DVD for burning. In this case, the navigation parameters for the menus of the DVD would have to be adjusted as well as the playheads and hands that were generated for the search or play backwards and forwards at a multiple of the normal speed. However, since the inserted data is packaged in the MPEG format compliant headers that are ignored by the player or program, it is not necessarily necessary to remove.

Sinnvoll ist es jedoch, diese Korrekturinformationen nur dann in den Datenstrom zu schreiben, wenn sich die Synchronisationsinformationen in dem PES- oder/und Packet Header ändern. Dies führt häufig dazu, dass deutlich weniger Overhead durch die Korrekturinformationen entsteht, da vor allem Hardware-Encoder in den Packet- oder PES-Header aller Frames, die zu einem GOP gehören, den gleichen Zeitstempel eintragen. Davon sind nicht nur die Videoframes betroffen. Auch alle Audioframes, die diesem GOP zeitlich zugeordnet sind, erhalten den Zeitstempel aus den Videoframes des GOP's.meaningful However, it is only this correction information in the data stream to write when the synchronization information in the PES or / and packet headers change. This often leads that significantly less overhead due to the correction information arises, especially hardware encoders in the packet or PES header of all Frames that belong to a GOP enter the same time stamp. This is not just the video frames affected. Also, all audio frames associated with this GOP are getting the timestamp from the video frames of the GOP.

Der Overhead durch die Korrekturdaten lässt sich noch weiter reduzieren, wenn das Einfügen der zusätzlichen Korrekturinformationen gemäß Merkmal Spiegelstrich 1 des Patentanspruchs 4 zur Reduzierung der Datenmenge nur dann erfolgt, wenn ein Frame aufgetreten ist, vor dem Frames verloren gegangen sind. Ob ein solches Frame vorliegt, kann mit dem in Patentanspruch 1 angegebenen Verfahren festgestellt werden.Of the Overhead due to the correction data can be further reduced, if the paste the additional Correction information according to feature indent 1 of claim 4 for reducing the amount of data only occurs when a frame has occurred before which frames are lost went. Whether such a frame is present, with the in claim 1 specified method can be determined.

Werden Korrekturinformationen nur vor Frames, vor denen Frames verloren gegangen sind, eingefügt, kann auch statt der absoluten Information (dem Zeitstempel des Frames) die Differenz zwischen dem tatsächlichen und dem erwarteten Zeitstempel in den zur späteren Korrektur eingefügten Block eingetragen werden. Bei der Nachbearbeitung nach dem Weiterverarbeiten des digitalen Videos muss dann der Zeitstempel der Frames des Datenstroms um den in den Datenstrom geschriebenen Korrekturwert erhöht werden. Dazu werden in den Paketheader des Paketes, in dem der Block mit den Korrekturinformationen endet, die in diesem Block enthaltenen Werte für die Felder PRESENTATION TIME STAMP oder/und SYSTEM CLOCK REFERENCE geschrieben. Alle folgenden Paketheader dieses Datenstroms werden in gleicher Weise korrigiert, bis der nächste Block mit Korrekturinformationen gefunden wird. In diesem Fall muss jedoch sicher gestellt werden, dass die eingefügten Korrekturdaten, sollte die Weiterverarbeitung ein Schneiden des Videos beinhalten, nicht gelöscht werden.Become Correction information only before frames from which frames are lost gone, inserted, can also be used instead of the absolute information (the timestamp of the frame) the difference between the actual and the expected timestamp in the block inserted for later correction be registered. During post-processing after further processing of the digital video must then be the timestamp of the frames of the data stream to increase the correction value written in the data stream. For this purpose, in the package header of the package in which the block with the correction information ends that contained in this block Values for the fields PRESENTATION TIME STAMP or / and SYSTEM CLOCK REFERENCE written. All following packet headers of this data stream will be corrected in the same way until the next block with correction information Is found. In this case, however, it must be ensured that the inserted Correction data, the further processing should be a cutting of the Videos include, not deleted become.

Eine weitere vorteilhafte Weiterbildung der Erfindung ist im Patentanspruch 5 angegeben. Diese dient ebenso dazu, den Verlust der Synchronisation zwischen Bild und Ton bei der Weiterverarbeitung von digitalen Videos, in deren Datenströmen Frames verloren gegangen sind, zu verhindern. Sie soll jedoch auch eingesetzt werden können, wenn eine Nachbearbeitung nach der Weiterverarbeitung nicht möglich ist. Dies kann z. B. der Fall sein, wenn die Weiterverarbeitung mit einem Authoring-Programm für eine DVD erfolgt, das das Zwischenspeichern der zum Brennen auf DVD bestimmten Dateien auf Festplatte nicht erlaubt, sondern die Daten direkt auf DVD brennt. Im Gegensatz zu dem in Patentanspruch 4 angegebenen Verfahren ist es hier auch möglich, im Rahmen der Weiterverarbeitung ein neues Encodieren durchzuführen (wovon jedoch wegen des damit verbundenen Qualitätsverlustes abgeraten werden muss).A Another advantageous embodiment of the invention is in the claim 5 indicated. This also serves the loss of synchronization between Picture and sound in the processing of digital video, in their data streams Frames are lost, prevent. She should, however can be used if post-processing is not possible after further processing. This can be z. B. be the case when further processing with a Authoring program for a DVD takes place, which is the caching of the burn DVD certain files on disk not allowed, but the Data burns directly to DVD. In contrast to the in claim 4 specified method, it is also possible here, in the context of further processing to perform a new encoding (which, however, must be discouraged because of the associated loss of quality).

Gemäß Patentanspruch 5 werden zur Erreichung dieses Ziels vorencodierte oder zur Laufzeit mit den Parametern des Datenstroms encodierte Frames in den Datenstrom eingefügt. Bei Audiodatenströmen ist dies unproblematisch, da es bei den MPEG-Audiokomprimierungsformaten keine Abhängigkeit zwischen den einzelnen Paketen gibt. Das Vorhalten Vorencodierter Frames im nicht flüchtigen Speicher der für die Ausführung des erfindungsgemäßen Verfahrens genutzten Vorrichtung bietet sich an, da es nur sehr wenige Parameter gibt, in denen Audio- und Videodatenströme variieren können.According to claim 5 are pre-encoded to achieve this goal or at runtime the parameters of the data stream encoded frames in the data stream inserted. For audio data streams this is not a problem as it is in the MPEG audio compression formats no dependence between the individual packages. Holding precoded Frames in non-volatile memory the for execution the method according to the invention used device offers itself, since there are very few parameters where audio and video streams can vary.

Bei Audiodatenströmen beeinflussen die Anzahl der vorzuencodierenden Frames nur die Abtastrate (zulässige Werte 32,441, 48 kHz und 44,1 kHz) und die Datenrate (16 zulässige Werte). Berücksichtigt man nur die im Bereich der Unterhaltungselektronik anzutreffenden Varianten der MPEG-Audiokompressionsverfahren MPEG 1 Layer 1, MPEG 1 Layer 2, und MPEG 1 Layer 3, ergibt sich eine überschaubare Anzahl von Frames, die man vorkomprimieren muss. Ähnliches gilt für die Audiokompressionsverfahren, die bei den von den MPEG-Formaten abgeleiteten Industriestandards verwendet werden. Dazu gehören Dolby Digital, PCM und Digital Theatre Sound. So sind z. B. bei Dolby Digital die Abtastraten 32, 48 kHz und 44,1 kHz zulässig, so wie 38 verschiedene Werte für die Datenrate. Auf Grund dieser Eigenschaften ist mit dem Einfügen von vorkompilierten Frames wesentlich weniger Aufwand verbunden, als den ganzen oder Teile des Datenstroms neu zu komprimieren, da man es sich in damit sparen kann, einen Encoder zu implementieren. Die Verarbeitungszeit wird auf dieses Weise ebenfalls reduziert, dies reduziert wiederum ggf. die Anforderungen an die Leistungsfähigkeit der für das erfindungsgemäße Verfahren genutzten Vorrichtung.at Audio streams the number of frames to be pre-encoded only affects the sampling rate (allowed Values 32.441, 48 kHz and 44.1 kHz) and the data rate (16 permissible values). Considered only those found in the field of consumer electronics Variants of the MPEG audio compression method MPEG 1 Layer 1, MPEG 1 Layer 2, and MPEG 1 Layer 3, results in a manageable number of frames, which you have to precompress. something similar applies to the audio compression methods used by the MPEG formats derived industry standards. These include Dolby Digital, PCM and Digital Theater Sound. So z. B. at Dolby Digital sampling rates 32, 48 kHz and 44.1 kHz allowed, so like 38 different values for the data rate. Because of these properties, with the insertion of precompiled frames connected much less effort than to recompress all or part of the data stream as you it can save itself in implementing an encoder. The Processing time is also reduced in this way, this In turn, reduces the performance requirements the for the inventive method used device.

Werden vorencodierte Frames eingefügt, sollten diese vom Betrachter/Zuhörer möglichst nicht bemerkbar sein. Dazu kann z. B. ein stiller Frame (d. h. eine Tonsequenz, in der kein Ton zu hören ist), oder eine Wiederholung des letzten Bildes, so dass das Bild einfriert, verwendet werden. Da im ana logen Ausgangsmaterial Störungen, die beim Digitalisieren den Verlust von Frames verursachen, häufig als Bildaussetzer oder durchlaufende Streifen zu sehen sind, lässt sich so sogar häufig eine subjektive Verbesserung der Qualität gegenüber dem analogen Ausgangsmaterial erreichen. Ohne von der erfinderischen Lehre abzuweichen, können jedoch auch andere Frames eingebunden werden, wie z. B. ein Störungssymbol, eine Fehlermeldung oder ein Signalton, um die Störung zu melden.If pre-encoded frames are inserted, they should not be noticeable to the observer / listener. This can z. For example, a silent frame (ie, a sound sequence in which no sound is heard) or a repetition of the last image so that the image freezes are used. Since ana logen source material disturbances that cause the loss of frames in digitizing, are often seen as a picture dropouts or continuous stripes, even a subjective improvement in the quality compared to the analog output material can be achieved often. Without departing from the inventive teaching, but can also frames are involved, such. For example, a fault icon, an error message, or a beep to report the problem.

Bei Videodatenströmen müssen ebenfalls nur wenige Frames vorkomprimiert werden, zumindest, wenn man sich auf die Auflösungen beschränkt, die DVD-Player unterstützen. Diese sind 720 × 576, 704 × 576, 352 × 576 und 352 × 288 bei PAL (in Europa u. a.) so wie 720 × 480, 704 × 480, 352 × 480 und 352 × 240 bei NTSC (in den USA u. a.). Andere Parameter des Videodatenstroms, wie z. B. das Seitenverhältnis oder die Bildrate, haben keinen Einfluss auf die einzufügenden Frames. Die Auflösung des Videodatenstroms kann z. B. aus dem System-Header des zu korrigierenden Datenstroms gelesen werden.at Video streams have to also only a few frames are precompressed, at least if you look at the resolutions limited, the DVD player support. These are 720 × 576, 704 × 576, 352 × 576 and 352 × 288 at PAL (in Europe and others) such as 720 × 480, 704 × 480, 352 × 480 and 352 × 240 at NTSC (in the US and others). Other parameters of the video data stream, such as B. the aspect ratio or the frame rate, have no effect on the frames to be inserted. The resolution the video data stream can, for. B. from the system header to be corrected Data stream are read.

Auf den ersten Blick problematisch erscheint dagegen, dass die Frames von Videodatenströmen voneinander abhängen, da in jedem GOP nur ein Bild, das I-Frame, vorhanden ist, das die gesamte Bildinformation enthält. Alle weiteren Bilder enthalten nur noch die Informationen, in denen sie sich vom I-Frame oder von anderen Bildern des GOP unterscheiden. Um ein fehlendes Bild zu ersetzen, ist es sinnvoll, sich zu darauf zu beschränken, das Bild einzufrieren. In diesem Fall kann man ein Bild einfügen, das sich gegenüber dem vorhergehenden Bild nicht ändert. Vergleicht man nun 2 Frames völlig unterschiedlicher, jedoch unter den gleichen Randbedingungen erzeugten Videos, die mit den gleichen Parametern und dem gleichen Encoder komprimiert wurden, und greift in jedem Video einen Abschnitt heraus, in dem sich nichts bewegt, stellt man fest, dass die von anderen Frames abhängenden Frames (B-Frames oder P-Frames) bei beiden Videos identisch sind. Man kann also bei unbewegten Sequenzen Frames aus einem Video herausnehmen und damit ein Frame in einer unbewegten Sequenz eines anderen Videos ersetzen, ohne dass sich etwas ändert, obwohl beide Videos völlig unterschiedliche Standbilder zeigen. Man kann mit dem herausgenommenen Frame sogar ein Frame in einer bewegten Sequenz ersetzen. In diesem Fall friert allerdings das Bild ein. Befindet sich das herausgenommene Frame an einer anderen Stelle im GOP, als das eingefügte, muss man ggf. den Verweis auf das Frame oder die Frames, zu denen das eingefügte Frame die Deltainformationen enthält, anpassen. Hierzu muss vor allem der Parameter Temporal Sequence Number in den Headern der Frames des GOP korrigiert werden.On the first look problematic, however, appears that the frames of video streams from each other depend, because in each GOP only one picture, the I-frame, is present, which is the contains complete image information. All other pictures contain only the information in which they differ from the I-frame or other images of the GOP. To replace a missing image, it makes sense to look at it restrict, to freeze the picture. In this case you can insert a picture that opposite does not change the previous picture. If you compare 2 frames completely different, but generated under the same boundary conditions Videos with the same parameters and the same encoder compressed, and picks out a section in each video, In which nothing moves, one realizes that of others Frames depending Frames (B-frames or P-frames) are the same for both videos. So you can remove frames from a video while still in motion and thus a frame in a still sequence of another video replace without anything changing, although both videos completely show different still pictures. One can with the taken out Frame even replace a frame in a moving sequence. In this Case, however, freezes the picture. Is the removed frame elsewhere in the GOP, as the inserted, you may need the reference on the frame or frames, to which the inserted frame contains the delta information, to adjust. The parameter Temporal Sequence Number in the headers of the frames of the GOP to be corrected.

Um fehlende Frames zu ersetzen, können also zusätzliche B- oder P-Frames, vorzugsweise B- Frames, in einen Videodatenstrom eingefügt werden, ohne andere Frames zu entfernen. Damit steigt allerdings die Anzahl der Frames im GOP und auch seine Zusammensetzung gegenüber anderen GOPs des Video. Insbesondere, wenn das Ausgangsmaterial für eine DVD bestimmt ist, bei der ein GOP 15 bzw. 18 Frames (für PAL bzw. NTSC) haben muss, verletzt man damit u. U. die Spezifikationen. In der Praxis hat sich jedoch erwiesen, dass die getesteten Hardware- und Software-DVD-Player solche überlangen GOP's ohne Probleme abspielen konnten. Dafür, dass solche überlangen GOP's in bestimmten Grenzen unkritisch sind, spricht auch, dass am Markt Verleih- und Kauf-DVD's erhältlich sind, die die vom DVD-Whitebook vorgeschriebenen GOP-Längen nicht einhalten. Weiterhin hat ein vom Antragsteller getestetes kommerzielles DVD-Authoring-Programm, das die auf DVD zu brennenden Videodateien auf DVD-Konformität prüft, und nur neu encodiert, wenn die Videodateien bei dieser Prüfung durchfällt, Videodateien mit eingefügten B-Frames ohne neues Encodieren auf DVD-gebranntAround So you can replace missing frames additional B or P frames, preferably B frames, inserted into a video stream be without removing other frames. However, this is increasing the number of frames in the GOP and its composition over others GOPs of the video. Especially if the source material for a DVD is determined, in which a GOP 15 or 18 frames (for PAL or NTSC), you have to hurt u. U. the specifications. In practice, however, it has been proven that the tested hardware and software DVD player such overlong GOP's without problems could play. Therefore, that such overlong GOP's within certain limits are uncritical, also speaks that on the market rental and purchase DVD's are available, which do not comply with the DVD-Whitebook prescribed GOP lengths. Farther has a commercial DVD authoring program that has been tested by the Applicant and that has the on DVD to burning video files on DVD conformity checks, and only re-encoded, if the video files in this test fails, video files with inserted B-frames without re-encoding on DVD-burned

Dennoch ist das Verfahren in Patentanspruch 5 nur bei seiner Anwendung auf Audioframes vollständig standardkonform. Ziel des in Patentanspruch 6 beschriebenen Verfahrens ist es daher, auch fehlende Frames in Videodatenströmen standardkonform zu korrigieren. Im Patentanspruch 6 wird daher vorgeschlagen, dass zur Wiederherstellung der Synchronisation zwischen Bild und Ton eventuell fehlende Audioframes in den Audiodatenströmen wie in Patentanspruch 5 beschrieben eingefügt werden und an den Stellen, an denen Videoframes fehlen, die zu den fehlenden Videoframes synchronen Audioframes wieder entfernt werden. Da Audio- und Videoframes unterschiedlich lang sein können, muss ggf. noch die Anzahl der pro verlorenem Videoframe zu entfernenden Audioframes variiert werden, um zu erreichen, dass die Abspielzeiten der entfernten Audioframes und der verlorenen Videoframes etwa gleich lang sind.Yet is the method in claim 5 only in its application Audio frames complete standard compliant. Aim of the method described in claim 6 It is therefore, even missing frames in video streams standard compliant to correct. In claim 6 is therefore proposed that to restore the synchronization between picture and sound possibly missing audio frames in the audio data streams as in claim 5 described inserted and in those places where video frames are missing, which are among the missing video frames synchronous audio frames are removed again. Since audio and video frames can be different lengths, must if necessary, the number of video frames to be removed per video frame to be removed Audio frames are varied to achieve that playing time the distant audio frames and the lost video frames about the same are long.

Entsprechend Patentanspruch 7 kann ein Mischen der Verfahren von Patentanspruch 4, 5, und 6 vorteilhaft sein. So kann es z. B. sinnvoll sein, das Verfahren nach Patentanspruch 4 auf Videodatenströme und das Verfahren nach Patentanspruch 5 auf Audiodatenströme anzuwenden.Corresponding Claim 7 may be a mixing of the methods of claim 4, 5, and 6 be advantageous. So it may be z. B. be useful, the procedure according to claim 4 on video data streams and the method according to claim 5 on audio data streams apply.

Weitere vorteilhafte Weiterbildungen der Erfindung werden in den Patentansprüchen 8 und 9 genannt. Nach Patentanspruch 8 ist es sinnvoll, die für das erfindungsgemäße Verfahren eingesetzte Vorrichtung gleichzeitig zum Demultiplexen des digitalen Videos zu benutzen. Dies ist deshalb vorteilhaft, weil das erfindungsgemäße Verfahren die Suche nach den Frame- und den Paketheadern so wie die datenstromweisen Betrachtung bei der Auswertung erfordert, und somit nur geringfügig ergänzt werden muss, um die Funktion eines Demultiplexers zu erfüllen. Weiterhin ist es wesentlich einfacher, fehlende Frames in einen Video- oder Audiodatenstrom einzufügen, als sie in ein ge bundenes Video unter Berücksichtigung der sich in den Paketen ergebenden Änderungen einzubinden.Further advantageous embodiments of the invention are mentioned in the claims 8 and 9. According to claim 8, it makes sense to use the device used for the inventive method simultaneously for demultiplexing the digital video. This is advantageous because the method according to the invention requires the search for the frame and packet headers as well as the streamwise analysis in the evaluation, and thus only has to be supplemented slightly to fulfill the function of a demultiplexer. Furthermore, it is much easier to insert missing frames into a video or audio stream than they would into a linked video, taking into account the changes in the packets involve them.

Bei vielen im Rahmen der Weiterverarbeitung von digitalen Videos auftretenden Aufgaben wie z. B. dem Schneiden, dem Brennen auf DVD oder dem Encodieren muss der Systemstrom, als der das digitale Video in der Regel vorliegt, gedemultiplext werden. Daher ist es gemäß Patentanspruch 8 ebenfalls sinnvoll, das erfindungsgemäße Verfahren in eine solche Anwendung zu integrieren.at many occurring in the context of digital video processing Tasks such. B. cutting, burning to DVD or encoding the system stream, as the digital video is usually present, be demultiplexed. Therefore, it is according to claim 8 also useful, the inventive method to integrate into such an application.

Ebenfalls sinnvoll ist gemäß Patentanspruch 9 die Integration des erfindungsgemäßen Verfahrens in einen integrierten Videodigitalisierungsschaltkreis, da man an dieser Stelle sicher sein kann, dass das Video vor der Überprüfung auf fehlende Frames noch nicht weiterverarbeitet worden sein kann. Grund dafür ist, dass das erfindungsgemäße Verfahren nur funktioniert, so lange das digitale Video noch nicht gedemultiplext wurde, und der beim Erzeugen des Systemstroms verwendete Encoder die Synchronisationsinformationen korrekt gesetzt hat.Also makes sense according to claim 9 the integration of the method according to the invention into an integrated Video digitizing circuit, since you are safe at this point that may be the video before checking for missing frames yet may have been further processed. The reason for this is that the inventive method only works as long as the digital video is not yet demultiplexed and the encoder used to generate the system stream has set the synchronization information correctly.

Eine vorteilhafte Ausgestaltung der Erfindung ist im Patentanspruch 10 angegeben. Diese Ausgestaltung nutzt aus, dass beim Digitalisieren analoger Videos an Stellen, an denen das Aufzeichnungsgerät für die analogen Videos, z. B. ein VHS-Videorekorder, die Aufzeichnung unterbrochen hat, mit hoher Wahrscheinlichkeit Frames in dem digitalen Ausgangsdatenstrom verloren gehen. Bei den im Rahmen der Ausarbeitung dieses Patentantrages durchgeführten Untersuchungen an VHS-Videorekordern verschiedener Typen und Fabrikate wurde festgestellt, dass an Stellen, an denen die Aufnahme unterbrochen wurde, einige wenige Frames verloren gehen. Wurde dagegen eine ältere Aufnahme überspielt, entsteht bei der Digitalisierung der Stelle, an der die neue Aufnahme endet, eine Sequenz mit einer erheblichen Anzahl von in sehr kurzen Zeitabständen auftretenden fehlenden Frames. Dies stimmt mit theoretischen Überlegungen zu den Beschränkungen der Architektur analoger Videorekorder, die das Videosignal auf ein Magnetband aufzeichnen, überein. Ursache für dieses beobachtete und prognostizierte Verhalten ist, dass ein analoger Videorekorder beim Einlegen der Kassette das Band aus der Kassette herauszieht und mittels mehrerer Umlenkrollen um die Videokopftrommel schlingt. Dieser Vorgang ist nicht besonders wiederholgenau, so dass bei einem Starten einer Aufzeichnung in der Bandmitte diese Aufzeichnung nicht genau am Ende eines Bildes einer bereits auf dem Band vorhandenen Aufzeichnung einsetzt. Die Aufbereitung der Ausgangssignale kann dies in der Regel, so auch bei den untersuchten Rekordern, nicht kompensieren. Dies gilt selbst bei hochwertigen Geräten mit digitaler Signalaufbereitung. Bei dem vom Videorekorder erzeugten Signal entstehen so Störungen der Austastlücke, so dass die zur Digitalisierung genutzte Elektronik in der Regel den Beginn eines neu en Bildes nicht erkennt und somit Frames auslässt. Dieser Effekt ist am Beginn einer Aufnahme nur sehr kurzfristig, und dauert in der Regel genau einen Frame lang. Am Ende einer Aufzeichnung oder beim Überspielen einer alten Aufzeichnung wird dieser Effekt dadurch verstärkt, dass das Aufzeichnen der Bilder schräg zum Band erfolgt, während der Löschkopf des Videorekorders horizontal über das Band geführt wird und darüber hinaus örtlich versetzt zum Videokopf angebracht ist. Dadurch sind am Ende einer Aufnahme, die eine ältere Aufnahme überspielt, eine ganze Reihe von Bildern gestört. Dies hat zur Folge, dass beim Digitalisieren in diesem Bereich eine ganze Reihe von Frames verloren gehen.A advantageous embodiment of the invention is in claim 10th specified. This embodiment makes use of that when digitizing analog Videos where the analog video recorder, such B. a VHS VCR that has interrupted recording with high Probability lost frames in the digital output data stream walk. The investigations carried out in the context of the preparation of this patent application VHS video recorders of various types and makes have been found in places where the recording was interrupted, some few frames are lost. If an older recording was dubbed, arises in the digitization of the place where the new recording ends, a sequence with a significant number of in very short intervals occurring missing frames. This agrees with theoretical considerations to the restrictions the architecture of analog VCRs that record the video signal to record a magnetic tape. Cause for This observed and predicted behavior is that of an analogous VCR when inserting the cassette tape from the cassette pulls out and by means of several pulleys around the video head drum wraps. This process is not very repetitive, so that when starting a recording in the middle of the band this Record not exactly at the end of an image already on the tape is present in the tape. The preparation of the This can usually be output signals, so also in the examined Recorders, do not compensate. This is true even with high quality devices with digital signal processing. At the signal generated by the VCR this causes disruptions the blanking interval, so that the electronics used for digitization usually does not recognize the beginning of a new image and thus omits frames. This Effect is only very short-term at the beginning of a recording, and lasts in usually exactly one frame long. At the end of a recording or when dubbing an old record this effect is reinforced by the fact that the Record the pictures at an angle to the band takes place while the erase head horizontal over the video recorder the band led will and over out locally offset to the video head is attached. This will end up with a Recording that dubbed an older recording, a whole series of pictures disturbed. This has the consequence that Digitizing in this area a whole series of frames get lost.

Mit dem erfindungsgemäßen Verfahren können entsprechend den o. g. Ausführungen auch nach der Digitalisierung Stellen detektiert werden, an denen in der analogen Aufzeichnung neue Filme beginnen oder das Videomaterial geschnitten wurde. Diese so ermittelten Marken können gemäß Unteranspruch 10 für das Setzen von Kapitelmarken für die Erzeugung von DVD-Menues mit einem zum Brennen von Video-DVD's eingesetzten Authoring-Programm oder als Schnittmarken für das Schneiden des digitalisierten Materials vorgeschlagen werden.With the method according to the invention can according to the o. g. versions Even after digitization, bodies are detected at which in the analog recording new films or video footage begin was cut. These brands determined in this way can according to dependent claim 10 for the setting of chapter marks for the creation of DVD menus with an authoring program used for burning video DVD's or as crop marks for the cutting of the digitized material will be proposed.

Anwendungsbeispielexample

Nachfolgend wird die Erfindung anhand zweier Anwendungsfälle des näheren erläutert. Es zeigen:following The invention will be explained with reference to two applications of the closer. Show it:

8: Darstellung der Verwendung des erfindungsgemäßen Verfahrens zur Korrektur von Fehlern, die bei der Digitalisierung eines teilweise überspielten VHS-Videos entstanden sind 8th : Representation of the use of the method according to the invention for the correction of errors that have arisen during the digitization of a partially dubbed VHS video

9. Das Protokoll der Fehlerkorrektur des in 8 dargestellten Anwendungsfalls 9 , The protocol of the error correction of in 8th illustrated use case

10. Darstellung der Verwendung des erfindungsgemäßen Verfahrens zur Korrektur von Fehlern, die entstehen, wenn die Aufzeichnung bei einem digitalen Videoaufzeichnungsgerät gestartet wird, bevor mit dem Abspielen des zu digitalisierenden Videos begonnen wird. 10 , Representation of the use of the inventive method for correcting errors that occur when the recording is started in a digital video recorder before starting to play the video to be digitized.

11 Das Protokoll der Fehlerkorrektur des in 10 dargestellten Anwendungsfalls In der Unterhaltungselektronik hat sich bei den Endverbrauchern das VHS-System für die Aufzeichnung von Videoquellen wie z. B. Fernsehsendungen durchgesetzt. Zeitweise wurde dieses System auch von Hobbyfilmern verwendet. VHS ist zum Zeitpunkt der Stellung dieses Patentantrags seit ca. 30 Jahren auf dem Markt. 11 The protocol of the error correction of in 10 In the case of consumer electronics, the VHS system for recording video sources such as video signals has been used by end users. B. enforced television broadcasts. At times, this system was also used by amateur filmmakers. VHS has been on the market for about 30 years at the time of filing this patent application.

Bei VHS handelt es sich um ein analoges Videoaufzeichnungsverfahren, das nunmehr sukzessive durch digitale Videoaufzeichnungsverfahren ersetzt wird. Erste Händler haben VHS-Videorekorder bereits aus ihrem Sortiment genommen. Damit ergibt sich für Endverbraucher, die bespielte VHS-Kassetten besitzen, das Problem, dass für die darauf aufgezeichneten Videos in absehbarer Zeit keine Abspielgeräte mehr verfügbar sein werden. Besonders wenn auf diesen Kassetten persönliche Erinnerungen aufgezeichnet sind, besteht der Wunsch, deren Inhalte auf ein digitales Medium zu übertragen. Darüber hinaus lässt die Qualität der auf Magnetbändern, wie sie bei VHS-Videokassetten zum Einsatz kommen, aufgezeichneten analogen Videos mit der Zeit nach. Da dies bei digital aufgezeichnet Videos nicht der Fall ist, entsteht durch diese Übertragung ein zusätzlicher Vorteil für den Verbraucher. Dadurch wird die Nachfrage nach Lösungen, die Verbraucher und Dienstleister beim Digitalisieren analoger Videos unterstützen, steigen.VHS is an analog Vi de-recording procedure, which is now successively replaced by digital video recording. First vendors have already removed VHS VCRs from their product range. This results for end users who have pre-recorded VHS tapes, the problem that for the recorded video in the foreseeable future, no players will be available more. Especially when personal memories are recorded on these cartridges, there is a desire to transfer their contents to a digital medium. In addition, the quality of analog video recorded on magnetic tapes used with VHS video cassettes decreases with time. Since this is not the case with digitally recorded videos, this transmission creates an additional benefit for the consumer. This will increase the demand for solutions that help consumers and service providers to digitize analog video.

Wie bereits an anderer Stelle in diesem Patentantrag geschildert, kann aus den Eigenschaften der zum Stand der Technik gehörenden und für das Abspielen analoger Videos und das Aufnehmen digitaler Videos eingesetzten Vorrichtungen geschlossen werden, dass die Digitalisierung von Videos ein Vorgang ist, bei dem kurzfristige Störungen des Ausgangsmaterials dazu führen können, dass nach der Weiterverarbeitung des digitalen Videos Ton und Bild nicht mehr synchron sind. Bereits ein geringer Zeitversatz von Bild und Ton wird jedoch als sehr störend empfunden.As already described elsewhere in this patent application, can from the properties of the prior art and for playing analog video and recording digital video Devices are closed, that digitizing videos a process is where short-term disturbances of the source material lead to it can, that after processing the digital video sound and picture is not are more in sync. Already a slight time offset of image and However, sound is perceived as very disturbing.

Die in 8 und 10 dargestellten Anwendungsfälle stellen zwei Situationen dar, in denen die Digitalisierung analoger Videos bei Verwendung der zum Stand der Technik gehörenden Verfahren zu einem u. U. qualitativ nicht mehr befriedigenden Ergebnis führt, und in denen das erfindungsgemäße Verfahren in Verbindung mit seinen Unteransprüchen zur Verbesserung des Ergebnisses eingesetzt werden kann. Beide Anwendungsfälle beschreiben Situationen, in denen das Ausgangssignal eines analogen Videoabspielgerätes so stark gestört wird, dass ein digitales Aufzeichnungsgerät es nicht mehr sauber dekodieren kann, und deshalb in dem von ihm erzeugten Ausgangsdatenstrom Frames verwirft. Solche Störungen können viele Ursachen haben, angefangen von bei einer durch Alterung schlechten Qualität des zu überspielenden Mediums. Die beiden ausgewählten Anwendungsfälle haben den Vorteil, dass sie reproduzierbar sind.In the 8th and 10 Applications shown represent two situations in which the digitization of analog video using the prior art associated with a u. U. qualitatively no longer satisfactory results, and in which the inventive method can be used in conjunction with its subclaims to improve the result. Both applications describe situations in which the output signal of an analog video player is disturbed so much that a digital recording device can no longer decode it cleanly and therefore rejects frames in the output data stream it generates. Such disorders can have many causes, ranging from poor quality of the media to be dubbed due to aging. The two selected use cases have the advantage that they are reproducible.

Im ersten, in 8 dargestellten Anwendungsfall wird demonstriert, welche Auswirkungen der Übergangsbereich am Ende einer neuen Aufnahme, mit der eine ältere, etwas längere Aufnahme überspielt wurde, auf die Digitalisierung eines Videos hat. Wird bei einem VHS-Videorekorder die Wiedergabe am Ende einer Aufzeichnung fortgesetzt, wird ca. eine Sekunde lang ein gestörtes Videosignal ausgegeben, bevor die ältere Aufnahme störungsfrei ausgegeben wird. Auf die Ursache hierfür wurde bereits in der Beschreibung des Unteranspruchs 10 eingegangen.In the first, in 8th In this case, it demonstrates how the transitional area affects the digitization of a video at the end of a new recording that has been dubbed an older, slightly longer recording. If a VHS VCR continues to play at the end of a recording, a disturbed video signal will be output for about one second before the older recording is output smoothly. The reason for this has already been addressed in the description of subclaim 10.

8 zeigt, wie die zur Auswertung dieses Anwendungsfalles verwendete Sequenz erzeugt wurde. In Schritt 1) wird eine längere Sequenz auf eine VHS-Videokassette aufgezeichnet. Dann wird die Kassette zurück gespult und anschließend in Schritt 2) der Anfang dieser Sequenz mit einer kürzeren Sequenz überspielt. Anschließend wird die Videokassette in Schritt 3) nochmals zurück gespult, abgespielt und digital im MPEG-2-Format aufgezeichnet. 8th shows how the sequence used to evaluate this use case was generated. In step 1) a longer sequence is recorded on a VHS video cassette. Then the cassette is spooled back and then in step 2) the beginning of this sequence is dubbed with a shorter sequence. Subsequently, the video cassette is rewound again in step 3), played back and recorded digitally in MPEG-2 format.

Bei der Auswertung des aufgezeichneten Videos mit dem erfindungsgemäßen Verfahren nach Patentanspruch 1, bis 3 und seiner Korrektur mit dem Verfahren nach Patentanspruch 4 wurde das in 9 dargestellte Protokoll erzeugt. Parallel dazu wurde das digital aufgezeichnete Video mit einem Videoschnittprogramm Bild für Bild optisch ausgewertet. In diesem Fall endet die später aufgenommene Aufzeichnung nach 1 Minute, 1 Sekunde und 14 Frames a 40 ms (entspricht einer Laufzeit von 61.560 ms). Das Bild der älteren Aufzeichnung ist bei 1 Minute, 12 Sekunden und 18 Frames (entspricht einer Laufzeit von 72.720 ms) stabil. An dieser Stelle endet der Übergangsbereich. Gemäß Protokoll in 9 wurde von dem erfindungsgemäßen Verfahren das erste fehlende Videoframe nach 62.083 ms Laufzeit und das letzte fehlende Videoframe nach 72.766 ms entdeckt. Bei den in dem Protokoll ausgegebenen Laufzeiten handelt es sich um die vom digitalen Aufzeichnungsgerät (in diesem Fall eine TV-Tuner-Karte für PC's mit Hardware-Encoder) im PTS eingetragenen Wert. Von diesen Laufzeiten müssen noch 400 ms Offset und die Laufzeit der verlorenen Frames (in diesem Fall 40 ms pro Frame, da in PAL aufgezeichnet wurde) in Abzug gebracht werden. Am Ende der Aufzeichnung fehlt noch ein weiteres Videoframe, dass hier jedoch keine Rolle spielt.In the evaluation of the recorded video with the inventive method according to claim 1, to 3 and its correction with the method according to claim 4, the in 9 generated log generated. At the same time, the digitally recorded video was visually evaluated image by image using a video editing program. In this case, the later recorded recording ends after 1 minute, 1 second and 14 frames a 40 ms (equivalent to a runtime of 61,560 ms). The image of the older recording is stable at 1 minute, 12 seconds and 18 frames (equivalent to a runtime of 72,720 ms). At this point the transition area ends. According to protocol in 9 was discovered by the inventive method, the first missing video frame after 62,083 ms runtime and the last missing video frame after 72,766 ms. The runtimes issued in the protocol are those entered in the PTS by the digital recorder (in this case a TV tuner card for PC's with hardware encoders). Of these runtimes, 400 ms offset and the lost frame time (in this case 40 ms per frame as recorded in PAL) have to be deducted. At the end of the recording is still missing another video frame, but that does not matter here.

Insgesamt wurden in Folge der Störungen im Übergangsbereich 19 Videoframes und 16 Audioframes nicht aufgezeichnet. Vor allem da die Abspieldauer der Audioframes 24 ms (sie wurden als MPEG I Layer 2 Audiodaten encodiert) und der Videoframes 40 ms (das Video lag als PAL-Signal mit 25 Bildern/s vor) beträgt, ergibt sich zwischen Audio und Video ein zeitlicher Versatz von 360 ms ab diesem Übergangsbereich. Dieser zeitliche Versatz wird jedoch erst nach dem Brennen auf DVD sicht- bzw. hörbar. Um dies optisch zu kontrollieren, wurden in Schritt 5) sowohl die aufgezeichnete als auch die mit dem Verfahren nach Patentanspruch 4 erzeugte korrigierte Datei auf DVD gebrannt und anschließend betrachtet. Dabei wurde festgestellt, dass selbst dieser kurze Versatz von 360 ms in dem nicht korrigierten Video schon wahrnehmbar ist.Overall, 19 video frames and 16 audio frames were not recorded as a result of the transients in the transition area. Especially since the playback time of the audio frames is 24 ms (they were encoded as MPEG I Layer 2 audio data) and the video frames 40 ms (the video was available as a PAL signal with 25 frames / s), there is a temporal difference between audio and video Offset of 360 ms from this transition range. However, this temporal offset only becomes visible or audible after burning to DVD. To optically control this, in step 5) both the recorded and the corrected file produced by the method according to claim 4 were burnt to DVD and subsequently considered tet. It was found that even this short offset of 360 ms in the uncorrected video is already noticeable.

Das Verfahren nach Patentanspruch 4 wurde deshalb für diesen Anwendungsfall ausgewählt, weil es ein Ergebnis liefert, das nicht ganz konform zu den relativ engen Spezifikationen des DVD-Whitebooks ist, und daher in Versuchen abgeklärt werden musste, ob die damit erzeugten DVD's auch auf verschiedenen Typen von DVD-Playern lauffähig sind.The Method according to claim 4 was therefore selected for this application because it gives a result that does not quite conform to the relatively narrow ones Specifications of the DVD Whitebook is, and therefore clarified in experiments had to be whether the DVDs produced with it on different types of DVD players runnable are.

Im zweiten, in 10 dargestellten Anwendungsfall wird demonstriert, welche Auswirkungen es haben kann, wenn in Schritt 1) die Aufnahme mit dem digitalen Aufnahmegerät gestartet wird, bevor in Schritt 2) das Abspielen des als Signalquelle verwendeten Abspielgerätes gestartet wird. In diesem Fall wurde ein VHS-Videorekorder als Signalquelle verwendet, dessen Antenneneingang nicht angeschlossen worden war. Daher hat der Videorekorder, so lange er nichts abgespielt hat, an seinem Ausgang ein Rauschsignal ausgegeben.In the second, in 10 In the case of the application shown, it is demonstrated which effects it may have if the recording with the digital recording device is started in step 1) before the playback of the playback device used as the signal source is started in step 2). In this case, a VHS VCR was used as the signal source whose antenna input had not been connected. Therefore, as long as the VCR has not played anything, it has output a noise signal at its output.

Die Auswertung des für den zweiten Anwendungsfall digital aufgezeichneten Videos wird wie in 10 Schritt 3) dargestellt mit dem erfindungsgemäßen Verfahren nach Patentanspruch 1 bis 3 ausgewertet. Bei der Korrektur des digitalen Videos mit dem Verfahren nach Patentanspruch 4 wurde das in 11a bis 11c dargestellte Protokoll erzeugt. Parallel dazu wurde das digital aufgezeichnete Video mit einem Videoschnittprogramm Bild für Bild optisch ausgewertet. In diesem Fall setzt die Ausgabe des abgespielten Videos bei 28 Sekunden und 9 Frames a 40 ms ein (entspricht einer Laufzeit von 28.360 ms), das Bild ist nach weiteren 9 Frames (entspricht einer Laufzeit von 28.720 ms) störungsfrei. Gemäß Protokoll in 11a bis c wurde von dem erfindungsgemäßen Verfahren das erste fehlende Videoframe nach 521 ms Laufzeit und das letzte fehlende Videoframe nach 29.392 ms entdeckt. Bei den in dem Protokoll ausgegebenen Laufzeiten handelt es sich um die vom digitalen Aufzeichnungsgerät (in diesem Fall eine TV-Tuner-Karte für PC's mit Hardware-Encoder) im PTS eingetragenen Wert. Von diesen Laufzeiten müssen noch 400 ms Offset und die Laufzeit der verlorenen Frames (in diesem Fall 40 ms pro Frame, da in PAL aufgezeichnet wurde) in Abzug gebracht werden.The evaluation of the digitally recorded video for the second application is as in 10 Step 3) shown evaluated by the method according to the invention according to claim 1 to 3. In the correction of the digital video with the method according to claim 4, the in 11a to 11c generated log generated. At the same time, the digitally recorded video was visually evaluated image by image using a video editing program. In this case, the output of the video played sets at 28 seconds and 9 frames a 40 ms (equivalent to a runtime of 28,360 ms), the picture is interference-free after another 9 frames (equivalent to a runtime of 28,720 ms). According to protocol in 11a to c, the first missing video frame after 521 ms runtime and the last missing video frame after 29.392 ms were discovered by the method according to the invention. The runtimes issued in the protocol are those entered in the PTS by the digital recorder (in this case a TV tuner card for PC's with hardware encoders). Of these runtimes, 400 ms offset and the lost frame time (in this case 40 ms per frame as recorded in PAL) have to be deducted.

Bei näherer Betrachtung erkennt man, dass die TV-Tuner-Karte wegen des fehlenden Eingangssignals während der Zeit, in dem noch nichts abgespielt wird, Frames verliert. In dem Bereich, in dem sich das Bild beim Start des Abspielens stabilisiert, ist eine Häufung verlorener Frames zu beobachten. Insgesamt gehen 54 Videoframes und 40 Audioframes in der Einschaltphase verloren. Da zusätzlich zu der höheren Anzahl verlorener Videoframes die Abspieldauer der Audioframes 24 ms (sie sind als MPEG I Layer 2 Audiodaten encodiert) und der Videoframes 40 ms (das Video lag als PAL-Signal mit 25 Bildern/s vor) beträgt, ergibt sich zwischen Audio und Video ein zeitlicher Versatz von 1,200 s ab diesem Übergangsbereich. Dieser zeitliche Versatz wird jedoch erst nach dem Brennen auf DVD sicht- bzw. hörbar. Um dies optisch zu kontrollieren, wurden in 10 Schritt 4) sowohl die digital aufgezeichnete als auch die mit dem Verfahren nach Patentanspruch 4 erzeugte korrigierte Datei auf DVD gebrannt und anschließend betrachtet. Dabei wurde festgestellt, dass der Versatz von 1200 ms in dem nicht korrigierten Video stark störend wirkt.Looking closer, you can see that the TV tuner card loses frames because of the lack of input signal during the time nothing is playing. In the area in which the image stabilizes at the start of playback, an accumulation of lost frames is observed. In total, 54 video frames and 40 audio frames are lost in the switch-on phase. Since in addition to the higher number of video frames lost, the playing time of the audio frames is 24ms (they are encoded as MPEG I Layer 2 audio data) and the video frames are 40ms (the video was a PAL signal at 25fps) Audio and video a time offset of 1,200 s from this transitional area. However, this temporal offset only becomes visible or audible after burning to DVD. To visually control this, were in 10 Step 4) burned both the digitally recorded as well as the corrected file produced by the method according to claim 4 on DVD and then viewed. It was found that the offset of 1200 ms in the uncorrected video is very disturbing.

Die in Schritt 4 gebrannte DVD wurde mit insgesamt 4 kommerziellen und einem Open-Source DVD-Authoring-Programm erzeugt. Bei allen 5 auf diese Weise erstellten DVD's waren Video und Audio bei den nicht korrigierten Dateien asynchron. 3 der kommerziellen, getesteten Authoring-Programme hatten dabei die Eigenschaft, das Material grundsätzlich neu zu encodieren. Auch bei diesen Programmen waren Video und Audio bei den nicht korrigierten Dateien asynchron. Offenbar encodieren Sie für jedes Frame der Eingangsdatei ein Frame für die Ausgangsdatei, ohne sich um die Synchronisationsinformationen zu kümmern. Bei einem der getesteten Programme, das das Video grundsätzlich neu encodiert, hatte die nicht vorhandene Synchronisation zwischen Video und Audio bei einer der nicht korrigierten Dateien sogar dazu geführt, dass eine direkt dahinter aufgezeichnete, einwandfreie Datei ebenfalls die Synchronisation zwischen Bild und Ton verloren hatte.The DVD burned in step 4 was a total of 4 commercial and an open-source DVD authoring program. At all 5 on this Way created DVD's video and audio were asynchronous with uncorrected files. 3 of the commercial, tested authoring programs had the property the material basically to re-encode. Also with these programs were video and audio for the uncorrected files asynchronous. Apparently encode You for every frame of the input file is a frame for the output file, without itself to take care of the synchronization information. In one of the tested Programs that the video basically re-encoded, had the non-existent synchronization between video and audio on one of the uncorrected files even led to that a directly behind recorded, flawless file also had lost the synchronization between image and sound.

Wirtschaftliches und technisches PotentialEconomic and technical potential

Die Qualität von analog aufgezeichnetes Videomaterial kann, besonders wenn die Aufzeichnungen schon einige Jahre alt sind, oder wenn auf einer Kassette mehrere Aufzeichnungen vorhanden sind, nicht ausreichend für eine Digitalisierung und anschließende digitale Weiterverarbeitung mit den zu Stand der Technik gehörenden Verfahren sein.The quality from analog recorded video material, especially if the Records are already several years old, or if on a tape multiple records are present, not sufficient for digitization and subsequent digital finishing with state-of-the-art techniques be.

Wie in den Beispielen aufgezeigt, berücksichtigen die auf dem Markt vorhandenen und dem Antragsteller bekannten Produkte zur Erstellung von DVD's die besondere Problematik verlorener Frames bei der digitalen Aufzeichnung von analogen Quellen mit geringer Qualität nicht ausreichend. Das erfindungsgemäße Verfahren bietet dagegen die Möglichkeit, solche Aufnahmen zu „retten”. Da auf dem Endverbrauchersektor analoge VHS-Videorekorder über ca. 30 Jahre den Markt für Videoaufzeichnungs- und wiedergabegeräte dominiert haben, und diese nunmehr durch digitale Techniken abgelöst werden, ist mit einer großen Anzahl von Videokassetten zu rechnen, für die von ihren Besitzerinnen oder Besitzern eine Digitalisierung beabsichtigt ist. Ein hoher Anteil davon wird inzwischen so stark gealtert sein, dass eine Aufbereitung ihrer Qualität z. B. mit dem erfindungsgemäßen Verfahren erforderlich sein dürfte.As shown in the examples, the DVD-making products available on the market and known to the applicant do not sufficiently take into account the particular problem of lost frames in the digital recording of low-quality analogue sources. By contrast, the method according to the invention offers the possibility of "saving" such recordings. As VHS video recorders in the consumer sector have dominated the video recording and reproducing market for more than 30 years and are now being replaced by digital techniques, a large number of videocassette tapes are expected for their owners or owners Digitization is intended. A high proportion it is meanwhile aged so much that a treatment of their quality z. B. may be required with the inventive method.

Claims (10)

Verfahren zur Erkennung fehlender Rahmen (Frames) in Audio- und Videodatenströmen, die für die Übertragung oder die Speicherung zu einem Systemstrom (System Stream, z. B. ein Transport Stream, Program Stream, DVD-Video-Object) gebunden (gemultiplext) sind und in einem Format der MPEG-Protokollfamilie (Motion Pictures Expert Group, z. B. MPEG 1, MPEG 2, MPEG 4 etc.) oder verwandter Formate (z. B. DivX, DVD-Whitebook, DVB-T, DVB-S, DVB-C) vorliegen, so wie zur Reparatur eines solchen durch fehlende Rahmen beschädigten und aus Video- und Audiodatenströmen gebundenen Datenstroms, dadurch gekennzeichnet, dass – die Abspieldauer der Rahmen der zu untersuchenden Datenströme aus den Steuerparametern des jeweiligen Datenstroms berechnet werden, – in dem Systemstrom Pakete gesucht werden, die zu einem der zu untersuchenden Datenströme gehören und den Beginn eines oder mehrerer Rahmen (engl. Frames) enthalten, und – in jedem zu untersuchenden Audio- und Videodatenstrom die Anzahl der Rahmen (engl. Frames) des Datenstroms beginnend mit dem Start so wie in jedem Videodatenstrom die Anzahl der Rahmen (engl. Frames) des Datenstroms beginnend mit dem Start des GOP gezählt wird, – bei Audioframes anhand der bisher gezählten Frames und der aus dem Audiodatenformat ermittelten Dauer des Frames, bei Videoframes anhand der bisher gezählten Frames, der Darstellungsposition des Bildes aus dem Feld „TEMPORAL SEQUENCE NUMBER” aus dem „Picture Header” und der Bildrate die im folgenden als Rohzeit bezeichnete Zeit ermittelt wird, zu der das Frame bei fortlaufender Ausgabe der vorhergehenden Frames ausgegeben würde, – zu der Rohzeit des Rahmens der Offset seines Datenstroms addiert wird, wobei dieser Offset aus den Synchronisationsinformationen aus den Paketheadern des ersten Pakets des Systemstroms, in dem der erste Rahmen dieses Datenstroms beginnt, ermittelt wird, und wobei diese Synchronisationsinformationen aus dem Feld „PRESENTATION TIME STAMP” im „PACKETIZED ELEMENTARY STREAM” Header oder/und aus dem Feld „SYSTEM CLOCK REFERENCE” aus dem „PACKET HEADER” entnommen werden, – für jeden gefundenen Rahmen die Rohzeit des Frames plus Offset mit den Synchronisationsinformationen des Frames verglichen wird, wobei diese Synchronisationsinformationen aus dem „PRESENTATION TIME STAMP” oder/und der „SYSTEM CLOCK REFERENCE”, die wiederum dem ersten Paket des Systemstroms entnommen werden, in dem Daten des gerade untersuchten Rahmens enthalten sind, entnommen wird, und – von einem oder mehreren vor dem untersuchten Frame fehlenden Frames ausgegangen wird, wenn Rohzeit plus Offset kleiner sind als der „PRESENTATION TIME STAMP” oder/und die „SYSTEM CLOCK REFERENCE” des ersten Paketes des aktuell betrachteten Frames plus einer Sicherheit, die kleiner oder gleich der Zeit für die Ausgabe eines Frames ist.A method of detecting missing frames in audio and video streams bound (multiplexed) for transmission or storage to a system stream (system stream, eg, a transport stream, program stream, DVD-Video object) and in a format of the MPEG protocol family (Motion Pictures Expert Group, eg MPEG 1, MPEG 2, MPEG 4 etc.) or related formats (eg DivX, DVD-Whitebook, DVB-T, DVB-S , DVB-C), as well as for repairing such corrupted by missing frames and bound from video and audio data streams, characterized in that - the playing time of the frames of the data streams to be examined from the control parameters of the respective data stream are calculated the system stream is searched for packets belonging to one of the data streams to be examined and containing the beginning of one or more frames, and in each audio and video stream to be examined the number d he frame Frames) of the data stream starting from the start, as in each video data stream the number of frames of the data stream is counted beginning with the start of the GOP, - in audio frames based on the previously counted frames and the duration of the frame determined from the audio data format , for video frames based on the previously counted frames, the display position of the image from the "TEMPORAL SEQUENCE NUMBER" field from the "Picture Header" and the frame rate, the time referred to below as the raw time to which the frame is added as the previous frames are continuously output output is added to the raw time of the frame, this offset being determined from the synchronization information from the packet headers of the first packet of the system stream in which the first frame of this data stream begins, and this synchronization information being from the field "PRESENTATION TIME STAMP" in the "PACKETIZED ELEMENTA RY STREAM "header or / and from the" SYSTEM CLOCK REFERENCE "field are taken from the" PACKET HEADER ", - for each found frame the raw time of the frame plus offset is compared with the synchronization information of the frame, this synchronization information from the" PRESENTATION TIME STAMP "and / or the" SYSTEM CLOCK REFERENCE ", which in turn are taken from the first packet of the system stream in which data of the frame currently being examined is contained, and - is assumed to be one or more frames missing before the examined frame if raw time plus offset is less than the "PRESENTATION TIME STAMP" or / and the "SYSTEM CLOCK REFERENCE" of the first packet of the currently considered frame plus a security that is less than or equal to the time for the output of a frame. Verfahren zur Erkennung fehlender Rahmen (Frames) in Audio- und Videodatenströmen nach Patentanspruch 1, dadurch gekennzeichnet, dass bei Feststellung eines oder mehrerer vor dem betrachteten Frame verlorener Frames die Anzahl der verlorenen Frames ermittelt wird, in dem die Differenz von aus den Synchronisationsinformationen ermittelten Zeitstempel und der Summe aus Rohzeit und Offset durch die für den Datenstrom ermittelten Abspieldauer eines Frames geteilt und auf eine ganze Zahl gerundet (in der Regel abgerundet) wird.Detection of Missing Frames (Frames) in audio and video streams according to claim 1, characterized in that upon detection one or more frames lost before the frame under consideration the number of lost frames is determined, in which the difference of timestamps determined from the synchronization information and the sum of raw time and offset by those determined for the data stream Playback time of a frame divided and rounded to an integer (usually rounded). Verfahren zur Erkennung fehlender Rahmen (Frames) in Audio- und Videodatenströmen nach Patentanspruch 1 und Patentanspruch 2, dadurch gekennzeichnet, dass bei Feststellung eines oder mehrerer fehlender Frames nach der optionalen Durchführung einer der in den weiteren Patentansprüchen beschriebenen Korrekturen – der Offset des Datenstroms um die Abspielzeit der verlorenen Frames erhöht wird, oder – der für die Berechnung der Rohzeit herangezogene Offset Datenstroms um die Abspieldauer der verlorenen Frames erhöht wird.Detection of Missing Frames (Frames) in audio and video streams according to claim 1 and claim 2, characterized, that upon detection of one or more missing frames after the optional one execution one of the corrections described in the further claims - the offset the data stream is increased by the play time of the lost frames, or - of the for the Calculation of the raw time used offset data stream by the playback time the lost frames increased becomes. Verfahren zur Erkennung fehlender Rahmen (Frames) in Audio- und Videodatenströmen nach den Patentansprüchen 1 bis 3 und zur Korrektur der nachteiligen Auswirkungen dieser fehlenden Rahmen, dadurch gekennzeichnet, dass – vor der Weiterverarbeitung des digitalen Videos die Synchronisationsinformationen, die aus den Feldern „PRESENTATION TIME STAMP” im „PACKETIZED ELEMENTARY STREAM” Header oder/und aus dem Feld „SYSTEM CLOCK REFERENCE” aus dem „PACKET HEADER” des Paketes des Systemstroms, in dem ein Frame beginnt, beim zweiten und allen folgenden Frames des Datenstroms außerdem die Synchronisationsinformationen aus den Feldern „PRESENTATION TIME STAMP” im „PACKETIZED ELEMENTARY STREAM” Header oder/und aus dem Feld „SYSTEM CLOCK REFERENCE” aus dem „PACKET HEADER” des Paketes des Systemstroms, in dem das vorhergehende Frame beginnt, formatkonform für das MPEG-Protokoll des digitalen Videos (z. B. als User Data zusammen mit einer Kennung, an der dieser Benutzerdatenblock als ein von dem erfindungsgemäßen Verfahren erzeugter Datensatz erkannt werden kann) vor dem Frame in den Datenstrom eingefügt werden, wobei diese Einfügung entweder vor jedem einzelnen Frame, nur vor den Frames, vor denen sich der Inhalt der Synchronisationsinformationen ändert, oder optional zusammen mit der den verlorenen Frames entsprechenden Abspielzeit nur vor den Frames, vor denen verlorene Frames entdeckt wurden, erfolgt, und – in einem zweiten, erst nach der Weiterverarbeitung des digitalen Videos möglichen Schritt die Synchronisationsinformationen in den Feldern „PRESENTATION TIME STAMP” im „PACKETIZED ELEMENTARY STREAM” Header oder/und „SYSTEM CLOCK REFERENCE” aus dem „PACKET HEADER” eines jeden Paketes des bei der Weiterverarbeitung erzeugten Systemstroms unter Verwendung der vor der Weiterverarbeitung eingefügten Informationen wiederhergestellt werden.Method for detecting missing frames in audio and video data streams according to claims 1 to 3 and for correcting the adverse effects of these missing frames, characterized in that - before the further processing of the digital video, the synchronization information obtained from the fields "PRESENTATION TIME STAMP "in the" PACKETIZED ELEMENTARY STREAM "header or / and from the" SYSTEM CLOCK REFERENCE "field from the" PACKET HEADER "of the packet of the system stream in which a frame starts, in the second and all subsequent frames of the data stream also the synchronization information from the "PRESENTATION TIME STAMP" fields in the "PACKETIZED ELEMENTARY STREAM" header or / and from the "SYSTEM CLOCK REFERENCE" field from the "PACKET HEADER" of the system stream packet in which the previous frame starts, format conforming to the MPEG protocol of the digital Videos (eg as user data together with an identifier) this user data block can be recognized as a data record generated by the method according to the invention) may be inserted before the frame in the data stream, this insertion either before each individual frame, only before the frames before which the content of the synchronization information changes, or optionally together with the playtime corresponding to the lost frames only before the frames from which lost frames were detected, and - in a second step, which is only possible after further processing of the digital video, the synchronization information in the fields "PRESENTATION TIME STAMP" in the "PACKETIZED ELEMENTARY STREAM "header or / and" SYSTEM CLOCK REFERENCE "from the" PACKET HEADER "of each packet of the system stream generated during further processing using the information inserted prior to further processing. Verfahren zur Erkennung fehlender Rahmen (Frames) in Audio- und Videodatenströmen nach Patentanspruch 1 bis 3 und zur Korrektur der nachteiligen Auswirkungen dieser fehlenden Rahmen, dadurch gekennzeichnet, dass – anstatt jedes verlorenen Frames ein Frame, der vorzugsweise beim Anzeigen oder Abspielen nicht bemerkbar ist (z. B. ein stiller Audioframe oder ein B-Frame eines Videodatenstroms, in dem ein Standbild encodiert ist), in den Datenstrom eingefügt werden, wobei die eingefügten Frames während der Verarbeitung des zu überprüfenden Datenstroms unter Verwendung von aus diesem Datenstrom entnommenen Parametern erzeugt werden, oder – in der für das erfindungsgemäße Verfahren geschaffenen Vorrichtung mindestens ein Frame, der vorzugsweise beim Anzeigen nicht bemerkbarer ist, für jede für die von dieser Vorrichtung unterstützten Formate der Audio- und Videodatenströme zulässige Kombination von Parametern, die für das Encodieren relevant sind (wie z. B. Abtastfrequenz oder Auflösung), gespeichert sind, und dass aus diesen vorgehaltenen Frames der zu den Parametern des Datenstroms passende Frame anstatt eines jeden verlorenen Frames in diesen Datenstrom eingefügt wird.Detection of Missing Frames (Frames) in audio and video streams according to claim 1 to 3 and to correct the adverse effects this missing frame, characterized, that - instead of each frame lost a frame, preferably when viewing or playing is not noticeable (for example, a silent audio frame or a B frame of a video stream in which a still picture is encoded is) inserted in the data stream be, with the inserted Frames during the processing of the data stream to be checked using parameters extracted from this data stream be generated, or - in the for the inventive method created device at least one frame, preferably When viewing is not noticeable, for each of those from this device supported formats the audio and video streams permissible combination of parameters for the encoding are relevant (such as sampling frequency or resolution) stored are, and that from these reproached frames to the parameters the data stream matching frame instead of every lost frame inserted into this data stream becomes. Verfahren zur Erkennung fehlender Rahmen (Frames) in Audio- und Videodatenströmen nach Patentanspruch 1 bis 3 und zur Korrektur der nachteiligen Auswirkungen dieser fehlenden Rahmen, dadurch gekennzeichnet, dass – in die Audiodatenströme des Systemstroms mit dem Verfahren gemäß Patentanspruch 5 fehlende Audioframes eingefügt werden, und – aus den Audiodatenströmen des Systemstroms diejenigen Audioframes entfernt werden, deren Abspielzeitraum mit dem Abspielzeitraum fehlender Videoframes überlappt, und – die Anzahl der aus dem Audiodatenstrom wegen verlorener Videoframes entfernten Audioframes entweder am Beginn oder am Ende des Blocks der zu entfernenden Audioframes dergestalt reduziert wird, dass die Summe der Abspielzeiten der bisher aufgetretenen verlorenen Videoframes von der Summe der Abspielzeiten der bisher entfernten Audioframes um maximal die Abspieldauer eines einzelnen Audio- oder Videoframes abweicht.Detection of Missing Frames (Frames) in audio and video streams according to claim 1 to 3 and to correct the adverse effects this missing frame, characterized, that - in the Audio streams the system stream with the method according to claim 5 missing audio frames added be, and - out the audio data streams the system stream those audio frames are removed, their playing period overlaps with the playing period of missing video frames, and - the number which removed from the audio stream due to lost video frames Audio frames either at the beginning or at the end of the block to be removed Audioframes is reduced so that the sum of play times the previously occurred lost video frames from the sum of the play times the previously removed audio frames by a maximum of the playing time of a different audio or video frames. Verfahren zur Erkennung fehlender Rahmen (Frames) in Audio- und Videodatenströmen und zur Korrektur der nachteiligen Auswirkungen dieser fehlenden Rahmen nach einem oder mehreren der Patentansprüche 1 bis 6 dadurch gekennzeichnet, dass auf jeden der im Systemstrom vorhandenen Datenstromtypen (z. B. Audio- oder Videoframes) oder jedes der im Systemstrom vorhandenen Datenformate (z. B. MPEG 1 Layer 2 oder Dolby Digital bei einem Audiodatenstrom) aus den Verfahren nach nach Patentanspruch 4, 5 oder 6 ein eigenes Verfahren zur Korrektur der Auswirkungen verlorener Frames angewendet werden kann.Detection of Missing Frames (Frames) in audio and video streams and to correct the adverse effects of these missing ones Frame according to one or more of claims 1 to 6 characterized in that that on each of the data stream types present in the system stream (eg. Audio or video frames) or any of those present in the system stream Data formats (eg MPEG 1 Layer 2 or Dolby Digital with an audio data stream) from the method according to claim 4, 5 or 6 a separate Method used to correct the effects of lost frames can be. Verfahren zur Erkennung fehlender Rahmen (Frames) in Audio- und Videodatenströmen nach Patentanspruch 1 bis 3 und zur optionalen Korrektur der nachteiligen Auswirkungen dieser fehlenden Rahmen nach einem oder mehreren der Patentansprüche 4 bis 7, dadurch gekennzeichnet, dass es Teil eines Demultiplexers oder eines anderen Produkts wie z. B. eines Authoring-Produkts für DVD's, eines Videoschnittprodukts für digitale Videos, oder eines Encoders, dessen Funktionsumfang ein Demultiplexen von Systemströmen erforderlich macht, ist.Detection of Missing Frames (Frames) in audio and video streams according to claim 1 to 3 and for the optional correction of the disadvantageous Effects of these missing frames after one or more of the claims 4 to 7, characterized in that it is part of a demultiplexer or another product such as An authoring product for DVD's, a video editing product for digital Videos, or an encoder whose functionality is a demultiplexing of system currents is required. Vorrichtung zur Erkennung fehlender Rahmen (Frames) in Audio- und Videodatenströmen nach Patentanspruch 1 bis 3 und zur optionalen Korrektur der nachteiligen Auswirkungen dieser fehlenden Rahmen nach einem oder mehreren der Patentansprüche 4 bis 8, dadurch gekennzeichnet, dass sie – als eigenständige Lösung, oder – als Teil eines integrierten Videodigitalisierungsschaltkreises realisiert ist.Device for detecting missing frames in audio and video streams according to claim 1 to 3 and for the optional correction of the disadvantageous Effects of these missing frames after one or more of the claims 4 to 8, characterized, that she - as a standalone solution, or - as part an integrated video digitizing circuit realized is. Verfahren oder Vorrichtung zur Erkennung fehlender Rahmen (Frames) in Audio- und Videodatenströmen nach Patentanspruch 1 bis 3 und zur optionalen Korrektur der nachteiligen Auswirkungen dieser fehlenden Rahmen nach einem oder mehreren der Patentansprüche 4 bis 8, dadurch gekennzeichnet, dass die Zeitmarken, an denen fehlende Frames festgestellt und ggf. korrigiert wurden, – zu Auswertungszwecken angezeigt, und/oder – zur Weiterverarbeitung als Datei oder auf ein wechselbares Medium exportiert, und/oder – als Schnittmarken für das Schneiden des Videos vorgeschlagen, und/oder – als Kapitelmarken für die Gestaltung von Menues einer DVD oder eines anderen interaktiven Mediums vorgeschlagen werden.A method or apparatus for detecting missing frames in audio and video data streams according to claims 1 to 3 and for optionally correcting the adverse effects of said missing frames according to one or more of claims 4 to 8, characterized in that the timestamps are missing Frames have been detected and possibly corrected, - displayed for evaluation purposes, and / or - exported for further processing as a file or on a removable medium, and / or - proposed as crop marks for editing the video, and / or - proposed as chapter marks for the design of menus of a DVD or other interactive medium.
DE200510012668 2005-03-17 2005-03-17 Frame error detection and correction method for digital video Expired - Fee Related DE102005012668B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE200510012668 DE102005012668B4 (en) 2005-03-17 2005-03-17 Frame error detection and correction method for digital video

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE200510012668 DE102005012668B4 (en) 2005-03-17 2005-03-17 Frame error detection and correction method for digital video

Publications (2)

Publication Number Publication Date
DE102005012668A1 true DE102005012668A1 (en) 2010-05-20
DE102005012668B4 DE102005012668B4 (en) 2012-02-16

Family

ID=42104748

Family Applications (1)

Application Number Title Priority Date Filing Date
DE200510012668 Expired - Fee Related DE102005012668B4 (en) 2005-03-17 2005-03-17 Frame error detection and correction method for digital video

Country Status (1)

Country Link
DE (1) DE102005012668B4 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112491610A (en) * 2020-11-25 2021-03-12 云南电网有限责任公司电力科学研究院 FT3 message abnormity simulation test method for direct current protection
CN115171241A (en) * 2022-06-30 2022-10-11 南京领行科技股份有限公司 Video frame positioning method and device, electronic equipment and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6137920A (en) * 1996-05-01 2000-10-24 Hughes Electronics Corporation Method and system for generating image frame sequences using morphing transformations
US20030046711A1 (en) * 2001-06-15 2003-03-06 Chenglin Cui Formatting a file for encoded frames and the formatter
DE60020672T2 (en) * 2000-03-02 2005-11-10 Matsushita Electric Industrial Co., Ltd., Kadoma Method and apparatus for repeating the video data frames with priority levels

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU672070B2 (en) * 1993-02-26 1996-09-19 Sony Corporation Synchronization of audio/video information
US5768527A (en) * 1996-04-23 1998-06-16 Motorola, Inc. Device, system and method of real-time multimedia streaming
JPH10126772A (en) * 1996-10-18 1998-05-15 Chokosoku Network Computer Gijutsu Kenkyusho:Kk Dynamic image data transfer system
WO1998042132A1 (en) * 1997-03-17 1998-09-24 Matsushita Electric Industrial Co., Ltd. Method of processing, transmitting and receiving dynamic image data and apparatus therefor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6137920A (en) * 1996-05-01 2000-10-24 Hughes Electronics Corporation Method and system for generating image frame sequences using morphing transformations
DE60020672T2 (en) * 2000-03-02 2005-11-10 Matsushita Electric Industrial Co., Ltd., Kadoma Method and apparatus for repeating the video data frames with priority levels
US20030046711A1 (en) * 2001-06-15 2003-03-06 Chenglin Cui Formatting a file for encoded frames and the formatter

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112491610A (en) * 2020-11-25 2021-03-12 云南电网有限责任公司电力科学研究院 FT3 message abnormity simulation test method for direct current protection
CN112491610B (en) * 2020-11-25 2023-06-20 云南电网有限责任公司电力科学研究院 FT3 message anomaly simulation test method for direct current protection
CN115171241A (en) * 2022-06-30 2022-10-11 南京领行科技股份有限公司 Video frame positioning method and device, electronic equipment and storage medium
CN115171241B (en) * 2022-06-30 2024-02-06 南京领行科技股份有限公司 Video frame positioning method and device, electronic equipment and storage medium

Also Published As

Publication number Publication date
DE102005012668B4 (en) 2012-02-16

Similar Documents

Publication Publication Date Title
DE60212379T2 (en) METHOD AND DEVICE FOR DATA RECORDING
DE60102831T2 (en) SYSTEM AND METHOD FOR PROCESSING MPEG STROEMES FOR INSERTING FILE INDEX
DE60104013T2 (en) TRANSCODING PROGRESSIVE-ENCODED I-SLICE RECORDED MPEG DATA TRENDS FOR TRICK MODES
DE69535631T2 (en) Recording and playing back digital data
DE69934085T2 (en) RASTER-BASED EDITING OF CODED AUDIOVISUAL SEQUENCES
DE69910682T2 (en) Recording medium, data recording unit and data reproducing unit for reading from and writing on the recording medium
DE60003844T2 (en) ELIMINATING IMAGE DISORDERS IN MPEG SPECIAL PLAYBACK MODES
DE60313613T2 (en) ROBUST PROCEDURE TO GET AUDIO / VIDEO SYNCHRONIZATION IN MPEG DECODERS FOR PERSONAL VIDEO RECORDING APPLICATIONS
DE60223483T2 (en) A method of recording a digital broadcast program and time based replay of a recorded broadcast program and associated apparatus
DE60210611T2 (en) EFFICIENT TRANSMISSION AND PLAYING OF DIGITAL INFORMATION
DE60126478T2 (en) TRICKSET DEVICE FOR DIGITAL RECORDING MEDIUM
DE69637127T2 (en) Method and apparatus for grid accurate access to digital audiovisual information
DE69911551T2 (en) Medium for receiving information, apparatus and method for data acquisition or reproduction thereof
DE60203600T2 (en) METHOD AND DEVICE FOR STREAM IMPLEMENTATION, METHOD AND DEVICE FOR DATA RECORDING AND DATA RECORDING MEDIUM
DE60223807T2 (en) CHANGING THE PLAYBACK SPEED OF A VIDEO PRESENTATION RECORDED IN A PROGRESSIVE PICTURE IMAGE
KR102010513B1 (en) Method and apparatus for playing back recorded video
DE69535457T2 (en) Data recording and playback
DE69633365T2 (en) Method and device for recording data on a record carrier and method and device for reproducing the same, and a record carrier
JPH0832926A (en) Digital recording/reproducing device
DE10115084A1 (en) Coded data editing device e.g. for dividing moving image data into several data files in video camera, requires a definition device for defining an editing position for the coded data
DE69932297T2 (en) Information recording system and information recording method
DE60009337T2 (en) METHOD FOR PROCESSING SOURCE VIDEO MATERIAL FOR SLOW MOTION AND QUICK PLAYBACK ON THE RECORDING MEDIUM
US20110075994A1 (en) System and Method for Video Storage and Retrieval
DE60020872T2 (en) IMAGINE CUT WITHOUT DECODING AND RECORDING AN MPEG BITSTROM FOR WRITING DVD
DE19908488A1 (en) Method and device for reproducing digital data streams

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8122 Nonbinding interest in granting licenses declared
R018 Grant decision by examination section/examining division
R020 Patent grant now final

Effective date: 20120517

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20131001