DE69910360T2 - Audioinformationsverarbeitungsverfahren und -vorrichtung unter Verwendung von zeitangepassten kodierten Audioinformationsblöcken in Audio/Videoanwendungen zum Erleichtern von Tonumschaltung - Google Patents

Audioinformationsverarbeitungsverfahren und -vorrichtung unter Verwendung von zeitangepassten kodierten Audioinformationsblöcken in Audio/Videoanwendungen zum Erleichtern von Tonumschaltung Download PDF

Info

Publication number
DE69910360T2
DE69910360T2 DE69910360T DE69910360T DE69910360T2 DE 69910360 T2 DE69910360 T2 DE 69910360T2 DE 69910360 T DE69910360 T DE 69910360T DE 69910360 T DE69910360 T DE 69910360T DE 69910360 T2 DE69910360 T2 DE 69910360T2
Authority
DE
Germany
Prior art keywords
sound information
blocks
information
encoded
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69910360T
Other languages
English (en)
Other versions
DE69910360D1 (de
Inventor
Campbell Craig TODD
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dolby Laboratories Licensing Corp
Original Assignee
Dolby Laboratories Licensing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dolby Laboratories Licensing Corp filed Critical Dolby Laboratories Licensing Corp
Publication of DE69910360D1 publication Critical patent/DE69910360D1/de
Application granted granted Critical
Publication of DE69910360T2 publication Critical patent/DE69910360T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23602Multiplexing isochronously with the video sync, e.g. according to bit-parallel or bit-serial interface formats, as SDI
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • H04N21/2335Processing of audio elementary streams involving reformatting operations of audio signals, e.g. by converting from one coding standard to another
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2368Multiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4342Demultiplexing isochronously with video sync, e.g. according to bit-parallel or bit-serial interface formats, as SDI
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung bezieht sich ganz allgemein auf die Tonsignalverarbeitung bei Video/Audioanwendungen. Insbesondere betrifft die vorliegende Erfindung Blockkodierverfahren zum Kodieren von durch Lücken oder Schutzbänder getrennten Blockfolgen von Toninformation, so daß normale Schwankungen im Signalverarbeitungsverzug die Synchronisierung von Bild- und Toninformationen nicht aufheben.
  • STAND DER TECHNIK
  • Es sind schon mehrere internationale Normen entwickelt worden, in denen verschiedene Aspekte des Einbettens digitaler Toninformation in Rahmen von Bildinformation festgelegt sind. In der von der Society of Motion Picture and Television Engineers (SMPTE) veröffentlichten Norm SMPTE 259M ist beispielsweise eine serielle digitale Schnittstelle (Serial Digital Interface SDI) definiert, bei der bis zu vier Kanäle digitaler Toninformation in serielle digitale Teil- und zusammengesetzte Bildsignale eingefügt werden können. Eine vollständige Begriffsdefinition dessen, wie digitale Toninformation in Datenzusatzräume innerhalb von Rahmen von Videodaten einzubetten ist, findet sich in der Norm SMPTE 272M.
  • Die serielle Übertragung digitaler Audiodaten selbst ist Gegenstand verschiedener internationaler Normen. Beispielsweise ist in der von der Audio Engineering Society (AES) veröffentlichten Norm AES3 (ANSI S4.40) die serielle Übertragung von digitaler Zweikanal-Toninformation festgelegt, die in Form einer linearen Impulscodemodulation (pulse code modulation (PCM) dargestellt ist. Gemäß dieser Norm werden PCM-Abtastwerte für die zwei Kanäle verschachtelt und paarweise weitergeleitet.
  • Nahezu allen Aufzeichnungs- und Rundfunkanwendungsfällen ist das Editieren und Zerschneiden eingebetteter Video/Audiodatenströme und das Spleißen der abgetrennten Datenströme zu einem einzigen neuen Strom gemeinsam. Durch ähnliches Vorgehen wird ein Datenstrom durch das Verschmelzen mehrerer Datenströme oder durch Umschalten zwischen mehreren Strömen erzeugt. Die Bildinformation ist normalerweise die primäre Bezugsquelle für das Synchronisieren, so daß eine Editier- oder Trennstelle normalerweise mit einem Bildrahmen fluchtet.
  • In Normen, wie AES11, werden Praktiken zum Synchronisieren digitaler Audiogeräte im Studiobetrieb empfohlen. Die AES11 ist darauf ausgerichtet, durch Flattern oder Verarbeitungsverzug verursachte Ungewißheiten der Zeitsteuerung unter Kontrolle zu bekommen und bietet an, Videorahmeninformation mit den zwei Abtastwerte umfassenden Rahmen von digitalen AES3 Audiodaten strömen auszurichten. Wenn sich Geräte und Verfahren an diese Norm halten, kann gewährleistet werden, daß synchronisierte Signale die gleiche Anzahl Rahmen über eine gegebene Zeitspanne hinweg haben und Abtastwerte enthalten, die eine gemeinsame Zeitsteuerung besitzen. Leider gibt es gegenwärtig keine Normen oder Praktiken, die eine Synchronisation zwischen Bildinformation und größeren Intervallen von Toninformation festlegen. Folglich gibt es bei Geräten unterschiedlicher Hersteller, und selbst vom gleichen Hersteller, Schwankungen in der Zeitsteuerung und im Verarbeitungsverzug, durch die ein beträchtliches Maß an Ungewißheit in die relative Synchronisierung von Ton- und Bildinformationen eingeführt wird.
  • Diese Ungewißheit der Synchronisation hat nur geringe Konsequenzen in Anwendungsfällen, bei denen lineare Wiedergaben von Toninformation verwendet werden, wie beispielsweise in der AES3 Norm festgelegt. Da es eine Eingrenzung der Editierstellen gibt, gemäß der sie zwischen den Rahmen mit zwei Abtastwerten der Toninformation auftreten, hat eine mögliche Ungewißheit in der Video/Audiosynchronisation keinen Verlust an Toninformation zur Folge. Sie beeinflußt nur die relative Zeitsteuerung von Ton und Bild so wie sie einer Person vorgestellt werden, und da ist es unwahrscheinlich, daß dies wahrnehmbar ist.
  • Es gibt allerdings eine wachsende Zahl von Anwendungen, bei denen Kodiertechniken mit einer Verringerung der Bitrate herangezogen werden, um größere Zahlen von Tonkanälen in einen Video/Audiodatenstrom einzufügen. Diese Kodiertechniken werden häufig zum Abtasten von Blöcken mit 128 oder mehr Tonabtastwerten benutzt, um Blöcke kodierter Information zu erzeugen. Diese Abtastwertblöcke geben typischerweise Toninformationen wieder, die über ein Intervall von 3 bis 12 ms reichen. Jeder Block der mit diesen Kodierverfahren kodierten Daten gibt die kleinste Informationseinheit wieder, aus der eine hinreichend genaue Wiedergabe eines Segments der ursprünglichen Toninformation wiederhergestellt werden kann. Mit Teilbandkodierverfahren werden Bitraten dadurch reduziert, daß Frequenzteilbandwiedergaben eines Tonsignals einem Kodieren auf psychoakustischer Basis unterzogen werden. Die Frequenzteilbandwiedergaben können durch Anwenden einer Vielzahl von Bandpaßfiltern oder einer oder mehr Transformationen erzeugt werden. Um die Beschreibung zu vereinfachen, werden diese Teilbandkodiertechniken hier als das Anlegen einer Filterbank zum Erzeugen von Teilbandsignalen beschrieben.
  • Die oben erwähnte Ungewißheit hinsichtlich der Synchronisierung hat bei diesen Blockkodieranwendungen große Bedeutung, denn eine zwischen die Grenzen eines kodierten Blocks fallende Editierstelle führt dazu, daß ein Teil dieses Blocks vom restlichen Signal abgetrennt wird. Der teilweise Verlust eines kodierten Blocks manifestiert sich als Verlust einer Dauer von typischerweise 3 ms oder mehr in dem wiederhergestellten Signal. Es ist wahrscheinlich, daß ein solcher Verlust für das menschliche Hörsystem erkennbar wäre.
  • Diese Schwierigkeit läßt sich vermeiden, wenn man ein Nachverarbeitungsverfahren anwendet, bei dem eine PCM-Wiedergabe der ursprünglichen Tonsignale dadurch wiederhergestellt wird, daß auf das kodierte Tonsignal ein Dekodierprozeß angewandt wird, die wiederhergestellte PCM-Wiedergabe nach Bedarf editiert wird und durch Anwenden eines Kodierprozesses auf die editierte PCM-Toninformation eine neue kodierte Wiedergabe erzeugt wird. Wegen der zusätzlichen Kosten und der Verschlechterung der Tonqualität aufgrund der Dekodier/Neukodierverfahren ist diese Lösung uninteressant. Außerdem ist die Nachverarbeitung aus Gründen, die nach dem Lesen der folgenden Beschreibung besser verständlich sind, deshalb wenig reizvoll, weil durch die Dekodier/Neukodierverfahren zusätzliche Verzögerungen in den Audiodatenstrom gelangen.
  • OFFENBARUNG DER ERFINDUNG
  • Es ist eine Aufgabe der vorliegenden Erfindung, das Verarbeiten von eingebetteten Video/Audiodatenströmen so zu gestalten, daß Tätigkeiten wie Editieren und Umschalten möglich sind und dennoch die obigen Schwierigkeiten vermieden werden.
  • Gemäß den Lehren eines Aspektes der vorliegenden Erfindung wird bei einem Verfahren ein Toninformation übermittelndes Eingabetonsignal empfangen, und es werden Videorahmenreferenzen empfangen, die Zeitreferenzen für eine Folge von Videorahmen anzeigen, Blöcke kodierter Toninformation aus der Toninformation in einer Form mit reduzierter Bitrate erzeugt, indem das Eingabetonsignal einem Blockkodierverfahren unterzogen wird und die Blöcke kodierter Toninformation zeitkomprimiert werden, und es werden die zeitkomprimierten Blöcke zu einem kodierten Audiodatenstrom zusammengefügt, der eine Vielzahl von Folgen der zeitkomprimierten Blöcken aufweist, so daß ein Anfangsblock in einer jeweiligen Folge von einem Endblock in einer vorhergehenden Folge durch eine Lücke getrennt ist, die mit einem jeweiligen Videorahmenverweis zeitsynchronisiert ist.
  • Die verschiedenen Merkmale der vorliegenden Erfindung und die bevorzugten Ausführungsbeispiele derselben sind unter Hinweis auf die folgende Beschreibung und die beigefügten Zeichnungen, in denen gleiche Bezugszeichen gleiche Elemente in den verschiedenen Figuren kennzeichnen, besser verständlich. Der Inhalt der folgenden Beschreibung und der Zeichnungen wird lediglich als Beispiel angeführt und ist nicht als den Umfang der vorliegenden Erfindung einschränkend zu verstehen.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein Funktionsblockschaltbild eines Ausführungsbeispiels eines Systems zum Aufzeichnen und zur Leitwegbestimmung mehrerer Video/Audiodatenströme.
  • 2A bis 2C sind graphische Darstellungen hypothetischer Tonsignale, die verschiedene Ausrichtungen mit Videorahmenverweisen haben.
  • 3 ist ein Funktionsblockschaltbild eines Ausführungsbeispiels eines Gerätes zum Verarbeiten von Bildsignalen mit eingebetteter Toninformation.
  • 4 ist ein Funktionsblockschaltbild eines Ausführungsbeispiels eines Tonsignalprozessors zum Kodieren gemäß verschiedenen Aspekten der vorliegenden Erfindung.
  • 5A bis 5C sind graphische Darstellungen hypothetischer Tonsignale, die gemäß der vorliegenden Erfindung verarbeitet wurden und verschiedene Ausrichtungen mit Videorahmenverweisen haben.
  • 6 ist eine schematische graphische Darstellung überlappender Toninformationsblöcke, die mittels Fensterfunktionen gewichtet sind.
  • ART UND WEISE DER AUSFÜHRUNG DER ERFINDUNG
  • Systemüberblick
  • 1 veranschaulicht ein Ausführungsbeispiel eines Systems zum Aufzeichnen und zur Leitwegbestimmung mehrerer Video/Audiodatenströme und stellt ein Beispiel eines Systems dar, bei dem Aspekte der vorliegenden Erfindung mit Vorteil angewandt werden können. Aus Gründen der Klarheit sind weder in dieser Figur, noch in einer der anderen, Signalwege dargestellt, auf denen Haupttaktsignale zur Gerätesynchronisation geführt werden. Es wird hier davon ausgegangen, daß Signale, beispielsweise die längs Wegen 21, 22, 23 und 24 erzeugt werden, den Normen SMPTE 259M und SMPTE 272M entsprechen. Zum Ausführen der vorliegenden Erfindung ist allerdings weder eine bestimmte Norm, noch ein bestimmtes Signalformat wesentlich. Bei einem alternativen Ausführungsbeispiel des Systems werden beispielsweise getrennte Signale längs der Wege 21 bis 24 erzeugt, von denen jedes jeweilige Bildinformation und Toninformation übermittelt, und ein Router 31 umfaßt eine Schaltkreisanordnung, um Bild- und Toninformationen auf getrennte Leitwege zu schicken. In einem derartigen Ausführungsbeispiel ist zwischen einen SDI Einbetter 12 und den Router 31 ein SDI Ausbetter geschaltet. Dieses alternative Ausführungsbeispiel wird hier erwähnt, um zu zeigen, daß zum Ausführen der vorliegenden Erfindung kein bestimmtes Signalformat wesentlich ist.
  • Ein Videobandrekorder VTR 16 empfängt von einem Weg 1 Bildinformation und von einem Weg 2 Toninformation und zeichnet diese BiId/Toninformation auf ein Band auf. Anschließend liest der VTR 16 die auf dem Band aufgezeichnete Bild/Toninformation und erzeugt längs des Weges 21 ein Wiedergabesignal, welches die Bildinformation mit eingebetteter Toninformation übermittelt. Auf ähnliche Weise zeichnet ein VTR 17 von Wegen 3 und 4 empfangene Bild- bzw. Toninformation auf und erzeugt anschließend längs eines Weges 22 ein Wiedergabesignal, welches die Bildinformation mit eingebetteter Toninformation übermittelt.
  • VTR 16, VTR 17 und ein VTR 18 umfassen Schaltkreisanordnungen, beispielsweise einen SDI Einbetter zum Einfügen von Toninformation in die Bildinformation während der Wiedergabe.
  • Der SDI Einbetter 11 empfängt von Wegen 5 und 6 Bild- bzw. Toninformation und erzeugt längs eines Weges 14 ein Signal, welches digitale Bildinformation mit eingebetteter digitaler Toninformation übermittelt. Der VTR 18, der eine Schaltkreisanordnung wie einen SDI Ausbetter umfaßt, extrahiert aus dem Video/Audiodatensignal Toninformation und zeichnet die getrennte Bild- und Toninformation auf Band auf. Anschließend stellt der VTR 18 aus dem Band die Bild- und Toninformation wieder her und benutzt eine Schaltkreisanordnung, beispielsweise einen SDI Einbetter, um längs eines Weges 23 ein Wiedergabesignal zu erzeugen, welches die Bild- und eingebettete Toninformation übermittelt. Bei Ersatz des VTR 18 durch ein digitales Datenaufzeichnungsgerät ist jedoch im Aufzeichnungsgerät weder eine Einbettungs- noch eine Ausbettungsschaltung erforderlich, weil der Video/Audiodatenstrom selbst aufgezeichnet und wiedergegeben werden kann.
  • Der SDI Einbetter 12 empfängt von Wegen 7 und 8 Bild- bzw. Toninformation und erzeugt längs eines Weges 24 ein Signal, welches digitale Bildinformation mit eingebetteter digitaler Toninformation übermittelt.
  • Der SDI Router 31 empfängt Bild/Tonsignale von den Wegen 21, 22, 23 und 24 und lenkt oder schaltet diese Signale wahlweise längs eines Weges 34 zu einem Wiedergabe/Aufzeichnungsgerät 41. Die Anzahl der vom SDI Router 31 empfangenen Signale hat keine nennenswerte Bedeutung. Das Wiedergabe/Aufzeichnungsgerät 41 stellt ein willkürliches Gerät dar, welches das längs des Weges 34 gesandte Signal benutzt. Es kann sich beispielsweise um ein Aufzeichnungsgerät, wie einen VTR oder ein Wiedergabegerät, wie ein Fernsehgerät handeln. Ferner kann das Wiedergabe/Aufzeichnungsgerät 41 vom SDI Einbetter 31 entfernt angeordnet sein, und in diesem Fall stellt der Weg 34 einen Nachrichtenübermittlungs- oder Rundfunksendekanal dar.
  • Verschiebungen in der Bild/Tonsynchronisation
  • Die relative Ausrichtung zwischen Bildinformation und Toninformation kann durch Schaltkreisverzögerungen in den VTR 16, 17, 18 und SDI Einbettern 11 und 12 Änderungen erfahren. Demzufolge kann beispielsweise die Synchronisation von Bild/Toninformation im Wiedergabesignal 21 gegenüber der Synchronisation zwischen Videoinformation und Toninformation, wie sie von den Wegen 1 bzw. 2 empfangen wird, verschoben werden. Der Grad der Änderung in der Ausrichtung unterscheidet sich unter Geräten unterschiedlicher Hersteller, kann sich unter verschiedenen Geräteteilen des gleichen Herstellers unterscheiden und kann sogar innerhalb eines gegebenen Geräteteils, zum Beispiel als Funktion des Initialisierungszustands von Puffern, unterschiedlich sein.
  • In 2A stellt ein Signal 111 Toninformation dar, die eine bestimmte Ausrichtung mit Videorahmenverweisen 101 und 102 hat. Jeder dieser Videorahmenreferenzen zeigt einen bestimmten Bezugspunkt in einem jeweiligen Videorahmen an. Ein üblicher Bezugspunkt für NTSC Bildinformation fällt beispielsweise mit der Bildinformation für Zeile 10 in jedem Rahmen zusammen. Ein üblicher Bezugspunkt für PAL Bildinformation fällt mit Zeile 1 in jedem Rahmen zusammen. Für die Durchführung der vorliegenden Erfindung hat keine bestimmte Ausrichtung kritische Bedeutung.
  • In 2B stellt ein Signal 121 die gleiche Toninformation dar, wie die vom Signal 111 übermittelte, die allerdings gegenüber dem Signal 111 verzögert ist. Infolgedessen ist die Synchronisation zwischen dem Signal 121 und den Videorahmenreferenzen im Verhältnis zur Synchronisation für das Signal 111 verschoben. In 2C stellt ein Signal 131 die gleiche Toninformation dar wie die vom Signal 11 übermittelte, ist aber gegenüber dem Signal 111 vorausgeeilt, und folglich ist die Synchronisation zwischen dem Signal 131 und den Videorahmenreferenzen verschoben, aber entgegengesetzt zur Verschiebung der Synchronisation beim Signal 121.
  • Unter Hinweis auf 1 sei angenommen, daß die in 2A dargestellte Toninformation und Synchronisation über die Wege 1/2, 3/4, 5/6 und 7/8 übermittelt wird. Es ist wahrscheinlich, daß in den längs der Wege 21 bis 24 erzeugten Signalen unterschiedliche Verschiebungen in der Synchronisation, wie den in 2A bis 2C gezeigten, bestehen. Ferner sei angenommen, daß die in 2A bis 2C dargestellten Synchronisationen in den jeweils längs der Wege 21 bis 23 erzeugten Signalen bestehen. Wenn der SDI Router 31 zwischen den aus diesen drei Wegen empfangenen Signalen umschaltet, tritt eine kleine Diskontinuität in der Toninformation ein, die in das längs des Weges 34 weitergeleitete Signal eingebettet ist. Wenn die Toninformation in einer linearen Form, beispielsweise PCM, wiedergegeben ist, kann ein menschlicher Zuhörer diese Diskontinuität wahrscheinlich nicht bemerken, weil die Diskontinuität nur über wenige Abtastwerte besteht. Besonders schwierig wäre es, eine Diskontinuität zwischen zwei Signalen zu bemerken, die einen unterschiedlichen Toninhalt haben.
  • Auswirkungen des Kodierens
  • Wie oben schon gesagt, besteht allerdings zunehmendes Interesse daran, Tonkanäle in größerer Zahl in einen Video/Audiodatenstrom einzubetten. Wenn die Informationskapazität in dieser größeren Anzahl von Tonkanälen die für Toninformation verfügbare räumliche Kapazität überschreitet, wird irgendeine Art Komprimierung der Bandbreite oder Bitrate angewandt. Ein Beispiel einer solchen Komprimierung ist das Tonkodieren auf der Grundlage psychoakustischer Grundsätze.
  • Diese Kodiertechniken werden oft auf Blöcke von Tonabtastwerten angewandt, um Blöcke kodierter Information zu erzeugen. Diese Abtastwertblöcke stellen typischerweise Toninformation dar, die über ein Intervall von 3 bis 12 ms reicht. Jeder der mittels dieser Kodierverfahren erzeugten Blöcke kodierter Information stellt die kleinste Informationseinheit dar, aus der eine hinreichend genaue Wiedergabe eines Segments der ursprünglichen Toninformation wiederhergestellt werden kann.
  • Eine Folge kodierter Informationsblöcke 112 wird als Impulszug in 2A dargestellt. Die von diesen Blöcken übermittelte Information ist eine kodierte Wiedergabe der Toninformation im Signal 111. Die Gestalt und Größe dieser Impulse ist nicht entscheidend. Der Impulszug soll lediglich eine Folge von Blöcken angeben, welche kodierte Information entsprechend Blöcken von Tonabtastwerten übermitteln, die aneinander angrenzen oder vorzugsweise einander überlappen können. Bei dem in 2A gezeigten Beispiel ist die das Intervall zwischen einander benachbarten Videorahmenreferenzen überbrückende Toninformation von sechs Blöcken kodierter Information wiedergegeben. Eine Offenbarung verschiedener Überlegungen zur Qualitätsverbesserung der Tonkodierung bei Bild/Tonanwendungen findet sich in WO-A 99/21187.
  • Wenn im System gemäß 1 Blockkodiertechniken angewandt werden, enthalten die Signale, die der SDI Router 31 von den Wegen 21 bis 24 empfängt, in Blöcken kodierte Toninformation. Wie oben gesagt, können zwischen den kodierten Informationsblöcken und den Videorahmenreferenzen Verschiebungen in der Ausrichtung auftreten. Dies ist in den 2A, 2B und 2C durch unterschiedliche Synchronisation zwischen der Videorahmenreferenz 101 und beispielsweise den Blöcken 112, 122 bzw. 132 veranschaulicht.
  • Wie oben gesagt, sei beispielsweise angenommen, daß die in 2A bis 2C gezeigten Synchronisationen in den jeweils längs der Wege 21 bis 23 erzeugten Signalen bestehen. Wenn der SDI Router 31 an der Videorahmenreferenz 101 von dem über den Weg 22 empfangenen Signal, in 2B gezeigt, auf das über den Weg 23 empfangene Signal, in 2C gezeigt, umschaltet, kann eine signifikante Menge der Toninformation am Umschaltpunkt aus dem längs des Weges 23 weitergegebenen Signal nicht wiederhergestellt werden. Die im Block 123 vor dem Umschaltpunkt übermittelte Toninformation kann nicht wiedergewonnen werden, weil einerseits der gesamte Block zur Wiederherstellung der Toninformation nötig ist und andererseits der Teil des Blocks nach dem Umschaltpunkt fehlt. Ähnlich kann die im Block 133 nach dem Umschaltpunkt übermittelte Toninformation nicht wiedergewonnen werden, weil der Teil des Blocks 133 vor dem Umschaltpunkt fehlt.
  • Hierbei handelt es sich nicht um ein einmaliges Problem für die Art von System, die in 1 veranschaulicht ist. Das Problem tritt beispielsweise auch beim Bandeditieren oder Tonübeispielen für einen einzigen VTR auf.
  • Wie nachfolgend näher erläutert, wird dieses Problem mit der vorliegenden Erfindung dadurch überwunden, daß in dem kodierten Audiodatenstrom Schutzbänder oder Lücken gebildet werden, so daß eine beträchtliche Schwankungsbreite der Bild/Tonsynchronisation ohne Verlust an Toninformation hinnehmbar ist.
  • Kodier-Signalprozessor
  • 3 zeigt einen Bild/Tonsignalprozessor, der auf verschiedenerlei Weise in ein System, wie das in 1 dargestellte, eingebaut werden kann. Bei dem gezeigten Ausführungsbeispiel wird eine Vielzahl von Bildinformation mit eingebetteter Toninformation übermittelnden Signalen von Eingabesignalwegen 61-1, 61-2 und 61-3 empfangen. In der Figur sind drei Eingabesignalwege gezeigt; aber Ausführungsbeispiele der vorliegenden Erfindung können Signalwege für im wesentlichen jede beliebige Anzahl von Eingabesignalen haben. Ein Signalverteiler 62 steht für einen großen Bereich an Signalverteilungsprozessen, einschließlich Umschalten, Zusammenlegen, Editieren, Spleißen sowie Speichern/Wiedergewinnen. Aus Gründen der Einfachheit wird bei der Darstellung und Beschreibung hier davon ausgegangen, daß der Signalverteiler 62 eine Vielzahl von Bild/Tonsignalen empfängt und diese Signale auf die eine oder andere Weise verarbeitet und/oder verteilt, um längs eines Weges 63 ein einziges Signal zu erzeugen, welches Bildinformation mit eingebetteter Toninformation übermittelt. Ein Entformatierer 64 empfängt die Bild/Toninformation vom Weg 63, extrahiert die eingebettete Toninformation und leitet sie längs eines Weges 65 weiter. Die Bildinformation kann längs eines Weges 69 weitergegeben werden. Ein Tonsignalprozessor empfängt die Toninformation vom Weg 65 und unterzieht die Toninformation einem Blockkodierverfahren, um längs eines Weges 67 Blöcke kodierter Information zu erzeugen. Ein Formatierer 68 empfängt die Blöcke kodierter Information vom Weg 67 und erzeugt längs eines Weges 70 ein Ausgabesignal, welches eine Vielzahl von Blockfolgen kodierter Information mit Lücken oder Schutzbändern zwischen einem Anfangsblock in einer Folge und einem Endblock in einer vorhergehenden Folge aufweist. Mit Hilfe eines Bezugssignals, beispielsweise eines Haupttaktsignals, wird die Lücke oder das Schutzband mit der Bildinformation zeitlich synchronisiert.
  • Wie vorstehend erwähnt, zeigen die Figuren keine Signalwege, die Haupttaktsignale für die Gerätesynchronisation führen. Bei einem bevorzugten Ausführungsbeispiel bildet ein Tonsignalprozessor 66 Tonsignalblöcke, die mit dem Haupttaktsignal synchronisiert sind. Diese Synchronisierung ist in 2A dargestellt, wo Grenzen zwischen einander benachbarten Abtastwertblöcken mit den Videorahmenreferenzen 101 und 102 zusammenfallen. Es können aber auch andere Arten der Ausrichtung benutzt werden.
  • Wie aus 5A hervorgeht, übermittelt eine Blockfolge 112-2 ein kodierte Information wiedergebendes Signalsegment 111-2, bei dem es sich um eine hypothetische, zeitkomprimierte Wiedergabe des zwischen den Videorahmenreferenzen 101 und 102 liegenden Teils des Signals 111 handelt. Ähnlich übermittelt eine Blockfolge 112-1 kodierte Information, die ein Signalsegment 111-1 wiedergibt, und eine Blockfolge 112-3 übermittelt kodierte Information, die ein Signalsegment 111-3 wiedergibt. Vom Tonsignalprozessor 66 und Formatierer 68 werden Blocksequenzen erzeugt, die eine kodierte Wiedergabe der Toninformation übermitteln, in der beispielsweise ein Schutzband oder eine Lücke zwischen dem Endblock in der Folge 112-1 und dem Anfangsblock 112-2 gebildet wurde.
  • Die in 2A bis 2C gezeigten Verschiebungen in der Ausrichtung sind auch in den 5A bis 5C dargestellt. In diesen Figuren wird von der kodierten Information in den Folgen 122-1, 122-2, 122-3, 132-1, 132-2 und 132-3 kodierte Information übermittelt, die Signalsegmente 121-1, 121-2, 121-3, 131-1, 131-2 bzw. 131-3 wiedergibt. Wie aus den 5B und 5C zu entnehmen ist, kommt es nicht zu einem Verlust an Toninformation infolge von Verschiebungen der Ausrichtung, weil die Potentialumschaltpunkte an den Videorahmenreferenzen 101 und 102 innerhalb eines Schutzbandes liegen.
  • Der in 3 gezeigte Signalprozessor kann zum Beispiel in einen SDI Router eingebaut werden, um Videosignale zu verarbeiten, die eingebettete AES3 oder PCM Toninformation enthalten. Ein Ausführungsbeispiel unter Weglassung eines Signalverteilers 62 kann in einen VTR oder SDI Einbetter eingebaut werden. Ein weiteres Ausführungsbeispiel, bei dem auch der Entformatierer 64 weggelassen ist, kann in einen VTR oder in die Eingangsschaltkreise eines SDI Einbetters eingebaut werden.
  • 4 zeigt ein zum Einbau in das in 3 gezeigte Ausführungsbeispiel geeignetes Ausführungsbeispiel eines Kodier-Tonsignalprozessors, der auch noch eine getrennte weitere Verwendung hat. Gemäß diesem Ausführungsbeispiel weist der Tonsignalprozessor 66 eine Vielzahl von Filterbänken 71, 72 und 73 auf. Die Filterbank 71 erzeugt eine Vielzahl von Frequenzteilbandsignalen längs Wegen 75-1 bis 75-3 in Abhängigkeit von dem vom Weg 65-1 empfangenen Signal. Die Filterbank 72 erzeugt eine Vielzahl von Frequenzteilbandsignalen längs Wegen 76-1 bis 76-3 in Abhängigkeit von dem vom Weg 65-2 empfangenen Signal. Die Filterbank 73 erzeugt eine Vielzahl von Frequenzteilbandsignalen längs Wegen 77-1 bis 77-3 in Abhängigkeit von dem vom Weg 65-3 empfangenen Signal. Die Filterbänke 71, 72 und 73 können auf verschiedene Art und Weise, einschließlich einer Bandpaßfilterbank, eines Satzes von Bandaufteilungsfiltern in Kaskadenanordnung und einer oder mehr Transformationen von der Zeitdomäne in die Frequenzdomäne verwirklicht werden. Es sind nur drei Filterbänke gezeigt und für jede Filterbank nur drei Teilbandsignale; aber ein Ausführungsbeispiel kann viel mehr Filterbänke umfassen, die je vierundzwanzig oder mehr Teilbandsignale erzeugen, welche je Frequenzteilbänder darstellen, deren Bandbreiten den kritischen Bandbreiten des menschlichen Hörsystems entsprechen oder kleiner sind als diese. In einem Kodierer 79 werden die Teilbandsignale einem Blockkodierverfahren unterzogen, und längs eines Weges 67 wird eine Blockfolge erzeugt, die in einer kodierten Form die über die Wege 65-1, 65-2 und 65-3 empfangene Toninformation wiedergibt.
  • Das Teilbandkodieren ist nicht wesentlich zum Ausführen der vorliegenden Erfindung, sondern es können auch andere Formen der Kodierung, beispielsweise blockkompandierte PCM oder Deltamodulation angewandt werden.
  • Bei einem Ausführungsbeispiel in der Praxis empfängt ein Kodier-Tonsignalprozessor acht Kanäle Toninformation in linearer PCM-Form oder, gemäß einer Alternative, vier AES3 Datenströme und arbeitet mit acht Filterbänken und einem Kodierer, der ein Blockkodierverfahren anwendet, um Blöcke kodierter Information mit Schutzbändern zu erzeugen, die in einem Raum oder einer Bandbreite übermittelt werden können, welche nicht größer ist als die zum Übermitteln von zwei Kanälen von Toninformation in linearer PCM-Form oder, alternativ, eines einzigen AES3 Datenstroms benötigte.
  • Überlappende Blöcke und Fensterfunktionen
  • Der in den Figuren zur Darstellung von Informationsblöcken verwendete Impulszug läßt darauf schließen, daß einander benachbarte Blöcke zwar aneinandergrenzen, sich aber nicht überlappen. Es ist zwar keine bestimmte Anordnung von Blöcken für die Ausübung der vorliegenden Erfindung von kritischer Bedeutung, aber bevorzugte Ausführungsbeispiele verarbeiten Blöcke, die einander überlappen. Insgesamt werden überlappende Blöcke von Toninformation mittels einer Fensterfunktion gewichtet oder moduliert, so daß die Summe überlappender Abtastwerte in einander benachbarten Blöcken im wesentlichen eine Konstante ist.
  • 6 veranschaulicht eine Blockfolge. Ein Anfangsblock 141 in der Folge überlappt den benachbarten Block 142. Alle Blöcke in der Folge sind durch eine Hüllkurve dargestellt, welche die Gestalt einer Fensterfunktion hat, die zum Gewichten entsprechender Toninformation in der Zeitdomäne benutzt wird. Ein Endblock 146 in der Folge überlappt den vorhergehenden Block sowie einen in der Figur nicht gezeigten, nachfolgenden Block. Das Ausmaß der Überlappung und die Wahl der Fensterfunktion kann signifikante Auswirkungen auf die Kodierleistung haben; aber für die vorlie gende Erfindung ist keine bestimmte Fensterfunktion und kein bestimmtes Ausmaß der Überlappung von kritischer Bedeutung. Bei bevorzugten Ausführungsbeispielen beträgt das Ausmaß der Überlappung einer Hälfte der Blocklänge, und die Fensterfunktion ist von der Kaiser-Bessel-Funktion abgeleitet.
  • Wie oben erwähnt, erzeugt ein Tonsignalprozessor 86 Toninformation, die mit Videorahmenreferenzen synchronisiert ist. In Ausführungsbeispielen, mit denen Blockfolgen von Toninformation erzeugt werden, kann die Ausrichtung so gewählt sein, daß eine Videorahmenreferenz mit im wesentlichen jedem beliebigen Punkt in einem Block der Folge zusammenfällt. Bei dem in 6 gezeigten Beispiel fällt der Anfang des Anfangsblocks 141 mit der Videorahmenreferenz 100 zusammen.
  • In manchen Anwendungsfällen kann sich der exakte Punkt des Zusammenfallens von Videorahmen zu Videorahmen unterscheiden. In Anwendungsfällen, in denen beispielsweise digitale Toninformation mit NTSC Bildinformation kombiniert wird, können aufeinanderfolgende Videorahmen unterschiedliche Anzahlen von Tonabtastwerten enthalten, weil die Tonabtastrate kein ganzes Vielfaches der Videorahmenrate ist.
  • Verschiedene Überlegungen zur Blocklänge, Fensterfunktion sowie Bild/Tonsynchronisation sind in der oben schon erwähnten WO-A 99/21187 erörtert.

Claims (12)

  1. Verfahren zum Verarbeiten von Toninformation, aufweisend: Empfangen eines Eingabetonsignals, welches die Toninformation übermittelt, Empfangen von Videorahmenreferenzen, welche Zeitreferenzen für eine Folge von Videorahmen anzeigen, Erzeugen von Blöcken kodierter Toninformation aus der Toninformation in einer Form mit reduzierter Bitrate durch Anwenden eines Blockkodierverfahrens auf das Eingabetonsignal und Zeitkomprimieren der Blöcke kodierter Toninformation, und Zusammenfügen der zeitkomprimierten Blöcke zu einem kodierten Audiodatenstrom, der eine Vielzahl von Folgen der zeitkomprimierten Blöcke aufweist, so daß ein Anfangsblock in einer jeweiligen Folge von einem Endblock in einer vorhergehenden Folge durch eine Lücke getrennt ist, die mit einer jeweiligen Videorahmenreferenz zeitlich synchronisiert ist.
  2. Verfahren nach Anspruch 1, bei dem das Blockkodierverfahren die Toninformation zu einer Form kodiert, die weniger Redundanz und/oder weniger perzeptuelle Irrelevanz enthält.
  3. Verfahren nach Anspruch 2, bei dem das Blockkodierverfahren aufweist: entweder eine Bandpaßfilterbank oder eine oder mehrere Transformationen auf das Eingabetonsignal anzuwenden, um eine Vielzahl von Frequenzteilbanddarstellungen des Eingabetonsignals zu erzeugen, und die Blöcke kodierter Toninformation durch adaptive Zuteilung von Bits zu den Frequenzteilbanddarstellungen entsprechend psychoakustischen Grundsätzen zu erzeugen.
  4. Verfahren nach einem der Ansprüche 1 bis 3, bei dem die Videorahmen in einer Vielzahl von Bildzeilen angeordnete Bildinformation aufweisen und jede der Lücken eine Dauer hat, die länger ist als die von drei Bildzeilen.
  5. Verfahren nach einem der Ansprüche 1 bis 3, bei dem jeder der Videorahmen eine Dauer hat, die einem Rahmenintervall gleich ist und die Dauer der Lücken innerhalb eines Bereichs von etwa einem Prozent des Rahmenintervalls bis zu etwa zwanzig Prozent des Rahmenintervalls liegt.
  6. Verfahren nach einem der Ansprüche 1 bis 5, bei dem das Blockkodierverfahren auf überlappende Blöcke von Toninformation angewandt wird.
  7. Vorrichtung zum Verarbeiten von Toninformation, aufweisend: eine Einrichtung zum Empfangen eines Eingabetonsignals, welches die Toninformation übermittelt, eine Einrichtung zum Empfangen von Videorahmenreferenzen, welche Zeitreferenzen für eine Folge von Videorahmen anzeigen, eine Einrichtung zum Erzeugen von Blöcken kodierter Toninformation aus der Toninformation in einer Form mit reduzierter Bitrate durch Anwenden eines Blockkodierverfahrens auf das Eingabetonsignal und Zeitkomprimieren der Blöcke kodierter Toninformation, und eine Einrichtung zum Zusammenfügen der zeitkomprimierten Blöcke zu einem kodierten Audiodatenstrom, der eine Vielzahl von Folgen der zeitkomprimierten Blöcke aufweist, so daß ein Anfangsblock in einer jeweiligen Folge von einem Endblock in einer vorhergehenden Folge durch eine Lücke getrennt ist, die mit einer jeweiligen Videorahmenreferenz zeitsynchronisiert ist.
  8. Vorrichtung nach Anspruch 7, bei der im Blockkodierverfahren die Toninformation zu einer Form kodiert wird, die weniger Redundanz und/oder weniger perzeptuelle Irrelevanz enthält.
  9. Vorrichtung nach Anspruch 8, bei der das Blockkodierverfahren aufweist: eine Einrichtung, mit der entweder eine Bandpaßfilterbank oder eine oder mehrere Transformationen auf das Eingabetonsignal angewandt werden, um eine Vielzahl von Frequenzteilbanddarstellungen des Eingabetonsignals zu erzeugen, und eine Einrichtung, mit der die Blöcke kodierter Toninformation durch adaptive Zuteilung von Bits zu den Frequenzteilbanddarstellungen entsprechend psychoakustischen Grundsätzen erzeugt werden.
  10. Vorrichtung nach einem der Ansprüche 7 bis 9, bei der die Videorahmen in einer Vielzahl von Bildzeilen angeordnete Bildinformation aufweisen und jede der Lücken eine Dauer hat, die länger ist als die von drei Bildzeilen.
  11. Vorrichtung nach einem der Ansprüche 7 bis 9, bei der jeder der Videorahmen eine Dauer gleich einem Rahmenintervall hat und die Dauer der Lücken innerhalb eines Bereichs von etwa einem Prozent des Rahmenintervalls bis zu etwa zwanzig Prozent des Rahmenintervalls liegt.
  12. Vorrichtung nach einem der Ansprüche 7 bis 11, bei der die Einrichtung, mit der die Blöcke kodierter Toninformation erzeugt werden, das Blockkodierverfahren auf überlappende Blöcke der Toninformation anwendet.
DE69910360T 1998-03-13 1999-03-11 Audioinformationsverarbeitungsverfahren und -vorrichtung unter Verwendung von zeitangepassten kodierten Audioinformationsblöcken in Audio/Videoanwendungen zum Erleichtern von Tonumschaltung Expired - Lifetime DE69910360T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US09/042,367 US6085163A (en) 1998-03-13 1998-03-13 Using time-aligned blocks of encoded audio in video/audio applications to facilitate audio switching
US42367 1998-03-13
PCT/US1999/005249 WO1999046938A1 (en) 1998-03-13 1999-03-11 Method of embedding compressed digital audio signals in a video signal using guard bands

Publications (2)

Publication Number Publication Date
DE69910360D1 DE69910360D1 (de) 2003-09-18
DE69910360T2 true DE69910360T2 (de) 2004-06-24

Family

ID=21921528

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69910360T Expired - Lifetime DE69910360T2 (de) 1998-03-13 1999-03-11 Audioinformationsverarbeitungsverfahren und -vorrichtung unter Verwendung von zeitangepassten kodierten Audioinformationsblöcken in Audio/Videoanwendungen zum Erleichtern von Tonumschaltung

Country Status (17)

Country Link
US (1) US6085163A (de)
EP (1) EP1062816B1 (de)
JP (1) JP4402834B2 (de)
KR (1) KR100675562B1 (de)
CN (1) CN1172536C (de)
AR (2) AR014716A1 (de)
AT (1) ATE247363T1 (de)
AU (1) AU760400B2 (de)
BR (1) BR9909247B1 (de)
CA (1) CA2323564C (de)
DE (1) DE69910360T2 (de)
DK (1) DK1062816T3 (de)
ES (1) ES2203101T3 (de)
HK (1) HK1036721A1 (de)
MY (1) MY125807A (de)
TW (1) TW473702B (de)
WO (1) WO1999046938A1 (de)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6188987B1 (en) * 1998-11-17 2001-02-13 Dolby Laboratories Licensing Corporation Providing auxiliary information with frame-based encoded audio information
US6690428B1 (en) * 1999-09-13 2004-02-10 Nvision, Inc. Method and apparatus for embedding digital audio data in a serial digital video data stream
US8503650B2 (en) * 2001-02-27 2013-08-06 Verizon Data Services Llc Methods and systems for configuring and providing conference calls
US7277427B1 (en) * 2003-02-10 2007-10-02 Nvision, Inc. Spatially distributed routing switch
EP1797658A1 (de) 2004-10-07 2007-06-20 Thomson Licensing Audio/video-router
WO2008071353A2 (en) 2006-12-12 2008-06-19 Fraunhofer-Gesellschaft Zur Förderung Der Angewandten Forschung E.V: Encoder, decoder and methods for encoding and decoding data segments representing a time-domain data stream
CA2672418C (en) 2006-12-20 2018-06-12 Thomson Licensing Embedded audio routing switcher
US20110187927A1 (en) * 2007-12-19 2011-08-04 Colin Simon Device and method for synchronisation of digital video and audio streams to media presentation devices
EP2242047B1 (de) * 2008-01-09 2017-03-15 LG Electronics Inc. Verfahren und vorrichtung zur identifizierung von rahmentypen
TWI591625B (zh) 2009-05-27 2017-07-11 杜比國際公司 從訊號的低頻成份產生該訊號之高頻成份的系統與方法,及其機上盒、電腦程式產品、軟體程式及儲存媒體
US11657788B2 (en) 2009-05-27 2023-05-23 Dolby International Ab Efficient combined harmonic transposition

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4532556A (en) * 1983-05-20 1985-07-30 Dolby Laboratories Licensing Corporation Time-base correction of audio signals in video tape recorders
US5632005A (en) * 1991-01-08 1997-05-20 Ray Milton Dolby Encoder/decoder for multidimensional sound fields
JP3329076B2 (ja) * 1994-06-27 2002-09-30 ソニー株式会社 ディジタル信号伝送方法、ディジタル信号伝送装置、ディジタル信号受信方法及びディジタル信号受信装置
EP0734021A3 (de) * 1995-03-23 1999-05-26 SICAN, GESELLSCHAFT FÜR SILIZIUM-ANWENDUNGEN UND CAD/CAT NIEDERSACHSEN mbH Verfahren und Vorrichtung zur Dekodierung digitaler, im MPEG-Format Layer 1 oder 2 kodierter Audiodaten
US5819215A (en) * 1995-10-13 1998-10-06 Dobson; Kurt Method and apparatus for wavelet based data compression having adaptive bit rate control for compression of digital audio or other sensory data
US5860060A (en) * 1997-05-02 1999-01-12 Texas Instruments Incorporated Method for left/right channel self-alignment
US5946352A (en) * 1997-05-02 1999-08-31 Texas Instruments Incorporated Method and apparatus for downmixing decoded data streams in the frequency domain prior to conversion to the time domain

Also Published As

Publication number Publication date
BR9909247B1 (pt) 2014-08-26
EP1062816A1 (de) 2000-12-27
CN1172536C (zh) 2004-10-20
AR021444A2 (es) 2002-07-17
BR9909247A (pt) 2000-11-28
EP1062816B1 (de) 2003-08-13
JP2002507101A (ja) 2002-03-05
ES2203101T3 (es) 2004-04-01
KR100675562B1 (ko) 2007-01-29
AU760400B2 (en) 2003-05-15
CA2323564A1 (en) 1999-09-16
MY125807A (en) 2006-08-30
HK1036721A1 (en) 2002-01-11
AR014716A1 (es) 2001-03-28
TW473702B (en) 2002-01-21
CA2323564C (en) 2008-05-13
JP4402834B2 (ja) 2010-01-20
DE69910360D1 (de) 2003-09-18
CN1292979A (zh) 2001-04-25
DK1062816T3 (da) 2003-11-03
WO1999046938A1 (en) 1999-09-16
KR20010040826A (ko) 2001-05-15
ATE247363T1 (de) 2003-08-15
AU3183099A (en) 1999-09-27
US6085163A (en) 2000-07-04

Similar Documents

Publication Publication Date Title
DE69910834T2 (de) Kodierung von zusatzinformation mit rahmenbasierter kodierter audioinformation
EP0276753B1 (de) Verfahren und Vorrichtung zur digitalen Nachrichtenübertragung und/oder -aufzeichnung und -wiedergabe
AT391577B (de) Verfahren zum verarbeiten von digitalen videound audiodaten in einem aufzeichnungs- und/oder wiedergabegeraet
DE69408237T3 (de) Vorrichtung zur Komprimierung/Dekomprimierung von Videosignalen in einer Videoplattenaufzeichnungs-/wiedergabegerät
DE69534267T2 (de) Aufnahme und Wiedergabe eines MPEG-Informationssignals auf/von einem Aufnahmeträger
AT391576B (de) Digital-videobandaufzeichnungsgeraet
DE3038594C2 (de) Verfahren zum Aufzeichnen eines digitalisierten Farb-Videosignals und Vorrichtung zur Wiedergabe
DE2915459A1 (de) Digitalsignalfehlerkorrekturverfahren und -geraet
DE3115902A1 (de) Digitales videodaten-aufzeichnungs- und/oder -wiedergabegeraet
DE69910360T2 (de) Audioinformationsverarbeitungsverfahren und -vorrichtung unter Verwendung von zeitangepassten kodierten Audioinformationsblöcken in Audio/Videoanwendungen zum Erleichtern von Tonumschaltung
DE69835990T2 (de) Audio-Codierer/-decodierer hoher Qualität
DE2901034C3 (de) Verfahren und Schaltungsanordnung zur Komprimierung und Dekomprimierung von Analogsignalen in digitaler Form
DE4321488C2 (de) Digitales magnetisches Aufzeichnungsverfahren und Aufzeichnungsgerät
DE19511246C5 (de) Digitaler Videobandrekorder
DE3209112A1 (de) Audiosignalaufzeichnungsvorrichtung
DE69734548T2 (de) Verfahren und Vorrichtung zur magnetischen Wiedergabe
EP0262362B1 (de) Verfahren zur Aufzeichnung und Wiedergabe des in einem Fernsehsignal übertragenen Datenpakets
DE3034716C2 (de) Magnetband mit Schrägspuraufzeichnung zeitlich komprimierter Ton- und Bildinformationssignalteile sowie Aufnahme- und Wiedergabevorrichtung hierfür
DE69932407T2 (de) Aufnahmevorrichtung zur aufnahme eines digitalen informationssignals auf einem aufnahmeträger
DE69432631T2 (de) Multiplexieren in einem System zur Kompression und Expandierung von Daten
DE4241465A1 (de)
DE3304796C2 (de)
DE3744077C2 (de)
DE19546327C2 (de) Verfahren zur transparenten Aufzeichnung und Wiedergabe von zeitkritischen digitalen Datenströmen
DE19503529A1 (de) Verfahren zum Übertragen oder Speichern eines Datenstroms aus digitalisierten, codierten Bild-, Ton- und/oder Datensignalen

Legal Events

Date Code Title Description
8364 No opposition during term of opposition