AT391577B - Verfahren zum verarbeiten von digitalen videound audiodaten in einem aufzeichnungs- und/oder wiedergabegeraet - Google Patents

Verfahren zum verarbeiten von digitalen videound audiodaten in einem aufzeichnungs- und/oder wiedergabegeraet Download PDF

Info

Publication number
AT391577B
AT391577B AT0164281A AT164281A AT391577B AT 391577 B AT391577 B AT 391577B AT 0164281 A AT0164281 A AT 0164281A AT 164281 A AT164281 A AT 164281A AT 391577 B AT391577 B AT 391577B
Authority
AT
Austria
Prior art keywords
data
digital
signal
video
channels
Prior art date
Application number
AT0164281A
Other languages
English (en)
Other versions
ATA164281A (de
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of ATA164281A publication Critical patent/ATA164281A/de
Application granted granted Critical
Publication of AT391577B publication Critical patent/AT391577B/de

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/808Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the composite colour video-signal
    • H04N9/8085Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the composite colour video-signal with processing of the sound signal
    • H04N9/8087Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the composite colour video-signal with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • H04N9/8088Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the composite colour video-signal with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals with insertion of the PCM audio signals in the vertical blanking interval of the PCM video signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/18Error detection or correction; Testing, e.g. of drop-outs
    • G11B20/1806Pulse code modulation systems for audio signals
    • G11B20/1809Pulse code modulation systems for audio signals by interleaving
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/926Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation
    • H04N5/9265Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation with processing of the sound signal
    • H04N5/9267Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • H04N5/9268Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals with insertion of the PCM audio signals in the vertical blanking interval of the PCM video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/808Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the composite colour video-signal

Description

Nr. 391 577
Die Erfindung betrifft ein Verfahren zum Verarbeiten von digitalen Video- und Audiodaten in einem Aufzeichnungs- und/oder Wiedergabegerät durch Zeitkomprimieren der digitalen Daten, Ergänzen der digitalen Daten mit Zusatzsignalen wie Adresseninformationen, Fehlerkorrekturcodes usw., Durchmischung der digitalen Daten in Zeitmultiplex um eine serielle Signalfolge zu erhalten, allenfalls Ergänzen mit Fehlerkorrekturdaten und Aufteilen der digitalen Daten auf eine Mehrzahl von Aufzeichnungsvorrichtungen.
Wie bekannt ist, wird ein Videosignal üblicherweise frequenzmoduliert, um dann auf einem Videoband aufgezeichnet und wiedergegeben zu werden. Neuerlich wird die digitale Videoverarbeitung bei Studioeinrichtungen populär, so daß eine solche Digitalisierung auch bei einem Videorecorder benötigt wird.
Ein digitaler Videorecorder hat viele Vorteile, aber es erübrigt sich, daß darauf im Detail eingegangen wird. Bei dieser Art von Videorecorder ist jedoch eine hohe Aufzeichnungsdichte erforderlich, und zu diesem Zweck wurden bisher verschiedene Aufzeichnungssysteme entwickelt Das Hauptinteresse der Entwicklung ist jedoch derzeit auf die digitale Aufzeichnung eines Videosignals und in geringem Maße auf ein Audiosignal ausgerichtet.
Bei einem bestimmten Versuchs-Videorecorder wurde ein Audiosignal auf einer longitudinalen Aufzeichnungsspur wie bei einem herkömmlichen analogen Videorecorder aufgezeichnet Des weiteren wurden bei einem digitalen Videorecordersystem ein digitalisiertes Audiosignal und ein digitalisiertes Videosignal durch rotierende Magnetköpfe aufgezeichnet wobei die entsprechenden Signale getrennt 1 verarbeitet wurden. Beispielsweise wurde—der Spuren den digitalisierten Audiosignalen zugeteilt Da 10 bei diesem System die Audio- und Videosignale getrennt verarbeitet wurden, gestaltete sich die Hardware kompliziert.
Aufgabe der Erfindung ist daher die Schaffung eines neuen Verfahrens zum Verarbeiten von digitalen Video-und Audiodaten in einem digitalen Aufzeichnungs- und/oder Wiedergabegerät bei welchem die Autiodaten ebenfalls durch rotierende Magnetköpfe aufgezeichnet und/oder wiedergegeben werden.
Gemäß einem Merkmal der Erfindung ist das eingangs dargestellte Verfahren dadurch gekennzeichnet, daß die Gruppen von digitalen Video- bzw. Audiosignalen getrennt zeitkomprimiert, anschließend in Untergruppen unterteilt und nach der Durchmischung in Zeitmultiplex die digitalen Daten in einer Mehrzahl von Kanälen zur gleichzeitigen Aufzeichnung durch rotierende Magnetköpfe in einer Mehrzahl von parallelen Spuren aufgeteilt werden.
Weitere Merkmale, Besonderheiten und Vorteile der Erfindung werden nachfolgend anhand der Zeichnung erläutert. Es zeigen Fig. 1 ein Blockschaltbild mit dem gesamten System eines Beispiels eines erfindungsgemäßen Gerätes, Fig. 2 ein Blockschaltbild eines Beispiels eines digitalen Verarbeitungskreises der Aufzeichnungsseite eines digitalen Videoverarbeitungskreises (video processor), Fig. 3 ein Blockschaltbild eines Beispiels eines digitalen Verarbeitungskreises der Wiedergabeseite desselben, Fig. 4 ein Blockschaltbild eines anderen Beispiels eines digitalen Verarbeitungskreises der Aufzeichnungsseite des digitalen Videoverarbeitungskreises, Fig. 5 ein Blockschaltbild eines anderen Beispiels eines digitalen Verarbeitungskreises der Wiedergabeseite desselben, Fig. 6 eine schematische Darstellung zur Erläuterung eines Beispiels einer rotierenden Magnetkopfanordnung eines Videorecorders, Fig. 7 einen Ausschnitt eines Beispiels eines Spuraufzeichnungsmusters, Fig. 8 und 9 entsprechende Darstellungen der Signalformen digital aufgezeichneter Farbvideo- und Audiosignale, Fig. 10 die Darstellung eines Beispiels eines Fehleranzeigegerätes, und Fig. 11 bis 13 entsprechende Darstellungen zur Erläuterung anderer Beispiele der Erfindung.
Fig. 1 zeigt ein Blockschaltbild eines gesamten Systems eines Beispiels eines digitalen Video- und Audio-Datenaufzeichnungs- und/oder Wiedergabegerätes gemäß der Erfindung, wobei auch ein elektronischer Schnitt in Betracht gezogen wurde.
In Fig. 1 bezeichnet (1) einen digitalen Verarbeitungskreis, welcher einen ersten Verarbeitungskreis (DVP-1) mit einem A/D-Umsetzer, einem D/A-Umsetzer und einem Signalgenerator für die Erzeugung verschiedener Arten von Takt- und Zeitablaufsignalen (timing signals) enthält, sowie einen zweiten Verarbeitungskreis (DVP-2) zum Verarbeiten eines digitalisierten Videosignals zum Aufzeichnen, einen dritten Verarbeitungskreis (DVP-3) zum Verarbeiten der wiedergegebenen digitalen Videosignale und einen Datenanalysator (ANA), welcher eine Fehleranzeigefunktion aufweist.
Das Bezugszeichen (2) bezeichnet eine Fernsehkamera, (3) und (4) bezeichnen Videorecorder, deren Kopfmechanik und deren zugeordnete Schaltkreise etwas von denen eines herkömmlichen Videorecorders abweichen.
Das Bezugszeichen (5) bezeichnet einen Monitor-Fernsehempfänger zum Darstellen des wiedergegebenen Videosignals und (6) bezeichnet einen Monitor-Fernsehempfänger zur Darstellung eines Fehlers mit Hilfe des Datenanalysators (ANA). Ferner bezeichnet (7) einen digitalen Audioverarbeitungskreis, welcher einem leicht modifizierten PCM-Adapter gleicht und zur Anwendung entwickelt wurde, wenn ein Audiosignal in ein PCM-Signal umgesetzt und dann durch einen Videorecorder aufgezeichnet und/oder wiedergegeben wird. Das Bezugszeichen (8) bezeichnet eine Audioschnittstelle zur Verbindung des digitalen Videoprozessors (1) mit dem digitalen Audioprozessor (7). In diesem Falle sind sechzehn Kanäle (CH]) bis (CHjg) für die Audiosignale -2-
Nr. 391 577 gewählt, und Paare von Mikrophonen (Mj) bis (M^) und Lautsprecher (SPj) bis (SP^) sind entsprechend maximal anschließbar.
Ferner kann ein Fernsteuergerät (9) Femsteuersignale erzeugen, welche zur Steuerung des digitalen Verarbeitungskreises (1), der Videorecorder (3) und (4) und des digitalen Verarbeitungskreises (7) verwendet worden kann.
Wenn ein Farbvideosignal digitalisiert und anschließend durch einen einzigen rotierenden Magnetkopf aufgezeichnet wird, so wird die Bitrate des Aufzeichnungssignals sehr groß sein, und der Bandverbrauch nimmt enorm zu. Deshalb werden die digitalisierten Videosignale in eine Mehrzahl von Kanälen unterteilt und dann durch eine Mehrzahl von rotierenden Magnetköpfen auf einem Band als Mehrfachspurmuster aufgezeichnet.
Gemäß einem Beispiel der Erfindung nach Fig. 1 wird das Farbvideosignal in ein digitales Signal umgesetzt, und diese digitalisierten Daten, die einer horizontalen Femsehzeile entsprechen, werden durch vier geteilt und auf einen A-Kanal, einen B-Kanal, einen C-Kanal und einen D-Kanal verteilt. Die digitalen Daten dieser vier Kanäle werden entweder dem Videorecorder (3) oder (4) zugeführt und durch vier rotierende Magnetköpfe auf vier parallelen Spuren pro Femseh-Teilbild aufgezeichnet. In diesem Fall wird das Audiosignal ebenfalls in ein digitales Signal umgesetzt, in die digitalen Videosignale bei einer vorbestimmten Datengruppe bei jeder vorbestimmten Abtastgruppe des digitalen Videosignals eingefügt und auf obigen vier Spuren in Verbindung mit dem Videosignal aufgezeichnet.
Nun wird das Aufzeichnungs- und/oder Wiedergabesystem für ein Farbvideosignal und ein Audiosignal im Detail beschrieben.
Der Aufbau des zweiten Videoverarbeitungskreises (DVP-2) zum Aufzeichnen ist in Fig. 2 dargestellt, und entsprechend ist der Videoverarbeitungskreis (DVP-3) zum Wiedergeben in Fig. 3 dargestellt. Ferner ist in Fig. 4 der Aufbau des digitalen Audioverarbeitungskreises (7) dargestellt, und Fig. 5 zeigt entsprechend den Aufbau des Wiedergabe-Verarbeitungskreises desselben. In diesem Falle zeigen die Fig. 4 und 5 ein Beispiel, bei welchem zum Zwecke der Vereinfachung die Anzahl der Audio-Kanäle zwei gewählt wurde.
Wenn die Fernsehkamera (2) ein Objekt (nicht dargestellt) aufnimmt, so wird das Farbvideosignal der Fernsehkamera (2) zum ersten Videoverarbeitungskreis (DVP-1) des digitalen Videoverarbeitungskreises (1) geleitet und dann abgetastet und digitalisiert. In diesem Falle wird eine Femsehzeile des Farbvideosignals, mit Ausnahme des horizontalen Synchronisierimpulses (HD) und des Burstsignals (BS) als nutzbarer Bereich abgetastet. Der vertikale Synchronisierimpuls und die Ausgleichsimpulsbereiche im Farbvideosignal eines Teilbildes werden nicht als Daten genutzt, und das Signal wird in dieser Periode nicht aufgezeichnet. Da jedoch in der vertikalen Austastperiode Festsignale wie (VIR), (VIT) od. ä. Signale eingefügt werden, so ist die nutzbare Anzahl der Videozeilen durch das Enthalten der obigen Zeilen festgelegt. Beispielsweise ist beim NTSC-Farbvideosignal die nutzbare Videozeilenanzahl in einem Femsehteilbild mit 256 Zeilen von der lOten bis zur 256sten Zeile in jedem Teilbild gewählt.
Ferner ist beim Beispiel der Erfindung die Abtastfrequenz (fyg) des Farbvideosignals gleich der vierfachen Farbhilfsträgerfrequenz (fg^). Zu diesem Zweck werden das horizontale Synchronisiersignal (HD) und das Burstsignal (BS) vom Eingangsfarbsignal abgetrennt und einem Signalgenerator zugeführt, welcher einen Taktpuls erzeugt, der mit dem Burstsignal synchronisiert ist und die Frequenz 4 fg£ aufweist. Aus diesem
Taktpuls wird ein Abtastpuls erzeugt.
Der obige nutzbare Bereich des Farbvideosignals wird durch obigen Abtastpuls abgetastet und in einem A/D-Umsetzer in ein beispielsweise paralleles 8-bit Digitalsignal umgewandelt.
In diesem Falle ist die Abtastffequenz (fyg) gleich 4 fg£, und die Farbhilfsträgerfrequenz (fg^) wird im
Falle des NTSC-Farbvideosignals ausgedrückt durch: 455 fSC =-fH’ 2 wobei (fjj) die horizontale Frequenz ist. Daher beträgt die Anzahl der Abtastungen in einer horizontalen Periode 910 Abtastungen. Da es aber, wie oben erwähnt, unnötig ist, das Signal in der horizontalen Austastperiode abzutasten, wird die nutzbare Anzahl der Videoabtastungen in einer Zeile kleiner als 910 Abtastungen sein, z, B. 768 Abtastungen.
Das auf diese Weise erzeugte Videosignal wird zum zweiten Videoverarbeitungskreis (DVP-2) geleitet. Ferner erzeugt der erste Videoverarbeitungskreis (DVP-1) basierend auf den Taktpuls Identifikationssignale entsprechend der Zeile, des Teilbildes, des Bildes, der Spur und verschiedene Arten von Zeitablaufsignalen. Diese Identifikations- und Zeitablaufsignale werden auch dem zweiten Videoverarbeitungskreis (DVP-2) zugeführt.
Die analogen Audiosignale der Mikrophone (Mj) bis (Mjg) werden dem digitalen Audio-Verarbeitungskreis (7) zugeleitet. Die Eingangs-Analogaudiosignale werden durch den in Fig. 4 dargestellten Aufzeichnungsverarbeitungskreis des Audioverarbeitungskreises (7) verarbeitet. D. h., wenn die Audiosignale zweier Kanäle in Betracht gezogen werden so gelangen die Signale der entsprechenden Kanäle über -3-
Nr. 391 577
Eingangsanschlüsse (70j), (702) und Tiefpaßfilter (71 j), (712) zu entsprechenden Abtast- und Haltekreisen (72j), (722). In diesem Fall ist die Abtastfirequenz (f^g) des Audiosignals mit 50,4/1,001 KHz gewählt. Um im Falle des NTSC-Farbvideosignals die Überlagerung (brät) des 1
Audiohilfsträgers und des Farbhilfsträgers zu vermeiden, wird die Bildfrequenz um-Hz höher als 1000 30 Ήχ gewählt, und wenn ferner die Zeitbasis des Audiosignals komprimiert wird, so wird das
Kompressionsverhältnis so festgelegt, daß die Abtastfrequenz, welche komprimiert wird, ein ganzes Vielfaches der horizontalen Frequenz (fjj) ist. Daher wird die Abtastfirequenz (f^g) für das Audiosignal entsprechend dem obigen Kompressionsverhältnis gewählt.
Anschließend wird die Beziehung zwischen der Abtastfrequenz (fyg) des Videosignals und der Abtastfrequenz (fAS) des Audiosignals erläutert. 8 14 fAS=-·--fH 7 5 8 14 2 7 5 455 32 =-· fsc .............................................(1) 2275 fVS = 4 · fSC .............................................® 8 ·*· fAS=--fVS .............................................® 2275
Die somit abgetasteten Daten werden entsprechend zu A/D-Umsetzem (73j) und (732) geleitet, um in parallele digitale Signale von 16 bit pro Abtastung umgewandelt zu werden.
Die digitalen Signale werden von den A/D-Umsetzem (73 j) und (732) zu einem Multiplexer (74) geleitet und so in Zeitmultiplex verarbeitet, daß die Daten des ersten Kanals und die Daten des zweiten Kanals abwechselnd bei jeder einzelnen Abtastung auftieten. Die Ausgangsdaten werden dann vom Multiplexer (74) zu einem Zeitkompressionskreis (75) geleitet, welcher einen Schreib-/Lesespeicher (RAM) enthält Die Ausgangsdaten werden Datenblock für Datenblock verschachtelt und zeitlich komprimiert, um für die Fehlerfeststellung und Fehlerkorrekturcodes im Zeilkompressionskreis (75) Raum zu schaffen, um dann einem Fehlerkorrekturkodierer (76) zugeführt zu werden, in welchem Fehlerkorrekturcodes und Fehlerfeststellungscodes dem zeitkomprimierten Datenfluß hinzugefügt werden.
Die parallelen 16 Bit-Digitalsignale werden vom Fehlerkorrekturkodierer (76) zu einem 16 Bit auf 18 Bit-Umsetzerkreis (77) geleitet, in welchem die digitalen Signale von 16 Bits in obere 8 Bit und untere 8 Bit getrennt werden, welche auch abwechselnd als digitales 8 Bit-Signal erhalten werden. Diese Umsetzung wird deshalb durchgeführt, da eine Abtastung des Videosignals ein digitales paralleles 8 Bit-Signal ist, wobei das digitale Autiosignal in ähnlicher Weise wie das digitale Videosignal verarbeitet werden kann.
Das vom digitalen Audioverarbeitungskreis (7) abgeleitete parallele 8 Bit-Signal wird einer Audio-Schnittstelle (8) zugeführt, in welcher die 8 Bit-Daten in zwei Kanäle geteilt und dann zum zweiten Videoverarbeitungskreis (DVP-2) des digitalen Videoverarbeitungskreises (1) geleitet werden.
Die obige Beschreibung gilt für den Fall, daß zwei Kanäle vorgesehen sind, aber im Falle von 16 Kanälen genügt es, daß die digitalen Daten von 16 Kanälen des Audiosignals in Zeitmultiplex im Multiplexer (74) verarbeitet werden.
Wie in Fig. 2 dargestellt, werden im zweiten Videosignalverarbeitungskreis (DVP-2) das digitale Videosignal, verschiedene Identifikationssignale und Zeitablaufsignale einer Video-Schnittstelle (11) vom Videoverarbeitungskreis (DVP-1) zugeführt, in welchem die digitalen Videosignale so getrennt werden, daß die Daten einer Femsehzeile durch vier geteilt und als vier parallele Spuren aufgezeichnet werden. Wie in -4- 1
Nr. 391 577
Fig. 8A gezeigt, werden in diesem Beispiel die Daten einer Femsehzeile in Daten einer ersten - Zeile 1 1 2 und die Daten einer zweiten - Zeile aufgeteilt und diese Daten der ersten - Zeile und jene der zweiten 1 2 2 - Zeile jeweils durch vier geteilt, um acht Datengruppen zu bilden, d. h. die Datengruppen (Bj), (B2)... 2 (Bg), welche jeweils 96 Abtastungen aufweisen. Dann werden die vorhergehenden vier Datengruppen (Bj), (B2), (B3), (B4) auf die entsprechenden Kanäle (A), (B), (C), (D) verteilt und auf die Spuren aufgezeichnet, während die nachfolgenden vier Datengruppen (Bg), (B^), (By), (Bg) auf die entsprechenden Kanäle (A), (B), (C), (D) aufgeteilt und auf den Spuren aufgezeichnet werden. D. h., in diesem Falle werden die Datengruppen (Bj) und (Bg) auf einer Spur (TA) des Kanals (A) und in ähnlicher Weise die Datengruppen (Bg), (By); (B2), (Bg) und (B4), (Bg) entsprechend auf den Spuren (Tg), (T^) und (Tg) der Kanäle (B), (C) und (D) aufgezeichnet.
Der Grund hiefür liegt darin, daß es im Falle der oben erwähnten Verteilung und Aufzeichnung der Daten einer horizontalen Fernsehzeile notwendig ist, daß der Start des Datenflusses der entsprechenden Kanäle im wesentlichen zur gleichen Zeit erfolgt. Deshalb kann ein Pufferspeicher zur Signalverzögerung mit möglichst geringer Speicherkapazität gewählt, bzw. verwendet werden.
In diesem Beispiel wird in Betracht gezogen, daß bei der Unterteilung der Daten in vier Kanälen dieselben getrennt in entsprechenden Kanälen verarbeitet werden, so daß vier Signalverarbeitungssysteme nötig sind, welche den Aufbau komplizieren und die Kosten erhöhen. Deshalb werden der A-Kanal, B-Kanal und C-Kanal, D-Kanal entsprechend zu zwei Systemen eines AB-Kanals und CD-Kanals zusammengefaßt und dann verarbeitet 1
Zu diesem Zweck wird in der Video-Schnittstelle (11) die Datenrate um - verringert, und auf der AB- 2
Kanalseite werden, wie in Fig. 8B gezeigt, die Datengruppen (B j) und (B-j) so gemultiplext und in Zeitmultiplex so verarbeitet, daß sich die Abtastung der Datengruppe (Bj) und die Abtastung der Datengruppe (B3) abwechselnd fortsetzen, worauf dann die Datengruppen (Bg) und (By) so gemultiplext und in Zeitmultiplex so verarbeitet werden, daß die Abtastung der Datengruppe (Bg) und die Abtastung der Datengruppe (By) abwechselnd zusammengesetzt werden. Auf der CD-Kanalseite werden die Datengruppen (B2) und (B4) gemultiplext und in Zeitmultiplex verarbeitet, und dann werden die Datengruppen (Bg) und (Bg) gemultiplext und in Zeitmultiplex verarbeitet.
Das vom AB-Kanal abgeleitete digitale Signal wird von der Schnittstelle (11) zu einem Zeitbasis-Kompressionskreis (12AB) geleitet, und das digitale Signal des CD-Kanals wird entsprechend zu einem Zeitbasis-Kompressionskreis (12CD) geleitet. Dann werden diese mit einem vorbestimmten Verhältnis zeitbasiskomprimiert, um Raum für die digitalen Audiodaten, die Fehlerkorrekturcodes und die Datenformatumsetzung für die Aufzeichnung zu schaffen.
Wird die Datenrate des Audiosignals mit (RA) festgelegt, so kann in Betracht gezogen werden, wieviele
Abtastungen in einem Teilbild mit einer 8 Bit-Einheit enthalten sein können, wenn dieses in eine digitale Datenabtastung des Videosignals umgewandelt wird.
Zuerst wird die Datenrate (RA) des Audiosignals berechnet.
Eine Abtastung des Audiosignals besteht aus 16 bits, und die Anzahl der Audiokanäle beträgt sechzehn. Wird somit die Redundanz des Fehlerkorrekturcodes, des Synchronisiersignals etc. mit 100 % angenommen, so kann die gesamte Datenrate (RA) ausgedrückt werden durch:
Ra = (16 x 2) x 16 x fAg 4096 =—>fVS 2275 (4) = 25,779 Mbit/s
Die pro Teilbild eingefügte Abstandsanzahl (NA) des digitalen Audiosignals errechnet sich daher wie folgt: -5-
Nr. 391 577 1 1,001 na=rax-x- 8 60 4096 1 1,001 =-x4 x f<j£ x-x- 2275 8 60 = 53760 ..............................(5)
Da die Anzahl der Videoabtastungen in einer Zeile, wie oben erwähnt, 910 beträgt, so kann bei der Umwandlung der Audiodatenrate in die Datenrate des digitalen Videosignals die Anzahl der Audioabtastungen, welche in einem Femsehteilbild eingefügt werden, wie folgt ausgedrückt weiden: 53760 -= 59,0769 (Zeilen) ..............................(6) 910 D. h., es sind etwa 60 Zeilen erforderlich. 1
Da die nutzbare Anzahl der Videozeilen 256 beträgt, so sind die Audiosignaldaten etwa - der Video- 4 signaldaten. Somit beträgt das Anteilveihältnis der Audiosignaldaten in den gesamten Daten des Videosignals und des Audiosignals etwa 20 %.
In diesem Beispiel werden die digitalen Audiodaten zweier Datenblöcke bei jeden Videodaten zweier Zeilen eingefügt D. h., im Falle des AB-Kanals werden, nach dem die gemultiplexten Daten von (Bj) und (B3), sowie (Bj) und (By) zweifach folgen, die digitalen Autiodaten von 96 x 2 = 192 Abtastungen eingefügt Wenn die Videodaten zeitlich komprimiert werden, so wird, wie oben beschrieben, ebenfalls ein Raum für die Audiodaten geschaffen.
Die zeitlich komprimierten digitalen Daten der Videosignale des AB- und CD-Kanals werden entsprechend zu Mischkreisen (13AB) und (13CD) geleitet, um die Videosignaldaten mit den Autiosignaldaten zu mischen.
Eines der digitalen Datensignale mit 8 Bits für zwei Kanäle wird von der Schnittstelle (8) erhalten und dem Mischkreis (13AB) zugeführt, während das anderer digitale Signal zum verbleibenden Mischkreis (13CD) geleitet wird. Somit werden die digitalen Audiosignaldaten aller 192 Abtastungen im dafür vorgesehenen Raum im digitalen Videosignal-Datenabtastfluß durch die oben erwähnte Kompression eingefügt
Die von den Mischkreisen (13AB) und (13CD) abgeleiteten digitalen Signale werden entsprechend zu Fehlerkorrekturkodierem (14AB) und (14 CD) und dann zu Aufzeichnungsverarbeitungskreisen (15 AB) und (15 CD) geleitet. Die bei jeder Abtastung gemultiplexten Videosignaldaten werden entsprechend in den Fehlerkorrekturkodierern (14 AB), (14 CD) und in den Aufzeichnungsverarbeitungskreisen (15 AB), (15 CD) bei jeder Abtastung in Zeitmultiplex verarbeitet. Mit anderen Worten, die Abtastungen der gleichen Datengruppen in den entsprechenden Datengruppen (Bj), (B2)... (Bg) werden signalmäßig so verarbeitet, daß 1 1 die Abtasteinheit und ebenfalls die Datenrate derselben weiters um - herabgesetzt wird (die Rate wird um - 2 4 im Hinblick auf die ursprüngliche Abtastrate herabgesetzt). Im Hinblick auf den in den Fig. 8D, 8E, 8F und 8G dargestellten Signalverarbeitungsvorgang wird dieser getrennt in den entsprechenden Kanälen (A), (B), (C) und (D) durchgeführt.
Des weiteren werden die Audiosignaldaten ebenfalls bei jeder Abtastung in Zeitmultiplex, bei einer um 1 - herabgesetzten Rate verarbeitet Dann weiden dieselben auf die A- und B-Kanäle und auf die C- und D-2
Kanäle verteilt und in ähnlicher Weise wie die Videosignaldaten verarbeitet
Wie oben beschrieben, werden die Videosignaldaten in Zeitmultiplex in den Fehlerkorrekturkodierem (14 AB), (14 CD) und in den Aufzeichnungsverarbeitungskreises (15 AB), (15 CD) in Signalformate umgewandelt, welche in den Fig. 8H, 81 und Fig. 9 dargestellt sind. D. h., beim obigen Beispiel wird ein Unterblock SB jeder der Datengruppen (Bj), (B2)... (Bg) (insgesamt 1 96 Abtastungen) einer - Zeile des Videosignals zugeordnet Wie in Fig. 8H dargestellt, wird der Anfangs-8 bereich dieses Unterblocks (SB) den Daten mit einem Blocksynchronisiersignal (SYNC) von 3 Abtastungen (24 bits) und einem Identifikationssignal (ID) und einem Adressensignal (AD) von 4 Abtastungen (32 bits) -6-
Nr. 391 577 verbunden, wobei im Endbereich Blockparitätsdaten von 4 Abtastungen (32 bits) hinzugefügt sind. In diesem Fall wird das Synchronisiersignal (SYNC) zum Abtrennen der Signale (ID), (AD), der Daten und der Blockparitätsdaten während der Wiedergabe verwendet.
Das Identifikationssignal (ID) gibt an, welcher Kanal (Spur) der Kanäle (A), (B), (C) und (D) gewählt wird und ob es sich um ein geradzahliges oder ungeradzahliges Teilbild handelt, und das Adressensignal (AO) gibt die Anzahl der Videosignale in einer Teilbildperiode an, zu welchen der Unterblock (SB) gehört Die Blockparitätsdaten werden zur Fehlerbestimmung in den Daten bei der Wiedergabe und zur Fehlerkorrektur der Daten innerhalb eines Unterblocks (SB) verwendet
Das Audiosignal wird in der Weise verarbeitet, daß ein Unterblock (AB) eines Formates gebildet wird, welches ähnlich dem Videosignal bei allen 96 Abtastungen (mit jeweils 8 Bits) ist, wie in Fig. 81 dargestellt
Die Datenverarbeitung bei jedem Teilbild in jedem Kanal erfolgt in folgender Weise: In Fig. 9 ist die Datenstruktur eines Kanals der Videosignaldaten und der Audiosignaldaten in einem Teilbild dargestellt, wobei ein Block aus zwei Unterblöcken (SB) und (AB) besteht, d. h. aus den Daten einer Zeile des 1
Videosignals ( - Zeile). 4
Wenn im Falle des NTSC-System-Farbvideosignals die nutzbare Videozeilenanzahl mit 256 gewählt wird, so beträgt die Anzahl der Blöcke in jedem Kanal 256. Da jedoch einer der Unteiblöcke (AB) der Audiosignaldaten nach 4 Unterblöcken (SB) der Videosignaldaten folgt, so sind 10 Blöcke in horizontaler Richtung und 32 Blöcke in vertikaler Richtung als Matrix mit Blockeinheiten angeordnet, wobei Paritätsdaten in horizontaler (Reihe) Richtung der Matrix von 10 x 32 bei einer Ilten Spalte und Paritätsdaten in vertikaler (Spalten) Richtung der Matrix bei einer 33sten Reihe hinzugefügt sind, so daß insgesamt 11 x 33 Blöcke vorhanden sind.
Wird in diesem Falle ferner angenommen, daß die Unterblöcke (SB) von (SBj) bis (SB594) und daß die Unterblöcke (AB) der Audiosignale von (ABj) bis (ABjjß) aufeinanderfolgen, u. zw. in bezug auf die erste Reihe, so wird die folgende Modulo 2-Addition mit den Unterblöcken bei jedem anderen einzelnen Unterblock in horizontaler Richtung durchgeführt, um die horizontalen Paritätsdaten (SB17) und (SBj) der ersten Reihe zu bilden. SBj@SBj@ABj@,..@SBjg = SBjy SB2©SB4@SB^@...@AB4 = SB jg
In ähnlicher Weise werden die Paritätsdaten der 2ten bis 33sten Reihen gebildet
Bei den Unterblöcken (SB) des Videosignals wird bei der ersten Spalte die folgende Modulo 2-Addition ausgeführt, um die Unterblockeinheit in vertikaler Richtung mit vertikalen Paritätsdaten (SB577) und (SB^s) der ersten Spalte zu versehen. SBj©SBjp0SB^@...0SBjjp = SBjyy SB20SB2O(DSB38©”'(DSB56O = SB578
In ähnlicher Weise werden die vertikalen Paritätsdaten der 2ten bis Ilten Spalten der Unterblöcke (SB) des Videosignals gebildet
Diese Blöcke und die horizontalen und vertikalen Paritätsdaten werden zur Erhöhung der Fehlerkorrekturmöglichkeit bei der Wiedergabe verwendet
Die Signalverarbeitung der obigen horizontalen und vertikalen Paritätsdaten sowie das Hinzufügen derselben zu den Daten erfolgt in den Fehlerkorrekturkodierem (14 AB) und (14 CD), während die Signalverarbeitung zur Erzeugung des Synchronisiersignals (SYNC), des Identifikationssignals (ID) und des Adressensignals (AD) sowie das Hinzufügen derselben zu den Daten in den Aufzeichnungsverarbeitungskreisen (15 AB) und (15 CD) erfolgt.
In den Verarbeitungskreisen (15 AB) und (15 CD) wird die Block-Kodierung in der Weise ausgeführt, daß die Anzahl der Bits pro Abtastung von 8 Bit auf 10 bit umgewandelt wird. Diese Blockkioderung ist eine
Umwandlung bei der 2^ Codes in 10 Bits (2^®) ausgewählt werden, deren (DSV) (Digital Sum Variation) gleich 0 oder nahezu 0 ist, und der ursprüngliche Code von 8 Bits entspricht dem gewählten Code 1:1, um den Code von 10 Bits zu bilden. Mit anderen Worten, der 10 Bit-Code wird so gewählt, daß der (DSV) des Aufzeichungssignals nahezu 0 wird, und dementsprechend erscheinen "0" und "1" im wesentlichen gleichverteilt. Diese Blockkodierung erfolgt wegen der Aufzeichnung digitaler Daten, da bei der Wiedergabe mit einem magnetischen Aufzeichnungs- und Wiedergabesystem keine Gleichstromkomponenten wiedergewonnen werden können. -7-
Nr. 391 577
Das blockweise kodierte digitale Signal von 10 Bit-Worten wird in den Verarbeitungskreisen (15 AB) und (15 CD) von einem parallelen Signal in ein serielles Signal in der Folge des Unterblockes (SBj) umgewandelt. Zu Beginn und am Ende des digitalen Signals einer Teilbildperiode jedes Kanals wird ein entsprechendes Vor- und Endsignal hinzugefügt
Die seriellen digitalen Signale werden für jeden Kanal getrennt von den Verarbeitungskreisen (15 AB), (15 CD) erhalten und über Aufzeichnungsverstärker (16A), (16B), (16C) und (16D) zu entsprechenden Ausgangsanschlüssen (17A), (17B), (17C) und (17D) geleitet.
Die auf diese Weise vom Videoverarbeitungskreis (DVP-2) erhaltenen digitalen Signale von vier Kanälen werden beispielsweise dem Videorecorder (3) oder (4) zugeführt. Jeder der Videorecorder 3 und 4 hat rotierende Magnetköpfe (GA), (GB), (GC) und (GD), wie in den Fig. 6A und 6B dargestellt Diese vier Köpfe (GA), (GB), (GC) und (GD) sind nahe zusammen und aufeinanderfolgend in einer Linie längs der Drehachse angeordnet. Sie rotieren mit der Teilbildfrequenz von 60 Hz synchron mit dem Farbvideosignal. Ein Magnetband (T) ist kreisförmig um die rotierende Oberfläche der Köpfe (GA), (GB), (GC) und (GD) in w-Form gewickelt und wird mit konstanter Geschwindigkeit transportiert.
Wenn die digitalen Signale der vier Kanäle, z. B. der A- bis D-Kanäle dem Videorecorder (3) zugeführt werden, so erfolgt die Aufzeichnung der digitalen Signale der A-, B-, C- und D-Kanäle im Videorecorder 3 durch die Köpfe (GA), (GB), (GC) und (GD) auf dem Band (4), u. zw. auf den schrägen Spuren (T^), (Tg), (Τς.) und (TD) pro Teilbild, wie in Fig. 7 dargestellt. In diesem Beispiel ist die Spurbreite der Köpfe (GA), (GB) , (GC) und (GD) und der Abstand der benachbarten Köpfe zueinander so gewählt, daß die Spuren (T^), (Tß), (T^.) und (Tp) einer Videospur des SMPTE "C"-Formats entsprechen.
In der Praxis ist es schwierig, die vier Köpfe exakt in einer Linie auszurichten, und der Effekt des Streuflusses benachbarter Köpfe kann nicht vernachlässigt werden, so daß die vier Köpfe (GA), (GB), (GC) und (GD) in der Drehrichtung aufeinanderfolgend versetzt sind. In diesem Fall sind die Aufzeichnungsstartpositionen der entsprechenden Spuren (TA), (Tß), (T^) und (Tp) theoretisch nicht in einer Linie ausgerichtet. Wenn jedoch die digitalen Signale der vier Kanäle oder A- bis D-Kanäle beim Zuführen zu den Köpfen (GA), (GB), (GC) und (GD) während der Aufzeichnung entsprechend relativ verzögert werden, so bildet sich das Spurmuster am Band (T) in ähnlicher Weise wie die Anordnung der vier Köpfe in einer Linie aus, wie in Fig. 7 dargestellt.
Wie oben beschrieben, kann das digitalisierte Farbvideosignal und das angeschlossene digitalisierte Audiosignal in digitaler Form aufgezeichnet werden.
Da die Anzahl der Abtastungen der Audiosignaldaten, wie oben erwähnt, pro Teilbild 53760 beträgt, so existieren 13440 Abtastungen für eine Spur. Somit enthalten in obigem Fall die Audiosignaldaten eines Teilbildes jedes Kanals vier Unterblöcke in horizontaler Richtung und 33 Unterblöcke in der vertikalen Richtung, das sind insgesamt 132 Unterblöcke. Da die Anzahl der Abtastungen pro Unterblock (107) beträgt, so ist die gesamte Anzahl der Abtastungen des gegebenen Audiosignals 107 x 132 = 14124 Abtastungen pro Spur oder Kanal. Es ist daher ersichtlich, daß ein ausreichender Raum für die Aufzeichnung der Audiosignaldaten vorhanden ist.
Anschließend wird die Wiedergabe der auf obige Weise aufgezeichneten digitalen Signale beschrieben.
Wenn der Videorecorder (3) in den Wiedergabebetrieb gebracht wird, so erfolgt die Wiedergabe der digitalen Daten der entsprechenden Kanäle im wesentlichen gleichzeitig durch die Köpfe (GA), (GB), (GC) und (GD) von den Spuren (T^), (Tß), (T^O und (Tp), worauf die Signale dem dritten Videoverarbeitungskreis (DVP-3) des digitalen Videoverarbeitungskreises (1) zugeführt werden. In diesem Falle werden die digitalen Signale der entsprechenden Kanäle aufeinanderfolgend im verzögerten Zustand wiedergeben, wenn die Köpfe (GA), (GB), (GC) und (GD) aufeinanderfolgend in Drehrichtung versetzt sind, wie oben beschrieben. Aber dieser Verzögerung der Daten der vier Kanäle kann leicht im Videoverarbeitungskreis (DVP-3) korrigiert werden.
Wie aus Fig. 3 ersichtlich ist, werden im Videoverarbeitungskreis (DVP-3) die digitalen Signale den Eingangsanschlüssen (20A), (20B), (20C) und (20D) zugeführt und über entsprechende Verstärker (21A), (21B), (21C) und (21D) zu Wiedergabeverarbeitungskreisen (22A), (22B), (22C) und (22D) geleitet, in diesen entsprechend von einem seriellen Signal in ein paralleles Signal umgewandelt und gleichzeitig blockweise dekodiert, u. zw. vom 10 Bit-Code zum ursprünglichen 8 Bit-Code. Ein Taktsignal wird von einem phasenverriegelten Schleifehkreis (PLL-Kreis), basierend auf dem wiedergegebenen digitalen Signal, erzeugt
Die parallelen 8 Bit-Digitalsignale werden zu entsprechenden Zeitbasiskorrekturkreisen (23A), (23B), (23C) und (23D) geleitet, um deren Zeitbasisschwankungen zu beseitigen. Wie bekannt, enthalten die Zeitbasiskorrekturkreise (23A), (23B), (23C) und (23D) jeweils digitale Speicher, und das Block-Synchronisiersignal (SYNC) wird zur Festlegung des Starts der folgenden Datensignale verwendet, und der Schreibvorgang des digitalen Speichers wird basierend auf dem Takt der Verarbeitungskreise (22A), (22B), (22C) und (22D) ausgeführt. Der Lesevorgang aus dem digitalen Speicher erfolgt durch einen Takt, welcher auf dem Referenz-Synchronisiersignal basiert, wobei die Zeitbasisschwankungskomponente beseitigt wird.
Die Datensignale von den beiden Zeitbasiskorrekturkreisen (22A) und (22B) werden zu einem Multiplexer (24AB) geleitet, und die Datensignale von den beiden Zeitbasiskorrekturkreisen (22C) und (22D) werden zu einem Multiplexer (24CD) geleitet. Dann werden die digitalen Daten des A- und B-Kanales im Multiplexer -8-
Nr. 391 577 (24AB) abwechselnd, Abtastung nach Abtastung gemischt, und im Multiplexer (24CD) erfolgt ebenfalls abwechselnd eine Mischung der digitalen Daten des C- und D-Kanals, Abtastung nach Abtastung.
Die digitalen Daten der Multiplexer (24AB) und (24CD) werden über einen Austauschkreis (interchanger) (25) zu Fehlerkorrekturdekodierern (26AB) und (26CD) geleitet. In diesem Austauschkreis (25) werden die entsprechenden Kanäle durch die Spuridentifikationssignale identifiziert, inzwischen werden die Idendifikationssignale zu den entsprechenden Unterblöcken hinzugefügt und die Unterblockdaten auf die entsprechenden Kanäle verteilt. Im Austauschkreis (25) erfolgt die Verarbeitung in Zeitmultiplex.
Der Austauschkreis (25) ist insbesondere bei einem speziellen Wiedergabebetrieb erforderlich. D. h., während des normalen Wiedergabebetriebs, in dem sich die Positionen der Aufzeichnungsspur auf dem Magnetband und der Laufspur der vier rotierenden Köpfe decken, gegen die rotierenden vier Köpfe nur die Aufzeichnungssignale der entsprechenden Spuren wieder. Bei einem speziellen Wiedergabebetrieb, wie z. B. bei einem Hochgeschwindigkeits-Wiedergabebetrieb, bei welchem die Laufgeschwindigkeit des Magnetbandes einige zehnmal größer ist als beim normalen Wiedergabebetrieb, tasten die rotierenden Köpfe eine Mehrzahl von Spuren ab, wie durch einen Pfeil (a) in Fig. 7 dargestellt ist. Daher erzeugen die entsprechenden Köpfe (GA), (GB), (GC) und (GD) jeweils ein Signal, in welchem die Signale der A-, B-, C- und D-Kanäle gemischt sind.
Im obigen Fall trennt (diskriminiert) der Austauschkreis (25) die Kanalidentifikation der wiedergegebenen Daten, und die Datensignale der Spuren (T^) und (Tg), (T^) werden beide zu einem Dekodierer (26AB) für den AB-Kanal geleitet, und die wiedergegebenen Datensignale der Spuren (Τς.) und (TD) werden zum Dekodierer (26CD) für den CD-Kanal geleitet.
Die Dekodierer (26AB) und (26CD) enthalten jeweils einen Teilbildspeicher (field memory), welcher eine Kapazität zur Speicherung der Daten eines Kanals eines Teilbildes aufweist. Somit werden die Daten der A- und B-Kanäle und die Daten der C- und D-Kanäle entsprechend in den Dekodierern (26AB) und (26CD) in Zeitmultiplex wie folgt verarbeitet. D. h., die Daten werden bei jedem Unterblock (SB) in Abhängigkeit vom Adressensignal (AD) in den Teilbildspeicher eingeschrieben, und gleichzeitig wird der Fehler der Daten durch die Blockparitätsdaten und die horizontalen und vertikalen Paritätsdaten korrigiert. Bei der Fehlerkorrektur wird zuerst der Fehler innerhalb der Unterblockeinheit durch die Blockparitätsdaten korrigiert, dann erfolgt die Fehlerkorrektur durch horizontale Paritätsdaten, und letztlich wird die Fehlerkorrektur durch die vertikalen Paritätsdaten durchgeführt.
Somit werden die fehlerkorrigierten Daten entsprechend zu Zeitbasis-Expansionskreisen (27AB) und (27 CD) geleitet, in welchen die Audio- und Videosignale entsprechend getrennt werden. Anschließend werden die abgetrennten Audiodaten jedes Kanals zeitlich expandiert und im ursprünglichen Signalformat erhalten.
Die Videosignaldaten werden von den Zeitbasis-Expansionskreisen (27AB) und (27 CD) zu einer Videoschnittstelle (28) geleitet und in die ursprünglichen einkanaligen, digitalen Daten umgewandelt. Dann gelangen die Daten zu einem ersten Verarbeitungskreis (DVP-1). In diesem Videoverarbeitungskreis (DVP-1) wird das digitale Signal in ein analoges Signal umgesetzt und ferner mit einem Synchronisierpuls und einem Farbburstsignal zur Herstellung des ursprünglichen Farbvideosignals versehen, um dann beispielsweise dem Monitor-Fernsehempfänger (5) zugeführt zu werden. In diesem Fall werden auch die verschiedenen Zeitablaufimpulse basierend auf dem vom Signalgenerator im Verarbeitungskreis (DVP-1) abgeleiteten Referenztaktpuls erzeugt und entsprechend über die Videoschnittstelle (28) zu den entsprechenden Kreisen der Wiedergabeverarbeitungskreise geleitet
Bei obigem Wiedergabesystem wird bei der Datenverarbeitung von den Köpfen (GA), (GB), (GC) und (GD) an bis zur Schreibseite der Zeitbasiskorrekturkreise (23A), (23B), (23C) und (23D) der von den wiedergegebenen Daten abgeleitete Taktpuls verwendet, während bei der Datenverarbeitung von der Ausleseseite der Zeitbasiskorrekturkreise (23A), (23B), (23C) und (23D) an bis zu den Ausgangsanschlüssen der vom Signalgenerator im Verarbeitungskreis (DVP-1) abgeleitete Taktpuls verwendet wird.
Die entsprechend getrennten und von den Eingangsseiten der Zeitbasiskorrekturkreise (27AB) und (27CD) erhaltenen Audiosignale werden zur Audioschnittstelle (8) geleitet, in welcher die Daten zweier Kanäle als Daten eines einzigen Kanals erhalten werden.
Von der Audioschnittstelle (8) werden die Daten über einen Eingangsanschluß (80) (siehe Fig. 5) des digitalen Audioverarbeitungskreises (7) zu einem 8 auf 10 Bit-Umsetzer (81) geleitet, in welchem die Daten in das ursprüngliche parallele, digitale Audiosignal von 16 bit pro Abtastung umgewandelt wird. Die 16 Bit-Digitalsignale gelangen vom Umsetzer (81) zu einem Zeitbasis-Expansionskreis (82), in welchem die Audiosignale entschachtelt werden, um die ursprüngliche Codeanordnung mit der ursprünglichen Zeitbasis wiederherzustellen. Das auf diese Weise verarbeitete digitale Signal wird dann einem Fehlerkorrekturdekodierer (83) zugeführt, in welchem die Fehler desselben basierend auf dem Fehlerfeststellungscode und dem Fehleikorrekturcode korrigiert werden.
Wenn der Fehler der Daten im Fehlerkorrekturdekodierer (83) nicht korrigiert werden kann, so werden die digitalen Datensignale zu einem Fehlerüberdeckungskreis (84) der nächsten Stufe geleitet, in welchem der verbliebene Fehler durch eine Mittelwertsinterpolation überdeckt wird, indem der Mittelwert der Worte vor und nach dem fehlerhaften Wort verwendet oder der vorhergehende Wert interpoliert wird. -9-
Nr. 391 577
Das fehlerkorrigierte, bzw. -überdeckte digitale Signal wird dann zu einem Demultiplexer (85) geleitet, in welchem das Signal auf die ursprünglichen ersten und zweiten Kanalsignale verteilt wird. Das erste Kanalsignal wird einem D/A-Umsetzer (86j) zugeführt und in ein analoges Signal umgewandelt, welches über ein Tiefpaßfilter (87j) zu einem Ausgangsanschluß (88j) geleitet wird, während das zweite Kanalsignal zu einem D/A-Umsetzer (862) geleitet und in ein analoges Signal umgewandelt wird, welches über ein Tiefpaßfilter (872) zu einem Ausgangsanschluß (882) geleitet wird.
Die obige Beschreibung wurde für den Fall gegeben, daß zwei Kanäle vorgesehen sind, aber das obige Wiedergabesystem kann auch für den Fall verwendet werden, daß 16 Kanäle verarbeitet werden sollen, mit der Ausnahme, daß das digitale Signal durch den Demultiplexer (85) auf die Signale der 16 Kanäle verteilt wird.
Die analogen Audiosignale der entsprechenden Kanäle, welche somit vom digitalen Verarbeitungskreis (7) erhalten wurden, werden entsprechend zu den Lautsprechern (SPj), (SP2),... (SPjg) geleitet
Fig. 10 zeigt das Anzeigeformat des Monitorempfängers (6), auf welchem beispielsweise die Zahl der fehlerhaften Unterblöcke angezeigt wird. In den Rechtecken innerhalb der Figur können z. B. 10 Zeichen in Dezimalform stehen, um die Zahl der fehlerhaften Unterblöcke anzuzeigen. Die Buchstaben auf der linken Seite jedes Rechtecks sind der Index, welcher den Anzeigezustand angibt D. h. in den Rechtecken wird das Folgende angezeigt (I) Die Buchstaben (BPC11), (BPC12), (BPC21) und (BPC22) bezeichnen die Anzahl der fehlerhaften Unteiblöcke, welche im ersten bis vierten Kanal auftreten. (II) Die Buchstaben (BPC13), (BPC14), (BPC23) und (BPC24) bezeichnen die Anzahl der fehlerhaften Unterblöcke im entsprechenden Kanal, welche nicht durch die Blockparitätsdaten korrigiert werden können. (III) Die Buchstaben (HPC11), (HPC12), (HPC21) und (HPC22) bezeichnen die Anzahl der fehlerhaften Unterblöcke, nachdem der Fehler durch die horizontalen Paritätsdaten korrigiert wurde. (IV) Die Buchstaben (VPC11), (VPC12), (VPC21) und (VPC22) bezeichnen die Anzahl der fehlerhaften Unterblöcke, nachdem der Fehler durch die vertikalen Paritätsdaten korrigiert wurde.
In Fig. 10 bezeichnen die Buchstaben "FIELD... (F)", daß die angezeigte Zahl der fehlerhaften Unterblöcke über F-Teilbilder erhalten wird. Wenn z. B. "FELD... (60)" angezeigt wird, so bedeutet dies, daß die Anzahl der angezeigten Unterblöcke aus den Daten von 60 Teilbildem erhalten wurde.
Wenn ein elektronisches Schneiden bzw. Überspielen zwischen den Videorecordem (3) und (4) stattfinden soll, so werden die Fehlerkorrekturdekodierer (26AB) und (26CD) des Wiedergabeverarbeitungskreises (DVP-3) und die Fehlerkorrekturkodierer (14AB) und (14CD) des Aufzeichnungsverarbeitungskreises (DVP-2) entsprechend überbrückt, und desgleichen wird der D/A-Umsetzer und der A/D-Umsetzer der Verarbeitungslö’eises (DVP-1) überbrückt.
Eine Spurnachführung (tracking servo) eines herkömmlichen Videorecorders genügt für die beiden Videorecorder (3) und (4) im Aufzeichnungs- und Wiedergabebetrieb.
Beim obigen Beispiel der Erfindung enthalten die erzeugten horizontalen Paritätsdaten das vom digitalen Audioverarbeitungskreis (7) abgegebene digitale Audiosignal zur Erhöhung der Fehleikorrekturmöglichkeit. Dem vom Verarbeitungskreis (7) abgegebenen digitalen Audiosignal werden jedoch bereits die Fehlerfeststellungs- und Fehlerkorrekturcodes hinzugefügt sein, so daß es nicht immer notwendig ist, horizontale Paritätsdaten für das digitale Audiosignal vorzusehen.
Wenn keine horizontalen Paritätsdaten für die im digitalen Audiosignal enthaltenen Daten vorgesehen sind, so kann beim Einmischen des digitalen Audiosignals in das digitale Videosignal folgender Vorgang in Betracht gezogen werden.
Im Beispiel nach Fig. 11 wird wiederholt eine solche Datenanordnung vorgesehen, daß vier Unterblöcke (zwei Blöcke) von Audiodaten nach neun Blöcken von Videodaten folgen, wobei der letzte Block der Videodaten die horizontalen Paritätsdaten sind. Demnach wird das Spurmuster derselben so sein, daß die Daten des Audiosignals verteilt und auf einer Spur aufgezeichnet sind oder die Audiosignaldaten treten in einer Spur in gestreuter Form (scattered state) auf, wie in Fig. 12 dargestellt.
In diesem Fall nimmt die Datenstruktur eines Kanals in den Daten eines Teilbildes die in Fig. 13 gezeigte Form an, und die Fehlerkorrektur der Daten des Videosignals findet in den Dekodierern (26AB) und (26CD) statt.
Wie zuvor beschrieben, werden erfindungsgemäß das Videosignal und das Audiosignal gemischt, durch den gleichen Signalverarbeitungskreis verarbeitet, die gemischten Video- und Audiosignale auf einer Spur aufgezeichnet, und dann die aufgezeichneten Signale wiedergeben. Daher ist kein separater Kopf für das Audiosignal erforderlich. Da ferner der Fehlerkorrekturkodierer und -dekodierer für die Videosignaldaten auch für das Audiosignal verwendet werden, so erhöht sich die Fehlerkorrekturmöglichkeit für die Audiodaten.
Wie aus den Spurmustem nach den Fig. 7 und 12 ersichtlich ist, werden die Audiosignaldaten verteilt auf einer Spur aufgezeichnet, wodurch sich der Vorteil ergibt, daß der Einfluß eines Ausfalls (drop out) der Audiosignaldaten geringer wird.
Da das Audiosignal erfindungsgemäß unter gleichen Bedingungen auf vier Spuren aufgezeichnet wird, so können gleichwertige Signale von den entsprechenden Köpfen abgeleitet und damit der -10-

Claims (4)

  1. Nr. 391 577 Signalverarbeitungsvorgang einfach durchgeführt werden, auch wenn die Köpfe eine Mehrzahl von Spuren schräg abtasten, wie dies im Falle einer speziellen Wiedergabe eintritL PATENTANSPRÜCHE 1. Verfahren zum Verarbeiten von digitalen Video- und Audiodaten in einem Aufzeichnungs- und/oder Wiedergabegerät durch Zeitkomprimieren der digitalen Daten, Ergänzen der digitalen Daten mit Zusatzsignalen wie Adresseninformationen, Fehlerkorrekturcordes usw., Durchmischung der digitalen Daten in Zeitmultiplex um eine serielle Signalfolge zu erhalten, allenfalls Ergänzen mit Fehlerkorrekturdaten und Aufteilen der digitalen Daten auf eine Mehrzahl von Aufzeichnungsvorrichtungen, dadurch gekennzeichnet, daß die Gruppen von digitalen Video- bzw. Audiosignalen getrennt zeitkomprimiert, anschließend in Untergruppen unterteilt und nach der Durchmischung in Zeitmultiplex die digitalen Daten in einer Mehrzahl von Kanälen zur gleichzeitigen Aufzeichnung durch rotierende Magnetköpfe in einer Mehrzahl von parallelen Spuren aufgeteilt werden.
  2. 2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die digitalisierten Videodaten vor der Zeitkomprimierung in eine Anzahl von Untergruppen geteilt werden, welche der Anzahl der Aufzeichnungsköpfe oder einem ganzzahligen Vielfachen davon entspricht
  3. 3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß die Untergruppen der Videodaten vor der Zeitkomprimierung mittels Zeitmultiplex in mehrere Kanäle, vorzugsweise zwei Kanäle, zusammengefaßt und anschließend die Signalgruppen jedes Kanals vor dem Durchmischen mit den Audiodaten getrennt voneinander zeitkomprimiert werden.
  4. 4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, daß die digitalisierten Audiodaten in eine Anzahl von Kanälen aufgeteilt werden, die der Anzahl der Kanäle der Videodaten entspricht, und daß je ein Kanal der Videodaten mit einem Kanal der Audiodaten durchmischt wird. Hiezu 9 Blatt Zeichnungen -11 -
AT0164281A 1980-04-11 1981-04-09 Verfahren zum verarbeiten von digitalen videound audiodaten in einem aufzeichnungs- und/oder wiedergabegeraet AT391577B (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4848080A JPS56144682A (en) 1980-04-11 1980-04-11 Recording and reproducing device for digital video signal and audio signal

Publications (2)

Publication Number Publication Date
ATA164281A ATA164281A (de) 1990-04-15
AT391577B true AT391577B (de) 1990-10-25

Family

ID=12804543

Family Applications (1)

Application Number Title Priority Date Filing Date
AT0164281A AT391577B (de) 1980-04-11 1981-04-09 Verfahren zum verarbeiten von digitalen videound audiodaten in einem aufzeichnungs- und/oder wiedergabegeraet

Country Status (9)

Country Link
US (1) US4468710A (de)
JP (1) JPS56144682A (de)
AT (1) AT391577B (de)
AU (1) AU545836B2 (de)
CA (1) CA1191598A (de)
DE (1) DE3114631A1 (de)
FR (1) FR2480542B1 (de)
GB (1) GB2076251B (de)
NL (1) NL8101760A (de)

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU544259B2 (en) * 1980-04-16 1985-05-23 Sony Corporation Detecting + correcting errors in digital video signals
JPS56160178A (en) * 1980-04-18 1981-12-09 Sony Corp Recorder of digital video signal
NL187211C (nl) * 1981-02-27 Uniroyal Inc Werkwijze voor de bereiding van een expandeerbaar mengsel, werkwijze voor de bereiding van geexpandeerde polymere materialen, alsmede werkwijze voor de bereiding van een hydrazodicarbonzuurester als bij verhitting gasafsplitsend middel.
EP0084950A3 (de) * 1982-01-19 1984-09-26 University College London System zum Speichern von Daten mittels eines Videobandes
JPH07101482B2 (ja) * 1982-01-23 1995-11-01 ソニー株式会社 ディジタル信号記録装置
JPS58133612A (ja) * 1982-02-01 1983-08-09 Sony Corp 記録再生装置
CA1201198A (en) * 1982-02-01 1986-02-25 Sony Corporation Method and apparatus for compensating for tape jitter during recording and reproducing of a video signal andpcm audio signal
JPS58150113A (ja) * 1982-03-03 1983-09-06 Hitachi Ltd マルチチヤネルヘツド磁気記録装置
JPS59282A (ja) * 1982-06-25 1984-01-05 Trio Kenwood Corp テレビジヨン信号記録装置
JPS5928815U (ja) * 1982-08-14 1984-02-22 ソニー株式会社 デイジタル信号記録装置
US4602295A (en) * 1982-10-23 1986-07-22 Pioneer Electronic Corporation Recording and reproducing method for video format signal
US4604655A (en) * 1982-10-23 1986-08-05 Pioneer Electronic Corporation Method of recording and reproducing video format signal
JPS59111484A (ja) * 1982-12-17 1984-06-27 Sony Corp 映像信号の記録装置
GB2140189B (en) * 1983-05-19 1986-04-30 Sony Corp Digital video tape recorder apparatus
JPS6010457A (ja) * 1983-06-29 1985-01-19 Hitachi Ltd 回転ヘツド型デイジタル信号記録再生装置
CA1215174A (en) * 1983-06-29 1986-12-09 Masaharu Kobayashi Rotary head type pcm recorder
JPS6050753A (ja) * 1983-08-31 1985-03-20 Canon Inc 回転ヘツド型記録装置
US4680647A (en) * 1983-09-26 1987-07-14 Pioneer Electronic Corporation Method for recording and reproducing video format signal
US4703369A (en) * 1983-09-26 1987-10-27 Pioneer Electronic Corporation Video format signal recording and reproducing method
JPS60127893A (ja) * 1983-12-15 1985-07-08 Sony Corp カラ−テレビジヨン信号伝送方式
JPS60247867A (ja) * 1983-12-26 1985-12-07 Hitachi Ltd 回転ヘツド型pcmレコ−ダ
US4746992A (en) * 1984-07-03 1988-05-24 Canon Kabushiki Kaisha Apparatus for reproducing video signals
CA1271842A (en) * 1984-07-20 1990-07-17 Hitoaki Owashi Video signal recording and reproducing method and apparatus
GB2164480B (en) * 1984-09-18 1988-01-13 Sony Corp Reproducing digital audio signals
US4736260A (en) * 1984-09-18 1988-04-05 Sony Corporation Reproducing digital audio signals
JPS61152180A (ja) * 1984-12-26 1986-07-10 Nippon Hoso Kyokai <Nhk> ディジタル録画信号の形成方法
JPH0719327B2 (ja) * 1985-03-08 1995-03-06 キヤノン株式会社 映像音声記録装置
JP2693417B2 (ja) * 1985-03-28 1997-12-24 ソニー株式会社 記録再生装置
US4691253A (en) * 1985-05-13 1987-09-01 Polaroid Corporation Electronic imaging camera for recording either moving or still images
JP2568819B2 (ja) * 1985-09-20 1997-01-08 三菱電機株式会社 間欠磁気記録再生装置
JPS62149295A (ja) * 1985-12-23 1987-07-03 Canon Inc 録音可能なカメラ
US5210618A (en) * 1986-02-03 1993-05-11 U.S. Philips Corporation Method, apparatus and record carrier for video signal recording and reading wherein signal blocks occurring during switching are repositioned and preserved
JP2513182B2 (ja) * 1986-04-09 1996-07-03 ソニー株式会社 デジタルビデオ信号の記録方法
US4914527A (en) * 1986-04-09 1990-04-03 Sony Corporation Recording and reproducing digital video and audio signals together with a time code signal which is within user control words of the audio data
JP2522258B2 (ja) * 1986-09-05 1996-08-07 ソニー株式会社 信号処理装置
DE3718567A1 (de) * 1987-06-03 1988-12-15 Bosch Gmbh Robert Verfahren und anordnung zu wiedergabe von auf magnetband gespeicherten videodaten
US5101274A (en) * 1987-08-10 1992-03-31 Canon Kabushiki Kaisha Digital signal recording apparatus time-division multiplexing video and audio signals
US5012352A (en) * 1987-08-10 1991-04-30 Canon Kabushiki Kaisha Digital signal recording apparatus time-division multiplexing video and audio signals
JP2623594B2 (ja) * 1987-08-10 1997-06-25 キヤノン株式会社 ディジタル信号記録装置
US4943865A (en) * 1987-10-08 1990-07-24 The Boeing Company Method and system for recording standard pulse code modulated serial data using video signal recorders
US5093750A (en) * 1987-11-06 1992-03-03 Samsung Electronics Co., Ltd. System for recording/reproducing video data on or from a tape medium for storing digital signals and method therein
US4839733A (en) * 1987-12-15 1989-06-13 Karamon John J Method and system for synchronization of an auxiliary sound source to motion picture film, video tape, or other picture source containing a sound track
US5055939A (en) * 1987-12-15 1991-10-08 Karamon John J Method system & apparatus for synchronizing an auxiliary sound source containing multiple language channels with motion picture film video tape or other picture source containing a sound track
GB2220521B (en) * 1988-06-07 1993-04-28 Mitsubishi Electric Corp Digital signal recording method a digital video tape recorder and a recorded tape
JP2845920B2 (ja) * 1989-02-09 1999-01-13 パイオニア株式会社 記録再生方式
US5218454A (en) * 1989-03-28 1993-06-08 Canon Kabushiki Kaisha Apparatus for improved recording of signals having video and audio components
KR950009383B1 (ko) * 1990-06-29 1995-08-21 마쯔시다 덴기 산교 가부시기가이샤 디지틀음성신호기록방법
JPH04143904A (ja) * 1990-10-05 1992-05-18 Hitachi Ltd ディジタル録画装置
JPH04332960A (ja) * 1991-05-07 1992-11-19 Sanyo Electric Co Ltd ディジタル高速ダビング回路
KR960000277B1 (ko) * 1992-10-27 1996-01-04 엘지전자주식회사 씨디지 내장 티브이의 회로 및 그 제어 방법
JP3085024B2 (ja) * 1993-06-01 2000-09-04 松下電器産業株式会社 画像再圧縮器及び画像記録装置
US5619335A (en) * 1993-09-28 1997-04-08 Kabushiki Kaisha Toshiba Digital video recording and playback system and method having multiple playback devices outputting video program data on multiple channels
US5576621A (en) * 1994-03-10 1996-11-19 Denver Dynamics, Inc. Hinged metal detection cover for a receptacle
JP2702674B2 (ja) * 1994-08-19 1998-01-21 株式会社日立製作所 データ記録方法
US5724475A (en) * 1995-05-18 1998-03-03 Kirsten; Jeff P. Compressed digital video reload and playback system
US7653447B2 (en) 2004-12-30 2010-01-26 Mondo Systems, Inc. Integrated audio video signal processing system using centralized processing of signals
US7825986B2 (en) 2004-12-30 2010-11-02 Mondo Systems, Inc. Integrated multimedia signal processing system using centralized processing of signals and other peripheral device
US8880205B2 (en) * 2004-12-30 2014-11-04 Mondo Systems, Inc. Integrated multimedia signal processing system using centralized processing of signals
US8015590B2 (en) 2004-12-30 2011-09-06 Mondo Systems, Inc. Integrated multimedia signal processing system using centralized processing of signals
US8345097B2 (en) * 2008-02-15 2013-01-01 Harris Corporation Hybrid remote digital recording and acquisition system
CN102131119A (zh) * 2010-01-14 2011-07-20 索尼公司 信息处理设备、信息处理方法和程序

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3666888A (en) * 1968-06-26 1972-05-30 Communications Satellite Corp Pcm-tv system using a unique word for horizontal time synchronization
US3748381A (en) * 1971-02-16 1973-07-24 Memorex Corp Improved editing system
US3758711A (en) * 1972-03-09 1973-09-11 Cartridge Television Inc Elay line for video reproducer and/or recorder time base error correction system including electronically variable d
GB1445337A (en) * 1972-08-24 1976-08-11 Independent Broadcastin Author Television systems
CA1073096A (en) * 1975-10-01 1980-03-04 Walter Arnstein Time base error corrector
US4063290A (en) * 1976-03-24 1977-12-13 Eastman Kodak Company Video recording apparatus
US4150397A (en) * 1977-09-13 1979-04-17 Eli S. Jacobs Repetition reduced digital data record and playback system
JPS5514541A (en) * 1978-07-19 1980-02-01 Nippon Hoso Kyokai <Nhk> Magnetic recording and reproducing system
US4303950A (en) * 1978-07-20 1981-12-01 Matsushita Electric Industrial Co., Ltd. Helical scan video tape recorder for recording video and audio signals on contiguous tracks
DE2921892A1 (de) * 1979-05-30 1980-12-11 Bosch Gmbh Robert Verfahren zum speichern digitaler fernsehsignale

Also Published As

Publication number Publication date
NL8101760A (nl) 1981-11-02
FR2480542B1 (fr) 1985-01-04
JPS56144682A (en) 1981-11-11
ATA164281A (de) 1990-04-15
CA1191598A (en) 1985-08-06
FR2480542A1 (fr) 1981-10-16
DE3114631A1 (de) 1982-04-22
GB2076251B (en) 1984-11-07
GB2076251A (en) 1981-11-25
AU545836B2 (en) 1985-08-01
JPH0125275B2 (de) 1989-05-17
DE3114631C2 (de) 1990-03-01
US4468710A (en) 1984-08-28

Similar Documents

Publication Publication Date Title
AT391577B (de) Verfahren zum verarbeiten von digitalen videound audiodaten in einem aufzeichnungs- und/oder wiedergabegeraet
DE3885815T3 (de) Digital-Signal-Übertragungseinrichtung.
DE3038594C2 (de) Verfahren zum Aufzeichnen eines digitalisierten Farb-Videosignals und Vorrichtung zur Wiedergabe
DE3115902C2 (de)
AT391576B (de) Digital-videobandaufzeichnungsgeraet
AT394290B (de) Magnetband-aufzeichnungsgeraet
DE2915459C2 (de) Verfahren und Vorrichtung zur fehlerkorrigierenden Codierung serieller wortweise strukturierter Daten, Verfahren und Vorrichtung zur Decodierung derart codierter Signale sowie Aufzeichnungsträger für derart codierte Signale
DE3036899C2 (de)
DE3918454C2 (de)
DE3416047C2 (de) Fehlerkorrekturverfahren für digitale Informationsdaten
DE3102996C2 (de) Verfahren und Anordnung zur Speicherung und/oder Übertragung eines digitalen Farbfernsehinformationssignals
DE3404648C2 (de) Verfahren und Vorrichtung zum Aufbereiten eines Farbfernsehsignals für die Aufzeichnung auf einem Magnetband
DE2903926A1 (de) Verfahren und einrichtung zum zusammensetzen von ein fernsehbild repraesentierenden digitalen daten
DE2903998A1 (de) Anordnung zur digitalen nf-signalaufzeichnung
DE3207111C2 (de) Farbvideosignal-Aufzeichnungs- und/oder -Wiedergabevorrichtung
DE3142355C2 (de) Verfahren und Schaltungsanordnung zur Bestimmung eines einem digitalen Datensignal zugeordneten Steuersignals
DE3036898C2 (de) Einrichtung und Verfahren zum Verarbeiten eines PAL-Farbvideosignals
DE3202664C2 (de)
DE4321488C2 (de) Digitales magnetisches Aufzeichnungsverfahren und Aufzeichnungsgerät
DE2901034C3 (de) Verfahren und Schaltungsanordnung zur Komprimierung und Dekomprimierung von Analogsignalen in digitaler Form
DE4402870C2 (de) Bilddatenverarbeitungsvorrichtung für ein digitales Videobandgerät und Bilddatenverarbeitungsverfahren dafür
DE3442040C2 (de)
DE3238119C2 (de) Einrichtungen zur Verarbeitung einer digitalen Darstellung eines Analogsignals und zur Rückumwandlung der verarbeiteten Digitaldarstellung in die Analogform
DE2707847C2 (de)
DE3744077C2 (de)

Legal Events

Date Code Title Description
UEP Publication of translation of european patent specification
ELA Expired due to lapse of time