DE69434718T2 - Datendekodierungsverfahren und System - Google Patents

Datendekodierungsverfahren und System Download PDF

Info

Publication number
DE69434718T2
DE69434718T2 DE1994634718 DE69434718T DE69434718T2 DE 69434718 T2 DE69434718 T2 DE 69434718T2 DE 1994634718 DE1994634718 DE 1994634718 DE 69434718 T DE69434718 T DE 69434718T DE 69434718 T2 DE69434718 T2 DE 69434718T2
Authority
DE
Germany
Prior art keywords
data
subtitle
coded
decoding
video image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE1994634718
Other languages
English (en)
Other versions
DE69434718D1 (de
Inventor
Ikuo Shinagawa-ku Tsukagoshi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=26340518&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE69434718(T2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Sony Corp filed Critical Sony Corp
Application granted granted Critical
Publication of DE69434718D1 publication Critical patent/DE69434718D1/de
Publication of DE69434718T2 publication Critical patent/DE69434718T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/467Embedding additional information in the video signal during the compression process characterised by the embedded information being invisible, e.g. watermarking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2662Controlling the complexity of the video stream, e.g. by scaling the resolution or bitrate of the video stream based on the client capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/438Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving encoded video stream packets from an IP network
    • H04N21/4382Demodulation or channel decoding, e.g. QPSK demodulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440263Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA
    • H04N21/440272Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA for performing aspect ratio conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/4425Monitoring of client processing errors or hardware failure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/633Control signals issued by server directed to the network components or client
    • H04N21/6332Control signals issued by server directed to the network components or client directed to client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/633Control signals issued by server directed to the network components or client
    • H04N21/6332Control signals issued by server directed to the network components or client directed to client
    • H04N21/6336Control signals issued by server directed to the network components or client directed to client directed to decoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/654Transmission by server directed to the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/278Subtitling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/44504Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • H04N7/087Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only
    • H04N7/088Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital
    • H04N7/0884Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital for the transmission of additional display-information, e.g. menu for programme or channel selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • H04N7/087Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only
    • H04N7/088Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital
    • H04N7/0884Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital for the transmission of additional display-information, e.g. menu for programme or channel selection
    • H04N7/0885Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital for the transmission of additional display-information, e.g. menu for programme or channel selection for the transmission of subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8233Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a character code signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/0122Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal the input and the output signals having different aspect ratios

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Television Systems (AREA)
  • Studio Circuits (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Developing Agents For Electrophotography (AREA)
  • Holo Graphy (AREA)
  • Photoreceptors In Electrophotography (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Error Detection And Correction (AREA)

Description

  • Die vorliegende Erfindung betrifft ein Dekodierverfahren und ein Dekodiersystem zum Dekodieren eines Eingangssignals, das repräsentativ ist für kodierte Videobilddaten, für mit den Videobilddaten gemultiplexte kodierte Untertiteldaten zur Steuerung eines Anzeigegeräts, um einen einem Videobild überlagerten Untertitel anzuzeigen, und für kodierte Schlüsseldaten zur Steuerung der Bitrate des Videobilddatenstroms in einer maximalen Rate, einer minimalen Rate oder einer oder mehreren Zwischenraten zwischen der maximalen Rate und der minimalen Rate.
  • Wenn beispielsweise in einem Land ausländische Filme gezeigt werden, werden auf dem Bildschirm oft Untertitel überlagert. Als Untertitel-Übertragungssystem dieser Art wird bei einer Videodisk oder bei normalem Fernsehrundfunk ein Videosignal zusammen mit einem Untertitel übertragen, der vorher einem Videobild überlagert wurde.
  • Auf der anderen Seite kann z.B. in dem CAPTAIN-System ein Untertitel als Zeichencode oder Punktmuster übertrgen werden.
  • In einer CD-G kann Graphik mit Hilfe eines Subcodes aufgezeichnet werden, der auch zum Aufzeichnen eines Untertitels auf einer CD benutzt werden kann, Wie 26 zeigt, bestehen bei einer CD-G die Daten für einen Rahmen aus einem 1-Byte-Subcode und 32-Byte-Daten. In den 32-Byte-Daten sind dem linken Kanal L bzw. dem rechten Kanal R sechs Abtastwerte, die jeweils aus zwei Bytes bestehen, insgesamt also 24 Bytes zugeordnet. Zu diesen 24-Byte-Audiodaten wird ein 8-Byte-Fehlerkorrekturcode hinzugefügt, um Daten zu erzeugen, die aus insgesamt 32 Bytes bestehen.
  • Auf der anderen Seite werden die Subcodes von 98 Rahmen zu einem Block zusammengefaßt. Von den Subcodes der 98 Rahmen bilden die Subcodes für die ersten zwei Rahmen Synchronisiermuster (Sync-Muster) SO und S1. In den Subcodes der übrigen 96 Rahmen können verschiedene Subcodedaten aufgezeichnet werden. Den Daten des P-Kanals und des Q-Kanals des 1-Byte-Subcodes (die individuellen Bits sind mit P bis W bezeichnet) sind jedoch schon Daten für die Spursuche zugeordnet. Somit können den verbleibenden Kanälen R bis W mit 6 Bits Graphikdaten zugeteilt werden. Das heißt, es können effektiv bis 6 × 96 Bits an Graphikdaten zugeteilt werden.
  • Da die Daten für einen Block mit einer Frequenz von 75 Hz übertragen werden, beträgt die für einen Rahmen übertragene Datenmenge 75 × 98 Hz. Die Übertragungsbitrate eines Subcodes ist demnach gleich 7,35 kbytes/s.
  • 27 zeigt das Übertragungsformat für diese Art von Graphikdaten. Wie aus dieser Figur hervorgeht, bilden die Daten für sechs Bits des R-Kanals bis zum W-Kanal ein Symbol, und die Daten für 96 Symbole bilden ein Paket, das aus vier Päckchen besteht. Jedes Päckchen besteht aus 24 Symbolen, jeweils dem Symbol 0 bis zu dem Symbol 23. Den drei Bits R, S und T des Symbols 0 ist eine Modusinformation zugeordnet, und den drei Bits U, V und W des Symbols 0 ist eine Posten-Information zugeordnet. Durch die Kombination aus Modus und Posten werden die folgenden Betriebsarten definiert.
    Figure 00020001
  • Da dem Symbol 1 ein Befehl zugeordnet ist und dem Symbol 2 bzw. dem Symbol 3 die Paritäten für den Modus plus Posten und Befehl zugeordnet sind, umfaßt der Bereich, dem Graphikdaten zugeordnet werden können, 16 Symbole, nämlich die Symbole 4 bis 19. Die Paritäten für die 20 Symbole von dem Symbol 0 bis zu dem Symbol 19 sind den vier Symbolen von dem Symbol 20 bis zu dem Symbol 23 zugeteilt.
  • Auf diese Weise können bei der CD-G jedem Päckchen Graphikdaten als Binärdaten bis zu einer Menge von 6 × 12 Pixeln zugeteilt werden. Die Rate der Päckchen beträgt 75 × 4 = 300 Päckchen/s. Wenn ein Zeichen eine Größe von 6 × 12 Pixeln hat, können deshalb 300 Zeichen pro Sekunde übertragen werden.
  • Da ein bei der CD-G definierter Bildschirm 288 horizontale Pixel × 192 Zeilen umfaßt, dauert es 2,56 Sekunden, um die Zeichen für diesen einen Bildschirm zu übertragen, wie die folgende Gleichung zeigt: (288/6) × (192/12)/300 = 2,56 (1)
  • Da für ein Zeichenmuster vier mal ein unterschiedliches Muster übertragen werden muß, nimmt eine hexadezimale Darstellung in jedem Pixel 10,24 Sekunden in Anspruch, eine Zeit, die viermal so groß ist wie die obige.
  • Bei diesen herkömmlichen Verfahren, z.B. bei dem bei der Videodisk oder bei dem üblichen Fernsehrundfunk angewendeten Verfahren, bei dem ein Untertitel übertragen wird, der einem Videobild überlagert ist, tritt einerseits das Problem auf, daß der Benutzer den Untertitel nicht je nach Bedarf ein- oder ausschalten kann. Außerdem tritt das Problem auf, daß es nicht möglich ist, Untertitel für mehrere unterschiedliche Sprachen vorzusehen, um dem Benutzer die Möglichkeit zu geben, gewünschte Sprache auszuwählen.
  • Auf der anderen Seite tritt bei dem in dem CAPTAIN-System oder bei dem in der CD-G praktizierten Verfahren das Problem auf, daß der Untertitel zwar je nach Bedarf ein- oder ausgeschaltet werden kann, die Auflösung jedoch unzureichend ist.
  • Das heißt, bei dem CAPTAIN-System umfaßt der für die Anzeige eines Bildschirms verfügbare Bereich 248 horizontale Pixel × 192 Zeilen, während ein digitales Komponenten-Fernsehsignal eine Auflösung von 720 horizontalen Pixeln × 480 Zeilen hat, die offensichtlich unzureichend ist, wenn man sie mit der obigen Auflösung vergleicht.
  • Da bei der CD-G jedem Pixel Daten mit nur einem Bit entsprechen, werden die Daten in binärer Form dargestellt, und es tritt das Problem auf, daß z.B. Aliasing, durch das schräge Linienabschnitte eines Zeichens eingekerbt werden, oder ausgeprägtes Flimmern entsteht, die bei der Betrachtung störend in Erscheinung treten.
  • Binäre Information kann zwar z.B. mit Hilfe eines Filters in eine mehrwertige Information umgewandelt werden, dies erfordert jedoch ein hochpräzises Filter, das teuer ist. Außerdem wird durch die Verwendung eines solchen Filters auch das Hintergrundbild beeinträchtigt.
  • Wenn ein Pixel in einer CD-G durch einen hexadezimalen Wert dargestellt wird, tritt zusätzlich das oben beschriebene Problem auf, daß die benötigte Zeit etwa viermal so groß ist wie für die binäre Darstellung, so daß es schwierig wird, die Anzeige eines Untertitels mit hoher Geschwindigkeit umzuschalten.
  • EP-A-0 330 732 beschreibt ein Verfahren und ein System, bei denen Untertiteldaten unter Verwendung von Schlüsseldaten in Videobilddaten eingefügt werden.
  • Aus EP-A-0 466 398 ist außerdem Verfahren zum Reproduzieren einer digitalen Audioinformation bekannt, die eine musikalische Begleitung, sogenanntes "Karaoke", sowie darauf bezogene Bilddaten enthält, wobei für die Anzeige eines Zeichens eine Farbinformation zugeteilt wird, die die Farbe des Hintergrunds, die Farbe des Zeichens, die Farbe der Außenkante des Zeichens und die dem Zeichen zugeordnete Farbe bestimmt, wenn dieses sich in seiner Farbe ändert, wenn nacheinander die Worte eines Liedes angezeigt werden, während das Lied weitergeht.
  • Es ist ein Ziel der vorliegenden Erfindung, ein Dekodierverfahren und ein Dekodiersystem zur Verfügung zu stellen, die nach dem Wunsch des Benutzers die Anzeige von qualitativ hochwertigen Untertiteln ermöglicht. Darüber hinaus soll sie das Umschalten der Anzeige eines Untertitels mit hoher Geschwindigkeit ermöglichen, ohne daß das Videobild im Hintergrund beeinträchtigt wird.
  • Diese Ziele werden erreicht durch ein Dekodierverfahren und ein Dekodiersystem nach den anliegenden unabhängigen Ansprüchen. Vorteilhafte Weiterbildungen der Erfindung sind in den entsprechenden Unteransprüchen definiert.
  • Ein Untertiteldaten-Dekodierverfahren und -system ist dadurch gekennzeichnet, daß in einem Untertiteldaten-Dekodierverfahren zum Dekodieren der nach dem oben beschriebenen Verfahren kodierten Untertiteldaten die Abschwächungsrate des Videobilds zu einem Minimum gemacht wird, wenn die dekodierten Schlüsseldaten die Maximum- oder Minimum-Daten sind, daß die Abschwächungsrate des Videoilds zu einem Maximum gemacht wird, wenn die dekodierten Schlüsseldaten die Minimum- oder Maximum-Daten sind, und daß dann, wenn die Schlüsseldaten einen zwischen dem Minimum und dem Maximum liegenden Wert haben, die Abschwächungsrate des Videobilds so groß gemacht wird, daß sie der Größe des Werts entspricht.
  • Ein Dekodierverfahren ist dadurch gekennzeichnet, daß in einem Dekodierverfahren zum Dekodieren von kodierten Daten die Abschwächungsrate des Videobilds zu einem Minimum gemacht wird, wenn die dekodierten Schlüsseldaten die Maximum- oder Minimum-Daten sind, daß die Abschwächungsrate des Videobilds zu einem Maximum gemacht wird, wenn die dekodierten Schlüsseldaten die Minimum- oder Maximum-Daten sind, und daß dann, wenn die Schlüsseldaten einen zwischen dem Minimum und dem Maximum liegenden Wert haben, die Abschwächungsrate des Videobilds so groß gemacht wird, daß sie der Größe des Werts entspricht.
  • In einem Untertiteldaten-Dekodierverfahren und -system wird die Abschwächungsrate des Videobilds so gesteuert, daß sie dem Wert der Schlüsseldaten entspricht. Außerdem wird in einem Dekodierverfahren und -system die Abschwächungsrate des Videobilds zu einem Minimum gemacht wird, wenn die dekodierten Schlüsseldaten Maximum- oder Minimum-Daten sind, die Abschwächungsrate des Videobilds wird zu einem Maximum gemacht, wenn die dekodierten Schlüsseldaten Minimum- oder Maximum-Daten sind, und wenn die Schlüsseldaten einen zwischen dem Minimum und dem Maximum liegen den Wert haben, wird die Abschwächungsrate des Videobilds so groß gemacht, daß sie der Größe des Werts entspricht. Auf diese Weise kann ein Untertitel deutlicher angezeigt werden. Bei dem Aufzeichnungsmedium gemäß der Erfindung werden die Schlüsseldaten, die der Abschwächungsrate des Videobilds für die Überlagerung eines Untertitels entsprechen, der dem Videobild für die Anzeige auf dem Videobild überlagert werden soll, in quantisierter Form aufgezeichnet. Deshalb kann die Abschwächungsrate des Videobilds nach Maßgabe der Größe des Werts der Schlüsseldaten gesteuert werden, so daß der Untertitel deutlicher wiedergegeben werden kann.
  • 1 zeigt ein Blockdiagramm eines Ausführungsbeispiels des Untertiteldaten-Kodiersystem, bei dem das Untertiteldaten-Kodierverfahren angewendet wird,
  • 2(A) und 2(B) zeigen Darstellungen zur Erläuterung der Beziehung zwischen Untertiteldaten und Schlüsseldaten,
  • 3 zeigt eine Darstellung zur Erläuterung des Kodierprinzips für Untertiteldaten und Schlüsseldaten,
  • 4 zeigt ein Flußdiagramm zur Erläuterung der Quantisierung von Schlüsseldaten in der Quantisierschaltung 14 von 1,
  • 5 zeigt ein Flußdiagramm zur Erläuterung der Quantisierung von Untertiteldaten in der Quantisierschaltung 14 von 1,
  • 6 zeigt eine Darstellung zur Erläuterung des Bildschirms mit einem Seitenverhältnis, das eine größere Seitenlänge aufweist,
  • 7 zeigt eine Darstellung zur Erläuterung des Bildschirms bei dem Stauchungsverfahren,
  • 8 zeigt ein Blockdiagramm eines Beispiels für den Aufbau der Verarbeitungsschaltung 13 in 1,
  • 9(A) bis 9(D) zeigen Figuren zur Erläuterung der variablen Längencodes in der variablen Längenkodierschaltung 17 von 1,
  • 10(A) bis 10(D) zeigen Figuren zur Erläuterung der Farbartvektoren, die von der Vektorgeneratorschaltung 23 von 1 erzeugt werden,
  • 11 zeigt ein Blockdiagramm eines Beispiels für den Aufbau der Schwellwertschaltung 21 von 1
  • 12 zeigt ein Blockdiagramm eines Beispiels für den Aufbau der End-Detektorschaltung 22 in 1,
  • 13 zeigt ein Blockdiagramm eines Beispiels für den Aufbau der Vektorgeneratorschaltung 23 in 1,
  • 14 zeigt eine Darstellung zur Erläuterung des Ausgangsformats der Paketierschaltung 18 in 1,
  • 15 zeigt eine Darstellung zur Erläuterung der Positionsinformation, die der Paketierschaltung 18 von 1 zugeführt wird,
  • 16 zeigt ein Blockdiagramm eines Beispiels für den Aufbau des Untertiteldaten-Dekodiersystems, bei dem das Untertiteldaten-Dekodierverfahren angewendet wird,
  • 17 zeigt ein Blockdiagramm eines Beispiels für den Aufbau der Fehlerprüfschaltung 82 in 16,
  • 18 zeigt ein Zeitdiagramm zur Erläuterung der Funktionen der Codepuffer 86a und 86b in 16,
  • 19 zeigt ein Flußdiagramm zur Erläuterung der inversen Quantisierung in der inversen Quantisierschaltung 91 von 16,
  • 20 zeigt ein Blockdiagramm, in dem der Aufbau des Registers 93, des Rahmenregisters 94 und des Mischers 92 in 16 detaillierter dargestellt sind,
  • 21 zeigt ein Blockdiagramm, in dem der Aufbau des Mischers 92 von 16 detaillierter dargestellt ist,
  • 22 zeigt eine Darstellung zur Erläuterung des die Anzeigeposition spezifizierenden Signals, das dem Mischer 92 von 16 zugeführt wird,
  • 23 zeigt ein Blockdiagramm eines weiteren Strukturbeispiels des UntertiteldatenKodiersystems, bei dem das Untertiteldaten-Kodierverfahren angewendet wird,
  • 24 zeigt eine Darstellung zur Erläuterung des Formats am Ausgang des Untertitel-Kodiersystems 205 von 23,
  • 25 zeigt ein Blockdiagramm eines Ausführungsbeispiels des Dekodiersystems zum Kodieren des Ausgangssignals des Ausführungsbeispiels von 23,
  • 26 zeigt eine Darstellung zur Erläuterung des herkömmlichen Subcodeformats,
  • 27 zeigt das Übertragungsformat des herkömmlichen Subcodes.
  • 1 zeigt ein Blockdiagramm, aus dem der Aufbau eines Ausführungsbeispiels des Systems hervorgeht, bei dem das Untertiteldaten-Kodierverfahren angewendet wird. Bei diesem Ausführungsbeispiel wird das von einer Videokamera 1 ausgegebene Videosignal einem Videokodierer 2 zugeführt, in dem es einer Analog-/Digitalwandlung und Komprimierung unterzogen wird. Anstelle der Videokamera 1 kann natürlich auch ein Videodisk-Player oder ein Videorecorder benutzt und das von diesem reproduzierte Videosignal dem Videokodierer 2 zugeführt werden.
  • Der Videokodierer 2 enthält eine Ratensteuerung 2a, die die Kompressionsrate der Videodaten nach Maßgabe des Bitraten-Steuersignals steuert, das von einer Paketierschaltung 18 ausgegeben wird. Das heißt, die Untertiteldaten werden, wie weiter unten beschrieben, in einem Untertitel-Kodiersystem 7 kodiert. Wenn die Menge der kodierten Daten jedoch klein ist, wächst die gesamte Datenmenge selbst dann nicht an, wenn die Menge der zu kodierenden Videodaten größer wird. Das heißt, den Videodaten können mit einer entsprechend höheren Qualität erzeugt werden. Wenn umgekehrt die Menge an Untertiteldaten groß ist, nimmt die Menge der den Videodaten zugeordneten Daten ab.
  • Die in dieser Weise von dem Videokodierer 2 komprimierten und kodierten Videodaten werden einem Multiplexer 8 zugeführt.
  • In ähnlicher Weise wird ein von einem Mikrofon 3 aufgenommenes Audiosignal einem Audiokodierer 4 zugeführt, in dem es einer Analog-/Digitalwandlung unterzogen, komprimiert und kodiert wird. Auch in diesem Fall kann anstelle des Mikrofons 3 z.B. ein Bandgerät benutzt und das von diesem reproduzierte Audiosignal dem Audiokodierer 4 zugeführt werden. Die von dem Audiokodierer 4 kodierten Audiodaten werden dem Multiplexer 8 zugeführt.
  • Auf der anderen Seite werden die von einem Zeichengenerator 5 erzeugten digitalen Untertiteldaten oder die von einem Lichtpunktscanner 6 ausgegebenen analogen Untertiteldaten dem Untertiteldaten-Kodiersystem 7 zugeführt und, nachdem sie komprimiert und kodiert wurden, dem Multiplexer 8 zugeführt.
  • Der Multiplexer 8 multiplext die zugeführten Videodaten, Audiodaten und Untertiteldaten und zeichnet sie auf einer Platte 28 als Aufzeichnungsmedium auf oder überträgt sie über einen als Übertragungspfad dieneden Übertragungskanal 29 zu der Empfangsseite.
  • Das Untertitel-Kodiersystem 7 wird nun ausführlicher beschrieben. Der Zeichengenerator 5 erzeugt Untertiteldaten, die dem von dem Videokodierer 2 kodierten Videobild entsprechen, und liefert sie an den Kontakt "a" eines Schalters 11 des Untertitel-Kodiersystems 7. Außerdem liefert der Zeichengenerator 5 Schlüsseldaten an den Kontakt "b" des Schalters 11. Der Schalter 11 wird mit einer vorbestimmten zeitlichen Folge auf den Kontakt "a" oder den Kontakt "b" geschaltet, um je nach Bedarf Untertiteldaten oder Schlüsseldaten auszuwählen, und liefert diese über den gemeinsamen Kontakt eines Schalters 12 an eine Quantisierschaltung 14.
  • Anhand von 2 wird die Beziehung zwischen Schlüsseldaten und Untertiteldaten beschrieben. Es sei angenommen, daß als Zeichen, das in dem Untertitel angezeigt werden soll, der Buchstabe "A" anliegt, wie dies in 2(A) dargestellt ist. Die Untertiteldaten der Zeile (horizontale Abtastzeile), die in der Zeichnungsfigur durch eine horizontale Zeile repräsentiert werden, sind in 2(B) dargestellt. Wie die Figur zeigt, haben die Untertiteldaten in der Periode T3 einen Pegel, der der Helligkeit des anzuzeigenden Zeichens entspricht.
  • Auf der anderen Seite haben die Schlüsseldaten den höchsten Pegel in den Perioden T1 und T5, die vor und hinter der Periode T3 und im Abstand von der Periode T3 auftreten. Der Pegel in der Periode T2 zwischen den Perioden T1 und T3 und der Pegel in der Periode T4 zwischen den Perioden T3 und T5 sind auf einen vorbestimmten Pegel gesetzt, der zwischen dem minimalen Pegel und dem maximalen Pegel liegt. In der Periode T2 ändert sich der Pegel allmählich von dem maximalen Pegel auf den minimalen Pegel, und in der Periode T4 ändert er sich allmählich von dem minimalen Pegel auf den maximalen Pegel.
  • Das heißt, in der Periode T3 werden die Untertiteldaten mit vier Bits kodiert, und der Pegel des Videosignals des Hintergrund-Videobilds wird im wesentlichen auf den Schwarzpegel heruntergefahren. Andererseits werden die Schlüsseldaten in den Perioden T1 und T5 mit vier Bits kodiert, und der Pegel des dem Untertitel entsprechenden Untertitelsignals wird im wesentlichen auf einen vorbestimmten Pegel (im vorliegenden Ausführungsbeispiel einen Graupegel, obwohl es auch ein Schwarzpegel sein kann) heruntergefahren, und das Hintergrund-Videobild wird direkt angezeigt. In den Perioden T2 und T4 werden die Schlüsseldaten mit vier Bits kodiert, und das Hintergrund-Videobild wird entsprechend dem Wert der Schlüsseldaten abgeschwächt. Im vorliegenden Ausführungsbeispiel nimmt die Abschwächungsrate des Hintergrund-Videobilds ab, wenn der Wert der Schlüsseldaten anwächst, und die Abschwächungsrate des Hintergrund-Videobilds nimmt zu, wenn der Wert der Schlüsseldaten abnimmt. Auf diese Weise wird das Hintergrund-Videobild in der Periode zur Anzeige eines Zeichens im wesentlichen vollständig abgeschwächt, während das Hintergrund-Videobild in der Nähe des Zeichens allmählich geändert wird, um zu verhindern, daß der Untertitel (Zeichen) undeutlich wird.
  • Die Quantisierschaltung 14 stellt die Pegel der Untertiteldaten oder Schlüsseldaten kollektiv als 4-Bit-Daten dar. 3 zeigt das Prinzip der kollektiven Darstellung der Pegel der Untertiteldaten (Fülldaten) und Schlüsseldaten. Wie in dieser Figur dargestellt ist, sind von den 16 Pegeln, die sich mit vier Bits darstellen lassen, die acht Pegel von 0 bis 7 den Schlüsseldatenpegeln zugeordnet, während die acht Pegel von 8 bis 15 den Untertiteldaten zugeordnet sind. Das heißt, die Pegel der Schlüsseldaten werden durch 4-Bit-Daten von "0000" bis "0111" ausgedrückt, und die Pegel von Untertiteldaten werden durch 4-Bit-Daten von "1000" bis "1111" ausgedrückt.
  • Dies hat zur Folge, daß das MSB der 4-Bit-Daten den Identifizierer für die Unterscheidung von Schlüsseldaten und Untertiteldaten bildet. Das heißt, wenn das höchstwertige Bit (MSB) gleich "1" ist, repräsentieren die übrigen drei Bits einen Untertiteldatenpegel, und die diesem Pegel entsprechenden Untertiteldaten werden angezeigt. Wenn das MSB gleich "0" ist, repräsentieren die übrigen drei Bits einen Schlüsseldatenpegel, und es wird nur das Hintergrund-Videobild mit einem dem Schlüsseldatenwert entsprechenden Pegel angezeigt. Wenn der Schlüsseldatenpegel gleich 7 (= "0111") ist, oder in den Perioden T1 und T5 in 2(B), wird die Abschwächungsrate des Hintergrund-Videobilds gleich Null, und das Hintergrund-Videobild wird mit seinem eigenen Pegel angezeigt.
  • Durch die in dieser Weise erfolgende kollektive Darstellung von Schlüsseldaten und Untertiteldaten als 4-Bit-Daten (jeder Pegel besteht im wesentlichen aus 3-Bit-Daten, da das MSB den Typ repräsentiert), können diese 4-Bit-Daten als im wesentlichen gleiche Daten in einem Bitstrom angeordnet werden, um den Schaltungsaufbau zu vereinfachen. Darüber hinaus kann die Zuordnung der Pegel der beiden passend geändert werden.
  • 4 und 5 zeigen die Prinzipien, nach denen die Pegel der Schlüsseldaten und Untertiteldaten quantisiert werden. In den Perioden T1, T2, T4 und T5 von 2 werden der Quantisierschaltung 14 z.B. Schlüsseldaten zugeführt. Wenn ein Schlüsseldatenpegel, wie in 4 gezeigt, durch acht Pegelwerte repräsentiert wird und 256 Pegelwerte von 0 bis 255 vorhanden sind, unterteilt die Quantisierschaltung 14 die 256 Pegelwerte in acht Bereiche und legt in den Schritten S21 bis S28 fest, zu welchem Bereich der Wert der eingegebenen Schlüsseldaten "y" gehört. Das heißt, die acht Bereiche sind die Bereiche von 0 bis 6, von 7 bis 10, von 11 bis 26, von 27 bis 50, von 51 bis 95, von 96 bis 130, 131 bis 204 und von 205 bis 255. Wenn in den Schritten S21 bis S28 festgestellt ist, zu welchem dieser Bereiche "y" gehört, geht der Prozeß weiter zu dem entsprechenden der Schritte S29 bis S36, und einer der Werte 7 (= "0111") bis 0 (= "0000") wird als die mit 4 Bit quantisierte Ausgangsgröße "z" ausgegeben.
  • In ähnlicher Weise werden der Quantisierschaltung 14 z.B. in der Periode T3 in 2 Untertiteldaten zugeführt. Wenn die Untertiteldaten durch acht Bits repräsentiert werden und 256 Pegelwerte, nämlich die Pegelwerte 0 bis 255, haben, wird in den Schritten S1 bis S8 von 5 festgestellt, zu weichem der Bereiche 255 bis 234, 233 bis 215, 214 bis 150, 149 bis 140, 139 bis 128, 127 bis 86, 85 bis 55 und 54 bis 0 die Untertiteldaten (Fülldaten) "x" gehören. Wenn festgestellt ist, daß "x" zu irgendeinem dieser Bereiche gehört, geht der Prozeß weiter zu dem entsprechenden der Schritte S9 bis S16, und die mit vier Bit quantisierten Daten "z" werden als einer der Werte 15 (= "1111") bis 8 (= "1000") gesetzt. Es ist übrigens auch möglich, daß der Zeichengenerator 5 4-Bit-Untertiteldaten und 4-Bit-Schlüsseldaten erzeugt und diese unter Umgehung der Quantisierschaltung 14 einer DPCM-Schaltung 15 direkt zugeführt werden.
  • Der Quantisierschaltung 14 werden von dem Zeichengenerator 5 außerdem über den Kontakt "a" des Schalters 12 Austastdaten zugeführt. Wenn nötig, können in die Austastdaten verschiedenen Daten eingefügt sein.
  • Die von der Verarbeitungsschaltung 13 ausgegebenen Untertiteldaten werden über den Kontakt "c" des Schalters 12 ebenfalls der Quantisierschaltung 14 zugeführt. Die Verarbeitungsschaltung 14 kann das von dem Lichtpunktscanner 6 ausgegebene analoge Untertitelsignal verarbeiten und als digitale Untertiteldaten ausgeben.
  • Wenn das dem Videokodierer 2 zugeführte Videosignal dasjenige ist, das durch Umwandlung eines Films in ein Videosignal gewonnen wird, hat sein Seitenverhältnis z.B. eine größere Seitenlänge, wie dies in 6 dargestellt ist. Einige der gebräuchlichen Fernsehempfänger haben einen Bildschirm mit einem Seitenverhältnis von 16:9, wie es bei dem sog. hochauflösenden Fernsehen vorgesehen ist, und in einem Fernsehempfänger mit einem solchen Seitenverhältnis kann ein Bild mit dem Seitenverhältnis eines Kinofilms direkt auf dem Bildschirm des Fernsehempfängers angezeigt werden.
  • Auf der anderen Seite hat das herkömmliche NTSC-System ein Seitenverhältnis von 4:3, wie dies in 7 dargestellt ist. Um ein Bild mit einem Seitenverhältnis, das eine größere Seitenlänge hat, auf dem Bildschirm mit dem Seitenverhältnis des herkömmlichen NTSC-Systems zu betrachten, muß sein Seitenverhältnis in 4:3 umgewandelt werden, wobei in diesem Fall das Bild jedoch länglich verformt wird, wie dies in 7 dargestellt ist.
  • In einem Fernsehempfänger mit einem Seitenverhältnis mit größerer Seitenlänge kann jedoch ein Bild mit normalem Seitenverhältnis betrachtet werden, wie in 6 dargestellt, wenn das in das Seitenverhältnis von 4:3 umgewandelte Videosignal in das originale Seitenverhältnis zurückgeführt wird. Ein Fernsehempfänger mit einem Seitenverhältnis mit größerer Seitenlänge enthält oft eine Wandlerschaltung, die das Seitenverhältnis von 4:3 im Stauchungsverfahren in das originale Seitenverhältnis zurückführt, wie dies oben beschrieben wurde. Wenn ein solches Bild mit dem Seitenverhältnis, das eine größere Seitenlänge aufweist, zugeführt wird, wie es in 6 dargestellt ist, wandelt der Videokodierer 2 es durch das Stauchungsverfahren in ein Bild mit dem Seitenverhältnis von 4:3 um, bevor es kodiert wird, wie dies in 7 dargestellt ist.
  • Wenn das Seitenverhältnis eines Bilds auf diese Weise durch das Stauchungsverfahren umgewandelt wird, muß auch das Seitenverhältnis eines Untertitels, der eine größere Seitenlänge hat, durch das Stauchungsverfahren umgewandelt werden. Die Verarbeitungsschaltung 13 enthält eine solche Funktion.
  • 8 zeigt ein Beispiel für den Aufbau der Verarbeitungsschaltung 13. Der Lichtpunktscanner 6 liefert an die Komparatorschaltung 35 der Verarbeitungsschaltung 13 ein ana loges Untertitelsignal Vin, das dem dem Videokodierer 2 zuzuführenden Videobild entspricht. Der Komparatorschaltung 35 werden außerdem die Referenzspannungen zugeführt, die von einer aus n Widerständen 341 bis 34n aufgebauten Spannungsteilerschaltung 34 ausgegeben werden.
  • Die Komparatorschaltung 35 besitzt n Komparatorelemente 351 bis 35n , denen die betreffenden von der Spannungsteilerschaltung 34 ausgegebenen Referenzspannungen zugeführt werden, und sie vergleicht das von dem Lichtpunktscanner 6 zugeführte Untertitelsignal mit den entsprechenden Referenzwerten. Die Komparatorelemente 35i bis 35n geben z.B. ein Signal mit dem logischen Wert "1" aus, wenn das Untertitelsignal größer ist als der Referenzwert, während sie ein Signal mit dem logischen Wert "0" ausgeben, wenn der Referenzwert größer ist als das Untertitelsignal.
  • Ein Kodieren 36 überwacht das Ausgangssignal der Komparatorelemente 351 bis 35n und kodiert die n Pegel zu einem m-Bit-Signal, wobei n = 2m. Eingangssignale NMINV und NLINV legen fest, ob der Maximalwert oder der Minimalwert, der von der Komparatorschaltung 35 ausgegeben wird, nach der Quantisierung dem Wert Null entsprechen soll. Eine Verriegelungsschaltung 37 verriegelt die von dem Kodierer 36 ausgegebenen m-Bit-Daten und liefert sie über den Kontakt "c" des Schalters 10 an die Quantisierschaltung 14.
  • Das Taktausgangssignal einer Oszillatorschaltung 31 oder 32 wird über einen Schalter 33 der Komparatorschaltung 35, dem Kodierer 36 und der Verriegelungsschaltung 37 zugeführt. Die Frequenz des Taktausgangssignals der Oszillatorschaltung 31 beträgt 13,5 MHz, und die Frequenz des Taktausgangssignals der Oszillatorschaltung 32 beträgt 10,125 MHz. Das heißt, das Verhältnis der beiden ist 4:3.
  • Wenn das in dem Videokodierer 2 verarbeitete Videosignal ein Videosignal nach dem NTSC-System mit dem üblichen Seitenverhältnis von 4:3 ist, wird der Schalter 33 auf die in der Zeichnungsfigur obere Seite umgeschaltet, so daß das Taktausgangssignal der Oszillatorschaltung 31 ausgegeben werden kann. Wenn der Videokodierer 2 hingegen ein Videosignal nach dem Stauchungsverfahren kodiert, wird der Schalter 33 auf die in der Zeichnungsfigur untere Seite umgeschaltet. Dadurch kann das Taktausgangssignal der Oszillatorschaltung 32 ausgegeben werden. Da die Frequenz des Takts in diesem Fall 10,125 MHz beträgt, die 3/4 der üblichen Frequenz von 13,5 MHz entspricht, wird das der Komparatorschaltung 35 zugeführte Untertitelsignal ebenfalls nach dem Stauchungsverfahren verarbeitet. Die Verarbeitungsschaltung 13 kann übrigens mit dem 4-Bit-Analog-/Digitalwandler TDC1021 implementiert werden, der von TRW Corp. hergestellt wird. In diesem Fall besteht das Ausgangssignal der Verarbeitungsschaltung 13 aus 4-Bit- Daten und kann unter Umgehung der Quantisierschaltung 14 direkt der DPCM-Schaltung 15 zugeführt werden.
  • Da die Untertiteidaten und die Schlüsseldaten, die der Zeichengenerator 5 liefert, digitale Daten sind, werden sie in einer digitalen Filterschaltung 24 aus normalen Daten in gestauchte Daten umgewandelt und über den Kontakt "b" des Schalters 12 der Quantisierschaltung 14 zugeführt.
  • Die in der Quantisierschaltung 14 quantisierten Untertiteldaten werden der DPCM-Schaltung 15 zugeführt und dort verarbeitet. Das Ausgangssignal der DPCM-Schaltung 15 wird dann einer Lauflängen-Kodierschaltung 16 zugeführt. Die Lauflängen-Kodierschaltung 16 kodiert die zugeführten DPCM-Untertiteldaten in Pegel-/Lauflängen-Paare. Eine variable Längenkodierschaltung 17 unterzieht die von der Lauflängen-Kodierschaltung 16 gelieferte Lauflänge einer variablen Längenkodierung nach einer Tabelle, die in 9 dargestellt ist. Eine Paketierschaltung 18 kombiniert die mit variabler Länge kodierten Daten mit Pegeln.
  • Wenn z.B. das Ausgangssignal der Quantisierschaltung 14 gleich 1, 4, 7, 12, 15, ... ist, ist das Ausgangssignal der DPCM-Schaltung 15 gleich 1, 3, 3, 5, 3, das Ausgangssignalpaar (Pegel, Lauflänge) der Lauflängen-Kodierschaltung 16 bildet Daten wie (1, 1), (3, 2), (5, 1), (3, 1) ..., und die Bitkette nach der variablen Längenkodierung der Lauflänge in der variablen Längenkodierschaltung 17 wird zu "0001000111000101000110...".
  • Die ersten 4-Bit-Daten "0001" geben an, daß die ersten Daten (Pegel) gleich 1 sind. Die nächsten 1-Bit-Daten "0" geben an, daß die Lauflänge gleich 1 ist. Die nächsten Daten "0011" geben an, daß der Datenwert (Pegel) gleich 3 ist. Die nächsten Daten "1100" geben an, daß die Lauflänge gleich 2 ist. Die Kodierung wird in ähnlicher Weise für die nachfolgenden Daten durchgeführt.
  • Falls die Zahl der Lauflängen eine vorgegebene Zahl (in diesem Ausführungsbeispiel 57) übersteigt, kann die Datenmenge verringert werden, wenn der VLC-Code auf eine feste Länge gesetzt wird. Im vorliegenden Ausführungsbeispiel wird der VLC-Code auf eine feste Länge von 12 Bits gesetzt, wenn die Zahl der Lauflängen größer ist als 57. Am Ende einer Zeile ist zusätzlich ein VLC-Code "1111111" angeordnet, der das Ende repräsentiert.
  • Die Daten (Lauflänge), die in dieser Weise in der variablen Längenkodierschaltung 17 einer variablen Längenkodierung unterzogen wurden, werden in der Paketierschaltung 18, wie oben beschrieben, mit dem von der Lauflängen-Kodierschaltung 16 extrahierten Pegelwert verpackt und an den Multiplexer 8 ausgegeben.
  • Die Paketierschaltung 18 multiplext nun einen Zeitcode, eine Positionsinformation und EOP mit Y-Codedaten, die Untertiteldaten repräsentieren. Der Zeitcode ist der gleiche wie der Zeitcode des Videovollbilds mit einem Timing, mit dem ein Untertitel angezeigt werden soll. Die Positionsinformation repräsentiert die Position, an der der Untertitel in dem Videovollbild angezeigt werden soll (Blockposition) (dieser Punkt wird weiter unten anhand von 22 beschrieben). EOP sind Daten, die das Ende des Untertitels einer Seite repräsentieren. Darüber hinaus fügt die Paketierschaltung 18 einen zyklischen 16-Bit-Redundanzprüfcode (CRC) hinzu, damit auf der Dekodiererseite eine Fehlerdetektierung durchgeführt werden kann.
  • Die Paketierschaltung 18 berechnet in vorbestimmten Zeitintervallen die Menge der erzeugten Untertiteldaten und liefert das Rechenergebnis an die Ratensteuerung 2a des Videokodierers 2. Die Ratensteuerung 2a bestimmt die Bitmenge für den ersten Durchgang der Videokodierung in dem ersten Durchgangsprozeß und setzt, wenn sie die Menge der Untertiteldaten aus dem Signal aus der Paketierschaltung 18 bestimmt, die Bitrate in dem Videokodierer 2 in dem zweiten Durchgang der Videokodierung so fest, daß sich eine variable Rate ergibt, die die Kapazität des Übertragungskanals 29 oder der Platte 28 maximal ausnutzt. Der mit variabler Rate arbeitende Videokodierer, in dem die Bitrate in zwei Durchläufen festgesetzt wird, wird hier nicht näher erläutert, da er in der internationalen Patentanmeldung Nr. PCT/JP94/00610 beschrieben ist, die auf die Inhaberin der vorliegenden Anmeldung zurückgeht.
  • Daten für das Senden von Zeichen, für Teletext und andere Dienste, die die Austastregion (Zeilenrücklaufintervall) nutzen, werden in ähnlicher Weise dem Untertitel-Kodiersystem 7 zugeführt, der sie einem ähnlichen wie dem oben beschriebenen Prozeß unterzieht, so daß sie unabhängig von den Videodaten in der effektiven Abtastperiode kodiert und übertragen werden.
  • Wenn eine Blendenleiste angezeigt werden soll, werden in der Paketierschaltung 18 der Farbartvektor, der Helligkeitsdaten-(Y)-Offsetpegel und der Farbartdaten-(C)-Offsetpegel, die von einer Vektorgeneratorschaltung erzeugt werden, ebenfalls mit den Untertiteldaten zusammengepackt. Der Helligkeitsdaten-Offsetpegel repräsentiert einen Offsetwert für Y-Codedaten. Der Farbartdaten-Offsetpegel repräsentiert einen Offsetwert für den Vorgabewert für die Farbart. Der Farbartvektor wird anhand von 10 beschrieben.
  • Es sei nun angenommen, daß Buchstaben A bis E auf einem Bildschirm als Untertitel angezeigt werden sollen, wie dies in 10 dargestellt ist. Wenn die Untertitel z.B. die Wörter eines "Karaoke"-(Mitsing)-Systems sind, ändert sich die Position der zu singenden Wörter (Buchstaben) im Lauf der Zeit allmählich, so wie die Musik fortschreitet. Die zu singenden Wörter (Buchstaben) werden mitunter durch eine Blendenleiste 200 in einer vorbestimmten Farbe dargestellt, so daß der Benutzer die Position der zu singenden Wörter leicht erkennen kann. In einem solchen Fall werden während dieser Seite Untertitel (Buchstaben) A bis E angezeigt. Das heißt, es werden Untertitel (A bis E) angezeigt, bis die Wörter (A bis E) vom Anfang bis zum Ende vollständig gesungen sind. Deshalb besteht diese Seite im allgemeinen aus einem Videobild mit mehreren Halbbildern oder Vollbildern.
  • In 10 repräsentieren 0, n-2, n-1 und n Vollbilder, die sich zeitlich ändern. Im vorliegenden Ausführungsbeispiel liegt in dem (n-2)-ten Vollbild das Ende der Blendenleiste 200 im wesentlichen in der Mitte der linken Hälfte des Buchstabens A, und in dem (n-1)-ten Vollbild erreicht das Ende der Blendenleiste 200 eine Position etwa drei Viertel über der rechten Hälfte des Buchstabens A. In dem n-ten Vollbild erreicht das Ende der Blendenleiste 200 eine Position etwa ein Viertel über dem Buchstaben B.
  • Wenn sich der Pegel der Farbartsignale in den in 10 durch (a) und (b) repräsentierten Zeilen in den entsprechenden Vollbildern n-2, n-1 und n ändert, werden sie durch TRn-2, TRn-1 und TRn, dargestellt. Das heißt, zwischen der inneren und äußeren Region der Blendenleiste 200 ändert sich der Farbpegel. Da die Blendenleiste 200 sich während der Periode von dem Vollbild 0 bis zu dem Vollbild n-2 in der Figur nach rechts bewegt, wird der Farbartvektor, der die Bewegung der Blendenleiste 200 während dieser Periode repräsentiert, durch TRn-2 dargestellt. In ähnlicher Weise werden der Farbartvektor während der Periode von dem Vollbild n-2 bis zu dem Vollbild n-1 und der Farbartvektor, der der Bewegung der Blendenleiste 200 von dem Vollbild n-1 bis zu dem Vollbild n entspricht, durch TRn-1 und TRn dargestellt.
  • Um solche Farbartvektoren zu erzeugen, gibt der Zeichengenerator 5 in 1 zusätzlich zu den Zeichendaten die Daten der Blendenleiste als Untertiteldaten aus. Das Ausgangssignal der Quantisierschaltung 14, das den Daten der Blendenleiste entspricht, wird einer Schwellwertschaltung 21 zugeführt, das Ausgangssignal der Schwellwertschaltung 21 wird einer Ende-Detektorschaltung 22 zugeführt, das Ausgangssignal der Ende-Detektorschaltung 22 wird der Vektorgeneratorschaltung 23 zugeführt und der von der Vektorgeneratorschaltung 23 erzeugte Farbartvektor wird der Paketierschaltung 18 zugeführt.
  • Die Schwellwertschaltung 21 hat z.B. den in 11 dargestellten Aufbau. Von der Quantisierschaltung 14 ausgegebene Farbdifferenzdaten Cu, die der Blendenleiste 200 entsprechen, werden einer Subtrahierschaltung 41 zugeführt. In einem Register 42 wird das Ausgangssignal der Subtrahierschaltung 41 in dem Zeitpunkt, in dem der vorangehende Takt geliefert wurde, gehalten. Die Subtrahierschaltung 41 subtrahiert den in dem Register 42 gehaltenen Wert von dem laufend zugeführten Wert und hält die Differenz wieder in dem Register 42.
  • Das heißt, da diese Operation jedesmal wiederholt wird, wenn ein Takt zugeführt wird, hält das Register 42 die Differenzdaten aus den Farbdifferenzdaten in den Zeitpunkten, in denen zwei Takte eingegeben werden. Wenn die Farbdifferenzdaten Cu sich in der Periode, in der die zwei Takte erzeugt werden, nicht ändern, wird in dem Register 42 im wesentlichen ein Nullwert (oder ein sehr kleiner Wert) gehalten. Wenn hingegen in den Farbdifferenzdaten Cu eine Änderung eintritt, wird in dem Register 42 ein großer Wert gehalten. Der Wert in dem Register 42 wird für jede Zeile gelöscht.
  • Der in dem Register 42 gehaltene Wert wird einer Komparatorschaltung 43 zugeführt und mit einem vorbestimmten Referenzwert verglichen, der zuvor eingestellt wurde. Die Komparatorschaltung 43 gibt ein Signal mit dem logischen Wert "1" aus, wenn der in dem Register 42 gehaltene Wert größer ist als der Referenzwert.
  • Ein Subtrahierer 51, ein Register 52 und eine Komparatorschaltung 53 bilden zusammen eine ähnliche Anordnung wie die Subtrahierschaltung 41, das Register 42 und die Komparatorschaltung 43 und führen für andere Farbdifferenzdaten Cv, die der Blendenleiste 200 entsprechen, einen ähnlichen Prozeß aus. Die Komparatorschaltung 53 gibt so eine logische "1" aus, wenn in den Farbdifferenzdaten Cv eine Änderung eintritt, die größer ist als der Referenzwert.
  • Wenn die Komparatorschaltung 43 oder die Komparatorschaltung 53 ein Signal mit dem logischen Wert "1" ausgibt, liefert ein ODER-Glied 44 dieses Signal an die Ende-Detektorschaltung 22. Das heißt, das ODER-Glied 44 gibt ein Signal mit dem logischen Wert "1" aus, wenn das rechte Ende der in 10 dargestellten Blendenleiste 200 detektiert wird.
  • Die Ende-Detektorschaltung 22 hat z.B. den in 12 dargestellten Aufbau. Das Ausgangssignal des ODER-Glieds 44 von 11 wird einem Register 61 in 12 zugeführt und in diesem gehalten. Die in dem Register 61 gehaltenen Daten werden in einem Inverter 62 invertiert und einem UND-Glied 63 und einem NOR-Glied 64 zugeführt. Dem UND-Glied 63 und dem NOR-Glied 64 werden außerdem die von dem ODER-Glied 44 in 11 ausgegebenen Daten direkt zugeführt.
  • Das heißt, das Register 61 hält die logische Verknüpfung, die das ODER-Glied 44 im Zeitpunkt des vorhergehenden Takts erzeugt hat, und das UND-Glied 63 und das NOR-Glied 64 führen die vorangehende logische Operation mit dem von dem ODER-Glied 44 laufend ausgegebenen logischen Wert durch. Das UND-Glied 63 gibt den logischen Wert "1" aus, wenn der in dem Register 61 gehaltene logische Wert "0" ist (das Ausgangssignal des Inverters 62 ist der logische Wert "1"), und der von dem ODER-Glied 44 ausgegebene logische Wert ist "1", d.h. wenn der logische Wert von "0" in "1" invertiert wird.
  • Das NOR-Glied 64 gibt den logischen Wert "1" aus, wenn der in dem Register 61 gehaltene logische Wert "1" ist (das Ausgangssignal des Inverters 62 der logische Wert "1" ist), und der von dem ODER-Glied 44 ausgegebene logische Wert ist "0", d.h. wenn der logische Wert von "1" in "0" invertiert wird.
  • Ein ODER-Glied 65 aktiviert ein Register 67, wenn von dem UND-Glied 63 oder dem NOR-Glied 64 der logische Wert "1" zugeführt (das rechte Ende der Blendenleiste 200 detektiert) wird.
  • Ein Zähler 66 zählt Takte, und sein Zählwert wird mit der Zeitlage des horizontalen Synchronisiersignals gelöscht. Das heißt, der Zähler 66 gibt an ein Register 67 einen Zählwert aus, der der Position eines horizontalen Pixels entspricht. Infolgedessen hält das Register 67 den Wert des Zählers 66 in dem Zeitpunkt, in dem der Takt zugeführt wird, nachdem von dem ODER-Glied 65 das Signal mit dem logischen Wert "1" zugeführt wurde. Da das ODER-Glied 65 den logischen Wert "1" an dem rechten Ende der Blendenleiste 200 in 10 ausgibt, wie dies oben beschrieben wurde, speichert das Register 67 die Position des Pixels, das dieser Position entspricht. Der in dem Register 67 gespeicherte Wert wird der Vektorgeneratorschaltung 23 in der nachfolgenden Stufe zugeführt.
  • Die Vektorgeneratorschaltung 23 hat z.B. den in 13 dargestellten Aufbau. Die von dem Register 67 in 12 ausgegebenen Daten werden einer Komparatorschaltung 76 zugeführt und mit dem in einem Register 72 gespeicherten Wert verglichen. In dem Register 72 wird der größte Datenwert gehalten, der über einen Wähler 71 zugeführt wurde. Die Komparatorschaltung 76 vergleicht den in dem Register 72 gespeicherten Wert mit den von dem Register 67 laufend zugeführten Daten und veranlaßt den Wähler 71, den jeweils größeren Datenwert auszuwählen.
  • Das heißt, wenn die in dem Register 72 bereits gehaltenen Daten größer sind, wählt der Wähler 71 erneut die in dem Register 72 gespeicherten Daten aus und liefert sie an das Register 72. Auf diese Weise wird in dem Register 72 der zuvor gehaltene Wert so gehalten, wie er ist. Falls hingegen die von dem Register 67 zugeführten Daten größer sind als die in dem Register 72 gehaltenen Daten, wählt der Wähler 71 die von dem Register 67 zugeführten Daten aus und liefert sie an das Register 72. Dadurch kann in dem Register 72 ein größerer Wert gespeichert werden. Auf diese Weise hält das Register 72 den größten der Werte, die ihm während einer Zeilenperiode zugeführt werden.
  • Der in dem Register 72 gehaltene Wert wird synchron mit dem vertikalen Synchronisiersignal in ein Register 73 in der nachfolgenden Stufe übertragen. Die in dem Register 73 gehaltenen Daten werden synchron mit dem vertikalen Synchronisiersignal in ein nachfolgendes Register 74 übertragen und in diesem gespeichert. Das heißt, in dem Register 74 wird der größte Wert von den Daten gehalten, die die rechte Kante der Blendenleiste 200 in dem vorangehenden Halbbild (Vollbild, falls ein vertikales Synchronisiersignal pro Vollbild auftritt) repräsentieren, und in dem Register 73 wird der größte der Werte in dem Halbbild gehalten, das dem Halbbild vorangeht. Eine Subtrahierschaltung 75 subtrahiert den in dem Register 73 gehaltenen Wert von dem in dem Register 74 gehaltenen Wert. Das heißt, das Ausgangssignal der Subtrahierschaltung 75 wird nach Maßgabe der Differenz zwischen der horizontalen Position der Blendenleiste 200 in dem vorangehenden Halbbild und derjenigen in dem nachfolgenden Halbbild erzeugt, wie dies anhand von 10 beschrieben wurde, und bildet einen Farbartvektor. Der Farbartvektor wird der Paketierschaltung 18 zugeführt und, wie oben beschrieben, mit anderen Daten gemultiplext. Auf der Dekodiererseite wird der Farbartvektor zur Änderung nicht nur der Farbartdaten sondern auch der Helligkeitsdaten benutzt, um der Blendenleiste 200 eine spezifische Farbe zu geben.
  • 14 zeigt das Format der von der Paketierschaltung 18 ausgegebenen Daten, wenn die Blendenleiste kodiert ist. Wie in dieser Figur dargestellt ist, ist am Anfang der Daten ein Header angeordnet. In diesem Header sind ein Synchronisiersignal, ein Zeitcode, eine Positionsinformation und eine Paketgröße registriert. Auf den Header folgt eine EOP, auf die wiederum ein Helligkeitssignal-(Y)-Offsetpegel und ein Farbartsignal-(C)-Offsetpegel folgen.
  • Auf diese Offsetpegel folgen als nächstes Farbartvektoren in einer vorbestimmten Anzahl (n). Der Wert n entspricht der Zahl der Halbbilder für eine Seite. Auf die Farbartvektoren folgen kodierte Helligkeitsdaten. Im Anschluß daran folgt ein CRC-Code für die Fehlerdetektierung.
  • 15 zeigt, an welcher Position in einem Videobild ein Untertitel für ein Vollbild eingefügt werden soll. In diesem Ausführungsbeispiel ist die Positionsinformation so spezifiziert, daß das Videobild für ein Vollbild in "k" Blöcke unterteilt ist und ein Untertitel in die (k-1)-te Blockzeile eingefügt wird. Um den Untertitel an dieser Position anzuzeigen, werden die k-1 Daten (Blockzeilennummern) als Teil des in 14 dargestellten Headers aufgezeichnet.
  • 16 zeigt ein Blockdiagramm eines Ausführungsbeispiels des Dekodiersystems zum Dekodieren von Untertiteldaten, die in der oben beschriebenen Weise kodiert sind. Ein Demultiplexer 81 nimmt die von der Platte 28 reproduzierten Daten oder die über den Übertragungskanal 29 übertragenen Daten auf und trennt sie in Untertiteldaten, Videodaten und Audiodaten. Die Videodaten werden einem Videodekodierer 95 und nach der Dekodierung einem Mischer 92 zugeführt. Die Audiodaten werden einem Audiodekodierer 96 und nach der Dekodierung einer (nicht dargestellten) Schaltung zugeführt.
  • Die Untertiteldaten werden hingegen einer Fehlerprüfschaltung 82 zugeführt, um das Vorhandensein von Fehlern zu dekodieren.
  • Wenn ein 16-Bit-CRC verwendet wird, hat die Fehlerprüfschaltung 82 z.B. den in 17 dargestellten Aufbau. In diesem Ausführungsbeispiel werden die von Demultiplexer 81 gelieferten Daten einem Eingang eines Exklusiv-ODER-Glieds 101 zugeführt. Dem anderen Eingang des Exklusiv-ODER-Glieds 101 wird das Ausgangssignal eines Schieberegisters 106 zugeführt, das das Eingangssignal um vier Takte verzögert und dann ausgibt. Das Exklusiv-ODER-Glied 101 unterzieht beide Eingangssignale einer Exklusiv-ODER-Verknüpfung. Das Ausgangssignal wird an ein Schieberegister 102 geliefert und nach Verzögerung um fünf Takte einem Eingang eines Exklusiv-ODER-Glieds 103 zugeführt.
  • Das Ausgangssignal des Schieberegisters 106 wird dem anderen Eingang des Exklusiv-ODER-Glieds 103 zugeführt, und das Exklusiv-ODER-Glied 103 unterzieht beide Eingangssignale einer Exklusiv-ODER-Verknüpfung und liefert das Ergebnis an ein Schieberegister 104. Das Schieberegister 104 verzögert die von dem Exklusiv-ODER-Glied 103 ausgegebenen Daten um sieben Takte und liefert sie dann an ein Exklusiv-ODER-Glied 105. Das Exklusiv-ODER-Glied 105 unterzieht die von dem Schieberegister 104 gelieferten Daten einer Exklusiv-ODEß-Verknüpfung mit den von dem Schieberegister 106 gelieferten Daten und liefert das Verarbeitungsergebnis an das Schieberegister 106.
  • Ein Zähler 302, der von einem negativen Synchronisiersignal initialisiert wird (in der Figur ist dies ein Symbol, daß durch Hinzufügen eines Überstrichs (einer horizontalen Linie über dem Wort sync) repräsentiert wird), das aus einem den Anfang eines Pakets repräsentierenden Synchronisiersignal gewonnen wird, dient zur Durchführung einer Fehlerprüfung an dem Ausgangssignal des Schieberegisters 106 in festen Intervallen und liefert ein negatives RCO-Ausgangssignal (in der Figur ein Symbol, das durch Hinzufügen eines Überstrichs über den Buchstaben RCO dargestellt ist) an den Taktaktivierungseingang eines Flipflops 303 und prüft dadurch das Ausgangssignal des Schieberegisters 106. Sobald das verriegelte Signal von niedrigem Pegel ("L"-Pegel) auf hohen Pegel wechselt (d.h. den "H"-Pegel erreicht), wird es von einem ODER-Glied 304 und einem Flipflop 305 kontinuierlich auf hohem Pegel gehalten, und der logische Wert wird von einem NICHT-Glied 107 invertiert, so daß einem UND-Glied 108 der logische Wert "0" zugeführt wird. Dadurch wird das UND-Glied 108 nichtleitend, wenn ein Fehler detektiert wird, so daß verhindert wird, daß die von dem Demultiplexer 81 zugeführten Untertiteldaten über das UND-Glied 108 einer Wortdetektorschaltung 83 in der späteren Stufe zugeführt werden, nachdem sie eine Verzögerungsschaltung 301 mit der erforderlichen Stufenzahl durchlaufen haben. Das heißt, wenn die Untertiteldaten einen Fehler haben, wird verhindert, daß der Untertitel angezeigt wird, der den Daten auf der fehlerhaften Seite entspricht.
  • Die Wortdetektorschaltung 83 in 16 trennt das EOP, den Helligkeitsdaten-Offsetpegel oder den Farbartdaten-Offsetpegel und den Farbartvektor von den Daten, die von der Fehlerprüfschaltung 82 geliefert werden, und liefert sie an einen Adressengenerator 84, ein Register 93 oder ein Rahmenregister 94. Außerdem werden die Untertiteldaten über einen Schalter 85 Codepuffern 86a und 86b zugeführt. Die Codepuffer 86a und 86b haben jeweils eine Kapazität für wenigstens eine Seite von Untertiteldaten.
  • Der Adressengenerator 84 erzeugt die Umschaltsignale für die Schalter 85 und 87 und erzeugt die Schreib- oder Leseadressen der Codepuffer 86a und 86b. Wie 18 zeigt, werden Daten aus dem Codepuffer 86b ausgelesen, während Daten in den Codepuffer 86a eingeschrieben werden, und umgekehrt werden Daten aus dem Codepuffer 86a ausgelesen, während Daten in den Codepuffer 86b eingeschrieben werden. Die Umschaltung der Codepuffer wird mit Hilfe des EOP durchgeführt, das das Ende einer Seite anzeigt. Dies ermöglicht eine kontinuierliche Verarbeitung der von der Wortdetektorschaltung 83 gelieferten Daten. Da jeder der Codepuffer 86a und 86b eine Kapazität für eine Seite besitzt und das Umschalten zwischen Lesen und Schreiben mit der Zeitlage des EOP erfolgt, können Untertiteldaten augenblicklich umgeschaltet werden.
  • Wenn die zeitliche Abstimmung so beschaffen ist, daß die Übertragung der von dem Demultiplexer 81 gelieferten Untertiteldaten so schnell erfolgt, daß die nächsten Daten zugeführt werden, bevor das Auslesen der Daten aus einem der Codepuffer 86a und 86b beendet ist, liefert der Adressengenerator 84 ein Stoppsignal an den Demultiplexer 81, um die Zuführung von neuen Daten zu stoppen.
  • Eine variable Längendekodierschaltung (IVLC-Schaltung) 88 unterzieht die über den Schalter 87 aus dem Codepuffer 86a oder 86b ausgelesenen Lauflängendaten einer variablen Längendekodierung, wobei er die in 9 dargestellte VLC-Tabelle benutzt. Die Pegeldaten und die der variablen Längendekodierung unterzogenen Lauflängendaten werden einer inversen Lauflängenschaltung 89 zugeführt.
  • Die inverse Lauflängenschaltung 89 betreibt so viele Zähler, wie Lauflängenstufen vorhanden sind, und stoppt das Auslesen der Codepuffer 86a und 86b so viele Male, wie es der Zahl der Läufe entspricht, während die Zähler laufen. Außerdem liefert die inverse Lauflängenschaltung 89 so viele Posten an Pegeldaten an eine IDPCM-Schaltung 90, wie es der Zahl der Lauflängen entspricht.
  • Die IDPCM-Schaltung 90 enthält ein Register und addiert die vorherigen Pegeldaten, die in dem Register gespeichert sind, und neue Pegeldaten, die von der inversen Lauflängenschaltung 89 geliefert werden, und wenn diese Pegeldaten Untertiteldaten sind, führt die IDPCM-Schaltung 90 sie der inversen Quantisierschaltung 91 in der nachfolgenden Stufe zu. Wenn die Pegeldaten hingegen Schlüsseldaten sind, werden die Schlüsseldaten der drei Bits, die nicht das den Identifizierer für Schlüsseldaten repräsentierende MSB sind, sowie die 4-Bit-Untertiteldaten an einen Mischer 92 in der nachfolgenden Stufe ausgegeben.
  • Die inverse Quantisierschaltung 91 wandelt die 4-Bit-Daten in 8-Bit-Daten um und führt diese Daten dann dem Mischer 92 zu.
  • 19 zeigt ein Verarbeitungsbeispiel für die inverse Quantisierung in dem inversen Quantisierer 91. Wie in dieser Figur dargestellt ist, wird in den Schritten S41 bis S48 für die quantisierten 4-Bit-Daten "Z" geprüft, ob der Wert einer der Werte von 15 bis 8 ist. Wenn die quantisierten Daten "Z" einen der Werte von 15 bis 8 bilden, geht der Prozeß weiter zu den Schritten S49 bis S56, in denen ein Wert 245, 233, 215, 150, 140, 128, 85 oder 44 als Untertiteldaten (Fülldaten) "x" gesetzt wird.
  • Der genauere Aufbau des Registers 93, des Vollbildregisters 94 und des Mischers 92 von 16 geht aus 20 und 21 hervor.
  • In dem Ausführungsbeispiel von 20 besteht das Register 93 aus einem ROM 131 und einem ROM 132.
  • Das Rahmenregister 94 besteht aus einer Addierschaltung 141, einem Register 142, einem Zähler 143 und einer Verzögerungsschaltung 144. Die übrigen Schaltungen in 20 sind Teil des Mischers 92.
  • Der Helligkeitsdaten-Offsetpegel (ein Pegel zur Bereitstellung der Blendenleiste 200 mit einer vorbestimmten Farbe), der von der Wortdetektorschaltung 83 ausgegeben wird, wird dem ROM 131 zugeführt und mit Hilfe der dort gespeicherten Tabelle in einen vorbestimmten Wert umgewandelt. Die von dem ROM 131 umgewandelten Daten werden dann über ein UND-Glied 135 einer Addierschaltung 154 zugeführt, in der sie zu den Helligkeitsdaten (Anfangsdaten zur Identifizierung der Zeichenfarbe, wenn die Blendenleiste 200 nicht angezeigt wird) der von der inversen Quantisierschaltung 91 in 16 ausgegebenen Untertiteldaten addiert und dann einem Wähler 113 und einer Addierschaltung 114 in 21 zugeführt werden. Der Offsetpegel wurde von dem Benutzer in dem in 1 dargestellten Kodierer auf einen vorbestimmten Wert gesetzt. Durch geeignetes Ändern dieses Werts können die Helligkeitsdaten der Blendenleiste auf einen vorbestimmten Wert (Farbe) gesetzt werden.
  • In ähnlicher Weise wird der von der Wortdetektorschaltung 83 ausgegebene Farbart-Offsetpegel dem ROM 132 zugeführt und mit Hilfe der dort gespeicherten Tabelle in einen vorbestimmten Wert umgewandelt. Die von dem ROM 132 ausgegebenen Daten werden dann über ein UND-Glied 162 einem Wähler 112 in 21 zugeführt, nachdem sie von einer Verzögerungsschaltung 161 in eine vorbestimmte Zeitlage verzögert wurden.
  • Durch das Umwandeln der Daten mit Hilfe des ROMs 131 und des ROMs 132 können mehr Farben (Helligkeiten) durch weniger Bits für die Blendenleiste 200 spezifiziert werden.
  • Falls die Bitzahl der Helligkeitsdaten und der Farbdifferenzdaten der Untertitel vergrößert wird, können das ROM 131 und das ROM 132 entfallen. Dadurch wird jedoch die Übertragungseffizienz reduziert.
  • Auf der anderen Seite wird der von der Wortdetektorschaltung 183 abgetrennte Farbartvektor der Addierschaltung 141 des Rahmenregisters 94 zugeführt, in welchem er zu dem in dem Register 142 gehaltenen vorherigen Wert addiert wird. Die Summe wird dann für die nächste Berechnung in dem Register 142 gespeichert. Das Register 142 wird synchron mit dem vertikalen Synchronisiersignal gelöscht. Das heißt, in dem Register 142 werden die während der Periode eines Halbbilds kumulativ addierten Werte von Farbartvektoren sequentiell gehalten. Mit anderen Worten, der in dem Register 142 gespeicherte Wert repräsentiert die Position der in 10 dargestellten Blendenleiste 200 in jedem Halbbild.
  • Ein Zähler 143 lädt das Ausgangssignal der Addierschaltung 141 jedesmal, wenn das vertikale Synchronisiersignal zugeführt wird. Das heißt, er lädt einen Wert, der der horizontalen Position der Blendenleiste 200 in dem vorangehenden Halbbild entspricht. Dann startet er unverzüglich mit dem Zählen der Takte entsprechend den horizontalen Pixeln und dekrementiert den geladenen Wert z.B. jedesmal um eins. Wenn der Zählwert einen vorbestimmten Wert (z.B. Null) erreicht, invertiert der Zähler 143 das Ausgangssignal des Ripple-Übertrag-Ausgangs (rco-Ausgang) aus dem logischen Wert "1" in den logischen Wert "0". Dieses Signal wird nach einer zeitlichen Justierung in einer Verzögerungsschaltung 144 den UND-Gliedern 135 und 162 zugeführt.
  • Die UND-Glieder 135 und 162 aktivieren die Datenausgabe aus dem ROM 131 und 132 für den Durchgang während der Periode, in der der logische Wert "1" zugeführt wird, oder während der Periode von dem Zeitpunkt, in dem das vertikale Synchronisiersignal dem Zähler 143 zugeführt wird, bis zu dem Zeitpunkt, in dem der Zählwert Null wird. Nachdem das Ausgangssignal der Verzögerungsschaltung 144 in den logischen Wert "0" invertiert ist, verhindert es jedoch den Durchgang dieser Daten. Das heißt, die in 10 dargestellte Blendenleiste 200 wird bis zu der durch den Zähler 143 gesetzten Position angezeigt, und rechts davon wird die Blendenleiste 200 nicht angezeigt.
  • Die in dieser Weise von der Addierschaltung 154 ausgegebenen Helligkeitsdaten werden dem Wähler 113 und der Addierschaltung 114 in 21 zugeführt, und die von dem UND-Glied 162 ausgegebenen Farbartdaten werden dem Wähler 112 in 21 zugeführt.
  • Der Wähler 113 wählt irgendwelche der 7-Bit-Daten, die durch Verschieben der von der Addierschaltung 154 gelieferten Untertitel-Helligkeitsdaten um ein Bit zur LSB-Seite gewonnen werden, ferner 6-Bit-Daten, die um zwei Bit verschoben sind, ... 2-Bit-Daten, die um sechs Bit verschoben sind, und 1-Bit-Daten, die um sieben Bit verschoben sind. Welche Daten ausgewählt werden sollen, wird durch die Schlüsseldaten bestimmt, die von der IDPCM-Schaltung 90 von 16 zugeführt werden. Die Subtrahierschaltung 114 subtrahiert die von dem Wähler 113 ausgewählten Daten von den Helligkeitsdaten, die von der Addierschaltung 154 zugeführt werden, und liefert das Ergebnis an einen Wähler 115. Das heißt, wenn das Ausgangssignal des Wählers 113 z.B. mit α bezeichnet wird, gibt die Subtrahierschaltung 114 1-α aus. Der Wähler 115 wählt dieses α oder 1-α und gibt es an die Addierschaltung 116 aus.
  • In ähnlicher Weise werden die von dem Videodekodierer 95 ausgegebenen Helligkeitsdaten des Hintergrundbilds einem Wähler 123 und einer Subtrahierschaltung 124 zugeführt. Der Wähler 123 wählt die Daten aus, die dadurch gewonnen werden, daß die eingege benen Helligkeitsdaten nach Maßgabe der Schlüsseldaten um eine vorbestimmte Bitzahl zur Seite des niedrigstwertigen Bits (oder LSB) verschoben werden, und gibt sie an einen Wähler 125 und eine Subtrahierschaltung 124 aus, wie dies oben entsprechend für den Wähler 113 beschrieben wurde. Die Subtrahierschaltung 124 subtrahiert das Ausgangssignal des Wählers 123 von den eingegebenen Videodaten und liefert das Ergebnis an den Wähler 125.
  • Daraufhin wählt der Wähler 125, ähnlich wie in dem oben beschriebenen Fall, z.B. entweder die von der Subtrahierschaltung 124 zugeführten Daten 1-β oder die von dem Wähler 123 zugeführten Daten β aus und liefert sie an die Addierschaltung 116.
  • Die obige Beschreibung zeigt jedoch auch ein Beispiel für den Fall, daß nicht nur Untertiteldaten sondern auch Schlüsseldaten während der Periode T3 in 4 übertragen werden, und in diesem Ausführungsbeispiel werden der Wähler 113, die Subtrahierschaltung 114 und der Wähler 115 tatsächlich nicht benötigt, so daß das Ausgangssignal der Addierschaltung 154 direkt der Addierschaltung 116 zugeführt wird.
  • Der Wähler 115 und der Wähler 125 werden so umgeschaltet, daß sie komplementär zueinander arbeiten. Das heißt, die Addierschaltung 116 addiert die Helligkeitsdaten des von dem Wähler 115 ausgegebenen Untertitels und die Helligkeitsdaten des von dem Wähler 125 ausgegebenen Hintergrund-Videobilds und gibt die Summe aus, wobei jedoch, wie anhand von 2 beschrieben wurde, das Hintergrund-Videobild stärker verändert wird, wenn der Wert der Schlüsseldaten kleiner wird. Zu diesem Zweck werden die von der IDPCM-Schaltung 90 gelieferten Schlüsseldaten den Wählern 113 und 115 als 3-Bit-Daten und den Wählern 123 und 125 als von dem Inverter 311 invertierte Daten zugeführt.
  • Auf der anderen Seite werden dem Wähler 112 die von dem UND-Glied 162 ausgegebenen Farbartdaten des Untertitels und die von dem Videodekodierer 95 ausgegebenen Farbartdaten des Hintergrund-Videobilds zugeführt. Der Wähler 112 wählt eines der beiden Eingangssignale und gibt es aus.
  • Wie oben beschrieben wurde, können durch Verschieben des von 0% bis 100% reichenden Dynamikbereichs um 12,5% (1/8) der Untertitel und das Hintergrund-Videobild gleichzeitig gemischt werden.
  • Wie 21 zeigt, kann auf die Benutzung eines Multiplizierers verzichtet und dadurch das System kostengünstiger hergestellt werden, indem die Datenoperation durch die Bitverschiebung mit Hilfe der Wähler 113 und 123 durchgeführt wird.
  • Dem Mischer 92 in 16 wird ein Steuersignal zum Ein- oder Ausschalten der Untertitelanzeige oder ein Steuersignal zur Auswahl der Anzeigeposition des Untertitels zugeführt. Wenn das Steuersignal zum Ausschalten der Untertitelanzeige zugeführt wird, > sperrt der Mischer 92 die Anzeige des Untertitels. Dies kann z.B. dadurch implementiert werden, daß die Ausgänge des Wählers 112 und der Addierschaltung 116 in 21 mit einer Gatterschaltung verbunden werden und die Gatterschaltung gesperrt wird. Wenn ein Befehl zugeführt wird, um die Anzeige des Untertitels einzuschalten, wird die Gatterschaltung geöffnet und aktiviert die Ausgangssignale des Wählers 112 und der Addierschaltung 116, die einer (nicht dargestellten) Schaltung zuzuführen sind.
  • Das Steuersignal für die Änderung der Anzeigeposition wird ebenfalls dem Mischer 92 zugeführt. Wenn z.B., wie in 22 dargestellt, Daten übertragen werden, wird die (k-1)-te Blockzeile als Anzeigeposition spezifiziert, der Mischer 92 enthält jedoch einen Zähler und zählt die zugeführten horizontalen Synchronisiersignale und überlagert die Untertiteldaten dem Hintergrund-Videobild, wenn der Zählwert den Wert erreicht, der dieser Blockzeilenzahl entspricht.
  • Wenn hingegen der Benutzer eine gewünschte Blockzeile spezifiziert, wird der Untertitel dem Hintergrund-Videobild überlagert, wenn der Zählwert des oben beschriebenen Zählers einen Wert erreicht, der dem von dem Benutzer angegebenen Wert entspricht.
  • Somit kann der Benutzer auch dann, wenn angegeben ist, daß der Untertitel auf der (k-1)-ten Blockzeile überlagert werden soll, wie in 22 dargestellt, auf Wunsch veranlassen, daß der Untertitel z.B. auf der zweiten Blockzeile dargestellt wird. In dem obigen Ausführungsbeispiel ist auf der Kodiererseite die DPCM-Schaltung 15 vorgesehen, und auf der Dekodiererseite ist die IDPCM-Schaltung 90 vorgesehen. Es ist jedoch auch möglich, das Ausgangssignal der Quantisierschaltung 14 direkt in der Lauflängen-Kodierschaltung 16 auf der Kodiererseite zu kodieren, während auf der Dekodiererseite das Ausgangssignal der inversen Lauflängenschaltung 89 direkt der inversen Quantisierschaltung 91 für Untertiteldaten und das Ausgangssignal der inversen Lauflängenschaltung 89 direkt dem Mischer 92 für Schlüsseldaten zugeführt werden.
  • 23 zeigt ein Ausführungsbeispiel des Kodiersystems zum Kodieren der Blendenleiste ohne Verwendung eines Farbartvektors. In diesem Ausführungsbeispiel werden die Helligkeitsdaten des Untertitels dem Vollbildspeicher 201 und die Farbartdaten dem Vollbildspeicher 202 zugeführt und in den entsprechenden Speichern gespeichert. Eine Subtrahierschaltung 203 subtrahiert dann die in dem Vollbildspeicher 202 gespeicherten Daten von den Farbartdaten eines neu zugeführten Vollbilds und gibt die Differenz aus. Ein Schalter 204 wird in einer vorbestimmten Zeitlage auf die Kontaktseite "a" oder auf die Kontaktseite "b" geschaltet, um die aus dem Vollbildspeicher 201 ausgelesenen Helligkeitsdaten oder die von der Subtrahierschaltung 203 ausgegebenen Farbartdaten auszuwählen und liefert diese an einen Untertiteldekodierer 205. Der Untertiteldekodierer 205 ist z.B. ähnlich aufgebaut wie das Untertitel-Kodiersystem 7 in 1 mit Ausnahme der Schwellwertschaltung 21, der Ende-Detektorschaltung 22 und der Vektorgeneratorschaltung 23.
  • 24 zeigt das Format der von dem Untertiteldekodierer 205 ausgegebenen und in dieser Weise übertragenen Daten. An dem Anfang der Daten ist ein Header angeordnet, auf den die kodierten Helligkeitsdaten folgen. Anschließend sind so viele Posten an Farbartdaten vorgesehen, wie es der Zahl der Vollbilder (oder Halbbilder) entspricht, die der Blendenleiste entsprechen.
  • Die Daten mit diesem Format werden in einem Dekodiersystem dekodiert, das in 25 dargestellt ist. Bei diesem Ausführungsbeispiel werden die Eingangsdaten temporär in einem Codepuffer 211 gespeichert und anschließend einem Untertiteldekodierer 212 zugeführt. Der Untertiteldekodierer 212 dekodiert die zugeführten Daten.
  • Von den in dem Untertiteldekodierer 212 dekodierten Daten werden die Helligkeitsdaten über den Kontakt "a" eines Schalters 213 einem Anzeigespeicher 214 zugeführt und dort gespeichert. Die Farbartdaten werden über den Kontakt "b" des Schalters 213 einer Addierschaltung 215 zugeführt und dort zu den Daten für das vorangehende Vollbild addiert, die in einem Anzeigespeicher 216 gespeichert sind. Die Summendaten werden dann wieder dem Anzeigespeicher 216 zugeführt. Auf diese Weise werden die Farbartdaten für jedes Vollbild in dem Anzeigespeicher 216 gespeichert. Die in den Anzeigespeichern 214 und 216 gespeicherten Daten werden dann in einer vorbestimmten Zeitlage ausgelesen und für die Anzeige auf einer (nicht dargestellten) Kathodenstrahlröhre, einer LCD oder dgl. ausgegeben.
  • Obwohl in den obigen Ausführungsbeispielen die Untertiteldaten für einen Kanal (eine Sprache) so ausgebildet sind, daß sie dem Hintergrund-Videobild für einen Kanal entsprechen, können auch eine Mehrzahl von Untertiteldaten (oder eine Mehrzahl von Sprachen) vorgesehen sein, die einem Hintergrundbild entsprechen, oder es kann eine Mehrzahl von Untertiteldaten vorgesehen sein, die einer Mehrzahl von Hintergrund-Videobildern entsprechen.
  • Bei dem Untertiteldaten-Kodierverfahren und -system gemäß der Erfindung werden, wie oben beschrieben wurde, quantisierte Untertiteldaten und Schlüsseldaten in Form vorbestimmter Bits übertragen. Außerdem werden bei dem Übertragungsverfahren und -system gemäß der Erfindung Schlüsseldaten erzeugt, die der Abschwächungsrate eines Videobilds entsprechen, wenn ein dem Videobild für die Anzeige zu überlagernder Untertitel dem Videobild überlagert wird, und die Schlüsseldaten werden übertragen. Darüber hinaus werden bei dem Kodierverfahren und -system gemäß der Erfindung Schlüsseldaten erzeugt, die der Abschwächungsrate eines Videobilds entsprechen, wenn ein dem Videobild für die Anzeige zu überlagernder Untertitel dem Videobild überlagert wird, die Schlüsseldaten werden quantisiert, und die quantisierten Schlüsseldaten werden in Form vorbestimmter Bits übertragen. Dadurch kann je nach Bedarf ein Untertitel hoher Qualität sehr schnell mit einer einfachen Anordnung und ohne Beeinträchtigung der Qualität des Hintergrund-Videobilds angezeigt werden.
  • Bei dem Untertiteldaten-Dekodierverfahren und -system gemäß der Erfindung wird die Abschwächungsrate des Videobilds nach Maßgabe des Werts von Schlüsseldaten gesteuert. Ferner wird bei dem Dekodierverfahren und -system gemäß der Erfindung die Abschwächungsrate des Videobilds minimal gemacht, wenn die Schlüsseldaten maximale oder minimale Daten sind, die Abschwächungsrate des Videobilds wird maximal gemacht, wenn die Schlüsseldaten minimale oder maximale Daten sind, und wenn die Schlüsseldaten einen zwischen dem Maximum und dem Minimum liegenden. Wert haben, wird die Abschwächungsrate des Videobilds so gestaltet, daß sie der Größe dieses Werts entspricht. Infolgedessen können das Videobild und der Untertitel so angezeigt werden, daß sie natürlich aussehen und gut betrachtet werden können. Als Ergebnis kann ein Untertitel hoher Qualität mit hoher Geschwindigkeit angezeigt werden, wie dies gefordert wird.
  • Da bei dem Aufzeichnungsmedium gemäß der Erfindung die quantisierten Schlüsseldaten in Form vorbestimmter Bits aufgezeichnet sind, kann ein Untertitel hoher Qualität mit hoher Geschwindigkeit mit einer einfachen Anordnung und ohne Beeinträchtigung der Qualität des Hintergrund-Videobilds angezeigt werden, wie dies gefordert wird.
  • Das Aufzeichnungsmedium gemäß der Erfindung kann für kommerzielle Kinofilm-Disks für Endbenutzer und als Kinofilm-Disks für Verleiher benutzt werden. Außerdem kann das Aufzeichnungsmedium gemäß der Erfindung für Karaoke-Disks in Karaoke-Systemen für Endbenutzer oder für Karaoke-Shops verwendet werden.
  • Das Untertitel-Dekodierverfahren, das Untertitel-Kodierverfahren, das Videobild-Steuerverfahren und das Videobild-Steuersystem können für ein Wiedergabesystem zur Wiedergabe von Kinofilm-Disks oder Karaoke-Disks verwendet werden. Außerdem können das Untertitel-Dekodierverfahren, das Untertitel-Kodierverfahren, das Videobild-Steuerverfahren und das Videobild-Steuersystem im Zusammenhang mit einem Empfangs system für Kabelfernsehen, Satellitenrundfunk, sogenannten Video-on-demand-Systemen oder dgl. verwendet werden,
  • 1
    Videokamera
    2
    Videokodierer
    3
    Mikrophon
    4
    Audiokodierer
    5
    Zeichengenerator
    6
    Lichtpunktscanner
    7
    Untertitel-Kodiersystem
    8
    Multiplexer
    13
    Verarbeitungsschaltung
    14
    Quantisierschaltung
    15
    DPCM-Schaltung
    16
    Lauflängenkodierschaltung
    17
    Variable Längenkodierschaltung
    18
    Paketierungsschaltung
    21
    Schwellwertschaltung
    22
    Ende-Detektorschaltung
    23
    Vektorgeneratorschaltung
    81
    Demultipexer
    82
    Fehlerprüfschaltung
    83
    Wortdetektorschaltung
    84
    Adressengenerator
    86a
    Codepuffer
    86b
    Codepuffer
    88
    Variable Längendekodierschaltung
    89
    Inverse Lauflängenschaltung
    90
    IDPCM-Schaltung
    91
    Inverse Quantisierschaltung
    92
    Mischer
    93
    Register
    94
    Vollbildregister
    95
    Videodekodierer
    96
    Audiodekodierer

Claims (31)

  1. Dekodierverfahren zum Dekodieren eines Eingangssignals, das repräsentativ ist für kodierte Videobilddaten, für kodierte Untertiteldaten, die mit den Videobilddaten gemultiplext sind, für die Steuerung eines Anzeigegeräts, um einen einem Videobild überlagerten Untertitel anzuzeigen, und für kodierte Schlüsseldaten zur Steuerung der Bitrate des Videobilddatenstroms zwischen einer maximalen und einer minimalen Rate in mehreren Zwischenraten und des Mischungsverhältnisses zwischen den Untertiteldaten und den Videobilddaten, wobei das Verfahren die Verfahrensschritte aufweist: Demultiplexen (81) der kodierten Untertiteldaten, der kodierten Schlüsseldaten und der kodierten Videobilddaten, Trennen (90) der kodierten Untertiteldaten und der kodierten Schlüsseldaten, Dekodieren (88–19, 95) der kodierten Videobilddaten, der kodierten Schlüsseldafien und der kodierten Untertiteldaten und Mischen (92) der dekodierten Videobilddaten und der dekodierten Untertiteldaten, um ein anzuzeigendes Ausgangssignal zu erzeugen, wobei in dem Verfahrensschritt des Mischens das Mischungsverhältnis auf der Basis der dekodierten Schlüsseldaten graduell geändert wird.
  2. Untertitel-Dekodierverfahren nach Anspruch 1 mit einem Prozeß (91) zum inversen Quantisieren der kodierten Untertiteldaten.
  3. Untertitel-Dekodierverfahren nach Anspruch 1 oder 2 mit einem Prozeß zum Trennen der kodierten Videobilddaten von den übertragenen kodierten Daten und zum Dekodieren der kodierten Videobilddaten, um das genannte Videobild zu erzeugen.
  4. Untertitel-Dekodierverfahren nach einem der Ansprüche 1 bis 3 mit einem Prozeß zum Dekodieren der kodierten Helligkeitsdaten und zum Hinzufügen der kodierten Farbdifferenzdaten für ein vorbestimmtes Halbbild oder Vollbild, um die Farbdifferenzdaten zu dekodieren und dadurch den Untertitel zu erzeugen.
  5. Untertitel-Dekodierverfahren nach einem der Ansprüche 1 bis 3 mit einem Prozeß zum Dekodieren der kodierten Helligkeitsdaten und zum Dekodieren der dekodierten Farbdifferenzdaten auf der Basis des Offsetwerts von vorbestimmten Farbdifferenzdaten und des Farbvektors, welcher der Koordinatenposition des Änderungspunkt der Farbdifferenzdaten auf dem Bildschirm entspricht, um dadurch den Untertitel zu erzeugen.
  6. Untertitel-Dekodierverfahren nach Anspruch 5 mit einem Prozeß zum Hinzufügen des Offsetwerts der Helligkeitsdaten der übertragenen kodierten Daten zu den dekodierten Helligkeitsdaten auf der Basis des Farbvektors.
  7. Untertitel-Dekodierverfahren nach einem der Ansprüche 1 bis 6 mit einem Prozeß zum Steuern der Anzeigeposition des Untertitels auf der Basis der Positionsdaten, welche die Position repräsentieren, an welcher der Untertitel der übertragenen kodierten Daten angezeigt werden soll.
  8. Untertitel-Dekodierverfahren nach einem der Ansprüche 1 bis 7 mit einem Prozeß zum Speichern der kodierten Untertitel und der kodierten Schlüsseldaten in einem Speicher und einem Prozeß zum Auslesen und Dekodieren der kodierten Untertiteldaten und der kodierten Schlüsseldaten, die in dem Speicher gespeichert sind.
  9. Untertitel-Dekodierverfahren nach Anspruch 8 mit einem Prozeß zur Durchführung der Bankumschaltung des Speichers auf der Basis eines eindeutigen Worts, welches das Seitenende des Untertitels der übertragenen kodierten Daten repräsentiert.
  10. Untertitel-Dekodierverfahren nach einem der Ansprüche 1 bis 9 mit einem Prozeß (82) zur Durchführung einer Fehlerdetektierung unter Verwendung eines Codes für die Fehlerdetektierung, der für jede Seite des Untertitels vorgesehen ist, und zum Stoppen der Dekodierung der kodierten Daten der den Fehler enthaltenden Seite des Untertitels, wenn ein Fehler detektiert wird.
  11. Untertitel-Dekodierverfahren nach einem der Ansprüche 1 bis 10 mit einem Prozeß (89) zum Dekodieren der Untertiteldaten und der Schlüsseldaten unter Verwendung wenigstens eines der folgenden Verfahren: Variable Längendekodierung, Lauflängendekodierung oder IDPCM.
  12. Untertitel-Dekodierverfahren nach einem der Ansprüche 1 bis 1 1 mit einem Prozeß zum Ändern der Anzeigeposition des Untertitels in eine von den Positionsdaten abweichenden Position.
  13. Dekodierverfahren nach einem der Ansprüche 1 bis 12, bei dem das genannte Trennen auf wenigstens einem Bit basiert, das zu den kodierten Untertiteldaten und den kodierten Schlüsseldaten hinzugefügt ist und angibt, ob die anderen Bits die Untertiteldaten oder die Schlüsseldaten repräsentieren.
  14. Dekodierverfahren nach Anspruch 13, bei dem das wenigstens eine Bit das MSB ist.
  15. Dekodierverfahren nach einem der Ansprüche 1 bis 14 mit dem Verfahrensschritt des Abschwächens (113115) des an den Untertitel angrenzenden Videobilds auf der Basis der Schlüsseldaten.
  16. Dekodiersystem zum Dekodieren eines Eingangssignals, das repräsentativ ist für kodierte Videobilddaten, für kodierte Untertiteldaten, die mit den Videobilddaten gemultiplext sind, für die Steuerung eines Anzeigegeräts, um einen einem Videobild überlagerten Untertitel anzuzeigen, und für kodierte Schlüsseldaten zur Steuerung der Bitrate des Videobilddatenstroms zwischen einer maximalen und einer minimalen Rate in mehreren Zwischenraten und des Mischungsverhältnisses zwischen den Untertiteldaten und den Videobilddaten, wobei das System aufweist: eine Demultiplexereinrichtung (81) zum Demultiplexen der kodierten Untertiteldaten, der kodierten Schlüsseldaten und der kodierten Videobilddaten, eine Trenneinrichtung (90) zum Trennen der kodierten Untertiteldaten und der kodierten Schlüsseldaten, eine Dekodiereinrichtung (88-19, 95) zum Dekodieren der kodierten Videobilddaten, der kodierten Schlüsseldaten und der kodierten Untertiteldaten und eine Mischeinrichtung (92) zum Mischen der dekodierten Videobilddaten und der dekodierten Untertiteidaten, um ein anzuzeigendes Ausgangssignal zu erzeugen, wobei die Mischeinrichtung (92) adaptiert ist, um das Mischungsverhältnis auf der Basis der dekodierten Schlüsseldaten graduell zu ändern.
  17. Dekodiersystem nach Anspruch 12 mit einer inversen Quantisiereinrichtung (91) zum inversen Quantisieren der kodierten Untertiteldaten.
  18. Untertitel-Dekodiersystem nach Anspruch 16 oder 17 mit einer Trenneinrichtung zum Trennen der kodierten Videobilddaten von den übertragenen kodierten Daten und mit einer Dekodiereinrichtung zum Dekodieren der kodierten Videobilddaten, um das genannte Videobild zu erzeugen.
  19. Untertitel-Dekodiersystem nach einem der Ansprüche 16 bis 18 mit einer Einrichtung zum Dekodieren der kodierten Helligkeitsdaten und zum Hinzufügen der kodierten Farbdifferenzdaten für ein vorbestimmtes Halbbild oder Vollbild, um die Farbdifferenzdaten zu dekodieren, um dadurch den Untertitel zu erzeugen.
  20. Untertitel-Dekodiersystem nach einem der Ansprüche 16 bis 18 mit einer Einrichtung zum Dekodieren der kodierten Helligkeitsdaten und zum Dekodieren der dekodierten Farbdifferenzdaten auf der Basis des Offsetwerts von vorbestimmten Farbdifferenzdaten und des Farbvektors, welcher der Koordinatenposition des Änderungspunkt der Farbdifferenzdaten auf dem Bildschirm entspricht, um dadurch den Untertitel zu erzeugen.
  21. Untertitel-Dekodiersvstem nach Anspruch 20 mit einer Einrichtung zum Hinzufügen des Offsetwerts der Helligkeitsdaten der übertragenen kodierten Daten zu den dekodierten Helligkeitsdaten auf der Basis des Farbvektors.
  22. Untertitel-Dekodiersystem nach einem der Ansprüche 16 bis 21 mit einer Einrichtung zum Steuern der Anzeigeposition des Untertitels auf der Basis der Positionsdaten, welche die Position repräsentieren, an welcher der Untertitel der übertragenen kodierten Daten angezeigt werden soll.
  23. Untertitel-Dekodiersystem nach einem der Ansprüche 16 bis 22 mit einer Speichereinrichtung zum Speichern der kodierten Untertitel und der kodierten Schlüsseldaten und einer Einrichtung zum Auslesen und Dekodieren der kodierten Untertiteldaten und der kodierten Schlüsseldaten, die in dem Speicher gespeichert sind.
  24. Untertitel-Dekodiersystem nach Anspruch 23 mit einer Speichersteuereinrichtung zum Umschalten der Bänke des Speichers auf der Basis eines eindeutigen Worts, welches das Seitenende des Untertitels der übertragenen kodierten Daten repräsentiert.
  25. Untertitel-Dekodiersystem nach einem der Ansprüche 16 bis 24 mit einer Fehlerdetektoreinrichtung (84) zur Durchführung einer Fehlerdetektierung unter Verwendung eines Codes für die Fehlerdetektierung, der für jede Seite des Untertitels vorgesehen ist, um zum Stoppen der Dekodierung der kodierten Daten der den Fehler enthaltenden Seite des Untertitels, wenn ein Fehler detektiert wird.
  26. Untertitel-Dekodiersystem nach einem der Ansprüche 16 bis 25 mit einer Einrichtung zum Dekodieren der Untertiteldaten und der Schlüsseldaten unter Verwendung wenigstens eines der folgenden Verfahren: Variable Längendekodierung, Lauflängendekodierung oder IDPCM.
  27. Untertitel-Dekodiersystem nach einem der Ansprüche 16 bis 26 mit einer Steuereinrichtung zum Ändern der Anzeigeposition des Untertitels in eine von den Positionsdaten abweichenden Position.
  28. Untertitel-Dekodiersystem nach einem der Ansprüche 16 bis 27 mit einer Abschwächungseinrichtung (113115) zum Abschwächen des an den Untertitel angrenzenden Videobilds auf der Basis der Schlüsseldaten.
  29. Dekodiersystem nach Anspruch 28, bei dem die Abschwächungseinrichtung adaptiert ist, um zu bewirken, daß die Dämpfungsrate des Videobilds zu einem Minimum wird, wenn die dekodierten Schlüsseldaten Maximum- oder Minimum-Daten sind, um zu bewirken, daß die Dämpfungsrate des Videobilds zu einem Maximum wird, wenn die dekodierten Schlüsseldaten Minimum- oder Maximum-Daten sind, und um zu bewirken, daß die Dämpfungsrate des Videobilds der Größe des genannten Werts entspricht, wenn der Wert der Schlüsseldaten zwischen dem Minimum und dem Maximum liegt.
  30. Dekodiersystem nach einem der Ansprüche 16 bis 28, bei dem die Trenneinrichtung eine Bestimmungseinrichtung zum Bestimmen wenigstens eines Bits der kodierten Untertiteldaten und der kodierten Schlüsseldaten aufweist, das zu den kodierten Untertiteldaten und den kodierten Schlüsseldaten bei deren Kodierung hinzugefügt wird und das angibt, ob die anderen Bits die Untertiteldaten oder die Schlüsseldaten repräsentieren.
  31. Dekodiersystem nach Anspruch 30, bei dem das wenigstens eine Bit das MSB ist.
DE1994634718 1993-06-30 1994-06-30 Datendekodierungsverfahren und System Expired - Lifetime DE69434718T2 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP16078293 1993-06-30
JP16078293 1993-06-30
JP639094 1994-01-25
JP639094 1994-01-25

Publications (2)

Publication Number Publication Date
DE69434718D1 DE69434718D1 (de) 2006-06-01
DE69434718T2 true DE69434718T2 (de) 2007-03-29

Family

ID=26340518

Family Applications (3)

Application Number Title Priority Date Filing Date
DE1994632660 Expired - Lifetime DE69432660T2 (de) 1993-06-30 1994-06-30 Vorrichtung und verfahren zur kodierung/dekodierung von daten für untertitel
DE1994632685 Expired - Lifetime DE69432685T2 (de) 1993-06-30 1994-06-30 Aufzeichnungsmedium
DE1994634718 Expired - Lifetime DE69434718T2 (de) 1993-06-30 1994-06-30 Datendekodierungsverfahren und System

Family Applications Before (2)

Application Number Title Priority Date Filing Date
DE1994632660 Expired - Lifetime DE69432660T2 (de) 1993-06-30 1994-06-30 Vorrichtung und verfahren zur kodierung/dekodierung von daten für untertitel
DE1994632685 Expired - Lifetime DE69432685T2 (de) 1993-06-30 1994-06-30 Aufzeichnungsmedium

Country Status (11)

Country Link
US (1) US5583577A (de)
EP (3) EP1326449B1 (de)
JP (1) JP3430511B2 (de)
KR (1) KR100289857B1 (de)
CN (1) CN1113098A (de)
AT (3) ATE324746T1 (de)
AU (1) AU677676B2 (de)
DE (3) DE69432660T2 (de)
ES (3) ES2193162T3 (de)
HK (1) HK1044088B (de)
WO (1) WO1995001704A1 (de)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5684542A (en) 1993-12-21 1997-11-04 Sony Corporation Video subtitle processing system
US6422397B1 (en) 1993-12-22 2002-07-23 Baxter International, Inc. Blood collection systems including an integral, flexible filter
US6367634B1 (en) 1993-12-22 2002-04-09 Baxter International Inc. Blood collection systems including an integral, flexible filter
JP2931755B2 (ja) * 1994-04-14 1999-08-09 株式会社東芝 データ再生装置、データエンコード装置、データエンコード方法及びデータ再生システム
JPH08322046A (ja) * 1995-03-20 1996-12-03 Sony Corp データ符号化/復号化方法および装置、および符号化データ記録媒体
JPH08265661A (ja) * 1995-03-23 1996-10-11 Sony Corp 字幕データ符号化/復号化方法および装置、および符号化字幕データ記録媒体
AU726256B2 (en) * 1995-04-03 2000-11-02 Sony Corporation Subtitle positioning method and apparatus
JPH08275205A (ja) * 1995-04-03 1996-10-18 Sony Corp データ符号化/復号化方法および装置、および符号化データ記録媒体
JP3326669B2 (ja) * 1995-06-30 2002-09-24 ソニー株式会社 データ再生装置
JPH09130824A (ja) * 1995-11-02 1997-05-16 Funai Electric Co Ltd 映像装置の文字表示時における映像処理方法
US5802226A (en) * 1996-03-29 1998-09-01 Matsushita Electric Industrial Co., Ltd. Method and apparatus for video fade effect with a single video source
JPH09284650A (ja) * 1996-04-15 1997-10-31 Toshiba Corp デジタル信号処理装置
WO1997043855A1 (fr) * 1996-05-16 1997-11-20 Kabushiki Kaisha Infocity Procede de transmission et d'affichage d'informations et dispositif d'affichage d'informations
MY119560A (en) * 1996-05-27 2005-06-30 Nippon Telegraph & Telephone Scheme for detecting captions in coded video data without decoding coded video data
JP3591227B2 (ja) * 1997-06-24 2004-11-17 ヤマハ株式会社 カラオケ装置
JP3011157B2 (ja) * 1997-10-30 2000-02-21 日本電気株式会社 画像読取方法及び装置
US6038347A (en) * 1997-11-03 2000-03-14 Victor Company Of Japan, Ltd. Method and apparatus for compressing picture-representing data
US6144774A (en) * 1997-11-03 2000-11-07 Victor Company Of Japan, Ltd. Method and apparatus for compressing picture-representing data
US6573945B1 (en) * 2000-01-12 2003-06-03 General Instrument Corporation Logo insertion on an HDTV encoder
US20030209479A1 (en) * 2000-07-10 2003-11-13 Lynn Daniel R Blood filters, blood collection and processing systems, and methods therefore
US7050109B2 (en) * 2001-03-02 2006-05-23 General Instrument Corporation Methods and apparatus for the provision of user selected advanced close captions
US7532765B2 (en) * 2002-12-30 2009-05-12 Intel Corporation Run length encoded digital image
KR100565614B1 (ko) 2003-09-17 2006-03-29 엘지전자 주식회사 캡션 송수신 방법
US20050078221A1 (en) * 2003-09-26 2005-04-14 Koji Kobayashi Apparatus for generating video contents with balloon captions, apparatus for transmitting the same, apparatus for playing back the same, system for providing the same, and data structure and recording medium used therein
IL159838A0 (en) 2004-01-13 2004-06-20 Yehuda Binder Information device
JP4747537B2 (ja) * 2004-09-07 2011-08-17 日本電気株式会社 携帯端末及びその制御方法、並びに携帯端末のためのコンピュータ・プログラム
ATE496490T1 (de) * 2007-08-09 2011-02-15 Inlet Technologies Bewahrung von untertiteln durch videotranskodierung
US20090249392A1 (en) * 2008-03-28 2009-10-01 Lg Electronics Inc. Digital broadcast receiver and method for processing caption thereof
US20100091187A1 (en) * 2008-10-15 2010-04-15 Echostar Technologies L.L.C. Method and audio/video device for processing caption information
CN102740000A (zh) * 2011-08-29 2012-10-17 新奥特(北京)视频技术有限公司 一种在图文播出单编辑中预览播出效果的方法及系统
CN113596355B (zh) * 2020-04-14 2024-04-16 瑞昱半导体股份有限公司 字幕图像产生装置及方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6232494A (ja) * 1985-08-06 1987-02-12 三洋電機株式会社 グラフイツクデコ−ダ回路
JPH07118798B2 (ja) * 1988-02-29 1995-12-18 パイオニア株式会社 画像情報の記録方法及び再生方法
JPH0219088A (ja) * 1988-07-06 1990-01-23 Matsushita Electric Ind Co Ltd 字幕表示装置
JPH02308689A (ja) * 1989-05-23 1990-12-21 Matsushita Electric Ind Co Ltd 文字図形情報表示装置
JP2776934B2 (ja) * 1990-01-10 1998-07-16 株式会社日立製作所 映像信号処理装置
JPH0467470A (ja) * 1990-07-06 1992-03-03 Pioneer Electron Corp 情報記憶装置及び情報再生装置
JP2652268B2 (ja) * 1990-11-02 1997-09-10 ダブリュエヌエム・ヴエンチヤーズ・インコーポレーテツド 符号化装置および符号化方法
JP2913825B2 (ja) * 1990-11-19 1999-06-28 松下電器産業株式会社 有料字幕放送送受信装置
JP2692406B2 (ja) * 1991-04-04 1997-12-17 松下電器産業株式会社 映像信号拡大装置
JPH05304641A (ja) * 1992-04-24 1993-11-16 Victor Co Of Japan Ltd テレビジョン受像機
DE69334277D1 (de) * 1992-11-05 2009-05-28 Canon Kk Vorrichtung und Verfahren zur Verarbeitung von Bewegtbildern

Also Published As

Publication number Publication date
EP1326449A3 (de) 2003-07-30
ES2194002T3 (es) 2003-11-16
ATE240623T1 (de) 2003-05-15
US5583577A (en) 1996-12-10
DE69432660T2 (de) 2004-04-08
EP0662770A1 (de) 1995-07-12
JP3430511B2 (ja) 2003-07-28
ES2193162T3 (es) 2003-11-01
EP1158810B1 (de) 2003-05-14
DE69432685T2 (de) 2004-04-08
DE69432685D1 (de) 2003-06-18
ES2259117T3 (es) 2006-09-16
KR950703257A (ko) 1995-08-23
EP0662770A4 (de) 1998-05-27
ATE324746T1 (de) 2006-05-15
AU7082994A (en) 1995-01-24
CN1113098A (zh) 1995-12-06
HK1044088B (zh) 2004-04-08
DE69432660D1 (de) 2003-06-18
EP1158810A2 (de) 2001-11-28
EP1326449B1 (de) 2006-04-26
DE69434718D1 (de) 2006-06-01
EP1158810A3 (de) 2002-01-09
AU677676B2 (en) 1997-05-01
EP1326449A2 (de) 2003-07-09
HK1044088A1 (en) 2002-10-04
KR100289857B1 (ko) 2001-05-15
ATE240624T1 (de) 2003-05-15
WO1995001704A1 (en) 1995-01-12
EP0662770B1 (de) 2003-05-14

Similar Documents

Publication Publication Date Title
DE69434718T2 (de) Datendekodierungsverfahren und System
DE69628487T2 (de) Kodierung/Dekodierung von Untertiteldaten und Aufzeichnungsmedium dafür
DE69637052T2 (de) Kodierung/Dekodierung von Untertiteln
DE69109346T2 (de) Übertragungssystem für digitalisierte Fernsehbilder.
DE68923532T2 (de) Digitaler Videobandrecorder, geeignet zur Bildwiedergabe mit hoher Geschwindigkeit.
DE3789214T2 (de) Bildanzeigegerät.
DE69734496T2 (de) Datendekodierer und verfahren zur datendekodierung
DE69031638T2 (de) System zum Übertragen von Bildinformation
DE68910596T2 (de) Abtastumsetzungssystem mit Überlagerungsvorrichtung.
DE60126114T2 (de) Signalsender und signalempfänger
DE69125458T2 (de) Verbesserter Empfänger für Teletext Übertragungen
DE69836470T2 (de) Überträger, empfänger und medium für progressives bildsignal
DE60123146T2 (de) Videosignalwiedergabeanlage
DE3409212A1 (de) Farbfernsehuebertragungs- bzw. -informationsspeichersystem mit zeitmultiplexkodierung und dazu geeigneter informationsgeber und -empfaenger
EP0090211B1 (de) Gerät zur flimmerfreien Wiedergabe von Fernsehbildern und Text- und Graphikseiten
DD290985A5 (de) Mit herkoemmlichen normen kompatibles fernsehuebertragungssystem
DE69113625T2 (de) Kompression digitaler videosignale.
EP1142317B1 (de) Signalverarbeitungseinheit für digitales tv-system
DE69031369T2 (de) Verfahren und Vorrichtung zum Aufzeichnen und Wiedergeben eines digitalen Signals
EP0451205B1 (de) Mit herkömmlichen fernsehnormen kompatibles fernsehübertragungssystem
DE69631020T2 (de) Digitales Aufzeichnungs-/Wiedergabegerät
EP0598786B1 (de) Verfahren, coder und decoder zur kompatiblen übertragung und/oder aufzeichnung von progressiven bildsignalen
EP0129648B1 (de) Fernsehempfänger mit Texteinblendung
DE69217578T2 (de) Vorrichtung zum Verarbeiten eines digitalen Video Komponentensignales mit zwei Datenraten
DE19732436C2 (de) Reformatierschaltung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition