WO1995001704A1 - Apparatus and method for coding/decoding subtitles data - Google Patents

Apparatus and method for coding/decoding subtitles data Download PDF

Info

Publication number
WO1995001704A1
WO1995001704A1 PCT/JP1994/001062 JP9401062W WO9501704A1 WO 1995001704 A1 WO1995001704 A1 WO 1995001704A1 JP 9401062 W JP9401062 W JP 9401062W WO 9501704 A1 WO9501704 A1 WO 9501704A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
subtitle
video image
encoded
encoding
Prior art date
Application number
PCT/JP1994/001062
Other languages
English (en)
French (fr)
Inventor
Ikuo Tsukagoshi
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=26340518&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=WO1995001704(A1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to EP19940919828 priority Critical patent/EP0662770B1/en
Priority to US08/387,904 priority patent/US5583577A/en
Priority to AT94919828T priority patent/ATE240624T1/de
Priority to AU70829/94A priority patent/AU677676B2/en
Priority to KR1019950700781A priority patent/KR100289857B1/ko
Priority to JP50340395A priority patent/JP3430511B2/ja
Priority to DE1994632660 priority patent/DE69432660T2/de
Publication of WO1995001704A1 publication Critical patent/WO1995001704A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/467Embedding additional information in the video signal during the compression process characterised by the embedded information being invisible, e.g. watermarking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2662Controlling the complexity of the video stream, e.g. by scaling the resolution or bitrate of the video stream based on the client capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/438Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving encoded video stream packets from an IP network
    • H04N21/4382Demodulation or channel decoding, e.g. QPSK demodulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440263Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA
    • H04N21/440272Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA for performing aspect ratio conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/4425Monitoring of client processing errors or hardware failure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/633Control signals issued by server directed to the network components or client
    • H04N21/6332Control signals issued by server directed to the network components or client directed to client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/633Control signals issued by server directed to the network components or client
    • H04N21/6332Control signals issued by server directed to the network components or client directed to client
    • H04N21/6336Control signals issued by server directed to the network components or client directed to client directed to decoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/654Transmission by server directed to the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/278Subtitling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/44504Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • H04N7/087Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only
    • H04N7/088Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital
    • H04N7/0884Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital for the transmission of additional display-information, e.g. menu for programme or channel selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • H04N7/087Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only
    • H04N7/088Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital
    • H04N7/0884Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital for the transmission of additional display-information, e.g. menu for programme or channel selection
    • H04N7/0885Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital for the transmission of additional display-information, e.g. menu for programme or channel selection for the transmission of subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8233Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a character code signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/0122Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal the input and the output signals having different aspect ratios

Definitions

  • the present invention relates to a subtitle data encoding / decoding apparatus and method.
  • the present invention relates to a subtitle data encoding / decoding apparatus and method, and particularly to a subtitle suitable for transmitting video data together with subtitle data and displaying the subtitles superimposed on a video image on a receiving side.
  • BACKGROUND ART Data encoding method and decoding method, caption data encoding device and decoding device, recording medium, transmission method and device, encoding method and decoding method, and encoding device and decoding device
  • subtitles are often spun at the edge of the screen.
  • a subtitle data transmission system of this kind in video discs and ordinary television broadcasting, a video signal is transmitted in a state where subtitles are superimposed in advance in a video image.
  • subtitles can be transmitted as a character code or a dot pattern.
  • one frame of data is composed of one byte of subcode and 32 bytes of data.
  • the 32-byte data has 2 bytes of data per sample, and 6 samples are allocated to each of the L and R channels. Therefore, the sum Is 24 bytes.
  • An 8-byte error correction code is added to the 24 bytes of audio data, for a total of 32 bytes of data.
  • sub-codes for 98 frames are collected to make up one block.
  • the subcodes for the first two frames are S0 and S1 sync patterns.
  • Various subcode data can be recorded in the remaining 96 frames of subcode.
  • the graphics data can be allocated to the remaining 6 bits of the R channel or the W channel. That is, the range to which graphics data can be substantially allocated is 6 ⁇ 96 bits.
  • the transfer amount of data for the I frame is 75 X 98 Hz. Therefore, the transmission bit rate of the subcode is 7.35 kbytes / s.
  • Fig. 27 shows the transmission format of such graphics data.
  • a packet is composed of 96 symbols of data, with the 6-bit data of the R channel or W channel as one symbol, and each packet is composed of 4 symbols. It consists of two packs. Each pack is composed of 24 symbols, symbol 0 to symbol 23.
  • Mode information is assigned to the three bits R, S, and T of the symbol 0, and item information is assigned to the three bits U, V, and W, respectively.
  • the following modes are defined by the combination of this mode (MODEM) and item (ITEM).
  • Symbol 1 has an instruction
  • symbol 2 and symbol 3 have a mode and parity for items and instructions.
  • the range in which graphics data can be practically allocated is 16 symbols (symbol 4 or symbol 19), and symbol 20 or symbol 2
  • the 3/4 symbol is assigned a parity for 20 symbols up to symbol 0 or symbol 19.
  • the graphics data can be assigned as binary data within the range of 6 ⁇ 12 pixels of each pack.
  • subtitles are superimposed on video images and transmitted as in the method of video discs and ordinary television broadcasting. There was a problem with the transmission method that the user could not turn on or off the display of subtitles as necessary. In addition, there was a problem that it was not possible to prepare subtitles in languages of multiple countries and let the user select the predetermined one.
  • the methods in the CAPTAIN system and CDG can turn subtitles on or off as needed, but have the problem of insufficient resolution.
  • the displayable area of one screen is 248 horizontal pixels X 1992 lines, but the component digital TV signal is -720 horizontal pixels X 480 lines. It is understood that the resolution is not sufficient when compared with this resolution.
  • CD-G can correspond to only one bit of data per pixel
  • the data is represented by binary data.
  • aliasing in which the hatched portion of a character appears jagged
  • This phenomenon and the phenomenon of flickering, which cause characters to flicker, have become remarkable, and there has been a problem of giving users discomfort.
  • this requires a high-precision filter and is expensive.
  • the background image also deteriorates.
  • the present invention has been made in view of the above points, and is intended to enable high-quality subtitles to be displayed according to a user's preference. Also, it is possible to switch the subtitle display at high speed without deteriorating the background video image. Disclosure of the invention
  • the caption data encoding method and apparatus according to the present invention generate caption data corresponding to a caption to be superimposed and displayed on a video image and key data corresponding to a superimposition ratio when the caption is superimposed on the video image. Then, the subtitle data and key data are quantized, and the quantized subtitle data and key data are transmitted as predetermined bits.
  • a subtitle data decoding method and apparatus provides a subtitle data decoding method for decoding subtitle data encoded by the above-described subtitle data encoding method, wherein key data is maximum or minimum data.
  • key data is maximum or minimum data.
  • the video image attenuation is maximized, and the key data is a value between the minimum and maximum when the key data is the minimum or maximum data.
  • the attenuation rate of the video image is made to correspond to the magnitude of the value.
  • a transmission method and apparatus is to generate key data corresponding to an attenuation rate of a video image when a caption for superimposition and display on a video image is superimposed on the video image, and transmit key data. It is characterized by.
  • the encoding method of the present invention generates key data corresponding to the attenuation rate of the video image when the caption for superimposing and displaying the caption on the video image is generated, and quantizes the key data. It is characterized in that the quantized key data is transmitted as predetermined bits.
  • the decoding method of the present invention is a decoding method for decoding coded data, wherein, when the key data is the maximum or minimum data, the attenuation rate of the video image is minimized, When the key data is the minimum or maximum data, the attenuation rate of the video image is maximized, and when the key data is a value between the minimum and maximum, the attenuation rate of the video image is set to the magnitude of the value. It is characterized by
  • the recording medium according to the present invention is characterized in that a caption corresponding to an attenuation rate of the video image when a caption for superimposing and displaying the video image on the video image is superimposed on the video image. Data is recorded after being quantized.
  • the quantized caption data and key data are transmitted as predetermined bits. Further, in the transmission method and apparatus according to the present invention, key data corresponding to an attenuation rate of a video image when a caption for superimposing and displaying the video image on a video image is generated, and the key data is generated. Transmit. Further, in the encoding method and apparatus of the present invention, the key data corresponding to the attenuation rate of the video image when the caption for superimposing and displaying the video image on the video image is generated. Is quantized, and the quantized key data is transmitted as predetermined bits. Therefore, it is possible to display high-quality subtitles at high speed as needed.
  • the attenuation rate of a video image is controlled according to the value of key data.
  • the key data is the maximum or minimum data
  • the attenuation rate of the video image is minimized, and the key data is minimized or maximized.
  • the key data is a value between the minimum and maximum
  • the attenuation factor of the video image is made to correspond to the magnitude of the value. Therefore, it is possible to display captions that are easier to see.
  • key data corresponding to the attenuation rate of the video image when a caption for superimposing and displaying the video image on the video image is superimposed on the video image is quantized and recorded. Therefore, the attenuation rate of the video image can be controlled in accordance with the value of the key data value, and subtitles that are more easily viewable can be reproduced.
  • Figure 1 is a subtitle data encoding apparatus that applies the caption data coding method of the present invention - a blanking 13 click view showing an embodiment of configurations.
  • Figures 2 (A) and 2 (B) are diagrams illustrating the relationship between subtitle data and key data. is there.
  • FIG. 4 is a flowchart for explaining the quantization operation of the key data in the quantization circuit 14 of FIG.
  • FIG. 5 is a flowchart illustrating the operation of quantizing subtitle data in the quantization circuit 14 in FIG.
  • FIG. 6 is a diagram illustrating a screen of a horizontally long aspect ratio.
  • Fig. 7 is a diagram for explaining the screen of the squeeze method.
  • FIG. 8 is a block diagram showing a configuration example of the processing circuit 13 in FIG.
  • FIGS. 9 (A) to 9 (D) are diagrams for explaining variable length codes in the variable length coding circuit 17 of FIG.
  • FIGS. 10 (A) to 10 (D) are diagrams illustrating the opening vectors generated by the vector generation circuit 23 of FIG.
  • FIG. 11 is a block diagram showing a configuration example of the threshold circuit 21 of FIG.
  • FIG. 12 is a block diagram showing a configuration example of the end detection circuit 22 of FIG.
  • FIG. 13 is a block diagram showing a configuration example of the vector generation circuit 23 of FIG.
  • FIG. 14 is a diagram illustrating the format of the output of the packing circuit 18 in FIG.
  • FIG. 15 is a view for explaining position information supplied to the packing circuit 18 of FIG.
  • FIG. 16 is a block diagram showing a configuration of an embodiment of a caption data decoding device to which the caption data decoding method of the present invention is applied.
  • FIG. 17 is a block diagram illustrating a configuration example of the error check circuit 82 of FIG.
  • FIG. 18 is a timing chart for explaining the operation of the code buffers 86a and 86b in FIG.
  • FIG. 19 is a flowchart for explaining the inverse quantization operation in the inverse quantization circuit 91 of FIG.
  • FIG. 20 is a block diagram showing a more detailed configuration of the register 93, the frame register 94, and the mixer 92 of FIG.
  • FIG. 21 is a block diagram showing a more detailed configuration of the mixer 92 of FIG.
  • FIG. 22 is a diagram for explaining the display position designation signal input to the mixer 92 of FIG. I6.
  • FIG. 23 is a block diagram showing another configuration example of a caption data encoding device to which the caption data encoding method of the present invention is applied.
  • FIG. 24 is a diagram for explaining the format at the output of the caption encoding device 205 of FIG.
  • FIG. 25 is a block diagram showing a configuration example of an embodiment of a decoding device that encodes the output of the embodiment of FIG. 23.
  • FIG. 26 is a diagram illustrating the format of a conventional subcode.
  • Figure 27 shows the transmission format of a conventional subcode.
  • FIG. 1 is a block diagram showing the configuration of an embodiment of an apparatus to which the subtitle data encoding method of the present invention is applied.
  • a video signal output from a video camera 1 is supplied to a video encoding device 2, subjected to AZD conversion, and compressed.
  • a video disc player, a video tape recorder, or the like may be used instead of the video camera 1, and a video signal reproduced thereby may be supplied to the video encoding device 2.
  • the video encoder 2 has a built-in rate controller 2a, and controls the compression rate of video data in accordance with the bit rate control signal output from the packing circuit 18. It has been done. That is, as described later, the subtitle encoding device 7 encodes the subtitle data.
  • the video data compressed and encoded by the video encoding device 2 in this manner is the video data compressed and encoded by the video encoding device 2 in this manner.
  • the audio signal collected by the microphone 3 is supplied to the audio encoding device 4, where it is subjected to AZD conversion, compression, and encoding.
  • a tape recorder or the like may be used in place of the microphone 3, and the audio signal reproduced there may be supplied to the audio encoding device 4.
  • the audio data encoded by the audio encoding device 4 is supplied to a multiplexer 8.
  • the digital subtitle data generated by the character generation circuit (character generator) 5 or the analog subtitle data output from the flying spot scanner 6 is transmitted to the subtitle encoding device 7. After being compressed, encoded and supplied to a multiplexer 8.
  • the multiplexer 8 multiplexes the input video data, audio data, and subtitle data and records the multiplexed data on the disc 28 as a recording medium or receives the data via the transmission channel 29 as a transmission path. To the side.
  • the character generation circuit 5 generates caption data corresponding to the video image encoded by the video encoding device 2 and supplies the caption data to the contact a of the switch 11 of the subtitle encoding device 7.
  • the key data is supplied from the character generation circuit 5 to the contact b side of the switch 11.
  • the switch 11 is switched to the contact a or contact b at a predetermined timing, selects subtitle data or key data as necessary, and quantizes via the contact b of the switch 12.
  • Supply circuit 14 is provided to the contact a or contact b at a predetermined timing, selects subtitle data or key data as necessary, and quantizes via the contact b of the switch 12.
  • FIG. 2 (A) shows the caption data of a line (horizontal scanning line) indicated by one horizontal line in the figure.
  • the caption data has a level corresponding to the luminance of the character to be displayed in the period T3.
  • the key data has the highest level in the periods T1 and T5 slightly before and after the period T3. Then, the level of the period T2 between the periods T1 and T3 and the level of the period T4 between the periods T3 and T5 are set to predetermined levels intermediate between the above-described minimum level and maximum level. I have. In the period T2, the level is gradually changed from the highest level to the lowest level, and in the period T4, the level is gradually changed from the lowest level to the highest level.
  • the subtitle data is encoded with 4 bits, and the level of the video signal of the background video image is substantially muted (attenuated) to the black level.
  • the cow data is encoded by 4 bits, and the level of the caption signal corresponding to the caption is substantially equal to the predetermined level (in this embodiment, the predetermined level).
  • the gray level of the video powerful or black
  • the key data is encoded with 4 bits, and the background video image is attenuated at a rate corresponding to the value of the key data.
  • the quantization circuit 14 collectively outputs the subtitle data or key data levels in four bits. It is expressed as data of a bird.
  • Figure 3 illustrates the principle of representing caption data (file data) and cow data levels together. As shown in the figure, of the 16 levels that can be represented by 4 bits, 8 levels from 0 to 7 are assigned to the key data level, and 8 levels to 15 Eight levels are assigned to caption data. That is, the level of the key data is represented by 4-bit data of “0000” to “0111”, and the level of the subtitle data is “100” to “111”. This is represented by 4 bits of data. As a result, the MSB of the 4-bit data is, as it were, an identifier between the key data and the caption data.
  • the remaining 3 bits indicate the level of the caption data.
  • the subtitle data according to this level is displayed, and when the MSB power is “0”, the remaining 3 bits indicate the level of the key data and correspond to the value of the cow data. Only background video images of different levels are displayed.
  • the key data and the subtitle data are collectively represented by 4 bits of data (each level is essentially 3 bits of data because the MSB represents the type), and
  • the 4-bit data can be arranged in the bit stream as substantially the same data, and the circuit configuration can be simplified.
  • the assignment of the two levels can be changed as appropriate.
  • Fig. 4 and Fig. 5 show the principle of quantizing the level of cow data and subtitle data. For example, in periods T 1, T 2, T 4, and T 5 in FIG. 2, key data is input to the quantization circuit 14. As shown in FIG.
  • subtitle data is input to the quantization circuit 14.
  • the subtitle data is represented by 8 bits and has 256 levels of 0 to 255
  • step S1 to S8 of FIG. Data X Power, 25 5 to 2 3 4, 2 3 3 to 2 15, 2 14 to 15 0, 1 49 to 1 40, 1 39 to 1 28, 1 27 to It is determined which of the range is 86, 85-5, 55, 54-0.
  • One of the following values is set. Note that it is also possible to generate 4-bit subtitle data and key data from the character generation circuit 5 and directly input these data to the DPCM circuit 15 without passing through the quantization circuit 14.
  • the quantizing circuit 14 is also supplied with blanking data from the character generating circuit 5 via the contact a of the switch 12. Various data can be inserted into this blanking data as needed.
  • the subtitle data output from the processing circuit 13 is supplied to the quantization circuit 14 via the contact c of the switch 12.
  • the processing circuit 13 processes the analog subtitle signal output by the flying spot scanner 6 and outputs the signal as digital subtitle data.
  • the aspect ratio is horizontally long.
  • the so-called high vision Some screens have an aspect ratio of 16: 9 represented by televisions, and such television receivers with such an aspect ratio cannot display images with the aspect ratio of movies. It can be displayed on the screen of the television receiver as it is, whereas the conventional NTSC screen has a fast ratio of 4 to 3, as shown in Fig. 7. I have.
  • the aspect ratio should be converted to 4 to 3. However, in such a case, the image becomes a vertically long image as shown in FIG.
  • a television receiver having a horizontally long aspect ratio receives a video signal converted to a 4: 3 aspect ratio by the squeeze method in the original aspect ratio.
  • a conversion circuit for returning the ratio is built in. Therefore, as shown in FIG. 6, when an image having a horizontally long aspect ratio is input as shown in FIG. 6, the video encoding device 2 uses a squeeze method to obtain a 4: 3 aspect ratio as shown in FIG. The image is converted to an image with the default ratio and encoded.
  • FIG. 8 shows a configuration example of the processing circuit 13.
  • the flying spot scanner 6 supplies the analog subtitle signal corresponding to the video image input to the video encoding device 2 to the comparison circuit 35 of the processing circuit 13 as V in.
  • the comparison circuit 35 is also supplied with a reference voltage output from a voltage dividing circuit 34 having n resistors 341-134n.
  • the comparison circuit 35 has n comparison units 35 t to 35 n to which the respective reference voltages output from the voltage division circuit 34 are respectively supplied.
  • the subtitle signal supplied from 6 is compared with each reference value.
  • the comparators 35 to 35n output a signal of logic "1" when the caption signal is larger than the reference value, for example, and output a signal of logic "0" when the reference value is larger. .
  • the latch circuit 37 latches the m-bit data output from the encoder 36 and outputs the data to the quantization circuit 14 via the contact c of the switch 10.
  • Comparison circuit 35, the encoder 3 6 and latches circuit 3 7, the oscillation circuit 3 1 or c oscillator click lock output from the oscillation circuit 3 2 is supplied through a sweep rate Tutsi 3 3
  • the frequency of the clock output by 31 is 13.5 MHz
  • the frequency of the clock output by the oscillation circuit 32 is 0.125 MHz. That is, the ratio between the two is 4 to 3.
  • the switch 33 is switched to the upper side in the figure, and the oscillation circuit 3 is turned on. 1 outputs the clock output.
  • the video encoding device 2 encodes a video signal by the squeeze method
  • the switch 33 is switched to the lower side in the figure.
  • the clock output from the oscillation circuit 32 is output.
  • the clock frequency is 10.125 MHz, which is 3/4 of the normal frequency of 13.5 MHz, and is input to the comparison circuit 35.
  • the caption signal is also processed by the squeeze method.
  • the processing circuit 13 can be realized using a 4-bit AZD converter TDC1021 manufactured by TRW. In this case, since the output of the processing circuit 13 is 4-bit data, it can be directly input to the DPCM circuit 15 without passing through the quantization circuit 14.
  • the subtitle data and key data supplied from the character generation circuit 5 are digital Digital data, it is converted from normal data to squeezed data by the digital filter circuit 24 and sent to the quantization circuit 14 via the contact b of the switch 12. . .
  • the subtitle data quantized by the quantization circuit 14 is input to the DPCM circuit 15 and DPCM. Then, the output of the DPCM circuit 15 is supplied to the run-length encoding circuit 16.
  • the run-length encoding circuit 16 encodes the input DPCM subtitle data into level and run bears.
  • the variable-length coding circuit 17 performs variable-length coding on the run supplied from the run-length coding circuit 16 according to a table as shown in FIG.
  • the packing circuit 18 combines the variable-length encoded data and the level.
  • the output of the quantization circuit 14 is now 1, 4, 7, 12, 15, 15,...
  • the output of the DPCM circuit 15 is 1, 3, 3, 3, 5, 3 and the pair of the output (level, run) of the run-length coding circuit 16 is (1, 1), (3, 2), (5, 1), (3, 1) ...
  • the bit string after the variable-length coding of the run by the variable-length coding circuit 17 is expressed as “0 0 0 1 0 0 0 1
  • the first four bits of data “00001” indicate that the first data (level) is a strong one.
  • the next 1-bit data “0” indicates that the run is 1.
  • the next data “0101” indicates that the data (level) is 3.
  • the following data “1100” indicates that the run is 2. Thereafter, encoding is performed in the same manner.
  • the data amount can be reduced by setting the VLC code to a fixed length.
  • the V-to-C code has a fixed length of 12 bits.
  • a VLC code “1 1 1 1 1 1 1” representing the end is placed.
  • variable-length-encoded data ( The run is packed by the run-length encoding circuit 16 with the level value extracted by the run-length encoding circuit 16 as described above in the packing circuit 18, and output to the multiplexer 8.
  • the packing circuit 18 additionally attaches (multiplexes) the time code and the position information EOP to the Y code data which is caption data.
  • the time code displays the caption. It is the same as the time code of the video frame of the timing to be performed.
  • the position information indicates a position (block position) where the subtitle should be displayed in the video frame (this point will be described later with reference to FIG. 22).
  • EOP is data indicating the end of one page of subtitles.
  • the packing circuit 18 adds, for example, a 16-bit CRC (Cyc1icRendudandancyCheck) code so that an error can be detected on the decoding side.
  • CRC Cyc1icRendudandancyCheck
  • the packing circuit 18 calculates the amount of caption data generated at regular time intervals, and supplies the calculation result to the rate controller 2 a of the video encoding device 2. Since the rate controller 2a knows the bit amount of the first pass of the video encoding in the processing of the first pass, the data amount of the subtitle data is determined by the signal from the packing circuit 18. Then, when the video encoding in the second pass is performed, the video encoding device 2 is set to a variable rate that maximizes the capacity of the transmission channel 29 or the disk 28. Set the bit rate at.
  • the variable-rate video encoding device that sets the bit rate using two paths is described in International Application No. PCT / JP94 / 061010 filed earlier by the present applicant. The details are omitted here.
  • data in teletext, teletext, and other services that use the blanking area are also supplied to the caption encoding device 7, and the same processing as described above is performed. It is encoded and transmitted independently of the video data during the scanning period.
  • the ⁇ -vector, luminance data ( ⁇ ) offset level, and chroma data (C) offset level generated by the vector generation circuit 23 are also attached to the subtitle data. Is done.
  • the luminance data offset level represents the offset value for the ⁇ code data.
  • the chroma data offset level represents an offset value with respect to the default value of the chroma ⁇ . The chroma vector will be described with reference to FIG.
  • characters ⁇ to ⁇ are displayed on the screen as subtitles.
  • the lyrics to be sung may be represented by a live bar 200 of a predetermined color (in such a case, subtitles (characters) A ⁇ E is displayed during the page ( ie, from the beginning to the end of the lyrics (A to E), but the subtitles (A to E) are displayed until the song is finished.
  • this page will consist of multiple fields or frames of video images.
  • n—2, n ⁇ 1, and n represent frames that change with time, respectively.
  • the end of the wipe bar 200 is located almost at the middle position of the left half of the character A, and at the (n — l) th frame, The end of wipe bar 200 reaches approximately 34 on the right half of letter A. Further, in the n-th frame, the end of the wipe bar 200 reaches the position of about 14 of the character B.
  • the level change in each frame n—2, n ⁇ 1, n of the chroma signal on the line indicated by (a) and the line indicated by (b) is expressed as follows.
  • TR n-2, TR n-l and TR n are shown in TR n-2, TR n-l and TR n, respectively. That is, the bear level changes between the area inside the wipe bar 200 and the area outside the wipe bar 200. Then, during the period from frame 0 to frame n-2, wipe bar 200 moves rightward in the figure, and the chroma vector indicating the movement of wipe bar 200 during that time. Becomes as shown in TR n -2. Similarly, the chroma vector in the period from frame n — 2 to frame n _l and the movement of the wipe bar 200 from frame n — 1 to frame n The corresponding mouth vectors become TR n-i and TR ⁇ , respectively.
  • the character generation circuit 5 of FIG. 1 outputs wipe bar data as caption data in addition to the character data.
  • the output of the quantization circuit 14 corresponding to the data of the diver bar is supplied to the threshold circuit 21, and the output of the threshold circuit 21 is supplied to the window detection circuit 22.
  • the output of the end detection circuit 22 is supplied to the vector generation circuit 23, and the chroma vector output by the vector generation circuit 23 is supplied to the packing circuit 18. It has been made.
  • the threshold circuit 21 is configured, for example, as shown in FIG.
  • the color difference data Cu output from the quantization circuit 14 and corresponding to the Dip bar 200 is supplied to the subtraction circuit 41.
  • the register 42 holds the output of the subtraction circuit 41 at the timing when the immediately preceding clock is supplied.
  • the subtraction circuit 41 subtracts the value held in the register 42 from the currently input value, and newly holds the difference in the register 42.
  • the register 42 stores the difference between the color difference data Cu at the timing when the two clocks are input. The data will be retained. If there is no change in the color difference data Cu during a period in which two clocks occur, the register 42 holds a value of substantially 0 (or a very small value). On the other hand, when the color difference data Cu changes, a large value is held in the register 42. The value in register 42 is cleared line by line.
  • the value held in the register 42 is supplied to a comparison circuit 43 and compared with a predetermined reference value set in advance.
  • the comparison circuit 43 outputs a signal of logic “1” when the value held in the register 42 is larger than the reference value.
  • the same configuration as the above-described subtraction circuit 41, register 42, and comparison circuit 43 includes a subtraction circuit 51, a register 52, and a comparison circuit 53. The same processing is performed for the other color difference data CV corresponding to the wipe bar 2000. Therefore, the comparison circuit 53 outputs a logical "1" when the color difference data CV has a large change larger than the reference value.
  • the OR circuit 44 outputs a signal of logic “1” from the comparison circuit 43 or 53 to the end detection circuit 22. That is, the OR circuit 44 outputs a signal of logic "1” when detecting the position of the right end of the wipe bar 200 shown in FIG.
  • the end detection circuit 22 is configured, for example, as shown in FIG.
  • the output of the OR circuit 44 in FIG. 11 is supplied to and held by the register 61 in FIG.
  • the data held in the register 61 is inverted by the inverter 62 and supplied to the AND circuit 63 and the NOR circuit 64.
  • the data output from the OR circuit 44 in FIG. 11 is also directly supplied to the AND circuit 63 and the NOR circuit 64.
  • the register 61 holds the logic generated by the OR circuit 44 at the immediately preceding clock generation timing, and the AND circuit 63 and the NOR circuit 64 store this logic.
  • the immediately preceding logic and the logic currently output by the OR circuit 44 are calculated.
  • the AND circuit 63 the logic held in the register 61 is “0” (the output of the inverter 62 is logic “1”), and the logic output from the OR circuit 44 is “0”.
  • the logic "1" is output.
  • the logic held by the register 61 is “1” (the output of the inverter 62 is logic “0”), and the logic output from the OR circuit 44 is When it is “0”, that is, when the logic is inverted from “1” to logic “0”-output logic "1".
  • the OR circuit 65 sets the register 67 to ON. Enable state.
  • the counter 66 counts the clock, and the count value is cleared at the timing of the horizontal synchronization signal. That is, the counter 66 outputs the count value corresponding to the position of the pixel in the horizontal direction to the register 67. Therefore, the register 67 receives the logical "1" signal from the OR circuit 65. After the clock signal is input, the value of the counter 66 is held at the timing when the clock is supplied. As described above, the OR circuit 65 is connected to the wiper bar 200 in FIG. To output a logical "1" at the right end, register 67 will store the location of the pixel corresponding to that location. The value stored in this register 67 is supplied to the vector generation circuit 23 at the subsequent stage.
  • the vector generation circuit 23 is configured, for example, as shown in FIG.
  • the data output from the register 67 in FIG. 12 is supplied to the comparison circuit 76 and compared with the value stored in the register 72.
  • Register 72 holds the largest value among the data supplied through selector 71 ⁇ Comparison circuit 76 stores the data stored in register 72 Now compare the data supplied from register 67 and let selector 71 select the larger one.In other words, if the data already held in register 72 is larger, 1 selects the data stored in the register 72 again and supplies it to the register 72. As a result, the value held immediately before is held in the register 72 as it is.
  • the selector 71 selects the data supplied from the register 67. Select and supply to register 72. As a result, the register 72 holds a larger value. In this way, the register 72 holds the largest value among the values input during one line. You.
  • the value held in the register 7 is transferred to the subsequent register 73 in synchronization with the vertical synchronization signal.
  • the data held in the register 73 is transferred and stored in the register 74 at the subsequent stage in synchronization with the vertical synchronizing signal. That is, in the register 7, the data representing the rightmost edge of the wipe bar 200 in the immediately preceding field (the frame if one vertical synchronization signal is generated once per frame) is stored.
  • the larger value is held, and register 73 holds the maximum value of the value one field before.
  • the subtraction circuit 75 subtracts the value held by the register 73 from the value held by the register 74. That is, the output of the subtraction circuit 75 is, as described with reference to FIG.
  • the horizontal position of the wipe bar 200 one field before and the horizontal position one field after the wipe bar. It corresponds to the difference from the position in the direction, and this is the chroma vector.
  • This ⁇ vector is supplied to the packing circuit 18 and multiplexed with other data as described above.
  • the chroma vector is used to change not only the chroma data but also the luminance data.
  • FIG. 14 shows the format of the data output from the packing circuit 18 when the wipe bar is encoded.
  • a header is arranged at the head of this data, and a synchronization signal, a time code, position information, and a bucket size are registered inside the header.
  • the header is followed by ⁇ ⁇ ⁇ , followed by the luminance signal ( ⁇ ) offset level and the chrominance (C) signal offset level.
  • a predetermined number ( ⁇ ) of chroma vectors are arranged.
  • the value of ⁇ corresponds to the number of fields for one page.
  • coded luminance data is arranged (followed by a CRC code for error detection.
  • Figure 15 shows where to insert subtitles in one frame of video image. are doing.
  • the video image for one frame is horizontally divided into k blocks, and the subtitles are inserted into the k-th and eleventh blocks.
  • Location information is specified.
  • this k-1 data (block line number) is recorded as part of the header shown in Figure 14.
  • FIG. 16 is a block diagram showing a configuration of an embodiment of a decoding device that decodes subtitle data encoded as described above.
  • the demultiplexer 81 receives the data reproduced from the disc 28 or the data transmitted from the transmission channel 29, and separates the data into subtitle data, video data, and audio data.
  • the video data is supplied to a video decoding device 95, and after being decoded, is supplied to a mixer 92.
  • the audio data is supplied to an audio decoding device 96, and after being decoded, is supplied to a circuit (not shown).
  • the subtitle data is supplied to an error checking circuit 82 so that the presence or absence of an error is detected.
  • the error check circuit 82 is configured as shown in FIG. 17 when, for example, a 16-bit CRC is used.
  • the data power supplied from the demultiplexer 81 is supplied to one input of an electronic single OR circuit 101.
  • the other input of the exclusive-OR circuit 101 is provided with the output of a shift register 106 which outputs the input with a delay of four clocks.
  • the exclusive OR circuit 101 calculates the exclusive OR of both inputs. The output is supplied to the shift register 102, delayed by 5 clocks, and then supplied to one input of the exclusive OR circuit 103, the other of the exclusive-OR circuit 103.
  • the input of is supplied with the output of the shift register 106, and the exclusive OR circuit 103 calculates the exclusive OR of both inputs and outputs it to the shift register 104. I do.
  • the shift register 104 delays the data output from the exclusive OR circuit 103 by 7 clocks and then supplies the data to the exclusive OR circuit 105.
  • the exclusive OR circuit 105 calculates the exclusive OR of the data supplied from the shift register 104 and the data supplied from the shift register 106, and calculates the result.
  • the result is supplied to the shift register 106, which is a negative sync (sync) obtained from a synchronization signal indicating the start of a packet (in the figure, a symbol with a horizontal line above the word sync).
  • the initialized counter 302 is used to check the output of the shift register 106 at regular intervals.
  • the negative RC0 output signal (horizontal line above the character of RC0 in the figure) To the clock enable of the flip-flop 303, and latch the output of the shift register 106. Once the latched signal goes from a low level (that is, “low” level) to a low level (ie, “high” level), it is output by the R circuit 304 and flip-flop 305.
  • the logic continues to be at the “H” level, and the logic is inverted by the NOT circuit 107, and the logical “0” is input to the AND circuit 108.
  • the AND circuit 108 becomes non-conductive, and the subtitle data supplied by the demultiplexer 81 passes through the required number of delay circuits 301, and then becomes closed. It is prohibited from being supplied to the subsequent node detection circuit 83 via the input circuit 108. That is, when there is an error in the caption data, the display of the caption corresponding to the erroneous page data is prevented.
  • the code detection circuit 83 shown in FIG. 16 calculates E0P, luminance data offset level or chroma data offset level, and chroma vector from the data supplied from the error check circuit 82. And supplies them to the address generator 84, the register 93, or the frame register 9, respectively. Also, the caption de - data is, c Note fed to call Doba' off ⁇ 8 6 a, 8 6 b through the scan I Tutsi 8 5, call Doba' off ⁇ 8 6 a, 8 6 b respectively, rather low Both have the capacity of one page of caption data.
  • the address generator 84 generates the switching signals of the switches 85 and 87, and also issues the write or read addresses of the code buffers 86a and 86b. Live. As shown in Fig. 18, when data is written to the code buffer 86a, the data is read from the code buffer 86b, and conversely, the data is written to the code buffer 86b. When writing, read data from code buffer 86a.
  • the switching of the code buffer is performed by using the EOP indicating the end of one page. This makes it possible to continuously process the data supplied from the word detection circuit 83. In this way, one-page capacity is secured for each of the code buffers 86a and 86b, and the read / write is switched by the timing of EOP, so that the subtitle data can be instantly switched. Is possible.
  • the address generator 84 transfers the subtitle data supplied from the demultiplexer 81 too fast, and completes reading data from one of the code buffers 86a and 86b. If the next data is supplied before the stop, the stop signal is supplied to the demultiplexer 81 and the supply of new data is stopped.
  • variable length decoding (IVLC) circuit 88 converts the run data read from the code buffer 86a or 86b via the switch 87 into the VLC table shown in FIG. To perform variable length decoding.
  • the level data and the run data decoded by the variable length are supplied to an inverse run length circuit 89.
  • the reverse run length circuit 89 operates the counters for the number of run stages, and reads out the code buffers 86a and 86b by the number of runs while the power counter is rotating. To stop.
  • the reverse run length circuit 89 supplies level data to the IDPCM circuit 90 by the number of runs.
  • the IDPCM circuit 90 has a register, and adds the previous level data stored in the register and new level data supplied from the reverse run-length circuit 89 to obtain the level. If the data is subtitle data, it is supplied to the subsequent inverse quantization circuit 91. If the level data is key data, MS data indicating the identifier of the caption data and caption data among the 4-bit data is used. The 3-bit key data excluding B is output to the mixer 92 at the subsequent stage.
  • the inverse quantization circuit 91 converts the 4-bit data into 8-bit data, and this data is supplied to the mixer 92.
  • FIG. 19 shows a processing example of the inverse quantization operation in the inverse quantization circuit 91.
  • the 4-bit quantized data z is obtained in steps S41 to S48. It is determined whether the value is 15 to 8. If the quantized data is any of the values 15 to 8, the process proceeds to steps S49 to S56, where the subtitle data (file data) X is 24.5, 2 The value of 3 3, 2 15, 15 0, 14 0, 1 28, 85 or 44 is set.
  • FIGS. 20 and 21 More detailed configurations of the register 93, the frame register 94 and the mixer 92 in FIG. 16 are shown in FIGS. 20 and 21.
  • the register 93 is composed of R ⁇ M 13 1 and R 0 M 13 2.
  • the frame register 94 is composed of an adder circuit 141, a register 142, a counter 144, and a delay circuit 144.
  • the other circuits in FIG. 20 constitute a part of the mixer 92.
  • the luminance data offset level (the level for setting the wipe bar 200 to a predetermined color) output from the lead detection circuit 83 is supplied to R0M131, where it is stored and stored. Is converted to a predetermined value in accordance with the table. Then, the data converted by -R0M1331 is supplied to the addition circuit 1554 via the AND circuit 135, and is output from the inverse quantization circuit 91 in Fig. 16. Is added to the luminance data of the subtitle data (initial data for specifying the character color when the dip bar 200 is not displayed), and the selector 113 and the adder circuit I 14 in Figure 21 are added. It is supplied to. This offset level is set to a predetermined value by the user in the encoding device (encoder) shown in FIG.
  • the brightness data of the wipe bar can be set to a predetermined value (color).
  • the chroma offset level output from the word detection circuit 83 is supplied to R0M132, and is converted into a predetermined value according to the table stored therein. .
  • the data shown in FIG. Are supplied to the selectors 1 1 and 2.
  • the ⁇ vector separated by the word detection circuit 83 is supplied to the addition circuit 141 of the frame register 9 and is compared with the immediately preceding value held in the register 142. Is added. Then, the added value is held in the register 144 for the next operation. This register 144 is cleared in synchronization with the vertical synchronization signal.
  • the cumulative addition value of chroma vectors for one field period is sequentially stored in the register 1442.
  • the value stored in the register 142 indicates the position of the wiper 200 shown in FIG. 10 in each field.
  • the counter 144 loads the output of the adder circuit 141 every time the vertical synchronization signal is input. That is, the value corresponding to the horizontal position of the wipe bar 200 in the immediately preceding field is loaded. Then, counting of the clock corresponding to the pixel in the horizontal direction is immediately started, and the loaded value is decremented by one, for example. When the count value reaches a predetermined value (for example, 0), the output of the ripple carryover (rc0) terminal is inverted from logic "1" to logic "0". After the timing is adjusted by the delay circuit 144, this signal is supplied to the end circuits 135 and 162.
  • the circuit 135 and the circuit 62 are connected during the period when the logic "1" is input, that is, During the period from when the vertical synchronizing signal is input to the counter 14 3 until the count value becomes 0, the data output from the ROM 13 1 or 13 2 is passed. After the output of circuit 144 is inverted to logic "0", the passage of these data is prohibited. That is, this causes the wipe bar 200 shown in FIG. 10 to be displayed up to the position set by the counter 144, and the wipe bar 200 not to be displayed to the right. And
  • the luminance data output from the adder circuit 154 is supplied to the selectors 113 and the adder circuit 114 in FIG. 21 and the luminance data output from the AND circuit 162 is output.
  • Roma data is supplied to selectors 112 in FIG.
  • the selector I I 3 shifts the subtitle luminance data supplied from the adder circuit 154 by one bit to the LSB side by 7 bits, and shifts only two bits.
  • 6-bit data 2-bit data shifted by 6 bits, or
  • the subtraction circuit 114 subtracts the data selected by the selector 113 from the luminance data supplied from the addition circuit 154, and supplies the subtracted data to the selector 115. That is, when the output of the selector 113 is, for example, ⁇ , the subtraction circuit 114 outputs 1-a.
  • the selector 115 selects either ⁇ or 1_ ⁇ and outputs it to the adder circuit 116.
  • the luminance data of the background image output from the video decoding device 95 in FIG. 16 is supplied to the selector 123 and the subtraction circuit 124.
  • the selector 123 shifts the input luminance data by a predetermined bit to the least significant digit (that is, LS ⁇ ) side, and converts the data corresponding to the key data.
  • the subtraction circuit 124 subtracts the output of the selector 123 from the input video data and outputs the result to the selector 125.
  • the selector 125 also has the Either one of the data supplied from 4 and the data supplied from selector 12 3 are selected and output to the adder circuit 16.
  • the above description shows an example in which not only caption data but also key data is transmitted during the period T3 in FIG. 2, and in this embodiment, the selector 113 is actually used.
  • the subtractor 114 and the selector 115 are unnecessary, and the output of the adder 154 is directly input to the adder I16.
  • the selectors 115 and 125 are switched so as to operate complementarily. That is, the adder circuit 116 adds the luminance data of the caption output from the selector 115 and the luminance data of the background video image output from the selector 125 and outputs the result. As described with reference to FIG. 2, the background video image has a larger decay rate as the key data value becomes smaller. In order to realize this, the key data supplied from the IDPCM 90 is strong, and the selectors 113, 115 have the same 3-bit data as they are, and the selectors 123, The data 1 25 are supplied as data inverted by the inverter 3 1 1, respectively.
  • the selector 1 1 2 is supplied with the closed caption output from the AND circuit 1 62 and the chroma data of the background video image output from the video decoder 95. Have been.
  • the selector 1 1 2 selects and outputs one of the two inputs.
  • the subtitles and the background video image can be mixed by shifting the dynamic range of 0% to 100% by 12.5% (1/8).
  • bit shifting by the selectors 113 and 123 eliminates the need for a multiplier by operating on data, thereby reducing the cost. Device can be realized.
  • the control signal for turning on or off the display of the subtitles or the control signal for selecting the display position of the subtitles is input to the microphone 92 in FIG. 16.
  • Mixer 92 inhibits subtitle display when a control signal to turn off subtitle display is input Let it. This can be achieved, for example, by connecting a gate circuit to the output of the selector 112 and the adder circuit 116 in FIG. 21 and closing the gate circuit. When ON is instructed, this gate circuit is released, and the outputs of the selector 112 and the adder circuit 116 are supplied to circuits (not shown).
  • a control signal for changing the display position is also input to the mixer 92.
  • transmitted data includes k_l as the display position.
  • the mixer 92 has a built-in power counter, counts the input horizontal synchronizing signal, and the count value is When the value corresponding to the block line number is reached, the caption data is superimposed (spawn pause) on the background video image.
  • the subtitle is displayed. Superimposed on the background video image.
  • the DPCM circuit 15 is provided on the encoding side
  • the IDPCM circuit 90 is provided on the decoding side.
  • the output of the quantization circuit 14 is directly transmitted to the encoding side.
  • the output of the inverse run-length circuit 89 is directly input to the inverse quantizer 91 for subtitle data, and the inverse run-length circuit is used for key data on the decoding side.
  • the output of 89 may be directly input to the mixer 92.
  • FIG. 23 shows an embodiment of an encoding device that implements wipe bar encoding without using a chroma vector.
  • the luminance data of the caption is supplied to the frame memory 201, and the chroma data is supplied to the frame memory 202 and stored.
  • the subtraction circuit 203 converts the data stored in the frame memory 202 into a newly supplied frame. Subtract from the chroma data of the room and output the difference.
  • the switch 204 is switched to the contact a side or the b side at a predetermined timing, and the luminance data read from the frame memory 201 or the output from the subtraction circuit 203 is output.
  • the chroma data is selected and supplied to the caption decoder 205.
  • the caption decoding device 205 has, for example, a configuration in which the threshold circuit 21, the end detection circuit 22, and the vector generation circuit 23 are removed from the caption coding device 7 in FIG. It has almost the same configuration as.
  • the format of the data output and transmitted from the caption encoding device 205 is as shown in FIG. 24, for example. That is, the header is placed at the head, and the coded data of the luminance data is placed next. Then, chroma data corresponding to the number of frames (or fields) to be wiped are arranged.
  • Such format data is decoded by a decoding device as shown in FIG. That is, in this embodiment, after the input data is temporarily stored in the code buffer 211, it is supplied to the subtitle decoding device 211.
  • This caption decoding device 2 12 decodes the input data.
  • the luminance data is supplied to the display memory 21 via the contact a of the switch 21 and recorded.
  • the chroma data is supplied to the addition circuit 215 via the contact b of the switch 213, and is supplied to the data one frame before stored in the display memory 216. Is added. Then, the added data is newly supplied to the display memory 216 again.
  • the display memory 211 stores chroma data for each frame.
  • the data stored in the display memories 2 14 and 2 16 are read out at a predetermined timing, and output and displayed on a not-shown CRT, LCD, or the like.
  • the caption data for one channel is made to correspond to the background video image for one channel. It is also possible to associate a plurality of subtitle data (in multiple languages) with one background image, and to associate a plurality of subtitle data with a plurality of background video images.
  • quantized caption data and key data are converted into predetermined bits and transmitted. Further, according to the transmission method and device of the present invention, key data corresponding to an attenuation rate of a video image when a caption for superimposing and displaying the video image on a video image is generated. Transmit data. Furthermore, according to the encoding method and apparatus of the present invention, key data corresponding to the attenuation rate of a video image when a caption for superimposing and displaying the video image on a video image is generated. Then, the key data is quantized, and the quantized key data is transmitted as predetermined bits. Therefore, it is possible to display high-quality subtitles at high speed as needed with a simple configuration without deteriorating the image quality of the background video image.
  • the attenuation rate of a video image is controlled in accordance with the value of the first data.
  • the key data is the maximum or minimum data
  • the attenuation rate of the video image is minimized, and the key data is the minimum or maximum data.
  • the attenuation rate of the video image is set to the maximum, and when the key data is a value between the minimum and the maximum, the attenuation rate of the video image is made to correspond to the magnitude of the value. Therefore, it is possible to display the background video image and the subtitles in a natural and easily viewable state. As a result, high-quality subtitles can be displayed quickly and as needed.
  • the quantized key data is recorded as predetermined bits, so that the image quality of the background video image is not degraded, the configuration is simple, and a high High-quality subtitles can be displayed at high speed as needed.
  • the subtitle encoding method, subtitle encoding device, data transmission method, and data transmission device of the present invention can be used as a disk creation device for creating a disk-to-karaoke disk recording a movie. Further, the subtitle encoding method and the subtitle encoding device of the present invention can be used for CATV, satellite broadcasting, and a so-called video-on-demand system distribution device.
  • the recording medium of the present invention can be used as a movie disk for general consumers and a movie disk for rental companies. Further, the recording medium of the present invention can be used as a power supply for a general consumer or a power supply box for a power supply apparatus.
  • the subtitle decoding method, the subtitle encoding method, the video image control method, and the video image control device of the present invention can be used for a reproduction device for reproducing a movie disk and a karaoke disk. Further, the subtitle decoding method, the subtitle encoding method, the video image control method, and the video image control device of the present invention can be used for receiving devices such as CATV, satellite broadcasting, and so-called video-on-demand systems.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Television Systems (AREA)
  • Studio Circuits (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Developing Agents For Electrophotography (AREA)
  • Holo Graphy (AREA)
  • Photoreceptors In Electrophotography (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Error Detection And Correction (AREA)

Description

明 細 書 発明の名称
字幕データ符号化ノ復号化装置及び方法 技術分野
本発明は字幕データ符号化/復号化装置及び方法に関し、 特にビデオデー タ を字幕データ とともに伝送し、 受信側において字幕をビデオ画像にス ーパ ィ ンポーズして表示する場合に用いて好適な字幕データ符号化方法及び復号 化方法、 字幕データ符号化装置及び復号化装置、 記録媒体、 伝送方法及び装 置、 符号化方法及び復号化方法、 並びに符号化装置及び復号化装置に関する 背景技術
例えば、 外国の映画を我国において鑑賞する場合、 画面の端部に字幕がス —パイ ンポーズされることが多い。 この種の字幕データ伝送システムと して- ビデオディ スクや通常のテレビジョ ン放送等においては、 字幕がビデオ画像 中に予めスーパィ ンポーズされた状態において、 ビデオ信号が伝送される。 これに対して、 例えば C A P T A I N システムにおいては、 字幕を文字コ - ドあるいは ドッ トパターンと して伝送することができ るよう になされてい る。
さ らにまた、 C D— Gにおいては、 サブコー ドを利用して、 グラフ ィ ッ ク スを記録することができるよう になされており、 これを利用して、 字幕を C Dに記録することが可能である。
C D— Gにおいては、 図 2 6 に示すよう に、 1 フ レーム分のデータが、 1 バイ ト のサブコー ドと 3 2 バイ 卜 のデータ とによ り構成されている。 3 2 バ ィ トのデータには、 1 サンプル当り 2バイ 卜 のデータ力く、 Lチャ ンネルと R チャ ンネルに、 それぞれ 6 サンプルずつ割当られている。 従って、 その合計 は 2 4バイ ト となる。 この 2 4バイ トのオーディ オデータ に対して、 8 バイ トの誤り訂正符号が付加され、 合計 3 2バイ トのデータ となされている。
—方、 9 8 フ レーム分のサブコー ドが集められ、 1 ブロ ッ クを構成するよ う になされている。 9 8 フ レームのサブコー ドのうち、 最初の 2 フ レーム分 のサブコー ドは、 S 0, S 1 のシンクパターンとされている。 そして、 残り の 9 6 フ レーム分のサブコー ドに、 種々のサブコー ドデータを記録すること ができ るよう になされている。 但し、 1 バイ トのサブコー ド (各ビッ トが P ないし Wで表される) のうち、 Pチャ ンネルと Qチャ ンネルのデータ は、 ト ラ ッ クをサーチするデータが既に割り当てられている。 そこで、 残りの Rチ ヤ ンネルない し Wチ ャ ンネルの 6 ビッ 卜 に、 グラ フ ィ ッ クスデータを割り当 てることができる。 即ち、 実質的にグラフ ィ ッ クスデータを割り当てること ができ る範囲は、 6 X 9 6 ビッ ト となる。
1 ブロ ッ クのデータ は、 7 5 H zの周波数で伝送されるため、 I フ レーム 分のデータの転送量は 7 5 X 9 8 H z となる。 従って、 サブコー ドの伝送ビ ッ ト レー ト は、 7 . 3 5 kバイ ト / s となる。
図 2 7 は、 このようなグラフ ィ ッ クスデータの伝送フ ォ一マツ トを表して いる。 同図に示すよう に、 Rチャ ンネルないし Wチャ ンネルの 6 ビッ トのデ 一夕を 1 シンボルと して、 9 6 シンポル分のデ一夕によりパケッ トが構成さ れ、 各パケッ ト は 4つのパッ クにより構成されている。 各パッ クは、 シンボ ル 0 ないし シンボル 2 3の 2 4個のシンボルによ り構成されている。 シンポ ノレ 0 の R , S , Tの 3 ビッ ト にはモー ド情報が、 また、 U , V , Wの 3 ビッ ト にはアイ テム情報が、 それぞれ割り当てられている。 このモー ド (M O D E ) とアイ テム ( I T E M ) の組み合わせにより、 次のようなモ一 ドが規定 されている。
M O D E I T E M
0 0 0 0 0 0 0モー ド 0 0 1 0 0 0 グラ フ ィ ッ クスモー ド
0 0 1 0 0 1 T V—グラ フ ィ ッ ク スモー ド
1 1 1 0 0 0 ユーザモー ド そして、 シンボル 1 にはイ ンス ト ラ ク シ ョ ンが、 また、 シンボル 2 と シン ボル 3 にはモ一 ド及びアイ テムとィ ンス ト ラク ショ ンに対するパリ ティ力く、 それぞれ割り当てられるため、 実質的にグラフ ィ ッ ク スデータを割り当てる こ とができ る範囲は、 シンボル 4 ない し シンボル 1 9 の 1 6 シンボルとなる , そ して、 シンボル 2 0 ないし シンボル 2 3 の 4 シンボルには、 シンボル 0 な いし シンボル 1 9 までの 2 0 シンボルに対するパリ ティ が割り当てられてい る。
このよう にして、 C D— Gにおいては、 各パッ クの 6 X 1 2 ビクセルの範 囲に、 グラフ ィ ッ クスデータを 2値データ と して割り当てることができる。 パッ クのレー ト は 7 5 X 4 = 3 0 0 パッ ク Z s となる。 従って、 この 6 X 1 2 ビクセルの範囲に 1 つの文字を割り当てるとすると、 1 秒間に 3 0 0文字 を伝送することができることになる。
C D— Gにおいて規定する 1 画面は、 2 8 8水平画素 X 1 9 2 ライ ンとな るので、 この 1 画面分の文字を伝送するには、 次式で示すよう に、 2 . 5 6 秒必要となる。
( 2 8 8 / 6 ) X ( 1 9 2 1 2 ) 3 0 0 = 2 . 5 6 ( 1 ) 各ビクセルにおいて、 1 6値表現を行う には、 1 文字パター ンにっき、 4 回の異なるパター ンを伝送する必要があるため、 4倍の時間の 1 0. 2 4秒 の時間がかかることになる。
このような従来の方法のうち、 ビデオデイ スクや通常のテレビジョ ン放送 における方法のよう に、 字幕をビデオ画像にス ーパィ ンポーズした状態で伝 送する方法は、 ユーザが必要に応じて字幕の表示をォンまたはオフすること ができない課題があった。 また、 字幕と して、 複数の国の言語のものを用意 し、 ユーザにその所定のものを選択させるようなことができない課題があつ た。
これに対して、 C A P T A I N システムや C D— Gにおける方法は、 必要 に応じて字幕をォンまたはオフすることが可能であるが、 解像度が充分でな い課題があつた。
即ち、 C A P T A I N システムにおいては、 1 画面の表示可能領域は、 2 4 8水平画素 X 1 9 2 ライ ンであるが、 コ ンポーネ ン トデジタル T V信号は- 7 2 0水平画素 X 4 8 0 ライ ンの解像度を有しており、 この解像度に比べる と、 充分な解像度とはいえないことが判る。
さ らに、 C D— Gにおいては、 1 画素につき、 1 ビッ トのデータ しか対応 させることができないため、 データを 2値化して表すこととなり、 例えば文 字の斜線部分がギザギザに現れるエイ リ アシングの現象や、 文字がちらつく フ リ ツ力などの現象が顕著となり、 ユーザに不快感を与える課題があった。 また、 例えばフ ィ ルタにより、 2値情報を多値情報に変換することも考え られるが、 そのためには高精度のフ ィ ルタが必要となり、 高価となる。 また、 このようなフ ィ ルタを用いると、 背景画像も劣化させることになる。
さ らにまた、 C D— Gにおいて、 1 画素を 1 6値で表すよう にすると、 上 述したよう に、 2値で表す場合の約 4倍の時間を要し、 字幕の表示を高速で 切り換えることが困難になる課題があつた。
本発明は以上の点を考慮してなされたもので、 高品質の字幕を、 ユーザの 好みに応じて表示させることができるよう にするものである。 また、 背景の ビデオ画像を劣化させることな く 、 字幕の表示を高速で切り換えることがで きるよう にするものである。 発明の開示 本発明の字幕データ符号化方法及び装置は、 ビデオ画像に重畳して表示す るための字幕に対応する字幕データ と、 字幕をビデオ画像に重畳する際の重 畳割合に対応するキーデータを生成し、 字幕データ とキーデータを量子化し 量子化した字幕データ とキーデータを所定のビッ ト と して伝送することを特 徴とする。
本発明の字幕データ復号化方法及び装置は、 上記した字幕データ符号化方 法により符号化された字幕データを復号化する字幕データ復号化方法におい て、 キーデータが最大又は最小のデータであるとき、 ビデオ画像の減衰率を 最小となるよう にし、 キーデータが最小又は最大のデータであるとき、 ビデ ォ画像の減衰率を最大となるよう にし、 キーデータが最小と最大の間の値で あるとき、 ビデオ画像の減衰率を、 値の大き さに対応させることを特徴とす る。
本発明の伝送方法及び装置は、 ビデオ画像に重畳して表示するための字幕 をビデオ画像に重畳する際のビデオ画像の減衰率に対応するキーデータを生 成し、 キ一データを伝送することを特徴とする。
さ らに本発明の符号化方法は、 ビデオ画像に重畳して表示するための字幕 をビデオ画像に重畳する際のビデオ画像の減衰率に対応するキーデータを生 成し、 キーデータを量子化し、 量子化したキーデータを所定のビッ ト と して 伝送することを特徴とする。
また、 本発明の復号化方法は、 符号化されたデータ を復号化する復号化方 法において、 キ一データが最大又は最小のデータであるとき、 ビデオ画像の 減衰率を最小となるよう にし、 キーデータが最小又は最大のデータであると き、 ビデオ画像の減衰率を最大となるよう にし、 キーデータが最小と最大の 間の値であるとき、 ビデオ画像の減衰率を、 値の大きさに対応させることを 特徴とする。
さ らに、 本発明の記録媒体は、 ビデオ画像に重畳して表示するための字幕 を前記ビデオ画像に重畳する際の前記ビデオ画像の減衰率に対応する牛ーデ ータを量子化して記録したことを特徴とする。
本発明の字幕データ符号化方法及び装置においては、 量子化した字幕デ一 タ とキーデータが所定のビッ ト とされ、 伝送される。 また、 本発明の伝送方 法及び装置においては、 ビデオ画像に重畳して表示するための字幕をビデオ 画像に重畳する際のビデオ画像の減衰率に対応するキーデータを生成し、 キ 一データを伝送する。 さらに、 本発明の符号化方法及び装置においては、 ビ デォ画像に重畳して表示するための字幕をビデオ画像に重畳する際のビデオ 画像の減衰率に対応するキーデータを生成し、 キーデータを量子化し、 量子 ィ匕したキーデータを所定のビッ ト と して伝送する。 従って、 高品質の字幕を、 高速で、 必要に応じて表示させるよう にすることが可能となる。
また、 本発明の字幕データ復号化方法及び装置においては、 キーデータの 値に対応してビデオ画像の減衰率が制御される。 さ らに、 本発明の復号化方 法及び装置においては、 キーデータが最大又は最小のデータであるとき、 ビ デォ画像の減衰率を最小となるよう にし、 キーデータが最小又は最大のデー タであるとき、 ビデオ画像の減衰率を最大となるよう にし、 キーデータが最 小と最大の間の値であるとき、 ビデオ画像の減衰率を値の大きさに対応させ る。 従って、 より見やすい字幕を表示することが可能になる。 本発明の 記録媒体においては、 ビデオ画像に重畳して表示するための字幕を前記ビデ ォ画像に重畳する際の前記ビデオ画像の減衰率に対応するキーデータが量子 化して記録されている。 従って、 ビデオ画像の減衰率を、 キーデータの値の 大きさに対応して制御することができ、 より見やすい字幕を再生することが 可能になる。 図面の簡単な説明
図 1 は本発明の字幕データ符号化方法を応用した字幕データ符号化装置の —実施例の構成を示すブ13 ッ ク図である。
図 2 ( A ) 及び 2 ( B ) は字幕データ とキーデータの関係を説明する図で ある。
図 3 は字幕データ とキーデータを符号化する原理を説明する図である。 図 4 は図 1 の量子化回路 1 4 におけるキーデータの量子化動作を説明する フ ロ ーチ ヤ 一 トである。
図 5 は図 1 の量子化回路 1 4 における字幕データを量子化する動作を説明 するフ ロ ーチ ヤ一トである。
図 6 は横長のァスべク ト比の画面を説明する図である。
図 7 はス ク イ ーズ方式の画面を説明する図である。
図 8 は図 1 の処理回路 1 3の構成例を示すブ π ッ ク図である。
図 9 ( A ) 〜9 ( D ) は図 1 の可変長符号化回路 1 7 における可変長符号 を説明する図である。
図 1 0 ( A ) ~ 1 0 ( D ) は図 1 のべク ト ル発生回路 2 3が発生するク 口 マべク ト ルを説明する図である。
図 1 1 は図 2 1 のスレツ シ ョ ルド回路 2 1 の構成例を示すプロ ッ ク図であ る。
図 1 2 は図 1 のエン ド検出回路 2 2の構成例を示すプロ ッ ク図である。 図 1 3 は図 1 のべク ト ル発生回路 2 3の構成例を示すブ n ッ ク図である。 図 1 4 は図 1 のパッキング回路 1 8の出力のフ ォ ーマツ トを説明する図で ある。
図 1 5 は図 1 のパッキング回路 1 8 に供給する位置情報を説明する図であ る。
図 1 6 は本発明の字幕データ復号化方法を応用した字幕データ復号化装置 の一実施例の構成を示すブロ ッ ク図である。
図 1 7 は図 1 6のエラーチユ ッ ク回路 8 2の構成例を示すブ σ ッ ク図であ る。
図 1 8 は図 1 6 のコー ドバッ フ ァ 8 6 a , 8 6 bの動作を説明するタィ ミ ングチャ ー トである。 図 1 9 は図 1 6 の逆量子化回路 9 1 における逆量子化動作を説明するフ —チヤ一ト である。
図 2 0 は図 1 6 のレジスタ 9 3 、 フ レーム レジスタ 9 4、 ミ キサ 9 2 のよ り詳細な構成を示すプロ ッ ク図である。
図 2 1 は図 1 6の ミ キサ 9 2のより詳細な構成を示すブロ ッ ク図である。 図 2 2 は図 I 6 の ミ ヰサ 9 2 に入力される表示位置指定信号を説明する図 である。
図 2 3 は本発明の字幕データ符号化方法を応用した字幕データ符号化装置 の他の構成例を示すブ Ώ ッ ク図である。
図 2 4 は図 2 3の字幕符号化装置 2 0 5の出力におけるフ ォ ーマツ ト を説 明する図である。
図 2 5 は図 2 3の実施例の出力を符号化する復号化装置の一実施例の構成 例を示すプロ ッ ク図である。
図 2 6 は従来のサブコー ドのフ ォ ーマツ トを説明する図である。
図 2 7 は従来のサブコー ドの伝送フ ォーマツ トを示す図である。
発明を実施するための最良の形態
図 1 は、 本発明の字幕データ符号化方法を応用した装置の一実施例の構成 を示すブロ ッ ク図である。 この実施例においては、 ビデオカメ ラ 1 よ り出力 されたビデオ信号が、 ビデオ符号化装置 2 に供袷され、 A Z D変換され、 圧 縮されるよう になされている。 勿論、 このビデオカメ ラ 1 に代えて、 ビデオ ディ スクプレーヤ、 ビデオテープレコーダなどを用い、 それよ り再生された ビデオ信号を、 ビデオ符号化装置 2 に供給するよう にすることもでき る。 ビデオ符号化装置 2 は、 レー ト コ ン ト ローラ 2 a を内蔵しており、 パツキ ング回路 1 8の出力するビッ ト レー ト制御信号に対応して、 ビデオデータの 圧縮率を制御するよう になされている。 即ち、 後述するよう に、 字幕符号化 装置 7 において字幕データが符号化されるのであるが、 その符号化されたデ —タ量が少ない場合においては、 それだけビデオデータの符号化量を増大さ せても、 全体的なテ;ータ量が増加しない。 即ち、 その分だけビデオ画像をよ り高品質にすることができる。 逆に、 字幕データが多い場合においては、 ビ デォデータ に割り当てられるデータ量が減少される。
このよう にして、 ビデオ符号化装置 2 によ り圧縮、 符号化されたビデオデ
—夕が、 マルチプレクサ 8 に供給される。
同様に、 マイ ク ロ フ ォ ン 3 により集音されたオーディ ォ信号がオーディ ォ 符号化装置 4 に供給され、 A Z D変換され、 圧縮、 符号化される。 この場合 においても、 マイ ク ロ フォ ン 3 に代えて、 例えばテープレコーダなどを用い- そこにおいて再生されたオーディ ォ信号をオーディ ォ符号化装置 4 に供給す るよう にすることもできる。 オーディ ォ符号化装置 4 により符号化されたォ 一ディ ォデータ は、 マルチプレクサ 8 に供給される。
一方、 文字発生回路 (キャ ラ ク タ ジェネ レータ) 5 によ り発生されたディ ジタルの字幕データ、 又はフ ライ ングスポ ッ トスキャ ナ 6 より出力されたァ ナログの字幕データが、 字幕符号化装置 7 に供給され、 圧縮、 符号化された 後、 マルチプレクサ 8 に供給されるよう になされている。
マルチプレクサ 8 は、 入力されたビデオデータ、 オーディ オデータ及び字 幕データを多重化し、 記録媒体と してのディ スク 2 8 に記録した り、 伝送路 と しての伝送チャ ンネル 2 9 を介して受信側に伝送する。
次に、 字幕符号化装置 7 についてさらに説明する。 文字発生回路 5 は、 ビ デ才符号化装置 2 により符号化したビデオ画像に対応する字幕データを発生 し、 字幕符号化装置 7のスィ ッ チ 1 1 の接点 a に供給する。 また、 スィ ッ チ 1 1 の接点 b側には、 文字発生回路 5 よりキーデータが供給される。 スイ ツ チ 1 1 は、 所定のタイ ミ ングで接点 a又は接点 b側に切り換えられ、 字幕デ ータ又はキーデータを必要に応じて選択し、 スィ ツチ 1 2の接点 bを介して 量子化回路 1 4 に供給する。
こ こで、 図 2 を参照して、 牛一データ と字幕データ (キャプシ ョ ンデータ 7
10
) との関係について説明する。 いま、 図 2 ( A ) に示すよう に、 字幕に表示 すべき 1 つの文字と して、 文字 Aが存在するとする。 そして、 同図に 1 本の 水平線で示すライ ン (水平走査線) の字幕データを、 図 2 ( B ) に示す。 同 図に示すよう に、 字幕データ は、 期間 T 3 において、 表示すべき文字の輝度 に対応する レベルを有している。
これに対して、 キーデータは、 期間 T 3より若干前後に離れた期間 T 1 及 び T 5 において、 最高のレベルとされている。 そして、 期間 T 1 及び T 3間 の期間 T 2、 並びに期間 T 3及び T 5間の期間 T 4のレベルが、 上述した最 低のレベルと最高のレベルの中間の所定のレベルに設定されている。 期間 T 2 においては、 最高のレベルから最低のレベルに徐々に変化するよう になさ れており、 期間 T 4 においては、 最低のレベルから最高のレベルに徐々に変 化するよう になされている。
即ち、 期間 T 3 においては、 字幕データが 4 ビッ トで符号化され、 背景ビ デォ画像のビデオ信号のレベルが、 実質的に黒レベルにミ ュー ト (減衰) さ れる。 これに対して、 期間 T 1 及び T 5 においては、 牛一データが 4 ビッ ト で符号化され、 字幕に対応する字幕信号のレベルが、 実質的に所定のレベル (この実施例の場合、 所定の灰色のレベルである力く、 黒レベルでもよい) に ミ ュー ト され、 背景ビデオ画像がそのまま表示される。 そして、 期間 T 2及 び期間 T 4 においては、 キーデータが 4 ビッ トで符号化され、 キ一データの 値に対応する割合で背景ビデオ画像が減衰される。 この実施例においては、 キーデータの値が大きいほど、 背景ビデオ画像の減衰の割合が小さ く なり、 キーデータの値が小さいほど、 背景ビデオ画像の減衰の割合が大き く なるよ う になされている。 このよう に、 文字を表示する期間においては、 背景ビデ ォ画像が実質的に完全にミ ュー ト され、 文字の近傍においては、 背景ビデオ 画像が徐々に ミ ュー ト されるため、 字幕 (文字) が見にく く なるよう なこと が防止される。
量子化回路 1 4 は、 字幕データ又はキーデータのレベルをまとめて 4 ビッ 卜のデータ と して表現する。 図 3 は、 字幕データ (フ ィ ルデータ) と牛ーデ ータのレベルをまとめて表す原理を示している。 同図に示すよう に、 4 ビッ トで表すことが可能な 1 6段階のレベルのう ち、 0から 7 までの 8段階のレ ベルがキーデータのレベルに割り当てられ、 8から 1 5 までの 8段階のレべ ルが字幕データ に割り当てられる。 即ち、 キーデータのレベルは、 「 0 0 0 0」 〜 「 0 1 1 1 」 の 4 ビッ トのデータで表され、 字幕データのレベルは、 「 1 0 0 0 」 〜 「 1 1 1 1 」 の 4 ビッ 卜のデータで表されることになる。 その結果、 4 ビッ 卜のデータの M S Bは、 いわばキーデータ と字幕データ との識別子であり、 この最上位桁 (M S B ) が 「 1 」 であるとき、 残りの 3 ビッ ト は字幕データのレベルを表し、 この レベルに応じた字幕データが表示 されるよう になされ、 M S B力 「 0」 であるとき、 残りの 3 ビッ ト はキ一デ ータのレベルを表し、 その牛一データの値に応じたレベルの背景ビデオ画像 のみが表示されるよう になされる。 キーデータ レベルが 7 ( = 「 0 1 1 1 」 ) であるとき、 すなわち、 図 2 ( B ) の期間 T 1 及び T 5 においては、 背景 ビデオ画像の減衰率は 0 となり、 背景ビデオ画像はそのままのレベルで表示 される。
このよう に、 キーデータ と字幕データ とを、 まとめて 4 ビッ 卜のデータ ( M S Bは種類を表すため、 それぞれのレベルは実質的には 3 ビッ 卜のデータ ) で表すよう にすることで、 この 4 ビッ トのデータを実質的に同一のデータ と してビッ トス ト リ ーム内に配置することができ、 回路構成を簡略化するこ とができ る。 また、 両者のレベルの割当は、 適宜変更することもできる。 図 4及び図 5 は、 牛一データ と字幕データのレベルを量子化する原理を示 している。 例えば図 2の期間 T 1、 T 2、 T 4、 T 5 においては、 量子化回 路 1 4 にはキーデータが入力される。 図 4 に示すよう に、 牛一データの レべ ルが 8 ビッ 卜で表現され、 0から 2 5 5 までの 2 5 6段階のレベルを有する ものであるとき、 量子化回路 1 4 は、 入力されたキーデータ y の値を、 2 5 6段階のレベルを 8個の範囲に区分し、 そのいずれの範囲に属するかをステ ップ S 2 1 〜 S 2 8において判定する。 即ち、 その 8個の範囲は、 0〜 6、 7〜 1 0、 1 1 〜 2 6、 2 7〜 5 0、 5 1〜 9 5、 9 6〜 1 3 0、 1 3 1 〜 2 0 4及び 2 0 5〜 2 5 5の範囲とされる。 そして、 これらのいずれかの範 囲に属するとステップ S 2 1 〜 S 2 8において判定されたとき、 それぞれス テツプ S 2 9 ~ S 3 6に進み、 4ビッ 卜の量子化出力 z と して、 7 (= 「 0 1 1 1」 ) 〜 0 (= 「 0 0 0 0」 ) のいずれかの値を出力する。
同様にして、 例えば図 2の期間 Τ·3においては、 量子化回路 1 4には字幕 データが入力される。 字幕データが、 8 ビッ ト で表現され、 0〜 2 5 5の 2 5 6段階のレベルを有するものであるとき、 図 5のステ ッ プ S 1〜 S 8にお いて、 字幕データ (フ ィ ルデータ) X力く、 2 5 5 ~ 2 3 4、 2 3 3〜 2 1 5、 2 1 4〜 1 5 0、 1 4 9〜 1 4 0、 1 3 9〜 1 2 8、 1 2 7〜 8 6、 8 5〜 5 5、 5 4〜 0のいずれの範囲にあるかが判定される。 そして、 このいずれ かの範囲に属することが判定されたとき、 それぞれステップ S 9〜 S 1 6に 進み、 4 ビッ トの量子化データ z と して、 1 5 (= 「 1 1 1 1」 ) 〜 8 (= 「 1 0 0 0」 ) のいずれかの値が設定される。 尚、 文字発生回路 5から 4ビ ッ トの字幕データ及びキーデータを発生し、 量子化回路 1 4を介さずに、 直 接これらのデータを D P C M回路 1 5に入力することも可能である。
量子化回路 1 4にはまた、 スィ ッ チ 1 2の接点 aを介して文字発生回路 5 よ りブラ ンキングデータが供給される。 このブラ ンキングデータ には、 必要 に応じて各種のデータを挿入することができる。
さ らにまた、 量子化回路 1 4には、 処理回路 1 3が出力する字幕データが、 スィ ッ チ 1 2の接点 cを介して供給される。 処理回路 1 3は、 フ ラ イ ングス ポッ トスキャ ナ 6が出力するアナ口グ字幕信号を処理し、 デジタル字幕デー タ と して出力するよう になされている。
ビデオ符号化装置 2に供紿されるビデオ信号が、 映画をビデオ信号に変換 したものである場合、 例えば図 6に示すよう に、 そのァスべク ト比が横長の ものとなっている。 最近のテレビジョ ン受像機においては、 所謂ハイ ビジョ ンに代表される 1 6対 9のアスペク ト比の画面を有するものがあり、 このよ う なァスぺク ト比のテレビジョ ン受像機においては、 映画のァスぺク ト比の 画像をそのままの状態でテ レビジ ョ ン受像機の画面に表示することができ る, これに対して、 従来の N T S C方式の画面のァスベタ ト比は、 図 7 に示す よう に、 4対 3 とされている。 横長のアスペク ト比の画像を、 通常の N T S C方式のァスぺク ト比の画面で見ることができるよう にするには、 そのァス ぺク ト比を 4対 3 に変換すればよいのであるが、 そのよう にすると、 図 7 に 示すよう に、 画像が縦長の画像となる。
しかしながら、 横長のァスべク ト比を有するテ レビジョ ン受像機において は、 4対 3のァスぺク ト比に変換されたビデオ信号を再び元のァスぺク ト比 に戻すよう にすれば、 図 6 に示すよう に、 正常な比率の画像を見ることがで き る。 横長のァスぺク ト比のテレビジョ ン受像機には、 このよう に、 スクイ ーズ方式で 4対 3のァスぺク ト比に変換されたビデオ信号を元のァスぺク ト 比に戻す変換回路が内蔵されていることが多い。 そこで、 ビデオ符号化装置 2 は、 図 6 に示すよう に、 横長のァスぺク ト比の画像が入力されたとき、 図 7 に示すよう に、 スクイ ーズ方式により、 4対 3のアスペク ト比の画像に変 換して符号化を行う。
このよう に、 スクイ ーズ方式により画像のァスぺク ト比が変換されたとき、 その横長のァスぺク ト比の字幕も同様に、 スクイ ーズ方式でァスぺク ト比を 変換しておく必要がある。 処理回路 1 3 は、 このような機能を有している。 図 8 は、 処理回路 1 3の構成例を示している。 フライ ングスポッ トスキ ヤ ナ 6 は、 ビデオ符号化装置 2 に入力されるビデオ画像に対応するアナ口グ字 幕信号を V i n と して処理回路 1 3の比較回路 3 5 に供給する。 この比較回 路 3 5 にはまた、 n個の抵抗 3 4 1 〜 3 4 n を有する分圧回路 3 4が出力す る基準電圧が供給されている。
比較回路 3 5 は、 分圧回路 3 4が出力する各基準電圧がそれぞれ供給され る n個の比較部 3 5 t 〜 3 5 n を有しており、 フライ ングスポッ トスキャナ 6 より供給される字幕信号を、 各基準値と比較する。 比較部 3 5 , 〜 3 5 n は、 字幕信号の方が基準値より大きいとき、 例えば論理 「 1 」 の信号を出力 し、 基準値の方が大きいとき、 論理 「 0」 の信号を出力する。
エンコーダ 3 6 は、 比較部 3 5 1 - 3 5 πの出力をモニタ し、 n個のレべ ルに対し、 n = 2 mとなる mビッ ト の信号にデコー ドする。 量子化後の 0の 値が、 比較回路 3 5の出力する最大値又は最小値のいずれに対応させるかは. 入力される信号 NM I N V、 N L I N Vによ り指定される。 ラ ッチ回路 3 7 は、 エンコーダ 3 6が出力する mビッ トデータをラ ッチし、 スィ ッチ 1 0の 接点 c を介して量子化回路 1 4 に出力する。
比較回路 3 5、 エンコーダ 3 6及びラ ッ チ回路 3 7 には、 発振回路 3 1 又 は発振回路 3 2が出力するク ロ ッ クがスィ ツチ 3 3 を介して供給されている c 発振回路 3 1 の出力するク π ッ クの周波数は 1 3. 5 MH z とされ、 発振回 路 3 2が出力するクロ ッ クの周波数は 1 0. 1 2 5 M H z とされている。 即 ち、 両者の比は、 4対 3 とされている。
ビデオ符号化装 B 2 において処理するビデオ信号が、 通常の 4対 3のァス べク ト比の N T S C方式のビデオ信号である場合、 スィ ッ チ 3 3 は図中上側 に切り換えられ、 発振回路 3 1 が出力するクロ ッ クを出力する。 これに対し て、 ビデオ符号化装置 2がスクィ ーズ方式によりビデオ信号を符号化する場 合、 スィ ッ チ 3 3 は図中下側に切り換えられる。 これによ り、 発振回路 3 2 が出力するク ロ ッ クが出力される。 この場合におけるク ロ ッ クの周波数は 1 0. 1 2 5 MH zであり、 通常の場合における周波数 1 3. 5 M H z の 3 / 4 とされているため、 比較回路 3 5 に入力される字幕信号も、 スクイ ーズ方 式により処理されることになる。 尚、 処理回路 1 3 は、 T RW社の 4 ビッ ト AZDコ ンバータ T D C 1 0 2 1 を用いて実現することができる。 この場合、 処理回路 1 3の出力は 4 ビッ ト のデータ となるので量子化回路 1 4 を介さず に D P C M回路 1 5 に直接入力するこ と もでき る。
—方、 文字発生回路 5から供給される字幕データ及びキーデータは、 デジ タルデータであるので、 デジタルフ ィ ルタ回路 2 4 によ り、 通常のデータか らスク イ ーズデータに変換されて、 スィ ッ チ 1 2の接点 bを経て、 量子化回 路 1 4へ送られる。 。
量子化回路 1 4 により量子化された字幕データは、 D P C M回路 1 5 に入 力され、 D P C Mされる。 そして、 D P C M回路 1 5の出力がラ ンレングス 符号化回路 1 6 に供袷される。 ラ ンレングス符号化回路 1 6 は、 入力された D P C M字幕データを、 レベル及びラ ンのベアに符号化する。 可変長符号化 回路 1 7 は、 ラ ンレングス符号化回路 1 6 よ り供給されたラ ンに対して、 図 9 に示すようなテーブルに従って可変長符号化処理を実行する。 パッキング 回路 1 8 は、 可変長符号化されたデータ と レベルとを組み合わせる。
例えば、 いま、 量子化回路 1 4の出力が、 1, 4, 7 , 1 2 , 1 5 ······と なっている場合、 D P C M回路 1 5の出力は、 1 , 3 , 3 , 5 , 3 となり、 ラ ンレングス符号化回路 1 6 の出力 (レベル、 ラ ン) のペアは、 ( 1 , 1 ) , ( 3, 2 ) , ( 5 , 1 ) , ( 3 , 1 ) ……というデータ となり、 可変長符号 ィヒ回路 1 7 によるラ ンの可変長符号化後のビッ ト列は、 「 0 0 0 1 0 0 0 1
1 1 1 0 0 0 1 0 1 0 0 0 1 1 0 」 になる。
最初の 4 ビッ 卜のデータ 「 0 0 0 1 」 は、 最初のデータ ( レベル) 力く 1 で あることを表している。 次の 1 ビッ トのデータ 「 0」 は、 ラ ンが 1 であるこ とを示す。 次のデータ 「 0 0 1 1 」 は、 データ ( レベル) が 3であることを 表している。 さ らに次のデータ 「 1 1 0 0」 は、 ラ ンが 2であることを示し ている。 以後同様にして符号化される。
ラ ンレングスが所定の数 (この実施例の場合、 5 7 ) 以上であるとき、 V L C コ ー ドを固定長と した方がデータ量を少な く することができ る。 この実 施例においては、 ラ ンレングスが 5 7以上であるとき、 V し Cコー ドは 1 2 ビッ トの固定長とされる。 また、 1 ライ ンの終端には、 終端を表す V L Cコ — ド 「 1 1 1 1 1 1 1 」 が配置される。
このよう にして、 可変長符号化回路 1 7 より可変長符号化されたデータ ( ラ ン) は、 ラ ンレングス符号化回路 1 6 によ り抽出されたレベル値と、 パッ キング回路 1 8で上述したよう にしてパッキングされ、 マルチプレクサ 8 に 出力される。
尚、 パッ キング回路 1 8 は、 このとき、 この他、 タ イ ムコー ド、 位置情報 E O Pを、 字幕データである Yコー ドデータ に対して付随 (多重化) させる, タイ ムコー ドは、 字幕を表示すべきタイ ミ ングのビデオフ レームのタイ ムコ ー ドと同一のものとされる。 位置情報は、 そのビデオフ レーム内において、 その字幕を表示すべき位置 (ブロ ッ ク位置) (この点については、 図 2 2 を 参照して後述する) を表すものである。 E O Pは、 1 ページの字幕の終了を 表すデータである。 また、 パッキング回路 1 8 は、 復号化側でエラー検出が でき るよう に、 例えば 1 6 ビッ トの C R C ( C y c 1 i c R e d u n d a n c y C h e c k ) コー ドを付加する。
また、 パッキング回路 1 8 は、 一定の時間間隔で字幕データの発生量を演 算し、 その演算結果をビデオ符号化装置 2のレー ト コ ン ト ローラ 2 a に供給 する。 レー ト コ ン ト ローラ 2 a は、 1 パス目の処理において、 ビデオ符号化 の 1 パス目のビッ ト量が分るので、 パッキング回路 1 8からの信号によ り字 幕データのデータ量がさ らに分ったとき、 2 パス目のビデオ符号化の際に、 伝送チヤ ンネル 2 9又はデイ スク 2 8の容量を最大限に生かした可変レー ト となるよう に、 ビデオ符号化装置 2 におけるビッ ト レー トを設定する。 尚、 2つのパスを用いてビッ ト レー 卜の設定を行う可変レー ト ビデオ符号化装置 については、 本出願人が先に出願した国際出願番号 P C T / J P 9 4 / 0 0 6 1 0 において記載されているので、 その詳細については省略する。
尚、 文字放送、 テレテキス ト、 その他ブラ ンキング領域 (帰線区間) を利 用するサービスにおけるデータ も同様に、 この字幕符号化装置 7 に供給され、 上述した場合と同様の処理が行われ、 有効走査期間内のビデオデータ とは独 立して符号化され、 伝送される。
さ らにまた、 ワイプバーを表示させたい場合、 パッキング回路 1 8 におい ては、 べク トル発生回路 2 3が発生するク πマべク ト ル、 輝度データ ( Υ ) オフセ ッ ト レベル、 ク ロマデータ ( C ) オフセ ッ ト レベルも、 字幕データ に 付随してパッ キングされる。 輝度データオフセッ ト レベルは、 Υコー ドデー タ に対するオフセ ッ ト値を表す。 またク ロマデータ オフセ ッ ト レベルは、 ク πマのデフ ォル ト値に対するオフセッ ト値を表すものである。 図 1 0 を参照 して、 ク ロマべク ト ルについて説明する。
いま図 1 0 に示すよう に、 字幕と して、 文字 Αないし Εを画面上に表示す るものとする。 例えば、 この字幕がカ ラオケ装置の歌詞であるような場合、 曲の進行に伴って、 歌うべき歌詞 (文字) の位置が時間の経過とともに徐々 に変化する。 このとき、 歌うべき歌詞の位置を使用者に容易に認識させるた め、 歌うべき歌詞 (文字) を所定の色のヮイブバー 2 0 0で表す場合がある ( このよう な場合、 字幕 (文字) A ~ Eは、 そのページの間、 表示されている ( 即ち、 その歌詞 (A ~ E ) の始めから終わりまでが、 歌い終わるまでの間、 その字幕 (A ~ E ) が表示されている。 従って、 通常、 このページは複数の フ ィ ール ドまたはフ レームのビデオ画像により構成されることになる。
図 1 0 において、 0 , n — 2 , n - 1 , n は、 それぞれ時間とともに変化 するフ レームを表している。 この実施例においては、 第 ( n — 2 ) フ レーム において、 文字 Aの左半分のほぼ中間の位置に、 ワイプバー 2 0 0の端部が 位置し、 第 ( n _ l ) フ レームにおいては、 文字 Aの右半分の約 3 4の位 置に、 ワイ プバ一 2 0 0の端部が達している。 さ らに、 第 n フ レームにおい ては、 文字 Bの約 1 4の位置に、 ワイプバー 2 0 0の端部が達している。 いま、 図 1 0 において ( a ) で示すライ ンと、 ( b ) で示すライ ンとにお けるク ロマ信号の各フ レーム n — 2 , n - 1 , n での レベル変化を表すと、 それぞれ T R n- 2, T R n- l , T R nに示すよう になる。 即ち、 ワイプバー 2 0 0の内部の領域と外部の領域では、 ク Dマのレベルが変化する。 そして- フ レーム 0からフ レーム n — 2 までの期間に、 ワイ プバ一 2 0 0 は図中右方 向に移動するため、 その間のワイプバー 2 0 0の動きを示すク ロマべク トル は、 T R n- 2に示すよう になる。 また、 同様にして、 フ レーム n — 2からフ レーム n _ l までの期間におけるク ロマべク ト ルと、 フ レーム n — 1 からフ レーム n までのワイ プバ一 2 0 0の動きに対応するク 口マべク ト ルは、 それ ぞれ T R n - i及び T R ηに示すよう になる。
このようなク ロマべク トルを発生させるため、 図 1 の文字発生回路 5 は、 文字データの他に、 字幕データ と してワイ プバーのデータを出力する。 ヮィ ブバーのデータ に対応する量子化回路 1 4 の出力がス レツ シ ョ ル ド回路 2 1 に供給され、 ス レツ シ ョ ルド回路 2 1 の出力がヱン ド検出回路 2 2 に供給さ れ、 エ ン ド検出回路 2 2 の出力がべク ト ル発生回路 2 3 に供袷され、 べク ト ル発生回路 2 3が出力するク ロマべク トルがパッキング回路 1 8 に供袷され るよう になされている。
ス レ ツ シ ョ ルド回路 2 1 は、 例えば図 1 1 に示すように構成される。 量子 化回路 1 4が出力するヮィプバ一 2 0 0 に対応する色差データ C uは、 減算 回路 4 1 に供袷される。 レジスタ 4 2 には、 直前のクロ ッ クが供袷されたタ ィ ミ ングにおける減算回路 4 1 の出力が保持されている。 減算回路 4 1 は、 このレジスタ 4 2 に保持されている値を、 現在入力された値から減算し、 そ の差分を新たにレジスタ 4 2 に保持する。
即ち、 このよう な動作が、 ク ロ ッ クが入力される度に繰り返されるため、 レジスタ 4 2 には、 2つのク η ッ クが入力されたタイ ミ ングにおける色差デ —タ C uの差分データが保持されることになる。 2つのク ロ ッ クが発生した 期間において、 色差データ C uに変化がない場合、 レジスタ 4 2 には、 実質 的に 0の値 (又は極めて小さい値) が保持されることになる。 これに対して、 色差データ C uに変化があった場合、 レジスタ 4 2 には大きな値が保持され る。 レジスタ 4 2の値は、 1 ラ イ ン毎にク リ アされる。
レジスタ 4 2 に保持されている値は、 比較回路 4 3 に供給され、 予め設定 されている所定の基準値と比較される。 比較回路 4 3 は、 レジスタ 4 2 に保 持されている値が基準値より大きいとき、 論理 「 1 」 の信号を出力する。 以上の減算回路 4 1 、 レジスタ 4 2及び比較回路 4 3 における場合と同様 の構成が、 減算回路 5 1 、 レジスタ 5 2及び比較回路 5 3 によ り構成されて おり、 これらの回路によ り、 ワイ プバー 2 0 0 に対応する他の色差データ C V について同様の処理が行われるよう になされている。 従って、 比較回路 5 3 は、 色差データ C V に基準値以上の大きな変化があつたとき、 論理 「 1 」 を出力する。
オア回路 4 4 は、 比較回路 4 3又は比較回路 5 3 よ り論理 「 1 」 の信号が 出力されたとき、 その信号をエン ド検出回路 2 2 に出力する。 即ち、 オア回 路 4 4 は、 図 1 0 に示したワイプバー 2 0 0 の右端の位置を検出したとき、 論理 「 1 」 の信号を出力するこ とになる。
エン ド検出回路 2 2 は、 例えば図 1 2 に示すよう に構成される。 図 1 1 に おけるオア回路 4 4 の出力は、 図 1 2 のレジスタ 6 1 に供袷され、 保持され る。 レジスタ 6 1 に保持されたデータは、 イ ンバータ 6 2 により反転されて- ァン ド回路 6 3 とノ ァ回路 6 4 に供給される。 ァン ド回路 6 3 とノ ァ回路 6 4 にはまた、 図 1 1 のオア回路 4 4 より出力されたデータが直接供給されて いる。
即ち、 レジスタ 6 1 は、 オア回路 4 4が直前のク ロ ッ ク発生タ イ ミ ングに おいて発生した論理を保持しており、 アン ド回路 6 3 とノ ア回路 6 4 は、 こ の直前の論理と、 オア回路 4 4が現在出力した論理とを演算する。 アン ド回 路 6 3 は、 レジスタ 6 1 に保持されている論理が 「 0」 であり (イ ンパータ 6 2の出力が論理 「 1 」 であり) 、 オア回路 4 4 より出力された論理が 「 1 」 であるとき、 即ち、 論理が 「 0」 から論理 「 1 」 に反転したとき、 論理 「 1 」 を出力する。
また、 ノ ア回路 6 4 は、 レジスタ 6 1 が保持する論理が 「 1 」 であり (ィ ンバータ 6 2の出力が論理 「 0」 であり) 、 オア回路 4 4 よ り出力された論 理が 「 0」 であるとき、 即ち、 論理が 「 1 」 から論理 「 0」 に反転したとき - 論理 「 1 」 を出力する。 オア回路 6 5 は、 アン ド回路 6 3又はノ ァ回路 6 4 よ り論理 「 1 」 が入力 されたとき (ワイ プバー 2 0 0の右側の端部が検出されたとき) 、 レジスタ 6 7 をイネ一ブル状態とする。
カ ウ ンタ 6 6 は、 ク ロ ッ クをカ ウ ン ト し、 そのカ ウ ン ト値が水平同期信号 のタイ ミ ングでク リ アされるよう になされている。 即ち、 カ ウ ンタ 6 6 は、 水平方向の画素の位置に対応するカウ ン ト値をレジスタ 6 7 に出力している, 従って、 レジスタ 6 7 は、 オア回路 6 5 より論理 「 1 」 の信号が入力された 後、 ク ロ ッ クが供給されるタィ ミ ングにおいてカ ウ ンタ 6 6の値を保持する, オア回路 6 5 は、 上述したよう に、 図 1 0 におけるワイプバ一 2 0 0 の右側 の端部において論理 「 1 」 を出力するため、 レジスタ 6 7 は、 その位置に対 応する画素の位置を記憶することになる。 このレジスタ 6 7の記憶した値が. 後段のべク トル発生回路 2 3 に供給される。
べク トル発生回路 2 3 は、 例えば図 1 3 に示すよう に構成される。 図 1 2 のレジスタ 6 7 より出力されたデータは、 比較回路 7 6 に供給され、 レジス タ 7 2 に記憶されている値と比較される。 レジスタ 7 2 には、 それまでセ レ クタ 7 1 を介して供給されたデータのうち、 最も大きい値が保持されている < 比較回路 7 6 は、 レジスタ 7 2 に記億されているデータ と、 いま レジスタ 6 7 より供給されたデータ とを比較し、 大きい方をセ レク タ 7 1 に選択させる 即ち、 レジスタ 7 2 に既に保持されているデータの方が大きい場合におい ては、 セ レク タ 7 1 は、 再びレジスタ 7 2 に記憶されているデータを選択し- レジスタ 7 2 に供袷する。 これにより、 レジスタ 7 2 には、 直前に保持され ていた値がそのまま保持されることになる。 これに対して、 レジスタ 6 7 よ り供給されたデータの方が、 レジスタ 7 2 に保持されているデータ よ り大き い場合においては、 セレクタ 7 1 は、 レジスタ 6 7 よ り供給されたデータを 選択し、 レジスタ 7 2 に供給させる。 これによ り、 レジスタ 7 2 には、 よ り 大きな値が保持されることになる。 このよう にして、 レジスタ 7 2 は、 1 ラ イ ンの期間において入力される値のうち、 最も大きい値を保持することにな る。
レジスタ 7 に保持された値は、 垂直同期信号に同期して、 後段のレジス タ 7 3 に転送される。 レジスタ 7 3 に保持されたデータは、 さ らに垂直同期 信号に同期して、 後段のレジスタ 7 4 に転送、 記憶される。 即ち、 レジスタ 7 には、 直前のフ ィ ール ド ( 1 フ レーム に 1 回の垂直同期信号とすれば、 フ レーム) におけるワイプバー 2 0 0の右端ェッ ジを表すデータのうち、 最 も大きい値が保持され、 レジスタ 7 3 には、 その 1 フ ィ ール ド前の値の最大 値が保持される。 減算回路 7 5 は、 レジスタ 7 4の保持している値から、 レ ジスタ 7 3 の保持している値を減算する。 即ち、 減算回路 7 5の出力は、 図 1 0 を参照して説明したよう に、 ワイプバー 2 0 0の 1 フ ィ ール ド前の水平 方向の位置と、 1 フ ィ ール ド後の水平方向の位置との差に対応しており、 こ れがク ロマべク トルである。 このク σマべク トノレは、 上述したよう に、 パッ キング回路 1 8 に供給され、 他のデータ と多重化される。 尚、 復号化側にお いては、 ワイプバー 2 0 0 を所定の色にするために、 このク ロマべク トルを 利用してク ロマデータだけでなく 、 輝度データ も変化させるよう になされて いる。
図 1 4 は、 ワイプバーを符号化する場合のパッキング回路 1 8 よ り出力さ れるデータのフ ォ ーマツ トを表している。 同図に示すよう に、 このデータの 先頭にはへッ ダが配置され、 へッ ダの内部には、 同期信号、 タ イ ムコー ド、 位置情報、 バケツ トサイ ズが登録されている。 ヘッ ダの次には Ε Ο Ρが、 さ らにその次には、 輝度信号 ( Υ ) オフセッ ト レベル及びク 口マ ( C ) 信号ォ フセ ッ ト レべルが配置される。
これらのオフセッ ト レベルの次には、 ク ロマべク トルが所定数 ( η個) だ け配置される。 この ηの値は、 1 ページ分のフ ィ ール ド数に対応している。 そして、 ク ロマベク トルの次には、 コー ド化された輝度データが配置される ( さ らにその次には、 エラー検出用の C R Cコー ドが配置される。
図 1 5 は、 1 フ レーム分のビデオ画像のどの位置に字幕を挿入するかを示 している。 この実施例においては、 1 フ レーム分のビデオ画像が k個のブ n ッ ク に水平方向に区分され、 第 k 一 1 個目のブ σ ッ ク ライ ンに字幕が揷入さ れるよう に、 位置情報が指定されている。 字幕をこの位置に表示する場合、 この k — 1 のデータ (ブロ ッ ク ライ ン番号) が、 図 1 4 に示したヘッ ダの一 部と して記録される。
図 1 6 は、 以上のようにして符号化された字幕データを復号化する復号化 装置の一実施例の構成を示すブロ ッ ク図である。 デマルチプレクサ 8 1 は、 ディ スク 2 8 より再生されたデータ、 又は伝送チャ ンネル 2 9から伝送され てきたデータの入力を受け、 字幕データ、 ビデオデータ及びオーディ オデー タ に分離する。 ビデオデータは、 ビデオ復号化装置 9 5 に供給され、 復号化 された後、 ミ キサ 9 2 に供袷される。 オーディ オデータは、 オーディ オ復号 化装置 9 6 に供給され、 復号化された後、 図示せぬ回路に供給される。
—方、 字幕データは、 エラーチ ッ ク回路 8 2 に供給され、 エラ一の有無 が検出されるよう になされている。
エラーチェ ッ ク回路 8 2 は、 例えば 1 6 ビッ 卜の C R Cを用いた場合図 1 7 に示すよう に構成される。 この実施例においては、 デマルチプレクサ 8 1 よ り供給されたデータ力 イ ク スク ル一シブオア回路 1 0 1 の一方の入力に 供給されている。 イ クスクル一シブオア回路 1 0 1 の他方の入力には、 入力 を 4 ク ロ ッ ク分遅延して出力するシフ ト レジスタ 1 0 6の出力が供袷されて いる。 イ クスクル一シブオア回路 1 0 1 は、 両入力のィ クスクルーシブオア を演算する。 その出力は、 シフ ト レジスタ 1 0 2 に供給され、 5 ク ロ ッ ク分 遅延された後、 イ クスク ルーシブオア回路 1 0 3の一方の入力に供給される イ クスクル一シブオア回路 1 0 3 の他方の入力には、 シフ ト レジスタ 1 0 6の出力が供給されており、 イ ク スク ルーシブオア回路 1 0 3 は、 両入力の イ ク スク ル一 シブオアを演算し、 シフ ト レジスタ 1 0 4 に出力する。 シフ ト レジスタ 1 0 4 は、 イ クスクルーシブオア回路 1 0 3が出力するデータを 7 ク ロ ッ ク分遅延した後、 イ クスク ル一シブオア回路 1 0 5 に供給している。 イ ク ス ク ルーシブオア回路 1 0 5 は、 このシフ ト レジスタ 1 0 4 よ り供給さ れたデータ と、 シフ 卜 レジスタ 1 0 6 より供給されるデータ とのイ クスクル 一シブオアを演算し、 その演算結果を シフ ト レジスタ 1 0 6 に供給している , パケッ トの開始を表す同期信号から得られる負のシンク ( s y n c ) (図 中、 s y n c の文字の上に水平線を付して示す記号) で初期化されたカ ウ ン タ 3 0 2 は、 シフ ト レジスタ 1 0 6の出力を一定間隔でェラーチェ ッ クする もので、 負の R C 0出力信号 (図中、 R C 0の文字の上に水平線を付して示 す記号) をフ リ ッ プフ ロ ッ プ 3 0 3のク ロ ッ クイネ一ブルに供袷し、 シフ ト レジスタ 1 0 6の出力をラ ッチする。 ラ ッチした信号が一度低いレベル (す なわち 「し」 レベル) から髙ぃレベル (すなわち 「H」 レベル) になると、 〇 R回路 3 0 4 とフ リ ッ ププロ ップ 3 0 5 によ り 「 H」 レベルにな り続け、 ノ ッ ト回路 1 0 7 により、 その論理が反転されて、 ァン ド回路 1 0 8 には論 理 「 0」 が入力される。 その結果、 誤りが検出されたとき、 アン ド回路 1 0 8が非導通状態とな り、 デマルチプレクサ 8 1 より供袷された字幕データが、 必要段数の遅延回路 3 0 1 を経た後、 ァン ド回路 1 0 8 を介して、 後段のヮ — ド検出回路 8 3 に供給されることが禁止される。 即ち、 字幕データ に誤り が存在する場合において、 この誤つたべ一ジのデータに対応する字幕が表示 されることが防止される。
図 1 6 のヮー ド検出回路 8 3 は、 エラーチェ ッ ク回路 8 2 よ り供給された データから、 E 0 P、 輝度データオフセッ ト レベル又はクロマデータオフセ ッ ト レベル、 及びク ロマべク ト ルを分離し、 それぞれア ド レス ジェネ レータ 8 4 、 レジスタ 9 3、 又はフ レーム レジスタ 9 に供紿する。 また、 字幕デ —タは、 ス ィ ツチ 8 5 を介してコー ドバッ フ ァ 8 6 a , 8 6 bに供給される c 尚、 コー ドバッ フ ァ 8 6 a、 8 6 bはそれぞれ、 少な く とも字幕データ 1 ぺ ージ分の容量を有している。
ア ド レス ジェネ レータ 8 4 は、 スィ ッ チ 8 5及び 8 7 の切換信号を発生す るとともに、 コ ー ドバッ フ ァ 8 6 a及び 8 6 bの書込又は読出ァ ド レスを発 生する。 図 1 8 に示すよう に、 コー ドバッ フ ァ 8 6 a にデータを書き込んで いるとき、 コ ー ドバッ フ ァ 8 6 bからデータを読み出させ、 逆にコー ドバッ フ ァ 8 6 b にデータを書き込んでいるとき、 コー ドバッ フ ァ 8 6 aからデ一 タ を読み出させる。 このコー ドバッ フ ァの切り換えは、 1 ページの終了を示 す E O Pを利用して行われる。 これにより、 ワー ド検出回路 8 3 よ り供給さ れるデータを連続して処理することが可能となる。 このよう に、 コー ドバッ フ ァ 8 6 a及び 8 6 bにそれぞれ 1 ページ分の容量を確保して、 E O Pのタ ィ ミ ングでリ 一 ドノライ ト を切り換えることで、 字幕データの瞬時の切り換 えが可能となる。
尚、 ア ド レス ジェネ レータ 8 4 は、 デマルチプレクサ 8 1 より供袷される 字幕データの転送が速すぎて、 コー ドバッ フ ァ 8 6 a又は 8 6 bの一方から のデータの読み出しが完了していないうちに、 次のデータが供給されるよう なタイ ミ ングのときは、 デマルチプレクサ 8 1 にス ト ツプ信号を供給し、 新 たなデ一タの供給を停止させる。
可変長復号化 ( I V L C ) 回路 8 8 は、 スィ ッ チ 8 7 を介して、 コー ドバ ッ フ ァ 8 6 a又は 8 6 b よ り読み出されたラ ンデータを図 9の V L Cテ一ブ ルを用いて可変長復号化する。 レベルデータ と可変長復号化されたラ ンデ一 タ は逆ラ ンレングス回路 8 9 に供給される。
逆ラ ンレングス回路 8 9 は、 ラ ンの段数分のカ ウ ンタを動作させ、 その力 ゥ ンタを回している期間、 ラ ンの数だけ、 コー ドバッ フ ァ 8 6 a及び 8 6 b の読み出しを停止させる。 また逆ラ ンレングス回路 8 9 はラ ンの数だけレべ ルデータを I D P C M回路 9 0 に供給する。
I D P C M回路 9 0 は、 レジスタを有しており、 そのレジスタ に記憶され た 1 つ前のレベルデータ と逆ラ ンレングス回路 8 9から供袷された新たなレ ベルデータ とを加算して、 そのレベルデータが字幕データの場合は、 後段の 逆量子化回路 9 1 に供給する。 また、 そのレベルデータがキーデータの場合 には、 4 ビッ 卜のデータのうち牛一データ と字幕データの識別子を表す M S Bを除く 3 ビッ 卜のキーデータを後段のミ キサ 9 2 に出力する。
逆量子化回路 9 1 では、 4 ビッ ト のデータ を 8 ビッ ト のデータ に変換する そして、 このデータ はミ ヰサ 9 2 に供給される。
図 1 9 は、 逆量子化回路 9 1 における逆量子化動作の処理例を表している, 同図に示すよう に、 4 ビッ トの量子化データ z は、 ステップ S 4 1 〜 S 4 8 において、 その値が 1 5〜 8のいずれの値であるかが判定される。 量子化デ ータ z力く 1 5〜 8のいずれかの値であるとき、 ステップ S 4 9〜 S 5 6 に進 み、 字幕データ (フ ィ ルデータ) X と して、 2 4 5 , 2 3 3 , 2 1 5 , 1 5 0 , 1 4 0 , 1 2 8 , 8 5又は 4 4 の値が設定される。
図 1 6 のレジスタ 9 3 、 フ レーム レジスタ 9 4及びミ キサ 9 2 のよ り詳細 な構成は、 図 2 0及び図 2 1 に示されている。
図 2 0の実施例においては、 レジスタ 9 3が R〇 M 1 3 1 及び R 0 M 1 3 2 によ り構成されている。
また、 フ レーム レジスタ 9 4 は、 加算囫路 1 4 1 、 レジスタ 1 4 2 、 カ ウ ンタ 1 4 3及び遅延回路 1 4 4 によ り構成されている。 図 2 0 のその他の回 路はミ キサ 9 2の一部を構成することになる。
ヮ一 ド検出回路 8 3 より出力された輝度データ オフセ ッ ト レベル (ワイ ブ バー 2 0 0 を所定の色にするためのレベル) は、 R 0 M 1 3 1 に供給され、 そこに記憶されているテーブルに対応して、 所定の値に変換される。 そして- R 0 M 1 3 1 によ り変換されたデータが、 アン ド回路 1 3 5 を介して加算回 路 1 5 4 に供給され、 図 1 6の逆量子化回路 9 1 よ り出力された字幕データ の輝度データ (ヮィ プバー 2 0 0 を表示しないときの文字の色を特定するた めの初期データ) に加算され、 図 2 1 のセ レク タ 1 1 3及び加算回路 I 1 4 に供紿される。 このオフセ ッ ト レベルは、 図 1 に示した符号化装置 (ェンコ ーダ) において、 使用者により所定の値に設定されたものである。 従って、 この値を適宜変更することで、 ワイプバーの輝度データを所定の値 (色) に 設定することが可能となる。 ' 同様に、 ワー ド検出回路 8 3 より出力されたク ロマオフ セ ッ ト レベルは、 R 0 M 1 3 2 に供給され、 そこに記憶されているテーブルに対応して、 所定 の値に変換される。 そして、 R O M 1 3 2 によ り出力されたデータが、 遅延 回路 1 6 1 によ り所定のタイ ミ ングとなるよう に遅延された後、 アン ド回路 1 6 2 を介して、 図 2 1 のセ レクタ 1 1 2 に供袷される。
このよう に、 R O M 1 3 1 と R O M 1 3 2 によりデータを変換することで. ワイ プバー 2 0 0 に、 より少ないビッ トで、 よ り多く の色 (輝度) を指定す ることが可能となる。 字幕の輝度データ と色差データのビッ ト数をよ り大き く すれば、 このよう な R O M 1 3 1 や R O M 1 3 2 を省略することが可能で ある。 しかしながら、 そのよう にすると、 伝送効率が低下することとなる。 一方、 ワー ド検出回路 8 3 によ り分離されたク αマべク ト ルは、 フ レーム レジスタ 9 の加算回路 1 4 1 に供給され、 レジスタ 1 4 2 に保持されてい る直前の値と加算される。 そして、 加算された値が、 さ らに次の演算のため、 レジスタ 1 4 2 に保持される。 このレジスタ 1 4 2 は、 垂直同期信号に同期 してク リ アされる。 即ち、 レジスタ 1 4 2 には、 1 フ ィ ール ドの期間におけ るク ロマべク ト ルの累積加算値が順次保持される こ とになる。 換言すれば、 レジスタ 1 4 2 に記憶されている値は、 図 1 0 に示すワイプパー 2 0 0の各 フ ィ ール ド内における位置を示していることになる。
カウ ンタ 1 4 3 は、 垂直同期信号が入力される度に加算回路 1 4 1 の出力 をロー ドする。 即ち、 直前のフ ィ ール ドにおけるワイプバー 2 0 0の水平方 向の位置に対応する値をロー ドする。 そして、 直ちに水平方向の画素に対応 するク ·π ッ クのカウ ン トを開始し、 例えばロー ドした値を 1 ずつデク リ メ ン トする。 そして、 そのカ ウ ン ト値が予め設定した所定値 (例えば 0 ) になつ たとき 、 リ ツプルキャ リ ーオーバ ( r c 0 ) 端子の出力を、 論理 「 1 」 から 論理 「 0」 に反転する。 この信号は、 遅延回路 1 4 4 によ りタ イ ミ ングが調 整された後、 ァン ド回路 1 3 5及び 1 6 2 に供給される。
ァン ド回路 1 3 5及び 1 6 2 は、 論理 「 1 」 が入力されている期間、 即ち、 カ ウ ンタ 1 4 3 に垂直同期信号が入力されてから、 そのカ ウン ト値が 0 にな るまでの期間、 R O M 1 3 1 又は 1 3 2 よ り出力されたデータ を通過させる しかしながら、 遅延回路 1 4 4の出力が論理 「 0」 に反転した後は、 これら のデータの通過を禁止する。 即ち、 これによ り、 図 1 0 に示すワイ プバー 2 0 0がカ ウ ンタ 1 4 3で設定した位置まで表示され、 それより右方向にはヮ ィ プバ一 2 0 0が表示されないこ とになる。
このよう にして、 加算回路 1 5 4 より出力された輝度データは、 図 2 1 の セ レク タ 1 1 3 と加算回路 1 1 4 に供給され、 アン ド回路 1 6 2 より出力さ れたク ロマデータ は、 図 2 1 のセレク タ 1 1 2 に供給される。
セレク タ I I 3 は、 加算回路 1 5 4 より供給された字幕輝度データを L S B側に 1 ビッ ト だけシフ ト した 7 ビッ ト のデータ、 2 ビつ ト だけ シフ ト した
6 ビッ ト のデータ、 6 ビッ トだけシフ ト した 2 ビッ ト のデータ、 または
7 ビッ トだけシフ ト した 1 ビッ トのデータのいずれかを選択する。 いずれの データを選択するかは、 図 1 6 に示した I D P C M回路 9 0 より供給される ヰ一データに対応して設定される。 減算回路 1 1 4 は、 加算回路 1 5 4 よ り 供耠された輝度データから、 セレク タ 1 1 3 により選択されたデータを減算 し、 セ レク タ 1 1 5 に供給する。 即ち、 セ レク タ 1 1 3 の出力を、 例えば α とすると き、 減算回路 1 1 4 は 1 — aを出力する。 セ レク タ 1 1 5 は、 この α又は 1 _ αのいずれかを選択し、 加算回路 1 1 6 に出力する。
同様にして、 図 1 6 におけるビデオ復号化装置 9 5 より出力された背景画 像の輝度データが、 セレク タ 1 2 3 と減算回路 1 2 4 に供給されている。 セ レクタ 1 2 3 は、 セ レク タ 1 1 3 と同様に、 入力された輝度データを所定ビ ッ トだけ最下位桁 (すなわち L S Β ) 側にシフ ト したデータを、 キーデータ に対応して選択し、 セ レク タ 1 2 5 と減算回路 1 2 4 に出力する。 減算回路 1 2 4 は、 セ レク タ 1 2 3 の出力を、 入力されるビデオデータから減算し、 セレク タ 1 2 5 に出力する。
従って、 上述した場合と同様に、 セ レク タ 1 2 5 も、 例えば減算回路 1 2 4 より供給される 1 一 のデータ と、 セレク タ 1 2 3 よ り供給される のデ —タのいずれか一方を選択し、 加算回路 1 1 6 に出力する。
但し、 上述の説明は、 図 2の T 3の期間においても字幕データだけでなく キーデータが伝送される場合の例を示しており、 本実施例の場合、 実際には セ レク タ 1 1 3、 減算回路 1 1 4、 セレク タ 1 1 5 は不要であり、 加算回路 1 5 4の出力は、 加算回路 I 1 6 に直接入力される。
セ レク タ 1 1 5 とセ レク タ 1 2 5 は、 それぞれ相補的に動作するよう に切 り換えられる。 即ち、 加算回路 1 1 6 は、 セレク タ 1 1 5が出力する字幕の 輝度データ と、 セ レク タ 1 2 5が出力する背景ビデオ画像の輝度データ とを 加算して出力するのであるが、 図 2を参照して説明したよう に、 背景ビデオ 画像は、 キーデータの値が小さ く なるほど、 減衰率が大き く なる。 これを実 現するために、 I D P C M 9 0 より供給されるキーデータ力く、 セレク タ 1 1 3, 1 1 5 には、 そのままの 3 ビッ トのデータ と して、 また、 セレクタ 1 2 3 , 1 2 5 には、 イ ンバータ 3 1 1 により反転されたデータ と して、 それぞ れ供袷される。
—方、 セレクタ 1 1 2 には、 アン ド回路 1 6 2が出力する字幕のク 口マデ 一夕が供給されるとともに、 ビデオ復号化装置 9 5が出力する背景ビデオ画 像のク ロマデータが供給されている。 セレクタ 1 1 2 は、 この 2つの入力の うち、 一方を選択して出力する。
以上のよう にして、 0 %〜 1 0 0 %のダイナ ミ ッ ク レンジを 1 2 . 5 % ( 1 / 8 ) ずつずらして、 字幕と背景ビデオ画像とを混合することができる。 図 2 1 に示すよう に、 セレクタ 1 1 3 と 1 2 3 によりビッ ト シフ 卜するこ とにより、 データを演算することで、 乗算器を使用する必要がな く な り、 よ り低コス トの装置を実現することが可能となる。
尚、 図 1 6 における ミ 牛サ 9 2 には、 字幕の表示をォン又はオフする制御 信号、 若し く は字幕の表示位置を選択する制御信号が入力される。 ミ キサ 9 2 は、 字幕の表示をオフする制御信号が入力されたとき、 字幕の表示を禁止 させる。 これは、 例えば図 2 1 のセ レク タ 1 1 2 と加算回路 1 1 6 の出力に ゲー ト回路を接続し、 そのゲー ト回路を閉じるこ とで実現することができ る, 字幕の表示のオンが指令されている場合においては、 このゲー ト回路を解放 させ、 セレクタ 1 1 2 と加算回路 1 1 6の出力が、 それぞれ図示せぬ回路に 供給されることになる。
さ らにまた、 ミ キサ 9 2 には、 表示位置を変更する制御信号も入力される, 例えば図 2 2 に示すよう に、 伝送されてきたデータ には、 表示位置と して、 k _ l 番目のブロ ッ ク ライ ンが指定されているのであるが、 ミ キサ 9 2 は力 ゥ ンタを内蔵しており、 入力される水平同期信号をカ ウ ン トし、 そのカ ウ ン ト値が、 このブロ ッ ク ライ ン番号に対応する値になったとき、 字幕データを 背景ビデオ画像に重畳 (スーパイ ンポーズ) するよう になされている。
これに対して、 使用者が所定のプロ ッ ク ライ ンを指定したとき、 上記した 力 ゥ ンタの力 ゥ ン ト値が、 使用者が指定した値に対応する値になったとき、 字幕が背景ビデオ画像に重畳される。 これによ り、 図 2 2 に示すよう に、 k — 1 番目のブ π ッ ク ライ ンに重畳することが指定されていたと しても、 使用 者は必要に応じて、 例えば第 2番目のブロ ッ ク ライ ンに字幕を表示させるこ とが可能となる。 尚、 以上の実施例においては、 符号化側に D P C M回路 1 5 を、 復号化側に I D P C M回路 9 0 を設けるよう にしたが、 符号化側にお いて量子化回路 1 4の出力を直接ラ ンレングス符号化回路 1 6で符号化し、 復号化側において、 字幕データの場合、 逆ラ ンレングス回路 8 9の出力を直 接逆量子化回路 9 1 に入力し、 キーデータの場合、 逆ラ ンレングス回路 8 9 の出力を直接ミ ヰサ 9 2 に入力するよう にしてもよい。
図 2 3 は、 ク ロマべク トルを用いずにワイプバーの符号化を実現する符号 化装置の実施例を示している。 この実施例においては、 字幕の輝度データが フ レームメ モ リ 2 0 1 に供給され、 ク ロマデータがフ レームメ モ リ 2 0 2 に 供給され、 それぞれ記憶されるよう になされている。 そして、 減算回路 2 0 3 は、 フ レームメ モ リ 2 0 2 に記億されたデータを、 新たに供給されるフ レ —厶のクロマデータから減算し、 その差分を出力する。 スィ ッチ 2 0 4 は、 所定のタィ ミ ングで接点 a側又は b側に切り換えられ、 フ レームメ モ リ 2 0 1 より読み出された輝度デー: 、 又は減算回路 2 0 3 より出力されたク ロマ データを選択し、 字幕復号化装置 2 0 5 に供給する。 字幕復号化装置 2 0 5 は、 例えば図 1 の字幕符号化装置 7から、 ス レ ツ シ ョ ル ド回路 2 1 、 エ ン ド 検出回路 2 2、 べク トル発生回路 2 3 を除いた構成とほぼ同様に構成されて いる。
このよう に、 字幕符号化装置 2 0 5 よ り出力され、 伝送されたデータのフ ォ ーマツ ト は、 例えば図 2 4 に示すよう になされている。 即ち、 その先頭に はヘッ ダが配置され、 その次には輝度データのコー ド化されたデータが配置 されている。 そして、 その次に、 ワイ プされるべきフ レーム (またはフ ィ 一 ノレ ド) の数に対応するクロマデータが配置されている。
このようなフ ォ ーマツ トのデータは、 図 2 5 に示すような復号化装置によ り復号化される。 即ち、 この実施例においては、 入力されたデータがコー ド バッ フ ァ 2 1 1 に一旦記憶された後、 字幕復号化装置 2 1 2 に供袷される。 この字幕復号化装置 2 1 2 は、 入力されたデータを復号化する。
字幕復号化装置 2 1 2 によ り復号化されたデータのうち、 輝度データ は、 スィ ッ チ 2 1 3 の接点 a を介してデイ スプレイ メ モ リ 2 1 に供給され、 記 億される。 また、 ク ロマデータ は、 スィ ッ チ 2 1 3の接点 bを介して加算回 路 2 1 5 に供袷され、 ディ スプレイ メ モ リ 2 1 6 に記憶されている 1 フ レー ム前のデータ と加算される。 そして、 加算されたデータが、 再びディ スプレ ィ メ モ リ 2 1 6 に新たに供給される。 このよう にして、 ディ スプレイ メ モ リ 2 1 6 には、 各フ レーム毎のク ロマデータが記憶される。 そして、 ディ スプ レイ メ モ リ 2 1 4及び 2 1 6 に記憶されたデータ は所定のタィ ミ ングで読み 出され、 図示せぬ C R T、 L C Dなどに出力、 表示される。
尚、 以上の実施例においては、 1 チ ャ ンネル分の背景ビデオ画像に対して、 1 チャ ンネル分の ( 1 ケ囯分の) 字幕データを対応させるよう にしたが、 1 つの背景画像に対して複数の (複数の言語の) 字幕データを対応させた り、 複数の背景ビデオ画像に対して複数の字幕データを対応させることも可能で ある。
以上の如く 本発明の字幕データ符号化方法及び装置によれば、 量子化した 字幕データ とキーデータを所定のビッ ト と し、 伝送する。 また、 本発明の伝 送方法および装置によれば、 ビデオ画像に重畳して表示するための字幕をビ デォ画像に重畳する際のビデオ画像の減衰率に対応するキーデータを生成し. キーデータ を伝送する。 さ らに、 本発明の符号化方法及び装置によれば、 ビ デォ画像に重畳して表示するための字幕をビデオ画像に重畳する際のビデォ 画像の減衰率に対応するキ一データを生成し、 キーデータを量子化し、 量子 ィ匕したキーデータを所定のビッ ト と して伝送する。 従って、 背景ビデオ画像 の画質を劣化させることなく 、 簡単な構成で、 高品質の字幕を高速で必要に 応じて表示させることが可能となる。
また、 本発明の字幕データ復号化方法及び装置によれば、 ヰ一データの値 に対応してビデオ画像の減衰率を制御する。 さ らに、 本発明の復号化方法及 び装置によれば、 キーデータが最大又は最小のデータであるとき、 ビデオ画 像の減衰率を最小となるよう にし、 キーデータが最小又は最大のデータであ るとき、 ビデオ画像の減衰率を最大となるよう にし、 キーデータが最小及び 最大間の値であるとき、 ビデオ画像の減衰率を、 値の大きさに対応させる。 従って、 背景ビデオ画像と字幕とを自然に見やすい状態で表示させることが 可能になる。 その結果、 高品質の字幕を、 髙速で、 必要に応じて表示させる よう にすることが可能となる。
さ らに本発明の記録媒体によれば、 量子化したキーデータを所定のビッ ト と して記録するよう にしたので、 背景ビデオ画像の画質を劣化させることな く 、 簡単な構成で、 高品質の字幕を高速で必要に応じて表示させることが可 能となる。 産業上の利用可能性
本発明の字幕符号化方法、 字幕符号化装置、 データ伝送方法及びデータ伝 送装置は、 映画を記録したディ スクゃカ ラオケディ スクを作成する際のディ ス ク作成装置に利用することができる。 また、 本発明の字幕符号化方法及び 字幕符号化装置は C A T V、 衛生放送や、 いわゆるビデオオンディ マン ドシ ステムの配信装置に利用することができる。
また、 本発明の記録媒体は、 一般消費者向けの販売用映画ディ スクやレン タル業者向けの映画デイ スク と して利用できる。 また本発明の記録媒体は、 —般消費者や力 ラオケボッ クスの力 ラオケ装置用の力 ラオケディ スク と して 利用できる。
また、 本発明の字幕復号化方法、 字幕符号化方法、 ビデオ画像制御方法及 びビデオ画像制御装置は、 映画デイ スクゃカ ラオケディ スクを再生するため の再生装置に利用することができる。 また本発明の字幕復号化方法、 字幕符 号化方法、 ビデオ画像制御方法及びビデオ画像制御装置は、 C A T V、 衛星 放送、 いわゆるビデオオンディ マン ドシステム等の受信装置に利用でき る。

Claims

請 求 の 範 囲
1. ビデオ画像に重畳して表示するための字幕を符号化する字幕符号化方法 において、
ビデオ画像に重畳して表示するための字幕を表す字幕データを符号化し、 前記字幕を重畳する際の前記ビデオ画像の減衰率を表すキーデータを符号 化する
ことを特徵とする字幕符号化方法。
2. 前記字幕データ及び前記キーデータを量子化する
ことを特徴する請求項 1 に記載の字幕符号化方法。
3. 前記字幕データ及び前記キーデータを同一のビッ ト数で表現し、 前記字 幕データ及び前記キーデータを実質的に同一のデータ と して符号化する ことを特徵とする請求項 1 に記載の字幕符号化方法。
4. 前記符号化された字幕データ及び前記符号化されたキーデータを符号化 されたビデオ画像と多重化する
ことを特徴とする請求項 1 に記載の字幕符号化方法。
5. 前記ビデオ画像をスクイ ーズモー ドで符号化するとき、 前記字幕データ を.スク ィ ーズモー ドで符号化する
ことを特徴とする請求項 1 に記載の字幕符号化方法。
6. 前記字幕データ及びキーデータの符号発生量に対応して前記ビデオ画像 を圧縮して符号化する
ことを特徴とする請求項 1 に記載の字幕符号化方法。
7. 前記字幕データ と して、 前記字幕の輝度データを符号化するとともに、 前記ビデオ画像の所定のフ ィ 一ル ドまたはフ レーム毎に、 前記字幕の色差デ ータ の差分を演算し、 前記差分を符号化する
ことを特徴とする請求項 1 に記載の字幕符号化方法。
8. 前記字幕データ と して、 前記字幕の輝度データを符号化するとともに、 前記字幕の色差データを、 所定のオフセッ ト値と、 画面上における色差デー タの変化点の座標位置に対応するク ロマべク ト ルと して多重化する
ことを特徴とする請求項 1 に記載の字幕符号化方法。
9. 前記字幕の輝度データのオフセッ ト値を多重化する
ことを特徴とする請求項 8 に記載の字幕符号化方法。
10. 前記字幕を表示する位置を示す位置データを多重化する
ことを特徴とする請求項 1 に記載の字幕符号化方法。
11. 前記字幕のページ毎に、 前記字幕のページの終了を示すユニーク ヮ一ド を多重化する
ことを特徴とする請求項 1 に記載の字幕符号化方法。
12. 前記字幕のページ毎にエラ一検出用のコ一ドを付加する
ことを特徴とする請求項 1 に記載の字幕符号化方法。
13. 前記字幕データ及びキーデータを、 D P C M、 ラ ンレングス符号化、 ま たは可変長符号化の少なく とも 1 つを利用して符号化する
ことを特徴とする請求項 1 に記載の字幕符号化方法。
14. 符号化された字幕を復号化する字幕復号化方法において、
伝送された符号化データの内の符号化された字幕データに基づいて字幕を 表す信号を発生し、
前記伝送された符号化データの内の符号化されたキーデータに基づいて前 記字幕の重畳されるビデオ画像を減衰する
ことを特徴とする字幕復号化方法。
15. 前記符号化された字幕データを逆量子化する
ことを特徴とする請求項 1 4 に記載の字幕復号化方法。
16. 前記伝送された符号化データから符号化されたビデオ画像を分離し、 前記符号化されたビデオ画像を復号化して前記ビデオ画像を生成する ことを特徴とする請求項 1 4 に記載の字幕復号化方法。
17. 符号化された輝度データを復号化するとともに、 符号化された色差デー タを、 所定のフ ィ ール ドまたはフ レーム毎に、 加算して色差データを復号化 して前記字幕を生成する
ことを特徴とする請求項 1 4 に記載の字幕復号化方法。
18. 符号化された輝度データを復号化すると ともに、 符号化された色差デー タを、 所定の色差データのオフセッ ト値と、 画面上における色差データの変 化点の座標位置に対応するク πマべク ト ルに基づいて復号化して、 前記字幕 を生成する
ことを特徵とする請求項 1 4 に記載の字幕復号化方法。
19. 前記ク αマべク ト ルに基づいて上記復号化された輝度データ に、 上記伝 送された符号化データの内の輝度データのオフセッ ト値を加算する
ことを特徴とする請求項 1 8 に記載の字幕復号化方法。
20. 前記伝送された符号化データの内の字幕を表示する位置を示す位置デー タ に基づいて上記字幕の表示位置を制御する
ことを特徴とする請求項 1 4 に記載の字幕復号化方法。
21. 前記符号化された字幕データ及び前記符号化されたキーデータ とをメ モ リ に記憶し、
前記メ モ リ に記憶された前記符号化された字幕データ及び前記符号化され たキーデータを読みだして復号化を行う
ことを特徴とする請求項 1 4 に記載の字幕復号化方法。
22. 前記伝送された符号化データの内の字幕のページの終了を示すユニーク ヮ一 ドに基づいて、 前記メ モ リ のバンク切り換えを行う
ことを特徴とする請求項 2 1 に記載の字幕復号化方法。
23. 前記字幕のページ毎に設けられたエラ一検出用のコ一ドを用いてエラ一 検出を行い、 エラーが検出された場合にはエラーを含む字幕のページの符号 化データの復号化を停止する
ことを特徴とする請求項 1 4 に記載の字幕復号化方法。
24. 前記字幕データ及びキーデータ を、 可変長復号化、 ラ ンレングス復号化 または I D P C Mの少なく とも 1 つを利用して復号化する ことを特徴とする請求項 1 4 に記載の字幕復号化方法。
25. 前記位置データ と異なる位置に、 前記字幕の表示位置を変更する
ことを特徴とする請求項 2 0 に記載の字幕復号化方法。
26. ビデオ画像に重畳して表示するための字幕に関連するデータ を伝送する データ伝送方法において、
字幕をビデオ画像に重畳する際の前記字幕に隣接する前記ビデオ画像の減 衰率を表す半一データを生成し、
前記キーデータを伝送する
ことを特徴とするデータ伝送方法。
27. 前記キーデータを量子化し、
前記量子化したキ一データを所定のビッ ト と して伝送する
ことを特徴とする請求項 2 6 に記載のデータ伝送方法。
28. ビデオ画像に字幕を重畳して表示する際のビデオ画像制御方法において- ビデオ画像に重畳する際の前記字幕に隣接するビデオ画像の減衰率を表す 符号化されたキーデータを受信し、
前記符号化されたキーデータを復号化し、
前記復号化されたキーデータに基づいて前記字幕に隣接するビデオ画像を 減衰する
ことを特徴とするビデオ画像制御方法。
29. 前記復号化されたキーデータが最大または最小のデータであるとき、 前 記ビデオ画像の減衰率を最小となるよう にし、
前記年一データが最小または最大のデータであるとき、 前記ビデオ画像の 減衰率を最大となるよう にし、
前記年一データが最小と最大の間の値であるとき、 前記ビデオ画像の減衰 率を、 前記値の大きさに対応させる
ことを特徴とする請求項 2 8 に記載のビデオ画像制御方法。
30. ビデオ画像を記録した記録媒体において、
ビデオ画像に重畳して表示するための字幕を表す符号化された字幕データ と、 前記字幕を重畳する際の前記ビデオ画像の減衰率を表す符号化された半 ーテ"ータ と
を記録したことを特徴とする記録媒体。
31. 所定の色差データのオフセッ ト値と、
画面上における色差データの変化点の座標位置に対応するク マべク ト ル と
を記録したことを特徵とする請求項 3 0 に記載の記録媒体。
32. 輝度データのオフセ ッ ト値
を記録したことを特徴とする請求項 3 1 に記載の記録媒体。
33. 字幕を表示する位置を示す位置データ
を記録したことを特徴とする請求項 3 0 に記載の記録媒体。
34. 字幕のページの終了を示すユニーク ワー ド
を記録したことを特徴とする請求項 3 0 に記載の記録媒体。
35. 前記字幕のページ毎に付加されたエラー検出用のコ一ド
を記録したことを特徴とする請求項 3 0 に記載の記録媒体。
36. 前記符号化された字幕データは、 前記字幕の輝度を表す輝度データ と、 前記ビデオ画像の所定のフ ィ 一ルドまたはフ レーム毎に差分化された色差デ ータを含む
ことを特徴とする請求項 3 0 に記載の記録媒体。
37. ビデオ画像に重畳して表示するための字幕を符号化する字幕符号化装置 において、
ビデオ画像に重畳して表示するための字幕を表す字幕データ及び前記字幕 を重畳する際の前記ビデオ画像の減衰率を表すキーデータを符号化する符号 化手段
を有することを特徴とする字幕符号化装置。
38. 前記符号化手段は、 前記字幕データ及び前記キーデータを量子化する量 子化手段
を有することを特徴とする請求項 3 7 に記載の字幕符号化装置。
39. 前記符号化手段は、 前記字幕データ及び前記キーデ一タを同一のビッ ト 数で表現し、 前記字幕データ及び前記キーデータを実質的に同一のデータ と して符号化する
ことを特徵とする請求項 3 7 に記載の字幕符号化装置。
40. 前記符号化された字幕データ及び前記符号化されたキーデータを符号化 されたビデオ画像と多重化する多重化手段
を有することを特徴とする請求項 3 7 に記載の字幕符号化装置。
41. 前記符号化手段は、 前記ビデオ画像をスク イ ーズモー ドで符号化すると き、 前記字幕データをスクイ ーズモー ドで符号化する
ことを特徴とする請求項 3 7 に記載の字幕符号化装置。
42. 前記字幕データ及びキーデータの符号発生量に対応して前記ビデオ画像 を圧縮して符号化する画像符号化手段
を有することを特徴とする請求項 3 7 に記載の字幕符号化装置。
43. 前記符号化手段は前記字幕データ と して、 前記字幕の輝度データを符号 化するとともに、 前記ビデオ画像の所定のフ ィ ール ドまたはフ レーム毎に、 前記字幕の色差データ の差分を演算し、 前記差分を符号化する
こ とを特徴とする請求項 3 7 に記載の字幕符号化装置。
44. 前記符号化手段は前記字幕データ として、 前記字幕の輝度データを符号 化するとともに、
前記符号化手段は、 前記字幕の色差データを、 所定のオフセ ッ ト値と、 画 面上における色差データの変化点の座標位置に対応するク σマべク ト ルと し て前記符号化された字幕の輝度データ に多重化する多重化手段を含む ことを特徴とする請求項 3 7 に記載の字幕符号化方法。
45. 前記多重化手段は前記字幕の輝度データのオフセ ッ ト値を前記符号化さ れた字幕の輝度データ に多重化する
ことを特徴とする請求項 4 4 に記載の字幕符号化装置。
46. 前記符号化手段は、 字幕を表示する位置を示す位置データを前記符号化 された字幕データ及びキーデータに多重化する多重化手段を含む
ことを特徴とする請求項 3 7 に記載の字幕符号化装置。
47. 前記符号化手段は、 前記字幕のページ毎に、 前記字幕のページの終了を 示すユニーク ヮー ドを多重化する多重化手段を含む
ことを特徴とする請求項 3 7 に記載の字幕符号化装置。
48. 前記符号化手段は、 前記字幕のページ毎にエラー検出用のコー ドを付加 する多重化手段を含む
ことを特徴とする請求項 3 7 に記載の字幕符号化装置。
49. 前記符号化手段は、 前記字幕データ及びキーデータを、 D P C M、 ラ ン レングス符号化、 または可変長符号化の少な く とも 1 つを利用して符号化す る
ことを特徵とする請求項 3 7 に記載の字幕符号化装置。
50. 符号化された字幕を復号化する字幕復号化装置において、
伝送された符号化データの内の符号化された字幕データに基づいて字幕を 表す信号を発生する字幕発生手段と、
前記伝送された符号化データの内の符号化されたキーデータ に基づいて前 記字幕の重畳されるビデオ画像を減衰するビデオ画像制御手段と
を有することを特徴とする字幕復号化装置。
51. 前記符号化された字幕データを逆量子化する逆量子化手段を有する ことを特徵とする請求項 5 0 に記載の字幕復号化装置。
52. 前記伝送された符号化データから符号化されたビデオ画像を分離する分 離手段と、
前記符号化されたビデオ画像を復号化して前記ビデオ画像を生成する復号 化手段とを有する ことを特徴とする請求項 5 0 に記載の字幕復号化装置。
53. 前記字幕発生手段は、 符号化された輝度データを復号化するとともに、 符号化された色差データを、 所定のフ ィ ール ドまたはフ レーム毎に、 加算し て色差データ を復号化して前記字幕を生成する
ことを特徴とする請求項 5 0 に記載の字幕復号化装置。
54. 前記字幕発生手段は、 符号化された輝度データを復号化するとともに、 符号化された色差データを、 所定の色差データのオフセ ッ ト値と、 画面上に おける色差データの変化点の座標位置に対応するク ロマべク トルに基づいて 復号化して、 前記字幕を生成する
ことを特徴とする請求項 5 0 に記載の字幕復号化装置。
55. 前記字幕発生手段は、 前記ク ロマべク ト ルに基づいて上記復号化された 輝度データ に、 上記伝送された符号化データの内の輝度データのオフセ ッ ト 値を加算する
ことを特徴とする請求項 5 4 に記載の字幕復号化装置。
56. 前記伝送された符号化データの内の字幕を表示する位置を示す位置デー タ に基づいて上記字幕の表示位置を制御する制御手段を有する
ことを特徴とする請求項 5 0 に記載の字幕復号化装置。
57. 前記符号化された字幕データ及び前記符号化されたキーデータ とを記憶 する記憶手段を有し、
前記字幕発生手段は、 前記メ モ リ に記憶された前記符号化された字幕デー タ及び前記符号化された牛一データを読みだして復号化を行う
ことを特徴とする請求項 5 0 に記載の字幕復号化装置。
58. 前記伝送された符号化データの内の字幕のページの終了を示すユニーク ヮ一ドに基づいて、 前記記憶手段のパンク切り換えを行うメ モ リ制御手段を 有する
ことを特徴とする請求項 5 7 に記載の字幕復号化装置。
59. 前記字幕のページ毎に設けられたエラー検出用のコ ー ドを用いてエラー 検出を行い、 エラーが検出された場合にはエラ一を含む字幕のページの符号 化データの復号化を停止させるエラー検出手段を有する
ことを特徴とする請求項 5 0 に記載の字幕復号化装置。
60. 前記字幕発生手段は、 前記字幕データ及びキーデータを、 可変長復号化. ラ ンレングス復号化、 または I D P C Mの少な く とも 1 つを利用して復号化 する
ことを特徴とする請求項 5 0 に記載の字幕復号化装置。
61. 前記位置データ と異なる位置に、 前記字幕の表示位置を変更する制御手 段を有する
ことを特徵とする請求項 5 6 に記載の字幕復号化装置。
62. ビデオ画像に重畳して表示するための字幕に関連するデータを伝送する データ伝送装置において、
字幕をビデオ画像に重畳する際の前記字幕に隣接する前記ビデオ画像の減 衰率を表すキーデータを生成する手段と、
前記キーデータを伝送する伝送手段とを有する
ことを特徵とするデータ伝送装置。
63. 前記伝送手段は、 前記キーデータを量子化し、
前記量子化したキ一データを所定のビッ ト と して伝送する
ことを特徴とする請求項 6 2 に記載のデータ伝送装置。
64. ビデオ画像に字幕を重畳して表示する際のビデオ画像制御装置において、 ビデオ画像に重畳する際の前記字幕に隣接するビデオ画像の減衰率を表す 符号化されたキーデータを受信する手段と、
前記符号化されたキーデータを復号化する復号化手段と、
前記復号化されたキーデータに基づいて前記字幕に隣接するビデォ画像を 減衰する減衰手段と
を有することを特徴とするビデオ画像制御装置。
65. 前記減衰手段は、 前記復号化されたキーデータが最大または最小のデー タであるとき、 前記ビデオ画像の減衰率を最小となるよう にし、
前記キーデータが最小または最大のデータであるとき、 前記ビデオ画像の 減衰率を最大となるよう にし、
前記キーデータが最小と最大の間の値であるとき、 前記ビデオ画像の減衰 率を、 前記値の大きさに対応させる
ことを特徴とする請求項 6 4 に記載のビデオ画像制御装置。
66. ビデオ画像を記録した記録媒体において、
ビデオ画像を符号化し、
前記ビデオ画像に重畳して表示するための字幕を表す字幕データを符号化 し、
前記字幕を重畳する際の前記ビデオ画像の減衰率を表すキーデータを符号 化し、
前記符号化されたビデオ画像、 字幕データ及びキーデータを記録すること により作成された
ことを特徴とする記録媒体。
PCT/JP1994/001062 1993-06-30 1994-06-30 Apparatus and method for coding/decoding subtitles data WO1995001704A1 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
EP19940919828 EP0662770B1 (en) 1993-06-30 1994-06-30 Apparatus and method for coding/decoding subtitles data
US08/387,904 US5583577A (en) 1993-06-30 1994-06-30 Caption data coding/decoding systems and methods that includes key data indicating intermediate levels of attenuation in the vicinity of the caption
AT94919828T ATE240624T1 (de) 1993-06-30 1994-06-30 Vorrichtung und verfahren zur kodierung/dekodierung von daten für untertitel
AU70829/94A AU677676B2 (en) 1993-06-30 1994-06-30 Apparatus and method for coding/decoding subtitles data
KR1019950700781A KR100289857B1 (ko) 1993-06-30 1994-06-30 자막 데이터 부호화/복호화 장치 및 방법
JP50340395A JP3430511B2 (ja) 1993-06-30 1994-06-30 字幕データ符号化/復号化装置及び方法
DE1994632660 DE69432660T2 (de) 1993-06-30 1994-06-30 Vorrichtung und verfahren zur kodierung/dekodierung von daten für untertitel

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP5/160782 1993-06-30
JP16078293 1993-06-30
JP6/6390 1994-01-25
JP639094 1994-01-25

Publications (1)

Publication Number Publication Date
WO1995001704A1 true WO1995001704A1 (en) 1995-01-12

Family

ID=26340518

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1994/001062 WO1995001704A1 (en) 1993-06-30 1994-06-30 Apparatus and method for coding/decoding subtitles data

Country Status (11)

Country Link
US (1) US5583577A (ja)
EP (3) EP1326449B1 (ja)
JP (1) JP3430511B2 (ja)
KR (1) KR100289857B1 (ja)
CN (1) CN1113098A (ja)
AT (3) ATE324746T1 (ja)
AU (1) AU677676B2 (ja)
DE (3) DE69432660T2 (ja)
ES (3) ES2193162T3 (ja)
HK (1) HK1044088B (ja)
WO (1) WO1995001704A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0734181A3 (en) * 1995-03-23 1999-01-13 Sony Corporation Subtitle data encoding/decoding and recording medium for same
EP0734180A3 (en) * 1995-03-20 1999-01-13 Sony Corporation Subtitle encoding/decoding
EP0737016A3 (en) * 1995-04-03 1999-01-13 Sony Corporation Subtitle colorwiping and positioning
EP0751684A3 (en) * 1995-06-30 1999-01-27 Sony Corporation Decoding information pages having header information and page data
CN102740000A (zh) * 2011-08-29 2012-10-17 新奥特(北京)视频技术有限公司 一种在图文播出单编辑中预览播出效果的方法及系统

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5684542A (en) 1993-12-21 1997-11-04 Sony Corporation Video subtitle processing system
US6422397B1 (en) 1993-12-22 2002-07-23 Baxter International, Inc. Blood collection systems including an integral, flexible filter
US6367634B1 (en) 1993-12-22 2002-04-09 Baxter International Inc. Blood collection systems including an integral, flexible filter
JP2931755B2 (ja) * 1994-04-14 1999-08-09 株式会社東芝 データ再生装置、データエンコード装置、データエンコード方法及びデータ再生システム
AU726256B2 (en) * 1995-04-03 2000-11-02 Sony Corporation Subtitle positioning method and apparatus
JPH09130824A (ja) * 1995-11-02 1997-05-16 Funai Electric Co Ltd 映像装置の文字表示時における映像処理方法
US5802226A (en) * 1996-03-29 1998-09-01 Matsushita Electric Industrial Co., Ltd. Method and apparatus for video fade effect with a single video source
JPH09284650A (ja) * 1996-04-15 1997-10-31 Toshiba Corp デジタル信号処理装置
WO1997043855A1 (fr) * 1996-05-16 1997-11-20 Kabushiki Kaisha Infocity Procede de transmission et d'affichage d'informations et dispositif d'affichage d'informations
MY119560A (en) * 1996-05-27 2005-06-30 Nippon Telegraph & Telephone Scheme for detecting captions in coded video data without decoding coded video data
JP3591227B2 (ja) * 1997-06-24 2004-11-17 ヤマハ株式会社 カラオケ装置
JP3011157B2 (ja) * 1997-10-30 2000-02-21 日本電気株式会社 画像読取方法及び装置
US6038347A (en) * 1997-11-03 2000-03-14 Victor Company Of Japan, Ltd. Method and apparatus for compressing picture-representing data
US6144774A (en) * 1997-11-03 2000-11-07 Victor Company Of Japan, Ltd. Method and apparatus for compressing picture-representing data
US6573945B1 (en) * 2000-01-12 2003-06-03 General Instrument Corporation Logo insertion on an HDTV encoder
US20030209479A1 (en) * 2000-07-10 2003-11-13 Lynn Daniel R Blood filters, blood collection and processing systems, and methods therefore
US7050109B2 (en) * 2001-03-02 2006-05-23 General Instrument Corporation Methods and apparatus for the provision of user selected advanced close captions
US7532765B2 (en) * 2002-12-30 2009-05-12 Intel Corporation Run length encoded digital image
KR100565614B1 (ko) 2003-09-17 2006-03-29 엘지전자 주식회사 캡션 송수신 방법
US20050078221A1 (en) * 2003-09-26 2005-04-14 Koji Kobayashi Apparatus for generating video contents with balloon captions, apparatus for transmitting the same, apparatus for playing back the same, system for providing the same, and data structure and recording medium used therein
IL159838A0 (en) 2004-01-13 2004-06-20 Yehuda Binder Information device
JP4747537B2 (ja) * 2004-09-07 2011-08-17 日本電気株式会社 携帯端末及びその制御方法、並びに携帯端末のためのコンピュータ・プログラム
ATE496490T1 (de) * 2007-08-09 2011-02-15 Inlet Technologies Bewahrung von untertiteln durch videotranskodierung
US20090249392A1 (en) * 2008-03-28 2009-10-01 Lg Electronics Inc. Digital broadcast receiver and method for processing caption thereof
US20100091187A1 (en) * 2008-10-15 2010-04-15 Echostar Technologies L.L.C. Method and audio/video device for processing caption information
CN113596355B (zh) * 2020-04-14 2024-04-16 瑞昱半导体股份有限公司 字幕图像产生装置及方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0219088A (ja) * 1988-07-06 1990-01-23 Matsushita Electric Ind Co Ltd 字幕表示装置
JPH04183189A (ja) * 1990-11-19 1992-06-30 Matsushita Electric Ind Co Ltd 有料字幕放送送受信装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6232494A (ja) * 1985-08-06 1987-02-12 三洋電機株式会社 グラフイツクデコ−ダ回路
JPH07118798B2 (ja) * 1988-02-29 1995-12-18 パイオニア株式会社 画像情報の記録方法及び再生方法
JPH02308689A (ja) * 1989-05-23 1990-12-21 Matsushita Electric Ind Co Ltd 文字図形情報表示装置
JP2776934B2 (ja) * 1990-01-10 1998-07-16 株式会社日立製作所 映像信号処理装置
JPH0467470A (ja) * 1990-07-06 1992-03-03 Pioneer Electron Corp 情報記憶装置及び情報再生装置
JP2652268B2 (ja) * 1990-11-02 1997-09-10 ダブリュエヌエム・ヴエンチヤーズ・インコーポレーテツド 符号化装置および符号化方法
JP2692406B2 (ja) * 1991-04-04 1997-12-17 松下電器産業株式会社 映像信号拡大装置
JPH05304641A (ja) * 1992-04-24 1993-11-16 Victor Co Of Japan Ltd テレビジョン受像機
DE69334277D1 (de) * 1992-11-05 2009-05-28 Canon Kk Vorrichtung und Verfahren zur Verarbeitung von Bewegtbildern

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0219088A (ja) * 1988-07-06 1990-01-23 Matsushita Electric Ind Co Ltd 字幕表示装置
JPH04183189A (ja) * 1990-11-19 1992-06-30 Matsushita Electric Ind Co Ltd 有料字幕放送送受信装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0734180A3 (en) * 1995-03-20 1999-01-13 Sony Corporation Subtitle encoding/decoding
EP1301043A1 (en) * 1995-03-20 2003-04-09 Sony Corporation Subtitle encoding/decoding
EP0734181A3 (en) * 1995-03-23 1999-01-13 Sony Corporation Subtitle data encoding/decoding and recording medium for same
EP0737016A3 (en) * 1995-04-03 1999-01-13 Sony Corporation Subtitle colorwiping and positioning
EP1326451A1 (en) * 1995-04-03 2003-07-09 Sony Corporation Subtitle colorwiping and positioning
CN100463503C (zh) * 1995-04-03 2009-02-18 索尼公司 字幕定位解码设备
EP0751684A3 (en) * 1995-06-30 1999-01-27 Sony Corporation Decoding information pages having header information and page data
CN102740000A (zh) * 2011-08-29 2012-10-17 新奥特(北京)视频技术有限公司 一种在图文播出单编辑中预览播出效果的方法及系统

Also Published As

Publication number Publication date
EP1326449A3 (en) 2003-07-30
ES2194002T3 (es) 2003-11-16
ATE240623T1 (de) 2003-05-15
US5583577A (en) 1996-12-10
DE69432660T2 (de) 2004-04-08
EP0662770A1 (en) 1995-07-12
JP3430511B2 (ja) 2003-07-28
ES2193162T3 (es) 2003-11-01
EP1158810B1 (en) 2003-05-14
DE69434718T2 (de) 2007-03-29
DE69432685T2 (de) 2004-04-08
DE69432685D1 (de) 2003-06-18
ES2259117T3 (es) 2006-09-16
KR950703257A (ko) 1995-08-23
EP0662770A4 (en) 1998-05-27
ATE324746T1 (de) 2006-05-15
AU7082994A (en) 1995-01-24
CN1113098A (zh) 1995-12-06
HK1044088B (zh) 2004-04-08
DE69432660D1 (de) 2003-06-18
EP1158810A2 (en) 2001-11-28
EP1326449B1 (en) 2006-04-26
DE69434718D1 (de) 2006-06-01
EP1158810A3 (en) 2002-01-09
AU677676B2 (en) 1997-05-01
EP1326449A2 (en) 2003-07-09
HK1044088A1 (en) 2002-10-04
KR100289857B1 (ko) 2001-05-15
ATE240624T1 (de) 2003-05-15
EP0662770B1 (en) 2003-05-14

Similar Documents

Publication Publication Date Title
WO1995001704A1 (en) Apparatus and method for coding/decoding subtitles data
US5742352A (en) Video caption data decoding device
US5684542A (en) Video subtitle processing system
US5731847A (en) Subtitle encoding/decoding method and apparatus
JP3762428B2 (ja) デジタル・ビデオ送信システム
US6115077A (en) Apparatus and method for encoding and decoding digital video data operable to remove noise from subtitle date included therewith
CN1087553C (zh) 数字视频信号处理系统的屏幕显示装置
KR100390593B1 (ko) 서브타이틀데이터인코딩/디코딩방법및장치및그기록매체
WO1996020557A1 (en) Picture information encoding/decoding system
JPH08275205A (ja) データ符号化/復号化方法および装置、および符号化データ記録媒体
JP4642161B2 (ja) データ復号化装置及びデータ復号化方法
EP0966162A1 (en) Video signal reproducing device and hierarchical video signal decoder
US20040207755A1 (en) Apparatus and method for signal prcoessing of format conversion and combination of video signals
JPH07250279A (ja) 字幕データ復号化装置
JP2829266B2 (ja) 画像情報のエンコード/デコードシステム
JPH07231435A (ja) 字幕データ符号化装置、その復号化装置、並びに記録媒体
JP3660416B2 (ja) 画像データのエンコード/デコードシステム
JPH1098721A (ja) 画像情報のエンコード/デコードシステム
JP2829294B2 (ja) 画像情報記録媒体およびその製造方法
JP4391187B2 (ja) データ復号方法および装置
JPH1093977A (ja) 画像信号処理装置とその方法
JPS60227582A (ja) 静止画伝送方式
JP2004320803A (ja) 画像情報のエンコード方法と再生方法と再生装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AU CN JP KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT DE ES FR GB IT

WWE Wipo information: entry into national phase

Ref document number: 1994919828

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 08387904

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 1994919828

Country of ref document: EP

WWG Wipo information: grant in national office

Ref document number: 1994919828

Country of ref document: EP