DE69633244T2 - Verfahren und anlage zur nahtlosen verbindungskodierung eines bitstroms - Google Patents

Verfahren und anlage zur nahtlosen verbindungskodierung eines bitstroms Download PDF

Info

Publication number
DE69633244T2
DE69633244T2 DE1996633244 DE69633244T DE69633244T2 DE 69633244 T2 DE69633244 T2 DE 69633244T2 DE 1996633244 DE1996633244 DE 1996633244 DE 69633244 T DE69633244 T DE 69633244T DE 69633244 T2 DE69633244 T2 DE 69633244T2
Authority
DE
Germany
Prior art keywords
data
video
buffer
stream
occupancy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE1996633244
Other languages
English (en)
Other versions
DE69633244D1 (de
Inventor
Hideki Fukuda
Kazuhiro Tsuga
Takumi Hasebe
Yoshihiro Mori
Tomoyuki Okada
Kazuyoshi Horiike
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Application granted granted Critical
Publication of DE69633244D1 publication Critical patent/DE69633244D1/de
Publication of DE69633244T2 publication Critical patent/DE69633244T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/00007Time or data compression or expansion
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/327Table of contents
    • G11B27/329Table of contents on a disc [VTOC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/115Selection of the code volume for a coding unit prior to coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/149Data rate or code amount at the encoder output by estimating the code amount by means of a model, e.g. mathematical model or statistical model
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/152Data rate or code amount at the encoder output by measuring the fullness of the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/162User input
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/177Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a group of pictures [GOP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/179Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scene or a shot
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23406Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving management of server-side video buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23424Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving splicing one content stream with another content stream, e.g. for inserting or substituting an advertisement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2365Multiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4347Demultiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44004Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving video buffer management, e.g. video decoder buffer or video display buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44016Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8541Content authoring involving branching, e.g. to different story endings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/926Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation
    • H04N5/9265Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation with processing of the sound signal
    • H04N5/9267Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • G11B2020/1062Data buffering arrangements, e.g. recording or playback buffers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • G11B2020/1062Data buffering arrangements, e.g. recording or playback buffers
    • G11B2020/10814Data buffering arrangements, e.g. recording or playback buffers involving specific measures to prevent a buffer underrun
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/23Disc-shaped record carriers characterised in that the disc has a specific layer structure
    • G11B2220/235Multilayer discs, i.e. multiple recording layers accessed from the same side
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2562DVDs [digital versatile discs]; Digital video discs; MMCDs; HDCDs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/926Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation
    • H04N5/9261Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation involving data reduction
    • H04N5/9262Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation involving data reduction using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/87Regeneration of colour television signals
    • H04N9/877Regeneration of colour television signals by assembling picture element blocks in an intermediate memory

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung bezieht sich auf ein Verfahren und eine Vorrichtung für ein System, das Bitströme für eine nahtlose Kommunikation kodiert, und insbesondere auf Bitströme für die Verwendung in einem Autorensystem für die verschiedenartige Verarbeitung eines Datenbitstroms, der Videodaten, Audiodaten und Subbilddaten umfasst, die jeweils mehrere Programmtitel bilden, die die zugehörigen Videodaten- Audiodaten- und Subbilddaten-Inhalte enthalten, um einen Bitstrom zu erzeugen, aus dem ein neuer Titel, der den vom Benutzer gewünschten Inhalt enthält, reproduziert werden kann, und das effiziente Aufzeichnen und Wiedergeben des erzeugten Bitstrom unter Verwendung eines bestimmten Aufzeichnungsmediums.
  • Hintergrund der Erfindung
  • Autorensysteme, die verwendet werden, um Programmtitel, die zugehörige Videodaten, Audiodaten und Subbilddaten umfassen, mittels digitaler Verarbeitung zu erzeugen, wie z. B. Multimediadaten, die Video-, Audio- und Subbilddaten umfassen, die auf einer Laserplatte oder Video-CD-Formaten aufgezeichnet werden, sind derzeit verfügbar.
  • Systeme, die insbesondere Video-CDs verwenden, sind fähig, Videodaten auf einer CD-Format-Platte aufzuzeichnen, die ursprünglich mit einer Aufzeichnungskapazität von etwa 600 MB zur Speicherung nur digitaler Audiodaten entwickelt wurde, indem solche hocheffizienten Videokompressionstechniken wie MPEG verwendet werden. Als Ergebnis der erhöhten effektiven Aufzeichnungskapazität, die unter Verwendung von Datenkompressionstechniken erreicht wird, werden Karaoketitel und andere herkömmliche Laserplattenanwendungen allmählich auf das Video-CD-Format übertragen.
  • Die Benutzer erwarten heute sowohl einen hochwertigen Titelinhalt als auch eine hohe Wiedergabequalität. Um diese Erwartungen zu erfüllen, muss jeder Titel aus Bitströmen mit einer zunehmend tiefen hierarchischen Struktur zusammengesetzt sein. Die Datengröße der Multimediatitel, die mit Bitströmen mit solchen Tiefen hierarchischen Strukturen geschrieben sind, ist jedoch um das zehnfache oder mehr größer als die Datengröße von weniger komplexen Titeln. Die Notwendigkeit, kleine Bildeinzelheiten (Titeleinzelheiten) zu editieren, macht es ebenfalls notwendig, dem Bitstrom unter Verwendung von hierarchischen Dateneinheiten niedriger Ordnung zu verarbeiten und zu kontrollieren.
  • Es ist daher notwendig, eine Bitstromstruktur und ein fortschrittliches digitales Verarbeitungsverfahren, das sowohl Aufzeichnungs- als auch Wiedergabefähigkeiten enthält, womit ein umfangreicher, hierarchischer Mehrebenen-Digitalbitstrom effizient auf jeder Ebene jeder Hierarchie kontrolliert werden kann, zu entwickeln und zu erproben. Ferner werden eine Vorrichtung zum Ausführen dieses digitalen Verarbeitungsverfahrens und Aufzeichnungsmedien, auf denen der von der Vorrichtung digitalverarbeitete Bitstrom effizient für die Speicherung aufgezeichnet werden können und von denen die aufgezeichneten Informationen schnell wiedergegeben werden können, benötigt.
  • Mittel zum Erhöhen der Speicherkapazität von herkömmlichen optischen Platten wurden weitgehend erforscht, um den Aufzeichnungsmediumaspekt dieses Problems zu lösen. Eine Möglichkeit zum Erhöhen der Speicherkapazität der optischen Platte ist, den Fleckdurchmesser D des optischen Strahls (Laserstrahl) zu reduzieren. Wenn die Wellenlänge des Laserstrahls gleich λ ist und die Öffnung der Objektivlinse gleich NA ist, ist der Fleckdurchmesser D proportional zu λ/NA, wobei die Speicherkapazität effizient verbessert werden kann, indem λ verringert und NA erhöht wird.
  • Wie z. B. im US-Patent 5.235.581 offenbart ist, nimmt das Coma, das durch eine relative Neigung zwischen der Plattenoberfläche und der optischen Achse des Laserstrahls hervorgerufen wird (im folgenden als "Neigung" bezeichnet), zu, wenn eine Linse mit großer Öffnung (hohes NA) verwendet wird. Um ein durch Neigung hervorgerufenes Coma zu verhindern, muss das transparente Substrat sehr dünn gemacht werden. Das Problem besteht darin, dass die mechanische Festigkeit der Platte gering ist, wenn das transparente Substrat sehr dünn ist.
  • MPEG1, das herkömmliche Verfahren zum Aufzeichnen und Wiedergeben von Video-, Audio- und Graphiksignaldaten, wurde ebenfalls durch das robustere MPEG2-Verfahren ersetzt, welches große Datenvolumina mit einer höheren Rate überfragen kann. Es ist zu beachten, dass das Kompressionsverfahren und das Datenformat des MPEG2-Standard sich ein wenig von denjenigen von MPEG1 unterscheiden. Der spezifische Inhalt von MPEG1 und MPEG2 und die Unterschiede zwischen diesen sind in den MPEG-Normen ISO-11172 und ISO-13818 genauer beschrieben, wobei eine genauere Beschreibung derselben im folgenden weggelassen wird.
  • Es ist jedoch zu beachten, dass, während die Struktur des kodierten Videostroms in der MPEG2-Spezifikation definiert ist, die hierarchische Struktur des Systemsstroms und das Verfahren der Verarbeitung niederer hierarchischer Ebenen nicht definiert sind.
  • Wie oben beschrieben worden ist, ist es daher in einem herkömmlichen Autorensystem nicht möglich, einen großen Datenstrom zu verarbeiten, der ausreichend Informationen enthält, um viele verschiedene Benutzerbedürfnisse zu befriedigen. Selbst wenn außerdem ein solches Verarbeitungsverfahren verfügbar wäre, können die verarbeiteten Daten, die dafür aufgezeichnet worden sind, nicht wiederholt verwendet werden, um die Datenredundanz zu reduzieren, da derzeit kein Aufzeichnungsmedium mit großer Kapazität zur Verfügung steht, das umfangreiche Bitströme, wie sie oben beschrieben worden sind, effizient aufzeichnen und wiedergeben kann.
  • Außerdem müssen bestimmte signifikante Handware- und Software-Anforderungen erfüllt sein, um einen Bitstrom unter Verwendung einer Dateneinheit, die kleiner als der Titel ist, zu verarbeiten. Diese spezifischen Hardware-Anforderungen umfassen eine signifikante Erhöhung der Speicherkapazität des Aufzeichnungsmediums und eine Erhöhung der Geschwindigkeit der digitalen Verarbeitung; die Software-Anforderungen umfassen das Erfinden eines fortschrittlichen digitalen Verarbeitungsverfahrens, das eine hochentwickelte Datenstruktur enthält.
  • Es ist daher die Aufgabe der vorliegenden Erfindung, ein effektives Autorensystem zum Kontrollieren eines Multimediadaten-Bitstroms mit gesteigerten Hard ware- und Software-Anforderungen unter Verwendung einer Dateneinheit, die kleiner ist als der Titel, um die gesteigerten Benutzerbedürfnisse besser zu berücksichtigen, zu schaffen.
  • Um Daten unter mehreren Titeln gemeinsam zu nutzen und somit die Kapazität der optischen Platte effizient zu nutzen, ist eine Mehrfachszenensteuerung, womit Szenendaten, die für mehrere Titel gemeinsam genutzt werden, und die gewünschten Szenen auf der gleichen Zeitbasis von innerhalb der Mehrfachszenenperioden, die mehrere Szenen enthalten, die für bestimmte Wiedergabepfade einzigartig sind, frei ausgewählt und wiedergegeben werden können.
  • Wenn mehrere Szenen, die für einen Wiedergabepfad innerhalb der Mehrszenenperiode einzigartig sind, auf der gleichen Zeitbasis angeordnet sind, müssen die Szenendaten zusammenhängend sein. Nicht ausgewählte Mehrfachszenendaten werden daher unvermeidbar zwischen den ausgewählten gemeinsamen Szenendaten und den ausgewählten Mehrfachszenendaten eingesetzt. Das Problem das hierdurch erzeugt wird, wenn Mehrfachszenendaten wiedergegeben werden, besteht darin, dass die Wiedergabe durch diese nicht ausgewählten Szenendaten unterbrochen wird.
  • Ein weiteres Problem kann erwartet werden, wenn die Mehrfachszenendaten Mehrfachwinkel-Szenendaten sind, d. h., Szenendaten, die im wesentlichen das gleiche Subjekt aus unterschiedlichen Winkeln zeigen. Im Fall einer Live-Sportübertragung können diese Mehrfachwinkel-Szenendaten erhalten werden, indem ein Baseball-Schlagmann z. B. mit Kameras an unterschiedlichen Stellen aufgezeichnet wird. Die Videosignale aus diesen mehreren Winkeln können anschließend zu vordefinierten Dateneinheiten kombiniert werden, um einen einzigen Titel zu erhalten. Insbesondere die Information, wie diese mehreren Videoströme verbunden und wiedergegeben werden, kann jedoch nicht während des Kodierungsprozesses ermittelt werden. Als Ergebnis kann das Verhalten des Dekodierer-Videopuffers, speziell der Datenakkumulationszustand des Videopuffers während des Dekodierungsprozesses, nicht während des Kodierungsprozesses ermittelt werden. Als Ergebnis kann während der Dekodierung ein Videopufferüberlauf- oder -Unterlaufzustand auftreten. Selbst bei Eins-zu-eins-Verbindungen zwischen gemeinsamen Szenen (Systemströmen) kann das Verhalten des Dekodierer-Videopuffers nicht während der Kodierung ermittelt wer den.
  • Wenn eine Kodierung mit veränderlicher Länge für den Kodierungsprozess verwendet wird, muss der Prozess immer in zeitlich linearer Weise vorrücken. Dies macht es notwendig, die Reihenfolge des Kodierungsprozesses zu kontrollieren, und begrenzt die Flexibilität des Titelproduktionsprozesses. Außerdem gibt es Fälle, in denen die End-Pufferbelegung während der ersten Videostromkodierung die Anfangs-Pufferbelegung des zweiten Videostroms überschreitet. In solchen Fällen kann ein Dekodierungspufferüberlauf zu einem bestimmten Zwischenzeitpunkt während des Kodierungsprozesses auftreten.
  • Wenn während des Kodierungsprozesses zur Erzeugung des Videostroms die MPEG-Kodierung oder ein ähnlicher Kodierungsprozess mit veränderlicher Länge verwendet wird, ist die kodierte Datenmenge erst bekannt, wenn der Kodierungsprozess abgeschlossen ist. Dies liegt daran, dass die verwendete Kodierungslänge entsprechend der Informationsmenge in den Videodaten, d. h. der räumlichen Komplexität oder der Zeitbasis-Komplexität der Videodaten, und gemäß dem vorangehenden Kodezustand ermittelt wird und die Kodelänge anschließend ermittelt wird. Da es daher schwierig ist, die kodierte Datengröße genau auf eine spezifische vorgegebene Größe zu begrenzen, ist es schwierig, die End-Pufferbelegung genau zu spezifizieren. Insbesondere wenn das kodierte Datenvolumen zugewiesen ist und der Kodierungsprozess entsprechend der Informationsmenge im Videostrom bewerkstelligt wird, variiert offensichtlich das zugewiesene Datenvolumen, wenn die Informationsmenge im Videostrom sich ändert, wobei die Änderung der Videopufferbelegung variiert. Es daher schwierig, sicherzustellen, dass die End-Dekodierungsvideopufferbelegung bei jedem von mehreren Videoströmen gleich ist.
  • Es ist daher die Aufgabe der vorliegenden Erfindung, ein Kodierungsverfahren und eine Kodierungsvorrichtung, ein Aufzeichnungsverfahren und eine Aufzeichnungsvorrichtung, sowie ein Wiedergabeverfahren und eine Wiedergabevorrichtung zu schaffen, mit denen mehrere unabhängig kodierte Videoströme frei verbunden und wiedergegeben werden können, ohne einen Videopufferüberlauf- oder -unterlaufzustand hervorzurufen.
  • Eine weitere Aufgabe der vorliegenden Erfindung ist, ein Kodierungsverfahren und eine Kodierungsvorrichtung, ein Aufzeichnungsverfahren und eine Aufzeichnungsvorrichtung, sowie ein Wiedergabeverfahren und eine Wiedergabevorrichtung zu schaffen, mit denen die Notwendigkeit, dass der Kodierungsprozess in zeitlich linearer Weise fortschreitet, um jeden Videostrom zu erhalten, eliminiert wird, wobei die Verarbeitungszeit mittels paralleler Kodierungsprozesse verkürzt werden kann, und wobei die Prozesskontrolle vereinfacht werden kann, wenn mehrere Videoströme verbunden werden, um einen einzelnen Videostrom zu erhalten.
  • Eine weitere Aufgabe der vorliegenden Erfindung ist, ein Kodierungsverfahren und eine Kodierungsvorrichtung, ein Aufzeichnungsverfahren und eine Aufzeichnungsvorrichtung, sowie ein Wiedergabeverfahren und eine Wiedergabevorrichtung zu schaffen, mit denen Videoströme von mehreren Wiedergabepfaden zu einer Mehrfachszenenperiode kodiert werden, aus der der Benutzer einen bestimmten Wiedergabepfad während der Wiedergabe auswählen kann, wobei die gewünschten Videoströme aus der Mehrfachszenenperiode, die mehrere auswählbare Videoströme (Wiedergabepfade) enthält, anschließend individuell wiedergegeben und zusammenhängend als ein einzelner Videostrom präsentiert werden können, ohne einen Videopufferüberlauf- oder -unterlaufzustand während des Dekodierungsprozesses (Wiedergabeprozesses) hervorzurufen.
  • Offenbarung der Erfindung
  • Die vorliegende Erfindung wurde im Hinblick auf eine weitgehende Beseitigung der obenbeschriebenen Nachteile entwickelt und hat daher die wesentliche Aufgabe, ein Verschachtelungsverfahren zum Erzeugen eines Bitstroms zu schaffen.
  • Um die obenerwähnte Aufgabe zu lösen, werden ein Kodierungsverfahren und eine Vorrichtung, sowie ein Wiedergabeverfahren und eine Vorrichtung vorgeschlagen, wie durch die Ansprüche 1, 2, 5 und 6 definiert ist.
  • Kurzbeschreibung der Zeichnungen
  • 1 ist ein Graph, der schematisch eine Struktur eines Multimedia-Bitstroms gemäß der vorliegenden Erfindung zeigt.
  • 2 ist ein Blockschaltbild, das einen Autorenkodierer gemäß der vorliegenden Erfindung zeigt.
  • 3 ist ein Blockschaltbild, das einen Autorendekodierer gemäß der vorliegenden Erfindung zeigt.
  • 4 ist eine Seitenansicht einer optischen Platte, die den Multimedia-Bitstrom der 1 speichert.
  • 5 ist eine vergrößerte Ansicht, die einen durch einen Kreis der 4 umschlossenen Abschnitt zeigt.
  • 6 ist eine vergrößerte Ansicht, die einen durch einen Kreis der 5 umschlossenen Abschnitt zeigt.
  • 7 ist eine Seitenansicht, die eine Variation der optischen Platte der 4 zeigt.
  • 8 ist eine Seitenansicht, die eine weitere Variation der optischen Platte der 4 zeigt.
  • 9 ist eine Draufsicht, die ein Beispiel einer Spurbahn zeigt, die auf der Aufzeichnungsoberfläche der optischen Platte der 4 ausgebildet ist.
  • 10 ist eine Draufsicht, die ein weiteres Beispiel einer Spurbahn zeigt, die auf der Aufzeichnungsoberfläche der optischen Platte der 4 ausgebildet ist.
  • 11 ist eine Schrägansicht, die schematisch ein Beispiel eines Spurbahnmusters zeigt, das auf der optischen Platte der 7 ausgebildet ist.
  • 12 ist eine Draufsicht, die ein weiteres Beispiel einer Spurbahn zeigt, die auf der Aufzeichnungsoberfläche der optischen Platte der 7 aus gebildet ist.
  • 13 ist eine Schrägansicht, die schematisch ein Beispiel eines Spurbahnmusters zeigt, das auf der optischen Platte der 8 ausgebildet ist.
  • 14 ist eine Draufsicht, die ein weiteres Beispiel einer Spurbahn zeigt, die auf der Aufzeichnungsoberfläche der optischen Platte der 8 ausgebildet ist.
  • 15 ist ein Graph zur Unterstützung der Erläuterung eines Konzepts der elterlichen Kontrolle gemäß der vorliegenden Erfindung.
  • 16 ist ein Graph, der schematisch die Struktur eines Multimedia-Bitstroms für die Verwendung im digitalen Videoplattensystem gemäß der vorliegenden Erfindung zeigt.
  • 17 ist ein Graph, der schematisch den kodierten Videostrom gemäß der vorliegenden Erfindung zeigt.
  • 18 ist ein Graph, der schematisch eine interne Struktur einer Videozone der 16 zeigt.
  • 19 ist ein Graph, der schematisch die Strommanagementinformationen gemäß der vorliegenden Erfindung zeigt.
  • 20 ist ein Graph, der schematisch die Struktur des Navigationspakets NV der 17 zeigt.
  • 21 ist ein Graph zur Unterstützung der Erläuterung eines Konzepts der Elternsperre-Wiedergabekontrolle gemäß der vorliegenden Erfindung.
  • 22 ist ein Graph, der schematisch die Datenstruktur zeigt, die in einem digitalen Videoplattensystem gemäß der vorliegenden Erfindung verwendet wird.
  • 23 ist ein Graph zur Unterstützung der Erläuterung eines Konzepts der Mehrfachwinkel-Szenensteuerung gemäß der vorliegenden Erfindung.
  • 24 ist ein Graph zur Unterstützung der Erläuterung eines Konzepts der Mehrfachszenen-Datenverbindung.
  • 25 ist ein Blockschaltbild, das einen DVD-Kodierer gemäß der vorliegenden Erfindung zeigt.
  • 26 ist ein Blockschaltbild, das einen DVD-Dekodierer gemäß der vorliegenden Erfindung zeigt.
  • 27 ist ein Graph, der schematisch eine Kodierungsinformationstabelle zeigt, die von der Kodierungssystemsteuervorrichtung der 25 erzeugt wird.
  • 28 ist ein Graph, der schematisch Kodierungsinformationenstabellen zeigt.
  • 29 ist ein Graph, der schematisch Kodierungsparameter zeigt, die von dem Videokodierer der 25 verwendet werden.
  • 30 ist ein Graph, der schematisch ein Beispiel der Inhalte der Programmketteninformationen gemäß der vorliegenden Erfindung zeigt.
  • 31 ist ein Graph, der schematisch ein weiteres Beispiel der Inhalte der Programmketteninformationen gemäß der vorliegenden Erfindung zeigt.
  • 32A, 32B, 32C, 32D sind Graphen zur Unterstützung der Erläuterung der Änderungen des akkumulierten Videodatenvolumens Vdv im Videopuffer bei verschiedenen Ereignissen.
  • 33 ist ein Graph zur Unterstützung der Erläuterung eines Konzepts der Mehrfachwinkelszenensteuerung gemäß der vorliegenden Erfindung.
  • 34 ist ein Flussdiagramm, gebildet aus den 34A und 34B, das eine Operation des DVD-Kodierers der 25 zeigt.
  • 35 ist ein Flussdiagramm, das Einzelheiten der Kodierungsparameterproduktions-Unterroutine der 34 zeigt.
  • 36 ist ein Flussdiagramm, das Einzelheiten der VOB-Dateneinstellroutine der 35 zeigt.
  • 37 ist ein Flussdiagramm, das die Kodierungsparameter-Erzeugungsoperation für ein nahtloses Umschalten zeigt.
  • 38 ist ein Flussdiagramm, das die Kodierungsparameter-Erzeugungsoperation für einen Systemstrom zeigt.
  • 39 ist ein Graph zur Unterstützung der Erläuterung einer Änderung des akkumulierten Videodatenvolumens Vdv im Videopuffer 2600 während einer intermittierenden Datenübertragung, wenn ein kodierter Videostrom SS1 und ein kodierter Videostrom SS2 verbunden werden.
  • 40 ist ein Graph zur Unterstützung der Erläuterung der Datenübertragung des kodierten Videostroms zum Videopuffer beginnend mit dem Zeitpunkt Ti.
  • 41 ist ein Graph zur Unterstützung der Erläuterung der Änderung des akkumulierten Videodatenvolumens des Videopuffers, wenn der kodierte Videostrom zum Videopuffer übertragen wird und im DVD-Dekodierer dekodiert wird.
  • 42 ist ein Graph zur Unterstützung der Erläuterung der Änderung des akkumulierten Videodatenvolumens des Videopuffers, wenn zwei kodierte Videoströme verbunden werden.
  • 43 ist ein Graph zur Unterstützung der Erläuterung des Verfahrens zur Auswahl und Wiedergabe einer Szene aus mehreren Szenen in einer Mehrfachszenenperiode.
  • 44 ist ein Graph zur Unterstützung der Erläuterung einer zeitlichen Beziehung zwischen den Audio- und Video-Komponentenströmen.
  • 45 ist ein Graph zur Unterstützung der Erläuterung eines Verfahrens des Bewegens eines Teils des Videostroms oder des Audiostroms unter Verwendung des Systemstromkodierungsverfahrens.
  • 46 ist ein Graph zur Unterstützung der Erläuterung der Änderung des akkumulierten Videodatenvolumens im Videopuffer während einer intermittierenden Datenübertragung.
  • 47, 48 sind Graphen, die eine Dekodierungsinformationstabelle zeigen, die von der Dekodierungssystemsteuervorrichtung der 26 erzeugt wird.
  • 49 ist ein Flussdiagramm, das die Operation des DVD-Dekodierers DCD der 26 zeigt.
  • 50 ist ein Flussdiagramm, das Einzelheiten der Wiedergabe der extrahierten PGC-Route der 49 zeigt.
  • 51 ist ein Flussdiagramm, das Einzelheiten des Dekodierungsdatenprozesses der 50 zeigt, der vom Strompuffer durchgeführt wird.
  • 52 ist ein Flussdiagramm, das Einzelheiten des Dekodierersynchronisationsprozesses der 51 zeigt.
  • 53 ist ein Blockschaltbild, das einen Videokodierer des DVD-Kodierers ECD der 25 zeigt.
  • 54 ist ein Flussdiagramm, das eine Operation des Dekodierungspufferbelegungsrechners der 53 zeigt.
  • 55 ist ein Blockschaltbild, das eine Konstruktion des Dekodierungspufferbelegungsrechners der 53 zeigt.
  • 56 ist ein Flussdiagramm, das eine Operation des Dekodierungspufferbelegungsrechners der 53 zeigt.
  • 57 ist ein Blockschaltbild, das eine Modifikation des Dekodierungspufferbelegungsrechners der 55 zeigt.
  • 58 ist ein Flussdiagramm, das eine modifizierte Operation des Dekodierungspufferbelegungsrechners der 56 zeigt.
  • 59 ist ein Blockschaltbild des Dekodierungspufferbelegungsrechners, der das in 58 gezeigte Flussdiagramm ausführt.
  • 60 ist ein Graph zur Unterstützung der Erläuterung eines Bitstromwiedergabeverfahrens zum Verbinden und Wiedergeben der kodierten Videoströme.
  • 61 ist ein Graph zur Unterstützung der Erläuterung eines Bitstromproduktionsverfahrens.
  • 62 ist eine Draufsicht einer digitalen Videoplatte, die eine Struktur der darauf aufgezeichneten Daten zeigt.
  • 63A, 63B sind Graphen, die die zeitliche Änderung des akkumulierten Videodatenvolumens im Videopuffer während der Dekodierung des dekodierten Videostroms zeigen.
  • 64 ist ein Flussdiagramm, das die Kodierungsparametererzeugungsoperation für einen Systemstrom zeigt, der eine einzelne Szene enthält.
  • 65 ist ein Graph, der schematisch eine aktuelle Anordnung von Datenblöcken zeigt, die auf einer Datenaufzeichnungsspur auf einem Aufzeichnungsmedium gemäß der vorliegenden Erfindung aufgezeichnet sind.
  • 66 ist ein Graph, der schematisch eine Anordnung zusammenhängender Blockbereiche und verschachtelter Blockbereiche zeigt.
  • 67 ist ein Graph, der schematisch einen Inhalt eines VTS-Titels VOBS (VTSTT_VOBS) gemäß der vorliegenden Erfindung zeigt.
  • 68 ist ein Graph, der schematisch eine interne Datenstruktur der verschachtelten Blockbereiche gemäß der vorliegenden Erfindung zeigt.
  • Beste Ausführungsform der Erfindung
  • Die vorliegende Erfindung wird im folgenden mit Bezug auf die beigefügten Zeichnungen genauer beschrieben.
  • Datenstruktur des Autorensystems
  • Die logische Struktur des Multimediadaten-Bitstroms, der unter Verwendung der Aufzeichnungsvorrichtung, des Aufzeichnungsmediums, der Wiedergabevorrichtung und des Autorensystems gemäß der vorliegenden Erfindung verarbeitet wird, wird im folgenden zuerst mit Bezug auf 1 beschrieben.
  • In dieser Struktur bezieht sich ein Titel auf die Kombination von Video- und Audiodaten, die einen Programminhalt ausdrücken, der von einem Benutzer zur Bildung, Unterhaltung oder zu einem anderen Zweck betrachtet wird. In Bezug auf einen Film (Spielfilm) kann ein Titel dem Inhalt eines gesamten Spielfilms entsprechen, oder lediglich einer Szene innerhalb des Spielfilms.
  • Ein Videotitelsatz (VTS) umfasst die Bitstromdaten, die die Informationen für eine spezifische Anzahl von Titeln enthalten. Genauer umfasst jeder VTS die Video-, Audio- und anderen Wiedergabedaten, die den Inhalt jedes Titels im Satz repräsentieren, sowie die Kontrolldaten zum Kontrollieren der Inhaltsdaten.
  • Die Videozone VZ ist die Videodateneinheit, die vom Autorensystem verarbeitet wird, und umfasst eine spezifische Anzahl von Videotitelsätzen. Genauer ist jede Videozone eine lineare Folge von K + 1 Videotitelsätzen, die mit VTS#0–VTS#K nummeriert sind, wobei K ein ganzzahliger Wert von 0 oder größer ist. Ein Videotitelsatz, vorzugsweise der erste Videotitelsatz VTS #0 wird als Videomanager verwendet, der die Inhaltsinformationen der in jedem Videotitelsatz enthaltenen Titel beschreibt.
  • Der Multimedia-Bitstrom MBS ist die größte Kontrolleinheit des Multimediadaten-Bitstroms, der vom Autorensystem der vorliegenden Erfindung gehandhabt wird, und umfasst mehrere Videozonen VZ.
  • Autorenkodierer EC
  • Eine bevorzugte Ausführungsform des Autorenkodierers EC gemäß der vorliegenden Erfindung zum Erzeugen eines neuen Multimedia-Bitstroms MBS durch Umkodierung des ursprünglichen Multimedia-Bitstroms MBS gemäß dem vom Benutzer gewünschten Szenario ist in 2 gezeigt. Es ist zu beachten, dass der ursprüngliche Multimedia-Bitstrom MBS einen Videostrom St1, der Videoinformationen enthält, einen Subbildstrom St3, der Untertitel und andere Hilfsvideoinformationen enthält, und den Audiostrom St5, der die Audioinformationen enthält, umfasst.
  • Die Video- und Audioströme sind die Bitströme, die die Video- und Audioinformationen enthalten, die von der Quelle innerhalb einer bestimmten Zeitperiode erhalten werden. Der Subbildstrom ist ein Bitstrom, der momentane Videoinformationen enthält, die für eine bestimmte Szene relevant sind. Die für eine einzelne Szene kodierten Subbilddaten können im Videospeicher aufgefangen werden und aus dem Videospeicher für mehrere Szenen bei Bedarf kontinuierlich angezeigt werden.
  • Wenn diese Multimediaquellendaten St1, St3 und St5 von einer Live-Übertragung erhalten werden, werden die Video- und Audiosignale in Echtzeit von einer Videokamera oder einer anderen Bildgebungsquelle geliefert; wenn die Multimediaquellendaten von einem Videoband oder einem anderen Aufzeichnungsmedium wiedergegeben werden, sind die Audio- und Videosignale keine Echtzeitsignale.
  • Während der Multimediaquellenstrom in 2 als diese drei Quellensignale um fassend gezeigt ist, dient dies lediglich der Bequemlichkeit, wobei zu beachten ist, dass der Multimediaquellenstrom mehr als drei Typen von Quellensignalen enthalten kann und Quellendaten für verschiedene Titel enthalten kann. Multimediaquellendaten mit Audio-, Video- und Subbilddaten für mehrere Titel werden im folgenden als Mehrfachtitelströme bezeichnet.
  • Wie in 2 gezeigt ist, umfasst der Autorenkodierer EC einen Szenarioeditor 100, eine Kodierungssystemsteuervorrichtung 200, einen Videokodierer 300, einen Videostrompuffer 400, einen Subbildkodierer 500, einen Subbildstrompuffer 600, einen Audiokodierer 700, einen Audiostrompuffer 800, einen Systemkodierer 900, einen Videozonenformatierer 1300, eine Aufzeichnungsvorrichtung 1200 und ein Aufzeichnungsmedium M.
  • Der Videozonenformatierer 1300 umfasst einen Videoobjektpuffer (VOB) 1000, einen Formatierer 1100 und einen Laufwerk- und Dateistrukturformatierer 1400.
  • Der durch den Autorenkodierer EC der vorliegenden Ausführungsform kodierte Bitstrom wird lediglich beispielhaft auf einer optischen Platte aufgezeichnet.
  • Der Szenarioeditor 100 des Autorenkodierers EC gibt Szenariodaten aus, z. B. die benutzerdefinierten Editierbefehle. Die Szenariodaten steuern das Editieren der entsprechenden Teile des Multimedia-Bitstroms MBS gemäß der Manipulation des Videos, des Subbildes und der Audiokomponenten des ursprünglichen Multimediatitels durch den Benutzer. Dieser Szenarioeditor 100 umfasst vorzugsweise eine Anzeigevorrichtung, Lautsprecher, eine Tastatur, eine CPU und einen Quellenstrompuffer. Der Szenarioeditor 100 ist mit einer externen Multimedia-Bitstromquelle verbunden, von der die Multimediaquellendaten St1, St3 und St5 geliefert werden.
  • Der Benutzer ist somit fähig, die Video- und Audiokomponenten der Multimediaquellendaten unter Verwendung der Anzeigevorrichtung und des Lautsprechers wiederzugeben, um den Inhalt des erzeugten Titels zu bestätigen. Der Benutzer ist dann fähig, den Titelinhalt gemäß dem gewünschten Szenario unter Verwendung der Tastatur, einer Maus und anderer Befehleingabevorrichtungen zu editieren, während er den Inhalt des Titels auf der Anzeigevorrichtung und den Lautsprechern bestätigt. Das Ergebnis dieser Multimedia-Datenmanipulation sind die Szenariodaten St7.
  • Die Szenariodaten St7 sind im Grunde ein Satz von Befehlen, die beschreiben, welche Quellendaten aus allen Quellendaten oder einem Teil derselben ausgewählt werden, welche mehrere Titel innerhalb einer definierten Zeitperiode enthalten, und wie die ausgewählten Quellendaten neu zusammengefügt werden, um das Szenario (Sequenz) wiederzugeben, das vom Benutzer beabsichtigt ist. Auf der Grundlage der über die Tastatur und die anderen Steuervorrichtungen empfangenen Befehle kodiert die CPU die Position, die Länge und die relativen zeitlichen Positionen der editierten Teile der jeweiligen Multimediaquellendatenströme St1, St3 und St5, um die Szenariodaten St7 zu erzeugen.
  • Der Quellenstrompuffer besitzt eine spezifische Kapazität und wird verwendet, um die Multimediaquellendatenströme St1, St3 und St5 um eine bekannte Zeitspanne Td zu verzögern und anschließend die Ströme St1, St3 und St5 auszugeben.
  • Diese Verzögerung wird für die Synchronisation mit dem Editorkodierungsprozess benötigt. Genauer, wenn die Datenkodierung und die Erzeugung von Szenariodaten St7 durch den Benutzer gleichzeitig ausgeführt werden, d. h. wenn die Kodierung unmittelbar nach dem Editieren folgt, ist die Zeitspanne Td erforderlich, um den Inhalt des Multimediaquellendaten-Editierprozesses auf der Grundlage der Szenariodaten St7 zu ermitteln, wie weiter unten beschrieben wird. Als Ergebnis müssen die Multimediaquellendaten um die Zeitspanne Td verzögert werden, um den Editierprozess während der wirklichen Kodierungsoperation zu synchronisieren. Da diese Verzögerungszeit Td auf die Zeitspanne begrenzt ist, die erforderlich ist, um die Operation der verschiedenen Systemkomponenten im Fall des sequentiellen Editierens zu synchronisieren, wie oben beschrieben worden ist, wird der Quellenstrompuffer normalerweise mittels eines Hochgeschwindigkeitsspeichermediums wie z. B. eines Halbleiterspeichers verwirklicht.
  • Während des stapelweisen Editierens, bei dem alle Multimediaquellendaten auf einmal kodiert werden ("stapelweise kodiert"), nachdem die Szenariodaten St7 für den kompletten Titel erzeugt worden sind, muss die Verzögerungszeit Td lang genug sein, um den vollständigen Titel zu verarbeiten, oder länger. In diesem Fall kann der Quellenstrompuffer ein langsames Speichermedium mit hoher Kapazität sein, wie z. B. ein Videoband, eine Magnetplatte oder eine optische Platte.
  • Die Struktur (der Typ) des Mediums, das für den Quellenstrompuffer verwendet wird, kann daher entsprechend der Verzögerungszeit Td ermittelt werden, die benötigt wird, und entsprechend den zulässigen Herstellungskosten.
  • Die Kodierungssystemsteuervorrichtung 200 ist mit dem Szenarioeditor 100 verbunden und empfängt hiervon die Szenariodaten St7. Auf der Grundlage der zeitlichen Position und der Längeninformation des in den Szenariodaten St7 enthaltenen Editiersegments erzeugt die Kodierungssystemsteuervorrichtung 200 die Kodierungsparametersignale St9, St11 und St13 zum Kodieren des Editiersegments der Multimediaquellendaten. Die Kodierungssignale St9, St11 und St13 liefern die Parameter, die für die Video-, Subbild- und Audiokodierung verwendet werden, einschließlich des Kodierungsanfangs- und -endzeitpunkts. Es ist zu beachten, dass die Multimediaquellendaten St1, St3 und St5 nach einer Zeitverzögerung Td vom Quellenstrompuffer ausgegeben werden und daher mit den Kodierungsparametersignalen St9, St11 und St13 synchronisiert sind.
  • Außerdem ist das Kodierungsparametersignal St9 das Videokodierungssignal, das den Kodierungszeitpunkt des Videostroms St1 spezifiziert, um das Kodierungssegment aus dem Videostrom St1 zur extrahieren und die Videokodierungseinheit zu erzeugen. Das Kodierungsparametersignal St11 ist in ähnlicher Weise das Subbildstromkodierungssignal, das verwendet wird, um die Subbildkodierungseinheit zu erzeugen, indem der Kodierungszeitpunkt für den Subbildstrom St3 spezifiziert wird. Das Kodierungsparametersignal St13 ist das Audiokodierungssignal, das verwendet wird, um die Audiokodierungseinheit zu erzeugen, indem der Kodierungszeitpunkt für den Audiostrom St5 spezifiziert wird.
  • Auf der Grundlage der zeitlichen Beziehung zwischen den Kodierungssegmenten der Ströme St1, St3 und St5 in den Multimediaquellendaten, die in den Szenariodaten St7 enthalten sind, erzeugt die Kodierungssystemsteuervorrichtung 200 die Zeitsteuersignale St21, St23 und St25, die den kodierten Multimediakodierungsstrom in der spezifizierten zeitlichen Beziehung anordnen.
  • Die Kodierungssystemsteuervorrichtung 200 erzeugt ferner die Wiedergabezeitinformation IT, die die Wiedergabezeit der Titeleditiereinheit (Videoobjekt VOB) definieren, und die Stromkodierungsdaten St33, die die Systemkodierungsparameter zum Multiplexen des kodierten Multimediastrom, der Video-, Audio- und Subbilddaten enthält, definieren. Es ist zu beachten, dass die Wiedergabezeitinformation IT und die Stromkodierungsdaten St33 für das Videoobjekt VOB jedes Titels in einer Videozone VZ erzeugt werden.
  • Die Kodierungssystemsteuervorrichtung 200 erzeugt ferner das Titelsequenzsteuersignal St39, das die Formatierungsparameter zum Formatieren der Titeleditiereinheiten VOB von jedem der Ströme in einer bestimmten zeitlichen Beziehung als Multimediabitstrom angibt. Genauer wird das Titelsequenzsteuersignal St39 verwendet, um die Verbindungen zwischen den Titeleditiereinheiten (VOB) von jedem Titel im Multimediabitstrom MBS zu steuern, oder um die Sequenz der verschachtelten Titeleditiereinheiten (VOBs) zu steuern, die die Titeleditiereinheiten VOB von mehreren Wiedergabepfaden verschachteln.
  • Der Videokodierer 300 ist mit dem Quellenstrompuffer des Szenarioeditors 100 und mit der Kodierungssystemsteuervorrichtung 200 verbunden und empfängt hiervon den Videostrom St1 bzw. das Videokodierungsparametersignal St9. Die Kodierungsparameter, die vom Videokodierungssignal St9 geliefert werden, umfassen den Kodierungsanfangs- und -Endzeitpunkt, die Bitrate, die Kodierungsbedingungen für den Kodierungsanfang und das Kodierungsende, sowie den Materialtyp. Mögliche Materialtypen umfassen NTSC- oder PAL-Videosignale und Fernsehfilmkonversionsmaterial. Auf der Grundlage des Videokodierungsparametersignals St9 kodiert der Videokodierer 300 einen spezifischen Teil des Videostroms St1, um den kodierten Videostrom St15 zu erzeugen.
  • Der Subbildkodierer 500 ist in ähnlicher Weise mit dem Quellenstrompuffer des Szenarioeditors 100 und mit der Kodierungssystemsteuervorrichtung 200 verbunden und empfängt hiervon den Subbildstrom St3 bzw. das Subbildkodierungsparametersignal St11. Auf der Grundlage des Subbildkodierungsparametersignals St11 kodiert der Subbildkodierer 500 einen spezifischen Teil des Subbildstroms St3, um den kodierten Subbildstrom St17 zu erzeugen.
  • Der Audiokodierer 700 ist ebenfalls mit dem Quellenstrompuffer des Szenarioedi tors 100 und mit der Kodierungssystemsteuervorrichtung 200 verbunden und empfängt hiervon den Audiostrom St5 und das Audiokodierungsparametersignal St13, das den Kodierungsanfangs- und -endzeitpunkt liefert. Auf der Grundlage des Audiokodierungsparametersignals St13 kodiert der Audiokodierer 700 einen spezifischen Teil des Audiostroms St5, um den kodierten Audiostrom St19 zu erzeugen.
  • Der Videostrompuffer 400 ist mit dem Videokodierer 300 und mit der Kodierungssystemsteuervorrichtung 200 verbunden. Der Videostrompuffer 400 speichert den kodierten Videostrom St15, der vom Videokodierer 300 ausgegeben wird, und gibt den gespeicherten kodierten Videostrom St15 als zeitverzögerten kodierten Videostrom St27 auf der Grundlage des Zeitsteuersignals St21 aus, das von der Kodierungssystemsteuervorrichtung 200 geliefert wird.
  • Der Subbildstrompuffer 600 ist in ähnlicher Weise mit dem Subbildkodierer 500 und mit der Kodierungssystemsteuervorrichtung 200 verbunden. Der Subbildstrompuffer 600 speichert den kodierten Subbildstrom St17, der vom Subbildkodierer 500 ausgegeben wird, und gibt anschließend den gespeicherten kodierten Subbildstrom St17 als zeitverzögerten kodierten, Subbildstrom St29 auf der Grundlage des Zeitsteuersignals St23 aus, das von der Kodierungssystemsteuervorrichtung 200 geliefert wird.
  • Der Audiostrompuffer 800 ist in ähnlicher Weise mit dem Audiokodierer 700 und mit der Kodierungssystemsteuervorrichtung 200 verbunden. Der Audiostrompuffer 800 speichert den kodierten Audiostrom St19, der vom Audiokodierer 700 eingegeben wird, und gibt anschließend den kodierten Audiostrom St19 als zeitverzögerten kodierten Audiostrom St31 auf der Grundlage des Zeitsteuersignals St25 aus, das von der Kodierungssystemsteuervorrichtung 200 geliefert wird.
  • Der Systemkodierer 900 ist mit dem Videostrompuffer 400, dem Subbildstrompuffer 600, dem Audiostrompuffer 800 und der Kodierungssystemsteuervorrichtung 201) verbunden und wird hierdurch jeweils mit dem zeitverzögerten kodierten Videostrom St27, dem zeitverzögerten kodierten Subbildstrom St29, dem zeitverzögerten kodierten Audiostrom St31 und den Stromkodierungsdaten St33 beliefert. Es ist zu beachten, dass der Systemkodierer 900 ein Multiplexer ist, der die zeitverzögerten Ströme St27, St29 und St31 auf der Grundlage der Stromkodie rungsdaten St33 (Zeitsteuersignal) multiplext, um die Titeleditiereinheit (VOB) St35 zu erzeugen. Die Stromkodierungsdaten St33 enthalten die Systemkodierungsparameter, einschließlich des Kodierungsanfangs- und -endzeitpunkts.
  • Der Videozonenformatierer 1300 ist mit dem Systemkodierer 900 und der Kodierungssystemsteuervorrichtung 200 verbunden, von denen jeweils die Titeleditiereinheit (VOB) St35 und das Titelsequenzsteuersignal St39 (Zeitsteuersignal) geliefert werden. Das Titelsequenzsteuersignal St39 enthält den Formatierungsanfangs- und -endzeitpunkt und die Formatierungsparameter, die verwendet werden, um einen Multimediabitstrom MBS zu erzeugen (zu formatieren). Der Videozonenformatierer 1300 ordnet die Titeleditiereinheiten (VOB) St35 in einer Videozonen VZ in der Szenariosequenz, die vom Benutzer auf der Grundlage des Titelsequenzsteuersignals St39 definiert wird, um, um die editierten Multimediastromdaten St43 zu erzeugen.
  • Der Multimediabitstrom MBS St43, der entsprechend dem vom Benutzer definierten Szenario editiert worden ist, wird anschließend zur Aufzeichnungsvorrichtung 1200 gesendet. Die Aufzeichnungsvorrichtung 1200 verarbeitet die editierten Multimediastromdaten St43 in das Datenstromformat St45 des Aufzeichnungsmediums M und zeichnet somit den formatierten Datenstrom St45 auf dem Aufzeichnungsmedium M auf. Es ist zu beachten, dass der Multimediabitstrom MBS, der auf dem Aufzeichnungsmedium M aufgezeichnet wird, die Datenträgerdateistruktur VFS enthält, die die physikalische Adresse der Daten auf dem Aufzeichnungsmedium, die vom Videozonenformatierer 1300 erzeugt werden, enthält.
  • Es ist zu beachten, dass der kodierte Multimediabitstrom MBS St35 direkt an den Dekodierer ausgegeben werden kann, um unmittelbar den editierten Titelinhalt wiederzugeben. Es ist klar, dass der ausgegebene Multimediabitstrom MBS in diesem Fall nicht die Datenträgerdateistruktur VFS enthält.
  • Autorendekodierer DC
  • Eine bevorzugte Ausführungsform des Autorendekodierers DC, der verwendet wird, um den vom Autorenkodierer EC der vorliegenden Erfindung editierten Multimediabitstrom MBS zu dekodieren, und somit den Inhalt jeder Titeleinheit entsprechend dem vom Benutzer definierten Szenario wiederzugeben, wird als nächstes im folgenden mit Bezug auf 3 beschrieben. Es ist zu beachten, dass in der im folgenden beschriebenen bevorzugten Ausführungsform der vom Autorenkodierer EC kodierte Multimediabitstrom St45 auf dem Aufzeichnungsmedium M aufgezeichnet ist.
  • Wie in 3 gezeigt ist, umfasst der Autorendekodierer DC einen Multimediabitstromerzeuger 2000, eine Szenarioauswahlvorrichtung 2100, eine Dekodierungssystemsteuervorrichtung 2300, einen Strompuffer 2400, einen Systemdekodierer 2500, einen Videopuffer 2600, einen Subbildpuffer 2700, einen Audiopuffer 2800, einen Synchronisierer 2900, einen Videodekodierer 3800, einen Subbilddekodierer 3100, einen Audiodekodierer 3200, einen Synthetisierer 3500, einen Videodatenausgangsanschluss 3600 und einen Audiodatenausgangsanschluss 3700.
  • Der Bitstromerzeuger 2000 umfasst eine Aufzeichnungsmediumantriebseinheit 2004 zum Betreiben des Aufzeichnungsmediums M; einen Lesekopf 2006 zum Lesen der auf dem Aufzeichnungsmedium M aufgezeichneten Informationen und zum Erzeugen des binären Lesesignals St57; einen Signalprozessor 2008 zum verschiedenartigen Verarbeiten des Lesesignals St57, um den wiedergegebenen Bitstrom St61 zu erzeugen; und eine Wiedergabesteuervorrichtung 2002.
  • Die Wiedergabesteuervorrichtung 2002 ist mit der Dekodierungssystemsteuervorrichtung 2300 verbunden, von der das Multimediabitstrom-Wiedergabesteuersignal St53 geliefert wird, und erzeugt ihrerseits die Wiedergabesteuersignale St55 bzw. St59, die die Aufzeichnungsmediumantriebseinheit (Motor) 2004 und den Signalprozessor 2008 steuern.
  • Um die vom Benutzer definierten Video-, Subbild- und Audioabschnitte des vom Autorenkodierer EC editierten Multimediatitels wiederzugeben, umfasst der Autorendekodierer DC eine Szenarioauswahlvorrichtung 2100 zum Auswählen und Wiedergeben der entsprechenden Szenen (Titel). Die Szenarioauswahlvorrichtung 2100 gibt anschließend die ausgewählten Titel als Szenariodaten an den Autorendekodierer DC aus.
  • Die Szenarioauswahlvorrichtung 2100 umfasst vorzugsweise eine Tastatur, eine CPU und einen Monitor. Unter Verwendung der Tastatur gibt dann der Benutzer das gewünschte Szenario auf der Grundlage des Inhalts des vom Autorenkodierer EC eingegebenen Szenarios ein. Auf der Grundlage der Tastatureingabe erzeugt die CPU die Szenarioauswahldaten St51, die das ausgewählte Szenario spezifizieren. Die Szenarioauswahlvorrichtung 2100 ist z. B. mittels einer Infrarotkommunikationsvorrichtung mit der Dekodierungssystemsteuervorrichtung 2300 verbunden, in die sie die Szenarioauswahldaten St51 eingibt.
  • Auf der Grundlage der Szenarioauswahldaten St51 erzeugt die Dekodierungssystemsteuervorrichtung 2300 anschließend das Bitstromwiedergabesteuersignal St53, das die Operation des Bitstromerzeugers 2000 steuert.
  • Der Strompuffer 2400 besitzt eine spezifische Pufferkapazität, die verwendet wird, um den wiedergegebenen Bitstrom St61, der vom Bitstromerzeuger 2000 eingegeben wird, vorübergehend zu speichern, extrahiert die Adressinformationen und die anfänglichen Synchronisationsdaten SCR (Systemtaktreferenz) für den jeden Bitstrom, und erzeugt Bitstromsteuerdaten St63. Der Strompuffer 2400 ist ebenfalls mit der Dekodierungssystemsteuervorrichtung 2300 verbunden, an die sie die erzeugten Bitstromsteuerdaten St63 liefert.
  • Der Synchronisierer 2900 ist mit der Dekodierungssystemsteuervorrichtung 2300 verbunden, von der er die Systemtaktreferenz SCR empfängt, die in den Synchronisationssteuerdaten St81 enthalten ist, um den internen Systemtakt STC einzustellen und den Rücksetzsystemtakt St79 an die Dekodierungssystemsteuervorrichtung 2300 zu liefern.
  • Auf der Grundlage dieses Systemtakts St79 erzeugt die Dekodierungssystemsteuervorrichtung 2300 ferner das Stromlesesignal St65 in einem spezifischen Intervall und gibt das Lesesignal St65 an den Strompuffer 2400 aus.
  • Auf der Grundlage des gelieferten Lesesignals St65 gibt der Strompuffer 2400 dem wiedergegebenen Bitstrom St61 in einem spezifischen Intervall an den Systemdekodierer 2500 als Bitstrom St67 aus.
  • Auf der Grundlage der Szenarioauswahldaten St51 erzeugt die Dekodierungssystemsteuervorrichtung 2300 das Dekodierungssignal St69, das den Strom-IDs für die Video-, Subbild- und Audiobitströme definiert, die dem ausgewählten Sze nario entsprechen, und gibt dieses an den Systemdekodierer 2500 aus.
  • Auf der Grundlage der im Dekodierungssignal St69 enthaltenen Befehle gibt der Systemdekodierer 2500 jeweils die vom Strompuffer 2400 eingegebenen Video-, Subbild- und Audiobitströme an den Videopuffer 2600, den Subbildpuffer 2700 und den Audiopuffer 2800 als kodierten Videostrom St71, kodierten Subbildstrom St73 und kodierten Audiostrom St75 aus.
  • Der Systemdekodierer 2500 erfasst den Präsentationszeitstempel PTS und den Dekodierungszeitstempel DTS der kleinsten Steuereinheit in jedem Bitstrom St67, um das Zeitinformationssignal St77 zu erzeugen. Dieses Zeitinformationssignal St77 wird dem Synchronisierer 2900 über die Dekodierungssystemsteuervorrichtung 2300 als Synchronisierungssteuerdaten St81 zugeführt.
  • Auf der Grundlage dieser Synchronisierungssteuerdaten St81 ermittelt der Synchronisierer 2900 den Dekodierungsanfangszeitpunkt, wodurch jeder der Bitströme in der korrekten Sequenz nach der Dekodierung angeordnet wird, und erzeugt anschließend das Videostromdekodierungsstartsignal St89 und gibt dies auf der Grundlage dieses Dekodierungszeitablaufs in den Videodekodierer 3800 ein. Der Synchronisierer 2900 erzeugt ferner das Subbilddekodierungsstartsignal St91 und das Audiostromdekodierungsstartsignal St93 und liefert diese jeweils an den Subbilddekodierer 3100 und den Audiodekodierer 3200.
  • Der Videodekodierer 3800 erzeugt das Videoausgabeanforderungssignal St84 auf der Grundlage des Videostromdekodierungsstartsignals St89 und gibt es an den Videopuffer 2600 aus. In Reaktion auf das Videoausgabeanforderungssignal St84 gibt der Videopuffer 2600 den Videostrom St83 an den Videodekodierer 3800 aus. Der Videodekodierer 3800 erfasst somit die Präsentationszeitinformation, die im Videostrom St83 enthalten ist, und sperrt das Videoausgabeanforderungssignal St84, wenn die Länge des empfangenen Videostroms St83 äquivalent zur spezifizierten Präsentationszeit ist. Ein Videostrom mit einer Länge gleich der spezifizierten Präsentationszeit wird somit vom Videodekodierer 3800 dekodiert, welcher das wiedergegebene Videosignal St104 an den Synchronisierer 3500 ausgibt.
  • Der Subbilddekodierer 3100 erzeugt in ähnlicher Weise das Subbildausgabean forderungssignal St86 auf der Grundlage des Subbilddekodierungsstartsignals St91 und gibt es an den Subbildpuffer 2700 aus. In Reaktion auf das Subbildausgabeanforderungssignal St86 gibt der Subbildpuffer 2700 den Subbildstrom St85 an den Subbilddekodierer 3100 aus. Auf der Grundlage der Präsentationszeitinformation, die im Subbildstrom St85 enthalten ist, dekodiert der Subbilddekodierer 3100 eine Länge des Subbildstroms St85, die der spezifizierten Präsentationszeit entspricht, um das Subbildsignal St99 wiederzugeben und an den Synthetisieren 3500 zu liefern.
  • Der Synthetisierer 3500 überlagert das Videosignal St104 und das Subbildsignal St99, um das Mehrfachbildvideosignal St105 zu erzeugen und an den Videodatenausgangsanschluss 3600 auszugeben.
  • Der Audiodekodierer 3200 erzeugt das Audioausgabeanforderungssignal St88 auf der Grundlage des Audiostromdekodierungsstartsignals St93 und gibt es an den Audiopuffer 2800 aus. Der Audiopuffer 2800 gibt somit den Audiostrom St87 an den Audiodekodierer 3200 aus. Der Audiodekodierer 3200 dekodiert eine Länge des Audiostroms St87, die der spezifizierten Präsentationszeit entspricht, auf der Grundlage der Präsentationszeitinformation, die im Audiostrom St87 enthalten ist, und gibt den dekodierten Audiostrom St101 an den Audiodatenausgangsanschluss 3700 aus.
  • Es somit möglich, einen benutzerdefinierten Multimediabitstrom MBS in Echtzeit entsprechend einem benutzerdefinierten Szenario wiederzugeben. Genauer ist jedes Mal dann, wenn der Benutzer ein anderes Szenario auswählt, der Autorendekodierer DC fähig, den vom Benutzer gewünschten Titelinhalt in der gewünschten Sequenz wiederzugeben, indem der Multimediabitstrom MBS entsprechend dem ausgewählten Szenario wiedergegeben wird.
  • Es ist somit möglich, mittels des Autorensystems der vorliegenden Erfindung einen Multimediabitstrom entsprechend mehreren benutzerdefinierten Szenarios mittels Echtzeit- oder Stapelkodierung von Multimediaquellendaten in einer Weise zu erzeugen, in der die Teilströme der kleinsten Editiereinheiten (Szenen), die in mehrere Teilströme unterteilt sein können, die den Basistitelinhalt ausdrücken, in einer spezifischen zeitlichen Beziehung angeordnet werden.
  • Der so kodierte Multimediabitstrom kann anschließend gemäß dem einen unter mehreren möglichen Szenarios ausgewählten Szenario wiedergegeben werden. Es ist ferner möglich, Szenarios zu ändern, während die Wiedergabe fortschreitet, d. h. ein anderes Szenario auszuwählen und dynamisch einen neuen Multimediabitstrom gemäß dem zuletzt ausgewählten Szenario zu erzeugen. Es ist ferner möglich, irgendwelche mehreren Szenen dynamisch auszuwählen und wiederzugeben, während der Titelinhalt gemäß einem gewünschten Szenario wiedergegeben wird.
  • Es ist somit möglich, mittels des Autorensystems der vorliegenden Erfindung einen Multimediabitstrom MBS in Echtzeit zu kodieren und nicht nur wiederzugeben, sondern wiederholt wiederzugeben.
  • Eine Einzelheit des Autorensystems ist in der japanischen Patentanmeldung offenbart, die am 27. September 1996 eingereicht wurde und den gleichen Titel aufweist und an den gleichen Abtretungsempfänger abgetreten ist wie die vorliegende Anmeldung.
  • DVD
  • Ein Beispiel einer digitalen Videoplatte (DVD = digital video disk) mit nur einer Aufzeichnungsoberfläche (eine einseitige DVD) ist in 4 gezeigt.
  • Das DVD-Aufzeichnungsmedium RC1 in der bevorzugten Ausführungsform der Erfindung umfasst eine Datenaufzeichnungsoberfläche RS1, auf die Daten geschrieben und von der Daten gelesen werden können, indem darauf ein Laserstrahl LS gerichtet wird, wobei eine Schutzschicht PL1 die Datenaufzeichnungsoberfläche R1 abdeckt. Auf der Rückseite der Datenaufzeichnungsoberfläche RS1 ist ferner eine Rückseitenschicht BL1 vorgesehen. Die Seite der Scheibe, auf der die Schutzschicht PL1 vorgesehen ist, wird daher im folgenden als Seite SA (gewöhnlich "Seite A") bezeichnet, wobei die gegenüberliegende Seite (auf der die Rückseitenschicht BL1 vorgesehen ist) als Seite SB ("Seite B") bezeichnet wird. Es ist zu beachten, dass digitale Videoplattenaufzeichnungsmedien mit einer einzelnen Datenaufzeichnungsoberfläche RS1 auf nur einer Seite, wie z. B. dieses DVD-Aufzeichnungsmedium RC1, gewöhnlich als einseitige Einzelschichtplatte bezeichnet werden.
  • Eine genauere Darstellung des Bereiches C1 in 4 ist in 5 gezeigt. Es ist zu beachten, dass die Datenaufzeichnungsoberfläche RS1 gebildet wird, indem eine metallische Dünnschicht oder eine andere reflektierende Beschichtung als eine Datenschicht 4109 auf eine erste transparente Schicht 4108 mit einer bestimmten Dicke T1 aufgebracht wird. Diese erste transparente Schicht 4108 dient ferner als Schutzschicht PL1. Ein zweites transparentes Substrat 4111 mit einer Dicke T2 dient als Rückseitenschicht BL1 und ist mit der ersten transparenten Schicht 4108 mittels einer Klebstoffschicht 4110, die dazwischen angeordnet ist, verbunden.
  • Eine Druckschicht 4112 zum Aufdrucken eines Plattenetiketts kann ferner auf dem zweiten transparenten Substrat 4111 bei Bedarf angeordnet sein. Die Druckschicht 4112 bedeckt gewöhnlich nicht den gesamten Oberflächenbereich des zweiten transparenten Substrats 4111 (Rückseitenschicht BL1), sondern nur den Bereich, der zum Aufdrucken von Text und Graphiken des Plattenetiketts erforderlich ist. Der Bereich des zweiten transparenten Substrats 4111, auf der die Druckschicht 4112 nicht ausgebildet ist, kann freigelassen werden. Das Licht, das von der Datenschicht 4109 (metallische Dünnschicht), die die Datenaufzeichnungsoberfläche RS1 bildet, reflektiert wird, kann somit direkt beobachtet werden, wenn das Etikett nicht aufgedruckt ist, während die digitale Videoplatte von der Seite SB betrachtet wird. Als Ergebnis sieht der Hintergrund silber-weiß aus, über den der aufgedruckte Text und die Graphiken schweben, wenn die metallische Dünnschicht z. B. eine Aluminiumdünnschicht ist.
  • Es ist zu beachten, dass es nur notwendig ist, die Druckschicht 4112 dort vorzusehen, wo sie zum Aufdrucken benötigt wird, wobei es nicht notwendig ist, die Druckschicht 4112 über der gesamten Oberfläche der Rückseitenschicht BL1 vorzusehen.
  • Eine genauere Darstellung des Bereiches C2 in 5 ist in 6 gezeigt. Vertiefungen (Pits) und Stege werden auf der gemeinsamen Kontaktoberfläche zwischen der ersten transparenten Schicht 4108 und der Datenschicht 4109 auf der Seite SA, von der Daten mittels Bestrahlung mit einem Laserstrahl LS gelesen werden, geformt, wobei die Daten aufgezeichnet werden, indem die Längen der Vertiefungen und Stege variiert werden (d. h. die Länge der Intervalle zwischen den Vertiefungen). Genauer wird die Vertiefungs- und Stegkonfiguration die auf der ersten transparenten Schicht 4108 ausgebildet wird, auf die Datenschicht 4109 übertragen. Die Längen der Vertiefungen und Stege ist kürzer, wobei der Teilungsabstand der Datenspuren, die durch die Vertiefungssequenzen gebildet werden, enger ist als bei einer herkömmlichen Compaktdisk (CD). Die Oberflächenaufzeichnungsdichte wird somit deutlich verbessert.
  • Die Seite SA der ersten transparenten Schicht 4108, auf der die Datenvertiefungen nicht ausgebildet werden, ist eine flache Oberfläche. Das zweite transparente Substrat 4111 dient zur Verstärkung und ist eine transparente Platte, die aus dem gleichen Material wie die erste transparente Schicht 4108 mit zwei flachen Seiten gebildet ist. Die Dicken T1 und T2 sind vorzugsweise gleich und gewöhnlich gleich etwa 0,6 mm, jedoch ist die Erfindung nicht hierauf beschränkt.
  • Wie bei einer CD werden die Informationen gelesen, indem die Oberfläche mit einem Laserstrahl LS bestrahlt wird und die Änderung der Reflektivität des Lichtflecks erfasst wird. Da die Objektivlinsenöffnung NA groß sein kann und die Wellenlänge I des Lichtstrahls in einem digitalen Videoplattensystem klein sein kann, kann der Durchmesser des verwendeten Lichtflecks Ls auf etwa 1/1,6 des zum Lesen einer CD benötigten Lichtflecks reduziert werden. Es ist zu beachten, dass dies bedeutet, dass die Auflösung des Laserstrahls LS im DVD-System etwa gleich dem 1,6-fachen der Auflösung eines herkömmlichen CD-Systems entspricht.
  • Das zum Lesen der Daten von der digitalen Videoplatte verwendete optische System verwendet einen roten Halbleiterlaser mit einer kurzen Wellenlänge von 650 nm und eine Objektivlinse mit einer Öffnung von 0,6 mm. Hierdurch wird auch die Dicke T der transparenten Platten auf 0,6 mm reduziert, wobei mehr als 5 GB an Daten auf einer Seite einer optischen Platte mit einem Durchmesser von 120 mm gespeichert werden können.
  • Es ist somit möglich, Filmbilder (Videobilder) mit einer äußerst großen Datengröße pro Einheit auf einer digitalen Videoplattensystemplatte zu speichern, ohne Bildqualität zu verlieren, da die Speicherkapazität eines einseitigen Einzelschichtaufzeichnungsmediums RC1 mit einer Datenaufzeichnungsoberfläche RS1, wie oben beschrieben worden ist, nahezu das Zehnfache der Speicherka pazität einer herkömmlichen CD beträgt. Als Ergebnis können qualitativ hochwertige Videobilder mit einer Videopräsentationszeit, die zwei Stunden überschreitet, auf einer DVD aufgezeichnet werden, während die Videopräsentationszeit eines herkömmlichen CD-Systems etwa 74 Minuten beträgt, wenn die Bildqualität geopfert wird.
  • Die digitale Videoplatte ist daher gut als Aufzeichnungsmedium für Videobilder geeignet.
  • Ein digitales Videoplattenaufzeichnungsmedium mit mehreren Aufzeichnungsoberflächen RS, wie oben beschrieben worden ist, ist in den 7 und 8 gezeigt. Das DVD-Aufzeichnungsmedium RC2, das in 7 gezeigt ist, umfasst zwei Aufzeichnungsoberflächen, nämlich eine erste Aufzeichnungsoberfläche RS1 und eine halb transparente zweite Aufzeichnungsoberfläche RS2 auf der gleichen Seite, d. h. der Seite SA der Platte. Daten können gleichzeitig von diesen zwei Aufzeichnungsoberflächen unter Verwendung verschiedener Laserstrahlen LS1 und LS2 für die ersten Aufzeichnungsoberfläche RS1 und die zweite Aufzeichnungsoberfläche RS2 aufgezeichnet und wiedergegeben werden. Ferner ist es möglich, beide Aufzeichnungsoberflächen RS1 und RS2 unter Verwendung nur eines der Laserstrahlen LS1 oder LS2 zu lesen/schreiben. Es ist zu beachten, dass die so aufgebauten Aufzeichnungsmedien als "einseitige Doppelschichtplatten" bezeichnet werden.
  • Ferner ist zu beachten, dass es auch möglich ist, digitale Videoplattenaufzeichnungsmedien mit mehr als zwei Aufzeichnungsoberflächen RS herzustellen, obwohl in diesem Beispiel zwei Aufzeichnungsoberflächen RS1 und RS2 vorgesehen sind. Platten, die so aufgebaut sind, sind als "einseitige Mehrschichtplatten" bekannt.
  • Obwohl das in 8 gezeigte DVD-Aufzeichnungsmedium RC3 zwei Aufzeichnungsoberflächen aufweist, ähnlich dem in 7 gezeigten Aufzeichnungsmedium, weist es die Aufzeichnungsoberflächen auf gegenüberliegenden Seiten der Platte auf, d. h. es weist die erste Datenaufzeichnungsoberfläche RS1 auf der Seite SA und die zweite Datenaufzeichnungsoberfläche RS2 auf der Seite SB auf. Ferner ist offensichtlich, dass mehr als zwei Aufzeichnungsoberflächen auch auf einer doppelseitigen digitalen Videoplatte ausgebildet sein können, obwohl in diesem Beispiel nur zwei Aufzeichnungsoberflächen auf einer digitalen Videoplatte gezeigt sind. Wie bei dem in 7 gezeigten Aufzeichnungsmedium ist es auch möglich, zwei separate Laserstrahlen LS1 uns LS2 für die Aufzeichnungsoberflächen RS1 uns RS2 vorzusehen, oder beide Aufzeichnungsoberflächen RS1 und RS2 unter Verwendung eines einzigen Laserstrahls zu lesen/schreiben. Es ist zu beachten, dass dieser Typ von digitaler Videoplatte als "doppelseitige Doppelschichtplatte" bezeichnet wird. Ferner ist offensichtlich, dass eine doppelseitige digitale Videoplatte mit zwei oder mehr Aufzeichnungsoberflächen pro Seite versichert sein kann. Dieser Typ von Platte wird als "doppelseitige Mehrschichtplatte" bezeichnet.
  • Eine Draufsicht von der Bestrahlungsseite des Laserstrahls LS der Aufzeichnungsoberfläche RS des DVD-Aufzeichnungsmediums RC ist in den 9 und 10 gezeigt. Es ist zu beachten, dass eine kontinuierliche spiralförmige Datenaufzeichnungsspur TR vom Innenumfang zum Außenumfang der DVD vorgesehen ist. Die Datenaufzeichnungsspur TR ist in mehreren Sektoren unterteilt, die jeweils die gleiche bekannte Speicherkapazität aufweisen. Es ist zu beachten, dass der Einfachheit halber nur die Datenaufzeichnungsspur TR in 9 mit mehr als drei Sektoren pro Umdrehung gezeigt ist.
  • Wie in 9 gezeigt ist, ist die Datenaufzeichnungsspur TR normalerweise von innen nach außen im Uhrzeigersinn ausgebildet (siehe Pfeil DrA) vom inneren Endpunkt IA am Innenumfang der Platte RCA zum äußeren Endpunkt OA am Außenumfang der Platte, wobei die Platte RCA im Gegenuhrzeigersinn RdA rotiert. Dieser Typ von Platte RCA wird als Uhrzeigersinnplatte bezeichnet, wobei die darauf ausgebildete Aufzeichnungsspur als Uhrzeigersinnspur TRA bezeichnet wird.
  • In Abhängigkeit von der Anwendung kann die Aufzeichnungsspur TRB vom Außenumfang zum Innenumfang im Uhrzeigersinn (siehe Pfeil DrB in 10) vom äußeren Endpunkt OB am Außenumfang der Platte RCB zum inneren Endpunkt IB am Innenumfang der Platte mit im Uhrzeigersinn RdB rotierender Platte RCB ausgebildet sein. Da sich die Aufzeichnungsspur scheinbar im Gegenuhrzeigersinn windet, wenn sie vom Innenumfang zum Außenumfang auf den Platten mit der in Richtung des Pfeils DrB ausgebildeter Aufzeichnungsspur betrachtet wird, werden diese Platten als Gegenuhrzeigersinnplatte RCB mit Gegenuhrzeiger sinnspur TRB bezeichnet, um diese von der Platte RCA in 9 zu unterscheiden. Es ist zu beachten, dass die Spurrichtungen DrA und DrB die Spurbahnen sind, längs der der Laserstrahl wandert, wenn die Spuren zum Aufzeichnen und Wiedergeben abgetastet werden. Die Richtung der Plattenrotation RdA, in der sich die Platte RCA dreht, ist somit in entgegengesetzt zur Richtung der Spurbahn DrA, wobei die Richtung der Plattenrotation RdB, in der sich die Platte RCB dreht, somit entgegengesetzt zur Richtung der Spurbahn DrB ist.
  • Eine Explosionsansicht der in 7 gezeigten einseitigen Doppelschichtplatte RC2 ist als Platte RC2o in 11 gezeigt. Es ist zu beachten, dass die Aufzeichnungsspuren, die auf den zwei Aufzeichnungsoberflächen ausgebildet sind, in entgegengesetzten Richtungen verlaufen. Genauer ist eine Uhrzeigersinnaufzeichnungsspur TRA wie in 9 gezeigt, in Uhrzeigersinnrichtung DrA auf der (unteren) ersten Datenaufzeichnungsoberfläche RS1 ausgebildet, während eine Gegenuhrzeigersinnaufzeichnungsspur TRB, die wie in 10 gezeigt in Gegenuhrzeigersinnrichtung DrB ausgebildet ist, auf der (oberen) zweiten Datenaufzeichnungsoberfläche RS2 vorgesehen ist. Als Ergebnis befinden sich die äußeren Endpunkte OA und OB der ersten und zweiten (oberen und unteren) Spuren an der gleichen Radialposition bezüglich der Zentralachse der Platte RC2o. Es ist zu beachten, dass die Spurbahnen DrA und DrB der Spuren TR auch die Daten-Lese/Schreib-Richtungen für die Platte RC sind. Die ersten und zweiten (oberen und unteren) Aufzeichnungsspuren winden sich somit zueinander entgegengesetzt bei dieser Platte RC, d. h. die Spurbahnen DrA und DrB der oberen und unteren Aufzeichnungsschichten sind entgegengesetzte Spurbahnen.
  • Einseitige Doppelschichtplatten RC2o mit entgegengesetzter Spurbahn rotieren in Richtung RdA entsprechend der ersten Aufzeichnungsoberfläche RS1, wobei der Laserstrahl LS längs er Spurbahn DrA wandert, um die Aufzeichnungsspur auf der ersten Aufzeichnungsoberfläche RS1 zu verfolgen. Wenn der Laserstrahl LS dem äußeren Endpunkt OA erreicht, kann der Laserstrahl LS auf den Endpunkt OB auf der zweiten Aufzeichnungsoberfläche RS2 refokussiert werden, um mit der Verfolgung der Aufzeichnungsspur ohne Unterbrechung von der ersten zur zweiten Aufzeichnungsoberfläche fortzufahren. Der physikalische Abstand zwischen den Aufzeichnungsspuren TRA und TRB auf den ersten und zweiten Aufzeichnungsoberflächen RS1 und RS2 kann somit sofort eliminiert werden, indem einfach der Brennpunkt des Laserstrahls LS eingestellt wird.
  • Es ist somit möglich, mit einer einseitigen Doppelschichtplatte RC2o mit entgegengesetzter Spurbahn die Aufzeichnungsspuren, die auf physikalisch diskreten oberen und unteren Aufzeichnungsoberflächen angeordnet sind, einfach als eine einzelne kontinuierliche Aufzeichnungsspur zu verarbeiten. Es ist somit auch möglich, in einem Autorensystem, wie oben mit Bezug auf 1 beschrieben worden ist, den Multimediabitstrom MBS, der die größte Multimediadatenmanagementeinheit ist, auf zwei diskreten Aufzeichnungsoberflächen RS1 und RS2 auf einem einzelnen Aufzeichnungsmedium RC2o kontinuierlich aufzuzeichnen.
  • Es ist zu beachten, dass die Spuren auf den Aufzeichnungsoberflächen RS1 und RS2 in Richtungen entgegengesetzter zu den obenbeschriebenen gewunden sein können, d. h. die Gegenuhrzeigersinnspur TRB kann auf der ersten Aufzeichnungsoberfläche RS1 vorgesehen sein und die Uhrzeigersinnspur TRA kann auf der zweiten Aufzeichnungsoberfläche RS2 vorgesehen sein. In diesem Fall ist auch die Richtung der Plattenrotation zu einer Uhrzeigersinnrotation RdB geändert, wodurch ermöglicht wird, die zwei Aufzeichnungsoberflächen als eine einzelne durchgehende Aufzeichnungsspur umfassend zu verwenden, wie oben beschrieben worden. Der Einfachheit halber ist ein weiteres Beispiel dieses Typs von Platte daher weder gezeigt noch im folgenden beschrieben.
  • Es somit möglich, durch eine solche Konstruktion der digitalen Videoplatte den Multimediabitstrom MBS für einen Titel von Spielfilmlänge auf einer einzelnen einseitigen Doppelschichtplatte RC2o mit entgegengesetzter Spurbahn aufzuzeichnen. Es ist zu beachten, dass dieser Typ von digitalem Videoplattenmedium als einseitige Doppelschichtplatte mit entgegengesetzten Spurbahnen bezeichnet wird.
  • Ein weiteres Beispiel des in 7 gezeigten einseitigen Doppelschicht-DVD-Aufzeichnungsmediums RC2 ist als Platte RC2p in 12 gezeigt. Die Aufzeichnungsspuren, die auf den beiden ersten und zweiten Aufzeichnungsoberflächen RS1 und RS2 ausgebildet sind, sind Uhrzeigersinnspuren TRA, wie in 9 gezeigt ist. In diesem Fall rotiert die einseitige Doppelschichtplatte RC2p im Gegenuhrzeigersinn in Richtung des Pfeils RdA, wobei die Richtung, in die der Laserstrahl LS wandert, die gleiche ist wie die Richtung der Spurspirale, d. h. die Spurbahnen der oberen und unteren Aufzeichnungsoberflächen sind zueinander parallel (parallele Spurbahnen). Die äußeren Endpunkte OA der beiden oberen und unteren Spuren sind wiederum vorzugsweise an der gleichen Radialposition bezüglich der Zentralachse der Platte RC2p positioniert, wie oben beschrieben worden ist. Wie ebenfalls oben für die Platte RC2o der 11 beschrieben worden ist, kann der Zugriffspunkt unmittelbar vom äußeren Endpunkt OA der Spur TRA auf der ersten Aufzeichnungsoberfläche RS1 zum äußeren Endpunkt OA der Spur TRA auf der zweiten Aufzeichnungsoberfläche RS2 verschoben werden, indem der Fokus des Laserstrahls LS am äußeren Endpunkt OA geeignet eingestellt wird.
  • Für den Laserstrahl LS muss jedoch zum kontinuierlichen Zugriff auf die Uhrzeigersinnaufzeichnungsspur TRA auf der zweiten Aufzeichnungsoberfläche RS2 das Aufzeichnungsmedium RC2p in der entgegengesetzten Richtung (Uhrzeigersinn, entgegengesetzte Richtung RdA) angetrieben werden. In Abhängigkeit von der Radialposition des Laserstrahls LS ist es jedoch ineffizient, die Drehrichtung des Aufzeichnungsmediums zu ändern. Wie durch den diagonalen Pfeil in 12 gezeigt ist, wird daher der Laserstrahl LS vom äußeren Endpunkt OA der Spur auf dem ersten Aufzeichnungsmedium RS1 zum inneren Endpunkt IA der Spur auf der zweiten Aufzeichnungsoberfläche RS2 bewegt, um diese physikalisch diskreten Aufzeichnungsspuren als eine logisch durchgehende Aufzeichnungsspur zu verwenden.
  • Statt die Aufzeichnungsspuren auf den oberen und unteren Aufzeichnungsoberflächen als eine durchgehende Aufzeichnungsspur zu verwenden, ist es auch möglich, die Aufzeichnungsspuren zu verwenden, um die Multimediabitströme MBS verschiedener Titel aufzuzeichnen. Dieser Typ von digitalem Videoplattenaufzeichnungsmedium wird als "einseitige Doppelschichtplatte mit parallelen Spurbahnen" bezeichnet.
  • Es ist zu beachten, dass dann, wenn die Richtung der auf den Aufzeichnungsoberflächen RS1 und RS2 ausgebildeten Spuren entgegengesetzt zu der obenbeschriebenen ist, d. h. es werden Gegenuhrzeigersinnaufzeichnungsspuren TRB ausgebildet, die Plattenoperation die gleiche bleibt wie die obenbeschriebene, mit Ausnahme der Richtung der Plattenrotation, die im Uhrzeigersinn stattfindet wie durch den Pfeil RdB gezeigt ist.
  • Unabhängig von der Verwendung von Aufzeichnungsspuren im Uhrzeigersinn oder im Gegenuhrzeigersinn ist die bisher beschriebene einseitige Doppelschichtplatte RC2p mit parallelen Spurbahnen gut geeignet, um eine Einzelplatten-Enzyklopädie und ähnliche Multimediabitströme zu speichern, die mehrere Titel umfassen, die häufig und willkürlich genutzt werden.
  • Eine Explosionsansicht des doppelseitigen Einzelschicht-DVD-Aufzeichnungsmediums RC3, das eine Aufzeichnungsoberflächenschicht RS1 und RS2 auf jeder Seite umfasst, wie in 8 gezeigt, ist als DVD-Aufzeichnungsmedium RC2s in 13 gezeigt. Eine Uhrzeigersinnaufzeichnungsspur TRA ist auf der einen Aufzeichnungsoberfläche RS1 vorgesehen, während eine Gegenuhrzeigersinnaufzeichnungsspur TRB auf der anderen Aufzeichnungsoberfläche RS2 vorgesehen ist. Wie bei den vorangehenden Aufzeichnungsmedien sind die äußeren Endpunkte OA und OB der Aufzeichnungsspuren auf jeder Aufzeichnungsoberfläche vorzugsweise an der gleichen Radialposition bezüglicher der Zentralachse des DVD-Aufzeichnungsmediums RC3s angeordnet.
  • Es ist zu beachten, dass, während die Aufzeichnungsspuren auf diesen Aufzeichnungsoberflächen RS1 und RS2 in entgegengesetzten Richtungen rotieren, die Spurbahnen symmetrisch sind. Dieser Typ von Aufzeichnungsmedium ist daher bekannt als doppelseitige Doppelschichtplatte mit symmetrischen Spurbahnen. Diese doppelseitige Doppelschichtplatte mit symmetrischen Spurbahnen RC3s rotiert in der Richtung RdA wenn die erste Aufzeichnungsoberfläche RS1 gelesen/geschrieben wird. Als Ergebnis ist die Spurbahn auf der zweiten Aufzeichnungsoberfläche RS2 auf der gegenüberliegenden Seite der Richtung DrB, in der sich die Spur windet, entgegengesetzt, d. h. in Richtung DrA. Das Zugreifen auf beide Aufzeichnungsoberflächen RS1 und RS2 unter Verwendung eines einzelnen Laserstrahls LS ist daher nicht realistisch, unabhängig davon, ob der Zugriff kontinuierlich oder nicht kontinuierlich ist. Außerdem wird ein Multimediabitstrom MBS separat auf den ersten und zweiten Seiten der Platte auf den Aufzeichnungsoberfläche aufgezeichnet.
  • Ein anderes Beispiel der in 8 gezeigten doppelseitigen Einzelschichtplatte RC3 ist in 14 als Platte RC3a gezeigt. Es ist zu beachten, dass diese Platte Uhrzeigersinnaufzeichnungsspuren TRA, wie in 9 gezeigt, auf beiden Auf zeichnungsoberflächen RS1 und RS2 umfasst. Wie bei dem vorangehenden Aufzeichnungsmedium sind die äußeren Endpunkt OA und OA der Aufzeichnungsspuren auf jeder Aufzeichnungsoberfläche vorzugsweise an der gleichen Radialposition bezüglich der Zentralachse des DVD-Aufzeichnungsmediums RC3a angeordnet. Im Gegensatz zur doppelseitigen Doppelschichtplatte mit symmetrischen Spurbahnen RC3s, die oben beschrieben worden ist, sind die Spuren auf diesen Aufzeichnungsoberflächen RS1 und RS2 asymmetrisch. Dieser Typ von Platte ist daher bekannt als doppelseitige Doppelschichtplatte mit asymmetrischen Spurbahnen. Diese doppelseitige Doppelschichtplatte mit asymmetrischen Spurbahnen RC3a rotiert in der Richtung RdA, wenn die erste Aufzeichnungsoberfläche RS1 gelesen/geschrieben wird. Als Ergebnis ist die Spurbahn auf der zweiten Aufzeichnungsoberfläche RS2 auf der gegenüberliegenden Seite der Richtung DrA, in der die Spur sich windet, entgegengesetzt, d. h. in Richtung DrB.
  • Dies bedeutet, dass dann, wenn ein Laserstrahl LS kontinuierlich vom Innenumfang zum Außenumfang auf der ersten Aufzeichnungsoberfläche RS1 bewegt wird und anschließend vom Außenumfang zum Innenumfang auf der zweiten Aufzeichnungsoberfläche RS2 bewegt wird, beide Seiten des Aufzeichnungsmediums RC3a ohne Wenden der Platte und ohne Vorsehen verschiedener Laserstrahlen für die zwei Seiten gelesen/geschrieben werden können.
  • Die Spurbahnen für die Aufzeichnungsoberflächen RS1 und RS2 sind ebenfalls bei dieser doppelseitigen Doppelschichtplatte mit asymmetrischen Spurbahnen RC3a gleich. Als Ergebnis ist es ferner möglich, beide Seiten der Platte ohne Vorsehen separater Laserstrahlen für jede Seite zu lesen/schreiben, wenn das Aufzeichnungsmedium RC3a zwischen den Seiten umgedreht wird, wobei die Lese/Schreibvorrichtung somit wirtschaftlich konstruiert werden kann.
  • Es ist zu beachten, dass dieses Aufzeichnungsmedium funktional identisch bleibt, selbst wenn eine Gegenuhrzeigersinnaufzeichnungsspur TRB anstelle der Uhrzeigersinnaufzeichnungsspur TRA auf beiden Aufzeichnungsoberflächen RS1 und RS2 vorgesehen wird.
  • Wie oben beschrieben worden ist, wird der wahre Wert eines DVD-Systems, mit dem die Speicherkapazität des Aufzeichnungsmediums leicht erhöht werden kann, indem eine Mehrschichtaufzeichnungsoberfläche verwendet wird, in Multimediaanwendungen verwirklicht, mit denen mehrere Videodateneinheiten, mehrere Audiodateneinheiten und mehrere Graphikdateneinheiten, die auf einer einzelnen Platte aufgezeichnet sind, durch interaktive Operation seitens des Benutzers wiedergegeben werden.
  • Es ist somit möglich, einen lange gehegten Wunsch von Softwareanbietern (Programmanbietern) zu erfüllen, und insbesondere Programminhalt, wie z. B. einen kommerziellen Spielfilm, auf einem einzelnen Aufzeichnungsmedium in mehreren Versionen für verschiedene Sprach- und Demographiegruppen bereitzustellen, während die Bildqualität des Originals erhalten bleibt.
  • Elterliche Kontrolle
  • Inhaltsanbieter von Spielfilm- und Videotiteln mussten gewöhnlich den Bestand individueller Titel in mehreren Sprachen, typischerweise der Sprache jedes Vertriebsmarktes, sowie mehrfach eingestufte Titelpakete entsprechend der Elternkontrollbestimmungen (Zensurbestimmungen) der einzelnen Länder in Europa und in Nordamerika herstellen, liefern und verwalten. Der Zeitaufwand und die Betriebsmittel, die hierfür erforderlich sind, sind erheblich. Obwohl eine hohe Bildqualität offensichtlich wichtig ist, muss auch der Programminhalt konsistent reproduzierbar sein.
  • Das digitale Videoplattenaufzeichnungsmedium ist nahe an der Lösung dieser Probleme.
  • Mehrfache Winkel
  • Eine interaktive Operation, die heutzutage in Multimediaanwendungen sehr gefragt ist, besteht darin, dass der Benutzer fähig ist, die Position zu ändern, von der eine Szene während der Wiedergabe dieser Szene betrachtet wird. Diese Fähigkeit wird mittels der Mehrfachwinkelfunktion erreicht.
  • Diese Mehrfachwinkelfunktion ermöglicht Anwendungen, mit denen ein Benutzer z. B. ein Baseball-Spiel aus unterschiedlichen Winkeln (oder virtuellen Positionen im Stadion) beobachten kann und frei zwischen den Ansichten wechseln kann, während die Betrachtung fortschreitet. In diesem Beispiel eines Baseball-Spiels können die verfügbaren Winkel eine Position hinter dem Fänger im Hintergrund zentriert auf den Fänger, den Schlagmann und den Werfer; eine von hinter dem Fänger im Hintergrund zentriert auf einen Feldfänger, den Werfer und den Fänger; und eine vom Zentralfeld die Ansicht auf den Werter und den Fänger zeigend enthalten.
  • Um diese Anforderungen zu erfüllen, verwendet das digitale Videoplattensystem MPEG, das gleiche Basisstandardformat, das mit Video-CDs verwendet wird, um die Video-, Audio-, Graphik- und andere Signaldaten aufzuzeichnen. Aufgrund der Unterschiede in der Speicherkapazität, den Übertragungsraten und der Signalverarbeitungsleistung innerhalb der Wiedergabevorrichtung verwendet die DVD MPEG2, dessen Kompressionsverfahren und Datenformat sich leicht von dem Format MPEG1, das mit Video-CDs verwendet wird, unterscheiden.
  • Es ist zu beachten, dass der Inhalt und die Unterschiede zwischen den Normen MPEG1 und MPEG2 keine direkte Beziehung zur Absicht der vorliegenden Erfindung haben, wobei eine weitere Beschreibung daher im folgenden weggelassen wird (für genauere Informationen siehe MPEG-Spezifikationen ISO-11172 und ISO-13818).
  • Die Datenstruktur des DVD-Systems gemäß der vorliegenden Erfindung wird im folgenden mit Bezug auf die 16, 17, 18, 19, 20 und 21 genauer beschrieben.
  • Mehrfachszenensteuerung
  • Eine vollfunktionierende und praktische Eltern-Wiedergabesperrfunktion und eine Mehrfachwinkelszenen-Wiedergabefunktion müssen dem Benutzer ermöglichen, die Systemausgabe in geringfügiger, subtiler Weise zu modifizieren, während im wesentlichen die gleiche Video- und Audioausgabe weiter präsentiert wird. Wenn diese Funktionen erreicht werden, indem separate Titel hergestellt und aufgezeichnet werden, die jede der vielen möglichen Elternsperr- und Mehrfachwinkelszenen-Wiedergabeanforderungen erfüllen, müssen Titel, die im wesentlichen identisch sind und sich nur in geringer Weise unterscheiden, auf dem Aufzeichnungsmedium aufgezeichnet werden. Dies führt dazu, dass identische Daten wiederholt auf einem größeren Teil des Aufzeichnungsmediums aufgezeichnet werden, wobei die Nutzungseffizienz der verfügbaren Speicherkapazität deutlich reduziert wird. Genauer ist es nahezu unmöglich, diskrete Titel, die alle möglichen Anforderungen erfüllen, selbst unter Verwendung der großen Kapazität des digitalen Videoplattenmediums aufzuzeichnen. Obwohl daraus geschlossen werden kann, dass dieses Problem leicht gelöst werden kann, indem die Kapazität des Aufzeichnungsmediums erhöht wird, ist dies eine offensichtlich unerwünschte Lösung, wenn die effektive Nutzung der verfügbaren Systembetriebsmittel betrachtet wird.
  • Die Verwendung einer Mehrfachszenensteuerung, deren Konzept in einem weiteren Abschnitt weiter unten beschrieben worden ist, in einem DVD-System ist es möglich, dynamisch Titel für zahlreiche Variationen des gleichen Basisinhalts unter Verwendung der kleinsten möglichen Datenmenge zu konstruieren, und somit die verfügbaren Systembetriebsmittel (Aufzeichnungsmedium) effektiv zu nutzen. Genauer werden die Titel, die mit zahlreichen Variationen wiedergegeben werden können, aus (gemeinsamen) Basisszenenperioden, die für jeden Titel gemeinsame Daten enthalten, konstruiert, wobei Mehrfachszenenperioden, die Gruppen unterschiedlicher Szenen umfassen, den verschiedenen Anforderungen entsprechen. Während der Wiedergabe ist der Benutzer fähig, frei und zu einem beliebigen Zeitpunkt bestimmte Szenen aus den Mehrfachszenenperioden auszuwählen, um einen Titel entsprechend dem gewünschten Inhalt dynamisch zu konstruieren, wie z. B. einen Titel, der bestimmte Szenen unter Verwendung der Elternsperre-Kontrollfunktion weglässt.
  • Es ist zu beachten, dass die Mehrfachszenensteuerung, die eine Elternsperre-Wiedergabekontrollfunktion und eine Mehrfachwinkelszenenwiedergabe ermöglicht, im folgenden in einem weiteren Abschnitt mit Bezug auf 21 beschrieben wird.
  • Datenstruktur des DVD-Systems
  • Die im Autorensystem des digitalen Videoplattensystems gemäß der vorliegenden Erfindung verwendete Datenstruktur ist in 22 gezeigt. Um einen Multimediabitstrom MBS aufzuzeichnen, unterteilt das digitale Videoplattensystem das Aufzeichnungsmedium in drei Hauptaufzeichnungsbereiche, den Einführungsbereich LI, den Datenträgerraum VS und den Abschlussbereich LO.
  • Der Einleitungsbereich LI ist am Innenumfangsbereich der optischen Platte vorgesehen. In den mit Bezug auf die 9 und 10 beschriebenen Platten ist der Einleitungsbereich LI an den inneren Endpunkten IA und IB jeder Spur positioniert. Daten zum Stabilisieren der Operation der Wiedergabevorrichtung, wenn das Lesen beginnt, sind in den Einleitungsbereich LI geschrieben.
  • Der Ausleitungsbereich LO ist dementsprechend am Außenumfang der optischen Platte angeordnet, d. h. an den äußeren Endpunkten OA und OB jeder Spur in den Platten, die mit Bezug auf die 9 und 10 beschrieben worden sind. Daten, die das Ende des Datenträgerraums VS identifizieren, werden in diesem Ausleitungsbereich LO aufgezeichnet.
  • Der Datenträgerraum VS ist zwischen dem Einführungsbereich LI und dem Abschlussbereich LO angeordnet, und ist als eine eindimensionale Anordnung von n + 1 (wobei n eine ganze Zahl größer oder gleich 0 ist) von Logiksektoren LS mit 2048 Bits aufgezeichnet. Die Logiksektoren LS sind sequentiell nummeriert mit #0, #1, #2, ... #n. Der Datenträgerraum VS ist ferner in einem Datenträger- und Dateistruktur-Managementbereich VFS und einem Dateidatenstrukturbereich FDS unterteilt.
  • Der Datenträger- und Dateistrukturmanagementbereich VFS umfasst m + 1 Logiksektoren LS#0 bis LS#m (wobei m eine ganze Zahl größer oder gleich 0 und kleiner als n ist). Die Dateidatenstruktur FDS umfasst n – m Logiksektoren LS#m + 1 bis LS#n.
  • Es ist zu beachten, dass dieser Dateidatenstrukturbereich VDS dem in 1 gezeigten und obenbeschriebenen Multimediabitstrom MBS entspricht.
  • Die Datenträgerdateistruktur VFS ist das Dateisystem zum Verwalten der auf dem Datenträgerraum VS als Dateien gespeicherten Daten und ist in Logiksektoren LS#0–LS#m unterteilt, wobei m die Anzahl der Sektoren ist, die erforderlich ist, um alle Daten zu speichern, die zum Verwalten der gesamten Platte benötigt werden, und eine natürliche Zahl kleiner als n ist. Informationen für die im Dateidatenstrukturbereich FDS gespeicherten Dateien werden in die Datenträgerdateistruktur VFS entsprechend einer bekannten Spezifikation, wie z. B. ISO-9660 oder ISO-13346, geschrieben.
  • Der Dateidatenstrukturbereich FDS umfasst n – m Logiksektoren LS#m–LS#n, die jeweils einen Videomanager VMG, der in der Größe an ein ganzzahliges vielfaches des Logiksektors (2048 × I, wobei I eine bekannte ganze Zahl ist) angepasst ist, und k Videotitelsätze VTS#1–VTSk (wobei k eine natürliche Zahl kleiner als 100 ist) umfassen.
  • Der Videomanager VMG speichert die Titelmanagementinformationen für die gesamte Platte und Informationen zum Erstellen eines Datenträgermenüs, das verwendet wird, um die Wiedergabesteuerung des gesamten Datenträgers einzustellen und zu ändern.
  • Ein beliebiger Videotitelsatz VTS#k wird auch als "Videodatei" bezeichnet, die einen Titel repräsentiert, der Video-, Audio- und/oder Standbilddaten umfasst.
  • Die interne Struktur jedes in 22 gezeigten Videotitelsatzes VTS ist in 16 gezeigt. Jeder Videotitelsatz VTS umfasst VTS-Informationen VTSI, die die Managementinformationen für die gesamte Platte beschreiben, und die VTS-Titelvideoobjekte VOB (VTSTT_VOBS), d. h. den Systemstrom des Multimediabitstroms. Die VTS-Information VTSI wird im folgenden zuerst beschrieben, gefolgt vom VTS-Titel VOBS.
  • Die VTS-Information enthält hauptsächlich die VTSI-Managementtabelle VTSI_MAT und die VTSPGC-Informationstabelle VTS_PGCIT.
  • Die VTSI-Managementtabelle VTSI_MAT speichert solche Informationen, wie z. B. die interne Struktur des Videotitelsatzes VTS, die Anzahl der auswählbaren Audioströme, die im Videotitelsatz VTS enthalten sind, die Anzahl der Subbilder, und den Videotitelsatz-VTS-Ort (Speicheradresse).
  • Die VTSPGC-Informationstabelle VTS_PGCIT zeichnet i (wobei i eine natürliche Zahl ist) Programmketten-(PGC)-Datenblöcke VTS_PGCI#1–VTS_PGCI#i zum Steuern der Wiedergabesequenz auf. Jeder der Tabelleneinträge VTS_PGCI#i ist ein Dateneintrag, der die Programmkette ausdrückt, und umfasst j (wobei j eine natürliche Zahl ist) Zellenwiedergabeinformationsblöcke C_PBI#1–C_PBI#j.
  • Jeder Zellenwiedergabeinformationsblock C_PBI#j enthält die Wiedergabesequenz der Zelle und die Wiedergabesteuerinformationen.
  • Die Programmkette PGC ist eine konzeptartige Struktur, die die Geschichte des Titelinhalts beschreibt, und definiert daher die Struktur jedes Titels durch Beschreiben der Zellenwiedergabesequenz. Es ist zu beachten, dass diese Zellen im folgenden genauer beschrieben werden.
  • Wenn z. B. sich die Videotitelsatzinformation auf die Menüs bezieht, wird die Videotitelsatzinformation VTSI in einem Puffer in der Wiedergabevorrichtung gespeichert, wenn die Wiedergabe beginnt. Wenn der Benutzer anschließend einen Menüknopf auf einer Fernsteuervorrichtung drückt, z. B. während der Wiedergabe, greift die Wiedergabevorrichtung auf den Puffer zu, um die Menüinformationen zu holen und das oberste Menü #1 anzuzeigen. Wenn die Menüs hierarchisch sind, kann das Hauptmenü, das als Programmketteninformation VTS_PGCI#1 gespeichert ist, angezeigt werden, indem z. B. der Menüknopf gedrückt wird, wobei VTS_PGCI#2–#9 den Untermenüs entsprechen können, auf die unter Verwendung der numerischen Tastatur auf der Fernbedienung zugegriffen wird, und wobei VTS_GCI#10 und höher zusätzlichen Untermenüs entsprechen können, die sich in der Hierarchie weiter unten befinden. Alternativ kann VTS_PGCI#1 das oberste Menü sein, das durch Drücken des Menüknopfes angezeigt wird, während VTS_PGCI#2 und höher eine Sprachführung sein kann, die durch Drücken der entsprechenden numerischen Taste wiedergegeben wird.
  • Die Menüs selbst werden durch die mehreren Programmketten ausgedrückt, die in dieser Tabelle definiert sind. Als Ergebnis können die Menüs auf verschiedene Weise frei konstruiert werden, und sollen nicht auf hierarchische oder nicht-hierarchische Menüs oder Menüs, die eine Sprachführung enthalten, beschränkt sein.
  • Im Fall eines Spielfilms z. B. wird die Videotitelsatzinformation VTSI in einem Puffer in der Wiedergabevorrichtung gespeichert, wenn die Wiedergabe beginnt, wobei die Wiedergabevorrichtung auf die durch die Programmkette PGC beschriebene Zellenwiedergabesequenz zurückgreift und den Systemstrom wiedergibt.
  • Die "Zellen", die hier erwähnt werden, können der gesamte Systemstrom oder ein Teil desselben sein, und werden während der Wiedergabe als Zugriffspunkte verwendet. Zellen können somit z. B. als "Kapitel" verwendet werden, in die ein Titel unterteilt sein kann.
  • Es ist zu beachten, dass jeder der PGC-Informationseinträge C_PBI#j sowohl Zellenwiedergabeverarbeitungsinformationen als auch eine Zelleninformationstabelle enthält. Die Zellenwiedergabeverarbeitungsinformationen umfassen die Verarbeitungsinformationen, die zum Wiedergeben der Zelle erforderlich sind, wie z. B. die Präsentationszeit und die Anzahl der Wiederholungen. Genauer enthalten diese Informationen den Zellenblockmodus CBM, den Zellenblocktyp CBT, den Nahtloswiedergabemerker SPF, den Verschachtelungszuweisungsmerker IAF, den STC-Rücksetzmerker STCDF, die Zellenpräsentationszeit C_PBTM, den Nahtloswinkelwechselmerker SACF, die erste Zellen-VOBU-Startadresse C_FVOBU_SA und die letzte Zellen-VOBU-Startadresse C_LVOBU_SA.
  • Es ist zu beachten, dass die nahtlose Wiedergabe sich auf die Wiedergabe in einem digitalen Videoplattensystem von Multimediadaten bezieht, die Video-, Audio- und Subbilddaten umfassen, ohne intermittierende Unterbrechungen in den Daten oder Informationen. Die nahtlose Wiedergabe wird in einem weiteren Abschnitt im folgenden mit Bezug auf die 23 und 24 genauer beschrieben.
  • Der Zellenblockmodus CBM zeigt an, ob mehrere Zellen einen Funktionsblock bilden. Die Zellenwiedergabeinformation jeder Zelle in einem Funktionsblock ist fortlaufend in der PGC-Information angeordnet. Der Zellenblockmodus CBM der ersten Zellenwiedergabeinformation in dieser Sequenz enthält den Wert der ersten Zelle im Block, wobei der Zellenblockmodus CBM der letzten Zellenwiedergabefunktion in dieser Sequenz den Wert der letzten Zelle im Block enthält. Der Zellenblockmodus CBM jeder zwischen dieser ersten und letzten Zellen angeordneten Zelle enthält einen Wert, der anzeigt, dass die Zelle eine Zelle zwischen den ersten und letzten Zellen in diesem Block ist.
  • Der Zellenblocktyp CBT identifiziert den Typ des Blocks, der vom Zellenblockmodus CBM angegeben wird. Wenn z. B. eine Mehrfachwinkelfunktion ermöglicht wird, ist die Zelleninformation entsprechend jedem der wiedergebbaren Winkel als einer der obenerwähnten Funktionsblöcke programmiert, wobei der Typ dieser Funktionsblöcke durch einen Wert identifiziert ist, der "Winkel" im Zellenblocktyp CBT für jede Zelle in diesem Block identifiziert.
  • Der Nahtloswiedergabemerker SPF gibt einfach an, ob die entsprechende Zelle nahtlos mit einer Zelle oder einem Zellenblock, die unmittelbar vorher wiedergegeben werden, verknüpft ist und wiedergegeben wird. Um eine gegebene Zelle mit der vorangehenden Zelle oder einem Zellenblock nahtlos wiederzugeben, wird der Nahtloswiedergabemerker SPF in der Zellenwiedergabeinformation für diese Zelle auf 1 gesetzt; ansonsten wird SPF auf 0 gesetzt.
  • Der Verschachtelungszuweisungsmerker IAF speichert einen Wert, der angibt, ob die Zelle in einem kontinuierlichen oder einem verschachtelten Block existiert. Wenn die Zelle Teil eines verschachtelten Blocks ist, ist der Merker IAF auf 1 gesetzt; ansonsten ist er auf 0 gesetzt.
  • Der STC-Rücksetzmerker STCDF gibt an, ob der Systemzeittakt STC, der für die Synchronisation verwendet wird, zurückgesetzt werden muss, wenn die Zelle wiedergegeben wird; wenn das rücksetzende Systemzeittakts STC notwendig ist, ist der STC-Rücksetzmerker STCDF auf 1 gesetzt.
  • Der Nahtloswinkeländerungsmerker SACF speichert einen Wert, der angibt, ob eine Zelle in einer Mehrfachwinkelperiode nahtlos bei einer Winkeländerung verbunden werden soll. Wenn die Winkeländerung nahtlos ist, ist der Nahtloswinkeländerungsmerker SACF auf 1 gesetzt; ansonsten ist er auf 0 gesetzt.
  • Die Zellenpräsentationszeit C_PBTM drückt die Zellenpräsentationszeit mit Videovollbildgenauigkeit aus.
  • Die erste Zellen-VOBU-Startadresse C_FVOBU_SA ist die VOBU-Startadresse der ersten Zelle in einem Block und wird ferner als Abstand vom logischen Sektor der ersten Zelle im VTS-Titel VOBS (VTSTT_VOBS), gemessen anhand der Anzahl der Sektoren, ausgedrückt.
  • Die letzte Zellen-VOBU-Startadresse C_LVOBU_SA ist die VOBU-Startadresse der letzten Zelle im Block. Der Wert dieser Adresse wird als der Abstand vom logischen Sektor der ersten Zelle im VTS-Titel VOBS (VTSTT_VOBS), gemessen anhand der Anzahl der Sektoren, ausgedrückt.
  • Der VTS-Titel VOBS (VTSTT_VOBS), d. h. die Multimediasystemstromdaten, werden als nächstes beschrieben. Die Systemstromdaten VTSTT_VOBS umfassen i (wobei i eine natürliche Zahl ist) Systemströme SS, von denen jeder als ein "Videoobjekt" (VOB) bezeichnet wird. Jedes Videoobjekt VOB#1–VOB#i umfasst wenigstens einen Videodatenblock, der mit bis zu maximal acht Audiodatenblöcken und bis zu maximal 32 Subbilddatenblöcken verschachtelt ist.
  • Jedes Videoobjekt VOB umfasst q (wobei q eine natürliche Zahl ist) Zellen C#1-C#q. Jede Zelle C umfasst r (wobei r eine natürliche Zahl ist) Videoobjekteinheiten VOBU#1–VOBU#r.
  • Jede Videoobjekteinheit VOBU umfasst mehrere Bildgruppen (GOP = group of pictures), sowie die Audio- und Subbilddaten entsprechend der Wiedergabe der mehreren Bildgruppen GOP. Es ist zu beachten, dass die Bildgruppe GOP dem Videokodierungsaktualisierungszyklus entspricht. Jede Videoobjekteinheit VOBU beginnt ebenfalls mit einem NV-Bündel, d. h. mit den Steuerdaten für diese VOBU.
  • Die Struktur der Navigationsbündel NV wird mit Bezug auf 18 beschrieben.
  • Bevor das Navigationsbündel NV beschrieben wird, wird die interne Struktur der Videozone (siehe 22), d. h. der Systemstrom St35, der vom Autorenkodierer EC kodiert wird, der mit Bezug auf 25 beschrieben worden ist, mit Bezug auf 17 beschrieben. Es ist zu beachten, dass der kodierte Videostrom St15, der in 17 gezeigt ist, der komprimierte eindimensionale Videodatenstrom ist, der vom Videokodierer 300 kodiert worden ist. Der kodierte Audiostrom St19 ist in ähnlicher Weise der komprimierte eindimensionale Audiodatenstrom, der die rechten und linken Stereo-Audiokanäle multiplexiert, die vom Audiokodierer 700 kodiert worden sind. Es ist zu beachten, dass das Audiosignal nicht auf ein Stereosignal beschränkt sein soll und auch ein Mehrkanal-Surroundsound-Signal sein kann.
  • Der Systemstrom (Titeleditiereinheit VOB) St35 ist eine eindimensionale Anord nung von Bündeln mit einer Bitgröße entsprechend den Logiksektoren LS#n mit einer Kapazität von 2048 Bit die unter Verwendung der 21 beschrieben worden ist. Ein Stromsteuerbündel ist am Anfang der Titeleditiereinheit (VOB) St35 platziert, d. h. am Anfang der Videoobjekteinheit VOBU. Dieses Stromsteuerbündel wird als "Navigationsbündel NV" bezeichnet und zeichnet die Datenanordnung im Systemstrom und andere Steuerungsinformationen auf.
  • Der kodierte Videostrom St15 und der kodierte Audiostrom St19 werden in Biteinheiten entsprechend den Systemstrombündeln paketiert. Diese Pakete sind in 17 als Pakete V1, V2, V3, V4 ... und A1, A2, A3 ... gezeigt. Wie in 17 gezeigt ist, werden diese Pakete in der geeigneten Sequenz als Systemstrom St35 verschachtelt, um somit einen Paketstrom zu bilden, wobei die Aufmerksamkeit auf die Dekodiererpuffergröße und die vom Dekodierer zum Expandieren der Video- und Audiodatenpakete benötigten Zeitspanne gerichtet wird. In dem in 17 gezeigten Beispiel wird der Paketstrom in der Sequenz V1, V2, A1, V3, V4, A2 ... verschachtelt.
  • Es ist zu beachten, dass die in 17 gezeigte Sequenz eine Videodateneinheit mit einer Audiodateneinheit verschachtelt. Eine signifikant zunehmende Aufzeichnungs/Wiedergabekapazität, eine Hochgeschwindigkeitsaufzeichnung/Wiedergabe und Leistungsverbesserungen in der Signalverarbeitung LSI ermöglichen dem DVD-System, mehrere Audiodaten und mehrere Subbilddaten (Graphikdaten) in einer Videodateneinheit in einem einzelnen verschachtelten MPEG-Systemstrom aufzuzeichnen, wodurch dem Benutzer ermöglicht wird, die spezifischen Audiodaten und Subbilddaten auszuwählen, die während der Wiedergabe wiedergegeben werden sollen. Die Struktur des Systemstroms der bei diesem Typ von DVD-System verwendet wird, ist in 18 gezeigt und wird im folgenden beschrieben.
  • Wie in 17 gezeigt ist, ist der paketierte kodierte Videostrom St15 in 18 als V1, V2, V3, V4, ... gezeigt. In diesem Beispiel gibt es jedoch nicht genau einen kodierten Audiostrom St19, sondern drei kodierte Audioströme St19A, St19B und St19C, die als Quellendaten eingegeben werden. Ferner gibt es zwei kodierte Subbildströme St17A und St17B, die als Quellendatensubbildströme eingegeben werden. Diese sechs komprimierten Datenströme St15, St19A, St19B, St19C, St17A und St17B werden zu einem einzigen Systemstrom St35 ver schachtelt.
  • Die Videodaten werden gemäß der MPEG-Spezifikation kodiert, wobei die Bildgruppe GOP die Kompressionseinheit ist. Im Allgemeinen enthält jede Bildgruppe GOP 15 Vollbilder im Fall eines NTSC-Signals, jedoch ist die spezifische Anzahl von Vollbildern, die zu einer GOP komprimiert wird, variabel. Das Strommanagementbündel, das die Managementdaten beschreibt, die z. B. die Beziehung zwischen den verschachtelten Daten enthalten, wird ebenfalls bei dem GOP-Einheitsintervall verschachtelt. Da die Bildgruppeneinheit GOP auf den Videodaten beruht, ändert eine Änderung der Anzahl der Videovollbilder pro GOP-Einheit das Intervall der Strommanagementbündel. Dieses Intervall wird mittels der Präsentationszeit auf der digitalen Videoplatte innerhalb eines Bereiches von 0,4 s bis 1,0 s bezogen auf die GOP-Einheit ausgedrückt. Wenn die Präsentationszeit von zusammenhängenden mehreren GOP-Einheiten kleiner als 1 s ist, werden die Managementdatenbündel für die Videodaten der mehreren GOP-Einheiten zu einem einzigen Strom verschachtelt.
  • Diese Managementdatenbündel werden im digitalen Videoplattensystem als Navigationsbündel NV bezeichnet. Die Daten von einem Navigationsbündel NV bis zu dem Paket, das dem nächsten Navigationsbündel NV unmittelbar voraus geht, bilden eine Videoobjekteinheit VOBU. Im Allgemeinen wird eine zusammenhängende Wiedergabeeinheit, die als eine Szene definiert sein kann, als ein Videoobjekt VOB bezeichnet, wobei jedes Videoobjekt VOB mehrere Videoobjekteinheiten VOBU enthält. Datensätze von mehreren Videoobjekten VOB bilden einen VOB-Satz (VOBS). Es ist zu beachten, dass diese Dateneinheiten in der digitalen Videoplatte zuerst verwendet wurden.
  • Wenn mehrere dieser Datenströme verschachtelt werden, müssen die Navigationsbündel NV, die die Beziehung zwischen den verschachtelten Bündeln definieren, ebenfalls bei einer definierten Einheit verschachtelt werden, die als die Bündelnummereinheit bekannt ist. Jede Bildgruppe GOP ist normalerweise eine Einheit, die etwa 0,5 s an Videodaten enthält, was äquivalent ist zu der Präsentationszeit, die für 12–15 Vollbilder benötigt wird, wobei ein Navigationsbündel NV im Allgemeinen mit der Anzahl von Datenpaketen verschachtelt wird, die für diese Präsentationszeit erforderlich sind.
  • Die Strommanagementinformationen, die in den verschachtelten Video-, Audiound Subbilddatenpaketen, die den Systemstrom bilden, enthalten sind, werden im folgenden mit Bezug auf 19 beschrieben. Wie in 19 gezeigt ist, werden die im Systemstrom enthaltenen Daten in einem Format aufgezeichnet, das gemäß dem MPEG2-Standard gepackt oder paketiert ist. Die Paketstruktur ist im wesentlichen für die Video-, Audio- und Subbilddaten gleich. Ein Bündel im digitalen Videoplattensystem weist eine Kapazität von 2048 Bytes auf, wie oben beschrieben worden ist, und enthält einen Bündelkopf PKH und ein Paket PES; wobei jedes Paket PES einen Paketkopf PTH und einen Datenblock enthält.
  • Der Bündelkopf PKH zeichnet den Zeitpunkt auf, zu dem das Bündel vom Strompuffer 2400 zum Systemdekodierer 2500 zu senden ist (siehe 26), d. h. die Systemtaktreferenz SCR, die die Referenzzeit für die synchronisierte audiovisuelle Datenwiedergabe definiert. Der MPEG-Standard nimmt an, dass die Systemtaktreferenz SCR der Referenztakt für die gesamte Dekodiereroperation ist. Mit solchen Plattenmedien wie der digitalen Videoplatte kann jedoch das für individuelle Plattenabspielgeräte spezifische Zeitmanagement verwendet werden, wobei ein Referenztakt für das Dekodierersystem daher separat vorgesehen ist.
  • Der Paketkopf PTH enthält in ähnlicher Weise einen Präsentationszeitstempel PTS und einen Dekodierungszeitstempel DTS, die beide im Paket vor der Zugriffseinheit (der Dekodierungseinheit) platziert sind. Der Präsentationszeitstempel PTS definiert den Zeitpunkt, zu dem die Videodaten oder die Audiodaten, die im Paket enthalten sind, als Wiedergabeausgang ausgegeben werden sollen, nachdem sie dekodiert worden sind, wobei der Dekodierungszeitstempel DTS den Zeitpunkt definiert, zu dem der Videostrom dekodiert werden soll. Es ist zu beachten, dass der Präsentationszeitstempel PTS effektiv den Anzeigestartzeitpunkt der Zugriffseinheit definiert, während der Dekodierungszeitstempel DTS effektiv den Dekodierungsstartzeitpunkt der Zugriffseinheit definiert. Wenn PTS und DTS den gleichen Zeitpunkt angeben, wird der DTS weggelassen.
  • Der Paketkopf PTH enthält ferner ein 8-Bit-Feld, das als Strom-ID bezeichnet wird und den Pakettyp identifiziert, d. h., ob das Paket ein Videopaket ist, das einen Videodatenstrom enthält, ein Privatpaket oder ein MPEG-Audiopaket ist.
  • Privatpakete unter dem MPEG2-Standard sind Datenpakete, deren Inhalt frei definiert werden kann. Das Privatpaket 1 in dieser Ausführungsform der Erfindung wird verwendet, um andere Audiodaten als die MPEG-Audiodaten und Subbilddaten zu transportieren, während das Privatpaket 2 das PCI-Paket und das DSI-Paket transportiert.
  • Die Privatpakete 1 und 2 umfassen jeweils einen Paketkopf, einen Privatdatenbereich und einen Datenbereich. Der Privatdatenbereich enthält eine 8-Bit-Substrom-ID, die angibt, ob die aufgezeichneten Daten Audiodaten oder Subbilddaten sind. Die Audiodaten, die durch ein Privatpaket 2 definiert sind, können als irgendeiner von acht Typen #0–#7 von linearen PCM-kodierten oder AC-dreikodierten Daten definiert sein. Subbilddaten können als irgendeiner von bis zu 32 Typen #0–#31 definiert sein.
  • Der Datenbereich ist das Feld, in das die gemäß der MPEG2-Spezifiaktion komprimierten Daten geschrieben werden, wenn die gespeicherten Daten Videodaten sind; lineare PCM-kodierte, AC-drei-kodierte oder MPEG-kodierte Daten geschrieben werden, wenn Audiodaten gespeichert werden; oder mittels Lauflängenkodierung komprimierte Graphikdaten geschrieben werden, wenn Subbilddaten gespeichert werden.
  • MPEG2-komprimierte Videodaten können mittels Kodierung mit konstanter Bitrate (CBR) oder variabler Bitrate (VBR) komprimiert sein. Bei Kodierung mit konstanter Bitrate wird der Videostrom mit einer konstanten Rate in den Videopuffer kontinuierlich eingegeben. Dies steht im Gegensatz zur Kodierung zur variabler Bitrate, bei der der Videostrom intermittierend in den Videopuffer eingegeben wird, wodurch es möglich wird, die Erzeugung von unnötigem Kode zu unterdrücken. Sowohl die Kodierung mit konstanter Bitrate als auch die Kodierung mit variabler Bitrate können im digitalen Videoplattensystem verwendet werden.
  • Da MPEG-Videodaten mittels Kodierung mit variabler Länge komprimiert werden, ist die Datenmenge in jeder Bildgruppe GOP nicht konstant. Die Video- und Audiodekodierungszeiten sind ebenfalls verschieden, wobei die zeitliche Beziehung zwischen den Video- und Audiodaten, die von einer optischen Platte gelesen werden, und die zeitliche Beziehung zwischen dem Video- und Audiodaten die vom Dekodierer ausgegeben werden, nicht übereinstimmen. Das Verfahren der zeitlichen Synchronisierung der Video- und Audiodaten wird daher im folgenden mit Bezug auf 26 genauer beschrieben, wird jedoch im folgenden kurz auf der Grundlage der Kodierung mit konstanter Bitrate beschrieben.
  • Die Navigationsbündel-NV-Struktur ist in 20 gezeigt. Jedes Navigationsbündel NV beginnt mit einem Bündelkopf PKH und enthält ein PCI-Paket und ein DSI-Paket.
  • Wie oben beschrieben worden ist, zeichnet der Bündelkopf PKH den Zeitpunkt auf, zu dem das Bündel vom Strompuffer 2400 zum Systemdekodierer 2500 zu senden ist (siehe 26), d. h. die Systemtaktreferenz SCR, die die Referenzzeit für eine synchronisierte audiovisuelle Datenwiedergabe definiert.
  • Jedes PCI-Paket enthält PCI-Allgemeininformationen (PCI_GI) und Winkelinformationen für eine nahtlose Wiedergabe (NMSL_AGLI).
  • Die PCI-Allgemeininformation (PCI_GI) deklariert den Anzeigezeitpunkt des ersten Videovollbildes (Start-PTM der VOBU (VOBU_S_PTM)), und den Anzeigezeitpunkt des letzten Videovollbildes (End-PTM der VOBU (VOBU_E_PTM)) in der entsprechenden Videoobjekteinheit VOBU mit Systemtaktgenauigkeit (90 kHz).
  • Die Winkelinformationen für die nahtlose Wiedergabe (NMSL_AGLI) gibt die Lesestartadresse der entsprechenden Videoobjekteinheit VOBU an, wenn der Winkel geändert wird, ausgedrückt als Anzahl der Sektoren ab dem Anfang des Videoobjekts VOB. Da es in diesem Beispiel neun oder weniger Winkel gibt, gibt es neun Winkeladressendeklarationszellen: Zieladresse der Winkelzelle #1 für nahtlose Wiedergabe (NMSL_AGL_C1_DSTA) bis Zieladresse der Winkelzelle #9 für nahtlose Wiedergabe (NMSL_AGL_C9_DSTA).
  • Jedes DSI-Paket enthält DSI-Allgemeininformationen (DSI_GI) Nahtloswiedergabeinformationen (SML_PBI) und Winkelinformationen für die nahtlose Wiedergabe (SML_AGLI).
  • Die DSI-Allgemeininformationen (DSI_GI) deklarieren die Adresse des letzten Bündels in der Videoobjekteinheit VOBU, d. h. die Endadresse für VOB (VOBU_EA), ausgedrückt als Anzahl der Sektoren ab dem Anfang der Videoobjekt einheit VOBU.
  • Während die nahtlose Wiedergabe später genauer beschrieben wird, ist zu beachten, dass die kontinuierlich gelesenen Dateneinheiten auf der Systemstromebene als eine verschachtelte Einheit ILVU verschachtelt (multiplexiert) sein müssen, um geteilte oder kombinierte Titel nahtlos wiederzugeben. Mehrere Systemströme, die mit der verschachtelten Einheit ILVU als der kleinsten Einheit verschachtelt sind, sind als ein verschachtelter Block definiert.
  • Die Nahtloswiedergabeinformation (SML_PBI) ist deklariert zum nahtlosen Wiedergeben des mit der verschachtelten Einheit ILVU als der kleinsten Dateneinheit verschachtelten Stroms, und enthält einen Verschachtelungseinheitsmerker (ILVU-Merker), der identifiziert, ob die entsprechende Videoobjekteinheit VOBU ein verschachtelter Block ist. Der ILVU-Merker gibt an, ob die Videoobjekteinheit VOBU sich in einem verschachtelten Block befindet, und ist auf 1 gesetzt, wenn dies zutrifft. Ansonsten ist der ILVU-Merker auf 0 gesetzt.
  • Wenn eine Videoobjekteinheit VOBU sich in einem verschachtelten Block befindet, wird ein Einheits-Ende-Merker deklariert, um anzugeben, ob die Videoobjekteinheit VOBU die letzte VOBU in der verschachtelten Einheit ILVU ist. Da die verschachtelte Einheit ILVU die Dateneinheit für kontinuierliches Lesen ist, ist der Einheits-Ende-Merker auf 1 gesetzt, wenn die derzeit gelesene VOBU die letzte VOBU in der verschachtelten Einheit ILVU ist. Ansonsten ist der Einheits-Ende-Merker auf 0 gesetzt.
  • Eine Verschachtelungseinheitsendadresse (ILVU_EA), die die Adresse des letzten Bündels in der ILVU, zu der die VOBU gehört, identifiziert, und die Startadresse der nächsten verschachtelten Einheit ILVU, sowie eine Startadresse der nächsten verschachtelten Einheit (NT_ILVU_SA) sind ebenfalls deklariert, wenn eine Videoobjekteinheit VOBU sich in einem verschachtelten Block befindet. Sowohl die Verschachtelungseinheitsendadresse (ILVU_EA) als auch die Startadresse der nächsten verschachtelten Einheit (NT_ILVU_SA) werden als Anzahl von Sektoren ausgehend vom Navigationsbündel NV dieser VOBU ausgedrückt.
  • Wenn zwei Systemströme nahtlos verbunden werden, jedoch die Audiokomponenten der zwei Systemströme nicht zusammenhängend sind, insbesondere unmittelbar vor und nach der Nahtstelle, ist es notwendig, die Audioausgabe auszusetzen, um die Audio- und Videokomponenten des der Nahtstelle folgenden Systemstroms zu synchronisieren. Es ist zu beachten, dass aus verschiedenen Audiosignalen, die mit den entsprechenden Videoblöcken aufgezeichnet sind, ein nicht zusammenhängender Ton resultieren kann. Mit einem NTSC-Signal ist der Videovollbildzyklus z. B. etwa gleich 33,33 ms, während der AC-Drei-Audiorahmenzyklus gleich 32 ms ist.
  • Um diese Resynchronisation zu ermöglichen, sind im DSI-Paket ferner Audiowiedergabestoppzeiten 1 und 2, d. h. Audio-Stopp-PTM 1 in VOB (VOB_A_STP_PTM1) und Audio-Stopp-PTM 2 in VOB (VOB_A_STP_PTM2), die den Zeitpunkt angeben, zu dem die Audioausgabe auszusetzen ist, und Audiowiedergabestoppperioden 1 und 2, d. h. Audiolückenlänge 1 in VOB (VOB_A_GAP_LEN1) und Audiolückenlänge 2 in VOB (VOB_A_GAP_LEN2), die angeben, für wie lange die Audioausgabe auszusetzen ist, deklariert. Es ist zu beachten, dass diese Zeiten mit Systemtaktgenauigkeit (90 kHz) spezifiziert sind.
  • Die Winkelinformationen für die nahtlose Wiedergabe (SML_AGLI) deklarieren die Lesestartadresse, wenn der Winkel verändert wird. Es ist zu beachten, dass dieses Feld gültig ist, wenn eine nahtlose Mehrfachwinkelsteuerung freigegeben ist. Diese Adresse wird ebenfalls als Anzahl von Sektoren ab dem Navigationsbündel NV dieser VOBU ausgedrückt. Da es neun oder weniger Winkel gibt, gibt es neun Winkeladressendeklarationszellen: Zieladresse der Winkelzelle #1 für nahtlose Wiedergabe (SML_AGL_C1_DSTA) bis Zieladresse der Winkelzelle #9 für nahtlose Wiedergabe (SML_AGL_C9_DSTA).
  • Ferner ist zu beachten, dass jeder Titel in Videoobjekt-(VOB)-Einheiten editiert wird. Verschachtelte Videoobjekte (verschachtelte Titeleditiereinheiten) werden als "VOBS" bezeichnet, wobei der Kodierungsbereich der Quellendaten die Kodierungseinheit ist.
  • DVD-Kodierer
  • Eine bevorzugte Ausführungsform eines digitalen Videoplattensystem-Autorenkodierers ECD, in welchem das Multimediabitstrom-Autorensystem gemäß der vorliegenden Erfindung auf ein digitales Videoplattensystem angewen det wird, wird im folgenden beschrieben und ist in 25 gezeigt. Es ist klar, dass der Autorenkodierer ECD, der auf das digitale Videoplattensystem angewendet wird, und der im folgenden als DVD-Kodierer bezeichnet wird, im wesentlichen mit dem in 2 gezeigten Autorenkodierer EC identisch ist. Der Hauptunterschied zwischen diesen Kodierern ist die Ersetzung des Videozonenformatierers 1300 des obigen Autorenkodierers EC im DVD-Kodierer ECD durch einen VOB-Puffer 1000 und einen Formatierer 1100. Ferner ist klar, dass der mit diesem DVD-Kodierer ECD kodierte Bitstrom auf einem digitalen Videoplattenmedium M aufgezeichnet wird. Die Operation dieses DVD-Kodierers ECD wird daher im folgenden im Vergleich mit dem obenbeschriebenen Autorenkodierer EC beschrieben.
  • Wie beim obigen Autorenkodierer EC erzeugt die Kodierungssystemsteuervorrichtung 200 Steuersignale St9, St11, St13, St21, St23, St25, St33 und St39 auf der Grundlage der Szenariodaten St7, die die benutzerdefinierten Editierbefehle beschreiben, die vom Szenarioeditor 100 eingegeben werden und steuert den Videokodierer 300, den Subbildkodierer 500 und den Audiokodierer 700 im DVD-Kodierer ECD. Es ist zu beachten, dass die benutzerdefinierten Editierbefehle im DVD-Kodierer ECD eine Obermenge der Editierbefehle des obenbeschriebenen Autorenkodierers EC sind.
  • Genauer beschreiben die benutzerdefinierten Editierbefehle (Szenariodaten St7) im DVD-Kodierer ECD in ähnlicher Weise, welche Quellendaten aus allen Quellendaten oder einer Teilmenge derselben, die mehrere Titel innerhalb einer definierten Zeitperiode enthalten, ausgewählt werden, und wie die ausgewählten Quellendaten neu zusammengefügt werden, um das vom Benutzer beabsichtigte Szenario (Sequenz) wiederzugeben. Die Szenariodaten St7 des DVD-Kodierers ECD enthalten jedoch ferner solche Informationen, wie z. B.: die Anzahl der in den Editiereinheiten enthaltenen Ströme, die durch Teilen eines Mehrfachtitelquellenstroms in Blöcke mit einem konstanten Zeitintervall erhalten werden; die Anzahl der Audio- und Subbilddatenzellen, die in jedem Strom enthalten sind, sowie den Subbildanzeigezeitpunkt und -periode; ob der Titel ein mehrfach eingestufter Titel ist, der eine elterliche Sperrkontrolle ermöglicht; ob der Benutzerinhalt aus mehreren Strömen ausgewählt ist, die z. B. mehrere Betrachtungswinkel umfassen; und das Verfahren der Verbindung von Szenen, wenn der Winkel zwischen mehreren Betrachtungswinkeln gewechselt wird.
  • Die Szenariodaten St7 des DVD-Kodierers ECD enthalten ferner Steuerinformationen auf einer Videoobjekt-VOB-Einheitsbasis. Diese Informationen werden benötigt, um den Medienquellenstrom zu kodieren, und enthält genauer solche Informationen, wie die Frage, ob es mehrere Winkel oder Elternkontrollmerkmale gibt. Wenn die Mehrfachwinkelbetrachtung freigegeben ist, enthalten die Szenariodaten St7 ferner die Kodierungsbitrate jedes Stroms unter Berücksichtung der Datenverschachtelung und der Plattenkapazität, die Start- und Endzeitpunkte jeder Steuerung, und ob zwischen den vorangehenden im folgenden Strömen eine nahtlose Verbindung hergestellt werden soll.
  • Die Kodierungssystemsteuervorrichtung 200 extrahiert diese Informationen aus dem Szenariodaten St7 und erzeugt die Kodierungsinformationstabelle und die Kodierungsparameter, die für die Kodierungssteuerung erforderlich sind. Die Kodierungsinformationstabelle und die Kodierungsparameter werden im Folgenden mit Bezug auf die 27, 28 und 29 beschrieben.
  • Die Stromkodierungsdaten St33 enthalten die Systemstromkodierungsparameter und die Systemkodierungsstart- und -endzeitpunktwerte, die vom DVD-System benötigt werden, um die VOBs zu erzeugen. Diese Systemstromkodierungsparameter enthalten die Bedingungen für die Verbindung eines Videoobjekts mit denen davor und danach, sowie die Anzahl der Audioströme, die Audiokodierungsinformationen und Audio-IDs, die Anzahl der Subbilder und die Subbild-IDs, die Videowiedergabestartzeitinformationen VPTs und die Audiovideostartzeitinformationen APTS.
  • Das Titelsequenzsteuersignal St39 liefert die Multimediabitstrom-MBS-Formatierungsstart- und -endzeitpunktinformationen und die Formatierungsparameter, die die Wiedergabesteuerinformationen und die Verschachtelungsinformationen deklarieren.
  • Auf der Grundlage der Videokodierungsparameter und des Kodierungsstart/Endzeitpunktsignals St9 kodiert der Videokodierer 300 einen spezifischen Teil des Videostroms St1, um einen Elementarstrom gemäß dem MPEG2-Videostandard, der in ISO-13818 definiert ist, zu erzeugen. Dieser Elementarstrom wird an den Videostrompuffer 400 als kodierter Videostrom St15 ausgege ben.
  • Es ist zu beachten, dass, während der Videokodierer 300 einen Elementarstrom entsprechend dem MPEG2-Videostandard erzeugt, der in ISO-13818 definiert ist, spezifische Kodierungsparameter über das Videokodierungsparametersignal St9 eingegeben werden, das den Kodierungsstart- und -endzeitpunkt, die Bitrate, die Kodierungsbedingungen für den Kodierungsstart und das Kodierungsende, den Materialtyp, der enthält, ob das Material ein NTSC- oder PAL-Videosignal ist oder ein zum Fernsehfilm konvertiertes Material, und ob der Kodierungsmodus für entweder die offene GOP-Kodierung oder die geschlossene GOP-Kodierung eingestellt ist, enthält.
  • Das MPEG2-Kodierungsverfahren ist grundsätzlich ein Zwischenbildkodierungsverfahren, das die Korrelation zwischen Vollbildern für die maximale Signalkompression verwendet, d. h. das kodierte Vollbild (das Zielvollbild) wird kodiert, indem auf Vollbilder vor und/oder nach dem Zielvollbild Bezug genommen wird. Intrakodierte Vollbilder jedoch, d. h. Vollbilder, die auf der Grundlage nur des Inhaltes des Sollbildes kodiert werden, werden ebenfalls eingefügt, um eine Fehlerfortpflanzung zu vermeiden und eine Zugreifbarkeit aus der Mitte des Stroms (willkürlicher Zugriff) zu ermöglichen. Die Kodierungseinheit, die wenigstens ein intrakodiertes Vollbild ("Intravollbild") enthält, wird als Bildgruppe GOP (group of pictures) bezeichnet.
  • Eine Bildgruppe GOP, in der die Kodierung vollständig innerhalb dieser GOP abgeschlossen ist, ist als "geschlossene GOP" bekannt. Eine Bildgruppe GOP, die ein Vollbild enthält, das mit Bezug auf ein Vollbild in einer vorangehenden oder folgenden Bildgruppe kodiert ist (ISO-13818 begrenzt nicht die P- und B-Bild-Kodierung auf die Bezugnahme auf vergangene Vollbilder), ist eine "offene GOP". Es ist somit möglich, eine geschlossene GOP unter Verwendung nur dieser GOP wiederzugeben. Die Wiedergabe einer offenen GOP erfordert jedoch auch das Vorhandensein der GOP, auf die Bezug genommen wird, im Allgemeinen die der offenen GOP vorangehende GOP.
  • Die GOP wird häufig als Zugriffseinheit verwendet. Zum Beispiel kann die GOP als Wiedergabestartpunkt zum Wiedergeben eines Titels aus der Mitte, als ein Übergangspunkt in einem Spielfilm, oder für das schnelle Vorspulen und andere spezielle Wiedergabemodi verwendet werden. Eine Hochgeschwindigkeitswiedergabe kann in solchen Fällen erreicht werden, indem nur die intravollbildkodierten Vollbilder in einer GOP wiedergegeben werden, oder indem nur Vollbilder in GOP-Einheiten wiedergegeben werden.
  • Auf der Grundlage des Subbildstromkodierungsparametersignals St11 kodiert der Subbildkodierer 500 einen spezifischen Teil des Subbildstroms St3, um einen kodierten Bitstrom veränderlicher Länge der gerasterten Daten zu erzeugen. Dieser kodierte Bitstrom veränderlicher Länge wird als kodierter Subbildstrom St17 an den Subbildstrompuffer 600 ausgegeben.
  • Auf der Grundlage des Audiokodierungsparametersignals St13 kodiert der Audiokodierer 700 einen spezifischen Teil des Audiostroms St5, um die kodierten Audiodaten zu erzeugen. Diese kodierten Audiodaten können Daten auf der Grundlage des in ISO-11172 definierten MPEG1-Audiostandards und des in ISO-13818 definierten MPEG2-Audiostandards, AC-3-Audiodaten oder PCM-(LPCM)-Daten sein. Es ist zu beachten, dass die Verfahren und Mittel zur Kodierung von Audiodaten gemäß diesen Standards bekannt sind und allgemein verfügbar sind.
  • Der Videostrompuffer 400 ist mit dem Videokodierer 300 und der Kodierungssystemsteuervorrichtung 200 verbunden. Der Videostrompuffer 400 speichert den kodierten Videostrom St15, der vom Videokodierer 300 eingegeben wird, und gibt den gespeicherten kodierten Videostrom St15 als zeitverzögerten kodierten Videostrom St27 auf der Grundlage des Zeitsteuersignals St21, das von der Kodierungssystemsteuervorrichtung 200 geliefert wird, aus.
  • Der Subbildstrompuffer 600 ist in ähnlicher Weise mit dem Subbildkodierer 500 und mit der Kodierungssystemsteuervorrichtung 200 verbunden. Der Subbildstrompuffer 600 speichert den kodierten Subbildstrom St17, der vom Subbildkodierer 500 eingegeben wird, und gibt anschließend den gespeicherten kodierten Subbildstrom St17 als zeitverzögerten kodierten Subbildstrom St29 auf der Grundlage des Zeitsteuersignals St23, das von der Kodierungssystemsteuervorrichtung 200 geliefert wird, aus.
  • Der Audiostrompuffer 800 ist in ähnlicher Weise mit dem Audiokodierer 700 und der Kodierungssystemsteuervorrichtung 200 verbunden. Der Audiostrompuffer 800 speichert den kodierten Audiostrom St19, der vom Audiokodierer 700 eingegeben wird, und gibt anschließend den kodierten Audiostrom St19 als zeitverzögerten kodierten Audiostrom St31 auf der Grundlage des Zeitsteuersignals St25, das von der Kodierungssystemsteuervorrichtung 200 geliefert wird, aus.
  • Der Systemkodierer 900 ist mit dem Videostrompuffer 400, dem Subbildstrompuffer 600, dem Audiostrompuffer 800 und der Kodierungssystemsteuervorrichtung 200 verbunden und erhält hiervon jeweils den zeitverzögerten kodierten Videostrom St27, den zeitverzögerten kodierten Subbildstrom St29, den zeitverzögerten kodierten Audiostrom St31 und die Systemstromkodierungsparameterdaten St33. Es ist zu beachten, dass der Systemkodierer 900 ein Multiplexer ist, der die zeitverzögerten Ströme St27, St29 und St31 auf der Grundlage der Stromkodierungsdaten St33 (Zeitsteuersignal) multiplexiert, um Titeleditiereinheiten (VOBs) St35 zu erzeugen.
  • Der VOB-Puffer 1000 speichert vorübergehend die Videoobjekte VOBs, die vom Systemkodierer 900 erzeugt werden. Der Formatierer 1100 liest die verzögerten Videoobjekte VOB aus dem VOB-Puffer 1000 auf der Grundlage des Titelsequenzsteuersignals St39, um eine Videozone VZ zu erzeugen, und fügt die Datenträgerdateistruktur VFS hinzu, um die editierten Multimediastromdaten St43 zu erzeugen.
  • Der Multimediabitstrom MBS St43, der gemäß dem benutzerdefinierten Szenario editiert worden ist, wird anschließend zur Aufzeichnungsvorrichtung 1200 gesendet. Die Aufzeichnungsvorrichtung 1200 verarbeitet die editierten Multimediastromdaten St43, um das Datenstrom-St45-Format des Aufzeichnungsmediums M zu erzeugen, und zeichnet somit den formatierten Datenstrom St45 auf dem Aufzeichnungsmedium M auf.
  • DVD-Dekodierer
  • Eine bevorzugte Ausführungsform eines digitalen Videoplattensystem-Autorendekodierers DCD, in welchem das Multimediabitstrom-Autorensystem der vorliegenden Erfindung auf ein digitales Videoplattensystem angewendet wird, wird im Folgenden beschrieben und ist in 26 gezeigt. Der Autorendekodierer DCD, der auf das digitale Videoplattensystem angewendet wird und im Folgenden als DVD-Dekodierer DCD bezeichnet wird, dekodiert den Multimediabitstrom MBS, der unter Verwendung des DVD-Kodierers ECD der vorliegenden Erfindung editiert worden ist, und stellt den Inhalt jedes Titels gemäß dem benutzerdefinierten Szenario wieder her. Ferner ist klar, dass der mit diesem DVD-Kodierer ECD kodierte Multimediabitstrom St45 auf einem digitalen Videoplattenmedium M aufgezeichnet ist.
  • Die Grundkonfiguration des DVD-Dekodierers DCD gemäß dieser Ausführungsform ist die gleiche wie diejenige des in 3 gezeigten Autorendekodierers DC. Die Unterschiede bestehen darin, dass ein anderer Videodekodierer 3801 (in 26 als 3800 gezeigt) anstelle des Videodekodierers 3800 verwendet wird, und ein Aufzeichnungspuffer 3300 und eine Auswahlvorrichtung 3400 zwischen dem Videodekodierer 3801 und dem Synthetisierer 3500 angeordnet sind.
  • Es ist zu beachten, dass die Auswahlvorrichtung 3400 mit dem Synchronisierer 2900 verbunden ist und durch ein Schaltsignal St103 gesteuert wird.
  • Die Operation dieses DVD-Dekodierers DCD wird daher im Folgenden im Vergleich mit dem obenbeschriebenen Autorendekodierer DC beschrieben.
  • Wie in 26 gezeigt ist, umfasst der DVD-Dekodierer DCD einen Multimediabitstromerzeuger 2000, eine Szenarioauswahlvorrichtung 2100, eine Dekodierungssystemsteuervorrichtung 2300, einen Strompuffer 2400, einen Systemdekodierer 2500, einen Videopuffer 2600, einen Subbildpuffer 2700, einen Audiopuffer 2800, einen Synchronisierer 2900, einen Videodekodierer 3801, einen Umordnungspuffer 3300, einen Subbilddekodierer 3100, einen Audiodekodierer 3200, eine Auswahlvorrichtung 3400, einen Synthetisierer 3500, einen Videodatenausgangsanschluss 3600 und einen Audiodatenausgangsanschluss 3700.
  • Der Bitstromerzeuger 2000 umfasst eine Aufzeichnungsmediumantriebseinheit 2004 zum Antreiben des Aufzeichnungsmediums M; einen Lesekopf 2006 zum Lesen der auf dem Aufzeichnungsmedium M aufgezeichneten Informationen und zum Erzeugen des binären Lesesignals St57; einen Signalprozessor 2008 zum verschiedenartigen Verarbeiten des Lesesignals St57, um den wiedergegebenen Bitstrom St61 zu erzeugen; und eine Wiedergabesteuervorrichtung 2002.
  • Die Wiedergabesteuervorrichtung 2002 ist mit der Dekodierungssystemsteuervorrichtung 2300 verbunden, von der das Multimediabitstromwiedergabesteuersignal St53 zugeführt wird, und erzeugt ihrerseits die Wiedergabesteuersignale St55 bzw. St59, die die Aufzeichnungsmediumantriebseinheit (Motor) 2004 und den Signalprozessor 2008 steuern.
  • Um die benutzerdefinierten Video-, Subbild- und Audioabschnitte des vom Autorenkodierer EC editierten Multimediatitels wiederzugeben, umfasst der Autorendekodierer DC eine Szenarioauswahlvorrichtung 2100 zum Auswählen und Wiedergeben der entsprechenden Szenen (Titel). Die Szenarioauswahlvorrichtung 2100 gibt anschließend die ausgewählten Titel als Szenariodaten an den DVD-Dekodierer DCD aus.
  • Die Szenarioauswahlvorrichtung 2100 umfasst vorzugsweise eine Tastatur, eine CPU und einen Monitor. Unter Verwendung der Tastatur gibt anschließend der Benutzer das gewünschte Szenario auf der Grundlage des Inhalts der Szenarioeingabe vom DVD-Kodierer ECD ein. Auf der Grundlage der Tastatureingabe erzeugt die CPU die Szenarioauswahldaten St51, die das ausgewählte Szenario spezifizieren. Die Szenarioauswahlvorrichtung 2100 ist mit der Dekodierungssystemsteuervorrichtung 2300 z. B. über eine Infrarotkommunikationsvorrichtung verbunden und gibt die erzeugten Szenarioauswahldaten St51 in die Dekodierungssystemsteuervorrichtung 2300 ein.
  • Der Strompuffer 2400 weist eine spezifische Pufferkapazität auf, die verwendet wird, um den wiedergegebenen Bitstrom St61, der vom Bitstromerzeuger 2000 eingegeben wird, vorübergehend zu speichern, extrahiert die Datenträgerdateistruktur VFS, die anfänglichen Synchronisationsdaten SCR (Systemtaktreferenz) in jedem Bündel, und die VOBU-Steuerinformationen (DSI) im Navigationsbündel NV, um die Bitstromsteuerdaten St63 zu erzeugen. Der Strompuffer 2400 ist ebenfalls mit der Dekodierungssystemsteuervorrichtung 2300 verbunden, an die er die erzeugten Bitstromsteuerdaten St63 liefert.
  • Auf der Grundlage der Szenarioauswahldaten St51, die von der Szenarioauswahlvorrichtung 2100 zugeführt werden, erzeugt die Dekodierungssystemsteuervorrichtung 2300 anschließend das Bitstromwiedergabesteuersignal St53, das die Operation des Bitstromerzeugers 2000 steuert. Die Dekodierungssystemsteuervorrichtung 2300 extrahiert ferner die benutzerdefinierten Wiedergabebefehlsdaten aus dem Bitstromwiedergabesteuersignal St53 und erzeugt die für die Dekodierungssteuerung benötigte Dekodierungsinformationstabelle. Diese Dekodierungsinformationstabelle wird weiter unten mit Bezug auf die 47 und 48 beschrieben. Die Dekodierungssystemsteuerrichtung 2300 extrahiert ferner die Titelinformationen, die auf der optischen Platte M aufgezeichnet sind, aus dem Dateidatenstrukturbereich FDS der Bitstromsteuerdaten St63, um das Titelinformationssignal St200 zu erzeugen. Es ist zu beachten, dass die extrahierten Titelinformationen den Videomanager VMG, die VDS-Informationen VDSI, die PGC-Informationseinträge C_PBI#j und die Zellenpräsentationszeile C_PBTM enthält.
  • Es ist zu beachten, dass die Bitstromsteuerdaten St63 in Bündeleinheiten erzeugt werden, wie in 19 gezeigt ist, und vom Strompuffer 2400 der Dekodierungssystemsteuervorrichtung 2300 zugeführt werden, mit der der Strompuffer 2400 verbunden ist.
  • Der Synchronisierer 2900 ist mit der Dekodierungssystemsteuervorrichtung 2300 verbunden, von der er die Systemtaktreferenz SCR empfängt, die in den Synchronisationssteuerdaten St81 enthalten sind, um den internen Systemtakt STC einzustellen und den Rücksetzsystemtakt St79 der Dekodierungssystemsteuervorrichtung 2300 zuzuführen.
  • Auf der Grundlage dieses Systemtakts St79 erzeugt die Dekodierungssystemvorrichtung 2300 ferner das Stromlesesignal St65 in einem spezifischen Intervall und gibt das Lesesignal St65 an den Strompuffer 2400 aus. Es ist zu beachten, dass die Leseeinheit in diesem Fall das Bündel ist.
  • Das Verfahren zur Erzeugung des Stromlesesignals St65 wird als Nächstes beschrieben.
  • Die Dekodierungssystemsteuervorrichtung 2300 vergleicht die Systemtaktreferenz SCR, die in dem aus dem Strompuffer 2400 extrahierten Stromsteuerdaten enthalten ist, mit dem vom Synchronisierer 2900 gelieferten Systemtakt St79 und erzeugt das Leseanforderungssignal St65, wenn der Systemtakt St79 größer ist als die Systemtaktreferenz SCR der Bitstromsteuerdaten St63. Bündelübertragungen werden durch Ausführen dieses Steuerprozesses für eine Bündeleinheit gesteuert.
  • Auf der Grundlage der Szenarioauswahldaten St51 erzeugt die Dekodierungssystemsteuervorrichtung 2300 das Dekodierungssignal St69, das die Strom-IDs für die Video-, Subbild- und Audiobitströme definieren, die dem ausgewählten Szenario entsprechen, und gibt es an den Systemdekodierer 2500 aus.
  • Wenn ein Titel mehrere Audiospuren enthält, z. B. Audiospuren in japanisch, englisch, französisch und/oder anderen Sprachen, und mehrere Subbildspuren für Untertitel in japanisch, englisch, französisch und/oder anderen Sprachen, ist z. B. eine diskrete ID jeder der Sprachspuren zugewiesen. Wie oben mit Bezug auf 19 beschrieben worden ist, ist eine Strom-ID den Videodaten und den MPEG-Audiodaten zugewiesen, wobei eine Substrom-ID den Subbilddaten, den AC-3-Audiodaten, den Linear-PCM-Daten und den Navigationsbündel-NV-Informationen zugewiesen ist. Obwohl sich der Benutzer dieser ID-Nummern nicht bewusst sein muss, kann der Benutzer die Sprache des Tons und/oder der Untertitel unter Verwendung der Szenarioauswahlvorrichtung 2100 auswählen. Wenn z. B. der englischsprachige Ton ausgewählt wird, wird die ID, die der englischen Audiospur entspricht, als Szenarioauswahldaten St51 zur Dekodierungssystemsteuervorrichtung 2300 gesendet. Die Dekodierungssystemsteuervorrichtung 2300 fügt anschließend diese ID dem an dem Systemdekodierer 2500 ausgegebenen Dekodierungssignal St69 hinzu.
  • Auf der Grundlage der im Dekodierungssignal St69 enthaltenen Befehle gibt der Systemdekodierer 2500 jeweils die Video-, Subbild- und Audiobitströme, die vom Strompuffer 2400 eingegeben werden, an den Videopuffer 2600, den Subbildpuffer 2700 und den Audiopuffer 2800 als kodierter Videostrom St71, kodierter Subbildstrom St73 und kodierter Audiostrom St75 aus. Wenn somit die von der Szenarioauswahlvorrichtung 2100 eingegebene Strom-ID und die vom Strompuffer 2400 eingegebene Bündel-ID übereinstimmen, gibt der Systemdekodierer 2500 die entsprechenden Bündel an die jeweiligen Puffer aus (d. h. an den Videopuffer 2600, dem Subbildpuffer 2700 und dem Audiopuffer 2800).
  • Der Systemdekodierer 2500 erfasst den Präsentationszeitstempel PDS und den Dekodierungszeitstempel DTS der kleinsten Steuereinheit in jedem Bitstrom St67, um das Zeitinformationssignal St77 zu erzeugen. Dieses Zeitinformationssignal St77 wird dem Synchronisierer 2900 über die Dekodierungssystemsteuervorrichtung 2300 als Synchronisierungssteuerdaten St81 zugeführt.
  • Auf der Grundlage dieser Synchronisationssteuerdaten St81 ermittelt der Synchronisierer 2900 den Dekodierungsstartzeitpunkt, wobei jeder der Bitströme in der richtigen Sequenz nach der Dekodierung angeordnet wird, und erzeugt anschließend das Videostromdekodierungsstartsignal St89 und gibt es auf der Grundlage dieses Dekodierungszeitablaufs in den Videodekodierer 3801 ein. Der Synchronisierer 2900 erzeugt ferner das Subbilddekodierungsstartsignal St91 und das Audiostromdekodierungsstartsignal St93 und liefert diese an den Subbilddekodierer 3100 bzw. den Audiodekodierer 3200.
  • Der Videodekodierer 3801 erzeugt das Videoausgabeanforderungssignal St84 auf der Grundlage des Videostromdekodierungsstartsignals St89 und gibt es an den Videopuffer 2600 aus. In Reaktion auf das Videoausgabeanforderungssignal St84 gibt der Videopuffer 2600 den Videostrom St83 an den Videodekodierer 3801 aus. Der Videodekodierer 3801 erfasst somit die im Videostrom St83 enthaltenen Präsentationszeitinformationen und sperrt das Videoausgabeanforderungssignal St84, wenn die Länge des empfangenen Videostroms St83 äquivalent zur spezifizierten Präsentationszeit ist. Ein Videostrom mit gleicher Länge wie die spezifizierte Präsentationszeit wird somit vom Videodekodierer 3801 dekodiert, welcher das wiedergegebene Videosignal St95 an den Umordnungspuffer 3300 und die Auswahlvorrichtung 3400 ausgibt.
  • Da der kodierte Videostrom unter Verwendung der Zwischenbildkorrelationen zwischen den Bildern kodiert ist, stimmen die kodierte Reihenfolge und die Anzeigereihenfolge nicht unbedingt auf einer Vollbildeinheitsbasis überein. Das Video kann daher nicht in der dekodierten Reihenfolge angezeigt werden. Die dekodierten Vollbilder werden daher vorübergehend im Umordnungspuffer 3300 gespeichert. Der Synchronisierer 2900 steuert somit das Schaltsignal St103 so, dass das wiedergegebene Videosignal St95, das vom Videodekodierer 3800 ausgegebenen wird, und der Umordnungspufferausgang St97 in geeigneter Weise ausgewählt werden und in der Anzeigereihenfolge an den Synthetisierer 3500 ausgegeben werden.
  • Der Subbilddekodierer 3100 erzeugt in ähnlicher Weise das Subbildausgabeanforderungssignal St86 auf der Grundlage des Subbilddekodierungsstartsignals St91 und gibt es an den Subbildpuffer 2700 aus. In Reaktion auf das Subbildausgabeanforderungssignal St86 gibt der Subbildpuffer 2700 den Subbildstrom St85 an den Subbilddekodierer 3100 aus. Auf der Grundlage der im Subbildstrom St85 enthaltenen Präsentationszeitinformationen dekodiert der Subbilddekodierer 3100 einen Abschnitt des Subbildstroms St85, der der spezifizierten Präsentationszeit entspricht, um das Subbildsignal St99 wiederzugeben und dem Synthetisierer 3500 zuzuführen.
  • Der Synthetisierer 3500 überlagert den Ausgang der Auswahlvorrichtung 3400 mit dem Subbildsignal St99, um das Videosignal St105 zu erzeugen und an den Videodatenausgangsanschluss 3600 auszugeben.
  • Der Audiodekodierer 3200 erzeugt das Audioausgabeanforderungssignal St88 auf der Grundlage des Audiostromdekodierungsstartsignals St93 und liefert es an den Audiopuffer 2800. Der Audiopuffer 2800 gibt somit den Audiostrom St87 an den Audiodekodierer 3200 aus. Der Audiodekodierer 3200 dekodiert einen Abschnitt des Audiostroms St87, der der spezifizierten Präsentationszeit entspricht, auf der Grundlage der im Audiostrom St87 enthaltenen Präsentationszeitinformationen und gibt den dekodierten Audiostrom St101 an den Audiodatenausgangsanschluss 3700 aus.
  • Es ist somit möglich, einen benutzerdefinierten Multimediabitstrom MBS in Echtzeit gemäß einem benutzerdefinierten Szenario wiederzugeben. Genauer ist jedes Mal dann, wenn der Benutzer ein anderes Szenario auswählt, der DVD-Dekodierer DCD fähig, den vom Benutzer gewünschten Titelinhalt in der gewünschten Sequenz wiederzugeben, indem er den Multimediabitstrom MBS entsprechend dem ausgewählten Szenario wiedergibt.
  • Es ist zu beachten, dass die Dekodierungssystemsteuervorrichtung 2300 das Titelinformationssignal St200 der Szenarioauswahlvorrichtung 2100 mittels der obenerwähnten Infrarotkommunikationsvorrichtung oder eines weiteren Mittels zuführen kann. Eine durch den Benutzer kontrollierte interaktive Szenarioauswahl kann ebenfalls ermöglicht werden, indem die Szenarioauswahlvorrichtung 2100 die auf der optischen Platte M aufgezeichneten Titelinformationen aus dem Dateidatenstrukturbereich FDS der Bitstromsteuerdaten St63, die im Titelinformationssignal St200 enthalten sind, extrahiert und diese Titelinformationen auf einer Anzeige für die Benutzerauswahl anzeigt.
  • Ferner ist zu beachten, dass der Strompuffer 2400, der Videopuffer 2600, der Subbildpuffer 2700, der Audiopuffer 2800 und der Umordnungspuffer 3300 in der obigen Beschreibung und in den Figuren als separate Elemente dargestellt sind, da sie funktional unterschiedlich sind. Es ist jedoch klar, dass ein einzelner Pufferspeicher so gesteuert werden kann, dass er die gleiche diskrete Funktionalität durch zeitversetzte gemeinsame Nutzung eines Pufferspeichers mit einer Arbeitsgeschwindigkeit, die um ein Vielfaches schneller als die Lese- und Schreibraten dieser separaten Puffer ist, bereitstellt.
  • Mehrfachszenensteuerung
  • Das Konzept der Mehrfachwinkelszenensteuerung gemäß der vorliegenden Erfindung wird im Folgenden mit 21 beschrieben. Wie oben beschrieben worden ist, sind Titel, die mit zahlreichen Variationen wiedergegeben werden können, aus Basisszenenperioden, die für jeden Titel gemeinsame Daten enthalten, und Mehrfachszenenperioden, die Gruppen unterschiedlicher Szenen entsprechend den verschiedenen Szenarioanforderungen umfassen, konstruiert. In 21 sind die Szene 1, 5 und 8 die gemeinsamen Szenen der Basisszenenperioden. Die Mehrfachwinkelszenen (Winkel 1, 2 und 3) zwischen den Szenen 1 und 5 und die Elternsperrszenen (Szenen 6 und 7) zwischen den Szenen 5 und 8 sind die Mehrfachszenenperioden.
  • Szenen, die aus unterschiedlichen Winkeln aufgenommen sind, d. h. aus den Winkeln 1, 2 und 3 in diesem Beispiel, können während der Wiedergabe in der Mehrfachwinkelszenenperiode dynamisch ausgewählt und wiedergegeben werden. In der Elternsperre-Szenenperiode kann jedoch nur eine der verfügbaren Szenen 6 und 7 mit unterschiedlichem Inhalt ausgewählt werden und muss statisch ausgewählt werden, bevor die Wiedergabe beginnt.
  • Welche diese Szenen aus den Mehrfachszenenperioden auszuwählen und wiederzugeben ist, wird durch den Benutzer definiert, der die Szenarioauswahlvor richtung 2100 bedient und somit die Szenarioauswahldaten St51 erzeugt. Im Szenario 1 in 21 kann der Benutzer irgendeine der Mehrfachwinkelszenen frei auswählen, wobei Szene 6 für die Ausgabe in der Elternsperre-Szenenperiode für die Ausgabe vorausgewählt worden ist. In ähnlicher Weise kann im Szenario 2 der Benutzer irgendeine der Mehrfachwinkelszenen frei auswählen, wobei die Szene 7 für die Ausgabe in der Elternsperre-Szenenperiode vorausgewählt worden ist.
  • Mit Bezug auf die 30 und 31 werden im Folgenden die Inhalte der Programmketteninformationen VTS_PGCI beschrieben. In 30 ist der Fall, dass ein Szenario vom Benutzer angefordert wird, mit Bezug auf eine VTSI-Datenkonstruktion gezeigt. Das Szenario 1 und das Szenario 2, die in 21 gezeigt sind, werden als Programmketteninformationen VTS_PGC#1 und VTS_PGC#2 beschrieben. VTS_PGC#1, die das Szenario 1 beschreiben, umfassen die Zellenwiedergabeinformationen C_PBI#1 entsprechend der Szene 1, C_PBI#2, C_PBI#3 und C_PBI#4 innerhalb eines Mehrfachwinkelzellenblocks, C_PBI#5 entspricht der Szene 5, C_PBI#6 entspricht der Szene 6 und C_PBI#7 entspricht der Szene 8.
  • VTS_PGCI#2, die das Szenario 2 beschreiben, umfassen Zellenwiedergabeinformationen C_PBI#1, die der Szene 1 entsprechen, C_PBI#2, C_PBI#3 und C_PBI#4 innerhalb eines Mehrfachwinkelzellenblocks, der einer Mehrfachwinkelszene entspricht, wobei C_PBI#5, die der Szene 5 entsprechen, C_PBI#6, die der Szene 7 entsprechen, und C_PBI#7, die der Szene 8 entsprechen. Gemäß der digitalen Videosystemdatenstruktur wird eine Szene, die eine Steuereinheit eines Szenarios ist, als eine Zelle beschrieben, die hierunter eine Einheit bildet, so dass ein von einem Benutzer angefordertes Szenario erhalten werden kann.
  • In 1 ist der Fall, dass ein Szenario von Benutzer wie in 21 gezeigt angefordert wird, mit Bezug auf eine VOB-Datenkonstruktion VTSTT_VOBS gezeigt. Wie in 31 genauer gezeigt ist, verwenden die zwei Szenarios 1 und 2 die gleichen VOB-Daten gemeinsam. Bezüglich einer einzelnen Szene, die von jedem Szenario gemeinsam verwendet wird, sind VOB#1 entsprechend der Szene 1, VOB#5 entsprechend der Szene 5 und VOB#8 entsprechend der Szene 8 im unverschachtelten Block angeordnet, der der zusammenhängende Block ist.
  • In Bezug auf die Mehrfachwinkeldaten, die von den Szenario 1 und 2 gemeinsam verwendet werden, sind die einen Winkelszenendaten mittels einer einzelnen VOB konstruiert. Genauer ist der Winkel 1 mittels VOB#2 konstruiert, wobei Winkel 2 mittels VOB#3 konstruiert ist, und Winkel 3 mittels VOB#4 konstruiert ist. Die so konstruierten Mehrfachwinkeldaten werden als verschachtelter Block zum Zweck der Uhrschalung zwischen den jeweiligen Winkeln und der nahtlosen Wiedergabe der jeweiligen Winkeldaten gebildet. Die Szenen 6 und 7, die für die Szenarios 1 und 2 jeweils spezifisch sind, werden als verschachtelter Block zum Zweck der nahtlosen Wiedergabe zwischen den gemeinsamen Szenen vor und nach demselben sowie zur nahtlosen Wiedergabe zwischen der jeweiligen Szene gebildet.
  • Wie oben beschrieben worden ist, kann das in 21 gezeigte und vom Benutzer angeforderte Szenario verwirklicht werden, indem die in 30 gezeigten Videotitelwiedergabesteuerinformationen und die in 31 gezeigte Titelwiedergabe VOB-Datenstruktur verwendet werden.
  • Nahtlose Wiedergabe
  • Die Fähigkeit zur nahtlosen Wiedergabe, die oben mit Bezug auf die digitale Videoplattensystemdatenstruktur kurz erwähnt worden ist, wird im Folgenden beschrieben. Es ist zu beachten, dass sich die nahtlose Wiedergabe auf die Wiedergabe von Multimediadaten, die Video-, Audio- und Subbilddaten enthalten, in einem digitalen Videoplattensystem ohne intermittierende Unterbrechungen in den Daten oder Informationen zwischen Basisszenenperioden, zwischen Basisszenenperioden und Mehrfachszenenperioden und zwischen Mehrfachszenenperioden bezieht.
  • Hardware-Faktoren, die zu einer intermittierenden Wiedergabe dieser Daten und des Titelinhalts beitragen, umfassen einen Dekodiererunterlauf, d. h. ein Ungleichgewicht zwischen der Quellendateneingabegeschwindigkeit und der Dekodierungsgeschwindigkeit der eingegebenen Quellendaten.
  • Andere Faktoren beziehen sich auf die Eigenschaften der Wiedergabedaten. Wenn die Wiedergabedaten Daten sind, die kontinuierlich für eine konstante Zeiteinheit wiedergegeben werden müssen, damit der Benutzer den Inhalt oder die Information versteht, wie z. B. Audiodaten, geht die Datenkontinuität verloren, wenn die geforderte kontinuierliche Präsentationszeit nicht sichergestellt werden kann. Die Wiedergabe solcher Informationen, bei denen die benötigte Kontinuität sichergestellt wird, wird als "kontinuierliche Informationswiedergabe" oder "nahtlose Informationswiedergabe" bezeichnet. Die Wiedergabe dieser Informationen wird dann, wenn die benötigte Kontinuität nicht sichergestellt werden kann, als "nicht-kontinuierliche Informationswiedergabe" oder "nicht-nahtlose Informationswiedergabe" bezeichnet. Es ist klar, dass die kontinuierliche Informationswiedergabe und die nicht kontinuierliche Informationswiedergabe jeweils die nahtlose bzw. nicht-nahtlose Wiedergabe sind.
  • Es ist zu beachten, dass die nahtlose Wiedergabe ferner als nahtlose Datenwiedergabe und als nahtlose Informationswiedergabe klassifiziert werden kann. Die nahtlose Datenwiedergabe ist definiert als Verhinderung von physikalischen Aussetzern oder Unterbrechungen in der Datenwiedergabe (intermittierenden Wiedergabe) als Ergebnis z. B. eines Pufferunterlaufzustands. Die nahtlose Informationswiedergabe ist definiert als Verhinderung von offensichtlichen Unterbrechungen in der Information, wenn sie vom Benutzer wahrgenommen wird (intermittierende Präsentation), wenn Informationen aus den Wiedergabedaten betrachtet werden, wobei es keine wirklichen physikalischen Unterbrechungen in der Datenwiedergabe gibt.
  • Einzelheiten der nahtlosen Wiedergabe
  • Das spezifische Verfahren, das die bisher beschriebene nahtlose Wiedergabe ermöglicht, wird weiter unten mit Bezug auf die 23 und 24 beschrieben.
  • Verschachtelung
  • Die obenbeschriebenen DVD-Datensystemströme werden unter Verwendung eines geeigneten Autorenkodierers EC als ein Spielfilm oder ein anderer Multimediatitel auf einem DVD-Aufzeichnungsmedium aufgezeichnet. Es ist zu beachten, dass sich die folgende Beschreibung auf einem Spielfilm als verarbeiteten Multimediatitel bezieht, jedoch ist klar, dass die Erfindung nicht hierauf beschränkt ist.
  • Die Lieferung eines einzelnen Spielfilms in einem Format, der die Verwendung des Spielfilms in mehreren unterschiedlichen Kulturbereichen oder Ländern ermöglicht, erfordert, dass das Drehbuch in den verschiedenen Sprachen aufgezeichnet wird, die in diesen Regionen oder Ländern verwendet werden. Es kann sogar notwendig sein, den Inhalt zu editieren, um den Sitten und den Moralerwartungen von verschiedenen Kulturen zu entsprechen. Selbst wenn ein Speichersystem mit einer solchen großen Kapazität wie das DVD-System verwendet wird, ist es jedoch notwendig, die Bitrate und somit die Bildqualität zu reduzieren, wenn mehrere Titel mit voller Länge, die ausgehend von einem einzelnen gemeinsamen Quellentitel editiert worden sind, auf einer einzelnen Platte aufgezeichnet werden. Dieses Problem kann gelöst werden, indem die gemeinsamen Teile mehrerer Titel nur einmal aufgezeichnet werden und nur die Segmente, die in jedem Titel unterschiedlich sind, für jeden unterschiedlichen Titel aufgezeichnet werden. Dieses Verfahren ermöglicht, mehrere Titel für verschiedene Länder oder Kulturen auf eine einzigen optischen Platte aufzuzeichnen, ohne die Bitrate zu reduzieren, um somit eine hohe Bildqualität aufrechtzuerhalten.
  • Wie in 21 gezeigt ist, enthalten die auf einer einzigen optischen Platte aufgezeichneten Titel Basisszenenperioden von Szenen, die für alle Szenarios gleich sind, und Mehrfachszenenperioden, die für bestimmte Szenarios spezifische Szenen enthalten, um eine Elternsperre-Kontrolle und Mehrfachwinkelszenen-Steuerfunktionen zur Verfügung zu stellen.
  • Im Fall der Elternsperre-Kontrollfunktion werden Titel, die Sexszenen, Gewaltszenen oder andere Szenen, die als für Kinder ungeeignet erachtet werden, d. h. sogenannte "Erwachsenenszenen", mit einer Kombination von gemeinsamen Szenen, Erwachsenenszenen und Kinderszenen aufgezeichnet. Diese Titelströme werden erreicht, indem die Erwachsenen- und Kinderszenen zu Mehrfachszenenperioden zwischen den gemeinsamen Basisszenenperioden angeordnet werden.
  • Eine Mehrfachwinkelsteuerung kann in einem herkömmlichen Einzelwinkeltitel erreicht werden, indem mehrere Multimediaszenen aufgezeichnet werden, die erhalten werden durch Aufzeichnen der Subjekte aus den gewünschten mehreren Kamerawinkeln in den Mehrfachszenenperioden, die zwischen den gemeinsamen Basisszenenperioden angeordnet sind. Es ist jedoch zu beachten, dass, während diese mehreren Szenen hier als Szenen beschrieben werden, die aus unterschiedlichen Kamerawinkeln (Positionen) aufgezeichnet worden sind, klar ist, dass die Szenen aus dem gleichen Kamerawinkel, jedoch zu unterschiedlichen Zeiten aufgezeichnet sein können, oder von Computergraphiken erzeugte Daten oder andere Videodaten sein können.
  • Wenn Daten zwischen verschiedenen Szenarios eines einzelnen Titels gemeinsam genutzt werden, ist es offensichtlich notwendig, den Laserstrahl LS von den gemeinsamen Szenedaten zu den nicht gemeinsamen Szenedaten während der Wiedergabe zu bewegen, d. h. den optischen Aufnehmer zu einer anderen Position auf dem DVD-Aufzeichnungsmedium PC1 zu bewegen. Das Problem ist hierbei, dass die zum Bewegen des optischen Aufnehmers benötigte Zeit es schwierig macht, die Wiedergabe ohne Erzeugung von Unterbrechungen in den Audio- oder Videodaten fortzusetzen, d. h. eine nahtlose Wiedergabe zu erhalten. Dieses Problem kann theoretisch gelöst werden, indem ein Spurpuffer (Strompuffer 2400) vorgesehen wird, um die Datenausgabe um ein Maß äquivalent zur ungünstigsten Zugriffszeit zu verzögern. Im Allgemeinen werden die auf einer optischen Platte aufgezeichneten Daten vom optischen Aufnehmer gelesen, in geeigneter Weise verarbeitet und vorübergehend im Spurpuffer gespeichert. Die gespeicherten Daten werden anschließend dekodiert und als Video- oder Audiodaten wiedergegeben.
  • Definition der Verschachtelung
  • Um somit dem Benutzer zu ermöglichen, selektiv Szenen zu entfernen und unter mehreren Szenen zu wählen, tritt notwendigerweise ein Zustand ein, in dem nicht ausgewählte Szenendaten aufgezeichnet werden, die zwischen gemeinsamen Szenendaten und selektiven Szenendaten eingesetzt sind, da die Dateneinheiten, die den individuellen Szenen zugeordnet sind, zusammenhängend auf den Aufzeichnungsspuren des Aufzeichnungsmediums aufgezeichnet sind. Wenn die Daten anschließend in der aufgezeichneten Sequenz gelesen werden, muss auf nicht ausgewählte Szenendaten zugegriffen werden, bevor auf die ausgewählten Szenendaten zugegriffen wird und diese dekodiert werden, wobei eine nahtlose Verbindung mit der ausgewählten Szene schwierig ist. Die hervorragenden Willkürzugriffseigenschaften des digitalen Videoplattensystems machen jedoch nahtlose Verbindungen mit ausgewählten Szenen möglich.
  • Mit anderen Worten, durch Aufteilen von szenenspezifischen Daten in mehrere Einheiten einer spezifizierten Datengröße und Verschachteln mehrerer geteilter Dateneinheiten für unterschiedliche Szenen in einer vordefinierten Sequenz, die auf der Platte innerhalb des Sprungbereiches aufgezeichnet wird, wodurch kein Datenunterlaufzustand auftritt, ist es möglich, die ausgewählten Szenen ohne Datenunterbrechungen wiederzugeben, indem intermittierend auf die für die ausgewählten Szenen spezifischen Daten unter Verwendung dieser geteilten Dateneinheiten zugegriffen wird und diese dekodiert werden. Somit wird eine nahtlose Datenwiedergabe sichergestellt.
  • Verschachtelter Block und Verschachtelungseinheit
  • Das Verschachtelungsverfahren, das eine nahtlose Datenwiedergabe gemäß der vorliegenden Erfindung ermöglicht, wird im Folgenden mit Bezug auf 24 und 65 beschrieben. In 24 ist ein Fall gezeigt, aus dem drei Szenarios abgeleitet werden können, d. h. verzweigend von einem Videoobjekt VOB-A zu einem von mehreren Videoobjekten VOB-B, VOB-C und VOB-D, und anschließend wieder zurückführend zu einem einzigen Videoobjekt VOB-E. Die wirkliche Anordnung dieser Blöcke, die auf einer Datenaufzeichnungsspur TR auf einer Platte aufgezeichnet sind, ist in 65 gezeigt.
  • Wie in 65 gezeigt ist, sind VOB-A und VOB-E Videoobjekte mit unabhängigen Wiedergabestart- und -endzeitpunkten und sind prinzipiell in zusammenhängenden Blockbereichen angeordnet. Wie in 24 gezeigt ist, werden die Wiedergabestart- und -endzeitpunkte von VOB-B, VOB-C und VOB-D während der Verschachtelung ausgerichtet. Die verschachtelten Datenblöcke werden anschließend auf der Platte in einem zusammenhängenden verschachtelten Blockbereich aufgezeichnet. Die zusammenhängenden Blockbereiche und die verschachtelten Blockbereiche werden anschließend in der Richtung der Spurbahn Drin der Wiedergabesequenz auf die Platte geschrieben. In 65 sind mehrere Videoobjekte VOB, d. h. verschachtelte Videoobjekte VOBS, auf der Datenaufzeichnungsspur TR angeordnet gezeigt.
  • Wie in 65 gezeigt ist, werden Datenbereiche, auf denen Daten kontinuierlich angeordnet sind, als "Blöcke" bezeichnet, von denen es zwei Typen gibt: "zu sammenhängende Blockbereiche", in denen VOBs mit diskreten Start- und Endpunkten zusammenhängend angeordnet sind, und "verschachtelte Blockbereiche", in denen mehrerer VOBs mit ausgerichteten Start- und Endpunkten verschachtelt sind. Die jeweiligen Blöcke sind wie in 66 gezeigt in der Wiedergabesequenz angeordnet, nämlich Block 1, Block 2, Block 3, ... Block 7.
  • Wie in 66 gezeigt ist, umfasst der VTS-Titel-VOBS (VTSTT_VOBS) die Blöcke 17 einschließlich. Block 1 enthält nur VOB1. Die Blöcke 2, 3, 5 und 7 enthalten in ähnlicher Weise diskret die VOBS 2, 3, 6 und 10. Die Blöcke 2, 3, 5 und 7 sind somit zusammenhängende Blockbereiche.
  • Block 4 enthält jedoch VOB 4 und VOB 5, die miteinander verschachtelt sind, während Block 6 VOB 7, VOB 8 und VOB 9 enthält, die miteinander verschachtelt sind. Die Blöcke 4 und 6 sind daher verschachtelte Blockbereiche.
  • Die interne Datenstruktur der zusammenhängenden Blockbereiche ist in 67 gezeigt, wobei VOB-i und VOB-j als die zusammenhängenden Blöcke in den VOBs angeordnet sind. Wie mit Bezug auf 16 beschrieben worden ist, sind VOB-i und VOB-j innerhalb der zusammenhängenden Blockbereiche weiter logisch in Zellen als Wiedergabeeinheit unterteilt. Sowohl VOB-i als auch VOB-j sind in dieser Figur so dargestellt, dass sie drei Zellen Zelle#1, Zelle#2 und Zelle#3 umfassen.
  • Jede Zelle umfasst eine oder mehrere Videoobjekteinheiten VOBU, wobei die Videoobjekteinheit VOBU die Grenzen der Zelle definiert. Jede Zelle enthält ferner Informationen, die die Position der Zelle in der Programmkette PGC identifizieren (die Wiedergabesteuerinformationen des digitalen Videoplattensystems). Genauer ist diese Positionsinformation die Adresse der ersten und der letzten VOBU in der Zelle. Wie auch in 67 gezeigt ist, werden diese VOB und die darin definierten Zellen ebenfalls in einem zusammenhängenden Blockbereich aufgezeichnet, so dass zusammenhängende Blöcke zusammenhängend wiedergegeben werden. Die Wiedergabe dieser zusammenhängender Blöcke ist daher kein Problem.
  • Die interne Datenstruktur der verschachtelten Blockbereiche ist in 68 gezeigt. In den verschachtelten Blockbereichen ist jedes Videoobjekt VOB in verschachtelte Einheiten ILVU unterteilt, wobei die verschachtelten Einheiten ILVU, die jeder VOB zugeordnet sind, alternierend angeordnet sind. Die Zellgrenzen sind unabhängig von den verschachtelten Einheiten ILVU definiert. Zum Beispiel ist VOB-k in vier verschachtelte Einheiten wie I_VUk1, ILVUk2, ILVUk3 und ILVUk4 unterteilt und durch eine einzelne Zelle, die Zelle#k, begrenzt. VOB-k ist in ähnlicher Weise in vier verschachtelte Einheiten ILVUm1, ILVUm2, ILVUm3 und ILVUm4 unterteilt und durch eine einzelne Zelle, die Zelle#m, begrenzt. Es ist zu beachten, dass anstelle einer einzelnen Zelle, Zelle#k oder Zelle#m, jede von VOB-k und VOB-m in mehr als zwei Zellen unterteilt sein kann. Die verschachtelten Einheiten ILVU enthalten somit sowohl Audio- als auch Videodaten.
  • In dem in 68 gezeigten Beispiel sind die verschachtelten Einheiten ILVUk1, ILVUk2, ILVUk3 und ILVUk4, sowie ILVUm1, ILVUm2, ILVUm3 und ILVUm4 von zwei unterschiedlichen Videoobjekten VOB-k und VOB-m alternierend innerhalb eines einzelnen verschachtelten Blocks angeordnet. Durch Verschachtelung der verschachtelten Einheiten ILVU der zwei Videoobjekte VOB in dieser Reihenfolge ist es möglich, eine nahtlose Wiedergabe zu erreichen, die von einer Szene zu einer von mehreren Szenen und von einer von mehreren Szenen zu einer Szene verzweigt.
  • Mehrfachszenensteuerung
  • Die Mehrfachszenenperiode wird zusammen mit dem Konzept der Mehrfachszenensteuerung gemäß der vorliegenden Erfindung unter beispielhafter Verwendung eines Titels, der aus unterschiedlichen Winkeln aufgezeichnete Szenen umfasst, beschrieben.
  • Jede Szene in der Mehrfachszenensteuerung ist aus dem gleichen Winkel aufgezeichnet, kann jedoch zu unterschiedlichen Zeiten aufgezeichnet sein oder kann auch vom Computer erzeugte Graphikdaten umfassen. Die Mehrfachwinkelszenenperioden können daher auch als Mehrfachszenenperioden bezeichnet werden.
  • Elternkontrolle
  • Das Konzept der Aufzeichnung mehrerer Titel, die alternative Szenen umfassen, für solche Funktionen wie z. B. die Elternsperre-Kontrolle, sowie die Aufzeichnung einer Regisseurversion, wird im Folgenden mit Bezug auf 15 beschrieben.
  • Ein Beispiel eines mehrfach eingestuften Titelstroms, der eine Elternsperrekontrolle zur Verfügung stellt, ist in 15 gezeigt. Wenn sogenannte "Erwachsenenszenen", die Sex, Gewalt oder andere Szenen enthalten, die als für Kinder ungeeignet erachtet werden, in einem Titel enthalten sind, der eine Elternsperrekontrolle implementiert, ist der Titelstrom mit einer Kombination von gemeinsamen Systemströmen SSa, SSb und SSe, eines an Erwachsenen orientierten Systemstroms SSc, der die Erwachsenenszenen enthält, und eines an Kindern orientierten Systemstroms SSb, der nur die für Kinder geeigneten Szenen enthält, aufgezeichnet. Titelströme wie dieser werden als ein Mehrfachszenensystemstrom aufgezeichnet, der den an Erwachsenen orientierten Systemstrom SSc und den an Kindern orientierten Systemstrom SSd enthält, die in der Mehrfachszenenperiode zwischen den gemeinsamen Systemströmen SSb und SSe angeordnet sind.
  • Die Beziehung zwischen jedem der Komponententitel und dem in der Programmkette PGC eines so aufgebauten Titelstroms aufgezeichneten Systemstroms wird im Folgenden beschrieben.
  • Die an Erwachsenen orientierte Titelprogrammkette PGC1 umfasst der Reihe nach die gemeinsamen Systemströme Ssa und Ssb, dem an Erwachsenen orientierten Systemstrom Ssc und den gemeinsamen Systemstrom Sse. Die an Kindern orientierte Titelprogrammkette PGC2 umfasst der Reihe nach die gemeinsamen Systemströme Ssa und Ssb, den an Kindern orientierten Systemstrom Ssd und den gemeinsamen Systemstrom Sse.
  • Durch diese Anordnung des an Erwachsenen orientierten Systemstroms Ssc und des an Kindern orientierten Systemstroms Ssd in einer Mehrfachszenenperiode kann das vorher beschriebene Dekodierungsverfahren den Titel wiedergeben, der den an Erwachsenen orientierten Inhalt enthält, indem die gemeinsamen Systemströme Ssa und Ssb wiedergegeben werden, anschließend der an Erwachsene orientierte Systemstrom Ssc ausgewählt und wiedergegeben wird, und anschließend der gemeinsame Systemstrom Sse wiedergegeben wird, wie durch die an Erwachsenen orientierte Titelprogrammkette PGC1 angewiesen wird. Indem alternativ die an Kindern orientierte Titelprogrammkette PGC2 verfolgt wird und in der Mehrfachszenenperiode der an Kindern orientierte Systemstrom Ssd ausgewählt wird, kann ein an Kindern orientierter Titel wiedergegeben werden, aus dem die an Erwachsenen orientierten Szenen entfernt worden sind.
  • Dieses Verfahren der Bereitstellung einer Mehrfachszenenperiode, die mehrere alternative Szenen enthält, im Titelstrom, des Auswählens, welche der Szenen in der Mehrfachszenenperiode wiederzugeben sind, bevor die Wiedergabe beginnt, und des Erzeugens mehrerer Titel, die im wesentlichen den gleichen Titelinhalt, jedoch teilweise unterschiedliche Szenen enthalten, wird als Elternsperrekontrolle bezeichnet.
  • Es ist zu beachten, dass die Elternsperrekontrolle aufgrund der wahrgenommenen Notwendigkeit zum Schutz von Kindern vor unerwünschten Inhalten so benannt ist. Aus der Perspektive der Systemstromverarbeitung jedoch ist die Elternsperrekontrolle eine Technik zum statischen Erzeugen unterschiedlicher Titelströme mittels der vom Benutzer vorausgewählten spezifischen Szenen aus einer Mehrfachszenenperiode. Ferner ist zu beachten, dass dies im Gegensatz zur Mehrfachwinkelszenensteuerung steht, die eine Technik zum dynamischen Ändern des Inhalts durch den Benutzer durch freies Auswählen von Szenen aus der Mehrfachszenenperiode in Echtzeit während der Titelwiedergabe ist.
  • Diese Elternsperrekontrolle-Technik kann auch verwendet werden, um ein Titelstromeditieren zu ermöglichen, wie z. B. dann, wenn eine Regisseurversion erstellt wird. Die Regisseurversion bezieht sich auf den Prozess des Editierens bestimmter Szenen aus einem Spielfilm, um z. B. die Gesamtpräsentationszeit zu verkürzen. Dies kann z. B. notwendig sein, um einen Film mit Spielfilmlänge zum Betrachten in einem Flugzeug zu editieren, wo die Präsentationszeit für die Betrachtung innerhalb der Flugzeit zu lang ist oder ein bestimmter Inhalt nicht akzeptabel sein kann. Der Filmregisseur bestimmt somit, welche Szenen herausgeschnitten werden können, um den Spielfilm zu kürzen. Der Titel kann dann so wohl mit einem uneditierten Systemstrom mit voller Länge als auch mit einem editierten Systemstrom, in dem die editierten Szenen in Mehrfachszenenperioden aufgezeichnet sind, aufgezeichnet werden. Am Übergang von einem Systemstrom zu einem weiteren Systemstrom muss in solchen Anwendungen die Elternsperrekontrolle fähig sein, eine gleichmäßige Wiedergabebildausgabe zu erhalten. Genauer sind eine nahtlose Datenwiedergabe, mit der in den Audio-, Video- oder anderen Puffern kein Datenunterlaufzustand auftritt, und eine nahtlose Informationswiedergabe, bei der keine unnatürlichen Unterbrechungen in der Audio- und Videowiedergabe hörbar oder sichtbar sind, notwendig.
  • Mehrfachwinkelsteuerung
  • Das Konzept der Mehrfachwinkelszenensteuerung in der vorliegenden Erfindung wird als nächstes mit Bezug auf 33 beschrieben. Im allgemeinen werden Multimediatitel erhalten, indem sowohl die Audio- als auch die Videoinformationen (im folgenden gemeinsam "Aufzeichnung" genannt) des Subjekts über die Zeit T aufgezeichnet werden. Die Winkelszenenblöcke #SZ1, #SM1, #SM2, #SM3 und #SC3 repräsentieren die Multimediaszenen, die zu den Aufzeichnungseinheitszeiten T1, T2 und T3 durch Aufzeichnen des Subjekts in den jeweiligen Kamerawinkeln erhalten werden. Die Szenen #SM1, #SM2 und #SM3 werden in zueinander verschiedenen (ersten, zweiten und dritten) Kamerawinkeln während der Aufzeichnungseinheitszeit T2 aufgezeichnet und werden im folgenden als erste, zweite und dritte Winkelszenen bezeichnet.
  • Es ist zu beachten, dass die Mehrfachszeneriperioden, auf die hier Bezug genommen wird, grundsätzlich als aus verschiedenen Winkeln aufgenommene Szenen umfassend betrachtet werden. Die Szenen können jedoch aus dem gleichen Winkel, jedoch zu verschiedenen Zeitpunkten, aufgezeichnet sein, oder können Computergraphikdaten sein. Die Mehrfachwinkelszenenperioden sind somit die Mehrfachszenenperioden, aus denen mehrere Szenen für die Präsentation in der gleichen Zeitperiode ausgewählt werden können, unabhängig davon, ob die Szenen wirklich in unterschiedlichen Kamerawinkeln aufgenommen worden sind.
  • Die Szenen #SC1 und #SC3 sind Szenen, die während den Aufnahmeeinheitszeiten T1 und T3, d. h. vor und nach den Mehrfachwinkelszenen, im gleichen gemeinsamen Kamerawinkel aufgezeichnet worden sind. Diese Szenen werden daher als "gemeinsame Winkelszenen" bezeichnet. Es ist zu beachten, dass einer der mehreren Kamerawinkel, die in den Mehrfachwinkelszenen verwendet werden, gewöhnlich der gleiche Winkel ist wie der gemeinsame Kamerawinkel.
  • Um die Beziehung zwischen diesen verschiedenen Winkelszenen zu verstehen, wird im folgenden unter Verwendung einer Liveübertragung z. B. eines Baseball-Spiels die Mehrfachwinkelszenensteuerung beschrieben.
  • Die gemeinsamen Winkelszenen #SC1 und #SC3 werden im gemeinsamen Kamerawinkel aufgezeichnet, der hier als die Sicht vom zentralen Feld auf der Achse durch den Werfer, den Schläger und den Fänger definiert ist.
  • Die erste Winkelszene #SM1 wird im ersten Mehrfachkamerawinkel aufgezeichnet, d. h. in dem Kamerawinkel vom Hintergrundfänger auf der Achse durch den Fänger, den Werfer und den Schlagmann. Die zweite Winkelszene #SM2 wird im zweiten Mehrfachkamerawinkel aufgezeichnet, d. h. in der Sicht vom zentralen Feld auf der Achse durch den Werfer, den Schlagmann und den Fänger. Es ist zu beachten, dass die zweite Winkelszene #SM2 in diesem Fall somit dem gemeinsamen Kamerawinkel entspricht. Daraus folgt, dass die zweite Winkelszene #SM2 die gleiche ist wie die gemeinsame Winkelszene #SC2, die während der Aufzeichnungseinheitszeit T2 aufgezeichnet worden ist. Die dritte Winkelszene #SM3 wird im dritten Mehrfachkamerawinkel aufgezeichnet, d. h. in dem Kamerawinkel vom Hintergrundfänger fokussiert auf das Innenfeld.
  • Die Präsentationszeiten der Mehrfachwinkelszenen #SM1, #SM2 und #SM3 überlappen in der Aufzeichnungseinheitszeit T2, wobei diese Periode als "Mehrfachwinkelszenenperiode" bezeichnet wird. Durch freies Auswählen einer der Mehrfachwinkelszenen #SM1, #SM2 und #SM3 in dieser Mehrfachwinkelszenenperiode ist der Betrachter fähig, seine virtuelle Betrachtungsposition zu ändern, um eine andere Sicht des Spiels durch Ändern des aktuellen Kamerawinkels zu genießen. Obwohl scheinbar eine Zeitlücke zwischen den gemeinsamen Winkelszenen #SC1 und #SC3 und den Mehrfachwinkelszenen #SM1, #SM2 und #SM3 in 33 vorhanden ist, ist zu beachten, dass dies einfach dazu dient, die Verwendung der Pfeile in der Figur für eine einfachere Beschreibung der Datenwiedergabepfade, die durch Auswählen unterschiedlicher Winkelszenen wie dergegeben werden, zu erleichtern. Es gibt keine wirkliche Zeitlücke während der Wiedergabe.
  • Die Mehrfachwinkelszenensteuerung des Systemstroms auf der Grundlage der vorliegenden Erfindung wird im folgenden mit Bezug auf 33 aus der Perspektive der Verbindung von Datenblöcken beschrieben. Die Multimediadaten, die der gemeinsamen Winkelszene #SC entsprechen, werden als gemeinsame Winkeldaten BA bezeichnet, wobei die gemeinsamen Winkeldaten BA in den Aufzeichnungseinheitszeiten T1 und T3 mit BA1 bzw. BA3 bezeichnet werden. Die Multimediadaten, die den Mehrfachwinkelszenen #SM1, #SM2 und #SM3 entsprechen, werden als erste, zweite und dritte Winkelszenendaten MA1, MA2 und MA3 bezeichnet. Wie vorher mit Bezug auf 33 beschrieben worden ist, können Szenen aus dem gewünschten Winkel betrachtet werden, indem eine der Mehrfachwinkeldateneinheiten MA1, MA2 und MA3 ausgewählt wird. Es besteht wiederum keine Zeitlücke zwischen den gemeinsamen Winkeldaten BA1 und BA3 und den Mehrfachwinkeldateneinheiten MA1, MA2 und MA3.
  • Im Fall eines MPEG-Systemstroms können jedoch intermittierende Unterbrechungen in den Wiedergabeinformationen zwischen den wiedergegebenen gemeinsamen und mehrfachen Winkeldateneinheiten in Abhängigkeit vom Inhalt der Daten an der Verbindung zwischen der ausgewählten Mehrfachwinkeldateneinheit MA1, MA2 und MA3 und den gemeinsamen Winkeldaten BA resultieren (entweder die ersten gemeinsamen Winkeldaten BA1 vor dem ausgewählten Winkel in der Mehrfachwinkelszenenperiode oder die gemeinsamen Winkeldaten BA3 nach dem ausgewählten Winkel in der Mehrfachwinkelszenenperiode). Das Ergebnis ist in diesem Fall, dass der Titelstrom nicht natürlich als ein einzelner zusammenhängender Titel wiedergegeben wird, d. h. es wird eine nahtlose Datenwiedergabe erreicht, jedoch ergibt sich eine nicht-nahtlose Informationswiedergabe.
  • Der Mehrfachwinkelauswahlprozess, mit dem eine der mehreren Szenen selektiv aus der Mehrfachwinkelszenenperiode mit einer nahtlosen Informationspräsentation zu den Szenen vorher und nachher wiedergegeben wird, wird im folgenden mit Anwendung auf ein digitales Videoplattensystem unter Verwendung der 23 beschrieben.
  • Die Änderung des Szenenwinkels, d. h. die Auswahl einer der Mehrfachwinkeldateneinheiten MA1, MA2 und MA3, muss abgeschlossen sein, bevor die Wiedergabe der vorangehenden gemeinsamen Winkeldaten BA1 abgeschlossen ist. Es ist äußerst schwierig, z. B. zu einer anderen Winkeldateneinheit MA2 während der Wiedergabe der gemeinsamen Winkeldaten BA1 zu wechseln. Dies liegt daran, dass die Multimediadaten eine mit veränderlicher Länge kodierte MPEG-Datenstruktur aufweisen, was es schwierig macht, die Datenunterbrechungspunkte (Grenzen) in den ausgewählten Datenblöcken zu finden. Das Video kann auch unterbrochen werden, wenn der Winkel geändert wird, da Inter-Vollbild-Korrelationen im Kodierungsprozess verwendet werden. Die Bildgruppen-GOP-Verarbeitungseinheit des MPEG-Standard enthält wenigstens ein Auffrischungsvollbild, wobei eine geschlossene Verarbeitung, die nicht auf Vollbilder zurückgreift, die zu einer weiteren GOP gehören, innerhalb dieser GOP-Verarbeitungseinheit möglich ist.
  • Mit anderen Worten, wenn die gewünschten Winkeldaten, z. B. MA3, ausgewählt werden, bevor die Wiedergabe die Mehrfachwinkelszenenperiode erreicht, und spätestens zu der Zeit, zu der die Wiedergabe der vorangehenden gemeinsamen Winkeldaten BA1 abgeschlossen ist, können die aus der Mehrfachwinkelszenenperiode ausgewählten Winkeldaten nahtlos wiedergegeben werden. Es ist jedoch äußerst schwierig, während der Wiedergabe eines Winkels einen weiteren Winkel innerhalb der gleichen Mehrfachwinkelszenenperiode auszuwählen und nahtlos wiederzugeben. Es ist daher schwierig, wenn in einer Mehrfachwinkelszenenperiode dynamisch eine andere Winkeleinheit ausgewählt wird, die z. B. eine Sicht aus einem anderen Kamerawinkel präsentiert.
  • Flussdiagramm: Kodierer
  • Die von der Kodierungssystemsteuervorrichtung 200 aus den aus den Szenariodaten St7 extrahierten Informationen erzeugte Kodierungsinformationstabelle wird im folgenden mit Bezug auf 27 beschrieben.
  • Die Kodierungsinformationstabelle enthält VOB-Satz-Datenströme, die mehrere VOBs enthalten, die den Szenenperioden entsprechen, die an der Szenenverzweigung und an den Verbindungspunkten beginnen und enden, sowie VOB-Datenströme, die jeder Szene zugeordnet sind. Diese VOB-Satz-Datenströme, die in 27 gezeigt sind, sind die im Schritt #100 in 34 von der Kodierungssystemsteuervorrichtung 200 erzeugten Kodierungsinformationstabellen zum Erzeugen des DVD-Multimediastroms auf der Grundlage des benutzerdefinierten Titelinhalts.
  • Das benutzerdefinierte Szenario enthält Verzweigungspunkte von gemeinsamen Szenen zu mehreren Szenen, oder Verbindungspunkte zu anderen gemeinsamen Szenen. Die VOB, die der durch diese Verzweigungs- und Verbindungspunkte begrenzten Szenenperiode entspricht, ist ein VOB-Satz, wobei die zum Kodieren eines VOB-Satzes erzeugten Daten der VOB-Satz-Datenstrom sind. Die durch den VOB-Satz-Datenstrom spezifizierte Titelnummer ist die Titelnummer TITEL_NO des VOB-Satz-Datenstroms.
  • Die VOB-Satz-Datenstruktur in 17 zeigt den Dateninhalt zum Kodieren eines VOB-Satzes im VOB-Satz-Datenstrom, und umfasst: die VOB-Satz-Nummer VOBS_NO, die VOB-Nummer VOB_NO im VOB-Satz, den vorangehenden VOB-Nahtlosverbindungsmerker VOB_Fsb, die nachfolgenden VOB-Nahtlosverbindungsmerker VOB_Fsf, den Mehrfachszenenmerker VOB_Fp, den Verschachtelungsmerker VOB_Fi, den Mehrfachwinkelmerker VOB_Fm, den Mehrfachwinkelnahtlosumschaltungsmerker VOB_FsV, die maximale Bitrate der verschachtelten VOB ILV_BR, die Anzahl der verschachtelten VOB-Bereiche ILV_DIV, und die minimale Verschachtelungseinheitpräsentationszeit ILVU_MT.
  • Die VOB-Satz-Nummer VOBS_NO ist eine sequentielle Nummer, die den VOB-Satz und die Position des VOB-Satzes in der Wiedergabesequenz des Titelszenarios identifiziert.
  • Die VOB-Nummer VOB_NO ist eine sequentielle Nummer, die die VOB und die Position der VOB in der Wiedergabesequenz des Titelszenarios identifiziert.
  • Der vorangehende VOB-Nahtlosverbindungsmerker VOB_Fsb gibt an, ob eine nahtlose Verbindung mit der vorangehenden VOB für die Szenariowiedergabe erforderlich ist.
  • Der folgende VOB-Nahtlosverbindungsmerker VOB_Fsf gibt an, ob eine nahtlose Verbindung mit der folgenden VOB während der Szenariowiedergabe vorliegt.
  • Der Mehrfachszenenmerker VOB_Fp gibt an, ob der VOB-Satz mehrere Videoobjekte VOB umfasst.
  • Der Verschachtelungsmerker VOB_Fi gibt an, ob die VOBs im VOB-Satz verschachtelt sind.
  • Der Mehrfachwinkelmerker VOB_Fm gibt an, ob der VOB-Satz ein Mehrfachwinkelsatz ist.
  • Der Mehrfachwinkelnahtlosumschaltmerker VOB_FsV gibt an, ob Winkeländerungen innerhalb der Mehrfachwinkelszenenperiode nahtlos sind oder nicht.
  • Die maximale Bitrate des verschachtelten VOB ILV_BR definiert die maximale Bitrate der verschachtelten VOBs.
  • Die Anzahl der verschachtelten VOB-Bereiche ILV_DIV gibt die Anzahl der Verschachtelungseinheiten im verschachtelten VOB an.
  • Die minimale Verschachtelungseinheitpräsentationszeit ILVU_MT definiert die Zeit, die wiedergegeben werden kann, wenn die Bitrate der kleinsten Verschachtelungseinheit, bei der kein Spurpufferdatenunterlaufzustand auftritt, die maximale Bitrate des verschachtelten VOB ILV_BR während der verschachtelten Blockwiedergabe ist.
  • Die Kodierungsinformationstabelle für jeden VOB, die von der Kodierungssystemsteuervorrichtung 200 auf der Grundlage der Szenariodaten St7 erzeugt wird, wird im folgenden mit Bezug auf 28 beschrieben. Die VOB-Kodierungsparameter, die im folgenden beschrieben und dem Videokodierer 300, dem Audiokodierer 700 und dem Systemkodierer 900 für die Stromkodierung zugeführt werden, werden auf der Grundlage dieser Kodierungsinformationstabelle erzeugt.
  • Die in 28 gezeigten VOB-Datenströme sind die im Schritt #100 in 51 von der Kodierungssystemsteuervorrichtung 200 erzeugten Kodierungsinformationstabellen zum Erzeugen des DVD-Multimediastroms auf der Grundlage des be nutzerdefinierten Titelinhalts.
  • Die Kodierungseinheit ist das Videoobjekt VOB, wobei die zum Kodieren jedes Videoobjekts VOB erzeugten Daten der VOB-Datenstrom sind. Zum Beispiel umfasst ein VOB-Satz, der drei Winkelszenen umfasst, drei Videoobjekte VOB. Die in 28 gezeigte Datenstruktur zeigt den Inhalt der Daten zum Kodieren eines VOB im VOB-Datenstrom.
  • Die VOB-Datenstruktur enthält den Videomaterialstartzeitpunkt VOB_VST, den Videomaterialendzeitpunkt VOB_VEND, den Videosignaltyp VOB_V_KIND, die Videokodierungsbitrate V_BR, den Audiomaterialstartzeitpunkt VOB_AST, den Audiomaterialendzeitpunkt VOB_AEND, das Audiokodierungsverfahren VOB_A_KIND und die Audiokodierungsbitrate A_BR.
  • Der Videomaterialstartzeitpunkt VOB_VST ist der Wiederkodierungsstartzeitpunkt entsprechend der Zeit des Videosignals.
  • Der Videomaterialendzeitpunkt VOB_VEND ist der Videokodierungsendzeitpunkt entsprechend der Zeit des Videosignals.
  • Der Videomaterialtyp VOB_V_KIND gibt an, ob das kodierte Material im NTSC- oder PAL-Format vorliegt, oder z. B. photographisches Material (z. B. ein Spielfilm) ist, das in ein Fernsehübertragungsformat konvertiert worden ist (sogenannte Fernsehfilmkonversion).
  • Die Videokodierungsbitrate V_BR ist die Bitrate, mit der das Videosignal kodiert ist.
  • Der Audiomaterialstartzeitpunkt VOB_AST ist der Audiokodierungsstartzeitpunkt entsprechend der Zeit des Audiosignals.
  • Der Audiomaterialendzeitpunkt VOB_AEND ist der Audiokodierungsendzeitpunkt entsprechend der Zeit des Audiosignals.
  • Das Audiokodierungsverfahren VOB_KIND gibt das Audiokodierungsverfahren z. B. als AC-3, MPEG oder Linear-PCM an.
  • Die Audiokodierungsbitrate A_BR ist die Bitrate, mit der das Audiosignal kodiert ist.
  • Die Kodierungsparameter, die vom Videokodierer 300, Subbildkodierer 500 und Audiokodierer 700 und vom Systemkodierer 900 für die VOB-Kodierung verwendet werden, sind in 29 gezeigt. Die Kodierungsparameter umfassen: die VOB-Nummer VOB_NO, den Videokodierungsstartzeitpunkt V_STTM, den Videokodierungsendzeitpunkt V_ENDTM, den Videokodierungsmodus V_ENCMD, die Videokodierungsbitrate V_RATE, die maximale Videokodierungsbitrate V_MRATE, den GOP-Strukturfixierungsmerker GOP_Fxflag, die Videokodierungs-GOP-Struktur GOPST, die anfänglichen Videokodierungsdaten V_INTST, die letzten Videokodierungsdaten V_ENDST, den Audiokodierungsstartzeitpunkt A_STTM, den Audiokodierungsendzeitpunkt A_ENDTM, die Audiokodierungsbitrate A_RATE, das Audiokodierungsverfahren A_ENCMD, die Audiostartlücke A_STGAP, die Audioendlücke A_ENDGAP, die vorangehende VOB-Nummer B_VOB_NO und die folgende VOB-Nummer F_VOB_NO.
  • Die VOB-Nummer VOB_NO ist eine sequentielle Nummer, die das VOB und die Position des VOB in der Wiedergabesequenz des Titelszenarios identifiziert.
  • Der Videokodierungsstartzeitpunkt V_STTM ist der Startzeitpunkt der Videomaterialkodierung.
  • Der Videokodierungsendzeitpunkt V_ENDTM ist der Endzeitpunkt der Videomaterialkodierung.
  • Der Videokodierungsmodus V_ENCMD ist ein Kodierungsmodus, um zu deklarieren, ob während der Videokodierung eine umgekehrte Fernsehfilmkonversion bewerkstelligt werden soll, um eine effiziente Kodierung zu ermöglichen, wenn das Videomaterial ein Fernsehfilmkonversionsmaterial ist.
  • Die Videokodierungsbitrate V_RATE ist die mittlere Bitrate der Videokodierung.
  • Die maximale Videokodierungsbitrate V_MRATE ist die maximale Bitrate der Videokodierung.
  • Der GOP-Strukturfixierungsmerker GOP_Fxflag spezifiziert, ob die Kodierung ohne Änderung der GOP-Struktur in der Mitte des Videokodierungsprozesses bewerkstelligt wird. Dies ist ein nützlicher Parameter, um zu deklarieren, ob eine nahtlose Umschaltung in einer Mehrfachwinkelszenenperiode ermöglicht wird.
  • Die Videokodierungs-GOP-Struktur GOPST sind die GOP-Strukturdaten von der Kodierung.
  • Die anfänglichen Videokodierungsdaten V_INTST setzen den Anfangswert des VBV-Puffers (Dekodiererpuffers) am Anfang der Videokodierung und werden während der Videodekodierung verwendet, um den Dekodierungspuffer zu initialisieren. Dies ist ein nützlicher Parameter, um eine nahtlose Wiedergabe mit dem vorangehenden kodierten Videostrom zu deklarieren.
  • Die letzten Videokodierungsdaten V_ENDST setzen den Endwert des VBV-Puffers (Dekodiererpuffers) am Ende der Videokodierung und werden während der Videodekodierung verwendet, um den Dekodierungspuffer zu initialisieren. Dies ist ein nützlicher Parameter zum Deklarieren einer nahtlosen Wiedergabe mit dem vorangehenden kodierten Videostrom.
  • Der Audiokodierungsstartzeitpunkt A_STTM ist der Startzeitpunkt der Audiomaterialkodierung.
  • Der Audiokodierungsendzeitpunkt A_ENDTM ist der Endzeitpunkt der Audiomaterialkodierung.
  • Die Audiokodierungsbitrate A_RATE ist die Bitrate, die für die Audiokodierung verwendet wird.
  • Das Audiokodierungsverfahren A_ENCMD identifiziert das Audiokodierungsverfahren z. B. als AC-3, MPEG oder Linear-PCN.
  • Die Audiostartlücke A_STGAP ist der Zeitversatz zwischen den Anfängen der Audio- und der Videopräsentation am Anfang eines VOB. Dies ist ein nützlicher Parameter zum Deklarieren einer nahtlosen Wiedergabe mit dem vorangehen den kodierten Systemstrom.
  • Die Audioendlücke A_ENDGAP ist der Zeitversatz zwischen den Enden der Audio- und der Videopräsentation am Ende eines VOB. Dies ist ein nützlicher Parameter zum Deklarieren einer nahtlosen Wiedergabe mit dem vorangehenden kodierten Systemstrom.
  • Die vorangehende VOB-Nummer B_VOB_NO ist die VOB_NO des vorangehenden VOB, wenn ein nahtlos verbundenes vorangehendes VOB vorhanden ist.
  • Die folgende VOB-Nummer F_VOB_NO ist die VOB-NO des nachfolgenden VOB, wenn ein nahtlos verbundenes nachfolgendes VOB vorhanden ist.
  • Im folgenden wird die Operation eines DVD-Kodierers ECD gemäß der vorliegenden Erfindung mit Bezug auf das Flussdiagramm im 34 beschrieben. Es ist zu beachten, dass die mit einer doppelten Linie gezeigten Schritte Unterroutinen sind. Es ist offensichtlich, dass die beschriebene Operation auch auf einen Autorenkodierer EC angewendet werden kann, obwohl die im folgenden beschriebene Operation sich spezifisch in diesem Fall auf den DVD-Kodierer ECD der vorliegenden Erfindung bezieht.
  • Im Schritt #100 gibt der Benutzer die Editierbefehle gemäß dem benutzerdefinierten Szenario ein, während er den Inhalt der Multimedia-Quellendatenströme St1, St2 und St3 betrachtet.
  • Im Schritt #200 erzeugt der Szenarioeditor 100 die Szenariodaten St7, die die obigen Editierbefehlsinformationen gemäß den Editieranweisungen des Benutzers enthalten.
  • Wenn die Szenariodaten St7 im Schritt #200 erzeugt werden, müssen die Benutzereditierbefehle, die sich auf die Mehrfachwinkel- und Elternsperre-Mehrfachszenenperioden beziehen, in denen eine Verschachtelung angenommen wird, eingegeben werden, um die folgenden Bedingungen zu erfüllen.
  • Erstens muss die VOB-Maximalbitrate gesetzt sein, um eine ausreichende Bildqualität sicherzustellen, wobei die Spurpufferkapazität, die Sprungleistungsfähig keit, die Sprungzeit und der Sprungabstand des DVD-Dekodierers DCD, der als Wiedergabevorrichtung der DVD-kodierten Daten verwendet wird, bestimmt sein. Auf der Grundlage dieser Werte wird die Wiedergabezeit der kürzesten verschachtelten Einheit aus den Gleichungen 3 und 4 erhalten. Auf der Grundlage der Wiedergabezeit jeder Szene in der Mehrfachszenenperiode muss anschließend ermittelt werden, ob die Gleichungen 5 und 6 erfüllt sind. Wenn die Gleichungen 5 und 6 nicht erfüllt sind, muss der Benutzer die Editierbefehle verändern, bis die Gleichungen 5 und 6 erfüllt sind, indem er z. B. einen Teil der folgenden Szene mit jeder Szene in der Mehrfachszenenperiode verbindet.
  • Wenn Mehrfachwinkeleditierbefehle verwendet werden, muss die Gleichung 7 für ein nahtloses Umschalten erfüllt sein, wobei Editierbefehle, die die Audiowiedergabezeit mit der Wiedergabezeit jeder Szene in jedem Winkel abgleichen, eingegeben werden müssen. Wenn ein nicht-nahtloses Umschalten verwendet wird, muss der Benutzer Befehle eingeben, um die Gleichung 8 zu erfüllen.
  • Im Schritt #300 ermittelt die Kodierungssystemsteuervorrichtung 200 zuerst, ob die Zielszene nahtlos mit der vorangehenden Szene verbunden werden soll, auf der Grundlage der Szenariodaten St7.
  • Es ist zu beachten, dass dann, wenn die vorangehende Szenenperiode eine Mehrfachszenenperiode ist, die mehrere Szenen umfasst, jedoch die derzeit ausgewählte Zielszene eine gemeinsame Szene ist (nicht in einer Mehrfachszenenperiode), sich eine nahtlose Verbindung auf die nahtlose Verbindung der Zielszene mit irgendeiner der in der vorangehenden Mehrfachszenenperiode enthaltenen Szenen bezieht. Wenn die Zielszene eine Mehrfachszenenperiode ist, bezieht sich die nahtlose Verbindung immer noch auf die nahtlose Verbindung der Zielszene mit irgendeiner der Szenen aus der gleichen Mehrfachszenenperiode.
  • Wenn Schritt #300 Nein zurückliefert, d. h. wenn eine nicht-nahtlose Verbindung gültig ist, rückt die Prozedur zum Schritt #400 vor.
  • Im Schritt #400 setzt die Kodierungssystemsteuervorrichtung 200 den vorangehenden VOB-Nahtlosverbindungsmerker VOB_Fsb zurück, der angibt, ob eine nahtlose Verbindung zwischen der Zielszene und der vorangehenden Szene vor liegt. Die Prozedur rückt anschließend zum Schritt #600 vor.
  • Wenn andererseits der Schritt #300 Ja zurückgibt, d. h. es liegt eine nahtlose Verbindung zur vorangehenden Szene vor, rückt die Prozedur zum Schritt #500 vor.
  • Im Schritt #500 setzt die Kodierungssystemsteuervorrichtung 200 den vorangehenden VOB-Nahtlosverbindungsmerker VOB_Fsb. Die Prozedur rückt anschließend zum Schritt #600 vor.
  • Im Schritt #600 ermittelt die Kodierungssystemsteuervorrichtung 200, ob eine nahtlose Verbindung zwischen der Zielszene und der folgenden Szene vorliegt, auf der Grundlage des Szenariodaten St7. Wenn Schritt #600 Nein zurückgibt, d. h. es ist eine nicht-nahtlose Verbindung gültig, rückt die Prozedur zum Schritt #700 vor.
  • Im Schritt #700 setzt die Kodierungssystemsteuervorrichtung 200 den folgenden VOB-Nahtlosverbindungsmerker VOB_Fsf zurück, der angibt, ob eine nahtlose Verbindung mit der folgenden Szene vorliegt. Die Prozedur rückt anschließend zum Schritt #900 vor.
  • Wenn jedoch der Schritt #600 Ja zurückgibt, d. h. es liegt eine nahtlose Verbindung zur folgenden Szene vor, rückt die Prozedur zum Schritt #800 vor.
  • Im Schritt #800 setzt die Kodierungssystemsteuervorrichtung 200 den folgenden VOB-Nahtlosverbindungsmerker VOB_Fsf. Die Prozedur rückt anschließend zum Schritt #900 vor.
  • Im Schritt #900 ermittelt die Kodierungssystemsteuervorrichtung 200, ob mehr als eine Verbindungszielszene vorliegt, d. h. ob eine Mehrfachszenenperiode ausgewählt ist, auf der Grundlage der Szenariodaten St7. Wie vorher beschrieben worden ist, gibt es zwei mögliche Steuerverfahren in Mehrfachszenenperioden: die Elternsperre-Kontrolle, mit der nur einer von mehreren möglichen Wiedergabepfaden, der aus den Szenen in der Mehrfachszenenperiode konstruiert werden kann, wiedergegeben wird, und die Mehrfachwinkelsteuerung, mit der der Wiedergabepfad innerhalb der Mehrfachszenenperiode zum Präsentieren verschiedener Betrachtungswinkel umgeschaltet werden kann.
  • Wenn der Schritt #900 Nein zurückgibt, d. h. wenn keine Mehrfachszenen vorhanden sind, rückt die Prozedur zum Schritt #1000 vor.
  • Im Schritt #1000 wird der Mehrfachszenenmerker VOB_Fp, der identifiziert, ob der VOB-Satz mehrere Videoobjekte VOB enthält (eine Mehrfachszenenperiode ausgewählt ist), zurückgesetzt, wobei die Prozedur zum Schritt #1800 für die Kodierungsparametererzeugung vorrückt. Diese Kodierungsparametererzeugungs-Unterroutine wird im Folgenden beschrieben.
  • Wenn jedoch der Schritt #900 Ja zurückgibt, d. h. es liegt eine Mehrfachszenenverbindung vor, rückt die Prozedur zum Schritt #1100 vor.
  • Im Schritt #1100 wird der Mehrfachszenenmerker VOB_Fp gesetzt, wobei die Prozedur zum Schritt #1200 vorrückt, wo beurteilt wird, ob eine Mehrfachwinkelverbindung ausgewählt ist, oder nicht.
  • Im Schritt #1200 wird ermittelt, ob eine Änderung zwischen mehreren Szenen in der Mehrfachszenenperiode vorgenommen wird, d. h. ob eine Mehrfachwinkelszenenperiode ausgewählt ist. Wenn Schritt #1200 Nein zurückgibt, d. h. es ist keine Szenenänderung in der Mehrfachszenenperiode erlaubt, da die Elternsperre-Kontrolle die Wiedergabe nur eines ausgewählten Wiedergabepfades erlaubt, rückt die Prozedur zum Schritt #1300 vor.
  • Im Schritt #1300 wird der Mehrfachwinkelmerker VOB_Fm, der angibt, ob die Zielverbindungsszene eine Mehrfachwinkelszene ist, zurückgesetzt, wobei die Prozedur zum Schritt #1302 vorrückt.
  • Im Schritt #1302 wird ermittelt, ob entweder der vorangehende VOB-Nahtlosverbindungsmerker VOB_Fsb oder der folgende VOB-Nahtlosverbindungsmerker VOB_Fsf gesetzt ist. Wenn Schritt #1302 Ja zurückgibt, d. h. die Zielverbindungsszene ist nahtlos mit der vorangehenden, folgenden oder beiden vorangehenden und folgenden Szenen verbunden, rückt die Prozedur zum Schritt #1304 vor.
  • Im Schritt #1304 wird der Verschachtelungsmerker VOB_Fi der angibt, ob das VOB, die kodierten Daten der Zielszene, verschachtelt ist, gesetzt. Die Prozedur rückt anschließend zum Schritt #1800 vor.
  • Wenn jedoch der Schritt #1302 Nein zurückgibt, d. h. die Zielverbindungsszene ist nicht nahtlos mit der vorangehenden oder der folgenden Szene verbunden, rückt die Prozedur zum Schritt #1306 vor.
  • Im Schritt #1306 wird der Verschachtelungsmerker VOB_Fi zurückgesetzt, wobei die Prozedur zum Schritt #1800 vorrückt.
  • Wenn der Schritt #1200 Ja zurückgibt, d. h. es liegt eine Mehrfachwinkelverbindung vor, rückt jedoch die Prozedur zum Schritt #1400 vor.
  • Im Schritt #1400 werden der Mehrfachwinkelmerker VOB_Fm und der Verschachtelungsmerker VOB_Fi gesetzt, wobei die Prozedur zum Schritt #1500 vorrückt.
  • Im Schritt #1500 ermittelt die Kodierungssystemsteuervorrichtung 200, ob die Audio- und Videodaten nahtlos in einer Mehrfachwinkelszenenperiode umgeschaltet werden können, d. h. mit einer Wiedergabeeinheit kleiner als das VOB, auf der Grundlage der Szenariodaten St7. Wenn Schritt #1500 Nein zurückgibt, d. h. es tritt eine nicht-nahtlose Umschaltung auf, rückt die Prozedur zum Schritt #1600 vor.
  • Im Schritt #1600 wird der Mehrfachwinkel-Nahtlosumschaltmerker VOB_FsV, der angibt, ob Winkeländerungen innerhalb der Mehrfachwinkelszenenperiode nahtlos sind oder nicht, zurückgesetzt, wobei die Prozedur zum Schritt #1800 vorrückt.
  • Wenn jedoch der Schritt #1500 Ja zurückgibt, d. h. es findet eine nahtlose Umschaltung statt, rückt die Prozedur zum Schritt #1700 vor.
  • Im Schritt #1700 wird der Mehrfachwinkel-Nahtlosumschaltmerker VOB_FsV gesetzt, wobei die Prozedur zum Schritt #1800 vorrückt.
  • Wie mit dem Flussdiagramm in 34 gezeigt ist, wird daher die Kodierungsparametererzeugung (Schritt #1800) nur begonnen, nachdem die Editierinformationen anhand der obigen Merkereinstellungen in den Szenariodaten St7, die die benutzerdefinierten Editierbefehle wiederspiegeln, erfasst worden sind.
  • Auf der Grundlage der benutzerdefinierten Editierbefehle, die anhand der obigen Merkereinstellungen in den Szenariodaten St7 erfasst worden sind, werden zu den Kodierungsinformationstabellen für die VOB-Satz-Einheiten und VOB-Einheiten, wie in den 27 und 28 gezeigt ist, Informationen hinzugefügt, um die Quellenströme zu kodieren, wobei die Kodierungsparameter der VOB-Dateneinheiten, die in 29 gezeigt sind, im Schritt #1800 erzeugt werden. Die Prozedur rückt anschließend zum Schritt #1900 für die Audio- und Videokodierung vor.
  • Die Kodierungsparametererzeugungsschritte (Schritt #1800) werden im folgenden mit Bezug auf die 35, 36, 37 und 38 genauer beschrieben.
  • Auf der Grundlage der im Schritt #1800 erzeugten Kodierungsparameter werden die Videodaten und die Audiodaten im Schritt #1900 kodiert, wobei die Prozedur zum Schritt #2000 vorrückt.
  • Es ist zu beachten, dass die Subbilddaten normalerweise während der Videowiedergabe bei Bedarf eingefügt werden, wobei der Zusammenhang mit den vorangehenden und nachfolgenden Szenen daher üblicherweise nicht notwendig ist. Außerdem sind die Subbilddaten normalerweise Videoinformationen für ein Vollbild, wobei Subbilddaten im Gegensatz zu Audio- und Videodaten, die eine erweiterte Zeitbasis aufweisen, üblicherweise statisch sind und normalerweise nicht kontinuierlich präsentiert werden. Da sich die vorliegende Erfindung speziell auf die nahtlose und nicht-nahtlose zusammenhängende Wiedergabe bezieht, wie oben beschrieben worden ist, ist hier der Einfachheit halber eine Beschreibung der Subbilddatenkodierung weggelassen.
  • Schritt #2000 ist der letzte Schritt in einer Schleife, die die Schritte #300 bis #2000 umfasst, und veranlasst diese Schleife, so häufig wiederholt zu werden, wie VOB-Sätze vorhanden sind. Diese Schleife formatiert die Programmkette VTS_PGC#i, um die Wiedergabesequenz und andere Wiedergabeinformationen für jedes VOB im Titel (16) in der Programmkettendatenstruktur zu erhalten, verschachtelt das VOB in den Mehrfachszenenperioden, und vervollständigt den VOB-Satz-Datenstrom und den VOB-Datenstrom, die für die Systemstromkodierung notwendig sind. Die Prozedur rückt anschließend zum Schritt #2100 vor.
  • Im Schritt #2100 wird der VOB-Satz-Datenstrom als Kodierungsinformationstabelle vervollständigt, indem die Gesamtzahl der VOB-Sätze VOBS_NUM, die als Ergebnis der Schleife bis zum Schritt #2000 erhalten wird, zum VOB-Satz-Datenstrom hinzugefügt wird, und die Anzahl der Titel TITLE_NO die die Anzahl der Szenariowiedergabepfade in den Szenariodaten St7 definiert, gesetzt wird. Die Prozedur rückt anschließend zum Schritt #2200 vor.
  • Die Systemstromkodierung, die die VOB-Daten (VOB#i) im VTS-Titel VOBS (VTSTT_VOBS) erzeugt (16) wird im Schritt #2200 auf der Grundlage des kodierten Videostroms und des kodierten Audiostroms, die vom Schritt #1900 ausgegeben werden, und der Kodierungsparameter in 29 bewerkstelligt. Die Prozedur rückt anschließend zum Schritt #2300 vor.
  • Im Schritt #2300 werden die VTS-Informationen VTSI, die VTSI-Managementtabelle VTSI_MAT, die VTSPGC-Informationstabelle VTS_PGCIT und die Programmketteninformation VTS_PGCI#i, die die in 16 gezeigte VOB-Daten-Wiedergabesequenz steuern, erzeugt, wobei eine Formatierung z. B. zur Verschachtelung der in den Mehrfachszenenperioden enthaltenen VOB bewerkstelligt wird.
  • Die Kodierungsparametererzeugung-Unterroutine, die in 34B als Schritt #1800 gezeigt ist, wird als nächstes unter Verwendung, der 35, 36 und 37 und unter beispielhafter Verwendung der Operation, die die Kodierungsparameter für die Mehrfachwinkelsteuerung erzeugt, beschrieben.
  • Beginnend in 35 wird zuerst der Prozess zum Erzeugen der Kodierungsparameter eines nicht-nahtlosen Umschaltstroms mit Mehrfachwinkelsteuerung beschrieben. Dieser Strom wird erzeugt, wenn Schritt #1500 in 34 Nein zurückgibt und die folgenden Merker wie gezeigt gesetzt sind: VOB_Fsb = 1 oder VOB_Fsf = 1, VOB_Fp = 1, VOB_Fi = 1, VOB_Fm = 1 und VOB_FsV = 0. Die folgende Operation erzeugt die Kodierungsinformationstabellen, die in den 27 und 28 gezeigt ist und die in 29 gezeigten Kodierungsparameter.
  • Im Schritt #1812 wird die Szenariowiedergabesequenz (Pfad), die in den Szenariodaten St7 enthalten ist, extrahiert, die VOB-Satz-Nummer VOBS_NO gesetzt und die VOB-Nummer VOB_NO für ein oder mehrere VOB im VOB-Satz gesetzt.
  • Im Schritt #1814 wird die maximale Bitrate ILV_BR des verschachtelten VOB aus den Szenariodaten St7 extrahiert, wobei die maximale Videokodierungsbitrate V_MRATE aus den Kodierungsparametern auf der Grundlage der Einstellung des Verschachtelungsmerker VOB_Fi (= 1) gesetzt wird.
  • Im Schritt #1816 wird die minimale Verschachtelungseinheitpräsentationszeit ILVU_MT aus den Szenariodaten St7 extrahiert.
  • Im Schritt #1818 werden die Videokodierungs-GOP-Struktur-GOPST-Werte in N = 15 und M = 3 gesetzt, wobei der GOP-Strukturfixierungsmerker GOP_Fxflag gesetzt wird (= 1), auf der Grundlage der Einstellung des Mehrfachszenenmerkers VOB_Fp (= 1).
  • Der Schritt #1820 ist die gemeinsame VOB-Daten-Einstellroutine, die im folgenden mit Bezug auf das Flussdiagramm in 36 beschrieben wird. Diese gemeinsame VOB-Daten-Einstellroutine erzeugt die in den 27 und 28 gezeigten Kodierungsinformationstabellen und die in 29 gezeigten Kodierungsparameter.
  • Im Schritt #1822 werden der Videomaterialstartzeitpunkt VOB_VST und der Videomaterialendzeitpunkt VOB_VEND für jedes VOB extrahiert, wobei der Videokodierungsstartzeitpunkt V_STTM und der Videokodierungsendzeitpunkt V_ENDTM als Videokodierungsparameter verwendet werden.
  • Im Schritt #1824 wird der Audiomaterialstartzeitpunkt VOB_AST jedes VOB aus den Szenariodaten St7 extrahiert, wobei der Audiokodierungsstartzeitpunkt A_STTM als Audiokodierungsparameter gesetzt wird.
  • Im Schritt #1826 wird der Audiomaterialendzeitpunkt VOB_AEND für jedes VOB aus den Szenariodaten St7 extrahiert, zu einem Zeitpunkt, der die Zeit VOB_AEND nicht überschreitet. Diese an einer Audiozugriffseinheit (AAU) extrahierte Zeit wird als Audiokodierungsendzeitpunkt A_ENDTM gesetzt, die ein Audiokodierungsparameter ist. Es ist zu beachten, dass die Audiozugriffseinheit AAU durch das Audiokodierungsverfahren bestimmt wird.
  • Im Schritt #1828 wird die Audiostartlücke A_STGAP, die aus der Differenz zwischen dem Videokodierungsstartzeitpunkt V_STTM und dem Audiokodierungsstartzeitpunkt A_STTM erhalten wird, als Systemkodierungsparameter definiert.
  • Im Schritt #1830 wird die Audioendlücke A_ENDGAP, die aus der Differenz zwischen dem Vieokodierungsendzeitpunkt V_ENDTM und dem Audiokodierungsendzeitpunkt A_ENDTM erhalten wird, als Systemkodierungsparameter definiert.
  • Im Schritt #1832 wird die Videokodierungsbitrate V_BR aus den Szenariodaten St7 extrahiert, wobei die Videokodierungsbitrate V_RATE, die die mittlere Bitrate der Videokodierung ist, als Videokodierungsparameter gesetzt wird.
  • Im Schritt #1834 wird die Audokodierungsbitrate A_BR aus den Szenariodaten St7 extrahiert, wobei die Audokodierungsbitrate A_RATE als Audiokodierungsparameter gesetzt wird.
  • Im Schritt #1836 wird der Videomaterialtyp VOB_V_KIND aus den Szenariodaten St7 extrahiert. Wenn das Material ein Filmtyp ist, d. h. ein in das Fernsehübertragungsformat konvertierter Spielfilm (sogenannte Fernsehfilmkonversion), wird die umgekehrte Fernsehfilmkonversion für den Videokodierungsmodus V_ENCMD gesetzt und als Videokodierungsparameter definiert.
  • Im Schritt #1838 wird das Audiokodierungsverfahren VOB_A_KIND aus den Szenariodaten St7 extrahiert, wobei das Kodierungsverfahren als Audiokodierungsverfahren A_ENCMD gesetzt wird und als ein Audiokodierungsparameter gesetzt wird.
  • Im Schritt #1840 setzen die anfänglichen Videokodierungsdaten V_INTST den Anfangswert des VBV-Puffers auf einen Wert kleiner als der VBV-Puffer-Endwert, der von den letzten Videokodierungsdaten V_ENDST gesetzt worden ist, und als Videokodierungsparameter definiert worden ist.
  • Im Schritt #1842 wird die VOB-Nummer VOB_NO der vorangehenden Verbindung auf die vorangehende VOB-Nummer B_VOB_NO auf der Grundlage der Einstellung (= 1) des vorangehenden VOB-Nahtlosverbindungsmerkers VOB_Fsb gesetzt und als Systemkodierungsparameter gesetzt.
  • Im Schritt #1844 wird die VOB-Nummer VOB_NO der folgenden Verbindung auf die folgende VOB-Nummer B_VOB_NO auf der Grundlage der Einstellung (= 1) des folgenden VOB-Nahtlosverbindungsmerkers VOB_Fsf gesetzt und als Systemkodierungsparameter gesetzt.
  • Die Kodierungsinformationstabelle und die Kodierungsparameter werden somit für einen Mehrfachwinkel-VOB-Satz mit freigegebener nahtloser Mehrfachwinkelumschaltsteuerung erzeugt.
  • Der Prozess zum Erzeugen der Kodierungsparameter eines nahtlosen Umschaltstroms mit Mehrfachwinkelsteuerung wird im folgenden mit Bezug auf 34 beschrieben. Dieser Strom wird erzeugt, wenn Schritt #1500 in 34 Ja zurückgibt und die folgenden Merker wie gezeigt gesetzt sind: VOB_Fsb = 1 oder VOB_Fsf = 1, VOB_Fp = 1, VOB_Fi = 1, VOB_Fm = 1 und VOB_FsV = 1. Die folgende Operation erzeugt die in 27 und 28 gezeigten Kodierungsinformationstabellen und die in 29 gezeigten Kodierungsparameter.
  • Die folgende Operation erzeugt die in 27 und 28 gezeigten Kodierungsinformationstabellen und die in 29 gezeigten Kodierungsparameter.
  • Im Schritt #1850 wird die Szenariowiedergabesequenz (Pfad), die in den Szenariodaten St7 enthalten ist, extrahiert, die VOB-Satz-Nummer VOBS_NO gesetzt und die VOB-Nummer VOB_NO für ein oder mehrere VOB im VOB-Satz gesetzt.
  • Im Schritt #1852 wird die maximale Bitrate ILV_BR des verschachtelten VOB aus den Szenariodaten St7 extrahiert, wobei die maximale Videokodierungsbitrate V_MRATE aus den Kodierungsparametern auf der Grundlage der Einstellung des Verschachtelungsmerker VOB_Fi (= 1) gesetzt wird.
  • Im Schritt #1854 wird die minimale Verschachtelungseinheitpräsentationszeit ILVU_MT aus den Szenariodaten St7 extrahiert.
  • Im Schritt #1856 werden die Videokodierungs-GOP-Struktur-GOPST-Werte in N = 15 und M = 3 gesetzt, wobei der GOP-Strukturfixierungsmerker GOP_Fxflag gesetzt wird (= 1), auf der Grundlage der Einstellung des Mehrfachszenenmerkers VOB_Fp (= 1).
  • Im Schritt #1858 wird die Videokodierungs-GOP GOPST auf "geschlossene GOP" auf der Grundlage der Einstellung (= 1) des Mehrfachwinkel-Nahtlosumschaltmerkers VOB_FsV gesetzt, wobei die Videokodierungsparameter somit definiert werden.
  • Schritt #1860 ist die gemeinsame VOB-Dateneinstellroutine, die mit Bezug auf das Flussdiagramm der 35 beschrieben worden ist. Eine weitere Beschreibung derselben wird daher hier weggelassen.
  • Die Kodierungsparameter eines Nahtlosumschaltstroms mit Mehrfachwinkelsteuerung werden somit wie oben beschrieben für einen VOB-Satz mit Mehrfachwinkelsteuerung definiert.
  • Der Prozess zum Erzeugen der Kodierungsparameter für einen Systemstrom, in welchem eine Elternsperre-Kontrolle implementiert ist, wird im folgenden mit Bezug auf 38 beschrieben. Dieser Strom wird erzeugt, wenn Schritt #1200 in 34 Nein zurückgibt und Schritt #1304 Ja zurückgibt, d. h. die folgenden Merker wie gezeigt gesetzt sind: VOB_Fsb = 1 oder VOB_Fsf = 1, VOB_Fp = 1, VOB_Fi = 1, VOB_Fm = 0. Die folgende Operation erzeugt die in 27 und 28 gezeigten Kodierungsinformationstabellen und die in 29 gezeigten Kodierungsparameter.
  • Im Schritt #1870 wird die Szenariowiedergabesequenz (Pfad), die in den Szenariodaten St7 enthalten ist, extrahiert, die VOB-Satz-Nummer VOBS_NO gesetzt und die VOB-Nummer VOB_NO für ein oder mehrere VOB im VOB-Satz gesetzt.
  • Im Schritt #1872 wird die maximale Bitrate ILV_BR des verschachtelten VOB aus den Szenariodaten St7 extrahiert, wobei die maximale Videokodierungsbitrate V_MRATE aus den Kodierungsparametern auf der Grundlage der Einstellung des Verschachtelungsmerker VOB_Fi (= 1) gesetzt wird.
  • Im Schritt #1872 wird die Anzahl der verschachtelten VOB-Bereiche ILV_DIV aus den Szenariodaten St7 extrahiert.
  • Schritt #1876 ist die gemeinsame VOB-Dateneinstellroutine, die mit Bezug auf das Flussdiagramm in 35 beschrieben worden ist. Eine weitere Beschreibung derselben wird hier daher weggelassen.
  • Dekodierungsparameter eines Systemstroms, in welchem eine Elternsperre-Kontrolle implementiert ist, werden somit für einen VOB-Satz mit freigegebener Mehrfachszenenauswahlsteuerung definiert, wie oben beschrieben worden ist.
  • Der Prozess zum Erzeugen der Kodierungsparameter für einen Systemstrom, der eine einzelne Szene enthält, wird im folgenden mit Bezug auf 64 beschrieben. Dieser Strom wird erzeugt, wenn Schritt #900 in 34 Nein zurückgibt, d. h. wenn VOB_Fp = 0 gilt. Die folgende Operation erzeugt die in den 27 und 28 gezeigten Kodierungsinformationstabellen und die in 29 gezeigten Kodierungsparameter.
  • Im Schritt #1880 wird die Szenariowiedergabesequenz (Pfad), die in den Szenariodaten St7 enthalten ist, extrahiert, die VOB-Satz-Nummer VOBS_NO gesetzt und die VOB-Nummer VOB_NO für ein oder mehrere VOB im VOB-Satz gesetzt.
  • Im Schritt #1882 wird die maximale Bitrate ILV_BR des verschachtelten VOB aus den Szenariodaten St7 extrahiert, wobei die maximale Videokodierungsbitrate V_MRATE aus den Kodierungsparametern auf der Grundlage der Einstellung des Verschachtelungsmerker VOB_Fi (= 1) gesetzt wird.
  • Schritt #1884 ist die gemeinsame VOB-Dateneinstellroutine, die mit Bezug auf das Flussdiagramm in 35 beschrieben worden ist. Eine weitere Beschreibung derselben wird hier daher weggelassen.
  • Diese Flussdiagramme zum Definieren der Kodierungsinformationstabelle und der Kodierungsparameter erzeugen somit die Parameter für die DVD-Video-, Audio- und Systemstromkodierung durch den DVD-Formatierer.
  • Dekodierer-Flussdiagramme
  • Platte-zu-Strompuffer-Übertragungsablauf
  • Die von der Dekodierungssystemsteuervorrichtung 2300 auf der Grundlage der Szenarioauswahldaten St51 erzeugte Dekodierungsinformationstabelle wird im folgenden mit Bezug auf die 47 und 48 beschrieben. Die Dekodierungsinformationstabelle umfasst die in 47 gezeigte Dekodierungssystemtabelle und die in 48 gezeigte Dekodierungstabelle.
  • Wie in 47 gezeigt ist, umfasst die Dekodierungssystemtabelle ein Szenarioinformationsregister und ein Zelleninformationsregister. Das Szenarioinformationsregister zeichnet die Titelnummer und andere Szenariowiedergabeinformationen auf, die vom Benutzer ausgewählt und aus den Szenarioauswahldaten St51 extrahiert worden sind. Das Zelleninformationsregister extrahiert die Informationen und zeichnet diese auf, die zum Wiedergeben der Zellen benötigt werden, die die Programmkette PGC bilden, auf der Grundlage der in das Szenarioinformationsregister extrahierten benutzerdefinierten Szenarioinformationen.
  • Genauer enthält das Szenarioinformationsregister mehrere Subregister, nämlich die Winkelnummer ANGLE_NO_reg, die VTS-Nummer VTS_NO_reg, die PGC-Nummer VTS_PGCI_NO_reg, die Audio-ID AUDIO_ID_reg, die Subbild-ID SP_ID_reg und den Systemtaktreferenz-SCR-Puffer SCR_buffer.
  • Die Winkelnummer ANGLE_NO_reg speichert, welcher Winkel wiedergegeben wird, wenn es mehrere Winkel in der Wiedergabeprogrammkette PGC gibt.
  • Die VTS-Nummer VTS_NO_reg zeichnet die Nummer des nächsten VTS auf, der unter den mehreren VTS auf der Platte wiedergegeben wird.
  • Die PGC-Nummer VTS_PGCI_NO_reg zeichnet auf, welche von mehreren Programmketten PGC, die im Videotitelsatz VTS vorhanden sind, für eine Elternsperrekontrolle oder andere Anwendungen wiederzugeben ist.
  • Die Audio-ID AUDIO_ID_reg zeichnet auf, welcher der mehreren Audioströme im VTS wiederzugeben ist.
  • Die Subbild-ID SP_ID_reg zeichnet auf, welcher der mehreren Subbildströme wiederzugeben ist, wenn mehrere Subbildströme im VTS vorhanden sind.
  • Der Systemtaktreferenz-SCR-Puffer SCR_buffer ist der Puffer zum vorübergehenden Speichern der Systemtaktreferenz SCR, die in dem Bündelkopf aufgezeichnet worden ist, wie in 19 gezeigt ist. Wie unter Verwendung der 26 beschrieben worden ist, wird diese vorübergehend gespeicherte Systemtaktreferenz SCR als Bitstromsteuerdaten St63 an die Dekodierungssystemsteuervorrichtung 2300 ausgegeben.
  • Das Zelleninformationsregister enthält die folgenden Subregister: den Zellenblockmodus CBM_reg, den Zellenblocktyp CBT_reg, den Nahtloswiedergabemerker SPF_reg, den Verschachtelungszuweisungsmerker IAF_reg, den STC-Rücksetzmerker STCDF, den Nahtloswinkeländerungsmerker SACF_reg, die erste Zellen-VOBU-Startadresse C_FVOBU_SA_reg und die letzte Zellen-VOBU-Startadresse C_LVOBU_SA_reg.
  • Der Zellenblockmodus CBM reg speichert einen Wert, der angibt, ob mehrere Zellen einen funktionalen Block bilden. Wenn in einem funktionalen Block nicht mehrere Zellen vorhanden sind, speichert CBM_reg den Wert N_BLOCK. Wenn mehrere Zellen einen funktionalen Block bilden, wird der Wert F_CELL als CBM_reg-Wert der ersten Zelle im Block gespeichert, L_CELL als CBM_reg-Wert der letzten Zelle im Block gespeichert, und BLOCK als CBM_reg des Wertes aller Zellen zwischen der ersten und der letzten Zelle im Block gespeichert.
  • Der Zellenblocktyp CBT_reg speichert einen Wert, der den Typ des vom Zellenblockmodus CBM_reg angegebenen Blocks definiert. Wenn der Zellenblock ein Mehrfachwinkelblock ist, wird A_BLOCK gespeichert, falls nicht, wird N_BLOCK gespeichert.
  • Der Nahtloswiedergabemerker SPF_reg speichert einen Wert, der definiert, ob diese Zelle nahtlos mit der Zelle oder dem Zellenblock, die vorher wiedergegeben wurden, verbunden ist. Wenn eine nahtlose Verbindung spezifiziert ist, wird SML gespeichert, wenn keine nahtlose Verbindung spezifiziert ist, wird NSML gespeichert.
  • Der Verschachtelungszuweisungsmerker IAF_reg speichert einen Wert, der angibt, ob die Zelle in einem zusammenhängenden oder einem verschachtelten Block existiert. Wenn die Zelle Teil eines verschachtelten Blocks ist, wird ILVB gespeichert, andernfalls wird N_ILVB gespeichert.
  • Der STC-Rücksetzmerker STCDF definiert, ob der Systemzeittakt STC, der für die Synchronisation verwendet wird, zurückgesetzt werden muss, wenn die Zelle wiedergegeben wird; wenn das Rücksetzen des Systemzeittakts STC notwendig ist, wird STC_RESET gespeichert; wenn das Zurücksetzen nicht notwendig ist, wird STC_NRESET gespeichert.
  • Der Nahtloswinkeländerungsmerker SACF_reg speichert einen Wert, der angibt, ob eine Zelle in einer Mehrfachwinkelperiode bei einem Winkelwechsel nahtlos verbunden werden soll. Wenn die Winkeländerung nahtlos ist, ist der Nahtloswinkeländerungsmerker SACF auf SML gesetzt; ansonsten ist er auf NSML gesetzt.
  • Die erste Zellen-VOBU-Startadresse C_FVOBU_SA_reg speichert die VOBU-Startadresse der ersten Zelle in einem Block. Der Wert dieser Adresse wird ausgedrückt als Abstand vom logischen Sektor der ersten Zelle im VTS-Titel-VOBS (VTSTT_VOBS), gemessen und ausgedrückt (gespeichert) als Anzahl von Sektoren.
  • Die letzte Zellen-VOBU-Startadresse C_LVOBU_SA_reg speichert die VOBU-Startadresse der letzten Zelle in einem Block. Der Wert dieser Adresse wird ebenfalls ausgedrückt als Abstand vom logischen Sektor der ersten Zelle im VTS-Titel-VOBS (VTSTT_VOBS), gemessen und ausgedrückt (gespeichert) als Anzahl von Sektoren.
  • Die in 48 gezeigte Dekodierungstabelle wird im folgenden beschrieben. Wie in 48 gezeigt ist, umfasst die Dekodierungstabelle die folgenden Register: Informationsregister für die nicht-nahtlose Mehrfachwinkelsteuerung, Informationsregister für die nahtlose Mehrfachwinkelsteuerung, ein VOBU- Informationsregister, und Informationsregister für die nahtlose Wiedergabe.
  • Die Informationsregister für die nicht-nahtlose Mehrfachwinkelsteuerung umfassen die Subregister NSML_AGL_C1_DSTA_reg–NSML_AGL_C9_DSTA_reg.
  • NSML_AGL_C1_DSTA_reg–NSML_AGL_C9_DSTA_reg zeichnen die Werte NSML_AGL_C1_DSTA–NSML_AGL_C9_DSTA in dem in 20 gezeigten PCI-Paket auf.
  • Die Informationsregister für die nahtlose Mehrfachwinkelsteuerung umfassen die Subregister SML_AGL_C1_DSTA_reg–SML_AGL_C9_DSTA_reg.
  • SML_AGL_C1_DSTA_reg–SML_AGL_C9_DSTA reg zeichnen die Werte SML_AGL_C1_DSTA–SML_AGL_C9_DSTA in dem in 20 gezeigten DSI-Paket auf.
  • Das VOBU-Informationsregister speichert die Entbündeladresse VOBU_EA in dem in 20 gezeigten DSI-Paket.
  • Die Informationsregister für die nahtlose Wiedergabe umfassen die folgenden Subregister: einen Verschachtelungseinheitsmerker ILVU_flag_reg, einen Einheits-Ende-Merker UNIT_END_flag_reg, eine Verschachtelungseinheit-Endadresse ILVU_EA_reg, eine nächste Verschachtelungseinheit-Startadresse NT_ILVU_SA_reg, den Präsentationsstartzeitpunkt des ersten Videovollbildes im VOB (Anfangsvideo-Vollbildpräsentationsstartzeitpunkt) VOB_V_SPTM_reg, den Präsentationsendzeitpunkt des letzten Videobildes im VOB (letzter Videovollbildpräsentations Endzeitpunkt) VOB_V_EPTM_reg, den Audiowiedergabestoppzeitpunkt 1 VOB_A_STP_PTM1_reg, den Audiowiedergabestoppzeitpunkt 2 VOB_A_STP_PTM2_reg, die Audiowiedergabestoppperiode 1 VOB_A_GAP_LEN1_reg und die Audiowiedergabestoppperiode 2 VOB_A_GAP_LEN2_reg.
  • Der Verschachtelungseinheitsmerker ILVU_flag_reg speichert einen Wert, der angibt, ob die Videoobjekteinheit VOBU sich in einem verschachtelten Block befindet, und speichert ILVU, wenn dies zutrifft, und N_ILVU, falls nicht.
  • Der Einheits-Ende-Merker UNIT_END_flag_reg speichert den Wert, der angibt, ob die Videoobjekteinheit VOBU die letzte VOBU in der verschachtelten Einheit ILVU ist. Da die verschachtelte Einheit ILVU die Dateneinheit für das kontinuierliche Lesen ist, speichert UNIT_END_flag_reg den Wert END, wenn die derzeit gelesene VOBU die letzte VOBU in der verschachtelten Einheit ILVU ist, und speichert ansonsten N_END.
  • Die Verschachtelungseinheitsendadresse ILVU_EA_reg speichert die Adresse des letzten Bündels in der ILVU, zu der die VOBU gehört, wenn die VOBU sich in einem verschachtelten Block befindet. Diese Adresse wird ausgedrückt als Anzahl von Sektoren ab dem Navigationsbündel NV dieser VOBU.
  • Die nächste Verschachtelungseinheitsstartadresse NT_ILVU_SA_reg speichert die Startadresse der nächsten verschachtelten Einheit ILVU, wenn die VOBU sich in einem verschachtelten Block befindet. Diese Adresse wird ebenfalls als Anzahl von Sektoren ab dem Navigationsbündel NV dieser VOBU ausgedrückt.
  • Das Anfangs-Vidovollbildpräsentations-Startzeitpunkt-Register VOB_V_SPTM_reg speichert den Zeitpunkt, zu dem die Präsentation des ersten Videovollbildes im VOB beginnt.
  • Das End-Videovollbildpräsentationsendzeitpunkt-Register VOB_V_EPTM_reg speichert den Zeitpunkt, zu dem die Präsentation des letzten Videovollbildes im VOB endet.
  • Der Audiowiedergabestoppzeitpunkt 1 VOB_A_STP_PTM1_reg speichert den Zeitpunkt, zu dem der Ton pausieren soll, um eine Resynchronisierung zu ermöglichen, während die Audiowiedergabestoppperiode 1 VOB_A_GAP_LEN1_reg die Länge dieser Pausenperiode speichert.
  • Der Audiowiedergabestoppzeitpunkt 2 VOB_A_STP_PTM2_reg und die Audiowiedergabestoppperiode 2 VOB_A_GAP_LEN2_reg speichern die gleichen Werte.
  • Die Operation des DVD-Dekodierers DCD gemäß der vorliegenden Erfindung, wie in 26 gezeigt ist, wird als nächstes im folgenden mit Bezug auf das Flussdiagramm in 49 beschrieben.
  • Im Schritt #310202 wird zuerst ermittelt, ob eine Platte eingesetzt worden ist. Trifft dies zu, rückt die Prozedur zum Schritt #310204 vor.
  • Im Schritt #310204 wird die Datenträgerdateistruktur VFS (21) gelesen, und die Prozedur rückt zum Schritt #310206 vor.
  • Im Schritt #310206 wird der Videomanager VMG (21) gelesen und der wiederzugebende Videotitelsatz VTS wird extrahiert. Die Prozedur rückt anschließend zum Schritt #310208 vor.
  • Im Schritt #310208 wird die Videotitelsatz-Menüadressinformation VTSM_C_ADT aus den VTS-Informationen VTSI extrahiert, wobei die Prozedur zum Schritt #310210 vorrückt.
  • Im Schritt #310210 wird das Videotitelsatzmenü VTSM_VOBS von der Platte auf der Grundlage der Videotitelsatz-Menüadressinformation VTSM_C_ADT gelesen, wobei das Titelauswahlmenü präsentiert wird.
  • Der Benutzer ist somit fähig, den gewünschten Titel aus diesem Menü im Schritt #310212 auszuwählen. Wenn die Titel sowohl zusammenhängende Titel ohne vom Benutzer auswählbaren Inhalt als auch Titel, die Audionummern, Subbildnummern oder Mehrfachwinkelszeneninhalt enthalten, enthält, muss der Benutzer ferner die gewünschte Winkelnummer eingeben. Sobald die Benutzerauswahl abgeschlossen ist, rückt die Prozedur zum Schritt #310214 vor.
  • Im Schritt #310214 wird der VTS_PGCI-#i-Programmketten-(PGC)-Datenblock entsprechend der vom Benutzer ausgewählten Titelnummer aus der VTSPGC-Informationstabelle VTS_PGCIT extrahiert, wobei die Prozedur zum Schritt #310216 vorrückt.
  • Die Wiedergabe der Programmkette PGC beginnt anschließend im Schritt #310216. Wenn die Wiedergabe der Programmkette PGC beendet ist, endet der Dekodierungsprozess. Wenn ein separater Titel anschließend wiedergegeben werden soll, was durch Überwachen der Tastatureingabe in die Szenarioaus wahlvorrichtung ermittelt wird, wird erneut das Titelmenü präsentiert (Schritt #310210).
  • Die obige Programmkettenwiedergabe im Schritt #310216 wird im folgenden mit Bezug auf 50 genauer beschrieben. Die Programmketten-PGC-Wiedergaberoutine umfasst die Schritte #31030, #31032, #31034 und #31035, wie gezeigt ist.
  • Im Schritt #31030 wird die in 47 gezeigte Dekodierungssystemtabelle definiert. Die Winkelnummer ANGLE_NO_reg, die VTS-Nummer VTS_NO_reg, die PGC-Nummer VTS_PGCI_NO_reg, die Audio-ID AUDIO_ID_reg, und die Subbild-ID SP_ID_reg werden entsprechend der vom Benutzer unter Verwendung der Szenarioauswahlvorrichtung 2100 getroffenen Auswahl gesetzt.
  • Sobald die wiederzugebende PGC bestimmt worden ist, werden die entsprechenden Zelleninformationen (PGC-Informationseinträge C_PBI_#j) extrahiert und das Zelleninformationsregister wird definiert. Die darin definierten Subregister sind der Zellenblockmodus CBM_reg, der Zellenblocktyp CBT_reg, der Nahtloswiedergabemerker SBF_reg, der Verschachtelungszuweisungsmerker IAF_reg, der STC-Rücksetzmerker STCDF, der Nahtloswinkeländerungsmerker SACF_reg, die erste Zellen-VOBU-Startadresse C_FVOBU_SA_reg und die letzte Zellen-VOBU-Startadresse C_LVOBU_SA_reg.
  • Sobald die Dekodierungssystemtabelle definiert ist, werden der Prozess, der die Daten zum Strompuffer überträgt (Schritt #31032), und der Prozess, der die Daten im Strompuffer dekodiert (Schritt #31034), parallel aktiviert.
  • Der Prozess, der Daten zum Strompuffer überträgt (Schritt #31032) ist der Prozess der Übertragung von Daten vom Aufzeichnungsmedium M zum Strompuffer 2400. Dies ist somit die Verarbeitung des Lesens der benötigten Daten vom Aufzeichnungsmedium M und Eingeben der Daten in den Strompuffer 2400 gemäß den vom Benutzer ausgewählten Titelinformationen und den Wiedergabesteuerinformationen (Navigationsbündel NV), die in den Strom geschrieben worden sind.
  • Die als Schritt #31034 gezeigte Routine ist der Prozess zum Dekodieren der im Strompuffer 2400 gespeicherten Daten (26), und zum Ausgeben der dekodierten Daten an den Videodatenausgangsanschluss 3600 und den Audiodatenausgangsanschluss 3700. Somit ist dies der Prozess zum Dekodieren und Wiedergeben der im Strompuffer 2400 gespeicherten Daten.
  • Es ist zu beachten, dass Schritt #31032 und Schritt #31034 parallel ausgeführt werden.
  • Die Verarbeitungseinheit des Schritts #31032 ist die Zelle, wobei dann, wenn die Verarbeitung einer Zelle abgeschlossen ist, im Schritt #31035 ermittelt wird, ob die komplette Programmkette PGC verarbeitet worden ist. Wenn die Verarbeitung der kompletten Programmkette PGC nicht abgeschlossen ist, wird die Dekodierungssystemtabelle für die nächste Zelle im Schritt #31030 definiert. Diese Schleife vom Schritt #31030 bis zum Schritt #31035 wird wiederholt, bis die gesamte Programmkette PGC verarbeitet worden ist.
  • Dekodierungsprozess im Strompuffer
  • Der Prozess zum Dekodieren von Daten im Strompuffer 2400, der als Schritt #31034 in 50 gezeigt ist, wird im folgenden mit Bezug auf 51 beschrieben. Dieser Prozess (#31034) umfasst die Schritte #31110, #31112, #31114 und #31116.
  • Im Schritt #31110 werden Daten in Bündeleinheiten vom Strompuffer 2400 zum Systemdekodierer 2500 übertragen (26). Die Prozedur rückt anschließend zum Schritt #31112 vor.
  • Im Schritt #31112 stammen die Bündeldaten vom Strompuffer 2400 für jeden der Puffer, nämlich den Videopuffer 2600, den Subbildpuffer 2700 und den Audiopuffer 2800.
  • Im Schritt #31112 werden die IDs der vom Benutzer ausgewählten Audio- und Subbilddaten, d. h. die Audio-ID AUDIO_ID_reg und die Subbild-ID SP_ID_reg, die in dem in 47 gezeigten Szenarioinformationsregister gespeichert sind, mit der Strom-ID und der Substrom-ID verglichen, die aus dem Paketkopf (19) gelesen werden, wobei die übereinstimmenden Pakete an die jeweiligen Puffer ausgegeben werden. Die Prozedur rückt anschließend zum Schritt #31114 vor.
  • Der Dekodierungszeitablauf der jeweiligen Dekodierer (Video-, Subbild- und Audiodekodierer) wird im Schritt #31114 gesteuert, d. h., die Dekodierungsoperationen der Dekodierer werden synchronisiert, wobei die Prozedur zum Schritt #31116 vorrückt.
  • Es ist zu beachten, dass der Dekodierersynchronisierungsprozess des Schritts #31114 im folgenden mit Bezug auf 52 beschrieben wird.
  • Die jeweiligen Elementarketten werden anschließend im Schritt #31116 dekodiert. Der Videodekodierer 3801 liest somit die Daten aus dem Videopuffer und dekodiert diese, während der Subbilddekodierer 3100 die Daten aus dem Subbildpuffer liest und dekodiert und der Audiodekodierer 3200 die Daten aus dem Audiopuffer liest und dekodiert.
  • Dieser Strompufferdatendekodierungsprozess endet anschließend, wenn diese Dekodierungsprozesse abgeschlossen sind.
  • Der Dekodierersynchronisierungsprozess des Schritts #31114, 51, wird im folgenden mit Bezug auf 52 beschrieben. Dieser Prozess umfasst die Schritte #31120, 31122 und 31124.
  • Im Schritt 31120 wird ermittelt, ob eine nahtlose Verbindung zwischen der aktuellen Zelle und der vorangehenden Zelle spezifiziert ist. Wenn eine nahtlose Verbindung vorliegt, rückt die Prozedur zum Schritt 31122 vor, falls nicht, rückt die Prozedur zum Schritt 31124 vor.
  • Eine Prozesssynchronisierungsoperation zum Erzeugen nahtloser Verbindungen wird im Schritt 31122 ausgeführt, während eine Prozesssynchronisierungsoperation für nicht-nahtlose Verbindungen im Schritt 31124 ausgeführt wird.
  • Videokodierer
  • Ein Videokodierer, der einen MPEG-Videostrom erzeugt, kodiert den Videostrom, um ein Versagen des im MPEG-Dekodierer vorgesehenen Videopuffers 2600 zu verhindern. Ein Dekodierer zum Dekodieren eines Videostroms entsprechend dem MPEG-Hauptprofil, Hauptebene-(MPEG2-MP@ML)-Standard zum Kodieren normaler Videosignale erfordert einen Videopuffer 2600 mit einer Kapazität von wenigstens 224 kB (siehe ISO-13818, MPEG-Standard). Als Ergebnis simuliert der MPEG2-MP@ML-Videokodierer das akkumulierte Videodatenvolumen Vdv des Dekodierervideopuffers 2600, der eine minimale Speicherkapazität von 224 kB aufweist, während der Kodierung und steuert die Kodegröße, um einen Datenunterlauf- oder -Überlaufzustand im Videopuffer 2600 zu verhindern.
  • Wenn der Videopuffer 2600 unterläuft, kann die Videodekodierung nicht fortschreiten, bis die für die Dekodierung benötigten Daten zugeführt werden. Dies führt zu einer intermittierenden Videoausgabe oder anderen Präsentationsproblemen. Wenn der Videopuffer 2600 überläuft, können die benötigten kodierten Daten verloren gehen, wobei die Daten nicht korrekt dekodiert werden können.
  • Wenn jedoch die Daten von der optischen Platte M mittels des in 26 gezeigten DVD-Dekodierers DCD gelesen werden, kann eine intermittierende Datenübertragung, die von der optischen Platte M nur so viele Daten liest, wie für die Dekodierung benötigt werden, erreicht werden. Wenn der Videopuffer 2600 des DVD-Dekodierers DCD in diesem Fall überzulaufen scheint, ist es möglich, einen Überlauf zu verhindern, indem das Lesen von Daten gestoppt wird, bevor der Puffer überläuft. Die Dekodierung kann somit ohne Verlust irgendwelcher Daten abgeschlossen werden. Die Wiedergabevorrichtung, d. h. der DVD-Dekodierer DCD, kann somit eine Überlaufverarbeitung handhaben.
  • Ein Unterlauf des Videopuffers 2600 kann jedoch auftreten, wenn die Dekodierung mit einer Rate ausgeführt wird, die die maximale Datenübertragungsrate überschreitet, da die maximale Datenübertragungsrate durch die DVD-Systemantriebsfaktoren wie z. B. die Wiedergabevorrichtung, die Plattenantriebsvorrichtung, die Antriebsschaltungstreibersoftware und so weiter begrenzt ist. Wenn somit eine intermittierende Datenübertragung vom DVD-Dekodierer DCD bewerkstelligt werden kann, ist es wichtig, den Kodierungsprozess zu steuern, um einen Pufferunterlauf während der Dekodierung zu verhindern.
  • Während des Videostromkodierungsprozesses wird das akkumulierte Videoda tenvolumen Vdv des Videopuffers 2600 hypothetisch berechnet, um die Kodegröße gemäß dem akkumulierten Videodatenvolumen Vdv zu kontrollieren. Das Verfahren der Berechnung des akkumulierten Videodatenvolumens Vdv des Videopuffers 2600 wird im folgenden beschrieben.
  • Die Änderung des akkumulierten Videodatenvolumens Vdv des Videopuffers 2600, wenn der kodierte Videostrom St71 zum Videopuffer 2600 übertragen wird und im DVD-Dekodierer DCD der in 26 gezeigten vorliegenden Erfindung dekodiert wird, ist in 41 gezeigt. Die Linie SVi zeigt somit die Änderung des Videodatenvolumens Vdv, das im Videopuffer 2600 an der Vorderseite des kodierten Videostroms St71 akkumuliert ist, während die Linie BR die Eingaberate in den Videopuffer 2600 angibt.
  • Diese Dateneingaberate ist die Datenübertragungsrate des kodierten- Videostroms und ist gleich der Datenübertragungsrate eines Konstantraten-Systemstroms, im wesentlichen gleich der DVD-Leserate minus der Übertragungsrate der Nicht-Video-Ströme.
  • Der kodierte Videostrom wird mit einer spezifischen Übertragungsrate BR übertragen, wobei die für die Dekodierung eines Vollbildes Fv benötigten Daten gleichzeitig mit dem Start der Dekodierung vom Videopuffer 2600 zum Videodekodierer 3800 übertragen werden. Da der Dekodierungsstartzeitpunkt jedes Vollbildes durch die Wiedergabevollbildperiode gesteuert wird, tritt der Dekodierungsstartzeitpunkt in der gleichen Periode auf wie die Vollbildperiode, wenn Daten kontinuierlich mit einer konstanten Vollbildperiode wiedergegeben werden. Dies ist eine allgemeine Bedingung für den Kodierungsprozess und wird verwendet, um das akkumulierte Videodatenvolumen Vdv des Videopuffers 2600 während des Kodierungsprozesses als Sollkodegröße zu berechnen.
  • Während der Videokodierung wird die Sollkodegröße für jedes Vollbild in Vollbildeinheiten berechnet, wobei jedes Vollbild anschließend kodiert wird, um diese Sollkodegröße zu erzeugen. Es gibt zwei Verfahren zum Erhalten dieser Sollkodegröße, eine Zwei-Durchlauf-Kodierung und eine Einzeldurchlaufkodierung. Bei der Zwei-Durchlauf-Kodierung wird das zu kodierende Video zuerst pseudokodiert, um die Pseudokodegröße zu erhalten, die zum Kodieren jedes Vollbildes benötigt wird, wobei die Sollkodegröße anschließend auf der Grundlage dieser Pseudokodegröße und der Kompressionsbitrate erhalten wird. Bei der Einzeldurchlaufkodierung wird die Kodegröße jedes Vollbildes auf der Grundlage eines Verhältnisses erhalten, das voreingestellt ist oder während des Kodierungsprozesses entsprechend der Differenz zwischen der Kompressionsbitrate und dem Kompressionsvollbildtyp (I-Vollbild, P-Vollbild oder B-Vollbild) geeignet gesetzt wird.
  • Das akkumulierte Videodatenvolumen Vdv wird auf der Grundlage der Pro-Vollbild-Kodegröße berechnet, die unter Verwendung eines der obigen Verfahren erhalten wird, um den Videopuffer 2600 am Versagen zu hindern und die endgültige Sollkodegröße für den Kodierungsprozess zu erhalten.
  • Wie in 40 gezeigt ist, beginnt die Datenübertragung des kodierten Videostroms St71 zum Videopuffer 2600 zum Zeitpunkt Ti, zu dem das akkumulierte Videodatenvolumen Vdv gleich 0 ist. Anschließend nimmt das akkumulierte Videodatenvolumen Vdv allmählich mit der Übertragungsrate BR zu. Wenn das akkumulierte Videodatenvolumen Vdv eine vordefinierte Anfangspufferbelegung Bi erreicht, d. h. zum Zeitpunkt Td1, beginnt die Dekodierung des ersten Vollbildes. Es ist zu beachten, dass die Zeitspanne vom Dateneingabezeitpunkt Ti zum Dekodierungsstartzeitpunkt Td die Dekodierungsverzögerungszeit ist, d. h. die Videopufferprüferverzögerung vbv_delay. Gleichzeitig mit dem Start der Dekodierung nimmt das akkumulierte Videodatenvolumen Vdv im Videopuffer 2600 sofort um die Datengröße BG eines Vollbildes Fv ab. Das akkumulierte Videodatenvolumen Vdv nimmt anschließend weiter mit der konstanten Übertragungsrate BR zu.
  • Die anfängliche Pufferbelegung Bi ist das akkumulierte Videodatenvolumen Vdv des Videopuffers 2600 zum Dekodierungsprozessstartzeitpunkt.
  • Die Datengröße jedes Vollbildes ist nicht konstant, da eine Kodierung mit variabler Länge verwendet wird, wobei sich das akkumulierte Videodatenvolumen Vdv zum Dekodierungsstartpunkt jedes Vollbildes ändert, wie in der Figur gezeigt ist.
  • Sobald die anfängliche Pufferbelegung Bi bestimmt ist, kann das akkumulierte Videodatenvolumen Vdv im Videopuffer 2600 bei jedem Vollbild anhand der Rate der Zunahme des akkumulierten Videodatenvolumens Vdv, die mittels der Über tragungsrate BR bestimmt wird, und der bei jedem Vollbild verbrauchten Datenmenge berechnet werden.
  • Der Kodierungsprozess wird daher auf der Grundlage der gesetzten Anfangspufferbelegung BI und der Datenübertragungsrate so gesteuert, dass der Videopuffer 2600 vor einem Überlauf oder einem Unterlauf bewahrt wird. Wenn somit der Dekodierungsprozess nicht mit der gleichen Anfangspufferbelegung BI und der gleichen Übertragungsrate BR ausgeführt wird, die während des Kodierungsprozesses gesetzt sind, kann ein Unterlauf oder ein Überlauf auftreten, wobei eine angemessene Videowiedergabe möglicherweise unmöglich ist. Es ist zu beachten, dass die gleichen Bedingungen auch für den Subbildpuffer 2700 und den Audiopuffer 2800 gelten, obwohl oben auf den Videopuffer als Dekodierungspuffer Bezug genommen wird.
  • Wenn der kodierte Videostrom St71, der für den Titel verwendet wird, durch Kodieren eines einzelnen Videosignals von Anfang bis Ende auf einmal erhalten wird und anschließend in geeigneter Weise dekodiert wird, wie oben beschrieben worden ist, treten keine Probleme auf. Wenn jedoch separat kodierte Ströme verbunden und als ein einziger Strom wiedergegeben werden, können die obenbeschriebenen Unterlauf- oder Überlaufprobleme der Daten des Videopuffers 2600 auftreten.
  • Zum Beispiel kann ein Spielfilm in Kapiteleinheiten kodiert sein, die eine Wiedergabezeit von näherungsweise zehn Minuten repräsentieren, wobei die Ströme in Kapiteleinheiten erzeugt worden sind. Während der Wiedergabe werden diese Kapiteleinheitsströme anschließend verbunden und wiedergegeben, um einen einzelnen kodierten Videostrom zu erzeugen.
  • Während der Mehrfachwinkelszenenwiedergabe, wie oben beschrieben worden ist, müssen die derzeit wiedergegebenen Ströme dynamisch mit dem Winkelstrom, der vom Benutzer aus der Mehrfachwinkelszenenperiode dynamisch ausgewählt worden ist, die die mehreren Winkelströme für die mehreren Szenen enthält, verbunden und wiedergegeben werden.
  • Das gleiche gilt für die Elternsperre-Kontrolle-Titel. Der Strom für die Szene, die vom Benutzer aus der Elternsperre-Kontrollperiode ausgewählt worden ist, die die mehreren Ströme für die mehreren Szenen enthält, muss statisch mit dem einzelnen gemeinsamen Systemstrom verbunden und wiedergegeben werden.
  • In jedem Fall werden die gemeinsamen Ströme und die mehreren Ströme für die mehrfachen Szenen separat kodiert. Dies bedeutet, dass während der Wiedergabe der gemeinsame Systemstrom mit dem vom Benutzer ausgewählten Strom verbunden und zusammenhängend wiedergegeben werden muss.
  • Wenn Ströme von einer Mehrfachszenenperiode, die unabhängig kodierte mehrere Systemströme auf der gleichen Zeitbasis enthält, mit einem weiteren Systemstrom verbunden und zusammenhängend wiedergegeben werden, treten die folgenden Schwierigkeiten auf.
  • Mit Bezug auf 41 wird im Folgenden die Änderung des akkumulierten Videodatenvolumens Vdv des Videopuffers 2600, wenn eine bestimmte Anzahl von Vollbildern aus dem kodierten Videostrom St71 dekodiert wird, beschrieben. In diesem Beispiel werden fünf Vollbilder F1, F2, F3, F4 und F5 aus dem kodierten Videostrom St71 dekodiert. Besondere Aufmerksamkeit wird im Folgenden auf die Änderung des akkumulierten Videodatenvolumens Vdv des Videopuffers 2600 am Ende des kodierten Videostroms St71 gerichtet.
  • Wie oben mit Bezug auf 40 beschrieben worden ist, beginnt die Datenübertragung des kodierten Videostroms St71 zum Videopuffer 2600 zum Zeitpunkt Ti, zu dem das akkumulierte Videodatenvolumen Vdv gleich 0 ist. Die Dekodierung des ersten Vollbildes F1 beginnt zum Dekodierungsstartzeitpunkt Td1 (f1) nach der Videopufferprüferverzögerung vbv_delay. Das akkumulierte Videodatenvolumen Vdv zu diesem Zeitpunkt ist die definierte Anfangspufferbelegung Bi. Das akkumulierte Videodatenvolumen Vdv wird anschließend mit der Datenübertragungsrate BR akkumuliert, wobei die Dekodierung jedes Vollbildes zum entsprechenden Dekodierungsstartzeitpunkt (f2, f2, f3, f4, f5) beginnt. Die Datenübertragung des Videostroms Svi endet zum Zeitpunkt Te. Mit anderen Worten, das akkumulierte Videodatenvolumen Vdv steigt nach dem Zeitpunkt Te nicht an. Nachdem das letzte Vollbild F5 zum Zeitpunkt f5 dekodiert worden ist, ist das akkumulierte Videodatenvolumen Vdv im Videopuffer 2600 gleich 0.
  • Mit Bezug auf 42 wird im Folgenden die Änderung des akkumulierten Video datenvolumens Vdv des Videopuffers 2600, wenn zwei kodierte Videoströme St71A und St71b verbunden werden, beschrieben. In diesem Beispiel werden die Vollbilder F1, F2, F3, F4 und F5 im vorangehenden kodierten Videostrom St71a mit den Vollbildern F1, F2, ... im folgenden zweiten kodierten Videostrom St71b verbunden.
  • Die Datenübertragung des ersten kodierten Videostroms St71a zum Videopuffer 2600 beginnt zum Zeitpunkt Ti1. Die Übertragung des kodierten Videostroms St71a ist zum Zeitpunkt Te1 abgeschlossen, der mit dem Zeitpunkt Ti2 zusammenfällt, zudem die Übertragung des zweiten kodierten Videostroms St71b zum Videopuffer 2600 beginnt. Im Gegensatz zu dem in 41 gezeigten Beispiel wird in diesem Fall die Datenübertragung des kodierten Videostroms St71b ab dem Zeitpunkt Te2 nach dem Zeitpunkt Te1, zu dem die Übertragung des ersten kodierten Videostroms St71a endet, fortgesetzt. Der Anstieg und der Abfall des akkumulierten Videodatenvolumens Vdv wird somit mit der Übertragungsrate BR und dem Dekodierungsintervall fortgesetzt, wenn jedes Vollbild dekodiert wird.
  • Das akkumulierte Videodatenvolumen des kodierten Videostroms St71b im Videopuffer 2600 zum Dekodierungsendzeitpunkt des ersten kodierten Videostroms St71a, d. h. zum Dekodierungsstartzeitpunkt Td2 des zweiten kodierten Videostroms St71b, ist als End-Pufferbelegung Be1 definiert.
  • Mit anderen Worten, wenn zwei kodierte Datenströme verbunden und zusammenhängend wiedergegeben werden, werden die Daten vom zweiten Systemstrom mit der spezifizierten Datenübertragungsrate übertragen und im Videopuffer 2600 akkumuliert, nachdem der erste Systemstrom vollständig zum Videopuffer 2600 übertragen worden ist. Die End-Pufferbelegung Be1 zu diesem Zeitpunkt ist das akkumulierte Videodatenvolumen Vdv des im Videopuffer 2600 gepufferten zweiten Systemstroms, wenn die letzten Daten im ersten Systemstrom dekodiert worden sind. Mit anderen Worten, die End-Pufferbelegung Be1 des ersten kodierten Systemstroms im der vorliegenden Ausführungsform wird so gesteuert, dass sie gleich der Anfangspufferbelegung Bi des zweiten kodierten Systemstroms ist.
  • Wenn ein weiterer Videostrom mit einem Videostrom verbunden und zusammenhängend wiedergegeben wird, ist es notwendig, diese End-Pufferbelegung Be1 während des Kodierungsprozesses zu berechnen. Dies liegt daran, dass die End-Pufferbelegung Be1 die Anfangspufferbelegung Bi2 des kodierten Videostroms St71b ist, der mit dem ersten Videostrom verbunden ist. Mit anderen Worten, die End-Pufferbelegung Be1 des vorangehenden kodierten Videostroms St71a in 42 ist die Anfangspufferbelegung Bi2 des kodierten Videostroms St71b. Im Kodierungsprozess, der den folgenden kodierten Videostrom St71b erzeugt, ist daher die Anfangspufferbelegung Bi2 des Videopuffers 2600 als Be2 = Bi2 definiert. Dieser Anfangspufferbelegungswert Bi2 wird anschließend verwendet, um die Kodegröße zu steuern und ein Versagen des Videopuffers 2600 zu verhindern.
  • Mit Bezug auf 43 wird im Folgenden das Verfahren zur Auswahl und Wiedergabe einer Szene aus mehreren Szenen in einen Mehrfachszenenperiode und des anschließenden Verbindens dieser Szenen zum Ausgeben eines einzelnen Systemstroms beschrieben. Es ist zu beachten, dass dieses Verfahren verwendet wird, um das Elternsperre-Kontrollmerkmal und das Mehrfachwinkelszenenauswahlmerkmal, die für das DVD-System charakteristisch sind, wie in 21 gezeigt ist, zu ermöglichen.
  • 43 zeigt das Konzept der Verzweigung von einem Systemstrom auf mehrere Systemströme und der anschließenden Rückverbindung von einem der mehreren Systemströme zu einem gemeinsamen Systemstrom, um eines von verschiedenen Szenarios aus einem im Wesentlichen identischen Systemstrom zu erzeugen. Wie in 43 gezeigt ist, sind SSA und SSC die gemeinsamen Systemströme, während SSB1 und SSB2 die diskreten Systemströme von der Mehrfachszenenperiode sind.
  • Unter Verwendung des Systemstroms SSA als Beispiel umfasst jeder dieser Systemströme verschachtelte Videoströme VA und Audioströme AA. Der Videostrom VA beginnt am Anfang des Systemstroms SSA und endet vor dem Ende des Systemstroms. Der Audiostrom AA beginnt an einem späteren Punkt als der Videostrom VA, endet doch am Ende des Systemstroms SSA. Diese zeitliche Beziehung zwischen den Audio- und Videokomponentenströmen, die in 44 gezeigt sind, ist für jeden der Systemströme, der eine andere Szene zeigt, gleich, unabhängig davon ob diese gemeinsam ist oder zur Mehrfachszenenperiode gehört.
  • Der Grund für diesen zeitlichen Versatz zwischen den Audio- und Videoströmen wird im Folgenden beschrieben.
  • In der Mehrfachszenenperiode, in der das Szenario in mehrere Szenen verzweigt, muss der Systemstrom für jede diskrete Szene erzeugt werden. Die Größe der Videodaten ist jedoch im Allgemeinen größer als diejenige der Audiodaten, wobei die Kapazität des Videopuffers 2600 im Allgemeinen größer ist als diejenige des Audiopuffers 2800. Ferner ist die Videodatendekodierungsverzögerung, d. h. die Periode vom Start der Eingabe in den Videopuffer 2600 zum Start der Dekodierung, größer als die Audiodatendekodierungsverzögerung.
  • Wenn daher der Videostrom und der Audiostrom verschachtelt werden, um einen einzige Systemstrom zu erzeugen, wird die Verschachtelung für die gleichzeitig präsentierten Audio- und Videodaten so gesteuert, dass während der Dekodierung die Videodaten in den Videopuffer 2600 angegeben werden, bevor die Audiodaten in den Audiopuffer 2800 eingegeben werden. Dies ist der in 43 gezeigte Zustand. Als Ergebnis werden die Daten so verschachtelt, dass am Anfang des Systemstroms nur Videodaten in den Puffer (Videopuffer 2600) eingegeben werden, und am Ende des Systemstroms nur Audiodaten in den Puffer (Audiopuffer 2800) eingegeben werden.
  • Es ist ferner notwendig, die Daten so zu verschachteln, dass die Audiodaten in einem geeigneten Intervall in den Audiopuffer 2800 eingegeben werden, d. h. in einem Intervall, das keinen Überlauf des Audiopuffers 2800 verursacht. Da es keinen Videostrom gibt, der am Ende des Systemstroms in den Videopuffer 2600 einzugeben ist, wird die Audiodatenübertragung zum Audiodatenpuffer 2800 entsprechend dem akkumulierten Audiodatenvolumen Vda im Audiopuffer 2800 unterbrochen, so dass der Audiostrom in einem geeigneten Intervall in den Audiopuffer 2800 eingegeben wird, das einen Pufferüberlauf verhindert.
  • Das Konzept einer einfachen Eins-zu-eins-Verbindung zwischen dem vorangehenden Mehrfachszenensystemstrom SSB1 und dem gemeinsamen Systemstrom SSC wird im Folgenden mit Bezug auf 44 beschrieben. Wie in 44 gezeigt und oben beschrieben worden ist, wird der Mehrfachszenensystemstrom SSB1 so verschachtelt, dass nur der Audiostrom AB1 am Ende des System stroms in den Audiopuffer 2800 eingegeben wird. Wenn der Systemstrom SSB1 und der Systemstrom SSC verbunden werden, können die Videodaten VC von folgendem Systemstrom SSC nicht in den Videopuffer 2600 eingegeben werden, während das Ende der Audiodaten AB1 im vorangehenden Systemstrom SSB1 in den Audiopuffer 2800 eingegeben wird. Dies kann zu einem Unterlaufzustand des Videopuffers 2600 führen.
  • Um dieses Problem zu lösen, wurde ein Verfahren vorgeschlagen, um einen Teil des Videostroms oder des Audiostroms unter Verwendung des in 45 gezeigten Systemstromkodierungsverfahrens zu bewegen, wie in der japanischen Patentanmeldung H7-252735 (1995/252735) beschrieben ist, um einen Datenunterlauf im Puffer zu verhindern.
  • Dieses Verfahren des Bewegens eines Teils des Stroms wird im Folgenden mit Bezug auf 45 beschrieben. Wie in 45 gezeigt ist, wird die Endeinheit AAe vom Audiostrom AA im gemeinsamen Systemstrom SSA' zum Anfang der Audioströme AB1 und AB2 bewegt, wo der gemeinsame Systemstrom SSA' mit dem Mehrfachszenensystemströmen SSB1' und SSB2' verbunden ist. Während diese Operation eine gewisse Informationsmenge dupliziert, genauer die Endeinheit AAe vom Audiostrom AA im gemeinsamen Systemstrom SSA', ist das Ergebnis die Eliminierung der Datendiskontinuität an der Systemstromverzweigung und die Verhinderung eines Datenunterlaufs im Videopuffer 2600.
  • Eine ähnliche Bewegung wird an den Enden der Mehrfachszenensystemströme SSB1' und SSB2' an der Verbindung zurück zum gemeinsamen Systemstrom SSC' bewirkt. In diesem Fall wird die erste Videostromeinheit VCt vom Videostrom VC im gemeinsamen Systemstrom SSC' an das Ende der Videoströme VB1' und VB2' der Mehrfachszenensystemströme SSB1' und SSB2' kopiert. Die Daten vom Videostrom werden an der Verbindung zurück zum gemeinsamen Systemstrom bewegt, da die Audioinhalte AB1' und AB2' im Allgemeinen verschieden sind. Als Ergebnis werden die gemeinsamen Videodaten kopiert. Wenn die Audioinhalte AB1' und AB2' gleich sind, ist klar, dass die letzte Einheit der Audioinhalte AB1' oder AB2' zum Anfang des gemeinsamen Audiostroms AC bewegt werden kann.
  • Im MPEG-Standard wird der Bitstrom im Allgemeinen in GOP-Einheiten gehand habt, deren Größe durch das für die Intravollbildkodierung verwendete Vollbild bestimmt wird. Die Daten werden daher auch vom Videostrom in GOP-Einheiten bewegt.
  • Die Änderung des akkumulierten Videodatenvolumens Vdv im Videopuffer 2600 während der Wiedergabe des obigen kodierten Systemstroms wird im Folgenden beschrieben.
  • Der Systemstromverbindungspunkt unterscheidet sich vom ursprünglichen Videostromverbindungspunkt oder vom Audiostromverbindungspunkt. Genauer ist ein Teil des Videos VC im Systemstrom SSB1' enthalten, da jedoch dies der Verbindungspunkt ist, an dem das Video VC aus dem ursprünglichen zusammenhängenden Systemstrom SSC1' entfernt wurde, wird die Kontinuität des akkumulierten Videodatenvolumens Vdv im Videopuffer 2600 am Verbindungspunkt zwischen dem Systemstrom SSB1' und dem Systemstrom SSC' beibehalten. Ferner ist es möglich, die Kontinuität bei der Änderung des akkumulierten Videodatenvolumens Vdv im Videopuffer 2600 aufrechtzuerhalten, indem die Anfangspufferbelegung Bi der Videodaten Vc so festgelegt wird, dass die End-Pufferbelegung des Videos Vb1 im Videopuffer 2600 und die End-Pufferbelegung des Videos Vb2 im Videopuffer 2600 gleich sind, und dass während des Kodierungsprozesses normal akkumulierte Videodatenvolumen Vdv berechnet wird.
  • Als Nächstes wird mit Bezug auf 46 die Änderung des akkumulierten Videodatenvolumens Vdv im Videopuffer 2600 während der intermittierenden Datenübertragung beschrieben. Die vertikale Achse zeigt das akkumulierte Videodatenvolumen Vdv im Videopuffer 2600, wenn der kodierte Videostrom SS1 und der kodierte Videostrom SS2 mit intermittierender Datenübertragung verbunden werden, wobei die horizontale Achse den Fortschritt der Zeit zeigt. Die Zeitpunkte f1, f2, f3, f4, f5, f6, f7, f8 in 46 zeigen die Dekodierungszeitpunkte der jeweiligen Vollbilder F1–F8.
  • Zum Zeitpunkt Ti1 beginnt die Datenübertragung des Systemstroms SS1 zum Videopuffer 2600. Zum Zeitpunkt Td1 beginnt die Dekodierung des ersten Vollbildes F1.
  • Anschließend verändert sich das akkumulierte Videodatenvolumen Vdv, wie mit Bezug auf 42 beschrieben worden ist. Das akkumulierte Videodatenvolumen Vdv erreicht jedoch die maximale Belegung Bmax zum Zeitpunkt Ts1. Wenn die Datenübertragung über die maximale Belegung Bmax hinaus fortgesetzt wird, läuft der Videopuffer 2600 über und es können Daten verloren gehen. Die Datenübertragung wird daher unterbrochen. Genauer wird das akkumulierte Videodatenvolumen Vdv konstant gehalten.
  • Wenn das Vollbild F3 anschließend zum Zeitpunkt f3 dekodiert wird, fällt das akkumulierte Videodatenvolumen Vdv im Videopuffer 2600 unter die maximale Belegung Bmax und die Datenübertragung wird fortgesetzt. Immer dann, wenn anschließend das akkumulierte Videodatenvolumen Vdv die maximale Belegung Bmax erreicht, wird die Datenübertragung unterbrochen, und dann wieder fortgesetzt, wenn Daten für die Dekodierung verbraucht worden sind.
  • In dem in 46 gezeigten Beispiel wird die Datenübertragung zu den Zeitpunkten Ts1, Ts2, Ts3, Ts4 und Ts5 unterbrochen. Der Zeitpunkt Ti2' ist der Datenübertragungsstartzeitpunkt des zweiten kodierten Videostroms SS2, und der Datenübertragungsendzeitpunkt des ersten kodierten Videostroms SS1.
  • Es ist zu beachten, dass, obwohl eine Unterbrechung der Datenübertragung nicht auf die in der Figur gezeigten Zeitpunkte beschränkt ist, die Periode DG, während der die Datenübertragung innerhalb der Datenübertragungsperiode Tt1 des kodierten Videostroms SS1 (vom Zeitpunkt Ti1 bis Ti2') unterbrochen werden muss, mit der folgenden Gleichung berechnet werden kann. DG = Tt1 – D1/BR (1)wobei D1 die Datengröße des kodierten Videostroms SS1 ist und BR die Datenübertragungsrate des kodierten Videostroms SS1 ist.
  • Der Datenübertragungszeitpunkt zum Videopuffer 2600 wird somit gesteuert, um die Datenübertragung geeignet zu unterbrechen, um einen Überlauf des Videopuffers 2600 zu verhindern, wobei die Datenübertragungszeit mit den kodierten Daten gemäß dem MPEG-Standard im Systemstrom aufgezeichnet wird. Um Videopufferüberläufe während der Wiedergabe zu verhindern, wird die Datenübertragungszeitinformation mit den kodierten Daten übertragen, um die Dekodierung und die Wiedergabe zu steuern.
  • Wenn jedoch die Mehrfachszenendaten Mehrfachwinkelszenendaten sind, d. h. Szenendaten, die im Wesentlichen das gleiche Subjekt aus unterschiedlichen Winkeln zeigen, und die Videosignale aus diesen mehreren Winkeln anschließend in vordefinierten Dateneinheiten (ILVU) kombiniert werden, um einen einzigen Titel zu erhalten, kann während des Kodierungsprozesses nicht ermittelt werden, wie diese mehreren Videoströme verbunden und wiedergegeben werden. Als Ergebnis kann das Verhalten des Dekodierer-Videopuffers, speziell der Datenakkumulationszustand des Videopuffers während des Dekodierungsprozesses, während des Kodierungsprozesses nicht ermittelt werden, wobei während der Dekodierung ein Videopufferüberlauf- oder -unterlaufzustand auftreten kann.
  • Wenn die MPEG-Kodierung oder ein ähnlicher Kodierungsprozess mit variabler Länge während des Kodierungsprozesses, der den Videostrom erzeugt, verwendet wird, ist die End-Pufferbelegung des Videopuffers 2600 bei Dekodierung des ersten Videostroms nur bekannt, sobald der erste Videostromkodierungsprozess abgeschlossen ist. Wenn ein zweiter Systemstrom nahtlos mit dem Ende dieses ersten Systemstroms verbunden ist, muss die Anfangspufferbelegung Bi des zweiten Systemstroms im Videopuffer 2600 gleich der End-Pufferbelegung des ersten Systemstroms sein, wobei die Kodierungsgröße gesteuert werden muss, um ein Versagen des Videopuffers 2600 zu verhindern. Da die Anfangspufferbelegung Bi des zweiten Systemstroms bekannt ist, nachdem der Prozess der Kodierung des ersten Videostroms abgeschlossen ist, müssen die Videoströme in der Wiedergabereihenfolge kodiert sein, um die zwei kodierten Videoströme nahtlos wiederzugeben.
  • Wenn die End-Pufferbelegung des ersten Videostroms nicht mit der Anfangspufferbelegung Bi des zweiten Videostroms übereinstimmt, wird der Kodierungsprozess unter Verwendung der Anfangspufferbelegung Bit als akkumuliertes Videodatenvolumen Vdv im Videopuffer 2600 zum Zeitpunkt Td2 (f7), dem Dekodierungszeitpunkt der ersten Daten im Strom 2 (46), gesteuert. Zum Zeitpunkt Td2 während der Dekodierung ist jedoch das akkumulierte Datenvolumen Vdv die Anfangspufferbelegung Bit des ersten Systemstroms SS1. Ferner wird die Datenübertragung zu den Zeitpunkten Ts4 und Ts5 während der Dekodierung unterbrochen, jedoch gibt es keine solche Datenübertragungsunterbrechung während der Kodierung. Mit anderen Worten, zu einem bestimmten Zeitpunkt, den der Kodierungsprozess nicht kennt, kann ein Dekodierungspufferüberlauf auftreten.
  • Wenn die Systemströme SS1 und SS2 notwendigerweise verbunden werden, kann die Änderung des akkumulierten Videodatenvolumens Vdv im Videopuffer 2600, wie in 46 gezeigt ist, während der Kodierung berechnet werden. Wenn jedoch einer der mehreren auswählbaren Ströme wieder mit einem gemeinsamen Strom verbunden wird und z. B. während einer Mehrfachwinkelszenenwiedergabe zusammenhängend wiedergegeben wird, kann der Systemstrom SS2 mit einem dritten Strom, der nicht der Systemstrom SS1 ist, verbunden werden. Um sicherzustellen, dass die Änderung des akkumulierten Videodatenvolumens Vdv des Systemstroms SS2 im Videopuffer 2600 gleich derjenigen ist, die während der Kodierung berechnet wird, müssen die End-Pufferbelegungen aller Systemströme, die mit dem Systemstrom SS2 verbunden werden können, gleich sein.
  • Wenn die MPEG-Kodierung oder ein ähnlicher Kodierungsprozess mit variabler Länge während des Kodierungsprozesses verwendet wird, der den Videostrom erzeugt, ist die kodierte Datenmenge nur bekannt, sobald der Kodierungsprozess abgeschlossen ist. Dies liegt daran, dass die verwendete Kodierungslänge entsprechend der Informationsmenge in den Videodaten bestimmt wird, d. h. entsprechend der räumlichen Komplexität oder der zeitlichen Komplexität der Videodaten und dem vorangehenden Kodezustand, wobei die Kodelänge anschließend bestimmt wird. Da es somit schwierig ist, die kodierte Datengröße auf eine spezifische vorgegebene Größe genau zu beschränken, ist es schwierig, die End-Pufferbelegung genau zu spezifizieren.
  • Insbesondere wenn das kodierte Datenvolumen zugewiesen wird und der Kodierungsprozess entsprechend der Informationsmenge im Videostrom bewerkstelligt wird, wird das zugewiesene Datenvolumen offensichtlich variieren, wenn sich die Informationsmenge im Videostrom ändert, wobei die Änderung des akkumulierten Videodatenvolumens Vdv im Videopuffer 2600 variieren wird. Es ist somit schwierig, sicherzustellen, dass die End-Dekodierungs-Videopufferbelegung bei jedem der mehreren Videoströme gleich ist.
  • Es ist daher die Aufgabe der vorliegenden Erfindung, ein Kodierungsverfahren und eine Kodierungsvorrichtung, ein Aufzeichnungsverfahren und eine Aufzeichnungsvorrichtung, sowie ein Wiedergabeverfahren und eine Wiedergabevorrichtung zu schaffen, mit denen mehrere unabhängig kodierte Videoströme frei verbunden und wiedergegeben werden können, ohne ein Versagen des Videopuffers 2600 hervorzurufen.
  • Eine weitere Aufgabe der vorliegenden Erfindung ist, ein Kodierungsverfahren und eine Kodierungsvorrichtung, ein Aufzeichnungsverfahren und eine Aufzeichnungsvorrichtung, sowie ein Wiedergabeverfahren und eine Wiedergabevorrichtung zu schaffen, mit denen die Notwendigkeit, dass der Kodierungsprozess in einer zeitlich linearen Weise vorrückt, um jeden Videostrom zu erhalten, eliminiert wird, die Verarbeitungszeit mittels paralleler Kodierungsprozesse verkürzt werden kann, und die Prozesssteuerung vereinfacht werden kann, wenn mehrere Videoströme verbunden werden, um einen einzigen Videostrom zu erhalten.
  • Eine weitere Aufgabe der vorliegenden Erfindung ist, ein Kodierungsverfahren und eine Kodierungsvorrichtung, ein Aufzeichnungsverfahren und eine Aufzeichnungsvorrichtung, sowie ein Wiedergabeverfahren und eine Wiedergabevorrichtung zu schaffen, mit denen Videoströme von mehreren Wiedergabepfaden zu einer Mehrfachszenenperiode kodiert werden, aus der der Benutzer während der Wiedergabe einen bestimmten Wiedergabepfad auswählen kann, wobei die gewünschten Videoströme aus der Mehrfachszenenperiode, die mehrere auswählbare Videoströme (Wiedergabepfade) enthält, anschließend individuell wiedergegeben und als ein einziger Videostrom zusammenhängend präsentiert werden können, ohne während des Dekodierungsprozesses (Wiedergabeprozesses) ein Versagen des Videopuffers 2600 hervorzurufen.
  • Als Nächstes wird eine bevorzugte Ausführungsform der vorliegenden Erfindung mit Bezug auf die beigefügten Figuren beschrieben.
  • Die Struktur der Kodierungsvorrichtung gemäß der vorliegenden Ausführungsform und die Operation, mit der die Videogruppen kodiert werden, werden zuerst beschrieben. Das Verfahren zum Aufzeichnen des Stroms, der die kodierten Da ten enthält, die mittels der Videokodierungsvorrichtung der vorliegenden Erfindung erhalten werden, wird anschließend beschrieben. Das Aufzeichnungsmedium wird danach beschrieben, gefolgt vom Wiedergabeverfahren.
  • Die in der folgenden Offenbarung verwendeten Ausdrücke sind im Folgenden definiert. Jede in 21 gezeigte Szene ist eine Videogruppe.
  • Jede Videogruppe ist jedoch nicht auf eine Szene beschränkt, wobei jede Szene in kleinere Einheiten unterteilt sein kann, die gemeinsam eine Videogruppe bilden oder es können mehrere Szenen kombiniert sein, um eine Videogruppe zu bilden.
  • Jede Videogruppe in der vorliegenden Ausführungsform entspricht grundsätzlich z. B. jeder in 21 gezeigten Szene.
  • Die verschachtelten Einheiten ILVU, die jeden Nahtlosumschaltwinkel bilden, entsprechen ebenfalls einer Videogruppe.
  • Die End-Pufferbelegung im Videopuffer 2600 des kodierten Videostroms während der Kodierung ist wie folgt definiert.
  • Wie mit Bezug auf 41 oben beschrieben worden ist, ist das akkumulierte Datenvolumen Vdv im Videopuffer 2600 gleich 0, nachdem die letzten Daten im kodierten Videostrom dekodiert worden sind, nachdem die Datenübertragung zum Videopuffer 2600 während der Dekodierung des kodierten Videostroms für eine Videogruppe abgeschlossen ist. In der Praxis ist jedoch ein kodierter Videostrom üblicherweise mit einem weiteren kodierten Videostrom verbunden, um einen einzigen Strom zu bilden. Um das akkumulierte Datenvolumen Vdv im Videopuffer 2600 zu erhalten, wenn Ströme so verbunden sind; wird angenommen, dass nach der Übertragung der letzten Daten im ersten kodierten Videostrom der virtuell kodierte Videostrom, der als damit verbunden angenommen wird, zum Dekodierungspuffer übertragen wird.
  • Auf der Grundlage dieser Annahme wird das akkumulierte Datenvolumen Vdv im Videopuffer 2600, wenn die letzten Daten im kodierten Videostrom dekodiert worden sind, als End-Pufferbelegung Be berechnet. Die End-Pufferbelegung Be in der vorliegenden Erfindung ist daher als der Wert definiert, der unter der Annahme berechnet worden ist, dass dieser virtuell kodierte Strom anschließend zum Videopuffer 2600 übertragen wird.
  • Eine bevorzugte Ausführungsform des Videokodierers 300' des DVD-Kodierers ECD, der in 25 gezeigt ist, ist in 53 gezeigt. Der Videokodierer 300', d. h. die Videokodierungsvorrichtung, umfasst einen Kompressionskodierer 22101, eine Kodierungsgrößensteuervorrichtung 22102, einen Zuweisungskodegrößenregler 22103, eine Erzeugungskodegrößenmessvorrichtung 22104 und einen Dekodierungspufferbelegungsrechner 22105.
  • Der Kompressionskodierer 22101 ist mit dem Szenarioeditor 100 verbunden und empfängt hiervon den Videostrom St1. Der Kompressionskodierer 22101 komprimiert und kodiert den Videostrom St1 und erzeugt den kodierten Videostrom St15.
  • Der Dekodierungspufferbelegungsrechner 22105 ist mit dem Kompressionskodierer 22101 verbunden und empfängt hiervon den kodierten Videostrom St15. Auf der Grundlage des zugeführten kodierten Videostroms St15 berechnet der Dekodierungspufferbelegungsrechner 22105 die Datenbelegung B des Videopuffers 2600.
  • Der Zuweisungskodegrößenregler 22103 ist mit dem Dekodierungspufferbelegungsrechner 22105 verbunden, von dem er das berechnete akkumulierte Videodatenvolumen Vdv im Videopuffer 2600 empfängt. Auf der Grundlage dieses Wertes setzt der Zuweisungskodegrößenregler 22103 die Sollkodegröße, die die Sollgröße der Daten nach der Kodierung ist, für die Kodegrößensteuervorrichtung 22102. Genauer simuliert der Zuweisungskodegrößenregler 22103 die Datenbelegung B des Videopuffers 2600 auf der Grundlage der für jedes Vollbild zugewiesenen Kodegröße.
  • Wenn auf der Grundlage des simulierten Ergebnisses kein Unterlauf auftritt, wird die zugewiesene Kodegröße als Sollkodegröße verwendet. Wenn ein Unterlauf auftritt, wird die zugewiesene Kodegröße auf einen Wert modifiziert, mit dem kein Unterlauf auftritt, wobei dieser Wert als Sollkodegröße verwendet wird.
  • Die Erzeugungskodegrößenmessvorrichtung 22104 ist mit dem Kompressionskodierer 22101 verbunden, von dem sie den kodierten Videostrom St15 empfängt. Die Erzeugungskodegrößenmessvorrichtung 22104 misst die Kodegröße des angegebenen kodierten Videostroms für eine spezifische Zeitperiode und erzeugt ein Signal, das diesen gemessenen Wert anzeigt.
  • Die Kodierungsgrößensteuervorrichtung 22102 ist mit dem Zuweisungskodegrößenregler 22103 und der Erzeugungskodegrößenmessvorrichtung 22104 verbunden und steuert den Kompressionskodierer 22101 auf der Grundlage der vom Zuweisungskodegrößenregler 22103 gesetzten Sollkodegröße. Die Kodierungsgrößensteuervorrichtung 22102 empfängt ferner das Signal, das die gemessene Kodegröße anzeigt, von der Erzeugungskodegrößenmessvorrichtung 22104, erhält die Differenz zur Sollkodegröße, und erzeugt ein Kompressionskodierungssteuersignal, das die Kodegrößensteuervorrichtung 22102 steuert, um diese Differenz zu reduzieren, wenn die Differenz einen bestimmten Schwellenwert überschreitet.
  • Der Kompressionskodierer 22101 ist ferner mit der Kodierungsgrößensteuervorrichtung 22102 verbunden, von der sie das Kompressionskodierungssteuersignal empfängt. Auf der Grundlage des zugeführten Kompressionskodierungssteuersignals kodiert der Kompressionskodierer 22101 den Videostrom St1 und erzeugt den kodierten Videostrom Den. Als Ergebnis wird die Kodegröße des kodierten Videostroms Den auf die Sollkodegröße gesteuert, die vom Zuweisungskodegrößenregler 22103 gesetzt worden ist.
  • Im Folgenden wird mit Bezug auf 54 und 55 die Operation des Dekodierungspufferbelegungsrechners 22105 und des Zuweisungskodegrößenreglers 22103 beschrieben.
  • 54 ist ein Flussdiagramm der Operation des Dekodierungspufferbelegungsrechners 22105. Die Schritte dieses Flussdiagramms unterteilen den Vollbildkodierungsprozess in die verschiedenen Operationen, die im Lauf der Zeit T ausge führt werden. Ferner wird in diesem Flussdiagramm angenommen, dass die Datenübertragungen vom Videopuffer 2600 intermittierend stattfinden.
  • Die Datenbelegung, die sich während des Kodierungsprozesses im Videopuffer 2600 ändert, ist als Datenbelegung B definiert.
  • Die erwartete Datenbelegung zum Zeitpunkt T, die während der Kodierung auf der Grundlage der Sollkodegröße berechnet wird, ist als erwartete Datenbelegung BL definiert.
  • Die Anfangspufferbelegung des Videopuffers 2600 beim Start der Kodierung ist die Anfangspufferbelegung Bi, die Sollpufferbelegung am Ende der Kodierung ist die End-Sollpufferbelegung Be, und die maximale Videopufferkapazität ist die maximale Belegung Bmax.
  • Ein Videokodierungsverfahren und eine Vorrichtung, mit denen die kodierten Videoströme nach der Kodierung keinen Datenunterlaufzustand im Videopuffer 2600 während der Dekodierung erzeugen, selbst wenn die Videoströme separat kodiert werden.
  • In der folgenden ersten Ausführungsform ist die Anfangspufferbelegung Bi als Anfangsvideokodierungsdaten V_INTST gesetzt, wobei die End-Sollpufferbelegung BE als die letzten Videokodierungsdaten V_ENDST gesetzt ist, wobei V_INTST und V_ENDST Videokodierungsparameter der Kodierungssystemsteuervorrichtung 200 des in 29 gezeigten Autorenkodierers EC sind. Es ist zu beachten, dass BE und Bi vordefinierte Werte sind, wobei BE > Bi gilt.
  • Der Videogruppenkodierungsprozess wird im Folgenden mit Bezug auf das Flussdiagramm in 54 beschrieben.
  • Im Schritt #201 wird die Anfangspufferbelegung Bi, die erzeugt werden soll, auf die Datenbelegung BE (B = Bi) auf der Grundlage des Kodierungsparameters Anfangsvideokodierungsdaten V_INTST initialisiert, der von der Kodierungssystemsteuervorrichtung 200 auf einen vordefinierten Wert gesetzt worden ist.
  • Im Schritt #202 wird die erzeugte Kodegröße Bg der kodierten Daten zum Zeitpunkt T gemessen, wobei die Datenbelegung B um die erzeugte Kodegröße Bg reduziert wird (B = B – Bg).
  • Im Schritt #203 wird ermittelt, ob die Datenbelegung B größer als die erwartete Datenbelegung BL ist. Wenn die Datenbelegung B größer als die erwartete Datenbelegung BL ist, d. h. es wird Ja zurückgegeben, rückt die Prozedur zum Schritt #204 vor. Wenn die Datenbelegung B kleiner als die erwartete Datenbelegung BL ist, d. h. es wird Nein zurückgegeben, rückt die Prozedur zum Schritt #210 vor.
  • Im Schritt #210 wird der Zuweisungskodegrößenregler 22103 so gesteuert, dass er die zugewiesene Kodegröße des zu kodierenden Vollbildes unterdrückt.
  • Im Schritt #204 wird die Zunahme Br des akkumulierten Datenvolumens Vdv zum Zeitpunkt T zur Datenbelegung B addiert (B = B + Br), auf der Grundlage der Videoübertragungsrate BR zum Videopuffer 2600. Der Wert der Datenbelegung B nach dem Zeitpunkt T wird somit erhalten.
  • Im Schritt #205 wird ermittelt, ob die Datenbelegung B kleiner als die vordefinierte maximale Belegung Bmax ist. Wenn Nein zurückgegeben wird, d. h. die Datenbelegung B ist größer oder gleich der maximalen Belegung Bmax, rückt die Prozedur zum Schritt #206 vor. Wenn Ja zurückgegeben wird, rückt die Prozedur zurück zum Schritt #207 vor.
  • Im Schritt #206 wird die Datenbelegung B auf die maximale Belegung Bmax gesetzt (B = Bmax). Die maximale Datenbelegung B wird somit auf die maximale Belegung Bmax begrenzt.
  • Im Schritt #207 wird ermittelt, ob das letzte Vollbild in der Videogruppe verarbeitet wird. Falls Ja zurückgegeben wird, d. h. es wird das letzte Vollbild verarbeitet, rückt die Prozedur zum Schritt #208 vor. Wenn Nein zurückgegeben wird, kehrt die Prozedur zum Schritt #202 zurück.
  • Im Schritt #208 wird ermittelt, ob die Datenbelegung B größer als die End-Sollpufferbelegung BE ist. Wenn dies zutrifft, d. h. es wird Ja zurückgegeben, rückt die Prozedur zum Schritt #209 vor. Falls Nein zurückgegeben wird, rückt die Prozedur zum Schritt #211 vor.
  • Im Schritt #211 wird der Zuweisungskodegrößenregler 22103 so gesteuert, dass er die Kodegröße des folgenden Videostroms unterdrückt. Anschließend rückt die Prozedur zum Schritt #209 vor.
  • Im Schritt #209 wird ermittelt, ob der Kodierungsprozess abgeschlossen ist. Wenn die Videogruppe immer noch verarbeitet wird, kehrt die Prozedur zum Schritt #202 zurück.
  • Wenn das Ziel des Videokodierungsprozesses eine Nahtlosumschaltungs-Mehrfachwinkelszenenperiode ist, wird die obige Prozedur für mehrere verschachtelte Einheiten ILVU wiederholt.
  • Spezifische Merkmale des obigen Prozesses werden im Folgenden genauer beschrieben.
  • Die Schritte #203 und #210 sind Prozesse, die verwendet werden, um einen Unterlauf des Videopuffers 2600 zu verhindern. Genauer, wenn die Datenbelegung B des Videopuffers 2600 kleiner als die erwartete Datenbelegung BL wird, kann der Videopuffer 2600 bei Abschluss der Kodierung eines Vollbildes unterlaufen. Als Ergebnis wird der Zuweisungskodegrößenregler 22103 so gesteuert, dass er die zugewiesene Kodegröße der folgenden Videostromdaten unterdrückt. Dieser Prozess wird somit verwendet, um einen Unterlauf des Videopuffers 2600 zu verhindern.
  • Die Schritte #205 und #206 sind Prozesse, die verwendet werden, um einen Überlauf des Videopuffers 2600 zu verhindern. Genauer wird der Dekodierungsprozess zu dem Zeitpunkt gestoppt, zu dem die Datenbelegung B die maximale Belegung Bmax überschreitet. Als Ergebnis wird ein Überlauf des Videopuffers 2600 verhindert.
  • Die Schritte #207, #208 und #211 sind Schritte, die für die vorliegende Erfindung wesentlich sind, und werden verwendet, um die Datenbelegung am Ende der Kodierung des letzten Vollbildes in der Videogruppe zu begrenzen. Wenn erwartet wird, dass die Datenbelegung B kleiner als die End-Sollpufferbelegung BE wird, die erwartete Datenbelegung BL, wird der Zuweisungskodegrößenregler 22103 so gesteuert, dass er die zugewiesene Kodegröße der folgenden Videostromdaten unterdrückt.
  • Durch diese Steuerung der zugewiesenen Kodegröße können Änderungen der Kodegröße pro Vollbild und Änderungen der Gesamtkodegröße vorhergesagt werden, wobei jedoch die Gesamtkodegröße an einen vordefinierten Vollwert angepasst werden kann, indem die Änderung der Kodegröße pro Vollbild zur zugewiesenen Kodegröße der mehreren vorangehenden oder folgenden Vollbilder addiert oder von dieser subtrahiert wird.
  • Mittels der obenbeschriebenen Ausführungsform ist die Datenbelegung B nach der Dekodierung des kodierten Videostroms der Videogruppe die End-Pufferbelegung Be und ist ein Wert, der größer ist als die End-Sollpufferbelegung BE, d. h. ein Wert größer als die Anfangspufferbelegung Bi.
  • Mit anderen Worten, die Anfangspufferbelegung Bi und die End-Pufferbelegung Be des kodierten Videostroms, der mittels der obigen ersten Ausführungsform erhalten wird, sind Werte größer oder gleich Bi, wobei der Videopuffer 2600 nicht unterläuft, selbst wenn die kodierten Videoströme verbunden und wiedergegeben werden.
  • Ferner tritt auch mit einer Eins-zu-eins-Verbindung zwischen den kodierten Videoströmen, die von der obigen ersten Ausführungsform erhalten werden, kein Videopufferunterlauf auf.
  • Außerdem wird der Videopuffer bei Szene-zu-Szene-Verbindungen an Verzweigungspunkten und Verbindungspunkten nicht unterlaufen, wie in 45 gezeigt ist, da die Anfangspufferbelegung Bi und die End-Pufferbelegung Be im Wert gleich sind, wobei die End-Sollpufferbelegung BE größer oder gleich der Anfangspufferbelegung Bi ist.
  • Ferner wird der Videopuffer auch in Nahtlosumschaltungs-Mehrfachwinkelszenen nicht unterlaufen und wird in den verschachtelten Einheiten ILVU eines beliebigen Winkels nicht unterlaufen.
  • Der Dekodierungspufferbelegungsrechner 22105, der das in 54 gezeigte Flussdiagramm ausführt, wird im Folgenden mit Bezug auf das Blockschaltbild in 55 beschrieben.
  • Wie in der Figur gezeigt ist, umfasst der Dekodierungspufferbelegungsrechner 22105 einen Schalter 22301, einen Anschluss 22302, einen Anschluss 22303, einen Subtrahierer 22304, eine Kodegrößenmessvorrichtung 22305, einen Addierer 22306, einen ersten Komparator 22307, eine Begrenzungsschaltung 22308, einen zweiten Komparator 22309, einen Anschluss 22310, einen Anschluss 22311, einen Schalter 22312 und einen Speicher 22313.
  • Die Operation des so aufgebauten Dekodierungspufferbelegungsrechners 22105 wird im Folgenden beschrieben.
  • Unmittelbar vor der Kodierung des ersten Vollbildes in der Videogruppe verbindet der Schalter 22301 mit dem Anschluss 22302, wobei die Datenbelegung B auf die Anfangspufferbelegung Bi gesetzt wird.
  • Nach dem Setzen der Anfangspufferbelegung Bi verbindet der Schalter 22301 mit dem Anschluss 22303, wobei die Datenbelegung des Speichers 22313 nach einer vordefinierten Zeit T auf die Datenbelegung B gesetzt wird. Der Ausgang des Schalters 22301 wird in den Subtrahierer 22304 eingegeben, wobei der Subtrahieren 22304 die erzeugte Kodegröße Bg von der Datenbelegung B subtrahiert, die zum vordefinierten Zeitpunkt T von der Kodegrößenmessvorrichtung 22305 ermittelt worden ist.
  • Die Differenzdatenbelegung B' wird anschließend mit der erwarteten Datenbelegung BL vom ersten Komparator 22307 verglichen. Wenn die Datenbelegung B' kleiner als die erwartete Datenbelegung BL ist, wird der Zuweisungskodegrößen regler 22103 so gesteuert, dass er die zugewiesene Kodegröße des folgenden Videostroms unterdrückt und somit einen Unterlaufzustand verhindert.
  • Der Ausgang B' vom Subtrahierer 22304 wird in den Addierer 22306 eingegeben. Der Addierer 22306 addiert die Datengröße Br, die zum Zeitpunkt T in den Videopuffer 2600 eingegeben worden ist, zum B'. Der Ausgang vom Addierer 22306 wird mittels der Begrenzungsschaltung 22308 auf die maximale Belegung Bmax begrenzt, um somit einen Überlaufzustand zu verhindern.
  • Der Ausgang der Begrenzungsschaltung 22308 wird in den Speicher 22313 eingegeben und hierdurch als Datenbelegung B des nächsten Zeitpunkts T gespeichert.
  • Wenn das letzte Vollbild in der Videogruppe kodiert worden ist, wird der Ausgang der Begrenzungsschaltung 22308 mit der End-Sollpufferbelegung BE vom zweiten Komparator 22309 verglichen. Wenn der Ausgang der Begrenzungsschaltung 22308 kleiner als BE ist, wird der Zuweisungskodegrößenregler 22103 so gesteuert, dass er die zugewiesene Kodegröße des folgenden. Videostroms unterdrückt, so dass das akkumulierte Videodatenvolumen Vdv im Dekodierungspuffer, nachdem der Videogruppenkodierungsprozess abgeschlossen ist, gleich oder größer als die End-Sollpufferbelegung BE ist.
  • Wenn das letzte Vollbild in der Videogruppe verarbeitet wird, wird der Schalter 22312 mit dem Anschluss 22310 verbunden.
  • Nachdem das letzte Vollbild verarbeitet worden ist, schaltet der Schalter 22312 auf den Anschluss 22311, wobei das Vergleichsergebnis, das vom zweiten Komparator 22309 zurückgegeben wird, den Dekodierungspufferbelegungsrechner 22105 steuert, und das Vergleichsergebnis, das vom ersten Komparator 22307 zurückgegeben wird, den Dekodierungspufferbelegungsrechner 22105 steuert.
  • Der so aufgebaute Dekodierungspufferbelegungsrechner 22105 führt das in 54 gezeigte Flussdiagramm aus, wie oben beschrieben worden ist.
  • Wie oben beschrieben worden ist, gilt Be > Bi, selbst wenn die kodierten Videoströme, die durch das Wiedergabeverfahren und die Vorrichtung der vorliegenden Erfindung erhalten werden, verbunden werden, wobei die kodierten Videoströme zusammenhängend wiedergegeben werden können, ohne dass der Videopuffer 2600 unterläuft.
  • Im Folgenden werden ein Kodierungsverfahren und eine Vorrichtung gemäß einer zweiten Ausführungsform der vorliegenden Erfindung beschrieben. Es ist zu beachten, dass in dieser Ausführungsform die Konfiguration der Kodierungsvorrichtung die gleiche ist wie diejenige, die in 53 gezeigt ist, jedoch die Operation des Dekodierungspufferbelegungsrechners 22105 verschieden ist.
  • 56 ist ein Flussdiagramm für die Operation des Dekodierungspufferbelegungsrechners 22105. In der obigen ersten Ausführungsform ist die Anfangspufferbelegung Bi des Videopuffers 2600 während des Kodierungsprozesses für jede Videogruppe gleich, wobei die Kodegröße so gesteuert wird, dass die End-Pufferbelegung Be größer als die End-Sollpufferbelegung BE ist (BE > Bi).
  • In der vorliegenden Ausführungsform ist jedoch die Anfangspufferbelegung Bi der zweiten Videogruppe, die der ersten Videogruppe folgt, niedriger gesetzt als die End-Pufferbelegung Be der ersten Videogruppe (Bi < Be), wobei die zweite Videogruppe beginnend mit diesem Anfangspufferbelegungswert Bi kodiert wird. Somit besteht der Unterschied zwischen der obigen ersten Ausführungsform und dieser zweiten Ausführungsform darin, dass der erste von zwei kodierten Videoströmen, die während der Wiedergabe verbunden werden, zuerst kodiert wird, d. h. die Videoströme werden sequentiell kodiert, wobei der End-Pufferbelegungswert Be nicht kontrolliert wird.
  • Dieser Prozess wird im Folgenden mit Bezug auf 56 beschrieben.
  • Im Schritt #1601 wird ein Anfangspufferbelegungswert, der kleiner ist als die End-Pufferbelegung Be des kodierten Videostroms für die vorangehende erste Videogruppe, als Anfangspufferbelegung Bi des aktuellen Stroms gesetzt.
  • Im Schritt #1602 wird der Datenbelegungswert B auf den Anfangspufferbelegungswert Bi initialisiert, der im obigen Schritt #1601 gesetzt worden ist.
  • Der restliche Prozess ist der gleiche wie derjenige, der in 54 gezeigt ist, mit der Ausnahme, dass die Schritte #207, #208 und #211 nicht benötigt werden.
  • Ein Beispiel der Kodierungsvorrichtung der zweiten Ausführungsform ist in 57 gezeigt, wobei ein Blockschaltbild des Dekodierungspufferbelegungsrechners 22105, der das Flussdiagramm ausführt, in 56 gezeigt ist.
  • Der Dekodierungspufferbelegungsrechner 22105, der in 57 gezeigt ist, arbeitet im Wesentlichen identisch zum Dekodierungspufferbelegungsrechner 22105, der in 59 gezeigt ist, mit Ausnahme der Addition der Anfangspufferbelegung Bi im Rechner 221700.
  • Wie in 57 gezeigt ist, wird ein Anfangspufferbelegungswert kleiner als die End-Pufferbelegung Be des kodierten Videostroms für die vorangehende erste Videogruppe als Anfangspufferbelegungswert Bi des Anfangspufferbelegung-Bi-Rechners 221700 gesetzt, bevor die Kodierung beginnt.
  • Nach dem Setzen der Anfangspufferbelegung Bi schaltet der Schalter 22301 auf den Anschluss 22302, wobei die Datenbelegung B auf die Anfangspufferbelegung Bi gesetzt wird.
  • Nach dem Setzen der Anfangspufferbelegung Bi verbindet der Schalter 22301 mit dem Anschluss 22303, wobei die im Speicher 22313 gespeicherten Daten auf die Datenbelegung B gesetzt werden.
  • Der Ausgang des Schalters 22301 wird in den Subtrahierer 22304 eingegeben, wobei der Subtrahierer 22304 die erzeugte Kodegröße Bg von der Datenbelegung B subtrahiert, die zum vordefinierten Zeitpunkt T von der Kodegrößenmessvorrichtung 22305 ermittelt worden ist.
  • Die Differenzdatenbelegung B' wird anschließend vom ersten Komparator 22307 mit der erwarteten Datenbelegung BL, einem vordefinierten Schwellenwert, ver glichen. Wenn die Datenbelegung B' kleiner als die erwartete Datenbelegung BL ist, wird der Zuweisungskodegrößenregler 22103 so gesteuert, dass er die zugewiesene Kodegröße des folgenden Videostroms unterdrückt und somit einen Unterlaufzustand verhindert.
  • Der Ausgang B' vom Subtrahierer 22304 wird in den Addierer 22306 eingegeben. Der Addierer 22306 addiert die Datengröße Br, die zum Zeitpunkt T in den Videopuffer 2600 eingegeben wird, zu B'. Der Ausgang vom Addierer 22306 wird mittels der Begrenzungsschaltung 22308 auf die maximale Belegung Bmax begrenzt, um somit einen Überlaufzustand zu verhindern.
  • Der Ausgang der Begrenzungsschaltung 22308 wird in den Speicher 22313 eingegeben und hierdurch als akkumuliertes Videodatenvolumen Vdv des nächsten Zeitpunkts T gespeichert. Die Datenbelegung, wenn die Kodierung der letzten Videogruppe abgeschlossen ist, wird als End-Pufferbelegung Be verwendet, um die Anfangspufferbelegung Bi für die nächste Videogruppe zu erhalten.
  • Der Dekodierungspufferbelegungsrechner 22105, der so aufgebaut ist, führt das in 56 gezeigte Flussdiagramm aus, wie oben beschrieben worden ist. Als Ergebnis wird die Anfangspufferbelegung Bi der zweiten Videogruppe, die mit einem vorangehenden ersten Videogruppenstrom verbunden wird, auf einen Wert gesetzt, der kleiner als die End-Pufferbelegung Be der ersten Videogruppe für die Kodierung ist.
  • Der Dekodierungspufferbelegungsrechner 22105 in 57 unterscheidet sich von demjenigen in 55 dadurch, dass der zweite Komparator 22309 zum Steuern der Anfangspufferbelegung Be und der Schalter 22312 nicht notwendig sind, wobei die Beschränkungen bezüglich der Kodegrößenzuweisung geringer sind.
  • Im Folgenden werden ein Kodierungsverfahren und eine Vorrichtung gemäß einer dritten Ausführungsform der vorliegenden Erfindung beschrieben. Es ist zu beachten, dass in dieser Ausführungsform die Konfiguration der Kodierungsvorrichtung die gleiche ist wie diejenige der in 53 gezeigten ersten Ausführungs form, jedoch die Operation des Dekodierungspufferbelegungsrechners 22105 verschieden ist.
  • 58 ist ein Flussdiagramm für die Operation des Dekodierungspufferbelegungsrechners 22105. In der obigen ersten Ausführungsform wird die End-Sollpufferbelegung BE, die die End-Pufferbelegung Be des Videopuffers 2600 steuert, für jede Videogruppe gesetzt. Die vorliegende Ausführungsform unterscheidet sich zusätzlich in einem Schritt #1800, mit dem die End-Sollpufferbelegung BE so gesetzt wird, dass die End-Pufferbelegung Be größer als die Anfangspufferbelegung Bi der nächsten Videogruppe ist. Der Rest der Operation ist der gleiche wie in 53, wobei eine weitere Beschreibung daher im Folgenden weggelassen wird.
  • 59 ist ein Blockschaltbild des Dekodierungspufferbelegungsrechners 22105, der das in 58 gezeigte Flussdiagramm ausführt.
  • Der in 59 gezeigte Dekodierungspufferbelegungsrechner 22105 arbeitet im Wesentlichen identisch zu dem in 55 gezeigten Dekodierungspufferbelegungsrechner 22105, mit Ausnahme der Addition des Schwellenwertrechners 221900.
  • Der Schwellenwertrechner 221900 erhält einen End-Sollpufferbelegungswert BE für die derzeit verarbeitete Videogruppe, der größer ist als der spezifizierte Anfangspufferbelegungswert Bi für die folgende Videogruppe.
  • In den Schwellenwertrechner 221900 wird die Anfangspufferbelegung Bi der Videogruppe eingegeben, die der aktuellen Videogruppe folgt, wenn zwei Ströme verbunden werden. Die Videopufferdatenbelegung wird wie in der obigen ersten Ausführungsform so gesteuert, dass die End-Pufferbelegung Be größer als die End-Sollpufferbelegung BE ist (BE > Bi).
  • Durch diese Vorbestimmung der Anfangspufferbelegung Bi der Videogruppe hat die End-Pufferbelegung Be der vorangehenden Videogruppe einen größeren Wert als die Anfangspufferbelegung Bi der folgenden Videogruppe.
  • Es ist zu beachten, dass in der obigen ersten Ausführungsform der Anfangspufferbelegungswert Bi für alle Videogruppen gleich ist, jedoch in den zweiten und dritten Ausführungsformen die Anfangspufferbelegung Bi separat für jede Videogruppe definiert wird. Ferner muss in der zweiten Ausführungsform der Kodierungsprozess in der Verbindungsreihenfolge des kodierten Videostroms fortschreiten, da die Anfangspufferbelegung Bi der folgenden Videogruppe auf der Grundlage der End-Pufferbelegung Be der vorangehenden Videogruppe definiert wird.
  • In den ersten und dritten Ausführungsform kann jedoch der Kodierungsprozess in beliebiger Reihenfolge vorrücken. Als Ergebnis kann die Verarbeitungszeit verkürzt werden und die Notwendigkeit, die Kodierungsprozessreihenfolge zu managen, kann durch Verwendung paralleler Verarbeitung reduziert werden.
  • Ein Videopufferunterlauf tritt auch bei einer Eins-zu-eins-Verbindung zwischen den kodierten Videoströmen, die mit dem Kodierungsverfahren und der Kodierungsvorrichtung erhalten werden, welche oben beschrieben worden sind, nicht auf.
  • Außerdem wird der Videopuffer in Szene-zu-Szene-Verbindungen an Verzweigungen und Vereinigungspunkten, wie in 45 gezeigt ist, nicht überlaufen, da die Anfangspufferbelegung Bi kleiner ist als der End-Pufferbelegungswert Be.
  • Ferner wird der Videopuffer auch in Nahtlosumschalt-Mehrfachwinkelszenen nicht unterlaufen, da die Werte der Anfangspufferbelegung Bi und der End-Pufferbelegung Be für jede verschachtelte Einheit ILVU jedes Winkels gleich sind, wobei die Anfangspufferbelegung Bi gleich oder kleiner als die End-Pufferbelegung Be ist.
  • Ein Bitstromwiedergabeverfahren zum Verbinden und Wiedergeben der kodierten Videoströme, die mittels des Kodierungsverfahrens und der Kodierungsvorrichtung erhalten werden, welche oben beschrieben worden sind, wird im Folgenden mit Bezug auf 60 beschrieben.
  • Es wird angenommen, dass der kodierte Videostrom SS1, der die Vollbilder F1, F2, F3, F4 und F5 enthält, mit dem kodierten Videostrom SS2, der die Vollbilder F6, F7 ... enthält, verbunden wird. Ferner ist zu beachten, dass der kodierte Videostrom SS1 und der kodierte Videostrom SS2 mittels des Kodierungsverfahrens und der Kodierungsvorrichtung gemäß der vorliegenden Erfindung erzeugt werden.
  • Die End-Pufferbelegung Be1 des kodierten Videostroms SS1 ist größer als die End-Pufferbelegung Be2 des kodierten Videostroms SS2. Wenn die Datenübertragung des kodierten Videostroms SS1, des kodierten Videostroms SS2 zum Videopuffer 2600 fortgesetzt wird, nachdem der kodierte Videostrom SS1 übertragen worden ist, ist die End-Pufferbelegung Be1 des kodierten Videostroms SS1 die Datenbelegung des Videopuffers 2600, wenn die letzten Daten im kodierten Videostrom SS1 dekodiert worden sind.
  • Die Änderung der Datenbelegung zu diesem Zeitpunkt ist mit der gestrichelten Linie in 60 gezeigt.
  • Wenn die Datenübertragung des kodierten Videostroms SS1 zum Zeitpunkt Te1 endet, wird die Datenübertragung für die Periode DTi unterbrochen, woraufhin die Datenübertragung des kodierten Videostroms SS2 zum Zeitpunkt Ti2 beginnt. Mit dieser Übertragung von Daten wird der Videopuffer nicht versagen. Genauer kann die Dekodierung gleichmäßig ohne Datenüberlauf oder -unterlauf fortschreiten.
  • Die im MPEG-Standard-Videostrom enthaltenen Datenübertragungs-Zeitablaufinformationen werden verwendet, um diese Videoströme zu erzeugen. Genauer können diese Videoströme unter Verwendung von Ti2 statt Te1 als Datenübertragungsstartzeitpunkt des kodierten Winkelstroms SS2 zum Videopuffer erzeugt werden. Als Ergebnis kann die Übertragung des kodierten Videostroms zum Videopuffer 2600 für die Periode TDi unterbrochen werden.
  • Durch diese Unterbrechung der Datenübertragung für die Periode TDi ist das akkumulierte Datenvolumen Vdv zum Dekodierungszeitpunkt der ersten Daten im kodierten Videostrom SS2 die End-Pufferbelegung Be2, die während der Kodierung definiert worden ist.
  • Es ist somit möglich, dass die Dekodierung unter der Videopufferdatenbelegung fortschreitet, die berechnet wurde, als die Ströme kodiert wurden. Mit anderen Worten, wenn wenigstens ein Versagen des Videopuffers 2600 während der Kodierung ausgeschlossen wird, kann auch ein Versagen des Videopuffers 2600 während der Dekodierung verhindert werden.
  • Die Periode TDi, die für die Datenübertragung unterbrochen wird, ist durch die Differenz zwischen der End-Pufferbelegung Be (ausgedrückt in Bits) der vorangehenden Videogruppe und der Anfangspufferbelegung Bi (ausgedrückt in Bits) der anschließend folgenden Videogruppe definiert. Wenn ferner die Videodatenübertragungsrate gleich BR ist, ausgedrückt in Bits pro Sekunde (Bits/s), kann die Periode TDi, ausgedrückt in Sekunden, aus der folgenden Gleichung 2 erhalten werden. DTi = (Be – Bi)/BR (2)
  • Es ist zu beachten, dass die Übertragungsrate BR in Gleichung 2 die Datenübertragungsrate ist, die nur auf den Videostrom angewendet wird, und sich von der Übertragungsrate des gesamten Systemstroms unterscheidet.
  • Obwohl der Zeitpunkt, zu dem die Datenübertragung unterbrochen wird, definiert ist als Zeitpunkt nach Übertragung des kodierten Videostroms SS1 in der obigen Ausführungsform, ist die Erfindung nicht hierauf beschränkt. Insbesondere kann die Unterbrechungsperiode TDi in mehrere kürzere Unterbrechungsperioden unterteilt sein, um die Datenübertragung mehrmals zu unterbrechen.
  • Außerdem ist es ohne Bedeutung, zu welchem spezifischen Zeitpunkt die Datenübertragung unterbrochen wird, sofern die Datenübertragung wenigstens einmal unterbrochen wird und die Pufferdatenbelegung zum Zeitpunkt Td2, zu dem die Dekodierung der ersten Daten in dem folgenden kodierten Videostrom SS2 beginnt, die End-Pufferbelegung Be2 ist.
  • Ferner werden die Anfangspufferbelegung Bi2 und die End-Pufferbelegung Be2 als unterschiedliche Werte in 60 beschrieben, jedoch können diese auch gleiche Werte aufweisen (Bi2 = Be2).
  • Ferner ist zu beachten, dass die Videostromdatenübertragung für eine Periode größer als die Unterbrechungsperiode TDi, die mittels der obigen Gleichung 2 erhalten wird, unterbrochen werden kann, als Ergebnis der Übertragung von Daten vom Audiostrom oder einem anderen Systemstrom. Auch in solchen Fällen muss jedoch die Datenübertragung so gesteuert werden, dass die Datenbelegung des Videopuffers 2600 zum Dekodierungsstartzeitpunkt gleich der Anfangspufferbelegung Bi ist. Da die Datenübertragungsrate BR, die auf dem kodierten Videostrom angewendet wird, in diesem Fall durch Nicht-Videostromdaten beeinflusst sein kann, müssen als Ergebnis die Datenübertragungsunterbrechungszeit und das akkumuliert Videodatenvolumen Vdv im Videopuffer 2600 berechnet werden, wenn Nicht-Videoströme kodiert werden.
  • Wenn mehrere Videoströme verschachtelt werden, um einen einzigen Datenstrom zu bilden, kann sich die Datenübertragungsrate selbst während des Kodierungsprozesses des gleichen Videostroms in Abhängigkeit von der Anzahl der Ströme und der Datengröße jedes Stroms im verschachtelten Strom ändern. Die Datenübertragungsunterbrechungszeit und das akkumulierte Datenvolumen Vdv im Videopuffer 2600 müssen daher auch in solchen Fällen berechnet werden.
  • Im Folgenden wird mit Bezug auf 61 eine zweite Ausführungsform des Bitstromerzeugungsverfahrens gemäß der vorliegenden Erfindung beschrieben. Dieses zweite Verfahren unterscheidet sich vom obenbeschriebenen ersten Verfahren dadurch, dass Fülldaten in den kodierten Videostrom SS1 in dieser zweiten Ausführungsform eingesetzt werden. Die Menge der eingesetzten Fülldaten ist in diesem Fall äquivalent zu der Datenübertragungsunterbrechungszeit des kodierten Videostroms SS1, die in der obigen ersten Ausführungsform beschrieben worden ist.
  • Mit anderen Worten, damit die End-Pufferbelegung Be2 des kodierten Videostroms SS2 gleich dem Wert ist, der während der Kodierung gesetzt worden ist, werden Fülldaten entsprechend dem MPEG-Standard mit einer Datengröße äquivalent zu (Be1 – Be2) des kodierten Videostroms SS1 erzeugt und in den kodierten Videostrom SS1 eingesetzt.
  • Es ist zu beachten, dass irgendwelche vordefinierten Daten, die sich von den kodierten Daten unterscheiden, verwendet werden können, während die Fülldaten zum Videopuffer 2600 übertragen werden.
  • Wenn außerdem die Fülldaten in den kodierten Videostrom SS1 eingesetzt werden, können solche Fülldaten in bestimmte Abschnitte an einer beliebigen Position unterteilt werden. Ferner ist zu beachten, dass das Videostromerzeugungsverfahren auch eine Kombination der Unterbrechung der Datenübertragung gemäß der obigen ersten Ausführungsform und des Einsetzens von Fülldaten gemäß der obigen zweiten Ausführungsform verwenden kann. Genauer kann eine Kombination von Datenübertragungsunterbrechungen und einer Fülldateneinsetzung verwendet werden, sofern die Datenbelegung bei Dekodierung der ersten Daten im zweiten Videostrom gleich der definierten Anfangspufferbelegung Bit ist, die während der Kodierung gesetzt worden ist.
  • Weitere Auswirkungen der Bitstromerzeugungsverfahren gemäß der vorliegenden Erfindung werden im Folgenden mit der Beschreibung des Wiedergabeverfahrens der Erfindung beschrieben.
  • Der Bitstrom, der mit der Datenstruktur der vorliegenden Erfindung erzeugt worden ist, wird wie in 62 gezeigt mittels der in den 4 bis 15 gezeigten digitalen Videoplatte aufgezeichnet.
  • Die in 62 gezeigte digitale Videoplatte zeichnet die kodierten Datenströme von zwei oder mehr Videogruppen auf, die mittels des Kodierungsverfahrens und der Kodierungsvorrichtung gemäß der vorliegenden Erfindung, die oben beschrieben worden sind, erzeugt worden sind. Lediglich beispielhaft wird im Folgenden angenommen, dass die DVD 22801 einen ersten kodierten Datenstrom 22901, einen zweiten kodierten Datenstrom 22902 und einen dritten kodierten Datenstrom 22903 aufzeichnet.
  • Diese digitale Videoplatte 22801 ist dadurch gekennzeichnet, dass solche Aufzeichnungsdaten, nachdem die Datenübertragung der kodierten Daten für wenigstens eine Videogruppe zum Videopuffer 2600 abgeschlossen ist, so beschaffen sind, dass die Datenübertragung für die Unterbrechungszeit DTi (wobei DTi > 0) unterbrochen wird und anschließend die kodierten Daten für die nächste Videogruppe zum Videopuffer 2600 übertragen werden.
  • Dieses Aufzeichnungsformat kann erreicht werden, indem einfach der kodierte Videostrom, der mittels des obenbeschriebenen Bitstromerzeugungsverfahrens erhalten worden ist, aufgezeichnet wird.
  • Es ist zu beachten, dass der Verbindungspunkt zwischen den kodierten Daten, die eine Datenübertragungsunterbrechung zum Videopuffer 2600 enthalten, zwischen zwei kodierten Datenströmen liegt, die zusammenhängend auf der digitalen Videoplatte 22801 angeordnet sind. Die Datenströme können auch so aufgezeichnet sein, dass die Datenübertragung zwischen nicht zusammenhängend aufgezeichneten Strömen auftritt, wie z. B. zwischen dem ersten kodierten Datenstrom 22901 und dem dritten kodierten Datenstrom 22903 in 62.
  • Dies ist auch dann der Fall wenn Fülldaten mit einer Größe äquivalent zur Datenübertragungsunterbrechungszeit des Videopuffers 2600 aufgezeichnet werden, wie in der zweiten Ausführungsform eines Aufzeichnungsverfahrens gemäß der vorliegenden Erfindung.
  • Dies ist auch dann der Fall wenn eine Kombination aus Datenübertragungsunterbrechungen und Fülldaten verwendet wird. Eine Kombination von Datenübertragungsunterbrechungen und Fülldaten kann insofern verwendet werden, als das akkumulierte Videodatenvolumen Vdv im Videopuffer 2600 während der Dekodierung der ersten Daten im Widerstrom gleich der definierten Anfangspufferbelegung Bi ist, die während der Kodierung gesetzt worden ist.
  • Im Folgenden wird mit Bezug auf die 63A, 63B, 32A, 32B, 32C und 32D ein Wiedergabeverfahren zum zusammenhängenden Wiedergeben von zwei kodierten Videoströmen beschrieben.
  • Die 63A und 63B zeigen die zeitliche Änderung des akkumulierten Videodatenvolumens Vdv im Videopuffer 2600 während der Dekodierung des kodierten Videostroms. Bi ist die Datenbelegung des Videopuffers 2600 zum Beginn der Dekodierung, während Be die Datenbelegung des Videopuffers 2600 am Ende der Dekodierung ist.
  • Es ist zu beachten, dass die Datenbelegung des Videopuffers 2600 in den Figuren unter der Annahme gezeigt ist dass nach Abschließen der Eingabe des einen kodierten Videostroms der nächste kodierte Videostrom, der dekodiert werden soll, nach dem Ende des vorangehenden kodierten Videostroms kontinuierlich eingegeben wird.
  • Sowohl mit dem ersten kodierten Videostrom in 63A als auch dem zweiten kodierten Videostrom in 63B ist die End-Pufferbelegung Be des Videopuffers 2600 am Ende der Dekodierung größer als die Anfangspufferbelegung Bi des Videopuffers 2600 zu Beginn der Dekodierung.
  • Das Wiedergabesteuerverfahren der vorliegenden Erfindung für die zusammenhängende Wiedergabe des kodierten Videostroms, der von der vorliegenden Erfindung erzeugt worden ist, wird im Folgenden beschrieben.
  • 32A zeigt die Änderung des akkumulierten Videodatenvolumens Vdv im Videopuffer 2600, wenn der erste kodierte Videostrom in 63A und der zweite kodierte Videostrom in 63B einfach verbunden und wiedergegeben werden.
  • In diesem Fall ist die End-Pufferbelegung Be des Videopuffers 2600, wenn die Dekodierung des kodierten Videostroms EVS#1, der in 63A gezeigt ist, abgeschlossen ist, größer als die Anfangspufferbelegung Bi des Videopuffers 2600 zum Beginn der Dekodierung des in 63B gezeigten kodierten Videostroms EVS#2. Der kodierte Videostrom EVS#2 kann somit garantieren, dass der Videopuffer 2600 während der Dekodierung nicht unterläuft.
  • Das akkumulierte Videodatenvolumen Vdv im Videopuffer 2600 bei Beginn der Dekodierung des kodierten Videostroms EVS#2 ist größer als die Anfangspufferbelegung Bi, die während der Kodierung erwartet worden ist. Diese Differenz ist die Differenz zwischen der End-Pufferbelegung Be des kodierten Videostroms EVS#1 und der Anfangspufferbelegung Bi des kodierten Videostroms EVS#2 (ΔB). Als Ergebnis variiert das akkumulierte Videodatenvolumen Vdv im Videopuffer 2600 auf einem um diese Differenz ΔB erhöhten Niveau.
  • Dies bedeutet, dass die Möglichkeit besteht, dass der Videopuffer 2600 überläuft.
  • Ein Verfahren zum Vermeiden eines Überlaufs wird im Folgenden mit Bezug auf die 32B, 32C und 32D beschrieben.
  • Verfahren 1
  • Ein erstes Verfahren zum Vermeiden eines Überlaufs wird im Folgenden mit Bezug auf 32B beschrieben.
  • Wie in 32B gezeigt ist, stoppt die Eingabe in den Videopuffer 2600 zum Zeitpunkt Qd. Mit dieser Unterbrechung der Dateneingabe in dem Videopuffer 2600 ist die Pufferbelegung zum Beginn der Dekodierung des kodierten Videostroms EVS#2 gleich der Anfangspufferbelegung Bi.
  • Mit dieser Steuerung der Pufferbelegung zu Beginn der Dekodierung des kodierten Videostroms EVS#2 auf die Anfangspufferbelegung Be ergibt sich die in 63B gezeigte Änderung des akkumulierten Videodatenvolumens Vdv im Videopuffer 2600. Ein Überlauf des akkumulierten Videodatenvolumens Vdv des Videopuffers 2600 kann somit verhindert werden.
  • Es ist zu beachten, dass das Stoppen der Eingabe in den Videopuffer 2600 leicht unter Verwendung des Systemtaktreferenz-SCR-Wertes (19), der die Bündelübertragungszeit deklariert, gesteuert werden kann. Die Systemtaktreferenz SCR wird in den Bündelkopf geschrieben.
  • Der kodierte Videostrom wird unter Verwendung von Videopaketen übertragen. Die Videopakete werden aus dem Strompuffer 2400 (26) gelesen und entsprechend der Systemtaktreferenz SCR des Bündels, das dieses Paket enthält, in den Videopuffer 2600 eingegeben.
  • Es ist somit möglich, die Eingabe in den Videopuffer 2600 mittels der Systemtaktreferenz SCR des Bündels, das dieses Paket enthält, zu stoppen.
  • Verfahren 2
  • Ein zweites Verfahren zum Vermeiden eines Überlaufs wird im Folgenden mit Bezug auf 32C beschrieben.
  • Wie in 32C gezeigt ist, wird die Pufferbelegung zu Beginn der Dekodierung des kodierten Videostroms EVS#2 auf die Anfangspufferbelegung Bi gesteuert, indem ein Füllpaket Ds am Verbindungspunkt eingefügt wird.
  • Mit dieser Steuerung der Pufferbelegung zu Beginn der Dekodierung des kodierten Videostroms EVS#2 auf die Anfangspufferbelegung Bi ergibt sich anschließend die in 63B gezeigte Änderung des akkumulierten Videodatenvolumens Vdv im Videopuffer 2600. Ein Überlauf des akkumulierten Videodatenvolumens Vdv des Videopuffers 2600 kann somit verhindert werden.
  • Es ist zu beachten, dass die Größe des Füllpaketes lediglich gleich der Differenz zwischen der End-Pufferbelegung Be des kodierten Videostroms EVS#1 und der Anfangspufferbelegung Bi des kodierten Videostroms EVS#2 (ΔB) sein muss.
  • Verfahren 3
  • Ein drittes Verfahren der Vermeidung eines Überlaufs wird im Folgenden mit Bezug auf 32D beschrieben.
  • Wie in 32D gezeigt ist, wird die Pufferbelegung zu Beginn der Dekodierung des kodierten Videostroms EVS#2 auf die Anfangspufferbelegung Bi gesteuert, indem die Dateneingaberate (Rcp) in den Videopuffer 2600 am Verbindungspunkt verändert wird.
  • Indem somit die Pufferbelegung zu Beginn der Dekodierung des kodierten Videostroms EVS#2 auf die Anfangspufferbelegung Bi gesteuert wird, ergibt sich anschließend die in 63B gezeigte Änderung des akkumulierten Videodatenvolumens Vdv im Videopuffer 2600. Ein Überlauf des akkumulierten Videodatenvolumens Vdv des Videopuffers 2600 kann somit verhindert werden.
  • Es ist zu beachten, dass die Änderung der Eingaberate Rcp in den Videopuffer 2600 unter Verwendung der Systemtaktreferenz SCR (19), die die Bündelübertragungszeit deklariert, leicht geändert werden kann. Die Systemtaktreferenz SCR wird in den Bündelkopf geschrieben.
  • Wie in den obigen Verfahren #1 gezeigt ist, kann dies bewerkstelligt werden, indem das Intervall des SCR-Wertes in dem Bündel, das dieses Paket enthält, verändert wird.
  • Als Nächstes wird in Bezug auf 39 die Änderung des akkumulierten Datenvolumens Vdv im Videopuffer 2600 während einer intermittierenden Datenübertragung beschrieben, wenn der kodierte Videostrom SS1 und der kodierte Videostrom SS2 verbunden werden. Es wird angenommen, dass der kodierte Videostrom SS1 und der kodierte Videostrom SS2 mittels der Aufzeichnungs- und Wiedergabevorrichtung der vorliegenden Erfindung aufgezeichnet und wiedergegeben werden.
  • Dieser Prozess wird ebenfalls im Vergleich zu der Änderung des akkumulierten Videodatenvolumens Vdv beschrieben, die in 46 gezeigt ist.
  • Wie in 46 gezeigt ist, beginnt die Datenübertragung des Systemstroms SS1 in den Videopuffer 2600 zum Zeitpunkt Ti1. Zum Zeitpunkt Td1 beginnt die Dekodierung des ersten Vollbildes F1. Anschließend ändert sich das akkumulierte Videodatenvolumen Vdv so, wie mit Bezug auf 46 beschrieben worden ist. Das akkumulierte Videodatenvolumen Vdv erreicht jedoch zum Zeitpunkt Ts1 die maximale Belegung Bmax. Wenn die Datenübertragung über die maximale Belegung Bmax hinaus fortgesetzt wird, läuft der Videopuffer 2600 über und es können Daten verloren gehen. Die Datenübertragung wird daher unterbrochen. Genauer wird das akkumulierte Videodatenvolumen Vdv konstant gehalten.
  • Wenn das Vollbild F3 anschließend zum Zeitpunkt f3 dekodiert wird, fällt das akkumulierte Videodatenvolumen Vdv im Videopuffer 2600 unter die maximale Belegung Bmax, wobei die Datenübertragung fortgesetzt wird. Die Datenübertragung wird als Nächstes ab dem Zeitpunkt Ts2 bis zum Zeitpunkt Ti2 unterbrochen. Zum Zeitpunkt Ti2 beginnt die Übertragung des kodierten Videostroms SS2 zum Videopuffer 2600. Zum Zeitpunkt Td2 (f7) beginnt die Dekodierung des ersten Vollbildes F7 im zweiten kodierten Videostrom SS2.
  • Wie in 39 gezeigt ist, ist die vorliegende Erfindung durch die Unterbrechung der Datenübertragung zum Zeitpunkt Ts2 bis zum Zeitpunkt Ti2 gekennzeichnet, so dass das akkumulierte Videodatenvolumen Vdv im Videopuffer 2600 gleich der Anfangspufferbelegung Bi2 zum Zeitpunkt Td2 (f7) ist, wenn die Dekodierung des kodierten Videostroms SS2 beginnt.
  • Die Datenübertragungsunterbrechungszeit Dts in der in 39 gezeigten Ausführungsform kann unter Verwendung der folgenden Gleichung berechnet werden. Dts = Tt1 – D1/BR + (Be1 – Bi2)/BR (3)wobei D1 die Datengröße des kodierten Videostroms SS1 ist und BR die Datenübertragungsrate des kodierten Videostroms SS1 ist, wie in Gleichung 1, und Tt1 die Datenübertragungszeit des kodierten Videostroms SS1 gezeigt als Periode SS1 in 39 ist.
  • Der Wert (Tt – D1/BR) in Gleichung 3 ist die Datenübertragungsunterbrechungszeit, die aus Gleichung 1 erhalten wird, und die benötigt wird, um einen Datenüberlauf zu verhindern. In ähnlicher Weise ist die Periode ((Be1 – Bi2)/BR) die Periode, die aus Gleichung 2 erhalten wird, um die Datenübertragung zu unterbrechen, so dass das akkumulierte Videodatenvolumen Vdv zum Zeitpunkt Td2 (f7), wenn die Dekodierung des zweiten kodierten Videostroms SS2 beginnt, gleich der Anfangspufferbelegung Bit ist. Die Verwendung dieser zwei Werfe zum Ermitteln der Datenübertragungsunterbrechungszeit ist ein Merkmal des Aufzeichnungsverfahrens und der Wiedergabe der vorliegenden Erfindung.
  • Durch Steuern der Dekodierung und der Wiedergabe auf der Grundlage der Übertragungszeitinformationen, die in den kodierten Videostrom geschrieben sind, der vom Bitstromerzeugungsverfahren der vorliegenden Erfindung erzeugt wird, kann die Änderung des akkumulierten Videodatenvolumens Vdv im Videopuffer 2600 während der Dekodierung auf den berechneten Wert gesteuert werden, der während des Kodierungsprozesses verwendet worden ist.
  • Wenn kodierte Datenströme, die durch Kodierung der Videogruppen mittels des Kodierungsverfahrens und der Kodierungsvorrichtung der vorliegenden Erfindung erhalten worden sind, verbunden werden, können die Ströme zusammenhängend dekodiert und nahtlos wiedergegeben werden, und es kann eine gleichmäßig Videopräsentation erhalten werden, ohne ein Versagen des Videopuffers 2600.
  • Wenn kodierte Datenströme, die durch Kodierer mehrerer Videogruppen erhalten werden, mittels der Wiedergabevorrichtung der Erfindung wiedergegeben werden, können verschiedene Ströme verbunden und zusammenhängend dekodiert werden, und es kann eine gleichmäßige Videopräsentation erhalten werden, wenn die Ströme so kodiert sind, dass das akkumulierte Videodatenvolumen Vdv im Videopuffer 2600 zu Beginn der Dekodierung jedes Stroms größer ist als eine spezifizierte Datenbelegung Bt, die größer ist als das akkumulierte Videodatenvolumen Vdv zu Dekodierungsbeginn.
  • Wenn außerdem die Ströme mittels des Kodierungsverfahrens und der Kodierungsvorrichtung der Erfindung erzeugt werden, kann das während der Dekodierung akkumulierte Videodatenvolumen Vdv immer während der Kodierung berechnet werden, selbst wenn die Ströme verbunden und zusammenhängend dekodiert werden. Als Ergebnis ist es einfacher, die Ströme unter Berücksichtigung der Synchronisation mit Audiodatentypen und anderen Datentypen zu verschachteln.
  • Genauer, da die Anfangspufferbelegung Bi der kodierten Daten kleiner ist als die End-Pufferbelegung Be (Be > Bi) in den Strömen, die mittels des Kodierungsverfahrens und der Kodierungsvorrichtung der Erfindung kodiert worden sind, können die Ströme nahtlos dekodiert werden und zusammenhängend wiedergegeben werden, wobei eine gleichmäßige Videopräsentation erhalten werden kann, ohne ein Versagen des Videopuffers 2600, selbst wenn diese kodierten Datenströme an benutzerdefinierten Punkten verbunden werden.
  • Es ist zu beachten, dass die Datenübertragung zum Videopuffer 2600 intermittierend sein kann oder die Übertragungsrate verändert werden kann.
  • Das Kompressionskodierungsverfahren kann ferner eine Kodierung mit variabler Länge, eine Kodierung mit variabler Bitrate, oder ein anderes Kodierungsverfahren sein.
  • Die zeitliche Länge der Videogruppen ist ebenfalls nicht fixiert und kann in jeder Videogruppe variieren.
  • Der Zuweisungskodegrößenregler 22103 der Kodierungsvorrichtung der vorliegenden Erfindung kann ferner die Schwierigkeit des Videosignalkodierungsprozesses erfassen und die zugewiesene Kodegröße entsprechend der erfassten Schwierigkeit spezifizieren. Dieser Prozess ermöglicht die Verwendung einer Kodierung mit veränderlicher Bitrate, wodurch das Signal mit einer Bitrate kodiert wird, die entsprechend dem Video variiert.
  • Das Kodegrößensteuerverfahren, das die erzeugte Kodegröße auf einen Wert innerhalb einer definierten Grenze steuert, soll nicht auf das obenbeschriebene Verfahren beschränkt sein, und kann z. B. Signalquantisierungsparameter steuern, um die Kodegröße zu steuern.
  • Obwohl ferner die Ausführungsformen unter Verwendung eines optischen Plattenaufzeichnungsmediums beschrieben worden sind, soll die Erfindung nicht hierauf beschränkt sein, wobei magnetische Platten, Magnetbänder und andere Aufzeichnungsmedien verwendet werden können.
  • Das Kodierungsverfahren und die Kodierungsvorrichtung der Erfindung können somit ein gleichmäßig verbundenes Wiedergabesignal zusammenhängend dekodieren und nahtlos wiedergeben, ohne dass der Videopuffer 2600 versagt, selbst wenn die kodierten Datenströme von mehreren Videogruppen an benutzerdefinierten Punkten verbunden sind.
  • Ferner müssen die Werte der End-Pufferbelegung Be und der Anfangspufferbelegung Bi an den Stromverbindungspunkten nicht gleich sein, wobei die Kodegröße leicht gesteuert werden kann, insofern, als die End-Pufferbelegung Be größer ist als die Anfangspufferbelegung Bi.
  • Ferner kann durch Unterbrechen der Datenübertragung zum Videopuffer 2600 für eine vordefinierte Zeitspanne am Verbindungspunkt zwischen den kodierten Datenströmen der Videogruppen das Wiedergabeverfahren der vorliegenden Erfindung den Dekodierungsprozess beginnen, wenn die Datenbelegung des Videopuffers 2600 gleich dem Anfangspufferbelegungswert Bi ist, der während der Kodierung gesetzt worden ist, wobei die Dekodierung mit der Änderung des akkumulierten Videodatenvolumens Vdv im Videopuffer 2600, die sich wie während der Kodierung erwartet verändert, fortschreiten kann. Die Dekodierung kann somit ohne ein Versagen des Videopuffers 2600 fortschreiten.
  • Wenn mittels des Wiedergabeverfahrens der vorliegenden Erfindung kodierte Videoströme wiedergegeben werden, die durch Kodieren von mehreren Videogruppen erhalten worden sind, können unterschiedliche Ströme verbunden und zusammenhängend dekodiert werden, wobei ein gleichmäßig verbundenes Wiedergabesignal erhalten werden kann, wenn die Ströme so kodiert sind, dass die Endbelegung des Videopuffers 2600 jedes Stroms größer ist als das akkumulierte Videodatenvolumen Vdv zu Beginn der Dekodierung.
  • Das Kodierungsverfahren und die Kodierungsvorrichtung der Erfindung können ein gleichmäßig verbundenes Wiedergabesignal ohne Versagen des Videopuffers zusammenhängend dekodieren und nahtlos wiedergeben, selbst wenn die kodierten Datenströme von mehreren Videogruppen an benutzerdefinierten Punkten verbunden sind.
  • Das Wiedergabeverfahren der vorliegenden Erfindung kann ferner den Dekodierungsprozess so ausführen, dass sich die Änderung des akkumulierten Videodatenvolumens Vdv im Videopuffer wie während der Kodierung erwartet ändert. Die Dekodierung kann somit ohne Versagen des Videopuffers fortschreiten.
  • Wenn jedoch Daten von der optischen Platte M mittels des in 26 gezeigten DVD-Dekodierers DCD gelesen werden, kann eine intermittierende Datenübertragung erreicht werden, die nur so viel Daten von der optischen Platte M liest, wie für die Dekodierung benötigt werden. Wenn der Videopuffer 2600 des DVD-Dekodierers DCD in diesem Fall überzulaufen scheint, ist es möglich, einen Überlauf zu verhindern, indem das Lesen von Daten gestoppt wird, bevor der Puffer überläuft. Die Dekodierung kann somit ohne Verlust irgendwelcher kodierter Daten abgeschlossen werden. Die Wiedergabevorrichtung, d. h. der DVD-Dekodierer DCD, kann somit eine Überlaufverarbeitung handhaben.
  • Industrielle Anwendbarkeit
  • Wie aus einem Verfahren und einer Vorrichtung gemäß einer vorliegenden Erfindung zum Verschachteln eines Bitstroms und zum Aufzeichnen des verschachtelten Bitstroms auf einem Aufzeichnungsmedium und zum Wiedergeben des aufgezeichneten Bitstroms hiervon offensichtlich ist, sind diese geeignet für die Anwendung eines Autorensystems, das einen neuen Titel erzeugen kann, indem ein Titel, der aus Bitströmen aufgebaut ist, die verschiedene Informationen enthalten, entsprechend der Anforderung eines Benutzers editiert wird, und sind ferner für ein digitales Videoplattensystem oder ein DVD-System geeignet, die vor kurzem entwickelt worden sind.

Claims (6)

  1. Kodierungsverfahren zum Kodieren von Daten durch: Berechnen der Datenbelegung (Vdv) eines Dekodierungspufferspeichers (2600) einer bestimmten Größe, welcher für die Wiedergabe der Daten verwendet wird, Bestimmen einer zugeordneten Kodegröße einer bestimmten Periode basierend auf dem Berechnungsergebnis, und Kompressionskodieren eines Signals einer bestimmten Periode auf die zugeordnete Kodegröße, wobei die Datenbelegung (Vdv) berechnet wird unter der Annahme, dass zweite Daten (EVS2) zu dem Dekodierungspufferspeicher (2600) der Übertragung erster Daten (EVS1) folgend zu dem Dekodierungspufferspeicher (2600) übertragen werden, die Datenbelegung (Vdv), wenn die letzten Daten in den ersten Daten (EVS1) dekodiert sind, als die End-Pufferbelegung (Be) berechnet wird, die Datenbelegung (Vdv), wenn der die zweiten Daten (EVS2) erzeugende Kodierungsvorgang begonnen hat, eine Anfangs-Pufferbelegung (Bi) ist, und die zugeordnete Kodegröße derart definiert ist, dass die End-Pufferbelegung (Be) der ersten Daten größer ist als die Anfangs-Pufferbelegung (Bi).
  2. Kodierungsvorrichtung zum Kodieren von Daten durch: einen Kodegrößenregler (22103) zum Bestimmen einer zugeordneten Kodegröße einer bestimmten Periode, einen Kodierungsprozessor (22101) zum Erzeugen eines kodierten Datensignals, eine Kompressionskodierungssteuerung (22102) zum Steuern der Kodegröße zum Verringern der Differenz zwischen der zugeordneten Kodegröße und der erzeugten Kodegröße der kodierten Daten, und einen Datenbelegungsrechner (22105) zum Berechnen der Datenbelegung (Vdv) eines Dekodierungspufferspeichers (2600) einer bestimmten Größe, welche verwendet wird beim Dekodieren der kodierten Daten während der Wiedergabe, wobei der Datenbelegungsrechner (22105) die Datenbelegung (Vdv) unter der Annahme berechnet, dass zweite Daten (EVS2) zu dem Dekodierungspufferspeicher (2600) der Übertragung erster Daten (EVS1) zu dem Dekodierungspufferspeicher (2600) folgend übertragen werden, die Datenbelegung (Vdv) berechnet, wenn die letzten Daten in den ersten Daten (EVS1) als die End-Pufferbelegung (Be) dekodiert sind, die Datenbelegung (Vdv) setzt, wenn der die zweiten Daten (EVS2) erzeugende Kodierungsvorgang mit einer bestimmten Anfangs-Pufferbelegung (Bi) beginnt, und der Kodegrößenregler (22103) die zugeordnete Kodegröße derart bestimmt, dass die Anfangs-Pufferbelegung (Bi) geringer ist, als die End-Pufferbelegung (Be).
  3. Aufzeichnungsverfahren zum Aufzeichnen von wenigsten zwei Daten auf einem Aufzeichnungsmedium mit einem Kodierungsverfahren zum Kodieren von Daten nach Anspruch 1 und einem Schritt zum Aufzeichnen der kodierten Daten basierend auf der Datenbelegung (Vdv).
  4. Aufzeichnungsvorrichtung für wenigsten zwei Daten auf einem Aufzeichnungsmedium mit einer Kodierungsvorrichtung zum Kodieren von Daten nach Anspruch 2 und einer Einrichtung zum Aufzeichnen der kodierten Daten basierend auf der Datenbelegung (Vdv).
  5. Wiedergabeverfahren zum Wiedergeben von Daten von einem Aufzeichnungsmedium (M) mit wenigstens zwei darauf gespeicherten Daten, mit dem Schritt der Dekodierung der Daten basierend auf der Datenbelegung (Vdv) eines Dekodierungspufferspeichers (2600) einer bestimmten Größe, wobei Daten zu dem Dekodierungspufferspeicher (2600) übertragen werden, so dass die Datenbelegung (Vdv), wenn letzte Daten in den ersten Daten (EVS1) dekodiert sind, eine End-Datenbelegung (Be) ist, wobei angenommen wird, dass zweite Daten (EVS2) zu dem Dekodierungspufferspeicher (2600) der Übertragung der ersten Daten (EVS1) zu dem Dekodierungspufferspeicher (2600) folgend übertragen werden, die Datenbelegung (Vdv) am Beginn der Dekodierung der zweiten Daten (EVS2) eine bestimmte Anfangs-Pufferbelegung (Bi) ist, wobei die Anfangs-Pufferbelegung (Bi) geringer ist als die End-Pufferbelegung (Be), und wobei die Datenübertragung für eine vorbestimmte Periode (DTi) nach der Übertragung der ersten Daten (EVS1) und vor der Übertragung der zweiten Daten (EVS2) unterbrochen wird, wobei die Periode (DTi) bestimmt ist durch die End-Datenbelegung (Be) und die Anfangs-Datenbelegung (Bi).
  6. Wiedergabevorrichtung zum Wiedergeben von Daten von einem Aufzeichnungsmedium (M) mit wenigstens zwei darauf gespeicherten Daten, mit einer Dekodierungseinrichtung zum Dekodieren der Daten basierend auf der Datenbelegung (Vdv) eines Dekodierungspufferspeichers (2600) einer bestimmten Größe, wobei Daten zu dem Dekodierungspufferspeicher (2600) übertragen werden, so dass die Datenbelegung (Vdv), wenn letzte Daten in den ersten Daten (EVS1) dekodiert sind, eine End-Datenbelegung (Be) ist, wobei angenommen wird, dass zweite Daten (EVS2) zu dem Dekodierungspufferspeicher (2600) der Übertragung der ersten Daten (EVS1) zu dem Dekodierungspufferspeicher (2600) folgend übertragen werden, die Datenbelegung (Vdv) am Beginn der Dekodierung der zweiten Daten (EVS2) eine bestimmte Anfangs-Pufferbelegung (Bi) ist, wobei die Anfangs-Pufferbelegung (Bi) geringer ist als die End-Pufferbelegung (Be), und wobei die Datenübertragung für eine vorbestimmte Periode (DTi) nach der Übertragung der ersten Daten (EVS1) und vor der Übertragung der zweiten Daten (EVS2) unterbrochen wird, wobei die Periode (DTi) bestimmt ist durch die End-Datenbelegung (Be) und die Anfangs-Datenbelegung (Bi).
DE1996633244 1995-09-29 1996-09-27 Verfahren und anlage zur nahtlosen verbindungskodierung eines bitstroms Expired - Lifetime DE69633244T2 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP25273695 1995-09-29
JP25273695 1995-09-29
JP4158296 1996-02-28
JP4158296 1996-02-28
PCT/JP1996/002807 WO1997013367A1 (en) 1995-09-29 1996-09-27 Method and device for encoding seamless-connection of bit stream

Publications (2)

Publication Number Publication Date
DE69633244D1 DE69633244D1 (de) 2004-09-30
DE69633244T2 true DE69633244T2 (de) 2005-09-15

Family

ID=26381222

Family Applications (1)

Application Number Title Priority Date Filing Date
DE1996633244 Expired - Lifetime DE69633244T2 (de) 1995-09-29 1996-09-27 Verfahren und anlage zur nahtlosen verbindungskodierung eines bitstroms

Country Status (10)

Country Link
US (2) US5937138A (de)
EP (2) EP0853430B1 (de)
JP (1) JP3963478B2 (de)
KR (1) KR100478555B1 (de)
CN (1) CN1164104C (de)
DE (1) DE69633244T2 (de)
HK (1) HK1016797A1 (de)
MX (1) MX9801218A (de)
TW (1) TW303570B (de)
WO (1) WO1997013367A1 (de)

Families Citing this family (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW305043B (de) * 1995-09-29 1997-05-11 Matsushita Electric Ind Co Ltd
TW436777B (en) 1995-09-29 2001-05-28 Matsushita Electric Ind Co Ltd A method and an apparatus for reproducing bitstream having non-sequential system clock data seamlessly therebetween
US6502199B2 (en) 1995-09-29 2002-12-31 Matsushita Electric Industrial Co., Ltd. Method and an apparatus for reproducing bitstream having non-sequential system clock data seamlessly therebetween
TW332961B (en) * 1996-02-09 1998-06-01 Sony Co Ltd Recording media
US6034738A (en) * 1996-02-14 2000-03-07 Thomson Consumer Electronics, Inc. On-screen display timing
US6157674A (en) * 1996-03-21 2000-12-05 Sony Corporation Audio and video data transmitting apparatus, system, and method thereof
JP3263807B2 (ja) * 1996-09-09 2002-03-11 ソニー株式会社 画像符号化装置および画像符号化方法
JP3861362B2 (ja) * 1997-03-19 2006-12-20 ソニー株式会社 ディジタル信号再生方法及び装置
US6304911B1 (en) * 1997-06-25 2001-10-16 Advanced Micro Devices, Inc. Information packet reception indicator for reducing the utilization of a host system processor unit
US6034731A (en) * 1997-08-13 2000-03-07 Sarnoff Corporation MPEG frame processing method and apparatus
MY115908A (en) 1997-09-17 2003-09-30 Matsushita Electric Ind Co Ltd Video data editing apparatus, optical disc for use as a recording medium of a video data editing apparatus, and computer-readable recording medium storing an editing program
MY126551A (en) 1997-09-17 2006-10-31 Matsushita Electric Ind Co Ltd Video data editing apparatus and computer-readable recording medium storing an editing program
MY116283A (en) 1997-09-17 2003-12-31 Panasonic Ip Corp America Optical disc having an area storing original and user chain information specifying at least part of a video object stored on the disc, and a computer program and recording apparatus for recording and editing the chain information.
DE69800526T2 (de) * 1997-09-17 2004-08-05 Matsushita Electric Industrial Co., Ltd., Kadoma Aufzeichnungsgerät für optische Platte und computerlesbares Aufzeichnungsmedium zur Aufzeichnung eines Dateienverwaltungsprogramms
US6487364B2 (en) 1997-09-17 2002-11-26 Matsushita Electric Industrial Co., Ltd. Optical disc, video data editing apparatus, computer-readable recording medium storing an editing program, reproduction apparatus for the optical disc, and computer-readable recording medium storing a reproduction program
US6862320B1 (en) * 1997-10-23 2005-03-01 Mitsubishi Denki Kabushiki Kaisha Image decoder, image encoder, image communication system, and encoded bit stream converter
EP0917144B1 (de) * 1997-11-11 2003-05-07 Deutsche Thomson-Brandt Gmbh Verfahren und Gerät zur Steuerung eines Daten-Zwischenspeichers
JP3903561B2 (ja) * 1997-12-26 2007-04-11 ソニー株式会社 記録装置及び記録方法
IL123906A0 (en) * 1998-03-31 1998-10-30 Optibase Ltd Method for synchronizing audio and video streams
US7272298B1 (en) 1998-05-06 2007-09-18 Burst.Com, Inc. System and method for time-shifted program viewing
EP1034538B1 (de) * 1998-06-12 2004-12-15 Koninklijke Philips Electronics N.V. Übertragung von komprimierten audiodaten mittels eines wiedergabepuffers
FR2781326B1 (fr) 1998-07-17 2000-09-29 St Microelectronics Sa Procede et systeme d'elaboration d'images numeriques resultant d'elements graphiques auxiliaires incrustes dans des images principales
US8380041B2 (en) 1998-07-30 2013-02-19 Tivo Inc. Transportable digital video recorder system
US8577205B2 (en) 1998-07-30 2013-11-05 Tivo Inc. Digital video recording system
US6233389B1 (en) 1998-07-30 2001-05-15 Tivo, Inc. Multimedia time warping system
US7558472B2 (en) 2000-08-22 2009-07-07 Tivo Inc. Multimedia signal processing system
JP2000090645A (ja) * 1998-09-08 2000-03-31 Sony Corp ファイル管理装置および方法、並びに提供媒体
JP3805985B2 (ja) * 1999-02-18 2006-08-09 株式会社東芝 ストリームデータの情報記憶媒体、その記録方法、再生方法、記録装置および再生装置
JP4211153B2 (ja) * 1999-09-17 2009-01-21 ソニー株式会社 記録装置および方法
EP1885127A3 (de) 1999-09-20 2008-03-19 Tivo, Inc. Untertitel-Etikettiersystem
EP1085513B1 (de) * 1999-09-20 2012-12-05 Panasonic Corporation Vorrichtung zur Aufnahme von optischen Platten und Verfahren zur Aufnahme von optischen Platten die für nahtlose Wiedergabe geeignet sind
US20030099293A1 (en) * 1999-12-15 2003-05-29 Shigeyuki Okada Image reproducing method, and image processing method, and image reproducing device, image processing device, and television receiver capable of using the methods
JP2001285234A (ja) * 2000-04-04 2001-10-12 Sony Corp データ多重化装置およびデータ多重化方法、並びに記録媒体
US7043484B2 (en) * 2000-12-05 2006-05-09 Dvdemand Technologies Inc. System and method for producing storage media images
JP3548136B2 (ja) * 2001-06-01 2004-07-28 三洋電機株式会社 画像処理装置
JP3906911B2 (ja) * 2002-04-18 2007-04-18 ソニー株式会社 記録装置及び記録方法
TWI241813B (en) * 2002-05-10 2005-10-11 Interdigital Tech Corp Cognitive flow control based on channel quality conditions
KR100554767B1 (ko) 2002-06-28 2006-02-22 엘지전자 주식회사 다중 경로 데이터의 기록 및 재생을 관리하기 위한 데이터구조를 갖는 기록 매체와 그에 따른 기록 및 재생 방법 및장치
US7769084B1 (en) 2002-07-15 2010-08-03 Apple Inc. Method for implementing a quantizer in a multimedia compression and encoding system
US7418037B1 (en) * 2002-07-15 2008-08-26 Apple Inc. Method of performing rate control for a compression system
MY134659A (en) * 2002-11-06 2007-12-31 Nokia Corp Picture buffering for prediction references and display
US7804897B1 (en) * 2002-12-16 2010-09-28 Apple Inc. Method for implementing an improved quantizer in a multimedia compression and encoding system
US7940843B1 (en) 2002-12-16 2011-05-10 Apple Inc. Method of implementing improved rate control for a multimedia compression and encoding system
RU2356107C2 (ru) * 2003-02-25 2009-05-20 Эл Джи Электроникс Инк. Способ воспроизведения содержательной информации устройством для интерактивных оптических дисков
US7224664B2 (en) * 2003-03-25 2007-05-29 Lg Electronics Inc. Recording medium having data structure for managing reproduction of data streams recorded thereon and recording and reproducing methods and apparatuses
EP1465187A1 (de) * 2003-04-02 2004-10-06 Deutsche Thomson-Brandt Gmbh Verfahren zur Kontrolle eines optischen Abtasters zum Lesen der Datenströme und für gleichzeitige Wiedergabe
EP1465181A1 (de) * 2003-04-02 2004-10-06 Deutsche Thomson-Brandt Gmbh Verfahren zur Kontrolle eines optischen Kopfes zum Lesen von Datenströmen zur gleichzeitigen Wiedergabe
US20040268033A1 (en) * 2003-06-24 2004-12-30 Seagate Technology Llc Refreshing data in a data storage device
JP3675464B2 (ja) * 2003-10-29 2005-07-27 ソニー株式会社 動画像符号化装置および動画像符号化制御方法
JP4289138B2 (ja) * 2003-12-09 2009-07-01 ソニー株式会社 データ処理装置およびその方法と符号化装置
EP2257059B1 (de) 2004-01-13 2014-03-12 Panasonic Corporation Aufzeichnungsmedium, Wiedergabevorrichtung, Aufzeichnungsverfahren, Programm und Wiedergabeverfahren
CN101790067B (zh) * 2004-02-17 2013-09-11 松下电器产业株式会社 记录方法和再现装置
EP1726163B1 (de) * 2004-03-03 2014-12-24 Callahan Cellular L.L.C. Videoverarbeitungsschaltung und verfahren zur videoverarbeitung
JP2005285209A (ja) * 2004-03-29 2005-10-13 Toshiba Corp 動画像のメタデータ
JP2006041844A (ja) * 2004-07-26 2006-02-09 Toshiba Corp メタデータのデータ構造及びそのメタデータの処理方法
CN101841714B (zh) * 2004-08-31 2012-12-26 松下电器产业株式会社 运动图像编码、解码方法及装置、记录介质的记录方法
JP4732730B2 (ja) * 2004-09-30 2011-07-27 パナソニック株式会社 音声復号装置
CN101077006A (zh) 2004-11-19 2007-11-21 Tivo股份有限公司 用于先前播放内容的安全传输的方法和设备
CN101091395A (zh) * 2004-12-23 2007-12-19 诺基亚公司 用于电子设备的多照相机解决方案
CN101164347B (zh) * 2005-04-26 2010-08-25 汤姆森许可贸易公司 同步流打包
WO2007008841A2 (en) 2005-07-07 2007-01-18 Burst.Com, Inc. System and method for digital content retrieval
US20070133952A1 (en) * 2005-12-08 2007-06-14 Samsung Electronics Co., Ltd. Method and system for reproducing contents
EP2124454B1 (de) * 2007-03-19 2014-11-19 Fujitsu Limited Bitstromumsetzungsverfahren, bitstromumsetzungseinrichtung, bitstromkoppeleinrichtung, bitstromaufteilungsprogramm, bitstromumsetzungsprogramm und bitstromkoppelprogramm
JP5211569B2 (ja) * 2007-07-26 2013-06-12 ソニー株式会社 コンテンツ再生装置、コンテンツ再生方法、およびプログラム
JP5282383B2 (ja) * 2007-09-06 2013-09-04 ソニー株式会社 コンテンツ再生装置、コンテンツ再生方法、プログラム、およびコンテンツ再生システム
WO2010038212A2 (en) * 2008-10-01 2010-04-08 Nxp B.V. Embedded video compression for hybrid contents
US8843803B2 (en) * 2011-04-01 2014-09-23 Cleversafe, Inc. Utilizing local memory and dispersed storage memory to access encoded data slices
US9063802B2 (en) * 2013-01-31 2015-06-23 Hewlett-Packard Development Company, L.P. Event determination
US9800934B2 (en) * 2013-06-12 2017-10-24 Lg Electronics Inc. Apparatus for transmitting broadcast signals, apparatus for receiving broadcast signals, method for transmitting broadcast signals and method for receiving broadcast signals
KR101871730B1 (ko) * 2013-09-27 2018-06-27 엘지전자 주식회사 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법 및 방송 신호 수신 방법
KR102174267B1 (ko) * 2013-12-24 2020-11-04 주식회사 케이티 영상 패킷의 변환 장치 및 방법
US10283091B2 (en) * 2014-10-13 2019-05-07 Microsoft Technology Licensing, Llc Buffer optimization
CN107710757B (zh) * 2015-06-04 2021-08-10 英特尔公司 用于缓慢运动视频记录的自适应批量编码
WO2017143522A1 (en) 2016-02-23 2017-08-31 Intel Corporation Graphics processor workload acceleration using a command template for batch usage scenarios
US10979747B2 (en) * 2017-12-21 2021-04-13 Arris Enterprises Llc Statistical multiplexing system for variable bit rate encoding with constant bit rate encoder
US10728443B1 (en) 2019-03-27 2020-07-28 On Time Staffing Inc. Automatic camera angle switching to create combined audiovisual file
US10963841B2 (en) 2019-03-27 2021-03-30 On Time Staffing Inc. Employment candidate empathy scoring system
US11127232B2 (en) 2019-11-26 2021-09-21 On Time Staffing Inc. Multi-camera, multi-sensor panel data extraction system and method
US11023735B1 (en) 2020-04-02 2021-06-01 On Time Staffing, Inc. Automatic versioning of video presentations
US11144882B1 (en) 2020-09-18 2021-10-12 On Time Staffing Inc. Systems and methods for evaluating actions over a computer network and establishing live network connections
US11727040B2 (en) 2021-08-06 2023-08-15 On Time Staffing, Inc. Monitoring third-party forum contributions to improve searching through time-to-live data assignments
US11423071B1 (en) 2021-08-31 2022-08-23 On Time Staffing, Inc. Candidate data ranking method using previously selected candidate data
US11907652B2 (en) 2022-06-02 2024-02-20 On Time Staffing, Inc. User interface and systems for document creation

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04222184A (ja) * 1990-12-21 1992-08-12 Nec Corp 動画像符号化装置
JPH05219491A (ja) * 1992-02-05 1993-08-27 Sony Corp 符号化装置
KR0152016B1 (ko) * 1992-06-18 1998-10-15 강진구 가변 비트할당을 이용한 부호화 및 복호화시스템
US5481543A (en) * 1993-03-16 1996-01-02 Sony Corporation Rational input buffer arrangements for auxiliary information in video and audio signal processing systems
CA2141672A1 (en) * 1993-06-10 1994-12-22 Markus H. Veltman Rational input buffer arrangements for auxiliary information in video and audio signal processing systems
DE69426894T2 (de) * 1993-09-16 2001-07-26 Toshiba Kawasaki Kk Digitales Videosignal
JP3005147B2 (ja) * 1994-02-24 2000-01-31 シャープ株式会社 動画像符号化装置
JP3173950B2 (ja) * 1994-06-13 2001-06-04 株式会社日立製作所 ディスク再生装置
KR0159975B1 (ko) * 1994-10-19 1999-01-15 김준성 영상 데이타 부호화장치
JPH08138316A (ja) * 1994-11-07 1996-05-31 Toshiba Corp 記録再生装置
JP3100307B2 (ja) * 1995-03-14 2000-10-16 日本ビクター株式会社 圧縮データ連続再生システム
US5745643A (en) * 1995-04-06 1998-04-28 Kabushiki Kaisha Toshiba System for and method of reproducing playback data appropriately by the use of attribute information on the playback data
US6138147A (en) * 1995-07-14 2000-10-24 Oracle Corporation Method and apparatus for implementing seamless playback of continuous media feeds

Also Published As

Publication number Publication date
EP1420594A3 (de) 2004-11-03
EP0853430B1 (de) 2004-08-25
WO1997013367A1 (en) 1997-04-10
HK1016797A1 (en) 1999-11-05
EP1420594A2 (de) 2004-05-19
CN1164104C (zh) 2004-08-25
MX9801218A (es) 1998-04-30
USRE37994E1 (en) 2003-02-18
EP0853430A1 (de) 1998-07-15
EP0853430A4 (de) 1999-05-26
US5937138A (en) 1999-08-10
TW303570B (de) 1997-04-21
KR100478555B1 (en) 2005-11-11
KR19990063897A (ko) 1999-07-26
CN1197575A (zh) 1998-10-28
DE69633244D1 (de) 2004-09-30
JP3963478B2 (ja) 2007-08-22

Similar Documents

Publication Publication Date Title
DE69633244T2 (de) Verfahren und anlage zur nahtlosen verbindungskodierung eines bitstroms
DE69633300T2 (de) Optische Scheibe, Wiedergabe-Vorrichtung und -Methode zum Indizieren und Durchführen von nahtloser oder nicht-nahtloser Wiedergabe einer Vielzahl von Bitströmen in einem Titel aufgezeichnet auf einer Scheibe
DE69721483T2 (de) Edier-und Autorensystem für einen Multimedia-Datenstrom mit Überprüfung der Edierbefehle
US7274860B2 (en) Apparatus, method, and recording medium implementing audio gap information for an audio presentation discontinuous period
EP0847199B1 (de) Verfahren, vorrichtung und speicherplatte zur kodierung einer nahtlosen verbindung für in fernsehfilm übersetzte videodaten
US6181872B1 (en) Method and apparatus for interleaving bitstream to record thereof on a recording medium, and reproducing the interleaved bitstream therefrom
US20010053281A1 (en) Method and an apparatus for reproducing bitstream having non-sequential system clock data seamlessly therebetween
KR100386873B1 (ko) 텔레시네변환된비디오데이터의심리스접속엔코드방법및그장치
JP3382614B1 (ja) 記録方法および再生方法
JP3364214B2 (ja) 記録方法と再生装置及び再生方法
JP3382615B1 (ja) 記録方法と再生装置及び再生方法
JP3364212B2 (ja) 記録方法と再生装置及び再生方法
JP3364213B2 (ja) 記録方法および再生方法
JP2003132646A (ja) 記録方法、再生方法および再生装置

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: PANASONIC CORP., KADOMA, OSAKA, JP