WO2006019104A1 - 情報記録媒体、データ分別装置、及びデータ再生装置 - Google Patents

情報記録媒体、データ分別装置、及びデータ再生装置 Download PDF

Info

Publication number
WO2006019104A1
WO2006019104A1 PCT/JP2005/014982 JP2005014982W WO2006019104A1 WO 2006019104 A1 WO2006019104 A1 WO 2006019104A1 JP 2005014982 W JP2005014982 W JP 2005014982W WO 2006019104 A1 WO2006019104 A1 WO 2006019104A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
information
packet
access unit
recording medium
Prior art date
Application number
PCT/JP2005/014982
Other languages
English (en)
French (fr)
Inventor
Hiroshi Yahata
Tomoyuki Okada
Wataru Ikeda
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to US11/659,022 priority Critical patent/US8249415B2/en
Priority to JP2006531813A priority patent/JP4593570B2/ja
Priority to EP05772771A priority patent/EP1780714A4/en
Priority to KR20077002032A priority patent/KR20070034607A/ko
Publication of WO2006019104A1 publication Critical patent/WO2006019104A1/ja

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/12Formatting, e.g. arrangement of data block or words on the record carriers
    • G11B20/1217Formatting, e.g. arrangement of data block or words on the record carriers on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/12Formatting, e.g. arrangement of data block or words on the record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/327Table of contents
    • G11B27/329Table of contents on a disc [VTOC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/29Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding involving scalability at the object level, e.g. video object layer [VOL]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • H04N21/42646Internal components of the client ; Characteristics thereof for reading from or writing on a non-volatile solid state storage medium, e.g. DVD, CD-ROM
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/432Content retrieval operation from a local storage medium, e.g. hard-disk
    • H04N21/4325Content retrieval operation from a local storage medium, e.g. hard-disk by playing back content from the storage medium
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4621Controlling the complexity of the content stream or additional data, e.g. lowering the resolution or bit-rate of the video stream for a mobile client with a small screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/24Variable rate codecs, e.g. for generating different qualities using a scalable representation such as hierarchical encoding or layered encoding
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • G11B2020/10537Audio or video recording
    • G11B2020/10546Audio or video recording specifically adapted for audio data
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2541Blu-ray discs; Blue laser DVR discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/775Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/7921Processing of colour television signals in connection with recording for more than one processing mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal

Definitions

  • the present invention relates to an information recording medium for recording video and audio data, a data sorting device for sorting data, a data playing device for playing back data, and the like.
  • DVD DVD—Video disc
  • FIG. 1 is a diagram showing the structure of a DVD. As shown in the lower part of Fig. 1, the DVD has a logical address space from the lead-in part to the lead-out part. In the logical address space, the volume information of the file system is recorded at the head, followed by application data such as video and audio.
  • the DVD file system is an ISO9660 or Universal Disc Format (UDF) file system.
  • a file system is a mechanism for representing data on a disk in units called directories or files.
  • a personal computer (PC) uses a file system called FAT or NTFS. With the file system, data recorded on the node disk in the structure of directories and files is processed by a computer. As a result, user pity is increasing.
  • DVD uses both UDF and ISO9660 file systems. Both UDF and ISO9660 are sometimes referred to as “UDF bridges”. Data recorded on a DVD can be read by both UDF and ISO9660 file system drivers. Of course, DVD-RAM ZRZRW, which is a rewritable DVD, can physically read, write, and delete data via these file systems.
  • Data recorded on a DVD exists as a directory or file as shown in the upper left of FIG. 1 via a file system.
  • a directory called “VIDEO-TS” is placed directly under the root directory (“ROOT” in Fig. 1), where DVD application data is recorded.
  • Application data is divided into multiple files It is recorded.
  • the main files are as follows.
  • Playback control information includes information for realizing the interactivity (technology that dynamically changes the playback state according to user operations) adopted for DVDs, and information attached to titles and AV streams such as metadata. This information includes information such as In a DVD, playback control information is generally called navigation information.
  • VIDEO-TS. IFO that manages the entire disc
  • VTS-01-0. IFOJ that is playback control information for each video title set.
  • “01” in the body indicates the number of the video title set. For example, if the video title set number is # 2, the file name of the video title set is “VTS—02—0. IFO”.
  • DVD it is possible to record multiple titles, in other words, multiple movies with different contents, or multiple movies with the same content but different versions, on a single disk.
  • the upper right part of FIG. 1 shows a DVD navigation space in the DVD application layer, that is, a logical structure space in which the playback control information described above is expanded.
  • the information in “VIDEO—TS. IF 0” is expanded as Video Manager Information (VMGI) in the DVD navigation space.
  • VMGI Video Manager Information
  • the playback control information that exists for each video title set such as “VTS-01-01. IFO” is expanded in the DVD navigation space as Video Title Set Information (VTSI).
  • VTSI describes Program Chain Information (PGCI), which is information on a playback sequence called Program Chain (PGC).
  • PPC Program Chain
  • PGCI consists of a set of cells and a kind of programming information called commands.
  • Cell is a Video Object It is a set of all sections (VOB, MPEG stream) or all sections.
  • VOB Video Object It is a set of all sections (VOB, MPEG stream) or all sections.
  • Cell playback means playing the section specified by Cell in the VOB.
  • the command is processed by a DVD virtual machine, and is similar to a Java (registered trademark) script or the like executed on a browser.
  • Java (registered trademark) scripts control windows and browsers (for example, open new browser windows).
  • DVD commands only control playback of AV titles (for example, designation of chapters to be played back) in addition to logical operations. As you can see, the DVD command is different from the Java script!
  • the Cell is recorded on the disk and has information on the start address and end address (logical recording address on the disk) of the VOB.
  • the player reads and reproduces the data using the information of the start address and end address of the VOB described in the Cell.
  • FIG. 2 is a diagram for explaining the navigation information embedded in the AV stream.
  • the interactivity that is characteristic of DVDs is recorded in the “VIDEO-TS. IFO” and “VTS-01-01. IFO” mentioned above! Nah ...
  • Some important information for realizing interactivity is the use of a dedicated carrier called a navigation pack (“Navi Pack” or “NV—PCK”!), And video in the VOB. It is multiplexed with data and audio data.
  • buttons appear on the menu screen. Each button defines the contents of processing when that button is selected and pressed. One button is selected on the menu.
  • the noil light is a translucent image that is overlaid on the selected button, indicating that the button is overlaid and that the button is selected.
  • the user can use the up / down / left / right keys on the remote control to move the selected button to any one of the buttons up / down / left / right.
  • the user uses the up / down / left / right keys on the remote control to move the noise light to the button corresponding to the process to be executed, and presses the enter key.
  • the command program corresponding to the selected button is executed. . For example, playback of a title or chapter is executed by a command (see, for example, Patent Document 1).
  • FIG. 2 shows an outline of control information stored in the NV-PCK.
  • the NV—PCK includes highlight color information and individual button information.
  • Color palette information is described in the no-light color information.
  • the color palette information specifies the translucent color of the highlighted highlight.
  • the button information the rectangular area information that is the position information of each button and the movement information to other buttons (specification of the destination button corresponding to the user's selection of the up / down / left / right keys on the remote control) And button command information (command executed when the button is selected)
  • the highlight on the menu is created as an overlay image as shown in the upper right part of the center of FIG.
  • An overlay image is an image in which a color specified by color palette information is added to a button specified by rectangular area information in button information.
  • the overlay image is combined with the background image shown in the right part of Fig. 2 and displayed on the screen.
  • a menu is displayed on a DVD.
  • the reason why part of the navigation data is embedded in the stream using NV-PCK is to enable the menu information to be updated dynamically in synchronization with the stream. For example, the menu can be displayed only for 5 to 10 minutes while the movie is being played.
  • the second reason is that even if application data for which it is difficult to synchronize the stream and the menu information, the stream and the menu information can be displayed in synchronization.
  • Another major reason is to improve user operability. For example, by storing information to support special playback in NV-PCK, even when AV data recorded in DV D is played back abnormally such as fast forward or rewind, the AV data is smoothly Can be decoded and reproduced.
  • FIG. 3 is a diagram showing an image of a VOB that is a DVD stream.
  • the video, audio, and subtitle data shown in Fig. 3 (A) is packetized and packed based on the MPEG system standard (ISO / IEC13818-1) as shown in Fig. 3 (B).
  • MPEG system standard ISO / IEC13818-1
  • FIG. 3 (C) each is multiplexed to generate one MPEG program stream.
  • Interra NV—PCK which includes button commands for realizing the activity, is also multiplexed with the packets and knocks.
  • the multiplexing feature of the data in the MPEG system is that the individual data to be multiplexed is a bit string based on the decoding order. Data are not necessarily arranged in the order of playback, in other words, in the order of decoding.
  • This is an MPEG system stream decoder model (commonly called “System Target Decode” or “STD” (see Figure 3 (D))). This is because it has a decoder buffer corresponding to one elementary stream and temporarily stores data until the decoding timing.
  • the size of the decoder buffer specified by DVD—Video differs for each elementary stream.
  • the buffer size for video is 232 KB
  • the buffer size for audio is 4 KB
  • the buffer size for subtitles is 52 KB.
  • subtitle data multiplexed side by side with video data is not necessarily decoded or reproduced at the same timing as video data.
  • Patent Document 1 Japanese Patent Laid-Open No. 9-282848
  • DVDs there are four audio codec standards adopted by DVDs: "Dolby Digital (AC-3)", “MPEG Audio”, “: LPCM”, and “dts”. “Dt s” is a player option function, and some DVD players have a built-in dts decoder and some do not. In addition, some DVD players have a dts-compatible function and some do not have a digital data output function to the AV amplifier.
  • DVD players with dts digital data output function are based on the digital IZF standard called Sony / Philips Digital Interconnect Format (SPDIF, consumer standard stipulated in IEC60958-3 standard).
  • SPDIF can only support a bandwidth of up to 1.5Mbps according to the standard, and "dts ++ (lossless compression)" is an extended codec standard for "dts” that requires a bandwidth of nearly 20Mbps.
  • na Corresponding to, na,. Therefore, even if the next generation HD DVD standard (BD standard) supports “dt s ++”, it is not possible to output a dts ++ stream to an AV amplifier compliant with the SPDIF standard.
  • the present invention provides basic data so that a decoder that decodes only basic data can process an access unit including basic data and extended data corresponding to the next generation. It is an object of the present invention to provide an information recording medium on which an access unit including an extension data is recorded.
  • the present invention also provides a data sorting device and a data reproducing device for processing the access unit of the information recording medium of the present invention.
  • an information recording medium of the present invention is an information recording medium having a plurality of access units on which a stream including at least one of an image and sound is recorded.
  • Each of the access units has a first packet including basic data and a second packet including extension data associated with the basic data, and the basic data requires the extension data.
  • the extended data is data for improving the quality of data generated from the basic data, and the size of the first packet is predetermined. Less than the size of
  • the predetermined size is a value corresponding to an upper limit of a bit rate permitted by an interface that supports a decoder that decodes only the basic data.
  • the encoding method of the first packet is different from the encoding method of the second packet.
  • each access unit is data for a certain period of time.
  • information indicating that the extension data is included in the access unit is stored in the area without being identified by a decoder that decodes only the basic data of the access unit.
  • the area is a reserved area that is not used when the decoder of the access unit decodes the basic data.
  • the header of the first packet has first information indicating that the first packet is a packet including the basic data, and the header of the second packet is the first packet.
  • the second packet has second information indicating that the packet includes the extension data.
  • the header of the first packet has the first information in the stream-id-extension field
  • the header of the second packet has the first information in the stream-id-extension field. Has 2 information.
  • the stream includes information indicating attributes of the first packet and the second packet.
  • the access unit is data related to sound, and the attributes include channel, frequency, bit rate, and presence of downmix data of two channels.
  • the first packet and the second packet do not fail the buffer model of the first decoder that decodes only the basic data, and the first packet and the extended data are decoded.
  • the time stamp indicating the relative time when inputting to the notifier is given and multiplexed.
  • the value of the time stamp includes the size of the buffer, the speed of data input to the buffer, and the data output from the buffer in the buffer model of the first decoder and the second decoder. Is determined based on the speed of the first packet, the size of the first packet, and the size of the second packet.
  • the data sorting device of the present invention includes an acquiring unit that acquires the access unit recorded on the information recording medium of the present invention, and a sorting unit that classifies the access unit into the basic data and the extension data. With.
  • a data reproduction device of the present invention includes the data classification device of the present invention and a decoding unit that decodes only the basic data, and the data classification device causes the decoding unit to reproduce the access unit. If so, the extension data is discarded.
  • the present invention can be realized as a data reproducing method using the characteristic constituent means of the data reproducing apparatus of the present invention as steps, or as a program for causing a computer to execute these steps.
  • the program can also be distributed via a recording medium such as a CD-ROM or a transmission medium such as a communication network.
  • the present invention includes basic data and extended data so that a decoder that decodes only basic data can process an access unit including basic data and extended data corresponding to the next generation.
  • An information recording medium on which the access unit is recorded can be provided.
  • the present invention can provide a data sorting device and a data reproducing device that process the access unit of the information recording medium of the present invention.
  • FIG. 1 is a diagram showing the structure of a DVD.
  • FIG. 2 is a diagram for explaining navigation information.
  • FIG. 3 (A) is a diagram showing data such as video, audio, and captions.
  • Fig. 3 (B) is a diagram showing how each data is packetized and packed.
  • FIG. 3 (C) is a diagram showing packet data and packed data.
  • Fig. 3 (D) shows the MPEG system stream decoder model.
  • FIG. 4 is a diagram showing a configuration of a next-generation DVD.
  • FIG. 5 is a diagram showing the structure of logical data directories and files recorded on a BD disc.
  • FIG. 6 is a block diagram showing functions of the player.
  • FIG. 7 is a detailed block diagram of the player configuration.
  • FIG. 8 is a diagram showing a BD application space.
  • FIG. 9 is a configuration diagram of an MPEG stream (VOB).
  • FIG. 10 is a diagram showing a configuration of a pack. It is a figure for demonstrating subrecording.
  • FIG. 12 is a diagram for explaining a VOB data continuous supply model.
  • FIG. 13 is a diagram showing an internal structure of a VOB management information file.
  • FIG. 14 is a diagram for explaining details of VOBU information.
  • FIG. 15 is a diagram for explaining the details of the time map.
  • FIG. 16 is a diagram showing an internal structure of playlist information.
  • FIG. 17 is a diagram showing an event handler table.
  • FIG. 18 is a diagram showing an internal structure of information relating to the entire BD disc.
  • FIG. 19 is a diagram showing a program table of global event handlers.
  • FIG. 20 is a diagram showing an example of a time event.
  • FIG. 21 is a diagram showing an example of a user event.
  • FIG. 22 is a diagram showing an example of a global event.
  • FIG. 23 is a diagram for explaining the function of the program processor.
  • FIG. 24 is a diagram showing a list of system parameters.
  • FIG. 25 is a diagram showing an example of a menu program having two selection buttons.
  • FIG. 26 is a diagram illustrating an example of an event handler for a user event.
  • FIG. 27 is a diagram showing a basic processing flow until AV playback.
  • FIG. 28 is a diagram showing a processing flow up to the start of regeneration of a PL regeneration start force VOB.
  • FIG. 29 is a diagram showing an event processing flow after the start of AV playback.
  • FIG. 30 is a diagram showing a flow of subtitle processing.
  • FIG. 31 is a diagram showing a structure of an access unit having no hierarchical structure.
  • FIG. 32 is a diagram showing the structure of an access unit having two hierarchical structures.
  • FIG. 33 is a diagram showing the structure of an access unit having three hierarchical structures.
  • FIG. 34 is a diagram for explaining the operation different for each data output destination of the stream reading Z supply unit that outputs data having a hierarchical structure to a decoder corresponding to various hierarchies. It is.
  • FIG. 35 is a diagram showing the structure of an ideal access unit for introducing Level 2-EXT when devices compatible with Base and Level-EXT are widely spread.
  • FIG. 36 is a diagram showing a data structure of a data stream including Level 2.
  • Fig. 37 shows the access unit of BaseZLevell—EXT that can be decoded by existing players and decoders and Leve 12—EXT that cannot be decoded by existing players and decoders. It is a figure for demonstrating a process.
  • FIG. 38 is a diagram showing a method of storing access units having a hierarchical structure in MPEG2-TS.
  • FIG. 39 is a diagram illustrating an example of items described in the descriptor.
  • FIG. 40 (A) is a diagram showing a 5.1 channel speaker layout
  • FIG. 40 (B) is a diagram showing a 7.1 channel speaker layout.
  • FIG. 41 is a diagram showing a channel structure.
  • FIG. 42 is a diagram showing the MPEG2-TS file format when recording on an optical disc.
  • FIG. 43 is a diagram for explaining the details of DTS defined by DVD-Video.
  • FIG. 44 is a flowchart showing processing of a demultiplexer and a stream reading Z supply unit.
  • FIG. 45 is a block diagram of the input time management device 2000 and the decoder model 3000.
  • FIG. 46 illustrates a method of multiplexing Base and Level 2 so that the decoder model for decoding Base is not broken and the decoder model for decoding Base and Level 2 is not broken.
  • FIG. 4 is a diagram showing a configuration of a next-generation DVD (hereinafter referred to as “BD”), particularly a configuration of a BD disc 104 as a disc medium and data 101, 102, and 103 recorded on the disc 104.
  • the BD disc 104 is recorded with AV data 103, BD management information 102 including AV data management information and an AV playback sequence, and a BD playback program 101 for realizing interactivity.
  • AV application data for reproducing AV content of a movie is recorded on the BD disc 104.
  • the BD disc 104 may be used for other purposes.
  • FIG. 5 is a diagram showing the structure of directories and files of logical data recorded on the BD disc.
  • a BD disc has a recording area that spirals from the inner periphery to the outer periphery, and has a lead-in portion on the inner periphery and a lead-out portion on the outer periphery.
  • BD discs have a special area inside the lead-in area where data can be read only with a drive called Burst Cutting Area (BCA)! The data in this area cannot be read using application data. Therefore, the above area may be used for copyright protection technology, for example.
  • BCA Burst Cutting Area
  • Application data such as video data is recorded in the logical address space, starting with file system information (volume).
  • volume file system information
  • the file system is a file system such as UDF or ISO9660, and records and reads logical data using a directory and file structure in the same way as a normal PC. System.
  • the BDVIDEO directory is placed directly under the root directory (ROOT).
  • the BDVID EO directory is a directory in which data such as AV content and management information recorded on the BD (data 101, 102, and 103 in FIG. 4) is stored.
  • BD. INFO Huainore (Fuainole name fixed)
  • the “BD. INFO” file is one of “BD management information” and is a file in which information on the entire BD disc is recorded. The BD player first reads this file.
  • the “BD. PROG” file is one of “BD playback programs”, and is a file in which playback control information regarding the entire BD disc is recorded.
  • the “XXX. PL” file is one of “BD management information”, and is a file in which playlist information that is a scenario (playback sequence) is recorded. There is one file for each playlist.
  • the “XXX. PROG” file is one of “BD playback programs”, and is a file in which the playback control information for each playlist described above is recorded.
  • the playlist corresponding to the “XXX. PROG” file is a playlist that matches the file body name (“XXX”).
  • VOB file (“YYY” is variable, extension "VOB” is fixed)
  • the “YYY. VOB” file is one of “AV data”, and is a file in which a VOB (same as the VOB described in “Background Technology”) is recorded. There is one file for each VOB.
  • the “YYY. VOBI” file is one of “BD management information”, and is a file in which stream management information related to VOB as AV data is recorded.
  • the VOB corresponding to the “YYY. VOBI” file is the VOB that matches the file body name (“YYY”).
  • the “ZZZ. PNG” file is one of the “AV data”, and is a file in which image data PNG (an image format standardized by W3C and read “bing”) for subtitles and menus is recorded. It is. There is one file for each PNG image.
  • FIG. 6 is a block diagram showing the general functions of the player.
  • the data on the BD disc 201 is read through the optical pickup 202.
  • the read data is transferred to a dedicated memory according to the data type.
  • the BD playback program (“BD. PROG” file or “XXX. PROG” file) is transferred to the program recording memory 203.
  • the BD management information (“BD. INFO” file, “XXX. PL” file, or “YYY. VOBI” file) is transferred to the management information recording memory 204.
  • AV data (“YYY. VOB” file or “ZZZ. PNG” file) is transferred to the AV recording memory 205.
  • the BD playback program recorded in the program recording memory 203 is processed by the program processing unit 206.
  • the BD management information recorded in the management information recording memory 204 is processed by the management information processing unit 207.
  • AV data recorded in the AV recording memory 205 is processed by the presentation processing unit 208.
  • the program processing unit 206 receives event information such as the execution timing of the program information to be played back from the management information processing unit 207, and executes the program.
  • the program can dynamically change the playlist to be played.
  • the program processing unit 206 sends a play list reproduction command to the management information processing unit 207, the play list to be reproduced is dynamically changed.
  • the program processing unit 206 receives a request from the user, that is, a request from the remote control key, and executes a program corresponding to the event (request), if any.
  • the management information processing unit 207 Upon receiving an instruction from the program processing unit 206, the management information processing unit 207 analyzes the management information of the corresponding playlist and the VOB corresponding to the playlist, and sends the target AV data to the presentation processing unit 208. Instruct to play. Also, the management information processing unit 207 receives the reference time information from the presentation processing unit 208, instructs the presentation processing unit 208 to stop AV data reproduction based on the reference time information, and also instructs the program processing unit 206 to An event indicating the execution timing of the program is generated to give an instruction.
  • the presentation processing unit 208 has a decoder corresponding to each of video, audio, and subtitle Z images (still images), and in accordance with instructions from the management information processing unit 207, the AV data Decode and output data.
  • the video data and the subtitle Z image are decoded and drawn on the dedicated plane, the video plane 210 or the image plane 209, respectively.
  • the videos drawn on the video plane 210 and the image plane 209 are synthesized by the synthesis processing unit 211 and output to a display device such as a TV.
  • the BD player has a configuration unit corresponding to the configuration of data recorded on the BD disc shown in FIG.
  • FIG. 7 is a detailed block diagram of the above-described player configuration.
  • the AV recording memory 205 is expressed as an image memory 308 and a track buffer 309.
  • the program processing unit 206 is expressed as a program processor 302 and a UOP manager 303.
  • the management information processing unit 207 is expressed as a scenario processor 305 and a presentation controller 306.
  • the presentation processing unit 208 is expressed as a clock 307, a demultiplexer 310, an image processor 311, a video processor 312, and a sound processor 313.
  • VOB data MPEG stream
  • BD disc 201 The VOB data (MPEG stream) read from the BD disc 201 is stored in the track buffer.
  • the image data (PNG) is recorded in the image memory 308.
  • the demultiplexer 310 extracts the VOB data recorded in the track buffer 309 based on the time of the clock 307, sends video data to the video processor 312, and sends audio data to the sound processor 313.
  • Each of the video processor 312 and the sound processor 313 is composed of a decoder buffer and a decoder as defined by the MPEG system standard. In other words, the video and audio data sent from the demultiplexer 310 are temporarily recorded in the respective decoder buffers and decoded by the corresponding decoder according to the time of the clock 307.
  • PNG recorded in the image memory 308 is processed by the following two processing methods.
  • the presentation controller 306 instructs the decoding timing.
  • the scenario processor 305 receives the time information from the clock 307 and instructs the presentation controller 306 to display subtitles when the subtitle display start time is reached so that the subtitles can be appropriately displayed. Similarly, the scenario processor 305 displays subtitles based on the time information from the clock 307. When the end time is reached, the presentation controller 306 is instructed to stop displaying subtitles.
  • the image processor 311 extracts the corresponding PNG data from the image memory 308, decodes it, and draws it on the image plane 314.
  • the decode timing is instructed by the program processor 302.
  • the timing at which the program processor 302 instructs to decode the image depends on the BD program processed by the program processor 302 and is generally not determined! /.
  • the image data and the video data are each decoded, drawn on the image plane 314 or the video plane 315, synthesized by the synthesis processing unit 316, and then output.
  • the management information (scenario information and AV management information) read from the BD disc 201 is stored in the management information recording memory 304. Thereafter, the scenario information (“BD. INFO” file and “XXX. PL” file) is read by the scenario processor 305. AV management information (“YYY. VOBI” file) is read by the presentation controller 306.
  • the scenario processor 305 analyzes the information of the playlist and notifies the presentation controller 306 of the VOB referenced by the playlist and its playback position.
  • the presentation controller 306 analyzes the management information (“YYY. VOBI” file) of the target VOB and instructs the drive controller 317 to read out the target VOB.
  • the drive controller 317 moves the optical pickup and reads out target AV data.
  • the read AV data is stored in the image memory 308 or the track buffer 309 as described above.
  • the scenario processor 305 monitors the time of the clock 307 and outputs an event to the program processor 302 at a timing set in the management information.
  • the BD program (“BD. PROG” file or “XXX. PROG” file) recorded in the program recording memory 301 is processed by the program processor 302. Professional
  • the gram processor 302 processes the BD program when an event is sent from the scenario processor 305 and when an event is sent from the UOP manager 303.
  • the U OP manager 303 generates an event for the program processor 302 when a request is sent from the user by a remote control key.
  • FIG. 8 shows a BD application space.
  • a play list is one playback unit.
  • a playlist has a static scenario that is a concatenation of cells and is a reproduction sequence determined by the order of concatenation, and a dynamic scenario described by a program. Unless there is a dynamic scenario change by the program, the playlist will play back each cell in turn. Playback of the playlist ends when playback of all cells has been completed.
  • the program can describe contents that change the playback order of cells. Also, the program can dynamically change the playback target according to the user's selection or the player's state.
  • a typical example is a menu. In BD, the menu can be defined as a scenario to be played back by user selection, and the playlist can be changed dynamically by the program.
  • the program mentioned here is an event handler executed by a time event or a user event.
  • a time event is an event generated based on time information embedded in a playlist.
  • the event sent from the scenario processor 305 to the program processor 302 described with reference to FIG. 7 is an example of a time event.
  • the program processor 302 executes an event handler associated with the identifier (ID).
  • ID the identifier
  • the program to be executed can instruct playback of another playlist. For example, the program stops playing the currently playing playlist and causes the specified playlist to play.
  • the user event is an event generated by a user's remote control key operation. There are two main types of user events.
  • the first is performed by operating the cursor keys ("Up”, “Down”, “Left”, “Right” keys) or the "Enter” key.
  • This is a menu selection event generated.
  • the event handler corresponding to the event selected from the menu is valid only for a limited period in the playlist (the validity period of each event handler is set as playlist information).
  • the “Up”, “Down”, “Left”, “Right” key or “Enter” key on the remote control is pressed, a valid event handler is searched, and if there is a valid event handler, that event handler is executed. . If there is no valid event handler, the menu selection event is ignored.
  • the second user event is a menu call event generated by operating the “menu” key.
  • the global event handler is called.
  • Global event handlers are always valid event handlers, independent of playlists. By using this function, it is possible to implement DVD menu calls (such as a function that calls audio or subtitles during title playback and plays a title that was interrupted after changing the audio or subtitles).
  • a cell which is a unit constituting a static scenario in a playlist, indicates the whole or a part of a playback section of a VOB (MPEG stream).
  • the cell has the playback section in the VOB as information on the start time and end time.
  • the VOB management information (VOBI) paired with each VOB has a time map (Time Map or TM) which is table information of recording addresses corresponding to data reproduction times.
  • time Map Time Map
  • FIG. 9 is a configuration diagram of an MPEG stream (VOB) in the present embodiment.
  • the VOB is composed of a plurality of video object units (VOBU).
  • a VOBU is a playback unit in a multiplex stream including audio data on the basis of Group Of Pictures (GOP) in an MPEG video stream.
  • the video playback time of VOBU is 0.4 to 1.0 seconds, usually about 0.5 seconds. In other words, in most cases, about 1 frame is stored in 1 GOP (NTSC).
  • VOBU has a video pack (V_PCK) and an audio pack (A_PCK)! /
  • each pack is the same as one sector, and in this embodiment is 2 KB.
  • FIG. 10 is a diagram showing the configuration of the pack.
  • PES Packet Payload As shown in FIG. 10, elementary data such as video data and audio data are sequentially stored from the head in a data storage area of PES Packet (packet) called PES Packet Payload (payload).
  • the payload has a PES Packet Header (packet header) attached to form one PES Packet (packet).
  • the packet header includes a stream id (ID) for identifying which stream data is stored in the payload, and a time stamp that is time information for decoding and displaying the payload. That is, Decoding Time Stamp (DTS) and Presentation Time Stamp (PTS) are recorded.
  • ID stream id
  • DTS Decoding Time Stamp
  • PTS Presentation Time Stamp
  • rules are defined by MPEG, which is not necessarily recorded in all packet headers. The details of the rules are described in the standard of the MPEG system (ISOZIEC13818-1), so the explanation is omitted.
  • the packet is further added with a Pack Header to form a pack.
  • a time stamp indicating when the pack passes through the demultiplexer and is input to the decoder buffer of each elementary stream, that is, a system clock reference (SCR) is recorded.
  • SCR system clock reference
  • FIG. 11 The upper part of FIG. 11 is a part of the configuration diagram of the player described above.
  • the VOB on the BD disc that is, the MPEG stream
  • the PNG image data on the BD disc is input to the image memory through the optical pickup.
  • the track buffer is a FIFO buffer, and the VOB data input to the track buffer is sent to the demultiplexer in the input order. At this time, each pack is pulled out of the track buffer according to the SCR described above, and the video data is transmitted through the demultiplexer. To the processor or sound processor. On the other hand, regarding the image data input to the image memory, which image is drawn is instructed by the presentation controller. Also, if the image data used for drawing is image data for subtitles, it is deleted from the image memory as soon as it is used. On the other hand, if the image data used for drawing is image data for the user, it remains in the image memory while the menu is being drawn.
  • the menu drawing depends on the user's operation, and when the part of the menu is redisplayed or replaced with a different image following the user's operation, the image display of the redisplayed part is displayed. This is because the data can be easily decoded.
  • FIG. In general, in ROM such as CD-ROM and DVD-ROM, AV data, which is a series of continuous playback units, is recorded continuously. As long as the data is continuously recorded, the drive sequentially reads the data and sends it to the decoder. However, when continuous data is divided and discretely arranged on the disk, the drive seeks each continuous section, so data reading stops during the seek period. Data supply may stop. In order to prevent this, in the ROM, AV data, which is a series of continuous playback units, is continuously recorded. Even in BD, it is desirable to record VOB files in a continuous area. Data that is played back in synchronization with video data recorded in VOB, such as subtitle data, needs to read the BD disc power in some way as well as VOB files.
  • a method of dividing a VOB file into several blocks and interleaved recording with image data is adopted.
  • the lower part of Fig. 11 is a diagram for explaining the interleaved recording.
  • the image data can be transferred at a necessary timing without using the large-capacity temporary recording memory as described above. It can be stored in image memory.
  • reading image data reading of VOB data stops as a matter of course.
  • FIG. 12 is a diagram for explaining a VOB data continuous supply model using a track buffer.
  • the VOB data is stored in the track buffer. If a difference (Va> Vb) is provided between the data input rate (Va) to the track buffer and the data output rate (Vb) from the track buffer, the BD disc force will remain as long as the data is read continuously. The amount of data storage will increase.
  • Fig. 12 shows the transition of the data amount in the track buffer.
  • the horizontal axis shows time, and the vertical axis shows the amount of data stored in the track buffer.
  • the time “tl” indicates the time when reading of data at the logical address “al”, which is the start point of the continuous recording area of the VOB, is started.
  • data is accumulated in the track buffer at the rate (Va-Vb).
  • the rate is the difference between the rate of data input to the track buffer and the rate of data output from the track buffer.
  • Time “t2” is the time to read data at logical address “a2”, which is the end point of one continuous recording area. That is, during the time “tl” to “t2”, the data amount in the track buffer increases at the rate (Va ⁇ Vb).
  • Data accumulation amount B (t2) at time “t2” can be obtained by the following equation 1.
  • BD navigation data (BD management information)
  • FIG. 13 shows the internal structure of the VOB management information file (“YYY. VOBI”).
  • the VOB management information includes VOB stream attribute information (Attribute) and a time map (TMA P).
  • the stream attribute includes a video attribute (Video) and an audio attribute (Audio # 0 to Audio # m). Particularly for audio streams, since a VOB can have multiple audio streams at the same time, the number of audio streams (N umber) indicates the data field.
  • the time map (TMAP) is a table having information for each VOBU.
  • the time map (TMAP) has the number of VOBUs (Number) of the VOB and each VOBU information (VOBU # 1 to VOBU #n).
  • Each VOBU information has a VOBU playback time length (Duration) and a VOBU data size (Size).
  • FIG. 14 is a diagram for explaining the details of the VOBU information.
  • an MPEG video stream may be compressed at a variable bit rate, and there is no simple correlation between the playback time of each frame and the data size.
  • AC3 the audio compression standard, stipulates that audio data be compressed at a fixed bit rate, so for audio data, the relationship between time and address is expressed by a linear expression.
  • each frame has a fixed display time.
  • one frame has a display time of 1Z29.97 seconds, but the compressed data size of each frame is The picture characteristics vary greatly depending on the picture type, that is, the type of IZPZB picture. Therefore, for MPEG video data, it is impossible to express the relationship between time and address with a linear expression.
  • TMAP time map
  • the VOBU to which the time belongs is searched. That is, the number of frames for each VOBU in the time map is counted, and the sum of the number of frames is the same as the number of VOBUs that exceed the number of frames when the given time is converted into the number of frames, or the number of frames.
  • Search for VOBU the data size of each VOBU in the time map is calculated up to the VOBU immediately before that VOBU. Value obtained by calo-calculation Used to obtain the address of the pack to be read in order to reproduce the frame including the given time.
  • the playlist information includes a cell list (CellList) and an event list (EventList).
  • the cell list (CellList) is a reproduction cell sequence in the playlist, and the cells are reproduced in the description order of the cell list.
  • the cell list (CellList) is composed of the number of cells (Number) and cell information (Cell #l to Cell #n)! RU
  • the cell information (Cell #) has a VOB file name (VOBName), a start time (In) and end time (Out) in the VOB, and a subtitle table (SubtitleTable).
  • VOBName VOB file name
  • In start time
  • Out end time
  • SubtitleTable subtitle table
  • the subtitle table is a table having information on subtitles to be reproduced in synchronization with the VOB.
  • a VOB can have subtitles in multiple languages as well as audio, and a subtitle table (SubtitleTable) contains the number of languages (Number), followed by a table for each language (Language # 1 ⁇ : Language #k). It is composed of
  • the table (Language #) for each language contains the language information (Lang), the number of subtitle information displayed individually (Number), and the subtitle information displayed individually (subtitle information, Speech # 1). ⁇ Speech #j).
  • the subtitle information (Speech #) includes the file name (Name) of the corresponding image data, subtitle display start time (In) and subtitle display end time (Out), subtitle display position (Position), and power. It is composed.
  • the event list (EventList) is a table that defines events that occur in the playlist.
  • the event list is composed of the number of events (Number) followed by individual events (Event # 1 to Event #m).
  • Each event (Event #) consists of the event type (Type), event identifier (ID), event occurrence time (Time), and event duration (Duration)! RU
  • FIG. 17 is a diagram showing an event handler table (“XXX. PROG”) having event handlers (time events and user events for menu selection) of individual playlists.
  • XXX. PROG event handler table
  • the event handler table contains the number of defined event handler Z programs (Nu mberj and individual event programs (1 "08 & 111 # 1 to 1 3 ]: 08 & 111 # 11).
  • Each event handler Z program (Program #) has an event handler start definition ( ⁇ event—handler> tag) and an event handler identifier (ID) paired with the event identifier described above. After that, the program is described between parentheses “ ⁇ " and " ⁇ " following Function.Events (Event # l) stored in the event list (EventList) of the above "XXX. PL" ⁇ Event # m) is specified using the identifier (ID) of the event handler of "XXX. PROG”.
  • the entire BD disc information includes a title list (TitleList) and a global event event table (EventList).
  • the title list (TitleList) is composed of the number of titles (Number) in the disc, each piece of title information (Title #l to Title #n), and power.
  • Each title information (Title #) includes a playlist table (PLTable) included in the title and a chapter list (ChapterList) in the title.
  • the playlist table (PLTable) includes the number of playlists in the title (Number) and the playlist name (Name), that is, the playlist file name.
  • the chapter list includes the number of chapters included in the title (Number) and individual chapter information (01 & 6 # 1 to 01 & 6 # 11).
  • Each chapter information (Chapter #) has a table (CellTable) of the cell containing the chapter.
  • the cell table includes the number of cells (Number) and entry information (CellEntry # l to CellEntry # k) of each cell.
  • the cell entry information (CelEntry #) is composed of the name of the playlist including the cell, the cell number in the playlist, and the power.
  • the event list includes the number of global events (Number) and information on individual global events. It should be noted here that the first defined global event is called the first event (FirstEvent), and is called first when a BD disc is inserted into the player.
  • the event information for a Gronole event has only an event type (Type) and an event identifier (ID).
  • FIG. 19 is a diagram showing a global event handler program table (“BD. PROG”).
  • BD. PROG global event handler program table
  • the event generation mechanism will be described with reference to FIGS.
  • FIG. 20 is a diagram showing an example of a time event.
  • the time event is defined in the event list (EventList) of the playlist information ("XXX. PL"). If the event is defined as a time event, that is, the event type (Type) key is 'TimeEvent', the time event with the identifier "Exl” at the event generation time ("tl")
  • the program processor searches for an event handler or event with the event identifier “Exl” and executes the target event handler.For example, in this embodiment, events such as drawing two button images are performed. .
  • FIG. 21 is a diagram showing an example of a user event for menu operation.
  • the user event for performing the menu operation is also defined in the event list (EventList) of the playlist information ("XXX. PL"). If an event is defined as a user event, that is, event type (Type) power ⁇ 'UserEvent ", the user event becomes ready at the event generation time (" tl "). At this time, the event itself has not yet been generated. The event is in the ready state for the duration indicated by the duration information (Duration).
  • a UOP event is first generated by the UOP manager and programmed. Output to the processor.
  • the program processor outputs a UOP event to the scenario processor.
  • the scenario processor checks whether there is a valid user event at the time the UOP event is received. If there is a valid user event, it generates a user event and outputs it to the program processor.
  • the program processor searches for an event handler with the event identifier “Evl” and executes the target event handler. For example, in the present embodiment, playback of playlist # 2 is started.
  • the generated user event does not include information specifying which remote control key is pressed by the user.
  • Information on the selected remote control key is transmitted to the program processor by a UOP event, and is recorded and held in the register SPRM (8) of the virtual player. By examining the value of this register, it is possible to branch the event handler program.
  • FIG. 22 is a diagram showing an example of a global event.
  • EventList The event list (EventList) of “).
  • Event type defined as a global event (Type) When the force is“ GlobalEvent ”, an event is generated only when the user operates the remote control key.
  • a UOP event is first generated by the UOP manager and output to the program processor.
  • the program processor outputs a UOP event to the scenario processor, and the scenario processor generates a global event corresponding to the UOP event and sends it to the program processor.
  • the program processor searches for an event handler with the event identifier “menu” and executes the target event handler. For example, in the present embodiment, playback of playlist # 3 is started.
  • the program processor is a processing module having a virtual player machine inside.
  • the virtual player machine has a function corresponding to BD and does not depend on the implementation of the BD player. In other words, the virtual player machine is guaranteed to be able to realize the same function in any BD player.
  • the virtual player machine has a programming function and a player variable (register).
  • the programming function the following two functions are defined as BD-specific functions based on Java (registered trademark) Script.
  • Link function Stops the current playback and starts playback from the specified playlist, cell, or time
  • PNG drawing function draws specified PNG data on the image plane Draw (File, X, Y)
  • Image plane clear function Clear specified area of image plane
  • SPRM system parameter
  • GPRM general parameter
  • FIG. 24 shows a list of system parameters (SPRM).
  • SPRM (8) Selection key information
  • SPRM (14) Player settings (video)
  • the virtual player programming function ⁇ and ava (registered trademark) Script-based force programming function is defined in the UNIX (registered trademark) OS and the like B— It may be defined by Shell or Perl Script. In other words, the programming function is not limited to being defined by Java Script.
  • FIG. 25 and FIG. 26 are diagrams showing examples of programs in event handlers.
  • FIG. 25 is a diagram showing an example of a menu program having two selection buttons.
  • Button 1 is formed by drawing a PNG image “lblack. Png” in an area starting from the coordinates (10, 200) (left end).
  • Button 2 is formed by drawing the PNG image “2white.png” in the area starting at the coordinates (330, 200) (left edge).
  • FIG. 26 is a diagram illustrating an example of an event handler for a user event for menu selection.
  • FIG. 27 is a diagram showing a basic processing flow until AV playback.
  • the scenario processor generates the first event according to the first event information in the “BD. INFO” file (S 104).
  • the generated first event is received by the program processor, and the program processor executes an event handler corresponding to the event (S105).
  • the playlist information to be played first is recorded in the event handler corresponding to the first event. If the play list is not instructed to be played, the player continues to wait for a user event without playing anything (S201).
  • the UOP manager causes the program manager to start executing a UOP event (S202).
  • the program manager determines whether or not the UOP event is a menu key (S203). If the UOP event is a menu key, it outputs a UOP event to the scenario processor, and the scenario processor generates a user event. (S204). The program processor executes an event handler corresponding to the generated user event (S205).
  • FIG. 28 is a diagram showing a processing flow up to the start of regeneration of the PL regeneration start force VOB.
  • playback of a playlist is started by the first event handler or the global event handler (S301).
  • the scenario processor reads and analyzes the playlist information “XXX. PL” as information necessary for playback of the playlist to be played back (S302), and loads the program information “XXX. PROG” corresponding to the playlist. (S303). Subsequently, the scenario processor instructs cell reproduction based on the cell information registered in the playlist (S304). Cell playback means that a request is sent from the scenario processor to the presentation controller, and the presentation controller starts playback of AV (S305).
  • the presentation controller When AV playback is started (S401), the presentation controller reads and analyzes the VOB information file (XXX. VOBI) corresponding to the cell to be played back (S402;). The presentation controller uses VOBU to start playback using the time map. The address is specified, the read address is instructed to the drive controller, and the drive controller reads the target VOB data (S403). As a result, the VOB data is sent to the decoder, and its reproduction is started (S404).
  • VOB information file XXXX. VOBI
  • VOB playback continues until the playback section of the VOB ends (S405), and when it ends, the process proceeds to playback of the next cell (S304). If there is no next cell, playback stops (S4 06).
  • FIG. 29 is a diagram showing an event processing flow after the start of AV playback.
  • the BD player is an event-driven player.
  • event processing for the time event system, user event system, and subtitle display system starts, and the event processing is executed in parallel.
  • the S500 processing is time event processing.
  • the scenario processor After playback of the playlist is started (S501), the scenario processor confirms whether or not the time event occurrence time has passed through a step (S502) for checking whether or not playback of the playlist has ended. Is confirmed (S503). When the time event occurrence time is reached, the scenario processor generates a time event (S504), and the program processor receives the time event and executes the event handler (S505).
  • step S503 If the time event occurrence time is not reached in step S503, and after the event handler is executed in step S504, the process returns to step S502, and the above-described processing is repeated. In addition, when it is confirmed in step S502 that the reproduction of the playlist has been completed, the time-event processing is forcibly terminated.
  • the processing of the S600 system is a user event system processing.
  • the playlist playback completion confirmation step (S602) is followed by the UOP reception confirmation step (S603). If there is a UOP reception, the UOP manager generates a UOP event (S604), and the program processor that receives the UOP event checks whether the UOP event is a menu call (S605). If the UOP event is a menu call, the program processor causes the scenario processor to generate an event (S607), and the program processor executes the event handler (S608). [0187] If it is determined in step S605 that the UOP event is not a menu call, the UOP event indicates that the event is a cursor key or "OK" key event.
  • the scenario processor determines whether the current time is within the user event valid period or not (S606). If the current time is within the user event valid period, the scenario processor generates a user event (S607), and the program processor executes the target event handler (S608).
  • step S603! / ⁇ If UOP is accepted at step S603! / ⁇ , if the current time is not within the user event valid period at step S606, and after executing the event handler at step S608, return to step S602 The above process is repeated. Further, when it is confirmed in step S602 that the reproduction of the playlist has been completed, the user event processing is forcibly terminated.
  • FIG. 30 is a diagram showing a flow of subtitle processing.
  • step S703 If the current time is the subtitle drawing start time, the scenario processor instructs the presentation controller to draw subtitles, and the presentation controller instructs the image processor to draw subtitles (S704). If it is determined in step S703 that the current time is not the subtitle drawing start time, it is checked whether the current time is the subtitle display end time (S705). If it is determined that the current time is the display end time of the caption, the presentation controller instructs the image processor to erase the caption, and the image processor is drawn! The caption is erased from the image plane (S706).
  • Subtitle rendering step After completion of S704, after subtitle deletion step S706, and when subtitle display end time confirmation step S705 determines that the current time is not the subtitle display end time In step S702, the process described above is repeated. Also, when it is confirmed in step S702 that the playback of the playlist has been completed, the processing related to subtitle display is forcibly terminated.
  • Embodiment 1 relates to a stream structure in BD audio data, and its contents are basically based on the above-described related embodiments. Therefore, in the first embodiment, description will be made centering on a portion in which the related embodiment force is also expanded and a portion different from the related embodiment.
  • Fig. 31 is a diagram showing the structure of one access unit (decoding and playback encoding unit for video Z audio information) that does not have a hierarchical structure.
  • one access unit has a header (Base Header) as shown in FIG. ) And a payload section (Base Payload).
  • the Base Header includes Base SYNC, which is the synchronization signal of the Base frame, AU-SIZE indicating the data size of this access unit, EXT indicating whether this access unit is configured only from the Base frame, if this EXT—ID that indicates what kind of extended information is given when the access unit consists only of the Base frame, and reserve for future use Areas are provided.
  • Base SYNC is the synchronization signal of the Base frame
  • AU-SIZE indicating the data size of this access unit
  • EXT indicating whether this access unit is configured only from the Base frame
  • this EXT—ID indicates what kind of extended information is given when the access unit consists only of the Base frame
  • reserve for future use Areas are provided.
  • the access unit of Fig. 31 does not introduce a hierarchical structure, and one access unit as a whole is encoded only by one encoding method. That means that one access unit can be decoded with only one type of decoding method.
  • Levell—EXT fmme which encodes higher-quality video information and higher-quality audio information, for example, is added to the Base frame using a different encoding method from the Base frame. It is a figure which shows the structure of 1 access unit.
  • EXT in the Base Header indicates that this access unit is not configured only from the Base frame, and EXT—ID is the code that follows the other extension hierarchy data, Levell follows Base frame. Show me that! /
  • AU—SIZE represents the size of the access unit. By using AU-SIZE, one access unit can be used to properly decode this access unit while ignoring Levell-EXT frame. Can be designed. [0200] In this way, even if a new extension (Levell-EXT) is added to the original code unit (Base), the access unit shown in Fig. 32 can be used by ignoring the Levell-EXT frame. The composed stream can be decoded. At the same time, new compression code algorithms can be introduced one after another.
  • Levell-EXT Levell-EXT
  • FIG. 33 shows an access unit that has been expanded to Level 2—EXT.
  • Level2-EXT data is, for example, data that is not included in data up to Level-EXT to obtain audio with a sampling rate higher than the sampling rate of data up to Level-EXT.
  • EXT—ID is set to indicate that Levell and Level2 exist.
  • FIG. 34 shows the data of the stream reading Z supply unit that outputs the data encoded in such a hierarchical structure (for example, the Level 2 stream) to a decoder corresponding to various hierarchies. It is a figure for demonstrating different operation
  • the stream reading Z supply unit When outputting data to the Base decoder, the stream reading Z supply unit removes the Level1-EXT and Level2-EXT frames from the Level2 stream and outputs only the Base frame. At that time, the stream reading Z supply unit is AU-SIZE, which is the size information of the access unit of the Base Header, EXT indicating whether or not it is configured only from the Base frame, and EXT-ID indicating the type of the extension layer data Rewrite each value and output data.
  • AU-SIZE is the size information of the access unit of the Base Header
  • EXT indicating whether or not it is configured only from the Base frame
  • EXT-ID indicating the type of the extension layer data Rewrite each value and output data.
  • the stream reading Z supply unit removes the Level2—EXT frame from the Level 2 stream and rewrites the AU-SIZE and EXT—ID values and outputs the data. To do.
  • the stream read Z supply unit outputs the Level 2 stream as it is.
  • Fig. 35 shows that Level2 and Levell-EXT devices are widely used when Level2 — A diagram showing the structure of an ideal access unit for introducing EXT.
  • the information about the data up to Levell-EXT is described in the Base Header (and Levell Header), as in the case where the access unit is composed of Base and Levell-EXT. ing.
  • information related to the extended layer data after Level2—EXT is described in an area that is not detected by the BaseZLevell—EXT decoder, such as the reserved area.
  • EXT-ID has a value indicating that Level2 does not exist !, but it is used up to the Levell frame! / EXT-ID2 is prepared in a powerful reserve area It is described that Level 2 extended hierarchy data exists! Speak.
  • Level 2 access units shown in Figure 35 for example, access units including Base, Level 1—EXT, and Level 2—EXT
  • Level 1 access units Base only, or Base and Level 1—EXT
  • the stream reading Z supply unit only extracts the Base part and the Level-EXT part from the Level 2 stream. That is, the stream reading Z supply unit can output a stream composed of Levell access units to a Levell decoder without rewriting data.
  • the number of allocated bits of size information such as AU-SIZE is small.
  • Leve 12 When Leve 12 is installed, the data size of one access unit is too large, and the size information is expressed in AU-SIZE. It is also effective when you cannot do it.
  • Figure 36 shows the case where devices that support Level 1 exist and Level 2 is newly adopted. It is a figure which shows the data structure of a data stream.
  • Figure 36 shows that one access unit consists of two partial forces, Base ZLevell—EXT that can be decoded by existing players and decoders, and Level2—EXT that cannot be decoded by existing players and decoders. Clearly show that.
  • the PES packet is composed of a PES header and a PES payload for storing actual data, and the PES header has various fields as shown in FIG.
  • the stream-id indicates the type of elementary stream stored in the payload part of the PES packet. Generally, different stream-ids indicate different elementary streams.
  • PES-packet-length indicates the data size of the PES packet.
  • PES—priority is information for identifying the priority level of the PES packet.
  • PTS—DTS—flags is information indicating whether or not a PTS that is the reproduction start time information of the PES payload and a DTS that is the decoding start time information have a certain power. If the values of PTS and DTS are the same, DTS is omitted.
  • PES-extension-flag and PES-extension-flag-2 indicate whether or not there is an extension data area in the payload part of the PES packet.
  • Elementary stream identification auxiliary information to supplement stream-id that can exist only when stream-1 id-1 extension, stream 1 id OxFD (extended 1 stream- id).
  • the Base frame portion of the access unit (Base + Level 1—EXT portion in FIG. 36) and the portion not including the Base frame (Level 2—EXT portion in FIG. 36) are identification information of the TS packet described later.
  • a packet identifier (PID) may be the same and stream_ids may be different, or PTS—DTS—flags may be different, and stream—id—extensions may be used. Also good.
  • Base frame is defined as a part that can be completed with 2032 noise or 2013-byte compatible with DVD—Video, and the other part of one access mute is a part that does not include the Base frame. Don't include part and Base frame! /, Part can be separated! /.
  • stream_id OxFD (private stream) for both PES buckets including Base frames and PES packets not including Base frames. Therefore, the stream-id-extension value (for example, 0x70) of the PES packet including the Base frame and the stream_id_extension value (for example, 0x71) of the PES packet not including the Base frame are set to different values. Thereby, the player and the external output unit can extract only data including the Base frame. In this case, the set stm m-id- extension value is recorded in the private stream area of logical addresses 0x40 to 0x7F.
  • the first PES packet corresponds to an existing device (corresponding to an existing AV receiver having a digital interface protocol and an input terminal corresponding to it) Levell Up to encoding units can be stored.
  • the second PES packet corresponds to a non-existing device (a protocol on the digital interface is specified, or does not have an input terminal corresponding to it, does not exist !, corresponds to an AV receiver) Yes) It is possible to store the sign unit after Level2.
  • the first PES packet and the second and subsequent PES packets can be distinguished by judging the value of stream—id, stream—id—extension, or PTS—DTS—flags. It is.
  • the PES payload can extract its size information power very easily. Therefore, if the encoding unit up to Levell-EXT is highly compatible with existing AV receivers and digital interfaces and stored together in the first PES packet, the PES payload of the first PES packet Can be easily extracted by analyzing the PES header.
  • the BD player 1000 is composed of a plurality of access units.
  • the stream is input to the versa 100 from the BD disc 1001 on which the video is recorded.
  • Versa 1002 distinguishes between the first PES packet including the Base frame portion and the second and subsequent PES packets including only the Level2-EXT portion.
  • the versa 1002 outputs the first PES packet that is the Base frame portion to the decoder 1003 in the BD player 1000 that can process only the Base frame portion.
  • the decoder 1003 decodes the first PES packet and outputs the decoded data to the television 1005 via the stereo / analog interface 1004.
  • the television 1 005 reproduces data from the BD player 1000 and outputs an image and sound based on the data.
  • the Versa 1002 includes the Base frame portion in the Base decoder 1008 and the BaseZLevell-EXT decoder 1 009 in the A / V receiver 1007 outside the BD player 1000 via the SPDIF1006.
  • Output PES packets Base decoder 10 08 and Base / Levell—EXT decoder 1009 are decoders that can process the Base frame part and additionally the Levell—EXT frame part. The first PES from BD player 1000 Process the packet.
  • the Versa 1002 transmits the first PES packet including the Base frame part and the second and subsequent PES packets including only the Level2—EXT part via the Advanced Digital Interface interface to the AZV receiver.
  • the Level2-EXT decoder 1012 is a decoder that can process all frames from Base to Level2-EXT frames, and processes both PES packets from the BD player 1000.
  • the access unit is transmitted to the existing decoder 1003, the Base decoder 1008, and the BaseZLeveil-EXT decoder 1009 for processing.
  • the access unit outputs to the Level 2—EXT decoder 1012 that can process the first PES packet including the Base frame part and the second and subsequent PES packets including only the Level 2—EXT part. It is processed.
  • BD player 1000 in FIG. 37 is an example of the data reproducing device of the present invention.
  • Par The server 1002 is an example of a data sorting device.
  • Decoding is guaranteed in all decoders, and after the PES packet in which the Base frame is stored, an additional function can be given to the PES packet.
  • an extended frame Levell-EXT or Level2- It is important that the PES packet containing EXT etc. continues.
  • the order of data in one access unit is Base, Levell-EXT, Level2—EXT, Level3—EXT, Level4—EXT,. It is important that no reordering occurs when extracting the key units.
  • DTS audio coding system developed by Digital Theater Systems
  • the payload data size of the PES packet including the first Base is SPDIF (Sony / The Philips Digital Interconnect Format and consumer products are defined in the IEC60958-3 standard), and should be 2032 bytes or less. This means that in the case of the DTS-typel method, in which 512 samples of audio data sampled at 48KHz are stored in one frame, up to 1524Kbps in terms of bit rate is stored in the first PES packet. Become.
  • DVD AV receiver compatible with DTS that complies with the data output from the video player
  • the payload data size of the PES packet including the first Base should be 2013 bytes or less.
  • the data of one access unit is divided and managed while maintaining compatibility with the existing player Z decoder and the new player / decoder.
  • data of one access unit is divided and managed according to the digital interface regulations.
  • Fig. 38 is a diagram illustrating a structure of an access unit having a hierarchical structure multiplexed with MPEG2-TS.
  • MPEG2-TS is a digital stream composed of one 188-byte TS packet.
  • Part of the Program Map Table (PMT) that stores MPEG2-TS program configuration information has a structure as shown in FIG.
  • the PES packet storing the Base + Level1-EXT encoding unit and the PES packet storing the Level2-EXT encoding unit are stored in separate TS packets.
  • the MPEG2-TS stores a PMT packet indicating a program stored in the MPEG2-TS.
  • PMT is an elementary — stream— indicating which PID TS packet carries various information such as video information and audio information belonging to a given program, and a stream indicating the encoding type of the elementary stream. — Stores the type and one or more des criptors describing additional information about the elementary stream.
  • the encoded data is video information, it may be possible to describe resolution information and frame frequency in addition to coding-level and Level2-existence in the descriptor.
  • the descriptor can describe the relationship between levels and audio attributes (Q value, frequency, channel, and speaker layout).
  • the decoder can appropriately correct each channel even if the layout of the stream to be processed differs from the actual layout.
  • Figure 40 (A) shows the 5.1 channel speaker layout
  • Figure 40 (B) shows the 7.1 channel speaker layout. A single layout is shown.
  • the descriptor can describe the relationship between Level and channel.
  • the decoder corresponding to each channel can appropriately identify whether or not the sound can be output. For example, if the channel structure is 7. lch (2 + 3.1 + 2 hierarchical structure), 2ch decoder can output 2 channel sound, 5. lch de coder is 5.1 channel (2 + 3. 1 channel) sound can be output. However, if the channel structure is 7.lch without such a hierarchical structure, the 2ch decoder and 5.lch decoder may not be able to output sound due to the amount of processing.
  • DTS data is divided into DTS (equivalent to Base) and DTS + (equivalent to Levell—EXT) data and DTS ++ (equivalent to Level2—EXT) data.
  • Both DTS + and DTS + + are powers that include extended hierarchical data. Therefore, the descriptor may contain the information to identify whether the target stream is DTS / DTS + or DTS ++ (equivalent to Level2—existence in FIG. 38).
  • Level2 existence is used as information indicating whether or not the target stream includes only a portion that can be output to SPDIF in the same format as DVD-Video (DTS typel format). Also good.
  • Level2-existence and coding-level information may be described in a database file (such as in the Attribute of the VOBI file in Fig. 13). This information, of course, indicates that the extraction process is different when outputting digital data, but it can also be used for video and audio attribute display Z selection on the BD menu screen etc. . For example, a player that does not support Level 2 can determine that the stream is a stream of Level 2 to be decoded, and provide the user with Level 2 audio that cannot be selected in advance.
  • FIG. 42 is a diagram showing an MPEG2-TS file format when recording on an optical disc such as a BD-ROM.
  • a 4-byte Arrival Time Stamp (ATS, input start time information to the decoder of the TS packet) is added to each TS packet to form one Timed TS packet, and 32 Timed TS packets are grouped together Is recorded in 3 sectors (6KB).
  • FIG. 43 is a diagram for explaining the details of DTS defined by DVD-Video.
  • DVD—Video the maximum size of one access unit is defined as 2013 bytes, but it is specified whether it belongs to DTSZDTS + ZDTS ++! /.
  • one access unit that represents audio information for 512 samples at 48KHz may consist of only the core, and may consist of the core and extension!
  • a DTS burst payload that stores only the audio data of the PES payload is formed, and a preamble group (Pa, Pb, Pc, Pd) of 8 bytes in total of 2 bytes and stuffing data are added to it.
  • a preamble group Pa, Pb, Pc, Pd
  • SPDIF (IEC60958-3) is transmitted with a cycle of 192 frames as one block.
  • One frame consists of two subframes, which are 4 bytes of data carrying 2 bytes of data within 5 frames of IEC61937.
  • the frames that make up one access unit must be complete with less than 2013 bytes. For example, if the size of the Base frame and Levell-EXT frame is 2014 bytes, reencode so that the whole fits in 2013 bytes, or configure a PES packet with only the Base frame, and Levell-EXT Multiplexing order It is necessary to store the order in the next PES packet.
  • FIG. 44 is a flowchart showing processing of the demultiplexer 310 (FIG. 7) and the stream reading Z supply unit (FIG. 34).
  • S801 is a digital output start step for extracting a part of the access unit shown in FIG. 36 and outputting it to the outside in order to support SPDIF.
  • S802 is a reproduction end determination step. If YES, the data output ends. If NO, the process proceeds to PES packet processing S803.
  • S805 is a step performed when it is determined in S804 that the PES packet is a non-Base frame part. In S805, the PES packet is discarded.
  • S806 is a step performed when it is determined in S804 that the PES packet is a Base frame part.
  • the payload (Base + Level-EXT) of the PES packet is extracted, and the frame data is output to the decoder or the existing digital IZF as described with reference to FIGS.
  • BaseZLevell—EXT (hereinafter simply referred to as “Base”) that can be decoded by an existing player or decoder
  • Level2—EXT (hereinafter simply “Level2”) that cannot be decoded by an existing player or decoder. And how to multiplex them into one access unit
  • T-STD TS system target decode model
  • input time management apparatus 2000 includes a read buffer (RB), a de-packetizer, an ATS counter, and a 27 MHz clock.
  • RB temporarily stores the "xxxx. Vob" file.
  • the de-packetizer outputs only each TS packet to the T-STD3000 according to the ATS time.
  • 27MHz Clock outputs clock at 27MHz.
  • the decoder model 3000 includes a demultiplexer, TB, MB, and EB, which are buffers related to images, a decoder Dv, and TBal and Bal, which are buffers related to the base of sound data, It has decoder Dal, TBa2 and Ba2 which are buffers related to “Base + Level2” of sound data, decoder Da2, TBsys and Bsys which are buffers related to system data, and decoder Dsys.
  • the image data is processed in the order of TB, MB, EB, and decoder Dv.
  • the base of the sound data is processed in the order of TBal, Bal, and decoder Dal.
  • the sound data “Base + Level 2” is processed in the order of TBa2, Ba2, and decoder Da2.
  • System data is processed in the order of TBsys, Bsys, and decoder Dsys.
  • Base decoder line (TBal, Bal, and decoder Dal) nor the “: Base + Level 2” decoder line (TBa2, Ba2, and decoder Da2) can be used to prevent the buffer from failing.
  • Level 2 must be multiplexed as a single stream with the same PID.
  • Base # n + l force of (n + 1) th access unit (Access Unit # n + l) Time ATS b # n + l force bit rate (R)
  • Base (Base #n) of the nth access unit (Access Unit #n) is input and accumulated from time ATS b # n at bit rate (R) At the same time Rbal
  • the decoder line that supports only Base #n can only decode a stream that consists of Base and Levell, where one access unit is stored in one PES packet. Therefore, high bit rate streams including Level 2 cannot be processed. In order not to break down TBal that can only support low bit rates in this way, it is necessary to delay the input time of Base # n + l to TBa 1. In other words, Equation 3 below must be satisfied.
  • Equation 3 shows that the amount of bytes (188 X (1—RbalZR)) that increases when one TS packet is input is added to the amount of TBal data stored at time ATS—b # n + 1.
  • ATS Means that it will not exceed the size of After ATS—b # n + l that satisfies Equation 3, ATS must be set to multiplex Base # n + 1 and Base # n + 1 must be multiplexed to the stream.
  • bit rate Rbal the unit of bit rate Rbal, R is bits / second, and 27000000 is ATS.
  • the Nbas and Next values can also be used to calculate information such as the maximum bit rate of each Codec.
  • DTS ++ assuming that the sampling frequency is S48KHz, 512 samples ZAcc ess Unit (DTS—typel), Core (Base) is a fixed rate of lMbps, and XLL (Level2) is 24Mbps alone.
  • XLL data length 24Mbps
  • X 512Z48K 320
  • the buffer fails even when the data underflows as well as when the data overflows.
  • Base and Level2 must be multiplexed so that the data does not underflow. Therefore, as in the case of preventing data overflow, the data size is based on the size of the buffer, the size of the data to be input to the buffer, the speed of the data to be input to the buffer, and the speed of the data to be output from the buffer. Multiplex Base and Level2 so that there is no underflow!
  • each decoder model takes into account the size of the buffer, the size of the data to be input to the buffer, the speed of the data to be input to the buffer, and the speed of the data to be output from the buffer. Multiplex Base and Level 2 so that does not fail.
  • the information recording medium of the present invention is useful as an optical disc or the like on which video and audio data are recorded.
  • the data sorting device of the present invention is compatible with an existing decoder or an existing digital IZF from the data recorded on the information recording medium of the present invention such as an optical disk. This is useful as a device for extracting basic compressed data.
  • the data reproducing apparatus of the present invention is useful as an apparatus for extracting and reproducing the basic compressed data of the information recording medium of the present invention such as an optical disk.
  • the data reproducing apparatus of the present invention reproduces not only data from the information recording medium of the present invention such as an optical disc but also audio data supplied through broadcasting or a network, or audio data on a recording medium such as a hard disk or a semiconductor memory. It is also useful for a playback device that performs the above.

Abstract

 本発明は、基本データのみを復号するデコーダが、基本データと次世代に対応する拡張データとを含むアクセスユニットを処理することができるように、基本データと拡張データとを含むアクセスユニットが記録される情報記録媒体を提供する。  情報記録媒体は、複数のアクセスユニットを有する、画像及び音の少なくとも一方を含むストリームが記録される情報記録媒体であって、1個の前記アクセスユニットは、基本データを含む第1のパケットと、前記基本データと関連する拡張データを含む第2のパケットとを有し、前記基本データは、前記拡張データを必要とすることなく完全な状態に復号することができるデータであり、前記拡張データは、前記基本データから生成されるデータの質を向上させるためのデータであり、前記第1のパケットのサイズは、所定のサイズ以下である。                                                                                 

Description

明 細 書
情報記録媒体、データ分別装置、及びデータ再生装置
技術分野
[0001] 本発明は、映像や音声のデータが記録される情報記録媒体、データを分別するデ ータ分別装置、及びデータを再生するデータ再生装置等に関する。
背景技術
[0002] 従来の DVD— Videoディスク(以下、「DVD」という)について説明する。
[0003] 図 1は、 DVDの構造を示す図である。図 1の下段に示すように、 DVDには、リード' イン部からリード'アウト部までの間に論理アドレス空間が設けられている。論理アドレ ス空間には、先頭にファイルシステムのボリューム情報が記録され、続いて映像や音 声などのアプリケーションデータが記録される。
[0004] DVDのファイルシステムは、 ISO9660や Universal Disc Format (UDF)のファイル システムである。ファイルシステムは、ディスク上のデータをディレクトリまたはファイル と呼ばれる単位で表現するための仕組みである。パーソナルコンピュータ(PC)では 、 FATまたは NTFSと呼ばれるファイルシステムが用いられている。そのファイルシス テムにより、ディレクトリやファイルという構造でノヽードディスクに記録されたデータは、 コンピュータにより処理される。これにより、ユーザピリティが高くなつている。
[0005] DVDでは、 UDFおよび ISO9660の両方のファイルシステムが使用されている。 U DFおよび ISO9660の両方を合わせて「UDFブリッジ」と呼ぶことがある。 DVDに記 録されているデータは、 UDFおよび ISO9660のどちらのファイルシステムドライバに よっても読み出すことができる。勿論、書き換え可能型の DVDである DVD— RAM ZRZRWでは、これらのファイルシステムを介して、物理的にデータの読み、書き、 および削除が可能である。
[0006] DVDに記録されたデータは、ファイルシステムを介して、図 1左上に示すようなディ レクトリまたはファイルとして存在する。ルートディレクトリ(図 1における「ROOT」)の 直下に「VIDEO— TS」と呼ばれるディレクトリが置かれ、ここに DVDのアプリケーショ ンデータが記録されている。アプリケーションデータは、複数のファイルに分割されて 記録されている。主なファイルとして以下のものがある。
VIDEO— TS. IFO ディスク再生制御情報ファイル
VTS— 01— 0. IFO ビデオタイトルセット # 1再生制御情報ファイル VTS 01 0. VOB ビデオタイトルセット # 1ストリームファイル
[0008] 2つの拡張子が規定されて!、る。「IFO」は、それが付与されて!、るファイルが再生 制御情報が記録されたファイルであることを示す拡張子である。 νθΒ]は、それが付 与されているファイルが AVデータである MPEGストリームが記録されたファイルであ ることを示す拡張子である。再生制御情報は、 DVDについて採用されたインタラクテ イビティ (ユーザの操作に応じて再生状態を動的に変化させる技術)を実現するため の情報や、メタデータのようなタイトルや AVストリームに付属する情報などを含む情 報である。 DVDでは一般的に、再生制御情報はナビゲーシヨン情報と呼ばれる。
[0009] 再生制御情報ファイルとして、ディスク全体を管理する「VIDEO— TS . IFO」と、個 々のビデオタイトルセットの再生制御情報である「VTS— 01— 0. IFOJとが存在する 。ファイル名のボディにある「01」はビデオタイトルセットの番号を示している。例えば 、ビデオタイトルセットの番号が # 2であれば、そのビデオタイトルセットのファイル名 は「VTS— 02— 0. IFO」である。なお DVDでは、複数のタイトル、言い換えれば内 容が異なる複数の映画や、内容が同一でバージョンが異なる複数の映画を 1枚のデ イスクに記録することが可能である。
[0010] 図 1の右上部は、 DVDのアプリケーション層での DVDナビゲーシヨン空間、即ち前 述した再生制御情報が展開された論理構造空間を示している。「VIDEO— TS. IF 0」内の情報は、 Video Manager Information (VMGI)として、 DVDナビゲーシヨン空 間に展開される。「VTS— 01— 0. IFO」等のビデオタイトルセット毎に存在する再生 制御情報は、 Video Title Set Information (VTSI)として DVDナビゲーシヨン空間に 展開される。
[0011] VTSIには、 Program Chain (PGC)と呼ばれる再生シーケンスの情報である Progra m Chain Information (PGCI)が記述されている。 PGCIは、 Cellの集合と、コマンドと 呼ばれる一種のプログラミング情報とによって構成されている。 Cellは、 Video Object (VOB, MPEGストリーム)の一部区間の集合、または全部区間である。 Cellの再生 は、 VOBの、 Cellによって指定された区間を再生することを意味している。
[0012] コマンドは、 DVDの仮想マシンによって処理されるものであり、ブラウザ上で実行さ れる Java (登録商標)スクリプトなどに近いものである。 Java (登録商標)スクリプトは、 論理演算の他に、ウィンドウやブラウザの制御 (例えば、新しいブラウザのウィンドを開 く)を行う。それに対して、 DVDのコマンドは、論理演算の他には、 AVタイトルの再生 制御(例えば、再生するチヤプタの指定など)のみを行う。このように、 DVDのコマン ドは、 Java (登録商標)スクリプトと異なって!/、る。
[0013] Cellは、ディスク上に記録されて 、る VOBの開始アドレスおよび終了アドレス(ディ スク上での論理記録アドレス)の情報を有している。プレーヤは、 Cellに記述された V OBの開始アドレスおよび終了アドレスの情報を使って、データを読み出して再生す る。
[0014] 図 2は、 AVストリーム中に埋め込まれているナビゲーシヨン情報を説明するための 図である。 DVDにおいて特徴的なインタラクテイビティは、前述した「VIDEO— TS. IFO」や「VTS— 01— 0. IFO」などに記録されて!、るナビゲーシヨン情報だけによつ て実現されるのではな 、。インタラクテイビティを実現するための幾つかの重要な情 報は、ナビゲーシヨン パック(「ナビパック」または「NV— PCK」と!、う)と呼ばれる専 用キャリアが用いられて、 VOB内に映像データおよび音声データと一緒に多重化さ れている。
[0015] ここでは簡単なインタラクテイビティの例としてメニューを説明する。メニュー画面上 には幾つかのボタンが現れる。夫々のボタンには、そのボタンが選択され押下された ときの処理の内容が定義されている。メニュー上では一つのボタンが選択される。ノヽ イライトは、選択されているボタン上にオーバーレイされる半透明色の画像であって、 それがオーバーレイされて 、るボタンが選択されて 、ることをユーザに示す。ユーザ は、リモコンの上下左右キーを使って、選択されているボタンをそのボタンの上下左 右の何れかのボタンに移動させることができる。ユーザは、リモコンの上下左右キーを 使って、実行させたい処理に対応するボタンまでノヽイライトを移動させて、決定キーを 押す。これによつて、選択されたボタンに対応するコマンドのプログラムが実行される 。例えば、タイトルやチヤプタの再生がコマンドによって実行される(例えば、特許文 献 1参照)。
[0016] 図 2の左上部は、 NV—PCK内に格納される制御情報の概要を示している。
[0017] NV— PCK内には、ハイライトカラー情報や個々のボタン情報などが含まれている。
ノ、イライトカラー情報内には、カラーパレット情報が記述される。カラーパレット情報は オーバーレイするハイライトの半透明色を指定する。ボタン情報内には、個々のボタ ンの位置情報である矩形領域情報と、あるボタン力 他のボタンへの移動情報 (ユー ザによるリモコンの上下左右キーの選択に対応する移動先ボタンの指定)と、ボタン コマンド情報 (そのボタンが選択されたときに実行されるコマンド)とが記述されている
[0018] メニュー上のハイライトは、図 2の中央右上部に示すように、オーバーレイ画像として 作られる。オーバーレイ画像は、ボタン情報内の矩形領域情報によって特定されるボ タンの上にカラーパレット情報によって特定される色をつけた画像である。オーバー レイ画像は、図 2の右部に示す背景画像と合成されて画面上に表示される。
[0019] 上述したようにして、 DVDではメニューが表示される。ナビゲーシヨンデータの一部 を NV—PCKを使ってストリーム中に埋め込んでいる理由は、ストリームと同期して動 的にメニュー情報を更新することを可能とするためである。例えば、映画が再生され ている途中の 5分〜 10分の間だけメニューが表示されることを可能とするためである 。二つ目の理由は、ストリームとメニュー情報とを同期させることが困難なアプリケーシ ヨンデータであっても、ストリームとメニュー情報とを同期させて表示することを可能と するためである。もう一つの大きな理由は、ユーザの操作性を向上させるためである 。例えば、 NV—PCKに特殊再生を支援するための情報を格納することにより、 DV Dに記録されている AVデータを早送りや巻き戻しなどの非通常再生する際にも、円 滑にその AVデータをデコードし再生することが可能となる。
[0020] 図 3は、 DVDのストリームである VOBのイメージを示す図である。図 3 (A)に示す映 像、音声、および字幕などのデータは、図 3 (B)に示すように、 MPEGシステム規格( ISO/IEC13818- 1)に基づいてパケットィ匕およびパック化され、図 3 (C)に示すよ うに、夫々は多重化されて、 1本の MPEGプログラムストリームが生成される。インタラ クテイビティを実現するためのボタンコマンドを含んだ NV—PCKも、パケットおよび ノ ックと一緒に多重化される。
[0021] MPEGシステムにおけるデータの多重化の特徴は、多重化される個々のデータは デコード順に基づくビット列になっている力 多重化されるデータ相互については、 即ち、映像データ、音声データ、および字幕データ相互については、必ずしも再生 順、言い換えればデコード順に配列されているわけではない。これは、 MPEGシステ ムストリームのデコーダモデル(一般に、「System Target Decode または「STD」と呼 ばれる(図 3 (D)参照))力 多重化されて!/、るデータを解 、た後の個々のエレメンタリ 一ストリームに対応するデコーダバッファを持ち、デコードタイミングまで一時的にデ ータを蓄積していることに由来している。 DVD— Videoで規定されるデコーダバッフ ァのサイズは、エレメンタリーストリーム毎に異なる。映像に対するバッファのサイズは 232KBであり、音声に対するバッファのサイズは 4KBであり、字幕に対するバッファ のサイズは 52KBである。
[0022] 即ち、映像データと並んで多重化されている字幕データは、必ずしも映像データと 同一タイミングでデコードまたは再生されるわけではない。
特許文献 1:特開平 9 - 282848号公報
発明の開示
発明が解決しょうとする課題
[0023] 従来力も DVDで採用されている音声コーデック規格として、「ドルビーディジタル( AC— 3)」と、「MPEGオーディオ」と、「: LPCM」と、「dts」との 4つの規格がある。「dt s」はプレーヤオプション機能であり、 DVDプレーヤには、 dtsデコーダを内蔵するも のと、内蔵しないものとがある。また、 DVDプレーヤには、 AVアンプへのディジタル データの出力機能として、 dts対応機能を有しているものと、有していないものとがあ る。
[0024] dtsディジタルデータ出力機能を有している DVDプレーヤは、 Sony/Philips Digital Interconnect Format (SPDIF、民生向けは IEC60958— 3規格で規定)と呼ばれる ディジタル IZF規格に準拠したデータを、その規格に準拠した AVアンプに出力する [0025] しかしながら、 SPDIFは、規格上 1. 5Mbpsの帯域までしか対応することができず、 「dts」の拡張コーデック規格である、 20Mbps近い帯域を必要とする「dts+ + (ロス レス圧縮)」に対応して 、な 、。したがって、次世代 HD DVD規格(BD規格)が「dt s+ +」に対応しても、 SPDIF規格に準拠した AVアンプに、 dts+ +ストリームを出力 することはできない。
[0026] 本発明は、上述した課題を考慮し、基本データのみを復号するデコーダが、基本 データと次世代に対応する拡張データとを含むアクセスユニットを処理することができ るように、基本データと拡張データとを含むアクセスユニットが記録される情報記録媒 体を提供することを目的とする。また、本発明は、本発明の情報記録媒体のアクセス ユニットを処理するデータ分別装置及びデータ再生装置を提供することを目的とする 課題を解決するための手段
[0027] 上記課題を解決し上記目的を達成するために、本発明の情報記録媒体は、複数の アクセスユニットを有する、画像及び音の少なくとも一方を含むストリームが記録され る情報記録媒体であって、 1個の前記アクセスユニットは、基本データを含む第 1の パケットと、前記基本データと関連する拡張データを含む第 2のパケットとを有し、前 記基本データは、前記拡張データを必要とすることなく完全な状態に復号することが できるデータであり、前記拡張データは、前記基本データから生成されるデータの質 を向上させるためのデータであり、前記第 1のパケットのサイズは、所定のサイズ以下 である。
[0028] 例えば、前記所定のサイズは、前記基本データのみを復号するデコーダをサポート するインターフェースが許可するビットレートの上限に対応する値である。
[0029] 例えば、前記第 1のパケットの符号化方式は、前記第 2のパケットの符号化方式と 異なる。
[0030] 例えば、各前記アクセスユニットは一定時間のデータである。
[0031] 例えば、前記拡張データが前記アクセスユニットに含まれていることを示す情報は、 前記アクセスユニットの、前記基本データのみを復号するデコーダが識別しな 、領域 に格納されている。 [0032] 例えば、前記領域は、前記アクセスユニットの、前記デコーダが前記基本データを 復号する際には使用しな 、リザーブ領域である。
[0033] 例えば、前記第 1のパケットのヘッダは、前記第 1のパケットが前記基本データを含 むパケットであることを示す第 1の情報を持ち、前記第 2のパケットのヘッダは、前記 第 2のパケットが前記拡張データを含むパケットであることを示す第 2の情報を持つ。
[0034] 例えば、前記第 1のパケットのヘッダは、 stream— id— extensionフィールドに前 記第 1の情報を持ち、前記第 2のパケットのヘッダは、 stream— id— extensionフィ 一ルドに前記第 2の情報を持つ。
[0035] 例えば、前記ストリームは、前記第 1のパケット及び前記第 2のパケットの属性を示 す情報を有する。
[0036] 例えば、前記情報は、前記ストリームの descriptorに記述されている。
[0037] 例えば、前記アクセスユニットは、音に関するデータであって、前記属性は、チャン ネル、周波数、ビットレート、及び、 2チャンネルのダウンミックスデータの存在の有無
、の少なくとも一つを特定する。
[0038] 例えば、前記第 1のパケット及び前記第 2のパケットは、前記基本データのみを復号 する第 1のデコーダのバッファモデルを破綻させず、かつ、前記基本データ及び前記 拡張データを復号する第 2のデコーダのバッファモデルを破綻させな 、ように、ノッフ ァに入力する際の相対時刻を示すタイムスタンプが付与されて、多重化されている。
[0039] 例えば、前記タイムスタンプの値は、前記第 1のデコーダ及び前記第 2のデコーダ のバッファモデルにおける、バッファのサイズと、前記バッファへ入力するデータの速 度と、前記バッファから出力するデータの速度と、前記第 1のパケットのサイズと、前 記第 2のパケットのサイズとに基づいて決定される。
[0040] 本発明のデータ分別装置は、本発明の情報記録媒体に記録されている前記ァクセ スユニットを取得する取得手段と、前記アクセスユニットを前記基本データと前記拡張 データとに分別する分別手段とを備える。
[0041] 本発明のデータ再生装置は、本発明のデータ分別装置と、前記基本データのみを 復号する復号手段とを備え、前記データ分別装置は、前記復号手段により前記ァク セスユニットを再生させる場合、前記拡張データを廃棄する。 [0042] 本発明は、本発明のデータ再生装置の特徴的な構成手段をステップとするデータ 再生方法として実現したり、それらのステップをコンピュータに実行させるプログラムと して実現することもできる。そのプログラムは、 CD— ROM等の記録媒体や通信ネット ワーク等の伝送媒体を介して流通させることもできる。 発明の効果
[0043] 本発明は、基本データのみを復号するデコーダが、基本データと次世代に対応す る拡張データとを含むアクセスユニットを処理することができるように、基本データと拡 張データとを含むアクセスユニットが記録される情報記録媒体を提供することができる 。また、本発明は、本発明の情報記録媒体のアクセスユニットを処理するデータ分別 装置及びデータ再生装置を提供することができる。
[0044] すなわち、本発明により、既存のディジタル IZFが持つ帯域を越える新 、音声コ 一デックを使った音声データが記録媒体に記録されて ヽる場合であっても、既存の ディジタル IZFに対して従来通りの音声データの抽出および出力が可能になる効果 が得られる。
図面の簡単な説明
[0045] [図 1]図 1は、 DVDの構造を示す図である。
[図 2]図 2は、ナビゲーシヨン情報を説明するための図である。
[図 3]図 3 (A)は、映像、音声、および字幕などのデータを示す図である。図 3 (B)は、 各データをパケットィ匕およびパック化することを示す図である。図 3 (C)は、パケットィ匕 およびパック化されたデータを示す図である。図 3 (D)は、 MPEGシステムストリーム のデコーダモデルを示す図である。
[図 4]図 4は、次世代 DVDの構成を示す図である。
[図 5]図 5は、 BDディスクに記録されている論理データのディレクトリおよびファイルの 構成を示す図である。
[図 6]図 6は、プレーヤの機能を示すブロック図である。
[図 7]図 7は、プレーヤの構成を詳細化したブロック図である。
[図 8]図 8は、 BDのアプリケーション空間を示す図である。
[図 9]図 9は、 MPEGストリーム(VOB)の構成図である。 [図 10]図 10は、パックの構成を示す図である。 ブ記録を説明するための図である。
[図 12]図 12は、 VOBデータ連続供給モデルを説明するための図である。
[図 13]図 13は、 VOB管理情報ファイルの内部構造を示す図である。
[図 14]図 14は、 VOBU情報の詳細を説明するための図である。
[図 15]図 15は、タイムマップの詳細に説明するための図である。
[図 16]図 16は、プレイリスト情報の内部構造を示す図である。
[図 17]図 17は、イベントハンドラテーブルを示す図である。
[図 18]図 18は、 BDディスク全体に関する情報の内部構造を示す図である。
[図 19]図 19は、グローバルイベントハンドラのプログラムのテーブルを示す図である。
[図 20]図 20は、タイムイベントの例を示す図である。
[図 21]図 21は、ユーザイベントの例を示す図である。
[図 22]図 22は、グローバルイベントの例を示す図である。
[図 23]図 23は、プログラムプロセッサの機能を説明するための図である。
[図 24]図 24は、システムパラメータの一覧を示す図である。
[図 25]図 25は、 2つの選択ボタンを持つメニューのプログラムの例を示す図である。
[図 26]図 26は、ユーザイベントのイベントハンドラの例を示す図である。
[図 27]図 27は、 AVの再生までの基本処理フローを示す図である。
[図 28]図 28は、 PLの再生開始力 VOBの再生開始までの処理フローを示す図であ る。
[図 29]図 29は、 AVの再生開始後からのイベント処理フローを示す図である。
[図 30]図 30は、字幕処理のフローを示す図である。
[図 31]図 31は、階層構造を持たないアクセスユニットの構造を示す図である。
[図 32]図 32は、 2つの階層構造を持つアクセスユニットの構造を示す図である。
[図 33]図 33は、 3つの階層構造を持つアクセスユニットの構造を示す図である。
[図 34]図 34は、階層構造を持つデータを、様々な階層に対応したデコーダに出力す るストリーム読込 Z供給部の、データの出力先毎に異なる動作を説明するための図 である。
[図 35]図 35は、 Baseと Levell— EXTとに対応した機器が広く普及した場合に、 Lev el2— EXTを導入するための理想的なアクセスユニットの構造を示す図である。
[図 36]図 36は、 Level2を含むデータストリームのデータ構造を示す図である。
[図 37]図 37は、既存のプレーヤやデコーダで復号可能な BaseZLevell— EXTと、 既存のプレーヤやデコーダでは復号不可能な Leve12— EXTとの 2つの部分力 構 成されているアクセスユニットの処理を説明するための図である。
[図 38]図 38は、 MPEG2— TSへの階層構造を持つアクセスユニットの格納方法を示 す図である。
[図 39]図 39は、 descriptorに記述される事項の一例を示す図である。
[図 40]図 40 (A)は、 5. 1チャンネルのスピーカレイアウトを示す図であり、図 40 (B) は、 7. 1チャンネルのスピーカレイアウトを示す図である。
[図 41]図 41は、チャンネル構造を示す図である。
[図 42]図 42は、光ディスクに記録する際の MPEG2—TSのファイルフォーマットを示 す図である。
[図 43]図 43は、 DVD— Videoで規定される DTSの詳細を説明するための図である
[図 44]図 44は、デマルチプレクサ、および、ストリーム読込 Z供給部の処理を示すフ ローチャートである。
[図 45]図 45は、入力時刻管理装置 2000およびデコーダモデル 3000の構成図であ る。
[図 46]図 46は、 Baseを復号するデコーダモデルを破綻させないようにするとともに、 かつ、 Baseおよび Level2を復号するデコーダモデルを破綻させないように、 Baseと Level2とを多重化する方法を説明するための図である。
符号の説明
201 BDディスク
202 光ピックアップ
203 プログラム記録メモリ 204 管理情報記録メモリ
205 AV記録メモリ
206 プログラム処理部
207 管理情報処理部
208 プレゼンテーション処理部
209 イメージプレーン
210 ビデ才プレーン
211 合成処理部
301 プログラム記録メモリ
302 プログラムプロセッサ
303 UOPマネージャ
304 管理情報記録メモリ
305 シナリオプロセッサ
306 プレゼンテーションコントローラ
307 クロック
308 イメージメモリ
309 トラックノ ッファ
310 デマノレチプレクサ
311 イメージプロセッサ
312 ビデオプロセッサ
313 サウンドプロセッサ
314 イメージプレーン
315 ビデ才プレーン
316 合成処理部
317 ドライブコントローラ
発明を実施するための最良の形態
[0047] 以下に、本発明を実施するための最良の形態を図面を参照して説明する。
[0048] (関連する実施の形態) (ディスク上の論理データ構造)
図 4は、次世代 DVD (以下、「BD」という)の構成、特にディスク媒体である BDディ スク 104並びに、ディスク 104に記録されているデータ 101, 102,および 103の構成 を示す図である。 BDディスク 104には、 AVデータ 103と、 AVデータの管理情報お よび AV再生シーケンスなどを含む BD管理情報 102と、インタラクテイビティを実現 するための BD再生プログラム 101とが記録される。本実施の形態では、説明の都合 上、映画の AVコンテンツを再生するための AVアプリケーションデータが BDディスク 104に記録されていると仮定する。しかしながら、 BDディスク 104は、他の用途として 用いてられてもよい。
[0049] 図 5は、 BDディスクに記録されている論理データのディレクトリおよびファイルの構 成を示す図である。 BDディスクは、他の光ディスク、例えば DVDや CDなどと同様に 、内周から外周に向けてらせん状に記録領域を持ち、内周のリード'イン部と外周のリ ード 'アウト部との間に論理データを記録するための論理アドレス空間を有している。 BDディスクには、リード'イン部の内側に、 Burst Cutting Area (BCA)と呼ばれるドラ イブでしかデータを読み出すことができな!/、特別な領域が存在する。この領域のデ ータは、アプリケーションデータを利用しても読み出すことができない。そのため、上 記領域は、例えば著作権保護技術のためなどに利用されることがある。
[0050] 論理アドレス空間には、ファイルシステム情報 (ボリューム)を先頭に、映像データな どのアプリケーションデータが記録されている。ファイルシステムは、「背景技術」で説 明した通り、 UDFや ISO9660などのファイルシステムであり、通常の PCと同じように 、記録されて 、る論理データをディレクトリおよびファイルの構造を使って読み出すた めのシステムである。
[0051] 本実施の形態における BDディスク上のディレクトリおよびファイルの構造では、ル ートディレクトリ(ROOT)の直下に、 BDVIDEOディレクトリが置かれている。 BDVID EOディレクトリは、 BDに記録される AVコンテンツや管理情報などのデータ(図 4の データ 101, 102,および 103)が格納されているディレクトリである。
[0052] BDVIDEOディレクトリの下には、次の 7種類のファイルが記録されている。
[0053] BD. INFOフアイノレ(フアイノレ名固定) 「BD. INFO」ファイルは、「BD管理情報」の一つであり、 BDディスク全体に関する 情報が記録されたファイルである。 BDプレーヤは最初にこのファイルを読み出す。
[0054] BD. PROGフアイノレ(フアイノレ名固定)
「BD. PROG」ファイルは、「BD再生プログラム」の一つであり、 BDディスク全体に 関する再生制御情報が記録されたファイルである。
[0055] XXX. PLファイル (「XXX」は可変、拡張子「PL」は固定)
「XXX. PL」ファイルは、「BD管理情報」の一つであり、シナリオ(再生シーケンス) であるプレイリスト情報が記録されたファイルである。プレイリスト毎に一つのファイル が存在する。
[0056] XXX. PROGファイル (「XXX」は可変、拡張子「PL」は固定)
「XXX. PROG」ファイルは、「BD再生プログラム」の一つであり、前述したプレイリ スト毎の再生制御情報が記録されたファイルである。「XXX. PROG」ファイルに対応 するプレイリストは、ファイルボディ名(「XXX」)がー致するプレイリストである。
[0057] YYY. VOBファイル (「YYY」は可変、拡張子「VOB」は固定)
「YYY. VOB」ファイルは、「AVデータ」の一つであり、 VOB (「背景技術」で説明し た VOBと同じ)が記録されたファイルである。 VOB毎に一つのファイルが存在する。
[0058] YYY. VOBIファイル (「YYY」は可変、拡張子「VOBI」は固定)
「YYY. VOBI」ファイルは、「BD管理情報」の一つであり、 AVデータである VOB に関するストリーム管理情報が記録されたファイルである。「YYY. VOBI」ファイルに 対応する VOBは、ファイルボディ名(「YYY」)がー致する VOBである。
[0059] ZZZ. PNGファイル (「ΖΖΖ」は可変、拡張子「PNG」は固定)
「ZZZ. PNG」ファイルは、「AVデータ」の一つであり、字幕およびメニューを構成 するためのイメージデータ PNG (W3Cによって標準化された画像フォーマットであり「 ビング」と読む)が記録されたファイルである。 PNGイメージ毎に一つのファイルが存 在する。
[0060] (プレーヤの構成)
次に、前述した BDディスクを再生するプレーヤについて、図 6および図 7を用いて 説明する。 [0061] 図 6は、プレーヤの大まかな機能を示すブロック図である。
[0062] BDディスク 201上のデータは、光ピックアップ 202を通して読み出される。読み出さ れたデータは、そのデータの種類に応じて専用のメモリに転送される。 BD再生プロ グラム(「BD. PROG」ファイルまたは「XXX. PROG」ファイル)はプログラム記録メモ リ 203に転送される。 BD管理情報(「BD. INFO」ファイル、「XXX. PL」ファイル、ま たは「YYY. VOBI」ファイル)は管理情報記録メモリ 204に転送される。 AVデータ(「 YYY. VOB」ファイルまたは「ZZZ. PNG」ファイル)は AV記録メモリ 205に転送さ れる。
[0063] プログラム記録メモリ 203に記録された BD再生プログラムはプログラム処理部 206 によって処理される。管理情報記録メモリ 204に記録された BD管理情報は管理情報 処理部 207によって処理される。 AV記録メモリ 205に記録された AVデータはプレゼ ンテーシヨン処理部 208によって処理される。
[0064] プログラム処理部 206は、管理情報処理部 207より再生するプレイリストの情報ゃプ ログラムの実行タイミングなどのイベント情報を受け取り、プログラムを実行する。プロ グラムは再生するプレイリストを動的に変えることが可能である。プログラム処理部 20 6が管理情報処理部 207に対してプレイリストの再生命令を送ることで、再生するプレ イリストが動的に変わることが実現する。プログラム処理部 206は、ユーザからのィべ ント、即ちリモコンキーからのリクエストを受け、そのイベント(リクエスト)に対応するプ ログラムがある場合、それを実行する。
[0065] 管理情報処理部 207は、プログラム処理部 206からの指示を受け、対応するプレイ リストおよびプレイリストに対応した VOBの管理情報を解析し、プレゼンテーション処 理部 208に、対象となる AVデータの再生を指示する。また、管理情報処理部 207は 、プレゼンテーション処理部 208より基準時刻情報を受け取り、基準時刻情報に基づ いてプレゼンテーション処理部 208に AVデータの再生の停止を指示し、また、プロ グラム処理部 206に対して指示するための、プログラムの実行タイミングを示すィベン トを生成する。
[0066] プレゼンテーション処理部 208は、映像、音声、および字幕 Zイメージ (静止画)の 夫々に対応するデコーダを持ち、管理情報処理部 207からの指示に従い、 AVデー タのデコードおよび出力を行う。映像データ、および字幕 Zイメージは、デコードされ た後に夫々の専用プレーン、ビデオプレーン 210またはイメージプレーン 209に描画 される。ビデオプレーン 210およびイメージプレーン 209に描画された各映像は、合 成処理部 211によって合成され、 TVなどの表示デバイスへ出力される。
[0067] 図 6を用いて説明したように、 BDプレーヤは図 4で示した BDディスクに記録されて V、るデータの構成に対応する構成部を有して!/、る。
[0068] 図 7は前述したプレーヤの構成を詳細化したブロック図である。図 7では、 AV記録 メモリ 205は、イメージメモリ 308およびトラックバッファ 309として表現されている。プ ログラム処理部 206は、プログラムプロセッサ 302および UOPマネージャ 303として 表現されている。管理情報処理部 207は、シナリオプロセッサ 305およびプレゼンテ ーシヨンコントローラ 306として表現されている。プレゼンテーション処理部 208は、ク ロック 307、デマルチプレクサ 310、イメージプロセッサ 311、ビデオプロセッサ 312、 およびサウンドプロセッサ 313として表現されている。
[0069] BDディスク 201から読み出された VOBデータ(MPEGストリーム)はトラックバッファ
309に記録され、イメージデータ(PNG)はイメージメモリ 308に記録される。デマル チプレクサ 310は、クロック 307の時刻に基づき、トラックバッファ 309に記録された V OBデータを抜き出し、映像データをビデオプロセッサ 312に送り、音声データをサゥ ンドプロセッサ 313に送る。ビデオプロセッサ 312およびサウンドプロセッサ 313はそ れぞれ、 MPEGシステム規格で定める通りに、デコーダバッファとデコーダとで構成 されている。即ち、デマルチプレクサ 310から送りこまれる映像および音声夫々のデ ータは、夫々のデコーダバッファに一時的に記録され、クロック 307の時刻に従い対 応するデコーダでデコードされる。
[0070] イメージメモリ 308に記録された PNGは、次の 2つの処理方法によって処理される。
[0071] イメージデータが字幕用のデータである場合、プレゼンテーションコントローラ 306 によってデコードタイミングが指示される。シナリオプロセッサ 305は、クロック 307から の時刻情報を受け、適切に字幕を表示することができるように、字幕の表示開始時刻 になると、プレゼンテーションコントローラ 306に対して字幕の表示を指示する。同様 に、シナリオプロセッサ 305は、クロック 307からの時刻情報に基づいて、字幕の表示 終了時刻になると、プレゼンテーションコントローラ 306に対して字幕の表示の停止を 指示する。プレゼンテーションコントローラ 306からデコード Z表示の指示を受けたィ メージプロセッサ 311は、対応する PNGデータをイメージメモリ 308から抜き出してデ コードし、イメージプレーン 314に描画する。
[0072] 次に、イメージデータカ -ユー用のデータである場合を説明する。その場合、プロ グラムプロセッサ 302によってデコードタイミングが指示される。プログラムプロセッサ 302がイメージのデコードを指示するタイミングは、プログラムプロセッサ 302が処理 して 、る BDプログラムに依存し、一概には決まらな!/、。
[0073] イメージデータおよび映像データは、図 6を用いて説明したように、夫々デコードさ れた後に、イメージプレーン 314またはビデオプレーン 315に描画され、合成処理部 316によって合成された後、出力される。
[0074] BDディスク 201から読み出された管理情報 (シナリオ情報および AV管理情報)は 、管理情報記録メモリ 304に格納される。その後、シナリオ情報(「BD. INFO」フアイ ルおよび「XXX. PL」ファイル)はシナリオプロセッサ 305によって読み出される。 AV 管理情報(「YYY. VOBI」ファイル)はプレゼンテーションコントローラ 306によって 読み出される。
[0075] シナリオプロセッサ 305は、プレイリストの情報を解析し、プレイリストによって参照さ れている VOBとその再生位置とをプレゼンテーションコントローラ 306に知らせる。プ レゼンテーシヨンコントローラ 306は、対象となる VOBの管理情報(「YYY. VOBI」フ アイル)を解析して、対象となる VOBを読み出すようにドライブコントローラ 317に指示 を出す。
[0076] ドライブコントローラ 317は、プレゼンテーションコントローラ 306からの指示に従い、 光ピックアップを移動させ、対象となる AVデータを読み出す。読み出された AVデー タは、前述したようにイメージメモリ 308またはトラックバッファ 309に格納される。
[0077] シナリオプロセッサ 305は、クロック 307の時刻を監視し、管理情報で設定されてい るタイミングでイベントをプログラムプロセッサ 302に出力する。
[0078] プログラム記録メモリ 301に記録された BDプログラム(「BD. PROG」ファイルまた は「XXX. PROG」ファイル)は、プログラムプロセッサ 302によって処理される。プロ グラムプロセッサ 302は、シナリオプロセッサ 305からイベントが送られてきた場合力、 UOPマネージャ 303からイベントが送られてきた場合、 BDプログラムを処理する。 U OPマネージャ 303は、ユーザからリモコンキーによってリクエストが送られてきた場合 、プログラムプロセッサ 302に対するイベントを生成する。
[0079] (アプリケーション空間)
図 8は、 BDのアプリケーション空間を示す図である。
[0080] BDのアプリケーション空間では、プレイリスト(PlayList)がーつの再生単位である 。プレイリストは、セル(Cell)の連結であって、連結の順序により決定される再生シー ケンスである静的なシナリオと、プログラムによって記述される動的なシナリオとを有し ている。プログラムによる動的なシナリオの変化が無い限り、プレイリストは個々のセル を順に再生させる。全てのセルの再生を終了した時点で、プレイリストの再生は終了 する。プログラムには、セルの再生順序を変化させる内容を記述することが可能であ る。また、プログラムは、ユーザの選択またはプレーヤの状態によって再生する対象 を動的に変えることが可能である。典型的な例として、メニューが挙げられる。 BDで は、メニューはユーザの選択によって再生するシナリオであると定義することができ、 プログラムによってプレイリストを動的に変化させることができる。
[0081] ここで言うプログラムは、時間イベントまたはユーザイベントによって実行されるィべ ントハンドラである。
[0082] 時間イベントは、プレイリストに埋め込まれた時刻情報に基づいて生成されるィベン トである。図 7を用いて説明したシナリオプロセッサ 305からプログラムプロセッサ 302 に送られるイベントが、時間イベントの一例である。時間イベントが発行されると、プロ グラムプロセッサ 302は識別子 (ID)によって対応付けられるイベントハンドラを実行 する。前述した通り、実行されるプログラムは他のプレイリストの再生を指示することが 可能である。例えば、プログラムは、現在再生されているプレイリストの再生を中止し、 指定されたプレイリストを再生させる。
[0083] ユーザイベントは、ユーザのリモコンキー操作によって生成されるイベントである。ュ 一ザイベントは大きく 2つのタイプに分けられる。
[0084] 一つ目は、カーソルキー(「上」「下」「左」「右」キー)または「決定」キーの操作によつ て生成されるメニュー選択のイベントである。メニュー選択のイベントに対応するィべ ントノヽンドラはプレイリスト内の限られた期間でのみ有効である(プレイリストの情報とし て、個々のイベントハンドラの有効期間が設定されている)。リモコンの「上」「下」「左」 「右」キーまたは「決定」キーが押された場合、有効なイベントハンドラが検索され、有 効なイベントハンドラがある場合、そのイベントハンドラが実行される。有効なイベント ハンドラがな 、場合、メニュー選択のイベントは無視される。
[0085] 二つ目のユーザイベントは、「メニュー」キーの操作によって生成されるメニュー呼 び出しのイベントである。メニュー呼び出しのイベントが生成されると、グローバルィべ ントハンドラが呼ばれる。グローバルイベントハンドラはプレイリストに依存せず、常に 有効なイベントハンドラである。この機能を使うことにより、 DVDのメニューコール (タイ トル再生中に音声または字幕を呼び出し、音声または字幕を変更後に中断した地点 力 タイトルを再生する機能等)を実装することができる。
[0086] プレイリストで静的シナリオを構成する単位であるセル(Cell)は、 VOB (MPEGスト リーム)の全部または一部の再生区間を示す。セルは、 VOB内の再生区間を、開始 時刻および終了時刻の情報として持っている。個々の VOBと一対になっている VOB 管理情報 (VOBI)は、データの再生時刻に対応した記録アドレスのテーブル情報で あるタイムマップ(Time Mapまたは TM)を有している。タイムマップを用いることによつ て、前述した VOBの再生時刻および終了時刻から、 VOB内(即ち対象となる「YYY . VOB」ファイル内)での読み出しの開始アドレスおよび終了アドレスを導き出すこと が可能である。なおタイムマップの詳細は後述する。
[0087] (VOBの詳細)
図 9は、本実施の形態における MPEGストリーム (VOB)の構成図である。
[0088] 図 9に示すように、 VOBは複数の Video Object Unit (VOBU)によって構成されて いる。 VOBUは、 MPEGビデオストリームにおける Group Of Pictures (GOP)を基準 として、音声データも含んだ多重ィ匕ストリームにおける一再生単位である。 VOBUの ビデオ再生時間は 0. 4秒から 1. 0秒であって、通常は 0. 5秒程度である。つまり、多 くのケースで 1GOPには 15フレーム程度のフレームが格納されている(NTSCの場 合)。 [0089] VOBUは、ビデオパック(V_PCK)とオーディオパック(A_PCK)とを有して!/、る
。各パックのサイズは、 1セクタと同じであり、本実施の形態では、 2KBである。
[0090] 図 10は、パックの構成を示す図である。
[0091] 図 10に示すように、ビデオデータおよびオーディオデータといったエレメンタリデー タは、 PES Packet Payload (ペイロード)と呼ばれる PES Packet (パケット)のデータ格 納領域に先頭から順次格納される。ペイロードは、 PES Packet Header (パケットへッ ダ)が付けられて 1つの PES Packet (パケット)を構成する。パケットヘッダには、ペイ口 ードに格納されているデータがどのストリームのデータであるのかを識別するための st ream id (ID)と、そのペイロードのデコードおよび表示夫々の時刻情報であるタイムス タンプ、即ち Decoding Time Stamp (DTS)および Presentation Time Stamp (PTS)と が記録される。 PTSおよび DTSは、必ずしも全てのパケットヘッダに記録されている 訳ではなぐ MPEGによってルールが規定されている。ルールの詳細については M PEGシステム(ISOZIEC13818— 1)の規格書に記述されているので、その説明を 省略する。
[0092] パケットは、更に Pack Header (ヘッダ)が付けられて、パックを構成する。そのヘッダ には、そのパックがいつデマルチプレクサを通過し、個々のエレメンタリストリームのデ コーダバッファに入力されるのかを示すタイムスタンプ、即ち System Clock Reference (SCR)が記録されている。
[0093] (VOBのインターリーブ記録)
次に、図 11および図 12を用いて VOBファイルのインターリーブ記録について説明 する。
[0094] 図 11上段は、前述したプレーヤの構成図の一部である。図 11に示すように、 BDデ イスク上の VOB即ち MPEGストリームは、光ピックアップを通してトラックバッファへ入 力される。 BDディスク上の PNG即ちイメージデータは、光ピックアップを通してィメー ジメモリへ入力される。
[0095] トラックバッファは FIFO形式のバッファであり、トラックバッファに入力された VOBの データは入力された順にデマルチプレクサへ送られる。この時、個々のパックは、前 述した SCRに従ってトラックバッファから引き抜かれ、デマルチプレクサを介してビデ ォプロセッサまたはサウンドプロセッサへ送られる。他方、イメージメモリに入力された イメージデータについては、どのイメージを描画するかはプレゼンテーションコント口 ーラによって指示される。また、描画に使われたイメージデータは、それが字幕用の イメージデータである場合、使われると同時にイメージメモリから削除される。それに 対して、描画に使われたイメージデータカ -ユー用のイメージデータである場合、そ のメニューが描画されている間はイメージメモリ内にそのまま残される。これは、メ-ュ 一の描画はユーザの操作に依存しており、ユーザの操作に追従してメニューの一部 分を再表示または異なるイメージに置き換える際に、再表示される部分のイメージデ ータをデコードし易くするためである。
ブ記録を示す図である。一般的に ROM、例えば CD— ROMや DVD— ROMでは、 一連の連続再生単位となる AVデータは連続して記録されて 、る。データが連続して 記録されている限り、ドライブは順次データを読み出し、デコーダに送り届ける。しか しながら、連続するデータが分断されてディスク上に離散して配置されている場合、ド ライブは個々の連続区間をシークするので、シーク期間においてはデータの読み出 しが止まることになり、データの供給が止まる可能性がある。それを防止するために、 ROMでは、一連の連続再生単位となる AVデータは連続して記録されている。 BD でも、 VOBファイルは連続領域に記録されることが望ましい。字幕データのように VO Bに記録されている映像データと同期して再生されるデータは、 VOBファイルと同様 に何らかの方法によって BDディスク力も読み出すことが必要になる。
[0097] 字幕データの読み出し方法の一つとして、 VOBの再生開始前に一まとめに字幕用 のイメージデータ(PNGファイル)を読み出す方法がある。しかしながら、この方法で は、大容量のメモリが必要となり、非現実的である。
[0098] そこで、本実施の形態では、 VOBファイルを幾つかのブロックに分けて、イメージデ ータとインターリーブ記録する方法を採用している。図 11下段はそのインターリーブ 記録を説明するための図である。
[0099] VOBファイルとイメージデータとを適切にインターリーブ配置することで、前述した ような大容量の一時記録メモリを用いることなぐ必要なタイミングでイメージデータを イメージメモリに格納することが可能になる。なお、イメージデータを読み出している 際には、 VOBデータの読み出しは当然のことながら停止する。
[0100] 図 12は、トラックバッファを使った VOBデータ連続供給モデルを説明するための図 である。
[0101] 既に説明したように、 VOBのデータは、ー且トラックバッファに蓄積される。トラック バッファへのデータ入力レート(Va)と、トラックバッファからのデータ出力レート(Vb) との間に差 (Va>Vb)を設けると、 BDディスク力 データを読み出し続けている限り、 トラックバッファのデータ蓄積量は増加して 、く。
[0102] 図 12の上段に示すように、 VOBの一連続記録領域が論理アドレスの" al"から" a2 "まで続くとする。論理アドレスの" a2"から" a3"の間は、イメージデータが記録されて Vヽて、 VOBデータは記録されて!、ない区間であるとする。
[0103] 図 12の下段は、トラックバッファ内のデータ量の推移を示す。横軸は時間を示し、 縦軸はトラックバッファ内に蓄積されているデータの量を示す。時刻" tl"は、 VOBの 一連続記録領域の開始点である論理アドレス" al"のデータの読み出しを開始した 時刻を示している。時刻" tl"以降、トラックバッファにはレート (Va—Vb)でデータが 蓄積される。そのレートは、トラックバッファへ入力するデータのレートと、トラックバッフ ァから出力するデータのレートとの差である。時刻" t2"は一連続記録領域の終了点 である論理アドレス" a2"のデータを読み出す時刻である。即ち時刻" tl"から" t2"の 間、レート(Va—Vb)でトラックバッファ内はデータ量が増加する。時刻" t2"でのデー タ蓄積量 B (t2)は下記の式 1によって求めることができる。
[0104] B (t2) = (Va-Vb) X (t2~tl) (式 1)
[0105] この後、論理アドレスの" a2"から" a3"まではイメージデータが続くため、トラックバッ ファへのデータの入力は 0であり、出力レード' Vb"でトラックバッファ内のデータ量 は減少する。これは論理アドレス" a3"まで、即ち時刻" t3"まで継続する。
[0106] ここで大事なことは、時刻" t3"より前にトラックバッファに蓄積されているデータ量が 0になると、デコーダへ供給する VOBのデータが無くなってしまい、 VOBの再生がス トップしてしまう可能性がある。時刻" t3"でトラックバッファにデータが残っている場合 、 VOBの再生はストップすることなく連続する。 [0107] 時刻" t3"より前にトラックバッファに蓄積されているデータ量力^になることを防止す るための条件は、下記の式 2によって示される。
[0108] B(t2) ≥ VbX (t3-t2) (式 2)
即ち、式 2を満たすように、イメージデータ(非 VOBデータ)の配置を決めればよい
[0109] (ナビゲーシヨンデータ構造)
図 13から図 19を用いて、 BDのナビゲーシヨンデータ(BD管理情報)の構造につ いて説明する。
[0110] 図 13は、 VOB管理情報ファイル("YYY. VOBI")の内部構造を示す図である。
[0111] VOB管理情報は、 VOBのストリーム属性情報(Attribute)と、タイムマップ (TMA P)とを有している。ストリーム属性は、ビデオ属性 (Video)と、オーディオ属性 (Audi o#0〜Audio#m)とを含む。特にオーディオストリームに関しては、 VOBが複数の オーディオストリームを同時に持つことができることから、オーディオストリームの数 (N umber)によって、データフィールドが示される。
[0112] 下記は、ビデオ属性 (Video)が持つ複数のフィールドと、夫々のフィールドが持ち 得る値を示す。
[0113] 圧縮方式 (Coding):
MPEG1
MPEG2
MPEG4
MPEG4 - AVC (Advanced Video Coding)
解像度(Resolution):
1920X1080
1280X720
720X480
720X565
アスペクト比(Aspect)
4:3 16 : 9
~~ムレ1 ~~ト (Framerate)
60
59. 94
50
30
29. 97
25
24
23. 976
[0114] 下記は、オーディオ属性 (Audio)が持つ複数のフィールドと、夫々のフィールドが 持ち得る値を示す。
[0115] 圧縮方式 (Coding) :
AC 3
MPEG1
MPEG2
LPCM
DTSHD
チャンネル数(Ch):
1〜8
m 属性 (Language):
[0116] タイムマップ (TMAP)は、 VOBU毎の情報を持つテーブルであって、 VOBが有す る VOBUの数(Number)と、各 VOBU情報 (VOBU # l〜VOBU # n)とを持つ。 個々の VOBU情報は、 VOBUの再生時間長(Duration)と、 VOBUのデータサイ ズ(Size)とを有している。
[0117] 図 14は VOBU情報の詳細を説明するための図である。
[0118] 広く知られているように、 MPEGビデオストリームは可変ビットレート圧縮されること があり、各フレームの再生時間とデータサイズとには、単純な相関はない。これに対し て、音声の圧縮規格である AC3は、音声データを固定ビットレートで圧縮することを 定めているため、音声データについては、時間とアドレスとの関係は 1次式によって 表現される。 MPEGビデオデータでは、個々のフレームは固定の表示時間を持つが 、例えば NTSCに対応する MPEGビデオデータでは 1フレームは 1Z29. 97秒の表 示時間を持つが、個々のフレームの圧縮後のデータサイズは絵の特性ゃピクチャタ ィプ、即ち IZPZBピクチャのタイプによって大きく異なる。従って、 MPEGビデオデ ータについては、時間とアドレスとの関係を一次式で表現することは不可能である。
[0119] 当然のこととして、 MPEGビデオデータが多重化されている MPEGシステムストリー ム、即ち VOBについても、時間とデータサイズとの関係を一次式で表現することは不 可能である。 VOBでは、タイムマップ (TMAP)が時間とアドレスとを結びつける。図 1 4に示すように、 VOBU毎に、 VOBU内のフレームの数と、 VOBU内のパックの数( つまりデータサイズ)とをエントリとして持つテーブルがタイムマップ (TMAP)である。
[0120] 図 15を用いて、タイムマップ (TMAP)を詳細に説明する。
[0121] 図 15に示すように時刻情報が与えられた場合、先ずはその時刻がどの VOBUに 属するのかを検索する。即ち、タイムマップの VOBU毎のフレームの数をカ卩算し、フ レームの数の和力 与えられた時刻をフレーム数に換算した場合のそのフレーム数 を超える VOBU、またはそのフレーム数に一致する VOBUを検索する。次に、タイム マップの VOBU毎のデータサイズをその VOBUの直前の VOBUまでカ卩算する。カロ 算によって得られた値力 与えられた時刻を含むフレームを再生するために読み出 すべきパックのアドレスを求めるために用いられる。
[0122] 次に、図 16を用いて、プレイリスト情報("XXX. PL")の内部構造を説明する。
[0123] プレイリスト情報は、セルリスト(CellList)と、イベントリスト(EventList)とから構成 されている。
[0124] セルリスト(CellList)はプレイリスト内の再生セルシーケンスであり、セルリストの記 述順でセルが再生される。セルリスト(CellList)は、セルの数(Number)と、各セル 情報 (Cell # l〜Cell # n)とから構成されて!、る。
[0125] セル情報(Cell # )は、 VOBファイル名 (VOBName)と、 VOB内での開始時刻 (In )および終了時刻 (Out)と、字幕テーブル (SubtitleTable)とを持って!/ヽる。開始時 刻(In)および終了時刻 (Out)は、夫々 VOB内でのフレーム番号で表現され、前述 したタイムマップ (TMAP)を使うことによって再生に必要な VOBデータのアドレスを 得ることができる。
[0126] 字幕テーブル (SubtitleTable)は、 VOBと同期再生される字幕の情報を持つテー ブルである。 VOBは音声と同様に複数の言語の字幕を持つことができ、字幕テープ ル(SubtitleTable)は、言語の数(Number)と、それに続く言語毎のテーブル(Lan guage # 1〜: Language # k)とから構成されて 、る。
[0127] 各言語のテーブル (Language # )は、言語情報 (Lang)と、個々に表示される字幕 の情報の数 (Number)と、個々に表示される字幕の情報 (字幕情報, Speech # 1〜 Speech #j)とから構成されている。字幕情報(Speech # )は、対応するイメージデ ータのファイル名 (Name)と、字幕の表示開始時刻(In)および字幕の表示終了時刻 (Out)と、字幕の表示位置(Position)と力 構成されて 、る。
[0128] イベントリスト(EventList)は、プレイリスト内で発生するイベントを定義したテープ ルである。イベントリストは、イベントの数(Number)と、それに続く個々のイベント(E vent # 1〜Event # m)とから構成されて 、る。個々のイベント(Event # )は、ィベン トの種類 (Type)と、イベントの識別子(ID)と、イベントの発生時刻 (Time)と、ィベン トの有効期間(Duration)とから構成されて!、る。
[0129] 図 17は、個々のプレイリストのイベントハンドラ(時間イベントと、メニュー選択用のュ 一ザイベント)を持つイベントハンドラテーブル ("XXX. PROG")を示す図である。
[0130] イベントハンドラテーブルは、定義されているイベントハンドラ Zプログラムの数 (Nu mberjと、個々のィべントノヽンドラ プログブム( 1"08 &111 # 1〜13]:08 &111 # 11)とを有 している。各イベントハンドラ Zプログラム(Program # )は、イベントハンドラの開始 の定義(< event— handler >タグ)と、前述したイベントの識別子と対になるイベント ハンドラの識別子 (ID)とを持つ。その後に、プログラムが、 Functionに続く括弧 "{" と "}"との間に記述される。前述の" XXX. PL"のイベントリスト(EventList)に格納さ れたイベント(Event # l〜Event # m)は、 "XXX. PROG"のイベントハンドラの識 別子 (ID)を用いて特定される。
[0131] 次に、図 18を用いて BDディスク全体に関する情報("BD. INFO")の内部構造を 説明する。
[0132] BDディスク全体情報は、タイトルリスト(TitleList)と、グローバルイベント用のィべ ントテーブル (EventList)とから構成されて 、る。
[0133] タイトルリスト(TitleList)は、ディスク内のタイトルの数(Number)と、これに続く各 タイトル情報 (Title # l〜Title # n)と力も構成されて 、る。個々のタイトル情報 (Titl e # )は、タイトルに含まれるプレイリストのテーブル(PLTable)と、タイトル内のチヤプ タリスト(ChapterList)とを含んでいる。プレイリストのテーブル(PLTable)は、タイト ル内のプレイリストの数(Number)と、プレイリスト名(Name)即ちプレイリストのフアイ ル名とを有している。
[0134] チヤプタリスト(ChapterList)は、タイトルに含まれるチヤプタの数(Number)と、個 々のチャプタ情報(01& 6 # 1〜01& 6 # 11)とから構成されている。個々のチヤ プタ情報(Chapter # )は、そのチヤプタを含むセルのテーブル (CellTable)を持つ 。セルのテーブル(CellTable)は、セルの数(Number)と、個々のセルのエントリ情 報(CellEntry# l〜CellEntry # k)とから構成されている。セルのエントリ情報(Cel lEntry # )は、そのセルを含むプレイリスト名と、プレイリスト内でのセル番号と力 構 成されている。
[0135] イベントリスト(EventList)は、グローバルイベントの数(Number)と、個々のグロ一 バルイベントの情報とを持っている。ここで注意すべきは、最初に定義されるグローバ ルイベントは、ファーストイベント(FirstEvent)と呼ばれ、 BDディスクがプレーヤに揷 入されたとき、最初に呼ばれる。グローノ レイベント用のイベント情報は、イベントタイ プ (Type)と、イベントの識別子 (ID)とだけを持って 、る。
[0136] 図 19は、グローバルイベントハンドラのプログラムのテーブル("BD. PROG")を示 す図である。
[0137] 本テーブルの内容は、図 17を用いて説明したイベントハンドラテーブルの内容と同 じである。
[0138] (イベント発生のメカニズム)
図 20から図 22を用いてイベント発生のメカニズムについて説明する。
[0139] 図 20はタイムイベントの例を示す図である。 [0140] 前述したとおり、タイムイベントは、プレイリスト情報("XXX. PL")のイベントリスト(E ventList)で定義される。タイムイベントとして定義されているイベント、即ちイベントタ ィプ (Type)カ 'TimeEvent"である場合、イベント生成時刻("tl")に、識別子" Exl "を持つタイムイベントがシナリオプロセッサ力もプログラムプロセッサに出力される。 プログラムプロセッサは、イベント識別子" Exl"を持つイベントノ、ンドラを探し、対象 のイベントハンドラを実行する。例えば、本実施の形態では、 2つのボタンイメージの 描画等のイベントが行われる。
[0141] 図 21はメニュー操作を行うユーザイベントの例を示す図である。
[0142] 前述したとおり、メニュー操作を行うユーザイベントもプレイリスト情報("XXX. PL") のイベントリスト(EventList)で定義される。ユーザイベントとして定義されるイベント、 即ちイベントタイプ (Type)力^' UserEvent"である場合、イベント生成時刻("tl")に 、ユーザイベントはレディとなる。この時、イベント自身は未だ生成されていない。ィべ ントは、有効期間情報 (Duration)で示される期間レディ状態にある。
[0143] 図 21に示すように、ユーザがリモコンキーの「上」「下」「左」「右」キーまたは「決定」 キーを押した場合、先ず UOPイベントが UOPマネージャによって生成されてプログ ラムプロセッサに出力される。プログラムプロセッサは、シナリオプロセッサに UOPィ ベントを出力する。シナリオプロセッサは、 UOPイベントを受け取った時刻に有効な ユーザイベントが存在するか否かを調べ、有効なユーザイベントがあった場合、ユー ザイベントを生成し、プログラムプロセッサに出力する。プログラムプロセッサは、ィべ ント識別子 "Evl"を持つイベントハンドラを探し、対象のイベントハンドラを実行する。 例えば、本実施の形態では、プレイリスト # 2の再生が開始される。
[0144] 生成されるユーザイベントには、どのリモコンキーがユーザによって押されたのかを 特定する情報は含まれない。選択されたリモコンキーの情報は、 UOPイベントによつ てプログラムプロセッサに伝えられ、仮想プレーヤが持つレジスタ SPRM (8)に記録 され保持される。このレジスタの値を調べることにより、イベントハンドラのプログラムを 分岐処理することが可能である。
[0145] 図 22はグローバルイベントの例を示す図である。
[0146] 前述したとおり、グローバルイベントは BDディスク全体に関する情報("BD. INFO ")のイベントリスト(EventList)で定義される。グローバルイベントとして定義されるィ ベントのタイプ (Type)力 "GlobalEvent"である場合、ユーザがリモコンキーを操作 したときにのみイベントが生成される。
[0147] ユーザが "メニュー"キーを押した場合、先ず UOPイベントが UOPマネージャによ つて生成されてプログラムプロセッサに出力される。プログラムプロセッサはシナリオ プロセッサに UOPイベントを出力し、シナリオプロセッサはその UOPイベントに対応 するグローバルイベントを生成し、プログラムプロセッサに送る。プログラムプロセッサ は、イベント識別子" menu"を持つイベントハンドラを探し、対象のイベントハンドラを 実行する。例えば、本実施の形態では、プレイリスト # 3の再生が開始される。
[0148] 本実施の形態では、 "メニュー"キーは 1個である場合を想定している力 DVDレコ ーダのリモコンのように、メニューキーは複数存在していてもよい。その場合、メニュー キー毎に対応する識別子が定義される。
[0149] (仮想プレーヤマシン)
図 23を用いてプログラムプロセッサの機能を説明する。
[0150] プログラムプロセッサは、内部に仮想プレーヤマシンを持つ処理モジュールである 。仮想プレーヤマシンは、 BDに対応する機能を有し、 BDプレーヤの実装には依存 しない。即ち、仮想プレーヤマシンは、どの BDプレーヤにおいても同様の機能を実 現できることが保証されて 、る。
[0151] 仮想プレーヤマシンは、プログラミング関数とプレーヤ変数(レジスタ)とを持ってい る。プログラミング関数では、 Java (登録商標) Scriptをベースとして、以下に記す 2つ の機能が BD固有関数として定義されている。
[0152] リンク関数:現在の再生を停止し、指定されたプレイリスト、セル、または時刻から の再生を開始する
Link (PL # , Cell # , time)
PL # : プレイリスト名
Cell # : セル番号
time : セル内での再生開始時刻
[0153] PNG描画関数:指定 PNGデータをイメージプレーンに描画する Draw (File, X, Y)
File : PNGファイル名
X : X座標位置
Y : Y座標位置
[0154] イメージプレーンクリア関数:イメージプレーンの指定領域をクリアする
Clear (X, Y, W, H)
X : X座標位置
Y : Y座標位置
W : X方向幅
H : Y方向幅
[0155] プレーヤ変数として、プレーヤの状態を示すシステムパラメータ(SPRM)と、一般 用途として使用可能なゼネラルパラメータ(GPRM)とがある。
[0156] 図 24はシステムパラメータ(SPRM)の一覧を示す図である。
[0157] SPRM (0) : 言語コード
SPRM (l) : 音声ストリーム番号
SPRM (2) : 字幕ストリーム番号
SPRM (3) : アングル番号
SPRM (4) : タイトル番号
SPRM (5) : チヤプタ番号
SPRM (6) : プログラム番号
SPRM (7) : セル番号
SPRM (8) : 選択キー情報
SPRM (9) : ナビゲーシヨンタイマー
SPRM (10) : 再生時刻情報
SPRM (11) : カラオケ用ミキシングモード
SPRM (12) : パレンタル用国情報
SPRM (13) : ノ レンタノレレべノレ
SPRM (14) : プレーヤ設定値 (ビデオ) SPRM(15) : プレーヤ設定値 (オーディオ)
SPRM(16) : 音声ストリ -ム用 語コード
SPRM(17) : 音声ストリ -ム用言語コード (拡張)
SPRM(18) : 字幕ストリ -ム用 語コード
SPRM(19) : 字幕ストリ -ム用言語コード (拡張)
SPRM(20) : プレーヤリ一ジョンコード
SPRM(21) : 予備
SPRM(22) : 予備
SPRM(23) : 再生状態
SPRM(24) : 予備
SPRM(25) : 予備
SPRM(26) : 予備
SPRM(27) : 予備
SPRM(28) : 予備
SPRM(29) : 予備
SPRM(30) : 予備
SPRM(31) : 予備
[0158] なお、本実施の形態では、仮想プレーヤのプログラミング関数 ίお ava (登録商標) S criptベースとして定義されている力 プログラミング関数は、 UNIX (登録商標) OS などで使われている B— Shellや、 Perl Scriptなどによって定義されてもよい。言い 換えれば、プログラミング関数は、 Java (登録商標) Scriptによって定義されると限定 されない。
[0159] (プログラムの例)
図 25および図 26は、イベントハンドラでのプログラムの例を示す図である。
[0160] 図 25は、 2つの選択ボタンを持つメニューのプログラムの例を示す図である。
[0161] セル(PlayList# 1. Cell# 1)の先頭のタイムイベントに基づいて、図 25左側のプ ログラムが実行される。ゼネラルパラメータの一つ GPRM(O)に" 1"がセットされてい る。 GPRM(O)は、プログラムの中で、選択されているボタンを識別するために用いら れている。最初の状態 (初期値)では、左側に配置されているボタン 1が選択されてい る。
[0162] 次に、 PNGの描画力 描画関数である Drawを使ってボタン 1、ボタン 2夫々につい て行われる。ボタン 1は、座標(10、 200)を起点 (左端)とする領域に、 PNGイメージ "lblack. png"が描画されることにより形成される。ボタン 2は、座標(330, 200)を 起点(左端)とする領域に、 PNGイメージ" 2white. png"が描画されることにより形成 される。
[0163] また、本セルの最後のタイムイベントが用いられて、図 25右側のプログラムが実行さ れる。ここでは、 Link関数を使って、セルの先頭力 再度再生するように指定されて いる。
[0164] 図 26は、メニュー選択のユーザイベントのイベントハンドラの例を示す図である。
[0165] 「左」キー、「右」キー、「決定」キーが押された場合の夫々のキーに対応するプログ ラムが、イベントハンドラに書かれている。ユーザがリモコンキーを押した場合、図 21 を用いて説明したとおり、ユーザイベントが生成され、図 26のイベントハンドラが起動 する。本イベントハンドラでは、選択ボタンを識別する GPRM (O)の値と、選択された リモコンキーを識別する SPRM (8)とを使って、分岐処理が行われる。
[0166] 条件 1)ボタン 1が選択されている、かつ、選択キーが「右」キーである場合
GPRM (0)を" 2"に再設定して、選択状態にあるボタンを右ボタン 2に変更する。
[0167] ボタン 1、ボタン 2のイメージを夫々書き換える。
[0168] 条件 2)選択キーが「決定 (OK)」であって、ボタン 1が選択されている場合
プレイリスト # 2の再生を開始する
[0169] 条件 3)選択キーが「決定 (ΟΚ)」であって、ボタン 2が選択されて 、る場合
プレイリスト # 3の再生を開始する
上記のような分岐処理が行われる。
[0170] (プレーヤ処理フロー)
次に、図 27から図 30を用いてプレーヤの処理フローを説明する。
[0171] 図 27は、 AVの再生までの基本処理フローを示す図である。
[0172] BDディスクが挿入されると(S101)、 BDプレーヤは、 "BD. INFO"ファイルの読み 込みと解析とを行い(S 102)、 "BD. PROG"ファイルを読み込む(S 103)。 "BD. IN FO"ファイルおよび" BD. PROG"ファイルは、共に管理情報記録メモリにー且格納 され、シナリオプロセッサによって解析される。
[0173] 続いて、シナリオプロセッサは、 "BD. INFO"ファイル内のファーストイベント(First Event)情報に従い、最初のイベントを生成する(S 104)。生成されたファーストイべ ントはプログラムプロセッサによって受け取られ、プログラムプロセッサは、そのィベン トに対応するイベントハンドラを実行する(S105)。
[0174] ファーストイベントに対応するイベントハンドラには、最初に再生するべきプレイリスト 情報が記録されている、ことが期待される。仮に、プレイリストの再生が指示されてい ない場合、プレーヤは何も再生することなぐユーザイベントを待ち続ける(S201)。 B Dプレーヤがユーザからのリモコン操作による指示を受け付けると、 UOPマネージャ は、プログラムマネージャに対して UOPイベントの実行を開始させる(S202)。
[0175] プログラムマネージャは、 UOPイベントがメニューキーであるか否かを判別し(S20 3)、 UOPイベントがメニューキーである場合、シナリオプロセッサに UOPイベントを 出力し、シナリオプロセッサがユーザイベントを生成する(S204)。プログラムプロセッ サは、生成されたユーザイベントに対応するイベントハンドラを実行する(S205)。
[0176] 図 28は、 PLの再生開始力 VOBの再生開始までの処理フローを示す図である。
[0177] 前述したように、ファーストイベントハンドラまたはグローバノレイベントハンドラによつ てプレイリストの再生が開始される(S301)。シナリオプロセッサは、再生対象のプレ イリストの再生に必要な情報として、プレイリスト情報" XXX. PL"の読み込みと解析と を行い(S302)、プレイリストに対応するプログラム情報" XXX. PROG"を読み込む( S303)。続いて、シナリオプロセッサは、プレイリストに登録されているセル情報に基 づいてセルの再生を指示する(S304)。セルの再生は、シナリオプロセッサからプレ ゼンテーシヨンコントローラに対して要求が出されたことを意味し、プレゼンテーション コントローラは AVの再生を開始する(S305)。
[0178] AVの再生が開始されると(S401)、プレゼンテーションコントローラは、再生するセ ルに対応する VOBの情報ファイル (XXX. VOBI)の読み込みと解析とを行う(S402 ;)。プレゼンテーションコントローラは、タイムマップを使って再生を開始する VOBUと そのアドレスとを特定し、ドライブコントローラに読み出しアドレスを指示し、ドライブコ ントローラは対象となる VOBデータを読み出す(S403)。これにより、 VOBデータが デコーダに送られ、その再生が開始される(S404)。
[0179] VOBの再生は、その VOBの再生区間が終了するまで続けられ(S405)、終了する と次のセルの再生(S304)へ移行する。次のセルが無い場合、再生は停止する(S4 06)。
[0180] 図 29は、 AVの再生開始後からのイベント処理フローを示す図である。
[0181] BDプレーヤはイベントドリブン型のプレーヤである。プレイリストの再生が開始する と、タイムイベント系、ユーザイベント系、および字幕表示系のイベント処理が夫々起 動し、平行してイベント処理が実行される。
[0182] S500系の処理は、タイムイベント系の処理である。
[0183] プレイリストの再生開始後(S501)、プレイリストの再生が終了しているか否かを確 認するステップ(S502)を経て、シナリオプロセッサは、タイムイベント発生時刻になつ たカゝ否かを確認する(S503)。タイムイベント発生時刻になった場合、シナリオプロセ ッサはタイムイベントを生成し(S504)、プログラムプロセッサはタイムイベントを受け 取って、イベントハンドラを実行する(S505)。
[0184] ステップ S503でタイムイベント発生時刻になっていない場合、および、ステップ S5 04でイベントノヽンドラを実行した後、ステップ S502へ戻り、上述した処理を繰り返す 。また、ステップ S502でプレイリストの再生が終了したことが確認されると、タイムィべ ント系の処理は強制的に終了する。
[0185] S600系の処理は、ユーザイベント系の処理である。
[0186] プレイリストの再生開始後(S601)、プレイリストの再生終了確認ステップ(S602)を 経て、 UOPの受付確認ステップに移る(S603)。 UOPの受付があった場合、 UOP マネージャは UOPイベントを生成し(S604)、 UOPイベントを受け取ったプログラム プロセッサは、 UOPイベントがメニューコールであるか否かを確認する(S605)。 UO Pイベントがメニューコールである場合、プログラムプロセッサはシナリオプロセッサに イベントを生成させ(S607)、プログラムプロセッサはイベントハンドラを実行する(S6 08)。 [0187] ステップ S605で UOPイベントがメニューコールでないと判断された場合、 UOPィ ベントはカーソルキーまたは「決定」キーによるイベントであることを示して 、る。この 場合、現在時刻がユーザイベント有効期間内である力否かをシナリオプロセッサが判 断する(S606)。現在時刻がユーザイベント有効期間内である場合、シナリオプロセ ッサがユーザイベントを生成し(S607)、プログラムプロセッサが対象のイベントハンド ラを実行する(S608)。
[0188] ステップ S603で UOPが受付けられて!/ヽな 、場合、ステップ S606で現在時刻がュ 一ザイベント有効期間にない場合、および、ステップ S608でイベントハンドラを実行 した後、ステップ S602へ戻り、上述した処理を繰り返す。また、ステップ S602でプレ イリストの再生が終了したことが確認されると、ユーザイベント系の処理は強制的に終 了する。
[0189] 図 30は字幕処理のフローを示す図である。
[0190] プレイリストの再生開始後(S701)、プレイリストの再生終了確認ステップ(S702)を 経て、字幕の描画開始時刻確認ステップ (S703)に移る。現在時刻が字幕の描画開 始時刻である場合、シナリオプロセッサはプレゼンテーションコントローラに字幕の描 画を指示し、プレゼンテーションコントローラはイメージプロセッサに字幕の描画を指 示する(S704)。ステップ S703で現在時刻が字幕の描画開始時刻でないと判断さ れた場合、現在時刻が字幕の表示終了時刻である力否かを確認する(S705)。現在 時刻が字幕の表示終了時刻であると判断された場合、プレゼンテーションコントロー ラはイメージプロセッサに字幕の消去を指示し、イメージプロセッサは描画されて!、る 字幕をイメージプレーンから消去する(S706)。
[0191] 字幕の描画ステップ S704の終了後、字幕の消去ステップ S706の終了後、および 、字幕の表示終了時刻確認ステップ S 705で現在時刻が字幕の表示終了時刻でな いことが判断された場合、ステップ S702〖こ戻り、上述した処理を繰り返す。また、ステ ップ S702でプレイリストの再生が終了したことが確認されると、字幕の表示に関する 処理は強制的に終了する。
[0192] (実施の形態 1)
次に、実施の形態 1について説明する。 [0193] 実施の形態 1は BDの音声データにおけるストリーム構造に関し、その内容は基本 的には上記の関連する実施の形態に基づく。したがって、実施の形態 1では、関連 する実施の形態力も拡張した部分、および関連する実施の形態と異なる部分を中心 に説明する。
[0194] 図 31は階層構造を持たない 1つのアクセスユニット(映像 Z音声の情報に対する復 号および再生の符号化単位)の構造を示す図である。映像符号ィ匕方式の一つである MPEG— 2ビデオや、音声符号化方式の一つである MPEG— 1オーディオなどでは 、一つのアクセスユニットは、図 31に示すように、ヘッダ部(Base Header)と、ペイ ロード部(Base Payload)とから構成される。
[0195] Base Headerには、 Base frameの同期信号である Base SYNC、このアクセス ユニットのデータサイズを示す AU— SIZE、このアクセスユニットが Base frameから のみ構成されているか否かを示す EXT、もしこのアクセスユニットが Base frameか らのみで構成されて 、な 、場合に、どのような種類の拡張情報が付与されて 、るの かを示す EXT— ID、および、将来使用される場合のためのリザーブ領域などが設け られている。
[0196] 図 31のアクセスユニットでは階層構造は導入されておらず、 1つの符号化方式のみ で 1つのアクセスユニット全体が符号ィ匕されている。それは、 1種類の復号方式のみ で 1アクセスユニット全てを復号することができることを意味する。
[0197] 図 32は、 Base frameに、 Base frameとは異なる符号化方式により、例えば、より 高画質な映像情報やより高音質な音声情報を符号ィ匕した Levell— EXT fmmeが 追加された、 1アクセスユニットの構造を示す図である。
[0198] Base Headerの EXTは、このアクセスユニットが Base frameからのみで構成さ れていないことを示し、 EXT— IDは、他の拡張階層データの内、 Levellが Base fr ameに続 、て符号化されて!/、ることを示して!/、る。
[0199] AU— SIZEは、アクセスユニットのサイズを表す。 AU— SIZEを使うことにより、 Bas e frameしか復号できないデコーダ(Levell— EXT frameを復号できないデコー ダ)がこのアクセスユニットを Levell—EXT frameを無視しながら適切に復号でき るように、 1アクセスユニットを設計することができる。 [0200] このように、元々ある符号ィ匕単位 (Base)に新たな拡張部分 (Levell— EXT)を追 加しても、 Levell— EXT frameを無視することにより、図 32に示すアクセスユニット により構成されるストリームを復号することができる。それとともに、次々と新しい圧縮 符号ィ匕アルゴリズムを導入することができる。
[0201] 同様に Level2— EXTまで拡張されたアクセスユニットを、図 33に示す。 Level2— EXTのデータは、例えば、 Levell—EXTまでのデータのサンプリングレートより高い サンプリングレートの音声を得るための Levell—EXTまでのデータに含まれないデ ータである。
[0202] EXT— IDは、 Levellと Level2とが存在することを示すように設定される。
[0203] 図 34は、このように階層構造を持って符号ィ匕されたデータ (例えば、 Level2ストリー ム)を、様々な階層に対応したデコーダに出力するストリーム読込 Z供給部の、デー タの出力先毎に異なる動作を説明するための図である。
[0204] Baseデコーダにデータを出力する場合、ストリーム読込 Z供給部は、 Level2ストリ ームから Levell—EXTと Level2— EXTフレームとを取り除いて、 Base frameだけ を出力する。その際、ストリーム読込 Z供給部は、 Base Headerのアクセスユニット のサイズ情報である AU— SIZE、 Base frameからのみで構成されているか否かを 示す EXT、および拡張階層データの種別を示す EXT— IDの各値を書換えて、デー タを出力する。
[0205] 同様に、 Levellデコーダにデータを出力する場合、ストリーム読込 Z供給部は、 L evel2ストリームから Level2— EXT frameを取り除き、 AU—SIZE、および EXT— I Dの各値を書換えてデータを出力する。
[0206] 勿論、 Level2ストリームを Level2デコーダに出力する場合、ストリーム読込 Z供給 部は、 Level2ストリームをそのまま出力する。
[0207] ここで、 Baseと Levell—EXTとに対応した機器が広く普及しており、新たに Level 2— EXTを導入する場合を想定する。この場合、 Level2ストリームから Base frame と Levell— EXT frameとを抽出することのみを行い、抽出したデータをその機器に 対して出力することが望ましい。つまり、データを一切修正しないことが望ましい。
[0208] 図 35は、 Baseと Levell—EXTとに対応した機器が広く普及した場合に、 Level2 — EXTを導入するための理想的なアクセスユニットの構造を示す図である。
[0209] 図 35に示すアクセスユニットでは、アクセスユニットが Baseと Levell— EXTとから 構成される場合と同様に、 Levell— EXTまでのデータに関する情報は、 Base Hea der (および Levell Header)に記述されている。それに対して、 Level2— EXT以 降の拡張階層データに関する情報は、リザーブ領域のような BaseZLevell— EXT デコーダが感知しない領域に記述されている。図 35では、 EXT— IDには Level2は 存在しな!、ことを示す値が設定されて 、るが、 Levellのフレームまでは使われて!/ヽ な力つたリザーブ領域に EXT— ID2が用意され、そこに Level2の拡張階層データが 存在することが記述されて!ヽる。
[0210] 図 35に示す Level2のアクセスユニット(例えば Base、 Levell—EXT、および Lev el2— EXTを含むアクセスユニット)を、 Levellのアクセスユニット(Baseのみ、または 、 Baseおよび Levell— EXT)へ変換して出力する際、ストリーム読込 Z供給部は、 L evel2ストリームから Baseの部分と Levell—EXTの部分との抽出のみを行う。つまり 、ストリーム読込 Z供給部は、データの書換えを一切行わずに Levellのデコーダに 、 Levellのアクセスユニットにより構成されるストリームを出力することが可能となる。
[0211] 上述の方法は、 AU— SIZEなどのサイズ情報のビットの割り当て数が少なぐ Leve 12をカ卩えた際に 1アクセスユニットのデータサイズが大きすぎて、サイズ情報を AU— SIZEでは表現することができない場合などにも有効である。
[0212] 「DTS」では、 DTS+ +によりロスレス圧縮の符号化データが生成されても、サンプ リング PCMデータ如何によつては、ほとんど圧縮の効果が得られない場合がある、そ の場合、 DTSの数 100Kbpsからから DTS + + (ロスレス)の数 10Mbps辺りまで、ビ ットレートが急激に増えることが考えられる。その結果、現在の DTSの Coreヘッダに 記述されるアクセスユニットのデータサイズを示す FSIZE ( 14ビットでバイト単位のデ ータサイズを示す)では、サイズを示すためのビットフィールドが不足する問題が起こ る。このため、 DTS + +のロスレス圧縮のように、サイズを AU— SIZE (FSIZE)で記 述することができな 、場合、 AU— SIZEの範囲を 2つのデータブロックに分けることが 考えられる。
[0213] 図 36は、 Levellまでサポートする機器が存在し、新たに Level2を採用する場合の データストリームのデータ構造を示す図である。
[0214] 図 36は、 1つのアクセスユニットが、既存のプレーヤやデコーダで復号可能な Base ZLevell— EXTと、既存のプレーヤやデコーダでは復号不可能な Level2— EXT との 2つの部分力 構成されて 、ることを、明確に示して 、る。
[0215] 映像や音声のエレメンタリーストリームを MPEG2—TS (transport stream)や MPE G2 - PS (program stream)で多重化する場合、データは PESパケットと呼ばれる論 理単位に格納されることが MPEG規格で規定されている。
[0216] PESパケットは、 PESヘッダと実データを格納する PESペイロードとから構成され、 PESヘッダは図 36に示すように様々なフィールドを有する。
[0217] stream— idは、その PESパケットのペイロード部に格納されているエレメンタリース トリームの種別を示す。一般に stream— idが異なることは、エレメンタリーストリームが 異なることを示す。 PES— packet— lengthは、 PESパケットのデータサイズを示す。 PES— priorityは、その PESパケットの優先レベルを識別するための情報である。 P TS— DTS— flagsは、その PESペイロードの再生開始時刻情報である PTSと復号 開始時刻情報である DTSとがある力否かを示す情報である。 PTSと DTSの値が同じ 場合には DTSは省略される。 PES— extension— flag、および PES— extension— flag— 2は、夫々 PESパケットのペイロード部に拡張データ領域がある力否かを示す †青報で ¾>る。 stream一 id一 extensionま、 stream一 id = OxFD (extended一 strea m— id)の場合にのみ存在可能な stream— idを補うための、エレメンタリーストリーム の識別補助情報である。
[0218] アクセスユニットの Baseフレーム部分(図 36では、 Base + Levell— EXT部分)と、 Baseフレームを含まない部分(図 36では、 Level2— EXT部分)とは、後述する TS パケットの識別情報である Packet Identifier (PID)を同一にし、 stream_idを異なら せて分けられてもよいし、 PTS—DTS— flagsを異ならせて分けられてもよいし、 stre am— id— extensionを用いて分けられてもよい。 Baseフレーム部分を、 2032ノイト 、または DVD— Videoにも対応する 2013バイトで完結する部分とし、 1アクセスュ- ットのそれ以外の部分を、 Baseフレームを含まない部分とすることにより、 Baseフレー ム部分と Baseフレームを含まな!/、部分とが分けられてもよ!/、。 [0219] 例えば、 stream— id— extensionを用いる場合、 Baseフレームを含む PESバケツ トも Baseフレームを含まない PESパケットも stream_id = OxFD (プライべ一トストリ ーム)となる。そこで、 Baseフレームを含む PESパケットの stream— id— extension 値(例えば 0x70)と、 Baseフレームを含まない PESパケットの stream_id_extensi on値 (例えば 0x71)とを異なる値に設定する。これにより、プレーヤや外部出力部は Baseフレームを含むデータのみを抽出することができる。この場合、設定される strea m— id— extension値は、論理アドレス 0x40から 0x7Fのプライベートストリーム領域 に記録される。
[0220] 1つ目の PESパケットには、現存する機器に対応する(ディジタルインターフェース 上のプロトコルなどが規定されており、尚且つそれに対応した入力端子を持つ、現存 する AVレシーバに対応する) Levellまでの符号化単位を格納することができる。 2 つ目の PESパケットには、現存しない機器に対応する(ディジタルインターフェース上 のプロトコルなどが規定されて 、な 、、またはそれに対応した入力端子を持たな 、、 現存しな!、AVレシーバに対応する) Level2以降の符号ィ匕単位を格納することがで きる。
[0221] 1つ目の PESパケットと、 2つ目以降の PESパケットとは、 stream— id、 stream— id — extension、または PTS—DTS— flags、の値を判断することにより区別することが 可能である。
[0222] 上述したように、 PESヘッダには、 PES— packet— lengthなどのサイズ情報がある ため、 PESペイロードはそのサイズ情報力も極めて容易に抽出することができる。従 つて、 Levell—EXTまでの符号化単位が既存の AVレシーバやディジタルインター フェースに互換性が高く 1つ目の PESパケットにまとめて格納されて 、る場合、 1つ目 の PESパケットの PESペイロードは、 PESヘッダを解析することで容易に抽出するこ とがでさる。
[0223] 図 37を用いて、既存のプレーヤやデコーダで復号可能な BaseZLevell— EXTと 、既存のプレーヤやデコーダでは復号不可能な Level2— EXTとの 2つの部分から 構成されて ヽるアクセスユニットの処理を再度説明する。
[0224] BDプレーヤ 1000にお!/、て、複数のアクセスユニットにより構成されて 、るストリー ムが記録されている BDディスク 1001から、そのストリームがバーサ 1002に入力され る。バーサ 1002は、各アクセスユニットについて、 Baseフレーム部を含む 1つ目の P ESパケットと、 Level2— EXT部だけを含む 2つ目以降の PESパケットとを区別する。
[0225] そして、バーサ 1002は、 Baseフレーム部のみを処理することができる、 BDプレー ャ 1000内部のデコーダ 1003へ、 Baseフレーム部である 1つ目の PESパケットを出 力する。デコーダ 1003は、 1つ目の PESパケットをデコードし、デコードデータを、ス テレオ/アナログインターフェース 1004を介して、テレビ 1005に出力する。テレビ 1 005は、 BDプレーヤ 1000からのデータを再生し、そのデータに基づく画像および 音声を出力する。
[0226] また、バーサ 1002は、 SPDIF1006を介して、 BDプレーヤ 1000外部の A/Vレ シーバ 1007内の、 Baseデコーダ 1008、および、 BaseZLevell—EXTデコーダ 1 009に、 Baseフレーム部を含む 1つ目の PESパケットを出力する。 Baseデコーダ 10 08、および、 Base/Levell— EXTデコーダ 1009は、 Baseフレーム部や、それに 加えて Levell—EXTフレーム部を処理することができるデコーダであり、 BDプレー ャ 1000からの 1つ目の PESパケットを処理する。
[0227] さらに、バーサ 1002は、 Advanced Digital InterfacelOl lを介して、 Baseフ レーム部を含む 1つ目の PESパケットと、 Level2— EXT部だけを含む 2つ目以降の PESパケットとを、 AZVレシーバ 1007内の、 Level2— EXTデコーダ1012に出カ する。 Level2— EXTデコーダ 1012は、 Baseから Level2— EXTフレームまでの全 てのフレームを処理することができるデコーダであり、 BDプレーヤ 1000からの両方 の PESパケットを処理する。
[0228] このように、バーサ 1002がアクセスユニットを解析することにより、アクセスユニット は、既存のデコーダであるデコーダ 1003、 Baseデコーダ 1008、および、 BaseZLe veil— EXTデコーダ 1009に送信され、処理される。それとともに、アクセスユニット は、 Baseフレーム部を含む 1つ目の PESパケットと、 Level2— EXT部だけを含む 2 つ目以降の PESパケットとを処理することができる Level2— EXTデコーダ 1012に 出力され、処理される。
[0229] なお、図 37の BDプレーヤ 1000は、本発明のデータ再生装置の一例である。パー サ 1002はデータ分別装置の一例である。
[0230] 全デコーダで復号が保証されて 、る Baseフレームが格納された PESパケットの次 には、それに付加機能を与えることができるものの復号互換性の低 、拡張フレーム( Levell— EXTや Level2— EXTなど)が格納された PESパケットが続くことが重要で ある。また、 1アクセスユニットの中のデータの並び順は、 Base、 Levell -EXT, Lev el2— EXT、 Level3— EXT、 Level4— EXT、 · · ·と昇川頁であり、 1アクセスユニットの 全ての符号ィ匕単位を抽出する際に並べ替えが発生しないことが重要である。
[0231] DTS (Digital Theater Systems社が開発した音声符号化方式)では、 1つ目 の Base (DTSでは coreと呼ぶ)を含む PESパケットのペイロードのデータサイズは、 ディジタルインターフェースである SPDIF (Sony/Philips Digital Interconnect Format 、民生向けは IEC60958— 3規格で規定)の規定に従い、 2032バイト以下とすれば よい。これは、 48KHzでサンプリングされた音声データの内 512サンプルを 1フレー ムに格納する DTS— typel方式の場合、ビットレートに換算して 1524Kbps以下まで を 1つめの PESパケットにて格納するということになる。
[0232] ここで、 1524[Kbps] = 2032[bytes] X 8[bits/byte] X 48000[sample/sec]/ 512[sample]
[0233] DVD— Videoプレーヤから出力されるデータに準拠した DTS対応の AVレシーバ
(ホームシアターなど)との互換性を保つには、 1つ目の Baseを含む PESパケットの ペイロードのデータサイズを、 2013バイト以下とすればよい。
[0234] このようにして、 PESパケット単位で、既存のプレーヤ Zデコーダと新規のプレーヤ /デコーダとの互換性を保って、 1つのアクセスユニットのデータを分割して管理する
。つまり、ディジタルインターフェースの規定に応じて、 1つのアクセスユニットのデー タを分割して管理する。これにより、所定の拡張階層データまでを含むアクセスュニッ トデータを、一切加工することなぐかつ不整合を起こすことなく送出することができる
[0235] 図 38は、 MPEG2—TSで多重化される、階層構造を持つアクセスユニットの構造 を示す図である。
[0236] MPEG2— TSは、 1つ 188バイトの TSパケットから構成されるディジタルストリーム であり、 MPEG2—TSのプログラムの構成情報を格納している Program Map Table ( PMT)の一部は、図 38に示すような構造である。
[0237] MPEG2—TSの規定では、 1つの TSパケットが複数の PESパケットを格納すること は禁止されている。そのため、図 38に示すように、 Base + Levell— EXTの符号化 単位を格納した PESパケットと、 Level2— EXTの符号化単位を格納した PESバケツ トとは、別々の TSパケットに格納される。
[0238] MPEG2—TSには、その MPEG2—TS内に格納されているプログラムを示す PM Tパケットが格納されている。 PMTは、所定のプログラムに属する映像情報や音声情 報などの各種情報がどの PIDの TSパケットで運ばれているのかを示す elementary — stream— PIDと、そのエレメンタリーストリームの符号化種別を示す stream— typ eと、そのエレメンタリーストリームについて付加情報を記述した 1つまたは複数の des criptorとを格納して 、る。
[0239] 階層構造を持つ符号ィ匕方式に対する descriptorには、拡張階層のレベル情報 (c oding— level)や、現時点でサポートされていない、または極めて少ない拡張階層を 用いて!/ヽるか否かを示す情報 (例えば、 Level2を使って ヽるカゝ否かを示す識別情報 、 Level2— existence)や、符号化データが音声情報であれば、チャンネル配置情 報 (channel一 assignment)や、サンプリング周波数 (sampling _ frequency)など の情報が記述されることが考えられる。
[0240] 符号化データが映像情報であれば、 descriptorに、 coding— levelや、 Level2— existenceの他に、解像度情報やフレーム周波数などが記述されることが考えられる
[0241] ここで、符号ィ匕データが音声情報である場合の descriptorに記述される内容を、図 39から図 41を用いて説明する。
[0242] 図 39に示すように、 descriptorには、レベルと、オーディオ属性(Q値、周波数、チ ヤンネル、およびスピーカレイアウト)との関係を記述することができる。スピーカレイァ ゥトの情報を利用することにより、デコーダは、処理するストリームのレイアウトと、実際 のレイアウトとが異なっていても、適宜チャンネル毎に修正することができる。図 40 (A )に、 5. 1チャンネルのスピーカレイアウトを示し、図 40 (B)に、 7. 1チャンネルのスピ 一力レイアウトを示す。
[0243] 上述したように、 descriptorには、 Levelとチャンネルとの関係を記述することがで きる。
[0244] それだけではなく、図 41の"チャンネル構造"に示すように 2チャンネルや 5. 1チヤ ンネルのダウンミックス音が含まれているカゝ否かをチャンネル数情報として記述しても よい。これにより、各チャンネルに対応するデコーダは、適切に音を出力可能力否か 識別することができる。例えば、チャンネル構造が 7. lch (2 + 3. 1 + 2の階層構造) である場合、 2ch decoderは、 2チャンネルの音を出力することができ、 5. lch de coderは、 5. 1チャンネル(2 + 3. 1チャンネル)の音を出力することができる。しかし ながら、チャンネル構造がこのような階層構造を伴わない 7. lchである場合、処理量 の都合から 2ch decoderおよび 5. lch decoderは、音を出力することができない 可能性がある。
[0245] DTSのデータは、 DTS (Baseに相当)および DTS + (Levell— EXTに相当)のデ ータと、 DTS + + (Level2— EXTに相当)のデータとに分けられる。
[0246] DTS +も DTS + +も、どちらも拡張階層データを含む力 その扱いは異なる。その ため、 descriptorに、対象ストリームが DTS/DTS +であるの力、 DTS + +である のかを識別するための情報(図 38の Level2— existenceに相当)が含められてもよ い。
[0247] なお、 Level2— existenceは、対象ストリームが DVD— Videoと同様の形式(DTS typel形式)で SPDIFへ出力可能な部分だけを含んで 、るのか否かを示す情報と して用いられてもよい。
[0248] これら、 Level2— existenceや、 coding— levelの情報は、データベースファイル( 図 13の VOBIファイルの Attribute内など)に記述されてもよい。これらの情報は、デ イジタルデータを出力する際の抽出処理が異なることを示すのは勿論であるが、 BD のメニュー画面などで映像や音声の属性表示 Z選択に利用することも可能である。 例えば、 Level2に対応していないプレーヤは、復号対象のストリーム力Level2のスト リームであることをデータベース力 判定し、 Level2の音声を予め選択不可能として ユーザに供することもできる。 [0249] 図 42は、 BD—ROMなどの光ディスクに記録する際の MPEG2—TSのファイルフ ォーマットを示す図である。
[0250] TSパケット毎に、 4バイトの Arrival Time Stamp (ATS, TSパケットのデコーダへの 入力開始時刻情報)が付与されて 1つの Timed TSパケットが構成され、 32個の Ti med TSパケットがまとめて 3セクタ(6KB)に記録される。
[0251] 図 43は、 DVD— Videoで規定される DTSの詳細を説明するための図である。
[0252] DVD— Videoでは、 1アクセスユニットの最大サイズは 2013バイトと定めてられて V、るが、これが DTSZDTS + ZDTS + +の何れに属するかは規定されて!、な!/、。 つまり、 48KHzで 512サンプル分の音声情報を表す 1アクセスユニットは、 coreのみ で構成されて 、てもよ 、し、 coreと extensionとから構成されて!、てもよ!/、。
[0253] 最大 2013バイトの 1アクセスユニットは PESペイロードに格納され、 PESヘッダ(PE Shdr)とパックヘッダ(Packhdr)とが付与され、全体のサイズは 2KBとなる。
[0254] PESペイロードの音声データだけを格納した DTSバーストペイロードが形成され、 それに、 2バイトずつで計 8バイトのプリアンブル群(Pa, Pb, Pc, Pd)と、 stuffingデ ータとが付与されて、 2KBの IEC61937— 5フレームが形成される。
[0255] SPDIF (IEC60958— 3)は 192フレームを 1ブロックとした周期で転送される。 1フ レームは 2つのサブフレームから成り、サブフレームは IEC61937— 5フレームの内 の 2バイトのデータを運ぶ 4バイトのデータである。
[0256] 従って、 DVD— Videoと互換性を保つように DTSのデータを送るには、 IEC6193 7— 5フレームの内 2013バイトまでに収まるように、 coreと extensionのビット量を制 御すればよい。これにより、データの種類が DTSZDTS + ZDTS + +の何れであ るのかを問う必要はなくなる。
[0257] これが、 BD— ROMで DTS + +を格納する場合、 coreを含む PESパケットのペイ ロード部を 2013バイト以下の符号ィ匕単位とする理由である。
[0258] 当然ながら DVD— Videoと同様に、 2013バイト以下で 1アクセスユニットを構成す るフレームが完結している必要がある。例えば、 Baseフレームと Levell—EXTフレ ームのサイズが 2014バイトであるならば、全体が 2013バイトに収まるように再ェンコ ードするか、 Baseフレームだけの PESパケットを構成し、 Levell—EXTは多重化順 序が次の PESパケットに格納するなどとする必要がある。
[0259] 図 44は、デマルチプレクサ 310 (図 7)、および、ストリーム読込 Z供給部(図 34)の 処理を示すフローチャートである。
[0260] S801は、 SPDIFに対応するために、図 36に示すアクセスユニットの一部を抽出し て外部に出力するディジタル出力開始ステップである。
[0261] S802は再生終了判定ステップであり、 YESの場合、データの出力を終了し、 NO の場合、 PESパケットの処理 S803へ進む。
[0262] S803では、 PIDによる TSパケットの弁別と、 PESパケットのヘッダの解析と、 strea m― id― extensionの み出しとを行う。
[0263] S804では、 stream— id— extensionを判定する。そのフィールドの値力 "0x71 ( 非 Baseフレーム部) "である場合は S805へ進み、 "0x70 (Baseフレーム部) "である 場合は S806へ進む。
[0264] S805は、 S804で、 PESパケットが非 Baseフレーム部であると判定された場合に行 われるステップであり、 S805では PESパケットを破棄する。
[0265] S806は、 S804で、 PESパケットが Baseフレーム部であると判定された場合に行わ れるステップである。 S806では、 PESパケットのペイロード(Base + Levell—EXT) を取り出し、図 7および図 34を用いて説明したとおり、フレームデータをデコーダまた は既存ディジタル IZFへ出力する。
[0266] S805および S806の後に、再生終了判定ステップ S802へと戻る。
[0267] 次に、既存のプレーヤやデコーダで復号可能な BaseZLevell— EXT (以下、単 に" Base"という)と、既存のプレーヤやデコーダでは復号不可能な Level2— EXT ( 以下、単に" Level2"という)とを 1個のアクセスユニットに多重化する方法を説明する
[0268] 先ず、図 45を用いて、入力時刻管理装置 2000と、 TS system target decode r model (以下、 "デコーダモデル"または" T—STD"という) 3000とを説明する。
[0269] 図 45に示すように、入力時刻管理装置 2000は、リードバッファ(RB)と、 de-pack etizerと、 ATS Counterと、 27MHz Clockとを有する。 RBは、 "xxxx. vob"ファ ィルを一時的に蓄積する。 de— packetizerは、 "xxxx. vob"の TSパケットから ATS を除去し、最初の TSパケットから ATSを除去するとき、最初の TSパケットの ATSの 値を、 ATS Counterにセットする。また、 de— packetizerは、 ATSの時刻通りに各 TSパケットのみを T— STD3000に出力する。 27MHz Clockは、 27MHzでクロッ クを出力する。
[0270] 図 45に示すように、デコーダモデル 3000は、デマルチプレクサと、画像に関する バッファである TB、 MB、および EBと、デコーダ Dvと、音データの Baseに関するバッ ファである TBalおよび Balと、デコーダ Dalと、音データの「Base + Level2」に関 するバッファである TBa2および Ba2と、デコーダ Da2と、システムデータに関するバ ッファである TBsysおよび Bsysと、デコーダ Dsysとを有する。
[0271] 画像データは、 TB、 MB、 EB、およびデコーダ Dvの順に処理される。音データの Baseは、 TBal, Bal、およびデコーダ Dalの順に処理される。音データの「Base + Level2」は、 TBa2、 Ba2、およびデコーダ Da2の順に処理される。システムデータは 、 TBsys, Bsys,およびデコーダ Dsysの順に処理される。
[0272] 音データの Baseがデコードされるラインと、音データの「Base + Level2」がデコー ドされるラインとでは、夫々のストリームの属性に応じてバッファ間のデータの転送レ ートや、ノ ッファのサイズなどデコーダの仕様が異なる。従って、両方の仕様に対応 するように、 Baseと Level2とを多重化しなければならない。 Baseのみをデコードする 場合、そのデコーダライン (TBal、 Bal、およびデコーダ Dal)で、ノ ッファを破綻さ せずに Baseのみをデコードすることができなければならない。「Base + Level2」をデ コードする場合、そのデコーダライン (TBa2、 Ba2、およびデコーダ Da2)で、バッフ ァを破綻させずに「Base + Level2」をデコードすることができなければならない。つま り、 Baseのデコーダライン(TBal、 Bal、およびデコーダ Dal)でも、「: Base + Level 2」のデコーダライン (TBa2、 Ba2、およびデコーダ Da2)でも、バッファを破綻させな いように、 Baseと Level2とを 1本のストリームとして同一 PIDにて多重化しなければな らない。
[0273] 図 46を用いて、 Baseと、「Base + Level2」とをそれぞれのデコーダラインでデコー ドする際の、 TBalおよび TBa2のデータ蓄積量の推移を説明する。
[0274] TBalにつ!/、ては、 n番目のアクセスユニット(Access Unit # n)の Base (Base # n)が、時刻 ATS— b#nからビットレート (R )で入力して蓄積されると同時に Rbal
TS
のレートで Balへと引き抜かれる。 Base #nの入力が終了すると、蓄積データ量は一 定のビットレート(—Rbal)で減少する。(n+1)番目のアクセスユニット(Access U nit#n+l)の Base(Base#n+l)力 時刻 ATS b#n+l力らビットレート(R )
― TS で入力して蓄積する。図 46では、 Base#n+1の入力が終了するまでに、 TBalはォ 一バーフローする。つまり、ノ ッファは破綻する。以降同様の処理が続く。
[0275] TBa2につ!/、ては、 n番目のアクセスユニット(Access Unit # n)の Base (Base # n)が、時刻 ATS b#nからビットレート (R )で入力して蓄積されると同時に Rbal
TS
のレートで Ba2へと引き抜かれる。 Base #nの入力が終了すると、蓄積データ量は一 定のビットレート(—Rba2)で減少する。そして、 n番目のアクセスユニットの 2個の Le vel2(Level2#n)力 入力され蓄積する。入力が無い期間の TBa2の蓄積データ量 はビットレート(—Rba2)で減少する。以降同様の処理が続く。図 46では、 TBa2はォ 一バーフローしない。つまり、バッファは破綻しない。
[0276] 図 46の場合、 Base #nのみに対応するデコーダラインは、 1個のアクセスユニットが 1つの PESパケットに格納される Baseと、 Levellとから構成されているストリームしか デコードすることができず、 Level2を含むような高ビットレートのストリームは処理でき ない。このように低ビットレートしか対応できない TBalを破綻させないためには、 TBa 1への Base #n+lの入力時刻を遅らせる必要がある。つまり、下記の式 3が満たさ れなければならない。
[0277] TBal (ATS b#n+l) +188X (1— RbalZR )
― TS
≤TBalのサイズ =512 (式 3)
[0278] 式 3は、時刻 ATS— b #n+ 1における TBalのデータ蓄積量に、 1つの TSパケット を入力する際に増加するバイト量(188 X (1— RbalZR ))が加算されても、 TBal
TS
のサイズを超えないことを意味する。式 3を満たす時刻 ATS— b#n+l以降に、 Bas e # n+ 1を多重化するように、 ATSを設定し、ストリームに Base # n+ 1を多重化しな ければならない。
[0279] さらに、 Base (1つ目の PESパケット)が格納される TSパケットの数を Nbasとし、 Le vel2 (2つ目の PESパケット)が格納される TSパケットの数を Nextとすると、 Baseと L evel2とをデコード順に転送するためには、下記の式 4が満たされなければならな 、。
[0280] [ (Nbas+Next) X 188 X 8/R ] X 27000000
TS
≤ ATS_b # (n+ l)— ATS_b # n (式 4)
[0281] ここで、ビットレート Rbal, R の単位は、 bits/secondであり、 27000000は ATS
TS
の時刻精度のクロック周波数を意味する。 Nbas, Nextの値は、夫々の Codecの最 大ビットレートなどの情報力も算出することができる。
[0282] 例えば、 DTS + +の場合、サンプリング周波数力 S48KHzで、 512サンプル ZAcc ess Unit (DTS—typel)でCore (Base)がlMbpsの固定レート、 XLL (Level2) が単独で 24Mbpsであるとすると、 XLLのデータ長 = 24Mbps X 512Z48K= 320
OObytesとなる。これを格納するには、 TS/PESヘッダのオーバーヘッドも含めて、
174個の TSパケットが必要となる。
[0283] 上記の式 3および 4が満たされるように、多重化処理は行われなければならず、 Bas eおよび Level2を含む TSパケットに適切な ATSを付カ卩し、多重化する。これにより、 ノ ッファは破淀しない。
[0284] なお、バッファは、データがオーバーフローする場合だけでなぐアンダーフローす る場合にも破綻する。データがアンダーフローしないように、 Baseと Level2とを多重 化しなければならない。そのため、データがオーバーフローすることを防止する場合 と同様に、バッファのサイズ、バッファへ入力するデータのサイズ、バッファへ入力す るデータの速度、および、バッファから出力するデータの速度に基づいて、データが アンダーフローしな!、ように、 Baseと Level2とを多重化する。
[0285] 要するに、各デコーダモデルにおいて、バッファのサイズ、バッファへ入力するデー タのサイズ、ノ ッファへ入力するデータの速度、および、ノ ッファから出力するデータ の速度を考慮して、各デコーダモデルが破綻しないように、 Baseと Level2とを多重 化する。
産業上の利用可能性
[0286] 本発明の情報記録媒体は、映像や音声のデータが記録される光ディスク等として 有用である。本発明のデータ分別装置は、光ディスク等の本発明の情報記録媒体に 記録されているデータから、既存のデコーダまたは、既存のディジタル IZFに対応す る基礎圧縮データを抜き出す装置等として有用である。本発明のデータ再生装置は 、光ディスク等の本発明の情報記録媒体力 上記基礎圧縮データを抜き出して再生 する装置等として有用である。本発明のデータ再生装置は、光ディスク等の本発明の 情報記録媒体からのデータに限らず、放送やネットワークを通して供給されるオーデ ィォデータや、ハードディスクや半導体メモリなどの記録メディア上のオーディオデー タを再生する再生装置などにも有用である。

Claims

請求の範囲
[1] 複数のアクセスユニットを有する、画像及び音の少なくとも一方を含むストリームが 記録される情報記録媒体であって、
1個の前記アクセスユニットは、基本データを含む第 1のパケットと、前記基本デー タと関連する拡張データを含む第 2のパケットとを有し、
前記基本データは、前記拡張データを必要とすることなく完全な状態に復号するこ とができるデータであり、前記拡張データは、前記基本データから生成されるデータ の質を向上させるためのデータであり、
前記第 1のパケットのサイズは、所定のサイズ以下である
情報記録媒体。
[2] 前記所定のサイズは、前記基本データのみを復号するデコーダをサポートするイン ターフェースが許可するビットレートの上限に対応する値である
請求項 1記載の情報記録媒体。
[3] 前記第 1のパケットの符号ィ匕方式は、前記第 2のパケットの符号化方式と異なる 請求項 1記載の情報記録媒体。
[4] 各前記アクセスユニットは一定時間のデータである
請求項 1記載の情報記録媒体。
[5] 前記拡張データが前記アクセスユニットに含まれていることを示す情報力 前記ァク セスユニットの、前記基本データのみを復号するデコーダが識別しな 、領域に格納さ れている
請求項 1記載の情報記録媒体。
[6] 前記領域は、前記アクセスユニットの、前記デコーダが前記基本データを復号する 際には使用しな 、リザーブ領域である
請求項 5記載の情報記録媒体。
[7] 前記第 1のパケットのヘッダは、前記第 1のパケットが前記基本データを含むバケツ トであることを示す第 1の情報を持ち、
前記第 2のパケットのヘッダは、前記第 2のパケットが前記拡張データを含むバケツ トであることを示す第 2の情報を持つ 請求項 1記載の情報記録媒体。
[8] 前記第 1のパケットのヘッダは、 stream— id— extensionフィールドに前記第 1の 情報を持ち、
前記第 2のパケットのヘッダは、 stream— id— extensionフィールドに前記第 2の 情報を持つ
請求項 7記載の情報記録媒体。
[9] 前記ストリームは、前記第 1のパケット及び前記第 2のパケットの属性を示す情報を 有する
請求項 1記載の情報記録媒体。
[10] 前記情報は、前記ストリームの descriptorに記述されている
請求項 9記載の情報記録媒体。
[11] 前記アクセスユニットは、音に関するデータであって、
前記属性は、チャンネル、周波数、ビットレート、及び、 2チャンネルのダウンミックス データの存在の有無、の少なくとも一つを特定する
請求項 9記載の情報記録媒体。
[12] 前記第 1のパケット及び前記第 2のパケットは、前記基本データのみを復号する第 1 のデコーダのバッファモデルを破綻させず、かつ、前記基本データ及び前記拡張デ 一タを復号する第 2のデコーダのバッファモデルを破綻させないように、ノ ッファに入 力する際の相対時刻を示すタイムスタンプが付与されて、多重化されている
請求項 1記載の情報記録媒体。
[13] 前記タイムスタンプの値は、前記第 1のデコーダ及び前記第 2のデコーダのバッファ モデルにおける、バッファのサイズと、前記バッファへ入力するデータの速度と、前記 ノ ッファから出力するデータの速度と、前記第 1のパケットのサイズと、前記第 2のパ ケットのサイズとに基づいて決定される
請求項 12記載の情報記録媒体。
[14] 請求項 1記載の情報記録媒体に記録されて 、る前記アクセスユニットを取得する取 得手段と、
前記アクセスユニットを前記基本データと前記拡張データとに分別する分別手段と を備えるデータ分別装置。
[15] 請求項 14記載のデータ分別装置と、
前記基本データのみを復号する復号手段とを備え、
前記データ分別装置は、前記復号手段により前記アクセスユニットを再生させる場 合、前記拡張データを廃棄する
データ再生装置。
[16] 請求項 1記載の情報記録媒体に記録されて 、る前記アクセスユニットを取得して、 前記アクセスユニットから前記拡張データを廃棄し、
前記アクセスユニットのうちの前記基本データのみを復号する
データ再生方法。
[17] 請求項 1記載の情報記録媒体に記録されて 、る前記アクセスユニットを取得して、 前記アクセスユニットから前記拡張データを廃棄し、
前記アクセスユニットのうちの前記基本データのみを復号する
ことをコンピュータに実行させるためのプログラム。
PCT/JP2005/014982 2004-08-17 2005-08-17 情報記録媒体、データ分別装置、及びデータ再生装置 WO2006019104A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US11/659,022 US8249415B2 (en) 2004-08-17 2005-08-17 Information recording medium, data discrimination device, and data reproduction device
JP2006531813A JP4593570B2 (ja) 2004-08-17 2005-08-17 情報記録媒体、データ分別装置、データ再生装置及び記録方法
EP05772771A EP1780714A4 (en) 2004-08-17 2005-08-17 INFORMATION RECORDING MEDIUM, DATA DISCRIMINATION DEVICE AND DATA REPRODUCTION DEVICE
KR20077002032A KR20070034607A (ko) 2004-08-17 2005-08-17 정보 기록 매체, 데이터 분별 장치, 및 데이터 재생 장치

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2004-237160 2004-08-17
JP2004237160 2004-08-17
JP2004-283896 2004-09-29
JP2004-283897 2004-09-29
JP2004283896 2004-09-29
JP2004283897 2004-09-29

Publications (1)

Publication Number Publication Date
WO2006019104A1 true WO2006019104A1 (ja) 2006-02-23

Family

ID=35907489

Family Applications (4)

Application Number Title Priority Date Filing Date
PCT/JP2005/014986 WO2006019108A1 (ja) 2004-08-17 2005-08-17 情報記録媒体、及びデータ再生装置
PCT/JP2005/014980 WO2006019102A1 (ja) 2004-08-17 2005-08-17 情報記録媒体、データ分別装置、及びデータ再生装置
PCT/JP2005/014981 WO2006019103A1 (ja) 2004-08-17 2005-08-17 情報記録媒体、及び多重化装置
PCT/JP2005/014982 WO2006019104A1 (ja) 2004-08-17 2005-08-17 情報記録媒体、データ分別装置、及びデータ再生装置

Family Applications Before (3)

Application Number Title Priority Date Filing Date
PCT/JP2005/014986 WO2006019108A1 (ja) 2004-08-17 2005-08-17 情報記録媒体、及びデータ再生装置
PCT/JP2005/014980 WO2006019102A1 (ja) 2004-08-17 2005-08-17 情報記録媒体、データ分別装置、及びデータ再生装置
PCT/JP2005/014981 WO2006019103A1 (ja) 2004-08-17 2005-08-17 情報記録媒体、及び多重化装置

Country Status (7)

Country Link
US (4) US7949930B2 (ja)
EP (4) EP1780714A4 (ja)
JP (6) JP4593570B2 (ja)
KR (10) KR100869605B1 (ja)
CN (3) CN101006507B (ja)
TW (1) TWI377564B (ja)
WO (4) WO2006019108A1 (ja)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101006508B (zh) 2004-08-17 2012-10-17 松下电器产业株式会社 记录方法、数据区别装置、以及数据再生装置和方法
TWI377564B (en) 2004-08-17 2012-11-21 Panasonic Corp Information storage medium and multiplexing device
WO2006103578A1 (en) * 2005-03-29 2006-10-05 Koninklijke Philips Electronics N.V. Method and device for providing multiple video pictures
JP4670604B2 (ja) * 2005-11-21 2011-04-13 ブラザー工業株式会社 情報配信システム、情報処理装置、情報処理プログラム及び情報処理方法
US8139612B2 (en) * 2006-04-04 2012-03-20 Qualcomm Incorporated Methods and apparatus for dynamic packet mapping
US8213548B2 (en) 2006-04-04 2012-07-03 Qualcomm Incorporated Methods and apparatus for dynamic packet reordering
JP4325657B2 (ja) * 2006-10-02 2009-09-02 ソニー株式会社 光ディスク再生装置、信号処理方法、およびプログラム
KR101310894B1 (ko) * 2006-10-17 2013-09-25 주식회사 넷앤티비 LASeR 서비스에서 다른 SAF 세션의 스트림 참조방법, 기록매체, 장치 및 그 서비스 제공 장치
US8416859B2 (en) * 2006-11-13 2013-04-09 Cisco Technology, Inc. Signalling and extraction in compressed video of pictures belonging to interdependency tiers
US20090180546A1 (en) 2008-01-09 2009-07-16 Rodriguez Arturo A Assistance for processing pictures in concatenated video streams
US8875199B2 (en) * 2006-11-13 2014-10-28 Cisco Technology, Inc. Indicating picture usefulness for playback optimization
US20080115175A1 (en) * 2006-11-13 2008-05-15 Rodriguez Arturo A System and method for signaling characteristics of pictures' interdependencies
US8873932B2 (en) 2007-12-11 2014-10-28 Cisco Technology, Inc. Inferential processing to ascertain plural levels of picture interdependencies
US20100061466A1 (en) * 2007-03-26 2010-03-11 Shinya Gozen Digital broadcast transmitting apparatus, digital broadcast receiving apparatus, and digital broadcast transmitting/receiving system
JP5057820B2 (ja) * 2007-03-29 2012-10-24 株式会社東芝 デジタルストリームの記録方法、再生方法、記録装置、および再生装置
US8958486B2 (en) * 2007-07-31 2015-02-17 Cisco Technology, Inc. Simultaneous processing of media and redundancy streams for mitigating impairments
US8804845B2 (en) * 2007-07-31 2014-08-12 Cisco Technology, Inc. Non-enhancing media redundancy coding for mitigating transmission impairments
DE202008010463U1 (de) * 2007-08-07 2009-04-23 Plds Taiwan (Philips & Lite-On Digital Solutions Corporation) Optischer Datenträger sowie eine Vorrichtung zum Aufzeichnen auf einen scheibenförmigen optischen Datenträger
EP2213097A2 (en) * 2007-10-16 2010-08-04 Cisco Technology, Inc. Conveyance of concatenation properties and picture orderness in a video stream
TWI357263B (en) 2008-02-22 2012-01-21 Novatek Microelectronics Corp Method and related device for converting transport
US8416858B2 (en) * 2008-02-29 2013-04-09 Cisco Technology, Inc. Signalling picture encoding schemes and associated picture properties
WO2009152450A1 (en) 2008-06-12 2009-12-17 Cisco Technology, Inc. Picture interdependencies signals in context of mmco to assist stream manipulation
US8699578B2 (en) * 2008-06-17 2014-04-15 Cisco Technology, Inc. Methods and systems for processing multi-latticed video streams
US8705631B2 (en) * 2008-06-17 2014-04-22 Cisco Technology, Inc. Time-shifted transport of multi-latticed video for resiliency from burst-error effects
US8971402B2 (en) 2008-06-17 2015-03-03 Cisco Technology, Inc. Processing of impaired and incomplete multi-latticed video streams
US20090323822A1 (en) * 2008-06-25 2009-12-31 Rodriguez Arturo A Support for blocking trick mode operations
US8320465B2 (en) 2008-11-12 2012-11-27 Cisco Technology, Inc. Error concealment of plural processed representations of a single video signal received in a video program
US8572036B2 (en) * 2008-12-18 2013-10-29 Datalight, Incorporated Method and apparatus for fault-tolerant memory management
US8949883B2 (en) 2009-05-12 2015-02-03 Cisco Technology, Inc. Signalling buffer characteristics for splicing operations of video streams
US8279926B2 (en) 2009-06-18 2012-10-02 Cisco Technology, Inc. Dynamic streaming with latticed representations of video
US20110222837A1 (en) * 2010-03-11 2011-09-15 Cisco Technology, Inc. Management of picture referencing in video streams for plural playback modes
CA2944869C (en) * 2014-09-10 2023-01-03 Panasonic Intellectual Property Corporation Of America Recording medium, playback device, and playback method
JP2016100039A (ja) * 2014-11-17 2016-05-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 記録媒体、再生方法、および再生装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08339637A (ja) * 1995-04-11 1996-12-24 Toshiba Corp 記録媒体とこの記録媒体へのデータの記録装置とその記録方法、その記録媒体からのデータの再生装置とその再生方法
JPH09102932A (ja) * 1995-08-02 1997-04-15 Sony Corp データ記録方法及び装置、データ記録媒体、データ再生方法及び装置
JP2000115787A (ja) * 1998-10-09 2000-04-21 Matsushita Electric Ind Co Ltd Mpeg―2ビットストリ―ムから選択されたユ―ザデ―タを取り除くプログラム可能なフィルタ
JP2003502704A (ja) * 1999-06-21 2003-01-21 デジタル・シアター・システムズ・インコーポレーテッド デコーダの互換性を失わない確立済み低ビット・レートのオーディオ・コード化システムの音質の改善
JP2003518354A (ja) * 1999-12-21 2003-06-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 伝送媒体を介する第1及び第2のデジタル情報信号の伝送

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5842033A (en) 1992-06-30 1998-11-24 Discovision Associates Padding apparatus for passing an arbitrary number of bits through a buffer in a pipeline system
US5623344A (en) * 1992-09-01 1997-04-22 Hitachi America, Ltd. Digital video recording device with trick play capability
US5805762A (en) 1993-01-13 1998-09-08 Hitachi America, Ltd. Video recording device compatible transmitter
CA2141672A1 (en) * 1993-06-10 1994-12-22 Markus H. Veltman Rational input buffer arrangements for auxiliary information in video and audio signal processing systems
KR100256663B1 (ko) 1995-04-11 2000-05-15 니시무로 타이죠 데이타 기록 매체
US5956088A (en) * 1995-11-21 1999-09-21 Imedia Corporation Method and apparatus for modifying encoded digital video for improved channel utilization
JPH09282848A (ja) 1996-04-05 1997-10-31 Pioneer Electron Corp 情報記録媒体並びにその記録装置及び再生装置
US6567612B2 (en) 1996-04-05 2003-05-20 Pioneer Electronic Corporation Information record medium, apparatus for recording the same and apparatus for reproducing the same
JP3340384B2 (ja) 1997-03-25 2002-11-05 三星電子株式会社 Dvdオーディオディスク及びこれを再生する装置及び方法
US6222983B1 (en) * 1997-03-25 2001-04-24 Samsung Electronics Co., Ltd. DVD-audio disk, and apparatus and method for playing the same
KR100265112B1 (ko) 1997-03-31 2000-10-02 윤종용 디브이디 디스크와 디브이디 디스크를 재생하는 장치 및 방법
KR100215476B1 (ko) 1997-06-02 1999-08-16 윤종용 디지털 다기능 디스크(dvd) 및 dvd재생장치
US7113523B1 (en) * 1997-06-11 2006-09-26 Sony Corporation Data multiplexing device, program distribution system, program transmission system, pay broadcast system, program transmission method, conditional access system, and data reception device
EP0933776A3 (en) 1998-01-30 2006-05-17 Victor Company of Japan, Ltd. Signal encoding apparatus, audio data transmitting method, audio data recording method, audio data decoding method and audio disc
JP3988006B2 (ja) 1998-04-24 2007-10-10 ソニー株式会社 情報伝送装置および情報再生装置
JP3872896B2 (ja) 1998-06-01 2007-01-24 株式会社東芝 音声再生装置
KR100657237B1 (ko) 1998-12-16 2006-12-18 삼성전자주식회사 데이터열간의 연속 재생을 보장하기 위한 부가 정보 생성 방법
KR200227364Y1 (ko) 1999-06-29 2001-06-15 이계안 동력 조향 장치의 오일 탱크 마운팅 구조
US6999827B1 (en) * 1999-12-08 2006-02-14 Creative Technology Ltd Auto-detection of audio input formats
US7133449B2 (en) * 2000-09-18 2006-11-07 Broadcom Corporation Apparatus and method for conserving memory in a fine granularity scalability coding system
AU2002214127B2 (en) * 2000-10-27 2007-06-07 J. Craig Venter Institute, Inc. Nucleic acids and proteins from streptococcus groups A and B
JP3867516B2 (ja) 2001-05-17 2007-01-10 ソニー株式会社 ディジタル放送受信装置及び方法、情報処理装置及び方法、並びに、情報処理システム
JP4556356B2 (ja) 2001-07-16 2010-10-06 船井電機株式会社 録画装置
JP3862630B2 (ja) 2001-07-23 2006-12-27 松下電器産業株式会社 情報記録媒体、情報記録媒体に情報を記録する装置及び方法
US7945143B2 (en) 2001-07-23 2011-05-17 Panasonic Corporation Information recording medium, and apparatus and method for recording information on information recording medium
JP2003100014A (ja) * 2001-09-25 2003-04-04 Nec Corp 記録再生管理・制御装置及び記録再生管理・制御方法
US7649829B2 (en) * 2001-10-12 2010-01-19 Qualcomm Incorporated Method and system for reduction of decoding complexity in a communication system
US20050013583A1 (en) 2001-11-20 2005-01-20 Masanori Itoh Audio/video information recording/reproducing apparatus and method, and recording medium in which information is recorded by using the audio/video information recording/reproducing apparatus and method
CA2439048C (en) 2001-11-30 2011-10-04 Matsushita Electric Industrial Co., Ltd. A method and an apparatus for stream conversion, a method and an apparatus for data recording, and data recording medium
US7480441B2 (en) * 2001-12-20 2009-01-20 Thomson Licensing Method for seamless real-time splitting and concatenating of a data stream
US7356147B2 (en) * 2002-04-18 2008-04-08 International Business Machines Corporation Method, system and program product for attaching a title key to encrypted content for synchronized transmission to a recipient
US6842831B2 (en) * 2002-04-25 2005-01-11 Intel Corporation Low latency buffer control system and method
KR100458878B1 (ko) * 2002-05-03 2004-12-03 학교법인 경희대학교 Fec 코딩 방식에 기초한 가변길이 패킷 송수신 방법
US7581019B1 (en) 2002-06-05 2009-08-25 Israel Amir Active client buffer management method, system, and apparatus
US20050220441A1 (en) 2002-07-16 2005-10-06 Comer Mary L Interleaving of base and enhancement layers for hd-dvd
WO2004008757A1 (en) * 2002-07-16 2004-01-22 Thomson Licensing S.A. Interleaving of base and enhancement layers for hd-dvd
JP3668213B2 (ja) 2002-08-13 2005-07-06 株式会社東芝 Hdコンテンツとsdコンテンツとを記録する光ディスク及び光ディスク装置
US7668842B2 (en) * 2002-10-16 2010-02-23 Microsoft Corporation Playlist structure for large playlists
CN100417219C (zh) * 2002-12-03 2008-09-03 汤姆森特许公司 用于将信号数据编码的方法
CN1512768A (zh) * 2002-12-30 2004-07-14 皇家飞利浦电子股份有限公司 一种在hd-dvd系统中用于生成视频目标单元的方法
US7702405B2 (en) * 2004-06-02 2010-04-20 Standard Microsystems Corporation System and method for transferring non-compliant packetized and streaming data into and from a multimedia device coupled to a network across which compliant data is sent
TWI377564B (en) * 2004-08-17 2012-11-21 Panasonic Corp Information storage medium and multiplexing device
CN101006508B (zh) 2004-08-17 2012-10-17 松下电器产业株式会社 记录方法、数据区别装置、以及数据再生装置和方法
WO2006038715A1 (en) * 2004-10-07 2006-04-13 Matsushita Electric Industrial Co., Ltd. Information storage medium, ts packet judgment apparatus, and data reproduction apparatus
US7423756B2 (en) * 2007-01-31 2008-09-09 G & A Technical Software, Inc. Internally-calibrated, two-detector gas filter correlation radiometry (GFCR) system
US20090204668A1 (en) * 2008-02-12 2009-08-13 Sydney Furan Huang System and process for distant pulse diagnosis

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08339637A (ja) * 1995-04-11 1996-12-24 Toshiba Corp 記録媒体とこの記録媒体へのデータの記録装置とその記録方法、その記録媒体からのデータの再生装置とその再生方法
JPH09102932A (ja) * 1995-08-02 1997-04-15 Sony Corp データ記録方法及び装置、データ記録媒体、データ再生方法及び装置
JP2000115787A (ja) * 1998-10-09 2000-04-21 Matsushita Electric Ind Co Ltd Mpeg―2ビットストリ―ムから選択されたユ―ザデ―タを取り除くプログラム可能なフィルタ
JP2003502704A (ja) * 1999-06-21 2003-01-21 デジタル・シアター・システムズ・インコーポレーテッド デコーダの互換性を失わない確立済み低ビット・レートのオーディオ・コード化システムの音質の改善
JP2003518354A (ja) * 1999-12-21 2003-06-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 伝送媒体を介する第1及び第2のデジタル情報信号の伝送

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1780714A4 *

Also Published As

Publication number Publication date
CN101006513B (zh) 2011-08-17
KR101074604B1 (ko) 2011-10-17
KR20080106592A (ko) 2008-12-08
KR100890095B1 (ko) 2009-03-24
EP1780714A4 (en) 2010-06-16
JP4568725B2 (ja) 2010-10-27
JP2010225264A (ja) 2010-10-07
KR20100090309A (ko) 2010-08-13
TWI377564B (en) 2012-11-21
CN101872635A (zh) 2010-10-27
KR100978723B1 (ko) 2010-08-30
US8249415B2 (en) 2012-08-21
EP1780713B1 (en) 2011-10-19
JP4593570B2 (ja) 2010-12-08
EP1780713A1 (en) 2007-05-02
KR100876492B1 (ko) 2008-12-31
JP4551403B2 (ja) 2010-09-29
KR20070029824A (ko) 2007-03-14
KR100869605B1 (ko) 2008-11-21
TW200614174A (en) 2006-05-01
EP1780712A4 (en) 2010-06-16
EP1791123A4 (en) 2010-06-30
CN101006507A (zh) 2007-07-25
US7792012B2 (en) 2010-09-07
KR100865826B1 (ko) 2008-10-28
JPWO2006019104A1 (ja) 2008-05-08
EP1791123A1 (en) 2007-05-30
EP1780712B1 (en) 2012-09-19
JP4951087B2 (ja) 2012-06-13
US20070271492A1 (en) 2007-11-22
JPWO2006019103A1 (ja) 2008-05-08
KR20070029823A (ko) 2007-03-14
JPWO2006019102A1 (ja) 2008-05-08
KR20080058505A (ko) 2008-06-25
CN101006513A (zh) 2007-07-25
JPWO2006019108A1 (ja) 2008-05-08
WO2006019102A1 (ja) 2006-02-23
EP1780713A4 (en) 2010-06-16
EP1780712A1 (en) 2007-05-02
KR100890096B1 (ko) 2009-03-24
CN101006507B (zh) 2011-10-19
KR20080065002A (ko) 2008-07-10
US7949930B2 (en) 2011-05-24
JP4593679B2 (ja) 2010-12-08
JP2010135064A (ja) 2010-06-17
WO2006019103A1 (ja) 2006-02-23
KR20080058504A (ko) 2008-06-25
EP1791123B1 (en) 2011-11-02
US20070242577A1 (en) 2007-10-18
KR20070034607A (ko) 2007-03-28
US20090010621A1 (en) 2009-01-08
US20090016203A1 (en) 2009-01-15
CN101872635B (zh) 2012-12-19
WO2006019108A1 (ja) 2006-02-23
KR20090021225A (ko) 2009-02-27
JP4479968B2 (ja) 2010-06-09
KR20080106372A (ko) 2008-12-04
EP1780714A1 (en) 2007-05-02
KR100890097B1 (ko) 2009-03-24
US8170400B2 (en) 2012-05-01

Similar Documents

Publication Publication Date Title
JP4568725B2 (ja) 情報記録媒体、多重化装置及び記録方法
JP4481991B2 (ja) 情報記録媒体、データ分別装置、データ再生装置及び記録方法
JP4863990B2 (ja) 情報記録媒体、tsパケット判定装置、及びデータ再生装置
KR20070032030A (ko) 정보 기록 매체, 및 다중화 장치

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006531813

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2005772771

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1020077002032

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 11659022

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 200580027752.6

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

WWP Wipo information: published in national office

Ref document number: 1020077002032

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2005772771

Country of ref document: EP