WO2007023728A1 - 再生装置および再生方法、プログラム、プログラム格納媒体、データ構造、並びに、記録媒体の製造方法 - Google Patents

再生装置および再生方法、プログラム、プログラム格納媒体、データ構造、並びに、記録媒体の製造方法 Download PDF

Info

Publication number
WO2007023728A1
WO2007023728A1 PCT/JP2006/316177 JP2006316177W WO2007023728A1 WO 2007023728 A1 WO2007023728 A1 WO 2007023728A1 JP 2006316177 W JP2006316177 W JP 2006316177W WO 2007023728 A1 WO2007023728 A1 WO 2007023728A1
Authority
WO
WIPO (PCT)
Prior art keywords
stream
video
file
information
audio
Prior art date
Application number
PCT/JP2006/316177
Other languages
English (en)
French (fr)
Inventor
Ayako Iwase
Motoki Kato
Shinobu Hattori
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to KR1020077014458A priority Critical patent/KR101320793B1/ko
Priority to CN2006800015621A priority patent/CN101091385B/zh
Priority to EP06782790.7A priority patent/EP1919210B1/en
Priority to KR1020127033439A priority patent/KR101244148B1/ko
Priority to US11/791,585 priority patent/US8340496B2/en
Priority to ES06782790.7T priority patent/ES2517418T3/es
Publication of WO2007023728A1 publication Critical patent/WO2007023728A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3081Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is a video-frame or a video-field (P.I.P)
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/327Table of contents
    • G11B27/329Table of contents on a disc [VTOC]
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • H04N21/42646Internal components of the client ; Characteristics thereof for reading from or writing on a non-volatile solid state storage medium, e.g. DVD, CD-ROM
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/432Content retrieval operation from a local storage medium, e.g. hard-disk
    • H04N21/4325Content retrieval operation from a local storage medium, e.g. hard-disk by playing back content from the storage medium
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/87Regeneration of colour television signals
    • H04N9/877Regeneration of colour television signals by assembling picture element blocks in an intermediate memory
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2562DVDs [digital versatile discs]; Digital video discs; MMCDs; HDCDs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/775Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/781Television signal recording using magnetic recording on disks or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals

Definitions

  • the present invention relates to a playback device and playback method, a program, a program storage medium, a data structure, and a recording medium manufacturing method, and in particular, a playback device and playback suitable for playing back stream data.
  • the present invention relates to a method, a program, a program storage medium, a data structure, and a recording medium manufacturing method.
  • the display method of the display screen that is the sub of the main display screen does not depend on the playback device. For example, for each content or for a predetermined content It was difficult for content creators or content distributors to set each playback location.
  • the present invention has been made in view of such a situation, and makes it possible to specify a display method of a display screen that is a sub-screen with respect to a main display screen.
  • the playback device includes a main stream including at least one stream.
  • Playback management information composed of first information including a main playback path indicating a position on the time axis of a video file and second information including a secondary playback path of a substream file different from the main stream file
  • a reading means for reading the main stream file and the substream file to be reproduced
  • the reproduction obtained by the obtaining means Video synthesis means for synthesizing the video of the main stream file read by the reading means and the video of the substream file based on management information
  • the reproduction management information includes the main stream Information about the display status of the video of the substream file to be combined with the video of the file Are included, the image synthesizing means, based on information about the display state included in the reproduction management information, it synthesizes the image of the previous SL main stream file, a video of the sub stream file.
  • the information related to the display state may include information related to the display position of the video of the substream file combined with the video of the main stream file.
  • the information related to the display state may include information related to the display size of the video of the substream file combined with the video of the main stream file.
  • the information related to the display state may include information related to the display color of the video of the substream file combined with the video of the main stream file.
  • the information related to the display state may include information related to a rotation angle of the video of the substream file to be combined with the video of the main stream file after being combined with the original video.
  • the information on the display state includes the video of the main stream file, which is executed based on the information indicating the brightness of the video of the substream file combined with the video of the main stream file.
  • information relating to the process of combining the video of the substream file is possible to include information relating to the process of combining the video of the substream file.
  • the information indicating the brightness of the video of the substream file is the brightness to be subjected to the transmission process. It is possible to perform transparency processing on a video portion that is at least one threshold value of the information indicating the brightness and the video brightness of the substream file is greater than or less than the threshold value.
  • An operation input unit that receives an operation input by a user can be further provided.
  • the reproduction management information acquired by the acquisition unit includes the substream file for the main stream file. Information indicating whether or not the substream file is reproduced at the same time with respect to the main stream file can be described only when it is instructed by the user, and only when commanded by the user. If the playback management information contains information indicating that the substream file is played back simultaneously with the main stream file only when commanded by the user, it is input by the operation input means. Based on the user's operation input! /, The user power Only when the reproduction of the file is commanded, the it is rubbing ⁇ so as to combine the image of the image and the sub stream file of the main stream file away in.
  • a voice synthesizing means for synthesizing the sound reproduced corresponding to the main stream file and the sound reproduced corresponding to the substream file.
  • the audio synthesizing unit when the video of the main stream file and the video of the substream file are synthesized by the video synthesizing unit, the audio reproduced corresponding to the main stream file, and the substream file It is possible to synthesize the sound that is played in response to.
  • the reproduction management information can be written so as to include information indicating that the display state information is included.
  • the reproduction method and program according to the first aspect of the present invention include first information including a main reproduction path indicating a position on a time axis of the main stream file including at least one stream, and the main stream.
  • the reproduction management information configured by the second information including the secondary reproduction path of the substream file different from the file is read, and the main stream file to be reproduced and the reproduction are based on the read reproduction management information.
  • the substream file is read, and the main stream included in the playback management information
  • the first information including a main playback path indicating a position on the time axis of the main stream file including at least one stream is different from the main stream file.
  • Playback management information including second information including the secondary playback path of the substream file is read out, and the main stream file and the substream to be played back are read based on the read playback management information.
  • the read video of the main stream file and the video of the substream file are Synthesized.
  • the data structure of the second aspect of the present invention is a data structure including reproduction management information that is information for managing reproduction of a main stream file including at least one stream, and the reproduction management information includes: First information including a main reproduction path indicating a position on the time axis of the main stream file, second information including a sub reproduction path of a substream file different from the main stream file, and the main information It includes information on the display state of the video of the stream file and the video of the substream file to be synthesized.
  • a recording medium manufacturing method is a recording medium manufacturing method in which data that can be played back by a playback device is recorded, and a main stream file including at least one stream Reproduction management information, which is information for managing the reproduction of the main stream file.
  • the reproduction management information includes first information including a main reproduction path indicating a position on the time axis of the main stream file, and the main stream file.
  • At least one stream Playback management information which is information for managing playback of a mainstream file including a file, and the playback management information includes first information including a main playback path indicating a position on the time axis of the mainstream file;
  • a data structure including second information including a secondary playback path of a substream file different from the main stream file, and information regarding a display state of the video of the substream file to be synthesized with the video of the main stream file Is generated, and the generated data is recorded on the recording medium.
  • a network is a mechanism in which at least two devices are connected and information can be transmitted from one device to another device.
  • Devices that communicate via a network may be independent devices, or may be internal blocks that constitute one device.
  • the communication is not only wireless communication and wired communication, but also communication in which wireless communication and wired communication are mixed, that is, wireless communication is performed in a certain section, and wired communication is performed in another section. It may be anything. Further, communication from one device to another device may be performed by wired communication, and communication from another device having power may be performed by wireless communication.
  • the recording device may be an independent device, or may be a block that performs recording processing of the recording / reproducing device.
  • the video of the main stream file and the video of the substream file can be combined, and in particular, the substream included in the playback management information Based on the information about the display state of the video of the file, the video of the main stream file and the video of the substream file can be combined. For example, the size and display position of the sub display screen in picture-in-picture display In other words, content producers or content distributors that are not dependent on the specifications of the playback device can determine them as appropriate.
  • a data structure including reproduction management information which is information for managing reproduction of a main stream file including at least one stream.
  • the playback management information includes the first information including the main playback path indicating the position of the main stream file on the time axis, and the substream file different from the main stream file.
  • Data having a data structure including the second information including the secondary reproduction path and information regarding the display state of the video of the substream file to be combined with the video of the main stream file can be provided.
  • the size and display position of the secondary display screen in the picture display can be appropriately determined by the content producer or the content distribution source without depending on the specifications of the playback device.
  • FIG. 1 is a diagram showing an example of an application format on a recording medium mounted on a playback device to which the present invention is applied.
  • FIG. 2 is a diagram for explaining the structure of a main path and a sub path.
  • FIG. 3 is a diagram illustrating an example of a main path and a sub path.
  • FIG. 4 is a diagram for explaining another example of a main path and a sub path.
  • FIG. 5 is a diagram for explaining a main display screen and a sub display screen.
  • FIG. 6 is a diagram showing an example of a file system of a reproducible data file.
  • FIG. 7 is a diagram showing a data structure of a PlayList file having an extension “.mpls” stored in a PLAYLIST directory.
  • FIG. 8 is a diagram illustrating the syntax of PlayListExtensionDataO.
  • FIG. 9 is a diagram for explaining a first example of the syntax of pipjnetadata described in data_block.
  • FIG. 10 is a diagram for explaining the value of pip_metadata_type in FIG. 9 and its meaning.
  • FIG. L l A diagram illustrating a second example of the syntax of pipjnetadata described in data_block.
  • FIG. 12 is a diagram for explaining a third example of the syntax of pipjnetadata described in data_block.
  • FIG. 13 is a diagram for explaining the value of pip_scale in FIG. 12 and its meaning.
  • FIG. 14 is a diagram for explaining the value of pip_timeline_type in FIG. 12 and its meaning.
  • FIG. 18 is a diagram illustrating the syntax of PlayListO.
  • FIG. 19 is a diagram illustrating the syntax of SubPathO.
  • FIG. 20 is a diagram for explaining SubPath_type.
  • FIG. 21 is a diagram illustrating the syntax of SubPlayItem (i).
  • FIG. 22 is a diagram showing the syntax of PlayItemO.
  • FIG. 23 is a diagram illustrating the syntax of STN_tableO.
  • FIG. 24 is a diagram illustrating the syntax of stream_entry ().
  • FIG. 25 is a diagram illustrating the syntax of stream_attribute ().
  • FIG. 26 is a diagram for explaining stream_cording_type.
  • FIG. 27 is a diagram for explaining video_format.
  • FIG. 28 is a diagram for explaining frame_rate.
  • FIG. 29 is a diagram for explaining aspect_ratio.
  • FIG. 30 is a diagram for explaining audio_presentation_type.
  • FIG. 31 is a diagram for explaining sampling_frequency.
  • FIG. 32 is a diagram for explaining the Character code.
  • FIG. 33 is a diagram illustrating the syntax of STN_tableO.
  • FIG. 34 is a diagram illustrating the syntax of STN_tableO.
  • FIG. 35 is a block diagram illustrating a configuration example of a playback device to which the present invention has been applied.
  • FIG. 36 is a flowchart for explaining playback processing in the playback apparatus of FIG. 35.
  • FIG. 37 is a flowchart for explaining primary video playback processing.
  • FIG. 38 is a flowchart illustrating primary video playback processing.
  • FIG. 39 is a flowchart for explaining primary video playback processing.
  • FIG. 40 is a flowchart for explaining primary and secondary video playback processing.
  • FIG. 41 is a flowchart illustrating primary and secondary video playback processing.
  • FIG. 42 is a flowchart for explaining primary and secondary video playback processing.
  • FIG. 43 is a diagram for explaining positioning and scaling.
  • FIG. 44 is a diagram for explaining luma_keying synthesis.
  • FIG. 45 is a diagram for explaining luma_keying composition.
  • FIG. 46 is a diagram for explaining the manufacture of a recording medium on which data that can be played back by the playback device is recorded.
  • FIG. 47 is a diagram for explaining the manufacture of a recording medium on which data that can be played back by the playback device is recorded.
  • FIG. 48 is a diagram showing a configuration of a personal computer.
  • Fig. 1 is a diagram showing an example of an application format on a recording medium mounted on a playback device 20 to which the present invention is applied (described later with reference to Fig. 35).
  • the recording medium may be a magnetic disk or a semiconductor memory in addition to the optical disk described later.
  • the application format has two layers, Play List and Clip, for managing AV (Audio Visual) streams.
  • AV Audio Visual
  • a pair of Clip information which is information related to one AV stream, is attached to one object. They are collectively called Clip.
  • an AV stream is also referred to as an AV stream file.
  • Clip information is also referred to as a Clip information file.
  • a file used in a computer or the like is handled as a byte string.
  • the content of an AV stream file is expanded on the time axis, and the access point of Clip is mainly specified by PlayList with a time stamp. .
  • PlayList and Clip are layers for AV stream management.
  • the Clip Information file is used to find address information to start decoding in the AV stream file from the time stamp.
  • the PlayList is a collection of AV stream playback sections.
  • One playback section in an AV stream is called Playltem, and it is represented by a pair of IN point (playback start point) and OUT point (playback end point) of the playback section on the time axis. Therefore, the PlayList is composed of one or more Playltems as shown in FIG.
  • the first PlayList from the left is composed of two Playltems, and the two P1 ayltems refer to the first half and the second half of the AV stream included in the left Clip, respectively.
  • the second PlayList from the left is composed of one Playltem, and the entire AV stream included in the Clip on the right is referred to.
  • the third PlayList from the left is composed of two Playltems, and by these two Playltems, a part of the AV stream included in the Clip on the left side and a part of the AV stream included in the Clip on the right side respectively. See you!
  • the disc navigation program in FIG. 1 specifies the left Playltem included in the first PlayList from the left as the information indicating the playback position at that time
  • the left reference that Playltem refers to The first half of the AV stream included in the clip is played.
  • the PlayList is used as playback management information for managing playback of AV stream files.
  • the disc navigation program has a function of controlling the playback order of the PlayList and interactive playback of the PlayList.
  • the disc navigation program is a function that displays a menu screen for the user to instruct the execution of various playbacks. Etc. This disc navigation program is described in a programming language such as Java (registered trademark) and prepared on a recording medium.
  • a playback path created by a sequence of one or more Playltems (by successive Playltems) in the PlayList is referred to as a Main Path.
  • a playback path that is made parallel (in parallel) with one or more Sub Paths (which may be non-consecutive or continuous, by SubPlayItem) is referred to as a Sub Path. That is, the absolute format on the recording medium mounted on the playback device 20 (described later with reference to FIG. 35) is a sub-path (Sub Path) to be played back in association with the main path (PlayList). Hold in.
  • FIG. 2 is a diagram illustrating the structure of the main path and the sub path.
  • a PlayList can have one main path and one or more subpaths.
  • a main path is created by a sequence of one or more Playltems, and a subpath is created by a sequence of one or more SubPlayltems.
  • the PlayList has one main path made up of a sequence of three Playltems and three sub-paths.
  • Each Playltem that constitutes the main path is also given an ID (Identification) in order.
  • a ClipAV stream file referenced by one Playltem has at least a video stream.
  • Data main image data
  • a ClipAV stream file may or may not include more than one audio stream that is played back (synchronously) at the same timing as the video stream (main image data) included in the ClipA V stream file. May be.
  • the ClipAV stream file may or may not include one or more bitmap subtitle streams that are played back at the same timing as the video stream included in the ClipAV stream file.
  • the ClipAV stream file may or may not include one or more interactive graphics streams that are played back at the same timing as the video stream included in the ClipAV stream file.
  • a ClipAV stream file referred to by a single Platform includes video stream data, zero or more audio streams to be played in accordance with the video stream, zero or more bitmap subtitle stream data, and zero.
  • the above interactive graphics stream data is multiplexed!
  • a ClipAV stream file referred to by one Playltem includes a plurality of types of streams such as a video stream, an audio stream, a bitmap subtitle stream file, or an interactive graphics stream. .
  • one SubPlayltem refers to audio stream data and subtitle data of a stream (different stream) different from the ClipAV stream file referred to by Playltem.
  • FIG. 3 is a diagram for explaining an example of the main path and the sub path.
  • the audio playback path that is played at the same timing as the main path (synchronized with AV) is shown using sub-paths.
  • SubPlayltemO includes the following data.
  • SubPlayltem 0 includes Clip_Information_file_name for designating a Clip referred to by a Sub Path in the PlayList.
  • SubPlayltem 0 includes SubPlayItem_IN_time and SubPlayItem_OUT_time for designating the playback path of Sub Path in Clip (Auxiliary audio stream in this case).
  • SubPlayltemO includes sync_PlayItem_id and sync_start_PTS_of_PlayItem for designating the time at which the Sub Path starts to be played on the main path time axis (playback time axis).
  • the Clip AV stream of the audio referred to by the Sub Path must not include STC discontinuities (system time base discontinuities).
  • STC discontinuities system time base discontinuities.
  • the clip's audio sample clock used for the subpath is locked to the main path's audio sample clock.
  • SubPlayltem information specifying the Clip referred to by Sub Path, information specifying the playback path of Sub Path, and Sub Path starts playback on the time axis of Main Path Contains information specifying the time.
  • Clip AV stream used for Sub Path Does not include the STC, the information included in SubPlayltem O (information specifying the clip referenced by the sub path, information specifying the playback path of the sub path, and sub path playback on the time axis of the main path) Based on the information specifying the start time), playback can be performed with reference to an audio stream of a ClipAV stream different from the ClipAV stream (main AV stream) referred to by the main path.
  • Playltem and SubPlayltem manage ClipAV stream files, respectively.
  • the ClipAV stream file (main AV stream) managed by Playltem and the ClipAV stream file managed by SubPlayltem are It will be a different file.
  • a subtitle stream playback path that is played back at the same timing as the main path can be expressed using a subpath.
  • FIG. 4 is a diagram for explaining another example of the main path and the sub path.
  • the video and audio playback paths that are played back at the same timing as the main path (synchronized with AV) are expressed using sub-paths.
  • the stream file referenced by Playltem-1 in the main path is the first half of Clip-0 primary video stream and primary audio stream, PG (Presentation on Graphics) stream and IG (Intaractive Graphics) stream.
  • the main AV stream file referred to by Playltem-2 is the latter half of Clip-0 primary video stream and primary audio stream, and PG stream and IG stream.
  • the stream files referred to by SubPlayltem in the sub path are a Clip-1 secondary (2ndary) video stream and a secondary audio stream.
  • the primary (primary) video stream and the primary Mario stream that are referred to by the main node, and the PG stream and the IG stream are set as one movie content (AV content), and the secondary is referred to by the sub path.
  • the video stream and secondary audio stream are commented on the movie as a bonus track, and the video and audio streams referenced in the sub-path are mixed with the video and audio streams referenced in the main path.
  • Such a configuration is used in the case of playback (overlap).
  • the secondary stream is not synchronized with the primary stream (a playlist setting that is always played back simultaneously), the user can synthesize a bonus track while watching a movie.
  • a command to be displayed is input to a playback device (player)
  • the video and audio of the primary stream referenced in the main path and the video and audio of the secondary stream referenced in the sub path are mixed and played back Similarly, such a configuration is used.
  • PlayItem_id 0
  • SubPlayltem (described later in FIG. 21) called by SubPath (described later in FIG. 19) includes SubPlayItem_IN_time and SubPlayItem_out_time for specifying the playback path of Subpath.
  • the audio is synthesized and output, and the video is shown in Fig. 5.
  • the secondary video is displayed on the main display screen 1 on which the primary video is displayed, being overlapped by the sub display screen 2 having a predetermined size at a predetermined position.
  • the force stream that is referred to by the main path is the primary stream
  • the reference stream that is referred to by the sub-node is the secondary stream.
  • the primary stream and the secondary stream may be referenced by the main path
  • the primary stream and the secondary stream may be referenced by! /
  • the deviation may be referenced by the sub path! /.
  • the primary video stream is displayed as a main screen, and the secondary stream is combined and displayed as a child screen in the main screen.
  • loose PinP Pin-in-Picture
  • FIG. 6 is a diagram showing an example of a file system of a data file that can be played back by the playback device 20 (described later with reference to FIG. 35).
  • a data file that can be played back by the playback device 20 is supplied by a recording medium such as an optical disk!
  • This file system has a directory structure.
  • the playback device 20 can be used when a data file that can be played back by the playback device 20 is recorded and supplied on a recording medium other than the optical disk, or when it is recorded and played back on an internal recording medium.
  • the data file that can be reproduced in 1 has a file system as shown in FIG.
  • the Index file is a file in which the above-described index table is described, and includes information regarding a menu for reproducing a data file that can be reproduced by the reproducing device 20.
  • the playback device 20 includes items such as, for example, playing back all content included in a data file that can be played back on the playback device 20, playing back only a specific chapter, playing back repeatedly, and displaying an initial menu.
  • the playback menu screen is displayed on the display device based on the Index file.
  • a NavigationObject that is executed when each item is selected can be set in the index file index table, and when one item is selected from the playback menu screen by the user, the playback device 20 selects the index file index. Execute the NavigationObject command set in the data table.
  • the NavigationObject file is a file including NavigationObject.
  • the NavigationObject includes a command that controls the playback of the PlayList included in the data file that can be played back by the playback device 20.
  • the playback device 20 includes the NavigationObject included in the file system. The content can be played by selecting and executing one of these.
  • the BDMV directory also includes a directory with the name “BACKUP” (BACKUP directory), a directory with the name “PLAYLIST” (PLAYLIST directory), A directory with the name of rCLIPINFj (CLIPINF directory), a directory with the name of “STREAM” (STREAM directory), and a directory with the name of “AUXDATA” (AUXDATA directory) are provided.
  • a PlayList file is stored in the PLAYLIST directory. As shown in the figure, each PlayList file is named by adding the extension “.mpls” to the file name having a five-digit numerical power. The PlayList file will be described later with reference to FIG.
  • a Clip Information file is stored in the CLIPINF directory. As shown in the figure, each Clip Information file is named with a five-digit number name plus the extension “.clpi”.
  • a Clip AV stream file and a substream file are stored in the STREAM directory. As shown in the figure, each stream file is named by adding the extension “-m2ts” to the file name that also has a five-digit number.
  • AUXDATA directory data that is not included in the Clip AV stream file or substream file but is referenced from the Clip AV stream file or substream file is independent of the Clip AV stream file or substream file. Stores files such as used data.
  • the AUXDATA directory is named “11111.otf”! /, A subtitle font file, and a sound effect with the name “sound.bdmv”. Data is stored.
  • a data file that can be played back by the playback device 20 is distributed by an optical disk, for example, the content producer such as a production company or a movie distributor, or the supply source of this recording medium.
  • Author_id which is an identifier assigned to each title author in order to identify a certain title author, and an identifier assigned to identify the type of optical disc produced in the title author indicated in authorjd The discjd is recorded as secure electronic data that cannot be rewritten by the user, or physically in pits.
  • a data file that can be played back by the playback device 20 is a remover other than an optical disk. Recorded on a portable recording medium, downloaded over a network, recorded on a recording medium inside the playback device, or stored in an internal storage unit.
  • Authorjd, and id corresponding to authorjd are assigned so that they can be distinguished from each other, and preferably have a directory structure similar to that shown in FIG.
  • the name “Index.bdmv” is the same as in the case described with reference to FIG.
  • FIG. 7 shows the data structure of the PlayList file having the extension “.mpls” stored in the PLAYLIST directory.
  • the typejndicator describes information indicating the type of this file, and this field must be encoded as "MPLS" according to IS0646.
  • version_number indicates one character of four characters indicating the version number of xxxx.mpls, and vesrion_number must be encoded as ISO "0089"! / ⁇ .
  • PlayList_start_address indicates the start address of PlayListO in units of the relative number of bytes from the start byte of the PlayList file.
  • PlayListMark_start_address indicates the start address of PlayListMarkO in units of the relative number of bytes from the start byte of the PlayList file.
  • PlayListEntsnsionData_start_address indicates the start address of PlayListEntsnsionDataO in units of the relative number of bytes from the start byte of the PlayList file.
  • PlayListO stores parameters related to the main path and sub path of PlayList. Details of PlayListO will be described later with reference to FIG.
  • PlayListMarkO stores PlayList mark information. Private data can be inserted into PlayListExtensionDataO! /
  • FIG. 8 shows the syntax of PlayListExtensionDataO.
  • Length indicates the number of bytes of P1 ayListExtensionDataO from immediately after this length field to the end of PlayListExtensionDataO.
  • data_blocks_start_address indicates the head address of the first data_block () in units of the relative number of bytes from the head byte of PlayListExtensionDataO.
  • ID1 / ID2 information (identifier, etc.) that can identify the type of information described in the data_block of this PlayListExtensionDataO is described.
  • PL_ext_data_start_address indicates the number of the data_block where the PlayListExtensionData starts. The top data of PlayListExtensionData must be aligned to the top of data_block.
  • PL_ext_data_length indicates the size of PlayListExtensionData in bytes.
  • data_block is an area in which PlayListExtensionData is stored, and all data_blocks in PlayListExtensionData () must have the same size! /.
  • data_block information indicating the display position and size of the sub display screen 2 on which the secondary video described with reference to FIG. 5 is displayed can be described.
  • data_block metadata indicating picture-in-picture display settings can be described.
  • FIG. 9 shows a first example of the syntax of pipjnetadata (metadata indicating picture-in-picture display settings) described in data_block.
  • length is pipjnetadata from immediately after this length field to the end of pip_metadata0 Indicates the number of bytes in ().
  • pip_metadata_type indicates the type of pipjnetadata.
  • the secondary video stream for which picture-in-picture display is specified by this pipjnetadataO is synchronous, that is, synchronized with the main path Playltem time axis (playback time axis). Since it is played back, the secondary stream is always played back and output in synchronization with the primary stream.
  • the secondary video stream for which picture-in-picture display is specified by this pipjnetadataO is asynchronous, that is, the power that is played back synchronously with the time axis of the SubPlay Subsystem in the Sub Path. Since there is no need to synchronize with the time axis, the secondary stream is reproduced and output only when the secondary stream display is commanded by the user's operation input.
  • ref—to—Playltem I SubPath—id indicates the power indicating the value of Playltem—id to which pip—metadata is applied, or the value of SubPathjd of SubPlayltem to which pipjnetadata is applied.
  • pip_metadata_time_stamp is the time stamp of Playltem to which pipjnetadata is applied, and the video of the secondary video stream is displayed on the secondary display screen 2 at the display position and size indicated by pipjnetadataO at the timing indicated by pip_metadata_time_stamp Is done.
  • pip_metadata_time_stamp needs to indicate the presentation-time between In_time / Out_time of the platform referenced by re_playItem / SubPath_id.
  • the video of the secondary video stream is displayed on the secondary display screen 2 at the display position and size specified by pipjnetadat a0 at the timing.
  • pip_entry_video_PID indicates the value of the PID of the secondary video used for picture-in-picture display.
  • pip_horizotal_position indicates the X coordinate of the upper left corner of the secondary display screen 2 on which V is displayed on the primary video frame (main display screen 1 in FIG. 5).
  • Pip_vertical_position indicates the Y coordinate of the upper left corner of the secondary display screen 2 on which the secondary video is displayed on the primary video frame (main display screen 1 in FIG. 5).
  • the X and Y coordinates of the lower right corner of the secondary display screen 2 and the shift display of a plurality of predetermined display positions are specified.
  • the secondary display screen using pip_horizotal_position and pip_vertical_position may be specified by a method other than the specification of the X coordinate and the Y coordinate of the upper left corner of 2.
  • pip_scale is a field in which information indicating the size of the secondary display screen 2 on which the secondary video is displayed is described. For example, the ratio of the size of the secondary video to the primary video, the original image of the secondary video The reduction ratio with respect to the size of the image, or information indicating how many pixels in the vertical and horizontal directions are included in the sub display screen 2 is described.
  • FIG. 10 shows the values of pip_metadata_type in FIG. 9 and their meanings.
  • pip_metadata_type 0x00 is a value whose meaning is not set for future expansion.
  • this pip_metadata () is synchronous, that is, synchronized to the time axis of the main path Playltem, so the secondary stream is always played back in synchronization with the primary stream.
  • this pipjnetadataO is asynchronous, that is, synchronized to the time axis of SubPlayltem of Sub Path, so only when secondary stream display is commanded by user operation input, The video of the secondary video stream is played back and output to the secondary display screen 2.
  • the meaning is not set for future expansion.
  • FIG. 11 shows a second example of the syntax of pipjnetadata described in data_block, which is different from the case in FIG. Note that the description of the data field having the same name and the same definition as in FIG. 9 is omitted as appropriate.
  • number_of_pip_entries is a field indicating the number of picture-in-picture applications.
  • Synchronous_PIP_metadata_flag indicates to which path the picture-in-picture application (that is, the secondary video stream) is synchronized. That is, when the value of Synchronous_PIP_metadata_flag is 0 ', this picture-in-picture application is synchronized with SubPath, and ref_to_SubPath_id is registered in ref_to_PlayItem / SubPathjd. On the other hand, when the value of Synchronous_PIP_metadata_flag is 1 ′, this picture-in-picture application is synchronized with MainPath, and re_o_PlayItem is registered in ref_to_PlayItem / SubPathjd.
  • Synchronous_PIP_metadata_flag in FIG. 11 is information for defining almost the same content as pip_metadata_type (FIG. 10) in pipjnet adata described with reference to FIG.
  • pip_metadata_type indicates the type of metadata of this picture-in-picture.
  • secondary video The image displayed for the original stream image Information about image rotation, color designation, and the like can be described.
  • pip_metadata_type in FIG. 11 is information whose definition is different from pip_metadata_type in pip_metadata described with reference to FIG.
  • Fig. 12 shows the syntax of pip_metadata described in data_block in Fig. 9 and Fig. 1.
  • Length is a field in which information indicating the number of bytes of pipjnetadat aO from immediately after the length field to the end of pipjnetadataO is described.
  • pip—metadataO is a field that contains information indicating the number of V. 3 metadata block entries.
  • Metadata_block_header [k] information including header information related to the metadata block is described.
  • ref_to_PlayItem_id is a field in which information indicating the value of Playltemjd of Playltem to which pipjnetadata is applied is described.
  • ref to_secondary_video_stream_id [k] is the id of the secondary video to which pipjnetadata is applied, the value of secondary_video_stream_id defined in STN_table (described later in FIG. 22) in the Playltem referenced by re_o_PlayItem_id This is a field in which information is displayed.
  • pip_timeline_type [k] is a field in which information indicating the type of time axis referred to by pip_metadata_time_stamp is described. The value of pip_timeline_type [k] and its meaning will be described later.
  • Is_luma_key is applied to the secondary video stream according to the values of lower_limit_luma_key and upper_limit_luma_key for luma-keying.
  • the lower_limit_luma_key is a field in which information indicating the lower limit of the luminance value of the secondary video for luma keying is described.
  • the upper_limit_luma_key is a field in which information indicating the upper limit of the luminance value of the secondary video for luma keying is described.
  • luma keying cuts out unnecessary parts using the difference in brightness (luminance value). This means that the image is combined with the video.
  • the is_luma_key flag is set to 1
  • the image defined by lower_limit_luma_key and upper_limit_luma_key and having the brightness value specified in the range from the lower limit to the upper limit of the brightness value must be set to transparent.
  • the secondary video from which the image in the range specified by the brightness information is removed is superimposed on the primary video and synthesized.
  • luminance can be set by setting either one of the threshold values. For example, you can set only the part whose value is lower than upper_limit_luma_key or lower_limit_luma_key to be transparent! /.
  • metadata_block_data_start_address [k] is a field in which information indicating the start address of the first metadata_block_data [k] 0 is described in units of the relative number of bytes from the start byte of pipjnetadataO. Note that metadata_block_data_start_address [k] entered in pipjnetadataO is registered with the aim of address value!
  • a padding word is inserted into the padding—word according to the value of metadata—block—data—start—adaress [k].
  • pip_metadata_time_stamp [i] represents the time when pipjnetadata is applied, for example, 45k
  • This field describes information including a time stamp in Hz. Note that two consecutive pip-metadata-time-stamp / J and the fe between them are one less. Note that the value of pip—timeline—type is J
  • pip_composition_metadataO is a field in which information on the size and position of the frame of the primary video is described.
  • pip_horizontal_position [i] indicates the X coordinate of the upper left corner of the secondary display screen 2 on which the secondary video is displayed on the primary video frame (main display screen 1 in FIG. 5).
  • pip_vertical_position [i] indicates the Y coordinate of the upper left corner of the secondary display screen 2 on which the secondary video is displayed on the primary video frame (main display screen 1 in FIG. 5).
  • pip_scale [i] sets the reduction ratio for the original size of the secondary video to 1x, 1Z2x, 1Z4x, 1.5x, or foil Screen (secondary This field describes the information that the video displays on the entire screen of the main display screen 1 in FIG.
  • pip-composition-metadataO of pip-metadata-time-stampLi] is between pip-metadata-time-stamp [i] force pip-metadata-time-stamp [i + l] interval 53 ⁇ 4J.
  • the effective interval of the last pip—compositoin—metadata is the SuDPath presentation end timing that is lost by the last pip—metadata—time—stamp, ref—to—secondary—video—stream—id [k]. Up to.
  • pip_timeline_type 0 is a value whose meaning is not set for future expansion.
  • pip_timeline_type l means that the picture-in-picture presentation path is a synchronous type.
  • the subpath type indicated by ref_to_secondary_video_streamjd must be 5 or 7 (details of the subpath type will be described later in FIG. 20).
  • pip_metadata_time_stamp refers to the Playtime time axis of ref_to_PlayItem_id and indicates the playback section of the associated SubPlayltem. In other words, the playback area of SubPlayltem is projected on the time axis of Playltem referenced by re_o_PlayItemjd [k].
  • pip_metadata_time_stamp [0] indicates the beginning of the playback section of SubPlayItem [0] in SubPath.
  • SubPath_type 6
  • SubPath contains only one SubPlayltem! /, Na! / ⁇ .
  • pip_metadata_time_stamp refers to the time axis of Subpath, indicates the playback section of 3 ⁇ 4UDPlayItem of SuDPath, which is lost by ref—to—secondary—video—stream—id [k], as shown in FIG.
  • the pip_metadata_time_stamp [0] indicates the beginning of the playback section of SubPlayltem.
  • pip_timeline_type 3 means that the picture-in-picture presentation path is an asynchronous type. At this time pointed by ref_to_secondary_video_streamjd
  • V, ru Subpath type must be 6! / ,.
  • pip_metadata_time_stamp refers to the Playtime time axis of ref_to_PlayItem_id, and indicates the playback section of PlayList of o_PlayItem_id [k]! /, As shown in FIG. pip_metadata_time_stamp [0] indicates the beginning of the playback section of the Playltem of ref_to_PlayItem_id [k].
  • Fig. 18 is a diagram illustrating the syntax of PlayListO.
  • length is a 32-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of PlayListO. That is, this field indicates the number of bytes from reserved_forjUture_use to the end of Playlist. 16-bit reserved_for_foture_use is prepared after this length.
  • Fig. 19 is a diagram illustrating the syntax of SubPathO.
  • length is a 32-bit unsigned integer indicating the number of bytes up to the end of the force Sub Path () immediately after the length field. That is, this field indicates the number of bytes from reserved_forjUture_use to the end of Playlist. 16-bit reserved_for_foture_use is prepared after this length.
  • SubPath_type is an 8-bit field indicating the application type of SubPath. SubPath_type is used, for example, to indicate the type such as whether the Sub Path is a power bitmap subtitle that is audio or a text subtitle. This SubPath_type will be described later with reference to FIG.
  • is_repeat_SubPath is a 1-bit field that specifies the SubPath playback method, and indicates whether the SubPath playback is repeated during the main path playback, or the SubPath playback is performed only once. For example, when the playback timing of the clip specified by the main AV stream and the sub path is different (when the main path is used as a slide show of still images and the audio path of the sub path is used as BGM (background music) of the main path). Is done. After Is_repeat_SubPath, 8 hits are reserved—for—future—usez).
  • FIG. 20 is a diagram for explaining an example of SubPath.type (subpath type). That is, the type of Sub Path is defined as shown in FIG. 20, for example.
  • the description "Out-of-mux ' ⁇ -type J and! Is the TS (transport stream) that includes the ES (elementary stream) referenced in the sub-path. )
  • the type of subpath when the clip and TS (Clip) containing the play item (one or more ES) referenced in the main path are different, that is, the ES referenced in the subpath.
  • SubPath tvpe 0, 1 is reserved.
  • SubPath_type 2 indicates that in the playlist, the audio presentation path referred to by the sub path and the main path referred to by the play item are asynchronous.
  • the subpath type (kind) is as follows: This is called a pass.
  • the picture-in-picture presentation path refers to the primary audio stream stream and the secondary video for a predetermined primary video stream (the video stream referred to in the main path) in the picture-in-picture method described above.
  • Stream, secondary audio stream, and subtitle stream 1 The above path (type of such sub-path).
  • SubPath—type 6
  • Out- of- mux ana AV non- synchronized type of Picture- in- Picture presentation path which contains one or more elementary streams paths i.e.
  • SubPath_type 6
  • the main path is a TS non-multiplexed and asynchronous type, which is a picture-in-picture presentation path (one or more ES paths).
  • SubPath—type / is In- mux type ana AV Synchronized type of Picture-in- Picture presentation path which contains one or more elementary streams paths.
  • the description "In-mux typej t ⁇ " includes a TS (Clip) that contains an ES referenced by a subpath and a play item (one or more ESs) that is referenced by a main node.
  • This type of type is referred to as a main path multiplex type path.
  • SubPath_type 7 is a main path TS multiplexing type and synchronous type path.
  • Picture-in-picture presentation path (one or more ES path).
  • SubPath_type 8 to 255 is reserved.
  • Fig. 21 is a diagram illustrating the syntax of SubPlayltem (i).
  • length is a 16-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of Sub playltem ().
  • SubPlayltem includes Clip_Information_file—name [0] for designating Clip.
  • s_multi_Clip_entries flag is set, the syntax when SubPlayltem refers to multiple Clips is referenced. It also includes SubPlayItem_IN_time and SubPlayItem_OUT_time for specifying the Sub Path playback section in the Clip.
  • sync_PlayItemjd and sync_start_PTS_of_PlayItem are included to specify the time when the Sub Path starts playback on the time axis of the main path.
  • this sync_PlayItem_id and sync_start_PTS_of_PlayItem are used in the case of Fig. 3 and Fig. 4 (when the playback timing of the file indicated by the main AV stream and the sub path is the same), and indicated by the main AV stream and the sub path. It is not used when the playback timing of the file is different (for example, when the still image referenced by the main path and the audio referenced by the sub path are not synchronized, such as slide show BGM composed of still images).
  • SubPlayItem_IN_time, SubPlayltem-OUT-time, sync-Piayltem- ⁇ , sync-start-PTS-of-Playltemi, etc. are also used in common for Clips referenced by SubPlayltem.
  • num—of—Clip—entries [The number of lips is the number of clips, and the number of lip—Information—file—name [SubCiip—entryjd] is Clips that excludes Clip_Information_file_name [0]. specify. That is, Clip—Information—file—name [0], Clip—Information—file—name [l], Clip—Information—file_name [2], etc. are specified.
  • SubPlayltem also specifies Clip_codec_identifier [SubClip_entry_id] which specifies the codec method of Clip, re_o_STC_id [SubClip_entry_id], which is information on STC discontinuity (system time base discontinuity), and reserved_fore- future-use 3 ⁇ 4 ⁇ Mu
  • SubPlayltem-IN-time SubPlayltem-OUT-time
  • the Text based subtitle for the selected SubClip_entryjd is the SubPlaylte m—IN—time, SubPlayltem—OUT—time, sync—Playltem—id, and sync—start—PTS—of—Play It em!
  • SubClip_entryjd is the value of Clip_Information_file_name
  • SubClip_entryjd is allocated from 1 in the order of appearance. Also, SubClip_entry_id of Clip_Information_file_name [0] is 0.
  • Fig. 22 is a diagram illustrating the syntax of PlayltemO.
  • Clip_Information_file_name [0] is a field for designating a clip referred to by Playltem.
  • the main AV stream is referred to by Clip_Information_file_name [0].
  • codec method of Clip Clip-codec-identiner [0], reserved- for-future-use, is-multi-angle, connection-condition, STC discontinuity (system time base discontinuity) Contains remu o_STCjd [0], which is information about.
  • IN_time and OU_time for specifying the playback section of Playltem in Clip are included.
  • the playback range of the main ClipAV stream final is represented by IN.time and OUT_time.
  • UO_mask_table0, PlayItem_random_access_mode, and stilLmode are included.
  • the case where there are a plurality of is_multi_angles is not directly related to the present invention, so the explanation is omitted.
  • STN_table () in PlayltemO is the user's ability to switch audio and subtitles when the target Playltem and one or more SubPaths to be played back are prepared. It provides a mechanism that allows you to choose between the Clips referenced by and the Clips referenced by one or more of these SubPaths. STN_table () provides a mechanism that allows you to select mixing playback of two audio streams.
  • FIG. 23 is a diagram illustrating a first example of the syntax of STN_table0.
  • STN_table0 is set as an attribute of Playlt em.
  • length is a 16-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of STN_table0. 16-bit reserved_for_foture_use is prepared after length.
  • number_of_video_stream_entries is entered in STN_table0 Indicates the number of streams to which video_stream_id (registered) is given.
  • video_stream_id is information for identifying a video stream, and video_stream_number is a user-friendly video stream number used for video switching.
  • number—of—audio—stream—entries indicates the number of streams of the first audio stream given the audio—stream—id entered in STN—tableO.
  • the audio_stream_id is information for identifying the audio stream
  • the audio_stream_number is the audio stream number that can be seen by the user used for switching the audio.
  • number.of audio_stream2_entries indicates the number of streams of the second audio stream to which audio_streamjd2 entered in STN_tableO is given.
  • audio_streamjd2 is information for identifying an audio stream
  • audio_stream_number is an audio stream number that can be seen by the user used for audio switching.
  • the number_of_audio_stream_entries audio stream entered in STN.tableO is an audio stream that is decoded by the 1st audio decoder 75-1 of the playback device 20 shown in FIG. 35 to be described later, and is entered in STN-tableO.
  • the audio stream of number—of—audio—stream2—entries is an audio stream decoded by the 2nd audio decoder 75-2 of the playback apparatus 20 of FIG. In this way, in FIG. 23 and STN_tableO in FIGS. 33 and 34 described later, audio streams to be decoded by the two audio decoders can be entered.
  • the number_of_audio_stream_entries audio stream decoded by the 1st audio decoder 75-1 of the playback device 20 in Fig. 35 that is, the primary audio stream is referred to as audio stream # 1, and the playback in Fig. 35 is performed.
  • the number—of—audio—stream2—entries audio stream, that is, the secondary audio stream, which is encoded by the 2nd audio code 75-2 of the device 20, is referred to as audio stream # 2.
  • Audio stream # 1 is assumed to be an audio stream that has priority over audio stream # 2.
  • number_of_PG_txtST_stream_entries indicates the number of streams to which PG_txtST_stream_id entered in STN_tableO is given.
  • a stream PG, Presentation Graphics stream
  • txtST text subtitle file
  • PG_txtST_stream_id is information for identifying a subtitle stream
  • PG_txtST_stream_number is a subtitle stream number (text subtitle stream number) that can be seen by the user used for subtitle switching.
  • number_of_IG_stream_entries indicates the number of streams to which IG_streamjd entered in STN_tableO is given.
  • an interactive graphics stream is entered.
  • IG_stream_id is information for identifying an interactive graphics stream
  • IG_stream_number is a graphics stream number that can be seen by the user used for switching graphics.
  • length is an 8-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of stream_entry 0.
  • type is an 8-bit field indicating the type of information necessary to uniquely identify the stream to which the above stream number is given.
  • video_stream_id is assigned from 0 to one video elementary stream identified for each stream_entryO in order in the for loop of the video stream ID (video_stream_id).
  • the video stream number (video_stream_number) may be used instead of the video stream ID (video_streamjd).
  • video_stream_number is given from 1 instead of 0. That is, video_stream_number is obtained by adding 1 to the value of video.stream_id.
  • the video stream number is defined from 1 because it is the video stream number that can be seen by the user when switching video.
  • audio_stream amjd is given from 0 to one audio elementary stream that is specified for each stream_entry0 in order in the for loop of the audio stream ID (audio_stream_id).
  • an audio stream number (audio-stream-number) may be used.
  • audio_stream_number is given from 1 instead of 0. That is, audio_stream_number is obtained by adding 1 to the value of audio_stream_id.
  • the audio stream number is an audio stream number that can be seen by the user and used for audio switching.
  • audio_stream_id2 is given from 0 to one audio elementary stream specified for each stram_entry0 in order in the for loop of audio stream ID2 (audio_stream_id2).
  • audio stream number 2 (audio-stream-number 2) may be used instead of the audio stream I D2 (audio-stream-id2).
  • audio_stream_number2 is given from 1 instead of 0. That is, audio_stream_number 2 is obtained by adding 1 to the value of audio_stream_id2.
  • Audio stream number 2 is defined as 1 since it is audio stream number 2 that can be seen by the user and used for audio switching.
  • PG_txtST_stream_id is assigned from 0 to one bitmap subtitle elementary stream or text frame specified for each stream_entryO in the for loop of the subtitle stream ID (PG_txtST_stream_id). Similar to the case of the video stream, a subtitle stream number (PG_txtST_stream tremjiumber) may be used instead of the subtitle stream ID (PG_txtST_stream_id). In this case, PG_txtST_stream_number is given from 1 instead of 0. That is, PG_txtST_streamjd is obtained by adding 1 to the value of PG_txtST_streamjd.
  • the subtitle stream number is defined from 1 because it is a subtitle stream number (text subtitle stream number) that can be used by the user for subtitle switching.
  • IG_streamjd from 0 to IG_streamjd is given to one interactive graphics elementary stream specified for each stream_entry0 in order.
  • a graphics stream number (IG_stream_number) may be used instead of the graphics stream ID (1G_stream_id).
  • IG_stream_number is given from 1 instead of 0. That is, the power lG_stream_number is obtained by adding 1 to the value of IG_stream_id.
  • the graphics stream number is defined from 1 because it is a user-friendly graphics stream number used for switching graphics.
  • the stream_attribute0 in the for norpe of the video stream ID is stream Provides stream attribute information of one video elementary stream specified for each _entryO. That is, in this stream_attribute (), stream attribute information of one video elementary stream specified for each stream_entryO is described.
  • stream_attribute () in the for loop of the subtitle stream ID (PG_txtST_stream_id) gives stream attribute information of one bitmap subtitle elementary stream or text subtitle elementary stream specified for each stream_entry0. . That is, in this stream.attributeO, stream attribute information of one bitmap subtitle elementary stream specified for each stream_entry0 is described.
  • stream_attribute0 in the for loop of the graphics stream ID gives stream attribute information of one interactive graphics elementary stream specified for each stream_entry0. That is, stream attribute information of one interactive graphics elementary stream specified for each stream_entry0 is described in stream_attribute0.
  • length is a 16-bit unsigned integer indicating the number of bytes from immediately after this length field to the end of stream_attributeO.
  • the stream_coding_type indicates the encoding type of the elementary stream as shown in FIG.
  • the encoding type of elementary stream is MPEG-2 video stream, HDM
  • V LPCM audio Dolby A — 3 audio ⁇ dts audio ⁇ Presentation graphics stream, Interactive graphics stream ⁇ , and Text subtitle stream.
  • video_format indicates the video format of the video elementary stream, as shown in FIG.
  • the video format of the video elementary stream is 480i, 576i
  • frame_rate indicates the frame rate of the video elementary stream as shown in FIG.
  • the frame rate of the video elementary stream is 24000Z1001, 24
  • the aspect_ratio indicates the aspect ratio information of the video elementary stream as shown in FIG.
  • the aspect ratio information of the video elementary stream is described as 4: 3 display aspect ratio ⁇ and 16: 9 display aspect rations.
  • the audio_presentation_type indicates the presentation type information of the audio elementary stream as shown in FIG. Audio elementary stream presentations are described as single mono channel, dual mono channel, stereo (2-channel), and multi-channel force S.
  • the sampling_frequency indicates the sampling frequency of the audio elementary stream as shown in FIG. 48kHz and 96kHz are described as the sampling frequency of the audio elementary stream.
  • audio_language_code indicates the language code (Japanese, Korean, Chinese, etc.) of the audio elementary stream.
  • PG_language_code indicates the language code (Japanese, Korean, Chinese, etc.) of the bitmap subtitle elementary stream.
  • IG_language_code indicates the language code (Japanese, Korean, Chinese, etc.) of the interactive graphics elementary stream.
  • textST_language_code indicates the language code of the text subtitle elementary stream (eg, Japanese, Korean, Chinese).
  • the character_code indicates the character code of the text subtitle elementary stream as shown in Fig. 32.
  • Character codes for text subtitle elementary streams include Unicode Vl. KlSO 10646—1), Shift JIS (Japanese), KSC 5601—1987 including KSC 5653 f or Roman character (Korean), GB 18030-2000 (Chinese) ⁇ GB2312 (Chinese) ⁇ and B
  • stream_attribute0 contains the video format (Fig. 27), frame rate ( Fig. 28) and aspect ratio information (Fig. 29).
  • stream_coding_type in Figure 25 is HDMV LPCM audio ⁇ Dolby A and 3 audio ⁇ 3; or dts audio (in Figure 2o, stream—attnbuteO has its Includes presentation type information (Figure 30), sampling frequency ( Figure 31), and language code for audio elementary streams.
  • stream_attribute0 includes the language code of the bitmap subtitle elementary stream.
  • stream_attribute0 includes the language code of the interactive graph elementary stream.
  • stream_coding_type in Fig. 25 is Text subtitle s tream (Fig. 26)
  • stream_attribute0 contains the character code (Fig. 32)
  • language of the text subtitle elementary stream Contains code.
  • the playback device can check whether or not it has a function of playing back the elementary stream. Further, the playback device can select the elementary stream corresponding to the initial information of the language setting of the playback device by examining this attribute information.
  • the playback apparatus has only a playback function for bitmap subtitle elementary streams and does not have a playback function for text subtitle elementary streams.
  • the playback device sequentially selects only the bitmap subtitle elementary stream from the for loop of the subtitle stream ID (PG_txtST_stream_id), and Reproduce.
  • the playback device selects an audio elementary stream whose language code is Japanese from the audio stream ID for loop. Select only one by one and play it.
  • the playback device when playing back an AV stream (for example, a movie) that is referred to by the main path and is a video stream and an audio stream, the user instructs the playback device to switch the audio, and the audio stream
  • # 1 audio output in a normal movie
  • audio stream # 2 segment by director or performer
  • # 2 is specified (selected) as audio to be played
  • the playback device Audio stream # 2 is mixed (superimposed) and played with the video stream.
  • audio stream # 1 and audio stream # 2 are both audio streams included in the clip referenced by the main node so that they can be divided even if STN—tableO in FIG. 23 is referenced. Good. Also, one of the audio stream # 1 and the audio stream # 2 may be an audio stream included in a clip referenced by the main path, and the other may be an audio stream included in the clip referenced by the sub path. In this way, multiple audios superimposed on the main AV stream referenced by the main node It is also possible to select two audio streams and mix them for playback.
  • STN_table () in PlayltemO performs operations such as audio switching and subtitle switching by the user when this Playltem and one or more SubPaths to be played back are prepared.
  • a clip that is referenced by this Playltem and a clip that is referenced by one or more SubPaths has been provided so that the main AV stream is recorded and is different from the AV stream to be played back. You can also perform interactive operations on data files and data files.
  • each SubPath refers to a SubPlayltem
  • playback can be performed by referring to a ClipAV stream file that is different from the ClipAV stream file referenced by the Main Path. Thus, it can be set as the structure which has extensibility.
  • STN_tableO in PlayltemO is the audio stream # 1 decoded by the 1st audio decoder 75-1 of the playback device 20 shown in Fig. 35 to be described later, and the audio decoded by the 2nd audio decoder 75-2. Provided a mechanism that can mix and play with stream # 2. For example, if PlayltemO and one or more SubPaths to be played back are prepared, the audio stream of the clip referenced by Playltem is set as audio stream # 1, and the audio of the clip referenced by SubPath is recorded. The audio stream is set to audio stream # 2, and a mechanism that can mix and play these is provided.
  • audio stream # 1 and audio stream # 2 Two audio streams included in a clip (main clip) that Playltem refers to are called audio stream # 1 and audio stream # 2, and these can be mixed and played back.
  • This allows an audio stream that contains the main AV stream to be different from the main audio stream being played (for example, a director's comment stream). Can be reproduced.
  • the two audio streams # 1 and # 2 superimposed on the main AV stream can be superimposed (mixed) and reproduced.
  • FIGS. 33 and 34 are diagrams illustrating a second example of the syntax of STN_table ().
  • Figs. 33 and 34 show the STN_tableO thin when defining a combination of a secondary video stream, primary audio stream, secondary audio stream, and subtitle stream that is played back in combination with the primary video stream. It is a figure which shows the example of a tax. In the figure, the same parts as those in FIG. 23 are repeated, and the description thereof is omitted.
  • the combinations of the secondary video stream, primary audio stream, secondary audio stream, and subtitle stream that are simultaneously played in combination with the primary video stream are defined as follows. The That is, first, one or more secondary video streams that are simultaneously played in combination with the primary video stream are defined. Then, for each of one or more secondary video streams, an audio stream (primary audio stream and secondary audio stream) and a subtitle stream to be played simultaneously are defined.
  • Number_of_video_stream2_entries is (are registered) is the entry in the STN_tableO v id eo _stream_id2 indicating the number of streams is given.
  • video_streamjd2 is information for identifying a secondary video stream
  • video_stream_number2 is a secondary video stream number that is used for video switching and is visible to the user.
  • one video elementary stream (video elementary stream that becomes the secondary video stream) identified for each stream_entryO in turn in the for loop of video stream ID2 (video_stream_id2) ) Is given video_stream_id2 from 0.
  • audi stream—id and audio—stream—id2 are given as many as number_of_Audio_combinations_for_video2.
  • number—of—Audio—combinations—for—video 2 and the subsequent for statement are combinations of audio streams that are played back simultaneously with the secondary video stream, that is, the primary audio stream specified by audio_stream_id and audio_stream_id2. This information defines the combination with the specified secondary audio stream.
  • the number of audio stream pairs that can be combined with the secondary video stream specified by video_stream_id2 (strings of primary audio stream and secondary audio stream) is number—of—Audio—combinations—for—video2.
  • a audio_stream_id that identifies the primary audio stream audio_stream_id2 that identifies the secondary audio stream, and force defined by the for statement after nu_mber_of_Audio_combinations_for_video2, respectively Is done.
  • PG_textST_streamjd The number of subtitle streams that can be combined with the secondary video stream specified by video_streamjd2 is number_of_Subtitle_combinations_for_video2, and the subtitle stream that can be combined with the secondary video stream specified by video_stream_id2 is specified.
  • PG_textST_stream_id to be defined is defined in the for statement after nmber_of_Subtitle_combinations_for_video2.
  • each number is used instead of each ID, for example, an audio stream number (audio-stream-number) is used instead of au dio-stream-id. Or you can use audio stream number 2 (audio_stream_number2) instead of audio_stream_id2. The same is true for video streams and subtitle streams.
  • video_stream_id2 is used to synchronize with the primary video stream.
  • a combination of a primary audio stream, a secondary audio stream, and a subtitle stream that are played back simultaneously with the secondary video stream can be defined. That is, it is possible to define a combination of a secondary video stream, a primary audio stream, a secondary audio stream, and a subtitle stream that are played back simultaneously with the primary video stream.
  • STN_tableO in PlayltemO if this Playltem and one or more SubPaths to be played back are prepared, set Subpath_type of this Subpath to 5 to 7, that is, picture-in-picture presentation.
  • a path one or more of the secondary video stream, secondary audio stream, and presentation graphic stream
  • the primary video that is mainly played back as described with reference to FIG.
  • picture-in-picture display can be performed.
  • the display settings of the picture pictures are described in pipjnetadata as described with reference to FIG. 9, FIG. 11, or FIG. 12, the sub-picture described with reference to FIG.
  • the size of the display screen 2 and the display position can be arbitrarily set by the content creator or the content provider without depending on the playback device.
  • the picture-in-picture display setting is not described in the data itself of the video stream (secondary video stream) displayed in picture-in-picture. It is described in. In other words, if the size or display position of the secondary display screen 2 described with reference to FIG. 5 is changed, it is not necessary to modify the video stream (secondary video stream) displayed in picture-in-picture.
  • the description of pipjnetadata is corrected. Correct it.
  • the display setting of the picture picture has been described with reference to FIG. 5 because it has been described in pipjnetadata as described with reference to FIG. 9, FIG. 11, or FIG.
  • the size of the video displayed on the secondary display screen 2 can be arbitrarily set by the content creator or the content provider regardless of the size of the image that is the source of the secondary video stream.
  • FIG. 35 is a block diagram illustrating a configuration example of the playback device 20 to which the present invention has been applied.
  • the playback device 20 is a playback device 20 that plays the PlayList having the main path and the sub path described above.
  • the playback device 20 is provided with a storage drive 31, a switch 32, an AV decoder 33, and a controller 34! /.
  • the controller 34 reads the PlayList file via the storage drive 31, and based on the information of the PlayList file, the controller 34 reads the HDD, Blu-ray disc, DVD, etc. Read AV stream and AV data from the recording medium.
  • the user can use the user interface to instruct the controller 34 to switch between audio and subtitles.
  • the controller 34 is also supplied with initial information of the language setting of the playback device 20 such as a storage unit (not shown).
  • the PlayList file includes STN_tableO in addition to Main Path and Sub Path information.
  • the controller 34 includes a main clip AV stream file (hereinafter referred to as a main clip) referred to by the Playltem included in the PlayList file, a sub Clip AV stream file (hereinafter referred to as a sub Clip) referred to by the SubPlayltem, and a reference from the SubPlayltem.
  • the text subtitle data to be read is also read from the recording medium or the like via the storage drive 31.
  • the main clip referred to by Playltem and the sub Clip referred to by SubPlayltem may be recorded on a recording medium different in power.
  • the main clip may be recorded on a recording medium, and the corresponding sub clip may be supplied via a network (not shown) and stored in the HDD.
  • the controller 34 selects an elementary stream corresponding to the playback function of itself (the playback device 20) and controls to play it, or only the elementary stream corresponding to the initial information of the language setting of the playback device 20. Select and control playback The
  • the controller 34 refers to the information (or identifier) described in ID1 / ID2 of PlayListExtensionDataO of the PlayList file, and information (pip_metadata) related to picture-in-picture display is stored in the data_block of this PlayListExtensionDataO. If it is detected, refer to pipjnetadata described with reference to Fig. 9 or Fig. 11, and obtain the display setting of the secondary video displayed on the secondary display screen 2 described with V in Fig. 5
  • the video plane generator 92 of the AV decoder 33 controls the synthesis of the primary video stream and the secondary video stream.
  • the AV decoder unit 33 includes buffers 51 to 54, PID filter 55, PID filter 56, switches 57 to 59, PID filter 60, background decoder 71, 1st video decoder 721, 2nd video decoder 72-2. Presentation graphics decoder 73, Interactive graphics decoder 74, 1st audio decoder 75—1, 2nd audio decoder 75—2, Text-ST composition 76, Switch 77, Background plane generator 91, Video plane generator A unit 92, a presentation graphics plane generation unit 93, an interactive graphics plane generation unit 94, a nota 95, a video data processing unit 96, a mixing processing unit 97, and a mixing processing unit 98 are provided.
  • the 1st video decoder 72-1 is for decoding the primary video stream
  • the 2nd video decoder 72-2 is for decoding the secondary video stream.
  • the 1st audio decoder 75-1 decodes the audio stream # 1 (primary audio stream)
  • the 2nd audio decoder 75-2 decodes the audio stream # 2 (secondary audio stream). Is for.
  • the 1st video decoder 72-1 for decoding the video stream given by V_ and video_streamjd in STN_tableO in Fig. 23 and Figs.
  • the playback device 20 has two video decoders (1st video decoder 72-1 and 2nd video decoder 72-2) for decoding two video streams, and two video decoders are provided.
  • two audio decoders (1st audio decoder 75-1 and 2nd audio decoder 75-2) are provided.
  • the 1st video decoder 72-1 and the 2nd video decoder 72-2 are not individually distinguished, they are referred to as the video decoder 72, and the 1st audio decoder 75-1 and the 2nd audio decoder 752 are not individually distinguished.
  • the audio decoder 75 is referred to.
  • the file data read by the controller 34 is demodulated by a demodulation and ECC decoding unit (not shown), and error correction is performed on the demodulated multiplexed stream.
  • the switch 32 selects the demodulated and error-corrected data for each stream type based on the control from the controller 34 and supplies the selected data to the corresponding buffers 51 to 54. Specifically, the switch 32 supplies the background image data to the buffer 51, the main clip data to the buffer 52, and the sub clip data to the buffer 53 based on the control from the controller 34. Then, switch 32 is switched to supply Text-ST data to buffer 54.
  • the buffer 51 buffers the background image data
  • the buffer 52 buffers the data of the main clip
  • the buffer 53 buffers the data of the sub clip
  • the buffer 54 stores the text-ST data. Is buffered.
  • the main clip is a stream (for example, a transport stream) obtained by multiplexing one or more streams in addition to video among video, audio, bitmap subtitle (Presentation Graphics stream), and interactive graphics.
  • a sub clip is a stream in which one or more streams of video, bit map subtitles, interactive graphics, and audio are multiplexed.
  • the data of the text subtitle data file may or may not be in the form of a multiplexed stream such as a transport stream.
  • each file may be read alternately in a time division manner, or the sub clip or text All subtitle data may be preloaded into the buffer (buffer 53 or buffer 54) before reading the main clip.
  • the playback device 20 also reads the recording medium power of the data of these files via the storage drive 31, and plays back video, bitmap subtitles, interactive graphics, and audio.
  • the stream data read from the buffer 52 which is the main clip read buffer is output to the subsequent PID (packet ID) filter 55 at a predetermined timing.
  • the PID filter 55 distributes the input main clip to the decoders of the subsequent elementary streams according to the PID (packet ID) and outputs the result. That is, the PID filter 55 supplies the video stream to the PID filter 60 for supplying the video stream to either the 1st video decoder 72-1 or the 2nd video decoder 72-2, and the presentation graphics stream 73.
  • switch 57 which is the source of the video
  • switch 58 which is the source of the interactive graphics decoder 74
  • the audio stream is supplied to the 1st audio decoder 75-1 and 2nd audio decoder 75.
  • Switch 59 which is the supply source to 2.
  • the presentation graphics stream is, for example, bitmap subtitle data
  • the text subtitle data is, for example, text subtitle data.
  • the stream data read from the buffer 53 which is the sub clip read buffer, is output to the PID (packet ID) filter 56 in the subsequent stage at a predetermined timing.
  • This PID filter 56 distributes the input sub clip to the decoders of the subsequent elementary streams according to the PID (packet ID) and outputs the result. That is, the PID filter 56 supplies the supplied video stream to the PID filter 60 for supplying either the 1st video decoder 72-1 or the 2nd video decoder 72-2, and the presentation graphics stream is supplied to the presentation graphics.
  • the video stream is supplied to the switch 57 that is the source of the video decoder 73, the interactive graphics stream is supplied to the switch 58 that is the source of the interactive graphics decoder 74, and the audio stream is sent to the 1st audio decoder 75-1 and 2nd audio. This is supplied to the switch 59 which is the supply source to the decoder 75-2.
  • the switch 57 selects one of the presentation graphics stream included in the main clip supplied from the PID filter 55 and the presentation graphics stream included in the sub clip, and selects the selected presentation graphic.
  • the stream is supplied to the presentation graphics decoder 73 at the subsequent stage.
  • the presentation graphics decoder 73 decodes the presentation graphics stream, and supplies the decoded presentation graphics stream data to the switch 77 serving as a supply source to the presentation graphics plane generating unit 93.
  • the switch 58 selects one of the interactive graphics stream included in the main clip supplied from the PID filter 55 and the interactive graphics stream included in the sub clip.
  • the obtained interactive graphics stream is supplied to the subsequent interactive graphics stream decoder 74. That is, the interactive graphics stream that is simultaneously input to the interactive graphics decoder 74 is a stream separated from either the main clip or the sub clip.
  • the interactive graphics decoder 74 decodes the interactive graphics stream, and supplies the decoded interactive graphics stream data to the interactive graphics plane generating unit 94.
  • the switch 59 selects one of the audio stream included in the main clip supplied from the PID filter 55 and the audio stream included in the sub clip, and selects the selected audio stream. This is supplied to the 1st audio decoder 75-1 or the 2nd audio decoder 75-2 at the subsequent stage.
  • the audio stream simultaneously input to the 1st audio decoder 75-1 is a stream separated from either the main clip or the sub clip.
  • the audio stream that is simultaneously input to the 2nd audio decoder 75-2 is a stream separated from either the main clip or the sub clip. For example, if audio stream # 1 and audio stream # 2 are included in the main clip, PID filter 55 filters audio stream # 1 and audio stream # 2 based on the PID of the audio stream. To 59 Supply.
  • the switch 59 selects the switch to supply the audio stream # 1 supplied from the PID filter 55 to the 1st audio decoder 75-1 and the audio stream # 2 supplied from the PID filter 55. To the 2nd audio decoder 75-2.
  • PID filter 60 is included in the main clip supplied with PID filter 55! /, Or the video stream included in the sub-clip supplied from PID filter 56 Based on the control of the controller 34, it is determined whether it is a primary video stream or a secondary video stream, the primary video stream is supplied to the 1st video decoder 72—1, and the secondary video stream is supplied to the 2nd video decoder 72. Supply to 2.
  • the video stream distributed by the PID filter 60 is supplied to the subsequent 1st video decoder 72-1 or 2nd video decoder 72-2.
  • the 1st video decoder 72-1 or the 2nd video decoder 72-2 decodes the supplied video stream and outputs the decoded video data to the video plane generation unit 92.
  • the video plane generating unit 92 When the video data is supplied from the 1st video decoder 72-1 and the 2nd video decoder 72-2, the video plane generating unit 92 generates the supplied video data based on the control of the controller 34 referring to pipjnetadata. A video plane composed of the main display screen 1 and the sub display screen 2 as described with reference to FIG. 5 is generated and supplied to the video data processing unit 96. In addition, when only the 1st video decoder 72-1 is supplied with video data, the video plane generation unit 92 generates a video plane using the supplied video data and supplies this to the video data processing unit 96. . Note that combining two video data is also referred to as mixing or superimposing, for example.
  • the 1st audio decoder 75-1 decodes the audio stream and supplies the decoded audio stream data to the mixing processing unit 101.
  • the 2nd audio decoder 75-2 decodes the audio stream and supplies the decoded audio stream data to the mixing processing unit 101.
  • the 1st audio decoder 75 —Audio stream # 1 decoded by 1 and audio stream # 2 decoded by 2nd audio decoder 75 — 2 are supplied to mixing processing section 101.
  • the mixing processing unit 101 mixes (superimposes) the audio data from the 1st audio decoder 75-1 and the audio data from the 2nd audio decoder 75-2, and outputs them to the mixing processing unit 97 in the subsequent stage.
  • mixing (superimposing) the audio data output from the 1st audio decoder 75-1 and the audio data output from the 2nd audio decoder 75-2 is also referred to as synthesis.
  • synthesis means to mix two audio data.
  • the sound data selected by the switch 32 is supplied to the nother 95 and is notoffed.
  • the nota 95 supplies the sound data to the mixing processing unit 97 at a predetermined timing.
  • the sound data is sound effect data by menu selection or the like.
  • the mixing processing unit 97 is an audio data mixed by the mixing processing unit 101 (an audio data output from the 1st audio decoder 75-1 and an audio data output from the 2nd audio decoder 75-2). DIO data) and sound data supplied from NOFFA 95 are mixed (superimposed or synthesized) and output as an audio signal.
  • the data read from the buffer 54 which is a text subtitle read buffer, is output to the text subtitle composition (decoder) 76 in the subsequent stage at a predetermined timing.
  • the text subtitle composition 76 decodes the Text-ST data and supplies it to the switch 77.
  • the switch 77 selects either the presentation graphics stream decoded by the presentation graphics decoder 73 or Text-ST (text subtitle data), and displays the selected data as a presentation graphics sprayer. Supplied to the generator 93. In other words, the same as the presentation graphics plane 93 The subtitle image that is sometimes supplied is the output of either the presentation graphics decoder 73 or the text subtitle (Text-ST) composition 76.
  • the presentation graphics stream input to the presentation graphics decoder 73 at the same time is a stream separated from the main clip or sub clip! And the displacement force (selected by switch 57). Therefore, the subtitle image that is simultaneously output to the presentation graphics plane 93 is a presentation graphics stream from the main clip, a powerful presentation graphics stream from the sub clip, or a decoded output of text subtitle data.
  • the knock ground plane generation unit 91 Based on the knock ground image data supplied from the background decoder 71, the knock ground plane generation unit 91 generates a background plane that becomes a wallpaper image when, for example, a video image is reduced and displayed. This is supplied to the video data processing unit 96.
  • the presentation graphics plane generating unit 93 generates, for example, a presentation graphics plane that is a rendering image based on the data (presentation graphics stream or text subtitle data) selected by the switch 77 and supplied. This is supplied to the video data processing unit 96.
  • the interactive graphics plane generation unit 94 generates an interactive graphics plane based on the data of the interactive graphics stream supplied from the interactive graphics decoder 74, and supplies this to the video data processing unit 96. .
  • the video data processing unit 96 includes a background plane from the background plane generation unit 91, a video plane from the video plane generation unit 92, a presentation graphics plane from the presentation graphics plane generation unit 93, and an interactive graphic spray.
  • the interactive graphics plane from the video generator 94 is synthesized and output as a video signal.
  • the mixing processing unit 97 mixes the audio data from the mixing processing unit 101 (the audio data decoded by the 1st audio decoder 75-1 and the audio data decoded by the 2nd audio decoder 75-2). Audio data) and sound data from buffer 95 are mixed (synthesized or superimposed) and output as an audio signal.
  • switches 57 to 59 and the switch 77 switch the switches based on the selection from the user via the user interface or the file side including the target data. For example, when the audio stream is included only in the sub Clip AV stream file, the switch 59 switches the switch to the sub side.
  • step S1 the controller 34 reads a PlayList file recorded on a recording medium or an HDD (Hard Disk Drive) (not shown) via the storage drive 31.
  • a PlayList file recorded on a recording medium or an HDD (Hard Disk Drive) (not shown) via the storage drive 31.
  • the PlayList file (X X X X .mpls) described with reference to FIG. 7 is read.
  • step S2 the controller 34 determines whether or not the secondary video exists in the stream to be played based on the read PlayList file.
  • the controller 34 executes, for example, the STN_tableO secondary video loop (video_streamjd2 for loop) described in FIG. 33 and FIG. 34 in the Playltem in the read PlayList file. Thus, it is determined whether or not secondary video exists in the stream to be played back.
  • the STN_tableO secondary video loop video_streamjd2 for loop
  • step S3 If it is determined in step S2 that there is no secondary video, in step S3, a primary video playback process described later with reference to Figs. 37 to 39 is executed.
  • step S4 the controller 34 determines whether or not the reproduction of the stream corresponding to the read PlayList file has ended. If it is determined in step S4 that the playback of the stream is not finished, the process returns to step S3, the subsequent processing is repeated, and if it is determined that the playback of the stream is finished, the process ends. Be done
  • step S2 If it is determined in step S2 that a secondary video exists, the controller 34 reads pipjnetadata in step S5.
  • pipjnetadata related to Playltem may be stored in the memory, or as described in FIGS. 7 to 9, pipjnetadata Since it is a part of Playlist, pipjnetadata can be read at the same time when PlayList file of Step SI is read.
  • the controller 34 for example, based on the half (J ⁇ 1 "5 is secondary- video- stream- id by the current Playltemjd and STN_tableO, and Toku ⁇ the interest Pip- metadata, Read the specified pipjnetadata from the PlayList file.
  • step S6 the controller 34 synchronizes the secondary stream with the primary stream based on the description of the read pipjnetadata (that is, synchronizes with the time axis of the Play Item of the main path). Determine whether or not.
  • the controller 34 determines that the secondary stream is based on the value of pip_metadata_type described with reference to FIG. If the data structure of pip.metadata is described with reference to Fig. 11, the controller 34 refers to the Synchronous_PIP_metadata_flag and the secondary stream is set to the primary stream. It can be determined whether or not the force is synchronized.
  • the controller 34 uses Subpathj pe to determine whether the secondary stream is synchronized with the primary stream. Judgment can be made.
  • step S6 If it is determined in step S6 that the secondary stream is synchronized with the primary stream, the process proceeds to step S7, and the controller 34 displays the display time power of the primary stream as described with reference to FIG. Judge whether or not it is SubPlayItem_IN_time indicating the beginning of the playback section of the secondary stream.
  • step S7 If it is determined in step S7 that the display time power of the primary stream is not SubPlayItem_IN_time, a priority described later with reference to Figs. 37 to 39 is used in step S8. Mari video playback processing is executed.
  • step S9 the primary and secondary video described later with reference to FIGS. 40 to 42 are used. Playback processing is executed.
  • step S10 the controller 34 determines whether or not it is SubPlayItem_OUT_time indicating the end of the playback time period of the primary stream display time power secondary stream. If it is determined in step S10 that it is not SubPlayItem_OUT_time, the process returns to step S9, and the subsequent processing is repeated. If it is determined that it is SubPlayItem_OUT_time, the controller 34 It is determined whether or not the playback of the stream corresponding to the read PlayList file is complete.
  • step S11 If it is determined in step S11 that the playback of the stream is not finished, the process returns to step S7, and the subsequent processing is repeated. If the playback of the stream is determined to be finished, the process Is terminated.
  • step S6 determines whether the secondary stream is V ⁇ in synchronization with the primary stream (that is, in synchronization with the time axis of the SubPlayltem in the sub path! Since only the primary video stream is displayed until the display of the secondary video stream is instructed, the primary video playback process described later with reference to FIGS. 37 to 39 is executed in step S12.
  • step S13 the controller 34 determines whether or not it has received the instruction to display the secondary video stream from the user.
  • step S14 the controller 34 finishes reproducing the stream corresponding to the read PlayList file. Determine whether or not. If it is determined in step S14 that the playback of the stream is not complete, the process returns to step S12, and the subsequent processes are repeated. If it is determined that the playback of the stream is complete, the process ends. Is done.
  • step S 13 if it is determined in step S 13 that an instruction to display a secondary video stream has been received, a primer to be described later with reference to FIGS. 40 to 42 in step S 15. And secondary video playback processing is executed.
  • step S16 the controller 34 determines whether or not it has received a command to end display of the secondary video stream from the user. If it is determined in step S16 that a secondary stream display end command has been received, the process returns to step S12, and the subsequent processes are repeated.
  • step S17 the controller 34 finishes playback of the stream corresponding to the read PlayList file. Determine whether or not. If it is determined in step S 17 that the stream playback is not finished, the process returns to step S 15, and the subsequent processing is repeated. If it is determined that the stream playback is finished, the process is resumed. Is terminated.
  • step S3 the primary video playback process executed in step S3, step S8, or step S12 of FIG. 36 will be described.
  • step S41 the controller 34 reads out the main clip, sub clip, and text subtitle data (Text-ST data). Specifically, the controller 34 reads the main clip based on the Playltem described with reference to FIG. 22 included in the PlayList described with reference to FIG. Further, the controller 34 reads out the sub clip and the text subtitle data based on the SubPlayltem described with reference to FIG. 21, which is referred to by the SubPath included in the PlayList.
  • the controller 34 reads out the main clip, sub clip, and text subtitle data (Text-ST data). Specifically, the controller 34 reads the main clip based on the Playltem described with reference to FIG. 22 included in the PlayList described with reference to FIG. Further, the controller 34 reads out the sub clip and the text subtitle data based on the SubPlayltem described with reference to FIG. 21, which is referred to by the SubPath included in the PlayList.
  • step S42 the controller 34 reads the read data (main clip, sub clip). , And text subtitle data) are controlled to the corresponding buffers 51 to 54. Specifically, the controller 34 supplies the knockout image data to the buffer 51, the main clip data to the buffer 52, the sub clip data to the buffer 53, and the Text-ST data. Switch 32 is fed to buffer 54.
  • step S 43 the switch 32 switches the switch 32 based on the control from the controller 34.
  • the knock ground image data is supplied to the notper 51
  • the main clip data is supplied to the buffer 52
  • the sub clip data is supplied to the buffer 53
  • the text subtitle data is supplied to the buffer 54.
  • each of the buffers 51 to 54 buffers the supplied data. Specifically, the knocker 51 buffers the knockout image data, the buffer 52 buffers the main clip data, and the buffer 53 buffers the sub clip data. 54 buffers Text-ST data.
  • step S 45 the nota 51 outputs the background image data to the background decoder 71.
  • step S46 the buffer 52 outputs the stream data of the main clip to the PID filter 55.
  • the PID filter 55 distributes to the decoder of each elementary stream based on the PID attached to the TS packet constituting the main Clip AV stream file. Specifically, the PID filter 55 supplies the video stream to the 1st video decoder 72-1 via the PID filter 60 and the presentation graphics stream to the switch 57 serving as the supply source to the presentation graphics decoder 73.
  • the interactive graphics stream is supplied to the switch 58 serving as the supply source to the interactive graphics decoder 74, and the audio stream is supplied to the switch 59 serving as the supply source to the 1st audio decoder 75-1.
  • video streams, presentation graphics streams, interactive graphics streams, and audio streams are assigned different PIDs.
  • step S48 the buffer 53 converts the sub clip stream data to the PID filter 56. Output to.
  • step S49 the PID filter 56 distributes to the decoder of each elementary stream based on the PID. Specifically, the PID filter 56 supplies the supplied video stream to the 1st video decoder 72-1 through the PID filter 60 and the presentation graphics stream to the switch serving as the supply source to the presentation graphics decoder 73. 57, and the interactive graphics stream is supplied to the switch 58, which is the source of the interactive graphics decoder 74. The audio stream is the source of the 1st audio decoder 75-1 and 2nd audio decoder 75-2. Supply to switch 59.
  • step S50 the switches 57-59 to 59 and PID filter 60 following PID filter 55 and PID filter 56 perform either main clip or sub-clip based on control from controller 34 via the user interface. select. Specifically, the switch 57 selects the presentation graphics stream of the main clip or sub clip supplied from the PID filter 55 and supplies it to the presentation graphics decoder 73 at the subsequent stage. The switch 58 selects the main clip or sub clip interactive graphics stream supplied from the PID filter 55 and supplies the selected interactive graphics stream decoder 74 to the subsequent interactive graphics stream decoder 74.
  • the switch 59 receives the audio stream of the main clip supplied from the PID filter 55 or the sub clip supplied from the PID filter 56 (in this case, the audio stream # 1 before the audio is switched). This is selected and supplied to the 1st audio decoder 75-1.
  • the switch 59 supplies the audio stream of the main clip to the 2nd audio decoder 75-2 or the audio stream of the sub clip as the 1st audio.
  • the decoder 75-1 and the 2nd audio decoder 75-2 here, since the playback process before the sound is switched is described, the description thereof is omitted.
  • step S51 the nota 54 outputs the text subtitle data to the text subtitle composition 76.
  • step S52 the background decoder 71 performs background image decoding.
  • the data is decoded and output to the background plane generation unit 91.
  • step S53 the 1st video decoder 72-1 decodes the video stream (that is, the supplied primary video stream), and outputs this to the video plane generating unit 92.
  • step S54 the presentation graphics decoder 73 decodes the presentation graphics stream selected and supplied by the switch 57, and outputs this to the subsequent switch 77.
  • step S55 the interactive graphics decoder 74 decodes the interactive graphics stream selected and supplied by the switch 58, and outputs the decoded interactive graphics stream to the subsequent interactive graphics plane generating unit 94.
  • step S56 the 1st audio decoder 75-1 decodes the supplied audio stream (audio stream # 1) selected by the switch 59 and outputs it to the subsequent mixing processing unit 101. .
  • audio data is not output from the 2nd audio decoder 75-2, so that the mixing processing unit 101 does not output the 1st audio decoder 75.
  • the audio data output from 1 is supplied to the subsequent mixing processing unit 97 as it is.
  • step S57 the Text-ST composition 76 decodes the text subtitle data and outputs it to the switch 77 at the subsequent stage.
  • step S58 the switch 77 selects whether the data from the presentation graphics decoder 73 or the Text-ST composition 76 is! /. Specifically, the switch 77 selects one of the presentation graphics stream decoded by the presentation graphics decoder 73 and Text-ST (text subtitle data), and selects the selected data. Is supplied to the presentation graphics plane generator 93.
  • step S59 the background plane generating unit 91 generates a knock plane based on the background image data supplied from the knock background decoder 71.
  • step S60 the video plane generating unit 92 generates a video plane based on the video data supplied from the 1st video decoder 72-1.
  • step S61 the presentation graphics plane generating unit 93 selects the data from the presentation graph status decoder 73 or the data from the Text-ST composition 76 selected and supplied by the switch 77 in the process of step S58. Based on the above, a presentation graphics plane is generated.
  • step S62 the interactive graphics plane generating unit 94 generates an interactive graphics plane based on the data of the interactive graphics stream supplied from the interactive graphics decoder 74.
  • step S63 the buffer 95 buffers the sound data selected and supplied in the process of step S43, and supplies it to the mixing processor 97 at a predetermined timing.
  • step S64 the video data processing unit 96 synthesizes and outputs the data of each plane. Specifically, the data from the knock ground plane generating unit 91, the video plane generating unit 92, the presentation graphics plane generating unit 93, and the interactive graphics plane generating unit 94 are combined and output as video data.
  • step S65 the mixing processing unit 97 mixes (synthesizes) the audio data (audio data output from the mixing processing unit 101) and the sound data, and outputs them. Return to step S3 in FIG. 36 and proceed to step S4, or return to step S8 in FIG. 36 and turn it into step S7 Return to step S12 in FIG. 30 and proceed to step S13.
  • the main clip, sub clip, and text subtitle data are referred to by the main path and sub node included in the PlayList and reproduced.
  • the video to be displayed is only the video of the primary video stream, and the secondary display screen 2 described with reference to FIG. 5 is not displayed. Since the main path and sub path are set in the PlayList, and the clip can be specified with a clip that is different from the Clip AV stream file specified in the main path, the clip is different from the main clip pointed to by the Play path in the main path. Play a sub clip data and main clip data together (at the same time) It can be done.
  • step S45 and step S46 may be performed in reverse order or in parallel.
  • step S47 and step S49 may be performed in reverse order or in parallel.
  • steps S52 to S57 may be executed in reverse order or in parallel.
  • steps S59 to S62 may be performed in reverse order or in parallel.
  • step S64 and step S65 may be performed in reverse order or in parallel. That is, in FIG.
  • the processes of unit 97 may be executed in parallel, and the order thereof does not matter.
  • steps S101 to S106 basically the same processing as in steps S41 to S46 described with reference to FIGS. 37 and 38 is executed.
  • the controller 34 reads the main clip, sub clip, and text subtitle data (Text-ST data), and the read data (main clip, sub clip, and text subtitle data) corresponds to the buffer.
  • Switch 32 is controlled to feed 51-54. Based on the control from the controller 34, the switch 32 supplies the knockout image data to the buffer 51, the main clip data to the buffer 52, the sub clip data to the buffer 53, and the text subtitle. Data is supplied to buffer 54 and buffered in buffers 51-54.
  • the buffer 51 outputs the background image data to the background decoder 71.
  • the noffer 52 outputs the stream data of the main clip to the PID filter 55.
  • step S107 the PID filter 55 transmits the elementary stream to the decoder of each elementary stream, based on the PID attached to the TS packet constituting the main Clip AV stream file.
  • the PID filter 55 supplies the video stream to the PID filter 60, and supplies the presentation graphics stream to the switch 57, which is the supply source to the presentation graphics decoder 73, and the interactive graphics stream.
  • the switch 58 serving as the supply source to the interactive graphics decoder 74
  • the audio stream is supplied to the switch 59 serving as the supply source to the 1st audio decoder 75-1.
  • video streams, presentation graphics streams, interactive graphics streams, and audio streams are assigned different PIDs.
  • the PID filter 60 supplies the primary video stream to the 1st video decoder 72-1 and supplies the secondary video stream to the 2nd video decoder 72-2.
  • step S108 the buffer 53 outputs the stream data of the sub clip to the PID filter 56.
  • the PID filter 56 distributes to the decoder of each elementary list based on the PID. Specifically, the PID filter 56 supplies the supplied video stream to the PID filter 60, and supplies the presentation graphics stream to the switch 57 serving as the supply source to the presentation graphics decoder 73, thereby The active graphics stream is supplied to the switch 58 that supplies the interactive graphics decoder 74, and the audio stream is supplied to the switch 59 that supplies the first audio decoder 75-1 and 2nd audio decoder 75-2. . Under the control of the controller 34, the PID filter 60 supplies the primary video stream to the 1st video decoder 72-1, and supplies the secondary video stream to the 2nd video decoder 72-2.
  • steps S110 to S112 basically the same processing as in steps S50 to S52 described with reference to FIGS. 37 and 38 is executed.
  • the switches 57 to 59 and the PID filter 60 select either the main clip or the sub clip based on the control from the controller 34.
  • the noffer 54 outputs the text subtitle data to the text subtitle composition 76.
  • the background decoder 71 decodes the background image data and converts it into the background. Output to the plane generation unit 91.
  • step S113 the 1st video decoder 72-1 decodes the supplied primary video stream and outputs it to the video plane generating unit 92.
  • step S114 the 2nd video decoder 72-2 decodes the supplied secondary video stream and outputs it to the video plane generating unit 92.
  • step S115 the presentation graphics decoder 73 operates the switch 5
  • step S116 the interactive graphics decoder 74 decodes the interactive graphics stream selected and supplied by the switch 58, and outputs this to the subsequent interactive graphics plane generating unit 94.
  • step S117 the 1st audio decoder 75-1 decodes the primary audio stream selected and supplied by the switch 59, and outputs this to the subsequent mixing processing unit 101.
  • step S118 the 2nd audio decoder 75-2 decodes the secondary audio stream selected and supplied by the switch 59, and outputs this to the mixing processing unit 101 at the subsequent stage.
  • step S119 the Text-ST composition 76 decodes the displayed text subtitle data, either primary or secondary, and outputs it to the subsequent switch 77.
  • step S120 the switch 77 selects whether the data from the presentation graphics decoder 73 or the Text-ST composition 76 is! /. Specifically, the switch 77 selects one of the presentation graphics stream decoded by the presentation graphics decoder 73 and Text-ST (text subtitle data), and selects the selected data. Is supplied to the presentation graphic plane generator 93.
  • step S121 the background plane generation unit 91 generates a knock ground based on the background image data supplied from the background decoder 71. Generate a plane.
  • step S122 the video plane generating unit 92 combines the video data supplied from the 1st video decoder 72-1 and the 2nd video decoder 72-2 based on the control of the controller 34 referring to pip_metadata. Then, a video plane constituted by the main display screen 1 and the sub display screen 2 as described with reference to FIG. 5 is generated and supplied to the video data processing unit 96.
  • the video plane generation unit 92 is based on the control of the controller 34 referring to pipjnetadata described with reference to FIG. 9, FIG. 11, or FIG.
  • the scaled secondary bidet stream is combined with the primary bidet stream to generate a video plane composed of the main display screen 1 and the secondary display screen 2 as described with reference to FIG.
  • the data is supplied to the data processing unit 96.
  • pip.horizot aLposition is, for example, the secondary display on which the secondary video is displayed on the main display screen 1 of FIG.
  • the X coordinate of the upper left corner of screen 2 is indicated
  • pip_vertical_position indicates, for example, the Y coordinate of the upper left corner of secondary display screen 2 on which secondary video is displayed on main display screen 1 in FIG.
  • Pip_scale indicates information on the size of the secondary display screen 2 on which the secondary video is displayed.
  • the scaled secondary video adjusted to a predetermined size based on pip_scale is the primary video plane. From the upper left corner of the video, pip—horizotal-position in the X-axis direction and pip—vertical-position in the Y-axis direction 1 ⁇ 4; ⁇ , and the scaling will be placed in the upper left corner of the secondary video.
  • the video plane generating unit 92 performs luma_keying synthesis of the primary video stream and the secondary video stream, and A plane is generated and supplied to the video data processing unit 96.
  • the luma_keying composition is brightness (brightness) as explained by pipjnetadata in Fig. 12. This is a method of combining an image with unnecessary portions cut out using the component difference of the degree value) and overlaying it on the video. Next, details of luma_keying composition will be described with reference to FIGS. 44 and 45. FIG.
  • Figure 44 shows luma—primary video and secondary video before keying synthesis.
  • the secondary video from which the lower limit and the upper limit range of the luminance values defined by lower_limit_luma_key and upper_limit_luma_key are removed is combined with the primary video.
  • the parallelogram of the left secondary video and the non-circled region other than the circle are luminance values within the lower limit and upper limit of the luminance value.
  • the left secondary video force processed in this way is superimposed on the right primary video.
  • FIG. 45 is a diagram showing the primary video and the secondary video after luma_keying composition.
  • the primary video and secondary video after the luma_keying composition are transparent except for the parallelogram and circle of the secondary video. Only the parallelogram and circle areas will be combined with the force primary video.
  • step S123 the presentation graphics plane generator 93 selects the data from the presentation graphics decoder 73 supplied by the switch 77 in the process of step S58 and the supplied Text-ST control. Based on data from position 76! /, The presentation graphics plane Generate.
  • step S124 the interactive graphics plane generating unit 94 generates an interactive graphics plane based on the data of the interactive graphics stream supplied from the interactive graphics decoder 74.
  • step S125 the buffer 95 buffers the sound data selected and supplied in the process of step S43, and supplies it to the mixing processing unit 97 at a predetermined timing.
  • step S126 the video data processing unit 96 synthesizes and outputs the data of each plane. Specifically, the data from the knock ground plane generation unit 91, the video plane generation unit 92, the presentation graphics plane generation unit 93, and the interactive graphics plane generation unit 94 are combined and output as video data.
  • step S127 the mixing processing unit 101 synthesizes the primary audio data output from the 1st audio decoder 75-1 and the secondary audio data output from the 2nd audio decoder 75-2, and performs mixing processing. Supply to part 97.
  • step S1208 the mixing processor 97 mixes (synthesizes) the synthesized audio data and sound data output from the mixing processor 101, and outputs them. Return to step S10, or advance to step S10, or step S15 in FIG. 36, return to step S16.
  • the main clip, sub clip, and text subtitle data are referred to by the main path and sub node included in the PlayList and reproduced.
  • a main path and a sub path are provided in the PlayList, and a clip different from the ClipAV stream file specified in the main path can be specified in the sub path, and the display image of the secondary video stream is displayed as the display image of the primary video stream. Can be superimposed.
  • the display size and display position of the secondary video stream can be set, so the display position and display size of the secondary display screen depend on the playback device.
  • the secondary video stream may be displayed at a position and size that does not interfere with the display of the primary video stream, or depending on the content of the secondary video stream, It is possible to display a large image at the position or to display a small image at the edge of the main display screen 1 if the content is not important.
  • the size and display position of the display image of the secondary video stream can be determined as appropriate by the content producer or the content distributor.
  • steps S105 and S106 may be executed in reverse order or in parallel. Further, the processing of step S107 and step S109 may be performed in reverse order or in parallel.
  • steps S112 to S119 may be performed in reverse order or in parallel.
  • steps S121 to S124 may be performed in reverse order or in parallel.
  • the process of step S126 and the processes of step S127 and step S128 may be performed in reverse order or in parallel. That is, in FIG. 35, the processing of buffers 51 to 54 in the same vertical layer, the processing of switches 57 to 59, the processing of decoders 71 to 76, the processing of plane generation units 91 to 94, the video data processing unit 96 and the mixing processing
  • the processes of unit 97 may be executed in parallel, and the order thereof is not limited.
  • the playback device 20 has a main path that is a main playback path indicating the position of a main ClipAV stream file including at least one stream, and a sub ClipAV stream file that is played back using a playback path different from the main ClipAV stream file.
  • a PlayList is obtained as playback management information that includes information on the sub-path that is the playback path. Then, the playback device 20 accepts selection of a stream to be played based on STN_tableO for selecting a stream to be played back included in the PlayList.
  • STN_tableO is information for selecting a specific type of stream (for example, primary video stream) of the main ClipAV stream file and other stream files that are played back in synchronization with the playback timing of the stream or asynchronously. Therefore, based on this STN_table (), the playback You can accept the selection of the stream.
  • the main path and subpath can refer to the same Clip, and more subnodes can be added, so the stream has extensibility. be able to.
  • the configuration is such that a plurality of files can be referred to by one Sub Path (for example, Fig. 4), so that the middle user of a plurality of different streams can select.
  • stream_attributeO in Fig. 25, which is stream attribute information, is provided in STN_tableO, the playback apparatus 20 can determine whether or not the selected stream can be played back. Furthermore, by referring to stream_attribute (), only streams with playback functions can be selected and played back.
  • a video plane generating unit 92 for synthesizing (mixing) the primary video data and secondary video data decoded by the two video decoders is provided, and a mixing processing unit 101 for synthesizing the audio data decoded by the two audio decoders is provided. I tried to provide it. This allows two identical types of streams to be combined and played simultaneously.
  • PinP picture-in-picture
  • the size and display position of the display image of the secondary video stream in picture-in-picture display can be set by pipjnetadata. This enables the display of the primary video stream depending on the content or the timing at which it is displayed, compared to the case where the display position and display size of the sub display screen are determined in advance depending on the playback device.
  • the secondary video stream can be displayed at a position and size that is not disturbing, or depending on the content of the secondary video stream, for example, if the content is important, it can be displayed in a prominent position, If the content is not important, it can be displayed small on the edge of the main display screen 1.
  • the size and display position of the display image of the secondary video stream can be determined as appropriate by the content producer or the content distributor.
  • information indicating the display setting of this picture-in-picture can be described in pipjnetadata.
  • information indicating the position and size of the secondary display screen 2 on which the secondary video stream is displayed for example, information on the rotation and color designation of the video displayed with respect to the original video of the secondary video stream is described. be able to.
  • the display information including the size and display position of the display image of the secondary video stream is not described in the secondary video stream, but is included in the playlist for controlling the playback of the secondary video stream. be written.
  • the playback device Only update the pipjnetadata entry in the playlist without changing the settings or the secondary video stream itself!
  • the same secondary video stream is displayed in different display methods (for example, the same secondary video stream is displayed). It is very easy to display a large content in the first content and a small content in the second content). That is, without changing the data of the secondary video stream itself, in each of the first content and the second content, by describing the pip.metadata ⁇ of the playlist and information indicating the desired display format, In the first content and the second content, the same secondary video stream can be displayed in different display methods desired by the content creator or content distributor.
  • the Sub Path type (subtype of audio and text subtitles and the type indicating whether or not to synchronize with the main path)
  • SubPath_type indicating the name of the sub clip referenced by the Sub Path
  • Clip_Information_file_name in FIG. 21 indicating the name of the Sub Clip referenced by the Sub Path
  • SubPlayItem_IN_time in FIG. 21 indicating the In point of the Clip referenced by the Sub Path
  • SubPlayItem_OUT_time in FIG. 21 indicating the Out point.
  • the data read by the storage drive 31 in FIG. 35 may be recorded on a recording medium such as a DVD (Digital Versatile Disc)! Or recorded on a hard disk! /
  • the data may also be data that has been downloaded via a network (not shown), or may be a combination of these. For example, it may be played back based on the PlayList and sub Clip downloaded and recorded on the hard disk and the main ClipAV stream file recorded on the DVD.
  • the main list is recorded on the hard disk based on the PlayList. Clip and sub clip may be read and played back from hard disk and DVD, respectively.
  • the position and size of the secondary video can be changed by the function of the playback device 20 (player), but in this case, there is a force S when the size does not reach the size intended by the author.
  • the size, position, etc. are managed by the playlist which is management information. For example, even if you want to change the position after obtaining the ROM disk, even if you do not change the actual Clip, the size is relatively small!
  • the position of the secondary video can be changed as the author intended.
  • the recording medium 21 is a disc-shaped recording medium. This will be described as an example.
  • a master disk made of glass, for example is prepared, on which a master disk is prepared.
  • a recording material made of a photoresist or the like is applied.
  • a recording master is produced.
  • the software production processing unit stores the video data in a format that is encoded by the encoding device (video encoder) and can be played back by the playback device 20, in a temporary buffer.
  • Audio data encoded by the audio encoder is stored in the temporary buffer, and data other than the stream (eg, Indexes, Playlist, Playltem, etc.) encoded by the data encoder is also stored. It is stored in the hour buffer.
  • Video data, audio data, and non-stream data stored in each buffer are multiplexed together with the synchronization signal by a multiplexer (MPX), and error correction code (ECC) is used for error correction.
  • MPX multiplexer
  • ECC error correction code
  • a predetermined modulation is applied by a modulation circuit (MOD), which is recorded on a magnetic tape or the like according to a predetermined format, and recorded on a recording medium 21 that can be played back by the playback device 20. Is produced.
  • MOD modulation circuit
  • This software is edited (pre-mastered) as necessary, and a signal in a format to be recorded on the optical disc is generated. Then, as shown in FIG. 46, the laser beam is modulated in response to the recording signal, and this laser beam is irradiated onto the photoresist on the master. Thereby, the photoresist on the master is exposed in accordance with the recording signal.
  • the master is developed, and pits appear on the master.
  • the original master prepared in this way is treated with, for example, electric lamps, and a metal master is produced in which the pits on the glass master are transferred.
  • a metal stamper is produced from this metal master and is used as a molding die.
  • a material such as PMMA (acrylic) or PC (polycarbonate) is injected into the molding die by, for example, injection and fixed.
  • 2 P (ultraviolet curable resin) or the like is applied on a metal stamper and then cured by irradiating with ultraviolet rays. As a result, the pits on the metal stamper can be transferred onto a replica made of resin.
  • a reflective film is formed by vapor deposition or sputtering.
  • a reflective film is formed on the generated replica by spin coating.
  • the inner and outer diameters of the disk are processed, and necessary measures such as bonding two disks are performed.
  • a label is attached or a hub is attached and inserted into the cartridge. In this way, the recording medium 21 on which data reproducible by the reproducing device 20 is recorded is completed.
  • a CPU (Central Processing Unit) 501 follows a program stored in a ROM (Read Only Memory) 502 or a program loaded from a storage unit 508 into a RAM (Random Access Memory) 503. Perform various processes.
  • the RAM 503 appropriately stores data necessary for the CPU 501 to execute various processes.
  • the CPU 501, ROM 502, and RAM 503 are connected to each other via the internal bus 504.
  • An input / output interface 505 is also connected to the internal bus 504.
  • the input / output interface 505 includes an input unit 506 including a keyboard and a mouse, a display including CRT (Cathode Ray Tube) and LCD (Liquid Crystal Display), an output unit 507 including a spin force, and a hard disk. And a communication unit 509 including a modem and a terminal adapter are connected. The communication unit 509 performs communication processing via various networks including a telephone line and CATV.
  • a drive 510 is also connected to the input / output interface 505 as necessary, and a removable pub comprising a magnetic disk, optical disk, magneto-optical disk, semiconductor memory, or the like.
  • the computer program power read from the media 521 is appropriately installed, and installed in the storage unit 508 as necessary.
  • this program storage medium is composed of a package medium made of removable media 521 on which a program is recorded, which is distributed to provide a program to the user, separately from the computer. It is composed of a hard disk or the like that includes a ROM 502 or a storage unit 508 that stores a program provided to the user in a state of being pre-installed in the apparatus body.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Databases & Information Systems (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Studio Circuits (AREA)

Abstract

本発明は、ピクチャインピクチャの表示を設定することができる再生装置および再生方法、プログラム、プログラム格納媒体、データ構造、並びに記録媒体の製造方法に関する。pip_metadataには、ピクチャインピクチャ表示に必要な情報が記載される。pip_horizotal_positionは、プライマリビデオのフレーム上のセカンダリビデオが表示される副表示画面の左上隅のX座標を示し、pip_vertical_positionは、プライマリビデオのフレーム上のセカンダリビデオが表示される副表示画面の左上隅のY座標を示す。pip_scaleは、セカンダリビデオが表示される副表示画面の大きさを示す情報が記載され、例えば、プライマリビデオに対するセカンダリビデオの大きさの比率、セカンダリビデオのオリジナルの画像に対する縮小率、または副表示画面を構成する画素が縦横それぞれ何画素で構成されるかを示す情報などが記載される。本発明は、再生装置に適用できる。

Description

明 細 書
再生装置および再生方法、プログラム、プログラム格納媒体、データ構造 、並びに、記録媒体の製造方法
技術分野
[0001] 本発明は、再生装置および再生方法、プログラム、プログラム格納媒体、データ構 造、並びに、記録媒体の製造方法に関し、特に、ストリームデータを再生する場合に 用いて好適な、再生装置および再生方法、プログラム、プログラム格納媒体、データ 構造、並びに、記録媒体の製造方法に関する。
背景技術
[0002] 異なったコンテンツを同時視聴するために、複数のコンテンツの映像データをデコ ードした後、非圧縮の画像データを合成して、その後、 DZA変換を実行し、映像出 力端子へ出力して、外部の表示装置に表示させる技術がある(例えば、特許文献 1) 特許文献 1:特開 2005— 20242号公報
発明の開示
発明が解決しょうとする課題
[0003] 上述したように、複数のコンテンツの映像データを合成して表示させる場合のみな らず、 1つのコンテンツが、複数の映像データを含む場合などにおいても、複数の映 像データを合成して出力させることが求められている。
[0004] 複数の映像データが合成されて出力される場合、主な表示画面に対する副となる 表示画面の表示方法を、再生装置に依存させるのではなぐ例えば、コンテンツごと に、または、コンテンツの所定の再生箇所ごとに、コンテンツの作成元またはコンテン ッの配給元などが設定することは困難であった。
[0005] 本発明はこのような状況に鑑みてなされたものであり、主な表示画面に対する副と なる表示画面の表示方法を指定することができるようにするものである。
課題を解決するための手段
[0006] 本発明の第 1の側面の再生装置は、少なくとも 1つのストリームを含むメインストリー ムファイルの時間軸上の位置を示す主の再生パスを含む第 1の情報と、前記メインス トリームファイルとは異なるサブストリームファイルの副の再生パスを含む第 2の情報 により構成される再生管理情報を取得する取得手段と、前記取得手段により取得さ れた前記再生管理情報を基に、再生される前記メインストリームファイルおよび前記 サブストリームファイルを読み出す読み出し手段と、前記取得手段により取得された 前記再生管理情報を基に、前記読み出し手段により読み出された前記メインストリー ムファイルの映像と、前記サブストリームファイルの映像とを合成する映像合成手段と を備え、前記再生管理情報には、前記メインストリームファイルの映像と合成される前 記サブストリームファイルの映像の表示状態に関する情報が含まれており、前記映像 合成手段は、前記再生管理情報に含まれる前記表示状態に関する情報を基に、前 記メインストリームファイルの映像と、前記サブストリームファイルの映像とを合成する。
[0007] 前記表示状態に関する情報には、前記メインストリームファイルの映像と合成される 前記サブストリームファイルの映像の表示位置に関する情報を含ませるようにすること ができる。
[0008] 前記表示状態に関する情報には、前記メインストリームファイルの映像と合成される 前記サブストリームファイルの映像の表示の大きさに関する情報を含ませるようにする ことができる。
[0009] 前記表示状態に関する情報には、前記メインストリームファイルの映像と合成される 前記サブストリームファイルの映像の表示色に関する情報を含ませるようにすることが できる。
[0010] 前記表示状態に関する情報には、前記メインストリームファイルの映像と合成される 前記サブストリームファイルの映像の、原映像に対する合成後の回転角度に関する 情報を含ませるようにすることができる。
[0011] 前記表示状態に関する情報は、前記メインストリームファイルの映像と合成される前 記サブストリームファイルの映像の明るさを示す情報に基づ ヽて実行される、前記メイ ンストリームファイルの映像と、前記サブストリームファイルの映像とを合成する処理に 関する情報を含むようにすることができる。
[0012] 前記サブストリームファイルの映像の明るさを示す情報は、透過処理を行うべき明る さを示す情報の少なくとも 1つの閾値であり、前記サブストリームファイルの映像の明 るさが、前記閾値以上または以下となる映像部分に対して透過処理を行うようにする ことができる。
[0013] ユーザの操作入力を受ける操作入力手段をさらに備えさせるようにすることができ、 前記取得手段により取得される前記再生管理情報には、前記メインストリームフアイ ルに対して前記サブストリームファイルが必ず同時に再生される力、前記ユーザから 指令されたときのみ前記メインストリームファイルに対して前記サブストリームファイル が同時に再生されるかを示す情報が記載されるようにすることができ、前記映像合成 手段には、前記ユーザカゝら指令されたときのみ前記メインストリームファイルに対して 前記サブストリームファイルが同時に再生されることを示す情報が前記再生管理情報 に記載されている場合、前記操作入力手段により入力される前記ユーザの操作入力 に基づ!/、て、前記ユーザ力 前記サブストリームファイルの再生が指令されたときの み、前記メインストリームファイルの映像と前記サブストリームファイルの映像とを合成 させるよう〖こすることがでさる。
[0014] 前記メインストリームファイルに対応して再生される音声と、前記サブストリームフアイ ルに対応して再生される音声とを合成する音声合成手段をさらに備えさせるようにす ることができ、前記音声合成手段には、前記映像合成手段により前記メインストリーム ファイルの映像と、前記サブストリームファイルの映像とが合成される場合、前記メイン ストリームファイルに対応して再生される音声と、前記サブストリームファイルに対応し て再生される音声とを合成させるようにすることができる。
[0015] 前記再生管理情報には、前記表示状態に関する情報を含むことを示す情報を含ま せるよう〖こすることがでさる。
[0016] 本発明の第 1の側面の再生方法およびプログラムは、少なくとも 1つのストリームを 含む前記メインストリームファイルの時間軸上の位置を示す主の再生パスを含む第 1 の情報と、前記メインストリームファイルとは異なる前記サブストリームファイルの副の 再生パスを含む第 2の情報により構成される再生管理情報を読み出し、読み出され た前記再生管理情報を基に、再生される前記メインストリームファイルおよび前記サ ブストリームファイルを読み出し、前記再生管理情報に含まれる、前記メインストリーム ファイルの映像と合成される前記サブストリームファイルの映像の表示状態に関する 情報を基に、読み出された前記メインストリームファイルの映像と、前記サブストリーム ファイルの映像とを合成するステップを含む。
[0017] 本発明の第 1の側面においては、少なくとも 1つのストリームを含む前記メインストリ ームファイルの時間軸上の位置を示す主の再生パスを含む第 1の情報と、前記メイン ストリームファイルとは異なる前記サブストリームファイルの副の再生パスを含む第 2の 情報により構成される再生管理情報が読み出され、読み出された前記再生管理情報 を基に、再生される前記メインストリームファイルおよび前記サブストリームファイルが 読み出され、前記再生管理情報に含まれる前記サブストリームファイルの映像の表 示状態に関する情報を基に、読み出された前記メインストリームファイルの映像と、前 記サブストリームファイルの映像とが合成される。
[0018] 本発明の第 2の側面のデータ構造は、少なくとも 1つのストリームを含むメインストリ ームファイルの再生を管理する情報である再生管理情報を含むデータ構造であって 、前記再生管理情報には、前記メインストリームファイルの時間軸上の位置を示す主 の再生パスを含む第 1の情報と、前記メインストリームファイルとは異なるサブストリー ムファイルの副の再生パスを含む第 2の情報と、前記メインストリームファイルの映像と 合成される前記サブストリームファイルの映像の表示状態に関する情報とが含まれて いる。
[0019] 本発明の第 2の側面の記録媒体の製造方法は、再生装置において再生可能なデ ータが記録される記録媒体の製造方法であって、少なくとも 1つのストリームを含むメ インストリームファイルの再生を管理する情報である再生管理情報を含み、前記再生 管理情報に、前記メインストリームファイルの時間軸上の位置を示す主の再生パスを 含む第 1の情報と、前記メインストリームファイルとは異なるサブストリームファイルの副 の再生パスを含む第 2の情報と、前記メインストリームファイルの映像と合成される前 記サブストリームファイルの映像の表示状態に関する情報とを含むデータ構造を有 するデータを生成し、生成された前記データを前記記録媒体に記録するステップを 含む。
[0020] 本発明の第 2の側面の記録媒体の製造方法においては、少なくとも 1つのストリー ムを含むメインストリームファイルの再生を管理する情報である再生管理情報を含み 、前記再生管理情報に、前記メインストリームファイルの時間軸上の位置を示す主の 再生パスを含む第 1の情報と、前記メインストリームファイルとは異なるサブストリーム ファイルの副の再生パスを含む第 2の情報と、前記メインストリームファイルの映像と 合成される前記サブストリームファイルの映像の表示状態に関する情報とを含むデー タ構造を有するデータが生成され、生成された前記データが前記記録媒体に記録さ れる。
[0021] ネットワークとは、少なくとも 2つの装置が接続され、ある装置から、他の装置に対し て、情報の伝達をできるようにした仕組みをいう。ネットワークを介して通信する装置 は、独立した装置どうしであっても良いし、 1つの装置を構成している内部ブロックどう しであっても良い。
[0022] また、通信とは、無線通信および有線通信は勿論、無線通信と有線通信とが混在し た通信、すなわち、ある区間では無線通信が行われ、他の区間では有線通信が行わ れるようなものであっても良い。さらに、ある装置から他の装置への通信が有線通信 で行われ、他の装置力 ある装置への通信が無線通信で行われるようなものであつ ても良い。
[0023] なお、記録装置は、独立した装置であっても良 、し、記録再生装置の記録処理を 行うブロックであっても良い。
発明の効果
[0024] 以上のように、本発明の第 1の側面によれば、メインストリームファイルの映像と、サ ブストリームファイルの映像とを合成することができ、特に、再生管理情報に含まれる サブストリームファイルの映像の表示状態に関する情報を基に、メインストリームフアイ ルの映像と、サブストリームファイルの映像とを合成することができるので、例えば、ピ クチャインピクチャ表示における副表示画面の大きさと表示位置は、再生装置の仕様 に依存することなぐコンテンツの製作者、または、コンテンツの配給元が、適宜定め ることがでさる。
[0025] また、本発明の第 2の側面によれば、少なくとも 1つのストリームを含むメインストリー ムファイルの再生を管理する情報である再生管理情報を含むデータ構造を有するデ ータを提供することができ、特に、再生管理情報に、メインストリームファイルの時間軸 上の位置を示す主の再生パスを含む第 1の情報と、メインストリームファイルとは異な るサブストリームファイルの副の再生パスを含む第 2の情報と、メインストリームファイル の映像と合成されるサブストリームファイルの映像の表示状態に関する情報とを含む データ構造を有するデータを提供することができるので、例えば、ピクチャインピクチ ャ表示における副表示画面の大きさと表示位置は、再生装置の仕様に依存すること なぐコンテンツの製作者、または、コンテンツの配給元が、適宜定めることができる。 図面の簡単な説明
[図 1]本発明を適用した再生装置に装着される記録媒体上のアプリケーションフォー マットの例を示す図である。
[図 2]メインパスとサブパスの構造を説明する図である。
[図 3]メインパスとサブパスの例を説明する図である。
[図 4]メインパスとサブパスの別の例を説明する図である。
[図 5]主表示画面と副表示画面について説明する図である。
[図 6]再生可能なデータファイルのファイルシステムの例を示す図である。
[図 7]PLAYLISTディレクトリに格納される、拡張子「.mpls」を有する PlayListファイルの データ構造を示す図である。
[図 8]PlayListExtensionDataOのシンタクスを示す図である。
[図 9]data_blockに記載される pipjnetadataのシンタクスの第 1の例を説明する図であ る。
[図 10]図 9の pip_metadata_typeの値とその意味を説明する図である。
[図 l l]data_blockに記載される pipjnetadataのシンタクスの第 2の例を説明する図であ る。
[図 12]data_blockに記載される pipjnetadataのシンタクスの第 3の例を説明する図であ る。
[図 13]図 12の pip_scaleの値とその意味を説明する図である。
[図 14]図 12の pip_timeline_typeの値とその意味を説明する図である。
[図 15]図 12の pip_timeline_type =1のときの pip_metadata_time_stampの意味を説明す る図である。
[図 16]図 12の pip_timeline_type =2のときの pip_metadata_time_stampの意味を説明す る図である。
[図 17]図 12の pip_timeline_type =3のときの pip_metadata_time_stampの意味を説明す る図である。
[図 18]PlayListOのシンタクスを示す図である。
[図 19]SubPathOのシンタクスを示す図である。
[図 20]SubPath_typeを説明する図である。
[図 21]SubPlayItem(i)のシンタクスを示す図である。
[図 22]PlayItemOのシンタクスを示す図である。
[図 23]STN_tableOのシンタクスを示す図である。
[図 24]stream_entry()のシンタクスを示す図である。
[図 25]stream_attribute()のシンタクスを示す図である。
[図 26]stream_cording_typeを説明する図である。
[図 27]video_formatを説明する図である。
[図 28]frame_rateを説明する図である。
[図 29]aspect_ratioを説明する図である。
[図 30]audio_presentation_typeを説明する図である。
[図 31]sampling_frequencyを説明する図である。
[図 32]Character codeを説明する図である。
[図 33]STN_tableOのシンタクスを示す図である。
[図 34]STN_tableOのシンタクスを示す図である。
圆 35]本発明を適用した再生装置の構成例を示すブロック図である。
[図 36]図 35の再生装置における再生処理を説明するフローチャートである。
[図 37]プライマリビデオ再生処理を説明するフローチャートである。
[図 38]プライマリビデオ再生処理を説明するフローチャートである。
[図 39]プライマリビデオ再生処理を説明するフローチャートである。
[図 40]プライマリおよびセカンダリビデオ再生処理を説明するフローチャートである。 [図 41]プライマリおよびセカンダリビデオ再生処理を説明するフローチャートである。
[図 42]プライマリおよびセカンダリビデオ再生処理を説明するフローチャートである。
[図 43]ポジショニングとスケーリングを説明する図である。
[図 44]luma_keying合成を説明する図である。
[図 45]luma_keying合成を説明する図である。
[図 46]再生装置で再生可能なデータを記録した記録媒体の製造について説明する ための図である。
[図 47]再生装置で再生可能なデータを記録した記録媒体の製造について説明する ための図である。
[図 48]パーソナルコンピュータの構成を示す図である。
符号の説明
[0027] 1 主表示画面, 2 副表示画面, 20 再生装置, 31 ストレージドライブ, 32 スィッチ, 33 AVデコーダ部, 34 コントローラ, 51乃至 54 バッファ, 55, 56 PIDフィルタ, 57乃至 59 スィッチ, 71 バックグラウンドデコーダ, 72—1 1stビデオデコーダ, 72— 2 2ndビデオデコーダ, 73 プレゼンテーショングラフィ ックスデコーダ, 74 インタラクティブグラフィックスデコーダ, 75 オーディオデコ ーダ, 76 Text- STコンポジション, 77 スィッチ, 91 バックグラウンドプレーン 生成部, 92 ビデオプレーン生成部, 93 プレゼンテーショングラフィックスプレ ーン生成部, 94 インタラクティブグラフィックスプレーン生成部, 95 バッファ 9 6 ビデオデータ処理部, 97 ミキシング処理部, 101 ミキシング
発明を実施するための最良の形態
[0028] 以下、図を参照して、本発明の実施の形態について説明する。
[0029] 図 1は、本発明を適用した再生装置 20 (図 35を参照して後述する)に装着される記 録媒体上のアプリケーションフォーマットの例を示す図である。記録媒体は、後述す る光ディスクの他、磁気ディスクや半導体メモリであってもよ 、。
[0030] アプリケーションフォーマットは、 AV (Audio Visual)ストリームの管理のために、 Play List (プレイリスト)と Clip (クリップ)の 2つのレイヤを有している。ここでは、 1つの AVスト リームとそれに付随する情報である Clipインフォメーションのペアを 1つのオブジェクト と考え、それらをまとめて Clipと称する。以下、 AVストリームを AVストリームファイルと も称する。また、 Clipインフォメーションを Clipインフォメーションファイルとも称する。
[0031] 一般的に、コンピュータなどで用いられるファイルはバイト列として扱われる力 AV ストリームファイルのコンテンツは時間軸上に展開され、 Clipのアクセスポイントは、主 に、タイムスタンプで PlayListにより指定される。すなわち、 PlayListと Clipは、 AVストリ ームの管理のためのレイヤである。
[0032] Clip中のアクセスポイントがタイムスタンプで PlayListにより示されている場合、 Clip I nformationファイルは、タイムスタンプから、 AVストリームファイル中のデコードを開始 すべきアドレス情報を見つけるために使用される。
[0033] PlayListは、 AVストリームの再生区間の集まりである。ある AVストリーム中の 1つの 再生区間は Playltemと呼ばれ、それは、時間軸上の再生区間の IN点(再生開始点) と OUT点(再生終了点)のペアで表される。従って、 PlayListは、図 1に示されるように 1つ、または複数の Playltemにより構成される。
[0034] 図 1において、左から 1番目の PlayListは 2つの Playltemから構成され、その 2つの P1 ayltemにより、左側の Clipに含まれる AVストリームの前半部分と後半部分がそれぞれ 参照されている。また、左から 2番目の PlayListは 1つの Playltemから構成され、それ により、右側の Clipに含まれる AVストリーム全体が参照されている。さらに、左から 3 番目の PlayListは 2つの Playltemから構成され、その 2つの Playltemにより、左側の Cli pに含まれる AVストリームのある部分と、右側の Clipに含まれる AVストリームのある部 分がそれぞれ参照されて!ヽる。
[0035] 例えば、図 1のディスクナビゲーシヨンプログラムにより、そのときの再生位置を表す 情報として、左から 1番目の PlayListに含まれる左側の Playltemが指定された場合、そ の Playltemが参照する、左側の Clipに含まれる AVストリームの前半部分の再生が行 われる。このように、 PlayListは、 AVストリームファイルの再生を管理するための再生 管理情報として用いられる。
[0036] ディスクナビゲーシヨンプログラムは、 PlayListの再生の順序や、 PlayListのインタラ クティブな再生をコントロールする機能を有する。また、ディスクナビゲーシヨンプログ ラムは、各種の再生の実行をユーザが指示するためのメニュー画面を表示する機能 なども有する。このディスクナビゲーシヨンプログラムは、例えば、 Java (登録商標)など のプログラミング言語で記述され、記録媒体上に用意される。
[0037] 本実施の形態では、 PlayListの中で、 1つ以上の Playltemの並びによつて(連続する Playltemにより)作られる再生パスをメインパス (Main Path)と称し、 PlayListの中で、 Ma in Pathに平行(並列)して、 1つ以上の Sub Pathの並びによつて(非連続でもよいし、 連続してもよ 、SubPlayItemにより)作られる再生パスをサブパス(Sub Path)と称する。 すなわち、再生装置 20 (図 35を参照して後述する)に装着される記録媒体上のアブ リケーシヨンフォーマットは、メインパスに関連付けられて (合わせて)再生されるサブ パス (Sub Path)を PlayListの中に持つ。
[0038] 図 2は、メインパスとサブパスの構造を説明する図である。 PlayListは、 1つのメイン パスと 1つ以上のサブパスを持つことができる。 1つのメインパスは、 1つ以上の Playlte mの並びによつて作られ、 1つのサブパスは、 1つ以上の SubPlayltemの並びによつて 作られる。
[0039] 図 2の例の場合、 PlayListは、 3つの Playltemの並びにより作られる 1つのメインパス と、 3つのサブパスを有している。メインパスを構成する Playltemには、先頭力も順番 にそれぞれ ID (Identification)が付されている。具体的には、メインパスは、 Playltemj d = 0、 Playltem_id= l、および Playltem_id = 2の Playltemからなる。また、サブパスに も先頭から順番に Subpath_id=0、 Subpath_id= 1、および Subpath_id= 2、とそれぞれ IDが付されている。 Subpathjd=0のサブパスには、 1つの SubPlayltemが含まれ、 Sub path_id= lのサブパスには、 2つの SubPlayltemが含まれ、 Subpath_id= 2のサブパス には、 1つの SubPlayltemが含まれる。
[0040] Subpath_id = 0のサブパスに含まれる SubPlayltemが参照するストリームは、例えば、 映画の日本語吹き替えの音声と想定され、 Mainpathにより参照される AVストリームフ アイルのオーディオストリームに替えて再生される場合が考えられる。また、 Subpathj d= lのサブパスに含まれる SubPlayltemが参照するストリームは、例えば、映画のディ レクターズカットと想定され、 Main Pathにより参照される AVストリームファイルの所定 の部分にのみ、映画監督などのコメントが入って 、る場合が考えられる。
[0041] 1つの Playltemが参照する ClipAVストリームファイルには、少なくともビデオストリー ムデータ (メイン画像データ)が含まれる。また、 ClipAVストリームファイルには、 ClipA Vストリームファイルに含まれるビデオストリーム (メイン画像データ)と同じタイミングで (同期して)再生されるオーディオストリーム力^つ以上含まれてもよいし、含まれなく てもよい。さらに、 ClipAVストリームファイルには、 ClipAVストリームファイルに含まれ るビデオストリームと同じタイミングで再生されるビットマップ字幕ストリームが 1つ以上 含まれてもよいし、含まれなくてもよい。また、 ClipAVストリームファイルには、 ClipAV ストリームファイルに含まれるビデオストリームと同じタイミングで再生されるインタラタ ティブグラフィックスストリームが 1つ以上含まれてもよいし、含まれなくてもよい。そし て、 ClipAVストリームファイルに含まれるビデオストリームと、ビデオストリームと同じタ イミングで再生されるオーディオストリーム、ビットマップ字幕ストリームファイル、また はインタラクティブグラフィックスストリームとは多重化されている。すなわち、 1つの Pla yltemが参照する ClipAVストリームファイルには、ビデオストリームデータと、そのビデ ォストリームに合わせて再生される 0個以上のオーディオストリーム、 0個以上のビット マップ字幕ストリームデータ、および 0個以上のインタラクティブグラフィックスストリー ムデータとが多重化されて!/ヽる。
[0042] すなわち、 1つの Playltemが参照する ClipAVストリームファイルには、ビデオストリー ム、オーディオストリーム、ビットマップ字幕ストリームファイル、または、インタラタティ ブグラフィックスストリームなどの、複数の種類のストリームが含まれている。
[0043] また、 1つの SubPlayltemは、 Playltemが参照する ClipAVストリームファイルとは異な るストリーム (別ストリーム)のオーディオストリームデータや字幕データを参照する。
[0044] メインパスのみを有する PlayListを再生する場合、ユーザによる音声切り替えや字 幕切り替えと 、う操作は、そのメインパスが参照する Clipに多重化されて 、るオーディ ォストリームとサブピクチャストリームの中からしか音声や字幕を選択することができな い。これに対し、メインパスとサブパスを持つ PlayListを再生する場合、そのメインパス が参照する ClipAVストリームファイルに多重化されているオーディオストリームとサブ ピクチャストリームに加えて、 SubPlayltemが参照する Clipのオーディオストリームゃサ ブピクチャストリームを参照することができる。
[0045] このように、 1つの PlayListの中に SubPathを複数含め、それぞれの SubPathがそれ ぞれ SubPlayltemを参照する構成としたので、拡張性の高い、また、自由度の高い A Vストリームを実現することができる。すなわち、 MainPathで参照される ClipAVストリー ムに加えて、後で、 SubPlayltemを追加できる構成とすることができる。
[0046] 図 3は、メインパスとサブパスの例を説明する図である。図 3においては、メインパス と同じタイミングで (AV同期して)再生されるオーディオの再生パスを、サブパスを使 用して表している。
[0047] 図 3の PlayListには、メインパスとして、 PlayItem_id = 0である 1つの Playltemと、サブ パスとして 1つの SubPlayltemが含まれて!/、る。メインパスの Playltemjd = 0である 1つ の PlayltemOは、図 3のメイン AVストリームを参照している。 SubPlayltemOには、以下 に示すデータが含まれる。まず、 SubPlayltem 0には、 PlayListの中の Sub Path (サブ パス)が参照する Clipを指定するための Clip_Information_file_nameが含まれる。図 3の 例の場合、 SubPlayltemによって、 SubClip— entry— id = 0の Auxiliary audio stream (ォー ディォストリーム)が参照されている。また、 SubPlayltem 0には、 Clip (ここでは、 Auxili ary audio stream)の中の Sub Pathの再生区間を指定するための SubPlayItem_IN_time と SubPlayItem_OUT_timeとが含まれる。さらに、 SubPlayltemOには、 Main pathの時間 軸 (再生時間軸)上で Sub Pathが再生開始する時刻を指定するための sync_PlayItem_i dと sync_start_PTS_of_PlayItemとが含まれる。図 3の例の場合、 sync.Playltemjd = 0と され、 sync_start_PTS_of_PlayItem = tlとされている。これにより、メインパスの Playltem_ id = 0の時間軸 (再生時間軸)上で Sub Pathが再生を開始する時刻 tlを指定すること ができる。すなわち、図 3の例の場合では、メインパスの再生開始時刻 tlとサブノ ス の開始時刻 1が同時刻であることを示して 、る。
[0048] ここで、 Sub Pathに参照されるオーディオの Clip AVストリームは、 STC不連続点(シ ステムタイムベースの不連続点)を含んではならない。サブパスに使われる Clipのォ 一ディオサンプルのクロックは、メインパスのオーディオサンプルのクロックにロックさ れている。
[0049] 換言すると、 SubPlayltem ()には、 Sub Pathが参照する Clipを指定する情報、 Sub Pa thの再生区間を指定する情報、および Main pathの時間軸上で Sub Pathが再生を開 始する時刻を指定する情報が含まれている。 Sub Pathに使われる Clip AVストリーム が STCを含まないため、 SubPlayltem Oに含まれる情報(Sub Pathが参照する Clipを指 定する情報、 Sub Pathの再生区間を指定する情報、および Main pathの時間軸上で S ub Pathが再生を開始する時刻を指定する情報)に基づいて、メインパスが参照する C lipAVストリーム(メイン AVストリーム)とは異なる ClipAVストリームのオーディオストリ ームを参照して、再生することができる。
[0050] このように、 Playltemと SubPlayltemは、 ClipAVストリームファイルをそれぞれ管理す るものであり、ここでは、 Playltemが管理する ClipAVストリームファイル (メイン AVストリ ーム)と SubPlayltemが管理する ClipAVストリームファイルは異なるファイルとなる。
[0051] なお、図 3の例と同様にして、メインパスと同じタイミングで再生される字幕ストリーム 再生パスを、サブパスを使用して表すこともできる。
[0052] 図 4は、メインパスとサブパスの別の例を説明する図である。図 4においては、メイン パスと同じタイミングで (AV同期して)再生されるビデオとオーディオの再生パスを、 サブパスを使用して表して ヽる。
[0053] メインパスの Playltem— 1が参照するストリームファイルは、 Clip— 0のプライマリ(pri mary)ビデオストリームおよびプライマリオーディオストリーム、並びに、 PG (Presentati on Graphics)ストリームおよび IG (Intaractive Graphics)ストリームの前半部分であり、 Playltem— 2が参照するメイン AVストリームファイルは、 Clip— 0のプライマリ(primary )ビデオストリームおよびプライマリオーディオストリーム、並びに、 PGストリームおよび IGストリームの後半である。
[0054] そして、サブパスの SubPlayltemが参照するストリームファイルは、 Clip-1のセカンダ リ(2ndary)ビデオストリームと、セカンダリオーディオストリームである。
[0055] 例えば、メインノ スにより参照されるプライマリ(primary)ビデオストリームおよびブラ イマリオ一ディォストリーム、並びに、 PGストリームおよび IGストリームを 1つの映画の コンテンツ (AVコンテンツ)とし、サブパスにより参照されるセカンダリビデオストリーム と、セカンダリオーディオストリームをその映画に対して監督力コメントして 、るボーナ ストラックとし、メインパスで参照されるビデオおよびオーディオのストリームにサブパ スで参照されるビデオおよびオーディオのストリームをミキシング (重ねて)再生するよ うな場合に、このような構成が利用される。 [0056] また、セカンダリストリームがプライマリのストリームと同期(必ず同時に再生されるよ うなプレイリストの設定)していない場合であっても、ユーザが、映画を見ながら、ボー ナストラックを合成させて表示させる指令を再生装置 (プレーヤ)へ入力した場合に、 メインパスで参照されるプライマリストリームの映像および音声と、サブパスで参照され るセカンダリストリームの映像および音声とがミキシングされて再生される場合には、 同様にこのような構成が用いられる。
[0057] 図 4においては、メインパスに 2つの Playltemが PlayItem_id=0, 1と配置され、サブ パス(Subpath_id=0)に 1つの SubPlayltemが配置されている。そして、 SubPath (図 19 にて後述する)で呼び出す SubPlayltem (図 21にて後述する)は、 Subpathの再生区間 を指定するための、 SubPlayItem_IN_timeと、 SubPlayItem_out_timeを含む。
[0058] 図 4を用いて説明したプライマリビデオ、プライマリオーディオに対して、セカンダリ ビデオ、セカンダリオーディオが重畳されて再生出力される場合、音声は、合成され て出力され、映像は、図 5に示されるように、プライマリビデオが表示される主表示画 面 1に対して、セカンダリビデオが、所定の位置で所定の大きさの副表示画面 2によ つて重ねあわされて表示される。
[0059] なお、図 4においては、メインパスによって参照されたものがプライマリストリームであ り、サブノ スによって参照されたものがセカンダリストリームである力 プライマリストリ ームおよびセカンダリストリームは、それぞれ、メインパスによって参照されていても、 サブパスによって参照されていてもよい。例えば、プライマリストリームおよびセカンダ リストリームが 、ずれもメインパスによって参照されて 、てもよ 、し、プライマリストリー ムおよびセカンダリストリームが!/、ずれもサブパスによって参照されて 、てもよ!/、。
[0060] すなわち、このような構成は、図 5に示されるように、プライマリビデオストリームを主 画面として表示させ、主画面の中に、セカンダリストリームを子画面として合成して表 示させる、 、わゆる PinP (ピクチャインピクチャ: Picture- in- Picture)表示を行う場合に 禾 IJ用することがでさる。
[0061] 図 6は、再生装置 20 (図 35を参照して後述する)において再生可能なデータフアイ ルのファイルシステムの例を示す図である。図 6には、一例として、再生装置 20にお V、て再生可能なデータファイルが光ディスクなどの記録媒体によって供給されて!、る 場合を示しており、このファイルシステムはディレクトリ構造を有している。なお、再生 装置 20において再生可能なデータファイルが光ディスク以外の記録媒体に記録され て供給されて ヽる場合や、内部の記録媒体に記録され再生される場合などにぉ ヽて も、再生装置 20において再生可能なデータファイルは、図 6に示されるようなファイル システムを有すると好適である。
[0062] このファイルシステムにおいて、「root」の下には「BDMV」の名前が設定されたディ レクトリが用意され、そのディレクトリに、 「Index.bdmv」の名前が設定されたファイルと 、「NavigationObject.bdmv」の名前が設定されたファイルが格納されている。以下、適 宜、これらのファイルをそれぞれ Indexファイル、 NavigationObjectファイルと称する。 また、適宜、各ファイルについては、「ファイル名」に「ファイル」を付カロした形で、また は、各ディレクトリについては、「ディレクトリ名」に「ディレクトリ」を付加した形で称する
[0063] Indexファイルは、上述したインデックステーブルが記載されたファイルであり、再生 装置 20において再生可能なデータファイルを再生するメニューに関する情報を含む 。再生装置 20は、例えば、再生装置 20において再生可能なデータファイルに含まれ るコンテンツを全て再生する、特定のチヤプタのみ再生する、繰り返し再生する、初 期メニューを表示するなどの内容の項目を含む再生メニュー画面を Indexファイルに 基づいて、表示装置に表示させる。 Indexファイルのインデックステーブルには各項目 が選択されたときに実行する NavigationObjectを設定することができ、ユーザにより再 生メニュー画面から 1つの項目が選択された場合、再生装置 20は Indexファイルのィ ンデッタステーブルに設定されている NavigationObjectのコマンドを実行する。
[0064] NavigationObjectファイルは、 NavigationObjectを含むファイルである。 NavigationO bjectは、再生装置 20にお!/、て再生可能なデータファイルに含まれて 、る PlayListの 再生を制御するコマンドを含み、例えば、再生装置 20は、このファイルシステムに含 まれている NavigationObjectの中から 1つを選択して、実行することにより、コンテンツ を再生させることができる。
[0065] BDMVディレクトリにはまた、「BACKUP」の名前が設定されたディレクトリ (BACKUP ディレクトリ)、「PLAYLIST」の名前が設定されたディレクトリ(PLAYLISTディレクトリ)、 rCLIPINFjの名前が設定されたディレクトリ(CLIPINFディレクトリ)、「STREAM」の名 前が設定されたディレクトリ(STREAMディレクトリ)、「AUXDATA」の名前が設定され たディレクトリ(AUXDATAディレクトリ)が設けられている。
[0066] BACKUPディレクトリには、再生装置 20において再生可能なファイルやデータをバ ックアップするためのファイルやデータが記録される。
[0067] PLAYLISTディレクトリには、 PlayListファイルが格納される。各 PlayListファイルには 、図内に示されるように 5桁の数字力もなるファイル名に拡張子「.mpls」を付加した名 称が命名される。 PlayListファイルについては、図 7を用いて後述する。
[0068] CLIPINFディレクトリには、 Clip Informationファイルが格納される。各 Clip Informatio nファイルには、図内に示されるように 5桁の数字力もなるファイル名に拡張子「.clpi」 を付加した名称が命名される。
[0069] STREAMディレクトリには、 Clip AVストリームファイルやサブストリームファイルが格 納される。各ストリームファイルには、図内に示されるように 5桁の数字力もなるフアイ ル名に拡張子「- m2ts」を付加した名称が命名される。
[0070] AUXDATAディレクトリには、 Clip AVストリームファイルやサブストリームファイルに 含まれずに、 Clip AVストリームファイルやサブストリームファイルから参照されるデー タゃ、 Clip AVストリームファイルやサブストリームファイルとは独立して利用されるデ ータなどのファイルが格納される。図 6の例においては、 AUXDATAディレクトリには、 「11111.otf」の名前がつけられて!/、る字幕のフォントのファイル、「sound.bdmv」の名 前が設定された効果音などのサウンドデータが格納されている。
[0071] また、再生装置 20において再生可能なデータファイルが光ディスクによって配布さ れている場合、例えば、製作会社や映画の配給会社など、このコンテンツ製作元や、 または、この記録媒体の供給元であるタイトルオーサを識別するために各タイトルォ ーサに割り当てられた識別子である author_id、および、 authorjdに示されるタイトルォ ーサにおいて製作された光ディスクの種類を識別するために割り当てられた識別子 である discjdが、ユーザなどにより書き換えることができないセキュアな電子データと して、または、物理的にピットによって記録されている。
[0072] また、再生装置 20において再生可能なデータファイルが光ディスク以外のリムーバ ブルな記録媒体に記録されている場合や、ネットワークを介してダウンロードされ、再 生装置内部の記録媒体に記録されていたり、内部の記憶部に記憶されている場合も
、 authorjd,および、 authorjdに相当する idが割り当てられてそれぞれ区別可能なよ うになされ、図 6に示す場合と同様のディレクトリ構造を有していると好適である。また 、再生装置 20において再生可能なデータファイルには、 author_id、および、 authorjd に相当する idが割り当てられていないとしても、図 6を用いて説明した場合と同様に、 「Index.bdmv」の名前が設定されたファイル、 「NavigationObject.bdmv」の名前が設定 されたファイルが含まれており、 「BACKUP」の名前が設定されたファイル群、「PLAYL 1ST」の名前が設定されたファイル群、 rCLIPINFjの名前が設定されたファイル群、「S TREAMJの名前が設定されたファイル群、「AUXDATA」の名前が設定されたファイル 群のうち、適宜必要なファイル群が含まれている。
[0073] 次に、図 2乃至図 4を用いて説明したメインパスとサブパスの構造を具体的に実現 するための、図 6を用いて説明したそれぞれのファイルのデータ構造 (シンタクス)を 説明する。
[0074] 図 7に、 PLAYLISTディレクトリに格納される、拡張子「.mpls」を有する PlayListフアイ ルのデータ構造を示す。
[0075] typejndicatorは、このファイルの種類を示す情報が記載されているものであり、この フィールドには、 IS0646に従って、 "MPLS"と符号化されなくてはならない。
[0076] version_numberは、この xxxx.mplsのバージョンナンパを示す 4個のキャラクタ一文字 を示すものであり、 vesrion_numberは ISO"0089"と符号化されなければならな!/ヽ。
[0077] PlayList_start_addressは、 PlayListファイルの先頭のバイトからの相対バイト数を単 位として、 PlayListOの先頭アドレスを示すものである。
[0078] PlayListMark_start_addressは、 PlayListファイルの先頭のバイトからの相対バイト数 を単位として、 PlayListMarkOの先頭アドレスを示すものである。
[0079] PlayListEntsnsionData_start_addressは、 PlayListファイルの先頭のバイトからの相対 バイト数を単位として、 PlayListEntsnsionDataOの先頭アドレスを示すものである。
[0080] AppInfoPlayListOには、 PlayListの再生コントロールに関するパラメータが格納され ている。 [0081] PlayListOには、 PlayListのメインパスやサブパスなどに関するパラメータが格納され ている。 PlayListOの詳細は、図 18を用いて後述する。
[0082] PlayListMarkOには、 PlayListのマーク情報が格納されている。また、 PlayListExtens ionDataOの中には、プライベートデータが挿入できるようになって!/、る。
[0083] 図 8に、 PlayListExtensionDataOのシンタクスを示す。
[0084] Lengthは、この lengthフィールドの直後から PlayListExtensionDataOの最後までの P1 ayListExtensionDataOのバイト数を示すものである。
[0085] data_blocks_start_addressは、 PlayListExtensionDataOの先頭のバイトからの相対ノ イト数を単位として、最初の data_block()の先頭アドレスを示すものである。
[0086] number_of_PL_ext_data_entriesは、 PlayListExtensionDataOの中に含まれて 、る Play
ListExtensionDataのエントリー数を示すものである。 PlayListExtensionDataO内には、 同じ IDが 2個以上存在してはならない。
[0087] ID1/ID2には、この PlayListExtensionDataOの data_blockに記載される情報の種類を 識別することができる情報 (識別子など)が記載される。
[0088] PL_ext_data_start_addressは、その PlayListExtensionDataが開始される data_blockの 番号を示すものである。 PlayListExtensionDataの先頭データは、 data_blockの先頭 にァラインされなければならな 、。
[0089] PL_ext_data_lengthは、バイト単位で PlayListExtensionDataの大きさを示すものであ る。
[0090] data_blockは、 PlayListExtensionDataが格納される領域であり、 PlayListExtensionD ata()内の全ての data_blockは、同じサイズでなければならな!/、。
[0091] そして、 data_blockには、図 5を用いて説明したセカンダリビデオが表示される副表 示画面 2の表示位置や大きさを示す情報を記載することができる。 data_blockには、ピ クチャインピクチャ(Picture-in-Picture)の表示設定を示すメタデータを記載すること ができる。
[0092] 図 9に、 data_blockに記載される pipjnetadata (Picture- in- Pictureの表示設定を示す メタデータ)のシンタクスの第 1の例を示す。
[0093] lengthは、この lengthフィーノレドの直後から pip_metadata0の最後までの pipjnetadata ()のバイト数を示すものである。
[0094] pip_metadata_typeのフィールドは、 pipjnetadataの種類を示すものである。図 10に 示されるように、 pip_metadata_type=0x01の場合、この pipjnetadataOによりピクチャイン ピクチャ表示が指定されるセカンダリビデオストリームは同期型、すなわち、 Main Path の Playltemの時間軸 (再生時間軸)に同期して再生されるので、プライマリストリームに 対して、セカンダリストリームが同期して常に再生出力される。また、 pip_metadata_typ e=0x02の場合、この pipjnetadataOによりピクチャインピクチャ表示が指定されるセカ ンダリビデオストリームは非同期型、すなわち、 Sub Pathの SubPlayltemの時間軸に同 期して再生される力 Main Pathの Playltemの時間軸には同期しなくてもよいので、ュ 一ザの操作入力により、セカンダリストリームの表示が指令された場合のみ、セカンダ リストリームが再生出力されるようになされて 、る。
[0095] すなわち、 pip_metadata_type = 0x02で、「SubPlayItemに同期する」とは、この pip_me tadataOによりピクチャインピクチャ表示が指定されるセカンダリビデオストリームは、 m ain pathの時間軸とは非同期であるが、 Sub Pathの時間軸には同期しているという意 味である。すなわち、 pip_metadata_type = 0x02である場合の pipjnetadataOは、ユー ザのアクション (操作入力)によってセカンダリビデオの表示がスタートした瞬間を基 準に考えた場合の SubPlayltem再生中の副表示画面 2の表示位置および大きさを示 すものである。
[0096] ref— to— Playltem I SubPath— idは、 pip— metadataが適応される Playltemの Playltem— idの 値を示す力、または、 pipjnetadataが適応される SubPlayltemの SubPathjdの値を示す ものである。すなわち、この pipjnetadataOによりピクチャインピクチャ表示が指定され るセカンダリビデオストリームが Main Pathと同期する場合(pip_metadata_type=0x01で ある場合)、 reむ o_PlayItmとなり、この pipjnetadataOによりピクチャインピクチャ表示が 指定されるセカンダリビデオストリームが Sub Pathと同期する場合(pip_metadata_type= 0x02である場合)、 ref_to_SubPath_idとなる。
[0097] pip_metadata_time_stampは、 pipjnetadataが適応される Playltemのタイムスタンプで あり、 pip_metadata_time_stampに示されるタイミングで pipjnetadataOにより旨疋される 表示位置および大きさで、セカンダリビデオストリームの映像が副表示画面 2に表示 される。
[0098] すなわち、 pip_metadata_time_stampは、 reむ o_PlayItem/SubPath_idで参照される Pla yltemの In_time/Out_timeの間にある presentation-timeを指す必要がある。そして、こ の pipjnetadataOによりピクチャインピクチャ表示が指定されるセカンダリビデオストリ ームが Sub Pathと同期の場合(すなわち、 pip_metadata_type=0x02のとき)には、 SubPl ayltemの時間軸のなかで pip_metadata_time_stampに示されるタイミングで pipjnetadat a0により指定される表示位置および大きさで、セカンダリビデオストリームの映像が副 表示画面 2に表示される。
[0099] pip_entry_video_PIDは、ピクチャインピクチャ表示に用いられるセカンダリビデオの PI Dの値を示すものである。
[0100] pip_horizotal_positionは、プライマリビデオのフレーム(図 5の主表示画面 1)上にお V、て、セカンダリビデオが表示される副表示画面 2の左上隅の X座標を示すものであ る。また、 pip_vertical_positionは、プライマリビデオのフレーム(図 5の主表示画面 1) 上において、セカンダリビデオが表示される副表示画面 2の左上隅の Y座標を示すも のである。
[0101] なお、例えば、副表示画面 2の右下隅の X座標および Y座標の指定や、あらかじめ 定められた複数の表示位置のうちの 、ずれかを指定するなど、 pip_horizotal_position および pip_vertical_positionによる副表示画面 2の左上隅の X座標および Y座標の指 定以外の方法によって、セカンダリビデオが表示される副表示画面 2の表示位置を 指定するようにしてもょ 、ことはもちろんである。
[0102] pip_scaleは、セカンダリビデオが表示される副表示画面 2の大きさを示す情報が記 載されるフィールドであり、例えば、プライマリビデオに対するセカンダリビデオの大き さの比率、セカンダリビデオのオリジナルの画像の大きさに対する縮小率、または、副 表示画面 2を構成する画素が、縦横それぞれ何画素で構成されて!ヽるかを示す情報 などが記載される。
[0103] 図 10に、図 9の pip_metadata_typeの値とその意味を示す。
[0104] pip_metadata_type=0x00は、将来の拡張のために意味が未設定とされて 、る値であ る。 pip_metadata_type=0x01の場合、この pip_metadata()は同期型、すなわち、 Main Path の Playltemの時間軸に同期しているので、プライマリストリームに対して、セカンダリス トリームが同期して常に再生出力されるものであり、 pip_metadata_type=0x02の場合、 この pipjnetadataOは非同期型、すなわち、 Sub Pathの SubPlayltemの時間軸に同期 するようになされているので、ユーザの操作入力により、セカンダリストリームの表示が 指令された場合のみ、セカンダリビデオストリームの映像が副表示画面 2に再生出力 されるようになされているものである。また、 pip_metadata_typeの上述した 3つの値以 外は、将来の拡張のために意味が未設定とされている。
[0105] 図 11に、 data_blockに記載される pipjnetadataのシンタクスの、図 9における場合と 異なる第 2の例を示す。なお、図 9における場合と同一名称で同一定義のデータフィ 一ルドに関する説明は適宜省略する。
[0106] number_of_pip_entriesは、ピクチャインピクチヤのアプリケーション数を示すフィール ドである。
[0107] Synchronous_PIP_metadata_flagは、ピクチャインピクチヤのアプリケーション(すなわ ち、セカンダリビデオストリーム)がどのパスに同期するかを示すものである。すなわち 、 Synchronous_PIP_metadata_flagの値が 0'の場合、このピクチャインピクチャのアプリ ケーシヨンは、 SubPathに同期するものであり、 ref_to_PlayItem / SubPathjdでは、 ref_ to_SubPath_idが登録される。これに対して、 Synchronous_PIP_metadata _flagの値が 1 ' の場合、このピクチャインピクチャのアプリケーションは、 MainPathに同期するもので あり、 ref_to_PlayItem / SubPathjdでは、 reむ o_PlayItemが登録される。
[0108] すなわち、図 11の Synchronous_PIP_metadata_flagは、図 9を用いて説明した pipjnet adataにおける pip_metadata_type (図 10)とほぼ同一の内容を定義するための情報で ある。
[0109] number— of— pip— metadata— entries【ま、 ref— to— Playltem/ref— to— SubPath— idの Videoストリ ームのための PinP Metadataの総数を示すフィールドである。
[0110] pip_metadata_typeは、このピクチャインピクチャのメタデータの種類を示すものであり 、例えば、セカンダリビデオストリームが表示される副表示画面 2の位置と大きさを示 す情報以外に、例えば、セカンダリビデオストリームの原映像に対して表示される映 像の回転や色の指定などに関する情報を記載することができるものである。
[0111] すなわち、図 11の pip_metadata_typeは、図 9を用いて説明した pip_metadataにおけ る pip_metadata_typeとは定義の異なる情報である。
[0112] また、図 12に、 data_blockに記載される pip_metadataのシンタクスの、図 9および図 1
1における場合と異なる第 3の例を示す。
[0113] Lengthは、この lengthフィーノレドの直後から pipjnetadataOの最後までの pipjnetadat aOのバイト数を示す情報が記載されるフィールドである。
[0114] number— of— metadata— block— entries【ま、 pip— metadataOの中に 3.まれ V、る metadata b lockのエントリー数を示す情報が記載されるフィールドである。
[0115] metadata_block_header[k]0には、 metadata blockに関連するヘッダー情報を含む情 報が記載される。
[0116] ref_to_PlayItem_id[k]は、 pipjnetadataが適用される Playltemの Playltemjdの値を示 す情報が記載されるフィールドである。
[0117] ref to_secondary_video_stream_id[k]は、 pipjnetadataが適用されるセ力ンダリビデオ の idで、 reむ o_PlayItem_idによって参照される Playltem内の STN_table (図 22にて後述 する)で定義されて 、る secondary_video_stream_idの値を示す情報が記載されるフィ 一ルドである。
[0118] pip_timeline_type[k]は、 pip_metadata_time_stampが参照する時間軸のタイプを表す 情報が記載されるフィールドである。なお、 pip_timeline_type[k]の値とその意味につ いては後述する。
[0119] is_luma_keyは、このフラグが 1にセットされて!/、る場合は、 luma- keyingが lower_limit_l uma_keyと upper_limit_luma_keyの値に従って、セカンダリビデオストリームに適用され る。
[0120] lower_limit_luma_keyは、 luma keyingのためのセカンダリビデオの輝度値の下限を示 す情報が記載されるフィールドである。
[0121] upper_limit_luma_keyは、 luma keyingのためのセカンダリビデオの輝度値の上限を 示す情報が記載されるフィールドである。
[0122] ここで luma keyingとは、明るさ (輝度値)の成分差を利用して不要な部分を切り抜 ヽ た画像を、映像に重ねて合成することを意味する。すなわち、 is_luma_keyのフラグが 1 に設定されている場合には、 lower_limit_luma_keyと upper_limit_luma_keyで定義された 、輝度値の下限カゝら上限までの範囲で指定された輝度値を持つ画像を透明に設定 することにより、この明るさ情報で指定された範囲の画像が取り除かれたセカンダリビ デォがプライマリビデオに重ねて合成される。
[0123] これにより、必要最小限のセカンダリビデオを表示することで、セカンダリビデオの 不要な部分によって、プライマリビデオが見にくくなるのを防止することができるのに 加え、セカンダリビデオとプライマリビデオの合成をより柔軟に行うことができる。
[0124] また、この実施例では、 lower_limit_luma_keyと upper_limit_luma_keyとの 2つの閾値を 用いることにより、透明に設定できるとして説明したが、本発明はそれに限らず、閾値 をどちらか一方にすることにより、輝度値が、例えば、 upper_limit_luma_key以下または lower_limit_luma_key以上となる部分のみを透明に設定するなどとしてもよ!/、。
[0125] metadata_block_data_start_address[k]は、 pipjnetadataOの先頭のバイトからの相対 バイト数を単位として、最初の metadata_block_data[k]0の先頭アドレスを示す情報が 記載されるフィールドである。なお、 pipjnetadataO内にエントリーされている metadata_ block_data_start_address[k]は、アドレス値の照準で登録されて!、なければならな!/、。
[0126] padding— wordには、 metadata— block— data— start— adaress[k]の値によって、 padding wor dが挿入される。
[0127] metadata_block_data[k]0には、 metadata blockのデータ情報を含む情報が記載され る。
[0128] number— pip— metadata— entries [k]i¾、 metadata— block— dataiこめ opip— metadataの総数 を示す情報が記載されるフィールドである。
[0129] pip_metadata_time_stamp[i]は、 pipjnetadataが適用される時間を表す、例えば、 45k
Hzのタイムスタンプを含む情報が記載されるフィールドである。なお、連続する 2つの pip— metadata— time— stampの最 /J、間 feは 1禾少である。なお、 pip— timeline— typeの値に J心し
7こ pip— metadata— time— stampの 7g、味にっ 、ては、後 する。
[0130] pip_composition_metadataOは、プライマリビデオのフレームの大きさや位置などに関 する情報が記載されるフィールドである。 [0131] pip_horizontal_position[i]は、プライマリビデオのフレーム(図 5の主表示画面 1)上に お 、て、セカンダリビデオが表示される副表示画面 2の左上隅の X座標を示すもので ある。 pip_vertical_position[i]は、プライマリビデオのフレーム(図 5の主表示画面 1)上 にお 、て、セカンダリビデオが表示される副表示画面 2の左上隅の Y座標を示すもの である。
[0132] pip_scale[i]は、図 13に示すように、セカンダリビデオのオリジナルの画像の大きさに 対する縮小率を、 1倍、 1Z2倍、 1Z4倍、 1. 5倍、または foil Screen (セカンダリビデ ォが図 5の主表示画面 1の全画面に表示される)にする情報が記載されるフィールド である。
[0133] なお、 pip— metadata— time— stampLi]の pip— composition— metadataOは、 pip— metadata— tim e—stamp[i]力ら pip— metadata— time— stamp[i+l]の intervalの間、 5¾Jになる。ただし、最 後の pip— compositoin— metadataの有効 intervalは、最後の pip— metadata— time— stamp力ら 、 ref— to— secondary— video— stream— id[k]によって不 れる SuDPathの presentation end tim eまでとなる。
[0134] 次に、図 14を参照して pip_timeline_typeの値とその意味を説明し、図 15乃至図 17 参照し飞 pip— timeline— typeの値〖こ J心した ΡΦ— metadata— time— stampの, s味を詈兄明する
[0135] pip_timeline_type=0は、将来の拡張のために意味が未設定とされている値である。
[0136] pip_timeline_type=lは、ピクチャインピクチャプレゼンテーションパスは同期型のタイ プであることを意味する。このとき ref_to_secondary_video_streamjdで指し示されて!/、る Subpathのタイプは、 5または 7でなければならない(Subpathのタイプの詳細は、図 20 にて後述する)。
[0137] pip_metadata_time_stampはこのとき、図 15に示すように、 ref_to_PlayItem_idの Playlte mの時間軸を参照し、関連付けられた SubPlayltemの再生区間を示している。すなわ ち SubPlayltemの再生区間は reむ o_PlayItemjd[k]で参照される Playltemの時間軸に 投景される。 pip_metadata_time_stamp[0]は、 SubPath内の SubPlayItem[0]の再生区間 の先頭を示している。
[0138] pip_timeline_type=2は、ピクチャインピクチャプレゼンテーションパスは非同期型の タイプであることを意味する。このとき ref_to_secondary_video_streamjdで指し示されて
V、る Subpathのタイプは、 6でなければならな 、。この場合 SubPath_type=6の SubPath には 1つの SubPlayltemしか含まれて!/、な!/ヽ。
[0139] pip_metadata_time_stampはこのとき、図 16に示すように、 Subpathの時間軸を参照し 、 ref— to— secondary— video— stream— id[k]によって不 れる SuDPathの ¾UDPlayItemの再生 区間を示して 、る。 pip_metadata_time_stamp[0]は、 SubPlayltemの再生区間の先頭を 示している。
[0140] pip_timeline_type=3は、ピクチャインピクチャプレゼンテーションパスは非同期型の タイプであることを意味する。このとき ref_to_secondary_video_streamjdで指し示されて
V、る Subpathのタイプは、 6でなければならな!/、。
[0141] pip_metadata_time_stampはこのとき、図 17に示すように、 ref_to_PlayItem_idの Playlte mの時間軸を参照し、 reむ o_PlayItem_id[k]の Playltemの再生区間を示して!/、る。 pip_m etadata_time_stamp[0]は、 ref_to_PlayItem_id[k]の Playltemの再生区間の先頭を示して いる。
[0142] 図 18は、 PlayListOのシンタクスを示す図である。
[0143] lengthは、この lengthフィールドの直後から PlayListOの最後までのバイト数を示す 3 2ビットの符号なし整数である。すなわち、 reserved_forjUture_useから Playlistの最後 までのバイト数を示すフィールドである。この lengthの後には、 16ビットの reserved_for_ foture_useが用意される。 number_of_PlayItemsは、 PlayListの中にある Playltemの数を 示す 16ビットのフィールドである。例えば、図 2の例の場合 Playltemの数は 3個である 。 Playltemjdの値は、 PlayListの中で PlayltemOが現れる順番に 0から割り振られる。 例えば、図 2および図 4に示されるように、 Playltem jd = 0, 1, 2が割り振られる。
[0144] number_of_SubPathsは、 PlayListの中にある SubPathの数(エントリー数)を示す 16ビ ットのフィールドである。例えば、図 2の例の場合、 Sub Pathの数は 3個である。 SubPat hjdの値は、 PlayListの中で SubPathOが現れる順番に 0から割り振られる。例えば、図 2に示されるように、 Subpath_id=0, 1, 2が割り振られる。その後の for文では、 Playlte mの数だけ Playltemが参照され、 Sub Pathの数だけ、 Sub Pathが参照される。
[0145] 図 19は、 SubPathOのシンタクスを示す図である。 [0146] lengthは、この lengthフィールドの直後力 Sub Path ()の最後までのバイト数を示す 32ビットの符号なし整数である。すなわち、 reserved_forjUture_useから Playlistの最後 までのバイト数を示すフィールドである。この lengthの後には、 16ビットの reserved_for_ foture_useが用意される。 SubPath_typeは、 SubPathのアプリケーション種類を示す 8ビ ットのフィールドである。 SubPath_typeは、例えば、 Sub Pathがオーディオである力 ビ ットマップ字幕であるか、テキスト字幕であるかなどの種類を示す場合に利用される。 この SubPath_typeについては、図 20を参照して後述する。 SubPath_typeの後には、 1 5ビットの reserved_for_foture_useが用意される。 is_repeat_SubPathは、 SubPathの再生 方法を指定する 1ビットのフィールドであり、メインパスの再生の間に SubPathの再生を 繰り返し行うか、または SubPathの再生を 1回だけ行うかを示すものである。例えば、メ イン AVストリームとサブパスが指定する Clipの再生タイミングが異なる場合 (メインパ スを静止画のスライドショーとし、サブパスのオーディオパスをメインパスの BGM (バッ クグラウンドミュージック)として使う場合など)に利用される。 Is_repeat_SubPathの後に は、 8ヒットの reserved— for— future— usez)、用意 れる。 number— of— SubPlayltemsは、 1つ の SubPathの中にある SubPlayltemの数(エントリー数)を示す 8ビットのフィールドであ る。例えば、 number_of_SubPlayItemsは、図 2の SubPath_id = 0の SubPlayltemは 1個で あり、 SubPath jd= lの SubPlayltemは 2個である。その後の for文では、 SubPlayltemの 数だけ、 SubPlayltemが参照される。
[0147] 図 20は、 SubPath.type (サブパスのタイプ)の例を説明する図である。すなわち、 Sub Pathの種類は、例えば、図 20に示されるように定義されている。
[0148] また、それぞれのサブパスタイプのうち、「Out-of-mux' · -type Jと!、う記述は、サブ パスで参照される ES (エレメンタリストリーム)が含まれる TS (トランスポートストリーム) 、すなわち、 Clipと、メインパスで参照されるプレイアイテム(1以上の ES)が含まれる T S(Clip)とが異なっている場合のサブパスのタイプ (種類)、すなわち、サブパスで参照 される ES力 メインパスで参照されるプレイアイテムが含まれる TS(Clip)に多重化さ れていないサブパスのタイプ (種類)であることを示している。以下、力かる種類を、メ インパス非多重型のパスと称する。
[0149] 図 20において、 SubPath tvpe = 0, 1は、 reservedとされている。 SubPath_type = 2は 、 Audio presentation path of the Brows able slideshow (プラウザブノレスライドショ ~~の オーディオプレゼンテーションパス)とされている。例えば、 SubPath_type= 2は、プレ イリストの中において、サブパスで参照されるオーディオプレゼンテーションパスと、プ レイアイテムで参照されるメインパスとが非同期であることを示している。
[0150] Sub Path— type = dは、 Interactive graphics presentation menu (インタフクアイブグフノ イツタスのプレゼンテーションメニュー)とされている。例えば、 SubPath_type = 3は、プ レイリストの中にお 、て、サブパスで参照されるインタラクティブグラフィックスのメ-ュ 一と、プレイアイテムで参照されるメインパスとが非同期であることを示している。
[0151] SubPath_type = 4は、 Text subtitle presentation path (テキスト字幕のプレゼンテー シヨンパス)とされている。例えば、 SubPath_type=4は、プレイリストの中において、サ ブパスで参照されるテキスト字幕のプレゼンテーションパスと、プレイアイテムで参照 されるメインパスとが同期して 、ることを示して!/、る。
[0152] ここで、 SubPath_type = 2, 3のように、メインパスで参照される ESとサブパスで参照 される ESとが非同期である場合、そのサブパスのタイプ (種類)を、以下、非同期型 のパスと称する。一方、 SubPath_type=4のように、メインパスで参照される ESとサブ パスで参照される ESとが同期する場合、そのサブパスのタイプ (種類)を、以下、同 期型のパスと称する。
[0153] SubPath—type = 5i^、 Out— of— mux ana AV Synchronized type of one or more eleme ntary streams path(Primary audio/PG/IG/ Secondary audio path). Out of mux and A V synchronized type of Picture— in— Picture presentation path which contains one or more elementary streams pathsとされている。すなわち、 SubPath—type = 5 、メイン パス TS非多重型、かつ、同期型のパスであって、 1本以上の ES(Primary audio/PG/ IG/Secondary audio)のパスや、ピクチャインピクチャプレゼンテーションパスとされて いる。
[0154] ここで、ピクチャインピクチャプレゼンテーションパスとは、上述したピクチャインピク チヤの手法において、所定のプライマリビデオストリーム (メインパスで参照されるビデ ォストリーム)についての、プライマリオーディオストリームストリーム、セカンダリビデオ ストリーム、セカンダリオーディオストリーム、および、サブタイトノレストリームのうちの 1 以上のパス(そのようなサブパスのタイプ)であることを 、う。
[0155] SubPath—type=6 、 Out- of- mux ana AV non- synchronized type of Picture- in- Pi cture presentation path which contains one or more elementary streams pathsと (^れ ている。すなわち、 SubPath_type = 6は、メインパス TS非多重型、かつ、非同期型の ノ スであって、ピクチャインピクチャプレゼンテーションパス(1以上の ESのパス)とさ れている。
[0156] SubPath— type= /は、 In- mux type ana AV Synchronized type of Picture- in- Picture presentation path which contains one or more elementary streams pathsとされてい る。
[0157] ここで、「In-mux typej t\、う記述は、サブパスで参照される ESが含まれる TS(Clip) と、メインノ スで参照されるプレイアイテム(1以上の ES)が含まれる TS(Clip)とが同一 の場合のサブパスのタイプ (種類)、すなわち、サブパスで参照される ESが、メインパ スで参照されるプレイアイテムが含まれる TS(Clip)に多重化されているサブパスのタ ィプ (種類)であることを示している。以下、力かる種類を、メインパス多重型のパスと 称する。
[0158] すなわち、 SubPath_type = 7は、メインパス TS多重型、かつ、同期型のパスであって
、ピクチャインピクチャプレゼンテーションパス(1以上の ESのパス)とされている。
[0159] SubPath_type = 8乃至 255は、 reservedとされている。
[0160] 図 21は、 SubPlayltem(i)のシンタクスを示す図である。
[0161] lengthは、この lengthフィールドの直後から Sub playltem ()の最後までのバイト数を 示す 16ビットの符号なし整数である。
[0162] 図 21においては、 SubPlayltemが 1つの Clipを参照する場合と、複数の Clipを参照 する場合に分けられている。
[0163] 最初に、 SubPlayltemが 1つの Clipを参照する場合について説明する。
[0164] SubPlayltemには、 Clipを指定するための Clip_Information_file— name[0]が含まれる。
3;た、し lipのコ ~~ァッグ方式を旨定するし lip— codec— identifier [0]、 reserved— for— lUture—u se、マルチクリップの登録の有無を示すフラグである is_multi_Clip_entries、 STC不連続 点(システムタイムベースの不連続点)に関する情報である reむ o_STC_id[0]を含む。 i s_multi_Clip_entriesのフラグが立っている場合、 SubPlayltemが複数の Clipを参照する 場合のシンタクスが参照される。また、 Clipの中にある Sub Pathの再生区間を指定す るための SubPlayItem_IN_timeと SubPlayItem_OUT_timeを含む。さらに、 main pathの時 間軸上で Sub Pathが再生開始する時刻を指定するため sync_PlayItemjdと sync_star t_PTS_of_PlayItemを含む。この sync_PlayItem_idと sync_start_PTS_of_PlayItemは、上 述したように、図 3と図 4の場合 (メイン AVストリームとサブパスにより示されるファイル の再生タイミングが同じである場合)に使用され、メイン AVストリームとサブパスにより 示されるファイルの再生タイミングが異なる場合 (例えば、静止画により構成されるスラ イドショーの BGMのように、メインパスにより参照される静止画像とサブパスにより参照 されるオーディオとが同期しない場合)には使用されない。また、 SubPlayItem_IN_time 、 SubPlayltem— OUT— time、 sync— Piayltem— ια、 sync— start— PTS— of— Playltemiま、 SubPlaylt emが参照する Clipにお 、て共通に使用される。
[0165] 次に、 SubPlayltemが複数の Clipを参照する場合(if (is_multi_Clip_entries = = lb)で ある場合、すなわちマルチクリップの登録が行われている場合)について説明する。 具体的には、図 4に示されるように、 SubPlayltemが複数の Clipを参照する場合を示 す。
[0166] num— of— Clip— entries【ま、し lipの数を しており、し lip— Information— file— name[SubCiip—e ntryjd]の数が、 Clip_Information_file_ name[0]を除ぐ Clipsを指定する。すなわち、 Cli p— Information— file— name[0]を除く、し lip— Information— file— name[l]、 し lip— Information— fil e_ name[2]などの Clipを指定する。また、 SubPlayltemは、 Clipのコーデック方式を指 定する Clip_codec_identifier[SubClip_entry_id]、 STC不連続点(システムタイムベース の不連続点)に関する情報である reむ o_STC_id[SubClip_entry_id]、および reserved_fo r— future— use ¾τ む。
[0167] なお、複数の Clipの間で、 SubPlayltem— IN— time, SubPlayltem— OUT— time、 sync— Playl tem_id、および sync_start_PTS_of_PlayItemは共通して使われる。図 4の例の場合、 Sub Piayltem— IN— time, SubPlayltem— OUT— time、 sync— Piayltem— id、および sync— start— PTS—o LPlayltemは、 SubClip_entry_id = 0と SubClip_entry_id = 1との間で共通して使用される ものであり、選択された SubClip_entryjdに対する Text based subtitleがこの SubPlaylte m— IN— time, SubPlayltem— OUT— time、 sync— Playltem— id、および sync— start— PTS— of— Play It emに基づ!/、て再生される。
[0168] ここで、 SubClip_entryjdの値は、 SubPlayltemの中にある Clip_Information_file_name[
SubClip_entryjd]が現れる順番に 1から割り振られる。また、 Clip_Information_file_ nam e[0]の SubClip_entry_idは 0である。
[0169] 図 22は、 PlayltemOのシンタクスを示す図である。
[0170] lengthは、この lengthフィールドの直後から PlayltemOの最後までのバイト数を示す 1 6ビットの符号なし整数である。 Clip_Information_file_ name[0]は、 Playltemが参照する Clipを指定するためのフィールドである。図 3の例の場合、 Clip_Information_file_ name [0]により、メイン AVストリームが参照される。また、 Clipのコーデック方式を指定する C lip— codec— identiner[0」、 reserved— for— future— use、 is— multi— angle、 connection— condition 、 STC不連続点(システムタイムベースの不連続点)に関する情報である reむ o_STCjd [0]を含む。さらに、 Clipの中の Playltemの再生区間を指定するための IN_timeと OU T_timeを含む。図 3の例の場合、 IN.timeと OUT_timeにより、メイン ClipAVストリーム フアイノレの再生範囲が表される。また、 UO_mask_table0、 PlayItem_random_access_mo de、 stilLmodeを含む。 is_multi_angleが複数ある場合については、本発明と直接的に は関係な ヽのでその説明を省略する。
[0171] PlayltemOの中の STN_table()は、対象の Playltemとそれに関連付けられて再生され る 1つ以上の SubPathが用意されている場合に、ユーザによる音声切り替えや字幕切 り替えという操作力 その Playltemが参照する Clipとこれらの 1つ以上の SubPathが参 照する Clipsの中力も選ぶことができる仕組みを提供するものである。また、 STN_table( )は、 2つのオーディオストリームのミキシング再生を選ぶことができる仕組みを提供す るものである。
[0172] 図 23は、 STN_table0のシンタクスの第 1の例を示す図である。 STN_table0は、 Playlt emの属性として設定されて 、る。
[0173] lengthは、この lengthフィールドの直後から STN_table0の最後までのバイト数を示す 16ビットの符号なし整数である。 lengthの後には、 16ビットの reserved_for_foture_use が用意される。 number_of_video_stream_entriesは、 STN_table0の中でエントリーされる (登録される) video_stream_idが与えられるストリーム数を示す。 video_stream_idは、ビ デォストリームを識別するための情報であり、 video_stream_numberは、ビデオ切り替 えに使われる、ユーザ力 見えるビデオストリーム番号である。
[0174] number— of— audio— stream— entriesは、 STN— tableOの中でエントリーされる audio— stream— idが与えられる 1番目のオーディオストリームのストリーム数を示す。 audio_stream_idは 、オーディオストリームを識別するための情報であり、 audio_stream_numberは、音声切 り替えに使われるユーザから見えるオーディオストリーム番号である。 number.of audio _stream2_entriesは、 STN_tableOの中でエントリーされる audio_streamjd2が与えられる 2番目のオーディオストリームのストリーム数を示す。 audio_streamjd2は、オーディオ ストリームを識別するための情報であり、 audio_stream_numberは、音声切り替えに使 われるユーザから見えるオーディオストリーム番号である。具体的には、 STN.tableO でエントリーされる number_of_audio_stream_entriesのオーディオストリームは、後述す る図 35の再生装置 20の 1stオーディオデコーダ 75— 1でデコードされるオーディオス トリームであり、 STN—tableOでエントリーされる number— of— audio— stream2— entriesのォー ディォストリームは、後述する図 35の再生装置 20の 2ndオーディオデコーダ 75— 2で デコードされるオーディオストリームである。このように、図 23、並びに、後述する図 3 3および図 34の STN_tableOでは、 2つのオーディオデコーダのそれぞれにデコードさ せるオーディオストリームをエントリーすることができる。
[0175] なお、以下において、図 35の再生装置 20の 1stオーディオデコーダ 75— 1でデコ ードされる number_of_audio_stream_entriesのオーディオストリーム、すなわち、プライマ リオーディオストリームをオーディオストリーム # 1と称し、図 35の再生装置 20の 2ndォ 一ティォテコーグ 75― 2でアコード れる number— of— audio— stream2— entriesのォーテ ィォストリーム、すなわち、セカンダリオーディオストリームをオーディオストリーム # 2と 称する。また、オーディオストリーム # 1は、オーディオストリーム # 2よりも優先される オーディオストリームであるものとする。
[0176] number_of_PG_txtST_stream_entriesは、 STN_tableOの中でエントリーされる PG_txtST _stream_idが与えられるストリーム数を示す。この中では、 DVDのサブピクチヤのような ビットマップ字幕をランレングス符号化したストリーム(PG, Presentation Graphics stre am)とテキスト字幕ファイル (txtST)がエントリーされる。 PG_txtST_stream_idは、字幕ス トリームを識別するための情報であり、 PG_txtST_stream_numberは、字幕切り替えに 使われるユーザから見える字幕ストリーム番号 (テキストサブタイトルストリームの番号 )である。
[0177] number_of_IG_stream_entriesは、 STN_tableOの中でエントリーされる IG_streamjdが 与えられるストリーム数を示す。この中では、インタラクティブグラフィックスストリームが エントリーされる。 IG_stream_idは、インタラクティブグラフィックスストリームを識別する ための情報であり、 IG_stream_numberは、グラフィックス切り替えに使われるユーザか ら見えるグラフィックスストリーム番号である。
[0178] ここで、 stream_entryOのシンタクスについて図 24を参照して説明する。
[0179] lengthは、この lengthフィールドの直後から stream_entry 0の最後までのバイト数を示 す 8ビットの符号なし整数である。 typeは、上述したストリーム番号が与えられるストリ ームを一意に特定するために必要な情報の種類を示す 8ビットのフィールドである。
[0180] type = 1では、 Playltemによって参照される Clip(Main Clip)の中に多重化されている 複数のエレメンタリストリームの中から 1つのエレメンタリストリームを特定するために、 16ビットのパケット ID(PID)が指定される。 reむ o_stream_PID_of_mainClipが、この PIDを 示している。すなわち、 type= lでは、メイン ClipAVストリームファイルの中の PIDを指 定するだけでストリームが決定される。
[0181] type = 2では、 SubPathがー度に複数個の Clipsを参照し、それぞれの Clipが複数の エレメンタリストリームを多重化する場合に、 SubPathによって参照される 1つの Clip(Su bClip)の複数のエレメンタリストリームの中から 1つのエレメンタリストリームを特定する ために、その SubPathの SubPath_id、 Clip id、およびパケット ID(PID)が指定される。 ref_ to_SubPath_idがこの SubPathjdを示し、 ref_to_SubClip_entry_idがこの Clip idを示し、 ref _to_stream_PID_of_SubClipがこの PIDを示して!/、る。 SubPlayltemの中で複数の Clipが 参照され、さらにこの Clipに複数のエレメンタリストリームが参照されている場合に用 いられる。
[0182] このように、 type (type = 1と type = 2の 2つの type)を使うことで、 Playltemとそれに関 連付けられて再生される 1つ以上の SubPathが用意されている場合に、この Playltem が参照する Clipと 1つ以上の SubPathが参照する Clipの中から 1つのエレメンタリストリ ームを特定することができる。なお、 type= lは Main Pathが参照する Clip (メイン Clip) を示しており、 type = 2は Sub Pathが参照する Clip (サブ Clip)を示している。
[0183] 図 23の STN_tableOの説明に戻って、ビデオストリーム ID(video_stream_id)の forルー プの中で、順番に stream_entryOごとに特定される 1つのビデオエレメンタリストリーム に、 0から video_stream_idが与えられる。なお、ビデオストリーム ID (video_streamjd)の 代わりに、ビデオストリーム番号 (video_stream_number)を用いるようにしてもょ 、。こ の場合、 video_stream_numberは、 0ではなく 1から与えられる。すなわち、 video.strea m_idの値に 1を力卩算したものが video_stream_numberである。ビデオストリーム番号は、 ビデオ切り替えに使われる、ユーザから見えるビデオストリーム番号であるので、 1か ら定義される。
[0184] 同様に、オーディオストリーム ID(audio_stream_id)の forループの中で、順番に strea m_entry0ごとに特定される 1つのオーディオエレメンタリストリームに、 0から audio_stre amjdが与えられる。なお、ビデオストリームの場合と同様に、オーディオストリーム ID ( audio— stream— id)の代わり【こ、ォーティォストリーム番号 (audio— stream— number)を用 ヽ るようにしてもよい。この場合、 audio_stream_numberは、 0ではなく 1から与えられる。 すなわち、 audio_stream_idの値に 1を力卩算したものが audio_stream_numberである。ォ 一ディォストリーム番号は、音声切り替えに使われる、ユーザ力 見えるオーディオス トリーム番号であるので、 1から定義される。
[0185] 同様に、オーディオストリーム ID2(audio_stream_id2)の forループの中で、順番に str eam_entry0ごとに特定される 1つのオーディオエレメンタリストリームに、 0から audio_st ream_id2が与えられる。なお、ビデオストリームの場合と同様に、オーディオストリーム I D2 (audio— stream— id2)の代わりに、オーディオストリーム番号 2 (audio— stream— number 2)を用いるようにしてもよい。この場合、 audio_stream_number2は、 0ではなく 1から与 えられる。すなわち、 audio_stream_id2の値に 1を力卩算したものが audio_stream_number 2である。オーディオストリーム番号 2は、音声切り替えに使われる、ユーザから見える オーディオストリーム番号 2であるので、 1から定義される。
[0186] すなわち、図 23の STN_table0にお 、ては、 number_of_audio_stream_entries (オーデ ィォストリーム # 1)のオーディオストリームと、 number— of— audio— stream2— entries (ォー ディォストリーム # 2)のオーディオストリームとが定義される。換言すれば、 STN_table( )を用いて、オーディオストリーム # 1とオーディオストリーム # 2とをエントリーすること ができるので、ユーザは、同期して再生するオーディオストリームを 2本選択すること ができる。
[0187] 同様に、字幕ストリーム ID(PG_txtST_stream_id)の forループの中で、順番に stream_e ntryOごとに特定される 1つのビットマップ字幕エレメンタリストリームまたはテキスト字 幕に、 0から PG_txtST_stream_idが与えられる。なお、ビデオストリームの場合と同様に 、字幕ストリーム ID (PG_txtST_stream_id)の代わりに、字幕ストリーム番号(PG_txtST_s treamjiumber)を用いるようにしてもよい。この場合、 PG_txtST_stream_numberは、 0で はなく 1から与えられる。すなわち、 PG_txtST_streamjdの値に 1をカ卩算したものが PG_ txtST_stream_numberである。字幕ストリーム番号は、字幕切り替えに使われるユーザ 力も見える字幕ストリーム番号 (テキストサブタイトルストリームの番号)であるので、 1 から定義される。
[0188] 同様に、グラフィックスストリーム ID(IG_stream_id)の forループの中で、順番に stream _entry0ごとに特定される 1つのインタラクティブグラフィックスエレメンタリストリームに、 0から IG_streamjdが与えられる。なお、ビデオストリームの場合と同様に、グラフィック スストリーム ID (lG_stream_id)の代わりに、グラフィックスストリーム番号(IG_stream_nu mber)を用いるようにしてもよい。この場合、 IG_stream_numberは、 0ではなく 1から与 えられる。すなわち、 IG_stream_idの値に 1を力卩算したもの力 lG_stream_numberである 。グラフィックスストリーム番号は、グラフィックス切り替えに使われるユーザ力 見える グラフィックスストリーム番号であるので、 1から定義される。
[0189] 次に、図 23の STN_table0の stream_attribute()について説明する。
[0190] reserved— for— future— useの後の for文で ii、 video streamの分た ίナ video stream 参照 され、ディスク製造者が、オーディオストリームに対して Main Pathおよび Sub Pathを設 定した分だけ audio streamが参照され、 PG textST streamの分だけ PG textST stream が参照され、 IG streamの分だけ IG streamが参照される。
[0191] ビデオストリーム ID(video_stream_id)の forノレープの中の stream_attribute0は、 stream _entryOごとに特定される 1つのビデオエレメンタリストリームのストリーム属性情報を与 える。すなわち、この stream_attribute()には、 stream_entryOごとに特定される 1つのビ デォエレメンタリストリームのストリーム属性情報が記述されている。
[0192] 同様に、オーディオストリーム ID(audio_stream_id)の forループの中の stream_attribut e0は、 stream_entryOごとに特定される 1つのオーディオエレメンタリストリームのストリ ーム属性情報を与える。すなわち、この stream_attributeOには、 stream_entryOごとに 特定される 1つのオーディオエレメンタリストリームのストリーム属性情報が記述されて いる。例えば、図 24の stream_entry()の type= lまたは type= 2で特定されるオーディ ォエレメンタリストリームは 1つであるので、 stream_attributeOは、その 1つのオーディ ォエレメンタリストリームのストリーム属性情報を与える。
[0193] 同様に、オーディオストリーム ID2(audio_stream_id2)の forループの中の stream_attri buteOは、 stream_entry()ごとに特定される 1つのオーディオエレメンタリストリームのス トリーム属性情報を与える。すなわち、この stream_attribute0には、 stream_entry()ごと に特定される 1つのオーディオエレメンタリストリームのストリーム属性情報が記述され ている。例えば、図24の31: &1^6 ()の 6= 1または 6 = 2で特定されるォーデ ィォエレメンタリストリームは 1つであるので、 stream_attribute()は、その 1つのオーディ ォエレメンタリストリームのストリーム属性情報を与える。
[0194] 同様に、字幕ストリーム ID(PG_txtST_stream_id)の forループの中の stream_attribute( )は、 stream_entry0ごとに特定される 1つのビットマップ字幕エレメンタリストリームまた はテキスト字幕エレメンタリストリームのストリーム属性情報を与える。すなわち、この st ream.attributeOには、 stream_entry0ごとに特定される 1つのビットマップ字幕エレメン タリストリームのストリーム属性情報が記述されている。
[0195] 同様に、グラフィックスストリーム ID(IG_stream_id)の forループの中の stream_attribut e0は、 stream_entry0ごとに特定される 1つのインタラクティブグラフィックスエレメンタリ ストリームのストリーム属性情報を与える。すなわち、この stream_attribute0には、 strea m_entry0ごとに特定される 1つのインタラクティブグラフィックスエレメンタリストリームの ストリーム属性情報が記述されて 、る。
[0196] ここで、 stream_attribute0のシンタクスについて図 25を参照して説明する。 [0197] lengthは、この lengthフィールドの直後から stream_attributeOの最後までのバイト数 を示す 16ビットの符号なし整数である。
[0198] stream_coding_typeは、図 26に示されるようにエレメンタリストリームの符号化タイプ を示す。エレメンタリストリームの符号化タイプとしては、 MPEG- 2 video stream, HDM
V LPCM audio ^ Dolby Aし— 3 audio ^ dts audio ^ Presentation graphics stream、 Intera ctive graphics stream ^および Text subtitle stream力 じ述され 。
[0199] video_formatは、図 27に示されるようにビデオエレメンタリストリームのビデオフォー マットを示す。ビデオエレメンタリストリームのビデオフォーマットとしては、 480i、 576i
、 480p、 1080i、 720p、および 1080p力記述される。
[0200] frame_rateは、図 28〖こ示されるよう〖こ、ビデオエレメンタリストリームのフレームレート を示す。ビデオエレメンタリストリームのフレームレートとしては、 24000Z1001、 24
、 25、 30000/1001, 50、および 60000,1001力記述される。
[0201] aspect_ratioは、図 29に示されるようにビデオエレメンタリストリームのアスペクト比情 報を示す。ビデオエレメンタリストリームのアスペクト比情報としては、 4 : 3 display aspe ct ratio ^および 16 : 9 display aspect rations己述 れる。
[0202] audio_presentation_typeは、図 30に示されるようにオーディオエレメンタリストリーム のプレゼンテーションタイプ情報を示す。オーディオエレメンタリストリームのプレゼン y ~~ンヨンタ プ' 報とし飞 、 single mono channel、 dual mono channel、 stereo(2— ch annel)、および multi— channel力 S記述 れる。
[0203] sampling_frequencyは、図 31に示されるようにオーディオエレメンタリストリームのサ ンプリング周波数を示す。オーディオエレメンタリストリームのサンプリング周波数とし ては、 48kHz、および 96kHzが記述される。
[0204] audio_language_codeは、オーディオエレメンタリストリームの言語コード(日本語、韓 国語、中国語など)を示す。
[0205] PG_language_codeは、ビットマップ字幕エレメンタリストリームの言語コード(日本語、 韓国語、中国語など)を示す。
[0206] IG_language_code、インタラクティブグラフィックスエレメンタリストリームの言語コード( 日本語、韓国語、中国語など)を示す。 [0207] textST_language_codeは、テキスト字幕エレメンタリストリームの言語コード、(日本語、 韓国語、中国語など)を示す。
[0208] character_codeは、図 32に示されるようにテキスト字幕エレメンタリストリームのキャラ クタコードを示す。テキスト字幕エレメンタリストリームのキャラクタコードとしては、 Unic ode Vl. KlSO 10646—1)、 Shift JIS (Japanese)、 KSC 5601—1987 including KSC 5653 f or Roman character(Korean)、 GB 18030- 2000(Chinese)ゝ GB2312(Chinese)ゝおよび B
IG5(Chinese)が記述される。
[0209] 以下に、図 25の stream_attribute0のシンタクスについて、図 25と、図 26乃至図 32 を用いて具体的に説明する。
[0210] エレメンタリストリームの符号化タイプ(図 25の stream_coding_type)力 MPEG- 2 video stream (図 26)である場合、 stream_attribute0には、そのエレメンタリストリームのビデ ォフォーマット(図 27)、フレームレート(図 28)、およびアスペクト比情報(図 29)が含 まれる。
[0211] エレメンタリストリームの符号化タイプ(図 25の stream_coding_type)が HDMV LPCM audio ^ Dolby Aし— 3 audio ^ 3;た ίま dts audio (図 2oノである場合、 stream— attnbuteOに は、そのオーディオエレメンタリストリームのプレゼンテーションタイプ情報(図 30)、サ ンプリング周波数(図 31)、および言語コードが含まれる。
[0212] エレメンタリストリームの符号化タイプ(図 25の stream_coding_type)が Presentation g raphics stream (図 26)である場合、 stream_attribute0には、そのビットマップ字幕エレ メンタリストリームの言語コードが含まれる。
[0213] エレメンタリストリームの符号化タイプ(図 25の stream_coding_type)力 interactive gra phics stream (図 26)である場合、 stream_attribute0には、そのインタラクティブグラフ イツタスエレメンタリストリームの言語コードが含まれる。
[0214] エレメンタリストリームの符号化タイプ(図 25の stream_coding_type)が Text subtitle s tream (図 26)である場合、 stream_attribute0には、そのテキスト字幕エレメンタリストリ ームのキャラクタコード(図 32)、言語コードが含まれる。
[0215] なお、これらの属性情報はこれに限定されない。
[0216] このように、 Playltemとそれに関連付けられて再生される 1つ以上の SubPathが用意 されている場合に、この Playltemが参照する Clipと 1つ以上の SubPathが参照する Clip の中から、 stream_entry()によって特定された 1つのエレメンタリストリームの属性情報 を stream_attributeOによって知ることができる。
[0217] 再生装置は、この属性情報(stream_attributeO)を調べることによって、そのエレメン タリストリームを自分自身が再生する機能を持って 、る力否かを調べることができる。 また、再生装置は、この属性情報を調べることによって、再生装置の言語設定の初期 情報に対応したエレメンタリストリームの選択することができる。
[0218] 例えば、再生装置が、ビットマップ字幕エレメンタリストリームの再生機能だけを有し 、テキスト字幕エレメンタリストリームの再生機能を有していない場合を想定する。この 再生装置に対して、ユーザが言語切り替えを指示した場合、再生装置は、字幕ストリ ーム ID (PG_txtST_stream_id)の forループの中から、ビットマップ字幕エレメンタリストリ ームだけを順次選択して、再生する。
[0219] また、例えば、再生装置の言語設定の初期情報が日本語である場合を想定する。
この再生装置に対して、ユーザが音声切り替えを指示した場合、再生装置は、ォー ディォストリーム ID (Audio stream id)の forループの中から、言語コードが日本語であ るオーディオエレメンタリストリームだけを順次選択して、再生する。
[0220] さらに、例えば、メインパスにより参照される、ビデオストリームとオーディオストリーム 力 なる AVストリーム(例えば、映画)を再生する場合、再生装置に対して、ユーザが 音声の切り替えを指令し、オーディオストリーム # 1 (通常の映画で出力される音声)と 、オーディオストリーム # 2 (監督や出演者によるコメント)とを、再生する音声として指 定 (選択)した場合、再生装置は、オーディオストリーム # 1とオーディオストリーム # 2 とをミキシング (重畳)して、ビデオストリームとともに再生する。
[0221] なお、オーディオストリーム # 1とオーディオストリーム # 2とは、図 23の STN— tableO を参照しても分力るように、両方ともメインノ スにより参照される Clipに含まれるオーデ ィォストリームとしてもよい。また、オーディオストリーム # 1とオーディオストリーム # 2 のうちの、一方をメインパスにより参照される Clipに含まれるオーディオストリームとし、 他方をサブパスにより参照される Clipに含まれるオーディオストリームとしてもよい。こ のように、メインノ スにより参照されるメイン AVストリームに重畳された複数のオーディ ォストリームを 2つ選択して、ミキシングして再生することも可能である。
[0222] このようにして、 PlayltemOの中の STN_table()は、この Playltemとそれに関連付けられ て再生される 1つ以上の SubPathが用意されている場合に、ユーザによる音声切り替 えや字幕切り替えという操作力 この Playltemが参照する Clipと 1つ以上の SubPathが 参照する Clipの中力 選ぶことができる仕組みを提供するようにしたので、メイン AV ストリームが記録されている、再生する AVストリームとは異なるストリームやデータファ ィルに対しても、インタラクティブな操作を行うことができる。
[0223] また、 1つの PlayListの中に SubPathを複数使用し、それぞれの SubPathがそれぞれ SubPlayltemを参照する構成としたので、拡張性の高い、また、自由度の高い AVスト リームを実現することができる。すなわち、後で、 SubPlayltemを追加できる構成とする ことができる。例えば、 Main Pathが参照する ClipAVストリームファイルとこれに対応付 けられる PlayListがあり、この PlayListが新たな Sub Pathを追加した PlayListに書き換え られた場合、新たな PlayListに基づいて、 Main Pathが参照する ClipAVストリームファ ィルとともに、 Main Pathが参照する ClipAVストリームファイルとは異なる ClipAVストリ ームファイルを参照して、再生を行うことができる。このように、拡張性を有する構成と することができる。
[0224] さらに、 PlayltemOの中の STN_tableOは、後述する図 35の再生装置 20の 1stオーデ ィォデコーダ 75— 1でデコードされるオーディオストリーム # 1と、 2ndオーディオデコ ーダ 75— 2でデコードされるオーディオストリーム # 2とをミキシングして再生すること ができる仕組みを提供するようにした。例えば、 PlayltemOとそれに関連付けられて再 生される 1つ以上の SubPathが用意されている場合に、 Playltemが参照する Clipのォ 一ディォストリームをオーディオストリーム # 1とし、 SubPathが参照する Clipのオーディ ォストリームをオーディオストリーム # 2とし、これらををミキシングして再生することが できる仕組みを提供するようにした。また、例えば、 Playltemが参照する Clip (メイン Cli p)に含まれる 2つのオーディオストリームを、それぞれオーディオストリーム # 1とォー ディォストリーム # 2とし、これらをミキシングして再生することができる仕組みを提供 するようにした。これにより、メイン AVストリームが記録されている、再生するメインの オーディオストリームとは異なるオーディオストリーム (例えば、監督のコメントのストリ ーム)の重畳再生を行うことができる。また、メイン AVストリームに重畳されている 2つ のオーディオストリーム # 1とオーディオストリーム # 2とを重畳 (ミキシング)して再生 することができる。
[0225] また、 STN_tableOによって、プライマリビデオストリームと組み合わせて同時再生され る、セカンダリビデオストリーム、プライマリオーディオストリーム、セカンダリオーディオ ストリーム、および、サブタイトルストリームの組み合わせを定義することができる。図 3 3および図 34は、 STN_table()のシンタクスの第 2の例を示す図である。
[0226] 図 33と図 34とは、プライマリビデオストリームと組み合わせて同時再生される、セカ ンダリビデオストリーム、プライマリオーディオストリーム、セカンダリオーディオストリー ム、および、サブタイトルストリームの組み合わせを定義する場合の STN_tableOのシン タクスの例を示す図である。なお、図中、図 23と同一の部分については、繰り返しに なるのでその説明は省略する。
[0227] 図 33と図 34の例では、プライマリビデオストリームと組み合わせて同時再生される、 セカンダリビデオストリーム、プライマリオーディオストリーム、セカンダリオーディオスト リーム、および、サブタイトルストリームの組み合わせは、次のように定義される。すな わち、最初に、プライマリビデオストリームと組み合わせて同時再生されるセカンダリビ デォストリームが 1以上定義される。そして、 1以上のセカンダリビデオストリームのそ れぞれに対して、同時に再生されるオーディオストリーム (プライマリオーディオストリ 一ムとセカンダリオーディオストリーム)とサブタイトルストリームとが定義される。
[0228] 具体的には、図 33において、 number_of_video_stream2_entriesは、 STN_tableOの中 でエントリーされる(登録される) video_stream_id2が与えられるストリーム数を示す。 video_streamjd2は、セカンダリビデオストリームを識別するための情報であり、 video_s tream_number2は、ビデオ切り替えに使われる、ユーザから見えるセカンダリビデオス トリーム番号である。
[0229] 図 34にお!/、て、ビデオストリーム ID2(video_stream_id2)の forループの中で、順番に stream_entryOごとに特定される 1つのビデオエレメンタリストリーム (セカンダリビデオス トリームとなるビデオエレメンタリストリーム)に、 0から video_stream_id2が与えられる。
[0230] このとき、 video— stream— id2に对して、 number— of— Audio— combinations— for— viaeo2;o与 えられ、その後の for文では、 number_of_Audio_combinations_for_video2の数だけ、 audi stream— idと audio— stream— id2 与 りれ o。 number— of— Audio— combinations— for— video 2とその後の for文とは、セカンダリビデオストリームと同時再生されるオーディオストリ ームの組み合わせ、すなわち、 audio_stream_idで特定されるプライマリオーディオスト リームと、 audio_stream_id2で特定されるセカンダリオーディオストリームとの組み合わ せを定義する情報である。 video_stream_id2で特定されるセカンダリビデオストリームと 組み合わせ可能なオーディオストリームの組 (プライマリオーディオストリームとセカン ダリオーディオストリームとの糸且)の数が、 number— of— Audio— combinations— for— video2と される。そして、 video_streamjd2で特定されるセカンダリビデオストリームと組み合わ せ可能なオーディオストリームの組として、プライマリオーディオストリームを特定する a udio_stream_idと、セカンダリオーディオストリームを特定する audio_stream_id2と力 nu mber_of_Audio_combinations_for_video2の後の for文でそれぞれ定義される。
[0231] ま 7こ、同し video— stream— id2に对して、 number— of— Subtitle— combinations— for— viaeo2力 21 与えられ、その後の for文では、 number_of_Subtitle_combinations_for_video2の数だけ、 Ptj—textST— stream— id 与 られる。 number— of— Subtitle— combinations— for— video2と" irの 後の for文とは、セカンダリビデオストリームと同時再生されるサブタイトルストリームの 組み合わせ、すなわち、 PG_textST_streamjdで特定されるサブタイトルストリームの組 み合わせを定義する情報である。 video_streamjd2で特定されるセカンダリビデオスト リームと組み合わせ可能なサブタイトルストリームの数が、 number_of_Subtitle_combina tions_for_video2とされる。そして、 video_stream_id2で特定されるセカンダリビデオストリ ームと組み合わせ可能なサブタイトルストリームを特定する PG_textST_stream_idが、 n umber_of_Subtitle_combinations_for_video2の後の for文で定義される。
[0232] なお、図 23を参照して説明した場合と同様に、各 IDの代わりに各番号、例えば、 au dio— stream— idの代わりに、オーディオストリーム番号(audio— stream— number)を用いたり 、 audio_stream_id2の代わりに、オーディオストリーム番号 2 (audio_stream_number2)を 用いるようにしてもょ 、。ビデオストリームやサブタイトルストリームにつ!/ヽても同様であ る。
[0233] 図 33と図 34によれば、 video_stream_id2を用いて、プライマリビデオストリームと同時 再生されるセカンダリビデオストリームを定義することができ、さらに、 video_stream_id2 、および、 audio— stream— ia、 audio— stream— id2、並び【こ、 PG— text¾ i'— stream— idを用 ヽて 、そのセカンダリビデオストリームと同時再生される、プライマリオーディオストリーム、 セカンダリオーディオストリーム、および、サブタイトルストリームの組み合わせを定義 することができる。すなわち、プライマリビデオストリームと同時再生される、セカンダリ ビデオストリーム、プライマリオーディオストリーム、セカンダリオーディオストリーム、お よび、サブタイトルストリームの組み合わせを定義することができる。
[0234] 従って、プライマリビデオストリームと同時再生される、セカンダリビデオストリーム、 プライマリオーディオストリーム、セカンダリオーディオストリーム、および、サブタイトノレ ストリームの組み合わせとして、矛盾するような組み合わせを定義せずに済むので、 ユーザは、プライマリビデオストリームと同時再生可能なストリームの組み合わせの再 生を容易に選択することができる。
[0235] また、 PlayltemOの中の STN_tableOは、この Playltemとそれに関連付けられて再生さ れる 1つ以上の SubPathが用意されている場合に、この Subpathの Subpath_typeを 5乃 至 7、すなわちピクチャインピクチャプレゼンテーションパス(セカンダリビデオストリー ム、セカンダリオーディオストリーム、および、プレゼンテーショングラフィックストリーム のうちの 1以上のパス)と定義することにより、図 5を用いて説明したようにして、主に再 生表示されるプライマリビデオストリームに対して、セカンダリビデオストリームを表示 することにより、ピクチャインピクチャ表示を行うことができるようになる。
[0236] また、ピクチャインピクチヤの表示設定を、図 9、図 11、または図 12を用いて説明し たようにして、 pipjnetadataに記載するようにしたので、図 5を用いて説明した副表示 画面 2の大きさや表示位置は、再生装置に依存することなぐコンテンツの作成元ま たはコンテンツの提供元などが任意に設定することができる。また、ピクチャインピク チヤの表示設定は、ピクチャインピクチャ表示されるビデオストリーム (セカンダリビデ ォストリーム)のデータ自体に記載されるのではなぐ図 9、図 11、または図 12を用い て説明した pipjnetadataに記載される。すなわち、図 5を用いて説明した副表示画面 2の大きさや表示位置を変更した ヽ場合は、ピクチャインピクチャ表示されるビデオス トリーム(セカンダリビデオストリーム)を修正する必要はなぐ pipjnetadataの記載を修 正するようにすればよい。
[0237] また、ピクチャインピクチヤの表示設定を、図 9、図 11、または図 12を用いて説明し たようにして、 pipjnetadataに記載するようにしたことにより、図 5を用いて説明した副 表示画面 2に表示される映像の大きさは、セカンダリビデオストリームの元となる画像 の大きさにも依存することなぐコンテンツの作成元またはコンテンツの提供元などが 任意に設定することができる。
[0238] 次に、本発明を適用した再生装置について説明する。図 35は、本発明を適用した 再生装置 20の構成例を示すブロック図である。この再生装置 20は、上述したメイン パスとサブパスを有する PlayListを再生する再生装置 20である。
[0239] 再生装置 20には、ストレージドライブ 31、スィッチ 32、 AVデコーダ部 33、およびコ ントローラ 34が設けられて!/、る。
[0240] 図 35の例の場合、最初に、コントローラ 34がストレージドライブ 31を介して PlayList ファイルを読み出し、 PlayListファイルの情報に基づいて、ストレージドライブ 31を介し て HDD、ブルーレイディスク、または DVDなどの記録媒体から AVストリームや AVデ ータを読み出す。ユーザは、ユーザインターフェースを用いて、コントローラ 34に対し 、音声や字幕などの切り替えの指令を行うことができる。また、コントローラ 34には、再 生装置 20の言語設定の初期情報が図示せぬ記憶部など力 供給される。
[0241] PlayListファイルには、 Main Path, Sub Pathの情報の他、 STN_tableOが含まれて ヽ る。コントローラ 34は、 PlayListファイルに含まれる Playltemが参照するメイン Clip AV ストリームファイル(以下、メイン Clipと称する)、 SubPlayltemが参照するサブ Clip AVス トリームファイル(以下、サブ Clipと称する)、および SubPlayltemが参照するテキストサ ブタイトルデータを、ストレージドライブ 31を介して記録媒体など力も読み出す。 ここで、 Playltemが参照するメイン Clipと SubPlayltemが参照するサブ Clipと力 異なる 記録媒体に記録されていてもよい。例えば、メイン Clipが記録媒体に記録されており 、対応するサブ Clipは図示せぬネットワークを介して供給され、 HDDに記憶されたも のであってもよい。また、コントローラ 34は、自分自身 (再生装置 20)の再生機能に対 応するエレメンタリストリームを選択し、再生するよう制御したり、再生装置 20の言語 設定の初期情報に対応するエレメンタリストリームだけを選択し、再生するよう制御す る。
[0242] また、コントローラ 34は、 PlayListファイルの PlayListExtensionDataOの ID1/ID2に記 載されて 、る情報(または識別子)を参照し、この PlayListExtensionDataOの data_bloc kに、ピクチャインピクチャ表示に関する情報 (pip_metadata)が記載されていることを 検出した場合、図 9または図 11を用いて説明した pipjnetadataを参照して、図 5を用 V、て説明した副表示画面 2に表示されるセカンダリビデオの表示設定を取得し、 AV デコーダ部 33のビデオプレーン生成部 92によるプライマリビデオストリームとセカン ダリビデオストリームの映像の合成を制御する。
[0243] AVデコーダ部 33には、バッファ 51乃至 54、 PIDフィルタ 55、 PIDフィルタ 56、スィ ツチ 57乃至 59、 PIDフィルタ 60、バックグラウンドデコーダ 71、 1stビデオデコーダ 72 1、 2ndビデオデコーダ 72— 2、プレゼンテーショングラフィックスデコーダ 73、イン タラタティブグラフィックスデコーダ 74、 1stオーディオデコーダ 75— 1、 2ndオーディ ォデコーダ 75— 2、 Text-STコンポジション 76、スィッチ 77、バックグラウンドプレーン 生成部 91、ビデオプレーン生成部 92、プレゼンテーショングラフィックスプレーン生 成部 93、インタラクティブグラフィックスプレーン生成部 94、ノ ッファ 95、ビデオデー タ処理部 96、ミキシング処理部 97、およびミキシング処理部 98が設けられている。
[0244] 1stビデオデコーダ 72— 1は、プライマリビデオストリームをデコードするためのもの であり、 2ndビデオデコーダ 72— 2は、セカンダリビデオストリームをデコードするため のものである。また、 1stオーディオデコーダ 75— 1は、オーディオストリーム # 1 (プラ ィマリオーディオストリーム)をデコードするためのものであり、 2ndオーディオデコーダ 75— 2は、オーディオストリーム # 2 (セカンダリオーディオストリーム)をデコードする ためのものである。具体的には、図 23、並びに、図 33および図 34の STN_tableOにお V、て、 video_streamjdで与えられるビデオストリームをデコードするためのものが 1stビ デォデコーダ 72— 1であり、 video_stream_id2で与えられるビデオストリームをデコード するためのものが 2ndビデオデコーダ 72— 2であり、 audio_stream_idで与えられるォー ディォストリームをデコードするためのものが 1stオーディオデコーダ 75— 1であり、 au dio_stream_id2で与えられるオーディオストリームをデコードするためのものが 2ndォー ディォデコーダ 75— 2である。 [0245] このように、再生装置 20は、 2つのビデオストリームをデコードするために 2つのビデ ォデコーダ(1stビデオデコーダ 72—1、 2ndビデオデコーダ 72— 2)を有し、 2つのォ 一ディォストリームをデコードするために、 2つのオーディオデコーダ(1stオーディオ デコーダ 75— 1、 2ndオーディオデコーダ 75— 2)を有している。なお、以下において 、 1stビデオデコーダ 72—1と 2ndビデオデコーダ 72— 2とを個々に区別しない場合、 ビデオデコーダ 72と称し、 1stオーディオデコーダ 75— 1と 2ndオーディオデコーダ 75 2とを個々に区別しない場合、オーディオデコーダ 75と称する。
[0246] コントローラ 34により読み出されたファイルデータは、図示せぬ復調、 ECC復号部 により、復調され、復調された多重化ストリームに誤り訂正が施される。スィッチ 32は、 復調され、誤り訂正が施されたデータを、コントローラ 34からの制御に基づいて、スト リームの種類ごとに選択し、対応するバッファ 51乃至 54に供給する。具体的には、ス イッチ 32は、コントローラ 34からの制御に基づいて、バックグラウンドイメージデータ をバッファ 51に供給し、メイン Clipのデータをバッファ 52に供給し、サブ Clipのデータ をバッファ 53に供給し、 Text- STのデータをバッファ 54に供給するようスィッチ 32を 切り替える。ノ ッファ 51は、バックグラウンドイメージデータをバッファリングし、バッフ ァ 52は、メイン Clipのデータをバッファリングし、バッファ 53は、サブ Clipのデータをバ ッファリングし、ノ ッファ 54は、 Text- STデータをバッファリングする。
[0247] メイン Clipは、ビデオとオーディオとビットマップ字幕 (Presentation Graphics stream) とインタラクティブグラフィックスのうち、ビデオに加えて 1つ以上のストリームを多重化 したストリーム(例えばトランスポートストリーム)である。サブ Clipは、ビデオとビットマツ プ字幕とインタラクティブグラフィックスとオーディオのうち、 1つ以上のストリームを多 重化したストリームである。なお、テキストサブタイトルデータファイル(Text-ST)のデ ータは、トランスポートストリームのような多重化ストリームの形式であっても、そうでなく てもよい。
[0248] また、メイン Clipとサブ Clipおよびテキストサブタイトルデータを、ストレージドライブ 3 1 (記録媒体)から読み出すときに、それぞれのファイルを時分割に交互に読み出し ても良いし、または、サブ Clipやテキストサブタイトルデータをメイン Clip力も読み出す 前に、すべてバッファ (バッファ 53またはバッファ 54)へプリロードしてもよい。 [0249] 再生装置 20は、これらのファイルのデータを、ストレージドライブ 31を介して記録媒 体力も読み出し、ビデオ、ビットマップ字幕、インタラクティブグラフィックス、およびォ 一ディォを再生する。
[0250] 具体的には、メイン Clip用リードバッファであるバッファ 52から読み出されたストリー ムデータは、所定のタイミングで、後段の PID (パケット ID)フィルタ 55へ出力される。 この PIDフィルタ 55は、入力されたメイン Clipを PID (パケット ID)に応じて、後段の各 エレメンタリストリームのデコーダへ振り分けて出力する。すなわち、 PIDフィルタ 55は 、ビデオストリームを 1stビデオデコーダ 72— 1または 2ndビデオデコーダ 72— 2の!ヽ ずれかに供給するための PIDフィルタ 60に供給し、プレゼンテーショングラフィックス ストリームをプレゼンテーショングラフィックスデコーダ 73への供給元となるスィッチ 57 に供給し、インタラクティブグラフィックスストリームをインタラクティブグラフィックスデコ ーダ 74への供給元となるスィッチ 58に供給し、オーディオストリームを 1stオーディオ デコーダ 75— 1と 2ndオーディオデコーダ 75— 2への供給元となるスィッチ 59に供給 する。
[0251] プレゼンテーショングラフィックスストリームは、例えば、ビットマップの字幕データで あり、テキストサブタイトルデータは、例えば、テキスト字幕データである。
[0252] サブ Clip用リードバッファであるバッファ 53から読み出されたストリームデータは、所 定のタイミングで、後段の PID (パケット ID)フィルタ 56へ出力される。この PIDフィルタ 56は、入力されたサブ Clipを PID (パケット ID)に応じて、後段の各エレメンタリストリー ムのデコーダへ振り分けて出力する。すなわち、 PIDフィルタ 56は、供給されたビデ ォストリームを 1stビデオデコーダ 72— 1または 2ndビデオデコーダ 72— 2のいずれか に供給するための PIDフィルタ 60へ供給し、プレゼンテーショングラフィックスストリー ムをプレゼンテーショングラフィックスデコーダ 73への供給元となるスィッチ 57に供給 し、インタラクティブグラフィックスストリームをインタラクティブグラフィックスデコーダ 74 への供給元となるスィッチ 58に供給し、オーディオストリームを 1stオーディオデコー ダ 75— 1と 2ndオーディオデコーダ 75— 2への供給元となるスィッチ 59に供給する。
[0253] ノックグラウンドイメージデータをバッファリングするバッファ 51から読み出されたデ ータは、所定のタイミングでバックグラウンドデコーダ 71に供給される。ノ ックグラウン ドデコーダ 71は、バックグラウンドイメージデータをデコードし、デコードしたバックグ ラウンドイメージデータをバックグラウンドプレーン生成部 91に供給する。
[0254] スィッチ 57は、 PIDフィルタ 55から供給されたメイン Clipに含まれるプレゼンテーショ ングラフィックスストリームと、サブ Clipに含まれるプレゼンテーショングラフィックススト リームのうちのいずれ力 1つを選択し、選択したプレゼンテーショングラフィックスストリ ームを、後段のプレゼンテーショングラフィックスデコーダ 73に供給する。プレゼンテ ーシヨングラフィックスデコーダ 73は、プレゼンテーショングラフィックスストリームをデ コードし、デコードしたプレゼンテーショングラフィックスストリームのデータをプレゼン テーシヨングラフィックスプレーン生成部 93への供給元となるスィッチ 77に供給する。
[0255] また、スィッチ 58は、 PIDフィルタ 55から供給されたメイン Clipに含まれるインタラタ ティブグラフィックスストリームと、サブ Clipに含まれるインタラクティブグラフィックススト リームのうちの ヽずれか 1つを選択し、選択したインタラクティブグラフィックスストリ一 ムを、後段のインタラクティブグラフィックスストリームデコーダ 74に供給する。すなわ ち、インタラクティブグラフィックスデコーダ 74へ同時に入力されるインタラクティブグ ラフイツクスストリームは、メイン Clipまたはサブ Clipのどちら力から分離されたストリー ムである。インタラクティブグラフィックスデコーダ 74は、インタラクティブグラフィックス ストリームをデコードし、デコードしたインタラクティブグラフィックスストリームのデータ を、インタラクティブグラフィックスプレーン生成部 94に供給する。
[0256] さらに、スィッチ 59は、 PIDフィルタ 55から供給されたメイン Clipに含まれるオーディ ォストリームと、サブ Clipに含まれるオーディオストリームのうちのいずれか 1つを選択 し、選択したオーディオストリームを、後段の 1stオーディオデコーダ 75— 1または、 2n dオーディオデコーダ 75— 2に供給する。ここで、 1stオーディオデコーダ 75— 1へ同 時に入力されるオーディオストリームは、メイン Clipまたはサブ Clipのどちら力から分離 されたストリームである。また、同様に、 2ndオーディオデコーダ 75— 2へ同時に入力 されるオーディオストリームも、メイン Clipまたはサブ Clipのどちら力から分離されたスト リームである。例えば、メイン Clipにオーディオストリーム # 1とオーディオストリーム # 2とが含まれていた場合、 PIDフィルタ 55は、オーディオストリームの PIDに基づいて、 オーディオストリーム # 1とオーディオストリーム # 2とをフィルタリングし、スィッチ 59に 供給する。
[0257] スィッチ 59は、例えば、 PIDフィルタ 55から供給されたオーディオストリーム # 1を、 1 stオーディオデコーダ 75 - 1に供給するようスィッチを選択し、 PIDフィルタ 55から供 給されたオーディオストリーム # 2を、 2ndオーディオデコーダ 75— 2に供給するようス イッチを選択する。
[0258] PIDフィルタ 60は、 PIDフィルタ 55力 供給されたメイン Clipに含まれて!/、たビデオス トリーム、または、 PIDフィルタ 56から供給されたサブ Clipに含まれていたビデオストリ ームの入力を受け、コントローラ 34の制御に基づいて、プライマリビデオストリームで あるか、セカンダリビデオストリームであるかを判別し、プライマリビデオストリームを 1st ビデオデコーダ 72— 1に供給し、セカンダリビデオストリームを 2ndビデオデコーダ 72 2に供給する。
[0259] PIDフィルタ 60により振り分けられたビデオストリームは、後段の 1stビデオデコーダ 7 2— 1または 2ndビデオデコーダ 72— 2に供給される。 1stビデオデコーダ 72— 1また は 2ndビデオデコーダ 72— 2は、供給されたビデオストリームをデコードし、デコードし たビデオデータをビデオプレーン生成部 92へ出力する。
[0260] ビデオプレーン生成部 92は、 1stビデオデコーダ 72— 1および 2ndビデオデコーダ 72 - 2からビデオデータが供給された場合、 pipjnetadataを参照したコントローラ 34 の制御に基づいて、供給されたビデオデータを合成して、図 5を用いて説明したよう な、主表示画面 1および副表示画面 2により構成されるビデオプレーンを生成し、こ れをビデオデータ処理部 96に供給する。また、ビデオプレーン生成部 92は、 1stビデ ォデコーダ 72— 1のみ力もビデオデータが供給された場合、供給されたビデオデー タを用いてビデオプレーンを生成し、これをビデオデータ処理部 96に供給する。なお 、 2つのビデオデータを合成することは、例えば、ミキシングする、重畳するとも称され る。
[0261] 1stオーディオデコーダ 75— 1は、オーディオストリームをデコードし、デコードした オーディオストリームのデータをミキシング処理部 101に供給する。また、 2ndオーディ ォデコーダ 75— 2は、オーディオストリームをデコードし、デコードしたオーディオスト リームのデータをミキシング処理部 101に供給する。 [0262] ここで、オーディオストリーム # 1とオーディオストリーム # 2とを重畳して再生するよ うな場合 (ユーザにより再生するオーディオストリームとして、 2つのオーディオストリー ムが選択された場合)、 1stオーディオデコーダ 75— 1によりデコードされたオーディ ォストリーム # 1と、 2ndオーディオデコーダ 75— 2によりデコードされたオーディオスト リーム # 2とが、ミキシング処理部 101に供給される。
[0263] ミキシング処理部 101は、 1stオーディオデコーダ 75— 1からのオーディオデータと 、 2ndオーディオデコーダ 75— 2からのオーディオデータとをミキシング (重畳)し、後 段のミキシング処理部 97に出力する。なお、本実施の形態においては、 1stオーディ ォデコーダ 75— 1から出力されるオーディオデータと 2ndオーディオデコーダ 75— 2 力も出力されるオーディオデータとをミキシング (重畳)することを、合成するとも称す る。すなわち、合成とは、 2つのオーディオデータを、ミキシングすることも示すものと する。
[0264] また、スィッチ 32により選択されたサウンドデータは、ノ ッファ 95に供給され、ノ ッフ ァリングされる。ノ ッファ 95は、所定のタイミングでサウンドデータをミキシング処理部 97に供給する。サウンドデータは、この場合、メニュー選択などによる効果音のデー タである。ミキシング処理部 97は、ミキシング処理部 101によりミキシングされたォー ディォデータ(1stオーディオデコーダ 75— 1から出力されたオーディオデータと 2nd オーディオデコーダ 75— 2から出力されたオーディオデータとがミキシングされたォ 一ディォデータ)と、ノッファ 95から供給されてきたサウンドデータをミキシング (重畳 、または合成)し、音声信号として出力する。
[0265] テキストサブタイトル用リードバッファであるバッファ 54から読み出されたデータは、 所定のタイミングで、後段のテキストサブタイトルコンポジション (デコーダ) 76へ出力 される。テキストサブタイトルコンポジション 76は、 Text- STデータをデコードし、スイツ チ 77に供給する。
[0266] スィッチ 77は、プレゼンテーショングラフィックスデコーダ 73によりデコードされたプ レゼンテーシヨングラフィックスストリームと、 Text-ST (テキストサブタイトルデータ)のう ち、いずれかを選択し、選択したデータをプレゼンテーショングラフィックスプレーン 生成部 93に供給する。すなわち、プレゼンテーショングラフィックスプレーン 93へ同 時に供給される字幕画像は、プレゼンテーショングラフィックスデコーダ 73またはテキ ストサブタイトル(Text-ST)コンポジション 76のうちのいずれかの出力である。また、プ レゼンテーシヨングラフィックスデコーダ 73へ同時に入力されるプレゼンテーショング ラフイツクスストリームは、メイン Clipまたはサブ Clipの!、ずれ力から分離されたストリー ムである (スィッチ 57により選択される)。したがって、プレゼンテーショングラフィックス プレーン 93へ同時に出力される字幕画像は、メイン Clipからのプレゼンテーショング ラフイツクスストリーム、またはサブ Clipからの力ものプレゼンテーショングラフイツクスス トリーム、またはテキストサブタイトルデータのデコード出力である。
[0267] ノックグラウンドプレーン生成部 91は、バックグラウンドデコーダ 71から供給された ノ ックグラウンドイメージデータに基づいて、例えば、ビデオ画像を縮小表示した場 合に壁紙画像となるバックグラウンドプレーンを生成し、これを、ビデオデータ処理部 96に供給する。
[0268] プレゼンテーショングラフィックスプレーン生成部 93は、スィッチ 77により選択され、 供給されたデータ (プレゼンテーショングラフィックスストリームまたはテキストサブタイ トルデータ)に基づいて、例えば、レンダリング画像であるプレゼンテーショングラフィ ックスプレーンを生成し、これをビデオデータ処理部 96に供給する。インタラクティブ グラフィックスプレーン生成部 94は、インタラクティブグラフィックスデコーダ 74から供 給されたインタラクティブグラフィックスストリームのデータに基づ 、て、インタラタティ ブグラフィックスプレーンを生成し、これをビデオデータ処理部 96に供給する。
[0269] ビデオデータ処理部 96は、バックグラウンドプレーン生成部 91からのバックグラウン ドプレーン、ビデオプレーン生成部 92からのビデオプレーン、プレゼンテーショングラ フィックスプレーン生成部 93からのプレゼンテーショングラフィックスプレーン、および インタラクティブグラフィックスプレーン生成部 94からのインタラクティブグラフィックス プレーンを合成し、ビデオ信号として出力する。また、ミキシング処理部 97は、ミキシ ング処理部 101からのオーディオデータ(1stオーディオデコーダ 75— 1によりデコー ドされたオーディオデータと 2ndオーディオデコーダ 75— 2によりデコードされたォー ディォデータとがミキシングされたオーディオデータ)と、バッファ 95からのサウンドデ ータをミキシング (合成または重畳)し、音声信号として出力する。 [0270] これらのスィッチ 57乃至 59、並びにスィッチ 77は、ユーザインターフェースを介す るユーザからの選択、または、対象となるデータが含まれるファイル側に基づいて、ス イッチを切り替える。例えば、サブ Clip AVストリームファイルのみにしか、オーディオ ストリームが含まれていない場合、スィッチ 59はサブ側にスィッチを切り替える。
[0271] 次に、図 35の再生装置 20における再生処理を、図 36のフローチャートを参照して 説明する。なお、この処理は、ユーザによりユーザインターフェースを介して、所定の AVストリームの再生が指令されたとき開始される。
[0272] ステップ S1において、コントローラ 34は、ストレージドライブ 31を介して、記録媒体 や図示せぬ HDD(Hard Disk Drive)に記録されている PlayListファイルを読み出す。 例えば、図 7を用いて説明した PlayListファイル(X X X X X .mpls)が読み出される。
[0273] ステップ S2において、コントローラ 34は、読み出した PlayListファイルを基に、再生 するストリームにセカンダリビデオが存在する力否かを判断する。
[0274] 具体的には、コントローラ 34は、読み出した PlayListファイルの中の Playltemの中の 、例えば、図 33および図 34を用いて説明した STN_tableOのセカンダリビデオループ (video_streamjd2の forループ)を実行することにより、再生するストリームにセカンダリ ビデオが存在するか否かを判断する。
[0275] ステップ S2にお 、て、セカンダリビデオが存在しな 、と判断された場合、ステップ S 3において、図 37乃至図 39を用いて後述するプライマリビデオ再生処理が実行され る。
[0276] ステップ S4において、コントローラ 34は、読み出された PlayListファイルに対応する ストリームの再生は終了であるか否かを判断する。ステップ S4において、ストリームの 再生は終了ではないと判断された場合、処理は、ステップ S3に戻り、それ以降の処 理が繰り返され、ストリームの再生は終了であると判断された場合、処理が終了される
[0277] ステップ S2にお ヽて、セカンダリビデオが存在すると判断された場合、ステップ S5 において、コントローラ 34は、 pipjnetadataを読み出す。なお、上記の通りセカンダリ ビデオが含まれることを確認してから、 Playltemに関連する pipjnetadataだけをメモリ に保持するようにしても良いし、また、図 7乃至図 9で説明したように pipjnetadataは、 Playlistの一部であるため、ステップ S Iの PlayListファイル読み出し時に pipjnetadata も同時に読み出すようにしても良 ヽ。
[0278] 具体的には、コントローラ 34は、例えば、現在の Playltemjdおよび STN_tableOにより 半 (J另1』5れる secondary— video— stream— idに基づいて、対象となる pip— metadataを特疋し、 PlayListファイルから特定した pipjnetadataを読み出す。
[0279] ステップ S6において、コントローラ 34は、読み出した pipjnetadataの記載を基に、セ カンダリストリームは、プライマリストリームに同期している(すなわち、メインパスの Play Itemの時間軸に同期している)か否かを判断する。
[0280] 具体的には、例えば、 pipjnetadataのデータ構造力 図 9を用いて説明したもので あった場合、コントローラ 34は、図 10を用いて説明した pip_metadata_typeの値を基に 、セカンダリストリームは、プライマリストリームに同期しているか否かを判断し、 pip.met adataのデータ構造力 図 11を用いて説明したものであった場合、コントローラ 34は、 Synchronous_PIP_metadata_flagを参照し、セカンダリストリームは、プライマリストリーム に同期している力否かを判断することができる。
[0281] また、例えば、 pipjnetadataのデータ構造が、図 12を用いて説明したものであった 場合、コントローラ 34は、 Subpathj peによって、セカンダリストリームは、プライマリス トリームと同期している力否かを判断することができる。
[0282] なお、 pipjnetadataのデータ構造力 図 9または図 11を用いて説明したものであつ た場合、セカンダリストリームがプライマリストリームに同期しているか否かは、 pipjneta data以外にも、図 12の pipjnetadataのデータ構造と同様に、 Subpath_typeによって判 断することもできる。すなわち、コントローラ 34は、 Subpathj peにより、セカンダリストリ ームがプライマリストリームに同期しているか否かを判断することができる。
[0283] ステップ S6において、セカンダリストリームは、プライマリストリームに同期していると 判断された場合、ステップ S7に進み、コントローラ 34は、図 17を参照して説明したよ うに、プライマリストリームの表示時刻力 セカンダリストリームの再生区間の先頭を示 す SubPlayItem_IN_timeとなっているか否かを判断する。
[0284] ステップ S7において、プライマリストリームの表示時刻力 SubPlayItem_IN_timeでな いと判断された場合、ステップ S8において、図 37乃至図 39を用いて後述するプライ マリビデオ再生処理が実行される。
[0285] 一方、ステップ S7にお!/、て、プライマリストリームの表示時刻力 SubPlayltemJN.tim eであると判断された場合、ステップ S9において、図 40乃至図 42を用いて後述する プライマリおよびセカンダリビデオ再生処理が実行される。
[0286] ステップ S10において、コントローラ 34は、プライマリストリームの表示時刻力 セカ ンダリストリームの再生区間の終了を示す SubPlayItem_OUT_timeであるか否かを判断 する。ステップ S 10において、 SubPlayItem_OUT_timeでないと判断された場合、ステ ップ S9に戻り、それ以降の処理が繰り返され、 SubPlayItem_OUT_timeであると判断さ れた場合、ステップ S 11〖こおいて、コントローラ 34は、読み出された PlayListファイル に対応するストリームの再生は終了であるか否かを判断する。
[0287] ステップ S11において、ストリームの再生は終了ではないと判断された場合、処理 は、ステップ S7に戻り、それ以降の処理が繰り返され、ストリームの再生は終了である と判断された場合、処理が終了される。
[0288] 一方、ステップ S6において、セカンダリストリームは、プライマリストリームに同期して Vヽな ヽ(すなわち、サブパスの SubPlayltemの時間軸に同期して!/、る)と判断された場 合、ユーザ力 セカンダリビデオストリームの表示が指示されるまで、プライマリビデオ ストリームのみが表示されるので、ステップ S12において、図 37乃至図 39を用いて後 述するプライマリビデオ再生処理が実行される。
[0289] ステップ S 13において、コントローラ 34は、ユーザから、セカンダリビデオストリーム の表示の指示を受けた力否かを判断する。
[0290] ステップ S 13において、セカンダリストリームの表示の指示を受けていないと判断さ れた場合、ステップ S 14において、コントローラ 34は、読み出された PlayListファイル に対応するストリームの再生は終了であるか否かを判断する。ステップ S14において 、ストリームの再生は終了ではないと判断された場合、処理は、ステップ S12に戻り、 それ以降の処理が繰り返され、ストリームの再生は終了であると判断された場合、処 理が終了される。
[0291] 一方、ステップ S 13において、セカンダリビデオストリームの表示の指示を受けたと 判断された場合、ステップ S15において、図 40乃至図 42を用いて後述するプライマ リおよびセカンダリビデオ再生処理が実行される。
[0292] ステップ S16において、コントローラ 34は、ユーザから、セカンダリビデオストリーム の表示終了の指令を受けた力否かを判断する。ステップ S16において、セカンダリス トリームの表示終了の指令を受けたと判断された場合、処理は、ステップ S12に戻り、 それ以降の処理が繰り返される。
[0293] ステップ S16において、セカンダリビデオストリームの表示終了の指令を受けていな いと判断された場合、ステップ S17において、コントローラ 34は、読み出された PlayLi stファイルに対応するストリームの再生は終了であるか否かを判断する。ステップ S 17 において、ストリームの再生は終了ではないと判断された場合、処理は、ステップ S1 5に戻り、それ以降の処理が繰り返され、ストリームの再生は終了であると判断された 場合、処理が終了される。
[0294] このような処理により、読み出された PlayListファイルに対応するストリームの再生に おいて、セカンダリストリームが存在するか否カゝ、存在する場合は、プライマリストリー ム (メインパス)に同期している力否かを基に、セカンダリストリームをプライマリストリー ムに重畳させて常に表示させる力否かが決まり、プライマリストリーム (メインパス)に同 期していない場合は、ユーザ力 セカンダリストリームの表示が指令された力、または 、セカンダリストリームの表示終了が指令されたかに基づいて、セカンダリストリームを プライマリストリームに重畳させる力否かが決まる。
[0295] 次に、図 37乃至図 39のフローチャートを参照して、図 36のステップ S3、ステップ S 8、またはステップ S12において実行される、プライマリビデオ再生処理について説明 する。
[0296] ステップ S41において、コントローラ 34は、メイン Clip、サブ Clip、およびテキストサブ タイトルデータ (Text-STデータ)を読み出す。具体的には、コントローラ 34は、図 18 を用いて説明した PlayListに含まれる、図 22を用いて説明した Playltemに基づ!/、て、 メイン Clipを読み出す。また、コントローラ 34は、 PlayListに含まれる SubPathで参照さ れる、図 21を用いて説明した SubPlayltemに基づいて、サブ Clipと、テキストサブタイト ルデータを読み出す。
[0297] ステップ S42において、コントローラ 34は、読み出したデータ(メイン Clip、サブ Clip 、およびテキストサブタイトルデータ)を対応するバッファ 51乃至 54に供給するようス イッチ 32を制御する。具体的には、コントローラ 34は、ノ ックグラウンドイメージデータ をバッファ 51に供給し、メイン Clipのデータをバッファ 52に供給し、サブ Clipのデータ をバッファ 53に供給し、 Text- STのデータをバッファ 54に供給するようスィッチ 32を 切り替える。
[0298] ステップ S43において、スィッチ 32はコントローラ 34からの制御に基づいて、スイツ チ 32を切り替える。これにより、ノ ックグラウンドイメージデータはノッファ 51に供給さ れ、メイン Clipのデータはバッファ 52に供給され、サブ Clipのデータはバッファ 53に 供給され、テキストサブタイトルデータはバッファ 54に供給される。
[0299] ステップ S44において、各バッファ 51乃至 54は、供給されたデータをそれぞれバッ ファリングする。具体的には、ノ ッファ 51は、ノ ックグラウンドイメージデータをバッファ リングし、バッファ 52は、メイン Clipのデータをバッファリングし、バッファ 53は、サブ Cli pのデータをバッファリングし、ノ ッファ 54は、 Text- STデータをバッファリングする。
[0300] ステップ S45において、ノ ッファ 51は、バックグラウンドイメージデータをバックグラ ゥンドデコーダ 71に出力する。
[0301] ステップ S46において、バッファ 52はメイン Clipのストリームデータを PIDフィルタ 55 に出力する。
[0302] ステップ S47において、 PIDフィルタ 55は、メイン Clip AVストリームファイルを構成 する TSパケットに付されている PIDに基づいて、各エレメンタリストリームのデコーダへ 振り分ける。具体的には、 PIDフィルタ 55は、ビデオストリームを PIDフィルタ 60を介し て 1stビデオデコーダ 72— 1に供給し、プレゼンテーショングラフィックスストリームをプ レゼンテーシヨングラフィックスデコーダ 73への供給元となるスィッチ 57に供給し、ィ ンタラタティブグラフィックスストリームをインタラクティブグラフィックスデコーダ 74への 供給元となるスィッチ 58に供給し、オーディオストリームを 1stオーディオデコーダ 75 —1への供給元となるスィッチ 59に供給する。すなわち、ビデオストリーム、プレゼン テーシヨングラフイツクスストリーム、インタラクティブグラフィックスストリーム、およびォ 一ディォストリームには、それぞれ異なる PIDが付されている。
[0303] ステップ S48において、バッファ 53は、サブ Clipのストリームデータを PIDフィルタ 56 に出力する。
[0304] ステップ S49において、 PIDフィルタ 56は、 PIDに基づいて、各エレメンタリストリーム のデコーダへ振り分ける。具体的には、 PIDフィルタ 56は、供給されたビデオストリー ムを PIDフィルタ 60を介して 1stビデオデコーダ 72— 1へ供給し、プレゼンテーション グラフィックスストリームをプレゼンテーショングラフィックスデコーダ 73への供給元と なるスィッチ 57に供給し、インタラクティブグラフィックスストリームをインタラクティブグ ラフィックスデコーダ 74への供給元となるスィッチ 58に供給し、オーディオストリーム を 1stオーディオデコーダ 75— 1と 2ndオーディオデコーダ 75— 2への供給元となるス イッチ 59に供給する。
[0305] ステップ S50において、 PIDフィルタ 55および PIDフィルタ 56の後段のスィッチ 57乃 至 59および PIDフィルタ 60は、ユーザインターフェースを介するコントローラ 34からの 制御に基づいて、メイン Clipとサブ Clipのいずれかを選択する。具体的には、スイツ チ 57は、 PIDフィルタ 55から供給されたメイン Clipまたはサブ Clipのプレゼンテーショ ングラフィックスストリームを選択し、後段のプレゼンテーショングラフィックスデコーダ 73に供給する。また、スィッチ 58は、 PIDフィルタ 55から供給されたメイン Clipまたは サブ Clipのインタラクティブグラフィックスストリームを選択し、後段のインタラクティブグ ラフイツクスストリームデコーダ 74に供給する。さらに、スィッチ 59は、 PIDフィルタ 55 力 供給されたメイン Clip、または、 PIDフィルタ 56から供給されたサブ Clipのオーディ ォストリーム(ここでは、音声が切り替えられる前であるので、オーディオストリーム # 1 )を選択し、後段の 1stオーディオデコーダ 75— 1に供給する。なお、音声を切り替え るような指令がユーザにより行われた場合には、スィッチ 59は、メイン Clipのオーディ ォストリームを 2ndオーディオデコーダ 75— 2に供給したり、サブ Clipのオーディオスト リームを 1stオーディオデコーダ 75— 1や 2ndオーディオデコーダ 75— 2に供給したり もするが、ここでは、音声が切り替えられる前の再生処理について説明しているので 、その説明は省略している。
[0306] ステップ S51において、ノ ッファ 54は、テキストサブタイトルデータをテキストサブタ ィトルコンポジション 76に出力する。
[0307] ステップ S52において、バックグラウンドデコーダ 71は、バックグラウンドイメージデ ータをデコードし、これをバックグラウンドプレーン生成部 91に出力する。
[0308] ステップ S53において、 1stビデオデコーダ 72— 1は、ビデオストリーム(すなわち、 供給されたプライマリビデオストリーム)をデコードし、これをビデオプレーン生成部 92 に出力する。
[0309] ステップ S54において、プレゼンテーショングラフィックスデコーダ 73は、スィッチ 57 により選択され、供給されたプレゼンテーショングラフィックスストリームをデコードし、 これを後段のスィッチ 77に出力する。
[0310] ステップ S55において、インタラクティブグラフィックスデコーダ 74は、スィッチ 58に より選択され、供給されたインタラクティブグラフィックスストリームをデコードし、これを 後段のインタラクティブグラフィックスプレーン生成部 94に出力する。
[0311] ステップ S56において、 1stオーディオデコーダ 75— 1は、スィッチ 59により選択さ れ、供給されたォーティォストリーム (オーディオストリーム # 1)をデコードし、これを 後段のミキシング処理部 101に出力する。音声の切り替えがユーザにより指示されて Vヽな 、状態における再生処理では、 2ndオーディオデコーダ 75— 2からオーディオデ ータが出力されることはないので、ミキシング処理部 101は、 1stオーディオデコーダ 7 5— 1から出力されたオーディオデータを、そのまま後段のミキシング処理部 97に供 給する。
[0312] ステップ S57において、 Text-STコンポジション 76は、テキストサブタイトルデータを デコードし、これを後段のスィッチ 77に出力する。
[0313] ステップ S58において、スィッチ 77は、プレゼンテーショングラフィックスデコーダ 73 または Text-STコンポジション 76からのデータの!/、ずれかを選択する。具体的には、 スィッチ 77は、プレゼンテーショングラフィックスデコーダ 73によりデコードされたプレ ゼンテーシヨングラフイツクスストリームと、 Text- ST (テキストサブタイトルデータ)のうち 、いずれ力 1つを選択し、選択したデータをプレゼンテーショングラフィックスプレーン 生成部 93に供給する。
[0314] ステップ S59において、バックグラウンドプレーン生成部 91は、ノ ックグラウンドデコ ーダ 71から供給されたバックグラウンドイメージデータに基づ 、て、ノ ックグラウンド プレーンを生成する。 [0315] ステップ S60において、ビデオプレーン生成部 92は 1stビデオデコーダ 72— 1から 供給されたビデオデータに基づ!/ヽて、ビデオプレーンを生成する。
[0316] ステップ S61において、プレゼンテーショングラフィックスプレーン生成部 93は、ス テツプ S58の処理でスィッチ 77により選択され、供給されたプレゼンテーショングラフ イツタスデコーダ 73からのデータまたは Text-STコンポジション 76からのデータに基 づ 、て、プレゼンテーショングラフィックスプレーンを生成する。
[0317] ステップ S62において、インタラクティブグラフィックスプレーン生成部 94は、インタ ラタティブグラフィックスデコーダ 74から供給されたインタラクティブグラフィックスストリ ームのデータに基づ 、て、インタラクティブグラフィックスプレーンを生成する。
[0318] ステップ S63において、バッファ 95は、ステップ S43の処理で選択され、供給された サウンドデータをバッファリングし、所定のタイミングでミキシング処理部 97に供給す る。
[0319] ステップ S64において、ビデオデータ処理部 96は、各プレーンのデータを合成し、 出力する。具体的には、ノ ックグラウンドプレーン生成部 91、ビデオプレーン生成部 92、プレゼンテーショングラフィックスプレーン生成部 93、およびインタラクティブグラ フィックスプレーン生成部 94からのデータを合成し、ビデオデータとして出力する。
[0320] ステップ S65にお!/、て、ミキシング処理部 97は、オーディオデータ(ミキシング処理 部 101から出力されたオーディオデータ)とサウンドデータをミキシング (合成)し、出 力して、処理は、図 36のステップ S3〖こ戻り、ステップ S4に進むか、または、図 36のス テツプ S8に戻り、ステップ S7に itむ力 図 30のステップ S12に戻り、ステップ S13に 進む。
[0321] 図 37乃至図 39を用いて説明した処理により、 PlayListに含まれるメインパスとサブ ノ スによりメイン Clip、サブ Clip、およびテキストサブタイトルデータが参照され、再生 される。ここで、表示される映像は、プライマリビデオストリームの映像のみであり、図 5 を用いて説明した副表示画面 2は表示されな ヽ。 PlayListにメインパスとサブパスを設 けるようにし、サブパスで、メインパスで指定する Clip AVストリームファイルとは異なる Clipを指定可能な構成としたので、メインパスの Playltemが指すメイン Clipとは異なる Clipであるサブ Clipのデータとメイン Clipのデータを一緒に(同じタイミングで)再生す ることがでさる。
[0322] なお、図 37乃至図 39において、ステップ S45,ステップ S46の処理は、その順番が 逆であってもよいし、平行して実行されてもよい。また、ステップ S47、ステップ S49の 処理も、その順番が逆であってもよいし、平行して実行されてもよい。さらに、ステップ S52乃至ステップ S57の処理も、その順番が逆であってもよいし、平行して実行され てもよい。また、ステップ S59乃至ステップ S62の処理も、その順番が逆であってもよ いし、平行して実行されてもよい。さらに、ステップ S64,ステップ S65の処理も、その 順番が逆であってもよいし、平行して実行されてもよい。すなわち、図 35において、 縦に同じ階層のバッファ 51乃至 54の処理、スィッチ 57乃至 59の処理、デコーダ 71 乃至 76の処理、プレーン生成部 91乃至 94の処理、ビデオデータ処理部 96およびミ キシング処理部 97の処理は、それぞれ、平行して実行されてもよいし、その順番は 問わない。
[0323] 次に、図 40乃至図 42のフローチャートを参照して、図 36のステップ S9またはステツ プ S 15において実行される、プライマリおよびセカンダリビデオ再生処理について説 明する。
[0324] ステップ S101乃至ステップ S106において、図 37および図 38を用いて説明したス テツプ S41乃至ステップ S46と基本的に同様の処理が実行される。
[0325] すなわち、コントローラ 34により、メイン Clip、サブ Clip、およびテキストサブタイトル データ(Text- STデータ)が読み出され、読み出したデータ (メイン Clip、サブ Clip、お よびテキストサブタイトルデータ)を対応するバッファ 51乃至 54に供給するようスイツ チ 32が制御される。スィッチ 32により、コントローラ 34からの制御に基づいて、ノ ック グラウンドイメージデータはバッファ 51に供給され、メイン Clipのデータはバッファ 52 に供給され、サブ Clipのデータはバッファ 53に供給され、テキストサブタイトルデータ はバッファ 54に供給され、バッファ 51乃至 54にバッファリングされる。バッファ 51は、 バックグラウンドイメージデータをバックグラウンドデコーダ 71に出力する。ノ ッファ 52 はメイン Clipのストリームデータを PIDフィルタ 55に出力する。
[0326] ステップ S107において、 PIDフィルタ 55は、メイン Clip AVストリームファイルを構成 する TSパケットに付されている PIDに基づいて、各エレメンタリストリームのデコーダへ 振り分ける。具体的には、 PIDフィルタ 55は、ビデオストリームを PIDフィルタ 60に供 給し、プレゼンテーショングラフィックスストリームをプレゼンテーショングラフィックスデ コーダ 73への供給元となるスィッチ 57に供給し、インタラクティブグラフィックスストリ ームをインタラクティブグラフィックスデコーダ 74への供給元となるスィッチ 58に供給 し、オーディオストリームを 1stオーディオデコーダ 75— 1への供給元となるスィッチ 5 9に供給する。すなわち、ビデオストリーム、プレゼンテーショングラフィックスストリー ム、インタラクティブグラフィックスストリーム、およびオーディオストリームには、それぞ れ異なる PIDが付されている。 PIDフィルタ 60は、コントローラ 34の制御に基づいて、 プライマリビデオストリームを 1stビデオデコーダ 72— 1に供給し、セカンダリビデオスト リームを 2ndビデオデコーダ 72— 2に供給する。
[0327] ステップ S108において、バッファ 53は、サブ Clipのストリームデータを PIDフィルタ 5 6に出力する。
[0328] ステップ S109において、 PIDフィルタ 56は、 PIDに基づいて、各エレメンタリストリー ムのデコーダへ振り分ける。具体的には、 PIDフィルタ 56は、供給されたビデオストリ ームを PIDフィルタ 60へ供給し、プレゼンテーショングラフィックスストリームをプレゼン テーシヨングラフィックスデコーダ 73への供給元となるスィッチ 57に供給し、インタラタ ティブグラフィックスストリームをインタラクティブグラフィックスデコーダ 74への供給元 となるスィッチ 58に供給し、オーディオストリームを 1stオーディオデコーダ 75— 1と 2n dオーディオデコーダ 75— 2への供給元となるスィッチ 59に供給する。 PIDフィルタ 6 0は、コントローラ 34の制御に基づいて、プライマリビデオストリームを 1stビデオデコ ーダ 72— 1に供給し、セカンダリビデオストリームを 2ndビデオデコーダ 72— 2に供給 する。
[0329] そして、ステップ S110乃至ステップ S112において、図 37および図 38を用いて説 明したステップ S50乃至ステップ S52と基本的に同様の処理が実行される。
[0330] すなわち、スィッチ 57乃至 59および PIDフィルタ 60は、コントローラ 34からの制御 に基づいて、メイン Clipとサブ Clipのいずれかを選択する。ノッファ 54は、テキストサ ブタイトルデータをテキストサブタイトルコンポジション 76に出力する。バックグラウンド デコーダ 71は、バックグラウンドイメージデータをデコードし、これをバックグラウンド プレーン生成部 91に出力する。
[0331] そして、ステップ S113において、 1stビデオデコーダ 72— 1は、供給されたプライマ リビデオストリームをデコードし、これをビデオプレーン生成部 92に出力する。
[0332] ステップ S114にお!/、て、 2ndビデオデコーダ 72— 2は、供給されたセカンダリビデ ォストリームをデコードし、これをビデオプレーン生成部 92に出力する。
[0333] ステップ S115において、プレゼンテーショングラフィックスデコーダ 73は、スィッチ 5
7により選択され、供給されたプレゼンテーショングラフィックスストリームをデコードし
、これを後段のスィッチ 77に出力する。
[0334] ステップ S116において、インタラクティブグラフィックスデコーダ 74は、スィッチ 58 により選択され、供給されたインタラクティブグラフィックスストリームをデコードし、これ を後段のインタラクティブグラフィックスプレーン生成部 94に出力する。
[0335] ステップ S117において、 1stオーディオデコーダ 75— 1は、スィッチ 59により選択さ れ、供給されたプライマリオ一ティォストリームをデコードし、これを後段のミキシング 処理部 101に出力する。
[0336] ステップ S118において、 2ndオーディオデコーダ 75— 2は、スィッチ 59により選択 され、供給されたセカンダリオ一ティォストリームをデコードし、これを後段のミキシン グ処理部 101に出力する。
[0337] ステップ S119において、 Text-STコンポジション 76は、プライマリまたはセカンダリ のうち、表示されるテキストサブタイトルデータをデコードし、これを後段のスィッチ 77 に出力する。
[0338] ステップ S120において、スィッチ 77は、プレゼンテーショングラフィックスデコーダ 7 3または Text-STコンポジション 76からのデータの!/、ずれかを選択する。具体的には 、スィッチ 77は、プレゼンテーショングラフィックスデコーダ 73によりデコードされたプ レゼンテーシヨングラフィックスストリームと、 Text-ST (テキストサブタイトルデータ)のう ち、いずれ力 1つを選択し、選択したデータをプレゼンテーショングラフィックスプレー ン生成部 93に供給する。
[0339] ステップ S121において、バックグラウンドプレーン生成部 91は、バックグラウンドデ コーダ 71から供給されたバックグラウンドイメージデータに基づ 、て、ノ ックグラウンド プレーンを生成する。
[0340] ステップ S122において、ビデオプレーン生成部 92は、 pip_metadataを参照したコン トローラ 34の制御に基づいて、 1stビデオデコーダ 72— 1および 2ndビデオデコーダ 7 2— 2から供給されたビデオデータを合成して、図 5を用いて説明したような、主表示 画面 1および副表示画面 2により構成されるビデオプレーンを生成し、これをビデオ データ処理部 96に供給する。
[0341] 具体的には、ビデオプレーン生成部 92は、例えば、図 9、図 11、または図 12を用 V、て説明した pipjnetadataを参照したコントローラ 34の制御に基づ!/、て、ポジショニン グ、スケーリングしたセカンダリビデ才ストリームをプライマリビデ才ストリームに合成し て、図 5を用いて説明したような、主表示画面 1および副表示画面 2により構成される ビデオプレーンを生成し、これをビデオデータ処理部 96に供給する。
[0342] ここで、図 43を参照して、ポジショニングとスケーリングの詳細について説明する。
[0343] 図 9、図 11、または図 12を用いて説明した pipjnetadataに示したように、 pip.horizot aLpositionは、例えば、図 5の主表示画面 1上において、セカンダリビデオが表示され る副表示画面 2の左上隅の X座標を示し、 pip_vertical_positionは、例えば、図 5の主 表示画面 1上において、セカンダリビデオが表示される副表示画面 2の左上隅の Y座 標を示す。また、 pip_scaleは、セカンダリビデオが表示される副表示画面 2の大きさに 関する情報を示す。
[0344] すなわち、図 43に示すように、 Primary Video plane (プライマリビデオプレーン)上 において、 pip_scaleに基づいて所定の大きさに調節されたスケーリングセカンダリビ デォ(Scaled Secondary Video)は、プライマリビデオプレーンの左上隅から、 X軸方向 に pip— horizotal—position、 Y軸カ冋に pip— vertical—positionとなる ¼ ;^、スケーリング セカンダリビデオの左上隅となるように配置されることになる。
[0345] また、このとき、図 12を用いて説明した pipjnetadataにおいて、 "is_luma_key=l"であ る場合、ビデオプレーン生成部 92は、プライマリビデオストリームとセカンダリビデオ ストリームとを luma_keying合成して、ビデオプレーンを生成し、これをビデオデータ処 理部 96に供給する。
[0346] ここで、 luma_keying合成とは、図 12の pipjnetadataにより説明したように、明るさ(輝 度値)の成分差を利用して不要な部分を切り抜いた画像を、映像に重ねて合成する 手法である。次に、図 44および図 45を参照して、 luma_keying合成の詳細について 説明する。
[0347] 図 44は、 luma— keying合成前の Primary Video (プライマリビデオ)と Secondary Video
(セカンダリビデオ)を示す図である。
[0348] 図中右側のプライマリビデオと、左側のセカンダリビデオとを luma_keying合成する場 合、図 12の pip_metadataを用いて説明したように、 lower_limit_luma_keyにより示される 輝度値の下限から、 upper_limit_luma_keyにより示される輝度値の上限までの範囲に 含まれる、セカンダリビデオの輝度値を透明にし、そのセカンダリビデオをプライマリ ビデオに合成する。
[0349] すなわち、 lower_limit_luma_keyと upper_limit_luma_keyで定義された輝度値の下限と 上限の範囲が取り除かれたセカンダリビデオがプライマリビデオに重ねて合成される 。具体的には、図 44で示されるように、左側のセカンダリビデオの平行四辺形と円以 外のノ、ツチングされた領域は、輝度値の下限と上限の範囲内の輝度値となるので透 明となり、そのように処理された左側のセカンダリビデオ力 右側のプライマリビデオ に重ねて合成される。
[0350] 図 45は、 luma_keying合成後のプライマリビデオとセカンダリビデオを示す図である
[0351] luma_keying合成後のプライマリビデオとセカンダリビデオは、図 45に示すように、セ カンダリビデオの平行四辺形と円以外の領域は透明となっているので、セカンダリビ デォの領域のうち、平行四辺形と円の領域のみ力 プライマリビデオと合成されること になる。
[0352] なお、図 45では、説明を分力り易くするために、セカンダリビデオの領域を点線によ つて表現している力 実際には、この点線が表示されることはない。
[0353] 図 42のフローチャートに戻り、ステップ S 123において、プレゼンテーショングラフィ ックスプレーン生成部 93は、ステップ S58の処理でスィッチ 77により選択され、供給 されたプレゼンテーショングラフィックスデコーダ 73からのデータまたは Text-STコン ポジション 76からのデータに基づ!/、て、プレゼンテーショングラフィックスプレーンを 生成する。
[0354] ステップ S124において、インタラクティブグラフィックスプレーン生成部 94は、インタ ラタティブグラフィックスデコーダ 74から供給されたインタラクティブグラフィックスストリ ームのデータに基づ 、て、インタラクティブグラフィックスプレーンを生成する。
[0355] ステップ S125において、バッファ 95は、ステップ S43の処理で選択され、供給され たサウンドデータをバッファリングし、所定のタイミングでミキシング処理部 97に供給 する。
[0356] ステップ S126において、ビデオデータ処理部 96は、各プレーンのデータを合成し 、出力する。具体的には、ノックグラウンドプレーン生成部 91、ビデオプレーン生成 部 92、プレゼンテーショングラフィックスプレーン生成部 93、およびインタラクティブグ ラフィックスプレーン生成部 94からのデータを合成し、ビデオデータとして出力する。
[0357] ステップ S127において、ミキシング処理部 101は、 1stオーディオデコーダ 75— 1 力も出力されたプライマリオーディオデータ、および、 2ndオーディオデコーダ 75— 2 カゝら出力されたセカンダリオーディオデータを合成し、ミキシング処理部 97に供給す る。
[0358] ステップ S128において、ミキシング処理部 97は、ミキシング処理部 101から出力さ れた、合成されたオーディオデータとサウンドデータをミキシング (合成)し、出力して 、処理は、図 36のステップ S9に戻り、ステップ S10に進む力、または、図 36のステツ プ S 15【こ戻り、ステップ S 16【こ進む。
[0359] 図 40乃至図 42を用いて説明した処理により、 PlayListに含まれるメインパスとサブ ノ スによりメイン Clip、サブ Clip、およびテキストサブタイトルデータが参照され、再生 される。 PlayListにメインパスとサブパスを設けるようにし、サブパスで、メインパスで指 定する ClipAVストリームファイルとは異なる Clipを指定可能な構成とし、プライマリビ デォストリームの表示画像にセカンダリビデオストリームの表示画像を重畳させること ができる。
[0360] このとき、セカンダリビデオストリームの表示画像の大きさと表示位置を設定すること ができるようにしたので、副表示画面の表示位置や表示の大きさが再生装置に依存 してあら力じめ定められている場合と比較して、コンテンツによって、または、表示され るタイミングによって、プライマリビデオストリームの表示の邪魔とならない位置や大き さでセカンダリビデオストリームを表示させるようにしたり、または、セカンダリビデオス トリームの内容に応じて、例えば、重要な内容であれば、 目立つ位置に大きく表示さ せたり、重要でない内容であれば、主表示画面 1の端に小さく表示させるようにするこ となどが可能である。
[0361] また、セカンダリビデオストリームの表示画像の大きさと表示位置は、コンテンツの製 作者、または、コンテンツの配給元が、適宜定めることができる。
[0362] なお、図 40乃至図 42において、ステップ S105,ステップ S106の処理は、その順 番が逆であってもよいし、平行して実行されてもよい。また、ステップ S 107、ステップ S 109の処理も、その順番が逆であってもよいし、平行して実行されてもよい。
さら〖こ、ステップ S112乃至ステップ S119の処理も、その順番が逆であってもよいし、 平行して実行されてもよい。また、ステップ S 121乃至ステップ S 124の処理も、その 順番が逆であってもよいし、平行して実行されてもよい。さらに、ステップ S126の処 理と、ステップ S127およびステップ S128の処理も、その順番が逆であってもよいし、 平行して実行されてもよい。すなわち、図 35において、縦に同じ階層のバッファ 51乃 至 54の処理、スィッチ 57乃至 59の処理、デコーダ 71乃至 76の処理、プレーン生成 部 91乃至 94の処理、ビデオデータ処理部 96およびミキシング処理部 97の処理は、 それぞれ、平行して実行されてもよいし、その順番は問わない。
[0363] 以上の処理をまとめると、以下のようになる。
[0364] 再生装置 20は、少なくとも 1つのストリームを含むメイン ClipAVストリームファイルの 位置を示す主の再生パスであるメインパスと、メイン ClipAVストリームファイルとは異 なる再生パスで再生されるサブ ClipAVストリームファイルの再生パスであるサブパス の情報を含んで構成される再生管理情報としての PlayListを取得する。そして、再生 装置 20は、 PlayListに含まれる再生するストリームを選択するための STN_tableOに基 づいて、再生するストリームの選択を受け付ける。 STN_tableOは、メイン ClipAVストリ ームファイルの所定の種類のストリーム(例えば、プライマリビデオストリーム)と、その ストリームの再生のタイミングに合わせて、または、非同期で再生される他のストリーム ファイルを選択するための情報であるので、この STN_table()に基づいて、再生するス トリームの選択を受け付けることができる。
[0365] また、 PlayList Subpathj peが In- Muxのものであれば、メインパスとサブパスが同一 Clipを参照することができ、さらにサブノ スを追加することができるので、ストリームに 拡張性を持たせることができる。また、 1つの Sub Pathで複数のファイルを参照可能な 構成としたので (例えば、図 4)、複数の異なるストリームの中力 ユーザが選択するこ とがでさる。
[0366] さらに、 Main Pathの Playltemの中に、 Main Pathにより参照される AVストリームフアイ ルに多重化されている (含まれる)付属データ(例えば、オーディオストリーム)と、 Sub Pathにより参照される付属データとを定義するテーブルとして、図 23、並びに、図 33 および図 34の STN_tableOを設けるようにしたので、より、拡張性の高いストリームを実 現することができる。また、 STN_tableOにエントリーすれば、 Sub Pathを容易に拡張す ることがでさる。
[0367] また、 STN_tableOにストリームの属性情報である図 25の stream_attributeOを設ける ようにしたので、再生装置 20側で、選択されたストリームを再生可能か否かを判定す ることができる。さら〖こ、 stream_attribute()を参照することで、再生機能を有するストリ ームだけを選択して再生することができる。
[0368] さらに、 STN_tableO (図 23、並びに、図 33および図 34)において、 2つの同じ種類 のストリームファイル(ここでは、プライマリビデオストリームファイルとセカンダリビデオ ストリームファイル、または、プライマリオーディオストリームファイルとセカンダリオーデ ィォストリームファイル)を定義するようにした。さらに、図 35の再生装置 20に 2つのビ デォデコーダ(1stビデオデコーダ 72— 1と 2ndビデオデコーダ 72— 2)および 2つの オーディオデコーダ(1stオーディオデコーダ 75— 1と 2ndオーディオデコーダ 75— 2) を設けた。そして、 2つのビデオデコーダによりデコードされたプライマリビデオデータ とセカンダリビデオデータを合成 (ミキシング)するビデオプレーン生成部 92を設け、 2つのオーディオデコーダによりデコードされたオーディオデータを合成するミキシン グ処理部 101を設けるようにした。これにより、 2つの同じ種類のストリームを組み合わ せて同時に再生することができる。
[0369] すなわち、本発明を適用した再生装置においては、図 5に示されるように、プライマ リビデオストリームを主画面に表示させ、主画面の中に、セカンダリストリームを子画 面として合成して表示させる、いわゆる PinP (ピクチャインピクチヤ)表示が可能である
[0370] また、このとき、 pipjnetadataによって、ピクチャインピクチャ表示におけるセカンダリ ビデオストリームの表示画像の大きさと表示位置を設定することができるようにした。 これにより、副表示画面の表示位置や表示の大きさが再生装置に依存してあらかじ め定められている場合と比較して、コンテンツによって、または、表示されるタイミング によって、プライマリビデオストリームの表示の邪魔とならな 、位置や大きさでセカン ダリビデオストリームを表示させるようにしたり、または、セカンダリビデオストリームの 内容に応じて、例えば、重要な内容であれば、 目立つ位置に大きく表示させたり、重 要でない内容であれば、主表示画面 1の端に小さく表示させるようにすることなどが 可能である。
[0371] また、セカンダリビデオストリームの表示画像の大きさと表示位置は、コンテンツの製 作者、または、コンテンツの配給元が、適宜定めることができる。
[0372] また、 pipjnetadataには、セカンダリビデオストリームの表示画像の大きさと表示位置 以外に、このピクチャインピクチャの表示の設定を示す情報を記載することができる。 セカンダリビデオストリームが表示される副表示画面 2の位置と大きさを示す情報以 外に、例えば、セカンダリビデオストリームの原映像に対して表示される映像の回転 や色の指定などに関する情報を記載することができる。
[0373] ここで、セカンダリビデオストリームの表示画像の大きさと表示位置をはじめとする表 示に関する情報は、セカンダリビデオストリームには記載されず、セカンダリビデオスト リームの再生を制御するためのプレイリストに記載される。すなわち、セカンダリビデ ォストリームを変更することなぐその表示形式のみを変更したい場合 (例えば、セカ ンダリビデオストリームの表示位置のみを変更したり、表示の大きさを変更した 、場合 など)、再生装置の設定や、セカンダリビデオストリーム自体に手を加えることなぐプ レイリストの pipjnetadataの記載のみを更新するようにすればよ!、。
[0374] また、第 1のコンテンツと第 2のコンテンツにおいて、同一のセカンダリビデオストリー ムを、異なる表示方法で表示させること(例えば、同一のセカンダリビデオストリームを 、第 1のコンテンツでは大きぐ第 2のコンテンツでは小さく表示させることなど)が非常 に容易である。すなわち、セカンダリビデオストリーム自体のデータをそれぞれ変更す ることなく、第 1のコンテンツと第 2のコンテンツのそれぞれにおいて、プレイリストの pip .metadata^,所望する表示形式を示す情報を記載することにより、第 1のコンテンツ と第 2のコンテンツにおいて、同一のセカンダリビデオストリームを、コンテンツ作成者 またはコンテンツ配給元が所望する異なる表示方法で表示させることが可能となる。
[0375] また、セカンダリビデオストリームの表示画像の大きさと表示位置をはじめとする表 示に関する情報が、時間情報をはじめとする詳細な再生管理情報を有するプレイリス トに記載されるので、セカンダリビデオの表示を詳細に設定することが可能となる。
[0376] また、 Sub Pathには、図 20〖こ示されるよう〖こ、 Sub Pathのタイプ(オーディオやテキス ト字幕と ヽつた種類と、メインパスと同期して ヽるか否かを示すタイプ)を示す SubPath_ type, Sub Pathが参照するサブ Clipの名を示す図 21の Clip_Information_file_name、お よび Sub Pathが参照する Clipのイン点を示す図 21の SubPlayItem_IN_timeとアウト点を 示す図 21の SubPlayItem_OUT_timeを含むようにしたので、 Sub Pathが参照するデー タを的確に特定することができる。
[0377] なお、図 35のストレージドライブ 31が読み出すデータは、 DVD (Digital Versatile Di sc)などの記録媒体に記録されて!、るデータであってもよ 、し、ハードディスクに記録 されて!/、るデータであってもよ!/、し、図示せぬネットワークを介してダウンロードしたデ ータであってもよいし、これらが組み合わされたデータでもよい。例えば、ダウンロード され、ハードディスクに記録された PlayListおよびサブ Clipと、 DVDに記録されたメイン ClipAVストリームファイルに基づいて、再生されてもよい。また、例えば、 DVDに記録 された ClipAVストリームファイルをサブ Clipとするような PlayListとメイン Clipがハード ディスクに記録されて 、る場合に、ハードディスクに記録されて 、る PlayListに基づ ヽ て、メイン Clipとサブ Clipがそれぞれ、ハードディスクと DVD力 読み出され再生され てもよい。
[0378] なお、セカンダリビデオの位置、大きさなどが再生装置 20 (プレーヤ)の機能で変更 するようにすることもできるが、この場合、ォーサが意図した大きさなどにならないとき 力 Sある。一方、本願発明のように管理情報である Playlistで大きさ、位置などを管理す れば、例えば ROMディスクの取得後に位置などを変更させたい場合であっても、実 際の Clipに変更を加えなくても、サイズが比較的小さ!、プレイリストを取得するだけで
、ォーサが意図したとおりにセカンダリビデオの位置などを変更することができる。
[0379] 次に、図 46および図 47を参照して、再生装置 20において再生可能なデータが記 録された記録媒体 21の製造方法について、記録媒体 21がディスク状の記録媒体だ つた場合を例として説明する。
[0380] すなわち、図 46に示すように、例えばガラスなどよりなる原盤が用意され、その上に
、例えばフォトレジストなどよりなる記録材料が塗布される。これにより、記録用原盤が 製作される。
[0381] そして、図 47に示すように、ソフト製作処理部において、符号化装置 (ビデオェンコ ーダ)で符号ィ匕された、再生装置 20において再生可能な形式のビデオデータ力 一 時バッファに記憶され、オーディオエンコーダで符号ィ匕されたオーディオデータが、 一時バッファに記憶されるとともに、更に、データエンコーダで符号ィ匕された、ストリー ム以外のデータ(例えば、 Indexes、 Playlist, Playltemなど)がー時バッファに記憶され る。それぞれのバッファに記憶されたビデオデータ、オーディオデータ、および、ストリ ーム以外のデータは、多重化器 (MPX)で同期信号と共に多重化され、誤り訂正符 号回路 (ECC)でエラー訂正用のコードが付加される。そして、変調回路 (MOD)で 所定の変調がかけられ、所定のフォーマットにしたがって、例えば磁気テープなどに ー且記録され、再生装置 20にお 、て再生可能な記録媒体 21に記録されるソフトゥェ ァが製作される。
[0382] このソフトウェアを必要に応じて編集(プリマスタリング)し、光ディスクに記録すべき フォーマットの信号が生成される。そして、図 46に示すように、この記録信号に対応し て、レーザビームが変調されて、このレーザビームが原盤上のフォトレジスト上に照射 される。これにより、原盤上のフォトレジストが記録信号に対応して露光される。
[0383] その後、この原盤を現像し、原盤上にピットを出現させる。このようにして用意された 原盤に、例えば電铸などの処理を施し、ガラス原盤上のピットを転写した金属原盤を 製作する。この金属原盤から、さらに金属スタンパを製作し、これを成形用金型とする [0384] この成形用金型に、例えばインジェクションなどにより PMMA (アクリル)または PC ( ポリカーボネート)などの材料を注入し、固定化させる。あるいは、金属スタンパ上に 2 P (紫外線硬化榭脂)などを塗布した後、紫外線を照射して硬化させる。これにより、 金属スタンパ上のピットを、榭脂よりなるレプリカ上に転写することができる。
[0385] このようにして生成されたレプリカ上に、反射膜が、蒸着あるいはスパッタリングなど により形成される。あるいはまた、生成されたレプリカ上に、反射膜が、スピンコートに より形成される。
[0386] その後、このディスクに対して内外径の加工が施され、 2枚のディスクを張り合わせ るなどの必要な処置が施される。さらに、ラベルを貼り付けたり、ハブが取り付けられ て、カートリッジに挿入される。このようにして再生装置 20によって再生可能なデータ が記録された記録媒体 21が完成する。
[0387] 上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェア により実行させることもできる。この場合、上述した処理は、図 48に示されるようなパ 一ソナルコンピュータ 500により実行される。
[0388] 図 48において、 CPU (Central Processing Unit) 501は、 ROM(Read Only Memory) 502に記憶されているプログラム、または、記憶部 508から RAM(Random Access Me mory)503にロードされたプログラムに従って各種の処理を実行する。 RAM503には また、 CPU501が各種の処理を実行する上において必要なデータなどが適宜記憶さ れる。
[0389] CPU501、 ROM502、および RAM503は、内部バス 504を介して相互に接続され ている。この内部バス 504にはまた、入出力インターフェース 505も接続されている。
[0390] 入出力インターフェース 505には、キーボード、マウスなどよりなる入力部 506、 CR T (Cathode Ray Tube) , LCD (Liquid Crystal Display)などよりなるディスプレイ、スピ 一力などよりなる出力部 507、ハードディスクなどより構成される記憶部 508、並びに 、モデム、ターミナルアダプタなどより構成される通信部 509が接続されている。通信 部 509は、電話回線や CATVを含む各種のネットワークを介しての通信処理を行う。
[0391] 入出力インターフェース 505にはまた、必要に応じてドライブ 510が接続され、磁気 ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリなどによりなるリムーパブ ルメディア 521が適宜装着され、それから読み出されたコンピュータプログラム力 必 要に応じて記憶部 508にインストールされる。
[0392] 一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプ ログラム力 ネットワークやプログラム格納媒体からインストールされる。
[0393] このプログラム格納媒体は、図 48に示されるように、コンピュータとは別に、ユーザ にプログラムを提供するために配布される、プログラムが記録されているリムーバブル メディア 521よりなるパッケージメディアにより構成されるだけでなぐ装置本体に予め 組み込まれた状態でユーザに提供される、プログラムが記録されて 、る ROM502や 記憶部 508が含まれるハードディスクなどで構成される。
[0394] なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなぐ本 発明の要旨を逸脱しな 、範囲にぉ 、て種々の変更が可能である。

Claims

請求の範囲
[1] 少なくとも 1つのストリームを含むメインストリームファイルの時間軸上の位置を示す 主の再生パスを含む第 1の情報と、前記メインストリームファイルとは異なるサブストリ ームファイルの副の再生パスを含む第 2の情報により構成される再生管理情報を取 得する取得手段と、
前記取得手段により取得された前記再生管理情報を基に、再生される前記メインス トリームファイルおよび前記サブストリームファイルを読み出す読み出し手段と、 前記取得手段により取得された前記再生管理情報を基に、前記読み出し手段によ り読み出された前記メインストリームファイルの映像と、前記サブストリームファイルの 映像とを合成する映像合成手段と
を備え、
前記再生管理情報には、前記メインストリームファイルの映像と合成される前記サブ ストリームファイルの映像の表示状態に関する情報が含まれており、
前記映像合成手段は、前記再生管理情報に含まれる前記表示状態に関する情報 を基に、前記メインストリームファイルの映像と、前記サブストリームファイルの映像と を合成する
再生装置。
[2] 前記表示状態に関する情報は、前記メインストリームファイルの映像と合成される前 記サブストリームファイルの映像の表示位置に関する情報を含む
請求項 1に記載の再生装置。
[3] 前記表示状態に関する情報は、前記メインストリームファイルの映像と合成される前 記サブストリームファイルの映像の表示の大きさに関する情報を含む
請求項 1に記載の再生装置。
[4] 前記表示状態に関する情報は、前記メインストリームファイルの映像と合成される前 記サブストリームファイルの映像の表示色に関する情報を含む
請求項 1に記載の再生装置。
[5] 前記表示状態に関する情報は、前記メインストリームファイルの映像と合成される前 記サブストリームファイルの映像の、原映像に対する合成後の回転角度に関する情 報を含む 請求項 1に記載の再生装置。
[6] 前記表示状態に関する情報は、前記メインストリームファイルの映像と合成される前 記サブストリームファイルの映像の明るさを示す情報に基づ ヽて実行される、前記メイ ンストリームファイルの映像と、前記サブストリームファイルの映像とを合成する処理に 関する情報を含む
請求項 1に記載の再生装置。
[7] 前記サブストリームファイルの映像の明るさを示す情報は、透過処理を行うべき明る さを示す情報の少なくとも 1つの閾値であり、前記サブストリームファイルの映像の明 るさが、前記閾値以上または以下となる映像部分に対して透過処理を行う
請求項 6に記載の再生装置
[8] ユーザの操作入力を受ける操作入力手段をさらに備え、
前記取得手段により取得される前記再生管理情報には、前記メインストリームフアイ ルに対して前記サブストリームファイルが必ず同時に再生される力、前記ユーザから 指令されたときのみ前記メインストリームファイルに対して前記サブストリームファイル が同時に再生されるかを示す情報が記載され、
前記映像合成手段は、前記ユーザカゝら指令されたときのみ前記メインストリームファ ィルに対して前記サブストリームファイルが同時に再生されることを示す情報が前記 再生管理情報に記載されている場合、前記操作入力手段により入力される前記ユー ザの操作入力に基づ 、て、前記ユーザ力 前記サブストリームファイルの再生が指 令されたときのみ、前記メインストリームファイルの映像と前記サブストリームファイル の映像とを合成する 請求項 1に記載の再生装置。
[9] 前記メインストリームファイルに対応して再生される音声と、前記サブストリームフアイ ルに対応して再生される音声とを合成する音声合成手段をさらに備え、
前記音声合成手段は、前記映像合成手段により前記メインストリームファイルの映 像と、前記サブストリームファイルの映像とが合成される場合、前記メインストリームフ アイルに対応して再生される音声と、前記サブストリームファイルに対応して再生され る音声とを合成する
請求項 1に記載の再生装置。
[10] 前記再生管理情報には、前記表示状態に関する情報を含むことを示す情報が含ま れる
請求項 1に記載の再生装置。
[11] メインストリームファイルおよびサブストリームファイルを再生する再生装置の再生方 法において、
少なくとも 1つのストリームを含む前記メインストリームファイルの時間軸上の位置を 示す主の再生パスを含む第 1の情報と、前記メインストリームファイルとは異なる前記 サブストリームファイルの副の再生パスを含む第 2の情報により構成される再生管理 情報を読み出し、
読み出された前記再生管理情報を基に、再生される前記メインストリームファイルお よび前記サブストリームファイルを読み出し、
前記再生管理情報に含まれる、前記メインストリームファイルの映像と合成される前 記サブストリームファイルの映像の表示状態に関する情報を基に、読み出された前記 メインストリームファイルの映像と、前記サブストリームファイルの映像とを合成する ステップを含む再生方法。
[12] メインストリームファイルおよびサブストリームファイルを再生する処理をコンピュータ に実行させるためのプログラムであって、
少なくとも 1つのストリームを含む前記メインストリームファイルの時間軸上の位置を 示す主の再生パスを含む第 1の情報と、前記メインストリームファイルとは異なる前記 サブストリームファイルの副の再生パスを含む第 2の情報により構成される再生管理 情報を読み出し、
読み出された前記再生管理情報を基に、再生される前記メインストリームファイルお よび前記サブストリームファイルを読み出し、
前記再生管理情報に含まれる、前記メインストリームファイルの映像と合成される前 記サブストリームファイルの映像の表示状態に関する情報を基に、読み出された前記 メインストリームファイルの映像と、前記サブストリームファイルの映像とを合成する ステップを含む処理をコンピュータに実行させるプログラム。
[13] 請求項 12に記載のプログラムが記録されて 、るプログラム格納媒体。
[14] 少なくとも 1つのストリームを含むメインストリームファイルの再生を管理する情報であ る再生管理情報を含むデータ構造であって、
前記再生管理情報には、
前記メインストリームファイルの時間軸上の位置を示す主の再生ノ スを含む第 1の 情報と、
前記メインストリームファイルとは異なるサブストリームファイルの副の再生パスを含 む第 2の情報と、
前記メインストリームファイルの映像と合成される前記サブストリームファイルの映 像の表示状態に関する情報と
が含まれているデータ構造。
[15] 再生装置において再生可能なデータが記録される記録媒体の製造方法であって、 少なくとも 1つのストリームを含むメインストリームファイルの再生を管理する情報であ る再生管理情報を含み、
前記再生管理情報に、
前記メインストリームファイルの時間軸上の位置を示す主の再生ノ スを含む第 1の 情報と、
前記メインストリームファイルとは異なるサブストリームファイルの副の再生パスを含 む第 2の情報と、
前記メインストリームファイルの映像と合成される前記サブストリームファイルの映 像の表示状態に関する情報と
を含むデータ構造を有するデータを生成し、
生成された前記データを前記記録媒体に記録する
ステップを含む記録媒体の記録方法。
PCT/JP2006/316177 2005-08-25 2006-08-17 再生装置および再生方法、プログラム、プログラム格納媒体、データ構造、並びに、記録媒体の製造方法 WO2007023728A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020077014458A KR101320793B1 (ko) 2005-08-25 2006-08-17 재생 장치 및 재생 방법 및 프로그램 저장 매체
CN2006800015621A CN101091385B (zh) 2005-08-25 2006-08-17 播放设备和播放方法
EP06782790.7A EP1919210B1 (en) 2005-08-25 2006-08-17 Reproduction device, reproduction method, program, program storage medium, data structure, and recording medium fabrication method
KR1020127033439A KR101244148B1 (ko) 2005-08-25 2006-08-17 데이터 생성 방법, 기록 장치, 기록 방법, 저장 매체, 재생 장치 및 재생 방법
US11/791,585 US8340496B2 (en) 2005-08-25 2006-08-17 Playback apparatus, playback method, program, program storage medium, data structure, and recording-medium manufacturing method
ES06782790.7T ES2517418T3 (es) 2005-08-25 2006-08-17 Dispositivo de reproducción, método de reproducción, programa, soporte de almacenamiento de programa, estructura de datos y método de fabricación de un soporte de registro

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2005-244612 2005-08-25
JP2005244612 2005-08-25
JP2005-264041 2005-09-12
JP2005264041 2005-09-12
JP2005-311477 2005-10-26
JP2005311477A JP4081772B2 (ja) 2005-08-25 2005-10-26 再生装置および再生方法、プログラム、並びにプログラム格納媒体

Publications (1)

Publication Number Publication Date
WO2007023728A1 true WO2007023728A1 (ja) 2007-03-01

Family

ID=37771476

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/316177 WO2007023728A1 (ja) 2005-08-25 2006-08-17 再生装置および再生方法、プログラム、プログラム格納媒体、データ構造、並びに、記録媒体の製造方法

Country Status (8)

Country Link
US (1) US8340496B2 (ja)
EP (1) EP1919210B1 (ja)
JP (1) JP4081772B2 (ja)
KR (2) KR101244148B1 (ja)
CN (4) CN102855901B (ja)
ES (1) ES2517418T3 (ja)
TW (2) TW200715853A (ja)
WO (1) WO2007023728A1 (ja)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BRPI0506593A (pt) * 2004-02-16 2007-05-02 Sony Corp aparelho de reprodução, método de reprodução, programa permitindo que um computador execute processamento, meio de gravação, e, estrutura de dados
JP4870493B2 (ja) * 2005-08-09 2012-02-08 パナソニック株式会社 再生装置、記録方法、再生方法、システムlsi、プログラム
WO2007018308A1 (en) 2005-08-09 2007-02-15 Matsushita Electric Industrial Co., Ltd. Recording medium, playback apparatus, method and program
JP2009177531A (ja) * 2008-01-24 2009-08-06 Panasonic Corp 画像記録装置、画像再生装置、記録媒体、画像記録方法及びプログラム
JP2009177527A (ja) * 2008-01-24 2009-08-06 Panasonic Corp 画像記録装置、画像再生装置、記録媒体、画像記録方法及びプログラム
JP2009177619A (ja) 2008-01-25 2009-08-06 Panasonic Corp 画像記録装置、画像再生装置、記録媒体、画像記録方法及びプログラム
JP4544332B2 (ja) * 2008-04-07 2010-09-15 ソニー株式会社 画像処理装置、画像処理方法、プログラム
KR101340102B1 (ko) * 2008-07-31 2013-12-10 미쓰비시덴키 가부시키가이샤 영상 부호화 장치, 영상 부호화 방법, 영상 재생 장치 및 영상 재생 방법
JP2010135011A (ja) * 2008-12-05 2010-06-17 Funai Electric Co Ltd デジタル放送録画再生装置
KR101639053B1 (ko) * 2009-02-17 2016-07-13 코닌클리케 필립스 엔.브이. 3d 이미지 및 그래픽 데이터의 조합
TWI400949B (zh) * 2010-04-06 2013-07-01 Hon Hai Prec Ind Co Ltd 媒體資料播放裝置及其重播方法
JP2012064135A (ja) 2010-09-17 2012-03-29 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム
CN102972024A (zh) * 2011-05-11 2013-03-13 松下电器产业株式会社 动态图像发送装置以及动态图像发送方法
WO2012174301A1 (en) 2011-06-14 2012-12-20 Related Content Database, Inc. System and method for presenting content with time based metadata
CN104041013A (zh) * 2012-01-09 2014-09-10 汤姆逊许可公司 管理时移数据
JP5627617B2 (ja) * 2012-02-22 2014-11-19 株式会社東芝 画像処理装置及び画像表示システム
US9716904B2 (en) * 2012-05-17 2017-07-25 Ericsson Ab Video content presentation override control systems, methods and devices
KR101249279B1 (ko) * 2012-07-03 2013-04-02 알서포트 주식회사 동영상 생성 방법 및 장치
EP2779578B1 (en) 2013-03-15 2019-11-20 Samsung Electronics Co., Ltd. Data Transmitting Apparatus, Data Receiving Apparatus, Data Transceiving System, Method for Transmitting Data, and Method for Receiving Data
EP2779577B1 (en) * 2013-03-15 2019-05-01 Samsung Electronics Co., Ltd. Data transmitting apparatus, data receiving apparatus, data transceiving system, method for transmitting data, and method for receiving data
US20170006248A1 (en) * 2014-01-21 2017-01-05 Lg Electronics Inc. Broadcast transmission device and operating method thereof, and broadcast reception device and operating method thereof
US9348495B2 (en) 2014-03-07 2016-05-24 Sony Corporation Control of large screen display using wireless portable computer and facilitating selection of audio on a headphone
CN103888840B (zh) * 2014-03-27 2017-03-29 电子科技大学 一种视频移动终端实时拖动与缩放的方法及装置
US20160098180A1 (en) * 2014-10-01 2016-04-07 Sony Corporation Presentation of enlarged content on companion display device
US10097785B2 (en) * 2014-10-01 2018-10-09 Sony Corporation Selective sign language location
US10204433B2 (en) 2014-10-01 2019-02-12 Sony Corporation Selective enablement of sign language display
US9697630B2 (en) * 2014-10-01 2017-07-04 Sony Corporation Sign language window using picture-in-picture
JP2016081553A (ja) * 2014-10-17 2016-05-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 記録媒体、再生方法、および再生装置
KR102202576B1 (ko) * 2014-12-12 2021-01-13 삼성전자주식회사 음향 출력을 제어하는 디바이스 및 그 방법
US20160307603A1 (en) * 2015-04-15 2016-10-20 Sony Corporation Information processing device, information recording medium, information processing method, and program
CN107547917B (zh) * 2016-06-27 2020-07-10 中兴通讯股份有限公司 频道的播放和处理方法及装置,频道的处理系统
JP6934052B2 (ja) * 2017-06-28 2021-09-08 株式会社ソニー・インタラクティブエンタテインメント 表示制御装置、表示制御方法及びプログラム
CN111182213B (zh) * 2019-12-31 2021-09-24 维沃移动通信有限公司 视频制作方法、电子设备及介质
CN111522497B (zh) * 2020-04-16 2022-09-13 深圳市颍创科技有限公司 Pip模式中触摸控制显示设备子画面大小和位置的方法
EP4007228A1 (en) * 2020-11-27 2022-06-01 Telefonica Digital España, S.L.U. System and method for live media streaming
US11985333B2 (en) 2021-06-30 2024-05-14 Lemon Inc. Indicating which video data units represent a target picture-in-picture region
US20230007210A1 (en) * 2021-06-30 2023-01-05 Lemon Inc. Signaling the Purpose of Preselection
CN114911407A (zh) * 2022-06-20 2022-08-16 上海联影医疗科技股份有限公司 医学诊疗系统的图像播放控制装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000022928A (ja) * 1998-06-30 2000-01-21 Omron Corp 合成画像作成装置および記録媒体
JP2003244613A (ja) * 2002-02-15 2003-08-29 Toshiba Corp 映像データ記録再生装置及び映像データ記録再生方法
WO2004034398A1 (en) * 2002-10-11 2004-04-22 Thomson Licensing S.A. Method and apparatus for synchronizing data streams containing audio, video and/or other data
JP2004362719A (ja) * 2003-06-06 2004-12-24 Sharp Corp データ記録方法、データ記録装置、およびデータ記録媒体
JP2005020242A (ja) * 2003-06-25 2005-01-20 Toshiba Corp 再生装置
WO2005074270A1 (ja) * 2004-01-30 2005-08-11 Matsushita Electric Industrial Co., Ltd. 記録媒体、再生装置、プログラム、再生方法

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3372037B2 (ja) 1995-08-21 2003-01-27 松下電器産業株式会社 記録媒体の記録方法、再生装置、再生方法
CN1205825A (zh) * 1995-12-29 1999-01-20 汤姆森消费电子有限公司 具有用于显示可变尺寸辅助图像的设备的电视系统
US6088064A (en) * 1996-12-19 2000-07-11 Thomson Licensing S.A. Method and apparatus for positioning auxiliary information proximate an auxiliary image in a multi-image display
US5963215A (en) 1997-03-26 1999-10-05 Intel Corporation Three-dimensional browsing of multiple video sources
CN1099675C (zh) * 1997-09-17 2003-01-22 松下电器产业株式会社 光盘,记录仪器,以及计算机可读记录介质
EP1038398A4 (en) * 1997-12-01 2001-04-04 Starsight Telecast Inc ELECTRONIC PROGRAMMING GUIDE SYSTEM WITH ADVERTISING MESSAGES IN WINDOWS
KR100277994B1 (ko) * 1998-12-31 2001-01-15 구자홍 경계 영역 표시 장치
CA2366549C (en) 1999-04-14 2015-09-08 Sarnoff Corporation Method for generating and processing transition streams
JP4328989B2 (ja) * 1999-11-24 2009-09-09 ソニー株式会社 再生装置、再生方法、並びに記録媒体
JP2001251266A (ja) 2000-03-07 2001-09-14 Sony Corp データ送出装置及びトランスポートストリーム生成装置並びにそのデータストリーム生成方法
EP1198133A4 (en) * 2000-04-21 2004-10-06 Sony Corp INFORMATION PROCESSING DEVICE AND METHOD, PROGRAM AND RECORDED MEDIUM
KR100676328B1 (ko) 2000-06-28 2007-01-30 삼성전자주식회사 피아이피 기능을 갖는 디지탈 영상표시기기의 피봇장치
US6697123B2 (en) 2001-03-30 2004-02-24 Koninklijke Philips Electronics N.V. Adaptive picture-in-picture
EP1472694A1 (en) * 2002-02-07 2004-11-03 Samsung Electronics Co., Ltd. Information storage medium containing display mode information, and reproducing apparatus and method therefor
JP3741668B2 (ja) 2002-03-26 2006-02-01 池上通信機株式会社 データ多重化装置
AU2003277571A1 (en) * 2002-11-11 2004-06-03 Sony Corporation Information processing device and method, program storage medium, recording medium, and program
KR100873437B1 (ko) * 2002-11-28 2008-12-11 삼성전자주식회사 Pip화면을 이용한 듀얼모드 신호처리장치
US20040189828A1 (en) * 2003-03-25 2004-09-30 Dewees Bradley A. Method and apparatus for enhancing a paintball video
US8065614B2 (en) * 2003-04-09 2011-11-22 Ati Technologies, Inc. System for displaying video and method thereof
JP4228767B2 (ja) 2003-04-25 2009-02-25 ソニー株式会社 再生装置、再生方法、再生プログラムおよび記録媒体
KR101130368B1 (ko) 2003-06-02 2012-03-27 디즈니엔터프라이지즈,인크. 소비자용 비디오 플레이어를 위한 프로그램된 윈도우 제어 시스템 및 방법
US7725006B2 (en) * 2003-09-04 2010-05-25 Koninklijke Philips Electronics N.V. Record carrier carrying a video signal and at least one additional information signal
KR101003957B1 (ko) * 2003-11-20 2010-12-30 엘지전자 주식회사 광디스크 장치에서의 유저 마크 기록방법
US20050179817A1 (en) * 2004-01-14 2005-08-18 Matsushita Electric Industrial Co., Ltd. Video signal display unit
US7609947B2 (en) * 2004-09-10 2009-10-27 Panasonic Corporation Method and apparatus for coordinating playback from multiple video sources
US20060200842A1 (en) * 2005-03-01 2006-09-07 Microsoft Corporation Picture-in-picture (PIP) alerts

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000022928A (ja) * 1998-06-30 2000-01-21 Omron Corp 合成画像作成装置および記録媒体
JP2003244613A (ja) * 2002-02-15 2003-08-29 Toshiba Corp 映像データ記録再生装置及び映像データ記録再生方法
WO2004034398A1 (en) * 2002-10-11 2004-04-22 Thomson Licensing S.A. Method and apparatus for synchronizing data streams containing audio, video and/or other data
JP2004362719A (ja) * 2003-06-06 2004-12-24 Sharp Corp データ記録方法、データ記録装置、およびデータ記録媒体
JP2005020242A (ja) * 2003-06-25 2005-01-20 Toshiba Corp 再生装置
WO2005074270A1 (ja) * 2004-01-30 2005-08-11 Matsushita Electric Industrial Co., Ltd. 記録媒体、再生装置、プログラム、再生方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1919210A4 *

Also Published As

Publication number Publication date
JP4081772B2 (ja) 2008-04-30
KR101320793B1 (ko) 2013-10-23
TW200715853A (en) 2007-04-16
TW201108739A (en) 2011-03-01
CN102855902A (zh) 2013-01-02
TWI346506B (ja) 2011-08-01
EP1919210B1 (en) 2014-10-01
KR20080040617A (ko) 2008-05-08
CN102855901B (zh) 2014-10-29
ES2517418T3 (es) 2014-11-03
EP1919210A1 (en) 2008-05-07
CN102855901A (zh) 2013-01-02
CN101091385B (zh) 2012-10-10
CN102572454B (zh) 2013-09-11
KR101244148B1 (ko) 2013-03-15
US20080267588A1 (en) 2008-10-30
TWI479892B (zh) 2015-04-01
CN102572454A (zh) 2012-07-11
EP1919210A4 (en) 2011-09-07
CN101091385A (zh) 2007-12-19
US8340496B2 (en) 2012-12-25
KR20130007672A (ko) 2013-01-18
JP2007104615A (ja) 2007-04-19

Similar Documents

Publication Publication Date Title
JP4081772B2 (ja) 再生装置および再生方法、プログラム、並びにプログラム格納媒体
JP4770601B2 (ja) 情報処理装置および情報処理方法、プログラム、並びに、プログラム格納媒体
JP4923751B2 (ja) 再生装置、並びに記録媒体及びその製造方法
US9076495B2 (en) Reproducing apparatus, reproducing method, computer program, program storage medium, data structure, recording medium, recording device, and manufacturing method of recording medium
JP4822081B2 (ja) 再生装置、再生方法、および記録媒体
JP4849343B2 (ja) データ生成方法、記録装置および方法、並びに、プログラム
JP4720676B2 (ja) 情報処理装置および情報処理方法、データ構造、記録媒体の製造方法、プログラム、並びに、プログラム格納媒体
JP4900708B2 (ja) 再生装置および再生方法、プログラム、並びにプログラム格納媒体
JP5201428B2 (ja) データ生成方法、記録装置および方法、並びに、プログラム
JP2008193604A (ja) 再生装置および方法、並びにプログラム
JP4821456B2 (ja) 情報処理装置および情報処理方法、プログラム、データ構造、並びに記録媒体
JP5234144B2 (ja) 再生装置、並びに記録媒体及びその製造方法
JP2008052836A (ja) 情報処理装置および情報処理方法、プログラム、並びに、プログラム格納媒体
JP2012075187A (ja) 再生装置、再生方法、および記録方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 4215/DELNP/2007

Country of ref document: IN

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 200680001562.1

Country of ref document: CN

Ref document number: 2006782790

Country of ref document: EP

Ref document number: 1020077014458

Country of ref document: KR

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 11791585

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1020127033439

Country of ref document: KR