WO2010089994A1 - 記録媒体、再生装置、及び集積回路 - Google Patents

記録媒体、再生装置、及び集積回路 Download PDF

Info

Publication number
WO2010089994A1
WO2010089994A1 PCT/JP2010/000608 JP2010000608W WO2010089994A1 WO 2010089994 A1 WO2010089994 A1 WO 2010089994A1 JP 2010000608 W JP2010000608 W JP 2010000608W WO 2010089994 A1 WO2010089994 A1 WO 2010089994A1
Authority
WO
WIPO (PCT)
Prior art keywords
view
base
stream
file
playback
Prior art date
Application number
PCT/JP2010/000608
Other languages
English (en)
French (fr)
Inventor
佐々木泰治
矢羽田洋
池田航
小川智輝
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to US12/810,073 priority Critical patent/US20110050847A1/en
Priority to RU2010132156/08A priority patent/RU2521288C2/ru
Priority to EP10732239.8A priority patent/EP2395771B1/en
Priority to MX2010008146A priority patent/MX2010008146A/es
Priority to CN2010800010573A priority patent/CN101953170B/zh
Priority to ES10732239.8T priority patent/ES2472444T3/es
Priority to JP2010521246A priority patent/JP4569935B2/ja
Priority to BRPI1001234-6A priority patent/BRPI1001234A2/pt
Publication of WO2010089994A1 publication Critical patent/WO2010089994A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/12Formatting, e.g. arrangement of data block or words on the record carriers
    • G11B20/1217Formatting, e.g. arrangement of data block or words on the record carriers on discs
    • G11B20/1251Formatting, e.g. arrangement of data block or words on the record carriers on discs for continuous data, e.g. digitised analog information signals, pulse code modulated [PCM] data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234327Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into layers, e.g. base layer and one or more enhancement layers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • H04N21/42646Internal components of the client ; Characteristics thereof for reading from or writing on a non-volatile solid state storage medium, e.g. DVD, CD-ROM
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/432Content retrieval operation from a local storage medium, e.g. hard-disk
    • H04N21/4325Content retrieval operation from a local storage medium, e.g. hard-disk by playing back content from the storage medium
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • G11B2020/10537Audio or video recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/12Formatting, e.g. arrangement of data block or words on the record carriers
    • G11B2020/1291Formatting, e.g. arrangement of data block or words on the record carriers wherein the formatting serves a specific purpose
    • G11B2020/1294Increase of the access speed
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2541Blu-ray discs; Blue laser DVR discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/005Aspects relating to the "3D+depth" image format

Definitions

  • the present invention relates to a technique for reproducing a stereoscopic video, that is, a three-dimensional (3D) video, and more particularly to a file structure of stream data on a recording medium.
  • 2D playback device means a conventional playback device capable of playing only a planar view video, that is, a two-dimensional (2D) video
  • 3D playback device means playback capable of playing 3D video. Means device. In this specification, it is assumed that the 3D playback device can also play back conventional 2D video.
  • FIG. 75 is a schematic diagram showing a technique for ensuring compatibility with a 2D playback device for an optical disc on which 3D video content is recorded (see, for example, Patent Document 1).
  • Two types of video streams are stored on the optical disc 6701.
  • One is a 2D / left-view video stream and the other is a right-view video stream.
  • the “2D / left-view video stream” represents a 2D video to be viewed by the viewer's left eye when reproducing 3D video, that is, “left view”, and represents the 2D video itself when reproducing 2D video.
  • the “right-view video stream” represents a 2D video that is shown to the viewer's right eye during playback of the 3D video, that is, “right view”.
  • the frame rate is the same between the left and right video streams, but the frame display timing is shifted by half the frame period. For example, when the frame rate of each video stream is 24 frames per second, each frame of 2D / left-view video stream and right-view video stream is alternately displayed every 1/48 seconds. .
  • Each video stream is divided into a plurality of extents 6702A-C and 6703A-C on the optical disc 6701 as shown in FIG.
  • Each extent includes one or more GOPs (Group of Pictures) and is read in a batch by the optical disk drive.
  • GOPs Group of Pictures
  • the extent belonging to the 2D / left-view video stream is referred to as “2D / left-view extent”
  • the extent belonging to the right-view video stream is referred to as “right-view extent”.
  • the 2D / left-view extent 6702A-C and the right-view extent 6703A-C are alternately arranged on the track 6701A of the optical disc 6701.
  • the playback time is equal between two adjacent extents 6702A-6703A, 6702B-6703B, 6702C-6703C.
  • Such arrangement of extents is referred to as “interleaved arrangement”. Extents recorded in the interleaved arrangement are used for both 3D video playback and 2D video playback as described below.
  • the optical disc drive 6704A reads out only the 2D / left-view extent 6702A-C from the top among the extents on the optical disc 6701, while skipping reading of the right-view extent 6703A-C. Further, the video decoder 6704B sequentially decodes the extents read by the optical disc drive 6704A into a video frame 6706L. Thereby, since only the left view is displayed on the display device 6707, a normal 2D image can be seen by the viewer.
  • the optical disc drive 6705A expresses 2D / left-view extent and right-view extent alternately from the optical disc 6701 by symbols
  • data is read in the order of 6702A, 6703A, 6702B, 6703B, 6702C, 6703C.
  • the 2D / left-view video stream is sent to the left video decoder 6705L
  • the right-view video stream is sent to the right video decoder 6705R.
  • Each video decoder 6705L, 6705R alternately decodes each video stream into video frames 6706L, 6706R.
  • the left view and the right view are alternately displayed on the display device 6708.
  • the shutter glasses 6709 make the left and right lenses opaque alternately in synchronization with screen switching by the display device 6708. Accordingly, a viewer wearing the shutter glasses 6709 can see the video displayed on the display device 6708 as a 3D video.
  • the interleaved arrangement of extents is used as described above. Accordingly, the recording medium can be used for both 2D video playback and 3D video playback.
  • Some optical discs include a plurality of recording layers, such as so-called double-layer discs.
  • a series of stream data may be recorded over two layers.
  • a series of stream data may be recorded with other data in between.
  • the pickup of the optical disk drive must perform a focus jump associated with layer switching or a track jump associated with a radial movement of the disk during reading of data from the optical disk.
  • These jumps are generally called “long jumps” because of their long seek times.
  • the size of the extent that is read immediately before the long jump must be set sufficiently large so that the buffer in the video decoder does not underflow during the long jump. You must meet the conditions.
  • the 2D / left-view extent accessed immediately before the long jump must be sufficiently expanded to satisfy the above conditions for both 2D video and 3D video playback. That's fine.
  • the right-view extent having the same playback time as that extent must also be expanded.
  • the buffer capacity to be secured in the right video decoder 6705R is larger than a capacity sufficient to satisfy the above conditions. This is undesirable because it prevents further reduction of the buffer capacity in the 3D playback device 6705 and further improvement of the memory utilization efficiency.
  • the “video playback path” means a correspondence between each part of the video stream representing the video and the playback order.
  • separation of playback path means that a part to be played back of a video stream and its duplicated data are recorded on a recording medium and assigned to different playback paths.
  • the recording medium includes a base-view stream used for reproducing a stereoscopic video, and a dependent-view video used for reproducing a stereoscopic video in combination with the base-view stream. A stream is recorded.
  • the first file and the second file are further recorded on the recording medium according to one aspect of the present invention.
  • the first file refers to the base view stream at the time of reproducing the planar view video.
  • the second file refers to the base view stream when reproducing the stereoscopic video.
  • the base-view stream is divided into a plurality of base-view data blocks
  • the dependent-view stream is divided into a plurality of dependent-view data blocks.
  • the plurality of base-view data blocks and the plurality of dependent-view data blocks are alternately arranged.
  • a first file and a second file are recorded on this recording medium.
  • the first file refers to a plurality of base-view data blocks when reproducing a planar view video.
  • the second file refers to the alternately arranged base-view data block and dependent-view data block as a series of data when reproducing the stereoscopic video.
  • the base view stream portion common to the playback path of the stereoscopic video and the playback path of the stereoscopic video is referred to by two types of reference files.
  • These recording media allow the playback device to use the above-mentioned two types of reference files differently during playback of the planar video and playback of the stereoscopic video.
  • an extent group can be configured from the data block group so that the buffer capacity to be secured in the playback device can be further reduced, and the extent to each extent can be quickly set in the playback device. Access can be realized easily.
  • FIG. 2 is a schematic diagram showing a data structure on a BD-ROM disc 101 shown in FIG.
  • A is a schematic diagram showing a data structure of the file identification descriptor 241 of the lower directory shown in FIG. 2
  • (b) is a file identification descriptor 242 of the lower file shown in FIG.
  • FIG. 3 is a schematic diagram showing a directory / file structure of data stored in a volume area 202B of the BD-ROM disc 101 shown in FIG.
  • FIG. 7 is a schematic diagram showing an arrangement of TS packets belonging to elementary streams 701, 702, 703, and 704 in the multiplexed stream data 700 shown in FIG.
  • (A) is a schematic diagram of the TS packet sequence shown in FIG. 7
  • (b) is a schematic diagram of a source packet sequence composed of the TS packet sequence shown in (a) of FIG. It is.
  • FIG. 7 is a schematic diagram showing pictures of a base-view video stream 901 shown in FIG. 6A and a right-view video stream 902 shown in FIG. .
  • FIG. 7 is a schematic diagram showing pictures of a base-view video stream 901 shown in FIG. 6A and a depth map stream 1001 shown in FIG.
  • FIG. 8 is a schematic diagram showing details of the data structure of the video stream 1100 shown in FIG. 7.
  • FIG. 8 is a schematic diagram showing details of a method for storing a video stream 1201 in the PES packet sequence 1202 shown in FIG. 7. Assigned to each picture of the base-view video stream 1301 shown in (a) of FIG. 6 and the dependent-view video stream 1302 shown in (b) or (c) of FIG.
  • FIG. 10 is a schematic diagram showing two examples of decoding counters 1510 and 1520 assigned to each picture with a stream 1502. Physics on the BD-ROM disc 101 of the data block group belonging to each of the main TS, first sub-TS, and second sub-TS shown in (a), (b), and (c) of FIG. It is a schematic diagram which shows typical arrangement
  • FIG. 6 is a schematic diagram showing an arrangement of view data blocks D [0], D [1], D [2],.
  • A) is a schematic diagram showing a playback path when the playback time of a video stream differs between adjacent base-view data blocks and dependent-view data blocks on a certain BD-ROM disc. is there.
  • (B) shows the case where the playback time of the video stream is equal between the adjacent base-view data block and the dependent-view data block on the BD-ROM disc 101 according to the first embodiment of the present invention.
  • It is a schematic diagram which shows a reproduction
  • (A), (b), (c), (d), and (e) are the file 2D (01000.m2ts) 541, the first file DEP (02000.m2ts) 542, the first file shown in FIG.
  • FIG. 17 is a schematic diagram showing a playback path 2001 in 2D playback mode, a playback path 2002 in L / R mode, and a playback path 2003 in depth mode for the data block group shown in FIG.
  • FIG. 2 is a schematic diagram showing a first example of a physical arrangement of data block groups recorded before and after a layer boundary of a BD-ROM disc 101 according to Embodiment 1 of the present invention.
  • FIG. 22 is a schematic diagram showing a playback path 2201 in 2D playback mode and a playback path 2202 in L / R mode for the data block group shown in FIG. FIG.
  • FIG. 4 is a schematic diagram showing a group of data blocks recorded in an interleaved arrangement before and after a layer boundary of a certain BD-ROM disc, and a reproduction path in each reproduction mode corresponding thereto.
  • FIG. 6 is a schematic diagram showing a second example of the physical arrangement of data block groups recorded before and after the layer boundary of the BD-ROM disc 101 according to Embodiment 1 of the present invention.
  • FIG. 25 is a schematic diagram showing a playback path 2501 in 2D playback mode and a playback path 2502 in L / R mode for the data block group shown in FIG. FIG.
  • FIG. 6 is a schematic diagram showing a third example of the physical arrangement of data block groups recorded before and after the layer boundary of the BD-ROM disc 101 according to Embodiment 1 of the present invention.
  • FIG. 22 is a schematic diagram showing a playback path 2701 in 2D playback mode and a playback path 2702 in L / R mode for the data block group shown in FIG. (A) is a schematic diagram showing a configuration obtained by removing a depth map data block from the first example of the arrangement shown in FIG. (B) is a schematic diagram showing a playback path 2803 in 2D playback mode and a playback path 2804 in L / R mode for the data block group shown in (a).
  • 3 is a schematic diagram showing a data structure of PMT2910.
  • FIG. 6 is a schematic diagram showing a data structure of a 2D clip information file (01000.clpi) 531 shown in FIG. 5.
  • (A) is a schematic diagram showing a data structure of the entry map 3030 shown in FIG. 30, and (b) is an entry in the source packet group 3110 belonging to the file 2D541 shown in FIG. -It is a schematic diagram which shows what is matched with each EP_ID3105 by the map 3030.
  • FIG. (A) is a schematic diagram showing the data structure of the offset table 3041.
  • FIG. (B) is a schematic diagram showing the effective section of the offset entry.
  • (A) is a schematic diagram showing the data structure of the extent start point 3042 shown in FIG.
  • FIG. 30 shows the right-view clip information file (02000.clpi) 532 shown in FIG.
  • It is a schematic diagram which shows the data structure of the extent start point 3320 contained
  • (c) is the base view data block L1 extracted from the 1st file SS (01000.ssif) 544A by the reproducing
  • L2,... (D) is a schematic diagram showing the correspondence between right-view extents EXT2 [0], EXT2 [1],... Belonging to the first file DEP (02000.m2ts) 542 and the SPN 3322 indicated by the extent start point 3320. It is.
  • FIG. 4 is a schematic diagram showing an example of an arrangement of data block groups including 3D video content recorded on a BD-ROM disc 101 according to Embodiment 1 of the present invention.
  • FIG. 10 is a schematic diagram showing examples of entry points set in a base-view video stream 3510 and a dependent-view video stream 3520 in the BD-ROM disc 101 according to the first embodiment of the present invention.
  • FIG. 6 is a schematic diagram showing a data structure of a 2D playlist file (00001.mpls) 521 shown in FIG. 5.
  • FIG. 37 is a schematic diagram showing a data structure of PI # N shown in FIG. 36.
  • (A) and (b) are schematic diagrams showing the relationship between the two playback sections 3801 and 3802 to be connected when the connection condition 3704 shown in FIG. 37 is “5” and “6”, respectively.
  • FIG. The correspondence relationship between the PTS indicated by the 2D playlist file (00001.mpls) 521 shown in FIG. 36 and the portion reproduced from the file 2D (01000.m2ts) 541 shown in FIG. It is a schematic diagram shown.
  • FIG. 6 is a schematic diagram showing a data structure of a 3D playlist file (00002.mpls) 522 or (00003.mpls) 523 shown in FIG. 5. It is a schematic diagram which shows the data structure of STN table SS4030 shown by FIG. (A), (b), and (c) are the stream registration information sequence 4112 of the dependent-view video stream, the stream registration information sequence 4113 of the PG stream, and the stream of the IG stream shown in FIG. 41, respectively. 6 is a schematic diagram showing a data structure of a registration information column 4114.
  • FIG. 6 is a schematic diagram showing an index table 4410 in the index file (index.bdmv) 511 shown in FIG. 6 is a flowchart of a process for selecting a playlist file to be played back, which is performed when a 3D video title is selected by the playback device shown in FIG.
  • FIG. 2 is a functional block diagram in 2D playback mode of the playback device 102 shown in FIG. 1.
  • 47 is a list of system parameters in a player variable storage unit 4608 shown in FIG.
  • FIG. 47 is a functional block diagram of a system target decoder 4603 shown in FIG. 46.
  • FIG. 2 is a functional block diagram in 3D playback mode of the playback device 102 shown in FIG. 1.
  • FIG. 6 is a schematic diagram showing an index table 4410 in the index file (index.bdmv) 511 shown in FIG. 6 is a flowchart of a process for selecting a playlist file to be played back, which is performed when a 3D video title is selected by the play
  • FIG. 50 is a functional block diagram of a system target decoder 4903 shown in FIG. 49.
  • FIG. 50 is a functional block diagram of a plane adder 4910 shown in FIG. 49.
  • (A), (b) is a schematic diagram which shows the cropping process by the 2nd cropping process part 5132 shown by FIG. (A), (b), and (c) respectively show the PG planes of the left view and the right view generated by the cropping process shown in FIG. 52, and the 3D video perceived by the viewer from them.
  • It is a schematic diagram. 47 is a schematic diagram showing a playback processing system in the playback device 102 in the 2D playback mode shown in FIG. 46.
  • FIG. 20 is a schematic diagram showing a correspondence relationship between a 3D extent block 5510 including an extent and a playback path 5520 in 2D playback mode.
  • 7 is an example of a correspondence table between a jump distance S jump and a maximum jump time T jump for a BD-ROM disc according to Embodiment 1 of the present invention.
  • FIG. 50 is a schematic diagram showing a playback processing system in the playback device 102 in the 3D playback mode shown in FIG. 49.
  • (A), (b) shows the amount of data DA1, which is stored in each read buffer 4921, 4922 during 3D extent block playback processing in the L / R mode by the playback processing system shown in FIG. It is a graph which shows the change of DA2,
  • (c) is a schematic diagram which shows the correspondence between the 3D extent block 5810 and the reproduction
  • (A) and (b) show the data amounts DA1 and DA2 accumulated in the read buffers 4921 and 4922 during the 3D extent block playback processing in the depth mode by the playback processing system shown in FIG.
  • (C) is a schematic diagram showing the correspondence between the 3D extent block 5910 and the playback path 5920 in the depth mode.
  • FIG. 58 is a schematic diagram showing long jumps J LY , J BDJ 1, and J BDJ 2 that occur during playback processing in the L / R mode by the playback processing system shown in FIG. 57.
  • (A) and (b) are the respective cases when a 3D extent block consisting of a data block group having a size equal to or larger than the expanded minimum extent size is read out by the reproduction processing system shown in FIG. It is a graph which shows the change of accumulation
  • (A) is a schematic diagram showing a data block group of an interleaved arrangement including only multiplexed stream data on a BD-ROM disc according to Embodiment 1 of the present invention, and (b) is a BD-ROM. It is a schematic diagram which shows the data block group of the interleave arrangement
  • (A), (b) is a schematic diagram showing a left video picture and a right video picture used for displaying one scene of 3D video in the recording apparatus according to Embodiment 2 of the present invention, and (c) FIG.
  • FIG. 16 is a schematic diagram showing depth information calculated from these pictures by the video encoder 6301. It is a functional block diagram of the integrated circuit 3 by Embodiment 3 of this invention.
  • FIG. 66 is a functional block diagram showing a typical configuration of the stream processing unit 5 shown in FIG. 65.
  • FIG. 67 is a schematic diagram showing a peripheral structure when the switching unit 53 shown in FIG. 66 is a DMAC.
  • FIG. 66 is a functional block diagram showing a typical configuration of the AV output unit 8 shown in FIG. 65.
  • 69 is a schematic diagram showing details of a portion related to data output of the playback device 102 including the AV output unit 8 shown in FIG. 68.
  • FIG. 66 is a schematic diagram showing examples (a) and (b) of the topology of the control bus and the data bus in the integrated circuit 3 shown in FIG. 65.
  • 66 is a flowchart of a reproduction process performed by the reproduction device 102 using the integrated circuit 3 shown in FIG.
  • FIG. 72 is a flowchart showing details of steps S1-5 shown in FIG. 71.
  • FIG. (A)-(c) is a schematic diagram for demonstrating the reproduction principle of 3D image
  • FIG. It is a schematic diagram which shows the technique for ensuring the compatibility with a 2D reproducing
  • FIG. 1 is a schematic diagram showing a home theater system using a recording medium according to Embodiment 1 of the present invention.
  • This home theater system adopts a 3D video (stereoscopic video) playback method using parallax video, and particularly adopts a continuous separation method as a display method (refer to ⁇ Supplement> for details).
  • this home theater system uses a recording medium 101 as a playback target, and includes a playback device 102, a display device 103, shutter glasses 104, and a remote controller 105.
  • the recording medium 101 is a read-only Blu-ray Disc (registered trademark) (BD: Blu-ray Disc), that is, a BD-ROM disc.
  • the recording medium 101 may be another portable recording medium, for example, a semiconductor memory device such as an optical disk, a removable hard disk drive (HDD), an SD memory card, or the like according to another method such as a DVD.
  • the recording medium, that is, the BD-ROM disc 101 stores movie content by 3D video. This content includes a video stream representing each of the left view and the right view of the 3D video. The content may further include a video stream representing the depth map of the 3D video.
  • These video streams are arranged on the BD-ROM disc 101 in units of data blocks as described later, and are accessed using a file structure described later.
  • the video stream representing the left view or the right view is used by each of the 2D playback device and the 3D playback device to play back the content as 2D video.
  • a pair of video streams representing each of the left view and the right view, or a pair of video streams representing either the left view or the right view and each of the depth maps is obtained by the 3D playback device. Used to play back as 3D video.
  • the playback device 102 is equipped with a BD-ROM drive 121.
  • the BD-ROM drive 121 is an optical disk drive conforming to the BD-ROM system.
  • the playback apparatus 102 reads content from the BD-ROM disc 101 using the BD-ROM drive 121.
  • the playback device 102 further decodes the content into video data / audio data.
  • the playback device 102 is a 3D playback device, and the content can be played back as either 2D video or 3D video.
  • the operation modes of the playback device 102 when playing back 2D video and 3D video are referred to as “2D playback mode” and “3D playback mode”.
  • the video data includes a video frame of either a left view or a right view.
  • the video data includes both left view and right view video frames.
  • 3D playback mode can be further divided into left / right (L / R) mode and depth mode.
  • L / R mode a pair of video frames of the left view and the right view is reproduced from a combination of video streams representing the left view and the right view.
  • depth mode a video frame pair of a left view and a right view is reproduced from a combination of video streams representing either a left view or a right view and a depth map.
  • the playback device 102 has an L / R mode.
  • the playback device 102 may further include a depth mode.
  • the playback device 102 is connected to the display device 103 via an HDMI (High-Definition Multimedia Interface) cable 122.
  • the playback device 102 converts the video data / audio data into an HDMI video / audio signal, and transmits the converted video / audio data to the display device 103 via the HDMI cable 122.
  • either the left view or the right view video frame is multiplexed in the video signal.
  • both left-view and right-view video frames are multiplexed in the video signal in a time division manner.
  • the playback device 102 further exchanges CEC messages with the display device 103 through the HDMI cable 122. As a result, the playback device 102 can inquire of the display device 103 whether or not 3D video playback is supported.
  • the display device 103 is a liquid crystal display.
  • the display device 103 may be a flat panel display or projector of another type such as a plasma display and an organic EL display.
  • the display device 103 displays a video on the screen 131 according to the video signal, and generates a sound from a built-in speaker according to the audio signal.
  • the display device 103 can support 3D video playback. During the playback of 2D video, either the left view or the right view is displayed on the screen 131. When the 3D video is reproduced, the left view and the right view are alternately displayed on the screen 131.
  • the display device 103 includes a left / right signal transmission unit 132.
  • the left / right signal transmitting unit 132 transmits the left / right signal LR to the shutter glasses 104 by infrared rays or wirelessly.
  • the left / right signal LR indicates whether the video currently displayed on the screen 131 is the left view or the right view.
  • the display device 103 detects frame switching by identifying a left-view frame and a right-view frame from a control signal accompanying the video signal.
  • the display device 103 further causes the left / right signal transmission unit 132 to switch the left / right signal LR in synchronization with the detected frame switching.
  • the shutter glasses 104 include two liquid crystal display panels 141L and 141R and a left / right signal receiving unit 142.
  • the liquid crystal display panels 141L and 141R constitute left and right lens portions.
  • the left / right signal receiving unit 142 receives the left / right signal LR and sends signals to the left and right liquid crystal display panels 141L and 141R according to the change.
  • Each of the liquid crystal display panels 141L and 141R transmits or blocks light uniformly in its entirety according to the signal.
  • the left / right signal LR indicates left-view display
  • the left-eye liquid crystal display panel 141L transmits light
  • the right-eye liquid crystal display panel 141R blocks light.
  • the left / right signal LR indicates a right view display.
  • the two liquid crystal display panels 141L and 141R alternately transmit light in synchronization with the frame switching.
  • the left view is reflected only in the viewer's left eye
  • the right view is reflected only in the right eye.
  • the viewer perceives the difference between the images shown in each eye as binocular parallax with respect to the same stereoscopic object, so that the video looks stereoscopic.
  • the remote control 105 includes an operation unit and a transmission unit.
  • the operation unit includes a plurality of buttons. Each button is associated with each function of the playback device 102 or the display device 103, such as turning on / off the power or starting or stopping playback of the BD-ROM disc 101.
  • the operation unit detects pressing of each button by the user, and transmits the identification information of the button to the transmission unit by a signal.
  • the transmission unit converts the signal into an infrared or wireless signal IR and sends the signal IR to the playback device 102 or the display device 103.
  • each of the playback device 102 and the display device 103 receives the signal IR, specifies a button indicated by the signal IR, and executes a function associated with the button. In this way, the user can remotely operate the playback device 102 or the display device 103.
  • FIG. 2 is a schematic diagram showing a data structure on the BD-ROM disc 101.
  • a BCA (BursturCutting Area) 201 is provided at the innermost periphery of the data recording area on the BD-ROM disc 101. Access to the BCA is permitted only by the BD-ROM drive 121, and access by the application program is prohibited. Thereby, the BCA 201 is used for copyright protection technology.
  • tracks extend spirally from the inner periphery to the outer periphery.
  • the track 202 is schematically drawn in the horizontal direction. The left side represents the inner periphery of the disc 101, and the right side represents the outer periphery.
  • the track 202 includes a lead-in area 202A, a volume area 202B, and a lead-out area 202C in order from the inner periphery.
  • the lead-in area 202A is provided immediately outside the BCA 201.
  • the lead-in area 202A includes information necessary for accessing the volume area 202B by the BD-ROM drive 121, such as the size and physical address of data recorded in the volume area 202B.
  • the lead-out area 202C is provided at the outermost periphery of the data recording area and indicates the end of the volume area 202B.
  • the volume area 202B includes application data such as video and audio.
  • the volume area 202B is divided into small areas 202D called “sectors”.
  • the sector size is common, for example, 2048 bytes.
  • Each sector 202D is assigned a serial number in order from the tip of the volume area 202B. This serial number is called a logical block number (LBN) and is used as a logical address on the BD-ROM disc 101.
  • LBN logical block number
  • the volume area 202B can be accessed on a sector basis.
  • the logical address is substantially equal to the physical address. In particular, in a region where LBN is continuous, physical addresses are also substantially continuous. Therefore, the BD-ROM drive 121 can continuously read data from sectors having consecutive LBNs without causing the optical pickup to seek.
  • the data recorded in the volume area 202B is managed by a predetermined file system.
  • UDF Universal Disc Format
  • the file system may be ISO 9660.
  • the data recorded in the volume area 202B is expressed in a directory / file format. That is, these data can be accessed in directory units or file units.
  • FIG. 2 shows the data structure of the volume area 202B when UDF is used as the file system.
  • the volume area 202B generally includes areas in which a plurality of directories 213 to 215, a file set descriptor 211, and an end descriptor 212 are recorded.
  • Each “directory” 213, 214, 215 is a data group constituting the same directory.
  • the “file set descriptor” 211 indicates the LBN of the sector in which the file entry of the root directory 213 is recorded.
  • An “end descriptor” 212 indicates the end of the recording area of the file set descriptor 211.
  • Each directory 213, 214, 215 has a common data structure.
  • FIG. 2 shows the data structure of directory # 1214 as a typical example.
  • Directory # 1214 includes a file entry 221, a directory file 222, and lower file groups 223-225.
  • the “file entry” 221 includes a descriptor tag 231, an ICB (Information Control Block) tag 232, and an allocation descriptor 233.
  • “Descriptor tag” 231 indicates that the type of data including the descriptor tag is a file entry. For example, when the value of the descriptor tag is “261”, the data type is a file entry.
  • the “ICB tag” 232 indicates attribute information of the file entry itself.
  • the “allocation descriptor” 233 indicates the LBN of the sector in which the directory file 222 belonging to the directory # 1214 is recorded.
  • FIG. 3A is a schematic diagram showing the data structure of the file identification descriptor 241 in the lower directory.
  • the “file identifier descriptor of the lower directory” 241 is information for accessing a lower directory placed directly under the directory # 1.
  • the file identification descriptor 241 of the lower directory includes the lower directory identification information 311, the directory name length 312, the file entry address 313, and the directory name itself 314. .
  • the file entry address 313 indicates the LBN of the sector in which the file entry of the lower directory is recorded.
  • 3B is a schematic diagram showing the data structure of the file identification descriptor 242 of the lower file.
  • the “file identification descriptor of the lower file” 242 is information for accessing the lower file placed immediately under the directory # 1.
  • the file identification descriptor 242 of the lower file includes the identification information 321 of the lower file, the file name length 322, the file entry address 323, and the file name itself 324.
  • the file entry address 323 indicates the LBN of the sector in which the file entry of the lower file is recorded.
  • the “file entry of the lower file” includes address information of data constituting the entity of the lower file.
  • the file set descriptor 211 and the file identification descriptor of the lower directory / file are traced in order, the file / file of any directory / file recorded in the volume area 202B can be obtained. You can access the entry. As a specific example, it is assumed that a lower file # 1223 in the directory # 1214 is accessed. First, the file entry of the root directory 213 is identified from the file set descriptor 211, and the directory file of the root directory 213 is identified from the allocation descriptor in the file entry. Next, the file identification descriptor of the directory # 1214 is detected from the directory file, and the file entry 221 of the directory # 1214 is specified from the file entry address therein.
  • the directory file 222 of the directory # 1214 is specified from the allocation descriptor 233 in the file entry 221. Subsequently, in the directory file 222, the file entry of the lower file # 1223 is specified from the file entry address 323 in the file identification descriptor 242 of the lower file # 1.
  • FIG. 4 is a schematic diagram showing the data structure of the lower file # 1223 as a typical example of the common data structure.
  • lower file # 1223 includes extents 410-430 and file entry 400.
  • the “extents” 410, 420, 430,... are generally a plurality, and each is a data string in which logical addresses on the disk, that is, LBNs are continuous.
  • the extents 410, 420, 430,... Constitute the lower file # 1223.
  • the “file entry” 400 includes a descriptor tag 401, an ICB tag 402, and allocation descriptors 411-413.
  • “Descriptor tag” 401 indicates that the type of data 400 including the descriptor tag 401 is a file entry.
  • An “ICB tag” 402 indicates attribute information of the file entry 400 itself.
  • Each of the “allocation descriptors” 411, 412, 413,... Is provided for each extent 410, 420, 430,..., And the arrangement of each extent 410-430 on the volume area 202B, specifically each The extent size and the LBN at its tip are shown.
  • the arrangement of one extent may be indicated in the whole of the plurality of allocation descriptors. As shown by the dashed arrows in FIG. 4, each extent 410, 420,...
  • each allocation descriptor 411, 412 Can be accessed by referring to each allocation descriptor 411, 412,.
  • the upper 2 bits of each allocation descriptor 411,... Indicate whether or not extents 410,... Are actually recorded in the LBN sector indicated by the allocation descriptor. That is, when the upper 2 bits are “0”, it indicates that the extent has been allocated and recorded for the sector, and when it is “1”, the extent has been allocated to the sector. Indicates unrecorded.
  • the file system for the volume area 202B Similar to the above-described file system using UDF, in the file system for the volume area 202B, generally, when each file recorded in the volume area 202B is divided into a plurality of extents, Information indicating the arrangement of extents is recorded together with the volume area 202B. By referring to the information, it is possible to know the arrangement of each extent, particularly its logical address.
  • FIG. 5 is a schematic diagram showing a directory / file structure of data stored in the volume area 202B of the BD-ROM disc 101.
  • a BD movie (BDMV: BD ⁇ ⁇ ⁇ ⁇ ⁇ Movie) directory 501 is placed immediately under a root (ROOT) directory 500.
  • An index file (index.bdmv) 511 and a movie object file (MovieObject.bdmv) 512 are placed immediately below the BDMV directory 501.
  • the index file 511 is information for managing the entire content recorded on the BD-ROM disc 101.
  • the information includes information for causing the playback device 102 to recognize the content, and an index table.
  • the index table is a correspondence table between titles constituting the content and programs for controlling the operation of the playback device 102.
  • the program is called “object”.
  • Object types include movie objects and BD-J (BD Java (registered trademark)) objects.
  • the movie object file 512 generally includes a plurality of movie objects. Each movie object includes a sequence of navigation commands.
  • the navigation command is a control command for causing the playback device 102 to execute playback processing similar to playback processing by a general DVD player.
  • Types of navigation commands include, for example, an instruction to read a playlist file corresponding to a title, an instruction to reproduce an AV stream file indicated by the playlist file, and an instruction to transition to another title.
  • the navigation command is written in an interpreted language, and is interpreted by an interpreter incorporated in the playback apparatus 102, that is, a job control program, and causes the control unit to execute a desired job.
  • a navigation command consists of an opcode and an operand.
  • the opcode indicates the type of operation to be performed by the playback apparatus 102, such as title branching, playback, and computation.
  • the operand indicates identification information of the operation target such as a title number.
  • the control unit of the playback device 102 calls each movie object in accordance with a user operation, and executes navigation commands included in the movie object in the order of the columns.
  • the playback device 102 first displays a menu on the display device 103 and allows the user to select a command, as in a general DVD player.
  • the playback device 102 dynamically changes the progress of the video to be played back, such as starting / stopping playback of the title and switching to another title.
  • BDMV directory 501 As shown in FIG. 5, immediately below the BDMV directory 501, a playlist (PLAYLIST) directory 520, a clip information (CLIPINF) directory 530, a stream (STREAM) directory 540, a BD-J object (BDJO: BD Java) An Object) directory 550 and a Java archive (JAR: Java ⁇ ⁇ ⁇ ⁇ ⁇ Archive) directory 560 are placed.
  • PLAYLIST playlist
  • CLIPINF clip information
  • STREAM stream directory
  • BDJO BD Java
  • An Object Java archive
  • JAR Java ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ Archive
  • AV stream files (01000.m2ts) 541, (02000.m2ts) 542, (03000.m2ts) 543, and a stereoscopic interleaved file (SSIF).
  • Directory 544 is located. Two types of AV stream files (01000.ssif) 544A and (02000.ssif) 544B are placed immediately below the SSIF directory 544.
  • AV stream file refers to an image content recorded on the BD-ROM disc 101 and arranged in a file format determined by the file system.
  • the substance of video content generally means stream data in which various stream data representing video, audio, subtitles, and the like are multiplexed.
  • the multiplexed stream data is roughly classified into a main transport stream (TS) and a sub-TS depending on the type of the built-in primary video stream.
  • the “main TS” includes a base-view video stream as a primary video stream.
  • the “base-view video stream” can be reproduced independently and represents a 2D video.
  • the “sub TS” includes a dependent-view video stream as a primary video stream.
  • a “dependent-view video stream” requires a base-view video stream for playback, and represents a 3D video in combination with the base-view video stream.
  • the types of dependent-view video streams include a right-view video stream, a left-view video stream, and a depth map stream.
  • the “right-view video stream” is a video that represents a right view of the 3D video when the 2D video represented by the base-view video stream is used as a left view of the 3D video by a playback device in the L / R mode. Used as a stream.
  • the “left-view video stream” is the opposite.
  • the “depth map stream” is a depth map of the 3D video when the 2D video represented by the base-view video stream is used as a projection of the 3D video onto the virtual 2D screen by the playback device in the depth mode. Used as stream data to represent.
  • file 2D file dependent (hereinafter abbreviated as file DEP), and interleaved file (hereinafter abbreviated as file SS), depending on the type of built-in multiplexed stream data. It is divided into.
  • file DEP file dependent
  • file SS interleaved file
  • “File 2D” is an AV stream file used for 2D video playback in the 2D playback mode, and includes a main TS.
  • file DEP includes a sub-TS.
  • file SS includes a pair of a main TS and a sub TS representing the same 3D video. In particular, the file SS shares its main TS with any file 2D and shares its sub-TS with any file DEP.
  • the main TS can be accessed as both the file SS and the file 2D
  • the sub-TS can be accessed as both the file SS and the file DEP.
  • file cross-linking A mechanism for sharing a series of data recorded on the BD-ROM disc 101 in different files and making them accessible as any file is called “file cross-linking”.
  • the first AV stream file (01000.m2ts) 541 is the file 2D
  • the file 2D and the file DEP are placed directly under the STREAM directory 540.
  • the first AV stream file that is, the base-view video stream included in the file 2D541 represents a left view of 3D video.
  • the dependent-view video stream included in the second AV stream file, that is, the first file DEP542 is a right-view video stream.
  • the third AV stream file, that is, the dependent-view video stream included in the second file DEP543 is a depth map stream.
  • the fourth AV stream file (01000.ssif) 544A and the fifth AV stream file (02000.ssif) 544B are both files SS.
  • the file SS is placed directly under the SSIF directory 544.
  • the fourth AV stream file that is, the first file SS 544A shares the main TS, particularly the base-view video stream, with the file 2D 541, and shares the sub-TS, particularly the right-view video stream, with the first file DEP 542.
  • the fifth AV stream file, ie, the second file SS 544B shares the main TS, particularly the base-view video stream, with the file 2D 541, and shares the sub-TS, particularly the depth map stream, with the second file DEP 543.
  • the “clip information file” is associated with the file 2D and the file DEP on a one-to-one basis in the AV stream file, and particularly includes an entry map of each file.
  • the “entry map” is a correspondence table between the display time of each scene represented by the file 2D or the file DEP and the address in each file in which the scene is recorded.
  • a file associated with the file 2D is referred to as a “2D clip information file”
  • a file associated with the file DEP is referred to as a “dependent view clip information file”.
  • the corresponding dependent-view clip information file is referred to as a “right-view clip information file”.
  • the corresponding dependent view clip information file is referred to as a “depth map clip information file”.
  • the first clip information file (01000.clpi) 531 is a 2D clip information file and is associated with the file 2D541.
  • the second clip information file (02000.clpi) 532 is a right-view clip information file and is associated with the first file DEP542.
  • the third clip information file (03000.clpi) 533 is a depth map clip information file and is associated with the second file DEP543.
  • the “playlist file” defines the playback path of the AV stream file, that is, the playback target portion of the AV stream file and the playback order thereof.
  • the “2D playlist file” defines the playback path of the file 2D.
  • the “3D playlist file” defines the playback path of the file 2D for the playback device in the 2D playback mode, and the playback path of the file SS for the playback device in the 3D playback mode. In the example shown in FIG.
  • the first playlist file (00001.mpls) 521 is a 2D playlist file and defines the playback path of the file 2D541.
  • the second playlist file (00002.mpls) 522 is a 3D playlist file, which defines a playback path for the file 2D541 for a playback device in 2D playback mode, and for a playback device in L / R mode. Defines the playback path of the first file SS 544A.
  • the third playlist file (00003.mpls) 523 is a 3D playlist file, which defines the playback path of the file 2D541 for playback devices in 2D playback mode, and for playback devices in depth mode.
  • the playback path of the second file SS 544B is defined.
  • a BD-J object file (XXXXX.bdjo) 551 is placed in the BDJO directory 550.
  • the BD-J object file 551 includes one BD-J object.
  • the BD-J object is a bytecode program for causing a Java virtual machine installed in the playback apparatus 102 to execute title playback processing and graphics video rendering processing.
  • the BD-J object is described in a compiler type language such as Java language.
  • the BD-J object includes an application management table and identification information of a playlist file to be referenced.
  • the application management table is a list of Java application programs to be executed by the Java virtual machine and their execution timing (life cycle).
  • the identification information of the playlist file to be referenced is information for identifying the playlist file corresponding to the reproduction target title.
  • the Java virtual machine calls each BD-J object according to a user operation or an application program, and executes the Java application program according to an application management table included in the BD-J object.
  • the playback device 102 dynamically changes the progress of the video of each title to be played back, or causes the display device 103 to display the graphics video independently of the title video.
  • the JAR file 561 generally includes a plurality of Java application program bodies to be executed according to the application management table indicated by the BD-J object.
  • the Java application program is a bytecode program written in a compiler type language such as the Java language, like the BD-J object.
  • the types of Java application programs include those that cause the Java virtual machine to execute title playback processing and those that cause the Java virtual machine to execute graphics video rendering processing.
  • the JAR file 561 is a Java archive file, and is expanded in its internal memory when it is read into the playback device 102. Thereby, a Java application program is stored in the memory.
  • FIG. 6 (a) is a schematic diagram showing elementary streams multiplexed on the main TS on the BD-ROM disc 101.
  • the main TS is a digital stream in the MPEG-2 transport stream (TS) format and is included in the file 2D541 shown in FIG.
  • the main TS includes a primary video stream 601 and primary audio streams 602A and 602B.
  • the main TS may include presentation graphics (PG) streams 603A and 603B, an interactive graphics (IG) stream 604, a secondary audio stream 605, and a secondary video stream 606.
  • PG presentation graphics
  • IG interactive graphics
  • the primary video stream 601 represents the main video of the movie
  • the secondary video stream 606 represents the sub-video
  • the main video means a main video of content such as a main video of a movie, for example, one displayed on the entire screen.
  • the sub-picture means a picture that is displayed on the screen simultaneously with the main picture by using a picture-in-picture method, such as a picture that is displayed on a small screen in the main picture.
  • Both the primary video stream 601 and the secondary video stream 606 are base-view video streams.
  • Each video stream 601 and 606 is encoded by a moving image compression encoding method such as MPEG-2, MPEG-4 AVC, or SMPTE VC-1.
  • Primary audio streams 602A and 602B represent the main sound of the movie.
  • Secondary audio stream 605 represents the sub audio to be mixed with the main audio.
  • Each audio stream 602A, 602B, 605 is AC-3, Dolby Digital Plus (Dolby Digital Plus: "Dolby Digital” is a registered trademark), MLP (Meridian Lossless Packing: registered trademark), DTS (Digital Theater System) : Registered trademark), DTS-HD, or linear PCM (Pulse Code Modulation).
  • Each PG stream 603A, 603B represents a graphics video to be displayed superimposed on the video represented by the primary video stream 601, such as graphics subtitles.
  • the IG stream 604 represents a graphics component for a graphic user interface (GUI) for configuring an interactive screen on the screen 131 of the display device 103 and its arrangement.
  • GUI graphic user interface
  • Elementary streams 601-606 are identified by packet identifiers (PID). For example, PID assignment is as follows. Since one main TS includes only one primary video stream, the hexadecimal value 0x1011 is assigned to the primary video stream 601. When up to 32 other elementary streams can be multiplexed for each type in one main TS, any one of 0x1100 to 0x111F is assigned to the primary audio streams 602A and 602B. One of 0x1200 to 0x121F is assigned to the PG streams 603A and 603B. Any of 0x1400 to 0x141F is assigned to the IG stream 604. The secondary audio stream 605 is assigned any one of 0x1A00 to 0x1A1F. Any number from 0x1B00 to 0x1B1F is assigned to the secondary video stream 606.
  • PID assignment is as follows. Since one main TS includes only one primary video stream, the hexadecimal value 0x1011 is assigned to the primary video
  • FIG. 6 is a schematic diagram showing elementary streams multiplexed on the first sub-TS on the BD-ROM disc 101.
  • the first sub-TS is multiplexed stream data in the MPEG-2 TS format, and is included in the first file DEP542 shown in FIG.
  • the first sub-TS includes a primary video stream 611.
  • the first sub-TS may include a left-view PG stream 612A, 612B, a right-view PG stream 613A, 613B, a left-view IG stream 614, a right-view IG stream 615, and a secondary video stream 616.
  • the primary video stream 611 is a right-view video stream.
  • the primary video stream 601 in the main TS represents a left view of 3D video
  • the primary video stream 611 represents the right view of the 3D video.
  • a PG stream pair 612A + 613A, 612B + 613B of the left view and the right view represents a pair of the left view and the right view when a graphics image such as a caption is displayed as a 3D image.
  • the IG stream pair 614 and 615 of the left view and the right view represents a pair of the left view and the right view when the graphics image of the interactive screen is displayed as a 3D image.
  • the secondary video stream 616 is a right-view video stream. When the secondary video stream 606 in the main TS represents a left view of 3D video, the secondary video stream 616 represents a right view of the 3D video.
  • PID allocation to elementary streams 611-616 is as follows.
  • the primary video stream 611 is assigned 0x1012.
  • any one of 0x1220 to 0x123F is assigned to the left view PG stream 612A, 612B, and the right view PG stream 613A
  • One of 0x1240 to 0x125F is assigned to 613B.
  • Any of 0x1420 to 0x143F is assigned to the left view IG stream 614, and any of 0x1440 to 0x145F is assigned to the right view IG stream 615.
  • One of 0x1B20 to 0x1B3F is assigned to the secondary video stream 616.
  • FIG. 6 is a schematic diagram showing elementary streams multiplexed on the second sub-TS on the BD-ROM disc 101.
  • the second sub-TS is multiplexed stream data in the MPEG-2 TS format, and is included in the second file DEP543 shown in FIG.
  • the second sub-TS includes a primary video stream 621.
  • the second sub-TS may include depth map PG streams 623A and 623B, depth map IG stream 624, and secondary video stream 626.
  • the primary video stream 621 is a depth map stream, and represents 3D video in combination with the primary video stream 601 in the main TS.
  • Depth map PG streams 623A and 623B are PG streams representing the depth map of the 3D video when the 2D video represented by the PG streams 623A and 623B in the main TS is used as a projection of the 3D video onto a virtual 2D screen.
  • Used as The depth map IG stream 624 is used as an IG stream representing the depth map of the 3D video when the 2D video represented by the IG stream 604 in the main TS is used as a projection of the 3D video onto the virtual 2D screen.
  • the secondary video stream 626 is a depth map stream, and represents 3D video in combination with the secondary video stream 606 in the main TS.
  • PID assignment to the elementary streams 621 to 626 is as follows.
  • the primary video stream 621 is assigned 0x1013.
  • any one from 0x1260 to 0x127F is assigned to the depth map PG streams 623A and 623B.
  • Any one of 0x1460 to 0x147F is assigned to the depth map IG stream 624.
  • the secondary video stream 626 is assigned any one of 0x1B40 to 0x1B5F.
  • FIG. 7 is a schematic diagram showing the arrangement of TS packets belonging to the elementary streams 701, 702, 703, and 704 in the main TS 700.
  • each frame 701A is first converted into a single PES (Packetized Elementary Stream) packet 711.
  • PES Packetized Elementary Stream
  • each PES packet 711 is generally converted into a plurality of TS packets 721.
  • the audio stream 702, the PG stream 703, and the IG stream 704 are once converted into a sequence of PES packets 712, 713, and 714, and then converted into a sequence of TS packets 722, 723, and 724, respectively.
  • TS packets 721, 722, 723, and 724 obtained from the elementary streams 701, 702, 703, and 704 are multiplexed on a single stream data, that is, the main TS 700 by time division.
  • each TS packet 801 is a 188-byte packet, and includes a 4-byte TS header 801H and a 184-byte TS payload 801P.
  • Each of the PES packets 711 to 714 shown in FIG. 7 is generally divided into a plurality of parts, and each part is stored in a different TS payload 801P.
  • the TS header 801H stores the PID of the elementary stream to which the data stored in the TS payload 801P of the same TS packet 801 belongs.
  • FIG. 8 is a schematic diagram of a source packet sequence composed of TS packet sequences of the main TS.
  • the TS packet 801 shown in FIG. 8A is recorded on the BD-ROM disc 101, as shown in FIG. 8B, the TS packet 801 has a 4-byte length.
  • a header (TP_Extra_Header) 802H is added.
  • a 192-byte packet 802 composed of a combination of the header 802H and the TS packet 802P is referred to as a “source packet”.
  • the header 802H of the source packet 802 includes ATS (Arrival_Time_Stamp).
  • ATS indicates that when the source packet 802 is sent from the BD-ROM disc 101 to the system target decoder in the playback apparatus 102, the TS packet 802P is extracted from the source packet 802 and the system target Indicates the time at which transfer to the PID filter in the decoder should begin. Details of the use of the ATS by the system target decoder and the playback device 102 will be described later.
  • FIG. 8 is a schematic diagram of sectors on the volume area 202B of the BD-ROM disc 101 in which a series of source packets 802 are continuously recorded.
  • 32 source packets 802 recorded in three consecutive sectors 811, 812, 813 are referred to as “Aligned Unit” 820.
  • the playback device 102 reads source packets 802 from the BD-ROM disc 101 for each aligned unit 820, that is, 32. In addition, the sector groups 811, 812, 813,.
  • the BD-ROM drive 121 performs error correction processing for each ECC block 830.
  • the sub-TS also has a packet structure similar to the packet structure of the main TS shown in FIGS. However, the sub TS has a video stream data structure different from that of the main TS.
  • FIG. 9 is a schematic diagram showing pictures of the base-view video stream 901 and the right-view video stream 902 in order of display time.
  • base-view video stream 901 includes pictures 910, 911, 912,..., 919
  • right-view video stream 902 includes pictures 920, 921, 922,.
  • Each picture 910-919, 920-929 represents one frame or one field, and is compressed by a moving picture compression encoding method such as MPEG-2, MPEG-4, or AVC.
  • inter-picture predictive coding For compression of each picture by the above encoding method, redundancy in the spatial direction and temporal direction of the picture is used.
  • intra-picture coding coding of a picture that uses only redundancy in the spatial direction.
  • inter-picture predictive coding coding of a picture using redundancy in the time direction, that is, data closeness between a plurality of pictures in the display order.
  • inter-picture predictive coding first, another picture whose display time is before or after the picture to be coded is set as a reference picture. Next, a motion vector is detected between the picture to be encoded and the reference picture, and motion compensation is performed using the motion vector. Further, a difference value between the motion-compensated picture and the picture to be encoded is obtained, and redundancy in the spatial direction is removed from the difference value.
  • the data amount of each picture is compressed.
  • a picture included in the base-view video stream 901 is generally divided into a plurality of GOPs 931 and 932.
  • GOP refers to a sequence of a plurality of consecutive pictures starting from an I (Intra) picture.
  • I picture refers to a picture compressed by intra-picture coding.
  • a GOP includes a P (Predictive) picture and a B (Bidirectionally Predivtive) picture in addition to an I picture.
  • P picture refers to a picture compressed by inter-picture predictive coding, in which one I picture or another P picture whose display time is earlier than that is used as a reference picture.
  • B picture refers to a picture compressed by inter-picture predictive coding, in which two I-pictures or P-pictures whose display time is earlier or later are used as reference pictures.
  • B pictures those used as reference pictures in inter-picture predictive coding for other pictures are particularly referred to as “Br (reference B) pictures”.
  • the pictures in each GOP 931 and 932 are compressed in the following order.
  • the leading picture is first compressed into the I 0 picture 910.
  • the subscript number indicates a serial number assigned to each picture in order of display time.
  • the fourth picture is compressed into a P 3 picture 913 using the I 0 picture 910 as a reference picture.
  • each arrow shown in FIG. 9 indicates that the leading picture is a reference picture for the trailing picture.
  • the second and third pictures are compressed into Br 1 picture 911 and Br 2 picture 912, respectively, using I 0 picture 910 and P 3 picture 913 as reference pictures.
  • the seventh picture is compressed into a P 6 picture 916 using the P 3 picture 913 as a reference picture.
  • the fourth and fifth pictures are compressed into Br 4 picture 914 and Br 5 picture 915, respectively, using P 3 picture 913 and P 6 picture 916 as reference pictures.
  • the second GOP 932 the first picture is first compressed to an I 7 picture 917, and then the third picture is compressed to a P 9 picture 919 using the I 7 picture 917 as a reference picture.
  • the second picture is compressed to Br 8 picture 918 using I 7 picture 917 and P 9 picture 919 as reference pictures.
  • each GOP 931 and 932 always includes an I picture at the head thereof, so that the picture can be decoded for each GOP.
  • the I 0 picture 910 is first decoded alone.
  • the P 3 picture 913 is decoded using the decoded I 0 picture 910.
  • the Br 1 picture 911 and the Br 2 picture 912 are decoded using the decoded I 0 picture 910 and P 3 picture 913.
  • Subsequent picture groups 914, 915,... are similarly decoded.
  • the base-view video stream 901 can be decoded independently, and further can be randomly accessed on a GOP basis.
  • pictures 920-929 in the right-view video stream 902 are compressed by inter-picture predictive coding.
  • the encoding method is different from the encoding method of the pictures 910 to 919 in the base-view video stream 901, and uses the redundancy between the left and right images in addition to the redundancy in the time direction of the images.
  • the reference picture for each picture 920-929 is selected not only from the same stream 902, but also from the base-view video stream 901, as indicated by the arrows in FIG.
  • each picture 920-929 in the right-view video stream 902 and its reference picture selected from the base-view video stream 901 have substantially the same display time.
  • These pictures represent a pair of right view and left view of the same scene of 3D video, that is, parallax video.
  • the pictures 920 to 929 in the right-view video stream have a one-to-one correspondence with the pictures 910 to 919 in the base-view video stream 901.
  • the right-view video stream 902 is divided into GOP units, like the base-view video stream 901.
  • the first picture in the right-view video stream 902 is compressed into a P 0 picture 920 using the I 0 picture 910 in the base-view video stream 901 as a reference picture.
  • these pictures 910 and 920 represent the left view and the right view of the top frame of the 3D video.
  • the fourth picture is compressed into a P 3 picture 923 using the P 0 picture 920 and the P 3 picture 913 in the base-view video stream 901 as reference pictures.
  • the second picture is compressed into the B 1 picture 921 using the Br 1 picture 911 in the base-view video stream 901 as a reference picture.
  • the third picture is compressed into a B 2 picture 922 using the Br 2 picture 912 in the base-view video stream 901 as a reference picture.
  • a picture in the base-view video stream 901 whose display time is substantially the same as that picture is used as a reference picture.
  • MPEG-4 AVC / H. H.264 modified standards are known.
  • MVC was established in July 2008 by JVT (Joint Video Team), a joint project between ISO / IEC MPEG and ITU-T VCEG, and is used to encode videos that can be viewed from multiple viewpoints. Is the standard.
  • JVT Joint Video Team
  • MVC not only the similarity in the temporal direction of video but also the similarity between videos with different viewpoints is used for inter-picture predictive coding.
  • the video compression rate is higher than the predictive coding in which the video viewed from each viewpoint is individually compressed.
  • each picture in the base-view video stream 901 is used as a reference picture for compression of each picture in the right-view video stream 902. Therefore, unlike the base-view video stream 901, the right-view video stream 902 cannot be decoded alone.
  • the difference between parallax images is generally small, that is, the correlation between the left view and the right view is high. Therefore, each picture in the right-view video stream 902 is generally significantly higher in compression rate than each picture in the base-view video stream 901, that is, the amount of data is significantly smaller.
  • FIG. 10 is a schematic diagram showing pictures of the base-view video stream 901 and the depth map stream 1001 in order of display time.
  • the base-view video stream 901 is similar to that shown in FIG. Therefore, the description about the detail uses the description about FIG.
  • the depth map stream 1001 includes depth maps 1010, 1011, 1012,.
  • Depth maps 1010 to 1019 have a one-to-one correspondence with the pictures 910 to 919 of the base-view video stream 901 and represent depth maps for 2D video of one frame or one field indicated by each picture.
  • Each of the depth maps 1010 to 1019 is compressed by a moving image compression encoding method such as MPEG-2 or MPEG-4 AVC, like the respective pictures 910 to 919 in the base-view video stream 901.
  • inter-picture predictive coding is used in the coding method. That is, each depth map is compressed using another depth map as a reference picture.
  • the head of the depth map group corresponding to the first GOP 931 is compressed into the I 0 picture 1010.
  • the subscript number indicates a serial number assigned to each picture in order of display time.
  • the fourth depth map is compressed as P 3 picture 1013 as reference picture I 0 picture 1010.
  • the second and third depth maps are compressed into B 1 picture 1011 and B 2 picture 1012 using I 0 picture 1010 and P 3 picture 1013 as reference pictures, respectively.
  • the seventh depth map is compressed into a P 6 picture 1016 using the P 3 picture 1013 as a reference picture.
  • the fourth and fifth depth maps are compressed into B 4 picture 1014 and B 5 picture 1015 using P 3 picture 1013 and P 6 picture 1016 as reference pictures, respectively.
  • the first depth map is first compressed to the I 7 picture 1017, and then the third depth map is compressed to the P 9 picture 1019 using the I 7 picture 1017 as a reference picture.
  • the second depth map is compressed into a B 8 picture 1018 using the I 7 picture 1017 and the P 9 picture 1019 as reference pictures.
  • the depth map stream 1001 is divided into GOP units similarly to the base-view video stream 901, and each GOP always includes an I picture at its head. Therefore, the depth map can be decoded for each GOP. For example, the I 0 picture 1010 is first decoded alone, and then the P 3 picture 1013 is decoded using the decoded I 0 picture 1010. Subsequently, the B 1 picture 1011 and the B 2 picture 1012 are decoded using the decoded I 0 picture 1010 and P 3 picture 1013. Subsequent picture groups 1014, 1015,... Are similarly decoded. In this way, the depth map stream 1001 can be decoded independently. However, since the depth map itself is only information representing the depth of each part of the 2D video for each pixel, the depth map stream 1001 cannot be used alone for video playback.
  • the right-view video stream 902 and the depth map stream 1001 are compressed using the same encoding method.
  • the depth map stream 1001 is also encoded in the MVC format.
  • the playback device 102 can smoothly switch between the L / R mode and the depth mode while maintaining the encoding system constant during playback of 3D video.
  • FIG. 11 is a schematic diagram showing details of the data structure of the video stream 1100.
  • the video stream 1100 may be a base-view video stream 901 or a dependent-view video stream 902, 1001.
  • GOP 1110, 1120 constituting the actual video stream 1100 in addition to GOP entities 930, 940 similar to those shown in FIG. 912, etc. are assigned individually.
  • a combination of the header and the entity of each picture is called a “video access unit (VAU)”. That is, in each GOP 1110, 1120, one VAU 1111, 1112,... Is configured for each picture.
  • Each picture can be read from the video stream 1100 in units of VAU.
  • VAU video access unit
  • the first VAU (VAU # 1) 1111 of each GOP 1110, 1120 includes an entity of the I 0 picture 910 and a header.
  • the entity of the I 0 picture 910 is stored in the compressed picture data 1111E.
  • the header includes an access unit (AU) identification code 1111A, a sequence header 1111B, a picture header 1111C, and supplementary data 1111D.
  • the AU identification code 1111A is a predetermined code indicating the tip of each VAU.
  • the sequence header 1111B is also called a GOP header, and includes information common to the entire GOP 1110, for example, resolution, frame rate, aspect ratio, and bit rate.
  • the picture header 1111C includes information necessary for decoding the I 0 picture 910, such as the type of encoding method.
  • the supplementary data 1111D includes additional information related to other than decoding of the I 0 picture 910, for example, character information indicating closed captioning, and time code information.
  • the second and subsequent VAUs of each GOP 1110, 1120 are identical in structure to VAU # 11111 except that the header does not include the sequence header 1111B.
  • VAU # 21112 includes a substance and headers P 3 picture 913. The specific contents of each part of the VAUs 1111 and 1112 differ depending on the encoding method of the video stream 1100.
  • the VAUs 1111 and 1112 are composed of a plurality of NAL units.
  • the AU identification code 1111A, the sequence header 1111B, the picture header 1111C, the supplementary data 1111D, and the compressed picture data 111E are respectively an AU delimiter (Access Unit Delimiter), SPS (sequence parameter set), PPS ( It corresponds to a picture parameter set), SEI (Supplemental Enhancement Information), and a view component.
  • FIG. 12 is a schematic diagram showing details of a method for storing the video stream 1201 in the PES packet sequence 1202.
  • the video stream 1201 may be a base-view video stream 901 or a dependent-view video stream 902, 1001.
  • the pictures are multiplexed in the coding order instead of the display time order. That is, as shown in FIG. 12, in the VAU constituting the video stream 1201, an I 0 picture 1210, a P 3 picture 1211, a B 1 picture 1212, a B 2 picture 1213,. Has been.
  • the subscript number indicates a serial number assigned to each picture in order of display time.
  • the coding of P 3 picture 1211 is used as reference picture I 0 picture 1210, as in the coding of the B 1 picture 1212 and B 2 picture 1213 I 0 picture 1210 and P 3 picture 1211 and the reference picture Used.
  • Each of these VAUs is stored in different PES packets 1220, 1221, 1222, 1223,.
  • Each PES packet 1220 includes a PES payload 1220P and a PES header 1220H.
  • the VAU is stored in the PES payload 1220P.
  • the PES header 1220H includes a display time (PTS: Presentation Time-Stamp) of a picture stored in the PES payload 1220P of the same PES packet 1220, and a decoding time (DTS: Decoding Time-Stamp) of the picture.
  • PTS Presentation Time-Stamp
  • DTS Decoding Time-Stamp
  • each PES payload of a series of PES packets includes a PTS of data stored in the PES payload of the PES packet.
  • FIGS. 13A and 13B show the relationship between the PTS and DTS assigned to each picture for each of the base-view video stream 1301 and the dependent-view video stream 1302. It is a schematic diagram. Referring to FIG. 13, between the video streams 1301 and 1302, the same PTS and the same DTS are assigned to a pair of pictures representing the same frame or field of the 3D video. For example, the first frame or field of the 3D video is reproduced from a combination of the I 1 picture 1311 of the base-view video stream 1301 and the P 1 picture 1321 of the dependent-view video stream 1302. Therefore, PTS is equal and DTS is equal in these picture pairs 1311 and 1321.
  • the subscript number indicates a serial number assigned to each picture in the order of DTS.
  • the dependent-view video stream 1302 is a depth map stream
  • the P 1 picture 1321 is replaced with an I picture representing a depth map for the I 1 picture 1311.
  • the second picture of the video stream 1301 and 1302, i.e., equal PTS in pairs of P 2 pictures 1312,1322, and DTS are equal.
  • both PTS and DTS are common. The same applies to the pair of Br 4 picture 1314 and B 4 picture 1324.
  • a pair of VAUs including pictures having the same PTS and the same DTS between the base-view video stream 1301 and the dependent-view video stream 1302 is referred to as “3D VAU”.
  • the base-view video stream 1301 and the dependent-view video stream 1302 are provided to the decoder in the playback device 102 in the 3D playback mode in units of 3D and VAU. It can be easily processed in parallel. This ensures that a pair of pictures representing the same frame or field of the 3D video is processed in parallel by the decoder.
  • the sequence header includes the same resolution, the same frame rate, and the same aspect ratio. In particular, the frame rate is equal to the value when the base-view video stream 1301 is decoded alone in the 2D playback mode.
  • FIG. 14 is a schematic diagram showing the data structure of supplementary data 1111D shown in FIG.
  • the supplementary data 111D corresponds to a kind of NAL unit “SEI” particularly in MPEG-4 AVC.
  • supplemental data 1111D includes decoding switch information 1401.
  • Decoding switch information 1401 is included in each VAU for both the base-view video stream and the dependent-view video stream.
  • the decoding switch information 1401 is information for allowing the decoder in the playback device 102 to easily specify the VAU to be decoded next.
  • the decoder alternately decodes the base-view video stream and the dependent-view video stream in units of VAU.
  • each VAU preferably includes decoding switch information 1401 in addition to the DTS.
  • the decryption switch information 1401 includes a next access unit type 1411, a next access unit size 1412, and a decryption counter 1413.
  • the next access unit type 1411 indicates whether the VAU to be decoded next belongs to a base-view video stream or a dependent-view video stream. For example, when the value of the next access unit type 1411 is “1”, the VAU to be decoded next belongs to the base-view video stream, and when it is “2”, the dependent-view video Belongs to a stream. When the value of the next access unit type 1411 is “0”, the current VAU is located at the rear end of the stream to be decoded, and there is no VAU to be decoded next.
  • the next access unit size 1412 indicates the size of the VAU to be decoded next.
  • the decoder in the playback device 102 can specify the size without analyzing the VAU structure itself. Therefore, the decoder can easily extract the VAU from the buffer.
  • the decoding counter 1413 indicates the order in which the VAU to which the decoding counter 1413 belongs should be decoded. The order is counted from the VAU that contains the I picture in the base-view video stream.
  • FIG. 15A is a schematic diagram showing an example of decoding counters 1510 and 1520 assigned to the pictures of the base-view video stream 1501 and the dependent-view video stream 1502.
  • the decoding counters 1510 and 1520 are alternately incremented between the two video streams 1501 and 1502.
  • “1” is assigned as the decoding counter 1510 to the VAU 1511 including the I picture in the base-view video stream 1501.
  • “2” is assigned as the decoding counter 1520 to the VAU 1521 including the P picture in the dependent-view video stream 1502 to be decoded.
  • “3” is assigned as the decoding counter 1510 to the VAU 1512 including the P picture in the base-view video stream 1501 to be decoded next.
  • the decoder can immediately identify the missing picture from the decoding counters 1510 and 1520. Therefore, the decoder can perform error processing appropriately and quickly.
  • the decoder reads and holds the decoding counter 1520 from the VAU 1522 in the decoding process of the P picture included in the second VAU 1522 of the dependent-view video stream 1502. Therefore, the decoder can predict the decoding counter 1510 of the VAU to be processed next. Specifically, since the decoding counter 1520 in the VAU 1522 including the P picture is “4”, the decoding counter 1510 of the VAU to be read next is predicted to be “5”. However, actually, since the next read VAU is the fourth VAU 1514 of the base-view video stream 1501, its decoding counter 1510 is “7”.
  • the decoder can detect that one VAU is missed. Therefore, the decoder can perform the following error processing: “For the B picture extracted from the third VAU 1523 of the dependent-view video stream 1502, the Br picture to be referred to is missing, so the decoding process is performed. skip". Thus, the decoder checks the decoding counters 1510 and 1520 for each decoding process. Accordingly, the decoder can quickly detect a VAU reading error and can execute appropriate error processing quickly. As a result, it is possible to prevent noise from being mixed into the reproduced video.
  • FIG. 15B is a schematic diagram showing other examples 1530 and 1540 of decoding counters assigned to the pictures of the base-view video stream 1501 and the dependent-view video stream 1502.
  • the decoding counters 1530 and 1540 are incremented separately for each video stream 1501 and 1502. Accordingly, the decoding counters 1530 and 1540 are equal between a pair of pictures belonging to the same 3D ⁇ VAU. In that case, when the decoder decodes one VAU of the base-view video stream 1501, it can be predicted as follows: “The decoding counter 1530 has the dependent-view video stream 1502 to be decoded next. Is equal to the VAU decryption counter 1540 ”.
  • the decoder when the decoder decodes one VAU of the dependent-view video stream 1502, it can be predicted as follows: “The value obtained by adding 1 to the decoding counter 1540 is the base view to be decoded next. “Equal to the VAU decoding counter 1530 of the video stream 1501”. Therefore, the decoder can quickly detect a VAU reading error from the decoding counters 1530 and 1540 at any time, and can execute appropriate error processing quickly. As a result, it is possible to prevent noise from being mixed into the reproduced video.
  • seamless playback of 3D video the physical arrangement of the base-view video stream and the dependent-view video stream on the BD-ROM disc 101 is important.
  • seamless playback refers to smooth playback of video and audio from multiplexed stream data without interruption.
  • FIG. 16 is a schematic diagram showing a physical arrangement on the BD-ROM disc 101 of data block groups belonging to each of the main TS, first sub-TS, and second sub-TS shown in FIG. is there.
  • Data block refers to a series of data recorded in a continuous area on the BD-ROM disc 101, that is, a plurality of physically continuous sectors.
  • LBN is also continuous in each data block. Therefore, the BD-ROM drive 121 can continuously read one data block without causing the optical pickup to seek.
  • base-view data blocks Belonging to the main TS are referred to as “base-view data blocks”, and data blocks R1, R2, R3,..., D1, D2, D3,. Is called “Dependent View Data Block”.
  • the data blocks R1, R2, R3,... Belonging to the first sub-TS are called “right-view data blocks”, and the data blocks D1, D2, D3,. ⁇ This is called a data block.
  • data block groups are continuously recorded along a track 1601 on the BD-ROM disc 101.
  • the base view data blocks L1, L2, L3,..., The right view data blocks R1, R2, R3,... And the depth map data blocks D1, D2, D3,. Has been placed. Such an arrangement of data blocks is called “interleaved arrangement”.
  • the extent ATC time is the same among three adjacent data blocks.
  • the leading depth map data block D1, the leading right-view data block R1, and the leading base-view data block L1 are continuous.
  • the extent ATC times are equal between these data blocks D1, R1, and L1.
  • ATC Arriv Time Clock
  • the “extent ATC time” is defined by the ATC value, and the range of ATS given to the source packet in one extent, that is, the source packet of the next extent from the ATS of the first source packet of the extent. Represents the time interval until ATS.
  • the extent ATC time is equal to the time required to transfer all the source packets in the extent from the read buffer to the system target decoder in the playback device 102.
  • the “read buffer” is a buffer memory in the playback device 102, and temporarily stores data blocks read from the BD-ROM disc 101 until they are sent to the system target decoder.
  • the three data blocks having the same extent ATC time may have the same playback period and the same video stream playback time.
  • the playback periods of the first three data blocks D1, R1, and L1 are the same and the playback time of the video stream is the same.
  • the three data blocks D2, R2, and L2 having the same extent ATC time may have the same playback period and the same video stream playback time.
  • three consecutive data blocks having the same extent ATC time are in the order of a depth map data block, a right view data block, and a base view data block. That is, they are arranged in ascending order of data amount.
  • the picture included in the first right-view data block R1 is compressed using the picture included in the first base-view data block L1 as a reference picture, as shown in FIG. Yes. Therefore, the size S ext2 [1] of the first right-view data block R1 is less than or equal to the size S ext1 [1] of the first base-view data block L1: S ext2 [1] ⁇ S ext1 [1] .
  • the amount of data per pixel of the depth map is generally the amount of data per pixel of the picture included in the base-view video stream, that is, the sum of the number of bits of the color coordinate value and the ⁇ value Smaller than.
  • the main TS is different from the second sub-TS, and an elementary stream such as a primary audio stream in addition to the primary video stream. including. Therefore, in FIG. 16, the size S ext3 [1] of the leading depth map data block D1 is less than or equal to the size S ext1 [1] of the leading base-view data block L1: S ext3 [1] ⁇ S ext1 [1]. Therefore, in FIG. 16, the leading depth map data block D1, the leading right-view data block R1, and the leading base-view data block L1 are arranged in that order. The order of the next three extents D2, R2, and L2 is the same.
  • VAU located at the head of each data block having the same extent ATC time belongs to the same 3D / VAU, and particularly includes the head picture of the GOP representing the same 3D video.
  • the leading end of the depth map data block Dn is a depth map stream.
  • the right-view data block Rn includes a P-picture of the right-view video stream
  • the base-view data block Ln includes an I-picture of the base-view video stream.
  • the I picture of the depth map stream represents a depth map for the 2D video represented by the I picture of the base-view video stream.
  • the P picture of the right-view video stream represents a right view when the 2D video represented by the I picture of the base-view video stream is a left view.
  • the P picture is compressed using the I picture of the base-view video stream as a reference picture, as shown in FIG. Therefore, the playback device 102 in the 3D playback mode can start playback of 3D video from any set of data blocks Dn, Rn, and Ln.
  • the playback device 102 In order to seamlessly reproduce 3D video from the BD-ROM disc 101, the playback device 102 must process the main TS and the sub TS in parallel. However, the capacity of the read buffer that can be used for the processing is generally limited. In particular, there is a limit to the amount of data that can be continuously read from the BD-ROM disc 101 into the read buffer. Therefore, the playback device 102 must read the main TS and sub-TS by dividing them into a pair of portions having the same extent ATC time.
  • FIG. 17A is a schematic diagram showing the arrangement of the main TS 1701 and the sub TS 1702 recorded individually and continuously on a certain BD-ROM disc.
  • the playback device 102 processes the main TS 1701 and the sub-TS 1702 in parallel, as shown by solid arrows (1)-(4) in FIG.
  • the main TS 1701 and the sub TS 1702 are alternately read out at a portion where the extent ATC time is equal.
  • the BD-ROM drive 121 has to greatly change the read target area on the BD-ROM disc during the reading process, as indicated by the dashed arrow in FIG.
  • the BD-ROM drive 121 temporarily stops the reading operation by the optical pickup and increases the rotation speed of the BD-ROM disc. Accordingly, the sector on the BD-ROM disc in which the tip portion of the sub TS 1702 indicated by the arrow (2) is recorded is quickly moved to the position of the optical pickup. As described above, an operation for temporarily stopping the reading operation of the optical pickup and positioning the optical pickup on the next reading target area during this time is called “jump”.
  • a broken-line arrow shown in FIG. 17A indicates a range of each jump necessary during the reading process. During each jump, the reading process by the optical pickup stops and only the decoding process by the decoder proceeds. As a result, it is difficult to keep the reading process in time for the decoding process, so it is difficult to reliably maintain seamless playback.
  • FIG. 17B shows base view data blocks B [0], B [1], B [2],... Alternately recorded on the BD-ROM disc 101 according to Embodiment 1 of the present invention.
  • FIG. 6 is a schematic diagram showing an arrangement of dependent-view data blocks D [0], D [1], D [2],.
  • the main TS and the sub-TS are each divided into a plurality of data blocks and arranged alternately.
  • the playback device 102 plays back the data blocks B [0], D [0], B as shown by arrows (1)-(4) in FIG. Read [1], D [1], ... sequentially from the beginning. With that alone, the playback device 102 can smoothly read out the main TS and sub-TS alternately. In particular, since the jump does not occur in the reading process, seamless playback of 3D video can be surely sustained.
  • FIG. 18A shows a playback path when the extent ATC time is different between the adjacent base-view data block and the dependent-view data block and the playback time of the video stream is different. It is a schematic diagram.
  • the playback time of the first base-view data block B [0] is 4 seconds
  • the first dependent-view data block D [0] The playback time is 1 second.
  • the portion of the base-view video stream necessary for decoding the dependent-view data block D [0] has the same playback time as that of the dependent-view data block D [0]. Therefore, in order to save the capacity of the read buffer in the playback device 102, as indicated by the arrow 1810 in FIG.
  • the playback device 102 has the base view data block B [0] and It is preferable that the dependent-view data block D [0] is alternately read at the same playback time, for example, every second. However, in that case, a jump occurs during the reading process, as indicated by a broken line in FIG. As a result, it is difficult to keep the reading process in time for the decoding process, so it is difficult to reliably maintain seamless playback.
  • FIG. 18 is a schematic diagram showing a playback path when the playback time of the video stream is equal between the adjacent base-view data block and the dependent-view data block.
  • the playback time of the video stream is equal between a pair of adjacent data blocks. For example, in the pair of the first base-view data block B [0] and the dependent-view data block D [0], the playback time of the video stream is equal to 1 second, and the second data block In the pair B [1] and D [1], the playback time of the video stream is equal to 0.7 seconds.
  • the playback device 102 plays back the data blocks B [0], D [0], B [1], D [as shown by the arrow 1820 in FIG. 1], ... are read in order from the top.
  • the playback device 102 can smoothly read out the main TS and sub-TS alternately for the same playback time.
  • seamless playback of 3D video can be surely sustained.
  • the playback device 102 simply reads out the data block group in order from the top, and smoothly reads the main TS and sub-TS alternately. realizable. In particular, since the jump does not occur in the reading process, seamless playback of 3D video can be surely sustained.
  • each data block belonging to the multiplexed stream data can be accessed as one extent in the file 2D or the file DEP. That is, the logical address of each data block can be known from the allocation descriptor recorded in the file entry of the file 2D or the file DEP.
  • the allocation descriptors # 1, # 2, # 3,... Included in the file entry 1610 of the file 2D (01000.m2ts) 541 are the base view data block L1. , L2, L3,... And the LBN at the tip thereof. Allocation descriptors # 1, # 2, # 3,...
  • Included in the file entry 1620 of the first file DEP (02000.m2ts) 542 are the sizes of the right-view data blocks R1, R2, R3,.
  • the tip LBN is shown.
  • Allocation descriptors # 1, # 2, # 3,... Included in the file entry 1630 of the second file DEP (03000.m2ts) 543 are the sizes of the depth map data blocks D1, D2, D3,.
  • the tip LBN is shown.
  • FIG. 19A is a schematic diagram showing the data structure of the file 2D (01000.m2ts) 541.
  • allocation descriptors # 1, # 2, # 3,... In file entry 1610 refer to base-view data blocks L1, L2, L3,. Accordingly, each base-view data block L1, L2, L3,... Is stored in the extent 2 of the file 2D541 as shown in FIG. , ... are accessible.
  • the extents EXT2D [0], EXT2D [1], EXT2D [2],... Belonging to the file 2D541 are referred to as “2D extents”.
  • FIG. 19B is a schematic diagram showing the data structure of the first file DEP (02000.m2ts) 542.
  • allocation descriptors # 1, # 2, # 3,... In file entry 1620 refer to right-view data blocks R1, R2, R3,. Therefore, each right-view data block R1, R2, R3,... Is, as shown in (b) of FIG. 2], accessible as ...
  • the extents EXT2 [0], EXT2 [1], EXT2 [2],... Belonging to the first file DEP542 are referred to as “right view extents”.
  • FIG. 19 is a schematic diagram showing a data structure of the second file DEP (03000.m2ts) 543.
  • allocation descriptors # 1, # 2, # 3,... In file entry 1630 refer to depth map data blocks D1, D2, D3,.
  • the extents EXT3 [0], EXT3 [1], EXT3 [2],... Belonging to the second file DEP543 are referred to as “depth map extents”.
  • extents belonging to any file DEP such as right-view extents and depth map extents, are collectively referred to as “dependent view extents”.
  • the AV stream file cross-link is realized as follows for the data block group shown in FIG.
  • Allocation descriptors # 1, # 2, # 3,... Included in the file entry 1640 of the first file SS (01000.ssif) 544A include adjacent right-view data blocks and base-view data blocks.
  • the pairs R1 + L1, R2 + L2, R3 + L3,... Are regarded as one extent, and each size and the LBN at the tip thereof are shown.
  • Allocation descriptors # 1, # 2, # 3,... Included in the file entry 1650 of the second file SS (02000.ssif) 544B are the depth map data blocks D1, D2, D3,. Each size of the data blocks L1, L2, L3,... And the LBN at the tip thereof are shown alternately.
  • FIG. 19 is a schematic diagram showing a data structure of the first file SS (01000.ssif) 544A.
  • allocation descriptors # 1, # 2, # 3,... In file entry 1640 are a pair R1 + L1 of adjacent right-view data block and base-view data block. , R2 + L2, R3 + L3,. Therefore, each pair of adjacent data blocks R1 + L1, R2 + L2, R3 + L3,... Is, as shown in FIG. [2], accessible as ...
  • the extents EXTSS [0], EXTSS [1], EXTSS [2],... Belonging to the first file SS 544A are referred to as “3D extents”.
  • FIG. 19 is a schematic diagram showing a data structure of the second file SS (02000.ssif) 544B.
  • the allocation descriptors # 1, # 2, # 3,... In the file entry 1650 are the depth map data blocks D1, D2, D3,.
  • the blocks L1, L2, L3,... Are alternately referred to. Therefore, each data block D1, L1, D2, L2, as shown in FIG. 19E, extents EXTSS [0], EXTSS [1], EXTSS [2] of the second file SS544B. , EXTSS [3], ... can be accessed.
  • Each extent of the second file SS 544B shares a base-view data block Ln with the file 2D 541 and shares a depth map data block Dn with the second file DEP 543.
  • FIG. 20 is a schematic diagram showing a playback path 2001 in 2D playback mode, a playback path 2002 in L / R mode, and a playback path 2003 in depth mode for the data block group shown in FIG. .
  • the playback device 102 plays back the file 2D541 in the 2D playback mode. Therefore, as indicated by the playback path 2001 in the 2D playback mode, the base-view data blocks L1, L2, and L3 are sequentially read as 2D extents EXT2D [0], EXT2D [1], and EXT2D [2]. That is, the first base-view data block L1 is read out first, and the reading of the depth map data block D2 and right-view data block R2 immediately after that is skipped by the first jump J 2D 1. Next, the second base-view data block L2 is read, and the next read-out of the depth map data block D3 and right-view data block R3 is skipped by the second jump J 2D 2. The Subsequently, the third base-view data block L3 is read.
  • the playback device 102 plays back the first file SS 544A in the L / R mode. Therefore, as indicated by the playback path 2002 in the L / R mode, the pair R1 + L1, R2 + L2, R3 + L3 of the adjacent right-view data block and the base-view data block are in turn in the 3D extents EXTSS [0], EXTSS [ 1], read as EXTSS [2]. That is, the first right-view data block R1 and the base-view data block L1 immediately after it are read continuously, and the reading of the depth-map data block D2 immediately after that is the first jump J LR Skipped by 1.
  • the second right-view data block R2 and the base-view data block L2 immediately after it are read continuously, and the depth-map data block D3 immediately after that is read for the second time. Skipped by J LR 2. Subsequently, the third right-view data block R3 and the immediately subsequent base-view data block L3 are read out successively.
  • the playback device 102 plays back the second file SS 544B in the depth mode. Accordingly, as indicated by the playback path 2003 in the depth mode, the depth map data blocks D1, D2, and D3 and the base-view data blocks L1 and L2 are alternately shown in the extent EXTSS [0] of the second file SS544B. , EXTSS [1], EXTSS [2], and EXTSS [3]. That is, the first depth map data block D1 is read first, and the right-view data block R1 immediately after that is skipped by the first jump JLD1 . Next, the top base-view data block L1 is read, and then the depth map extent D2 immediately after that is read. Further, reading of the right-view extent R2 immediately after that is skipped by the second jump J LD 2 and the second base-view data block L2 is read.
  • the reproducing apparatus 102 may substantially read the data block group in order from the top.
  • a jump occurs during the reading process.
  • the distance of each jump is different from that shown in FIG. 17A and is sufficiently shorter than the entire length of the main TS and the sub-TS.
  • any jump does not occur during the reading of one data block.
  • the playback device 102 can reduce the capacity of the read buffer compared to the reverse case.
  • the playback device 102 reads the data block group as the extent group of the first file SS 544A in the L / R mode. That is, the playback device 102 determines the LBN at the tip of each 3D extent EXTSS [0], EXTSS [1],... From the allocation descriptors # 1, # 2,. Is transferred to the BD-ROM drive 121.
  • the BD-ROM drive 121 continuously reads data of that size from the LBN. In these processes, the control of the BD-ROM drive 121 is easier at the following two points (A) and (B) than the process of reading the data block group as the extents of the first file DEP542 and the file 2D541.
  • the playback device 102 may refer to the extents in order using one file entry; (B) the total number of extents to be read is substantially halved, so that the BD-ROM drive 121 The total number of LBN / size pairs to be passed is small.
  • the advantage (A) also applies to the process of reading the data block group as the extent of the second file SS 544B in the depth mode. However, the playback device 102 must read the 3D extents EXTSS [0], EXTSS [1],..., And then separate them into right-view data blocks and base-view data blocks and pass them to the decoder. .
  • a clip information file is used for the separation process. Details thereof will be described later.
  • the main TS and sub-TS may be recorded across the boundary between the two recording layers, that is, the layer boundary. Also, the main TS and the sub TS may be recorded with different data in between. In those cases, the BD-ROM drive 121 generally has to perform a long jump while reading from the main TS and the sub-TS. “Long jump” is a general term for jumps having a long seek time, and specifically, jump jumps exceeding a predetermined threshold. “Jump distance” refers to the length of the area on the BD-ROM disc 101 where the read operation is skipped during the jump period. The jump distance is usually represented by the number of sectors in that portion.
  • the threshold used for the definition of the long jump is defined in, for example, 40000 sectors in the BD-ROM standard. However, the threshold value depends on the type of BD-ROM disc and the performance related to the reading process of the BD-ROM drive.
  • Long jumps specifically include focus jumps and track jumps.
  • Focus jump is a jump accompanying switching of recording layers, and includes a process of changing the focal length of the optical pickup.
  • Track jump includes a process of moving the optical pickup in the radial direction of the BD-ROM disc 101.
  • the playback device 102 can easily realize seamless playback of video during a long jump while keeping the capacity of the read buffer to the minimum necessary.
  • FIG. 21 is a schematic diagram showing a first example of the physical arrangement of data block groups recorded before and after the layer boundary of the BD-ROM disc 101. These data block groups belong to the main TS, the first sub-TS, and the second sub-TS shown in FIG. Hereinafter, this arrangement is referred to as “arrangement 1”.
  • the first recording layer located before the layer boundary LB includes depth map data block groups ..., D1, D2, right view data block groups ..., R1, R2, and a base. View data block groups, ..., L1, L2 are recorded in an interleaved arrangement.
  • first 3D extent blocks 2101.
  • one base-view data block L3 2D is arranged between the rear end L2 of the first 3D extent block 2101 and the layer boundary LB.
  • the second recording layer located after the layer boundary LB includes depth map data block groups D3, D4,..., Right-view data block groups R3, R4,. L3 SS , L4, ... are recorded in an interleaved arrangement.
  • these data block groups are referred to as “second 3D extent blocks” 2102.
  • the base-view data block L3 2D located immediately before the layer boundary LB matches the base-view data block L3 SS at the front end in the second 3D extent block 2102 in bit units (bit-for-bit). To do. That is, one of the data blocks L3 2D and L3 SS is the other copy data.
  • the former L3 2D is referred to as “2D playback-dedicated block”
  • the latter L3 SS is referred to as “3D playback-dedicated block”.
  • Each data block shown in FIG. 21 is accessible as an extent of either the file 2D or the file DEP except for the 3D playback-dedicated block L3 SS .
  • the allocation descriptor # 1 includes the size and the head of the second-most base view data block L1 in the first 3D extent block 2101. LBN. Therefore, the base view data block L1 can be accessed as one 2D extent EXT2D [0] of the file 2D541.
  • Allocation descriptor # 2 the considered pair L2 + L3 2D of the last base-view data block L2 in the first 3D extent block 2101 and immediately thereafter the 2D playback-only block L3 2D a single extent The size and LBN at its tip are shown. Therefore, the base view data block pair L2 + L3 2D is accessible as a single 2D extent EXT2D [1] of the file 2D541. Furthermore, allocation descriptor # 3 indicates the size of the second base-view data block L4 in the second 3D extent block 2102 and the LBN at the top thereof. Accordingly, the base-view data block L4 can be accessed as another one 2D extent EXT2D [2].
  • allocation descriptors # 1, # 2, # 3, and # 4 include pairs R1 + L1, R2 + L2 of adjacent right-view data blocks and base-view data blocks.
  • R3 + L3 SS and R4 + L4 are regarded as one extent, and each size and the LBN at the tip thereof are shown.
  • each pair of adjacent data blocks R1 + L1, R2 + L2, R3 + L3 SS , R4 + L4 can be accessed as 3D extents EXTSS [0], EXTSS [1], EXTSS [2], EXTSS [3] of the first file SS544A.
  • the 3D extents EXTSS [0], EXTSS [1], and EXTSS [3] are the base view data blocks L1, L2, and L4, respectively. Share with 2D541.
  • the 2D playback-only block L3 2D can be accessed only as a part of the extent EXT2D [1] of the file 2D541 located immediately before the layer boundary LB.
  • the 3D playback dedicated block L3 SS can be accessed only as a part of the 3D extent EXTSS [2] immediately after the layer boundary LB.
  • FIG. 22 is a schematic diagram showing a playback path 2201 in 2D playback mode and a playback path 2202 in L / R mode for the data block group shown in FIG.
  • the reproduction path in the depth mode can be easily inferred by those skilled in the art from the one shown in FIG.
  • the playback device 102 plays back the file 2D541 in the 2D playback mode. Therefore, as indicated by the playback path 2201 in the 2D playback mode, first, the second base-view data block L1 from the last in the first 3D extent block 2101 is read as the first 2D extent EXT2D [0]. The reading of the depth map data block D2 and the right-view data block R2 immediately after that is skipped by the first jump J 2D 1. Next, the pair L2 + L3 2D of the last base-view data block L2 in the first 3D extent block 2101 and the 2D playback-only block L3 2D immediately after it is continuous as the second 2D extent EXT2D [1]. Read out.
  • the playback device 102 plays back the first file SS 544A in the L / R mode. Accordingly, as indicated by the playback path 2202 in the L / R mode, the pair R1 + L1 of the first right-view data block R1 and the immediately subsequent base-view data block L1 is the first 3D extent EXTSS [0]. Reading is continuously performed, and reading of the depth map data block D2 immediately after that is skipped by the first jump JLR1 . Next, the second right-view data block R2 and the immediately subsequent base-view data block L2 are successively read out as the second 3D extent EXTSS [1].
  • the block exclusively for 2D playback L3 2D is read, but the reading of the block exclusively for 3D playback L3 SS is skipped.
  • the L / R mode reading of the 2D playback-only block L3 2D is skipped, but the 3D playback-only block L3 SS is read.
  • both data blocks L3 2D and L3 SS match in a bit unit, the left-view video frame to be played back is the same in any playback mode.
  • the playback path 2201 in the 2D playback mode and the playback path 2202 in the L / R mode are separated before and after the long jump JLY . The same applies to the depth mode.
  • FIG. 23 is a schematic diagram showing a group of data blocks recorded in an interleaved arrangement before and after the layer boundary of a certain BD-ROM disc, and the reproduction path in each reproduction mode.
  • the first recording layer has depth map data block groups,..., D1, D2, right view data block groups,. R2, the base view data block group,..., L1, and L2 are recorded in an interleaved arrangement to form a first 3D extent block 2301.
  • depth map data block group D3,..., Right view data block group R3,..., And base view data block group L3,. 2 3D extent blocks 2302 are configured.
  • each 3D extent block 2301 and 2302 is the same as that shown in FIG. Furthermore, three data blocks D2, R2, L2 located at the rear end of the first 3D extent block 2301, and three data blocks D3, R3, located at the front end of the second 3D extent block 2302, The contents of each stream data are continuous with L3.
  • the data block group shown in FIG. 23 includes a pair of 2D playback dedicated block L3 2D and 3D playback dedicated block L3 SS before and after the layer boundary LB. Not in. Therefore, as shown below, the playback path 2310 in the 2D playback mode and the playback path 2311 in the L / R mode are not separated immediately before the long jump JLY , and both are the same base-view data block. Go through L2.
  • All the base view data blocks L1-L3 shown in FIG. 23 are accessible as one extent EXT2D [0] -EXT2D [2] of the file 2D.
  • each pair of adjacent right-view data block and base-view data block R1 + L1, R2 + L2, R3 + L3 can be accessed as 3D extents EXTSS [0], EXTSS [1], EXTSS [2] of file SS is there. Any of the 3D extents EXTSS [0], EXTSS [1], and EXTSS [2] share the base-view data blocks L1, L2, and L3 with the file 2D541, respectively.
  • the playback device 102 in the 2D playback mode plays back the file 2D. Accordingly, as indicated by the playback path 2310 in the 2D playback mode, the second base-view data block L1 from the last in the first 3D extent block 2301 is first read as the first 2D extent EXT2D [0]. The reading of the depth map data block D2 and the right-view data block R2 immediately after that is skipped by the first jump J 2D 1. Next, the last base-view data block L2 in the first 3D extent block 2301 is read as the second 2D extent EXT2D [1].
  • a long jump J LY occurs at the layer boundary LB immediately after that, and reading of the two data blocks D3 and R3 located at the tip of the second 3D extent block 2302 is skipped along with execution of the focus jump. Subsequently, the first base-view data block L3 in the second 3D extent block 2302 is read as the third 2D extent EXT2D [2].
  • the playback device 102 in the L / R mode plays back the file SS. Accordingly, as indicated by the playback path 2311 in the L / R mode, first, the pair R1 + L1 of the first right-view data block R1 and the base-view data block L1 immediately after that is defined as the first 3D extent EXTSS [0]. Reading is continuously performed, and reading of the depth map data block D2 immediately after that is skipped by the first jump JLR1 . Next, the second right-view data block R2 and the immediately subsequent base-view data block L2 are successively read out as the second 3D extent EXTSS [1].
  • the playback path 2310 in the 2D playback mode and the playback path 2311 in the L / R mode are Passes through the same base-view data block L2 immediately before the long jump J LY .
  • the BD-ROM drive 121 stops the reading process, but the system target decoder continues the decoding process of the stream data accumulated in the read buffer. Therefore, in order for the playback device 102 to play back the video seamlessly before and after the long jump JLY , it is necessary to prevent a buffer underflow during the long jump JLY .
  • the buffer margin In the L / R mode, a certain amount of data is accumulated in the read buffer while the first 3D extent block 2301 is being decoded. This fixed amount of data is referred to as “buffer margin” (details will be described later).
  • the buffer margin data is decoded. Is done. Therefore, it is sufficient that the buffer margin is sufficiently large to prevent buffer underflow in the L / R mode.
  • the size of each data block R2, L2 may be a value Smin2, Smin1 the buffer margin amount can be maintained until just before the long jump J LY.
  • the 2D extent EXT2D [1], ie, the size S ext2D [1] of the base-view data block L2 must satisfy the following condition: 2D extent EXT2D Between the start of reading [1] and the completion of the long jump JLY , the amount of data sent from the read buffer to the system target decoder is greater than or equal to.
  • the size S ext2D [1] satisfying the condition is generally larger than the minimum size Smin1 necessary for seamless reproduction in the L / R mode, as shown in FIG. Therefore, the capacity of the read buffer to be secured in the playback device 102 in the L / R mode must be larger than the minimum value necessary for seamless playback in the L / R mode.
  • the right-view data block R2 must have the same extent ATC time as the base-view data block L2. Therefore, the size S ext2 [1] of the right-view data block R2 is generally larger than the minimum value Smin2 necessary for seamless reproduction in the L / R mode. Therefore, the capacity of the read buffer to be secured in the playback device 102 in the L / R mode must be larger than the minimum value necessary for seamless playback in the L / R mode. As a result, with the arrangement shown in FIG. 23, it is difficult to further reduce the capacity of the read buffer that should be secured in the playback device 102 in the L / R mode.
  • the playback path 2201 in the 2D playback mode and the playback path 2202 in the L / R mode are separated before and after the long jump JLY . Therefore, unlike the arrangement shown in FIG. 23, the size S ext2D [1] of the 2D extent EXT2D [1] located immediately before the layer boundary LB and the size S ext2 of the right-view data block R2 immediately before it [1] can be determined separately as follows.
  • the size S ext2D [1] of the 2D extent EXT2D [1] is the sum S ext1 [1] of the size S ext1 [1] and 2D playback-only block L3 2D size S 2D of the base-view data block L2 + S Equal to 2D . Therefore, in order to realize seamless playback in the 2D playback mode, the sum S ext1 [1] + S 2D is changed from the read buffer to the system between the start of reading the 2D extent EXT2D [1] and the completion of the long jump J LY. -It may be more than the amount of data sent to the target decoder.
  • the sizes S ext2 [1] and S ext1 [1] of the right-view data block R2 and the base-view data block L2 belonging to the 3D extent EXTSS [1] located immediately before the layer boundary LB are: Any value that can maintain the buffer margin until immediately before the long jump J LY may be used.
  • the 2D extent EXT2D [1] only the base view data block L2 located on the front side is shared with the 3D extent EXTSS [1].
  • the size S ext1 [1] of the data block L2 can be further reduced.
  • the size S ext2 [1] of the right-view data block R2 can also be limited to be smaller.
  • 3D playback-only block L3 SS is a 2D playback-only block L3 2D replication data
  • the expansion of 2D playback-only block L3 2D size S 2D is right view located immediately before the 3D playback-only block L3 SS -Increase the size of data block R3.
  • the size can be made sufficiently smaller than the size of the right-view data block R3 located immediately before the layer boundary LB shown in FIG. In this way, the capacity of the read buffer to be secured in the playback device 102 in the L / R mode can be made closer to the minimum value necessary for seamless playback in the L / R mode.
  • each data block it is possible to design each data block to a size such that seamless playback of video during a long jump can be realized in both the 2D playback mode and the L / R mode. It is possible to keep the capacity of the read buffer to be secured in 102 to the minimum necessary. Furthermore, changing the data block to be read between the 2D playback mode and the L / R mode, particularly switching between the 2D playback-only block L3 2D and the 3D playback-only block L3 SS , This can be easily realized by simply switching the file between the file 2D and the file SS.
  • FIG. 24 is a schematic diagram showing a second example of the physical arrangement of the data block groups recorded before and after the layer boundary of the BD-ROM disc 101. These data block groups belong to the main TS, the first sub-TS, and the second sub-TS shown in FIG. Hereinafter, this arrangement is referred to as “arrangement 2”. Compare FIG. 24 with FIG. 21, Arrangement 2 differs from Arrangement 1 in that two 3D playback dedicated blocks L3 SS and L4 SS are provided at the tip of the second 3D extent block 2402. Since the arrangement 2 is the same as the arrangement 1 with respect to other features, the description of the arrangement 1 is cited for the detailed description thereof.
  • the 2D playback-only block (L3 + L4) 2D positioned immediately before the layer boundary LB matches the 3D playback-only block pair L3 SS and L4 SS in the second 3D extent block 2402 in bit units. That is, one of the 2D playback dedicated block (L3 + L4) 2D and 3D playback dedicated block pair L3 SS and L4 SS is the other copy data.
  • Each data block shown in FIG. 24 is accessible as an extent of either the file 2D or the file DEP except for the 3D playback-only blocks L3 SS and L4 SS .
  • the allocation descriptor # 1 indicates the size of the second base-view data block L1 from the last in the first 3D extent block 2401 and the LBN at the head thereof. . Therefore, the base view data block L1 can be accessed as one 2D extent EXT2D [0] of the file 2D541.
  • Allocation descriptor # 2 is a single pair of L2 + (L3 + L4) 2D with the last base-view data block L2 in the first 3D extent block 2401 and the next 2D playback-only block (L3 + L4) 2D It is regarded as an extent, and indicates its size and the LBN at its tip. Accordingly, the base view data block pair L2 + (L3 + L4) 2D is accessible as one 2D extent EXT2D [1] of the file 2D541. Furthermore, allocation descriptor # 3 indicates the size of the third base-view data block L5 in the second 3D extent block 2402 and the leading LBN. Therefore, the base-view data block L5 can be accessed as another one 2D extent EXT2D [2].
  • the allocation descriptors # 1, # 2, # 3, # 4, and # 5 include the pair R1 + L1 of the adjacent right-view data block and base-view data block, R2 + L2, R3 + L3 SS , R4 + L4 SS and R5 + L5 are regarded as one extent, and each size and the LBN at the tip thereof are shown. Therefore, each pair of adjacent data blocks R1 + L1,..., R5 + L5 can be accessed as 3D extents EXTSS [0], EXTSS [1], EXTSS [2], EXTSS [3], EXTSS [4] of the first file SS544A It is.
  • 2D playback-only block (L3 + L4) 2D is accessible only as part of the extent EXT2D [1] File 2D541, the 3D playback-only block L3 SS, L4 SS is 3D extent EXTSS [2], EXTSS of [3] Accessible only as part.
  • FIG. 25 is a schematic diagram showing a playback path 2501 in the 2D playback mode and a playback path 2502 in the L / R mode for the data block group shown in FIG. Note that the reproduction path in the depth mode can be easily inferred from those shown in FIG. 16 by those skilled in the art.
  • the playback device 102 plays back the file 2D541 in the 2D playback mode. Accordingly, as indicated by the playback path 2501 in the 2D playback mode, first, the second base-view data block L1 from the last in the first 3D extent block 2401 is read as the first 2D extent EXT2D [0]. The reading of the depth map data block D2 and the right-view data block R2 immediately after that is skipped by the first jump J 2D 1. Next, the pair L2 + (L3 + L4) 2D of the last base-view data block L2 in the first 3D extent block 2401 and the immediately following 2D playback-only block (L3 + L4) 2D is the second 2D extent EXT2D [ [1] is read continuously.
  • the playback device 102 plays back the first file SS 544A in the L / R mode. Accordingly, as indicated by the playback path 2502 in the L / R mode, the pair R1 + L1 of the first right-view data block R1 and the immediately subsequent base-view data block L1 is the first 3D extent EXTSS [0]. Reading is continuously performed, and reading of the depth map data block D2 immediately after that is skipped by the first jump JLR1 . Next, the second right-view data block R2 and the immediately subsequent base-view data block L2 are successively read out as the second 3D extent EXTSS [1].
  • next right-view data block R4 and the 3D playback-dedicated block L4 SS immediately after it are successively read out as the fourth 3D extent EXTSS [3], and the depth map data block immediately after that is read out. Reading D5 is skipped by the third jump JLR3 . Further, the next right-view data block R5 and the base-view data block L5 immediately after the right-view data block R5 are successively read out as the fifth 3D extent EXTSS [4].
  • the 2D playback dedicated block (L3 + L4) 2D is read, but the reading of the 3D playback dedicated blocks L3 SS and L4 SS is skipped.
  • the 2D playback dedicated block (L3 + L4) 2D is skipped, but the 3D playback blocks L3 SS and L4 SS are read out.
  • 2D playback dedicated block (L3 + L4) 2D and 3D playback dedicated block pair L3 SS and L4 SS match in bit units, so that the left-view video frame played back is the same in any playback mode. .
  • the playback path 2501 in the 2D playback mode and the playback path 2502 in the L / R mode are separated before and after the long jump JLY . Therefore, the size S ext2D [1] of the 2D extent EXT2D [1] located immediately before the layer boundary LB and the size S ext2 [1] of the right-view data block R2 immediately before it are separately as follows: Can be determined. The same applies to the depth mode.
  • the size S ext2D [1] of the 2D extent EXT2D [1] is the sum S ext1 [1 between the base size S ext1 of view data block L2 [1] and 2D playback-only block (L3 + L4) 2D size S 2D ] Equals + S 2D . Therefore, in order to realize seamless playback in the 2D playback mode, the sum S ext1 [1] + S 2D is changed from the read buffer to the system between the start of reading the 2D extent EXT2D [1] and the completion of the long jump J LY. -It may be more than the amount of data sent to the target decoder.
  • the sizes S ext2 [1] and S ext1 [1] of the right-view data block R2 and the base-view data block L2 belonging to the 3D extent EXTSS [1] located immediately before the layer boundary LB are: Any value that can maintain the buffer margin until immediately before the long jump J LY may be used.
  • 2D playback block L3 + L4)
  • 2D size S 2D appropriate expansion of 2D extent EXT2D [1] size S ext2D [1] S ext1 [1] + S 2D base while maintaining constant
  • the size S ext1 [1] of the view data block L2 can be further reduced.
  • the size S ext2 [1] of the right-view data block R2 can also be limited to be smaller.
  • 3D playback dedicated block pair L3 SS and L4 SS are 2D playback dedicated block (L3 + L4) 2D duplicate data, so 2D playback dedicated block (L3 + L4) 2D size S 2D expansion is dedicated to each 3D playback
  • the size of the right-view data blocks R3 and R4 located immediately before the blocks L3 SS and L4 SS is enlarged.
  • each size is immediately before the layer boundary LB shown in FIG. Can be made sufficiently smaller than the size of the right-view data block R3. In this way, the capacity of the read buffer to be secured in the playback device 102 in the L / R mode can be further reduced to a minimum value necessary for seamless playback in the L / R mode.
  • each data block design each data block to a size such that seamless playback of video during a long jump can be realized in both the 2D playback mode and the L / R mode. It is possible to keep the buffer capacity to be secured in the 102 decoders to a minimum. Furthermore, changing the data block to be read in 2D playback mode and L / R mode, especially switching between 2D playback dedicated block (L3 + L4) 2D and 3D playback dedicated block pair L3 SS and L4 SS This can be easily realized by simply switching the AV stream file to be reproduced between the file 2D and the file SS. The same applies to the depth mode.
  • 2D reproduction-dedicated blocks (L3 + L4) 2D copy data is provided as two 3D reproduction-dedicated blocks L3 SS and L4 SS .
  • the duplicate data may be provided as three or more 3D playback dedicated blocks.
  • FIG. 26 is a schematic diagram showing a third example of the physical arrangement of data block groups recorded before and after the layer boundary of the BD-ROM disc 101. These data block groups belong to the main TS, the first sub-TS, and the second sub-TS shown in FIG. Hereinafter, this arrangement is referred to as “arrangement 3”.
  • FIG. 26 differs from arrangement 2 in that 2D playback-dedicated block (L2 + L3) 2D can be independently accessed as one 2D extent EXT2D [1].
  • the arrangement 3 is the same as the arrangement 2, and therefore the description of the arrangement 2 is used for the detailed description thereof.
  • the 2D playback-only block (L2 + L3) 2D located immediately before the layer boundary LB matches the 3D playback-only block pair L2 SS and L3 SS in the second 3D extent block 2602 in bit units. That is, one of the 2D playback dedicated block (L2 + L3) 2D and 3D playback dedicated block pair L2 SS and L3 SS is the other copy data.
  • Each data block shown in FIG. 26 is accessible as an extent of either the file 2D or the file DEP except for the 3D playback dedicated blocks L2 SS and L3 SS .
  • the allocation descriptor # 1 indicates the size of the last base-view data block L1 in the first 3D extent block 2401 and the leading LBN. Therefore, the base-view data block L1 can be accessed as one 2D extent EXT2D [0].
  • Allocation descriptor # 2 regards 2D playback-only block (L2 + L3) 2D as a single extent, and indicates its size and LBN at its tip.
  • the 2D playback dedicated block (L2 + L3) 2D can be accessed as the next 2D extent EXT2D [1].
  • Allocation descriptor # 3 indicates the size of the third base-view data block L4 in the second 3D extent block 2602 and its leading LBN. Accordingly, the base-view data block L4 can be accessed as the third 2D extent EXT2D [2].
  • allocation descriptors # 1, # 2, # 3, and # 4 include pairs R1 + L1, R2 + L2 SS of adjacent right-view data block and base-view data block, R3 + L3 SS and R4 + L4 are regarded as one extent, and each size and the LBN at the tip thereof are shown. Therefore, each pair of adjacent data blocks R1 + L1,..., R4 + L4 can be accessed as a 3D extent EXTSS [0], EXTSS [1], EXTSS [2], EXTSS [3] of the first file SS 544A.
  • 2D playback-only block (L2 + L3) 2D is accessible only as one extent EXT2D [1]
  • File 2D541, one each 3D playback-only block L2 SS, L3 SS is 3D extent EXTSS [1], EXTSS [2 ] It is accessible only as a part.
  • FIG. 27 is a schematic diagram showing a playback path 2701 in the 2D playback mode and a playback path 2702 in the L / R mode for the data block group shown in FIG. Note that the reproduction path in the depth mode can be easily inferred from those shown in FIG. 16 by those skilled in the art.
  • the playback device 102 plays back the file 2D541 in the 2D playback mode. Therefore, as indicated by the playback path 2701 in the 2D playback mode, first, the last base-view data block L1 in the first 3D extent block 2601 is read as the first 2D extent EXT2D [0]. Next, the 2D playback-dedicated block (L2 + L3) 2D immediately after that is continuously read out as the second 2D extent EXT2D [1]. At the layer boundary LB immediately after that, a long jump J LY occurs, and with the execution of the focus jump, eight data blocks D2, R2, L2 SS , D3, R3 located at the tip of the second 3D extent block 2602 are generated. , L3 SS , D4, R4 reading is skipped. Subsequently, the third base-view data block L4 in the second 3D extent block 2602 is read as the third 2D extent EXT2D [2].
  • the playback device 102 plays back the first file SS 544A in the L / R mode. Therefore, as indicated by the playback path 2702 in the L / R mode, first, the pair R1 + L1 of the first right-view data block R1 and the immediately following base-view data block L1 is the first 3D extent EXTSS [0]. Read continuously. Immediately after that, a long jump JLY occurs, and with the execution of the focus jump, reading of the 2D playback-only block (L2 + L3) 2D and the first depth map data block D3 in the second 3D extent block 2602 is skipped. Is done.
  • the first right-view data block R2 in the second 3D extent block 2602 and the 3D playback-only block L2 SS immediately after it are successively read out as the second 3D extent EXTSS [1].
  • the reading of the depth map data block D3 immediately after that is skipped by the first jump JLR1 .
  • the next right-view data block R3 and the 3D playback-dedicated block L3 SS immediately after it are successively read out as the third 3D extent EXTSS [2], and the depth map data block immediately after that is read out.
  • Reading D4 is skipped by the second jump J LR 2.
  • the next right-view data block R4 and the immediately subsequent base-view data block L4 are successively read out as the fourth 3D extent EXTSS [3].
  • the 2D playback dedicated block (L2 + L3) 2D is read, but the reading of the 3D playback dedicated blocks L2 SS and L3 SS is skipped.
  • the 3D playback dedicated blocks L2 SS and L3 SS are read out.
  • 2D playback-dedicated block (L2 + L3) 2D and 3D playback-dedicated block pair L2 SS and L3 SS match in bit units, so the left-view video frames that are played back are the same in both playback modes. .
  • the playback path 2701 in the 2D playback mode and the playback path 2702 in the L / R mode are separated before and after the long jump JLY . Therefore, the size S ext2D [1] of the 2D extent EXT2D [1] located immediately before the layer boundary LB and the size S ext2 [1] of the right-view data block R2 immediately before it are separately as follows: Can be determined. The same applies to the depth mode.
  • the sum S ext2D [0] + S ext2D [1] of the sizes of two consecutive 2D extents EXT2D [0] and EXT2D [1] immediately before the layer boundary LB is the size S ext2D [ 0] the sum S ext1 [1 with 2D playback-only block (L2 + L3) 2D size S 2D] + S equals 2D. Therefore, in order to realize seamless playback in the 2D playback mode, the sum S ext1 [1] + S 2D is changed from the read buffer to the system between the start of reading the 2D extent EXT2D [1] and the completion of the long jump J LY. -It may be more than the amount of data sent to the target decoder.
  • each size S ext2 [0] of the size S ext2 [0] and base-view data block L1 of the right-view data block R1 belonging to 3D extent EXTSS [0] located immediately before the layer boundary LB, S ext2D [0] may be a value that allows the buffer margin to be maintained until immediately before the long jump J LY .
  • 2D playback-dedicated block (L2 + L3) 2D size S 2D size expansion 2D extent pair EXT2D [0], EXT2D [1] size sum S ext2D [0] + S ext2D [1] is constant
  • the size S ext2D [0] of the base-view data block L1 can be further reduced.
  • the size S ext2 [0] of the right-view data block R1 can be limited to a smaller value.
  • the L2 SS and L3 SS pairs for the 3D playback block are 2D playback block (L2 + L3) 2D replica data, so the 2D playback block (L2 + L3) 2D size S 2D expansion is dedicated to each 3D playback.
  • the size of the right-view data blocks R2 and R3 located immediately before the blocks L2 SS and L3 SS is enlarged.
  • each size is immediately before the layer boundary LB shown in FIG. Can be made sufficiently smaller than the size of the right-view data block R3. In this way, the capacity of the read buffer to be secured in the playback device 102 in the L / R mode can be further reduced to a minimum value necessary for seamless playback in the L / R mode.
  • each data block it is possible to design each data block to a size that allows seamless playback of video during a long jump in both the 2D playback mode and the L / R mode. It is possible to keep the capacity of the read buffer to be secured in 102 while keeping it to the minimum necessary. Furthermore, changing the data block to be read in 2D playback mode and L / R mode, especially switching between 2D playback dedicated block (L2 + L3) 2D and 3D playback dedicated block pair L2 SS and L3 SS This can be easily realized by simply switching the AV stream file to be reproduced between the file 2D and the file SS. The same applies to the depth mode.
  • 2D reproduction-dedicated blocks (L2 + L3) 2D copy data is provided as two 3D reproduction-dedicated blocks L2 SS and L3 SS .
  • the replicated data may be provided as one 3D playback dedicated block as shown in FIG. 1, or may be provided as three or more 3D playback dedicated blocks.
  • the 2D playback-dedicated block may be accessible as two or more extents of the file 2D. Further, each data block may be accessible as an extent of two or more types of file 2D or file SS.
  • FIG. 28 is a schematic diagram showing a configuration obtained by removing the depth map data block from the arrangement 1 shown in FIG.
  • These data block groups belong to the main TS and the first sub-TS shown in FIG.
  • the right-view data block group ..., R1, R2, and the base-view data block group ..., L1 and L2 are recorded in an interleaved arrangement.
  • One of the data blocks L3 2D and L3 SS is the other copy data, and they match in bit units.
  • Each data block shown in FIG. 28A is accessible as an extent of either the file 2D or the file DEP except for the 3D playback dedicated block L3 SS .
  • the allocation descriptor # 1 indicates the size of the second-most base-view data block L1 in the first 3D extent block 2801 and the LBN at the head thereof. . Therefore, the base-view data block L1 can be accessed as one 2D extent EXT2D [0].
  • Allocation descriptor # 2 considers the base view data block pair L2 + L3 2D as a single extent and indicates its size and its leading LBN. Therefore, the base view data block pair L2 + L3 2D is accessible as the second 2D extent EXT2D [1].
  • Allocation descriptor # 3 indicates the size of the second base-view data block L4 in the second 3D extent block 2802 and its leading LBN. Accordingly, the base-view data block L4 can be accessed as the third 2D extent EXT2D [2].
  • AV link file cross-linking is realized in the same manner as in FIG. 16.
  • the depth map data block is removed from each 3D extent block 2801 and 2802, there are two or more pairs of right-view data blocks and base-view data blocks having the same extent ATC time. , May be arranged continuously. In that case, these two or more pairs may be accessed as one 3D extent.
  • the allocation descriptor # 1 includes four consecutive right-view data blocks and a base of the first 3D extent block 2801.
  • the view data blocks R1, L1, R2, and L2 are regarded as one extent, and their entire size and the leading LBN are indicated.
  • Allocation descriptor # 2 considers four consecutive right-view data blocks and base-view data blocks R3, L3 SS , R4, and L4 of the second 3D extent block 2802 as one extent. , Showing their overall size and tip LBN. Therefore, the data blocks R3, L3 SS , R4, and L4 can be accessed as the next 3D extent EXTSS [1].
  • the 3D extents EXTSS [0] and EXTSS [1] share the base-view data blocks L1, L2, and L4 with the 2D extents EXT2D [0], EXT2D [1], and EXT2D [2], respectively.
  • the 2D playback-only block L3 2D is accessible only as a part of the 2D extent EXT2D [1] located immediately before the layer boundary LB.
  • the 3D playback dedicated block L3 SS can be accessed only as a part of the 3D extent EXTSS [1] immediately after the layer boundary LB.
  • FIG. 28 is a schematic diagram showing a playback path 2803 in the 2D playback mode and a playback path 2804 in the L / R mode for the data block group shown in (a) of FIG.
  • the playback device 102 plays back the file 2D in the 2D playback mode. Therefore, as indicated by the playback path 2803 in the 2D playback mode, first, the second base-view data block L1 from the last in the first 3D extent block 2801 is read as the first 2D extent EXT2D [0]. The reading of the right-view data block R2 immediately after that is skipped by the first jump J 2D 1. Next, the pair L2 + L3 2D of the last base-view data block L2 in the first 3D extent block 2801 and the 2D playback-dedicated block L3 2D immediately after it is continuous as the second 2D extent EXT2D [1]. Read out.
  • the playback device 102 plays back the file SS in the L / R mode. Accordingly, as indicated by the playback path 2804 in the L / R mode, first, the data block groups R1, L1, R2, and L2 in the first 3D extent block 2801 are continuously used as the first 3D extent EXTSS [0]. Read out. Immediately after that, a long jump JLY occurs, and reading of the 2D playback-only block L3 2D is skipped along with the execution of the focus jump. Subsequently, the data block groups R3, L3 SS , R4, and L4 in the second 3D extent block 2802 are successively read out as the next 3D extent EXTSS [1].
  • the 2D playback dedicated block L3 2D is read, but the reading of the 3D playback dedicated block L3 SS is skipped.
  • the L / R mode reading of the 2D playback-only block L3 2D is skipped, but the 3D playback-only block L3 SS is read.
  • both data blocks L3 2D and L3 SS match in a bit unit, the left-view video frame to be played back is the same in any playback mode.
  • the size S ext1 [1] of the data block L2 can be further reduced.
  • the size S ext2 [1] of the right-view data block R2 can also be limited to be smaller. As a result, the capacity of the read buffer to be secured in the playback device 102 in the L / R mode can be made closer to the minimum value necessary for seamless playback in the L / R mode. The same applies to the other arrangements 2 and 3.
  • each data block can be reproduced seamlessly in a long jump in both the 2D playback mode and the L / R mode. It is possible to design the size such that it can be realized with the minimum capacity of the read buffer to be secured in the playback device 102. Furthermore, changing the data block to be read between the 2D playback mode and the L / R mode, particularly switching between the 2D playback-only block L3 2D and the 3D playback-only block L3 SS , This can be easily realized by simply switching the file between the file 2D and the file SS. ⁇ Other TS packets included in AV stream file ⁇
  • the types of TS packets included in the AV stream file include, in addition to those converted from the elementary streams shown in FIGS. 6 and 7, PAT (Program Association Table), PMT (Program Map Table), and There is PCR (Program Clock Reference).
  • PCR, PMT, and PAT are defined in the European digital broadcasting standard, and originally have a role of defining a partial transport stream constituting one program.
  • the AV stream file is also defined in the same manner as the partial transport stream.
  • PAT indicates the PID of the PMT included in the same AV stream file.
  • the PID of the PAT itself is 0.
  • the PMT includes the PID of each elementary stream representing video / audio / subtitles and the attribute information included in the same AV stream file.
  • the PMT further includes various descriptors (also referred to as descriptors) regarding the AV stream file.
  • the descriptor includes copy control information indicating permission / prohibition of copying of the AV stream file.
  • the PCR includes information indicating the value of STC (System Time Clock) to be associated with the ATS assigned to itself.
  • STC is a clock used as a reference for PTS and DTS in the decoder.
  • the decoder uses PCR to synchronize the STC with the ATC.
  • FIG. 29 is a schematic diagram showing the data structure of the PMT 2910.
  • the PMT 2910 includes a PMT header 2901, a descriptor 2902, and stream information 2903.
  • the PMT header 2901 indicates the length of data included in the PMT 2910.
  • Each descriptor 2902 is a descriptor relating to the entire AV stream file including the PMT 2910.
  • the above-described copy control information is included in one of the descriptors 2902.
  • the stream information 2903 is information on each elementary stream included in the AV stream file, and is assigned to a different elementary stream one by one.
  • Each stream information 2903 includes a stream type 2931, a PID 2932, and a stream descriptor 2933.
  • the stream type 2931 includes identification information of a codec used for compressing the elementary stream.
  • PID 2932 indicates the PID of the elementary stream.
  • the stream descriptor 2933 includes attribute information of the elementary stream, such as a frame rate and an aspect ratio.
  • the decoder in the playback device can process the AV stream file in the same manner as a partial transport stream compliant with the European digital broadcasting standard. Thereby, compatibility between the playback device for the BD-ROM disc 101 and a terminal device compliant with the European digital broadcasting standard can be ensured.
  • FIG. 30 is a schematic diagram showing the data structure of the first clip information file (01000.clpi), that is, the 2D clip information file 531.
  • the dependent view clip information files (02000.clpi, 03000.clpi) 532 and 533 have the same data structure.
  • the data structure common to all clip information files will be described by taking the data structure of the 2D clip information file 531 as an example. Subsequently, differences in data structure between the 2D clip information file and the dependent view clip information file will be described.
  • the 2D clip information file 531 includes clip information 3010, stream attribute information 3020, an entry map 3030, and 3D metadata 3040.
  • the 3D metadata 3040 includes an offset table 3041 and an extent start point 3042.
  • the clip information 3010 includes a system rate 3011, a playback start time 3012, and a playback end time 3013 as shown in FIG.
  • the system rate 3011 indicates the maximum speed at which the “TS packet” belonging to the file 2D (01000.m2ts) 541 is transferred from the read buffer to the system target decoder in the playback device 102.
  • the ATS interval of the source packet is set so that the transfer rate of the TS packet can be suppressed below the system rate.
  • the reproduction start time 3012 indicates the PTS of the first VAU of the file 2D 541, for example, the PTS of the first video frame.
  • the reproduction end time 3012 indicates an STC value delayed by a predetermined amount from the PTS of the VAU at the rear end of the file 2D541, for example, a value obtained by adding the reproduction time per frame to the PTS of the last video frame.
  • the stream attribute information 3020 is a correspondence table between the PID 3021 of each elementary stream included in the file 2D 541 and the attribute information 3022 as shown in FIG.
  • the attribute information 3022 is different for each of the video stream, the audio stream, the PG stream, and the IG stream.
  • the attribute information associated with PID 0x1011 of the primary video stream indicates the type of codec used for compression of the video stream, the resolution of each picture constituting the video stream, the aspect ratio, and the frame rate. Including.
  • the attribute information associated with PID 0x1101 of the primary audio stream includes the type of codec used for compression of the audio stream, the number of channels included in the audio stream, the language, and the sampling frequency.
  • the attribute information 3022 is used by the playback device 102 to initialize the decoder.
  • FIG. 31 is a schematic diagram showing a data structure of the entry map 3030.
  • the entry map 3030 includes a table 3100.
  • the number of tables 3100 is the same as the number of video streams multiplexed in the main TS, and one table stream is allocated to each video stream.
  • each table 3100 is distinguished by the PID of the video stream to which it is assigned.
  • Each table 3100 includes an entry map header 3101 and an entry point 3102.
  • the entry map header 3101 includes the PID associated with the table 3100 and the total number of entry points 3102 included in the table 3100.
  • the entry point 3102 associates a pair of a PTS 3103 and a source packet number (SPN) 3104 with a different entry point ID (EP_ID) 3105 individually.
  • the PTS 3103 is equal to the PTS of any I picture included in the PID video stream indicated by the entry map header 3101.
  • the SPN 3104 is equal to the first SPN of the source packet group in which the I picture is stored.
  • SPN is a serial number assigned to the source packet group belonging to one AV stream file in order from the top. The SPN is used as an address of each source packet in the AV stream file.
  • SPN means the number assigned to the source packet group belonging to the file 2D 541, that is, the source packet group constituting the main TS. Therefore, the entry point 3102 represents the correspondence between the PTS of the I picture included in the file 2D 541 and the address, that is, the SPN.
  • Entry point 3102 does not have to be set for all I pictures in file 2D541. However, when an I picture is located at the beginning of a GOP and a TS packet including the beginning of the I picture is located at the beginning of a 2D extent, an entry point 3102 must be set for the I picture.
  • FIG. 31B is a schematic diagram showing the source packet group 3110 belonging to the file 2D541 that is associated with each EP_ID 3105 by the entry map 3030.
  • FIG. 31C is a schematic diagram showing the correspondence between the source packet group 3110 and the data block group 3120 on the BD-ROM disc 101.
  • the playback device 102 calculates a quotient SPN / 192 ⁇ 2048 when the product of the SPN and the data amount of 192 bytes per source packet is divided by the data amount of 2048 bytes per sector.
  • the value is the total number of sectors in which the portion before the aligned unit including the source packet to which the SPN is allocated is recorded in the main TS. be equivalent to.
  • the playback device 102 refers to the allocation descriptor in the file entry of the file 2D541, and specifies the LBN of the sector (counted above + 1) from the head of the sector group in which the 2D extent group is recorded.
  • the playback device 102 designates the LBN to the BD-ROM drive 121.
  • the base-view data block group is read out in units of aligned units in order from the sector of the LBN.
  • the playback device 102 further selects a source packet indicated by the entry point at the playback start position from the aligned unit that is read first, and decodes it to an I picture. Thereafter, subsequent pictures are sequentially decoded using the previously decoded pictures. In this way, the playback device 102 can play back 2D video images after a specific PTS from the file 2D541.
  • the entry map 3030 is further advantageous for efficient processing of special playback such as fast forward playback and rewind playback.
  • the playback device 102 uses the file entry of the file 2D 541 to specify the LBN of the sector corresponding to each SPN.
  • the playback device 102 designates each LBN to the BD-ROM drive 121. Thereby, the aligned unit is read from the sector of each LBN.
  • the playback device 102 further selects a source packet indicated by each entry point from each aligned unit and decodes it to an I picture.
  • the playback device 102 can selectively play back I pictures from the file 2D 541 without analyzing the 2D extent group EXT2D [n] itself.
  • FIG. 32A is a schematic diagram showing the data structure of the offset table 3041.
  • the offset table 3041 is information used for the cropping process by the playback device 102 in the 3D playback mode.
  • “Cropping processing” refers to processing for generating a pair of plane data representing a left view and a right view from data representing a 2D video.
  • “Plane data” means a two-dimensional array of pixel data, the size of which is equal to the resolution of the video frame.
  • One set of pixel data consists of a combination of a color coordinate value and an ⁇ value (opacity).
  • the color coordinate value is represented by an RGB value or a YCrCb value.
  • the cropping target includes plane data generated from each of the PG stream, IG stream, and secondary video stream in the main TS, and image plane data generated according to the BD-J object. It is.
  • the cropping process changes the position of each pixel data in the plane data in the horizontal direction. Therefore, in the plane data pair obtained by the cropping process, the display positions of the left view and the right view are shifted from the original 2D video display position to the left and right. These displacements are perceived by the viewer as binocular parallax, so that a pair of left view and right view appears as one 3D video to the viewer.
  • the offset table 3041 includes a table 3210 for each PID of the PG stream, IG stream, and secondary video stream.
  • Each table 3210 is a correspondence table between the PTS 3201 and the offset value 3202.
  • PTS3201 represents the display time of each plane data produced
  • the offset value 3202 represents the amount of horizontal displacement of each pixel data by the cropping process by the number of signed pixels. For example, a plus sign represents a rightward displacement, and a minus sign is the opposite. The sign of the offset value 3202 is determined depending on whether the depth of the 3D video is nearer or deeper than the screen.
  • the pair 3203 of the PTS 3201 and the offset value 3202 is referred to as “offset entry”.
  • FIG. 32 is a schematic diagram showing the effective section of the offset entry.
  • the valid section of each offset entry is a period from the time indicated by the PTS of the offset entry to the time indicated by the PTS of the next offset entry in the time measured by the STC.
  • the cropping process changes the display position of the pixel data in the plane data by the offset value of the offset entry.
  • the PTS of offset entry # 1 is 180,000
  • the PTS of offset entry # 2 is 270000
  • the PTS of offset entry # 3 is 360000.
  • the offset value “+5” of the offset entry # 1 is valid in the STC range 3204 from 180000 to 270000
  • the offset entry # 2 The offset value “+3” is valid in the STC range 3205 from 270000 to 360000.
  • the “extent start point (Extent_Start_Point)” 3042 includes a base view extent ID (EXT1_ID) 3311 and an SPN 3312.
  • the EXT1_ID 3311 is a serial number assigned in order from the top to each base-view data block belonging to the first file SS (01000.ssif) 544A.
  • One SPN 3312 is assigned to each EXT1_ID 3311 and is equal to the SPN of the source packet located at the top of the base-view data block identified by the EXT1_ID 3311.
  • the SPN is a serial number sequentially assigned to each source packet included in the base-view data block group belonging to the first file SS 544A.
  • the base view data block is shared by the file 2D (01000.m2ts) and the first file SS 544A.
  • the 2D playback-only block belongs only to the file 2D541
  • the 3D playback-only block belongs only to the first file SS544A. Therefore, the SPN 3312 indicated by the extent start point 3042 is generally different from the SPN of the source packet located at the tip of the 2D extent belonging to the file 2D541.
  • FIG. 33B is a schematic diagram showing the data structure of the extent start point 3320 included in the second clip information file (02000.clpi), that is, the right-view clip information file 532.
  • the extent start point 3320 includes a right-view extent ID (EXT2_ID) 3321 and an SPN 3322.
  • EXT2_ID 3321 is a serial number assigned in order from the top to each right-view data block belonging to the first file SS 544A.
  • One SPN 3322 is assigned to each EXT2_ID 3321 and is equal to the SPN of the source packet located at the top of the right-view data block identified by the EXT2_ID 3321.
  • the SPN is a serial number assigned in order from the top to each source packet included in the right-view data block group belonging to the first file SS 544A.
  • FIG. 33D shows the correspondence between right-view extents EXT2 [0], EXT2 [1],... Belonging to the first file DEP (02000.m2ts) 542 and the SPN 3322 indicated by the extent start point 3320. It is a schematic diagram to represent. In any of the data block groups shown in FIGS. 16, 21, 24, and 26, the right-view data block is shared by the first file DEP542 and the first file SS544A. Therefore, as shown in FIG. 33D, each SPN 3322 indicated by the extent start point 3320 is the SPN of the source packet located at the tip of each right-view extent EXT2 [0], EXT2 [1],. be equivalent to.
  • the extent start point 3042 of the 2D clip information file 531 and the extent start point 3320 of the right-view clip information file 532 are included in each 3D extent when 3D video is played back from the first file SS 544A, as will be described below. Used to detect data block boundaries.
  • FIG. 33 (e) shows an example of the correspondence between the 3D extents EXTSS [0], EXTSS [1],... Belonging to the first file SS 544A and the data block group 3350 on the BD-ROM disc 101. It is a schematic diagram. Referring to FIG. 33E, the data block group 3350 is the same as the arrangement 1 shown in FIG. The following description is similarly applied to the interleaved arrangement and the other arrangements 2 and 3.
  • pairs R1 + L1, R2 + L2, R3 + L3 SS , R4 + L4 of adjacent right-view data block and base-view data block are 3D extents EXTSS [0], EXTSS [1], EXTSS [ 2], accessible as EXTSS [3].
  • EXTSS [n] 0
  • EXTSS [n] 0
  • EXTSS [n] 0
  • EXTSS [n 0, 1, 2,
  • the playback device 102 in the L / R mode uses the extent start points 3042 and 3320 in addition to the entry maps of the clip information files 531 and 532 to write any scene. From the PTS of the frame representing the view, the LBN of the sector in which the right-view data block including the frame is recorded is specified. Specifically, the playback device 102 first searches the SPN associated with the PTS from the entry map of the right-view clip information file 532, for example. Assume that the source packet indicated by the SPN is included in the third right-view extent EXT2 [2] of the first file DEP542, that is, the right-view data block R3.
  • the playback device 102 searches the SPN 3322 indicated by the extent start point 3320 of the right-view clip information file 532 for the largest “B2” below the target SPN and the corresponding EXT2_ID “2”. Subsequently, the playback device 102 searches the extent start point 3042 of the 2D clip information file 531 for the value “A2” of the SPN 3312 corresponding to the EXT1_ID equal to the EXT2_ID “2”. The playback device 102 further obtains a sum B2 + A2 of the values of the searched SPNs 3024 and 3320. As can be understood from FIG.
  • the sum B2 + A2 is the third right-view data block among the data blocks included in the 3D extent group EXTSS [0], EXTSS [1],. It is equal to the total number of source packets included in those arranged before R3. Therefore, the quotient (B2 + A2) ⁇ 192/2048 obtained by dividing the product of the sum B2 + A2 and the data amount of 192 bytes per source packet by the data amount of 2048 bytes per sector is from the top of the 3D extent group. It is equal to the number of sectors up to immediately before the third right-view data block R3. If the allocation descriptor in the file entry of the first file SS 544A is traced using this quotient, the LBN of the sector in which the tip of the right-view data block R3 is recorded can be specified.
  • the playback device 102 specifies the LBN as described above, and then designates the LBN to the BD-ROM drive 121. Thereby, the 3D extent group recorded after the sector of the LBN, that is, the 3D extent group after the third right-view data block R3 is read in aligned units.
  • the playback device 102 converts the (B1 + A1) th source packet and the subsequent (B2 ⁇ B1-1) source packets into a total of (B2 ⁇ B1) source packets as the second dependent view Extract as data block R2.
  • the playback device 102 further converts the total of (A2 ⁇ A1) source packets including the (A1 + B2) th source packet and the subsequent (A2 ⁇ A1-1) source packets into the second base-view data block. Extract as L2.
  • the playback device 102 similarly detects the boundary between the data blocks in each 3D extent from the number of read source packets, and alternately extracts each data block of the dependent view and the base view. To do.
  • the extracted base-view data block and right-view data block are passed in parallel to the system target decoder and decoded.
  • the playback device 102 in the L / R mode can play back 3D video images after the specific PTS from the first file SS 544A.
  • the playback apparatus 102 can actually enjoy the advantages (A) and (B) related to the control of the BD-ROM drive 121.
  • FIG. 33 (c) is a schematic diagram showing the base-view data blocks L1, L2,... Extracted from the first file SS 544A by the playback device 102 in the L / R mode.
  • the data block group 3350 shown in FIG. 33 (e) includes both the 2D playback dedicated block L3 2D and the 3D playback dedicated block L3 SS .
  • the base-view data block group shown in FIG. 33C includes a 3D playback dedicated block L3 SS instead of the 2D playback dedicated block L3 2D . Therefore, the SPN 3312 indicated by the extent start point 3042 is equal to the SPN of the source packet located at the tip of each base-view data block.
  • a base view data block group extracted from one file SS using an extent start point, as in the base view data block group shown in FIG. 33C, is called “file base”. . Further, the base view data block included in the file base is referred to as “base view extent”. Each base view extent is referred to by an extent start point in the 2D clip information file, as shown in FIG.
  • the base view extent except for the 2D playback dedicated block and the 3D playback dedicated block, shares the 2D extent and the entity, that is, the base view data block. Further, the 2D playback dedicated block and the 3D playback dedicated block corresponding to each other match in bit units.
  • the file base includes the same main TS as file 2D.
  • the base view extent is not referenced by the allocation descriptor in the file entry of any file.
  • the base view extent is extracted from the 3D extent in the file SS using the extent start point in the clip information file.
  • the file base does not include a file entry and requires an extent start point to refer to the base view extent. In that sense, the file base is a “virtual file”. In particular, the file base is not recognized by the file system and does not appear in the directory / file structure shown in FIG.
  • FIG. 34 is a schematic diagram showing an example of the arrangement of a data block group including the content.
  • the dependent-view data block group ..., D [0], D [1] and the base-view data block group ..., B [0], B [1] are interleaved. And constitutes the first 3D extent block 3401.
  • a 2D playback-only block B [2] 2D is arranged between the rear end B [1] of the first 3D extent block 3401 and the layer boundary LB.
  • a 2D playback-only block B [2] 2D is arranged.
  • the first base-view data block B [2] SS in the second 3D extent block 3402 is a 3D playback-only block, and matches the 2D playback-only block B [2] 2D in bit units.
  • FIG. 34 also shows the correspondence between the data block group 3400 and the extent group of the file 2D 3410.
  • Base view data block in the first 3D extent block 3401, B [0], except for the last one B [1], is alone in the file 2D3410 as one 2D extent ..., EXT2D [0]. Belongs.
  • the last base-view data block B [1] in the first 3D extent block 3401 is filed as one 2D extent EXT2D [1] in a pair with the immediately following 2D playback block B [2] 2D. Belongs to 2D3410.
  • Each 2D extent is accessible by using the allocation descriptor in the file entry of file 2D 3410 as reference data.
  • FIG. 34 also shows the correspondence between the data block group 3400 and the extent group of the file DEP3412.
  • Each dependent-view data block in the first 3D extent block 3401 ..., D [0], D [1], and each dependent-view data in the second 3D extent block 3402
  • the blocks D [2], D [3],... Belong to the file DEP 3412 as dependent view extents, EXT2 [0], EXT2 [1], EXT2 [2],.
  • Each dependent view extent is accessible by using the allocation descriptor in the file entry of file DEP 3412 as reference data.
  • FIG. 34 also shows the correspondence between the data block group 3400 and the extent group of the file SS 3420.
  • the data block group 3400 does not include a depth map data block. Therefore, depending on the interleaved arrangement in any 3D extent block 3401, 3402, the dependent view data block ..., D [0], D [1], D [2], D [3], ... View data blocks ..., B [0], B [1], B [2] SS , B [3], ... are alternately continuous.
  • the file SS 3420 may include a portion in which two or more pairs of dependent-view data blocks and base-view data blocks having the same extent ATC time are continuous as one 3D extent.
  • FIG. 1 the dependent view data block ..., D [0], D [1], D [2], D [3], ...
  • two consecutive dependent-view data block and base-view data block pairs D [0] + B [0], D [1] + B in the first 3D extent block 3401 [1] belongs to the file SS3420 as one 3D extent EXTSS [0].
  • the pair D [2] + B [2] SS , D [3] + B [of two consecutive dependent-view data blocks and base-view data blocks in the second 3D extent block 3402 3] belong to the file SS3420 as one 3D extent EXTSS [1].
  • the 3D extents EXTSS [0] and EXTSS [1] are the same as the 2D extents EXT2D [0], EXT2D [1], EXT2D [2], and EXT2D [3]. ], B [2] SS and B [3] are shared, and dependent view extents EXT2 [0], EXT2 [1], EXT2 [2], and EXT2 [3] are dependent view data Share blocks D [0], D [1], D [2], D [3]. Each 3D extent can be accessed using the allocation descriptor in the file entry of file SS3420 as reference data.
  • the playback device 102 After reading the 3D extents EXTSS [0] and EXTSS [1], the playback device 102 uses the extent start points in the clip information files corresponding to the file 2D3410 and the file DEP3412, respectively, and uses the 3D extents EXTSS [0]. , EXTSS [1], base view data blocks B [0], B [1], B [2] SS , B [3] are extracted. These base-view data blocks B [0], B [1], B [2] SS and B [3] are base-view extents EXT1 [0], EXT1 [1], EXT1 [2], EXT1 [ 3] belongs to the file base 3411. Each base-view extent EXT1 [0], EXT1 [1], EXT1 [2], EXT1 [3] is referred to by the extent start point in the 2D clip information file corresponding to the file 2D3410.
  • the base view data block is identified as the base view extent (except for the 2D playback-only block), and the dependent view data block is the dependent view extent. Equate with
  • the dependent view clip information file has the same data structure as the 2D clip information file shown in FIGS. 30-33. Therefore, in the following description, the difference between the dependent-view clip information file and the 2D clip information file will be referred to, and the above description will be used for similar points.
  • the dependent-view clip information file differs from the 2D clip information file in the following three points (i), (ii), and (iii): (i) Conditions are imposed on the stream attribute information; (ii) A condition is imposed on the entry point; (iii) 3D metadata does not include an offset table.
  • the dependent-view video stream is compressed using the base-view video stream.
  • the dependent-view video stream has the same base-view video stream and video stream attributes.
  • the codec, the resolution, the aspect ratio, and the frame rate must match between the video stream attribute information. If the codec types match, a reference relationship in encoding is established between the pictures of the base-view video stream and the dependent-view video stream, so that each picture can be decoded. If the resolution, aspect ratio, and frame rate all match, the screen display of the left and right images can be synchronized. Therefore, those videos can be shown as 3D videos without giving the viewer a sense of incongruity.
  • the dependent view clip information file entry map includes a table assigned to the dependent view video stream.
  • the table includes an entry map header and entry points, similar to 3100 shown in FIG.
  • the entry map header indicates the PID of the corresponding dependent-view video stream, ie 0x1012 or 0x1013.
  • Each entry point associates a pair of PTS and SPN with one EP_ID.
  • the PTS of each entry point is equal to the PTS of the first picture of any GOP included in the dependent-view video stream.
  • the SPN of each entry point is equal to the first SPN of the source packet group in which the picture indicated by the PTS belonging to the same entry point is stored.
  • SPN means a serial number assigned in order from the top to the source packet group belonging to the file DEP, that is, the source packet group constituting the sub-TS.
  • the PTS of each entry point must match the PTS of the entry point in the table assigned to the base view video stream in the entry map of the 2D clip information file. That is, when an entry point is set at the head of a source packet group including one of a pair of pictures included in the same 3D / VAU, the entry point is always set at the head of the source packet group including the other. Must have been.
  • FIG. 35 is a schematic diagram showing examples of entry points set in the base-view video stream 3510 and the dependent-view video stream 3520.
  • GOPs in the same order counted from the beginning represent videos in the same reproduction period.
  • entry points 3501B, 3503B, and 3505B are set at the heads of odd-numbered GOP # 1, GOP # 3, and GOP # 5 counted from the head.
  • entry points 3501D, 3503D, and 3505D are set at the heads of the odd-numbered GOP # 1, GOP # 3, and GOP # 5 counted from the head. ing.
  • the playback device 102 can immediately calculate the address of the playback start position in the file SS from the SPN of the corresponding entry points 3503B and 3503D.
  • the sum of the SPNs of entry points 3503B and 3503D is the top of file SS. Is equal to the number of source packets included in the portion from the playback start position.
  • the LBN of the sector in which the portion of the reproduction start position in the file SS is recorded can be calculated from the number of source packets. In this way, even in the playback of 3D video, the response speed of processing that requires random access of the video stream, such as jumping playback, can be improved.
  • FIG. 36 is a schematic diagram showing the data structure of a 2D playlist file.
  • the first playlist file (00001.mpls) 521 shown in FIG. 5 has this data structure.
  • the 2D playlist file 521 includes a main path 3601 and two sub-paths 3602 and 3603.
  • the main path 3601 is an array of play item information (PI), and defines the main playback path of the file 2D 541, that is, the playback target portion and the playback order.
  • Each PI # N defines a different playback section of the main playback path with a pair of PTSs. One of the pairs represents the start time (In-Time) of the playback section, and the other represents the end time (Out-Time).
  • the order of PIs in the main path 3601 represents the order of the corresponding playback sections in the playback path.
  • Each sub-path 3602 and 3603 is an array of sub-play item information (SUB_PI), and defines playback paths that can accompany the main playback path of the file 2D 541 in parallel.
  • the reproduction path means a part different from the part of the file 2D541 represented by the main path 3601, or a part of stream data multiplexed in another file 2D and a reproduction order thereof.
  • the stream data represents another 2D video to be played simultaneously with the 2D video played from the file 2D 541 according to the main path 3601.
  • the other 2D video includes, for example, a sub-video in a picture-in-picture system, a browser screen, a pop-up menu, or subtitles.
  • Sub-paths 3602 and 3603 are assigned serial numbers “0” and “1” in the order of registration in the 2D playlist file 521.
  • the serial number is used as a sub path ID to identify each of the sub paths 3602 and 3603.
  • Each SUB_PI # M defines a playback section having a different playback path by a pair of PTSs. One of the pair represents the reproduction start time of the reproduction section, and the other represents the reproduction end time.
  • the order of SUB_PI in each of the sub-paths 3602 and 3603 represents the order of the corresponding playback section in the playback path.
  • FIG. 37 is a schematic diagram showing the data structure of PI # N.
  • PI # N includes reference clip information 3701, playback start time (In_Time) 3702, playback end time (Out_Time) 3703, connection condition 3704, and stream selection table (hereinafter STN (Stream Number)).
  • STN Stream Number
  • the reference clip information 3701 is information for identifying the 2D clip information file 531.
  • the reproduction start time 3702 and the reproduction end time 3703 indicate the PTSs at the leading end and the trailing end of the reproduction target portion of the file 2D541.
  • connection condition 3704 connects the video in the playback section specified by the playback start time 3702 and the playback end time 3703 to the video in the playback section specified by the previous PI # (N ⁇ 1). Specify the conditions for when.
  • the STN table 3705 represents a list of elementary streams that can be selected from the file 2D 541 by the decoder in the playback apparatus 102 between the playback start time 3702 and the playback end time 3703.
  • the SUB_PI data structure is common to the PI data structure shown in FIG. 37 in that it includes reference clip information, a playback start time, and a playback end time.
  • the playback start time and playback end time of SUB_PI are represented by the same values on the time axis as those of PI.
  • the SUB_PI further includes a field called “SP connection condition”.
  • the SP connection condition has the same meaning as the PI connection condition.
  • connection condition 3704 There are three types of values for connection condition 3704: “1”, “5”, and “6”.
  • connection condition 3704 is “1”
  • the video reproduced from the portion of the file 2D541 defined by PI # N is reproduced from the portion of the file 2D541 defined by the immediately preceding PI # (N ⁇ 1). It is not always necessary to be seamlessly connected to the video.
  • connection condition 3704 is “5” or “6”
  • both videos must be connected seamlessly.
  • 38 (a) and 38 (b) are schematic diagrams showing the relationship between two playback sections 3801 and 3802 to be connected when the connection condition 3704 is “5” and “6”, respectively.
  • PI # (N ⁇ 1) defines the first part 3801 of the file 2D541
  • PI # N defines the second part 3802 of the file 2D541.
  • the STC may be interrupted between the two PI # (N ⁇ 1) and PI # N. That is, PTS # 1 at the rear end of the first portion 3801 and PTS # 2 at the front end of the second portion 3802 may be discontinuous.
  • some constraints must be met.
  • the portions 3801 and 3802 must be created so that the decoder can continue the decoding process smoothly. Furthermore, the last frame of the audio stream included in the first portion 3801 must overlap the first frame of the audio stream included in the second portion 3802.
  • the connection condition 3704 is “6”
  • the first part 3801 and the second part 3802 can be handled as a series of parts in the decoding process of the decoder. There must be. That is, both the STC and the ATC must be continuous between the first portion 3801 and the second portion 3802.
  • the SP connection condition is “5” or “6”
  • both the STC and the ATC must be continuous between the portions of the file 2D defined by two adjacent SUB_PIs.
  • the STN table 3705 is an array of stream registration information.
  • the “stream registration information” is information that individually indicates elementary streams that can be selected as playback targets from the main TS between the playback start time 3702 and the playback end time 3703.
  • a stream number (STN) 3706 is a serial number assigned individually to the stream registration information, and is used by the playback apparatus 102 to identify each elementary stream.
  • the STN 3706 further represents the priority of selection among elementary streams of the same type.
  • the stream registration information includes a stream entry 3709 and stream attribute information 3710.
  • the stream entry 3709 includes stream path information 3707 and stream identification information 3708.
  • the stream path information 3707 is information indicating the file 2D to which the selected elementary stream belongs.
  • the file 2D corresponds to the 2D clip information file indicated by the reference clip information 3701.
  • Either the playback start time or playback end time specified by the SUB_PI is included in the period from the playback start time 3702 specified by PI including the STN table 3705 to the playback end time 3703.
  • the stream identification information 3708 indicates the PID of the elementary stream multiplexed in the file 2D specified by the stream path information 3707.
  • the elementary stream indicated by this PID can be selected between the reproduction start time 3702 and the reproduction end time 3703.
  • Stream attribute information 3710 represents attribute information of each elementary stream. For example, each attribute information of an audio stream, a PG stream, and an IG stream indicates a language type.
  • FIG. 39 is a schematic diagram showing the correspondence between the PTS indicated by the 2D playlist file (00001.mpls) 521 and the portion reproduced from the file 2D (01000.m2ts) 541.
  • PI # 1 defines PTS # 1 indicating the playback start time IN1 and PTS # 2 indicating the playback end time OUT1.
  • the reference clip information 3701 of PI # 1 indicates a 2D clip information file (01000.clpi) 531.
  • the playback device 102 first reads PTS # 1 and # 2 from PI # 1.
  • the playback device 102 refers to the entry map of the 2D clip information file 531 and searches for the SPNs # 1 and # 2 in the file 2D541 corresponding to the PTSs # 1 and # 2. Subsequently, the playback device 102 calculates the number of sectors corresponding to each from SPN # 1, # 2. The playback device 102 further utilizes the number of sectors and the allocation descriptor in the file entry of the file 2D 541 to record the sector group in which the playback target 2D extent group EXT2D [0],..., EXT2D [n] is recorded. LBN # 1 at the front end of P1 and LBN # 2 at the rear end are specified.
  • the playback device 102 designates the range from LBN # 1 to LBN # 2 to the BD-ROM drive 121. Thereby, the source packet group belonging to the 2D extent group EXT2D [0],..., EXT2D [n] is read from the sector group P1 in the range. Similarly, a pair of PTS # 3 and # 4 indicated by PI # 2 is first converted into a pair of SPN # 3 and # 4 using the entry map of the 2D clip information file 531.
  • the pair of SPN # 3 and # 4 is converted into the pair of LBN # 3 and # 4.
  • the source packet group belonging to the 2D extent group is read from the sector group P2 in the range from LBN # 3 to LBN # 4. Conversion from PTS # 5, # 6 pair indicated by PI # 3 to SPN # 5, # 6 pair, conversion from SPN # 5, # 6 pair to LBN # 5, # 6 pair, and LBN # The reading of the source packet group from the sector group P3 in the range from 5 to LBN # 6 is the same.
  • the playback device 102 can play back 2D video from the file 2D541 in accordance with the main path 3601 of the 2D playlist file 521.
  • the 2D playlist file 521 may include an entry mark 3901.
  • An entry mark 3901 indicates a point in the main path 3601 at which playback should actually start. For example, as shown in FIG. 39, a plurality of entry marks 3901 may be set for PI # 1.
  • the entry mark 3901 is used for searching for the playback start position, particularly in cue playback. For example, when the 2D playlist file 521 defines the playback path of a movie title, an entry mark 3901 is added to the beginning of each chapter. Thereby, the playback device 102 can play back the movie title for each chapter.
  • FIG. 40 is a schematic diagram showing the data structure of the 3D playlist file 4000.
  • Both the second playlist file (00002.mpls) 522 and the second playlist file (00003.mpls) 523 shown in FIG. 5 have the same data structure as this 3D playlist file.
  • the 3D playlist file 4000 includes a main path 4001, a sub path 4002, and extended data 4003.
  • the main path 4001 defines the playback path of the main TS shown in FIG. Therefore, the main path 4001 is equal to the main path 3601 of the 2D playlist file shown in FIG.
  • the playback device 102 in the 2D playback mode can play back 2D video from the file 2D541 in accordance with the main path 4001 of the 3D playlist file 4000.
  • the sub-path 4002 defines the reproduction path of the sub-TS shown in FIGS. 6B and 6C, that is, the reproduction path of either the first file DEP542 or the second file DEP543.
  • the data structure of the subpath 4002 is the same as the data structure of the subpaths 3602 and 3603 of the 2D playlist file shown in FIG. Therefore, for the details of the similar data structure, particularly the details of the data structure of SUB_PI, the description using FIG. 36 is cited.
  • Sub-path 4002 has a one-to-one correspondence with PI # N in the main path 4001. Furthermore, the playback start time and playback end time specified by each SUB_PI # N are equal to the playback start time and playback end time specified by the corresponding PI # N, respectively.
  • Subpath 4002 additionally includes subpath type 4021. “Sub-path type” generally indicates whether or not the reproduction processing should be synchronized between the main path and the sub-path. In the 3D playlist file 4000, the sub-path type 4021 particularly indicates the type of 3D playback mode, that is, the type of the dependent-view video stream to be played according to the sub-path 4002. In FIG.
  • the value of the sub-path type 4021 is “3D ⁇ L / R”, so that the 3D playback mode is the L / R mode, that is, the right-view video stream is to be played back. Show.
  • the value of the sub-path type 4021 is “3D depth”, it indicates that the 3D playback mode is the depth mode, that is, the depth map stream is the playback target.
  • the playback device 102 in the 3D playback mode detects that the value of the sub-path type 4021 is “3D ⁇ L / R” or “3D depth”, the playback processing according to the main path 4001 and the sub-path 4002 Synchronize with the playback process.
  • the extended data 4003 is a part that is interpreted only by the playback device 102 in the 3D playback mode, and is ignored by the playback device 102 in the 2D playback mode.
  • the extension data 4003 includes an extension stream selection table 4030.
  • the “extended stream selection table (STN_table_SS)” (hereinafter abbreviated as STN table SS) is an array of stream registration information to be added to the STN table indicated by each PI in the main path 4001 in the 3D playback mode. This stream registration information indicates an elementary stream that can be selected as a playback target from the sub-TS.
  • FIG. 41 is a schematic diagram showing the data structure of the STN table SS4030.
  • the STN table SS 4030 includes stream registration information sequences 4101, 4102, 4103,.
  • the stream registration information columns 4101, 4102, 4103,... Individually correspond to the PIs # 1, # 2, # 3,... In the main path 4001, and the STN table in the corresponding PI by the playback device 102 in the 3D playback mode. Is used in combination with the stream registration information sequence included in.
  • a stream registration information column 4101 for each PI includes a popup period offset (Fixed_offset_during_Popup) 4111, a dependent-view video stream stream registration information column 4112, a PG stream stream registration information column 4113, and an IG stream stream registration information. Includes column 4114.
  • the pop-up period offset 4111 indicates whether or not the pop-up menu is played from the IG stream.
  • the playback device 102 in the 3D playback mode changes the display mode (presentation mode) between the video plane and the PG plane according to the value of the offset 4111.
  • video plane display modes there are two types: a base view (B) -dependent view (D) display mode and a BB display mode.
  • Each display mode includes a PG plane and an IG plane.
  • the BD display mode is selected as the display mode of the video plane, and the 2-plane mode or 1 plane + offset mode is selected as the display mode of the PG plane.
  • the value of the offset 4111 in the pop-up period is “1”
  • the pop-up menu is reproduced from the IG stream.
  • the BB display mode is selected as the video plane display mode
  • the 1 plane + zero offset mode is selected as the display mode of the PG plane.
  • the playback device 102 alternately outputs plane data decoded from the video streams of the left view and the right view. Accordingly, since the left view frame and the right view frame represented by the video plane are alternately displayed on the screen of the display device 103, the viewer can see them as a 3D image.
  • the playback device 102 maintains the operation mode in the 3D playback mode (particularly, maintains the frame rate at the value at the time of 3D playback, for example, 48 frames / second), the base view video, Only the plain data decoded from the stream is output twice per frame. Accordingly, since only one of the left view and right view frames is displayed on the screen of the display device 103 for the video plane, the viewer can only see them as 2D video.
  • the playback device 102 uses the graphics plane data of the left view and right view from each graphics stream. Are decoded and output alternately.
  • “1 plane + offset mode” the playback device 102 generates a plane data pair of a left view and a right view from the graphics stream in the main TS by cropping processing, and alternately outputs the pair.
  • the left view and right view PG planes are alternately displayed on the screen of the display device 103, so that the viewer sees them as 3D images.
  • the playback device 102 In “1 plane + zero offset mode”, the playback device 102 temporarily stops the cropping process while maintaining the operation mode in the 3D playback mode, and decodes the plane decoded from the graphics stream in the main TS. -Output data twice per frame. Therefore, since only the PG plane of the left view or the right view is displayed on the screen of the display device 103, the viewer can only see them as 2D video.
  • the playback device 102 in the 3D playback mode refers to the offset 4111 of the pop-up period for each PI. select. Thereby, while the pop-up menu is displayed, the other 3D video is temporarily changed to the 2D video, thereby improving the visibility and operability of the pop-up menu.
  • the dependent view video stream stream registration information column 4112, the PG stream registration information column 4113, and the IG stream registration information column 4114 are respectively a dependent view that can be selected as a playback target from the sub-TS. It includes stream registration information indicating a video stream, a PG stream, and an IG stream. Each of these stream registration information columns 4112, 4113, and 4114 is combined with the stream registration information columns included in the STN table in the corresponding PI, indicating the base-view video stream, PG stream, and IG stream. Used.
  • the playback device 102 in the 3D playback mode reads any stream registration information in the STN table, the playback device 102 automatically reads the stream registration information sequence in the STN table SS combined with the stream registration information. Accordingly, when the 2D playback mode is simply switched to the 3D playback mode, the playback device 102 can maintain the set STN, stream attributes such as language, and the like.
  • the stream registration information sequence 4112 generally includes a plurality of stream registration information (SS_dependet_view_block) 4201. They are the same as the stream registration information in the corresponding PI indicating the base-view video stream.
  • Each stream registration information 4201 includes STN 4211, stream entry 4212, and stream attribute information 4213.
  • STN4211 is a serial number individually assigned to the stream registration information 4201, and is equal to the STN of stream registration information to be combined in the corresponding PI.
  • the stream entry 4212 includes sub path ID reference information (ref_to_Subpath_id) 4221, stream file reference information (ref_to_subClip_entry_id) 4222, and PID (ref_to_stream_PID_subclip) 4223.
  • the subpath ID reference information 4221 indicates the subpath ID of the subpath that defines the playback path of the dependent-view video stream.
  • the stream file reference information 4222 is information for identifying the file DEP in which the dependent-view video stream is stored.
  • PID 4223 is the PID of the dependent-view video stream.
  • the stream attribute information 4213 includes attributes of the dependent-view video stream, such as frame rate, resolution, and video format. In particular, they are the same as those of the base-view video stream indicated by the stream registration information to be combined in the corresponding PI.
  • the stream registration information sequence 4113 generally includes a plurality of stream registration information 4231. They are the same as the number indicating the PG stream among the stream registration information in the corresponding PI.
  • Each stream registration information 4231 includes an STN 4241, a stereoscopic flag (is_SS_PG) 4242, a base view stream entry (stream_entry_for_base_view) 4243, a dependent view stream entry (stream_entry_for_depentdent_view) 4244, and stream attribute information 4245.
  • STN 4241 is a serial number individually assigned to the stream registration information 4231 and is equal to the STN of the stream registration information to be combined in the corresponding PI.
  • the stereoscopic flag 4242 indicates whether or not the BD-ROM disc 101 includes both base view and dependent view, for example, left view and right view PG streams. When the stereoscopic flag 4242 is on, both PG streams are included in the sub-TS. Accordingly, any of the fields of the base view stream entry 4243, the dependent view stream entry 4244, and the stream attribute information 4245 are read by the playback device. When the stereoscopic flag 4242 is off, any of these fields 4243-4245 are ignored by the playback device.
  • Each of the base view stream entry 4243 and the dependent view stream entry 4244 includes sub path ID reference information, stream file reference information, and PID.
  • the sub path ID reference information indicates a sub path ID of a sub path that defines a playback path of each PG stream in the base view and the dependent view.
  • the stream file reference information is information for identifying the file DEP in which each PG stream is stored.
  • PID is the PID of each PG stream.
  • the stream attribute information 4245 includes attributes of each PG stream, for example, language type.
  • this stream registration information sequence 4114 generally includes a plurality of stream registration information 4251. They are the same number as the stream registration information in the corresponding PI indicating the IG stream.
  • Each stream registration information 4251 includes an STN 4261, a stereoscopic flag (is_SS_IG) 4262, a base view stream entry 4263, a dependent view stream entry 4264, and stream attribute information 4265.
  • STN 4261 is a serial number individually assigned to the stream registration information 4251 and is equal to the STN of the stream registration information to be combined in the corresponding PI.
  • the stereoscopic flag 4262 indicates whether or not the BD-ROM disc 101 includes both base view and dependent view, for example, left view and right view IG streams. When the stereoscopic flag 4262 is on, both IG streams are included in the sub-TS. Therefore, all the fields of the base view stream entry 4263, the dependent view stream entry 4264, and the stream attribute information 4265 are read by the playback device. When the stereoscopic flag 4262 is off, any of these fields 4263-4265 are ignored by the playback device.
  • Each of the base view stream entry 4263 and the dependent view stream entry 4264 includes sub path ID reference information, stream file reference information, and PID.
  • the subpath ID reference information indicates a subpath ID of a subpath that defines a playback path of each IG stream in the base view and the dependent view.
  • the stream file reference information is information for identifying the file DEP in which each IG stream is stored.
  • PID is the PID of each IG stream.
  • the stream attribute information 4265 includes attributes of each IG stream, for example, language type.
  • FIG. 43 is a schematic diagram showing the correspondence between the PTS indicated by the 3D playlist file (00002.mpls) 522 and the portion reproduced from the first file SS (01000.ssif).
  • PI # 1 defines PTS # 1 indicating the playback start time IN1 and PTS # 2 indicating the playback end time OUT1.
  • the reference clip information of PI # 1 indicates a 2D clip information file (01000.clpi) 531.
  • SUB_PI # 1 defines the same PTS # 1 and # 2 as PI # 1.
  • the reference clip information of SUB_PI # 1 indicates a right-view clip information file (02000.clpi) 532.
  • the playback device 102 When the playback device 102 plays back 3D video in accordance with the 3D playlist file 522, the playback device 102 first reads PTS # 1 and # 2 from PI # 1 and SUB_PI # 1. Next, the playback device 102 refers to the entry map of the 2D clip information file 531 and searches for the SPNs # 1 and # 2 in the file 2D541 corresponding to the PTSs # 1 and # 2. Concurrently, the playback device 102 refers to the entry map of the right-view clip information file 532 and searches for the SPNs # 11 and # 12 in the first file DEP542 corresponding to the PTSs # 1 and # 2.
  • the playback device 102 uses the extent start points 3042, 3320 of the clip information files 531, 532 as described in the explanation of FIG. 33 (e), and starts from the SPN # 1, # 11 to the first file SS544A.
  • the number of source packets SPN # 21 from the beginning of the file to the reproduction start position is calculated.
  • the playback device 102 calculates the number of source packets SPN # 22 from SPN # 2, # 12 to the playback end position from the beginning of the first file SS544A.
  • the playback apparatus 102 further calculates the number of sectors corresponding to each of SPN # 21 and # 22.
  • the playback device 102 records the 3D extent groups EXTSS [0],..., EXTSS [n] to be played back using the number of sectors and the allocation descriptor in the file entry of the first file SS 544A.
  • the leading LBN # 1 and the trailing LBN # 2 of the sector group P11 thus identified are specified.
  • the calculation of the number of sectors and the specification of the LBN are the same as those described in the explanation of FIG.
  • the playback device 102 designates the range from LBN # 1 to LBN # 2 to the BD-ROM drive 121. Thereby, the source packet group belonging to the 3D extent group EXTSS [0],..., EXTSS [n] is read from the sector group P11 in the range.
  • a pair of PTS # 3 and # 4 indicated by PI # 2 and SUB_PI # 2 is first set using the entry map of clip information files 531 and 532 and the pair of SPN # 3 and # 4 and SPN # 4. 13 and # 14.
  • the number of source packets SPN # 23 from the top of the first file SS544A to the playback start position is calculated from SPN # 3, # 13, and playback ends from the top of the first file SS544A from SPN # 4, # 14.
  • the number of source packets SPN # 24 up to the position is calculated.
  • the pair of SPN # 23 and # 24 is converted into the pair of LBN # 3 and # 4 using the allocation descriptor in the file entry of the first file SS 544A1.
  • the source packet group belonging to the 3D extent group is read from the sector group P12 in the range from LBN # 3 to LBN # 4.
  • the playback device 102 uses the extent start points 3042, 3320 of the clip information files 531 and 532 as described in the explanation of FIG. Extract the view extent and decode it in parallel with the remaining right-view extents.
  • the playback device 102 can play back 3D video from the first file SS 544A in accordance with the 3D playlist file 522.
  • FIG. 44 is a schematic diagram showing an index table 4410 in the index file (index.bdmv) 511 shown in FIG.
  • Each item is associated with one of movie objects MVO-2D, MVO-3D,..., Or BD-J objects BDJO-2D, BDJO-3D,.
  • the control unit of the playback device 102 refers to a corresponding item in the index table 4410.
  • the control unit further calls an object associated with the item from the BD-ROM disc 101, and executes various processes in accordance therewith.
  • an item “first play” 4401 specifies an object to be called when the disc 101 is inserted into the BD-ROM drive 121.
  • an object for displaying a menu on the display device 103 when a command “return to menu” is input by a user operation is designated.
  • titles constituting the content on the disc 101 are individually assigned. For example, when a title to be played is specified by a user operation, an object for playing a video from an AV stream file corresponding to the title is specified in the item “title k” to which the title is assigned. ing.
  • the movie object MVO-2D associated with the item “title 1” includes a group of instructions related to 2D video playback processing using the 2D playlist file (00001.mpls) 521.
  • the 2D playlist file 521 is read from the disc 101 according to the movie object MVO-2D, and playback of the 2D video along the playback path defined therein is performed. Processing is executed.
  • the BD-J object BDJO-2D associated with the item “title 2” includes an application management table related to 2D video playback processing using the 2D playlist file 521.
  • the Java application program is called from the JAR file 561 and executed according to the application management table in the BD-J object BDJO-2D.
  • the 2D playlist file 521 is read from the disc 101, and a 2D video playback process is executed along the playback path defined therein.
  • the movie object MVO-3D associated with the item “title 3” includes a 3D playlist file (00002.mpls) 522, in addition to a group of commands related to 2D video playback processing using the 2D playlist file 521. (00003.mpls) includes a group of instructions related to 3D video playback processing using any one of 523.
  • the application management table includes a 3D playlist in addition to a Java application program related to 2D video playback processing using the 2D playlist file 521.
  • a Java application program related to 3D video playback processing using either one of the files 522 and 523 is defined.
  • the playback device 102 When the item “title 3” is referenced by the playback device 102, the following four types of discrimination processing are first performed in accordance with the movie object MVO-3D: (1) The playback device 102 itself supports playback of 3D video. Whether (2) the user has selected playback of 3D video, (3) whether the display device 103 supports playback of 3D video, and (4) 3D video of the playback device 102 Whether the playback mode is L / R mode or depth mode. Next, one of the playlist files 521 to 523 is selected as a reproduction target according to the determination result.
  • the Java application program is called from the JAR file 561 and executed according to the application management table in the BD-J object BDJO-3D. Thereby, the above-described determination process is first performed, and then a playlist file is selected according to the determination result.
  • FIG. 45 is a flowchart of the process of selecting a playlist file to be played back when a 3D video title is selected.
  • the selection process is executed according to the movie object MVO-3D, and when the item “title 4” is referenced, the BD is selected.
  • the selection process is executed in accordance with the Java application program defined in the J object BDJO-3D.
  • the playback apparatus 102 includes a first flag and a second flag as a premise of the selection process.
  • the first flag is “0”
  • the playback device 102 can support only playback of 2D video, and when it is “1”, it can also support playback of 3D video.
  • the second flag is “0”
  • the playback device 102 is in the L / R mode, and when it is “1”, it is in the depth mode.
  • step S4501 the playback device 102 checks the value of the first flag. When the value is 0, the process proceeds to step S4505. When the value is 1, the process proceeds to step S4502.
  • step S4502 the playback device 102 displays a menu on the display device 103 and allows the user to select playback of either 2D video or 3D video.
  • the process proceeds to step S4505.
  • the process proceeds to step S4503.
  • step S4503 the playback device 102 checks whether the display device 103 supports 3D video playback. Specifically, the playback device 102 exchanges CEC messages with the display device 103 via the HDMI cable 122, and inquires of the display device 103 whether the display device 103 supports 3D video playback. When the display device 103 supports 3D video reproduction, the process advances to step S4504. If the display device 103 does not support 3D video playback, the process advances to step S4505.
  • step S4504 the playback device 102 checks the value of the second flag. If the value is 0, processing proceeds to step S4506. If the value is 1, the process proceeds to step S4507.
  • step S4505 the playback device 102 selects the 2D playlist file 521 as a playback target. At that time, the playback device 102 may cause the display device 103 to display the reason why playback of 3D video is not selected.
  • step S4506 the playback device 102 selects the 3D playlist file 522 for the L / R mode as a playback target.
  • step S4507 the playback device 102 selects the 3D playlist file 523 for depth mode as a playback target.
  • FIG. 46 is a functional block diagram of the 2D playback device 4600.
  • the 2D playback device 4600 includes a BD-ROM drive 4601, a playback unit 4600A, and a control unit 4600B.
  • the playback unit 4600A includes a read buffer 4602, a system target decoder 4603, and a plane adder 4610.
  • the control unit 4600B includes a dynamic scenario memory 4604, a static scenario memory 4605, a program execution unit 4606, a playback control unit 4607, a player variable storage unit 4608, and a user event processing unit 4609.
  • the reproduction unit 4600A and the control unit 4600B are mounted on different integrated circuits. In addition, both may be integrated into a single integrated circuit.
  • the BD-ROM drive 4601 includes an optical pickup, that is, an optical head.
  • the optical head includes a semiconductor laser, a collimator lens, a beam splitter, an objective lens, a condenser lens, and a photodetector.
  • the light beam emitted from the semiconductor laser is collected in the recording layer of the disk 101 through the collimator lens, the beam splitter, and the objective lens in this order.
  • the collected light beam is reflected / diffracted by the recording layer.
  • the reflected / diffracted light is collected on a photodetector through an objective lens, a beam splitter, and a condenser lens.
  • the photodetector generates a reproduction signal having a level corresponding to the amount of collected light. Further, data is demodulated from the reproduced signal.
  • the BD-ROM drive 4601 reads data from the BD-ROM disc 101 in accordance with a request from the playback control unit 4607. Among the data, the extent of the file 2D, that is, the 2D extent is transferred to the read buffer 4602, the dynamic scenario information is transferred to the dynamic scenario memory 4604, and the static scenario information is transferred to the static scenario memory 4605. Is done.
  • “Dynamic scenario information” includes an index file, a movie object file, and a BD-J object file.
  • Static scenario information includes a 2D playlist file and a 2D clip information file.
  • the read buffer 4602, the dynamic scenario memory 4604, and the static scenario memory 4605 are all buffer memories.
  • a memory element in the playback unit 4600A is used as the read buffer 4602, and a memory element in the control unit 4600B is used as the dynamic scenario memory 4604 and the static scenario memory 4605.
  • different regions of a single memory element may be used as the buffer memories 4602, 4604, 4605.
  • the read buffer 4602 stores 2D extents
  • the dynamic scenario memory 4604 stores dynamic scenario information
  • the static scenario memory 4605 stores static scenario information.
  • the system target decoder 4603 reads the 2D extent from the read buffer 4602 in units of source packets, performs demultiplexing processing, and further performs decoding processing on each separated elementary stream.
  • information necessary for decoding each elementary stream such as the type of codec and the attribute of the stream, is transferred from the reproduction control unit 4607 to the system target decoder 4603 in advance.
  • the system target decoder 4603 further converts the decoded primary video stream, secondary video stream, IG stream, and PG stream into a main video plane data, a sub video plane data, an IG stream for each VAU. Transmit as plane data and PG plane data.
  • the system target decoder 4603 mixes the decoded primary audio stream and secondary audio stream and sends them to an audio output device such as the built-in speaker 103A of the display device 103.
  • the system target decoder 4603 receives graphics data from the program execution unit 4606.
  • the graphics data is for displaying graphics such as a GUI menu on the screen, and is represented by raster data such as JPEG or PNG.
  • the system target decoder 4603 processes the graphics data and sends it as image plane data. Details of the system target decoder 4603 will be described later.
  • the user event processing unit 4609 detects a user operation through the remote controller 105 or the front panel of the playback device 102, and requests the program execution unit 4606 or the playback control unit 4607 to perform processing according to the type of the operation. For example, when the user presses a button on the remote controller 105 to instruct the pop-up menu to be displayed, the user event processing unit 4609 detects the press and identifies the button. The user event processing unit 4609 further requests the program execution unit 4606 to execute a command corresponding to the button, that is, a pop-up menu display process. On the other hand, for example, when the user presses the fast forward or rewind button of the remote controller 105, the user event processing unit 4609 detects the press and identifies the button. The user event processing unit 4609 further requests the playback control unit 4607 to perform fast forward or rewind processing of the currently playing playlist.
  • the playback control unit 4607 controls processing of transferring various data such as 2D extents and index files from the BD-ROM disc 101 to the read buffer 4602, the dynamic scenario memory 4604, and the static scenario memory 4605. To do.
  • a file system for managing the directory / file structure shown in FIG. 5 is used. That is, the playback control unit 4607 uses the file open system call to cause the BD-ROM drive 4601 to transfer various files to the buffer memories 4602, 4604, and 4605.
  • file open means the following series of processing. First, a file name to be searched is given to the file system by a system call, and the file name is searched from the directory / file structure.
  • the file entry of the file to be transferred is transferred to the memory in the reproduction control unit 4607, and an FCB (File Control Block) is generated in the memory. Thereafter, the file handle of the file to be transferred is returned from the file system to the playback control unit 4607. Thereafter, the playback control unit 4607 presents the file handle to the BD-ROM drive 4601 so that the file to be transferred is transferred from the BD-ROM disc 101 to each buffer memory 4602, 4604, 4605. Can be transferred to.
  • FCB File Control Block
  • the playback control unit 4607 controls the BD-ROM drive 4601 and the system target decoder 4603 to decode video data and audio data from the file 2D. Specifically, the playback control unit 4607 first reads out the 2D playlist file from the static scenario memory 4605 in response to a command from the program execution unit 4606 or a request from the user event processing unit 4609, and its contents Is interpreted. Next, the playback control unit 4607 designates the file 2D to be played back to the BD-ROM drive 4601 and the system target decoder 4603 according to the interpreted contents, particularly the playback path, and performs the reading process and the decoding process. Instruct. Such reproduction processing based on a playlist file is called “playlist reproduction”.
  • the playback control unit 4607 sets various player variables in the player variable storage unit 4608 using static scenario information.
  • the playback control unit 4607 further refers to those player variables, specifies the elementary stream to be decoded to the system target decoder 4603, and provides information necessary for decoding each elementary stream.
  • the player variable storage unit 4608 is a register group for storing player variables.
  • the types of player variables include system parameters (SPRM) and general-purpose parameters (GPRM).
  • SPRM indicates the state of the playback device 102.
  • FIG. 47 is a list of SPRMs. Each SPRM is assigned a serial number 4701, and each serial number 4701 is associated with a variable value 4702 individually.
  • the main SPRM contents are as follows. Here, the numbers in parentheses indicate serial numbers 4701.
  • SPRM (10) indicates the PTS of the picture being decoded, and is updated each time the picture is decoded and written to the main video plane memory. Therefore, the current playback time can be known by referring to SPRM (10).
  • the SPRM (16) audio stream language code and the SPRM (18) subtitle stream language code indicate default language codes of the playback device 102. They can be changed by the user by using the OSD of the playback apparatus 102, or can be changed to an application program through the program execution unit 4606. For example, when SPRM (16) indicates “English”, the playback control unit 4607 first searches the STN table in the PI for a stream entry including the language code “English” in the playlist playback process. Next, the playback control unit 4607 extracts the PID from the stream identification information of the stream entry and passes it to the system target decoder 4603. Thereby, the audio stream of that PID is selected and decoded by the system target decoder 4603. These processes can be executed by the playback control unit 4607 using a movie object file or a BD-J object file.
  • the playback control unit 4607 updates player variables according to changes in the playback state during playback processing.
  • the playback control unit 4607 updates SPRM (1), SPRM (2), SPRM (21), and SPRM (22). They sequentially indicate the STNs of the audio stream, subtitle stream, secondary video stream, and secondary audio stream that are being processed.
  • SPRM (1) is changed by the program execution unit 4606.
  • the playback control unit 4607 first searches the STN table in the PI currently being played back for a stream entry including the STN indicated by the changed SPRM (1).
  • the playback control unit 4607 extracts the PID from the stream identification information in the stream entry and passes it to the system target decoder 4603. Thereby, the audio stream of that PID is selected and decoded by the system target decoder 4603. In this way, the audio stream to be reproduced is switched.
  • subtitles and secondary video streams to be reproduced can be switched.
  • the program execution unit 4606 is a processor, and executes programs stored in a movie object file and a BD-J object file.
  • the program execution unit 4606 performs the following control in accordance with each program: (1) Command the playback control unit 4607 to perform playlist playback processing; (2) Graphics data for menus or games PNG or JPEG raster data is generated, transferred to the system target decoder 4603, and synthesized with other video data.
  • the specific contents of these controls can be designed relatively freely through program design. That is, those control contents are determined by the movie object file and BD-J object file programming steps in the authoring step of the BD-ROM disc 101.
  • the plane adder 4610 receives main video plane data, sub video plane data, IG plane data, PG plane data, and image plane data from the system target decoder 4603, and superimposes them on each other Are combined into one video frame or field.
  • the combined video data is sent to the display device 103 and displayed on the screen.
  • FIG. 48 is a functional block diagram of the system target decoder 4603.
  • the system target decoder 4603 includes a source depacketizer 4810, an ATC counter 4820, a first 27 MHz clock 4830, a PID filter 4840, an STC counter (STC1) 4850, a second 27 MHz clock 4860, a main Video decoder 4870, sub video decoder 4871, PG decoder 4872, IG decoder 4873, main audio decoder 4874, sub audio decoder 4875, image processor 4880, main video plane memory 4890, sub video plane memory 4891, PG plane memory 4892, IG plane memory 4893, image plane memory 4894, and audio mixer 4895.
  • STC1 STC counter
  • the source depacketizer 4810 reads the source packet from the read buffer 4602, extracts the TS packet from the source packet, and sends it to the PID filter 4840.
  • the source depacketizer 4810 further adjusts the transmission time according to the ATS of each source packet. Specifically, the source depacketizer 4810 first monitors the ATC value generated by the ATC counter 4820. Here, the value of ATC is incremented by the ATC counter 4820 according to the pulse of the clock signal of the first 27 MHz clock 4830.
  • the source depacketizer 4810 then forwards the TS packet extracted from the source packet to the PID filter 4840 at the moment when the ATC value matches the ATS of the source packet.
  • the average transfer rate R TS of TS packets from the source depacketizer 4810 to the PID filter 4840 does not exceed the system rate 3111 indicated by the 2D clip information file shown in FIG.
  • the PID filter 4840 first monitors the PID included in the TS packet sent from the source depacketizer 4810. When the PID matches the PID designated in advance by the playback control unit 4807, the PID filter 4840 selects the TS packet and transfers it to the decoder 4870-4875 suitable for decoding the elementary stream indicated by the PID. For example, when the PID is 0x1011, the TS packet is transferred to the main video decoder 4870.
  • the TS packets are sub video decoder 4871, main audio decoder 4874, and sub audio decoder, respectively. 4875, PG decoder 4872, and IG decoder 4873.
  • the PID filter 4840 further detects PCR from the TS packet using the PID of each TS packet. At that time, the PID filter 4840 sets the value of the STC counter 4850 to a predetermined value. Here, the value of the STC counter 4850 is incremented according to the pulse of the clock signal of the second 27 MHz clock 4860. Further, the value to be set in the STC counter 4850 is instructed from the reproduction control unit 4807 to the PID filter 4840 in advance. Each decoder 4870-4875 uses the value of the STC counter 4850 as the STC. That is, the timing of the decoding process for the TS packet transmitted from the PID filter 4840 is adjusted according to the time indicated by the PTS or DTS included in the TS packet.
  • the main video decoder 4870 includes a transport stream buffer (TB) 4801, a multiplexing buffer (MB) 4802, and an elementary stream buffer (EB). (Elementary Stream Buffer) 4803, Compressed Video Decoder (DEC) 4804, and Decoded Picture Buffer (DPB) 4805.
  • TB4801, MB4802, EB4803, and DPB4805 is a buffer memory, and each uses one area of a memory element built in the main video decoder 4870. In addition, any or all of them may be separated into different memory elements.
  • the TB 4801 stores the TS packets received from the PID filter 4840 as they are.
  • the MB4802 stores the PES packet restored from the TS packet stored in the TB4801.
  • a TS packet is transferred from TB 4801 to MB 4802
  • the TS header is removed from the TS packet.
  • the EB 4803 extracts the encoded VAU from the PES packet and stores it.
  • the VAU stores compressed pictures, that is, I pictures, B pictures, and P pictures.
  • the PES header is removed from the PES packet.
  • the DEC 4804 decodes the picture from each VAU in the EB 4803 at the time indicated by the DTS included in the original TS packet.
  • the DEC 4804 may sequentially decode pictures from each VAU regardless of the DTS by using the decoding switch information 1401 shown in FIG.
  • the DEC 4804 switches the decoding method according to the compression encoding method of the compressed picture stored in each VAU, for example, MPEG-2, MPEG-4 AVC, and VC1, and the stream attribute.
  • the DEC 4804 further transfers the decoded picture, that is, the frame or field, to the DPB 4805.
  • the DPB 4805 temporarily holds the decoded picture.
  • the DEC 4804 refers to the decoded picture held in the DPB 4805 when decoding the P picture and the B picture. Further, the DPB 4805 writes each held picture to the main video plane memory 4890 at the time indicated by the PTS included in the original TS packet.
  • the sub video decoder 4871 includes the same configuration as the main video decoder 4870.
  • the sub-picture decoder 4871 first decodes the TS packet of the secondary video stream received from the PID filter 4840 into an uncompressed picture. Next, the sub-picture decoder 4871 writes an uncompressed picture to the sub-picture plane memory 4891 at the time indicated by the PTS included in the TS packet.
  • the PG decoder 4872 decodes the TS packet received from the PID filter 4840 into uncompressed graphics data, and writes it into the PG plane memory 4892 at the time indicated by the PTS included in the TS packet.
  • the IG decoder 4873 decodes the TS packet received from the PID filter 4840 into uncompressed graphics data, and writes it into the IG plane memory 4893 at the time indicated by the PTS included in the TS packet.
  • the main audio decoder 4874 first stores the TS packets received from the PID filter 4840 in a built-in buffer. The main audio decoder 4874 then removes the TS header and PES header from each TS packet in its buffer and decodes the remaining data into uncompressed LPCM audio data. The main audio decoder 4874 further sends the audio data to the audio mixer 4895 at the time indicated by the PTS included in the original TS packet. The main audio decoder 4874 switches the decoding method of the compressed audio data according to the compression encoding method of the primary audio stream included in the TS packet, for example, AC-3 or DTS, and the stream attribute.
  • the sub audio decoder 4875 includes the same configuration as the main audio decoder 4874. First, the secondary audio decoder 4875 decodes TS packets of the secondary audio stream received from the PID filter 4840 into uncompressed LPCM audio data. Next, the secondary audio decoder 4875 sends uncompressed LPCM audio data to the audio mixer 4895 at the time indicated by the PTS included in the TS packet. The sub audio decoder 4875 switches the compression method of the compressed audio data according to the compression encoding method of the secondary audio stream included in the TS packet, for example, Dolby Digital Plus, DTS-HD LBR, and stream attributes.
  • the audio mixer 4895 receives uncompressed audio data from each of the main audio decoder 4874 and the sub audio decoder 4875, and performs mixing (sound superposition) using them.
  • the audio mixer 4895 further sends the synthesized sound obtained by the mixing to the built-in speaker 103A of the display device 103 or the like.
  • the image processor 4880 receives graphics data, that is, PNG or JPEG raster data from the program execution unit 4806. At that time, the image processor 4880 performs rendering processing on the graphics data and writes it to the image plane memory 4894.
  • graphics data that is, PNG or JPEG raster data
  • the image processor 4880 performs rendering processing on the graphics data and writes it to the image plane memory 4894.
  • the playback device 102 in the 3D playback mode operates as a 3D playback device when playing back 3D video content from the BD-ROM disc 101.
  • the basic part of the configuration is the same as that of the 2D playback device shown in FIGS. Therefore, hereinafter, an extended portion and a changed portion from the configuration of the 2D playback device will be described, and the description of the basic portion will be referred to the description of the 2D playback device.
  • the configuration used for 2D video playback processing according to the 2D playlist file that is, 2D playlist playback processing
  • the description of the 2D playback device is also used for the detailed description.
  • 3D video playback processing according to a 3D playlist file that is, 3D playlist playback processing is assumed.
  • FIG. 49 is a functional block diagram of the 3D playback device 4900.
  • the 3D playback device 4900 includes a BD-ROM drive 4901, a playback unit 4900A, and a control unit 4900B.
  • the playback unit 4900A includes a switch 4911, a first read buffer 4921, a second read buffer 4922, a system target decoder 4903, and a plane adder 4910.
  • the control unit 4900B includes a dynamic scenario memory 4904, a static scenario memory 4905, a program execution unit 4906, a playback control unit 4907, a player variable storage unit 4908, and a user event processing unit 4909.
  • the reproduction unit 4900A and the control unit 4900B are mounted on different integrated circuits.
  • both may be integrated into a single integrated circuit.
  • the dynamic scenario memory 4904, the static scenario memory 4905, the program execution unit 4906, and the user event processing unit 4909 are the same as those in the 2D playback device shown in FIG. Therefore, the description about those details uses the description about said 2D reproduction
  • the BD-ROM drive 4901 includes the same components as those in the 2D playback apparatus 4601 shown in FIG.
  • the BD-ROM drive 4901 reads data from the sector group on the BD-ROM disc 101 indicated by the range.
  • the extent of the file SS that is, the source packet group belonging to the 3D extent is transferred from the BD-ROM drive 4901 to the switch 4911.
  • each 3D extent includes at least one data block pair of a base view and a dependent view, as shown in FIG. 19D and FIG. Those data blocks must be transferred in parallel to different read buffers 4921 and 4922. Therefore, the BD-ROM drive 4901 is required to have an access speed higher than that of the BD-ROM drive 4601 in the 2D playback device.
  • Switch 4911 receives 3D extent from BD-ROM drive 4901. On the other hand, the switch 4911 receives information indicating the boundary of each data block included in the 3D extent, for example, the number of source packets from the beginning of the 3D extent to each boundary from the playback control unit 4907. Here, the playback control unit 4907 generates the information using the extent start point in the clip information file. The switch 4911 further extracts a base-view data block from each 3D extent using the information and sends it to the first read buffer 4921. On the other hand, the switch 4911 sends the remaining dependent view data block to the second read buffer 4922.
  • Both the first read buffer 4921 and the second read buffer 4922 are buffer memories using memory elements in the playback unit 4900A. In particular, different regions within a single memory device are used as each read buffer 4921, 4922. In addition, different memory devices may be used individually as the read buffers 4921 and 4922, respectively.
  • the first read buffer 4921 receives and stores the base-view data block from the switch 4911.
  • the second read buffer 4922 receives the dependent-view data block from the switch 4911 and stores it.
  • the system target decoder 4903 first alternates the source from the base-view data block stored in the first read buffer 4921 and the dependent-view data block stored in the second read buffer 4922. Read the packet. Next, the system target decoder 4903 separates the elementary stream from each source packet by demultiplexing processing, and further decodes the one indicated by the PID instructed from the playback control unit 4907 from among the separated streams. Subsequently, the system target decoder 4903 writes the decoded elementary stream into the built-in plane memory by type. The base-view video stream is written to the left video plane memory, and the dependent-view video stream is written to the right video plane memory.
  • the secondary video stream is written into the sub-picture plane memory
  • the IG stream is written into the IG plane memory
  • the PG stream is written into the PG plane memory.
  • the stream data other than the video stream is composed of the stream data pair of the base view and the dependent view
  • the corresponding plane memory is used for the plane data of both the left view and the right view. Prepared separately.
  • the system target decoder 4903 processes graphics data from the program execution unit 4906, for example, raster data such as JPEG or PNG, and writes it into the image plane memory.
  • the system target decoder 4903 associates the output of plane data from each plane memory of the left video and the right video with the BD display mode and the BB display mode.
  • the system target decoder 4903 alternately outputs plane data from each plane memory of the left video and the right video.
  • the system target decoder 4903 keeps the operation mode in the 3D playback mode from the plane memory of either the left video or the right video. Only output plain data twice per frame.
  • the system target decoder 4903 further outputs the output of each graphics plane data from the graphics plane memory, i.e., PG plane memory, IG plane memory, and image plane memory. It corresponds to the mode, 1 plane + offset mode, and 1 plane + zero offset mode.
  • the system target decoder 4903 alternately outputs the graphics plane data of the left view and the right view from each graphics plane memory.
  • the system target decoder 4903 keeps the operation mode in the 3D playback mode, and each graphics plane. Output graphics plane data from memory.
  • the system target decoder 4903 When one plane + offset mode is instructed from the reproduction control unit 4907, the system target decoder 4903 passes the offset value designated by the reproduction control unit 4907 to the plane addition unit 4910. Here, the playback control unit 4907 sets the offset value based on the offset table in the clip information file. On the other hand, when one plane + zero offset mode is instructed from the reproduction control unit 4907, the system target decoder 4903 passes “0” as an offset value to the plane addition unit 4910.
  • the playback control unit 4907 first refers to the 3D playlist file stored in the static scenario memory 4905 when the 3D playlist playback process is instructed by the program execution unit 4906 or the like. Next, the playback control unit 4907 instructs the BD-ROM drive 4901 the LBN range of the sector group in which the 3D extent to be read is recorded, according to the procedure shown in FIG. 43, according to the 3D playlist file. On the other hand, the playback control unit 4907 refers to 3D metadata in the clip information file stored in the static scenario memory 4905 and searches for the extent start point for each 3D extent to be read. The playback control unit 4907 further generates information indicating the boundaries of the data blocks included in each 3D extent from the extent starting point. The information is sent from the reproduction control unit 4907 to the switch 4911.
  • the playback control unit 4907 controls the operating conditions of the system target decoder 4903 and the plane addition unit 4910 using the STN table and the STN table SS in the 3D playlist file.
  • the PID of the elementary stream to be reproduced is selected and passed to the system target decoder 4903.
  • the display mode of each plane is selected according to the offset 4111 in the pop-up period and is instructed to the system target decoder 4903 and the plane adder 4910.
  • the player variable storage unit 4908 includes the SPRM shown in FIG. 47 as in the 2D playback device.
  • any two of the SPRMs (24) to (32) which are spares in FIG. 47 individually include the first flag and the second flag shown in FIG.
  • SPRM (24) includes a first flag
  • SPRM (25) includes a second flag.
  • the playback device 102 can support only playback of 2D video, and when it is “1”, it can also support playback of 3D video.
  • SPRM (25) is “0”
  • the playback device 102 is in the L / R mode, and when it is “1”, it is in the depth mode.
  • the plane adder 4910 receives various types of plane data from the system target decoder 4903 and superimposes them on one frame or field. Particularly in the L / R mode, the left video plane data represents a left-view video plane, and the right video plane data represents a right-view video plane. Accordingly, the plane adder 4910 superimposes the left video plane data that represents the left view and superimposes the right video plane data that represents the right view. On the other hand, in the depth mode, the right video plane data represents a depth map for the video plane represented by the left video plane data. Accordingly, the plane adder 4910 first generates a video plane data pair of a left view and a right view from both video plane data. Thereafter, the plane adder 4910 performs the synthesis process in the same manner as the synthesis process in the L / R mode.
  • the plane addition unit 4910 Performs a cropping process on the plane data received from the system target decoder 4903. Thereby, a plane data pair of the left view and the right view is generated.
  • the offset value instructed from the system target decoder 4903 or the program execution unit 4906 is used in the cropping process.
  • the offset value is set to “0” in the cropping process. Accordingly, the same plane data is repeatedly output as representing the left view and the right view.
  • the plane adder 4910 performs the synthesis process in the same manner as the synthesis process in the L / R mode.
  • the combined frame or field is sent to the display device 103 and displayed on the screen.
  • FIG. 50 is a functional block diagram of the system target decoder 4903.
  • the components shown in FIG. 50 differ from those of the 2D playback device 4603 shown in FIG. 46 in the following two points: (1) The input system from the read buffer to each decoder is duplicated. (2) The main video decoder is compatible with the 3D playback mode, and the sub-video decoder, PG decoder, and IG decoder are compatible with the 2-plane mode. That is, these video decoders can alternately decode the streams of the base view and the dependent view.
  • the main audio decoder, sub audio decoder, audio mixer, image processor, and each plane memory are the same as those of the 2D playback apparatus shown in FIG.
  • each video decoder has the same structure, the structure of the main video decoder 5015 will be described below, and the description of the other video decoders will be used.
  • the first source depacketizer 5011 reads the source packet from the first read buffer 4921, extracts the TS packet from the source packet, and sends it to the first PID filter 5013.
  • the second source depacketizer 5012 reads the source packet from the second read buffer 4922, extracts the TS packet from the source packet, and sends it to the second PID filter 5014.
  • Each source / depacketizer 5011, 5012 further adjusts the transmission time of each TS packet according to the ATS of each source packet.
  • the adjustment method is the same as the method using the source depacketizer 4610 shown in FIG. 46, and the description of FIG.
  • the average transfer rate R TS1 of TS packets from the first source / depacketizer 5011 to the first PID filter 5013 does not exceed the system rate 3011 indicated by the 2D clip information file shown in FIG.
  • the average transfer rate R TS2 of TS packets from the second source depacketizer 5012 to the second PID filter 5014 does not exceed the system rate indicated by the dependent-view clip information file.
  • the first PID filter 5013 Each time the first PID filter 5013 receives a TS packet from the first source / depacketizer 5011, the first PID filter 5013 compares the PID with the PID to be selected.
  • the PID to be selected is designated in advance by the playback control unit 4907 in accordance with the STN table in the 3D playlist file.
  • the first PID filter 5013 forwards the TS packet to the decoder assigned to the PID. For example, when the PID is 0x1011, the TS packet is transferred to the TB (1) 5001 in the main video decoder 5015.
  • the corresponding TS packets are sub video decoder, main audio decoder, sub audio, respectively. Transferred to decoder, PG decoder, and IG decoder.
  • the second PID filter 5014 Each time the second PID filter 5014 receives a TS packet from the second source / depacketizer 5012, it compares the PID with the PID to be selected.
  • the PID to be selected is designated in advance by the playback control unit 4907 according to the STN table SS in the 3D playlist file. Specifically, when both PIDs match, the second PID filter 5014 transfers the TS packet to the decoder assigned to the PID. For example, when the PID is 0x1012 or 0x1013, the TS packet is transferred to TB (2) 5008 in the main video decoder 5015.
  • the corresponding TS packets are transferred to the sub-picture decoder, PG decoder, and IG decoder, respectively.
  • the main video decoder 5015 includes TB (1) 5001, MB (1) 5002, EB (1) 5003, TB (2) 5008, MB (2) 5009, EB (2) 5010, buffer switch 5006, DEC 5004, and DPB 5005. , And a picture switch 5007.
  • TB (1) 5001, MB (1) 5002, EB (1) 5003, TB (2) 5008, MB (2) 5009, EB (2) 5010, and DPB 5005 are all buffer memories.
  • Each buffer memory uses a region of a memory element built in the main video decoder 5015. In addition, any or all of the buffer memories may be separated into different memory elements.
  • TB (1) 5001 receives TS packets including the base-view video stream from the first PID filter 5013 and stores them as they are.
  • the MB (1) 5002 restores and stores the PES packet from the TS packet stored in the TB (1) 5001. At that time, the TS header is removed from each TS packet.
  • the EB (1) 5003 extracts and stores the encoded VAU from the PES packet stored in the MB (1) 5002. At that time, the PES header is removed from each PES packet.
  • TB (2) 5008 receives TS packets including the dependent-view video stream from the second PID filter 5014 and stores them as they are.
  • the MB (2) 5009 restores and stores the PES packet from the TS packet stored in the TB (2) 5008. At that time, the TS header is removed from each TS packet.
  • the EB (2) 5010 extracts and stores the encoded VAU from the PES packet stored in the MB (2) 5009. At that time, the PES header is removed from each PES packet.
  • the buffer switch 5006 transfers the VAU stored in each of the EB (1) 5003 and the EB (2) 5010 to the DEC 5004 at the time indicated by the DTS included in the original TS packet.
  • the buffer switch 5006 first transfers the one stored in EB (1) 5003 to the DEC 5004 out of a pair of VAUs having the same DTS stored in EB (1) 5003 and EB (2) 5010. To do.
  • the buffer switch 5006 may return the decoding switch information 1401 in the VAU shown in FIG. In that case, the buffer switch 5006 can use the decoding switch information 1401 to determine whether the VAU to be transferred next should be transferred from EB (1) 5003 or EB (2) 5010.
  • the DEC 5004 decodes the VAU transferred from the buffer switch 5006.
  • the DEC 5004 switches the decoding method according to the encoding method of the compressed picture stored in the VAU, for example, MPEG-2, MPEG-4 AVC, and VC1, and the stream attribute.
  • the DEC 5004 further forwards the decoded uncompressed picture, ie the video frame or field, to the DPB 5005.
  • DPB 5005 temporarily holds the decoded uncompressed picture.
  • the DPB 5005 provides a reference picture to the DEC 5004 from the stored uncompressed pictures in response to a request from the DEC 5004.
  • the picture switch 5007 writes each uncompressed picture from the DPB 5005 into either the left video plane memory 5020 or the right video plane memory 5021 at the time indicated by the PTS included in the original TS packet.
  • the PTSs of a pair of pictures belonging to the same 3D VAU are equal between the base-view video stream and the dependent-view video stream. Therefore, the picture switch 5007 first writes the one belonging to the base-view video stream to the left video plane memory 5020 among the pair of pictures having the same PTS held in the DPB 5005, and then the dependent What belongs to the view video stream is written into the right video plane memory 5021.
  • FIG. 51 is a functional block diagram of the plane adder 4910.
  • the plane adder 4910 includes a parallax image generator 5110, a switch 5120, four cropping processors 5131-5134, and four adders 5141-5144.
  • the parallax video generation unit 5110 receives the left video plane data 5101 and the right video plane data 5102 from the system target decoder 4903.
  • the left video plane data 5101 represents a left-view video plane
  • the right video plane data 5102 represents a right-view video plane.
  • the parallax image generation unit 5110 sends the video plane data 5101 and 5102 to the switch 5120 as they are.
  • the left video plane data 5101 represents a video plane of 2D video
  • the right video plane data 5102 represents a depth map for the 2D video.
  • the parallax video generation unit 5110 first calculates the binocular parallax of each part of the 2D video from the depth map. Next, the parallax video generation unit 5110 processes the left video plane data 5101 to move the display position of each part of the 2D video in the video plane to the left or right according to the calculated binocular parallax. Thereby, a pair of video planes representing the left view and the right view is generated. Further, the parallax video generation unit 5110 sends the video plane pair to the switch 5120 as a plane data pair of the left video and the right video.
  • the switch 5120 When the playback control unit 4907 instructs the BD display mode, the switch 5120 sends the left video plane data 5101 and the right video plane data 5102 having the same PTS to the first addition unit 5141 in that order. .
  • the switch 5120 When the playback control unit 4907 instructs the BB display mode, the switch 5120 first adds one of the left video plane data 5101 and the right video plane data 5102 having the same PTS twice per frame. The data is sent to the unit 5141 and the other is discarded.
  • Each cropping processing unit 5131-5134 includes the same configuration as the pair of the parallax image generation unit 5110 and the switch 5120. These configurations are used in the 2-plane mode.
  • the plane data from the system target decoder 4903 is converted into a pair of plane data of a left view and a right view.
  • the plane data of the left view and the right view are alternately sent to the addition units 5141-5144.
  • the BB display mode is instructed from the playback control unit 4907, one of the left view and right view plane data is sent to each adder 5141-5144 twice per frame, and the other is discarded. Is done.
  • the first cropping unit 5131 receives the offset value 5151 from the system target decoder 4903 and uses it to perform the cropping process on the sub-picture plane data 5103. Thereby, the sub-picture plane data 5103 is converted into a pair of sub-picture plane data representing the left view and the right view and is alternately transmitted. On the other hand, in the 1 plane + zero offset mode, the sub-picture plane data 5103 is repeatedly transmitted twice.
  • the second cropping unit 5132 receives the offset value 5151 from the system target decoder 4903 and performs the cropping process on the PG plane data 5104 using the offset value 5151. Thereby, the PG plane data 5104 is converted into a pair of PG plane data representing the left view and the right view, and is alternately transmitted. On the other hand, in the 1 plane + zero offset mode, the PG plane data 5104 is repeatedly transmitted twice.
  • the third cropping processing unit 5133 receives the offset value 5151 from the system target decoder 4903 and performs the cropping process on the IG plane data 5105 by using it. Thereby, the IG plane data 5105 is converted into a pair of IG plane data representing the left view and the right view, and is alternately transmitted. On the other hand, in the 1 plane + zero offset mode, the IG plane data 5105 is repeatedly transmitted twice.
  • FIG. 52 (a) and 52 (b) are schematic diagrams showing the cropping process performed by the second cropping processing unit 5132.
  • FIG. 52A and 52B a pair of left-view PG plane data 5204L and right-view PG plane data 5204R is generated from PG plane data 5104 as follows.
  • the second cropping unit 5132 searches the offset value 5151 for the one assigned to the PG plane.
  • the second cropping processing unit 5132 changes each display position of the left view and the right view with respect to the display position of the graphics image indicated by the PG plane data 5104 to the left or right according to the offset value.
  • a pair of left view and right view PG plane data is obtained.
  • the first cropping processing unit 5131 similarly performs the cropping processing on the sub-picture plane data 5103, and the third cropping processing unit 5133 similarly performs the cropping processing on the IG plane data 5105.
  • the second cropping processing unit 5132 when the sign of the offset value indicates that the depth of the 3D video is closer to the screen, the second cropping processing unit 5132 first selects each pixel in the PG plane data 5104. The data position is changed from the original position to the right by the number of pixels 5201L equal to the offset value. When the sign of the offset value indicates that the depth of the 3D video is deeper than the screen, it is changed to the left. Next, the second cropping processing unit 5132 removes the pixel data group 5202L that protrudes to the right (or left) from the range of the PG plane data 5104. Thus, the remaining pixel data group 5204L is output as left-view PG plane data.
  • the second cropping processing unit 5132 first selects each pixel in the PG plane data 5104. The data position is changed from the original position to the left by the number of pixels 5201R equal to the offset value. When the offset direction indicates that the depth of the 3D image is deeper than the screen, it is changed to the right. Next, the second cropping processing unit 5132 removes the pixel data group 5202R that protrudes to the left (or right) from the range of the PG plane data 5104. Thus, the remaining pixel data group 5204R is output as right-view PG plane data.
  • 53 (a), 53 (b), and 53 (c) respectively show the left and right PG planes generated by the cropping process shown in FIG. 52, and 3D perceived by the viewer from them.
  • 53A the left-view PG plane 5301L is displaced to the right by an offset value 5201L from the range of the screen 5302.
  • the subtitle 2D video 5303 in the left view PG plane 5301L appears to be displaced to the right by the offset value 5201L from the original position.
  • the right view PG plane 5301R is displaced to the left by an offset value 5201R from the range of the screen 5302.
  • the subtitled 2D video 5303 in the right view PG plane 5301R appears to be displaced to the left by the offset value 5201R from the original position.
  • these PG planes 5301L and 5301R are alternately displayed on the screen 5302, as shown in (c) of FIG.
  • the distance between the 3D video 5305 and the screen 5302 at that time can be adjusted by offset values 5201L and 5201R.
  • the viewer 5304 has a caption 3D video 5305. Appears behind the screen 5302.
  • a pair of plane data of the left view and the right view is generated from one plane data by using clipping processing.
  • a parallax image can be displayed even from one plane data. That is, a depth feeling can be given to a planar image. In particular, it can show the viewer a flat image that appears above the screen or sinks into the back of the screen.
  • the offset value is “0”, a planar image is maintained as it is.
  • the image plane data 5106 is obtained by decoding the graphics data transferred from the program execution unit 4906 to the system target decoder 4903 by the system target decoder 4903. .
  • the graphics data is raster data such as JPEG or PNG, and represents a GUI graphics part such as a menu.
  • the fourth cropping processing unit 5134 performs the cropping processing on the image plane data 5106 in the same manner as the other cropping processing units 5131-5133. However, unlike the other cropping processing units 5131-5133, the fourth cropping processing unit 5134 receives the offset value from the program API 5152 instead of the system target decoder 4903.
  • the program API 5152 is executed by the program execution unit 4906. Thereby, an offset value corresponding to the depth of the image represented by the graphics data is calculated and passed to the fourth cropping processing unit 5134.
  • the first addition unit 5141 first receives video plane data from the switch 5120 and receives sub-picture plane data from the first cropping processing unit 5131. Next, the first adder 5141 superimposes the video plane data and the sub-picture plane data one by one and passes them to the second adder 5142.
  • the second addition unit 5142 receives PG plane data from the second cropping processing unit 5132, superimposes it on the plane data from the first addition unit 5141, and passes it to the third addition unit 5143.
  • the third addition unit 5143 receives the IG plane data from the third cropping processing unit 5133, superimposes it on the plane data from the second addition unit 5142, and passes it to the fourth addition unit 5144.
  • the fourth addition unit 5144 receives the image plane data from the fourth cropping processing unit 5134, superimposes it on the plane data from the third addition unit 5143, and sends it to the display device 103.
  • left video plane data 5101 or right video plane data 5102, sub-video plane data 5103, PG plane data 5104, IG plane data 5105, and Image plane data 5106 is superimposed.
  • the video indicated by each plane data seems to be superimposed on the screen of the display device 103 in the order of the left video plane or the right video plane, the sub video plane, the IG plane, the PG plane, and the image plane. Is displayed.
  • the plane adder 4910 converts the output format of the plane data synthesized by the four adders 5141-5144 into a 3D video display method by the display destination device such as the display device 103. Convert together. For example, when the output destination apparatus uses the temporal separation method, the plane adder 4910 transmits the combined plane data as one video frame or field. On the other hand, when the destination device uses a lenticular lens, the plane adder 4910 uses a built-in buffer memory to combine the plane data pair of the left view and right view into one video frame or field. And send it out. Specifically, the plane adder 4910 temporarily stores and stores the previously synthesized left view plane data in its buffer memory.
  • the plane adder 4910 synthesizes the right-view plane data and further synthesizes it with the left-view plane data held in the buffer memory.
  • each plane data of the left view and the right view is divided into strip-like small areas elongated in the vertical direction, and the small areas are alternately arranged in the horizontal direction in one frame or field. Reconstructed into one frame or field.
  • the plane data pair of the left view and the right view is combined into one video frame or field.
  • the plane adder 4910 sends the combined video frame or field to the output destination device.
  • base-view data blocks and dependent-view data blocks are alternately arranged one by one. Forming the arrangement. Furthermore, in places where long jumps are necessary, such as layer boundaries, the base view data block and its duplicated data are arranged as 2D playback-only blocks and 3D playback-only blocks, as shown in FIGS. 21-29 and 34. Has been.
  • the arrangement of these data blocks is advantageous for seamless playback of 2D video and 3D video as described above. In order to realize such seamless playback more reliably, the size of each data block only needs to satisfy a condition based on the performance of the playback device 102. Hereinafter, these conditions will be described.
  • FIG. 54 is a schematic diagram showing a playback processing system in the playback device 102 in the 2D playback mode.
  • the playback processing system includes a BD-ROM drive 4601, a read buffer 4602, and a system target decoder 4603 among the elements shown in FIG.
  • the BD-ROM drive 4601 reads a 2D extent from the BD-ROM disc 101 and transfers it to the read buffer 4602 at a reading speed Rud-2D .
  • the system target decoder 4603 reads a source packet from each 2D extent stored in the read buffer 4602 at an average transfer rate R ext2D and decodes it into video data VD and audio data AD.
  • the average transfer rate R ext2D is equal to 192/188 times the average transfer rate R TS of TS packets from the source depacketizer 3711 to the PID filter 3713 shown in FIG. 37, and generally differs for each 2D extent.
  • Maximum value R Max2D the mean transfer rate R EXT2D is equal to 192/188 times the system rate for the file 2D.
  • the system rate is defined in the 2D clip information file as shown in FIG.
  • the coefficient 192/188 is equal to the ratio of the number of bytes between the source packet and the TS packet.
  • the average transfer rate R ext2D is normally expressed in bits / second, and is specifically equal to a value obtained by dividing the size of the 2D extent expressed in bits by the extent ATC time.
  • the read rate R ud-2D is normally expressed in bits / second and is set to a value higher than the maximum value R max2D of the average transfer rate R ext2D , for example 54 Mbps: R ud ⁇ 2D > R max2D . This prevents underflow of the read buffer 4602 accompanying the decoding process of the system target decoder 4603 while the BD-ROM drive 4601 reads one 2D extent from the BD-ROM disc 101.
  • FIG. 55A is a graph showing changes in the amount of data DA accumulated in the read buffer 4602 during 2D extent playback processing.
  • FIG. 55B is a schematic diagram showing a correspondence relationship between a 3D extent block 5510 including those 2D extents and a playback path 5520 in the 2D playback mode.
  • the 3D extent block 5510 includes a base-view data block group and a dependent-view data block group arranged in an interleaved manner.
  • each base-view data block L0, L1,... Is read as one 2D extent EXT2D [0], EXT2D [1],.
  • the accumulated data amount DA is read as shown in FIG.
  • the difference between the rate R ud ⁇ 2D and the average transfer rate R ext2D [0] increases at a rate equal to R ud ⁇ 2D ⁇ R ext2D [0].
  • the first jump J 2D [0] occurs when the rear end of the first 2D extent EXT2D [0] is read.
  • the jump period PJ 2D [0] reading of the subsequent two data blocks D1 and R1 is skipped, so that reading of data from the BD-ROM disc 101 is stopped. Therefore, in the first jump period PJ 2D [0], as shown in FIG. 55A , the accumulated data amount DA decreases at the average transfer rate R ext2D [0].
  • the amount of data stored in the read buffer 4602 in the first read period PR 2D [0], that is, the size S ext2D [0] of the first 2D extent EXT2D [0] is It is equal to the amount of data transferred from the read buffer 4602 to the system target decoder 4603 from the read period PR 2D [0] to the first jump period PJ 2D [0].
  • the accumulated data amount DA is a value at the end of the first jump period PJ 2D [0] and at the start of the first read period PR 2D [0].
  • the BD-ROM drive 4601 performs the read / transfer operation intermittently rather than continuously as shown in FIG. This prevents the accumulated data amount DA from exceeding the capacity of the read buffer 4602 during the read period PR 2D [0], PR 2D [1],... Of each 2D extent, that is, the read buffer 4602 does not overflow.
  • the graph of FIG. 55A is an approximate representation of a stepwise increase / decrease as a linear increase / decrease.
  • the read buffer 4602 does not underflow.
  • the length of the read period PR 2D [n] is a value S ext2D [n] / R ud ⁇ 2D obtained by dividing the size S ext2D [n] of the 2D extent EXT2D [n] by the read speed R ud ⁇ 2D. equal. Therefore, the size S ext2D [n] of each 2D extent EXT2D [n] should satisfy the following equation (1):
  • the jump time T jump ⁇ 2D [n] is the length of the jump period PJ 2D [n] and is expressed in seconds.
  • both the reading speed R ud-2D and the average transfer speed R ext2D are expressed in bits / second. Therefore, in equation (1), the average transfer rate R ext2D is divided by the number “8”, and the unit of the size S ext2D [n] of the 2D extent is converted from bits to bytes. In other words, the size S ext2D [n] of the 2D extent is expressed in bytes.
  • the function CEIL () means an operation of rounding up the fractional part of the numerical value in parentheses.
  • the maximum value of the jump time T jump ⁇ 2D [n] is limited. That is, even if the accumulated data amount DA is just before the jump period PJ 2D [n], even if the capacity of the read buffer 4602 is full, if the jump time T jump ⁇ 2D [n] is too long, the jump period PJ 2D [n] There is a risk that the stored data amount DA reaches 0 and the read buffer 4602 underflows.
  • the time until the accumulated data amount DA reaches 0 from the maximum capacity of the read buffer 4602 when the data supply from the BD-ROM disc 101 to the read buffer 4602 is interrupted, that is, seamless reproduction can be guaranteed.
  • the maximum value of the jump time T jump-2D is called “maximum jump time”.
  • FIG. 56 is an example of a correspondence table between the jump distance S jump and the maximum jump time T jump for the BD-ROM disc.
  • the jump distance S jump is expressed in units of sectors
  • the maximum jump time T jump is expressed in units of milliseconds.
  • 1 sector 2048 bytes.
  • the jump distance S jump belongs to each range of 0 sector, 1-10000 sector, 10001-20000 sector, 20001-40000 sector, 40001 sector-1 / 10 stroke, and 1/10 stroke or more.
  • the maximum jump time T jump is 50 ms, 250 ms, 300 ms, 350 ms, 700 ms, and 1400 ms, respectively.
  • Zero sector transition time T jump-0 The maximum jump time when the jump distance S jump is equal to 0 sector is particularly referred to as “zero sector transition time T jump-0 ”.
  • Zero sector transition refers to the movement of the optical pickup between two consecutive data blocks. In the zero sector transition period, the optical pickup temporarily stops the reading operation and waits.
  • the zero sector transition time may include an overhead associated with error correction processing in addition to the movement time of the position of the optical pickup due to the rotation of the BD-ROM disc 101.
  • “Overhead associated with error correction processing” means that error correction processing using an ECC block is performed twice when the boundary between two consecutive data blocks does not match the boundary between ECC blocks. Extra time due to The entire ECC block is necessary for error correction processing.
  • the entire ECC block is read out and used for error correction processing in any data block read processing.
  • extra data of up to 32 sectors is read in addition to the data block.
  • the overhead associated with error correction processing is evaluated by the total read time of the extra data, that is, 32 [sectors] ⁇ 2048 [bytes] ⁇ 8 [bits / bytes] ⁇ 2 [times] / reading speed R ud ⁇ 2D.
  • the Note that the overhead associated with error correction processing may be excluded from the zero sector transition time by configuring each data block in units of ECC blocks.
  • a specific time for switching operation of the recording layer such as a focus jump. For example, 350 msec is further required. Hereinafter, this time is referred to as “layer switching time”.
  • the first parameter TJ [n] represents the maximum jump time defined for each jump distance by the BD-ROM disc standard.
  • the first parameter TJ [n] is the number of sectors from the rear end of the nth 2D extent EXT2D [n] to the front end of the (n + 1) th 2D extent EXT2D [n + 1], that is, the jump distance. Equal to the corresponding maximum jump time.
  • the second parameter TL [n] represents the layer switching time when there is a layer boundary LB between the nth 2D extent EXT2D [n] and the (n + 1) th 2D extent EXT2D [n + 1], for example, 350 msec.
  • 0 is represented.
  • T jump-2D [n] is limited to 700 ms
  • FIG. 57 is a schematic diagram showing a playback processing system in the playback device 102 in the 3D playback mode.
  • the playback processing system includes a BD-ROM drive 4901, a switch 4911, a first read buffer 4921, a second read buffer 4922, and a system. Includes target decoder 4903.
  • the BD-ROM drive 4901 reads the 3D extent from the BD-ROM disc 101 and transfers it to the switch 4911 at the reading speed Rud-3D .
  • the switch 4911 extracts the base view extent from each 3D extent and separates it from the dependent view extent.
  • the base-view extent is stored in the first read buffer 4921 and the dependent-view extent is stored in the second read buffer 4922.
  • the accumulated data in the second read buffer 4922 is a right-view extent in the L / R mode and a depth map extent in the depth mode.
  • the system target decoder 4903 reads the source packet from each base-view extent stored in the first read buffer 4921 at the first average transfer rate R ext1 .
  • the system target decoder 4903 in L / R mode reads the source packet from each right-view extent stored in the second read buffer 4922 at the second average transfer rate R ext2 .
  • the depth mode system target decoder 4903 reads the source packet from each depth map extent stored in the second read buffer 4922 at the third average transfer rate R ext3 .
  • the system target decoder 4903 further decodes the read base view extent and dependent view extent pair into video data VD and audio data AD.
  • the first average transfer rate R ext1 is referred to as “base view transfer rate”.
  • the base view transfer rate R ext1 is equal to 192/188 times the average transfer rate R TS1 of TS packets from the first source depacketizer 5011 to the first PID filter 5013 shown in FIG. Different.
  • the maximum value R max1 of the base view transfer rate R ext1 is equal to 192/188 times the system rate for the file 2D.
  • the system rate is defined in the 2D clip information file.
  • the base view transfer rate R ext1 is normally expressed in bits / second, and specifically, is equal to a value obtained by dividing the size of the base view extent expressed in bits by the extent ATC time.
  • the extent ATC time represents the range of ATS given to the source packet in the base-view extent. Therefore, the extent ATC time is equal to the time required to transfer all the source packets in the base-view extent from the first read buffer 4921 to the system target decoder 4903.
  • the second average transfer rate R ext2 is referred to as “right-view transfer rate”, and the third average transfer rate R ext3 is referred to as “depth map transfer rate”. Both transfer rates R ext2 and R ext3 are equal to 192/188 times the average transfer rate R TS2 of TS packets from the second source depacketizer 5012 to the second PID filter 5014, and are generally different for each dependent view extent. .
  • the maximum value R max2 of the right-view transfer rate R ext2 is equal to 192/188 times the system rate for the first file DEP
  • the maximum value R max3 of the depth map transfer rate R ext3 is 192/188 of the system rate for the second file DEP. Equal to twice.
  • Each system rate is defined in the right view clip information file and the depth map clip information file.
  • the transfer rates R ext2 and R ext3 are normally expressed in bits / second, and specifically, equal to a value obtained by dividing the size of the dependent view extent expressed in bits by the extent ATC time.
  • the extent ATC time represents the range of ATS given to the source packet in each dependent view extent. Therefore, the extent ATC time is equal to the time required to transfer all the source packets in the dependent view extent from the second read buffer 4922 to the system target decoder 4903.
  • the read rate R ud-3D is normally expressed in bits / second and is set to a value higher than any of the maximum values R max1 -R max3 of the first to third average transfer rates R ext1 -R ext3 , for example, 72 Mbps: R ud-3D > R max1 , R ud-3D > R max2 , R ud-3D > R max3 .
  • FIG. 58A and 58B are graphs showing changes in the data amounts DA1 and DA2 accumulated in the read buffers 4921 and 4922 during the 3D extent block playback processing in the L / R mode.
  • FIG. 58C is a schematic diagram showing the correspondence between the 3D extent block 5810 and the playback path 5820 in the L / R mode.
  • the 3D extent block 5810 includes a base-view data block group and a dependent-view data block group arranged in an interleaved manner.
  • the accumulated data amounts DA1 and DA2 of both the read buffers 4921 and 4922 are already maintained at the lower limit values UL1 and UL2, respectively.
  • These lower limit values UL1 and UL2 are referred to as “buffer margin”. A method for securing the buffer margins UL1 and UL2 will be described later.
  • the nth right-view extent Rn is read from the BD-ROM disc 101 to the second read buffer 4922 in the (2n-1) read period PR R [n].
  • the accumulated data amount DA2 of the second read buffer 4922 has the read speed R ud-3D and the write speed.
  • the difference between the view transfer rate R ext2 [n] increases at a rate equal to R ud ⁇ 3D ⁇ R ext2 [n].
  • the accumulated data amount DA1 of the first read buffer 4921 decreases at the base view transfer rate R ext1 [n ⁇ 1].
  • the nth zero sector transition J 0 [n] occurs.
  • the nth zero sector transition period PJ 0 [n] reading of data from the BD-ROM disc 101 is stopped. Accordingly, the accumulated data amount DA1 of the first read buffer 4921 continues to decrease at the base-view transfer rate R ext1 [n ⁇ 1], and the accumulated data amount DA2 of the second read buffer 4922 becomes the write-view transfer rate R ext2 [n ] To decrease.
  • the second n read period PR L [n] is started.
  • the nth base-view extent Ln is read from the BD-ROM disc 101 to the first read buffer 4921.
  • the accumulated data amount DA1 of the first read buffer 4921 is different between the read speed R ud ⁇ 3D and the base view transfer speed R ext1 [n]. Increases at a rate equal to R ud ⁇ 3D ⁇ R ext1 [n].
  • the accumulated data amount DA2 of the second read buffer 4922 continues to decrease at the right-view transfer rate R ext2 [n].
  • the nth jump J LR [n] occurs.
  • the n-th jump period PJ LR [n] reading of the (n + 1) -th depth map extent D (n + 1) is skipped, so that reading of data from the BD-ROM disc 101 is stopped. Therefore, in the n-th jump period PJ LR [n], as shown in FIG. 58A, the accumulated data amount DA1 of the first read buffer 4921 decreases at the base view transfer rate R ext1 [n]. To do.
  • the accumulated data amount DA2 of the second read buffer 4922 continues to decrease at the right-view transfer rate R ext2 [n].
  • the amount of data stored in the second read buffer 4922 in the (2n-1) read period PR R [n], that is, the size S ext2 of the nth right-view extent Rn [n] is at least the amount of data transferred from the second read buffer 4922 to the system target decoder 4903 over the (2n-1) th read period PR R [n] to the nth jump period PJ LR [n]. equal.
  • the accumulated data amount DA2 of the second read buffer 4922 does not fall below the second buffer margin amount UL2.
  • the (2n + 1) th read period PR R [n + 1] is started from the end point of the nth jump period PJ LR [n].
  • the (n + 1) th right-view extent R (n + 1) is read from the BD-ROM disc 101 to the second read buffer 4922.
  • the accumulated data amount DA2 of the second read buffer 4922 is different from the read speed R ud ⁇ 3D and the right view transfer speed R ext2 [n + 1]. Increases at a rate equal to R ud ⁇ 3D ⁇ R ext2 [n + 1].
  • the accumulated data amount DA1 of the first read buffer 4921 continues to decrease at the base view transfer rate R ext1 [n].
  • the amount of data stored in the first read buffer 4921 in the second n read period PR L [n], that is, the size S ext1 [n] of the nth base-view extent Ln is It is equal to the amount of data transferred from the first read buffer 4921 to the system target decoder 4903 over at least the second n read period PR L [n] to the (n + 1) th zero sector transition period PJ 0 [n + 1].
  • the accumulated data amount DA1 of the first read buffer 4921 is equal to the first buffer. It will not fall below the allowance UL1.
  • the size S ext1 [n] of the nth base-view extent Ln is at least the first read period from the second n read period PR L [n] to the (n + 1) th zero sector transition period PJ 0 [n + 1]. It is equal to the amount of data transferred from the buffer 4921 to the system target decoder 4903.
  • the length of the second n readout period PR L [n] is a value S ext1 [n] / R obtained by dividing the size S ext1 [n] of the nth base-view extent Ln by the readout speed R ud ⁇ 3D. Equal to ud-3D .
  • the length of the (2n + 1) -th read period PR R [n + 1] is the value S ext2 [(n + 1) -th right-view extent R (n + 1) size S ext2 [n + 1] divided by the read speed R ud ⁇ 3D n + 1] / R ud – equal to 3D . Therefore, the size S ext1 [n] of the nth base-view extent Ln only needs to satisfy the following equation (2):
  • the size S ext2 [n] of the nth right-view extent Rn is at least the second read buffer over the (2n ⁇ 1) th read period PR R [n] to the nth jump period PJ LR [n]. It is equal to the amount of data transferred from 4922 to the system target decoder 4903.
  • the length of the (2n ⁇ 1) -th read period PR R [n] is a value S ext2 [n] obtained by dividing the size S ext2 [n] of the nth right-view extent Rn by the read speed R ud ⁇ 3D n] / R ud – equal to 3D . Accordingly, the size S ext2 [n] of the nth right-view extent Rn only needs to satisfy the following expression (3):
  • T jump-3D [n] TJ [n].
  • the first parameter TJ [n] is the number of sectors from the rear end of the nth base-view extent Ln to the front end of the (n + 1) th right-view extent R (n + 1), that is, the jump distance. Is equal to the maximum jump time corresponding to.
  • FIG. 59 (a) and 59 (b) are graphs showing changes in the data amounts DA1 and DA2 stored in the read buffers 4921 and 4922 during the 3D extent block playback processing in the depth mode.
  • FIG. 59C is a schematic diagram showing the correspondence between the 3D extent block 5910 and the playback path 5920 in the depth mode.
  • the 3D extent block 5910 includes a data block group having an interleaved arrangement similar to the 3D extent block 5810 shown in (c) of FIG.
  • the nth depth map extent Dn is read from the BD-ROM disc 101 to the second read buffer 4922 in the (2n-1) read period PR D [n].
  • the accumulated data amount DA2 of the second read buffer 4922 is equal to the read speed R ud-3D and the depth.
  • the difference between the map transfer rate R ext3 [n] increases at a rate equal to the difference R ud ⁇ 3D ⁇ R ext3 [n].
  • the accumulated data amount DA1 of the first read buffer 4921 decreases at the base view transfer rate R ext1 [n ⁇ 1].
  • the nth jump J LD [n] occurs.
  • the n-th jump period PJ LD [n] reading of the nth right-view extent Rn is skipped, and reading of data from the BD-ROM disc 101 is stopped.
  • the accumulated data amount DA1 of the first read buffer 4921 is equal to the base view transfer rate R ext1 [n ⁇ 1].
  • the accumulated data amount DA2 of the second read buffer 4922 decreases at the depth map transfer rate R ext3 [n].
  • the second n readout period PR L [n] starts from the end point of the nth jump period PJ LD [n].
  • the nth base-view extent Ln is read from the BD-ROM disc 101 to the first read buffer 4921.
  • the accumulated data amount DA1 of the first read buffer 4921 is different between the read speed R ud ⁇ 3D and the base view transfer speed R ext1 [n]. Increases at a rate equal to R ud ⁇ 3D ⁇ R ext1 [n].
  • the accumulated data amount DA2 of the second read buffer 4922 continues to decrease at the depth map transfer rate R ext3 [n].
  • the nth zero sector transition J 0 [n] occurs.
  • the accumulated data amount DA1 of the first read buffer 4921 decreases at the base view transfer rate R ext1 [n]
  • the accumulated data amount DA2 of the second read buffer 4922 decreases at the depth map transfer rate R ext3 [n]. Keep doing.
  • the amount of data stored in the second read buffer 4922 in the (2n-1) read period PR D [n] that is, the size S ext3 of the nth depth map extent Dn [n] is transferred from the second read buffer 4922 to the system target decoder 4903 at least over the (2n-1) th read period PR D [n] to the nth zero sector transition period PJ 0 [n].
  • Equal to the amount of data at the end of the nth zero sector transition period PJ 0 [n], as shown in FIG. 59B, the accumulated data amount DA2 of the second read buffer 4922 becomes the second buffer margin amount. Not below UL2.
  • the (2n + 1) th read period PR D [n + 1] is started from the end of the nth zero sector transition period PJ 0 [n].
  • the (n + 1) th depth map extent D (n + 1) is read from the BD-ROM disc 101 to the second read buffer 4922. Accordingly, as shown in FIG. 59A, the accumulated data amount DA1 of the first read buffer 4921 continues to decrease at the base view transfer rate R ext1 [n].
  • the accumulated data amount DA2 of the second read buffer 4922 increases at a speed R ud ⁇ 3D ⁇ R ext3 [n + 1].
  • the (2n + 2) th read period PR L [n + 1] is started from the end of the (n + 1) th jump period PJ LD [n + 1].
  • the (n + 1) -th base view extent L (n + 1) is read from the BD-ROM disc 101 to the first read buffer 4921. Accordingly, as shown in FIG. 59A, the accumulated data amount DA1 of the first read buffer 4921 increases at a speed R ud ⁇ 3D ⁇ R ext1 [n + 1].
  • the accumulated data amount DA2 of the second read buffer 4922 continues to decrease at the depth map transfer rate R ext3 [n + 1].
  • the amount of data stored in the first read buffer 4921 in the second n read period PR L [n], that is, the size S ext1 [n] of the nth base-view extent Ln is At least equal to the amount of data transferred from the first read buffer 4921 to the system target decoder 4903 over the (n + 1) th jump period PJ LD [n + 1] from the second n read period PR L [n].
  • the accumulated data amount DA1 of the first read buffer 4921 is equal to the first buffer margin amount UL1.
  • the size S ext1 [n] of the nth base-view extent Ln is at least from the first read buffer 4921 over the second n read period PR L [n] to the (n + 1) th jump period PJ LD [n + 1]. It is equal to the amount of data transferred to the system target decoder 4903.
  • the length of the second n readout period PR L [n] is a value S ext1 [n] / R obtained by dividing the size S ext1 [n] of the nth base-view extent Ln by the readout speed R ud ⁇ 3D. Equal to ud-3D .
  • the length of the (2n + 1) th read period PR D [n + 1] is a value S ext3 [divided by the size S ext3 [n + 1] of the (n + 1) th depth map extent D (n + 1) divided by the read speed R ud ⁇ 3D . n + 1] / R ud – equal to 3D . Therefore, the size S ext1 [n] of the nth base-view extent Ln only needs to satisfy the following equation (4):
  • the size S ext3 [n] of the nth depth map extent Dn is at least 2nd from the (2n ⁇ 1) th read period PR D [n] to the nth zero sector transition period PJ 0 [n]. It is equal to the amount of data transferred from the read buffer 4922 to the system target decoder 4903.
  • the length of the (2n ⁇ 1) -th read period PR D [n] is a value S ext3 [a value obtained by dividing the size S ext3 [n] of the nth depth map extent Dn by the read speed R ud ⁇ 3D . n] / R ud – equal to 3D . Therefore, the size S ext3 [n] of the nth depth map extent Dn only needs to satisfy the following equation (5):
  • the jump time T jump-3D [n] to be substituted into the equations (4) and (5) is, for example, the nth base from the rear end of the nth depth map extent Dn in the table of FIG. It is equal to the number of sectors to the tip of the view extent Ln, that is, the maximum jump time corresponding to the jump distance.
  • a pair of the depth map extent Dn and the base view extent Ln having the same extent ATC time is not arranged with a layer boundary therebetween.
  • the zero sector transition time T jump-0 [n] is actual regardless of the presence or absence of the layer boundary LB between the nth base-view extent Ln and the (n + 1) th depth map extent D (n + 1). It is equal to the specified value evaluated only in the time required for zero sector transition.
  • the size of each data block may be designed so as to satisfy all of the above equations (1) to (5).
  • the size of the base view data block only needs to be equal to or larger than the maximum size among the right sides of the expressions (1), (3), and (5).
  • minimum extent size the lower limit value of the size of the data block that satisfies all the expressions (1) to (5).
  • the lower limit values UL1 and UL2 of the accumulated data amounts DA1 and DA2 of the read buffers 4921 and 4922 shown in (a) and (b) of FIG. 58 and 59 represent the respective buffer margin amounts.
  • the “buffer margin” refers to the lower limit value of the accumulated data amount to be maintained in each read buffer during the reading period of one 3D extent block, that is, a series of data blocks in an interleaved arrangement. A long jump occurs between different 3D extent blocks when the recording layer to be read is switched during the reading of the stream data or when another file reading process is interrupted.
  • the other files include files other than the AV stream file shown in FIG.
  • a long jump is longer than a jump that occurs within one 3D extent block considered in the derivation of equations (2)-(5). Furthermore, the occurrence time of a long jump caused by an interruption in the reading process of another file is indefinite, and may occur even during the reading of one data block. Therefore, rather than substituting the maximum jump time for long jumps into equations (2)-(5) and setting the minimum extent size, the buffer margin is prevented and underflow of each read buffer during a long jump is prevented. It is advantageous to keep it in such an amount that it can.
  • FIG. 60 is a schematic diagram showing long jumps J LY , J BDJ 1, and J BDJ 2 that occur during playback processing in the L / R mode.
  • a first 3D extent block 6001 is arranged in the first recording layer located in front of the layer boundary LB, and a block exclusively for 2D playback is provided between the rear end L3 and the layer boundary LB. L4 2D is arranged.
  • a second 3D extent block 6002 is arranged in the second recording layer located after the layer boundary LB.
  • a BD-J object file 6003 is recorded in an area away from any 3D extent block 6001 or 6002.
  • the maximum jump time T jump-LY of the long jump J LY associated with the layer switching is equal to the sum of the maximum jump time corresponding to the jump distance of the first long jump J LY and the layer switching time in the table of FIG.
  • the jump distance is determined by the rear end of the last base-view data block L3 in the first 3D extent block 6001 and the front end of the first right-view data block R4 in the second 3D extent block 6002. Is equal to the number of sectors between
  • the base view transfer rate R ext1 does not exceed the maximum value R max1 . Therefore, the amount of data consumed from the first read buffer 4921 during the long jump J LY does not exceed the product of the maximum value R max1 of the base view transfer rate and the maximum jump time T jump-LY .
  • the product value is determined as the first buffer margin UL1. That is, the first buffer margin UL1 is calculated by the following equation (6):
  • the product of the maximum value of the data amount consumed from the second read buffer 4922 during the long jump J LY that is, the maximum value R max2 of the right-view transfer rate and the maximum jump time T jump ⁇ LY is the second. Determined as buffer margin UL2. That is, the second buffer margin UL2 is calculated by the following equation (7):
  • the jump distance is 40000 sectors, that is, the maximum jump time T jump-LY is 700 msec and the system rate for the first file DEP is 16 Mbps, the second buffer margin UL2 is (16 Mbps ⁇ 192/188).
  • X 0.7 seconds equal to about 1.36 MB.
  • the first long jump J BDJ 1 occurs.
  • the jump time T BDJ is defined in advance as a constant value, for example, 900 milliseconds.
  • the BD-J object file 6003 is read.
  • the time required for reading is equal to 8 ⁇ S BDJ [n] / R ud ⁇ 3D , which is 8 times the size S BDJ of the extent belonging to the file 6003 divided by the reading speed R ud ⁇ 3D
  • the size S BDJ is expressed in bytes, and the read speed R ud-3D is expressed in bits / second, so 8 times is required).
  • the second long jump J BDJ 2 occurs.
  • the jump time T BDJ is equal to the first jump time, eg 900 ms.
  • the first buffer margin amount UL1 is calculated by the following equation (8):
  • the second buffer margin UL2 is calculated by the following equation (9):
  • the first buffer margin UL1 is set to the larger one of the values represented by the right side of the equations (6) and (8).
  • the second buffer margin amount UL2 is set to the larger one of the values represented by the right sides of the equations (7) and (9).
  • the minimum capacity required for each read buffer 4921 and 4922 is calculated as follows.
  • the capacity RB1 [n] required for the first read buffer 4921 is as shown in FIGS. Of the peaks of the graph shown in each (a), it may be higher than the highest value.
  • the capacity RB1 [n] only needs to satisfy the following expression (10) in both the L / R mode and the depth mode:
  • the capacity RB2 LR [n] required for the second read buffer 4922 is the peak of the graph shown in FIG. Of these, the highest value may be used.
  • the capacity RB2 LR [n] should satisfy the following equation (11):
  • the system target decoder 4903 does not read data from the second read buffer 4922 until the entire right-view data block to be read first is stored in the second read buffer 4922. Accordingly, the capacity RB2 LR [n] of the second read buffer 4922 is different from the capacity RB1 [n] of the first read buffer 4921, and “size S ext2 [n of at least the nth right-view data block Rn” Is greater than].
  • the capacity RB2 LD [n] of the second read buffer 4922 required when reading the nth depth map data block Dn in the depth mode may satisfy the following equation (12):
  • the data block groups before and after the layer boundary are recorded in any one of the arrangements 1, 2, and 3 shown in FIGS. Yes.
  • a specific part of the base-view video stream is played back from the 2D playback dedicated block Ln 2D in the 2D playback mode, and is played back from the 3D playback dedicated block Ln SS in the 3D playback mode.
  • the size S ext2D of the 2D extent storing the specific portion is the sum of the size S ext1 of the base view extent and the size of the 2D playback dedicated block Ln 2D. equal.
  • Equation (1) only needs to be satisfied by the sum S ext2D
  • equations (2)-(5) only need to be satisfied by the size of the data block other than the 2D playback-only block Ln 2D . Therefore, by adjusting the size of the 2D playback-only block Ln 2D , the dependent that satisfies the expressions (2) to (5) is substantially independent of the fact that the overall size S ext2D of the 2D extent satisfies the expression (1).
  • the lower limit value of the view extent sizes S ext2 and S ext3 that is, the minimum extent size can be further reduced. Therefore, as apparent from the equations (11) and (12), the minimum capacities RB2 LR and RB2 LD of the second read buffer 4922 can be further reduced substantially independently of the equation (1).
  • a 3D extent block that is, a data block group in an interleaved arrangement
  • the difference in ATS from the first source packet of each data block to the first source packet of the next data block is equal.
  • the first source depacketizer 5011 extracts TS packets from all the source packets in the base-view data block Ln, and sends them to the first PID filter 5013.
  • the depacketizer 5012 extracts TS packets from all source packets in the dependent-view data block Dn or Rn and sends them to the second PID filter 5014. Therefore, particularly during the jump-in reproduction, the main video decoder 5015 can easily synchronize the decoding process of the TS packet between the base-view video stream and the dependent-view video stream.
  • Expressions (2) to (5) the sizes of the base view extent and the dependent view extent are limited by the size of the extent located behind the extent. However, from the viewpoint of use in the authoring process, it is desirable that the conditions for the size of each extent are expressed in a form that does not depend on the sizes of other extents. Therefore, the expressions (2) to (5) are re-expressed as a conditional expression using the extent ATC time as follows.
  • CEIL (R ext1 [n] ⁇ minT ext / 8) ⁇ S ext1 [n] ⁇ CEIL (R ext1 [n] ⁇ maxT ext / 8), (13) CEIL (R ext2 [n] ⁇ minT ext / 8) ⁇ S ext2 [n] ⁇ CEIL (R ext2 [n] ⁇ maxT ext / 8), (14) CEIL (R ext3 [n] ⁇ minT ext / 8) ⁇ S ext3 [n] ⁇ CEIL (R ext3 [n] ⁇ maxT ext / 8). (15)
  • the minimum extent ATC time minT ext is calculated as follows using the minimum extent size, that is, the right sides of the equations (2) to (5).
  • equation (4) is similarly modified instead of equation (2), the minimum extent ATC time minT ext should further satisfy equation (18):
  • the extent ATC time T ext [n] is equal to the minimum extent ATC time minT ext . Since the nth right-view extent has the same extent ATC time as the nth base-view extent, the minimum extent ATC time minT ext satisfies the following equation (19) from equations (3) and (14):
  • equation (5) if equation (5) is used instead of equation (3), the minimum extent ATC time minT ext should satisfy equation (21):
  • the minimum extent ATC time minT ext is defined as the maximum value among the right sides of the equations (17), (18), (20), and (21).
  • the zero sector transition time T jump-0 , the jump time T jump-3D , and the extent ATC time fluctuation range Tm can be limited to a predetermined value.
  • the jump time T jump-3D may be evaluated using the maximum jump distance MAX_EXTJUMP3D, as in Modification (F) described later.
  • the minimum extent ATC time minT ext can be substantially determined only by a constant such as the maximum value R max of the average transfer time. Therefore, the condition for the extent size expressed by the equations (13) to (15) is advantageous for use in the authoring process.
  • Each buffer margin amount UL1, UL2 is secured as described below.
  • the minimum extent ATC time minT ext is the maximum value of the average transfer rates R ext1 , R ext2 , and R ext3 as shown in the equations (17), (18), (20), and (21). It is a value when it is equal to R max1 , R max2 , R max3 .
  • the actual average transfer rates R ext1 , R ext2 , R ext3 are generally lower than their respective maximum values R max1 , R max2 , R max3 .
  • the actual data block sizes R ext1 ⁇ T ext , R ext2 ⁇ T ext , R ext3 ⁇ T ext are the expected values R max1 ⁇ T ext , R max2 ⁇ T ext , R Generally smaller than max3 ⁇ T ext . Therefore, reading of the next data block is started before the extent ATC time T ext elapses from the start of reading of each data block. That is, the accumulated data amounts DA1 and DA2 of the respective read buffers 4921 and 4922 are actually different from those shown in FIGS. 58 and 59 (a) and (b). Increase again before returning.
  • the accumulated data amounts DA1 and DA2 increase by a predetermined amount each time one pair of data blocks of the base view and the dependent view is read. As a result, a certain number of data blocks are successively read into the read buffers 4921 and 4922, thereby ensuring the buffer margin amounts UL1 and UL2.
  • FIG. 61A is a schematic diagram showing a correspondence relationship between the 3D extent block 6110 and the playback path 6120 in the L / R mode.
  • each pair of adjacent right-view data block Rk and base-view data block Lk is read out as one 3D extent, that is, a pair of dependent-view extent and base-view extent. .
  • This extent size S ext1 [k] is generally smaller than the product of the maximum base view transfer rate R max1 and the extent ATC time T ext [k]: S ext1 [k] ⁇ R max1 ⁇ T ext [k ].
  • FIG. 61B is a graph showing a change in the accumulated data amount DA1 of the first read buffer 4921 when the 3D extent block 6110 is read according to the reproduction path 6120 in the L / R mode.
  • the thin solid line graph shows changes when the average transfer rates R ext1 [k], R ext2 [k], and R ext3 [k] are equal to the maximum values R max1 , R max2 , and R max3 , respectively.
  • the thick solid line graph shows the change when the transfer rate R ext1 [0] of the first base-view extent L0 is lower than the maximum value R max1 .
  • the dependent view transfer rates R ext2 [k] and R ext3 [k] are equal to the maximum values R max2 and R max3 , respectively.
  • the dependent view extent size R ext2 [k] ⁇ T ext [k] and R ext3 [k] ⁇ T ext [k] are the maximum possible values R max2 ⁇ T ext [k], R Equal to max3 ⁇ T ext [k].
  • each dependent- view extent D1 and R1 is the same value for both graphs R max2 ⁇ T ext [1], R max3 ⁇ T ext [1] It is. Therefore, the time ⁇ T from the peak of the accumulated data amount DA1 to the start of reading of the next base-view extent L1 is common to both graphs.
  • the thick solid line graph differs from the thin solid line graph by the time ⁇ Tb earlier than the extent ATC time T ext elapses from the start of reading the first base view extent L0, and the next base view extent L1. Reading is started.
  • 61 (c) shows the change in the accumulated data amount DA2 in the second read buffer 4922 when the accumulated data amount DA1 in the first read buffer 4921 indicates the change shown in FIG. 61 (b). It is a graph to show.
  • the thin solid line graph shows changes when the average transfer rates R ext1 [k], R ext2 [k], and R ext3 [k] are equal to the maximum values R max1 , R max2 , and R max3 , respectively.
  • the thick solid line graph shows the change when the transfer rate R ext1 [0] of the first base-view extent L0 is lower than the maximum value R max1 .
  • the dependent view transfer rates R ext2 [k] and R ext3 [k] are equal to the maximum values R max2 and R max3 , respectively.
  • the next right view is earlier than the thin solid line graph by the time ⁇ Tb, that is, by the time ⁇ Tb before the extent ATC time T ext elapses from the start of reading the first right view extent R0.
  • -Reading of extent R1 is started. Therefore, the value DM21 of the accumulated data amount DA2 at that time increases by the increment DM2 [0] from the value DM20 at the start of reading of the first right-view extent R0.
  • the dependent view transfer rates R ext2 [k] and R ext3 [k] are equal to the maximum values R max2 and R max3 , respectively.
  • the dependent- view transfer rates R ext2 [k] and R ext3 [k] are generally lower than the maximum values R max2 and R max3 , respectively.
  • the accumulated data amount DA2 reaches the peak earlier by the time ⁇ Td as in the graph of FIG.
  • the time ⁇ T from the peak of the accumulated data amount DA1 to the start of reading of the next base-view extent L1 is shortened by the same time ⁇ Td.
  • the accumulated data amounts DA1 and DA2 are incremented DM3 [k] and DM4 [k], respectively. It increases gradually.
  • the increments DM3 [k] and DM4 [k] are expressed by the following equations (24) and (25):
  • DM3 [k] R ext1 [k] ⁇ ⁇ (R ext1 [k] ⁇ R max1 ) + (R ext3 [k] ⁇ R max3 ) ⁇ ⁇ T ext [k] / R ud ⁇ 3D
  • DM4 [k] R ext3 [k] ⁇ ⁇ (R ext1 [k] ⁇ R max1 ) + (R ext3 [k] ⁇ R max3 ) ⁇ ⁇ T ext [k] / R ud ⁇ 3D .
  • the base view transfer rate R ext1 [k] is equal to the average value R ext1 ⁇ av and the dependent view transfer rate R ext2 [k ], R ext3 [k] is equal to the average values R ext2 ⁇ av and R ext3 ⁇ av .
  • the reproducing device 102 causes the BD-ROM drive 4901 to intermittently read / transfer. As a result, the reading speed R ud-3D is reduced, so that an increase in the accumulated data amounts DA1 and DA2 can be suppressed. In this way, overflow of each read buffer 4921 and 4922 can be avoided.
  • Embodiment 1 of the present invention relates to the arrangement of extents when 3D video is stored in a recording medium.
  • the present invention may be used when storing a high frame rate video on a recording medium.
  • a high frame rate video is divided into an odd-numbered frame group and an even-numbered frame group. What is necessary is just to record on a recording medium by the arrangement
  • FIG. A playback apparatus that can only play back video at a normal frame rate may play back video of an odd-numbered frame group from the recording medium.
  • a playback apparatus capable of playing back video at a high frame rate can selectively play back video of only the odd-numbered frame group and video of both frame groups. In this way, it is possible to ensure compatibility with a playback apparatus that can only play back video at a normal frame rate on a recording medium that stores video at a high frame rate.
  • the base-view video stream represents a left view and the dependent-view video stream represents a right view. Conversely, the base-view video stream may represent the right view and the dependent-view video stream may represent the left view.
  • the offset table 3141 shown in FIG. 32A includes a table 3310 of offset entries 3304 for each PID.
  • the offset table may include a table of offset entries for each plane.
  • the analysis process of the offset table by the 3D playback device can be simplified.
  • a lower limit of, for example, 1 second may be provided for the length of the effective section of the offset entry in accordance with the performance of the 3D playback device related to the plane synthesis process.
  • the 3D playlist file shown in FIG. 40 includes one sub-path indicating the playback path of the sub-TS.
  • the 3D playlist file may include a plurality of sub-paths indicating playback paths of different sub-TSs.
  • the subpath type of one subpath may be “3D ⁇ L / R”
  • the subpath type of the other subpath may be “3D ⁇ depth”.
  • the 3D playlist file may include a plurality of subpaths having the same subpath type. For example, when 3D images with different binocular parallax for the same scene are represented by the difference in right view with respect to a common left view, a different file DEP is recorded on the BD-ROM disc 101 for each different right view video stream. .
  • the 3D playlist file includes a plurality of subpaths whose subpath type is “3D ⁇ L / R”. These sub-paths individually define the playback paths of different file DEPs.
  • two or more types of depth map streams may be included in one file 2D. In that case, the 3D playlist file includes a plurality of subpaths whose subpath type is “3D depth”.
  • sub-paths individually define the playback path of the file DEP containing each depth map stream.
  • the sub-path to be played is quickly switched according to, for example, the user's operation, so that the binocular parallax can be achieved without substantially interrupting the 3D video. Can be changed. Thereby, the user can easily select a desired 3D image with binocular parallax.
  • the extent ATC time may be defined as a value obtained by adding the transfer time per source packet to the time interval from the ATS of the first source packet of one extent to the ATS of the last source packet of the same extent. Good. In that case, the calculation of the extent ATC time does not require the reference of the next extent, and thus the calculation can be simplified. In the calculation of the extent ATC time described above, it must be considered that a wrap around occurs in the ATS.
  • FIG. 62A is a schematic diagram showing a data block group in an interleaved arrangement including only multiplexed stream data.
  • FIG. 62B is a schematic diagram showing a data block group in an interleaved arrangement including extents belonging to other files.
  • the data block group 6201 includes depth map data blocks D1, D2, D3, right-view data blocks R1, R2, R3, a base-view data block L1, Includes L2 and L3 alternately.
  • pairs R1 + L1, R2 + L2, and R3 + L3 of adjacent right-view data blocks and base-view data blocks are read in order.
  • a zero sector transition J 0 occurs between the right-view data block and the base-view data block.
  • reading of each depth map data block D1, D2, D3 is skipped by jump JLR .
  • the depth map data blocks D1, D2, and D3 and the base view data blocks L1, L2, and L3 are alternately read.
  • a zero sector transition J 0 occurs between adjacent base-view data blocks and depth map data blocks. Further, reading of each right-view data block R1, R2, R3 is skipped by jump JLD .
  • extents A1 and A2 belonging to different files are inserted into a data block group 6204 similar to (a) of FIG.
  • the other file may be a movie object file, a BD-J object file, or a JAR file, for example.
  • the extents A1 and A2 are both inserted between the depth map data block and the right-view data block that were adjacent in FIG. In that case, in the playback path 6205 in the L / R mode, the distance of the jump J LR is longer than that of the playback path 6202 shown in FIG.
  • A2 next to one of the base-view data blocks may not change the zero sector transition J 0 to the normal jump.
  • the maximum jump time generally increases more greatly when the zero sector transition is changed to a normal jump than when the jump distance is changed. Therefore, as is apparent from equations (2)-(5), the minimum extent size is generally much larger when changing zero sector transitions to normal jumps than when changing jump distances. Therefore, when the extents A1 and A2 are inserted into the interleaved data block group 6201, as shown in FIG. 62B, the depth map data block and the right view data Insert between blocks. Thereby, an increase in the minimum extent size accompanying the insertion can be suppressed, and an increase in the minimum capacity of the read buffer can be avoided.
  • the sizes G1 and G2 of the extents A1 and A2 in units of sectors may be limited to the maximum jump distance MAX_EXTJUMP3D or less: G1 ⁇ MAX_EXTJUMP3D, G2 ⁇ MAX_EXTJUMP3D.
  • the maximum jump distance MAX_EXTJUMP3D represents the maximum jump distance among the jumps J LR and J LD generated in the data block group 6204 in units of sectors.
  • the maximum jump time to be assigned to the right side of the equations (2) to (5) is difficult to increase, so that the minimum extent size is difficult to increase. Therefore, an increase in the minimum capacity of the read buffer accompanying the insertion of the extents A1 and A2 can be avoided.
  • each extent A1, A2 size G1, G2 and adjacent dependent-view data blocks D2, R2, D3, R3 sizes S ext3 [2], S ext2 [2], S ext3 [3 ], S ext2 [3] and the sum may be limited to the maximum jump distance MAX_EXTJUMP3D or less:
  • the unit of each size is converted from bytes into sectors by dividing the size of the dependent view data block in bytes by the number of bytes per sector 2048.
  • the maximum jump time to be assigned to the right side of the expressions (2) to (5) does not exceed a certain value.
  • the maximum jump time does not exceed 350 milliseconds from the table of FIG. Therefore, the minimum extent size does not exceed a certain value. In this way, it is possible to reliably avoid an increase in the minimum capacity of the read buffer due to the insertion of the extents A1 and A2.
  • each extent A1, the size of the A2 G1, G2 and dependent-view data block adjacent thereto D2, R2, D3, the size of R3 S ext3 [2], S ext2 [2] , S ext3 [3], S ext2 [3] may be limited to no more than the maximum jump distance MAX_JUMP (•) for the size of the dependent-view data block:
  • the maximum jump distance MAX_JUMP (•) with respect to the size of the dependent-view data block is the number of sectors corresponding to the same maximum jump time as the number of sectors in the table of FIG. 56 when the size is represented by the number of sectors.
  • the maximum jump time to be assigned to the right side of the expressions (2) to (5) is not changed, so the minimum extent size is unchanged. Therefore, an increase in the minimum capacity of the read buffer accompanying the insertion of the extents A1 and A2 can be avoided more reliably.
  • the recording device is a so-called authoring device.
  • the authoring device is usually installed in a production studio for distributing movie content and used by authoring staff.
  • the recording device first converts the movie content into a digital stream of a compression encoding method in accordance with the MPEG standard, that is, an AV stream file.
  • the recording device then generates a scenario.
  • the scenario is information that defines the playback method of each title included in the movie content, and specifically includes the dynamic scenario information and the static scenario information.
  • the recording device then generates a volume image or update kit for the BD-ROM disc from the above digital stream and scenario.
  • the recording apparatus records the volume image on the recording medium using the extent arrangement according to the first embodiment.
  • FIG. 63 is a block diagram showing the internal configuration of the recording apparatus.
  • the recording apparatus includes a video encoder 6301, a material production unit 6302, a scenario generation unit 6303, a BD program production unit 6304, a multiplexing processing unit 6305, a format processing unit 6306, and a database unit 6307.
  • the database unit 6307 is a non-volatile storage device built in the recording device, and in particular a hard disk drive (HDD).
  • the database unit 6307 may be an HDD externally attached to the recording device, or may be a nonvolatile semiconductor memory device built in or externally attached to the recording device.
  • the video encoder 6301 receives video data such as uncompressed bitmap data from the authoring staff, and compresses it using a compression encoding method such as MPEG-4 AVC or MPEG-2. As a result, the main video data is converted into a primary video stream, and the sub-video data is converted into a secondary video stream. In particular, 3D video data is converted into a base-view video stream and a dependent-view video stream.
  • Video encoder 6301 converts the left-view video stream into a base-view video stream by predictive coding between its own pictures as shown in FIG. , By converting to a dependent-view video stream by predictive coding between the picture of the base-view video stream as well as its own picture. Note that the right-view video stream may be converted into a base-view video stream. In addition, the left-view video stream may be converted to a dependent-view video stream.
  • Each video stream 6311 after conversion is stored in the database unit 6307.
  • the video encoder 6301 further detects a motion vector of each image between the left video and the right video in the process of predictive coding between pictures, and calculates depth information of each image in the 3D video from them. .
  • the calculated depth information of each image is organized into frame depth information 6310 and stored in the database unit 6307.
  • FIGS. 64A and 64B are schematic diagrams showing a left video picture and a right video picture used for displaying one scene of 3D video, and FIG. 64C shows those pictures by the video encoder 6301. It is a schematic diagram which shows the depth information calculated from FIG.
  • Video encoder 6301 first compresses each picture using the redundancy between the left and right pictures. At that time, the video encoder 6301 detects the motion vector of each image between both pictures by comparing the left and right pictures before compression for each 8 ⁇ 8 or 16 ⁇ 16 pixel matrix, that is, for each macroblock. Specifically, as shown in FIGS. 64A and 64B, first, the left video picture 6401 and the right video picture 6402 are each divided into a matrix of macroblocks 6403. Next, image data is compared between both pictures 6401 and 6402 for each macroblock 6403, and a motion vector of each image is detected from the result. For example, the area representing the “house” image 6404 is substantially equal between both pictures 6401 and 6402. Therefore, no motion vector is detected from these areas. On the other hand, the area representing the “sphere” image 6405 differs substantially between the pictures 6401 and 6402. Accordingly, motion vectors representing the displacement of the “sphere” image 6405 are detected from these regions.
  • the video encoder 6301 uses the detected motion vector for compression of the pictures 6401 and 6402, and also for calculating binocular parallax of the video represented by the image data 6404 and 6405. From the binocular parallax obtained in this way, the video encoder 6301 further calculates the “depth” of each image, such as “house” and “sphere” images 6404 and 6405. Information representing the depth of each image is organized into a matrix 6406 having the same size as the macroblock matrix of each picture 6401 and 6402, as shown in FIG. 64 (c), for example.
  • the frame depth information 6310 shown in FIG. 63 includes this matrix 6406.
  • the block 6407 in the matrix 6406 has a one-to-one correspondence with the macroblock 6403 in each of the pictures 6401 and 6402.
  • Each block 6407 represents the depth of the image represented by the corresponding macroblock 6403, for example, with a depth of 8 bits.
  • the depth of the “sphere” image 6405 is recorded in each block in the area 6408 of the matrix 6406.
  • the area 6408 corresponds to the entire area in each picture 6401 and 6402 representing the image 6405.
  • the material production unit 6302 creates elementary streams other than the video stream, for example, the audio stream 6312, the PG stream 6313, and the IG stream 6314, and stores them in the database unit 6307.
  • the material production unit 6302 receives uncompressed LPCM audio data from the authoring staff, encodes it with a compression encoding method such as AC-3, and converts it into an audio stream 6312.
  • the material production unit 6302 receives a caption information file from the authoring staff and creates a PG stream 6313 accordingly.
  • the caption information file defines image data representing captions, display timing of the captions, and visual effects such as fade-in / fade-out to be added to the captions.
  • the material production unit 6302 further receives bitmap data and a menu file from the authoring staff, and creates an IG stream 6314 according to them.
  • Bitmap data represents a menu image.
  • the menu file defines the state transition of each button arranged in the menu and the visual effect to be applied to each button.
  • the scenario generation unit 6303 creates BD-ROM scenario data 6315 in accordance with an instruction received from the authoring staff via the GUI, and stores it in the database unit 6307.
  • the BD-ROM scenario data 6315 defines the playback method of each elementary stream 6311-6314 stored in the database unit 6307.
  • the BD-ROM scenario data 6315 includes an index file 511, a movie object file 512, and a playlist file 521-523 among the files shown in FIG.
  • the scenario generation unit 6303 further creates a parameter file 6316 and sends it to the multiplexing processing unit 6305.
  • the parameter file 6316 defines stream data to be multiplexed in each of the main TS and sub-TS from the elementary streams 6311-6314 stored in the database unit 6307.
  • the BD program production unit 6304 provides the authoring staff with a programming environment for BD-J objects and Java application programs.
  • the BD program creation unit 6304 receives a request from the user through the GUI, and creates a source code of each program according to the request.
  • the BD program creation unit 6304 further creates a BD-J object file 551 from the BD-J object, and compresses the Java application program into a JAR file 561. Those files 551 and 561 are sent to the format processing unit 6306.
  • the BD-J object is programmed as follows:
  • the BD-J object stores graphics data for GUI in the program execution units 4606 and 4906 shown in FIGS. It is sent to the system target decoder 4603, 4903.
  • the BD-J object further causes the system target decoders 4603 and 4903 to process the graphics data as image plane data.
  • the BD program creation unit 6304 may set offset information for the image plane data in the BD-J object using the frame depth information 6310 stored in the database unit 6307.
  • the multiplexing processing unit 6305 multiplexes each elementary stream 6311-6314 stored in the database unit 6307 into an MPEG2-TS format stream file according to the parameter file 6316. Specifically, as shown in FIG. 7, each elementary stream 6311-6314 is converted into a source packet sequence, and the source packets in each sequence are combined into one column to form one multiplexed stream data. To do. In this way, the main TS and the sub TS are created.
  • the multiplexing processing unit 6305 creates a 2D clip information file and a dependent view / clip information file by the following procedure.
  • the entry map 3130 shown in FIG. 32 is generated for each of the file 2D and the file DEP.
  • a list 3310 of extent starting points shown in FIG. 33 is created using the entry map of each file.
  • the stream attribute information shown in FIG. 31 is extracted from each elementary stream to be multiplexed in each of the main TS and sub-TS.
  • a combination of an entry map, 3D metadata, and stream attribute information is associated with clip information.
  • the format processing unit 6306 includes a BD-ROM scenario data 6315 stored in the database unit 6307, a program file group such as a BD-J object file created by the BD program creation unit 6304, and a multiplexing processing unit 6305.
  • the BD-ROM disk image 6320 having the directory structure shown in FIG. 5 is created from the multiplexed stream data and the clip information file generated by.
  • UDF is used as a file system.
  • each file entry of the file 2D, the file DEP, and the file SS the entry map and the 3D meta data included in the 2D clip information file and the dependent view clip information file, respectively.
  • the SPN between each entry point and each extent start point is used to create each allocation descriptor.
  • an allocation descriptor is created so that an interleaved arrangement as shown in FIG. 16 is represented.
  • each base-view data block is shared by the file SS and the file 2D
  • each dependent-view data block is shared by the file SS and the file DEP.
  • the allocation descriptor is created so that any one of the arrangements 1-3 shown in FIGS.
  • each size of the extents of the base view and the dependent view is designed to satisfy the expressions (1) to (5), and based on this, the value of the logical address to be represented by each allocation descriptor is determined. .
  • the format processing unit 6306 uses the frame depth information 6310 stored in the database unit 6307 to convert the offset table shown in FIG. 32A into the secondary video stream 6311 and the PG stream 6313. , And IG stream 6314.
  • the format processing unit 6306 further stores the offset table in the 3D metadata of the 2D clip information file.
  • the arrangement of the image data in the left and right video frames is automatically adjusted so that the 3D video represented by each stream is not displayed in the same viewing direction as the 3D video represented by the other streams.
  • the offset value for each video frame is automatically adjusted so that the depths of the 3D video represented by each stream do not overlap each other.
  • the BD-ROM disc image 6320 generated by the format processing unit 6306 is then converted into BD-ROM press data. Further, this data is recorded on the master of the BD-ROM disc. By using this master for the pressing process, mass production of the BD-ROM disc 101 according to the first embodiment of the present invention can be realized.
  • FIG. 65 is a functional block diagram of the integrated circuit 3 according to the third embodiment of the present invention.
  • the integrated circuit 3 is mounted on the playback device 102 according to the first embodiment.
  • the playback device 102 includes a medium interface (IF) unit 1, a memory unit 2, and an output terminal 10 in addition to the integrated circuit 3.
  • IF medium interface
  • the medium IF unit 1 receives or reads data from the external medium ME and transfers it to the integrated circuit 3.
  • the data includes data on the BD-ROM disc 101 according to the first embodiment.
  • the types of media ME include disk recording media such as optical disks and hard disks, semiconductor memories such as SD cards and USB memories, broadcast waves such as CATV, and networks such as Ethernet (registered trademark), wireless LAN, and wireless public lines.
  • the medium IF unit 1 includes a disk drive, a card IF, a CAN tuner, a Si tuner, and a network IF according to the type of the medium ME.
  • the memory unit 2 temporarily stores data received or read from the medium ME by the medium IF unit 1 and data being processed by the integrated circuit 3.
  • SDRAM Synchronous Dynamic Random Access Memory
  • the memory unit 2 is a single memory element.
  • the memory unit 2 may include a plurality of memory elements.
  • the integrated circuit 3 is a system LSI, and performs video / audio processing on the data transferred from the medium IF unit 1.
  • the integrated circuit 3 includes a main control unit 6, a stream processing unit 5, a signal processing unit 7, a memory control unit 9, and an AV output unit 8.
  • the main control unit 6 includes a processor core and a program memory.
  • the processor core has a timer function and an interrupt function.
  • the program memory stores basic software such as an OS.
  • the processor core controls the entire integrated circuit 3 in accordance with a program stored in a program memory or the like.
  • the stream processing unit 5 receives the data transferred from the medium ME via the medium IF unit 1 under the control of the main control unit 6.
  • the stream processing unit 5 further stores the received data in the memory unit 2 through the data bus in the integrated circuit 3.
  • the stream processing unit 5 separates video data and audio data from the received data.
  • the data received from the medium ME includes data having the structure according to the first embodiment.
  • the “video data” includes a primary video stream, a secondary video stream, a PG stream, and an IG stream.
  • “Audio data” includes a primary audio stream and a secondary audio stream.
  • the base-view stream and the dependent-view stream are each divided into a plurality of extents, which are alternately arranged.
  • the stream processing unit 5 receives the data
  • the base view stream is extracted from the data and stored in the first area in the memory unit 2 according to the control of the main control unit 6, and the dependent view stream is stored. Is extracted and stored in the second area in the memory unit 2.
  • the first region and the second region in the memory unit 2 are logically divided regions of a single memory element.
  • each area may be included in a physically different memory element.
  • the video data and audio data separated by the stream processing unit 5 are each compressed by encoding.
  • Types of video data encoding methods include MPEG-2, MPEG-4 AVC, MPEG4-MVC, SMPTE VC-1, and the like.
  • Types of audio data encoding methods include Dolby AC-3, Dolby Digital Plus, MLP, DTS, DTS-HD, and linear PCM.
  • the signal processing unit 7 decodes the video data and the audio data by a method suitable for each encoding method.
  • the signal processing unit 7 corresponds to, for example, various decoders shown in FIG.
  • the memory control unit 9 arbitrates access to the memory unit 2 from each functional block 5-8 in the integrated circuit 3.
  • the AV output unit 8 processes the video data and audio data decoded by the signal processing unit 7 into appropriate formats under the control of the main control unit 6, and displays the data through the individual output terminals 10 Output to 103 and its built-in speaker.
  • the types of processing include video data superimposition processing, format conversion of each data, mixing of audio data, and the like.
  • FIG. 66 is a functional block diagram showing a typical configuration of the stream processing unit 5.
  • the stream processing unit 5 includes a device stream IF unit 51, a demultiplexing unit 52, and a switching unit 53.
  • the device stream IF unit 51 is an interface for transferring data between the medium IF unit 1 and other functional blocks 6-9 in the integrated circuit 3.
  • the device stream IF unit 51 includes SATA (Serial Advanced Technology Attachment), ATAPI (Advanced Technology Attachment Packet) Interface, or PATA (Parallel Advanced Technology Attachment).
  • SATA Serial Advanced Technology Attachment
  • ATAPI Advanced Technology Attachment Packet
  • PATA Parallel Advanced Technology Attachment
  • the medium ME is a semiconductor memory such as an SD card and a USB memory
  • the device stream IF unit 51 includes a card IF.
  • the device stream IF unit 51 includes a tuner IF.
  • the device stream IF unit 51 When the medium ME is a network such as Ethernet (registered trademark), a wireless LAN, and a wireless public line, the device stream IF unit 51 includes a network IF.
  • the device stream IF unit 51 may implement part of the function instead of the medium IF unit 1.
  • the device stream IF unit 51 may be omitted.
  • the demultiplexing unit 52 receives the data transferred from the medium ME to the memory unit 2 from the memory control unit 9, and separates the video data and the audio data from the data.
  • each extent included in the data having the structure according to the first embodiment is composed of source packets such as a video stream, an audio stream, a PG stream, and an IG stream, as shown in FIG. .
  • the dependent-view stream may not include an audio stream.
  • Demultiplexer 52 reads PID from each source packet in accordance with the PID, fractionating source packet group in TS packets V TS and the audio system of the TS packets A TS video system.
  • the sorted TS packets V TS and A TS are directly or once stored in the memory unit 2 and then transferred to the signal processing unit 7.
  • the demultiplexer 52 corresponds to, for example, the source / depacketizers 5011 and 5012 and the PID filters 5013 and 5014 shown in FIG.
  • the switching unit 53 switches the output destination according to the type of data received by the device stream IF unit 51. For example, when the device stream IF unit 51 receives the base view stream, the storage destination of the stream is switched to the first area of the memory unit 2. On the other hand, when the device stream IF unit 51 receives the dependent view stream, the storage destination of the stream is switched to the second area of the memory unit 2.
  • the switching unit 53 is, for example, a DMAC (Direct Memory Access Controller).
  • FIG. 67 is a schematic diagram showing a structure around the switching unit 53 in that case.
  • the DMAC 53 transmits the data received by the device stream IF unit 51 and the storage destination address of the data to the memory control unit 9 under the control of the main control unit 6. Specifically, when the device stream IF unit 51 receives the base-view stream BS, the DMAC 53 transmits the address 1AD1 together with the base-view stream BS.
  • the address 1AD1 indicates the head address AD1 of the first storage area 21 in the memory unit 2.
  • the DMAC 53 transmits the address 2AD2 together with the dependent view stream DS.
  • the address AD2 indicates the start address AD2 of the second storage area 22 in the memory unit 2.
  • the DMAC 53 switches its output destination, particularly the storage destination in the memory unit 2, depending on the type of data received by the device stream IF unit 51.
  • the memory control unit 9 stores the streams BS and DS received from the DMAC 53 in the areas 21 and 22 in the memory unit 2 indicated by the addresses AD1 and AD2 received therewith.
  • the main control unit 6 uses the extent start point in the clip information file for the switching control of the storage destination by the switching unit 53.
  • the clip information file is received before each stream BS, DS and stored in the memory unit 2.
  • the main control unit 6 recognizes that the data received by the device stream IF unit 51 is a base-view stream using a file base.
  • the main control unit 6 uses the file DEP to recognize that the data received by the device stream IF unit 51 is a dependent view stream.
  • the main control unit 6 further sends a control signal CS to the switching unit 53 in accordance with the recognized result to switch the data storage destination.
  • the switching unit 53 may be controlled by a dedicated control circuit different from the main control unit 6.
  • the stream processing unit 5 may further include a cryptographic engine unit, a secure management unit, and a controller for direct memory access in addition to the functional blocks 51, 52, and 53 shown in FIG.
  • the cryptographic engine unit decrypts the encrypted data, the key data, and the like received by the device stream IF unit 51.
  • the secure management unit holds a secret key and uses it to perform execution control such as a device authentication protocol between the medium ME and the playback device 102.
  • the data received from the medium ME is stored in the memory unit 2
  • the data is stored depending on whether the data is the base-view stream BS or the dependent-view stream DS.
  • the destination is switched.
  • the data received from the medium ME is temporarily stored in the same area in the memory unit 2 and then transferred from the memory unit 2 to the demultiplexing unit 52 regardless of the type, the base view stream It may be divided into BS and dependent view stream DS.
  • FIG. 68 is a functional block diagram showing a typical configuration of the AV output unit 8.
  • the AV output unit 8 includes an image superimposing unit 81, a video output format converting unit 82, and an audio / video output IF unit 83.
  • the image superimposing unit 81 superimposes the video data VP, PG, and IG decoded by the signal processing unit 7 on each other. Specifically, the image superimposing unit 81 first receives the processed left-view or right-view video plane data VP from the video output format conversion unit 82, and the decoded PG plane from the signal processing unit 7. Receives data PG and IG plane data IG. Next, the image superimposing unit 81 superimposes the PG plane data PG and the IG plane data IG on the video plane data VP in units of pictures.
  • the image superimposing unit 81 corresponds to, for example, the plane adding unit 4910 shown in FIGS.
  • the video output format conversion unit 82 receives the decoded video plane data VP from the signal processing unit 7 and receives the video data VP / PG / IG after superimposition from the image superimposing unit 81.
  • the video output format converter 82 further performs various processes on the video data VP and VP / PG / IG as necessary.
  • the types of processing include resizing processing, IP conversion processing, noise reduction processing, and frame rate conversion processing.
  • the resizing process is a process for enlarging / reducing the size of an image.
  • the IP conversion process is a process of converting the scanning method between the progressive method and the interlace method.
  • the noise reduction process is a process for removing noise from the video.
  • the frame rate conversion process is a process for converting the frame rate.
  • the video output format conversion unit 82 sends the processed video plane data VP to the image superimposing unit 81, or sends the processed video data VS to the audio / video output IF unit 83.
  • the audio / video output IF unit 83 receives the video data VS from the video output format conversion unit 82, and receives the decoded audio data AS from the signal processing unit 7.
  • the audio / video output IF unit 83 further performs processing such as encoding according to the data transmission format on the received data VS and AS.
  • processing such as encoding according to the data transmission format on the received data VS and AS.
  • a part of the audio / video output IF unit 83 may be provided outside the integrated circuit 3.
  • FIG. 69 is a schematic diagram showing details of a portion related to data output of the playback device 102 including the AV output unit 8.
  • the audio / video output IF unit 83 includes an analog / video output IF unit 83a, a digital / video / audio output IF unit 83b, and an analog / audio output IF unit 83c.
  • the integrated circuit 3 and the playback device 102 can support data transmission methods of a plurality of types of video data and audio data as described below.
  • the analog video output IF unit 83a receives the video data VS from the video output format conversion unit 82, converts / encodes the data VS into analog video signal format data VD, and outputs the data.
  • the analog video output IF unit 83a includes, for example, a composite video encoder, an S video signal (Y / C separation) encoder, a component video signal encoder corresponding to any of NTSC, PAL, and SECAM. Includes a D / A converter (DAC).
  • the digital video / audio output IF unit 83b receives the decoded audio data AS from the signal processing unit 7 and the video data VS from the video output format conversion unit 82.
  • the digital video / audio output IF unit 83b further encrypts the data AS and VS by integrating them. Thereafter, the digital video / audio output IF unit 83b encodes the encrypted data SVA in accordance with the data transmission standard and outputs the encoded data.
  • the digital video / audio output IF unit 83b corresponds to, for example, HDMI (High-Definition Multimedia InterFace).
  • the analog audio output IF unit 83c receives the decoded audio data AS from the signal processing unit 7, converts it into analog audio data AD by D / A conversion, and outputs it.
  • the analog audio output IF unit 83c corresponds to, for example, an audio DAC.
  • the transmission format of the video data and audio data can be switched according to the type of the data receiver / data input terminal of the display device 103 / speaker 103A, and can also be switched by the user's selection. . Furthermore, the playback device 102 can transmit the data of the same content in parallel not only in a single transmission format but also in a plurality of transmission formats.
  • the AV output unit 8 may further include a graphics engine unit in addition to the functional blocks 81, 82, and 83 shown in FIGS.
  • the graphics engine unit performs graphics processing such as filter processing, screen synthesis processing, curve drawing processing, and 3D display processing on the data decoded by the signal processing unit 7.
  • the integrated circuit 3 incorporates each functional block shown in FIGS. 65, 66, 68, and 69. However, this is not essential, and some functional blocks may be externally attached to the integrated circuit 3. Further, unlike the configuration shown in FIG. 65, the memory unit 2 may be built in the integrated circuit 3. Furthermore, the main control unit 6 and the signal processing unit 7 do not have to be completely separated functional blocks. For example, the main control unit 6 may perform part of the processing of the signal processing unit 7.
  • FIG. 70 is a schematic diagram showing examples (a) and (b) of the topology of the control bus and data bus in the integrated circuit 3.
  • both the control bus 11 and the data bus 12 are arranged so that each functional block 5-9 is directly connected to all other functional blocks.
  • the data bus 13 may be arranged so that each functional block 5-8 is directly connected to only the memory control unit 9. In this case, each functional block 5-8 transfers data to another functional block via the memory control unit 9 and the memory unit 2.
  • the integrated circuit 3 may be a multichip module instead of an LSI mounted on a single chip. In that case, since the plurality of chips constituting the integrated circuit 3 are sealed in one package, the integrated circuit 3 is apparently a single LSI.
  • the integrated circuit 3 may be configured using an FPGA (Field Programmable Gate Array) or a reconfigurable processor.
  • An FPGA is an LSI that can be programmed after manufacture.
  • the reconfigurable processor is an LSI capable of reconfiguring connections between internal circuit cells and setting of each circuit cell.
  • FIG. 71 is a flowchart of the reproduction process performed by the reproduction device 102 using the integrated circuit 3.
  • the reproduction process is started when the medium IF unit 1 is connected to the medium ME so as to be able to receive data, such as when an optical disk is inserted into the disk drive.
  • the playback device 102 receives and decodes data from the medium ME. Thereafter, the playback device 102 outputs the decoded data as a video signal and an audio signal.
  • Step S1 The medium IF unit 1 receives or reads data from the medium ME and transfers it to the stream processing unit 5. Thereafter, the process proceeds to step S2.
  • Step S2 The stream processing unit 5 separates the data received or read in step S1 into video data and audio data. Thereafter, the process proceeds to step S3.
  • Step S3 The signal processing unit 7 decodes each data separated by the stream processing unit 5 in step S2 by a method suitable for the encoding method. Thereafter, the process proceeds to step S4.
  • Step S4 The AV output unit 8 performs a superimposition process on the video data decoded by the signal processing unit 7 in step S3. Thereafter, the process proceeds to step S5.
  • Step S5 The AV output unit 8 outputs the video data and audio data processed in step S2-4. Thereafter, the process proceeds to step S6.
  • Step S6 The main control unit 6 determines whether or not the reproduction process should be continued. If there is data left to be newly received or read from the medium ME by the medium IF unit 1, the process is repeated from step S1. On the other hand, when the medium IF unit 1 finishes receiving or reading data from the medium ME, for example, when the optical disk is taken out of the disk drive or the user instructs to stop the reproduction, the processing ends.
  • FIG. 72 is a flowchart showing details of each step S1-6 shown in FIG. Each step S101-110 shown in FIG. 72 is performed under the control of the main control unit 6.
  • Step S101 mainly corresponds to the details of Step S1
  • Steps S102 to 104 mainly correspond to the details of Step S2
  • Step S105 mainly corresponds to the details of Step S3
  • Steps S106 to 108 mainly correspond to Step S4.
  • Steps S109 and S110 mainly correspond to the details of Step S5.
  • Step S101 The device stream IF unit 51 receives data necessary for reproduction of the data, such as a playlist file and a clip information file, from the medium ME through the medium IF unit 1 before the data to be reproduced. Or read out.
  • the device stream IF unit 51 further stores the data in the memory unit 2 via the memory control unit 9. Thereafter, the process proceeds to step S102.
  • Step S102 The main control unit 6 identifies the encoding method of the video data and audio data stored in the medium ME from the stream attribute information included in the clip information file. The main control unit 6 further initializes the signal processing unit 7 so that a decoding process corresponding to the identified encoding method can be executed. Thereafter, the process proceeds to step S103.
  • Step S103 The device stream IF unit 51 receives or reads out the video data and audio data to be reproduced from the medium ME through the medium IF unit 1. In particular, these data are received or read in extent units.
  • the device stream IF unit 51 further stores these data in the memory unit 2 via the switching unit 53 and the memory control unit 9.
  • the main control unit 6 controls the switching unit 53 to switch the storage destination of the stream to the first area in the memory unit 2.
  • the main control unit 6 controls the switching unit 53 to switch the storage destination of the stream to the second area in the memory unit 2. . Thereafter, the process proceeds to step S104.
  • Step S104 The stream stored in the memory unit 2 is transferred to the demultiplexing unit 52 in the stream processing unit 5.
  • the demultiplexing unit 52 first reads the PID from each source packet constituting the stream. Next, the demultiplexing unit 52 identifies whether the TS packet included in the source packet is video data or audio data according to the PID. The demultiplexing unit 52 further transfers each TS packet to a corresponding decoder in the signal processing unit 7 according to the identification result. Thereafter, the process proceeds to step S105.
  • Step S105 In the signal processing unit 7, each decoder decodes the transferred TS packet by an appropriate method. Thereafter, the process proceeds to step S106.
  • Step S106 Each picture of the left-view video stream and the right-view video stream decoded by the signal processing unit 7 is sent to the video output format conversion unit 82.
  • the video output format conversion unit 82 resizes these pictures in accordance with the resolution of the display device 103. Thereafter, the process proceeds to step S107.
  • Step S107 The image superimposing unit 81 receives the video plane data composed of the picture resized in step S106 from the video output format converting unit 82. On the other hand, the image superimposing unit 81 receives the decoded PG plane data and IG plane data from the signal processing unit 7. The image superimposing unit 81 further superimposes those plane data. Thereafter, the process proceeds to step S108.
  • Step S108 The video output format conversion unit 82 receives the plane data superimposed in step S107 from the image superimposing unit 81.
  • the video output format conversion unit 82 further performs IP conversion on the plane data. Thereafter, the process proceeds to step S109.
  • Step S109 The audio / video output IF unit 83 receives the video data subjected to the IP conversion in step S108 from the video output format conversion unit 82, and receives the decoded audio data from the signal processing unit 7. .
  • the audio / video output IF unit 83 further performs encoding processing, D / A conversion, and the like on the data according to the data output method by the display device 103 / speaker 103A or the data transmission method to each.
  • the video data and the audio data are converted into an analog output format or a digital output format, respectively.
  • the video system data in the analog output format includes a composite video signal, an S video signal, a component video signal, and the like.
  • the digital output format video / audio data includes HDMI and the like. Thereafter, the process proceeds to step S110.
  • Step S110 The audio / video output IF unit 83 transmits the video data and audio data processed in step S109 to the display device 103 / speaker 103A. Thereafter, the process proceeds to step S6. In addition, said description is used about step S6.
  • the result may be temporarily stored in the memory unit 2 each time data is processed.
  • the resizing process and the IP conversion process by the video output format conversion unit 82 in steps S106 and S108 may be omitted as necessary.
  • other processes such as a noise reduction process and a frame rate conversion process may be performed. Further, the processing procedure may be changed for possible ones.
  • 3D video playback methods are roughly classified into two methods: a method using holography technology and a method using parallax video.
  • the feature of the method using the holography technology is that by giving almost the same information as the optical information given to human vision from a real three-dimensional object to the viewer's vision, the object in the image is given to the viewer. It is in the point which shows in three dimensions.
  • the technology of using this method for displaying moving images has been established theoretically.
  • a computer capable of processing enormous operations in real time, which is necessary for displaying the moving image, and a display device with an ultra-high resolution of several thousand per mm are still very difficult to realize with current technology. difficult. Therefore, at present, there is almost no prospect of commercializing this method for commercial use.
  • parallax image refers to a pair of 2D images that appear in each eye of a viewer viewing a scene, that is, a pair of a left view and a right view.
  • a feature of the method using the parallax image is that a left view and a right view of one scene are reproduced so as to be visible only to each eye of the viewer, so that the viewer can see the scene three-dimensionally.
  • FIGS. 73B and 73C are schematic diagrams for explaining the reproduction principle of 3D video (stereoscopic video) by a method using parallax video.
  • FIG. 73 (a) is a top view of a scene in which the viewer 6501 is looking at a cube 6502 placed in front of the face.
  • 73 (b) and 73 (c) are schematic views showing the appearance of the cube 6502 that can be seen by the viewer 6501 at the left eye 6501L and the right eye 6501R at that time as a 2D image.
  • FIGS. 73B and 73C the appearance of each visible cube 6502 is slightly different.
  • the viewer 6501 can recognize the cube 6502 in three dimensions. Therefore, in the method using the parallax image, first, the left and right 2D images having different viewpoints, for example, FIG. 73 (b) are displayed on one scene, for example, the cube 6502 shown in FIG. 73 (a). A left view of a cube 6502 and its right view shown in FIG. 73 (c) are prepared. Here, the position of each viewpoint is determined from the binocular parallax of the viewer 6501. Next, each 2D video is reproduced so as to be visible only to the viewers 6501's eyes.
  • FIG. 73 (b) the left and right 2D images having different viewpoints, for example, FIG. 73 (b) are displayed on one scene, for example, the cube 6502 shown in FIG. 73 (a).
  • a left view of a cube 6502 and its right view shown in FIG. 73 (c) are prepared.
  • the position of each viewpoint is determined from the binocular parallax of the viewer 6501.
  • the viewer 6501 can see the scene reproduced on the screen, that is, the image of the cube 6502 in three dimensions.
  • the method using the parallax image is advantageous in that it is only necessary to prepare a 2D image that can be viewed from at most two viewpoints.
  • each lens is formed of, for example, a liquid crystal panel.
  • Each lens alternately transmits or blocks light alternately in synchronism with switching of 2D video on the screen. That is, each lens functions as a shutter that periodically closes the viewer's eyes. More specifically, during the period in which the left image is displayed on the screen, the shutter glasses transmit light to the left lens and block light to the right lens. On the other hand, during the period when the right image is displayed on the screen, the shutter glasses transmit light to the right lens and block light to the left lens. As a result, the viewer's eyes see the left and right video afterimages as a single 3D video.
  • the left and right images are alternately displayed at a fixed period. For example, when 24 video frames per second are displayed in 2D video playback, 48 video frames per second are displayed together with left and right video in 3D video playback. Therefore, a display device that can quickly rewrite the screen is suitable for this method.
  • the left and right video frames are divided into strip-like small areas that are elongated in the vertical direction, and the small areas of the left and right video frames are alternately arranged in the horizontal direction and displayed simultaneously on one screen.
  • the surface of the screen is covered with a lenticular lens.
  • the lenticular lens is a single sheet formed by arranging a plurality of elongate eyelid lenses in parallel. Each heel lens extends in the vertical direction on the surface of the screen.
  • a vertically polarized filter may be installed in the display area of the left video frame, and a horizontally polarized filter may be installed in the display area of the right video frame.
  • a longitudinal polarization filter is installed on the left lens, and a lateral polarization filter is installed on the right lens. Accordingly, since the left and right images are visible only to the viewer's eyes, the viewer can be shown a 3D image.
  • the 3D video content may be composed of a combination of 2D video and depth map in addition to the case where the 3D video content is composed of a combination of left and right videos from the beginning.
  • the 2D video represents a projection from the 3D video to be reproduced to the virtual 2D screen
  • the depth map represents the depth of each part of the 3D video with respect to the 2D screen for each pixel.
  • the 3D playback device or display device first composes the left and right videos from those combinations, and then uses those videos to make any of the above methods. But 3D video is reproduced.
  • FIG. 74 is a schematic diagram showing an example in which a left view 6603L and a right view 6603R are configured from a combination of a 2D video 6601 and a depth map 6602.
  • a disc 6611 is displayed in the background 6612.
  • the depth map 6602 indicates the depth of each part in the 2D video 6601 for each pixel.
  • the depth map 6602 in the 2D video 6601, the depth of the display area 6621 of the disc 6611 is in front of the screen, and the depth of the display area 6622 of the background 6612 is deeper than the screen.
  • the parallax video generation unit 6600 first calculates the binocular parallax of each part in the 2D video 6601 from the depth of each part indicated by the depth map 6602. Next, the parallax video generation unit 6600 moves the display position of each part in the 2D video 6601 to the left and right according to the calculated binocular parallax, and configures the left view 6603L and the right view 6603R. In the example shown in FIG.
  • the parallax image generation unit 6600 displays the display position of the disk 6631L in the left view 6603L with respect to the display position of the disk 6611 in the 2D image 6601, half of the binocular parallax S1
  • the display position of the disk 6331R in the right view 6603R is moved to the left by half S1 of the binocular parallax. As a result, the viewer can see the disc 6611 in front of the screen.
  • the parallax video generation unit 6600 moves the display position of the background 6632L in the left view 6603L to the left by half S2 of the binocular parallax with respect to the display position of the background 6612 in the 2D video 6601, and moves it in the right view 6603R.
  • the display position of the background 6632R is moved to the right by half the binocular parallax S2. Thereby, the viewer sees the background 6612 behind the screen.
  • a 3D video playback system using a parallax video method has already been established and generally used for movie theaters and amusement park attractions. Therefore, this method is also effective for practical use of a home theater system capable of reproducing 3D video.
  • a continuous separation method or a method using polarized glasses is assumed.
  • the present invention can be applied to other systems different from those systems as long as they use parallax images. It will be apparent to those skilled in the art from the above description of the embodiments.
  • the recording medium according to the first embodiment of the present invention includes all removable media that can be used as package media, such as a portable semiconductor memory device including an SD memory card, in addition to an optical disk.
  • a portable semiconductor memory device including an SD memory card in addition to an optical disk.
  • an optical disk on which data is recorded in advance that is, an existing read-only optical disk such as a BD-ROM or a DVD-ROM is taken as an example.
  • embodiments of the present invention are not limited thereto.
  • the terminal device may be incorporated in the playback device or may be a device different from the playback device.
  • a data reading unit of a reproducing apparatus when a semiconductor memory card is used as a recording medium according to Embodiment 1 of the present invention instead of an optical disk will be described.
  • the portion of the playback device that reads data from the optical disc is configured by, for example, an optical disc drive.
  • the portion for reading data from the semiconductor memory card is constituted by a dedicated interface (I / F). More specifically, a card slot is provided in the playback device, and the above I / F is mounted therein. When the semiconductor memory card is inserted into the card slot, the semiconductor memory card is electrically connected to the playback device through the I / F. Further, data is read from the semiconductor memory card to the playback device through the I / F.
  • Some data recorded on the BD-ROM disc may be encrypted, for example, from the viewpoint of copyright protection or improvement of data confidentiality.
  • the encrypted data includes, for example, a video stream, an audio stream, or other stream. In that case, the encrypted data is decrypted as follows.
  • the playback apparatus stores in advance a part of data necessary for generating a “key” for decrypting encrypted data on the BD-ROM disc, that is, a device key.
  • a device key On the other hand, in the BD-ROM disc, another part of the data necessary for generating the “key”, that is, the MKB (media key block) and the encrypted data of the “key” itself, that is, the encrypted title key are stored. And are recorded.
  • the device key, MKB, and encrypted title key are associated with each other, and further associated with a specific ID written in the BCA 201 on the BD-ROM disc 101 shown in FIG. Yes. If the combination of the device key, MKB, encrypted title key, and volume ID is not correct, the encrypted data cannot be decrypted.
  • the above-mentioned “key”, that is, the title key is generated only when these combinations are correct. Specifically, first, the encrypted title key is decrypted using the device key, MKB, and volume ID. Only when the title key can be derived thereby, the encrypted data can be decrypted using the title key as the “key”.
  • the playback device Even if the playback device tries to play back the encrypted data on the BD-ROM disc, for example, the device key previously associated with the encrypted title key, MKB, and volume ID on the BD-ROM disc is stored in the playback device. If it is not stored, the encrypted data cannot be reproduced. This is because the key necessary for decrypting the encrypted data, ie, the title key, cannot be derived unless the encrypted title key is decrypted with the correct combination of the MKB, device key, and volume ID.
  • the protected stream is encrypted with the title key and recorded on the BD-ROM disc.
  • a key is generated from a combination of the MKB, device key, and volume ID, and the title key is encrypted with the key and converted into an encrypted title key.
  • the MKB, the volume ID, and the encrypted title key are recorded on the BD-ROM disc.
  • the encrypted video stream and / or audio stream can be decrypted by the decoder only from the BD-ROM disc with the playback apparatus having the device key used for generating the key. In this way, the copyright of the data recorded on the BD-ROM disc can be protected.
  • the above-described mechanism for protecting the copyright of data on a BD-ROM disc can be applied to other than the BD-ROM disc.
  • the present invention can be applied to a readable / writable semiconductor memory device, particularly a portable semiconductor memory card such as an SD card.
  • Distribution data Data such as a 3D video AV stream file (hereinafter referred to as distribution data) is transmitted to the playback apparatus according to the first embodiment of the present invention using electronic distribution, and the distribution data is further transmitted to the playback apparatus as a semiconductor memory card.
  • the processing to be recorded in will be described below. The following operation may be performed by a terminal device specialized for the processing instead of the above-described playback device. Further, it is assumed that the recording destination semiconductor memory card is an SD memory card.
  • the playback device has a card slot. An SD memory card is inserted in the card slot. In this state, the playback device first sends a transmission request for distribution data to a distribution server on the network. At this time, the playback device reads the identification information from the SD memory card, and sends the identification information together with the transmission request to the distribution server.
  • the identification information of the SD memory card is, for example, an identification number unique to the SD memory card, more specifically, a serial number of the SD memory card. This identification information is used as the volume ID described above.
  • Distribution data is stored in the distribution server.
  • data that needs to be protected by encryption such as a video stream and / or an audio stream, is encrypted using a predetermined title key.
  • the encrypted data can be decrypted with the same title key.
  • the distribution server holds a device key as a secret key shared with the playback device.
  • the distribution server further holds a common MKB with the SD memory card.
  • the distribution server receives the distribution data transmission request and the SD memory card identification information from the playback device, the distribution server first generates a key from the device key, MKB, and the identification information, and encrypts the title key with the key. To generate an encrypted title key.
  • the distribution server generates public key information.
  • the public key information includes, for example, the above-described MKB, encrypted title key, signature information, SD memory card identification number, and device list.
  • the signature information includes, for example, a hash value of public key information.
  • the device list is a list of devices that should be invalidated, that is, devices that have a risk of illegally reproducing encrypted data in distribution data. In the list, for example, a device key of the playback device, an identification number of the playback device, an identification number of various parts such as a decoder built in the playback device, or a function (program) is specified.
  • the distribution server further sends distribution data and public key information to the playback device.
  • the playback device receives them and records them on the SD memory card through the dedicated I / F in the card slot.
  • the encrypted data is decrypted using, for example, public key information as follows.
  • the following three types of checks (1) to (3) are performed as public key information authentication. Note that they may be performed in any order.
  • the playback device stops the decryption process of the encrypted data. Conversely, when all the results of the above checks (1) to (3) are positive, the playback device recognizes the validity of the public key information and uses the identification information of the device key, MKB, and SD memory card. Then, the encrypted title key in the public key information is decrypted into the title key. The playback device further uses the title key to decrypt the encrypted data into, for example, a video stream and / or an audio stream.
  • the above mechanism has the following advantages. If the playback device, parts, and functions (programs) that are at risk of unauthorized use are already known at the time of electronic distribution, these identification information is listed in the device list and distributed as part of public key information. The On the other hand, the playback device that has requested distribution data must always check the identification information in the device list against the identification information of the playback device and its components. As a result, if the playback device or its parts are shown in the device list, even if the combination of the SD memory card identification number, MKB, encrypted title key, and device key is correct, the playback device Public key information cannot be used to decrypt encrypted data in distribution data. Thus, unauthorized use of distribution data can be effectively suppressed.
  • the identification information of the semiconductor memory card is stored in a recording area having a particularly high confidentiality among the recording areas in the semiconductor memory card. This is because in the unlikely event that the identification information, for example, the serial number of an SD memory card is tampered with illegally, illegal copying of the SD memory card can be easily performed. That is, if there are a plurality of semiconductor memory cards having the same identification information as a result of the falsification, the above-mentioned check (1) makes it impossible to distinguish between a genuine product and an illegally copied product. Therefore, the identification information of the semiconductor memory card must be recorded in a highly confidential recording area and protected from unauthorized tampering.
  • means for configuring such a highly confidential recording area in the semiconductor memory card are as follows. First, another recording area (hereinafter referred to as a second recording area) that is electrically separated from a normal data recording area (hereinafter referred to as a first recording area) is provided. Next, a control circuit dedicated to access to the second recording area is provided in the semiconductor memory card. Thereby, the second recording area can be accessed only through the control circuit. For example, only the encrypted data is recorded in the second recording area, and a circuit for decrypting the encrypted data is incorporated only in the control circuit. As a result, access to data in the second recording area is not possible unless the control circuit decrypts the data. In addition, the address of each data in the second recording area may be held only in the control circuit. In that case, the address of the data in the second recording area can be specified only by the control circuit.
  • the application program operating on the playback device acquires data from the distribution server using electronic distribution and records it on the semiconductor memory card
  • the following processing is performed.
  • the application program issues an access request to the identification information of the semiconductor memory card recorded in the second recording area to the control circuit via the memory card I / F.
  • the control circuit first reads the identification information from the second recording area.
  • the control circuit sends the identification information to the application program via the memory card I / F.
  • the application program sends a transmission request for distribution data together with the identification information to the distribution server.
  • the application program further records the public key information and the distribution data received from the distribution server in response to the request in the first recording area in the semiconductor memory card via the memory card I / F.
  • the above application program preferably checks whether or not the application program itself has been tampered with before issuing the above access request to the control circuit in the semiconductor memory card.
  • the control circuit in the semiconductor memory card For example, X.
  • a digital certificate compliant with 509 may be used.
  • the distribution data may be recorded in the first recording area in the semiconductor memory card, and access to the distribution data may not be controlled by the control circuit in the semiconductor memory card.
  • the AV stream file and the playlist file are recorded on the BD-ROM disc by the pre-recording technology in the authoring system and supplied to the user.
  • AV stream files and playlist files are recorded on a writable recording medium such as a BD-RE disc, a BD-R disc, a hard disk, or a semiconductor memory card (hereinafter referred to as a BD-RE disc or the like) by real-time recording. May be recorded and supplied to the user.
  • the AV stream file may be a transport stream obtained by the recording device decoding the analog input signal in real time.
  • a transport stream obtained by partializing a transport stream digitally input by the recording apparatus may be used.
  • a recording device that performs real-time recording includes a video encoder, an audio encoder, a multiplexer, and a source packetizer.
  • the video encoder encodes the video signal and converts it into a video stream.
  • the audio encoder encodes the audio signal and converts it into an audio stream.
  • the multiplexer multiplexes the video stream and the audio stream and converts them into a digital stream in the MPEG2-TS format.
  • the source packetizer converts TS packets in the MPEG2-TS format digital stream into source packets.
  • the recording device stores each source packet in an AV stream file and writes it on a BD-RE disc or the like.
  • the control unit of the recording apparatus In parallel with the AV stream file writing process, the control unit of the recording apparatus generates a clip information file and a playlist file on the memory and writes them on the BD-RE disc or the like. Specifically, when a recording process is requested by the user, the control unit first generates a clip information file in accordance with the AV stream file and writes it on a BD-RE disc or the like. In that case, every time the head of one GOP in the video stream is detected from the transport stream received from the outside, or each time one GOP in the video stream is generated by the video encoder, The control unit obtains the PTS of the I picture located at the head of the GOP and the SPN of the source packet storing the head of the GOP.
  • the control unit further adds the pair of PTS and SPN as one entry point to the entry map of the clip information file.
  • an “is_angle_change flag” is added to the entry point.
  • the is_angle_change flag is set to “ON” when the head of the GOP is an IDR picture, and is set to “OFF” when the head of the GOP is not an IDR picture.
  • stream attribute information is further set according to the attribute of the stream to be recorded.
  • the playback apparatus may further write the digital stream on the BD-ROM disc 101 to another recording medium by managed copy.
  • “Managed copy” means copying a digital stream, a playlist file, a clip information file, and an application program from a read-only recording medium such as a BD-ROM disc to a writable recording medium. This is a technology for permitting only when authentication by communication with is successful.
  • the writable recording media are BD-R, BD-RE, DVD-R, DVD-RW, DVD-RAM and other writable optical disks, hard disks, SD memory cards, Memory Stick (registered trademark), and compact. Including portable semiconductor memory devices such as flash (registered trademark), smart media (registered trademark), and multimedia card (registered trademark).
  • Managed copy makes it possible to limit the number of backups of data recorded on a read-only recording medium and to charge for backup processing.
  • Transcode refers to processing for adapting a digital stream recorded on a copy source disc to an application format of a copy destination recording medium.
  • Transcode includes, for example, a process of converting from MPEG2-TS format to MPEG2 program stream format, and a process of re-encoding by reducing the bit rate assigned to each of the video stream and the audio stream.
  • an AV stream file, a clip information file, and a playlist file must be generated by the above-described real-time recording.
  • the repetition structure “a plurality of information of a predetermined type exists” is defined by describing the initial value of the control variable and the repetition condition in the for statement.
  • the data structure “predetermined information is defined when a predetermined condition is satisfied” is defined by describing the condition and a variable to be set when the condition is satisfied in an if statement. .
  • the data structure according to the first embodiment is described in a high-level programming language. Therefore, the data structure is converted into a computer-readable code through a translation process by a compiler such as “syntactic analysis”, “optimization”, “resource allocation”, and “code generation”, and recorded on a recording medium.
  • the data structure is handled as a part other than the method of the class structure in the object-oriented language, specifically, as an array type member variable in the class structure, and a part of the program is handled. Make it. That is, the data structure is substantially equivalent to the program. Therefore, the data structure should be protected as a computer related invention.
  • a reproduction program is recorded on the recording medium as an executable file.
  • the reproduction program causes the computer to reproduce the AV stream file according to the playlist file.
  • the reproduction program is loaded from a recording medium into a memory device in the computer and then executed by the computer.
  • the load process includes a compile process or a link process.
  • the reproduction program is divided into a plurality of sections in the memory device. These sections include a text section, a data section, a bss section, and a stack section.
  • the text section includes a playback program code string, initial values of variables, and non-rewritable data.
  • the data section includes variables having initial values and rewritable data.
  • the data section includes, in particular, files that are recorded on the recording medium and accessed from time to time.
  • the bss section includes a variable having no initial value.
  • the data in the bss section is referred to according to the instruction indicated by the code in the text section.
  • an area for the bss section is secured in the RAM in the computer.
  • the stack section is a memory area that is temporarily reserved as necessary. Local variables are temporarily used in each process by the playback program. The stack section contains those local variables. When execution of the program is started, variables in the bss section are initialized with zeros, and a necessary memory area is secured in the stack section.
  • the playlist file and the clip information file have already been converted into a computer-readable code on the recording medium. Therefore, these files are managed as “non-rewritable data” in the text section or “files accessed at any time” in the data section when the playback program is executed. That is, the playlist file and the clip information file are incorporated in the constituent elements when the playback program is executed. Therefore, the playlist file and the clip information file play a role in the playback program beyond simple data presentation.
  • the present invention relates to a technology for reproducing stereoscopic video, and as described above, the data block group of the interleaved arrangement recorded on the recording medium is shared between the file SS and the file 2D or the file DEP. Thus, the present invention is clearly industrially applicable.
  • First 3D extent block 2102 Second 3D extent block 2110 File entry of 2D file 2120 File entry of first file SS LB layer boundary D1, D2, D3, D4 Depth map data block R1, R2, R3, R4 Right-view data block L1, L2, L4 Base-view data block L3 2D 2D playback-only block L3 SS 3D playback-only block EXT2D [0], EXT2D [1], EXT2D [2] 2D extent EXTSS [0], EXTSS [1], EXTSS [2], EXTSS [3] 3D extent

Abstract

 本発明の実施形態による記録媒体はベースビュー・ストリームとディペンデントビュー・ストリームとを含む。ベースビュー・ストリームは平面視映像の再生に利用される。ディペンデントビュー・ストリームは、そのベースビュー・ストリームと組み合わされて立体視映像の再生に利用される。その記録媒体は第1のファイルと第2のファイルとを更に含む。第1のファイルは、平面視映像の再生時に、ベースビュー・ストリームを参照する。第2のファイルは、立体視映像の再生時に、ベースビュー・ストリームを参照する。

Description

記録媒体、再生装置、及び集積回路
 本発明は、立体視映像、すなわち3次元(3D)映像の再生技術に関し、特に、記録媒体上でのストリーム・データのファイル構造に関する。
 近年、3D映像に対する一般的な関心が高まっている。例えば遊園地では、3D映像を利用したアトラクションが人気を集めている。また、全国各地で、3D映像の映画を上映する映画館が増加している。そのような3D映像への関心の高まりに伴い、3D映像を各家庭でも再生可能にするための技術の開発が進められている。その技術では、3D映像コンテンツを高画質のまま、光ディスク等の可搬性記録媒体に記録することが求められる。更に、2D再生装置に対するその記録媒体の互換性が求められる。すなわち、その記録媒体に記録された3D映像コンテンツから、2D再生装置は2D映像を再生でき、3D再生装置は3D映像を再生できることが望ましい。ここで、「2D再生装置」とは、平面視映像、すなわち2次元(2D)映像のみを再生可能な従来の再生装置を意味し、「3D再生装置」とは、3D映像を再生可能な再生装置を意味する。尚、本明細書では、3D再生装置が従来の2D映像も再生可能である場合を想定する。
 図75は、3D映像コンテンツが記録された光ディスクについて、2D再生装置に対する互換性を確保するための技術を示す模式図である(例えば特許文献1参照)。光ディスク6701には二種類のビデオ・ストリームが格納されている。一方は2D/レフトビュー・ビデオ・ストリームであり、他方はライトビュー・ビデオ・ストリームである。「2D/レフトビュー・ビデオ・ストリーム」は、3D映像の再生では視聴者の左目に見せる2D映像、すなわち「レフトビュー」を表し、2D映像の再生ではその2D映像そのものを表す。「ライトビュー・ビデオ・ストリーム」は、3D映像の再生において視聴者の右目に見せる2D映像、すなわち「ライトビュー」を表す。左右のビデオ・ストリーム間では、フレームレートは等しいが、フレームの表示時期はフレーム周期の半分だけずれている。例えば、各ビデオ・ストリームのフレームレートが1秒間に24フレームであるとき、2D/レフトビュー・ビデオ・ストリームとライトビュー・ビデオ・ストリームとの各フレームが1/48秒ごとに交互に表示される。
 各ビデオ・ストリームは、図75に示されているように、光ディスク6701上では複数のエクステント6702A-C、6703A-Cに分割されている。各エクステントはGOP(グループ・オブ・ピクチャ)を1以上含み、光ディスクドライブによって一括して読み出される。以下、2D/レフトビュー・ビデオ・ストリームに属するエクステントを「2D/レフトビュー・エクステント」といい、ライトビュー・ビデオ・ストリームに属するエクステントを「ライトビュー・エクステント」という。2D/レフトビュー・エクステント6702A-Cとライトビュー・エクステント6703A-Cとは交互に光ディスク6701のトラック6701A上に配置されている。隣接する2つのエクステント6702A-6703A、6702B-6703B、6702C-6703Cの間では再生時間が等しい。このようなエクステントの配置を「インターリーブ配置」という。インターリーブ配置で記録されたエクステント群は、以下に述べるように、3D映像の再生と2D映像の再生との両方で利用される。
 2D再生装置6704では、光ディスクドライブ6704Aが光ディスク6701上のエクステントのうち、2D/レフトビュー・エクステント6702A-Cのみを先頭から順番に読み出す一方、ライトビュー・エクステント6703A-Cの読み出しをスキップする。更に、映像デコーダ6704Bが、光ディスクドライブ6704Aによって読み出されたエクステントを順次、映像フレーム6706Lに復号する。それにより、表示装置6707にはレフトビューのみが表示されるので、視聴者には通常の2D映像が見える。
 3D再生装置6705では、光ディスクドライブ6705Aが光ディスク6701から2D/レフトビュー・エクステントとライトビュー・エクステントとを交互に、符号で表せば、6702A、6703A、6702B、6703B、6702C、6703Cの順に読み出す。更に、読み出された各エクステントから、2D/レフトビュー・ビデオ・ストリームは左映像デコーダ6705Lへ送られ、ライトビュー・ビデオ・ストリームは右映像デコーダ6705Rへ送られる。各映像デコーダ6705L、6705Rは交互に各ビデオ・ストリームを映像フレーム6706L、6706Rに復号する。それにより、表示装置6708にはレフトビューとライトビューとが交互に表示される。一方、シャッター眼鏡6709は左右のレンズを、表示装置6708による画面の切り換えに同期して交互に不透明にする。従って、シャッター眼鏡6709をかけた視聴者には、表示装置6708に表示された映像が3D映像に見える。
 光ディスクに限らず、記録媒体に3D映像コンテンツを格納するときは、上記のようにエクステントのインターリーブ配置を利用する。それにより、その記録媒体を2D映像の再生と3D映像の再生との両方で利用することができる。
特許第3935507号公報
 光ディスクには、いわゆる二層ディスクのような、記録層を複数含むものがある。そのような光ディスクでは、一連のストリーム・データが二層にわたって記録される場合が生じ得る。一方、単層ディスクでも、一連のストリーム・データが別のデータを間に挟んで記録される場合がある。それらの場合、光ディスクドライブのピックアップは光ディスクからのデータの読み出し中に、層の切り換えに伴うフォーカス・ジャンプ、又は、ディスクの半径方向の移動を伴うトラック・ジャンプを行わねばならない。それらのジャンプは一般にシーク時間が長いので、「ロングジャンプ」と呼ばれる。ロングジャンプの発生にかかわらず映像をシームレスに再生するには、ロングジャンプの直前に読み出されるエクステントのサイズを十分に大きくして、ロングジャンプ中に映像デコーダ内のバッファがアンダーフローを起こさないための条件を満たすようにしなければならない。
 図75に示されているエクステントのインターリーブ配置において上記の条件を2D映像と3D映像との両方の再生について満たすには、ロングジャンプの直前にアクセスされる2D/レフトビュー・エクステントを十分に拡大すればよい。しかし、その場合、そのエクステントと再生時間が等しいライトビュー・エクステントも併せて拡大しなければならない。その結果、右映像デコーダ6705R内に確保されるべきバッファ容量は、上記の条件を満たすのには十分な容量よりも更に大きい。それは、3D再生装置6705内のバッファ容量の更なる削減、及びメモリの利用効率の更なる向上を阻むので好ましくない。
 右映像デコーダ6705R内に確保されるべきバッファ容量を必要最小限に抑えるには、例えばロングジャンプの直前又は直後で2D映像の再生経路と3D映像の再生経路とを分離することが考えられる。ここで、「映像の再生経路」とは、その映像を表すビデオ・ストリームの各部とその再生順との間の対応関係を意味する。更に、「再生経路の分離」とは、ビデオ・ストリームの再生対象の部分とその複製データとを記録媒体上に記録してそれぞれを異なる再生経路に割り当てることを意味する。2D映像の再生経路と3D映像の再生経路とを上記のように分離したとき、2D映像の再生時と3D映像の再生時とで、ロングジャンプの直前に読み出されるべき2D/レフトビュー・エクステントのサイズを別々に設計できる。従って、右映像デコーダ6705R内に確保されるべきバッファ容量を必要最小限に抑えたまま、2D映像の再生時と3D映像の再生時とのいずれでもロングジャンプ中での各映像デコーダ6705L、6705R内のバッファ・アンダーフローを防止できる。しかしその反面、2D/レフトビュー・ビデオ・ストリームの同じ部分が異なるエクステントに重複して格納される。従って、ロングジャンプの前後に読み出されるべきエクステントと、それらに格納されるべきビデオ・ストリームの部分との間の対応関係が複雑化する。その結果、それらのエクステントの迅速な読み出しを容易に実現可能なファイル構造は自明ではない。
 本発明の目的は、再生装置内に確保されるべきバッファ容量を更に削減できるように配置されたエクステント群を含み、かつ、再生装置に各エクステントへの迅速なアクセスを容易に実現させることができるファイル構造を持つ記録媒体を提供することにある。
 本発明の実施形態による記録媒体には、平面視映像の再生に利用されるベースビュー・ストリーム、及び、そのベースビュー・ストリームと組み合わされて立体視映像の再生に利用されるディペンデントビュー・ストリームが記録されている。
 本発明の一つの観点による記録媒体には、第1のファイルと第2のファイルとが更に記録されている。第1のファイルは、平面視映像の再生時に、ベースビュー・ストリームを参照する。第2のファイルは、立体視映像の再生時に、ベースビュー・ストリームを参照する。
 本発明の別の観点による記録媒体では、ベースビュー・ストリームは複数のベースビュー・データ・ブロックに分割され、ディペンデントビュー・ストリームは複数のディペンデントビュー・データ・ブロックに分割されている。この記録媒体上では更に、それら複数のベースビュー・データ・ブロックと複数のディペンデントビュー・データ・ブロックとが交互に配置されている。この記録媒体にはその上、第1のファイルと第2のファイルとが記録されている。第1のファイルは、平面視映像の再生時に、複数のベースビュー・データ・ブロックを参照する。第2のファイルは、立体視映像の再生時に、交互に配置されたベースビュー・データ・ブロックとディペンデントビュー・データ・ブロックとを一連のデータとして参照する。
 本発明による上記の記録媒体では、平面視映像の再生経路と立体視映像の再生経路との間で共通するベースビュー・ストリームの部分が二種類の参照ファイルによって参照されている。それらの記録媒体は再生装置に、平面視映像の再生時と立体視映像の再生時との間で上記二種類の参照ファイルを使い分けさせる。その結果、それらの記録媒体では、再生装置内に確保されるべきバッファ容量を更に削減できるようにデータ・ブロック群からエクステント群を構成することができ、かつ、再生装置に各エクステントへの迅速なアクセスを容易に実現させることができる。
本発明の実施形態1による記録媒体を使用するホームシアター・システムを示す模式図である。 図1に示されているBD-ROMディスク101上のデータ構造を示す模式図である。 (a)は、図2に示されている下位ディレクトリのファイル識別記述子241のデータ構造を示す模式図であり、(b)は、図2に示されている下位ファイルのファイル識別記述子242のデータ構造を示す模式図である。 図2に示されている下位ファイル#1223のデータ構造を示す模式図である。 図2に示されているBD-ROMディスク101のボリューム領域202Bに格納されたデータのディレクトリ/ファイル構造を示す模式図である。 (a)は、図2に示されているBD-ROMディスク101上のメインTSに多重化されたエレメンタリ・ストリームを示す模式図であり、(b)は、図2に示されているBD-ROMディスク101上の第1サブTSに多重化されたエレメンタリ・ストリームを示す模式図である。 図6に示されている多重化ストリーム・データ700内の各エレメンタリ・ストリーム701、702、703、704に属するTSパケットの配置を示す模式図である。 (a)は、図7に示されているTSパケット列の模式図であり、(b)は、図8の(a)に示されているTSパケット列から構成されたソースパケット列の模式図である。 図6の(a)に示されているベースビュー・ビデオ・ストリーム901と、図6の(b)に示されているライトビュー・ビデオ・ストリーム902とのピクチャを表示時間順に示す模式図である。 図6の(a)に示されているベースビュー・ビデオ・ストリーム901と、図6の(c)に示されているデプスマップ・ストリーム1001とのピクチャを表示時間順に示す模式図である。 図7に示されているビデオ・ストリーム1100のデータ構造の詳細を示す模式図である。 図7に示されているPESパケット列1202へのビデオ・ストリーム1201の格納方法の詳細を示す模式図である。 図6の(a)に示されているベースビュー・ビデオ・ストリーム1301と、図6の(b)又は(c)に示されているディペンデントビュー・ビデオ・ストリーム1302との各ピクチャに割り当てられたPTSとDTSとの間の関係を示す模式図である。 (a)、(b)は、図11に示されている補足データ1111Dのデータ構造を示す模式図である。 (a)、(b)は、図6の(a)に示されているベースビュー・ビデオ・ストリーム1501と、図6の(b)又は(c)に示されているディペンデントビュー・ビデオ・ストリーム1502との各ピクチャに割り当てられた復号カウンタ1510、1520の二つの例を示す模式図である。 図6の(a)、(b)、(c)に示されているメインTS、第1サブTS、及び第2サブTSのそれぞれに属するデータ・ブロック群のBD-ROMディスク101上での物理的な配置を示す模式図である。 (a)は、あるBD-ROMディスク上に個別に連続して記録されたメインTS1701とサブTS1702との配置を示す模式図である。(b)は、本発明の実施形態1によるBD-ROMディスク101上に交互に記録されたベースビュー・データ・ブロックB[0]、B[1]、B[2]、…とディペンデントビュー・データ・ブロックD[0]、D[1]、D[2]、…との配置を示す模式図である。 (a)は、あるBD-ROMディスク上において隣接するベースビュー・データ・ブロックとディペンデントビュー・データ・ブロックとの間でビデオ・ストリームの再生時間が異なるときの再生経路を示す模式図である。(b)は、本発明の実施形態1によるBD-ROMディスク101上において隣接するベースビュー・データ・ブロックとディペンデントビュー・データ・ブロックとの間でビデオ・ストリームの再生時間が等しいときの再生経路を示す模式図である。 (a)、(b)、(c)、(d)、(e)はそれぞれ、図5に示されているファイル2D(01000.m2ts)541、第1ファイルDEP(02000.m2ts)542、第2ファイルDEP(03000.m2ts)543、第1ファイルSS(01000.ssif)544A、第2ファイルSS(02000.ssif)544Bの各データ構造を示す模式図である。 図16に示されているデータ・ブロック群に対する2D再生モードでの再生経路2001、L/Rモードでの再生経路2002、及びデプス・モードでの再生経路2003を示す模式図である。 本発明の実施形態1によるBD-ROMディスク101の層境界の前後に記録されたデータ・ブロック群の物理的な配置の第1例を示す模式図である。 図21に示されているデータ・ブロック群に対する2D再生モードでの再生経路2201とL/Rモードでの再生経路2202とを示す模式図である。 あるBD-ROMディスクの層境界の前後にインターリーブ配置で記録されているデータ・ブロック群と、それに対する各再生モードでの再生経路とを示す模式図である。 本発明の実施形態1によるBD-ROMディスク101の層境界の前後に記録されたデータ・ブロック群の物理的な配置の第2例を示す模式図である。 図24に示されているデータ・ブロック群に対する2D再生モードでの再生経路2501とL/Rモードでの再生経路2502とを示す模式図である。 本発明の実施形態1によるBD-ROMディスク101の層境界の前後に記録されたデータ・ブロック群の物理的な配置の第3例を示す模式図である。 図21に示されているデータ・ブロック群に対する2D再生モードでの再生経路2701とL/Rモードでの再生経路2702とを示す模式図である。 (a)は、図21に示されている配置の第1例からデプスマップ・データ・ブロックを除去したものを示す模式図である。(b)は、(a)に示されているデータ・ブロック群に対する2D再生モードでの再生経路2803とL/Rモードでの再生経路2804とを示す模式図である。 PMT2910のデータ構造を示す模式図である。 図5に示されている2Dクリップ情報ファイル(01000.clpi)531のデータ構造を示す模式図である。 (a)は、図30に示されているエントリ・マップ3030のデータ構造を示す模式図であり、(b)は、図5に示されているファイル2D541に属するソースパケット群3110のうち、エントリ・マップ3030によって各EP_ID3105に対応付けられているものを示す模式図である。 (a)は、オフセット・テーブル3041のデータ構造を示す模式図である。(b)は、オフセット・エントリの有効区間を表す模式図である。 (a)は、図30に示されているエクステント起点3042のデータ構造を示す模式図であり、(b)は、図5に示されているライトビュー・クリップ情報ファイル(02000.clpi)532に含まれるエクステント起点3320のデータ構造を示す模式図であり、(c)は、L/Rモードの再生装置102によって第1ファイルSS(01000.ssif)544Aから抽出されたベースビュー・データ・ブロックL1、L2、…を表す模式図である。(d)は、第1ファイルDEP(02000.m2ts)542に属するライトビュー・エクステントEXT2[0]、EXT2[1]、…と、エクステント起点3320の示すSPN3322との間の対応関係を表す模式図である。(e)は、第1ファイルSS544Aに属する3DエクステントEXTSS[0]、EXTSS[1]、…とBD-ROMディスク101上のデータ・ブロック群3350との間の対応関係の一例を示す模式図である。 本発明の実施形態1によるBD-ROMディスク101上に記録された、3D映像コンテンツを含むデータ・ブロック群の配置の一例を示す模式図である。 本発明の実施形態1によるBD-ROMディスク101における、ベースビュー・ビデオ・ストリーム3510とディペンデントビュー・ビデオ・ストリーム3520とに設定されたエントリ・ポイントの例を示す模式図である。 図5に示されている2Dプレイリスト・ファイル(00001.mpls)521のデータ構造を示す模式図である。 図36に示されているPI#Nのデータ構造を示す模式図である。 (a)、(b)はそれぞれ、図37に示されているコネクション・コンディション3704が「5」、「6」であるときに接続対象の二つの再生区間3801、3802の間の関係を示す模式図である。 図36に示されている2Dプレイリスト・ファイル(00001.mpls)521の示すPTSと、図5に示されているファイル2D(01000.m2ts)541から再生される部分との間の対応関係を示す模式図である。 図5に示されている3Dプレイリスト・ファイル(00002.mpls)522又は(00003.mpls)523のデータ構造を示す模式図である。 図40に示されているSTNテーブルSS4030のデータ構造を示す模式図である。 (a)、(b)、(c)はそれぞれ、図41に示されているディペンデントビュー・ビデオ・ストリームのストリーム登録情報列4112、PGストリームのストリーム登録情報列4113、及びIGストリームのストリーム登録情報列4114のデータ構造を示す模式図である。 図40に示されている3Dプレイリスト・ファイル(00002.mpls)522の示すPTSと、図5に示されている第1ファイルSS(01000.ssif)から再生される部分との間の対応関係を示す模式図である。 図5に示されているインデックス・ファイル(index.bdmv)511内のインデックス・テーブル4410を示す模式図である。 図1に示されている再生装置102によって3D映像のタイトルが選択されたときに行われる、再生対象のプレイリスト・ファイルの選択処理のフローチャートである。 図1に示されている再生装置102の2D再生モードでの機能ブロック図である。 図46に示されているプレーヤ変数記憶部4608内のシステム・パラメータの一覧表である。 図46に示されているシステム・ターゲット・デコーダ4603の機能ブロック図である。 図1に示されている再生装置102の3D再生モードでの機能ブロック図である。 図49に示されているシステム・ターゲット・デコーダ4903の機能ブロック図である。 図49に示されているプレーン加算部4910の機能ブロック図である。 (a)、(b)は、図51に示されている第2クロッピング処理部5132によるクロッピング処理を示す模式図である。 (a)、(b)、(c)はそれぞれ、図52に示されているクロッピング処理によって生成されたレフトビューとライトビューとのPGプレーン、及びそれらから視聴者に知覚される3D映像を示す模式図である。 図46に示されている2D再生モードの再生装置102内の再生処理系統を示す模式図である。 (a)は、図54に示されている再生処理系統による2Dエクステントの再生処理中、リード・バッファ4602に蓄積されるデータ量DAの変化を示すグラフであり、(b)は、それらの2Dエクステントを含む3Dエクステント・ブロック5510と2D再生モードでの再生経路5520との間の対応関係を示す模式図である。 本発明の実施形態1によるBD-ROMディスクに関するジャンプ距離Sjumpと最大ジャンプ時間Tjumpとの間の対応表の一例である。 図49に示されている3D再生モードの再生装置102内の再生処理系統を示す模式図である。 (a)、(b)は、図57に示されている再生処理系統によるL/Rモードでの3Dエクステント・ブロックの再生処理中、各リード・バッファ4921、4922に蓄積されるデータ量DA1、DA2の変化を示すグラフであり、(c)は、その3Dエクステント・ブロック5810とL/Rモードでの再生経路5820との間の対応関係を示す模式図である。 (a)、(b)は、図57に示されている再生処理系統によるデプス・モードでの3Dエクステント・ブロックの再生処理中、各リード・バッファ4921、4922に蓄積されるデータ量DA1、DA2の変化を示すグラフであり、(c)は、その3Dエクステント・ブロック5910とデプス・モードでの再生経路5920との間の対応関係を示す模式図である。 図57に示されている再生処理系統によるL/Rモードでの再生処理中に生じるロングジャンプJLY、JBDJ1、JBDJ2を示す模式図である。 (a)、(b)は、図57に示されている再生処理系統によって、拡大された最小エクステント・サイズ以上のサイズを持つデータ・ブロック群から成る3Dエクステント・ブロックが読み出されるときにおける、各リード・バッファ4921、4922の蓄積データ量DA1、DA2の変化を示すグラフであり、(c)は、その3Dエクステント・ブロック6110とL/Rモードでの再生経路6120との間の対応関係を示す模式図である。 (a)は、本発明の実施形態1によるBD-ROMディスク上で、多重化ストリーム・データのみを含むインターリーブ配置のデータ・ブロック群を示す模式図であり、(b)は、そのBD-ROMディスク上で、他のファイルに属するエクステントを含むインターリーブ配置のデータ・ブロック群を示す模式図である。 本発明の実施形態2による記録装置の内部構成を示すブロック図である。 (a)、(b)は、本発明の実施形態2による記録装置において、3D映像の一シーンの表示に利用される左映像ピクチャと右映像ピクチャとを表す模式図であり、(c)は、ビデオエンコーダ6301によってそれらのピクチャから算出された奥行き情報を示す模式図である。 本発明の実施形態3による集積回路3の機能ブロック図である。 図65に示されているストリーム処理部5の代表的な構成を示す機能ブロック図である。 図66に示されている切替部53がDMACであるときの周辺の構造を示す模式図である 図65に示されているAV出力部8の代表的な構成を示す機能ブロック図である。 図68に示されているAV出力部8を含む再生装置102のデータ出力に関する部分の詳細を示す模式図である。 図65に示されている集積回路3内の制御バス及びデータバスのトポロジーの例(a)、(b)を示す模式図である。 図65に示されている集積回路3を利用した再生装置102による再生処理のフローチャートである。 図71に示されている各ステップS1-5の詳細を示すフローチャートである。 (a)-(c)は、視差映像を用いる方法による3D映像の再生原理を説明するための模式図である。 2D映像6601とデプスマップ6602との組み合わせからレフトビュー6603Lとライトビュー6603Rとを構成する例を示す模式図である。 3D映像コンテンツが記録された光ディスクについて、2D再生装置に対する互換性を確保するための技術を示す模式図である。
 以下、本発明の好適な実施形態に係る記録媒体及び再生装置について、図面を参照しながら説明する。
 《実施形態1》
 図1は、本発明の実施形態1による記録媒体を使用するホームシアター・システムを示す模式図である。このホームシアター・システムは、視差映像を用いた3D映像(立体視映像)の再生方式を採用し、特に表示方式として継時分離方式を採用している(詳細は<補足>参照)。図1を参照するに、このホームシアター・システムは記録媒体101を再生対象とし、再生装置102、表示装置103、シャッター眼鏡104、及びリモコン105を含む。
 記録媒体101は読み出し専用ブルーレイ・ディスク(登録商標)(BD:Blu-ray Disc)、すなわちBD-ROMディスクである。記録媒体101はその他の可搬性記録媒体、例えば、DVD等の他方式による光ディスク、リムーバブル・ハードディスクドライブ(HDD)、又はSDメモリカード等の半導体メモリ装置であってもよい。その記録媒体、すなわちBD-ROMディスク101は3D映像による映画コンテンツを格納している。このコンテンツは、その3D映像のレフトビューとライトビューとのそれぞれを表すビデオ・ストリームを含む。そのコンテンツは更に、その3D映像のデプスマップを表すビデオ・ストリームを含んでいてもよい。それらのビデオ・ストリームは、後述のようにデータ・ブロック単位でBD-ROMディスク101上に配置され、後述のファイル構造を利用してアクセスされる。レフトビュー又はライトビューを表すビデオ・ストリームは、2D再生装置と3D再生装置とのそれぞれにより、そのコンテンツを2D映像として再生するのに利用される。一方、レフトビューとライトビューとのそれぞれを表すビデオ・ストリームの対、又は、レフトビュー若しくはライトビューのいずれかとデプスマップとのそれぞれを表すビデオ・ストリームの対は、3D再生装置により、そのコンテンツを3D映像として再生するのに利用される。
 再生装置102はBD-ROMドライブ121を搭載している。BD-ROMドライブ121はBD-ROM方式に準拠の光ディスクドライブである。再生装置102はBD-ROMドライブ121を利用して、BD-ROMディスク101からコンテンツを読み込む。再生装置102は更にそのコンテンツを映像データ/音声データに復号する。ここで、再生装置102は3D再生装置であり、そのコンテンツを2D映像と3D映像とのいずれとしても再生可能である。以下、2D映像と3D映像とのそれぞれを再生するときの再生装置102の動作モードを「2D再生モード」、「3D再生モード」という。2D再生モードでは、映像データはレフトビュー又はライトビューのいずれか一方の映像フレームを含む。3D再生モードでは、映像データはレフトビューとライトビューとの両方の映像フレームを含む。
 3D再生モードは更に、レフト/ライト(L/R)モードとデプス・モードとに分けられる。「L/Rモード」では、レフトビューとライトビューとのそれぞれを表すビデオ・ストリームの組み合わせから、レフトビューとライトビューとの映像フレームの対が再生される。「デプス・モード」では、レフトビュー又はライトビューのいずれかとデプスマップとのそれぞれを表すビデオ・ストリームの組み合わせから、レフトビューとライトビューとの映像フレームの対が再生される。再生装置102はL/Rモードを備える。再生装置102は更に、デプス・モードを備えていてもよい。
 再生装置102はHDMI(High-Definition Multimedia Interface)ケーブル122で表示装置103に接続されている。再生装置102は映像データ/音声データをHDMI方式の映像信号/音声信号に変換し、HDMIケーブル122を通して表示装置103に伝送する。2D再生モードでは、映像信号にはレフトビュー又はライトビューのいずれか一方の映像フレームが多重化されている。3D再生モードでは、映像信号にはレフトビューとライトビューとの両方の映像フレームが時分割で多重化されている。再生装置102は更に、HDMIケーブル122を通して表示装置103との間でCECメッセージを交換する。それにより、再生装置102は、3D映像の再生に対応可能か否かを表示装置103に問い合わせることができる。
 表示装置103は液晶ディスプレイである。表示装置103はその他に、プラズマ・ディスプレイ及び有機ELディスプレイ等、他方式のフラットパネル・ディスプレイ又はプロジェクタであってもよい。表示装置103は、映像信号に従って画面131上に映像を表示し、音声信号に従って内蔵のスピーカから音声を発生させる。表示装置103は3D映像の再生に対応可能である。2D映像の再生時、画面131上にはレフトビュー又はライトビューのいずれか一方が表示される。3D映像の再生時、画面131上にはレフトビューとライトビューとが交互に表示される。
 表示装置103は左右信号送信部132を含む。左右信号送信部132は左右信号LRを赤外線又は無線でシャッター眼鏡104へ送出する。左右信号LRは、現時点で画面131に表示される映像がレフトビューとライトビューとのいずれであるのかを示す。3D映像の再生時、表示装置103は、映像信号に付随する制御信号からレフトビュー・フレームとライトビュー・フレームとを識別することによってフレームの切り換えを検知する。表示装置103は更に左右信号送信部132に、検知されたフレームの切り換えに同期して左右信号LRを切り換えさせる。
 シャッター眼鏡104は二枚の液晶表示パネル141L、141Rと左右信号受信部142とを含む。各液晶表示パネル141L、141Rは左右の各レンズ部分を構成している。左右信号受信部142は左右信号LRを受信し、その変化に応じて左右の液晶表示パネル141L、141Rに信号を送る。各液晶表示パネル141L、141Rはその信号に応じて、光をその全体で一様に透過させ、又は遮断する。特に左右信号LRがレフトビューの表示を示すとき、左目側の液晶表示パネル141Lは光を透過させ、右目側の液晶表示パネル141Rは光を遮断する。左右信号LRがライトビューの表示を示すときはその逆である。このように、二枚の液晶表示パネル141L、141Rはフレームの切り換えと同期して交互に光を透過させる。その結果、視聴者がシャッター眼鏡104をかけて画面131を見たとき、レフトビューはその視聴者の左目だけに映り、ライトビューはその右目だけに映る。そのとき、その視聴者には、各目に映る映像間の違いが同じ立体的物体に対する両眼視差として知覚されるので、その映像が立体的に見える。
 リモコン105は操作部と送信部とを含む。操作部は複数のボタンを含む。各ボタンは、電源のオンオフ、又は、BD-ROMディスク101の再生開始若しくは停止等、再生装置102又は表示装置103の各機能に対応付けられている。操作部はユーザによる各ボタンの押下を検出し、そのボタンの識別情報を信号で送信部に伝える。送信部はその信号を赤外線又は無線による信号IRに変換して再生装置102又は表示装置103へ送出する。一方、再生装置102と表示装置103とはそれぞれ、その信号IRを受信し、その信号IRの示すボタンを特定し、そのボタンに対応付けられた機能を実行する。こうして、ユーザは再生装置102又は表示装置103を遠隔操作できる。
 <BD-ROMディスク上のデータ構造>
 図2は、BD-ROMディスク101上のデータ構造を示す模式図である。図2を参照するに、BD-ROMディスク101上のデータ記録領域の最内周部にはBCA(Burst Cutting Area)201が設けられている。BCAに対してはBD-ROMドライブ121によるアクセスのみが許可され、アプリケーション・プログラムによるアクセスは禁止される。それにより、BCA201は著作権保護技術に利用される。BCA201よりも外側のデータ記録領域では内周から外周へ向けてトラックが螺旋状に延びている。図2にはトラック202が模式的に横方向に引き伸ばされて描かれている。その左側はディスク101の内周部を表し、右側は外周部を表す。図2に示されているように、トラック202は内周から順に、リードイン領域202A、ボリューム領域202B、及びリードアウト領域202Cを含む。リードイン領域202AはBCA201のすぐ外周側に設けられている。リードイン領域202Aは、ボリューム領域202Bに記録されたデータのサイズ及び物理アドレス等、BD-ROMドライブ121によるボリューム領域202Bへのアクセスに必要な情報を含む。リードアウト領域202Cはデータ記録領域の最外周部に設けられ、ボリューム領域202Bの終端を示す。ボリューム領域202Bは、映像及び音声等のアプリケーション・データを含む。
 ボリューム領域202Bは「セクタ」と呼ばれる小領域202Dに分割されている。セクタのサイズは共通であり、例えば2048バイトである。各セクタ202Dにはボリューム領域202Bの先端から順に通し番号が振られている。この通し番号は論理ブロック番号(LBN)と呼ばれ、BD-ROMディスク101上の論理アドレスに利用される。BD-ROMディスク101からのデータの読み出しでは、読み出し元のセクタのLBNが指定されることによって読み出し対象のデータが特定される。こうして、ボリューム領域202Bはセクタ単位でアクセス可能である。更に、BD-ROMディスク101上では論理アドレスが物理アドレスと実質的に等しい。特に、LBNが連続している領域では物理アドレスも実質的に連続している。従って、BD-ROMドライブ121は、LBNが連続しているセクタからデータを、その光ピックアップにシークを行わせることなく連続して読み出すことができる。
 ボリューム領域202Bに記録されたデータは所定のファイルシステムで管理される。そのファイルシステムとしてはUDF(Universal Disc Format)が採用されている。そのファイルシステムはその他にISO9660であってもよい。そのファイルシステムに従い、ボリューム領域202Bに記録されたデータはディレクトリ/ファイル形式で表現される。すなわち、それらのデータはディレクトリ単位又はファイル単位でアクセス可能である。
 図2には、ファイルシステムとしてUDFが利用されたときにおける、ボリューム領域202Bのデータ構造が示されている。図2を参照するに、ボリューム領域202Bは、一般に複数のディレクトリ213-215、ファイルセット記述子211、及び終端記述子212のそれぞれが記録された領域を含む。各「ディレクトリ」213、214、215は、同じディレクトリを構成するデータ群である。「ファイルセット記述子」211は、ルートディレクトリ213のファイル・エントリが記録されているセクタのLBNを示す。「終端記述子」212はファイルセット記述子211の記録領域の終端を示す。
 各ディレクトリ213、214、215は共通のデータ構造を持つ。図2にはその典型例としてディレクトリ#1214のデータ構造が示されている。ディレクトリ#1214は、ファイル・エントリ221、ディレクトリ・ファイル222、及び下位ファイル群223-225を含む。
 「ファイル・エントリ」221は、記述子タグ231、ICB(Information Control Block)タグ232、及びアロケーション記述子233を含む。「記述子タグ」231は、その記述子タグを含むデータの種類がファイル・エントリであることを示す。例えば、記述子タグの値が“261”であるとき、そのデータの種類はファイル・エントリである。「ICBタグ」232はそのファイル・エントリ自身の属性情報を示す。「アロケーション記述子」233は、ディレクトリ#1214に属するディレクトリ・ファイル222が記録されたセクタのLBNを示す。
 「ディレクトリ・ファイル」222は、下位ディレクトリのファイル識別記述子241と下位ファイルのファイル識別記述子242とを一般に複数ずつ含む。図3の(a)は、下位ディレクトリのファイル識別記述子241のデータ構造を示す模式図である。「下位ディレクトリのファイル識別記述子」241は、ディレクトリ#1の直下に置かれた下位ディレクトリにアクセスするための情報である。図3の(a)を参照するに、下位ディレクトリのファイル識別記述子241は、その下位ディレクトリの識別情報311、ディレクトリ名の長さ312、ファイル・エントリ・アドレス313、及びディレクトリ名そのもの314を含む。特にファイル・エントリ・アドレス313は、その下位ディレクトリのファイル・エントリが記録されたセクタのLBNを示す。図3の(b)は下位ファイルのファイル識別記述子242のデータ構造を示す模式図である。「下位ファイルのファイル識別記述子」242は、ディレクトリ#1の直下に置かれた下位ファイルにアクセスするための情報である。図3の(b)を参照するに、下位ファイルのファイル識別記述子242は、その下位ファイルの識別情報321、ファイル名の長さ322、ファイル・エントリ・アドレス323、及びファイル名そのもの324を含む。特にファイル・エントリ・アドレス323は、その下位ファイルのファイル・エントリが記録されたセクタのLBNを示す。「下位ファイルのファイル・エントリ」は、後述のとおり、下位ファイルの実体を構成するデータのアドレス情報を含む。
 図2、3から理解されるように、ファイルセット記述子211と下位ディレクトリ/ファイルのファイル識別記述子とを順番に辿ってゆけば、ボリューム領域202Bに記録された任意のディレクトリ/ファイルのファイル・エントリにアクセスすることができる。具体的な例として、ディレクトリ#1214の下位ファイル#1223にアクセスする場合を想定する。まずファイルセット記述子211からルートディレクトリ213のファイル・エントリが特定され、そのファイル・エントリ内のアロケーション記述子からルートディレクトリ213のディレクトリ・ファイルが特定される。次に、そのディレクトリ・ファイルからディレクトリ#1214のファイル識別記述子が検出され、その中のファイル・エントリ・アドレスからディレクトリ#1214のファイル・エントリ221が特定される。更に、そのファイル・エントリ221内のアロケーション記述子233からディレクトリ#1214のディレクトリ・ファイル222が特定される。続いて、そのディレクトリ・ファイル222のうち、下位ファイル#1のファイル識別記述子242内のファイル・エントリ・アドレス323から下位ファイル#1223のファイル・エントリが特定される。
 図2に示されている下位ファイル群223、224、225、…は共通のデータ構造を持つ。図4は、その共通のデータ構造の典型例として、下位ファイル#1223のデータ構造を示す模式図である。図4を参照するに、下位ファイル#1223はエクステント410-430とファイル・エントリ400とを含む。「エクステント」410、420、430、…は一般に複数であり、それぞれ、ディスク上の論理アドレス、すなわちLBNが連続しているデータ列である。エクステント410、420、430、…の全体が下位ファイル#1223の実体を構成する。「ファイル・エントリ」400は、記述子タグ401、ICBタグ402、及びアロケーション記述子411-413を含む。「記述子タグ」401は、その記述子タグ401を含むデータ400の種類がファイル・エントリであることを示す。「ICBタグ」402はそのファイル・エントリ400自身の属性情報を示す。「アロケーション記述子」411、412、413、…は各エクステント410、420、430、…に対して一つずつ設けられ、ボリューム領域202B上での各エクステント410-430の配置、具体的には各エクステントのサイズとその先端のLBNとを示す。その他に、複数のアロケーション記述子の示す領域間でLBNを連続させることにより、それら複数のアロケーション記述子の全体で一つのエクステントの配置が示されてもよい。図4に破線の矢印で示されているように、各アロケーション記述子411、412、…を参照することにより、各エクステント410、420、…にアクセスすることができる。その他に、各アロケーション記述子411、…の上位2ビットは、そのアロケーション記述子の示すLBNのセクタにエクステント410、…が実際に記録されているか否かを示す。すなわち、その上位2ビットが“0”であるとき、そのセクタにはエクステントが割り付け済みであり、かつ記録済みであることを示し、“1”であるとき、そのセクタにエクステントが割り付け済みではあるが未記録であることを示す。
 UDFを利用した上記のファイルシステムと同様、ボリューム領域202Bに対するファイルシステムでは一般に、ボリューム領域202Bに記録された各ファイルが複数のエクステントに分割されているとき、上記のアロケーション記述子のように、各エクステントの配置を示す情報がボリューム領域202Bに併せて記録される。その情報を参照することにより、各エクステントの配置、特にその論理アドレスを知ることができる。
  ≪BD-ROMディスク上のディレクトリ/ファイル構造≫
 図5は、BD-ROMディスク101のボリューム領域202Bに格納されたデータのディレクトリ/ファイル構造を示す模式図である。図5を参照するに、このディレクトリ/ファイル構造では、ルート(ROOT)ディレクトリ500の直下にBDムービー(BDMV:BD Movie)ディレクトリ501が置かれている。BDMVディレクトリ501の直下には、インデックス・ファイル(index.bdmv)511とムービーオブジェクト・ファイル(MovieObject.bdmv)512とが置かれている。
 インデックス・ファイル511は、BD-ROMディスク101に記録されたコンテンツの全体を管理するための情報である。その情報は特に、そのコンテンツを再生装置102に認識させるための情報、及びインデックス・テーブルを含む。インデックス・テーブルは、そのコンテンツを構成するタイトルと、再生装置102の動作を制御するためのプログラムとの間の対応表である。そのプログラムを「オブジェクト」という。オブジェクトの種類にはムービーオブジェクトとBD-J(BD Java (登録商標))オブジェクトとがある。
 ムービーオブジェクト・ファイル512は一般に複数のムービーオブジェクトを含む。各ムービーオブジェクトはナビゲーション・コマンドの列を含む。ナビゲーション・コマンドは、一般的なDVDプレーヤによる再生処理と同様な再生処理を再生装置102に実行させるための制御指令である。ナビゲーション・コマンドの種類には、例えば、タイトルに対応するプレイリスト・ファイルの読み出し命令、プレイリスト・ファイルの示すAVストリーム・ファイルの再生命令、及び別のタイトルへの遷移命令がある。ナビゲーション・コマンドはインタプリタ型言語で記述され、再生装置102に組み込まれたインタプリタ、すなわちジョブ制御プログラムによって解読され、その制御部に所望のジョブを実行させる。ナビゲーション・コマンドはオペコードとオペランドとから成る。オペコードは、タイトルの分岐と再生及び演算等、再生装置102に実行させるべき操作の種類を示す。オペランドは、タイトル番号等、その操作の対象の識別情報を示す。再生装置102の制御部は、例えばユーザの操作に応じて各ムービーオブジェクトを呼び出し、そのムービーオブジェクトに含まれるナビゲーション・コマンドを列の順に実行する。それにより、再生装置102は一般的なDVDプレーヤと同様に、まず表示装置103にメニューを表示してユーザにコマンドを選択させる。再生装置102は次に、選択されたコマンドに応じて、タイトルの再生開始/停止、及び別のタイトルへの切り換え等、再生される映像の進行を動的に変化させる。
 図5に示されているように、BDMVディレクトリ501の直下には、プレイリスト(PLAYLIST)ディレクトリ520、クリップ情報(CLIPINF)ディレクトリ530、ストリーム(STREAM)ディレクトリ540、BD-Jオブジェクト(BDJO:BD Java Object)ディレクトリ550、及びJavaアーカイブ(JAR:Java Archive)ディレクトリ560が置かれている。
 STREAMディレクトリ540の直下には、三種類のAVストリーム・ファイル(01000.m2ts)541、(02000.m2ts)542、(03000.m2ts)543、及び、立体視インターリーブ・ファイル(SSIF:Stereoscopic Interleaved File)ディレクトリ544が置かれている。SSIFディレクトリ544の直下には、二種類のAVストリーム・ファイル(01000.ssif)544A、(02000.ssif)544Bが置かれている。
 「AVストリーム・ファイル」は、BD-ROMディスク101上に記録された映像コンテンツの実体のうち、ファイルシステムの定めるファイル形式に整えられたものをいう。ここで、映像コンテンツの実体は一般に、映像・音声・字幕等を表す各種のストリーム・データが多重化されたストリーム・データを意味する。この多重化ストリーム・データは内蔵のプライマリ・ビデオ・ストリームの種類に依って、メイン・トランスポート・ストリーム(TS)とサブTSとに大別される。「メインTS」はプライマリ・ビデオ・ストリームとしてベースビュー・ビデオ・ストリームを含む。「ベースビュー・ビデオ・ストリーム」は単独で再生可能であり、2D映像を表す。「サブTS」はプライマリ・ビデオ・ストリームとしてディペンデントビュー・ビデオ・ストリームを含む。「ディペンデントビュー・ビデオ・ストリーム」は、その再生にベースビュー・ビデオ・ストリームを必要とし、そのベースビュー・ビデオ・ストリームとの組み合わせで3D映像を表す。ディペンデントビュー・ビデオ・ストリームの種類には、ライトビュー・ビデオ・ストリーム、レフトビュー・ビデオ・ストリーム、及びデプスマップ・ストリームがある。「ライトビュー・ビデオ・ストリーム」は、ベースビュー・ビデオ・ストリームの表す2D映像がL/Rモードの再生装置によって3D映像のレフトビューとして利用されるとき、その3D映像のライトビューを表すビデオ・ストリームとして利用される。「レフトビュー・ビデオ・ストリーム」はその逆である。「デプスマップ・ストリーム」は、ベースビュー・ビデオ・ストリームの表す2D映像がデプス・モードの再生装置によって仮想的な2D画面への3D映像の射影として利用されるとき、その3D映像のデプスマップを表すストリーム・データとして利用される。
 AVストリーム・ファイルは内蔵の多重化ストリーム・データの種類に依って、ファイル2D、ファイル・ディペンデント(以下、ファイルDEPと略す。)、及びインターリーブ・ファイル(以下、ファイルSSと略す。)の三種類に分けられる。「ファイル2D」は2D再生モードでの2D映像の再生に利用されるAVストリーム・ファイルであり、メインTSを含む。「ファイルDEP」はサブTSを含む。「ファイルSS」は、同じ3D映像を表すメインTSとサブTSとの対を含む。ファイルSSは特に、そのメインTSをいずれかのファイル2Dと共有し、そのサブTSをいずれかのファイルDEPと共有する。すなわち、BD-ROMディスク101のファイルシステムでは、メインTSはファイルSSとファイル2Dとのいずれとしてもアクセス可能であり、サブTSはファイルSSとファイルDEPとのいずれとしてもアクセス可能である。このように、BD-ROMディスク101上に記録された一連のデータを異なるファイルに共有させ、いずれのファイルとしてもアクセス可能にする仕組みを「ファイルのクロスリンク」という。
 図5に示されている例では、第1AVストリーム・ファイル(01000.m2ts)541はファイル2Dであり、第2AVストリーム・ファイル(02000.m2ts)542と第3AVストリーム・ファイル(03000.m2ts)543とはいずれもファイルDEPである。このように、ファイル2DとファイルDEPとはSTREAMディレクトリ540の直下に置かれる。第1AVストリーム・ファイル、すなわちファイル2D541の含むベースビュー・ビデオ・ストリームは3D映像のレフトビューを表す。第2AVストリーム・ファイル、すなわち第1ファイルDEP542の含むディペンデントビュー・ビデオ・ストリームはライトビュー・ビデオ・ストリームである。第3AVストリーム・ファイル、すなわち第2ファイルDEP543の含むディペンデントビュー・ビデオ・ストリームはデプスマップ・ストリームである。
 図5に示されている例では更に、第4AVストリーム・ファイル(01000.ssif)544Aと第5AVストリーム・ファイル(02000.ssif)544BとはいずれもファイルSSである。このように、ファイルSSはSSIFディレクトリ544の直下に置かれる。第4AVストリーム・ファイル、すなわち第1ファイルSS544Aはファイル2D541とはメインTS、特にベースビュー・ビデオ・ストリームを共有し、第1ファイルDEP542とはサブTS、特にライトビュー・ビデオ・ストリームを共有する。第5AVストリーム・ファイル、すなわち第2ファイルSS544Bはファイル2D541とはメインTS、特にベースビュー・ビデオ・ストリームを共有し、第2ファイルDEP543とはサブTS、特にデプスマップ・ストリームを共有する。
 CLIPINFディレクトリ530には三種類のクリップ情報ファイル(01000.clpi)531、(02000.clpi)532、(03000.clpi)533が置かれている。「クリップ情報ファイル」はAVストリーム・ファイルの中でもファイル2DとファイルDEPとに一対一に対応付けられ、特に各ファイルのエントリ・マップを含む。「エントリ・マップ」は、ファイル2D又はファイルDEPの表す各シーンの表示時間と、そのシーンが記録された各ファイル内のアドレスとの間の対応表である。クリップ情報ファイルのうち、ファイル2Dに対応付けられているものを「2Dクリップ情報ファイル」といい、ファイルDEPに対応付けられているものを「ディペンデントビュー・クリップ情報ファイル」という。更に、ファイルDEPがライトビュー・ビデオ・ストリームを含むとき、対応するディペンデントビュー・クリップ情報ファイルを「ライトビュー・クリップ情報ファイル」という。ファイルDEPがデプスマップ・ストリームを含むとき、対応するディペンデントビュー・クリップ情報ファイルを「デプスマップ・クリップ情報ファイル」という。図5に示されている例では、第1クリップ情報ファイル(01000.clpi)531は2Dクリップ情報ファイルであり、ファイル2D541に対応付けられている。第2クリップ情報ファイル(02000.clpi)532はライトビュー・クリップ情報ファイルであり、第1ファイルDEP542に対応付けられている。第3クリップ情報ファイル(03000.clpi)533はデプスマップ・クリップ情報ファイルであり、第2ファイルDEP543に対応付けられている。
 PLAYLISTディレクトリ520には三種類のプレイリスト・ファイル(00001.mpls)521、(00002.mpls)522、(00003.mpls)523が置かれている。「プレイリスト・ファイル」はAVストリーム・ファイルの再生経路、すなわちAVストリーム・ファイルの再生対象の部分とその再生順とを規定する。プレイリスト・ファイルの種類には2Dプレイリスト・ファイルと3Dプレイリスト・ファイルとがある。「2Dプレイリスト・ファイル」はファイル2Dの再生経路を規定する。「3Dプレイリスト・ファイル」は、2D再生モードの再生装置に対してはファイル2Dの再生経路を規定し、3D再生モードの再生装置に対してはファイルSSの再生経路を規定する。図5に示されている例では、第1プレイリスト・ファイル(00001.mpls)521は2Dプレイリスト・ファイルであり、ファイル2D541の再生経路を規定する。第2プレイリスト・ファイル(00002.mpls)522は3Dプレイリスト・ファイルであり、2D再生モードの再生装置に対してはファイル2D541の再生経路を規定し、L/Rモードの再生装置に対しては第1ファイルSS544Aの再生経路を規定する。第3プレイリスト・ファイル(00003.mpls)523は3Dプレイリスト・ファイルであり、2D再生モードの再生装置に対してはファイル2D541の再生経路を規定し、デプス・モードの再生装置に対しては第2ファイルSS544Bの再生経路を規定する。
 BDJOディレクトリ550にはBD-Jオブジェクト・ファイル(XXXXX.bdjo)551が置かれている。BD-Jオブジェクト・ファイル551はBD-Jオブジェクトを一つ含む。BD-Jオブジェクトは、再生装置102に実装されたJava仮想マシンに、タイトルの再生処理及びグラフィックス映像の描画処理を実行させるためのバイトコード・プログラムである。BD-Jオブジェクトは、Java言語等のコンパイラ型言語で記述されている。BD-Jオブジェクトは、アプリケーション管理テーブルと、参照対象のプレイリスト・ファイルの識別情報とを含む。アプリケーション管理テーブルは、Java仮想マシンに実行させるべきJavaアプリケーション・プログラムとその実行時期(ライフサイクル)とのリストである。参照対象のプレイリスト・ファイルの識別情報は、再生対象のタイトルに対応するプレイリスト・ファイルを識別するための情報である。Java仮想マシンは、ユーザの操作又はアプリケーション・プログラムに従って各BD-Jオブジェクトを呼び出し、そのBD-Jオブジェクトに含まれるアプリケーション管理テーブルに従ってJavaアプリケーション・プログラムを実行する。それにより、再生装置102は、再生される各タイトルの映像の進行を動的に変化させ、又は、表示装置103にグラフィックス映像をタイトルの映像とは独立に表示させる。
 JARディレクトリ560にはJARファイル(YYYYY.jar)561が置かれている。JARファイル561は、BD-Jオブジェクトの示すアプリケーション管理テーブルに従って実行されるべきJavaアプリケーション・プログラムの本体を一般に複数含む。Javaアプリケーション・プログラムは、BD-Jオブジェクトと同様、Java言語等のコンパイラ型言語で記述されたバイトコード・プログラムである。Javaアプリケーション・プログラムの種類には、Java仮想マシンにタイトルの再生処理を実行させるもの、及びJava仮想マシンにグラフィックス映像の描画処理を実行させるものが含まれる。JARファイル561はJavaアーカイブ・ファイルであり、再生装置102に読み込まれたときにその内部のメモリで展開される。それにより、そのメモリの中にJavaアプリケーション・プログラムが格納される。
  ≪多重化ストリーム・データの構造≫
 図6の(a)は、BD-ROMディスク101上のメインTSに多重化されたエレメンタリ・ストリームを示す模式図である。メインTSはMPEG-2トランスポート・ストリーム(TS)形式のデジタル・ストリームであり、図5に示されているファイル2D541に含まれる。図6の(a)を参照するに、メインTSはプライマリ・ビデオ・ストリーム601とプライマリ・オーディオ・ストリーム602A、602Bとを含む。メインTSはその他に、プレゼンテーション・グラフィックス(PG)ストリーム603A、603B、インタラクティブ・グラフィックス(IG)ストリーム604、セカンダリ・オーディオ・ストリーム605、及びセカンダリ・ビデオ・ストリーム606を含んでもよい。
 プライマリ・ビデオ・ストリーム601は映画の主映像を表し、セカンダリ・ビデオ・ストリーム606は副映像を表す。ここで、主映像とは、映画の本編の映像等、コンテンツの主要な映像を意味し、例えば画面全体に表示されるものを指す。一方、副映像とは、例えば主映像の中に小さな画面で表示される映像のように、ピクチャ・イン・ピクチャ方式を利用して主映像と同時に画面に表示される映像を意味する。プライマリ・ビデオ・ストリーム601とセカンダリ・ビデオ・ストリーム606とはいずれもベースビュー・ビデオ・ストリームである。各ビデオ・ストリーム601、606は、MPEG-2、MPEG-4 AVC、又はSMPTE VC-1等の動画圧縮符号化方式で符号化されている。
 プライマリ・オーディオ・ストリーム602A、602Bは映画の主音声を表す。ここで、二つのプライマリ・オーディオ・ストリーム602A、602Bの間では言語が異なる。セカンダリ・オーディオ・ストリーム605は、その主音声とミキシングされるべき副音声を表す。各オーディオ・ストリーム602A、602B、605は、AC-3、ドルビー・デジタル・プラス(Dolby Digital Plus:「ドルビー・デジタル」は登録商標)、MLP(Meridian Lossless Packing:登録商標)、DTS(Digital Theater System:登録商標)、DTS-HD、又はリニアPCM(Pulse Code Modulation)等の方式で符号化されている。
 各PGストリーム603A、603Bは、グラフィックスによる字幕等、プライマリ・ビデオ・ストリーム601の表す映像に重ねて表示されるべきグラフィックス映像を表す。二つのPGストリーム603A、603Bの間では、例えば字幕の言語が異なる。IGストリーム604は、表示装置103の画面131上に対話画面を構成するためのグラフィックス・ユーザインタフェース(GUI)用のグラフィックス部品及びその配置を表す。
 エレメンタリ・ストリーム601-606はパケット識別子(PID)によって識別される。PIDの割り当ては例えば次のとおりである。一つのメインTSはプライマリ・ビデオ・ストリームを一本のみ含むので、プライマリ・ビデオ・ストリーム601には16進数値0x1011が割り当てられる。一つのメインTSに他のエレメンタリ・ストリームが種類ごとに最大32本まで多重化可能であるとき、プライマリ・オーディオ・ストリーム602A、602Bには0x1100から0x111Fまでのいずれかが割り当てられる。PGストリーム603A、603Bには0x1200から0x121Fまでのいずれかが割り当てられる。IGストリーム604には0x1400から0x141Fまでのいずれかが割り当てられる。セカンダリ・オーディオ・ストリーム605には0x1A00から0x1A1Fまでのいずれかが割り当てられる。セカンダリ・ビデオ・ストリーム606には0x1B00から0x1B1Fまでのいずれかが割り当てられる。
 図6の(b)は、BD-ROMディスク101上の第1サブTSに多重化されたエレメンタリ・ストリームを示す模式図である。第1サブTSはMPEG-2 TS形式の多重化ストリーム・データであり、図5に示されている第1ファイルDEP542に含まれる。図6の(b)を参照するに、第1サブTSはプライマリ・ビデオ・ストリーム611を含む。第1サブTSはその他に、レフトビューPGストリーム612A、612B、ライトビューPGストリーム613A、613B、レフトビューIGストリーム614、ライトビューIGストリーム615、及びセカンダリ・ビデオ・ストリーム616を含んでもよい。プライマリ・ビデオ・ストリーム611はライトビュー・ビデオ・ストリームであり、メインTS内のプライマリ・ビデオ・ストリーム601が3D映像のレフトビューを表すとき、その3D映像のライトビューを表す。レフトビューとライトビューとのPGストリームの対612A+613A、612B+613Bは、字幕等のグラフィックス映像を3D映像として表示するときにそのレフトビューとライトビューとの対を表す。レフトビューとライトビューとのIGストリームの対614、615は、対話画面のグラフィックス映像を3D映像として表示するときにそのレフトビューとライトビューとの対を表す。セカンダリ・ビデオ・ストリーム616はライトビュー・ビデオ・ストリームであり、メインTS内のセカンダリ・ビデオ・ストリーム606が3D映像のレフトビューを表すとき、その3D映像のライトビューを表す。
 エレメンタリ・ストリーム611-616に対するPIDの割り当ては例えば次のとおりである。プライマリ・ビデオ・ストリーム611には0x1012が割り当てられる。一つのサブTSに他のエレメンタリ・ストリームが種類別に最大32本まで多重化可能であるとき、レフトビューPGストリーム612A、612Bには0x1220から0x123Fまでのいずれかが割り当てられ、ライトビューPGストリーム613A、613Bには0x1240から0x125Fまでのいずれかが割り当てられる。レフトビューIGストリーム614には0x1420から0x143Fまでのいずれかが割り当てられ、ライトビューIGストリーム615には0x1440から0x145Fまでのいずれかが割り当てられる。セカンダリ・ビデオ・ストリーム616には0x1B20から0x1B3Fまでのいずれかが割り当てられる。
 図6の(c)は、BD-ROMディスク101上の第2サブTSに多重化されたエレメンタリ・ストリームを示す模式図である。第2サブTSはMPEG-2 TS形式の多重化ストリーム・データであり、図5に示されている第2ファイルDEP543に含まれる。図6の(c)を参照するに、第2サブTSはプライマリ・ビデオ・ストリーム621を含む。第2サブTSはその他に、デプスマップPGストリーム623A、623B、デプスマップIGストリーム624、及びセカンダリ・ビデオ・ストリーム626を含んでもよい。プライマリ・ビデオ・ストリーム621はデプスマップ・ストリームであり、メインTS内のプライマリ・ビデオ・ストリーム601との組み合わせで3D映像を表す。デプスマップPGストリーム623A、623Bは、メインTS内のPGストリーム623A、623Bの表す2D映像が仮想的な2D画面への3D映像の射影として利用されるとき、その3D映像のデプスマップを表すPGストリームとして利用される。デプスマップIGストリーム624は、メインTS内のIGストリーム604の表す2D映像が仮想的な2D画面への3D映像の射影として利用されるとき、その3D映像のデプスマップを表すIGストリームとして利用される。セカンダリ・ビデオ・ストリーム626はデプスマップ・ストリームであり、メインTS内のセカンダリ・ビデオ・ストリーム606との組み合わせで3D映像を表す。
 エレメンタリ・ストリーム621-626に対するPIDの割り当ては例えば次のとおりである。プライマリ・ビデオ・ストリーム621には0x1013が割り当てられる。一つのサブTSに他のエレメンタリ・ストリームが種類別に最大32本まで多重化可能であるとき、デプスマップPGストリーム623A、623Bには0x1260から0x127Fまでのいずれかが割り当てられる。デプスマップIGストリーム624には0x1460から0x147Fまでのいずれかが割り当てられる。セカンダリ・ビデオ・ストリーム626には0x1B40から0x1B5Fまでのいずれかが割り当てられる。
 図7は、メインTS700内の各エレメンタリ・ストリーム701、702、703、704に属するTSパケットの配置を示す模式図である。ビデオ・ストリーム701では、まず、各フレーム701Aが一つのPES(Packetized Elementarty Stream)パケット711に変換される。次に、各PESパケット711が一般に複数のTSパケット721に変換される。同様に、オーディオ・ストリーム702、PGストリーム703、及びIGストリーム704はそれぞれ、一旦PESパケット712、713、714の列に変換された後、TSパケット722、723、724の列に変換される。最後に、各エレメンタリ・ストリーム701、702、703、704から得られたTSパケット721、722、723、724が一本のストリーム・データ、すなわちメインTS700に時分割で多重化される。
 図8の(a)は、メインTSを構成するTSパケット列の模式図である。図8の(a)を参照するに、各TSパケット801は188バイト長のパケットであり、4バイト長のTSヘッダ801Hと184バイト長のTSペイロード801Pとを含む。図7に示されているPESパケット711-714はそれぞれ、一般に複数の部分に分割され、各部分が異なるTSペイロード801Pに格納される。一方、TSヘッダ801Hには、同じTSパケット801のTSペイロード801Pに格納されたデータの属するエレメンタリ・ストリームのPIDが格納される。
 図8の(b)は、メインTSのTSパケット列から構成されたソースパケット列の模式図である。図8の(a)に示されているTSパケット801がBD-ROMディスク101に記録されるとき、図8の(b)に示されているように、そのTSパケット801には4バイト長のヘッダ(TP_Extra_Header)802Hが付与される。このヘッダ802HとTSパケット802Pとの組み合わせから成る192バイト長のパケット802を「ソースパケット」という。ソースパケット802のヘッダ802HはATS(Arrival_Time_Stamp)を含む。「ATS」は、ソースパケット802がBD-ROMディスク101から再生装置102内のシステム・ターゲット・デコーダへ送られたとき、そのソースパケット802の中からTSパケット802Pが抽出されてそのシステム・ターゲット・デコーダ内のPIDフィルタへ転送され始めるべき時刻を示す。尚、システム・ターゲット・デコーダ、及び再生装置102によるATSの利用の詳細については後述する。
 図8の(c)は、一連のソースパケット802が連続的に記録されたBD-ROMディスク101のボリューム領域202B上のセクタ群の模式図である。図8の(c)を参照するに、一連のソースパケット802は32個ずつ、三つの連続するセクタ811、812、813に記録されている。これは、32個のソースパケットのデータ量192バイト×32=6144バイトが三つのセクタの合計サイズ2048バイト×3=6144バイトに等しいことに因る。このように、三つの連続するセクタ811、812、813に記録された32個のソースパケット802を「アラインド・ユニット(Aligned Unit)」820という。再生装置102はBD-ROMディスク101からソースパケット802をアラインド・ユニット820ごとに、すなわち32個ずつ読み出す。また、セクタ群811、812、813、…は先頭から順に32個ずつに分割され、それぞれが一つの誤り訂正符号(ECC)ブロック830を構成している。BD-ROMドライブ121はECCブロック830ごとに誤り訂正処理を行う。
 サブTSも、図7、8に示されているメインTSのパケット構造と同様なパケット構造を持つ。但し、サブTSはメインTSとはビデオ・ストリームのデータ構造が異なる。
  ≪ビデオ・ストリームのデータ構造≫
 図9は、ベースビュー・ビデオ・ストリーム901とライトビュー・ビデオ・ストリーム902とのピクチャを表示時間順に示す模式図である。図9を参照するに、ベースビュー・ビデオ・ストリーム901はピクチャ910、911、912、…、919を含み、ライトビュー・ビデオ・ストリーム902はピクチャ920、921、922、…、929を含む。各ピクチャ910-919、920-929は1フレーム又は1フィールドを表し、MPEG-2又はMPEG-4 AVC等の動画圧縮符号化方式によって圧縮されている。
 上記の符号化方式による各ピクチャの圧縮には、そのピクチャの空間方向及び時間方向での冗長性が利用される。ここで、空間方向での冗長性のみを利用するピクチャの符号化を「ピクチャ内符号化」という。一方、時間方向での冗長性、すなわち、表示順序の連続する複数のピクチャ間でのデータの近似性を利用するピクチャの符号化を「ピクチャ間予測符号化」という。ピクチャ間予測符号化では、まず符号化対象のピクチャに対して、表示時間が前又は後である別のピクチャが参照ピクチャとして設定される。次に、符号化対象のピクチャとその参照ピクチャとの間で動きベクトルが検出され、それを利用して動き補償が行われる。更に、動き補償後のピクチャと符号化対象のピクチャとの間の差分値が求められ、その差分値から空間方向での冗長性が除去される。こうして、各ピクチャのデータ量が圧縮される。
 図9を参照するに、ベースビュー・ビデオ・ストリーム901に含まれるピクチャは一般に複数のGOP931、932に分割されている。「GOP」は、I(Intra)ピクチャを先頭とする複数枚の連続するピクチャの列をいう。「Iピクチャ」は、ピクチャ内符号化によって圧縮されたピクチャをいう。GOPは一般に、Iピクチャの他に、P(Predictive)ピクチャとB(Bidirectionally Predivtive)ピクチャとを含む。「Pピクチャ」は、ピクチャ間予測符号化によって圧縮されたピクチャであって、表示時間がそれよりも前であるIピクチャ又は別のPピクチャが一枚、参照ピクチャとして利用されたものをいう。「Bピクチャ」は、ピクチャ間予測符号化によって圧縮されたピクチャであって、表示時間がそれよりも前又は後であるIピクチャ又はPピクチャが二枚、参照ピクチャとして利用されたものをいう。Bピクチャのうち、他のピクチャに対するピクチャ間予測符号化で参照ピクチャとして利用されるものを特に「Br(reference B)ピクチャ」という。
 図9に示されている例では各GOP931、932内のピクチャが以下の順で圧縮される。第1GOP931では、まず先頭のピクチャがI0ピクチャ910に圧縮される。ここで、下付の数字は、各ピクチャに表示時間順に割り振られた通し番号を示す。次に、4番目のピクチャがI0ピクチャ910を参照ピクチャとしてP3ピクチャ913に圧縮される。ここで、図9に示されている各矢印は、先端のピクチャが後端のピクチャに対する参照ピクチャであることを示す。続いて、2、3番目のピクチャがI0ピクチャ910とP3ピクチャ913とを参照ピクチャとして、それぞれ、Br1ピクチャ911、Br2ピクチャ912に圧縮される。更に7番目のピクチャがP3ピクチャ913を参照ピクチャとしてP6ピクチャ916に圧縮される。続いて、4、5番目のピクチャがP3ピクチャ913とP6ピクチャ916とを参照ピクチャとして、それぞれ、Br4ピクチャ914、Br5ピクチャ915に圧縮される。同様に、第2GOP932では、まず先頭のピクチャがI7ピクチャ917に圧縮され、次に3番目のピクチャがI7ピクチャ917を参照ピクチャとしてP9ピクチャ919に圧縮される。続いて、2番目のピクチャがI7ピクチャ917とP9ピクチャ919とを参照ピクチャとしてBr8ピクチャ918に圧縮される。
 ベースビュー・ビデオ・ストリーム901では各GOP931、932がその先頭にIピクチャを必ず含むので、ピクチャはGOPごとに復号可能である。例えば第1GOP931では、まずI0ピクチャ910が単独で復号される。次に、復号後のI0ピクチャ910を利用してP3ピクチャ913が復号される。続いて、復号後のI0ピクチャ910とP3ピクチャ913とを利用してBr1ピクチャ911とBr2ピクチャ912とが復号される。後続のピクチャ群914、915、…も同様に復号される。こうして、ベースビュー・ビデオ・ストリーム901は単独で復号可能であり、更にGOP単位でのランダム・アクセスが可能である。
 図9を更に参照するに、ライトビュー・ビデオ・ストリーム902内のピクチャ920-929はピクチャ間予測符号化で圧縮されている。しかし、その符号化方法はベースビュー・ビデオ・ストリーム901内のピクチャ910-919の符号化方法とは異なり、映像の時間方向での冗長性に加え、左右の映像間の冗長性をも利用する。具体的には、各ピクチャ920-929の参照ピクチャが、図9に矢印で示されているように、同じストリーム902からだけでなく、ベースビュー・ビデオ・ストリーム901からも選択される。特にライトビュー・ビデオ・ストリーム902内の各ピクチャ920-929と、ベースビュー・ビデオ・ストリーム901から選択されたその参照ピクチャとは表示時刻が実質的に等しい。それらのピクチャは3D映像の同じシーンのライトビューとレフトビューとの対、すなわち視差映像を表す。このように、ライトビュー・ビデオ・ストリームのピクチャ920-929はベースビュー・ビデオ・ストリーム901のピクチャ910-919と一対一に対応する。特にライトビュー・ビデオ・ストリーム902はベースビュー・ビデオ・ストリーム901と同様、GOP単位に分割されている。
 図9に示されている例では、まずライトビュー・ビデオ・ストリーム902内の先頭のピクチャがベースビュー・ビデオ・ストリーム901内のI0ピクチャ910を参照ピクチャとしてP0ピクチャ920に圧縮される。ここで、それらのピクチャ910、920は3D映像の先頭フレームのレフトビューとライトビューとを表す。次に、4番目のピクチャがP0ピクチャ920とベースビュー・ビデオ・ストリーム901内のP3ピクチャ913とを参照ピクチャとしてP3ピクチャ923に圧縮される。続いて、2番目のピクチャがP0ピクチャ920とP3ピクチャ923とに加えて、ベースビュー・ビデオ・ストリーム901内のBr1ピクチャ911を参照ピクチャとしてB1ピクチャ921に圧縮される。同様に、3番目のピクチャがP0ピクチャ920とP3ピクチャ930とに加えて、ベースビュー・ビデオ・ストリーム901内のBr2ピクチャ912を参照ピクチャとしてB2ピクチャ922に圧縮される。以降のピクチャ924-929についても同様に、そのピクチャと表示時刻が実質的に等しいベースビュー・ビデオ・ストリーム901内のピクチャが参照ピクチャとして利用される。
 上記のような左右の映像間の相関関係を利用した動画圧縮符号化方式としては、MVC(Multiview Video Coding)と呼ばれるMPEG-4 AVC/H.264の修正規格が知られている。MVCは、ISO/IEC MPEGとITU-T VCEGとの共同プロジェクトであるJVT(Joint Video Team)によって2008年7月に策定されたものであり、複数の視点から見える映像をまとめて符号化するための規格である。MVCでは映像間予測符号化に、映像の時間方向での類似性だけでなく、視点の異なる映像間の類似性も利用される。その予測符号化では、各視点から見た映像を個別に圧縮する予測符号化よりも映像の圧縮率が高い。
 上記のとおり、ライトビュー・ビデオ・ストリーム902内の各ピクチャの圧縮には、ベースビュー・ビデオ・ストリーム901内の各ピクチャが参照ピクチャとして利用される。従って、ベースビュー・ビデオ・ストリーム901とは異なり、ライトビュー・ビデオ・ストリーム902を単独で復号することはできない。しかし、視差映像間の差異は一般にわずかであり、すなわちレフトビューとライトビューとの間の相関は高い。従って、ライトビュー・ビデオ・ストリーム902内の各ピクチャは一般にベースビュー・ビデオ・ストリーム901内の各ピクチャよりも圧縮率が著しく高く、すなわちデータ量が著しく小さい。
 図10は、ベースビュー・ビデオ・ストリーム901とデプスマップ・ストリーム1001とのピクチャを表示時間順に示す模式図である。図10を参照するに、ベースビュー・ビデオ・ストリーム901は、図9に示されているものと同様である。従って、その詳細についての説明は、図9についての説明を援用する。一方、デプスマップ・ストリーム1001はデプスマップ1010、1011、1012、…、1019を含む。デプスマップ1010-1019はベースビュー・ビデオ・ストリーム901のピクチャ910-919と一対一に対応し、各ピクチャの示す1フレーム又は1フィールドの2D映像に対するデプスマップを表す。
 各デプスマップ1010-1019は、ベースビュー・ビデオ・ストリーム901内の各ピクチャ910-919と同様、MPEG-2又はMPEG-4 AVC等の動画圧縮符号化方式によって圧縮されている。特にその符号化方式ではピクチャ間予測符号化が利用される。すなわち、各デプスマップが他のデプスマップを参照ピクチャとして利用して圧縮される。図10に示されている例では、まず第1GOP931に対応するデプスマップ群の先頭がI0ピクチャ1010に圧縮される。ここで、下付の数字は、各ピクチャに表示時間順に割り振られた通し番号を示す。次に、4番目のデプスマップがI0ピクチャ1010を参照ピクチャとしてP3ピクチャ1013に圧縮される。ここで、図10に示されている各矢印は、先端のピクチャが後端のピクチャに対する参照ピクチャであることを示す。続いて、2、3番目のデプスマップがI0ピクチャ1010とP3ピクチャ1013とを参照ピクチャとして、B1ピクチャ1011、B2ピクチャ1012のそれぞれに圧縮される。更に7番目のデプスマップがP3ピクチャ1013を参照ピクチャとしてP6ピクチャ1016に圧縮される。続いて、4、5番目のデプスマップがP3ピクチャ1013とP6ピクチャ1016とを参照ピクチャとして、B4ピクチャ1014、B5ピクチャ1015のそれぞれに圧縮される。同様に、第2GOP932に対応するデプスマップ群では、まず先頭のデプスマップがI7ピクチャ1017に圧縮され、次に3番目のデプスマップがI7ピクチャ1017を参照ピクチャとしてP9ピクチャ1019に圧縮される。続いて、2番目のデプスマップがI7ピクチャ1017とP9ピクチャ1019とを参照ピクチャとしてB8ピクチャ1018に圧縮される。
 デプスマップ・ストリーム1001はベースビュー・ビデオ・ストリーム901と同様にGOP単位に分割され、各GOPがその先頭にIピクチャを必ず含む。従って、デプスマップはGOPごとに復号可能である。例えば、まずI0ピクチャ1010が単独で復号され、次に復号後のI0ピクチャ1010を利用してP3ピクチャ1013が復号される。続いて、復号後のI0ピクチャ1010とP3ピクチャ1013とを利用して、B1ピクチャ1011とB2ピクチャ1012とが復号される。後続のピクチャ群1014、1015、…も同様に復号される。こうして、デプスマップ・ストリーム1001は単独で復号可能である。しかし、デプスマップ自体は2D映像の各部の奥行きを画素別に表す情報でしかないので、デプスマップ・ストリーム1001を単独で映像の再生に利用することはできない。
 ライトビュー・ビデオ・ストリーム902とデプスマップ・ストリーム1001とは同じ符号化方式で圧縮される。例えば、ライトビュー・ビデオ・ストリーム902がMVCのフォーマットで符号化されているとき、デプスマップ・ストリーム1001もMVCのフォーマットで符号化されている。その場合、再生装置102は3D映像の再生時、符号化方式を一定に維持したまま、L/Rモードとデプス・モードとの切り換えをスムーズに実現できる。
 図11は、ビデオ・ストリーム1100のデータ構造の詳細を示す模式図である。ビデオ・ストリーム1100は、ベースビュー・ビデオ・ストリーム901であっても、ディペンデントビュー・ビデオ・ストリーム902、1001であってもよい。図11を参照するに、実際のビデオ・ストリーム1100を構成する各GOP1110、1120では、図9に示されているものと同様なGOPの実体930、940に加え、ヘッダが各ピクチャ910、911、912、…に個別に付与されている。このヘッダと各ピクチャの実体との組み合わせを「ビデオ・アクセスユニット(VAU)」という。すなわち、各GOP1110、1120ではピクチャごとに一つのVAU1111、1112、…が構成されている。各ピクチャはVAU単位でビデオ・ストリーム1100から読み出し可能である。
 図11を更に参照するに、各GOP1110、1120の先頭のVAU(VAU#1)1111はI0ピクチャ910の実体とヘッダとを含む。I0ピクチャ910の実体は圧縮ピクチャ・データ1111Eに格納されている。ヘッダは、アクセスユニット(AU)識別コード1111A、シーケンス・ヘッダ1111B、ピクチャ・ヘッダ1111C、及び補足データ1111Dを含む。AU識別コード1111Aは、各VAUの先端を示す所定の符号である。シーケンス・ヘッダ1111BはGOPヘッダともいい、そのGOP1110の全体で共通する情報、例えば、解像度、フレームレート、アスペクト比、及びビットレートを含む。ピクチャ・ヘッダ1111Cは、符号化方式の種類等、I0ピクチャ910の復号に必要な情報を含む。補足データ1111Dは、I0ピクチャ910の復号以外に関する付加的な情報、例えば、クローズド・キャプションを示す文字情報、及びタイムコード情報を含む。各GOP1110、1120の二番目以降のVAUは、ヘッダがシーケンス・ヘッダ1111Bを含まない点を除き、VAU#11111と構造が等しい。例えばVAU#21112は、P3ピクチャ913の実体とヘッダとを含む。VAU1111、1112の各部の具体的な内容はビデオ・ストリーム1100の符号化方式ごとに異なる。例えばその符号化方式がMPEG-4 AVCであるとき、VAU1111、1112は複数のNALユニットから構成される。そのとき、AU識別コード1111A、シーケンス・ヘッダ1111B、ピクチャ・ヘッダ1111C、補足データ1111D、及び圧縮ピクチャ・データ111Eはそれぞれ、AUデリミタ(Access Unit Delimiter)、SPS(シーケンス・パラメータ・セット)、PPS(ピクチャ・パラメータ・セット)、SEI(Supplemental Enhancement Information)、及びビュー・コンポーネントに相当する。
 図12は、PESパケット列1202へのビデオ・ストリーム1201の格納方法の詳細を示す模式図である。ビデオ・ストリーム1201は、ベースビュー・ビデオ・ストリーム901であっても、ディペンデントビュー・ビデオ・ストリーム902、1001であってもよい。図12を参照するに、実際のビデオ・ストリーム1201では、ピクチャが表示時間順ではなく符号化順に多重化されている。すなわち、図12に示されているように、ビデオ・ストリーム1201を構成するVAUには、先頭から順に、I0ピクチャ1210、P3ピクチャ1211、B1ピクチャ1212、B2ピクチャ1213、…が格納されている。ここで、下付の数字は、各ピクチャに表示時間順に割り振られた通し番号を示す。P3ピクチャ1211の符号化にはI0ピクチャ1210が参照ピクチャとして利用され、B1ピクチャ1212とB2ピクチャ1213との各符号化にはI0ピクチャ1210とP3ピクチャ1211とが参照ピクチャとして利用される。それらのVAUが一つずつ、異なるPESパケット1220、1221、1222、1223、…に格納される。各PESパケット1220はPESペイロード1220PとPESヘッダ1220Hとを含む。VAUはPESペイロード1220Pに格納される。一方、PESヘッダ1220Hは、同じPESパケット1220のPESペイロード1220Pに格納されたピクチャの表示時刻(PTS:Presentation Time-Stamp)、及びそのピクチャの復号時刻(DTS:Decoding Time-Stamp)を含む。
 図12に示されているビデオ・ストリーム1201と同様、図6に示されている他のエレメンタリ・ストリームも一連のPESパケットの各PESペイロードに格納される。更に各PESパケットのPESヘッダは、そのPESパケットのPESペイロードに格納されたデータのPTSを含む。
 図13の(a)、(b)は、ベースビュー・ビデオ・ストリーム1301とディペンデントビュー・ビデオ・ストリーム1302とのそれぞれについて、各ピクチャに割り当てられたPTSとDTSとの間の関係を示す模式図である。図13を参照するに、両ビデオ・ストリーム1301、1302の間では、3D映像の同じフレーム又はフィールドを表す一対のピクチャに対して同じPTS及び同じDTSが割り当てられている。例えば3D映像の先頭のフレーム又はフィールドは、ベースビュー・ビデオ・ストリーム1301のI1ピクチャ1311とディペンデントビュー・ビデオ・ストリーム1302のP1ピクチャ1321との組み合わせから再現される。従って、それらのピクチャの対1311、1321ではPTSが等しく、かつDTSが等しい。ここで、下付の数字は、各ピクチャにDTSの順に割り振られた通し番号を示す。また、ディペンデントビュー・ビデオ・ストリーム1302がデプスマップ・ストリームであるとき、P1ピクチャ1321は、I1ピクチャ1311に対するデプスマップを表すIピクチャに置き換えられる。同様に、各ビデオ・ストリーム1301、1302の2番目のピクチャ、すなわち、P2ピクチャ1312、1322の対ではPTSが等しく、かつDTSが等しい。各ビデオ・ストリーム1301、1302の3番目のピクチャ、すなわちBr3ピクチャ1313とB3ピクチャ1323との対ではPTSとDTSとがいずれも共通である。Br4ピクチャ1314とB4ピクチャ1324との対でも同様である。
 ベースビュー・ビデオ・ストリーム1301とディペンデントビュー・ビデオ・ストリーム1302との間で、PTSが等しく、かつDTSが等しいピクチャを含むVAUの対を「3D・VAU」という。図13に示されているPTSとDTSとの割り当てにより、3D再生モードの再生装置102内のデコーダにベースビュー・ビデオ・ストリーム1301とディペンデントビュー・ビデオ・ストリーム1302とを3D・VAU単位でパラレルに処理させることが容易にできる。それにより、3D映像の同じフレーム又はフィールドを表す一対のピクチャがデコーダによって確実にパラレルに処理される。更に、各GOPの先頭の3D・VAUではシーケンス・ヘッダが、同じ解像度、同じフレームレート、及び同じアスペクト比を含む。特にそのフレームレートは、2D再生モードにおいてベースビュー・ビデオ・ストリーム1301が単独で復号されるときの値に等しい。
 図14は、図11に示されている補足データ1111Dのデータ構造を示す模式図である。補足データ111Dは、特にMPEG-4 AVCではNALユニットの一種“SEI”に相当する。図14を参照するに、補足データ1111Dは復号スイッチ情報1401を含む。復号スイッチ情報1401は、ベースビュー・ビデオ・ストリームとディペンデントビュー・ビデオ・ストリームとの両方で各VAUに含まれる。復号スイッチ情報1401は、再生装置102内のデコーダに、次に復号すべきVAUを容易に特定させるための情報である。ここで、そのデコーダは後述のように、ベースビュー・ビデオ・ストリームとディペンデントビュー・ビデオ・ストリームとをVAU単位で交互に復号する。そのとき、そのデコーダは一般に、各VAUに付与されたDTSの示す時刻に合わせて、次に復号すべきVAUを特定する。しかし、デコーダの種類には、DTSを無視してVAUを順次、復号し続けるものも多い。そのようなデコーダにとって、各VAUがDTSに加えて復号スイッチ情報1401を含むことは好ましい。
 図14を参照するに、復号スイッチ情報1401は、次アクセスユニット・タイプ1411、次アクセスユニット・サイズ1412、及び復号カウンタ1413を含む。次アクセスユニット・タイプ1411は、次に復号されるべきVAUがベースビュー・ビデオ・ストリームとディペンデントビュー・ビデオ・ストリームとのいずれに属するのかを示す。例えば、次アクセスユニット・タイプ1411の値が「1」であるときは、次に復号されるべきVAUはベースビュー・ビデオ・ストリームに属し、「2」であるときはディペンデントビュー・ビデオ・ストリームに属する。次アクセスユニット・タイプ1411の値が「0」であるときは、現在のVAUが復号対象のストリームの後端に位置し、次に復号されるべきVAUが存在しない。次アクセスユニット・サイズ1412は、次に復号されるべきVAUのサイズを示す。再生装置102内のデコーダは、次アクセスユニット・サイズ1412を参照することにより、VAUの構造自体を解析することなく、そのサイズを特定できる。従って、デコーダはバッファからVAUを容易に抽出できる。復号カウンタ1413は、それの属するVAUが復号されるべき順番を示す。その順番は、ベースビュー・ビデオ・ストリーム内のIピクチャを含むVAUから数えられる。
 図15の(a)は、ベースビュー・ビデオ・ストリーム1501とディペンデントビュー・ビデオ・ストリーム1502との各ピクチャに割り当てられた復号カウンタの一例1510、1520を示す模式図である。図15の(a)を参照するに、復号カウンタ1510、1520は両ビデオ・ストリーム1501、1502の間で交互にインクリメントされる。例えば、ベースビュー・ビデオ・ストリーム1501内のIピクチャを含むVAU1511に対し、復号カウンタ1510として「1」が割り当てられる。次に復号されるべきディペンデントビュー・ビデオ・ストリーム1502内のPピクチャを含むVAU1521に対し、復号カウンタ1520として「2」が割り当てられる。更にその次に復号されるべきベースビュー・ビデオ・ストリーム1501内のPピクチャを含むVAU1512に対し、復号カウンタ1510として「3」が割り当てられる。その割り当てにより、何らかの不具合が原因で再生装置102内のデコーダがいずれかのVAUを読み損なったときでも、それによって欠落したピクチャをデコーダは復号カウンタ1510、1520から直ちに特定できる。従って、デコーダはエラー処理を適切に、かつ迅速に実行できる。
 図15の(a)に示されている例では、ベースビュー・ビデオ・ストリーム1501の3番目のVAU1513の読み込みにエラーが生じ、Brピクチャが欠落している。しかし、デコーダは、ディペンデントビュー・ビデオ・ストリーム1502の2番目のVAU1522に含まれるPピクチャの復号処理で、そのVAU1522から復号カウンタ1520を読み出して保持している。従って、デコーダは次に処理すべきVAUの復号カウンタ1510を予測できる。具体的には、そのPピクチャを含むVAU1522内の復号カウンタ1520は「4」であるので、次に読み込まれるべきVAUの復号カウンタ1510は「5」であると予測される。しかし、実際には、次に読み込まれたVAUはベースビュー・ビデオ・ストリーム1501の4番目のVAU1514であったので、その復号カウンタ1510は「7」である。そのことから、デコーダは、VAUを一つ読み損ねたことを検出できる。従って、デコーダは次のエラー処理を実行できる:「ディペンデントビュー・ビデオ・ストリーム1502の3番目のVAU1523から抽出されたBピクチャについては、参照すべきBrピクチャが欠落しているので復号処理をスキップする」。このように、デコーダは復号処理ごとに復号カウンタ1510、1520をチェックする。それにより、デコーダはVAUの読み込みエラーを迅速に検出でき、かつ適切なエラー処理を迅速に実行できる。その結果、再生映像へのノイズの混入を防止することができる。
 図15の(b)は、ベースビュー・ビデオ・ストリーム1501とディペンデントビュー・ビデオ・ストリーム1502との各ピクチャに割り当てられた復号カウンタの別例1530、1540を示す模式図である。図15の(b)を参照するに、復号カウンタ1530、1540は各ビデオ・ストリーム1501、1502で別々にインクリメントされる。従って、復号カウンタ1530、1540は、同じ3D・VAUに属する一対のピクチャ間で等しい。その場合、デコーダはベースビュー・ビデオ・ストリーム1501のVAUを一つ復号した時点では次のように予測できる:「その復号カウンタ1530が、次に復号されるべきディペンデントビュー・ビデオ・ストリーム1502のVAUの復号カウンタ1540に等しい」。一方、デコーダはディペンデントビュー・ビデオ・ストリーム1502のVAUを一つ復号した時点では次のように予測できる:「その復号カウンタ1540に1を加えた値が、次に復号されるべきベースビュー・ビデオ・ストリーム1501のVAUの復号カウンタ1530に等しい」。従って、デコーダはいずれの時点でも復号カウンタ1530、1540からVAUの読み込みエラーを迅速に検出でき、かつ適切なエラー処理を迅速に実行できる。その結果、再生映像へのノイズの混入を防止することができる。
  ≪多重化ストリーム・データのインターリーブ配置≫
 3D映像のシームレス再生には、ベースビュー・ビデオ・ストリームとディペンデントビュー・ビデオ・ストリームとのBD-ROMディスク101上での物理的な配置が重要である。ここで、「シームレス再生」とは、多重化ストリーム・データから映像と音声とを途切れさせることなく滑らかに再生することをいう。
 図16は、図6に示されているメインTS、第1サブTS、及び第2サブTSのそれぞれに属するデータ・ブロック群のBD-ROMディスク101上での物理的な配置を示す模式図である。「データ・ブロック」とは、BD-ROMディスク101上の連続領域、すなわち物理的に連続する複数のセクタに記録された一連のデータをいう。BD-ROMディスク101では物理アドレスが論理アドレスと実質的に等しいので、各データ・ブロック内ではLBNも連続している。従って、BD-ROMドライブ121は一つのデータ・ブロックを、光ピックアップにシークを行わせることなく連続して読み出すことができる。以下、メインTSに属するデータ・ブロックL1、L2、L3、…を「ベースビュー・データ・ブロック」といい、サブTSに属するデータ・ブロックR1、R2、R3、…、D1、D2、D3、…を「ディペンデントビュー・データ・ブロック」という。特に、第1サブTSに属するデータ・ブロックR1、R2、R3、…を「ライトビュー・データ・ブロック」といい、第2サブTSに属するデータ・ブロックD1、D2、D3、…を「デプスマップ・データ・ブロック」という。図16を参照するに、データ・ブロック群はBD-ROMディスク101上のトラック1601に沿って連続的に記録されている。更に、ベースビュー・データ・ブロックL1、L2、L3、…、ライトビュー・データ・ブロックR1、R2、R3、…、及びデプスマップ・データ・ブロックD1、D2、D3、…が一つずつ交互に配置されている。このようなデータ・ブロック群の配置を「インターリーブ配置」という。
 本発明の実施形態1によるインターリーブ配置では、隣接する三種類のデータ・ブロックの間でエクステントATC時間が等しい。例えば図16では、先頭のデプスマップ・データ・ブロックD1、先頭のライトビュー・データ・ブロックR1、及び、先頭のベースビュー・データ・ブロックL1が連続している。それらのデータ・ブロックD1、R1、L1間ではエクステントATC時間が等しい。ここで、「ATC(Arrival Time Clock)」は、ATSの基準とされるべきクロックを意味する。また、「エクステントATC時間」はATCの値で定義され、一つのエクステント内のソースパケットに付与されたATSの範囲、すなわち、そのエクステントの先頭のソースパケットのATSから次のエクステントの先頭のソースパケットのATSまでの時間間隔を表す。すなわち、エクステントATC時間は、そのエクステント内のソースパケットを全て、再生装置102内でリード・バッファからシステム・ターゲット・デコーダへ転送するのに要する時間に等しい。尚、「リード・バッファ」は再生装置102内のバッファ・メモリであり、BD-ROMディスク101から読み出されたデータ・ブロックをシステム・ターゲット・デコーダに送るまでの間、一時的に格納する。
 エクステントATC時間の等しい三種類のデータ・ブロック間では更に、再生期間が一致し、かつビデオ・ストリームの再生時間が等しくてもよい。例えば図16では、先頭の三つのデータ・ブロックD1、R1、L1間で、再生期間が一致し、かつビデオ・ストリームの再生時間が等しい。後続のデータ・ブロック群でも同様に、エクステントATC時間の等しい三種類のデータ・ブロックD2、R2、L2間では、再生期間が一致し、かつビデオ・ストリームの再生時間が等しくてもよい。
 本発明の実施形態1によるインターリーブ配置では更に、エクステントATC時間の等しい三つの連続するデータ・ブロックは、デプスマップ・データ・ブロック、ライトビュー・データ・ブロック、及びベースビュー・データ・ブロックの順に、すなわちデータ量の小さい順に配置されている。例えば図16では、先頭のライトビュー・データ・ブロックR1に含まれるピクチャは、図9に示されているように、先頭のベースビュー・データ・ブロックL1に含まれるピクチャを参照ピクチャとして圧縮されている。従って、先頭のライトビュー・データ・ブロックR1のサイズSext2[1]は先頭のベースビュー・データ・ブロックL1のサイズSext1[1]以下である:Sext2[1]≦Sext1[1]。一方、デプスマップの画素当たりのデータ量、すなわち奥行き値のビット数は一般に、ベースビュー・ビデオ・ストリームに含まれるピクチャの画素当たりのデータ量、すなわち色座標値とα値とのビット数の和よりも小さい。更に、図6の(a)、(b)に示されているように、メインTSは第2サブTSとは異なり、プライマリ・ビデオ・ストリームの他にもプライマリ・オーディオ・ストリーム等のエレメンタリ・ストリームを含む。従って、図16では先頭のデプスマップ・データ・ブロックD1のサイズSext3[1]は先頭のベースビュー・データ・ブロックL1のサイズSext1[1]以下である:Sext3[1]≦Sext1[1]。それ故、図16では、先頭のデプスマップ・データ・ブロックD1、先頭のライトビュー・データ・ブロックR1、及び先頭のベースビュー・データ・ブロックL1がその順で配置されている。次に連続する三つのエクステントD2、R2、L2の順序も同様である。
 エクステントATC時間の等しいデータ・ブロックの各先頭に位置するVAUは同じ3D・VAUに属し、特に、同じ3D映像を表すGOPの先頭のピクチャを含む。例えば図16では、エクステントATC時間の等しい三つの連続するデータ・ブロックDn、Rn、Ln(n=1、2、3、…)のうち、デプスマップ・データ・ブロックDnの先端はデプスマップ・ストリームのIピクチャを含み、ライトビュー・データ・ブロックRnの先端はライトビュー・ビデオ・ストリームのPピクチャを含み、ベースビュー・データ・ブロックLnの先端はベースビュー・ビデオ・ストリームのIピクチャを含む。そのデプスマップ・ストリームのIピクチャは、そのベースビュー・ビデオ・ストリームのIピクチャの表す2D映像に対するデプスマップを表す。そのライトビュー・ビデオ・ストリームのPピクチャは、そのベースビュー・ビデオ・ストリームのIピクチャの表す2D映像をレフトビューとするときのライトビューを表す。特にそのPピクチャは、図9に示されているように、そのベースビュー・ビデオ・ストリームのIピクチャを参照ピクチャとして圧縮されている。従って、3D再生モードの再生装置102は、いずれのデータ・ブロックの組Dn、Rn、Lnからも3D映像の再生を開始できる。
  ≪多重化ストリーム・データをデータ・ブロックに分割する意義≫
 再生装置102は、BD-ROMディスク101から3D映像をシームレスに再生するには、メインTSとサブTSとをパラレルに処理しなければならない。しかし、その処理に利用可能なリード・バッファの容量は一般に限られている。特に、BD-ROMディスク101からリード・バッファへ連続して読み込むことのできるデータ量には限界がある。従って、再生装置102はメインTSとサブTSとを、エクステントATC時間の等しい部分の対に分割して読み出さねばならない。
 図17の(a)は、あるBD-ROMディスク上に個別に連続して記録されたメインTS1701とサブTS1702との配置を示す模式図である。再生装置102がそれらのメインTS1701とサブTS1702とをパラレルに処理するとき、図17の(a)に実線の矢印(1)-(4)で示されているように、BD-ROMドライブ121はメインTS1701とサブTS1702とを交互に、エクステントATC時間の等しい部分ずつ読み出す。そのとき、BD-ROMドライブ121は、図17の(a)に破線の矢印で示されているように、読み出し処理の途中でBD-ROMディスク上の読み出し対象領域を大きく変化させなければならない。例えば矢印(1)の示すメインTS1701の先端部分が読み出された時、BD-ROMドライブ121は光ピックアップによる読み出し動作を一旦停止し、BD-ROMディスクの回転速度を上げる。それにより、矢印(2)の示すサブTS1702の先端部分が記録されたBD-ROMディスク上のセクタを速やかに光ピックアップの位置まで移動させる。このように、光ピックアップに読み出し動作を一旦停止させて、その間に次の読み出し対象領域上へ光ピックアップを位置づけるための操作を「ジャンプ」という。図17の(a)に示されている破線の矢印は、読み出し処理の途中で必要な各ジャンプの範囲を示す。各ジャンプの期間中光ピックアップによる読み出し処理は停止し、デコーダによる復号処理のみが進行する。その結果、読み出し処理を復号処理に間に合わせることが難しいので、シームレス再生を確実に持続することが難しい。
 図17の(b)は、本発明の実施形態1によるBD-ROMディスク101上に交互に記録されたベースビュー・データ・ブロックB[0]、B[1]、B[2]、…とディペンデントビュー・データ・ブロックD[0]、D[1]、D[2]、…との配置を示す模式図である。図17の(b)を参照するに、メインTSとサブTSとはそれぞれ、複数のデータ・ブロックに分割されて交互に配置されている。その場合、再生装置102は3D映像の再生時、図17の(b)に矢印(1)-(4)で示されているように、データ・ブロックB[0]、D[0]、B[1]、D[1]、…を先頭から順番に読み出す。それだけで、再生装置102はメインTSとサブTSとを交互に読み出すことをスムーズに実現できる。特にその読み出し処理ではジャンプが生じないので、3D映像のシームレス再生が確実に持続可能である。
  ≪隣接するデータ・ブロック間でエクステントATC時間を揃える意義≫
 図16に示されているインターリーブ配置では、隣接する三種類のデータ・ブロックDn、Rn、Lnがいずれも同じエクステントATC時間を持つ。すなわち、それらのエクステント間では各エクステントの先頭のソースパケットから次のエクステントの先頭のソースパケットまでのATSの差が等しい(但し、その差の計算では、ATSにラップ・アラウンドが発生することが考慮されている)。その場合、再生装置102内のシステム・ターゲット・デコーダはリード・バッファから、ATCで計られる同じ時間内に、ベースビュー・データ・ブロックLnとディペンデントビュー・データ・ブロックDn又はRnとの両方に含まれる全てのTSパケットを取り出す。従って、特に飛び込み再生時において、システム・ターゲット・デコーダはベースビュー・ストリームとディペンデントビュー・ストリームとの間でTSパケットの復号処理を容易に同期させることができる。
  ≪再生時間の等しいデータ・ブロックを隣接させる意義≫
 図18の(a)は、隣接するベースビュー・データ・ブロックとディペンデントビュー・データ・ブロックとの間でエクステントATC時間が異なり、かつビデオ・ストリームの再生時間が異なるときの再生経路を示す模式図である。図18の(a)に示されている例では、先頭のベースビュー・データ・ブロックB[0]の再生時間は4秒間であり、先頭のディペンデントビュー・データ・ブロックD[0]の再生時間は1秒間である。ここで、ディペンデントビュー・データ・ブロックD[0]の復号に必要なベースビュー・ビデオ・ストリームの部分は、そのディペンデントビュー・データ・ブロックD[0]と同じ再生時間を持つ。従って、再生装置102内のリード・バッファの容量を節約するには、図18の(a)に矢印1810で示されているように、再生装置102にベースビュー・データ・ブロックB[0]とディペンデントビュー・データ・ブロックD[0]とを交互に同じ再生時間ずつ、例えば1秒間ずつ読み込ませることが好ましい。しかし、その場合、図18の(a)に破線で示されているように、読み出し処理の途中でジャンプが生じる。その結果、読み出し処理を復号処理に間に合わせることが難しいので、シームレス再生を確実に持続することが難しい。
 図18の(b)は、隣接するベースビュー・データ・ブロックとディペンデントビュー・データ・ブロックとの間でビデオ・ストリームの再生時間が等しいときの再生経路を示す模式図である。本発明の実施形態1によるBD-ROMディスク101上では、図18の(b)に示されているように、隣接する一対のデータ・ブロックの間でビデオ・ストリームの再生時間が等しい。例えば、先頭のベースビュー・データ・ブロックB[0]とディペンデントビュー・データ・ブロックD[0]との対ではビデオ・ストリームの再生時間が共に1秒に等しく、二番目のデータ・ブロックの対B[1]、D[1]ではビデオ・ストリームの再生時間が共に0.7秒に等しい。その場合、再生装置102は3D映像の再生時、図18の(b)に矢印1820で示されているように、データ・ブロックB[0]、D[0]、B[1]、D[1]、…を先頭から順番に読み出す。それだけで、再生装置102はメインTSとサブTSとを交互に同じ再生時間ずつ読み出すことをスムーズに実現できる。特にその読み出し処理ではジャンプが生じないので、3D映像のシームレス再生が確実に持続可能である。
 尚、隣接するベースビュー・データ・ブロックとディペンデントビュー・データ・ブロックとの間でエクステントATC時間が等しければ、それらのデータ・ブロック間で再生期間が一致していなくても、更にビデオ・ストリームの再生時間が等しくなくてもよい。その場合でも、図18の(b)に示されているものと同様に、再生装置102はデータ・ブロック群を先頭から順番に読み出すだけで、メインTSとサブTSとの交互の読み出しをスムーズに実現できる。特にその読み出し処理ではジャンプが生じないので、3D映像のシームレス再生が確実に持続可能である。
  ≪データ・ブロックに対するAVストリーム・ファイルのクロスリンク≫
 多重化ストリーム・データに属する各データ・ブロックは、BD-ROMディスク101のファイルシステムでは、ファイル2D又はファイルDEP内の一つのエクステントとしてアクセス可能である。すなわち、各データ・ブロックの論理アドレスは、ファイル2D又はファイルDEPのファイル・エントリに記録されたアロケーション記述子から知ることができる。図5、16に示されている例では、ファイル2D(01000.m2ts)541のファイル・エントリ1610に含まれるアロケーション記述子#1、#2、#3、…は、ベースビュー・データ・ブロックL1、L2、L3、…の各サイズとその先端のLBNとを示す。第1ファイルDEP(02000.m2ts)542のファイル・エントリ1620に含まれるアロケーション記述子#1、#2、#3、…は、ライトビュー・データ・ブロックR1、R2、R3、…の各サイズとその先端のLBNとを示す。第2ファイルDEP(03000.m2ts)543のファイル・エントリ1630に含まれるアロケーション記述子#1、#2、#3、…は、デプスマップ・データ・ブロックD1、D2、D3、…の各サイズとその先端のLBNとを示す。
 図19の(a)は、ファイル2D(01000.m2ts)541のデータ構造を示す模式図である。図16に示されているように、ファイル・エントリ1610内のアロケーション記述子#1、#2、#3、…はベースビュー・データ・ブロックL1、L2、L3、…を参照する。従って、各ベースビュー・データ・ブロックL1、L2、L3、…は、図19の(a)に示されているように、ファイル2D541のエクステントEXT2D[0]、EXT2D[1]、EXT2D[2]、…としてアクセス可能である。以下、ファイル2D541に属するエクステントEXT2D[0]、EXT2D[1]、EXT2D[2]、…を「2Dエクステント」という。
 図19の(b)は、第1ファイルDEP(02000.m2ts)542のデータ構造を示す模式図である。図16に示されているように、ファイル・エントリ1620内のアロケーション記述子#1、#2、#3、…はライトビュー・データ・ブロックR1、R2、R3、…を参照する。従って、各ライトビュー・データ・ブロックR1、R2、R3、…は、図19の(b)に示されているように、第1ファイルDEP542のエクステントEXT2[0]、EXT2[1]、EXT2[2]、…としてアクセス可能である。以下、第1ファイルDEP542に属するエクステントEXT2[0]、EXT2[1]、EXT2[2]、…を「ライトビュー・エクステント」という。
 図19の(c)は、第2ファイルDEP(03000.m2ts)543のデータ構造を示す模式図である。図16に示されているように、ファイル・エントリ1630内のアロケーション記述子#1、#2、#3、…はデプスマップ・データ・ブロックD1、D2、D3、…を参照する。従って、各デプスマップ・データ・ブロックD1、D2、D3、…は、図19の(c)に示されているように、第2ファイルDEP543のエクステントEXT3[0]、EXT3[1]、EXT3[2]、…としてアクセス可能である。以下、第2ファイルDEP543に属するエクステントEXT3[0]、EXT3[1]、EXT3[2]、…を「デプスマップ・エクステント」という。更に、ライトビュー・エクステントとデプスマップ・エクステントとのように、いずれかのファイルDEPに属するエクステントを「ディペンデントビュー・エクステント」と総称する。
 図16に示されているデータ・ブロック群に対して、AVストリーム・ファイルのクロスリンクは次のように実現される。第1ファイルSS(01000.ssif)544Aのファイル・エントリ1640に含まれるアロケーション記述子#1、#2、#3、…は、隣接するライトビュー・データ・ブロックとベースビュー・データ・ブロックとの対R1+L1、R2+L2、R3+L3、…をそれぞれ一つのエクステントと見なして各サイズとその先端のLBNとを示す。第2ファイルSS(02000.ssif)544Bのファイル・エントリ1650に含まれるアロケーション記述子#1、#2、#3、…は、デプスマップ・データ・ブロックD1、D2、D3、…とベースビュー・データ・ブロックL1、L2、L3、…との各サイズとその先端のLBNとを交互に示す。
 図19の(d)は、第1ファイルSS(01000.ssif)544Aのデータ構造を示す模式図である。図16に示されているように、ファイル・エントリ1640内のアロケーション記述子#1、#2、#3、…は、隣接するライトビュー・データ・ブロックとベースビュー・データ・ブロックとの対R1+L1、R2+L2、R3+L3、…を参照する。従って、隣接するデータ・ブロックの各対R1+L1、R2+L2、R3+L3、…は、図19の(d)に示されているように、第1ファイルSS544AのエクステントEXTSS[0]、EXTSS[1]、EXTSS[2]、…としてアクセス可能である。以下、第1ファイルSS544Aに属するエクステントEXTSS[0]、EXTSS[1]、EXTSS[2]、…を「3Dエクステント」という。各3DエクステントEXTSS[n](n=0、1、2、…)は、ファイル2D541とはベースビュー・データ・ブロックLnを共有し、第1ファイルDEP542とはライトビュー・データ・ブロックRnを共有する。
 図19の(e)は、第2ファイルSS(02000.ssif)544Bのデータ構造を示す模式図である。図16に示されているように、ファイル・エントリ1650内のアロケーション記述子#1、#2、#3、…は、デプスマップ・データ・ブロックD1、D2、D3、…とベースビュー・データ・ブロックL1、L2、L3、…とを交互に参照する。従って、各データ・ブロックD1、L1、D2、L2、は、図19の(e)に示されているように、第2ファイルSS544BのエクステントEXTSS[0]、EXTSS[1]、EXTSS[2]、EXTSS[3]、…としてアクセス可能である。第2ファイルSS544Bの各エクステントは、ファイル2D541とはベースビュー・データ・ブロックLnを共有し、第2ファイルDEP543とはデプスマップ・データ・ブロックDnを共有する。
  ≪インターリーブ配置のデータ・ブロック群に対する再生経路≫
 図20は、図16に示されているデータ・ブロック群に対する2D再生モードでの再生経路2001、L/Rモードでの再生経路2002、及びデプス・モードでの再生経路2003を示す模式図である。
 再生装置102は2D再生モードではファイル2D541を再生する。従って、2D再生モードでの再生経路2001が示すとおり、ベースビュー・データ・ブロックL1、L2、L3が順番に2DエクステントEXT2D[0]、EXT2D[1]、EXT2D[2]として読み出される。すなわち、まず先頭のベースビュー・データ・ブロックL1が読み出され、その直後のデプスマップ・データ・ブロックD2とライトビュー・データ・ブロックR2との読み出しが最初のジャンプJ2D1によってスキップされる。次に、二番目のベースビュー・データ・ブロックL2が読み出され、その直後のデプスマップ・データ・ブロックD3とライトビュー・データ・ブロックR3との読み出しが二回目のジャンプJ2D2によってスキップされる。続いて、三番目のベースビュー・データ・ブロックL3が読み出される。
 再生装置102はL/Rモードでは第1ファイルSS544Aを再生する。従って、L/Rモードでの再生経路2002が示すとおり、隣接するライトビュー・データ・ブロックとベースビュー・データ・ブロックとの対R1+L1、R2+L2、R3+L3が順番に3DエクステントEXTSS[0]、EXTSS[1]、EXTSS[2]として読み出される。すなわち、まず先頭のライトビュー・データ・ブロックR1とその直後のベースビュー・データ・ブロックL1とが連続して読み出され、その直後のデプスマップ・データ・ブロックD2の読み出しが最初のジャンプJLR1によってスキップされる。次に、二番目のライトビュー・データ・ブロックR2とその直後のベースビュー・データ・ブロックL2とが連続して読み出され、その直後のデプスマップ・データ・ブロックD3の読み出しが二回目のジャンプJLR2によってスキップされる。続いて、三番目のライトビュー・データ・ブロックR3とその直後のベースビュー・データ・ブロックL3とが連続して読み出される。
 再生装置102はデプス・モードでは第2ファイルSS544Bを再生する。従って、デプス・モードでの再生経路2003が示すとおり、デプスマップ・データ・ブロックD1、D2、D3とベースビュー・データ・ブロックL1、L2とが交互に、第2ファイルSS544BのエクステントEXTSS[0]、EXTSS[1]、EXTSS[2]、EXTSS[3]として読み出される。すなわち、まず先頭のデプスマップ・データ・ブロックD1が読み出され、その直後のライトビュー・データ・ブロックR1の読み出しが最初のジャンプJLD1によってスキップされる。次に、先頭のベースビュー・データ・ブロックL1が読み出され、続けてその直後のデプスマップ・エクステントD2が読み出される。更に、その直後のライトビュー・エクステントR2の読み出しが二回目のジャンプJLD2によってスキップされ、二番目のベースビュー・データ・ブロックL2が読み出される。
 図20の各再生経路2001-2003が示すとおり、データ・ブロック群がインターリーブ配置で記録された領域では、再生装置102はそのデータ・ブロック群を実質上、先頭から順に読み出せばよい。ここで、その読み出し処理の途中ではジャンプが生じる。しかし、各ジャンプの距離は、図17の(a)に示されているものとは異なり、メインTSとサブTSとのいずれの全長よりも十分に短い。また、いずれのジャンプも、図18の(a)に示されているものとは異なり、一つのデータ・ブロックの読み出しの途中では生じていない。更に、エクステントATC時間の等しいベースビュー・データ・ブロックとディペンデントビュー・データ・ブロックとの各対では、サイズの比較的小さいディペンデントビュー・データ・ブロックが先に読み出される。従って、その逆の場合よりも、再生装置102はリード・バッファの容量を削減できる。
 再生装置102はL/Rモードではデータ・ブロック群を第1ファイルSS544Aのエクステント群として読み込む。すなわち、再生装置102は第1ファイルSS544Aのファイル・エントリ1640内のアロケーション記述子#1、#2、…から各3DエクステントEXTSS[0]、EXTSS[1]、…の先端のLBNとそのサイズとを読み出してBD-ROMドライブ121に渡す。BD-ROMドライブ121はそのLBNからそのサイズのデータを連続して読み出す。これらの処理は、データ・ブロック群を第1ファイルDEP542とファイル2D541との各エクステントとして読み込む処理よりも、BD-ROMドライブ121の制御が次の二点(A)、(B)で簡単である:(A)再生装置102は一箇所のファイル・エントリを利用して、エクステントを順番に参照すればよい;(B)読み込み対象のエクステントの総数が実質上半減するので、BD-ROMドライブ121に渡されるべきLBNとサイズとの対の総数が少ない。利点(A)はデプス・モードでデータ・ブロック群を第2ファイルSS544Bのエクステントとして読み込む処理にも当てはまる。但し、再生装置102は3DエクステントEXTSS[0]、EXTSS[1]、…を読み込んだ後、それぞれをライトビュー・データ・ブロックとベースビュー・データ・ブロックとに分離してデコーダに渡さなければならない。その分離処理にはクリップ情報ファイルが利用される。その詳細については後述する。
  ≪層境界の前後での多重化ストリーム・データの配置≫
 BD-ROMディスク101が記録層を複数含むとき、メインTSとサブTSとは二つの記録層の境界、すなわち層境界を越えて記録されてもよい。また、メインTSとサブTSとは別のデータを間に挟んで記録されてもよい。それらの場合、BD-ROMドライブ121は一般に、メインTSとサブTSとの読み出し中にロングジャンプを行わねばならない。「ロングジャンプ」はジャンプの中でもシーク時間の長いものの総称であり、具体的には、ジャンプ距離が所定の閾値を超えるものをいう。「ジャンプ距離」とは、ジャンプ期間中に読み出し操作がスキップされるBD-ROMディスク101上の領域の長さをいう。ジャンプ距離は通常、その部分のセクタ数で表される。ロングジャンプの定義に利用される閾値は、BD-ROMの規格では例えば40000セクタに規定されている。しかし、その閾値は、BD-ROMディスクの種類とBD-ROMドライブの読み出し処理に関する性能とに依存する。ロングジャンプは特にフォーカス・ジャンプとトラック・ジャンプとを含む。「フォーカス・ジャンプ」は、記録層の切り換えに伴うジャンプであり、光ピックアップの焦点距離を変化させる処理を含む。「トラック・ジャンプ」は、光ピックアップをBD-ROMディスク101の半径方向に移動させる処理を含む。
 BD-ROMディスク101では、一連のメインTSとサブTSとが、層境界及び別のデータの記録領域等、ロングジャンプの必要な位置の前後に分離されているとき、それらのデータ・ブロック群が、以下に述べる三種類の配置1-3のいずれかで記録されている。更に、それらのデータ・ブロック群へのアクセスにはAVストリーム・ファイルのクロスリンクが利用される。それにより、再生装置102は後述のとおり、リード・バッファの容量を必要最小限に維持したまま、ロングジャンプ中での映像のシームレス再生を容易に実現できる。
   [配置1]
 図21は、BD-ROMディスク101の層境界の前後に記録されたデータ・ブロック群の物理的な配置の第1例を示す模式図である。これらのデータ・ブロック群は、図6に示されているメインTS、第1サブTS、及び第2サブTSに属する。以下、この配置を「配置1」という。図21を参照するに、層境界LBの前に位置する第1記録層には、デプスマップ・データ・ブロック群…、D1、D2、ライトビュー・データ・ブロック群…、R1、R2、及びベースビュー・データ・ブロック群…、L1、L2がインターリーブ配置で記録されている。以下、これらのデータ・ブロック群を「第1の3Dエクステント・ブロック」2101という。更に、第1の3Dエクステント・ブロック2101の後端L2と層境界LBとの間に一つのベースビュー・データ・ブロックL32Dが配置されている。一方、層境界LBの後に位置する第2記録層には、デプスマップ・データ・ブロック群D3、D4、…、ライトビュー・データ・ブロック群R3、R4、…、及びベースビュー・データ・ブロック群L3SS、L4、…がインターリーブ配置で記録されている。以下、これらのデータ・ブロック群を「第2の3Dエクステント・ブロック」2102という。
 各3Dエクステント・ブロック2101、2102のインターリーブ配置は、図16に示されているものと同様である。すなわち、デプスマップ・データ・ブロック、ライトビュー・データ・ブロック、及びベースビュー・データ・ブロックがその順で交互に並ぶ。更に、三つの連続するデータ・ブロックDn、Rn、Ln(n=…、1、2、3、4、…)間ではエクステントATC時間が等しい。第1の3Dエクステント・ブロック2101の後端に位置する三つのデータ・ブロックD2、R2、L2と、第2の3Dエクステント・ブロック2102の先端に位置する三つのデータ・ブロックD3、R3、L3SSとの間では、各ストリーム・データの内容が連続している。
 層境界LBの直前に位置するベースビュー・データ・ブロックL32Dは、第2の3Dエクステント・ブロック2102内の先端のベースビュー・データ・ブロックL3SSとビット単位(bit-for-bit)で一致する。すなわち、それらのデータ・ブロックL32D、L3SSの一方は他方の複製データである。以下、前者L32Dを「2D再生専用ブロック」といい、後者L3SSを「3D再生専用ブロック」という。
 図21に示されている各データ・ブロックは、3D再生専用ブロックL3SSを除いて、ファイル2D又はファイルDEPのいずれかのエクステントとしてアクセス可能である。例えばファイル2D(01000.m2ts)541のファイル・エントリ2110では、アロケーション記述子#1が、第1の3Dエクステント・ブロック2101内の最後から二番目のベースビュー・データ・ブロックL1のサイズとその先端のLBNとを示す。従って、そのベースビュー・データ・ブロックL1はファイル2D541の一つの2DエクステントEXT2D[0]としてアクセス可能である。アロケーション記述子#2は、第1の3Dエクステント・ブロック2101内の最後のベースビュー・データ・ブロックL2とその直後の2D再生専用ブロックL32Dとの対L2+L32Dを単一のエクステントと見なしてそのサイズとその先端のLBNとを示す。従って、そのベースビュー・データ・ブロックの対L2+L32Dはファイル2D541の単一の2DエクステントEXT2D[1]としてアクセス可能である。更に、アロケーション記述子#3が、第2の3Dエクステント・ブロック2102内の二番目のベースビュー・データ・ブロックL4のサイズとその先端のLBNとを示す。従って、そのベースビュー・データ・ブロックL4は別の一つの2DエクステントEXT2D[2]としてアクセス可能である。
 図21に示されているデータ・ブロック群に対しても、AVストリーム・ファイルのクロスリンクは図16のものと同様に実現される。特に、第1ファイルSS544Aのファイル・エントリ2120では、アロケーション記述子#1、#2、#3、#4が、隣接するライトビュー・データ・ブロックとベースビュー・データ・ブロックとの対R1+L1、R2+L2、R3+L3SS、R4+L4をそれぞれ一つのエクステントと見なして、各サイズとその先端のLBNとを示す。従って、隣接するデータ・ブロックの各対R1+L1、R2+L2、R3+L3SS、R4+L4は第1ファイルSS544Aの3DエクステントEXTSS[0]、EXTSS[1]、EXTSS[2]、EXTSS[3]としてアクセス可能である。ここで、層境界LBの直後の3DエクステントEXTSS[3]を除き、3DエクステントEXTSS[0]、EXTSS[1]、EXTSS[3]はそれぞれ、ベースビュー・データ・ブロックL1、L2、L4をファイル2D541と共有する。一方、2D再生専用ブロックL32Dは、層境界LBの直前に位置するファイル2D541のエクステントEXT2D[1]の一部としてのみアクセス可能である。更に、3D再生専用ブロックL3SSは、層境界LBの直後の3DエクステントEXTSS[2]の一部としてのみアクセス可能である。
 図22は、図21に示されているデータ・ブロック群に対する2D再生モードでの再生経路2201とL/Rモードでの再生経路2202を示す模式図である。尚、デプス・モードでの再生経路は、図16に示されているものから、当業者には容易に類推可能であろう。
 再生装置102は2D再生モードではファイル2D541を再生する。従って、2D再生モードでの再生経路2201が示すとおり、まず第1の3Dエクステント・ブロック2101内の最後から二番目のベースビュー・データ・ブロックL1が最初の2DエクステントEXT2D[0]として読み出され、その直後のデプスマップ・データ・ブロックD2とライトビュー・データ・ブロックR2との読み出しが最初のジャンプJ2D1によってスキップされる。次に、第1の3Dエクステント・ブロック2101内の最後のベースビュー・データ・ブロックL2とその直後の2D再生専用ブロックL32Dとの対L2+L32Dが二番目の2DエクステントEXT2D[1]として連続して読み出される。その直後の層境界LBではロングジャンプJLYが生じ、フォーカス・ジャンプの実行と共に、第2の3Dエクステント・ブロック2102の先端に位置する5個のデータ・ブロックD3、R3、L3SS、D4、R4の読み出しがスキップされる。続いて、第2の3Dエクステント・ブロック2102内の二番目のベースビュー・データ・ブロックL4が三番目の2DエクステントEXT2D[2]として読み出される。
 再生装置102はL/Rモードでは第1ファイルSS544Aを再生する。従って、L/Rモードでの再生経路2202が示すとおり、まず先頭のライトビュー・データ・ブロックR1とその直後のベースビュー・データ・ブロックL1との対R1+L1が最初の3DエクステントEXTSS[0]として連続して読み出され、その直後のデプスマップ・データ・ブロックD2の読み出しが最初のジャンプJLR1によってスキップされる。次に、二番目のライトビュー・データ・ブロックR2とその直後のベースビュー・データ・ブロックL2とが二番目の3DエクステントEXTSS[1]として連続して読み出される。その直後にロングジャンプJLYが生じ、フォーカス・ジャンプの実行と共に、2D再生専用ブロックL32Dと第2の3Dエクステント・ブロック2102内の先頭のデプスマップ・データ・ブロックD3との読み出しがスキップされる。続いて、第2の3Dエクステント・ブロック2102内の先頭のライトビュー・データ・ブロックR3とその直後の3D再生専用ブロックL3SSとが三番目の3DエクステントEXTSS[2]として連続して読み出され、その直後のデプスマップ・データ・ブロックD4の読み出しが二番目のジャンプJLR2によってスキップされる。更に、次のライトビュー・データ・ブロックR4とその直後のベースビュー・データ・ブロックL4とが四番目の3DエクステントEXTSS[3]として連続して読み出される。
 図22に示されているとおり、2D再生モードでは、2D再生専用ブロックL32Dは読み出されるが、3D再生専用ブロックL3SSの読み出しはスキップされる。逆に、L/Rモードでは、2D再生専用ブロックL32Dの読み出しはスキップされるが、3D再生専用ブロックL3SSは読み出される。しかし、両方のデータ・ブロックL32D、L3SSはビット単位で一致しているので、いずれの再生モードでも、再生されるレフトビュー・ビデオ・フレームは等しい。このように、配置1ではロングジャンプJLYの前後で2D再生モードでの再生経路2201とL/Rモードでの再生経路2202とが分離されている。デプス・モードについても同様である。
   [配置1の利点]
 図23は、あるBD-ROMディスクの層境界の前後にインターリーブ配置で記録されているデータ・ブロック群と、それに対する各再生モードでの再生経路とを示す模式図である。図23を参照するに、図21に示されている配置1と同様、第1記録層には、デプスマップ・データ・ブロック群…、D1、D2、ライトビュー・データ・ブロック群…、R1、R2、及びベースビュー・データ・ブロック群…、L1、L2がインターリーブ配置で記録されて第1の3Dエクステント・ブロック2301を構成している。一方、第2記録層には、デプスマップ・データ・ブロック群D3、…、ライトビュー・データ・ブロック群R3、…、及びベースビュー・データ・ブロック群L3、…がインターリーブ配置で記録されて第2の3Dエクステント・ブロック2302を構成している。各3Dエクステント・ブロック2301、2302のインターリーブ配置は、図21に示されているもの2101、2102と同様である。更に、第1の3Dエクステント・ブロック2301の後端に位置する三つのデータ・ブロックD2、R2、L2と、第2の3Dエクステント・ブロック2302の先端に位置する三つのデータ・ブロックD3、R3、L3との間では、各ストリーム・データの内容が連続している。
 図23に示されているデータ・ブロック群は、図21に示されているものとは異なり、層境界LBの前後に2D再生専用ブロックL32Dと3D再生専用ブロックL3SSとの対を含んでいない。従って、以下に示すように、2D再生モードでの再生経路2310とL/Rモードでの再生経路2311とがロングジャンプJLYの直前に分離されることなく、いずれも同じベースビュー・データ・ブロックL2を通る。
 図23に示されているベースビュー・データ・ブロックL1-L3はいずれもファイル2Dの一つのエクステントEXT2D[0]-EXT2D[2]としてアクセス可能である。一方、隣接するライトビュー・データ・ブロックとベースビュー・データ・ブロックとの各対R1+L1、R2+L2、R3+L3はファイルSSの3DエクステントEXTSS[0]、EXTSS[1]、EXTSS[2]としてアクセス可能である。いずれの3DエクステントEXTSS[0]、EXTSS[1]、EXTSS[2]もそれぞれベースビュー・データ・ブロックL1、L2、L3をファイル2D541と共有する。
 2D再生モードの再生装置102はファイル2Dを再生する。従って、2D再生モードでの再生経路2310が示すとおり、まず第1の3Dエクステント・ブロック2301内の最後から二番目のベースビュー・データ・ブロックL1が最初の2DエクステントEXT2D[0]として読み出され、その直後のデプスマップ・データ・ブロックD2とライトビュー・データ・ブロックR2との読み出しが最初のジャンプJ2D1によってスキップされる。次に、第1の3Dエクステント・ブロック2301内の最後のベースビュー・データ・ブロックL2が二番目の2DエクステントEXT2D[1]として読み出される。その直後の層境界LBではロングジャンプJLYが生じ、フォーカス・ジャンプの実行と共に、第2の3Dエクステント・ブロック2302の先端に位置する2個のデータ・ブロックD3、R3の読み出しがスキップされる。続いて、第2の3Dエクステント・ブロック2302内の先頭のベースビュー・データ・ブロックL3が三番目の2DエクステントEXT2D[2]として読み出される。
 L/Rモードの再生装置102はファイルSSを再生する。従って、L/Rモードでの再生経路2311が示すとおり、まず先頭のライトビュー・データ・ブロックR1とその直後のベースビュー・データ・ブロックL1との対R1+L1が最初の3DエクステントEXTSS[0]として連続して読み出され、その直後のデプスマップ・データ・ブロックD2の読み出しが最初のジャンプJLR1によってスキップされる。次に、二番目のライトビュー・データ・ブロックR2とその直後のベースビュー・データ・ブロックL2とが二番目の3DエクステントEXTSS[1]として連続して読み出される。その直後にロングジャンプJLYが生じ、フォーカス・ジャンプの実行と共に、第2の3Dエクステント・ブロック2302内の先頭のデプスマップ・データ・ブロックD3の読み出しがスキップされる。続いて、第2の3Dエクステント・ブロック2302内の先頭のライトビュー・データ・ブロックR3とその直後のベースビュー・データ・ブロックL3とが三番目の3DエクステントEXTSS[2]として連続して読み出される。
 上記のとおり、図23に示されているデータ・ブロック群では、図21に示されているものとは異なり、2D再生モードでの再生経路2310とL/Rモードでの再生経路2311とがいずれも、ロングジャンプJLYの直前に同じベースビュー・データ・ブロックL2を通る。ここで、ロングジャンプJLYの期間中、BD-ROMドライブ121は読み出し処理を停止するが、システム・ターゲット・デコーダは、リード・バッファに蓄積されたストリーム・データの復号処理を続行する。従って、再生装置102にロングジャンプJLYの前後で映像をシームレスに再生させるには、ロングジャンプJLYの期間中でのバッファ・アンダーフローを防止しなければならない。
 L/Rモードでは、第1の3Dエクステント・ブロック2301が復号される間に、リード・バッファに一定量のデータが蓄積される。この一定量のデータを「バッファ余裕量」という(その詳細は後述する)。ロングジャンプJLYの期間中では、その直前に読み込まれた3DエクステントEXTSS[1]、すなわちライトビュー・データ・ブロックR2とベースビュー・データ・ブロックL2とに加えてそのバッファ余裕量のデータが復号される。従って、L/Rモードでバッファ・アンダーフローを防止するにはバッファ余裕量が十分に大きければよい。一方、各データ・ブロックR2、L2のサイズは、ロングジャンプJLYの直前までバッファ余裕量が維持できる値Smin2、Smin1であればよい。しかし、2D再生モードでバッファ・アンダーフローを防止するには、2DエクステントEXT2D[1]、すなわちベースビュー・データ・ブロックL2のサイズSext2D[1]が次の条件を満たさねばならない:2DエクステントEXT2D[1]の読み出し開始からロングジャンプJLYの完了までの間に、リード・バッファからシステム・ターゲット・デコーダに送られるデータ量以上である。その条件を満たすサイズSext2D[1]は、図23に示されているように、L/Rモードでのシームレス再生に必要最小限のサイズSmin1よりも一般に大きい。従って、L/Rモードの再生装置102内に確保されるべきリード・バッファの容量はL/Rモードでのシームレス再生に必要最小限の値よりも大きくなければならない。更に、ライトビュー・データ・ブロックR2はベースビュー・データ・ブロックL2とエクステントATC時間が等しくなければならない。従って、ライトビュー・データ・ブロックR2のサイズSext2[1]はL/Rモードでのシームレス再生に必要最小限の値Smin2よりも一般に大きい。それ故、L/Rモードの再生装置102内に確保されるべきリード・バッファの容量はL/Rモードでのシームレス再生に必要最小限の値よりも更に大きくなければならない。以上の結果、図23に示されている配置では、L/Rモードの再生装置102内に確保されるべきリード・バッファの容量の更なる削減が困難である。
 それに対し、図22に示されている配置1では上記のとおり、ロングジャンプJLYの前後で2D再生モードでの再生経路2201とL/Rモードでの再生経路2202とが分離されている。従って、図23に示されている配置とは異なり、層境界LBの直前に位置する2DエクステントEXT2D[1]のサイズSext2D[1]とその直前のライトビュー・データ・ブロックR2のサイズSext2[1]とが、以下のように別々に決定可能である。
 まず、2DエクステントEXT2D[1]のサイズSext2D[1]はベースビュー・データ・ブロックL2のサイズSext1[1]と2D再生専用ブロックL32DのサイズS2Dとの和Sext1[1]+S2Dに等しい。従って、2D再生モードでのシームレス再生の実現には、その和Sext1[1]+S2Dが、2DエクステントEXT2D[1]の読み出し開始からロングジャンプJLYの完了までの間にリード・バッファからシステム・ターゲット・デコーダに送られるデータ量以上であればよい。一方、層境界LBの直前に位置する3DエクステントEXTSS[1]に属するライトビュー・データ・ブロックR2とベースビュー・データ・ブロックL2との各サイズSext2[1]、Sext1[1]は、ロングジャンプJLYの直前までバッファ余裕量が維持できる程度の値であればよい。ここで、2DエクステントEXT2D[1]のうち、3DエクステントEXTSS[1]と共有されるのは、前側に位置するベースビュー・データ・ブロックL2だけである。従って、2D再生専用ブロックL32DのサイズS2Dを適切に拡大することにより、2DエクステントEXT2D[1]のサイズSext2D[1]=Sext1[1]+S2Dを一定に維持したまま、ベースビュー・データ・ブロックL2のサイズSext1[1]を更に小さく制限することができる。それに伴い、ライトビュー・データ・ブロックR2のサイズSext2[1]も更に小さく制限することができる。
 ここで、3D再生専用ブロックL3SSは2D再生専用ブロックL32Dの複製データであるので、2D再生専用ブロックL32DのサイズS2Dの拡大は、3D再生専用ブロックL3SSの直前に位置するライトビュー・データ・ブロックR3のサイズを拡大させる。しかし、そのサイズは、図23に示されている層境界LBの直前に位置するライトビュー・データ・ブロックR3のサイズよりは十分に小さくできる。こうして、L/Rモードの再生装置102内に確保されるべきリード・バッファの容量を、L/Rモードでのシームレス再生に必要最小限の値に更に接近させることができる。
 このように、配置1では各データ・ブロックを、ロングジャンプ中での映像のシームレス再生が2D再生モードとL/Rモードとの両方で実現可能であるようなサイズに設計することが、再生装置102内に確保されるべきリード・バッファの容量を必要最小限に抑えたままで可能である。更に、2D再生モードとL/Rモードとで読み込み対象のデータ・ブロックを変更すること、特に2D再生専用ブロックL32Dと3D再生専用ブロックL3SSとの間の切り換えが、再生対象のAVストリーム・ファイルをファイル2DとファイルSSとの間で切り換えるだけで容易に実現可能である。
   [配置2]
 図24は、BD-ROMディスク101の層境界の前後に記録されたデータ・ブロック群の物理的な配置の第2例を示す模式図である。これらのデータ・ブロック群は、図6に示されているメインTS、第1サブTS、及び第2サブTSに属する。以下、この配置を「配置2」という。図24を図21と比較するに、配置2は配置1とは、第2の3Dエクステント・ブロック2402の先端に二個の3D再生専用ブロックL3SS、L4SSが設けられている点で異なる。その他の特徴については配置2は配置1と同様であるので、その詳細についての説明は配置1についての説明を援用する。
 層境界LBの直前に位置する2D再生専用ブロック(L3+L4)2Dは第2の3Dエクステント・ブロック2402内の3D再生専用ブロックの対L3SS、L4SSとビット単位で一致する。すなわち、2D再生専用ブロック(L3+L4)2Dと3D再生専用ブロックの対L3SS、L4SSとの一方は他方の複製データである。
 図24に示されている各データ・ブロックは、3D再生専用ブロックL3SS、L4SSを除いて、ファイル2D又はファイルDEPのいずれかのエクステントとしてアクセス可能である。例えば、ファイル2D541のファイル・エントリ2410では、アロケーション記述子#1が、第1の3Dエクステント・ブロック2401内の最後から二番目のベースビュー・データ・ブロックL1のサイズとその先端のLBNとを示す。従って、そのベースビュー・データ・ブロックL1はファイル2D541の一つの2DエクステントEXT2D[0]としてアクセス可能である。アロケーション記述子#2が、第1の3Dエクステント・ブロック2401内の最後のベースビュー・データ・ブロックL2とその直後の2D再生専用ブロック(L3+L4)2Dとの対L2+(L3+L4)2Dを単一のエクステントと見なしてそのサイズとその先端のLBNとを示す。従って、そのベースビュー・データ・ブロックの対L2+(L3+L4)2Dはファイル2D541の一つの2DエクステントEXT2D[1]としてアクセス可能である。更に、アロケーション記述子#3が、第2の3Dエクステント・ブロック2402内の三番目のベースビュー・データ・ブロックL5のサイズとその先端のLBNとを示す。従って、そのベースビュー・データ・ブロックL5は別の一つの2DエクステントEXT2D[2]としてアクセス可能である。
 第1ファイルSS544Aのファイル・エントリ2420では、アロケーション記述子#1、#2、#3、#4、#5が、隣接するライトビュー・データ・ブロックとベースビュー・データ・ブロックとの対R1+L1、R2+L2、R3+L3SS、R4+L4SS、R5+L5をそれぞれ一つのエクステントと見なして、各サイズとその先端のLBNとを示す。従って、隣接するデータ・ブロックの各対R1+L1、…、R5+L5は第1ファイルSS544Aの3DエクステントEXTSS[0]、EXTSS[1]、EXTSS[2]、EXTSS[3]、EXTSS[4]としてアクセス可能である。2D再生専用ブロック(L3+L4)2Dはファイル2D541のエクステントEXT2D[1]の一部としてのみアクセス可能であり、各3D再生専用ブロックL3SS、L4SSは3DエクステントEXTSS[2]、EXTSS[3]の一部としてのみアクセス可能である。
 図25は、図24に示されているデータ・ブロック群に対する2D再生モードでの再生経路2501とL/Rモードでの再生経路2502とを示す模式図である。尚、デプス・モードでの再生経路は、図16に示されているものから、当業者には容易に類推可能であろう。
 再生装置102は2D再生モードではファイル2D541を再生する。従って、2D再生モードでの再生経路2501が示すとおり、まず第1の3Dエクステント・ブロック2401内の最後から二番目のベースビュー・データ・ブロックL1が最初の2DエクステントEXT2D[0]として読み出され、その直後のデプスマップ・データ・ブロックD2とライトビュー・データ・ブロックR2との読み出しが最初のジャンプJ2D1によってスキップされる。次に、第1の3Dエクステント・ブロック2401内の最後のベースビュー・データ・ブロックL2とその直後の2D再生専用ブロック(L3+L4)2Dとの対L2+(L3+L4)2Dが二番目の2DエクステントEXT2D[1]として連続して読み出される。その直後の層境界LBではロングジャンプJLYが生じ、フォーカス・ジャンプの実行と共に、第2の3Dエクステント・ブロック2402の先端に位置する8個のデータ・ブロックD3、R3、L3SS、D4、R4、L4SS、D5、R5の読み出しがスキップされる。続いて、第2の3Dエクステント・ブロック2402内の三番目のベースビュー・データ・ブロックL5が三番目の2DエクステントEXT2D[2]として読み出される。
 再生装置102はL/Rモードでは第1ファイルSS544Aを再生する。従って、L/Rモードでの再生経路2502が示すとおり、まず先頭のライトビュー・データ・ブロックR1とその直後のベースビュー・データ・ブロックL1との対R1+L1が最初の3DエクステントEXTSS[0]として連続して読み出され、その直後のデプスマップ・データ・ブロックD2の読み出しが最初のジャンプJLR1によってスキップされる。次に、二番目のライトビュー・データ・ブロックR2とその直後のベースビュー・データ・ブロックL2とが二番目の3DエクステントEXTSS[1]として連続して読み出される。その直後にロングジャンプJLYが生じ、フォーカス・ジャンプの実行と共に、2D再生専用ブロック(L3+L4)2Dと第2の3Dエクステント・ブロック2402内の先頭のデプスマップ・データ・ブロックD3との読み出しがスキップされる。続いて、第2の3Dエクステント・ブロック2402内の先頭のライトビュー・データ・ブロックR3とその直後の3D再生専用ブロックL3SSとが三番目の3DエクステントEXTSS[2]として連続して読み出され、その直後のデプスマップ・データ・ブロックD4の読み出しが二番目のジャンプJLR2によってスキップされる。同様に、次のライトビュー・データ・ブロックR4とその直後の3D再生専用ブロックL4SSとが四番目の3DエクステントEXTSS[3]として連続して読み出され、その直後のデプスマップ・データ・ブロックD5の読み出しが三番目のジャンプJLR3によってスキップされる。更に次のライトビュー・データ・ブロックR5とその直後のベースビュー・データ・ブロックL5とが五番目の3DエクステントEXTSS[4]として連続して読み出される。
 図25に示されているとおり、2D再生モードでは、2D再生専用ブロック(L3+L4)2Dは読み出されるが、3D再生専用ブロックL3SS、L4SSの読み出しはスキップされる。逆にL/Rモードでは、2D再生専用ブロック(L3+L4)2Dの読み出しはスキップされるが、3D再生専用ブロックL3SS、L4SSは読み出される。しかし、2D再生専用ブロック(L3+L4)2Dと3D再生専用ブロックの対L3SS、L4SSとはビット単位で一致しているので、いずれの再生モードでも、再生されるレフトビュー・ビデオ・フレームは等しい。このように、配置2ではロングジャンプJLYの前後で2D再生モードでの再生経路2501とL/Rモードでの再生経路2502とが分離されている。従って、層境界LBの直前に位置する2DエクステントEXT2D[1]のサイズSext2D[1]とその直前のライトビュー・データ・ブロックR2のサイズSext2[1]とが、以下のように別々に決定可能である。尚、デプス・モードについても同様である。
 まず、2DエクステントEXT2D[1]のサイズSext2D[1]はベースビュー・データ・ブロックL2のサイズSext1[1]と2D再生専用ブロック(L3+L4)2DのサイズS2Dとの和Sext1[1]+S2Dに等しい。従って、2D再生モードでのシームレス再生の実現には、その和Sext1[1]+S2Dが、2DエクステントEXT2D[1]の読み出し開始からロングジャンプJLYの完了までの間にリード・バッファからシステム・ターゲット・デコーダに送られるデータ量以上であればよい。一方、層境界LBの直前に位置する3DエクステントEXTSS[1]に属するライトビュー・データ・ブロックR2とベースビュー・データ・ブロックL2との各サイズSext2[1]、Sext1[1]は、ロングジャンプJLYの直前までバッファ余裕量が維持できる程度の値であればよい。ここで、2D再生専用ブロック(L3+L4)2DのサイズS2Dの適切な拡大により、2DエクステントEXT2D[1]のサイズSext2D[1]=Sext1[1]+S2Dを一定に維持したまま、ベースビュー・データ・ブロックL2のサイズSext1[1]を更に小さく制限することができる。それに伴い、ライトビュー・データ・ブロックR2のサイズSext2[1]も更に小さく制限することができる。
 ここで、3D再生専用ブロックの対L3SS、L4SSは2D再生専用ブロック(L3+L4)2Dの複製データであるので、2D再生専用ブロック(L3+L4)2DのサイズS2Dの拡大は、各3D再生専用ブロックL3SS、L4SSの直前に位置するライトビュー・データ・ブロックR3、R4のサイズを拡大させる。しかし、一つの2D再生専用ブロック(L3+L4)2Dに対して3D再生専用ブロックは二つL3SS、L4SSに分割されているので、各サイズは、図23に示されている層境界LBの直前に位置するライトビュー・データ・ブロックR3のサイズよりは十分に小さくできる。こうして、L/Rモードの再生装置102内に確保されるべきリード・バッファの容量は、L/Rモードでのシームレス再生に必要最小限の値まで更に削減可能である。
 このように、配置2では各データ・ブロックを、ロングジャンプ中での映像のシームレス再生が2D再生モードとL/Rモードとの両方で実現可能であるようなサイズに設計することが、再生装置102のデコーダ内に確保されるべきバッファ容量を必要最小限に抑えたままで可能である。更に、2D再生モードとL/Rモードとで読み込み対象のデータ・ブロックを変更すること、特に2D再生専用ブロック(L3+L4)2Dと3D再生専用ブロックの対L3SS、L4SSとの間の切り換えが、再生対象のAVストリーム・ファイルをファイル2DとファイルSSとの間で切り換えるだけで容易に実現可能である。尚、デプス・モードでも同様である。
 配置2では、2D再生専用ブロック(L3+L4)2Dの複製データが二個の3D再生専用ブロックL3SS、L4SSとして設けられている。その他に、複製データが三個以上の3D再生専用ブロックとして設けられていてもよい。
   [配置3]
 図26は、BD-ROMディスク101の層境界の前後に記録されたデータ・ブロック群の物理的な配置の第3例を示す模式図である。これらのデータ・ブロック群は、図6に示されているメインTS、第1サブTS、及び第2サブTSに属する。以下、この配置を「配置3」という。図26を図24と比較するに、配置3は配置2とは、2D再生専用ブロック(L2+L3)2Dが単独で一つの2DエクステントEXT2D[1]としてアクセス可能である点で異なる。その他の特徴については配置3は配置2と同様であるので、その詳細についての説明は配置2についての説明を援用する。
 層境界LBの直前に位置する2D再生専用ブロック(L2+L3)2Dは第2の3Dエクステント・ブロック2602内の3D再生専用ブロックの対L2SS、L3SSとビット単位で一致する。すなわち、2D再生専用ブロック(L2+L3)2Dと3D再生専用ブロックの対L2SS、L3SSとの一方は他方の複製データである。
 図26に示されている各データ・ブロックは、3D再生専用ブロックL2SS、L3SSを除いて、ファイル2D又はファイルDEPのいずれかのエクステントとしてアクセス可能である。例えば、ファイル2D541のファイル・エントリ2610では、アロケーション記述子#1は、第1の3Dエクステント・ブロック2401内の最後のベースビュー・データ・ブロックL1のサイズとその先端のLBNとを示す。従って、そのベースビュー・データ・ブロックL1は一つの2DエクステントEXT2D[0]としてアクセス可能である。アロケーション記述子#2は2D再生専用ブロック(L2+L3)2Dを単一のエクステントと見なしてそのサイズとその先端のLBNとを示す。従って、2D再生専用ブロック(L2+L3)2Dは次の2DエクステントEXT2D[1]としてアクセス可能である。アロケーション記述子#3は、第2の3Dエクステント・ブロック2602内の三番目のベースビュー・データ・ブロックL4のサイズとその先端のLBNとを示す。従って、そのベースビュー・データ・ブロックL4は三番目の2DエクステントEXT2D[2]としてアクセス可能である。
 第1ファイルSS544Aのファイル・エントリ2620では、アロケーション記述子#1、#2、#3、#4が、隣接するライトビュー・データ・ブロックとベースビュー・データ・ブロックとの対R1+L1、R2+L2SS、R3+L3SS、R4+L4をそれぞれ一つのエクステントと見なして、各サイズとその先端のLBNとを示す。従って、隣接するデータ・ブロックの各対R1+L1、…、R4+L4は第1ファイルSS544Aの3DエクステントEXTSS[0]、EXTSS[1]、EXTSS[2]、EXTSS[3]としてアクセス可能である。2D再生専用ブロック(L2+L3)2Dはファイル2D541の一つのエクステントEXT2D[1]としてのみアクセス可能であり、各3D再生専用ブロックL2SS、L3SSは3DエクステントEXTSS[1]、EXTSS[2]の一部としてのみアクセス可能である。
 図27は、図26に示されているデータ・ブロック群に対する2D再生モードでの再生経路2701とL/Rモードでの再生経路2702とを示す模式図である。尚、デプス・モードでの再生経路は、図16に示されているものから、当業者には容易に類推可能であろう。
 再生装置102は2D再生モードではファイル2D541を再生する。従って、2D再生モードでの再生経路2701が示すとおり、まず第1の3Dエクステント・ブロック2601内の最後のベースビュー・データ・ブロックL1が最初の2DエクステントEXT2D[0]として読み出される。次に、その直後の2D再生専用ブロック(L2+L3)2Dが二番目の2DエクステントEXT2D[1]として連続して読み出される。その直後の層境界LBではロングジャンプJLYが生じ、フォーカス・ジャンプの実行と共に、第2の3Dエクステント・ブロック2602の先端に位置する8個のデータ・ブロックD2、R2、L2SS、D3、R3、L3SS、D4、R4の読み出しがスキップされる。続いて、第2の3Dエクステント・ブロック2602内の三番目のベースビュー・データ・ブロックL4が三番目の2DエクステントEXT2D[2]として読み出される。
 再生装置102はL/Rモードでは第1ファイルSS544Aを再生する。従って、L/Rモードでの再生経路2702が示すとおり、まず先頭のライトビュー・データ・ブロックR1とその直後のベースビュー・データ・ブロックL1との対R1+L1が最初の3DエクステントEXTSS[0]として連続して読み出される。その直後にロングジャンプJLYが生じ、フォーカス・ジャンプの実行と共に、2D再生専用ブロック(L2+L3)2Dと第2の3Dエクステント・ブロック2602内の先頭のデプスマップ・データ・ブロックD3との読み出しがスキップされる。次に、第2の3Dエクステント・ブロック2602内の先頭のライトビュー・データ・ブロックR2とその直後の3D再生専用ブロックL2SSとが二番目の3DエクステントEXTSS[1]として連続して読み出され、その直後のデプスマップ・データ・ブロックD3の読み出しが最初のジャンプJLR1によってスキップされる。同様に、次のライトビュー・データ・ブロックR3とその直後の3D再生専用ブロックL3SSとが三番目の3DエクステントEXTSS[2]として連続して読み出され、その直後のデプスマップ・データ・ブロックD4の読み出しが二番目のジャンプJLR2によってスキップされる。更に次のライトビュー・データ・ブロックR4とその直後のベースビュー・データ・ブロックL4とが四番目の3DエクステントEXTSS[3]として連続して読み出される。
 図27に示されているとおり、2D再生モードでは、2D再生専用ブロック(L2+L3)2Dは読み出されるが、3D再生専用ブロックL2SS、L3SSの読み出しはスキップされる。逆にL/Rモードでは、2D再生専用ブロック(L2+L3)2Dの読み出しはスキップされるが、3D再生専用ブロックL2SS、L3SSは読み出される。しかし、2D再生専用ブロック(L2+L3)2Dと3D再生専用ブロックの対L2SS、L3SSとはビット単位で一致しているので、いずれの再生モードでも、再生されるレフトビュー・ビデオ・フレームは等しい。このように、配置3ではロングジャンプJLYの前後で2D再生モードでの再生経路2701とL/Rモードでの再生経路2702とが分離されている。従って、層境界LBの直前に位置する2DエクステントEXT2D[1]のサイズSext2D[1]とその直前のライトビュー・データ・ブロックR2のサイズSext2[1]とが、以下のように別々に決定可能である。尚、デプス・モードについても同様である。
 まず、層境界LBの直前で連続する二つの2DエクステントEXT2D[0]、EXT2D[1]のサイズの和Sext2D[0]+Sext2D[1]はベースビュー・データ・ブロックL1のサイズSext2D[0]と2D再生専用ブロック(L2+L3)2DのサイズS2Dとの和Sext1[1]+S2Dに等しい。従って、2D再生モードでのシームレス再生の実現には、その和Sext1[1]+S2Dが、2DエクステントEXT2D[1]の読み出し開始からロングジャンプJLYの完了までの間にリード・バッファからシステム・ターゲット・デコーダに送られるデータ量以上であればよい。一方、層境界LBの直前に位置する3DエクステントEXTSS[0]に属するライトビュー・データ・ブロックR1のサイズSext2[0]とベースビュー・データ・ブロックL1との各サイズSext2[0]、Sext2D[0]は、ロングジャンプJLYの直前までバッファ余裕量が維持できる程度の値であればよい。ここで、2D再生専用ブロック(L2+L3)2DのサイズS2Dの適切な拡大により、2Dエクステントの対EXT2D[0]、EXT2D[1]のサイズの和Sext2D[0]+Sext2D[1]を一定に維持したまま、ベースビュー・データ・ブロックL1のサイズSext2D[0]を更に小さく制限することができる。それに伴い、ライトビュー・データ・ブロックR1のサイズSext2[0]も更に小さく制限することができる。
 ここで、3D再生専用ブロックの対L2SS、L3SSは2D再生専用ブロック(L2+L3)2Dの複製データであるので、2D再生専用ブロック(L2+L3)2DのサイズS2Dの拡大は、各3D再生専用ブロックL2SS、L3SSの直前に位置するライトビュー・データ・ブロックR2、R3のサイズを拡大させる。しかし、一つの2D再生専用ブロック(L2+L3)2Dに対して3D再生専用ブロックは二つL2SS、L3SSに分割されているので、各サイズは、図23に示されている層境界LBの直前に位置するライトビュー・データ・ブロックR3のサイズよりは十分に小さくできる。こうして、L/Rモードの再生装置102内に確保されるべきリード・バッファの容量は、L/Rモードでのシームレス再生に必要最小限の値まで更に削減可能である。
 このように、配置3では各データ・ブロックを、ロングジャンプ中での映像のシームレス再生が2D再生モードとL/Rモードとの両方で実現可能であるようなサイズに設計することが、再生装置102内に確保されるべきリード・バッファの容量を必要最小限に抑えたままで可能である。更に、2D再生モードとL/Rモードとで読み込み対象のデータ・ブロックを変更すること、特に2D再生専用ブロック(L2+L3)2Dと3D再生専用ブロックの対L2SS、L3SSとの間の切り換えが、再生対象のAVストリーム・ファイルをファイル2DとファイルSSとの間で切り換えるだけで容易に実現可能である。尚、デプス・モードでも同様である。
 配置3では、2D再生専用ブロック(L2+L3)2Dの複製データが二個の3D再生専用ブロックL2SS、L3SSとして設けられている。その他に、複製データが図1のように一個の3D再生専用ブロックとして設けられてもよく、又は三個以上の3D再生専用ブロックとして設けられていてもよい。
 尚、配置1-3とは異なり、2D再生専用ブロックはファイル2Dの二個以上のエクステントとしてアクセス可能であってもよい。更に、各データ・ブロックは二種類以上のファイル2D又はファイルSSのエクステントとしてアクセス可能であってもよい。
  ≪L/Rモードのみに対応する多重化ストリーム・データの配置≫
 3D映像の再生にL/Rモードのみが利用されるとき、上記の配置1-3からデプスマップ・データ・ブロックが除去されてもよい。図28の(a)は、図21に示されている配置1からデプスマップ・データ・ブロックを除去したものを示す模式図である。これらのデータ・ブロック群は、図6に示されているメインTSと第1サブTSとに属する。図28の(a)を参照するに、層境界LBの前に位置する第1の3Dエクステント・ブロック2801では、ライトビュー・データ・ブロック群…、R1、R2、及びベースビュー・データ・ブロック群…、L1、L2がインターリーブ配置で記録されている。一方、層境界LBの後に位置する第2の3Dエクステント・ブロック2802では、ライトビュー・データ・ブロック群R3、R4、…、及びベースビュー・データ・ブロック群L3SS、L4、…がインターリーブ配置で記録されている。更に、第1の3Dエクステント・ブロック2801の後端L2と層境界LBとの間に2D再生専用ブロックL32Dが配置され、第2の3Dエクステント・ブロック2802の先端には3D再生専用ブロックL3SSが配置されている。それらのデータ・ブロックL32D、L3SSの一方は他方の複製データであり、ビット単位で一致する。
 各3Dエクステント・ブロック2801、2802のインターリーブ配置では、ライトビュー・データ・ブロックとベースビュー・データ・ブロックとがその順で交互に並ぶ。更に、二つの連続するデータ・ブロックRn、Ln(n=…、1、2、3、4、…)間ではエクステントATC時間が等しい。第1の3Dエクステント・ブロック2801の後端に位置する二つのデータ・ブロックR2、L2と、第2の3Dエクステント・ブロック2802の先端に位置する二つのデータ・ブロックR3、L3SSとの間では、各ストリーム・データの内容が連続している。
 図28の(a)に示されている各データ・ブロックは、3D再生専用ブロックL3SSを除いて、ファイル2D又はファイルDEPのいずれかのエクステントとしてアクセス可能である。例えば、ファイル2Dのファイル・エントリ2810では、アロケーション記述子#1は、第1の3Dエクステント・ブロック2801内の最後から二番目のベースビュー・データ・ブロックL1のサイズとその先端のLBNとを示す。従って、そのベースビュー・データ・ブロックL1は一つの2DエクステントEXT2D[0]としてアクセス可能である。アロケーション記述子#2は、そのベースビュー・データ・ブロックの対L2+L32Dを単一のエクステントと見なしてそのサイズとその先端のLBNとを示す。従って、そのベースビュー・データ・ブロックの対L2+L32Dは二番目の2DエクステントEXT2D[1]としてアクセス可能である。アロケーション記述子#3は、第2の3Dエクステント・ブロック2802内の二番目のベースビュー・データ・ブロックL4のサイズとその先端のLBNとを示す。従って、そのベースビュー・データ・ブロックL4は三番目の2DエクステントEXT2D[2]としてアクセス可能である。
 図28の(a)に示されているデータ・ブロック群に対しても、AVストリーム・ファイルのクロスリンクは図16のものと同様に実現される。特に、各3Dエクステント・ブロック2801、2802からはデプスマップ・データ・ブロックが除去されているので、エクステントATC時間の等しいライトビュー・データ・ブロックとベースビュー・データ・ブロックとの対が二つ以上、連続して配置されてもよい。その場合、それら二つ以上の対が一つの3Dエクステントとしてアクセスされてもよい。図28の(a)を参照するに、ファイルSSのファイル・エントリ2820では、アロケーション記述子#1は、第1の3Dエクステント・ブロック2801のうち、四つの連続するライトビュー・データ・ブロックとベースビュー・データ・ブロックR1、L1、R2、L2を一つのエクステントと見なして、それらの全体のサイズと先端のLBNとを示す。従って、それらのデータ・ブロックR1、L1、R2、L2、は一つの3DエクステントEXTSS[0]としてアクセス可能である。アロケーション記述子#2は、第2の3Dエクステント・ブロック2802のうち、四つの連続するライトビュー・データ・ブロックとベースビュー・データ・ブロックR3、L3SS、R4、L4を一つのエクステントと見なして、それらの全体のサイズと先端のLBNとを示す。従って、それらのデータ・ブロックR3、L3SS、R4、L4は次の3DエクステントEXTSS[1]としてアクセス可能である。ここで、3DエクステントEXTSS[0]、EXTSS[1]はそれぞれ、ベースビュー・データ・ブロックL1、L2、L4を2DエクステントEXT2D[0]、EXT2D[1]、EXT2D[2]と共有する。一方、2D再生専用ブロックL32Dは、層境界LBの直前に位置する2DエクステントEXT2D[1]の一部としてのみアクセス可能である。更に、3D再生専用ブロックL3SSは、層境界LBの直後の3DエクステントEXTSS[1]の一部としてのみアクセス可能である。
 図28の(b)は、図28の(a)に示されているデータ・ブロック群に対する2D再生モードでの再生経路2803とL/Rモードでの再生経路2804とを示す模式図である。
 再生装置102は2D再生モードではファイル2Dを再生する。従って、2D再生モードでの再生経路2803が示すとおり、まず第1の3Dエクステント・ブロック2801内の最後から二番目のベースビュー・データ・ブロックL1が最初の2DエクステントEXT2D[0]として読み出され、その直後のライトビュー・データ・ブロックR2の読み出しが最初のジャンプJ2D1によってスキップされる。次に、第1の3Dエクステント・ブロック2801内の最後のベースビュー・データ・ブロックL2とその直後の2D再生専用ブロックL32Dとの対L2+L32Dが二番目の2DエクステントEXT2D[1]として連続して読み出される。その直後の層境界LBではロングジャンプJLYが生じ、フォーカス・ジャンプの実行と共に、第2の3Dエクステント・ブロック2802の先端に位置する3個のデータ・ブロックR3、L3SS、R4の読み出しがスキップされる。続いて、第2の3Dエクステント・ブロック2802内の二番目のベースビュー・データ・ブロックL4が三番目の2DエクステントEXT2D[2]として読み出される。
 再生装置102はL/RモードではファイルSSを再生する。従って、L/Rモードでの再生経路2804が示すとおり、まず第1の3Dエクステント・ブロック2801内のデータ・ブロック群R1、L1、R2、L2が最初の3DエクステントEXTSS[0]として連続して読み出される。その直後にロングジャンプJLYが生じ、フォーカス・ジャンプの実行と共に、2D再生専用ブロックL32Dの読み出しがスキップされる。続いて、第2の3Dエクステント・ブロック2802内のデータ・ブロック群R3、L3SS、R4、L4とが次の3DエクステントEXTSS[1]として連続して読み出される。
 図28の(b)に示されているとおり、2D再生モードでは、2D再生専用ブロックL32Dは読み出されるが、3D再生専用ブロックL3SSの読み出しはスキップされる。逆に、L/Rモードでは、2D再生専用ブロックL32Dの読み出しはスキップされるが、3D再生専用ブロックL3SSは読み出される。しかし、両方のデータ・ブロックL32D、L3SSはビット単位で一致しているので、いずれの再生モードでも、再生されるレフトビュー・ビデオ・フレームは等しい。このように、配置1では、L/Rモードのみに対応可能な場合でも、ロングジャンプJLYの前後で2D再生モードでの再生経路2801とL/Rモードでの再生経路2802とが分離されている。従って、2D再生専用ブロックL32DのサイズS2Dを適切に拡大することにより、2DエクステントEXT2D[1]のサイズSext2D[1]=Sext1[1]+S2Dを一定に維持したまま、ベースビュー・データ・ブロックL2のサイズSext1[1]を更に小さく制限することができる。それに伴い、ライトビュー・データ・ブロックR2のサイズSext2[1]も更に小さく制限することができる。その結果、L/Rモードの再生装置102内に確保されるべきリード・バッファの容量をL/Rモードでのシームレス再生に必要最小限の値に更に接近させることができる。他の配置2、3についても同様である。
 このように、配置1-3がL/Rモードのみ対応可能なものであっても、各データ・ブロックを、ロングジャンプ中での映像のシームレス再生が2D再生モードとL/Rモードとの両方で実現可能であるようなサイズに設計することが、再生装置102内に確保されるべきリード・バッファの容量を必要最小限に抑えたままで可能である。更に、2D再生モードとL/Rモードとで読み込み対象のデータ・ブロックを変更すること、特に2D再生専用ブロックL32Dと3D再生専用ブロックL3SSとの間の切り換えが、再生対象のAVストリーム・ファイルをファイル2DとファイルSSとの間で切り換えるだけで容易に実現可能である。
  ≪AVストリーム・ファイルに含まれるその他のTSパケット≫
 AVストリーム・ファイルに含まれるTSパケットの種類には、図6、7に示されているエレメンタリ・ストリームから変換されたもの以外にも、PAT(Program Association Table)、PMT(Program Map Table)、及びPCR(Program Clock Reference)がある。PCR、PMT、及びPATは欧州デジタル放送規格で定められたものであり、本来は、一つの番組を構成するパーシャル・トランスポート・ストリームを規定する役割を持つ。PCR、PMT、及びPATを利用することで、AVストリーム・ファイルも、そのパーシャル・トランスポート・ストリームと同様に規定される。具体的には、PATは、同じAVストリーム・ファイルに含まれるPMTのPIDを示す。PAT自身のPIDは0である。PMTは、同じAVストリーム・ファイルに含まれる、映像・音声・字幕等を表す各エレメンタリ・ストリームのPIDとその属性情報とを含む。PMTは更に、そのAVストリーム・ファイルに関する各種のディスクリプタ(記述子ともいう。)を含む。ディスクリプタには特に、そのAVストリーム・ファイルのコピーの許可/禁止を示すコピー・コントロール情報が含まれる。PCRは、自身に割り当てられたATSに対応させるべきSTC(System Time Clock)の値を示す情報を含む。ここで、STCは、デコーダ内でPTS及びDTSの基準として利用されるクロックである。デコーダはPCRを利用して、ATCにSTCを同期させる。
 図29は、PMT2910のデータ構造を示す模式図である。PMT2910は、PMTヘッダ2901、ディスクリプタ2902、及びストリーム情報2903を含む。PMTヘッダ2901は、PMT2910に含まれるデータの長さ等を示す。各ディスクリプタ2902は、PMT2910を含むAVストリーム・ファイルの全体に関するディスクリプタである。前述のコピー・コントロール情報はディスクリプタ2902の一つに含まれる。ストリーム情報2903は、AVストリーム・ファイルに含まれる各エレメンタリ・ストリームに関する情報であり、一つずつ異なるエレメンタリ・ストリームに割り当てられている。各ストリーム情報2903は、ストリーム・タイプ2931、PID2932、及びストリーム・ディスクリプタ2933を含む。ストリーム・タイプ2931は、そのエレメンタリ・ストリームの圧縮に利用されたコーデックの識別情報等を含む。PID2932は、そのエレメンタリ・ストリームのPIDを示す。ストリーム・ディスクリプタ2933は、そのエレメンタリ・ストリームの属性情報、例えばフレームレート及びアスペクト比を含む。
 PCR、PMT、及びPATを利用することで、再生装置内のデコーダにAVストリーム・ファイルを、欧州デジタル放送規格に準拠のパーシャル・トランスポート・ストリームと同様に処理させることができる。それにより、BD-ROMディスク101用の再生装置と欧州デジタル放送規格に準拠の端末装置との間の互換性を確保することができる。
  ≪クリップ情報ファイル≫
 図30は、第1クリップ情報ファイル(01000.clpi)、すなわち2Dクリップ情報ファイル531のデータ構造を示す模式図である。ディペンデントビュー・クリップ情報ファイル(02000.clpi、03000.clpi)532、533も同様なデータ構造を持つ。以下では、まず、クリップ情報ファイル全般に共通するデータ構造を2Dクリップ情報ファイル531のデータ構造を例に説明する。その後、2Dクリップ情報ファイルとディペンデントビュー・クリップ情報ファイルとのデータ構造上の相違点について説明する。
 図30を参照するに、2Dクリップ情報ファイル531は、クリップ情報3010、ストリーム属性情報3020、エントリ・マップ3030、及び3Dメタデータ3040を含む。3Dメタデータ3040はオフセット・テーブル3041とエクステント起点3042とを含む。
 クリップ情報3010は、図30に示されているように、システムレート3011、再生開始時刻3012、及び再生終了時刻3013を含む。システムレート3011は、ファイル2D(01000.m2ts)541に属する“TSパケット”が再生装置102内でリード・バッファからシステム・ターゲット・デコーダへ転送される速度の最高値を示す。ファイル2D541では、TSパケットの転送速度がシステムレート以下に抑えられるように、ソースパケットのATSの間隔が設定されている。再生開始時刻3012は、ファイル2D541の先頭のVAUのPTS、例えば先頭の映像フレームのPTSを示す。再生終了時刻3012は、ファイル2D541の後端のVAUのPTSから所定量遅れたSTCの値、例えば最後の映像フレームのPTSに1フレーム当たりの再生時間を加えた値を示す。
 ストリーム属性情報3020は、図30に示されているように、ファイル2D541に含まれる各エレメンタリ・ストリームのPID3021とその属性情報3022との間の対応表である。属性情報3022は、ビデオ・ストリーム、オーディオ・ストリーム、PGストリーム、及びIGストリームのそれぞれで異なる。例えばプライマリ・ビデオ・ストリームのPID0x1011に対応付けられた属性情報は、そのビデオ・ストリームの圧縮に利用されたコーデックの種類、そのビデオ・ストリームを構成する各ピクチャの解像度、アスペクト比、及びフレームレートを含む。一方、プライマリ・オーディオ・ストリームのPID0x1101に対応付けられた属性情報は、そのオーディオ・ストリームの圧縮に利用されたコーデックの種類、そのオーディオ・ストリームに含まれるチャンネル数、言語、及びサンプリング周波数を含む。属性情報3022は再生装置102により、デコーダの初期化に利用される。
   [エントリ・マップ]
 図31の(a)は、エントリ・マップ3030のデータ構造を示す模式図である。図31の(a)を参照するに、エントリ・マップ3030はテーブル3100を含む。テーブル3100は、メインTSに多重化されたビデオ・ストリームと同数であり、各ビデオ・ストリームに一つずつ割り当てられている。図31の(a)では各テーブル3100が割り当て先のビデオ・ストリームのPIDで区別されている。各テーブル3100はエントリ・マップ・ヘッダ3101とエントリ・ポイント3102とを含む。エントリ・マップ・ヘッダ3101は、そのテーブル3100に対応付けられたPIDと、そのテーブル3100に含まれるエントリ・ポイント3102の総数とを含む。エントリ・ポイント3102は、PTS3103とソースパケット番号(SPN)3104との対を個別に異なるエントリ・ポイントID(EP_ID)3105に対応付ける。PTS3103は、エントリ・マップ・ヘッダ3101の示すPIDのビデオ・ストリームに含まれるいずれかのIピクチャのPTSに等しい。SPN3104は、そのIピクチャが格納されたソースパケット群の先頭のSPNに等しい。「SPN」とは、一つのAVストリーム・ファイルに属するソースパケット群に、先頭から順に割り当てられた通し番号をいう。SPNはそのAVストリーム・ファイル内での各ソースパケットのアドレスとして利用される。2Dクリップ情報ファイル531内のエントリ・マップ3030では、SPNは、ファイル2D541に属するソースパケット群、すなわちメインTSを構成するソースパケット群に割り当てられた番号を意味する。従って、エントリ・ポイント3102は、ファイル2D541に含まれるIピクチャのPTSとアドレス、すなわちSPNとの間の対応関係を表す。
 エントリ・ポイント3102は、ファイル2D541内の全てのIピクチャに対して設定されていなくてもよい。但し、IピクチャがGOPの先頭に位置し、かつ、そのIピクチャの先頭を含むTSパケットが2Dエクステントの先頭に位置するときは、そのIピクチャにはエントリ・ポイント3102を設定しなければならない。
 図31の(b)は、ファイル2D541に属するソースパケット群3110のうち、エントリ・マップ3030によって各EP_ID3105に対応付けられているものを示す模式図である。図31の(c)は、そのソースパケット群3110とBD-ROMディスク101上のデータ・ブロック群3120との間の対応関係を示す模式図である。再生装置102はファイル2D541から2D映像を再生するとき、エントリ・マップ3030を利用して、任意のシーンを表すフレームのPTSから、そのフレームを含むソースパケットのSPNを特定する。具体的には、再生装置102は、再生開始位置として特定のエントリ・ポイントのPTS、例えばPTS=360000が指定されたとき、まずエントリ・マップ3030から、そのPTSに対応付けられたSPN=3200を検索する。再生装置102は次に、そのSPNとソースパケット一つ当たりのデータ量192バイトとの積をセクタ一つ当たりのデータ量2048バイトで割ったときの商SPN/192×2048を求める。図8の(b)、(c)から理解されるとおり、その値は、メインTSのうち、そのSPNが割り当てられたソースパケットを含むアラインド・ユニットよりも前の部分が記録されたセクタの総数に等しい。図31の(b)に示されている例では、その値3200×192/2048=300は、SPNが0から3199までのソースパケット群3111が記録されたセクタの総数に等しい。再生装置102は続いてファイル2D541のファイル・エントリ内のアロケーション記述子を参照し、2Dエクステント群が記録されたセクタ群の先頭から数えて(上記の総数+1)番目のセクタのLBNを特定する。図31の(c)に示されている例では、2DエクステントEXT2D[0]、EXT2D[1]、EXT2D[2]、…としてアクセス可能なベースビュー・データ・ブロックL1、L2+L32D、L4、…が記録されたセクタ群のうち、先頭から数えて301番目のセクタのLBNが特定される。再生装置102はそのLBNをBD-ROMドライブ121に指定する。それにより、そのLBNのセクタから順にベースビュー・データ・ブロック群がアラインド・ユニット単位で読み出される。再生装置102は更に、最初に読み出されたアラインド・ユニットから、再生開始位置のエントリ・ポイントの示すソースパケットを選択してIピクチャに復号する。それ以降、後続のピクチャは、先に復号されたピクチャを利用して順次復号される。こうして、再生装置102はファイル2D541から特定のPTS以降の2D映像を再生できる。
 エントリ・マップ3030は更に、早送り再生及び巻戻し再生等の特殊再生の効率的な処理に有利である。例えば2D再生モードの再生装置102は、まずエントリ・マップ3030を参照して、再生開始位置、例えばPTS=360000以降のPTSを含むエントリ・ポイント、EP_ID=2、3、…からSPN=3200、4800、…を順番に読み出す。再生装置102は次にファイル2D541のファイル・エントリを利用して、各SPNに対応するセクタのLBNを特定する。再生装置102は続いて、各LBNをBD-ROMドライブ121に指定する。それにより、各LBNのセクタからアラインド・ユニットが読み出される。再生装置102は更に各アラインド・ユニットから、各エントリ・ポイントの示すソースパケットを選択してIピクチャに復号する。こうして、再生装置102は2Dエクステント群EXT2D[n]自体を解析することなく、ファイル2D541からIピクチャを選択的に再生できる。
   [オフセット・テーブル]
 図32の(a)はオフセット・テーブル3041のデータ構造を示す模式図である。オフセット・テーブル3041は、3D再生モードの再生装置102によるクロッピング処理に利用される情報である。「クロッピング処理」とは、2D映像を表すデータから、レフトビューとライトビューとを表すプレーン・データの対を生成する処理をいう。「プレーン・データ」とは画素データの二次元配列を意味し、その配列のサイズは映像フレームの解像度に等しい。一組の画素データは色座標値とα値(不透明度)との組み合わせから成る。色座標値はRGB値又はYCrCb値で表される。クロッピング処理の対象には、メインTS内のPGストリーム、IGストリーム、及びセカンダリ・ビデオ・ストリームのそれぞれから生成されるプレーン・データ、並びに、BD-Jオブジェクトに従って生成されるイメージ・プレーン・データが含まれる。クロッピング処理はプレーン・データ内での各画素データの位置を水平方向に変化させる。従って、クロッピング処理によって得られるプレーン・データの対ではレフトビューとライトビューとの各表示位置が元の2D映像の表示位置から左右にずれている。それらの変位が視聴者に両眼視差として知覚されることにより、レフトビューとライトビューとの対がその視聴者には一つの3D映像として見える。
 図32の(a)を参照するに、オフセット・テーブル3041は、PGストリーム、IGストリーム、及びセカンダリ・ビデオ・ストリームのPID別にテーブル3210を含む。各テーブル3210はPTS3201とオフセット値3202との対応表である。PTS3201は、PGストリーム、IGストリーム、及びセカンダリ・ビデオ・ストリームから生成される各プレーン・データの表示時刻を表す。オフセット値3202は、クロッピング処理による各画素データの水平方向の変位量を符号付きの画素数で表したものである。例えばプラス符号は右向きの変位を表し、マイナス符号はその逆である。オフセット値3202の符号は、3D映像の奥行きが画面よりも手前か奥かに依って決められている。以下、PTS3201とオフセット値3202との対3203を「オフセット・エントリ」という。
 図32の(b)は、オフセット・エントリの有効区間を表す模式図である。各オフセット・エントリの有効区間は、STCで計られる時間において、そのオフセット・エントリのPTSの示す時刻から、次のオフセット・エントリのPTSの示す時刻までの期間である。プレーン・データのPTSがあるオフセット・エントリの有効区間に属するとき、クロッピング処理では、そのプレーン・データ内の画素データの表示位置が、そのオフセット・エントリのオフセット値だけ変化する。図32の(a)に示されている例では、オフセット・エントリ#1のPTSが180000であり、オフセット・エントリ#2のPTSが270000であり、オフセット・エントリ#3のPTSが360000である。その場合、図32の(b)に示されているように、オフセット・エントリ#1のオフセット値“+5”は、180000から270000までのSTCの範囲3204で有効であり、オフセット・エントリ#2のオフセット値“+3”は、270000から360000までのSTCの範囲3205で有効である。
   [エクステント起点]
 図33の(a)は、エクステント起点3042のデータ構造を示す模式図である。図33の(a)を参照するに、「エクステント起点(Extent_Start_Point)」3042は、ベースビュー・エクステントID(EXT1_ID)3311とSPN3312とを含む。EXT1_ID3311は、第1ファイルSS(01000.ssif)544Aに属する各ベースビュー・データ・ブロックに、先頭から順に割り当てられた通し番号である。SPN3312は各EXT1_ID3311に一つずつ割り当てられ、そのEXT1_ID3311で識別されるベースビュー・データ・ブロックの先端に位置するソースパケットのSPNに等しい。ここで、そのSPNは、第1ファイルSS544Aに属するベースビュー・データ・ブロック群に含まれる各ソースパケットに、先頭から順に割り当てられた通し番号である。
 図16に示されているインターリーブ配置のデータ・ブロック群ではベースビュー・データ・ブロックはファイル2D(01000.m2ts)と第1ファイルSS544Aとに共有される。しかし、図21、24、26に示されてる配置1-3では、2D再生専用ブロックはファイル2D541にのみ属し、3D再生専用ブロックは第1ファイルSS544Aにのみ属する。従って、エクステント起点3042の示すSPN3312は、ファイル2D541に属する2Dエクステントの先端に位置するソースパケットのSPNとは一般に異なる。
 図33の(b)は、第2クリップ情報ファイル(02000.clpi)、すなわちライトビュー・クリップ情報ファイル532に含まれるエクステント起点3320のデータ構造を示す模式図である。図33の(b)を参照するに、エクステント起点3320は、ライトビュー・エクステントID(EXT2_ID)3321とSPN3322とを含む。EXT2_ID3321は、第1ファイルSS544Aに属する各ライトビュー・データ・ブロックに、先頭から順に割り当てられた通し番号である。SPN3322は各EXT2_ID3321に一つずつ割り当てられ、そのEXT2_ID3321で識別されるライトビュー・データ・ブロックの先端に位置するソースパケットのSPNに等しい。ここで、そのSPNは、第1ファイルSS544Aに属するライトビュー・データ・ブロック群に含まれる各ソースパケットに、先頭から順に割り当てられた通し番号である。
 図33の(d)は、第1ファイルDEP(02000.m2ts)542に属するライトビュー・エクステントEXT2[0]、EXT2[1]、…と、エクステント起点3320の示すSPN3322との間の対応関係を表す模式図である。図16、21、24、26のいずれに示されているデータ・ブロック群でも、ライトビュー・データ・ブロックは第1ファイルDEP542と第1ファイルSS544Aとに共有される。従って、図33の(d)に示されているように、エクステント起点3320の示す各SPN3322は、各ライトビュー・エクステントEXT2[0]、EXT2[1]、…の先端に位置するソースパケットのSPNに等しい。
 2Dクリップ情報ファイル531のエクステント起点3042とライトビュー・クリップ情報ファイル532のエクステント起点3320とは、以下に説明するように、第1ファイルSS544Aから3D映像が再生されるとき、各3Dエクステントに含まれるデータ・ブロックの境界の検出に利用される。
 図33の(e)は、第1ファイルSS544Aに属する3DエクステントEXTSS[0]、EXTSS[1]、…とBD-ROMディスク101上のデータ・ブロック群3350との間の対応関係の一例を示す模式図である。図33の(e)を参照するに、データ・ブロック群3350は、図21に示されている配置1と同様である。尚、以下の説明は、インターリーブ配置、及び他の配置2、3でも同様に成立する。データ・ブロック群3350では、隣接するライトビュー・データ・ブロックとベースビュー・データ・ブロックとの対R1+L1、R2+L2、R3+L3SS、R4+L4がそれぞれ、3DエクステントEXTSS[0]、EXTSS[1]、EXTSS[2]、EXTSS[3]としてアクセス可能である。更に、n番目の3DエクステントEXTSS[n](n=0、1、2、…)では、ベースビュー・データ・ブロックL(n+1)に含まれるソースパケットの数は、エクステント起点3042において、EXT1_ID=n+1、nのそれぞれに対応するSPN間の差A(n+1)-Anに等しい(ここで、A0=0)。一方、ライトビュー・データ・ブロックR(n+1)に含まれるソースパケットの数は、エクステント起点3320において、EXT2_ID=n+1、nのそれぞれに対応するSPN間の差B(n+1)-Bnに等しい(ここで、B0=0)。
 L/Rモードの再生装置102は第1ファイルSS544Aから3D映像を再生するとき、各クリップ情報ファイル531、532のエントリ・マップに加え、エクステント起点3042、3320を利用して、任意のシーンのライトビューを表すフレームのPTSから、そのフレームを含むライトビュー・データ・ブロックが記録されたセクタのLBNを特定する。具体的には、再生装置102はまず、例えばライトビュー・クリップ情報ファイル532のエントリ・マップから、そのPTSに対応付けられたSPNを検索する。仮に、そのSPNの示すソースパケットが第1ファイルDEP542の3番目のライトビュー・エクステントEXT2[2]、すなわちライトビュー・データ・ブロックR3に含まれる場合を想定する。再生装置102は次に、ライトビュー・クリップ情報ファイル532のエクステント起点3320の示すSPN3322の中から、目標のSPN以下で最大のもの“B2”と、それに対応するEXT2_ID“2”とを検索する。再生装置102は続いて、2Dクリップ情報ファイル531のエクステント起点3042から、そのEXT2_ID“2”と等しいEXT1_IDに対応するSPN3312の値“A2”を検索する。再生装置102は更に、検索されたSPN3024、3320の値の和B2+A2を求める。図33の(e)から理解されるように、その和B2+A2は、3Dエクステント群EXTSS[0]、EXTSS[1]、…に含まれるデータ・ブロックのうち、3番目のライトビュー・データ・ブロックR3よりも前に配置されたものに含まれるソースパケットの総数に等しい。従って、その和B2+A2とソースパケット一つ当たりのデータ量192バイトとの積をセクタ一つ当たりのデータ量2048バイトで割ったときの商(B2+A2)×192/2048は、3Dエクステント群の先頭から3番目のライトビュー・データ・ブロックR3の直前までのセクタ数に等しい。この商を利用して第1ファイルSS544Aのファイル・エントリ内のアロケーション記述子を辿れば、そのライトビュー・データ・ブロックR3の先端が記録されたセクタのLBNを特定することができる。
 再生装置102は、上記のようにLBNを特定した後、そのLBNをBD-ROMドライブ121に指定する。それにより、そのLBNのセクタ以降に記録された3Dエクステント群、すなわち3番目のライトビュー・データ・ブロックR3以降の3Dエクステント群がアラインド・ユニット単位で読み出される。
 再生装置102は更にエクステント起点3042、3320を利用して、読み出された各3Dエクステントから、ディペンデントビュー・データ・ブロックとベースビュー・データ・ブロックとを交互に抽出する。例えば、図33の(e)に示されているデータ・ブロック群3350から3Dエクステント群EXTSS[n](n=0、1、2、…)が順番に読み出されるときを想定する。再生装置102はまず、最初の3DエクステントEXTSS[0]の先頭からB1個のソースパケットを最初のディペンデントビュー・データ・ブロックR1として抽出する。再生装置102は次に、B1番目のソースパケットと、それに続く(A1-1)個のソースパケットとの計A1個のソースパケットを最初のベースビュー・データ・ブロックL1として抽出する。再生装置102は続いて、(B1+A1)番目のソースパケットと、それに続く(B2-B1-1)個のソースパケットとの計(B2-B1)個のソースパケットを二番目のディペンデントビュー・データ・ブロックR2として抽出する。再生装置102は更に、(A1+B2)番目のソースパケットと、それに続く(A2-A1-1)個のソースパケットとの計(A2-A1)個のソースパケットを二番目のベースビュー・データ・ブロックL2として抽出する。それ以降も再生装置102は同様に、読み出されるソースパケットの数から各3Dエクステント内のデータ・ブロック間の境界を検出して、ディペンデントビューとベースビューとの各データ・ブロックを交互に抽出する。抽出されたベースビュー・データ・ブロックとライトビュー・データ・ブロックとはパラレルにシステム・ターゲット・デコーダに渡されて復号される。
 こうして、L/Rモードの再生装置102は第1ファイルSS544Aから特定のPTS以降の3D映像を再生できる。その結果、再生装置102は、BD-ROMドライブ121の制御に関する上記の利点(A)、(B)を実際に享受できる。
  ≪ファイル・ベース≫
 図33の(c)は、L/Rモードの再生装置102によって第1ファイルSS544Aから抽出されたベースビュー・データ・ブロックL1、L2、…を表す模式図である。図33の(e)に示されているデータ・ブロック群3350は2D再生専用ブロックL32Dと3D再生専用ブロックL3SSとの両方を含む。しかし、図33の(c)に示されているベースビュー・データ・ブロック群は、ファイル2D541の2Dエクステント群とは異なり、2D再生専用ブロックL32Dに代えて3D再生専用ブロックL3SSを含む。従って、エクステント起点3042の示すSPN3312は、各ベースビュー・データ・ブロックの先端に位置するソースパケットのSPNに等しい。図33の(c)に示されているベースビュー・データ・ブロック群のように、エクステント起点を利用して一つのファイルSSから抽出されるベースビュー・データ・ブロック群を「ファイル・ベース」という。更に、ファイル・ベースに含まれるベースビュー・データ・ブロックを「ベースビュー・エクステント」という。各ベースビュー・エクステントは、図33の(c)に示されているように、2Dクリップ情報ファイル内のエクステント起点によって参照される。
 ベースビュー・エクステントは、2D再生専用ブロックと3D再生専用ブロックとを除き、2Dエクステントと実体、すなわちベースビュー・データ・ブロックを共有する。更に、互いに対応する2D再生専用ブロックと3D再生専用ブロックとはビット単位で一致する。従って、ファイル・ベースはファイル2Dと同じメインTSを含む。しかし、ベースビュー・エクステントは2Dエクステントとは異なり、いずれのファイルのファイル・エントリ内のアロケーション記述子によっても参照されない。上記のとおり、ベースビュー・エクステントは、クリップ情報ファイル内のエクステント起点を利用して、ファイルSS内の3Dエクステントから抽出される。このように、ファイル・ベースは、図4に示されている本来のファイルとは異なり、ファイル・エントリを含まず、かつ、ベースビュー・エクステントの参照にエクステント起点を必要とする。それらの意味で、ファイル・ベースは「仮想的なファイル」である。特にファイル・ベースはファイルシステムでは認識されず、図5に示されているディレクトリ/ファイル構造には現れない。
 BD-ROMディスク101上に記録された3D映像コンテンツは、メインTSに対するサブTSを一種類だけ含むものでもよい。図34は、そのコンテンツを含むデータ・ブロック群の配置の一例を示す模式図である。図34を参照するに、データ・ブロック群3400は、図16、21に示されているものとは異なり、ディペンデントビュー・データ・ブロックD[n](n=…、0、1、2、3、…)とベースビュー・データ・ブロックB[n]とを一種類ずつ含む。層境界LBの前にはディペンデントビュー・データ・ブロック群…、D[0]、D[1]とベースビュー・データ・ブロック群…、B[0]、B[1]とがインターリーブ配置で記録され、第1の3Dエクステント・ブロック3401を構成している。第1の3Dエクステント・ブロック3401の後端B[1]と層境界LBとの間には2D再生専用ブロックB[2]2Dが配置されている。一方、層境界LBの後にはディペンデントビュー・データ・ブロック群D[2]、D[3]、…とベースビュー・データ・ブロック群B[2]SS、B[3]、…とがインターリーブ配置で記録され、第2の3Dエクステント・ブロック3402を構成している。第2の3Dエクステント・ブロック3402内の先頭のベースビュー・データ・ブロックB[2]SSは3D再生専用ブロックであり、2D再生専用ブロックB[2]2Dとビット単位で一致する。
 図34には、データ・ブロック群3400とファイル2D3410のエクステント群との間の対応関係も示されている。第1の3Dエクステント・ブロック3401内のベースビュー・データ・ブロック…、B[0]は、最後のものB[1]を除き、単独で一つの2Dエクステント…、EXT2D[0]としてファイル2D3410に属する。第1の3Dエクステント・ブロック3401内の最後のベースビュー・データ・ブロックB[1]は、その直後の2D再生専用ブロックB[2]2Dとの対で一つの2DエクステントEXT2D[1]としてファイル2D3410に属する。第2の3Dエクステント・ブロック3402内のベースビュー・データ・ブロックB[3]、…は、3D再生専用ブロックB[2]SSを除き、2DエクステントEXT2D[2]、…としてファイル2D3410に属する。各2Dエクステントはファイル2D3410のファイル・エントリ内のアロケーション記述子を参照データとして利用することによってアクセス可能である。
 図34には、データ・ブロック群3400とファイルDEP3412のエクステント群との間の対応関係も示されている。第1の3Dエクステント・ブロック3401内の各ディペンデントビュー・データ・ブロック…、D[0]、D[1]、及び第2の3Dエクステント・ブロック3402内の各ディペンデントビュー・データ・ブロックD[2]、D[3]、…はディペンデントビュー・エクステント…、EXT2[0]、EXT2[1]、EXT2[2]、…としてファイルDEP3412に属する。各ディペンデントビュー・エクステントはファイルDEP3412のファイル・エントリ内のアロケーション記述子を参照データとして利用することによってアクセス可能である。
 図34には、データ・ブロック群3400とファイルSS3420のエクステント群との間の対応関係も示されている。データ・ブロック群3400は、図16に示されているものとは異なり、デプスマップ・データ・ブロックを含まない。従って、いずれの3Dエクステント・ブロック3401、3402内のインターリーブ配置でも、ディペンデントビュー・データ・ブロック…、D[0]、D[1]、D[2]、D[3]、…とベースビュー・データ・ブロック…、B[0]、B[1]、B[2]SS、B[3]、…とは交互に連続している。その場合、ファイルSS3420は、エクステントATC時間の等しいディペンデントビュー・データ・ブロックとベースビュー・データ・ブロックとの対が二つ以上連続する部分を一つの3Dエクステントとして含んでもよい。図34では、第1の3Dエクステント・ブロック3401内の二つの連続するディペンデントビュー・データ・ブロックとベースビュー・データ・ブロックとの対D[0]+B[0]、D[1]+B[1]が、一つの3DエクステントEXTSS[0]としてファイルSS3420に属する。更に、第2の3Dエクステント・ブロック3402内の二つの連続するディペンデントビュー・データ・ブロックとベースビュー・データ・ブロックとの対D[2]+B[2]SS、D[3]+B[3]が、一つの3DエクステントEXTSS[1]としてファイルSS3420に属する。3DエクステントEXTSS[0]、EXTSS[1]は、2DエクステントEXT2D[0]、EXT2D[1]、EXT2D[2]、EXT2D[3]とはベースビュー・データ・ブロックB[0]、B[1]、B[2]SS、B[3]を共有し、ディペンデントビュー・エクステントEXT2[0]、EXT2[1]、EXT2[2]、EXT2[3]とはディペンデントビュー・データ・ブロックD[0]、D[1]、D[2]、D[3]を共有する。各3DエクステントはファイルSS3420のファイル・エントリ内のアロケーション記述子を参照データとして利用してアクセス可能である。
 再生装置102は3DエクステントEXTSS[0]、EXTSS[1]を読み込んだ後、ファイル2D3410とファイルDEP3412とのそれぞれに対応するクリップ情報ファイル内のエクステント起点を利用して、各3DエクステントEXTSS[0]、EXTSS[1]からベースビュー・データ・ブロックB[0]、B[1]、B[2]SS、B[3]を抽出する。それらのベースビュー・データ・ブロックB[0]、B[1]、B[2]SS、B[3]はベースビュー・エクステントEXT1[0]、EXT1[1]、EXT1[2]、EXT1[3]としてファイル・ベース3411に属する。各ベースビュー・エクステントEXT1[0]、EXT1[1]、EXT1[2]、EXT1[3]は、ファイル2D3410に対応する2Dクリップ情報ファイル内のエクステント起点によって参照される。
 以下、特に区別する必要がない限り、ベースビュー・データ・ブロックは(2D再生専用ブロックを除いて)ベースビュー・エクステントと同一視し、ディペンデントビュー・データ・ブロックはディペンデントビュー・エクステントと同一視する。
  ≪ディペンデントビュー・クリップ情報ファイル≫
 ディペンデントビュー・クリップ情報ファイルは、図30-33に示されている2Dクリップ情報ファイルとデータ構造が同様である。従って、以下の説明では、ディペンデントビュー・クリップ情報ファイルと2Dクリップ情報ファイルとの間の相違点に触れ、同様な点については上記の説明を援用する。
 ディペンデントビュー・クリップ情報ファイルは2Dクリップ情報ファイルとは次の三点(i)、(ii)、(iii)で異なる:(i)ストリーム属性情報に条件が課せられている;(ii)エントリ・ポイントに条件が課せられている;(iii)3Dメタデータがオフセット・テーブルを含まない。
 (i)ベースビュー・ビデオ・ストリームとディペンデントビュー・ビデオ・ストリームとがL/Rモードの再生装置102によって3D映像の再生に利用されるべきものであるとき、図9に示されているとおり、ディペンデントビュー・ビデオ・ストリームはベースビュー・ビデオ・ストリームを利用して圧縮されている。そのとき、ディペンデントビュー・ビデオ・ストリームはベースビュー・ビデオ・ストリームとビデオ・ストリーム属性が等しく揃えられる。ここで、ベースビュー・ビデオ・ストリームに関するビデオ・ストリーム属性情報は、2Dクリップ情報ファイルのストリーム属性情報3020内でPID=0x1011に対応付けられている。ディペンデントビュー・ビデオ・ストリームに関するビデオ・ストリーム属性情報は、ディペンデントビュー・クリップ情報ファイルのストリーム属性情報内でPID=0x1012又は0x1013に対応付けられている。従って、それらのビデオ・ストリーム属性情報間では、図30に示されている各項目、すなわち、コーデック、解像度、アスペクト比、及びフレームレートが一致しなければならない。コーデックの種類が一致していれば、ベースビュー・ビデオ・ストリームとディペンデントビュー・ビデオ・ストリームとのピクチャ間に符号化での参照関係が成立するので、各ピクチャを復号することができる。解像度、アスペクト比、及びフレームレートがいずれも一致していれば、左右の映像の画面表示を同期させることができる。それ故、それらの映像を3D映像として視聴者に違和感を与えることなく見せることができる。
 (ii)ディペンデントビュー・クリップ情報ファイルのエントリ・マップは、ディペンデントビュー・ビデオ・ストリームに割り当てられたテーブルを含む。そのテーブルは、図31の(a)に示されているもの3100と同様に、エントリ・マップ・ヘッダとエントリ・ポイントとを含む。エントリ・マップ・ヘッダは、対応するディペンデントビュー・ビデオ・ストリームのPID、すなわち0x1012又は0x1013を示す。各エントリ・ポイントは一対のPTSとSPNとを一つのEP_IDに対応付けている。各エントリ・ポイントのPTSは、ディペンデントビュー・ビデオ・ストリームに含まれるいずれかのGOPの先頭のピクチャのPTSと等しい。各エントリ・ポイントのSPNは、同じエントリ・ポイントに属するPTSの示すピクチャが格納されたソースパケット群の先頭のSPNに等しい。ここで、SPNは、ファイルDEPに属するソースパケット群、すなわちサブTSを構成するソースパケット群に先頭から順に割り当てられた通し番号を意味する。各エントリ・ポイントのPTSは、2Dクリップ情報ファイルのエントリ・マップのうち、ベースビュー・ビデオ・ストリームに割り当てられたテーブル内のエントリ・ポイントのPTSと一致しなければならない。すなわち、同じ3D・VAUに含まれる一対のピクチャの一方を含むソースパケット群の先頭にエントリ・ポイントが設定されているときは、常に、他方を含むソースパケット群の先頭にもエントリ・ポイントが設定されていなければならない。
 図35は、ベースビュー・ビデオ・ストリーム3510とディペンデントビュー・ビデオ・ストリーム3520とに設定されたエントリ・ポイントの例を示す模式図である。各ビデオ・ストリーム3510、3520では、先頭から数えて同じ順番のGOPが同じ再生期間の映像を表す。図35を参照するに、ベースビュー・ビデオ・ストリーム3510では、先頭から数えて奇数番目に位置するGOP#1、GOP#3、GOP#5の各先頭にエントリ・ポイント3501B、3503B、3505Bが設定されている。それに併せて、ディペンデントビュー・ビデオ・ストリーム3520でも、先頭から数えて奇数番目に位置するGOP#1、GOP#3、GOP#5の各先頭にエントリ・ポイント3501D、3503D、3505Dが設定されている。その場合、再生装置102は、例えばGOP#3から3D映像の再生を開始するとき、対応するエントリ・ポイント3503B、3503DのSPNからファイルSS内の再生開始位置のアドレスを直ちに算定できる。特にエントリ・ポイント3503B、3503Dがいずれもデータ・ブロックの先端に設定されているとき、図33の(e)から理解されるとおり、エントリ・ポイント3503B、3503DのSPNの和が、ファイルSSの先頭から再生開始位置までの部分に含まれるソースパケットの数に等しい。図33の(e)の説明で述べたとおり、そのソースパケットの数からは、ファイルSS内の再生開始位置の部分が記録されたセクタのLBNを算定することができる。こうして、3D映像の再生においても、飛び込み再生等、ビデオ・ストリームのランダムアクセスを要する処理の応答速度を向上させることができる。
  ≪2Dプレイリスト・ファイル≫
 図36は、2Dプレイリスト・ファイルのデータ構造を示す模式図である。図5に示されている第1プレイリスト・ファイル(00001.mpls)521はこのデータ構造を持つ。図36を参照するに、2Dプレイリスト・ファイル521はメインパス3601と二つのサブパス3602、3603とを含む。
 メインパス3601はプレイアイテム情報(PI)の配列であり、ファイル2D541の主要な再生経路、すなわち再生対象の部分とその再生順とを規定する。各PIは固有のプレイアイテムID=#N(N=1、2、3、…)で識別される。各PI#Nは主要な再生経路の異なる再生区間を一対のPTSで規定する。その対の一方はその再生区間の開始時刻(In-Time)を表し、他方は終了時刻(Out-Time)を表す。更に、メインパス3601内でのPIの順序は、対応する再生区間の再生経路内での順序を表す。
 各サブパス3602、3603はサブプレイアイテム情報(SUB_PI)の配列であり、ファイル2D541の主要な再生経路に並列に付随可能な再生経路を規定する。その再生経路は、メインパス3601の表すファイル2D541の部分とは別の部分、又は別のファイル2Dに多重化されたストリーム・データの部分とその再生順とを意味する。そのストリーム・データは、メインパス3601に従ってファイル2D541から再生される2D映像と同時に再生されるべき別の2D映像を表す。その別の2D映像は例えば、ピクチャ・イン・ピクチャ方式における副映像、ブラウザ画面、ポップアップ・メニュー、又は字幕を含む。サブパス3602、3603には2Dプレイリスト・ファイル521への登録順に通し番号「0」、「1」が振られている。その通し番号はサブパスIDとして各サブパス3602、3603の識別に利用される。各サブパス3602、3603では、各SUB_PIが固有のサブプレイアイテムID=#M(M=1、2、3、…)で識別される。各SUB_PI#Mは、再生経路の異なる再生区間を一対のPTSで規定する。その対の一方はその再生区間の再生開始時刻を表し、他方は再生終了時刻を表す。更に、各サブパス3602、3603内でのSUB_PIの順序は、対応する再生区間の再生経路内での順序を表す。
 図37は、PI#Nのデータ構造を示す模式図である。図37を参照するに、PI#Nは、参照クリップ情報3701、再生開始時刻(In_Time)3702、再生終了時刻(Out_Time)3703、コネクション・コンディション3704、及びストリーム選択テーブル(以下、STN(Stream Number)テーブルと略す。)3705を含む。参照クリップ情報3701は、2Dクリップ情報ファイル531を識別するための情報である。再生開始時刻3702と再生終了時刻3703とは、ファイル2D541の再生対象部分の先端と後端との各PTSを示す。コネクション・コンディション3704は、再生開始時刻3702と再生終了時刻3703とによって規定された再生区間での映像を、一つ前のPI#(N-1)によって規定された再生区間での映像に接続するときの条件を規定する。STNテーブル3705は、再生開始時刻3702から再生終了時刻3703までの間に再生装置102内のデコーダによってファイル2D541から選択可能なエレメンタリ・ストリームのリストを表す。
 SUB_PIのデータ構造は、図37に示されているPIのデータ構造と、参照クリップ情報、再生開始時刻、及び再生終了時刻を含む点で共通する。特にSUB_PIの再生開始時刻と再生終了時刻とは、PIのそれらと同じ時間軸上の値で表される。SUB_PIは更に「SPコネクション・コンディション」というフィールドを含む。SPコネクション・コンディションはPIのコネクション・コンディションと同じ意味を持つ。
   [コネクション・コンディション]
 コネクション・コンディション3704の値には「1」、「5」、「6」の三種類がある。コネクション・コンディション3704が「1」であるとき、PI#Nによって規定されるファイル2D541の部分から再生される映像は、直前のPI#(N-1)によって規定されるファイル2D541の部分から再生される映像とは必ずしもシームレスに接続されなくてもよい。一方、コネクション・コンディション3704が「5」又は「6」であるとき、それら両方の映像が必ずシームレスに接続されなければならない。
 図38の(a)、(b)はそれぞれ、コネクション・コンディション3704が「5」、「6」であるときに接続対象の二つの再生区間3801、3802の間の関係を示す模式図である。ここで、PI#(N-1)はファイル2D541の第1部分3801を規定し、PI#Nはファイル2D541の第2部分3802を規定する。図38の(a)を参照するに、コネクション・コンディション3704が「5」であるとき、2つのPI#(N-1)、PI#Nの間でSTCが途切れていても良い。すなわち、第1部分3801の後端のPTS#1と第2部分3802の先端のPTS#2とは不連続であってもよい。但し、いくつかの制約条件が満たされねばならない。例えば、第1部分3801に続けて第2部分3802をデコーダに供給したときでも、そのデコーダが復号処理をスムーズに持続できるように、各部分3801、3802が作成されていなければならない。更に、第1部分3801に含まれるオーディオ・ストリームの最後のフレームを、第2部分3802に含まれるオーディオ・ストリームの先頭フレームと重複させなければならない。一方、図38の(b)を参照するに、コネクション・コンディション3704が「6」であるとき、第1部分3801と第2部分3802とは、デコーダの復号処理上、一連の部分として扱えるものでなければならない。すなわち、第1部分3801と第2部分3802との間ではSTCとATCとがいずれも連続でなければならない。同様に、SPコネクション・コンディションが「5」又は「6」であるとき、隣接する2つのSUB_PIによって規定されるファイル2Dの部分間では、STCとATCとがいずれも連続でなければならない。
   [STNテーブル]
 図37を再び参照するに、STNテーブル3705はストリーム登録情報の配列である。「ストリーム登録情報」とは、再生開始時刻3702から再生終了時刻3703までの間にメインTSから再生対象として選択可能なエレメンタリ・ストリームを個別に示す情報である。ストリーム番号(STN)3706はストリーム登録情報に個別に割り当てられた通し番号であり、再生装置102によって各エレメンタリ・ストリームの識別に利用される。STN3706は更に、同じ種類のエレメンタリ・ストリームの間では選択の優先順位を表す。ストリーム登録情報はストリーム・エントリ3709とストリーム属性情報3710と含む。ストリーム・エントリ3709はストリーム・パス情報3707とストリーム識別情報3708とを含む。ストリーム・パス情報3707は、選択対象のエレメンタリ・ストリームが属するファイル2Dを示す情報である。例えばストリーム・パス情報3707が“メインパス”を示すとき、そのファイル2Dは、参照クリップ情報3701の示す2Dクリップ情報ファイルに対応するものである。一方、ストリーム・パス情報3707が“サブパスID=1”を示すとき、選択対象のエレメンタリ・ストリームが属するファイル2Dは、サブパスID=1のサブパスに含まれるSUB_PIの参照クリップ情報が示す2Dクリップ情報ファイルに対応するものである。そのSUB_PIの規定する再生開始時刻又は再生終了時刻のいずれかは、STNテーブル3705を含むPIの規定する再生開始時刻3702から再生終了時刻3703までの期間に含まれる。ストリーム識別情報3708は、ストリーム・パス情報3707によって特定されるファイル2Dに多重化されているエレメンタリ・ストリームのPIDを示す。このPIDの示すエレメンタリ・ストリームが再生開始時刻3702から再生終了時刻3703までの間に選択可能である。ストリーム属性情報3710は各エレメンタリ・ストリームの属性情報を表す。例えば、オーディオ・ストリーム、PGストリーム、及びIGストリームの各属性情報は言語の種類を示す。
   [2Dプレイリスト・ファイルに従った2D映像の再生]
 図39は、2Dプレイリスト・ファイル(00001.mpls)521の示すPTSと、ファイル2D(01000.m2ts)541から再生される部分との間の対応関係を示す模式図である。図39を参照するに、2Dプレイリスト・ファイル521のメインパス3601では、PI#1は、再生開始時刻IN1を示すPTS#1と、再生終了時刻OUT1を示すPTS#2とを規定する。PI#1の参照クリップ情報3701は2Dクリップ情報ファイル(01000.clpi)531を示す。再生装置102は2Dプレイリスト・ファイル521に従って2D映像を再生するとき、まずPI#1からPTS#1、#2を読み出す。再生装置102は次に、2Dクリップ情報ファイル531のエントリ・マップを参照して、PTS#1、#2に対応するファイル2D541内のSPN#1、#2を検索する。再生装置102は続いて、SPN#1、#2から、それぞれに対応するセクタ数を算定する。再生装置102は更にそれらのセクタ数とファイル2D541のファイル・エントリ内のアロケーション記述子とを利用して、再生対象の2Dエクステント群EXT2D[0]、…、EXT2D[n]が記録されたセクタ群P1の先端のLBN#1と後端のLBN#2とを特定する。セクタ数の算定とLBNの特定とは、図31の(b)、(c)を用いて説明したとおりである。再生装置102は最後に、LBN#1からLBN#2までの範囲をBD-ROMドライブ121に指定する。それにより、その範囲のセクタ群P1から、2Dエクステント群EXT2D[0]、…、EXT2D[n]に属するソースパケット群が読み出される。同様に、PI#2の示すPTS#3、#4の対は、まず2Dクリップ情報ファイル531のエントリ・マップを利用してSPN#3、#4の対に変換される。次にファイル2D541のファイル・エントリ内のアロケーション記述子を利用して、SPN#3、#4の対がLBN#3、#4の対に変換される。更に、LBN#3からLBN#4までの範囲のセクタ群P2から、2Dエクステント群に属するソースパケット群が読み出される。PI#3の示すPTS#5、#6の対からSPN#5、#6の対への変換、SPN#5、#6の対からLBN#5、#6の対への変換、及びLBN#5からLBN#6までの範囲のセクタ群P3からのソースパケット群の読み出しも同様である。こうして、再生装置102は2Dプレイリスト・ファイル521のメインパス3601に従ってファイル2D541から2D映像を再生できる。
 2Dプレイリスト・ファイル521はエントリ・マーク3901を含んでもよい。エントリ・マーク3901は、メインパス3601のうち、実際に再生が開始されるべき時点を示す。例えば図39に示されているように、PI#1に対して複数のエントリ・マーク3901が設定されてもよい。エントリ・マーク3901は特に頭出し再生において、再生開始位置の検索に利用される。例えば2Dプレイリスト・ファイル521が映画タイトルの再生経路を規定するとき、エントリ・マーク3901は各チャプタの先頭に付与される。それにより、再生装置102はその映画タイトルをチャプタごとに再生できる。
  ≪3Dプレイリスト・ファイル≫
 図40は、3Dプレイリスト・ファイル4000のデータ構造を示す模式図である。図5に示されている第2プレイリスト・ファイル(00002.mpls)522と第2プレイリスト・ファイル(00003.mpls)523とはいずれも、この3Dプレイリスト・ファイルと同様なデータ構造を持つ。図40を参照するに、3Dプレイリスト・ファイル4000は、メインパス4001、サブパス4002、及び拡張データ4003を含む。
 メインパス4001は、図6の(a)に示されているメインTSの再生経路を規定する。従って、メインパス4001は、図36に示されている2Dプレイリスト・ファイルのメインパス3601に等しい。2D再生モードの再生装置102は3Dプレイリスト・ファイル4000のメインパス4001に従ってファイル2D541から2D映像を再生できる。
 サブパス4002は、図6の(b)、(c)に示されているサブTSの再生経路、すなわち第1ファイルDEP542又は第2ファイルDEP543のいずれかの再生経路を規定する。サブパス4002のデータ構造は、図36に示されている2Dプレイリスト・ファイルのサブパス3602、3603のデータ構造と同様である。従って、その同様なデータ構造の詳細、特にSUB_PIのデータ構造の詳細についての説明は、図36を用いた説明を援用する。
 サブパス4002のSUB_PI#N(N=1、2、3、…)はメインパス4001のPI#Nと一対一に対応する。更に、各SUB_PI#Nの規定する再生開始時刻と再生終了時刻とはそれぞれ、対応するPI#Nの規定する再生開始時刻と再生終了時刻とに等しい。サブパス4002はその上、サブパス・タイプ4021を含む。「サブパス・タイプ」は一般に、メインパスとサブパスとの間で再生処理が同期すべきか否かを示す。3Dプレイリスト・ファイル4000では特にサブパス・タイプ4021が3D再生モードの種類、すなわちサブパス4002に従って再生されるべきディペンデントビュー・ビデオ・ストリームの種類を示す。図40では、サブパス・タイプ4021は、その値が「3D・L/R」であるので、3D再生モードがL/Rモードであること、すなわちライトビュー・ビデオ・ストリームが再生対象であることを示す。一方、サブパス・タイプ4021は、その値が「3Dデプス」であるときは、3D再生モードがデプス・モードであること、すなわちデプスマップ・ストリームが再生対象であることを示す。3D再生モードの再生装置102は、サブパス・タイプ4021の値が「3D・L/R」又は「3Dデプス」であることを検出したとき、メインパス4001に従った再生処理とサブパス4002に従った再生処理とを同期させる。
 拡張データ4003は、3D再生モードの再生装置102によってのみ解釈される部分であり、2D再生モードの再生装置102には無視される。拡張データ4003は特に、拡張ストリーム選択テーブル4030を含む。「拡張ストリーム選択テーブル(STN_table_SS)」(以下、STNテーブルSSと略す。)は、3D再生モードにおいて、メインパス4001内の各PIの示すSTNテーブルに追加されるべきストリーム登録情報の配列である。このストリーム登録情報は、サブTSから再生対象として選択可能なエレメンタリ・ストリームを示す。
 図41は、STNテーブルSS4030のデータ構造を示す模式図である。図41を参照するに、STNテーブルSS4030はストリーム登録情報列4101、4102、4103、…を含む。ストリーム登録情報列4101、4102、4103、…はメインパス4001内のPI#1、#2、#3、…に個別に対応し、3D再生モードの再生装置102により、対応するPI内のSTNテーブルに含まれるストリーム登録情報列と組み合わされて利用される。各PIに対するストリーム登録情報列4101は、ポップアップ期間のオフセット(Fixed_offset_during_Popup)4111、ディペンデントビュー・ビデオ・ストリームのストリーム登録情報列4112、PGストリームのストリーム登録情報列4113、及びIGストリームのストリーム登録情報列4114を含む。
 ポップアップ期間のオフセット4111は、IGストリームからポップアップ・メニューが再生されるか否かを示す。3D再生モードの再生装置102はそのオフセット4111の値に依ってビデオ・プレーンとPGプレーンとの表示モード(presentation mode)を変える。ここで、ビデオ・プレーンの表示モードにはベースビュー(B)-ディペンデントビュー(D)表示モードとB-B表示モードとの二種類があり、PGプレーンとIGプレーンとの各表示モードには、2プレーン・モード、1プレーン+オフセット・モード、及び1プレーン+ゼロ・オフセット・モードとの三種類がある。例えばポップアップ期間のオフセット4111の値が“0”であるとき、IGストリームからはポップアップ・メニューが再生されない。そのとき、ビデオ・プレーンの表示モードとしてB-D表示モードが選択され、PGプレーンの表示モードとして2プレーン・モード又は1プレーン+オフセット・モードが選択される。一方、ポップアップ期間のオフセット4111の値が“1”であるとき、IGストリームからポップアップ・メニューが再生される。そのとき、ビデオ・プレーンの表示モードとしてB-B表示モードが選択され、PGプレーンの表示モードとして1プレーン+ゼロ・オフセット・モードが選択される。
 「B-D表示モード」では再生装置102が、レフトビューとライトビューとのビデオ・ストリームから復号されたプレーン・データを交互に出力する。従って、表示装置103の画面には、ビデオ・プレーンの表すレフトビューとライトビューとのフレームが交互に表示されるので、視聴者にはそれらが3D映像として見える。「B-B表示モード」では再生装置102が、動作モードを3D再生モードに維持したまま(特にフレームレートを3D再生時の値、例えば48フレーム/秒に維持したまま)、ベースビュー・ビデオ・ストリームから復号されたプレーン・データのみをフレーム当たり二回ずつ出力する。従って、表示装置103の画面には、ビデオ・プレーンについてはレフトビューとライトビューとのいずれかのフレームしか表示されないので、視聴者にはそれらが2D映像としてしか見えない。
 「2プレーン・モード」では、サブTSがレフトビューとライトビューとのグラフィックス・ストリームを両方含むとき、再生装置102が各グラフィックス・ストリームからレフトビューとライトビューとのグラフィックス・プレーン・データを復号して交互に出力する。「1プレーン+オフセット・モード」では、再生装置102がクロッピング処理により、メインTS内のグラフィックス・ストリームからレフトビューとライトビューとのプレーン・データの対を生成して交互に出力する。いずれのモードでも、表示装置103の画面にはレフトビューとライトビューとのPGプレーンが交互に表示されるので、視聴者にはそれらが3D映像として見える。「1プレーン+ゼロ・オフセット・モード」では、再生装置102が、動作モードを3D再生モードに維持したまま、クロッピング処理を一時的に停止させ、メインTS内のグラフィックス・ストリームから復号されたプレーン・データをフレーム当たり二回ずつ出力する。従って、表示装置103の画面には、レフトビューとライトビューとのいずれかのPGプレーンしか表示されないので、視聴者にはそれらが2D映像としてしか見えない。
 3D再生モードの再生装置102は、PIごとにポップアップ期間のオフセット4111を参照して、IGストリームからポップアップ・メニューが再生されるときはB-B表示モードと1プレーン+ゼロ・オフセット・モードとを選択する。それにより、ポップアップ・メニューが表示される間、他の3D映像が一時的に2D映像に変更されるので、ポップアップ・メニューの視認性・操作性が向上する。
 ディペンデントビュー・ビデオ・ストリームのストリーム登録情報列4112、PGストリームのストリーム登録情報列4113、及びIGストリームのストリーム登録情報列4114はそれぞれ、サブTSから再生対象として選択可能なディペンデントビュー・ビデオ・ストリーム、PGストリーム、及びIGストリームを示すストリーム登録情報を含む。これらのストリーム登録情報列4112、4113、4114はそれぞれ、対応するPI内のSTNテーブルに含まれるストリーム登録情報列のうち、ベースビュー・ビデオ・ストリーム、PGストリーム、及びIGストリームを示すものと組み合わされて利用される。3D再生モードの再生装置102は、STNテーブル内のいずれかのストリーム登録情報を読み出すとき、そのストリーム登録情報に組み合わされたSTNテーブルSS内のストリーム登録情報列も自動的に読み出す。それにより、再生装置102は、2D再生モードを単に3D再生モードへ切り換えるとき、設定済みのSTN、及び言語等のストリーム属性を同一に維持できる。
 図42の(a)は、ディペンデントビュー・ビデオ・ストリームのストリーム登録情報列4112のデータ構造を示す模式図である。図42の(a)を参照するに、このストリーム登録情報列4112は一般に複数のストリーム登録情報(SS_dependet_view_block)4201を含む。それらは、対応するPI内のストリーム登録情報のうち、ベースビュー・ビデオ・ストリームを示すものと同数である。各ストリーム登録情報4201は、STN4211、ストリーム・エントリ4212、及びストリーム属性情報4213を含む。STN4211はストリーム登録情報4201に個別に割り当てられた通し番号であり、対応するPI内の組み合わせ対象のストリーム登録情報のSTNと等しい。ストリーム・エントリ4212は、サブパスID参照情報(ref_to_Subpath_id)4221、ストリーム・ファイル参照情報(ref_to_subClip_entry_id)4222、及びPID(ref_to_stream_PID_subclip)4223を含む。サブパスID参照情報4221は、ディペンデントビュー・ビデオ・ストリームの再生経路を規定するサブパスのサブパスIDを示す。ストリーム・ファイル参照情報4222は、そのディペンデントビュー・ビデオ・ストリームが格納されたファイルDEPを識別するための情報である。PID4223は、そのディペンデントビュー・ビデオ・ストリームのPIDである。ストリーム属性情報4213はそのディペンデントビュー・ビデオ・ストリームの属性、例えばフレームレート、解像度、及びビデオフォーマットを含む。特にそれらは、対応するPI内の組み合わせ対象のストリーム登録情報の示すベースビュー・ビデオ・ストリームのものと共通である。
 図42の(b)は、PGストリームのストリーム登録情報列4113のデータ構造を示す模式図である。図42の(b)を参照するに、このストリーム登録情報列4113は一般に複数のストリーム登録情報4231を含む。それらは、対応するPI内のストリーム登録情報のうち、PGストリームを示すものと同数である。各ストリーム登録情報4231は、STN4241、立体視フラグ(is_SS_PG)4242、ベースビュー・ストリーム・エントリ(stream_entry_for_base_view)4243、ディペンデントビュー・ストリーム・エントリ(stream_entry_for_depentdent_view)4244、及びストリーム属性情報4245を含む。STN4241はストリーム登録情報4231に個別に割り当てられた通し番号であり、対応するPI内の組み合わせ対象のストリーム登録情報のSTNと等しい。立体視フラグ4242は、BD-ROMディスク101にベースビューとディペンデントビュー、例えばレフトビューとライトビューとのPGストリームが両方含まれているか否かを示す。立体視フラグ4242がオンであるとき、サブTSに両方のPGストリームが含まれている。従って、ベースビュー・ストリーム・エントリ4243、ディペンデントビュー・ストリーム・エントリ4244、及びストリーム属性情報4245のいずれのフィールドも再生装置によって読み出される。立体視フラグ4242がオフであるとき、それらのフィールド4243-4245はいずれも再生装置に無視される。ベースビュー・ストリーム・エントリ4243とディペンデントビュー・ストリーム・エントリ4244とはいずれも、サブパスID参照情報、ストリーム・ファイル参照情報、及びPIDを含む。サブパスID参照情報は、ベースビューとディペンデントビューとの各PGストリームの再生経路を規定するサブパスのサブパスIDを示す。ストリーム・ファイル参照情報は、各PGストリームが格納されたファイルDEPを識別するための情報である。PIDは各PGストリームのPIDである。ストリーム属性情報4245は各PGストリームの属性、例えば言語の種類を含む。
 図42の(c)は、IGストリームのストリーム登録情報列4114のデータ構造を示す模式図である。図42の(c)を参照するに、このストリーム登録情報列4114は一般に複数のストリーム登録情報4251を含む。それらは、対応するPI内のストリーム登録情報のうち、IGストリームを示すものと同数である。各ストリーム登録情報4251は、STN4261、立体視フラグ(is_SS_IG)4262、ベースビュー・ストリーム・エントリ4263、ディペンデントビュー・ストリーム・エントリ4264、及びストリーム属性情報4265を含む。STN4261はストリーム登録情報4251に個別に割り当てられた通し番号であり、対応するPI内の組み合わせ対象のストリーム登録情報のSTNと等しい。立体視フラグ4262は、BD-ROMディスク101にベースビューとディペンデントビュー、例えばレフトビューとライトビューとのIGストリームが両方含まれているか否かを示す。立体視フラグ4262がオンであるとき、サブTSに両方のIGストリームが含まれている。従って、ベースビュー・ストリーム・エントリ4263、ディペンデントビュー・ストリーム・エントリ4264、及びストリーム属性情報4265のいずれのフィールドも再生装置によって読み出される。立体視フラグ4262がオフであるとき、それらのフィールド4263-4265はいずれも再生装置に無視される。ベースビュー・ストリーム・エントリ4263とディペンデントビュー・ストリーム・エントリ4264とはいずれも、サブパスID参照情報、ストリーム・ファイル参照情報、及びPIDを含む。サブパスID参照情報は、ベースビューとディペンデントビューとの各IGストリームの再生経路を規定するサブパスのサブパスIDを示す。ストリーム・ファイル参照情報は、各IGストリームが格納されたファイルDEPを識別するための情報である。PIDは各IGストリームのPIDである。ストリーム属性情報4265は各IGストリームの属性、例えば言語の種類を含む。
   [3Dプレイリスト・ファイルに従った3D映像の再生]
 図43は、3Dプレイリスト・ファイル(00002.mpls)522の示すPTSと、第1ファイルSS(01000.ssif)から再生される部分との間の対応関係を示す模式図である。図43を参照するに、3Dプレイリスト・ファイル522のメインパス4301では、PI#1は、再生開始時刻IN1を示すPTS#1と、再生終了時刻OUT1を示すPTS#2とを規定する。PI#1の参照クリップ情報は2Dクリップ情報ファイル(01000.clpi)531を示す。一方、サブパス・タイプが「3D・L/R」を示すサブパス4302では、SUB_PI#1が、PI#1と同じPTS#1、#2を規定する。SUB_PI#1の参照クリップ情報はライトビュー・クリップ情報ファイル(02000.clpi)532を示す。
 再生装置102は3Dプレイリスト・ファイル522に従って3D映像を再生するとき、まずPI#1とSUB_PI#1とからPTS#1、#2を読み出す。再生装置102は次に2Dクリップ情報ファイル531のエントリ・マップを参照し、PTS#1、#2に対応するファイル2D541内のSPN#1、#2を検索する。それと並行して、再生装置102はライトビュー・クリップ情報ファイル532のエントリ・マップを参照し、PTS#1、#2に対応する第1ファイルDEP542内のSPN#11、#12を検索する。再生装置102は続いて、図33の(e)の説明で述べたように各クリップ情報ファイル531、532のエクステント起点3042、3320を利用して、SPN#1、#11から、第1ファイルSS544Aの先頭から再生開始位置までのソースパケット数SPN#21を算定する。再生装置102は同様に、SPN#2、#12から、第1ファイルSS544Aの先頭から再生終了位置までのソースパケット数SPN#22を算定する。再生装置102は更にSPN#21、#22のそれぞれに対応するセクタ数を算定する。再生装置102は続いて、それらのセクタ数と第1ファイルSS544Aのファイル・エントリ内のアロケーション記述子とを利用して、再生対象の3Dエクステント群EXTSS[0]、…、EXTSS[n]が記録されたセクタ群P11の先端のLBN#1と後端のLBN#2とを特定する。セクタ数の算定とLBNの特定とは、図33の(e)の説明で述べたものと同様である。再生装置102は最後に、LBN#1からLBN#2までの範囲をBD-ROMドライブ121に指定する。それにより、その範囲のセクタ群P11から、3Dエクステント群EXTSS[0]、…、EXTSS[n]に属するソースパケット群が読み出される。同様に、PI#2とSUB_PI#2との示すPTS#3、#4の対は、まずクリップ情報ファイル531、532の各エントリ・マップを利用してSPN#3、#4の対とSPN#13、#14の対とに変換される。次に、SPN#3、#13からは第1ファイルSS544Aの先頭から再生開始位置までのソースパケット数SPN#23が算定され、SPN#4、#14からは第1ファイルSS544Aの先頭から再生終了位置までのソースパケット数SPN#24が算定される。続いて、第1ファイルSS544A1のファイル・エントリ内のアロケーション記述子を利用して、SPN#23、#24の対がLBN#3、#4の対に変換される。更に、LBN#3からLBN#4までの範囲のセクタ群P12から、3Dエクステント群に属するソースパケット群が読み出される。
 上記の読み出し処理と並行して、再生装置102は、図33の(e)の説明で述べたように各クリップ情報ファイル531、532のエクステント起点3042、3320を利用して、各3Dエクステントからベースビュー・エクステントを抽出し、残りのライトビュー・エクステントとパラレルに復号する。こうして、再生装置102は、3Dプレイリスト・ファイル522に従って第1ファイルSS544Aから3D映像を再生できる。
  ≪インデックス・テーブル≫
 図44は、図5に示されているインデックス・ファイル(index.bdmv)511内のインデックス・テーブル4410を示す模式図である。図44を参照するに、インデックス・テーブル4410は、「ファーストプレイ」4401、「トップメニュー」4402、及び「タイトルk」44303(k=1、2、…、n:nは1以上の整数)という項目を含む。各項目にはムービーオブジェクトMVO-2D、MVO-3D、…、又はBD-JオブジェクトBDJO-2D、BDJO-3D、…のいずれかが対応付けられている。ユーザの操作又はアプリケーション・プログラムによってタイトル又はメニューが呼び出される度に、再生装置102の制御部はインデックス・テーブル4410の対応する項目を参照する。制御部は更に、その項目に対応付けられているオブジェクトをBD-ROMディスク101から呼び出し、それに従って様々な処理を実行する。具体的には、項目「ファーストプレイ」4401には、ディスク101がBD-ROMドライブ121へ挿入された時に呼び出されるべきオブジェクトが指定されている。項目「トップメニュー」4402には、例えばユーザの操作で「メニューに戻れ」というコマンドが入力された時に表示装置103にメニューを表示させるためのオブジェクトが指定されている。項目「タイトルk」4403には、ディスク101上のコンテンツを構成するタイトルが個別に割り当てられている。例えばユーザの操作によって再生対象のタイトルが指定されたとき、そのタイトルが割り当てられている項目「タイトルk」には、そのタイトルに対応するAVストリーム・ファイルから映像を再生するためのオブジェクトが指定されている。
 図44に示されている例では、項目「タイトル1」と項目「タイトル2」とが2D映像のタイトルに割り当てられている。項目「タイトル1」に対応付けられているムービーオブジェクトMVO-2Dは、2Dプレイリスト・ファイル(00001.mpls)521を用いた2D映像の再生処理に関する命令群を含む。再生装置102によって項目「タイトル1」が参照されたとき、そのムービーオブジェクトMVO-2Dに従い、2Dプレイリスト・ファイル521がディスク101から読み出され、それに規定された再生経路に沿って2D映像の再生処理が実行される。項目「タイトル2」に対応付けられているBD-JオブジェクトBDJO-2Dは、2Dプレイリスト・ファイル521を用いた2D映像の再生処理に関するアプリケーション管理テーブルを含む。再生装置102によって項目「タイトル2」が参照されたとき、そのBD-JオブジェクトBDJO-2D内のアプリケーション管理テーブルに従ってJARファイル561からJavaアプリケーション・プログラムが呼び出されて実行される。それにより、2Dプレイリスト・ファイル521がディスク101から読み出され、それに規定された再生経路に沿って2D映像の再生処理が実行される。
 図44に示されている例では更に、項目「タイトル3」と項目「タイトル4」とが3D映像のタイトルに割り当てられている。項目「タイトル3」に対応付けられているムービーオブジェクトMVO-3Dは、2Dプレイリスト・ファイル521を用いた2D映像の再生処理に関する命令群に加え、3Dプレイリスト・ファイル(00002.mpls)522、(00003.mpls)523のいずれかを用いた3D映像の再生処理に関する命令群を含む。項目「タイトル4」に対応付けられているBD-JオブジェクトBDJO-3Dでは、アプリケーション管理テーブルが、2Dプレイリスト・ファイル521を用いた2D映像の再生処理に関するJavaアプリケーション・プログラムに加え、3Dプレイリスト・ファイル522、523のいずれかを用いた3D映像の再生処理に関するJavaアプリケーション・プログラムを規定する。
 再生装置102によって項目「タイトル3」が参照されたとき、ムービーオブジェクトMVO-3Dに従い、まず次の四種類の判別処理が行われる:(1)再生装置102自身が3D映像の再生に対応しているか否か、(2)ユーザが3D映像の再生を選択しているか否か、(3)表示装置103が3D映像の再生に対応しているか否か、及び(4)再生装置102の3D映像再生モードがL/Rモードとデプス・モードとのいずれであるか。次にそれらの判別結果に応じていずれかのプレイリスト・ファイル521-523が再生対象として選択される。再生装置102によって項目「タイトル4」が参照されたとき、BD-JオブジェクトBDJO-3D内のアプリケーション管理テーブルに従ってJARファイル561からJavaアプリケーション・プログラムが呼び出されて実行される。それにより、まず上記の判別処理が行われ、次にその判別結果に応じたプレイリスト・ファイルの選択が行われる。
   [3D映像タイトルの選択時でのプレイリスト・ファイルの選択]
 図45は、3D映像のタイトルが選択されたときに行われる、再生対象のプレイリスト・ファイルの選択処理のフローチャートである。図44に示されているインデックス・テーブル4410では、項目「タイトル3」が参照されたときはムービーオブジェクトMVO-3Dに従ってその選択処理が実行され、項目「タイトル4」が参照されたときは、BD-JオブジェクトBDJO-3Dに規定されたJavaアプリケーション・プログラムに従ってその選択処理が実行される。
 ここで、その選択処理の前提として、再生装置102が第1フラグと第2フラグとを含むときを想定する。第1フラグが“0”であるとき、再生装置102は2D映像の再生のみに対応可能であり、“1”であるとき、3D映像の再生にも対応可能である。第2フラグが“0”であるとき、再生装置102はL/Rモードであり、“1”であるとき、デプス・モードである。
 ステップS4501では、再生装置102は第1フラグの値をチェックする。その値が0であるとき、処理はステップS4505へ進む。その値が1であるとき、処理はステップS4502へ進む。
 ステップS4502では、再生装置102は表示装置103にメニューを表示させて、ユーザに2D映像と3D映像とのいずれかの再生を選択させる。ユーザがリモコン105等を操作して、2D映像の再生を選択したとき、処理はステップS4505へ進み、3D映像の再生を選択したとき、処理はステップS4503へ進む。
 ステップS4503では、再生装置102は、表示装置103が3D映像の再生に対応しているかチェックする。具体的には、再生装置102はHDMIケーブル122を通して表示装置103との間でCECメッセージを交換し、表示装置103が3D映像の再生に対応しているか否かを表示装置103に問い合わせる。表示装置103が3D映像の再生に対応しているとき、処理はステップS4504へ進む。表示装置103が3D映像の再生に対応していないとき、処理はステップS4505へ進む。
 ステップS4504では、再生装置102は第2フラグの値をチェックする。その値が0であるとき、処理はステップS4506へ進む。その値が1であるとき、処理はステップS4507へ進む。
 ステップS4505では、再生装置102は2Dプレイリスト・ファイル521を再生対象として選択する。尚、そのとき、再生装置102は表示装置103に、3D映像の再生が選択されなかった理由を表示させてもよい。
 ステップS4506では、再生装置102はL/Rモード用の3Dプレイリスト・ファイル522を再生対象として選択する。
 ステップS4507では、再生装置102はデプス・モード用の3Dプレイリスト・ファイル523を再生対象として選択する。
 <2D再生装置の構成>
 2D再生モードの再生装置102はBD-ROMディスク101から2D映像コンテンツを再生するとき、2D再生装置として動作する。図46は、2D再生装置4600の機能ブロック図である。図46を参照するに、2D再生装置4600は、BD-ROMドライブ4601、再生部4600A、及び制御部4600Bを含む。再生部4600Aは、リード・バッファ4602、システム・ターゲット・デコーダ4603、及びプレーン加算部4610を含む。制御部4600Bは、動的シナリオ・メモリ4604、静的シナリオ・メモリ4605、プログラム実行部4606、再生制御部4607、プレーヤ変数記憶部4608、及びユーザイベント処理部4609を含む。再生部4600Aと制御部4600Bとは互いに異なる集積回路に実装されている。その他に、両者が単一の集積回路に統合されていてもよい。
 BD-ROMドライブ4601は、内部にBD-ROMディスク101が挿入されたとき、そのディスク101にレーザ光を照射してその反射光の変化を検出する。更に、その反射光の光量の変化から、ディスク101に記録されたデータを読み取る。具体的には、BD-ROMドライブ4601は光ピックアップ、すなわち光学ヘッドを備えている。その光学ヘッドは、半導体レーザ、コリメータ・レンズ、ビーム・スプリッタ、対物レンズ、集光レンズ、及び光検出器を含む。半導体レーザから出射された光ビームは、コリメータ・レンズ、ビーム・スプリッタ、及び対物レンズを順に通ってディスク101の記録層に集められる。集められた光ビームはその記録層で反射/回折される。その反射/回折光は、対物レンズ、ビーム・スプリッタ、及び集光レンズを通って光検出器に集められる。光検出器は、その集光量に応じたレベルの再生信号を生成する。更に、その再生信号からデータが復調される。
 BD-ROMドライブ4601は、再生制御部4607からの要求に従ってBD-ROMディスク101からデータを読み出す。そのデータのうち、ファイル2Dのエクステント、すなわち2Dエクステントはリード・バッファ4602へ転送され、動的シナリオ情報は動的シナリオ・メモリ4604へ転送され、静的シナリオ情報は静的シナリオ・メモリ4605へ転送される。「動的シナリオ情報」は、インデックス・ファイル、ムービーオブジェクト・ファイル、及びBD-Jオブジェクト・ファイルを含む。「静的シナリオ情報」は2Dプレイリスト・ファイルと2Dクリップ情報ファイルとを含む。
 リード・バッファ4602、動的シナリオ・メモリ4604、及び静的シナリオ・メモリ4605はいずれもバッファ・メモリである。リード・バッファ4602としては再生部4600A内のメモリ素子が利用され、動的シナリオ・メモリ4604及び静的シナリオ・メモリ4605としては制御部4600B内のメモリ素子が利用される。その他に、それらのバッファ・メモリ4602、4604、4605として、単一のメモリ素子の異なる領域が利用されてもよい。リード・バッファ4602は2Dエクステントを格納し、動的シナリオ・メモリ4604は動的シナリオ情報を格納し、静的シナリオ・メモリ4605は静的シナリオ情報を格納する。
 システム・ターゲット・デコーダ4603は、リード・バッファ4602から2Dエクステントをソースパケット単位で読み出して多重分離処理を行い、更に分離された各エレメンタリ・ストリームに対して復号処理を行う。ここで、各エレメンタリ・ストリームの復号に必要な情報、例えばコーデックの種類及びストリームの属性は予め、再生制御部4607からシステム・ターゲット・デコーダ4603へ転送されている。システム・ターゲット・デコーダ4603は更に、復号後のプライマリ・ビデオ・ストリーム、セカンダリ・ビデオ・ストリーム、IGストリーム、及びPGストリームをそれぞれ、VAUごとに、主映像プレーン・データ、副映像プレーン・データ、IGプレーン・データ、及びPGプレーン・データとして送出する。一方、システム・ターゲット・デコーダ4603は、復号後のプライマリ・オーディオ・ストリームとセカンダリ・オーディオ・ストリームとをミキシングして表示装置103の内蔵スピーカ103A等の音声出力装置へ送出する。その他に、システム・ターゲット・デコーダ4603はプログラム実行部4606からグラフィックス・データを受信する。そのグラフィックス・データは、GUI用のメニュー等のグラフィックスを画面に表示するためのものであり、JPEG又はPNG等のラスタデータで表現されている。システム・ターゲット・デコーダ4603はそのグラフィックス・データを処理してイメージ・プレーン・データとして送出する。尚、システム・ターゲット・デコーダ4603の詳細については後述する。
 ユーザイベント処理部4609は、リモコン105又は再生装置102のフロントパネルを通してユーザの操作を検出し、その操作の種類に応じて、プログラム実行部4606又は再生制御部4607に処理を依頼する。例えばユーザがリモコン105のボタンを押下してポップアップ・メニューの表示を指示したとき、ユーザイベント処理部4609はその押下を検出してそのボタンを識別する。ユーザイベント処理部4609は更にプログラム実行部4606に、そのボタンに対応するコマンドの実行、すなわちポップアップ・メニューの表示処理を依頼する。一方、例えばユーザがリモコン105の早送り又は巻戻しボタンを押下したとき、ユーザイベント処理部4609はその押下を検出してそのボタンを識別する。ユーザイベント処理部4609は更に再生制御部4607に、現在再生中のプレイリストの早送り又は巻戻し処理を依頼する。
 再生制御部4607は、2Dエクステント及びインデックス・ファイル等、各種のデータをBD-ROMディスク101から、リード・バッファ4602、動的シナリオ・メモリ4604、及び静的シナリオ・メモリ4605へ転送する処理を制御する。その制御には、図5に示されているディレクトリ/ファイル構造を管理するファイルシステムが利用される。すなわち、再生制御部4607はファイル・オープン用のシステムコールを利用して、BD-ROMドライブ4601に各種のファイルを各バッファ・メモリ4602、4604、4605へ転送させる。ここで、ファイル・オープンとは次の一連の処理をいう。まず、システムコールによってファイルシステムに検索対象のファイル名が与えられ、そのファイル名がディレクトリ/ファイル構造から検索される。その検索に成功したとき、再生制御部4607内のメモリには、まず、転送対象のファイルのファイル・エントリが転送され、そのメモリ内にFCB(File Control Block)が生成される。その後、転送対象のファイルのファイル・ハンドルがファイルシステムから再生制御部4607に返される。以後、再生制御部4607はそのファイル・ハンドルをBD-ROMドライブ4601に提示することにより、BD-ROMドライブ4601にその転送対象のファイルをBD-ROMディスク101から各バッファ・メモリ4602、4604、4605へ転送させることができる。
 再生制御部4607は、BD-ROMドライブ4601とシステム・ターゲット・デコーダ4603とを制御してファイル2Dから映像データと音声データとを復号させる。具体的には、再生制御部4607はまず、プログラム実行部4606からの命令、又はユーザイベント処理部4609からの依頼に応じて、静的シナリオ・メモリ4605から2Dプレイリスト・ファイルを読み出してその内容を解釈する。再生制御部4607は次に、その解釈された内容、特に再生経路に従って、BD-ROMドライブ4601とシステム・ターゲット・デコーダ4603とに再生対象のファイル2Dを指定して、その読み出し処理及び復号処理を指示する。このようなプレイリスト・ファイルに基づく再生処理を「プレイリスト再生」という。その他に、再生制御部4607は、静的シナリオ情報を利用してプレーヤ変数記憶部4608に各種のプレーヤ変数を設定する。再生制御部4607は更に、それらのプレーヤ変数を参照して、システム・ターゲット・デコーダ4603に復号対象のエレメンタリ・ストリームを指定し、かつ、各エレメンタリ・ストリームの復号に必要な情報を提供する。
 プレーヤ変数記憶部4608は、プレーヤ変数を記憶するためのレジスタ群である。プレーヤ変数の種類にはシステム・パラメータ(SPRM)と汎用のパラメータ(GPRM)とがある。SPRMは再生装置102の状態を示す。図47はSPRMの一覧表である。各SPRMには通し番号4701が振られ、各通し番号4701に変数値4702が個別に対応付けられている。主なSPRMの内容は以下のとおりである。ここで、括弧内の数字は通し番号4701を示す。
  SPRM(0)   : 言語コード
  SPRM(1)   : プライマリ・オーディオ・ストリーム番号
  SPRM(2)   : 字幕ストリーム番号
  SPRM(3)   : アングル番号
  SPRM(4)   : タイトル番号
  SPRM(5)   : チャプタ番号
  SPRM(6)   : プログラム番号
  SPRM(7)   : セル番号
  SPRM(8)   : 選択キー情報
  SPRM(9)   : ナビゲーション・タイマー
  SPRM(10)  : 再生時刻情報
  SPRM(11)  : カラオケ用ミキシングモード
  SPRM(12)  : パレンタル用国情報
  SPRM(13)  : パレンタル・レベル
  SPRM(14)  : プレーヤ設定値(ビデオ)
  SPRM(15)  : プレーヤ設定値(オーディオ)
  SPRM(16)  : オーディオ・ストリーム用言語コード
  SPRM(17)  : オーディオ・ストリーム用言語コード(拡張)
  SPRM(18)  : 字幕ストリーム用言語コード
  SPRM(19)  : 字幕ストリーム用言語コード(拡張)
  SPRM(20)  : プレーヤ・リージョン・コード
  SPRM(21)  : セカンダリ・ビデオ・ストリーム番号
  SPRM(22)  : セカンダリ・オーディオ・ストリーム番号
  SPRM(23)  : 再生状態
  SPRM(24)  : 予備
  SPRM(25)  : 予備
  SPRM(26)  : 予備
  SPRM(27)  : 予備
  SPRM(28)  : 予備
  SPRM(29)  : 予備
  SPRM(30)  : 予備
  SPRM(31)  : 予備
 SPRM(10)は、復号処理中のピクチャのPTSを示し、そのピクチャが復号されて主映像プレーン・メモリに書き込まれる度に更新される。従って、SPRM(10)を参照すれば、現在の再生時点を知ることができる。
 SPRM(16)のオーディオ・ストリーム用言語コード、及びSPRM(18)の字幕ストリーム用言語コードは、再生装置102のデフォルトの言語コードを示す。それらは再生装置102のOSD等を利用してユーザに変更させることもでき、プログラム実行部4606を通じてアプリケーション・プログラムに変更させることもできる。例えばSPRM(16)が「英語」を示しているとき、再生制御部4607はプレイリスト再生処理において、まずPI内のSTNテーブルから、「英語」の言語コードを含むストリーム・エントリを検索する。再生制御部4607は次に、そのストリーム・エントリのストリーム識別情報からPIDを抽出してシステム・ターゲット・デコーダ4603に渡す。それにより、そのPIDのオーディオ・ストリームがシステム・ターゲット・デコーダ4603によって選択され、復号される。これらの処理は、ムービーオブジェクト・ファイル又はBD-Jオブジェクト・ファイルを利用して再生制御部4607に実行させることができる。
 再生制御部4607は再生処理中、再生状態の変化に応じてプレーヤ変数を更新する。再生制御部4607は特に、SPRM(1)、SPRM(2)、SPRM(21)、及びSPRM(22)を更新する。それらは順に、処理中のオーディオ・ストリーム、字幕ストリーム、セカンダリ・ビデオ・ストリーム、及びセカンダリ・オーディオ・ストリームの各STNを示す。例えばプログラム実行部4606によってSPRM(1)が変更されたときを想定する。再生制御部4607はそのとき、まず現時点で再生処理中のPI内のSTNテーブルから、変更後のSPRM(1)の示すSTNを含むストリーム・エントリを検索する。再生制御部4607は次に、そのストリーム・エントリ内のストリーム識別情報からPIDを抽出してシステム・ターゲット・デコーダ4603に渡す。それにより、そのPIDのオーディオ・ストリームがシステム・ターゲット・デコーダ4603によって選択され、復号される。こうして、再生対象のオーディオ・ストリームが切り換えられる。同様に、再生対象の字幕及びセカンダリ・ビデオ・ストリームを切り換えることもできる。
 プログラム実行部4606はプロセッサであり、ムービーオブジェクト・ファイル及びBD-Jオブジェクト・ファイルに格納されたプログラムを実行する。プログラム実行部4606は各プログラムに従って、特に次のような制御を行う:(1)再生制御部4607に対してプレイリスト再生処理を命令する;(2)メニュー用又はゲーム用のグラフィックス・データをPNG又はJPEGのラスタデータとして生成し、それをシステム・ターゲット・デコーダ4603へ転送して他の映像データに合成させる。これらの制御の具体的な内容はプログラムの設計を通じて比較的自由に設計することができる。すなわち、それらの制御内容は、BD-ROMディスク101のオーサリング工程のうち、ムービーオブジェクト・ファイル及びBD-Jオブジェクト・ファイルのプログラミング工程によって決まる。
 プレーン加算部4610は、システム・ターゲット・デコーダ4603から、主映像プレーン・データ、副映像プレーン・データ、IGプレーン・データ、PGプレーン・データ、及びイメージ・プレーン・データを受信し、それらを互いに重畳して一つの映像フレーム又はフィールドに合成する。合成後の映像データは表示装置103へ送出され、その画面に表示される。
  ≪システム・ターゲット・デコーダ≫
 図48は、システム・ターゲット・デコーダ4603の機能ブロック図である。図48を参照するに、システム・ターゲット・デコーダ4603は、ソース・デパケタイザ4810、ATCカウンタ4820、第1の27MHzクロック4830、PIDフィルタ4840、STCカウンタ(STC1)4850、第2の27MHzクロック4860、主映像デコーダ4870、副映像デコーダ4871、PGデコーダ4872、IGデコーダ4873、主音声デコーダ4874、副音声デコーダ4875、イメージ・プロセッサ4880、主映像プレーン・メモリ4890、副映像プレーン・メモリ4891、PGプレーン・メモリ4892、IGプレーン・メモリ4893、イメージ・プレーン・メモリ4894、及び音声ミキサ4895を含む。
 ソース・デパケタイザ4810はリード・バッファ4602からソースパケットを読み出し、その中からTSパケットを取り出してPIDフィルタ4840へ送出する。ソース・デパケタイザ4810は更に、その送出の時刻を各ソースパケットのATSに応じて調整する。具体的には、ソース・デパケタイザ4810はまず、ATCカウンタ4820が生成するATCの値を監視する。ここで、ATCの値はATCカウンタ4820により、第1の27MHzクロック4830のクロック信号のパルスに応じてインクリメントされる。ソース・デパケタイザ4810は次に、ATCの値がソースパケットのATSと一致した瞬間、そのソースパケットから取り出されたTSパケットをPIDフィルタ4840へ転送する。そのような送出時刻の調整により、ソース・デパケタイザ4810からPIDフィルタ4840へのTSパケットの平均転送速度RTSは、図31に示されている2Dクリップ情報ファイルの示すシステムレート3111を超えない。
 PIDフィルタ4840はまず、ソース・デパケタイザ4810から送出されたTSパケットの含むPIDを監視する。そのPIDが、再生制御部4807から予め指定されたPIDに一致したとき、PIDフィルタ4840はそのTSパケットを選択し、そのPIDの示すエレメンタリ・ストリームの復号に適したデコーダ4870-4875へ転送する。例えばPIDが0x1011であるとき、そのTSパケットは主映像デコーダ4870へ転送される。一方、PIDが、0x1B00-0x1B1F、0x1100-0x111F、0x1A00-0x1A1F、0x1200-0x121F、及び0x1400-0x141Fの各範囲に属するとき、TSパケットはそれぞれ、副映像デコーダ4871、主音声デコーダ4874、副音声デコーダ4875、PGデコーダ4872、及びIGデコーダ4873へ転送される。
 PIDフィルタ4840は更に、各TSパケットのPIDを利用してそのTSパケットの中からPCRを検出する。PIDフィルタ4840はそのとき、STCカウンタ4850の値を所定値に設定する。ここで、STCカウンタ4850の値は第2の27MHzクロック4860のクロック信号のパルスに応じてインクリメントされる。また、STCカウンタ4850に設定されるべき値は予め、再生制御部4807からPIDフィルタ4840に指示されている。各デコーダ4870-4875はSTCカウンタ4850の値をSTCとして利用する。すなわち、PIDフィルタ4840から送出されたTSパケットに対する復号処理の時期を、そのTSパケットに含まれるPTS又はDTSの示す時刻に従って調節する。
 主映像デコーダ4870は、図48に示されているように、トランスポート・ストリーム・バッファ(TB:Transport Stream Buffer)4801、多重化バッファ(MB:Multiplexing Buffer)4802、エレメンタリ・ストリーム・バッファ(EB:Elementary Stream Buffer)4803、圧縮映像デコーダ(DEC)4804、及び復号ピクチャ・バッファ(DPB:Decoded Picture Buffer)4805を含む。TB4801、MB4802、EB4803、及びDPB4805はいずれもバッファ・メモリであり、それぞれ主映像デコーダ4870に内蔵のメモリ素子の一領域を利用する。その他に、それらのいずれか又は全てが異なるメモリ素子に分離されていてもよい。TB4801は、PIDフィルタ4840から受信されたTSパケットをそのまま蓄積する。MB4802は、TB4801に蓄積されたTSパケットから復元されたPESパケットを蓄積する。尚、TB4801からMB4802へTSパケットが転送されるとき、そのTSパケットからTSヘッダが除去される。EB4803は、PESパケットから、符号化されたVAUを抽出して格納する。そのVAUには、圧縮ピクチャ、すなわち、Iピクチャ、Bピクチャ、及びPピクチャが格納されている。尚、MB4802からEB4803へデータが転送されるとき、そのPESパケットからPESヘッダが除去される。DEC4804は、EB4803内の各VAUからピクチャを、元のTSパケットに含まれるDTSの示す時刻に復号する。DEC4804はその他に、図14に示されている復号スイッチ情報1401を利用して、各VAUからピクチャをそのDTSに関わらず、順次復号してもよい。DEC4804は、各VAU内に格納された圧縮ピクチャの圧縮符号化方式、例えば、MPEG-2、MPEG-4 AVC、及びVC1、並びにストリーム属性に応じて復号方法を切り換える。DEC4804は更に、復号後のピクチャ、すなわちフレーム又はフィールドをDPB4805へ転送する。DPB4805は復号後のピクチャを一時的に保持する。DEC4804は、Pピクチャ及びBピクチャを復号するとき、DPB4805に保持されている復号後のピクチャを参照する。DPB4805は更に、保持している各ピクチャを、元のTSパケットに含まれるPTSの示す時刻に主映像プレーン・メモリ4890へ書き込む。
 副映像デコーダ4871は主映像デコーダ4870と同様の構成を含む。副映像デコーダ4871はまず、PIDフィルタ4840から受信されたセカンダリ・ビデオ・ストリームのTSパケットを非圧縮のピクチャに復号する。副映像デコーダ4871は次に、そのTSパケットに含まれるPTSの示す時刻に非圧縮のピクチャを副映像プレーン・メモリ4891へ書き込む。
 PGデコーダ4872は、PIDフィルタ4840から受信されたTSパケットを非圧縮のグラフィックス・データに復号し、そのTSパケットに含まれるPTSの示す時刻にPGプレーン・メモリ4892へ書き込む。
 IGデコーダ4873は、PIDフィルタ4840から受信されたTSパケットを非圧縮のグラフィックス・データに復号し、そのTSパケットに含まれるPTSの示す時刻にIGプレーン・メモリ4893へ書き込む。
 主音声デコーダ4874はまず、PIDフィルタ4840から受信されたTSパケットを内蔵のバッファに蓄える。主音声デコーダ4874は次に、そのバッファ内の各TSパケットからTSヘッダとPESヘッダとを除去し、残りのデータを非圧縮のLPCM音声データに復号する。主音声デコーダ4874は更にその音声データを、元のTSパケットに含まれるPTSの示す時刻に音声ミキサ4895へ送出する。主音声デコーダ4874は、TSパケットに含まれるプライマリ・オーディオ・ストリームの圧縮符号化方式、例えばAC-3又はDTS、及びストリーム属性に応じて、圧縮音声データの復号方法を切り換える。
 副音声デコーダ4875は主音声デコーダ4874と同様の構成を含む。副音声デコーダ4875はまず、PIDフィルタ4840から受信されたセカンダリ・オーディオ・ストリームのTSパケットを非圧縮のLPCM音声データに復号する。副音声デコーダ4875は次に、そのTSパケットに含まれるPTSの示す時刻に非圧縮のLPCM音声データを音声ミキサ4895へ送出する。副音声デコーダ4875は、TSパケットに含まれるセカンダリ・オーディオ・ストリームの圧縮符号化方式、例えば、ドルビー・デジタル・プラス、DTS-HD LBR、及びストリーム属性に応じて圧縮音声データの復号方法を切り換える。
 音声ミキサ4895は、主音声デコーダ4874と副音声デコーダ4875とのそれぞれから非圧縮の音声データを受信し、それらを用いてミキシング(音の重ね合わせ)を行う。音声ミキサ4895は更に、そのミキシングで得られた合成音を表示装置103の内蔵スピーカ103A等へ送出する。
 イメージ・プロセッサ4880は、プログラム実行部4806からグラフィックス・データ、すなわちPNG又はJPEGのラスタデータを受信する。イメージ・プロセッサ4880はそのとき、そのグラフィックス・データに対するレンダリング処理を行ってイメージ・プレーン・メモリ4894へ書き込む。
 <3D再生装置の構成>
 3D再生モードの再生装置102はBD-ROMディスク101から3D映像コンテンツを再生するとき、3D再生装置として動作する。その構成の基本部分は、図46-48に示されている2D再生装置の構成と同様である。従って、以下では2D再生装置の構成からの拡張部分及び変更部分について説明し、基本部分の詳細についての説明は上記の2D再生装置についての説明を援用する。また、2Dプレイリスト・ファイルに従った2D映像の再生処理、すなわち2Dプレイリスト再生処理に利用される構成は2D再生装置の構成と同様である。従って、その詳細についての説明も上記の2D再生装置についての説明を援用する。以下の説明では、3Dプレイリスト・ファイルに従った3D映像の再生処理、すなわち3Dプレイリスト再生処理を想定する。
 図49は、3D再生装置4900の機能ブロック図である。3D再生装置4900は、BD-ROMドライブ4901、再生部4900A、及び制御部4900Bを含む。再生部4900Aは、スイッチ4911、第1リード・バッファ4921、第2リード・バッファ4922、システム・ターゲット・デコーダ4903、及びプレーン加算部4910を含む。制御部4900Bは、動的シナリオ・メモリ4904、静的シナリオ・メモリ4905、プログラム実行部4906、再生制御部4907、プレーヤ変数記憶部4908、及びユーザイベント処理部4909を含む。再生部4900Aと制御部4900Bとは互いに異なる集積回路に実装されている。その他に、両者が単一の集積回路に統合されていてもよい。特に、動的シナリオ・メモリ4904、静的シナリオ・メモリ4905、プログラム実行部4906、及びユーザイベント処理部4909は、図46に示されている2D再生装置内のものと同様である。従って、それらの詳細についての説明は上記の2D再生装置についての説明を援用する。
 BD-ROMドライブ4901は、図46に示されている2D再生装置内のもの4601と同様な構成要素を含む。BD-ROMドライブ4901は、再生制御部4907からLBNの範囲が指示されたとき、その範囲の示すBD-ROMディスク101上のセクタ群からデータを読み出す。特にファイルSSのエクステント、すなわち3Dエクステントに属するソースパケット群は、BD-ROMドライブ4901からスイッチ4911へ転送される。ここで、各3Dエクステントは、図19の(d)及び図34に示されているとおり、ベースビューとディペンデントビューとのデータ・ブロックの対を一つ以上含む。それらのデータ・ブロックは異なるリード・バッファ4921、4922へパラレルに転送されなければならない。従って、BD-ROMドライブ4901には2D再生装置内のBD-ROMドライブ4601以上のアクセス・スピードが求められる。
 スイッチ4911はBD-ROMドライブ4901からは3Dエクステントを受信する。一方、スイッチ4911は再生制御部4907からは、その3Dエクステントに含まれる各データ・ブロックの境界を示す情報、例えばその3Dエクステントの先頭から各境界までのソースパケット数を受信する。ここで、再生制御部4907はその情報を、クリップ情報ファイル内のエクステント起点を利用して生成する。スイッチ4911は更に、その情報を利用して各3Dエクステントからベースビュー・データ・ブロックを抽出して、第1リード・バッファ4921へ送出する。一方、スイッチ4911は残りのディペンデントビュー・データ・ブロックを第2リード・バッファ4922へ送出する。
 第1リード・バッファ4921と第2リード・バッファ4922とはいずれも、再生部4900A内のメモリ素子を利用したバッファ・メモリである。特に単一のメモリ素子内の異なる領域が各リード・バッファ4921、4922として利用される。その他に、異なるメモリ素子が個別に各リード・バッファ4921、4922として利用されてもよい。第1リード・バッファ4921は、スイッチ4911からベースビュー・データ・ブロックを受信して格納する。第2リード・バッファ4922は、スイッチ4911からディペンデントビュー・データ・ブロックを受信して格納する。
 システム・ターゲット・デコーダ4903はまず、第1リード・バッファ4921に格納されたベースビュー・データ・ブロックと、第2リード・バッファ4922に格納されたディペンデントビュー・データ・ブロックとから交互にソースパケットを読み出す。システム・ターゲット・デコーダ4903は次に、多重分離処理によって各ソースパケットからエレメンタリ・ストリームを分離し、更に分離されたものの中から、再生制御部4907から指示されたPIDの示すものを復号する。システム・ターゲット・デコーダ4903は続いて、復号後のエレメンタリ・ストリームをその種類別に内蔵のプレーン・メモリに書き込む。ベースビュー・ビデオ・ストリームは左映像プレーン・メモリに書き込まれ、ディペンデントビュー・ビデオ・ストリームは右映像プレーン・メモリに書き込まれる。一方、セカンダリ・ビデオ・ストリームは副映像プレーン・メモリに書き込まれ、IGストリームはIGプレーン・メモリに書き込まれ、PGストリームはPGプレーン・メモリに書き込まれる。ここで、ビデオ・ストリーム以外のストリーム・データがベースビューとディペンデントビューとのストリーム・データの対から成るとき、対応するプレーン・メモリはレフトビューとライトビューとの両方のプレーン・データに対して個別に用意される。システム・ターゲット・デコーダ4903はその他に、プログラム実行部4906からのグラフィックス・データ、例えばJPEG又はPNG等のラスタデータを処理してイメージ・プレーン・メモリに書き込む。
 システム・ターゲット・デコーダ4903は、左映像と右映像との各プレーン・メモリからのプレーン・データの出力をB-D表示モードとB-B表示モードとに対応させる。再生制御部4907からB-D表示モードが指示されたとき、システム・ターゲット・デコーダ4903は左映像と右映像との各プレーン・メモリから交互にプレーン・データを出力する。一方、再生制御部4907からB-B表示モードが指示されたとき、システム・ターゲット・デコーダ4903は動作モードを3D再生モードに維持したまま、左映像と右映像とのいずれかのプレーン・メモリからのみプレーン・データをフレーム当たり二回ずつ出力する。
 システム・ターゲット・デコーダ4903は更に、グラフィックス・プレーン・メモリ、すなわち、PGプレーン・メモリ、IGプレーン・メモリ、及びイメージ・プレーン・メモリからの各グラフィックス・プレーン・データの出力を、2プレーン・モード、1プレーン+オフセット・モード、及び1プレーン+ゼロ・オフセット・モードに対応させる。再生制御部4907から2プレーン・モードが指示されたとき、システム・ターゲット・デコーダ4903は各グラフィックス・プレーン・メモリからレフトビューとライトビューとのグラフィックス・プレーン・データを交互に出力する。再生制御部4907から1プレーン+オフセット・モード又は1プレーン+ゼロ・オフセット・モードが指示されたとき、システム・ターゲット・デコーダ4903は動作モードを3D再生モードに維持したまま、各グラフィックス・プレーン・メモリからグラフィックス・プレーン・データを出力する。再生制御部4907から1プレーン+オフセット・モードが指示されたときは更に、システム・ターゲット・デコーダ4903は、再生制御部4907によって指定されたオフセット値をプレーン加算部4910に渡す。ここで、再生制御部4907は、そのオフセット値をクリップ情報ファイル内のオフセット・テーブルに基づいて設定する。一方、再生制御部4907から1プレーン+ゼロ・オフセット・モードが指示されたときは、システム・ターゲット・デコーダ4903はオフセット値として“0”をプレーン加算部4910に渡す。
 再生制御部4907は、3Dプレイリスト再生処理をプログラム実行部4906等から命じられたとき、まず、静的シナリオ・メモリ4905に格納された3Dプレイリスト・ファイルを参照する。再生制御部4907は次に、3Dプレイリスト・ファイルに従い、図43に示されている手順で、読み出し対象の3Dエクステントが記録されたセクタ群のLBNの範囲をBD-ROMドライブ4901に指示する。一方、再生制御部4907は、静的シナリオ・メモリ4905に格納されたクリップ情報ファイル内の3Dメタデータを参照して、読み出し対象の各3Dエクステントに関するエクステント起点を検索する。再生制御部4907は更に、そのエクステント起点から、各3Dエクステントに含まれるデータ・ブロックの境界を示す情報を生成する。その情報が再生制御部4907からスイッチ4911へ送出される。
 再生制御部4907はその他に、3Dプレイリスト・ファイル内のSTNテーブルとSTNテーブルSSとを利用して、システム・ターゲット・デコーダ4903とプレーン加算部4910との動作条件を制御する。例えば、再生対象のエレメンタリ・ストリームのPIDが選択されて、システム・ターゲット・デコーダ4903に渡される。また、STNテーブルSSのうち、ポップアップ期間のオフセット4111に応じて各プレーンの表示モードが選択されてシステム・ターゲット・デコーダ4903とプレーン加算部4910とに指示される。
 プレーヤ変数記憶部4908は、2D再生装置内のものと同様に、図47に示されているSPRMを含む。しかし、図47では予備であったSPRM(24)-(32)のいずれか二つは、図45に示されている第1フラグと第2フラグとを個別に含む。例えば、SPRM(24)が第1フラグを含み、SPRM(25)が第2フラグを含む。その場合、SPRM(24)が“0”であるときは再生装置102が2D映像の再生のみに対応可能であり、“1”であるときは3D映像の再生にも対応可能である。SPRM(25)が“0”であるときは再生装置102がL/Rモードであり、“1”であるときはデプス・モードである。
 プレーン加算部4910はシステム・ターゲット・デコーダ4903から各種のプレーン・データを受信し、それらを互いに重畳して一つのフレーム又はフィールドに合成する。特にL/Rモードでは、左映像プレーン・データはレフトビュー・ビデオ・プレーンを表し、右映像プレーン・データはライトビュー・ビデオ・プレーンを表す。従って、プレーン加算部4910は、左映像プレーン・データには、他のプレーン・データのうち、レフトビューを表すものを重畳し、右映像プレーン・データには、ライトビューを表すものを重畳する。一方、デプス・モードでは、右映像プレーン・データは、左映像プレーン・データの表すビデオ・プレーンに対するデプスマップを表す。従って、プレーン加算部4910はまず、両方の映像プレーン・データからレフトビューとライトビューとのビデオ・プレーン・データの対を生成する。その後、プレーン加算部4910はL/Rモードでの合成処理と同様に合成処理を行う。
 再生制御部4907から、副映像プレーン、PGプレーン、IGプレーン、又はイメージ・プレーンの表示モードとして1プレーン+オフセット・モード又は1プレーン+ゼロ・オフセット・モードが指示されているとき、プレーン加算部4910は、システム・ターゲット・デコーダ4903から受信されたプレーン・データに対してクロッピング処理を行う。それにより、レフトビューとライトビューとのプレーン・データの対が生成される。特に1プレーン+オフセット・モードが指示されているとき、そのクロッピング処理では、システム・ターゲット・デコーダ4903又はプログラム実行部4906から指示されたオフセット値が利用される。一方、1プレーン+ゼロ・オフセット・モードが指示されているとき、そのクロッピング処理ではオフセット値が“0”に設定されている。従って、同じプレーン・データが、レフトビューとライトビューとを表すものとして繰り返し出力される。その後、プレーン加算部4910はL/Rモードでの合成処理と同様に合成処理を行う。合成後のフレーム又はフィールドは表示装置103へ送出され、その画面に表示される。
  ≪システム・ターゲット・デコーダ≫
 図50は、システム・ターゲット・デコーダ4903の機能ブロック図である。図50に示されている構成要素は、図46に示されている2D再生装置のもの4603とは次の二点で異なる:(1)リード・バッファから各デコーダへの入力系統が二重化されている点、並びに、(2)主映像デコーダは3D再生モードに対応可能であり、副映像デコーダ、PGデコーダ、及びIGデコーダは2プレーン・モードに対応可能である点。すなわち、それらの映像デコーダはいずれもベースビューとディペンデントビューとのそれぞれのストリームを交互に復号できる点。一方、主音声デコーダ、副音声デコーダ、音声ミキサ、イメージ・プロセッサ、及び各プレーン・メモリは、図46に示されている2D再生装置のものと同様である。従って、以下では、図50に示されている構成要素のうち、図46に示されているものとは異なるものについて説明し、同様なものの詳細についての説明は、図46についての説明を援用する。更に、各映像デコーダはいずれも同様な構造を持つので、以下では主映像デコーダ5015の構造について説明し、他の映像デコーダの構造についてはその説明を援用する。
 第1ソース・デパケタイザ5011は、第1リード・バッファ4921からソースパケットを読み出して、その中からTSパケットを取り出して第1PIDフィルタ5013へ送出する。第2ソース・デパケタイザ5012は、第2リード・バッファ4922からソースパケットを読み出して、その中からTSパケットを取り出して第2PIDフィルタ5014へ送出する。各ソース・デパケタイザ5011、5012は更に、各TSパケットの送出時刻を各ソースパケットのATSに応じて調整する。その調整方法は、図46に示されているソース・デパケタイザ4610による方法と同様であるので、その詳細についての説明は、図46についての説明を援用する。そのような調節により、第1ソース・デパケタイザ5011から第1PIDフィルタ5013へのTSパケットの平均転送速度RTS1は、図30に示されている2Dクリップ情報ファイルの示すシステムレート3011を超えない。同様に、第2ソース・デパケタイザ5012から第2PIDフィルタ5014へのTSパケットの平均転送速度RTS2は、ディペンデントビュー・クリップ情報ファイルの示すシステムレートを超えない。
 第1PIDフィルタ5013は、第1ソース・デパケタイザ5011からTSパケットを受信する度に、そのPIDを選択対象のPIDと比較する。その選択対象のPIDは再生制御部4907によって予め、3Dプレイリスト・ファイル内のSTNテーブルに従って指定されている。両方のPIDが一致したとき、第1PIDフィルタ5013はそのTSパケットを、そのPIDに割り当てられたデコーダへ転送する。例えば、PIDが0x1011であるとき、そのTSパケットは主映像デコーダ5015内のTB(1)5001へ転送される。その他に、PIDが、0x1B00-0x1B1F、0x1100-0x111F、0x1A00-0x1A1F、0x1200-0x121F、及び0x1400-0x141Fの各範囲に属するとき、対応するTSパケットはそれぞれ、副映像デコーダ、主音声デコーダ、副音声デコーダ、PGデコーダ、及びIGデコーダへ転送される。
 第2PIDフィルタ5014は、第2ソース・デパケタイザ5012からTSパケットを受信する度に、そのPIDを選択対象のPIDと比較する。その選択対象のPIDは再生制御部4907によって予め、3Dプレイリスト・ファイル内のSTNテーブルSSに従って指定されている。具体的には、両方のPIDが一致したとき、第2PIDフィルタ5014はそのTSパケットを、そのPIDに割り当てられたデコーダへ転送する。例えば、PIDが0x1012又は0x1013であるとき、そのTSパケットは主映像デコーダ5015内のTB(2)5008へ転送される。その他に、PIDが、0x1B20-0x1B3F、0x1220-0x127F、及び0x1420-0x147Fの各範囲に属するとき、対応するTSパケットはそれぞれ、副映像デコーダ、PGデコーダ、及びIGデコーダへ転送される。
 主映像デコーダ5015は、TB(1)5001、MB(1)5002、EB(1)5003、TB(2)5008、MB(2)5009、EB(2)5010、バッファ・スイッチ5006、DEC5004、DPB5005、及びピクチャ・スイッチ5007を含む。TB(1)5001、MB(1)5002、EB(1)5003、TB(2)5008、MB(2)5009、EB(2)5010、及びDPB5005はいずれもバッファ・メモリである。各バッファ・メモリは、主映像デコーダ5015に内蔵されたメモリ素子の一領域を利用する。その他に、それらのバッファ・メモリのいずれか又は全てが、異なるメモリ素子に分離されていてもよい。
 TB(1)5001は、ベースビュー・ビデオ・ストリームを含むTSパケットを第1PIDフィルタ5013から受信してそのまま蓄積する。MB(1)5002は、TB(1)5001に蓄積されたTSパケットからPESパケットを復元して蓄積する。そのとき、各TSパケットからTSヘッダが除去される。EB(1)5003は、MB(1)5002に蓄積されたPESパケットから、符号化されたVAUを抽出して蓄積する。そのとき、各PESパケットからPESヘッダが除去される。
 TB(2)5008は、ディペンデントビュー・ビデオ・ストリームを含むTSパケットを第2PIDフィルタ5014から受信してそのまま蓄積する。MB(2)5009は、TB(2)5008に蓄積されたTSパケットからPESパケットを復元して蓄積する。そのとき、各TSパケットからTSヘッダが除去される。EB(2)5010は、MB(2)5009に蓄積されたPESパケットから、符号化されたVAUを抽出して蓄積する。そのとき、各PESパケットからPESヘッダが除去される。
 バッファ・スイッチ5006は、EB(1)5003とEB(2)5010とのそれぞれに蓄積されたVAUを、元のTSパケットに含まれるDTSの示す時刻にDEC5004へ転送する。ここで、ベースビュー・ビデオ・ストリームとディペンデントビュー・ビデオ・ストリームとの間では、同じ3D・VAUに属する一対のピクチャのDTSが等しい。従って、バッファ・スイッチ5006は、EB(1)5003とEB(2)5010とに蓄積された、DTSの等しい一対のVAUのうち、EB(1)5003に蓄積された方を先にDEC5004へ転送する。その他に、バッファ・スイッチ5006は、図14に示されているそのVAU内の復号スイッチ情報1401をDEC5004から返信されてもよい。その場合、バッファ・スイッチ5006はその復号スイッチ情報1401を使って、次に転送すべきVAUをEB(1)5003とEB(2)5010とのいずれから転送すべきか、決定できる。
 DEC5004は、バッファ・スイッチ5006から転送されたVAUを復号する。ここで、そのVAU内に格納された圧縮ピクチャの符号化方式、例えば、MPEG-2、MPEG-4 AVC、及びVC1、並びにストリーム属性に応じて、DEC5004は復号方法を切り換える。DEC5004は更に、復号された非圧縮のピクチャ、すなわち映像フレーム又はフィールドをDPB5005へ転送する。
 DPB5005は、復号された非圧縮のピクチャを一時的に保持する。DEC5004がPピクチャ及びBピクチャを復号するとき、DPB5005はDEC5004からの要求に応じて、保持されている非圧縮のピクチャの中から参照ピクチャをDEC5004に提供する。
 ピクチャ・スイッチ5007は、DPB5005から非圧縮の各ピクチャを、元のTSパケットに含まれるPTSの示す時刻に、左映像プレーン・メモリ5020と右映像プレーン・メモリ5021とのいずれかに書き込む。ここで、ベースビュー・ビデオ・ストリームとディペンデントビュー・ビデオ・ストリームとの間では、同じ3D・VAUに属する一対のピクチャのPTSが等しい。従って、ピクチャ・スイッチ5007は、DPB5005に保持された、PTSの等しい一対のピクチャのうち、ベースビュー・ビデオ・ストリームに属する方を先に左映像プレーン・メモリ5020に書き込み、続いて、ディペンデントビュー・ビデオ・ストリームに属するものを右映像プレーン・メモリ5021に書き込む。
  ≪プレーン加算部≫
 図51はプレーン加算部4910の機能ブロック図である。図51を参照するに、プレーン加算部4910は、視差映像生成部5110、スイッチ5120、四つのクロッピング処理部5131-5134、及び四つの加算部5141-5144を含む。
 視差映像生成部5110は、システム・ターゲット・デコーダ4903から左映像プレーン・データ5101と右映像プレーン・データ5102とを受信する。再生装置102がL/Rモードであるとき、左映像プレーン・データ5101はレフトビュー・ビデオ・プレーンを表し、右映像プレーン・データ5102はライトビュー・ビデオ・プレーンを表す。そのとき、視差映像生成部5110は各ビデオ・プレーン・データ5101、5102をそのままスイッチ5120へ送出する。一方、再生装置102がデプス・モードであるとき、左映像プレーン・データ5101は2D映像のビデオ・プレーンを表し、右映像プレーン・データ5102はその2D映像に対するデプスマップを表す。そのとき、視差映像生成部5110は、まずそのデプスマップからその2D映像の各部の両眼視差を計算する。視差映像生成部5110は次に、左映像プレーン・データ5101を加工して、ビデオ・プレーンにおけるその2D映像の各部の表示位置を、計算された両眼視差に応じて左右に移動させる。それにより、レフトビューとライトビューとを表すビデオ・プレーンの対が生成される。視差映像生成部5110は更に、そのビデオ・プレーンの対を左映像と右映像とのプレーン・データの対としてスイッチ5120へ送出する。
 スイッチ5120は、再生制御部4907からB-D表示モードが指示されているとき、PTSの等しい左映像プレーン・データ5101と右映像プレーン・データ5102とをその順で第1加算部5141へ送出する。スイッチ5120は、再生制御部4907からB-B表示モードが指示されているとき、PTSの等しい左映像プレーン・データ5101と右映像プレーン・データ5102との一方をフレーム当たり二回ずつ、第1加算部5141へ送出し、他方を破棄する。
 各クロッピング処理部5131-5134は、視差映像生成部5110とスイッチ5120との対と同様な構成を含む。2プレーン・モードではそれらの構成が利用される。特に再生装置102がデプス・モードであるとき、システム・ターゲット・デコーダ4903からのプレーン・データはレフトビューとライトビューとのプレーン・データの対に変換される。再生制御部4907からB-D表示モードが指示されているとき、レフトビューとライトビューとのプレーン・データが交互に各加算部5141-5144へ送出される。一方、再生制御部4907からB-B表示モードが指示されているとき、レフトビューとライトビューとのプレーン・データの一方がフレーム当たり二回ずつ各加算部5141-5144へ送出され、他方は破棄される。
 1プレーン+オフセット・モードでは、第1クロッピング処理部5131は、システム・ターゲット・デコーダ4903からオフセット値5151を受信し、それを利用して副映像プレーン・データ5103に対してクロッピング処理を行う。それにより、その副映像プレーン・データ5103は、レフトビューとライトビューとを表す一対の副映像プレーン・データに変換されて交互に送出される。一方、1プレーン+ゼロ・オフセット・モードではその副映像プレーン・データ5103が二回繰り返して送出される。
 1プレーン+オフセット・モードでは、第2クロッピング処理部5132は、システム・ターゲット・デコーダ4903からオフセット値5151を受信し、それを利用してPGプレーン・データ5104に対してクロッピング処理を行う。それにより、そのPGプレーン・データ5104は、レフトビューとライトビューとを表す一対のPGプレーン・データに変換されて交互に送出される。一方、1プレーン+ゼロ・オフセット・モードではそのPGプレーン・データ5104が二回繰り返して送出される。
 1プレーン+オフセット・モードでは、第3クロッピング処理部5133は、システム・ターゲット・デコーダ4903からオフセット値5151を受信し、それを利用してIGプレーン・データ5105に対してクロッピング処理を行う。それにより、そのIGプレーン・データ5105は、レフトビューとライトビューとを表す一対のIGプレーン・データに変換されて交互に送出される。一方、1プレーン+ゼロ・オフセット・モードではそのIGプレーン・データ5105が二回繰り返して送出される。
 図52の(a)、(b)は、第2クロッピング処理部5132によるクロッピング処理を示す模式図である。図52の(a)、(b)ではそれぞれ、PGプレーン・データ5104からレフトビューPGプレーン・データ5204LとライトビューPGプレーン・データ5204Rとの対が次のように生成される。第2クロッピング処理部5132はまず、オフセット値5151の中から、PGプレーンに割り当てられたものを検索する。第2クロッピング処理部5132は次に、そのオフセット値に従って、PGプレーン・データ5104の示すグラフィックス映像の表示位置に対するレフトビューとライトビューとの各表示位置を左又は右に変化させる。その結果、レフトビューとライトビューとのPGプレーン・データの対が得られる。尚、1プレーン+ゼロ・オフセット・モードではオフセット値が“0”であるので、元のPGプレーン・データがそのまま維持される。第1クロッピング処理部5131は副映像プレーン・データ5103に対して同様にクロッピング処理を行い、第3クロッピング処理部5133はIGプレーン・データ5105に対して同様にクロッピング処理を行う。
 図52の(a)を参照するに、3D映像の奥行きが画面よりも手前であることをオフセット値の符号が示すとき、第2クロッピング処理部5132はまず、PGプレーン・データ5104内の各画素データの位置を元の位置から、オフセット値に等しい画素数5201Lだけ右に変化させる。3D映像の奥行きが画面よりも奥であることをオフセット値の符号が示すときは、左に変化させる。第2クロッピング処理部5132は次に、PGプレーン・データ5104の範囲から右(又は左)にはみ出ている画素データ群5202Lを除去する。こうして、残りの画素データ群5204LがレフトビューPGプレーン・データとして出力される。
 図52の(b)を参照するに、3D映像の奥行きが画面よりも手前であることをオフセット値の符号が示すとき、第2クロッピング処理部5132はまず、PGプレーン・データ5104内の各画素データの位置を元の位置から、オフセット値に等しい画素数5201Rだけ左に変化させる。3D映像の奥行きが画面よりも奥であることをオフセット方向が示すときは、右に変化させる。第2クロッピング処理部5132は次に、PGプレーン・データ5104の範囲から左(又は右)にはみ出ている画素データ群5202Rを除去する。こうして、残りの画素データ群5204RがライトビューPGプレーン・データとして出力される。
 図53の(a)、(b)、(c)はそれぞれ、図52に示されているクロッピング処理によって生成されたレフトビューとライトビューとのPGプレーン、及びそれらから視聴者に知覚される3D映像を示す模式図である。図53の(a)を参照するに、レフトビューPGプレーン5301Lは画面5302の範囲からオフセット値5201Lだけ右に変位している。その結果、レフトビューPGプレーン5301L内の字幕の2D映像5303は、元の位置よりもオフセット値5201Lだけ右に変位して見える。図53の(b)を参照するに、ライトビューPGプレーン5301Rは逆に、画面5302の範囲からオフセット値5201Rだけ左に変位している。その結果、ライトビューPGプレーン5301R内の字幕の2D映像5303は、元の位置よりもオフセット値5201Rだけ左に変位して見える。それらのPGプレーン5301L、5301Rを画面5302に交互に表示するとき、図53の(c)に示されているように、視聴者5304には字幕の3D映像5305が画面5302よりも手前に見える。そのときの3D映像5305と画面5302との間の距離はオフセット値5201L、5201Rによって調節可能である。PGプレーン・データ5104内の各画素データの位置を、図52の(a)、(b)に示されている方向とは逆に変化させたときは、視聴者5304には字幕の3D映像5305が画面5302よりも奥に見える。
 このように、1プレーン+オフセット・モードではクリッピング処理を利用して、一つのプレーン・データから、レフトビューとライトビューとのプレーン・データの対が生成される。それにより、一つのプレーン・データからでも、視差映像を表示することができる。すなわち、平面的なイメージに対して奥行き感を与えることができる。特に視聴者にその平面的なイメージを画面から浮かび上がるようにも、画面の奥に沈み込むようにも見せることができる。尚、1プレーン+ゼロ・オフセット・モードではオフセット値が“0”であるので、平面的なイメージがそのまま維持される。
 図51を再び参照するに、イメージ・プレーン・データ5106は、プログラム実行部4906からシステム・ターゲット・デコーダ4903へ転送されたグラフィックス・データが、システム・ターゲット・デコーダ4903によって復号されたものである。そのグラフィックス・データはJPEG又はPNG等のラスタデータであり、メニュー等のGUI用グラフィックス部品を表す。第4クロッピング処理部5134はイメージ・プレーン・データ5106に対するクロッピング処理を他のクロッピング処理部5131-5133と同様に行う。但し、第4クロッピング処理部5134は他のクロッピング処理部5131-5133とは異なり、オフセット値をシステム・ターゲット・デコーダ4903ではなく、プログラムAPI5152から受け取る。ここで、プログラムAPI5152はプログラム実行部4906によって実行される。それにより、グラフィックス・データの表すイメージの奥行きに相当するオフセット値が算出されて、第4クロッピング処理部5134に渡される。
 第1加算部5141はまず、スイッチ5120からはビデオ・プレーン・データを受信し、第1クロッピング処理部5131からは副映像プレーン・データを受信する。第1加算部5141は次に、ビデオ・プレーン・データと副映像プレーン・データとを一組ずつ重畳して第2加算部5142に渡す。第2加算部5142は、第2クロッピング処理部5132からPGプレーン・データを受信し、第1加算部5141からのプレーン・データに重畳して第3加算部5143に渡す。第3加算部5143は、第3クロッピング処理部5133からIGプレーン・データを受信し、第2加算部5142からのプレーン・データに重畳して第4加算部5144に渡す。第4加算部5144は、第4クロッピング処理部5134からイメージ・プレーン・データを受信し、第3加算部5143からのプレーン・データに重畳して表示装置103へ送出する。その結果、図51に矢印5100で示されている順序で、左映像プレーン・データ5101又は右映像プレーン・データ5102、副映像プレーン・データ5103、PGプレーン・データ5104、IGプレーン・データ5105、及びイメージ・プレーン・データ5106は重畳される。それらの合成処理により、各プレーン・データの示す映像は表示装置103の画面上に、左映像プレーン又は右映像プレーン、副映像プレーン、IGプレーン、PGプレーン、及びイメージ・プレーンの順に重ねられたように表示される。
 プレーン加算部4910は上記の処理の他に、四つの加算部5141-5144によって合成されたプレーン・データの出力形式を、表示装置103等、そのデータの出力先の装置による3D映像の表示方式に合わせて変換する。例えば出力先の装置が経時分離方式を利用するとき、プレーン加算部4910は合成後のプレーン・データを一つの映像フレーム又はフィールドとして送出する。一方、出力先の装置がレンチキュラーレンズを利用するとき、プレーン加算部4910は内蔵のバッファ・メモリを利用して、レフトビューとライトビューとのプレーン・データの対を一つの映像フレーム又はフィールドに合成して送出する。具体的には、プレーン加算部4910は、先に合成されたレフトビュー・プレーン・データを一旦、そのバッファ・メモリに格納して保持する。プレーン加算部4910は続いて、ライトビュー・プレーン・データを合成して、バッファ・メモリに保持されたレフトビュー・プレーン・データと更に合成する。その合成では、レフトビューとライトビューとの各プレーン・データが縦方向に細長い短冊形の小領域に分割され、各小領域が一つのフレーム又はフィールドの中に横方向に交互に並べられて一つのフレーム又はフィールドに再構成される。こうして、レフトビューとライトビューとのプレーン・データの対が一つの映像フレーム又はフィールドに合成される。プレーン加算部4910はその合成後の映像フレーム又はフィールドを出力先の装置へ送出する。
 <映像のシームレス再生のためにデータ・ブロックのサイズが満たすべき条件>
 本発明の実施形態によるBD-ROMディスク101では、図16、34に示されているとおり、ベースビュー・データ・ブロックとディペンデントビュー・データ・ブロックとが一つずつ交互に配置され、インターリーブ配置を形成している。更に、層境界等、ロングジャンプが必要な箇所では、図21-29、34に示されているとおり、ベースビュー・データ・ブロックとその複製データとが2D再生専用ブロックと3D再生専用ブロックとして配置されている。これらのデータ・ブロックの配置は上記の説明どおり、2D映像と3D映像とのいずれのシームレス再生にも有利である。それらのシームレス再生を更に確実に実現するには、各データ・ブロックのサイズは、再生装置102の性能に基づく条件を満たせばよい。以下、それらの条件について説明する。
  ≪2D再生モードの性能に基づく条件≫
 図54は、2D再生モードの再生装置102内の再生処理系統を示す模式図である。図54を参照するに、その再生処理系統は、図46に示されている要素のうち、BD-ROMドライブ4601、リード・バッファ4602、及びシステム・ターゲット・デコーダ4603を含む。BD-ROMドライブ4601はBD-ROMディスク101から2Dエクステントを読み出し、読み出し速度Rud-2Dでリード・バッファ4602へ転送する。システム・ターゲット・デコーダ4603は、リード・バッファ4602内に蓄積された各2Dエクステントからソースパケットを平均転送速度Rext2Dで読み出し、映像データVDと音声データADとに復号する。
 平均転送速度Rext2Dは、図37に示されているソース・デパケタイザ3711からPIDフィルタ3713へのTSパケットの平均転送速度RTSの192/188倍に等しく、一般に2Dエクステントごとに異なる。平均転送速度Rext2Dの最大値Rmax2Dは、ファイル2Dに対するシステムレートの192/188倍に等しい。ここで、そのシステムレートは、図31に示されているように、2Dクリップ情報ファイルに規定されている。また、上記の係数192/188はソースパケットとTSパケットとの間のバイト数の比に等しい。平均転送速度Rext2Dは通常ビット/秒で表され、具体的には、ビット単位で表された2DエクステントのサイズをエクステントATC時間で割ったときの値に等しい。「ビット単位で表されたエクステントのサイズ」は、そのエクステント内のソースパケット数とソースパケット一つ当たりのバイト数(=192バイト)との積の8倍に等しい。
 読み出し速度Rud-2Dは通常ビット/秒で表され、平均転送速度Rext2Dの最高値Rmax2Dよりも高い値、例えば54Mbpsに設定される:Rud-2D>Rmax2D。それにより、BD-ROMドライブ4601がBD-ROMディスク101から一つの2Dエクステントを読み出している間、システム・ターゲット・デコーダ4603の復号処理に伴うリード・バッファ4602のアンダーフローが防止される。
 図55の(a)は、2Dエクステントの再生処理中、リード・バッファ4602に蓄積されるデータ量DAの変化を示すグラフである。図55の(b)は、それらの2Dエクステントを含む3Dエクステント・ブロック5510と2D再生モードでの再生経路5520との間の対応関係を示す模式図である。図55の(b)を参照するに、3Dエクステント・ブロック5510は、インターリーブ配置のベースビュー・データ・ブロック群とディペンデントビュー・データ・ブロック群とで構成されている。再生経路5520に従い、各ベースビュー・データ・ブロックL0、L1、…が一つの2DエクステントEXT2D[0]、EXT2D[1]、…として、BD-ROMディスク101からリード・バッファ4602へ読み出される。まず、先頭のベースビュー・データ・ブロックL0、すなわち2DエクステントEXT2D[0]の読み出し期間PR2D[0]では、図55の(a)に示されているように、蓄積データ量DAは、読み出し速度Rud-2Dと平均転送速度Rext2D[0]との間の差Rud-2D-Rext2D[0]に等しい速度で増加する。
 先頭の2DエクステントEXT2D[0]の後端が読み出された時に最初のジャンプJ2D[0]が生じる。そのジャンプ期間PJ2D[0]では、後続の二つのデータ・ブロックD1、R1の読み出しがスキップされるので、BD-ROMディスク101からのデータの読み出しが停止する。従って、最初のジャンプ期間PJ2D[0]では、図55の(a)に示されているように、蓄積データ量DAは平均転送速度Rext2D[0]で減少する。
 ここで、次の場合を想定する:最初の読み出し期間PR2D[0]にリード・バッファ4602に蓄積されたデータ量、すなわち先頭の2DエクステントEXT2D[0]のサイズSext2D[0]が、その読み出し期間PR2D[0]から最初のジャンプ期間PJ2D[0]にわたってリード・バッファ4602からシステム・ターゲット・デコーダ4603へ転送されるデータ量に等しい。その場合、図55の(a)に示されているように、蓄積データ量DAは最初のジャンプ期間PJ2D[0]の終了時、最初の読み出し期間PR2D[0]の開始時での値を下回らない。
 最初のジャンプJ2D[0]に続いて次のベースビュー・データ・ブロックL1、すなわち2DエクステントEXT2D[1]の読み出しが開始される。その読み出し期間PR2D[1]では、図55の(a)に示されているように、蓄積データ量DAは、データ転送速度の差Rud-2D-Rext2D[1]に等しい速度で再び増加する。
 実際には、BD-ROMドライブ4601は読み出し/転送動作を、図55の(a)に示されているように連続的にではなく断続的に行う。それにより、各2Dエクステントの読み出し期間PR2D[0]、PR2D[1]、…に蓄積データ量DAがリード・バッファ4602の容量を超えないように、すなわちリード・バッファ4602がオーバーフローを生じないようにする。従って、図55の(a)のグラフは、実際には階段状である増減を直線的な増減として近似的に表したものである。
 以上のように、2D再生モードでは再生経路5520に従い、2DエクステントLn=EXT2D[n](n=0、1、2、…)の読み出しと、一対のディペンデントビュー・データ・ブロックDn、Rnの記録領域を越えるジャンプJ2D[n]とが交互に繰り返される。それに伴い、リード・バッファ4602の蓄積データ量DAは、読み出し期間PR2D[n]では速度Rud-2D-Rext2D[n]で増加し、ジャンプ期間PJ2D[n]では速度Rext2D[n]で減少する。従って、それらの2DエクステントEXT2D[n]から2D映像をシームレスに再生するには、以下の条件[1]、[2]が満たされればよい。
 [1]各ジャンプ期間PJ2D[n]でリード・バッファ4602からシステム・ターゲット・デコーダ4603へのデータ供給を維持して、そのデコーダ4603の連続的な出力を確保する必要がある。図55の(a)から明らかなとおり、各読み出し期間PR2D[n]にリード・バッファ4602に蓄積されるデータ量、すなわち各2DエクステントEXT2D[n]のサイズSext2D[n]が、その読み出し期間PR2D[n]から次のジャンプ期間PJ2D[n]にわたってリード・バッファ4602からシステム・ターゲット・デコーダ4603へ転送されるデータ量に等しければ、そのジャンプ期間PJ2D[n]の途中で蓄積データ量DAがその読み出し期間PR2D[n]の直前の値まで戻ることはない。特にリード・バッファ4602はアンダーフローを生じない。ここで、読み出し期間PR2D[n]の長さは、2DエクステントEXT2D[n]のサイズSext2D[n]を読み出し速度Rud-2Dで割った値Sext2D[n]/Rud-2Dに等しい。従って、各2DエクステントEXT2D[n]のサイズSext2D[n]は次式(1)を満たせばよい:
Figure JPOXMLDOC01-appb-M000001
 式(1)では、ジャンプ時間Tjump-2D[n]はジャンプ期間PJ2D[n]の長さであり、秒単位で表される。一方、読み出し速度Rud-2Dと平均転送速度Rext2Dとはいずれもビット/秒で表される。従って、式(1)では平均転送速度Rext2Dを数「8」で割り、2DエクステントのサイズSext2D[n]の単位をビットからバイトへ変換している。すなわち、2DエクステントのサイズSext2D[n]はバイト単位で表される。関数CEIL()は、括弧内の数値の小数点以下の端数を切り上げる操作を意味する。
 [2]リード・バッファ4602の容量は有限であることから、ジャンプ時間Tjump-2D[n]の最大値は制限される。すなわち、ジャンプ期間PJ2D[n]の直前に蓄積データ量DAがリード・バッファ4602の容量一杯であっても、ジャンプ時間Tjump-2D[n]が長すぎれば、ジャンプ期間PJ2D[n]中に蓄積データ量DAが0に達し、リード・バッファ4602のアンダーフローが生じる危険性がある。以下、BD-ROMディスク101からリード・バッファ4602へのデータ供給が途絶えている状態で蓄積データ量DAがリード・バッファ4602の最大容量から0に到達するまでの時間、すなわち、シームレス再生を保証できるジャンプ時間Tjump-2Dの最大値を「最大ジャンプ時間」という。
 光ディスクの規格では通常、ジャンプ距離と最大ジャンプ時間との間の関係が光ディスクドライブのアクセス・スピード等から決められている。図56は、BD-ROMディスクに関するジャンプ距離Sjumpと最大ジャンプ時間Tjumpとの間の対応表の一例である。図56では、ジャンプ距離Sjumpはセクタ単位で表され、最大ジャンプ時間Tjumpはm秒単位で表されている。ここで、1セクタ=2048バイトとする。図56を参照するに、ジャンプ距離Sjumpが、0セクタ、1-10000セクタ、10001-20000セクタ、20001-40000セクタ、40001セクタ-1/10ストローク、及び1/10ストローク以上の各範囲に属するとき、最大ジャンプ時間Tjumpはそれぞれ、50m秒、250m秒、300m秒、350m秒、700m秒、及び1400m秒である。
 ジャンプ距離Sjumpが0セクタに等しいときの最大ジャンプ時間を特に「ゼロ・セクタ遷移時間Tjump-0」という。「ゼロ・セクタ遷移」とは、二つの連続するデータ・ブロック間での光ピックアップの移動をいう。ゼロ・セクタ遷移期間では光ピックアップは読み出し動作を一旦停止して待機する。ゼロ・セクタ遷移時間は、BD-ROMディスク101の回転による光ピックアップの位置の移動時間の他に、誤り訂正処理に伴うオーバーヘッドを含んでもよい。「誤り訂正処理に伴うオーバーヘッド」とは、二つの連続するデータ・ブロック間の境界がECCブロック間の境界と一致していないときに、そのECCブロックを用いた誤り訂正処理が二回行われることに起因する余分な時間をいう。誤り訂正処理には一つのECCブロックの全体が必要である。従って、一つのECCブロックが二つの連続するデータ・ブロックに共有されているとき、いずれのデータ・ブロックの読み出し処理でもそのECCブロックの全体が読み出されて誤り訂正処理に利用される。その結果、それらのデータ・ブロックを一つ読み出すごとに、そのデータ・ブロックの他に最大32セクタの余分なデータが読み出される。誤り訂正処理に伴うオーバーヘッドは、その余分なデータの読み出し時間の合計、すなわち32[セクタ]×2048[バイト]×8[ビット/バイト]×2[回]/読み出し速度Rud-2Dで評価される。尚、各データ・ブロックをECCブロック単位で構成することにより、誤り訂正処理に伴うオーバーヘッドをゼロ・セクタ遷移時間から除外してもよい。
 BD-ROMディスク101が多層ディスクであるとき、層切り換えを伴うロングジャンプでは、図56に規定された最大ジャンプ時間Tjumpに加えて、フォーカス・ジャンプ等、その記録層の切り換え操作に特定の時間、例えば350m秒が更に必要である。以下、この時間を「層切換時間」という。
 以上のことから、式(1)に代入されるべきジャンプ時間Tjump-2D[n]は二つのパラメータTJ[n]、TL[n]の和で決まる:Tjump-2D[n]=TJ[n]+TL[n]。第1パラメータTJ[n]は、BD-ROMディスクの規格によってジャンプ距離別に規定された最大ジャンプ時間を表す。第1パラメータTJ[n]は例えば図56の表において、n番目の2DエクステントEXT2D[n]の後端から(n+1)番目の2DエクステントEXT2D[n+1]の先端までのセクタ数、すなわちジャンプ距離に対応する最大ジャンプ時間に等しい。第2パラメータTL[n]は、n番目の2DエクステントEXT2D[n]と(n+1)番目の2DエクステントEXT2D[n+1]との間に層境界LBがあるときは層切換時間、例えば350m秒を表し、層境界LBがないときは0を表す。例えばジャンプ時間Tjump-2D[n]の最大値が700m秒に制限されるとき、二つの2DエクステントEXT2D[n]、EXT2D[n+1]間のジャンプ距離は、それらの2Dエクステント間に層境界がないときは1/10ストローク(=約1.2GB)まで許され、層境界があるときは40000セクタ(=約78.1MB)まで許される。
  ≪3D再生モードに基づく条件≫
 図57は、3D再生モードの再生装置102内の再生処理系統を示す模式図である。図57を参照するに、その再生処理系統は、図49に示されている要素のうち、BD-ROMドライブ4901、スイッチ4911、第1リード・バッファ4921、第2リード・バッファ4922、及びシステム・ターゲット・デコーダ4903を含む。BD-ROMドライブ4901はBD-ROMディスク101から3Dエクステントを読み出し、読み出し速度Rud-3Dでスイッチ4911へ転送する。スイッチ4911は各3Dエクステントからベースビュー・エクステントを抽出して、ディペンデントビュー・エクステントと分離する。ベースビュー・エクステントは第1リード・バッファ4921へ格納され、ディペンデントビュー・エクステントは第2リード・バッファ4922へ格納される。第2リード・バッファ4922内の蓄積データは、L/Rモードではライトビュー・エクステントであり、デプス・モードではデプスマップ・エクステントである。システム・ターゲット・デコーダ4903は、第1リード・バッファ4921内に蓄積された各ベースビュー・エクステントからソースパケットを第1平均転送速度Rext1で読み出す。L/Rモードのシステム・ターゲット・デコーダ4903は、第2リード・バッファ4922内に蓄積された各ライトビュー・エクステントからソースパケットを第2平均転送速度Rext2で読み出す。デプス・モードのシステム・ターゲット・デコーダ4903は、第2リード・バッファ4922内に蓄積された各デプスマップ・エクステントからソースパケットを第3平均転送速度Rext3で読み出す。システム・ターゲット・デコーダ4903は更に、読み出されたベースビュー・エクステントとディペンデントビュー・エクステントとの対を映像データVDと音声データADとに復号する。
 第1平均転送速度Rext1を「ベースビュー転送速度」という。ベースビュー転送速度Rext1は、図50に示されている第1ソース・デパケタイザ5011から第1PIDフィルタ5013へのTSパケットの平均転送速度RTS1の192/188倍に等しく、一般にベースビュー・エクステントごとに異なる。ベースビュー転送速度Rext1の最高値Rmax1はファイル2Dに対するシステムレートの192/188倍に等しい。そのシステムレートは2Dクリップ情報ファイルに規定されている。ベースビュー転送速度Rext1は通常ビット/秒で表され、具体的には、ビット単位で表されたベースビュー・エクステントのサイズをエクステントATC時間で割ったときの値に等しい。エクステントATC時間は、そのベースビュー・エクステント内のソースパケットに付与されたATSの範囲を表す。従って、エクステントATC時間は、そのベースビュー・エクステント内のソースパケットを全て、第1リード・バッファ4921からシステム・ターゲット・デコーダ4903へ転送するのに要する時間に等しい。
 第2平均転送速度Rext2を「ライトビュー転送速度」といい、第3平均転送速度Rext3を「デプスマップ転送速度」という。いずれの転送速度Rext2、Rext3も、第2ソース・デパケタイザ5012から第2PIDフィルタ5014へのTSパケットの平均転送速度RTS2の192/188倍に等しく、一般にディペンデントビュー・エクステントごとに異なる。ライトビュー転送速度Rext2の最高値Rmax2は第1ファイルDEPに対するシステムレートの192/188倍と等しく、デプスマップ転送速度Rext3の最高値Rmax3は第2ファイルDEPに対するシステムレートの192/188倍に等しい。各システムレートはライトビュー・クリップ情報ファイルとデプスマップ・クリップ情報ファイルとに規定されている。各転送速度Rext2、Rext3は通常ビット/秒で表され、具体的には、ビット単位で表されたディペンデントビュー・エクステントのサイズをエクステントATC時間で割ったときの値に等しい。エクステントATC時間は、各ディペンデントビュー・エクステント内のソースパケットに付与されたATSの範囲を表す。従って、エクステントATC時間は、そのディペンデントビュー・エクステント内のソースパケットを全て、第2リード・バッファ4922からシステム・ターゲット・デコーダ4903へ転送するのに要する時間に等しい。
 読み出し速度Rud-3Dは通常ビット/秒で表され、第1-3平均転送速度Rext1-Rext3のいずれの最高値Rmax1-Rmax3よりも高い値、例えば72Mbpsに設定される:Rud-3D>Rmax1、Rud-3D>Rmax2、Rud-3D>Rmax3。それにより、BD-ROMドライブ4901によってBD-ROMディスク101から一つの3Dエクステントを読み出している間、システム・ターゲット・デコーダ4903の復号処理に伴う各リード・バッファ4921、4922のアンダーフローが防止される。
   [L/Rモード]
 図58の(a)、(b)は、L/Rモードでの3Dエクステント・ブロックの再生処理中、各リード・バッファ4921、4922に蓄積されるデータ量DA1、DA2の変化を示すグラフである。図58の(c)は、その3Dエクステント・ブロック5810とL/Rモードでの再生経路5820との間の対応関係を示す模式図である。図58の(c)を参照するに、3Dエクステント・ブロック5810は、インターリーブ配置のベースビュー・データ・ブロック群とディペンデントビュー・データ・ブロック群とで構成されている。再生経路5820に従い、隣接するライトビュー・データ・ブロックRkとベースビュー・データ・ブロックLkとの各対(k=0、1、2、…)が一つの3DエクステントEXTSS[k]として読み出される。ここでは説明の便宜上、(n-1)個の3Dエクステントが既に読み出され、かつ整数nが1より十分に大きい場合を想定する。その場合、両リード・バッファ4921、4922の蓄積データ量DA1、DA2は既にそれぞれの下限値UL1、UL2以上に維持されている。それらの下限値UL1、UL2を「バッファ余裕量」という。バッファ余裕量UL1、UL2を確保するための方法については後述する。
 図58の(c)を参照するに、第(2n-1)読み出し期間PRR[n]にn番目のライトビュー・エクステントRnがBD-ROMディスク101から第2リード・バッファ4922へ読み出される。第(2n-1)読み出し期間PRR[n]では、図58の(b)に示されているように、第2リード・バッファ4922の蓄積データ量DA2は、読み出し速度Rud-3Dとライトビュー転送速度Rext2[n]との間の差Rud-3D-Rext2[n]に等しい速度で増加する。一方、図58の(a)に示されているように、第1リード・バッファ4921の蓄積データ量DA1はベースビュー転送速度Rext1[n-1]で減少する。
 n番目のライトビュー・エクステントRnの後端が読み出された時、n回目のゼロ・セクタ遷移J0[n]が生じる。第nゼロ・セクタ遷移期間PJ0[n]では、BD-ROMディスク101からのデータの読み出しが停止する。従って、第1リード・バッファ4921の蓄積データ量DA1はベースビュー転送速度Rext1[n-1]で減少し続け、第2リード・バッファ4922の蓄積データ量DA2はライトビュー転送速度Rext2[n]で減少する。
 第nゼロ・セクタ遷移期間PJ0[n]の終了時点から、第2n読み出し期間PRL[n]が開始される。第2n読み出し期間PRL[n]ではn番目のベースビュー・エクステントLnがBD-ROMディスク101から第1リード・バッファ4921へ読み出される。従って、図58の(a)に示されているように、第1リード・バッファ4921の蓄積データ量DA1は、読み出し速度Rud-3Dとベースビュー転送速度Rext1[n]との間の差Rud-3D-Rext1[n]に等しい速度で増加する。一方、図58の(b)に示されているように、第2リード・バッファ4922の蓄積データ量DA2はライトビュー転送速度Rext2[n]で減少し続ける。
 n番目のベースビュー・エクステントLnの後端が読み出された時、n番目のジャンプJLR[n]が生じる。第nジャンプ期間PJLR[n]では(n+1)番目のデプスマップ・エクステントD(n+1)の読み出しがスキップされるので、BD-ROMディスク101からのデータの読み出しが停止する。従って、第nジャンプ期間PJLR[n]では、図58の(a)に示されているように、第1リード・バッファ4921の蓄積データ量DA1はベースビュー転送速度Rext1[n]で減少する。一方、図58の(b)に示されているように、第2リード・バッファ4922の蓄積データ量DA2はライトビュー転送速度Rext2[n]で減少し続ける。
 ここで、次の場合を想定する:第(2n-1)読み出し期間PRR[n]に第2リード・バッファ4922に蓄積されるデータ量、すなわちn番目のライトビュー・エクステントRnのサイズSext2[n]は少なくとも、第(2n-1)読み出し期間PRR[n]から第nジャンプ期間PJLR[n]にわたって第2リード・バッファ4922からシステム・ターゲット・デコーダ4903へ転送されるデータ量に等しい。その場合、ジャンプ期間PJLR[n]の終了時、図58の(b)に示されているように、第2リード・バッファ4922の蓄積データ量DA2が第2バッファ余裕量UL2を下回らない。
 第nジャンプ期間PJLR[n]の終了時点から第(2n+1)読み出し期間PRR[n+1]が開始される。第(2n+1)読み出し期間PRR[n+1]では、(n+1)番目のライトビュー・エクステントR(n+1)がBD-ROMディスク101から第2リード・バッファ4922へ読み出される。従って、図58の(b)に示されているように、第2リード・バッファ4922の蓄積データ量DA2は、読み出し速度Rud-3Dとライトビュー転送速度Rext2[n+1]との間の差Rud-3D-Rext2[n+1]に等しい速度で増加する。一方、図58の(a)に示されているように、第1リード・バッファ4921の蓄積データ量DA1はベースビュー転送速度Rext1[n]で減少し続ける。
 (n+1)番目のライトビュー・エクステントR(n+1)の後端が読み出された時、(n+1)回目のゼロ・セクタ遷移J0[n+1]が生じる。第(n+1)ゼロ・セクタ遷移期間PJ0[n+1]ではBD-ROMディスク101からのデータの読み出しが停止する。従って、第1リード・バッファ4921の蓄積データ量DA1はベースビュー転送速度Rext1[n]で減少し続け、第2リード・バッファ4922の蓄積データ量DA2はライトビュー転送速度Rext2[n+1]で減少する。
 ここで、次の場合を想定する:第2n読み出し期間PRL[n]に第1リード・バッファ4921に蓄積されるデータ量、すなわちn番目のベースビュー・エクステントLnのサイズSext1[n]は少なくとも、第2n読み出し期間PRL[n]から第(n+1)ゼロ・セクタ遷移期間PJ0[n+1]にわたって第1リード・バッファ4921からシステム・ターゲット・デコーダ4903へ転送されるデータ量に等しい。その場合、第(n+1)ゼロ・セクタ遷移期間PJ0[n+1]の終了時、図58の(a)に示されているように、第1リード・バッファ4921の蓄積データ量DA1が第1バッファ余裕量UL1を下回らない。
 3DエクステントEXTSS[n]=Rn+Ln、EXTSS[n+1]=R(n+1)+L(n+1)、…から、それらの間のジャンプにかかわらず、3D映像をシームレスに再生するには、上記と同様な蓄積データ量DA1、DA2の変化が繰り返されればよい。それには、以下の条件[3]、[4]、[5]が満たされればよい。
 [3]n番目のベースビュー・エクステントLnのサイズSext1[n]は少なくとも、第2n読み出し期間PRL[n]から第(n+1)ゼロ・セクタ遷移期間PJ0[n+1]にわたって第1リード・バッファ4921からシステム・ターゲット・デコーダ4903へ転送されるデータ量に等しい。ここで、第2n読み出し期間PRL[n]の長さは、n番目のベースビュー・エクステントLnのサイズSext1[n]を読み出し速度Rud-3Dで割った値Sext1[n]/Rud-3Dに等しい。第(2n+1)読み出し期間PRR[n+1]の長さは、(n+1)番目のライトビュー・エクステントR(n+1)のサイズSext2[n+1]を読み出し速度Rud-3Dで割った値Sext2[n+1]/Rud-3Dに等しい。従って、n番目のベースビュー・エクステントLnのサイズSext1[n]は次式(2)を満たせばよい:
Figure JPOXMLDOC01-appb-M000002
 [4]n番目のライトビュー・エクステントRnのサイズSext2[n]は少なくとも、第(2n-1)読み出し期間PRR[n]から第nジャンプ期間PJLR[n]にわたって第2リード・バッファ4922からシステム・ターゲット・デコーダ4903へ転送されるデータ量に等しい。ここで、第(2n-1)読み出し期間PRR[n]の長さは、n番目のライトビュー・エクステントRnのサイズSext2[n]を読み出し速度Rud-3Dで割った値Sext2[n]/Rud-3Dに等しい。従って、n番目のライトビュー・エクステントRnのサイズSext2[n]は次式(3)を満たせばよい:
Figure JPOXMLDOC01-appb-M000003
 [5]式(2)、(3)に代入されるべきジャンプ時間Tjump-3D[n]は、式(1)に代入されるべきジャンプ時間Tjump-2D[n]とは異なり、第1パラメータTJ[n]だけで決まる:Tjump-3D[n]=TJ[n]。第1パラメータTJ[n]は例えば図56の表において、n番目のベースビュー・エクステントLnの後端から(n+1)番目のライトビュー・エクステントR(n+1)の先端までのセクタ数、すなわちジャンプ距離に対応する最大ジャンプ時間に等しい。
   [デプス・モード]
 図59の(a)、(b)は、デプス・モードでの3Dエクステント・ブロック再生処理中、各リード・バッファ4921、4922に蓄積されるデータ量DA1、DA2の変化を示すグラフである。図59の(c)は、その3Dエクステント・ブロック5910とデプス・モードでの再生経路5920との間の対応関係を示す模式図である。図59の(c)を参照するに、3Dエクステント・ブロック5910は、図58の(c)に示されている3Dエクステント・ブロック5810と同様なインターリーブ配置のデータ・ブロック群で構成されている。再生経路5920に従い、デプスマップ・データ・ブロックDkとベースビュー・データ・ブロックDkとがそれぞれ、一つのエクステントとして読み出される(k=0、1、2、…)。図58の場合と同様、(n-1)個の3Dエクステントが既に読み込まれ、かつ整数nが1より十分に大きい場合を想定する。その場合、両リード・バッファ4921、4922の蓄積データ量DA1、DA2は既にそれぞれのバッファ余裕量UL1、UL2以上に維持されている。
 図59の(c)を参照するに、第(2n-1)読み出し期間PRD[n]にn番目のデプスマップ・エクステントDnがBD-ROMディスク101から第2リード・バッファ4922へ読み出される。第(2n-1)読み出し期間PRD[n]では、図59の(b)に示されているように、第2リード・バッファ4922の蓄積データ量DA2は、読み出し速度Rud-3Dとデプスマップ転送速度Rext3[n]との間の差Rud-3D-Rext3[n]に等しい速度で増加する。一方、図59の(a)に示されているように、第1リード・バッファ4921の蓄積データ量DA1はベースビュー転送速度Rext1[n-1]で減少する。
 n番目のデプスマップ・エクステントDnの後端が読み出された時、n回目のジャンプJLD[n]が生じる。第nジャンプ期間PJLD[n]では、n番目のライトビュー・エクステントRnの読み出しがスキップされるので、BD-ROMディスク101からのデータの読み出しが停止する。従って、第nジャンプ期間PJLD[n]では、図59の(a)に示されているように、第1リード・バッファ4921の蓄積データ量DA1はベースビュー転送速度Rext1[n-1]で減少し続ける。一方、図59の(b)に示されているように、第2リード・バッファ4922の蓄積データ量DA2はデプスマップ転送速度Rext3[n]で減少する。
 第nジャンプ期間PJLD[n]の終了時点から第2n読み出し期間PRL[n]が開始される。第2n読み出し期間PRL[n]では、n番目のベースビュー・エクステントLnがBD-ROMディスク101から第1リード・バッファ4921へ読み出される。従って、図59の(a)に示されているように、第1リード・バッファ4921の蓄積データ量DA1は、読み出し速度Rud-3Dとベースビュー転送速度Rext1[n]との間の差Rud-3D-Rext1[n]に等しい速度で増加する。一方、図59の(b)に示されているように、第2リード・バッファ4922の蓄積データ量DA2はデプスマップ転送速度Rext3[n]で減少し続ける。
 n番目のベースビュー・エクステントLnの後端が読み出された時、n回目のゼロ・セクタ遷移J0[n]が生じる。第nゼロ・セクタ遷移期間PJ0[n]では、BD-ROMディスク101からのデータの読み出しが停止する。従って、第1リード・バッファ4921の蓄積データ量DA1はベースビュー転送速度Rext1[n]で減少し、第2リード・バッファ4922の蓄積データ量DA2はデプスマップ転送速度Rext3[n]で減少し続ける。
 ここで、次の場合を想定する:第(2n-1)読み出し期間PRD[n]に第2リード・バッファ4922に蓄積されるデータ量、すなわちn番目のデプスマップ・エクステントDnのサイズSext3[n]は少なくとも、第(2n-1)読み出し期間PRD[n]から第nゼロ・セクタ遷移期間PJ0[n]にわたって第2リード・バッファ4922からシステム・ターゲット・デコーダ4903へ転送されるデータ量に等しい。その場合、第nゼロ・セクタ遷移期間PJ0[n]の終了時、図59の(b)に示されているように、第2リード・バッファ4922の蓄積データ量DA2が第2バッファ余裕量UL2を下回らない。
 第nゼロ・セクタ遷移期間PJ0[n]の終了時点から第(2n+1)読み出し期間PRD[n+1]が開始される。第(2n+1)読み出し期間PRD[n+1]では(n+1)番目のデプスマップ・エクステントD(n+1)がBD-ROMディスク101から第2リード・バッファ4922へ読み出される。従って、図59の(a)に示されているように、第1リード・バッファ4921の蓄積データ量DA1はベースビュー転送速度Rext1[n]で減少し続ける。一方、図59の(b)に示されているように、第2リード・バッファ4922の蓄積データ量DA2は速度Rud-3D-Rext3[n+1]で増加する。
 (n+1)番目のデプスマップ・エクステントD(n+1)の後端が読み出された時、(n+1)回目のジャンプJLD[n+1]が生じる。第(n+1)ジャンプ期間PJLD[n+1]では、(n+1)番目のライトビュー・エクステントR(n+1)の読み出しがスキップされるので、BD-ROMディスク101からのデータの読み出しが停止する。従って、第(n+1)ジャンプ期間PJLD[n+1]では、第1リード・バッファ4921の蓄積データ量DA1はベースビュー転送速度Rext1[n]で減少し続け、第2リード・バッファ4922の蓄積データ量DA2はデプスマップ転送速度Rext3[n+1]で減少する。
 第(n+1)ジャンプ期間PJLD[n+1]の終了時点から第(2n+2)読み出し期間PRL[n+1]が開始される。第(2n+2)読み出し期間PRL[n+1]では、(n+1)番目のベースビュー・エクステントL(n+1)がBD-ROMディスク101から第1リード・バッファ4921へ読み出される。従って、図59の(a)に示されているように、第1リード・バッファ4921の蓄積データ量DA1は速度Rud-3D-Rext1[n+1]で増加する。一方、図59の(b)に示されているように、第2リード・バッファ4922の蓄積データ量DA2はデプスマップ転送速度Rext3[n+1]で減少し続ける。
 ここで、次の場合を想定する:第2n読み出し期間PRL[n]に第1リード・バッファ4921に蓄積されるデータ量、すなわちn番目のベースビュー・エクステントLnのサイズSext1[n]は少なくとも、第2n読み出し期間PRL[n]から第(n+1)ジャンプ期間PJLD[n+1]にわたって第1リード・バッファ4921からシステム・ターゲット・デコーダ4903へ転送されるデータ量に等しい。その場合、第(n+1)ジャンプ期間PJLD[n+1]の終了時、図59の(a)に示されているように、第1リード・バッファ4921の蓄積データ量DA1が第1バッファ余裕量UL1を下回らない。
 デプスマップ・エクステントDn、D(n+1)、…とベースビュー・エクステントLn、L(n+1)、…とから、それらの間のジャンプにかかわらず、3D映像をシームレスに再生するには、上記と同様な蓄積データ量DA1、DA2の変化が繰り返されればよい。それには、以下の条件[6]、[7]、[8]が満たされればよい。
 [6]n番目のベースビュー・エクステントLnのサイズSext1[n]は少なくとも、第2n読み出し期間PRL[n]から第(n+1)ジャンプ期間PJLD[n+1]にわたって第1リード・バッファ4921からシステム・ターゲット・デコーダ4903へ転送されるデータ量に等しい。ここで、第2n読み出し期間PRL[n]の長さは、n番目のベースビュー・エクステントLnのサイズSext1[n]を読み出し速度Rud-3Dで割った値Sext1[n]/Rud-3Dに等しい。第(2n+1)読み出し期間PRD[n+1]の長さは、(n+1)番目のデプスマップ・エクステントD(n+1)のサイズSext3[n+1]を読み出し速度Rud-3Dで割った値Sext3[n+1]/Rud-3Dに等しい。従って、n番目のベースビュー・エクステントLnのサイズSext1[n]は次式(4)を満たせばよい:
Figure JPOXMLDOC01-appb-M000004
 [7]n番目のデプスマップ・エクステントDnのサイズSext3[n]は少なくとも、第(2n-1)読み出し期間PRD[n]から第nゼロ・セクタ遷移期間PJ0[n]にわたって第2リード・バッファ4922からシステム・ターゲット・デコーダ4903へ転送されるデータ量に等しい。ここで、第(2n-1)読み出し期間PRD[n]の長さは、n番目のデプスマップ・エクステントDnのサイズSext3[n]を読み出し速度Rud-3Dで割った値Sext3[n]/Rud-3Dに等しい。従って、n番目のデプスマップ・エクステントDnのサイズSext3[n]は次式(5)を満たせばよい:
Figure JPOXMLDOC01-appb-M000005
 [8]式(4)、(5)に代入されるべきジャンプ時間Tjump-3D[n]は、例えば図56の表において、n番目のデプスマップ・エクステントDnの後端からn番目のベースビュー・エクステントLnの先端までのセクタ数、すなわちジャンプ距離に対応する最大ジャンプ時間に等しい。尚、本発明の実施形態によるデータ・ブロック群の配置では、エクステントATC時間の等しいデプスマップ・エクステントDnとベースビュー・エクステントLnとの対が間に層境界を挟んで配置されることはない。
 ゼロ・セクタ遷移時間Tjump-0[n]は、n番目のベースビュー・エクステントLnと(n+1)番目のデプスマップ・エクステントD(n+1)との間における層境界LBの有無に関わらず、実際のゼロ・セクタ遷移に要する時間のみで評価された規定値に等しい。
 以上の結果、インターリーブ配置のデータ・ブロック群から、2D映像のシームレス再生、3D映像のL/Rモードでのシームレス再生、及び3D映像のデプス・モードでのシームレス再生のいずれも実現可能にするには、各データ・ブロックのサイズは上記の式(1)-(5)を全て満たすように設計されればよい。特にベースビュー・データ・ブロックのサイズは、式(1)、(3)、及び(5)の各右辺の中で最大のもの以上であればよい。以下、式(1)-(5)を全て満たすデータ・ブロックのサイズの下限値を「最小エクステント・サイズ」という。
 <リード・バッファの余裕量>
 図58、59の各(a)、(b)に示されている各リード・バッファ4921、4922の蓄積データ量DA1、DA2の下限値UL1、UL2はそれぞれのバッファ余裕量を表す。「バッファ余裕量」とは、一つの3Dエクステント・ブロック、すなわちインターリーブ配置の一連のデータ・ブロック群の読み出し期間中、各リード・バッファに維持されるべき蓄積データ量の下限値をいう。ストリーム・データの読み出し中に、読み出し対象の記録層が切り換えられるとき、又は他のファイルの読み出し処理が割り込まれたとき、異なる3Dエクステント・ブロック間でロングジャンプが生じる。ここで、上記の他のファイルは、図5に示されているAVストリーム・ファイル以外のファイル、例えば、ムービーオブジェクト・ファイル512、BD-Jオブジェクト・ファイル551、及びJARファイル561を含む。ロングジャンプは、式(2)-(5)の導出で考慮された一つの3Dエクステント・ブロック内で生じるジャンプよりも長い。更に、他のファイルの読み出し処理の割り込みに起因するロングジャンプでは、その発生時期が不定であり、特に一つのデータ・ブロックの読み出し途中でも生じ得る。従って、式(2)-(5)にロングジャンプの最大ジャンプ時間を代入して最小エクステント・サイズを設定するよりも、バッファ余裕量を、ロングジャンプ中での各リード・バッファのアンダーフローを防ぐことのできる量に維持しておく方が有利である。
 図60は、L/Rモードでの再生処理中に生じるロングジャンプJLY、JBDJ1、JBDJ2を示す模式図である。図60を参照するに、層境界LBの前に位置する第1記録層には、第1の3Dエクステント・ブロック6001が配置され、その後端L3と層境界LBとの間には2D再生専用ブロックL42Dが配置されている。一方、層境界LBの後に位置する第2記録層には第2の3Dエクステント・ブロック6002が配置されている。更に、いずれの3Dエクステント・ブロック6001、6002からも離れた領域にBD-Jオブジェクト・ファイル6003が記録されている。第1の3Dエクステント・ブロック6001から第2の3Dエクステント・ブロック6002への再生処理では、層切り換えに伴うロングジャンプJLYが生じる。一方、第1の3Dエクステント・ブロック6001の読み出し中にBD-Jオブジェクト・ファイル6003の読み出し処理が割り込まれたとき、一対のロングジャンプJBDJ1、JBDJ2が生じる。各ロングジャンプJLY、JBDJに対して必要なバッファ余裕量UL1、UL2は以下のように計算される。
 層切り換えに伴うロングジャンプJLYの最大ジャンプ時間Tjump-LYは、図56の表において第1ロングジャンプJLYのジャンプ距離に対応する最大ジャンプ時間と層切換時間との和に等しい。そのジャンプ距離は、第1の3Dエクステント・ブロック6001内の最後のベースビュー・データ・ブロックL3の後端と、第2の3Dエクステント・ブロック6002内の先頭のライトビュー・データ・ブロックR4の先端との間のセクタ数に等しい。一方、ベースビュー転送速度Rext1は最高値Rmax1を超えない。従って、そのロングジャンプJLYの期間に第1リード・バッファ4921から消費されるデータ量は、ベースビュー転送速度の最高値Rmax1と最大ジャンプ時間Tjump-LYとの積を超えない。その積の値が第1バッファ余裕量UL1として決定される。すなわち、第1バッファ余裕量UL1は次式(6)で計算される:
Figure JPOXMLDOC01-appb-M000006
 例えばジャンプ距離が40000セクタであるとき、図56の表によれば、最大ジャンプ時間Tjump-LYは、層切換時間350m秒を含めて700m秒である。従って、ファイル2Dに対するシステムレートが48Mbpsであるとき、第1バッファ余裕量UL1は(48Mbps×192/188)×0.7秒=約4.09MBに等しい。
 同様に、ロングジャンプJLYの期間に第2リード・バッファ4922から消費されるデータ量の最大値、すなわちライトビュー転送速度の最大値Rmax2と最大ジャンプ時間Tjump-LYとの積が第2バッファ余裕量UL2として決定される。すなわち、第2バッファ余裕量UL2は次式(7)で計算される:
Figure JPOXMLDOC01-appb-M000007
 例えばジャンプ距離が40000セクタであり、すなわち最大ジャンプ時間Tjump-LYが700m秒であり、第1ファイルDEPに対するシステムレートが16Mbpsであるとき、第2バッファ余裕量UL2は(16Mbps×192/188)×0.7秒=約1.36MBに等しい。
 図60を再び参照するに、第1の3Dエクステント・ブロック6001の読み出し期間にBD-Jオブジェクト・ファイル6003の読み出し処理の割り込みが生じたとき、最初のロングジャンプJBDJ1が生じる。それにより、読み出し対象の位置が第2ベースビュー・データ・ブロックL2の記録領域からBD-Jオブジェクト・ファイル6003の記録領域へ移動する。そのジャンプ時間TBDJは一定値、例えば900m秒に予め規定されている。次に、BD-Jオブジェクト・ファイル6003が読み出される。その読み出しに要する時間は、そのファイル6003に属するエクステントのサイズSBDJの8倍を読み出し速度Rud-3Dで割った値8×SBDJ[n]/Rud-3Dに等しい(通常、エクステントのサイズSBDJはバイト単位で表され、読み出し速度Rud-3Dはビット/秒で表されるので、8倍が必要である)。続いて、2回目のロングジャンプJBDJ2が生じる。それにより、読み出し対象の位置がBD-Jオブジェクト・ファイル6003の記録領域から第2ベースビュー・データ・ブロックL2の記録領域へ戻る。そのジャンプ時間TBDJは最初のジャンプ時間、例えば900m秒に等しい。計2回のロングジャンプJBDJ1、JBDJ2とBD-Jオブジェクト・ファイル6003の読み出しとが行われる間、第1リード・バッファ4921にはデータが読み込まれない。従って、その期間に第1リード・バッファ4921から消費されるデータ量の最大値が第1バッファ余裕量UL1として決定される。すなわち、第1バッファ余裕量UL1は次式(8)で計算される:
Figure JPOXMLDOC01-appb-M000008
 同様に、2回のロングジャンプJBDJ1、JBDJ2とBD-Jオブジェクト・ファイル6003の読み出しとが行われる間に第2リード・バッファ4922から消費されるデータ量の最大値が第2バッファ余裕量UL2として決定される。すなわち、第2バッファ余裕量UL2は次式(9)で計算される:
Figure JPOXMLDOC01-appb-M000009
 第1バッファ余裕量UL1は、式(6)、(8)の右辺で表される値のいずれか大きい方に設定される。第2バッファ余裕量UL2は、式(7)、(9)の右辺で表される値のいずれか大きい方に設定される。
 <リード・バッファの最小容量>
 図58、59の各(c)に示されている一連の3Dエクステント・ブロックからの再生処理については、各リード・バッファ4921、4922に必要な容量の最小値は以下のように計算される。
 3D再生モードでn番目のベースビュー・データ・ブロックLn(n=0、1、2、…)を読み出すとき、第1リード・バッファ4921に必要な容量RB1[n]は、図58、59の各(a)に示されているグラフのピークのうち、最も高い値以上であればよい。ここで、読み出し対象のベースビュー・データ・ブロックのサイズSext1が一定であれば、ベースビュー転送速度Rext1が最高値Rmax1に等しいときにピーク値は最も高い。従って、その容量RB1[n]は、L/Rモードとデプス・モードとのいずれでも、次式(10)を満たせばよい:
Figure JPOXMLDOC01-appb-M000010
 L/Rモードでn番目のライトビュー・データ・ブロックRnを読み出すとき、第2リード・バッファ4922に必要な容量RB2LR[n]は、図58の(b)に示されているグラフのピークのうち、最も高い値以上であればよい。ここで、読み出し対象のライトビュー・データ・ブロックのサイズSext2が一定であれば、ライトビュー転送速度Rext2が最高値Rmax2に等しいときにピーク値は最も高い。従って、その容量RB2LR[n]は次式(11)を満たせばよい:
Figure JPOXMLDOC01-appb-M000011
 ここで、ライトビュー・データ・ブロックはいずれも、飛び込み再生によって最初に読み出される可能性を持つ。その場合、最初に読み出されるライトビュー・データ・ブロックの全体が第2リード・バッファ4922に格納されるまでシステム・ターゲット・デコーダ4903は第2リード・バッファ4922からデータを読み出さない。従って、第2リード・バッファ4922の容量RB2LR[n]は第1リード・バッファ4921の容量RB1[n]とは異なり、「少なくともn番目のライトビュー・データ・ブロックRnのサイズSext2[n]よりも大きい」という条件を更に満たす。
 同様に、デプス・モードでn番目のデプスマップ・データ・ブロックDnを読み出すときに必要な第2リード・バッファ4922の容量RB2LD[n]は次式(12)を満たせばよい:
Figure JPOXMLDOC01-appb-M000012
 <層境界前後での再生経路の分離の効果>
 本発明の実施形態によるBD-ROMディスク101では、層境界の前後のデータ・ブロック群が、図22、25、27のそれぞれに示されている配置1、2、3のいずれかで記録されている。それにより、層切り換えの前後ではベースビュー・ビデオ・ストリームの特定部分が、2D再生モードでは2D再生専用ブロックLn2Dから再生され、3D再生モードでは3D再生専用ブロックLnSSから再生される。その場合、図23に示されている配置とは異なり、その特定部分を格納した2DエクステントのサイズSext2Dは、ベースビュー・エクステントのサイズSext1と2D再生専用ブロックLn2Dのサイズとの和に等しい。式(1)はその和Sext2Dによって満たされればよい一方、式(2)-(5)は2D再生専用ブロックLn2D以外のデータ・ブロックのサイズによって満たされればよい。従って、2D再生専用ブロックLn2Dのサイズの調節によって、2Dエクステントの全体のサイズSext2Dが式(1)を満たすこととは実質上独立に、式(2)-(5)を満たすディペンデントビュー・エクステントのサイズSext2、Sext3の下限値、すなわち最小エクステント・サイズが更に縮小可能である。それ故、式(11)、(12)から明らかなとおり、第2リード・バッファ4922の最小容量RB2LR、RB2LDが、式(1)とは実質上独立に、更に削減可能である。
 <3Dエクステント・ブロック内のエクステントATC時間>
 3Dエクステント・ブロック、すなわち、インターリーブ配置のデータ・ブロック群では、隣接するデータ・ブロックDn、Rn、Ln(n=0、1、2、…)がいずれも同じエクステントATC時間を持つ。言い換えれば、各データ・ブロックの先頭のソースパケットから次のデータ・ブロックの先頭のソースパケットまでのATSの差が等しい。但し、その差の計算では、ATSにラップ・アラウンドが発生することが考慮されている。その場合、ATCで計られる同じ時間内に、第1ソース・デパケタイザ5011はベースビュー・データ・ブロックLn内の全てのソースパケットからTSパケットを取り出して第1PIDフィルタ5013へ送出し、第2ソース・デパケタイザ5012はディペンデントビュー・データ・ブロックDn又はRn内の全てのソースパケットからTSパケットを取り出して第2PIDフィルタ5014へ送出する。従って、特に飛び込み再生時、主映像デコーダ5015はベースビュー・ビデオ・ストリームとディペンデントビュー・ビデオ・ストリームとの間でTSパケットの復号処理を容易に同期させることができる。
 <エクステントATC時間を用いたエクステント・サイズの条件式>
 式(2)-(5)では、ベースビュー・エクステントとディペンデントビュー・エクステントとの各サイズが、それよりも後方に位置するエクステントのサイズで制限される。しかし、オーサリング工程での利用という観点からは、各エクステントのサイズに対する条件が、他のエクステントのサイズには依存しない形で表現されていることが望ましい。従って、式(2)-(5)は、以下のように、エクステントATC時間を利用した条件式に表現し直される。
 上記のとおり、隣接する三つのエクステントDn、Rn、Ln(n=0、1、2、…)はいずれも同じエクステントATC時間Text[n]を持つ。それらのエクステントATC時間の最小値を最小エクステントATC時間minTextとし、最大値を最大エクステントATC時間maxTextとする:minText≦Text[n]≦maxText。その場合、n番目の各エクステントEXT1[n]、EXT2[n]、EXT3[n]のサイズSext1[n]、Sext2[n]、Sext3[n]は次式(13)、(14)、(15)の範囲に制限される:
 CEIL(Rext1[n]×minText/8)≦Sext1[n]≦CEIL(Rext1[n]×maxText/8)、     (13)
 CEIL(Rext2[n]×minText/8)≦Sext2[n]≦CEIL(Rext2[n]×maxText/8)、     (14)
 CEIL(Rext3[n]×minText/8)≦Sext3[n]≦CEIL(Rext3[n]×maxText/8)。     (15)
 続いて、最大エクステントATC時間maxTextと最小エクステントATC時間minTextとの間の差を一定値Tmとする:maxText=minText+Tm。その場合、最小エクステントATC時間minTextは最小エクステント・サイズ、すなわち式(2)-(5)の各右辺を利用して、以下のように算定される。
 n番目のベースビュー・エクステントのサイズが最小エクステント・サイズに等しいとき、式(2)、(13)から最小エクステントATC時間minTextは次式(16)を満たす:
Figure JPOXMLDOC01-appb-M000013
 (n+1)番目のライトビュー・エクステントのサイズSext2[n+1]は、ライトビュー転送速度Rext2の最高値Rmax2と最大エクステントATC時間maxTextとの積まで許される:Sext2[n+1]≦Rmax2×maxText=Rmax2×(minText+Tm)。更に、ベースビュー転送速度Rext1[n]は最高値Rmax1を超えない:Rext1[n]≦Rmax1。最小エクステントATC時間minTextは式(16)の右辺の上限であるべきなので、次式(17)を満たすべきである:
Figure JPOXMLDOC01-appb-M000014
 式(2)に代えて式(4)を同様に変形すれば、最小エクステントATC時間minTextは次式(18)を更に満たすべきである:
Figure JPOXMLDOC01-appb-M000015
 一方、n番目のベースビュー・エクステントのサイズが最小エクステント・サイズに等しいとき、そのエクステントATC時間Text[n]が最小エクステントATC時間minTextに等しい。n番目のライトビュー・エクステントはn番目のベースビュー・エクステントとエクステントATC時間が共通であるので、式(3)、(14)から、最小エクステントATC時間minTextは次式(19)を満たす:
Figure JPOXMLDOC01-appb-M000016
 ライトビュー転送速度Rext2[n]は最高値Rmax2を超えず、ベースビュー転送速度Rext1[n]は最高値Rmax1を超えない:Rext2[n]≦Rmax2、Rext1[n]≦Rmax1。最小エクステントATC時間minTextは式(19)の右辺の上限であるべきなので、次式(20)を満たすべきである:
Figure JPOXMLDOC01-appb-M000017
 式(3)に代えて式(5)を利用すれば同様にして、最小エクステントATC時間minTextが次式(21)を満たすべきである:
Figure JPOXMLDOC01-appb-M000018
 以上の結果、最小エクステントATC時間minTextは、式(17)、(18)、(20)、(21)の各右辺の中での最大値として定義される。ここで、ゼロ・セクタ遷移時間Tjump-0、ジャンプ時間Tjump-3D、及びエクステントATC時間の変動幅Tmは予め一定に制限できる。特に、後述の変形例(F)と同様、最大ジャンプ距離MAX_EXTJUMP3Dを利用してジャンプ時間Tjump-3Dを評価してもよい。それにより、最小エクステントATC時間minTextは実質上、平均転送時間の最大値Rmax等の定数だけで決定可能である。従って、式(13)-(15)で表されたエクステント・サイズに対する条件はオーサリング工程での利用に有利である。
 <バッファ余裕量の確保>
 各バッファ余裕量UL1、UL2は、以下に述べるように確保される。まず、各データ・ブロックの設計では「エクステントATC時間Textが最小エクステントATC時間minText以上である」という条件が課される。ここで、最小エクステントATC時間minTextは、式(17)、(18)、(20)、(21)に示されているとおり、平均転送速度Rext1、Rext2、Rext3がそれぞれの最高値Rmax1、Rmax2、Rmax3に等しい場合での値である。しかし、実際の平均転送速度Rext1、Rext2、Rext3はそれぞれの最高値Rmax1、Rmax2、Rmax3よりも一般に低い。従って、実際のデータ・ブロックのサイズRext1×Text、Rext2×Text、Rext3×Textは、上記の条件下で想定される値Rmax1×Text、Rmax2×Text、Rmax3×Textよりも一般に小さい。それ故、各データ・ブロックの読み出し開始からエクステントATC時間Textが経過する前に、次のデータ・ブロックの読み出しが開始される。すなわち、各リード・バッファ4921、4922の蓄積データ量DA1、DA2は実際には、図58、59の(a)、(b)に示されているものとは一般に異なり、読み出し開始時の値まで戻る前に再び増加する。こうして、各蓄積データ量DA1、DA2は、ベースビューとディペンデントビューとのデータ・ブロックの対が一つ読み出されるごとに所定量ずつ増える。その結果、ある程度の数のデータ・ブロックが各リード・バッファ4921、4922に連続して読み込まれることにより、各バッファ余裕量UL1、UL2が確保される。
 図61の(a)は、3Dエクステント・ブロック6110とL/Rモードでの再生経路6120との間の対応関係を示す模式図である。図61の(a)を参照するに、3Dエクステント・ブロック6110はインターリーブ配置のベースビュー・データ・ブロック群Lkとディペンデントビュー・データ・ブロック群Dk、Rk(k=0、1、2、…)とで構成されている。再生経路6120に従い、隣接するライトビュー・データ・ブロックRkとベースビュー・データ・ブロックLkとの各対が一つの3Dエクステント、すなわちディペンデントビュー・エクステントとベースビュー・エクステントとの対として読み出される。ベースビュー・エクステントLkのエクステント・サイズSext1[k]はベースビュー転送速度Rext1[k]とエクステントATC時間Text[k]との積に等しい:Sext1[k]=Rext1[k]×Text[k]。このエクステント・サイズSext1[k]は、ベースビュー転送速度の最高値Rmax1とエクステントATC時間Text[k]との積よりも一般に小さい:Sext1[k]<Rmax1×Text[k]。ディペンデントビュー・エクステントDk、Rkのエクステント・サイズSext3[k]、Sext2[k]についても同様である。
 図61の(b)は、3Dエクステント・ブロック6110がL/Rモードでの再生経路6120に従って読み出されるときにおける第1リード・バッファ4921の蓄積データ量DA1の変化を示すグラフである。細い実線のグラフは、平均転送速度Rext1[k]、Rext2[k]、Rext3[k]がそれぞれの最高値Rmax1、Rmax2、Rmax3に等しい場合での変化を示す。一方、太い実線のグラフは、先頭のベースビュー・エクステントL0の転送速度Rext1[0]が最高値Rmax1よりも低い場合での変化を示す。尚、説明の便宜上、ディペンデントビュー転送速度Rext2[k]、Rext3[k]はそれぞれの最高値Rmax2、Rmax3に等しい場合を想定する。その場合、ディペンデントビュー・エクステントのサイズRext2[k]×Text[k]、Rext3[k]×Text[k]は想定可能な最大値Rmax2×Text[k]、Rmax3×Text[k]に等しい。
 図61の(b)を参照するに、細い実線のグラフでは、先頭のベースビュー・エクステントL0の読み出し開始からエクステントATC時間Text[0]が経過したとき、次のベースビュー・エクステントL1の読み出しが開始される。従って、そのときの蓄積データ量DA1は読み出し開始時の値DM10と実質的に等しい。一方、太い実線のグラフでは、先頭のベースビュー・エクステントL0の全体がBD-ROMディスク101から第1リード・バッファ4921へ読み出されるのに時間Sext1[0]/Rud-3Dが必要である。その時間は細い実線のグラフでの時間Rmax1×Text[0]/Rud-3Dよりも時間ΔTbだけ短い:ΔTb=Sext1[0]/Rud-3D-Rmax1×Text[0]/Rud-3D=(Rext1[0]-Rmax1)×Text[0]/Rud-3D。従って、太い実線のグラフでは細い実線のグラフよりも蓄積データ量DA1が時間ΔTbだけ早くピークに達する。一方、各ディペンデントビュー・エクステントD1、R1のサイズSext2[1]、Sext3[1]は両方のグラフで共通の値Rmax2×Text[1]、Rmax3×Text[1]である。従って、蓄積データ量DA1のピークから次のベースビュー・エクステントL1の読み出し開始までの時間ΔTは両方のグラフで共通である。その結果、太い実線のグラフでは細い実線のグラフとは異なり、先頭のベースビュー・エクステントL0の読み出し開始からエクステントATC時間Textが経過するよりも時間ΔTbだけ早く、次のベースビュー・エクステントL1の読み出しが開始される。それ故、その時点での蓄積データ量DA1の値DM11は先頭のベースビュー・エクステントL0の読み出し開始時の値DM10よりも増分DM1[0]だけ増加する。図61の(b)から明らかなとおり、この増分DM1[0]は蓄積データ量DA1の実際の減少速度Rext1[0]と時間ΔTbとの積に等しい:DM1[0]=Rext1[0]×ΔTb=Rext1[0]×(Rext1[0]-Rmax1)×Text[0]/Rud-3D
 図61の(c)は、図61の(b)に示されている変化を第1リード・バッファ4921の蓄積データ量DA1が示すときにおける第2リード・バッファ4922の蓄積データ量DA2の変化を示すグラフである。細い実線のグラフは、平均転送速度Rext1[k]、Rext2[k]、Rext3[k]がそれぞれの最高値Rmax1、Rmax2、Rmax3に等しい場合での変化を示す。一方、太い実線のグラフは、先頭のベースビュー・エクステントL0の転送速度Rext1[0]が最高値Rmax1よりも低い場合での変化を示す。尚、説明の便宜上、ディペンデントビュー転送速度Rext2[k]、Rext3[k]はそれぞれの最高値Rmax2、Rmax3に等しい場合を想定する。
 図61の(c)を参照するに、細い実線のグラフでは、先頭のライトビュー・エクステントR0の読み出し開始からエクステントATC時間Text[0]が経過したとき、次のライトビュー・エクステントR1の読み出しが開始される。従って、そのときの蓄積データ量DA2は読み出し開始時の値DM20と実質的に等しい。一方、太い実線のグラフでは細い実線のグラフよりも時間ΔTbだけ早く、先頭のベースビュー・エクステントL0の全体がBD-ROMディスク101から第1リード・バッファ4921へ読み出される。従って、太い実線のグラフでは細い実線のグラフよりも時間ΔTbだけ早く、すなわち先頭のライトビュー・エクステントR0の読み出し開始からエクステントATC時間Textが経過するよりも時間ΔTbだけ前に、次のライトビュー・エクステントR1の読み出しが開始される。それ故、その時点での蓄積データ量DA2の値DM21は、先頭のライトビュー・エクステントR0の読み出し開始時の値DM20よりも増分DM2[0]だけ増加する。図61の(c)から明らかなとおり、この増分DM2[0]は蓄積データ量DA2の実際の減少速度Rext2[0]と時間ΔTbとの積に等しい:DM2[0]=Rext2[0]×ΔTb=Rext2[0]×(Rext1[0]-Rmax1)×Text[0]/Rud-3D
 図61では、ディペンデントビュー転送速度Rext2[k]、Rext3[k]はそれぞれの最高値Rmax2、Rmax3に等しい場合が想定されている。しかし、実際には、ディペンデントビュー転送速度Rext2[k]、Rext3[k]も一般に、それぞれの最高値Rmax2、Rmax3よりも低い。その場合、図61の(c)のグラフでは図61の(b)のグラフと同様に、蓄積データ量DA2が時間ΔTdだけピークに早く到達する:ΔTd=Sext2[0]/Rud-3D-Rmax2×Text[0]/Rud-3D=(Rext2[0]-Rmax2)×Text[0]/Rud-3D。一方、図61の(b)のグラフでは、蓄積データ量DA1のピークから次のベースビュー・エクステントL1の読み出し開始までの時間ΔTが同じ時間ΔTdだけ短縮される。それらを考慮した場合、ベースビュー・エクステントLkとライトビュー・エクステントRkとの対が一つ処理されるごとに、各リード・バッファの蓄積データ量DA1、DA2は、次式(22)、(23)で表される増分DM1[k]、DM2[k]だけ増加する:
 DM1[k]=Rext1[k]×(ΔTb+ΔTd)
    =Rext1[k]×{(Rext1[k]-Rmax1)+(Rext2[k]-Rmax2)}×Text[k]/Rud-3D、  (22)
 DM2[k]=Rext2[k]×(ΔTb+ΔTd)
    =Rext2[k]×{(Rext1[k]-Rmax1)+(Rext2[k]-Rmax2)}×Text[k]/Rud-3D。  (23)
 L/Rモードでは、各3DエクステントEXTSS[k]からベースビュー・エクステントLkとライトビュー・エクステントRkとが各リード・バッファ4921、4922に読み込まれるごとに各蓄積データ量DA1、DA2は増分DM1[k]、DM2[k]ずつ増える。デプス・モードでも同様に、ベースビュー・エクステントLkとデプスマップ・エクステントDkとが各リード・バッファ4921、4922に読み込まれるごとに各蓄積データ量DA1、DA2は増分DM3[k]、DM4[k]ずつ増える。ここで、増分DM3[k]、DM4[k]は次式(24)、(25)で表される:
 DM3[k]=Rext1[k]×{(Rext1[k]-Rmax1)+(Rext3[k]-Rmax3)}×Text[k]/Rud-3D、  (24)
 DM4[k]=Rext3[k]×{(Rext1[k]-Rmax1)+(Rext3[k]-Rmax3)}×Text[k]/Rud-3D。  (25)
 従って、3Dエクステント・ブロック6110全体でのエクステントATC時間の合計Tsum=Text[0]+Text[1]+Text[2]+…が次式(26)を満たすとき、その3Dエクステント・ブロック6110の全体の読み出しによって各リード・バッファ4921、4922にバッファ余裕量UL1、UL2を確保することができる:
Figure JPOXMLDOC01-appb-M000019
 ここで、次の近似が用いられている:3Dエクステント・ブロック6110の全体で、ベースビュー転送速度Rext1[k]が平均値Rext1-avに等しく、ディペンデントビュー転送速度Rext2[k]、Rext3[k]が平均値Rext2-av、Rext3-avに等しい。
 尚、一連の3Dエクステント・ブロックの読み出し期間では、ロングジャンプが生じない限り、各リード・バッファの蓄積データ量DA1、DA2は増え続ける。従って、各蓄積データ量DA1、DA2が所定の閾値を超えた場合、再生装置102はBD-ROMドライブ4901に読み出し/転送動作を断続させる。それにより、読み出し速度Rud-3Dが低下するので、各蓄積データ量DA1、DA2の増加が抑えられる。こうして、各リード・バッファ4921、4922のオーバーフローを回避することができる。
 <変形例>
 (A)本発明の実施形態1は、記録媒体に3D映像を格納するときのエクステントの配置に関する。しかし、本発明は、記録媒体に高フレームレートの映像を格納するときに利用されても良い。具体的には、例えば高フレームレートの映像を奇数番目のフレーム群と偶数番目のフレーム群とに分け、それぞれをベースビュー・ビデオ・ストリームとディペンデントビュー・ビデオ・ストリームとみなして、上記の実施形態1によるエクステントの配置で記録媒体に記録すればよい。通常のフレームレートでの映像再生のみが可能な再生装置は、その記録媒体からは奇数番目のフレーム群の映像を再生すればよい。一方、高フレームレートでの映像再生が可能な再生装置は、奇数番目のフレーム群のみの映像と両方のフレーム群の映像とを選択的に再生できる。こうして、高フレームレートの映像が格納された記録媒体に、通常のフレームレートでの映像再生のみが可能な再生装置に対する互換性を確保させることができる。
 (B)本発明の実施形態1では、ベースビュー・ビデオ・ストリームがレフトビューを表し、ディペンデントビュー・ビデオ・ストリームがライトビューを表す。逆に、ベースビュー・ビデオ・ストリームがライトビューを表し、ディペンデントビュー・ビデオ・ストリームがレフトビューを表してもよい。
 (C)図32の(a)に示されているオフセット・テーブル3141は、PID別にオフセット・エントリ3304のテーブル3310を含む。オフセット・テーブルはその他に、プレーン別にオフセット・エントリのテーブルを含んでもよい。その場合、3D再生装置によるオフセット・テーブルの解析処理を簡素化することができる。更に、プレーンの合成処理に関する3D再生装置の性能に合わせて、オフセット・エントリの有効区間の長さに、例えば1秒間という下限が設けられてもよい。
 (D)図40に示されている3Dプレイリスト・ファイルは、サブTSの再生経路を示すサブパスを一つ含む。その他に、3Dプレイリスト・ファイルが、異なるサブTSの再生経路を示すサブパスを複数含んでもよい。例えば、一方のサブパスのサブパス・タイプが「3D・L/R」であり、他方のサブパスのサブパス・タイプが「3D・デプス」であってもよい。その3Dプレイリスト・ファイルに従って3D映像が再生されるとき、再生対象のサブパスがそれら二種類のサブパスの間で切り換えられることにより、再生装置102をL/Rモードとデプス・モードとの間で容易に切り換えさせることができる。特にその切り換え処理は、3Dプレイリスト・ファイルそのものを切り換える処理よりも速やかに実現可能である。
 3Dプレイリスト・ファイルは、サブパス・タイプの等しいサブパスを複数含んでいてもよい。例えば、同じシーンに対する両眼視差の異なる3D映像が共通のレフトビューに対するライトビューの違いで表現されるとき、異なるライトビュー・ビデオ・ストリームごとに異なるファイルDEPがBD-ROMディスク101に記録される。一方、3Dプレイリスト・ファイルは、サブパス・タイプが「3D・L/R」であるサブパスを複数含む。それらのサブパスは、異なるファイルDEPの再生経路を個別に規定する。その他に、一つのファイル2Dに対してデプスマップ・ストリームが二種類以上含まれていてもよい。その場合、3Dプレイリスト・ファイルは、サブパス・タイプが「3D・デプス」であるサブパスを複数含む。それらのサブパスは、各デプスマップ・ストリームを含むファイルDEPの再生経路を個別に規定する。そのような3Dプレイリスト・ファイルに従って3D映像が再生されるとき、再生対象のサブパスが例えばユーザの操作に応じて速やかに切り換えられるので、3D映像を実質的に途切れさせることなく、その両眼視差を変化させることができる。それにより、ユーザに所望の両眼視差の3D映像を容易に選択させることができる。
 (E)リード・バッファからシステム・ターゲット・レコーダへのデータの平均転送速度Rextの評価においてエクステントATC時間が正確に計算されることを目的として、各エクステントのサイズがソースパケット長のある一定の倍数に揃えられてもよい。更に、いずれかのエクステントがその倍数よりも多くのソースパケットを含むとき、その倍数を超えたソースパケット数とソースパケット一つ当たりの転送時間(=188×8/システムレート)との積を、その倍数に相当するエクステントATC時間に加えた値が、そのエクステントのエクステントATC時間とみなされても良い。その他に、エクステントATC時間は、一つのエクステントの先頭のソースパケットのATSから同じエクステントの最後のソースパケットのATSまでの時間間隔にソースパケット一つ当たりの転送時間を加えた値で定義されてもよい。その場合、エクステントATC時間の計算には次のエクステントの参照が不要であるので、その計算を簡単化することができる。尚、上記のエクステントATC時間の計算では、ATSにラップ・アラウンドが発生することを考慮しなければならない。
 (F)インターリーブ配置のデータ・ブロック群の中には、例えばBD-Jオブジェクト・ファイル等、別のファイルに属するエクステントが配置されてもよい。図62の(a)は、多重化ストリーム・データのみを含むインターリーブ配置のデータ・ブロック群を示す模式図である。図62の(b)は、他のファイルに属するエクステントを含むインターリーブ配置のデータ・ブロック群を示す模式図である。
 図62の(a)を参照するに、データ・ブロック群6201は、デプスマップ・データ・ブロックD1、D2、D3、ライトビュー・データ・ブロックR1、R2、R3、ベースビュー・データ・ブロックL1、L2、L3を交互に含む。L/Rモードでの再生経路6202では、隣接するライトビュー・データ・ブロックとベースビュー・データ・ブロックとの対R1+L1、R2+L2、R3+L3が順番に読み出される。各対ではライトビュー・データ・ブロックとベースビュー・データ・ブロックとの間にゼロ・セクタ遷移J0が生じる。更に各デプスマップ・データ・ブロックD1、D2、D3の読み出しがジャンプJLRによってスキップされる。デプス・モードでの再生経路6203では、デプスマップ・データ・ブロックD1、D2、D3とベースビュー・データ・ブロックL1、L2、L3とが交互に読み出される。隣接するベースビュー・データ・ブロックとデプスマップ・データ・ブロックとの間にはゼロ・セクタ遷移J0が生じる。更に各ライトビュー・データ・ブロックR1、R2、R3の読み出しがジャンプJLDによってスキップされる。
 一方、図62の(b)を参照するに、図62の(a)と同様なデータ・ブロック群6204の中に、別のファイルに属するエクステントA1、A2が挿入されている。その別のファイルは、例えばムービーオブジェクト・ファイル、BD-Jオブジェクト・ファイル、及びJARファイルのいずれでもよい。そのエクステントA1、A2はいずれも、図62の(a)では隣接していたデプスマップ・データ・ブロックとライトビュー・データ・ブロックとの間に挿入されている。その場合、L/Rモードでの再生経路6205では、図62の(a)に示されている再生経路6202よりもジャンプJLRの距離が長い。しかし、そのエクステントA1、A2をいずれかのベースビュー・データ・ブロックの隣に挿入する場合とは異なり、ゼロ・セクタ遷移J0を通常のジャンプに変更しなくてもよい。デプス・モードでの再生経路6206でも同様である。ここで、図56の表から明らかなとおり、最大ジャンプ時間は一般に、ジャンプ距離を変更するときよりも、ゼロ・セクタ遷移を通常のジャンプに変更するときの方が大きく増加する。従って、式(2)-(5)から明らかなとおり、最小エクステント・サイズは一般に、ジャンプ距離を変更するときよりも、ゼロ・セクタ遷移を通常のジャンプに変更するときの方が大きく増加する。それ故、インターリーブ配置のデータ・ブロック群6201の中にエクステントA1、A2を挿入するときは、図62の(b)に示されているように、デプスマップ・データ・ブロックとライトビュー・データ・ブロックとの間に挿入する。それにより、その挿入に伴う最小エクステント・サイズの増大を抑えることができるので、リード・バッファの最小容量の増大を回避することができる。
 図62の(b)に示されている配置では更に、各エクステントA1、A2のセクタ単位でのサイズG1、G2が最大ジャンプ距離MAX_EXTJUMP3D以下に制限されてもよい:G1≦MAX_EXTJUMP3D、G2≦MAX_EXTJUMP3D。その最大ジャンプ距離MAX_EXTJUMP3Dは、データ・ブロック群6204内で生じるジャンプJLR、JLDの中で最大のジャンプ距離をセクタ単位で表す。その制限の下では、式(2)-(5)の右辺に代入されるべき最大ジャンプ時間が増大しにくいので、最小エクステント・サイズが増大しにくい。従って、エクステントA1、A2の挿入に伴うリード・バッファの最小容量の増大を回避することができる。
 その他に、各エクステントA1、A2のサイズG1、G2とそれに隣接するディペンデントビュー・データ・ブロックD2、R2、D3、R3のサイズSext3[2]、Sext2[2]、Sext3[3]、Sext2[3]との和が最大ジャンプ距離MAX_EXTJUMP3D以下に制限されてもよい:
 CEIL(Sext3[2]/2048)+G1≦MAX_EXTJUMP3D、
 CEIL(Sext2[2]/2048)+G1≦MAX_EXTJUMP3D、
 CEIL(Sext3[3]/2048)+G2≦MAX_EXTJUMP3D、
 CEIL(Sext2[3]/2048)+G2≦MAX_EXTJUMP3D。
 これらの式では、ディペンデントビュー・データ・ブロックのバイト単位でのサイズを1セクタ当たりのバイト数2048で割ることにより、各サイズの単位をバイトからセクタ数に変換している。これらの条件式が満たされている限り、式(2)-(5)の右辺に代入されるべき最大ジャンプ時間は一定値を超えない。例えば最大ジャンプ距離MAX_EXTJUMP3Dを40000セクタに固定した場合、図56の表から最大ジャンプ時間は350m秒を超えない。従って、最小エクステント・サイズは一定値を超えない。こうして、エクステントA1、A2の挿入に伴うリード・バッファの最小容量の増大を確実に回避することができる。
 上記の制限とは更に別に、各エクステントA1、A2のサイズG1、G2とそれに隣接するディペンデントビュー・データ・ブロックD2、R2、D3、R3のサイズSext3[2]、Sext2[2]、Sext3[3]、Sext2[3]との和が、そのディペンデントビュー・データ・ブロックのサイズに対する最大ジャンプ距離MAX_JUMP(・)以下に制限されてもよい:
 CEIL(Sext3[2]/2048)+G1≦MAX_JUMP(Sext3[2])、
 CEIL(Sext2[2]/2048)+G1≦MAX_JUMP(Sext2[2])、
 CEIL(Sext3[3]/2048)+G2≦MAX_JUMP(Sext3[3])、
 CEIL(Sext2[3]/2048)+G2≦MAX_JUMP(Sext2[3])。
 ディペンデントビュー・データ・ブロックのサイズに対する最大ジャンプ距離MAX_JUMP(・)とは、そのサイズをセクタ数で表したとき、図56の表において、そのセクタ数と同じ最大ジャンプ時間に対応するセクタ数の中での最大値をいう。例えばディペンデントビュー・データ・ブロックのサイズが5000セクタであるとき、図56の表において5000セクタは、最大ジャンプ時間250m秒に対応する範囲1-10000セクタに属する。従って、最大ジャンプ距離MAX_JUMP(5000×2048バイト)はその範囲の最大値10000セクタである。上記の条件式が満たされている限り、式(2)-(5)の右辺に代入されるべき最大ジャンプ時間は変更されないので、最小エクステント・サイズは不変である。従って、エクステントA1、A2の挿入に伴うリード・バッファの最小容量の増大を更に確実に回避することができる。
 《実施形態2》
 以下、本発明の実施形態2として、本発明の実施形態1による記録媒体の記録装置及び記録方法について説明する。
 その記録装置はいわゆるオーサリング装置と呼ばれるものである。オーサリング装置は通常、頒布用の映画コンテンツの制作スタジオに設置され、オーサリングスタッフによって使用される。記録装置はオーサリングスタッフの操作に従い、まず映画コンテンツを、MPEG規格に則った圧縮符号化方式のデジタル・ストリーム、すなわちAVストリーム・ファイルに変換する。記録装置は次にシナリオを生成する。シナリオは、映画コンテンツに含まれる各タイトルの再生方法を規定した情報であり、具体的には上記の動的シナリオ情報及び静的シナリオ情報を含む。記録装置は続いて、上記のデジタル・ストリーム及びシナリオから、BD-ROMディスク用のボリュームイメージ又はアップデートキットを生成する。記録装置は最後に、実施形態1によるエクステントの配置を利用して、ボリュームイメージを記録媒体に記録する。
 図63は、その記録装置の内部構成を示すブロック図である。図63を参照するに、その記録装置は、ビデオエンコーダ6301、素材制作部6302、シナリオ生成部6303、BDプログラム制作部6304、多重化処理部6305、フォーマット処理部6306、及びデータベース部6307を含む。
 データベース部6307は記録装置に内蔵の不揮発性記憶装置であり、特にハードディスクドライブ(HDD)である。データベース部6307はその他に、記録装置に外付けされたHDDであってもよく、記録装置に内蔵の、又は外付けされた不揮発性半導体メモリ装置であってもよい。
 ビデオエンコーダ6301は、非圧縮のビットマップ・データ等の映像データをオーサリングスタッフから受け付けて、それをMPEG-4 AVC又はMPEG-2等の圧縮符号化方式で圧縮する。それにより、主映像のデータはプライマリ・ビデオ・ストリームに変換され、副映像のデータはセカンダリ・ビデオ・ストリームに変換される。特に3D映像のデータはベースビュー・ビデオ・ストリームとディペンデントビュー・ビデオ・ストリームとに変換される。ビデオエンコーダ6301は、図9に示されているように、レフトビュー・ビデオ・ストリームをそれ自身のピクチャ間での予測符号化によってベースビュー・ビデオ・ストリームに変換し、ライトビュー・ビデオ・ストリームを、それ自身のピクチャだけでなく、ベースビュー・ビデオ・ストリームのピクチャとの間の予測符号化によってディペンデントビュー・ビデオ・ストリームに変換する。尚、ライトビュー・ビデオ・ストリームがベースビュー・ビデオ・ストリームに変換されてもよい。更に、レフトビュー・ビデオ・ストリームがディペンデントビュー・ビデオ・ストリームに変換されてもよい。変換後の各ビデオ・ストリーム6311はデータベース部6307に保存される。
 ビデオエンコーダ6301は更に、このピクチャ間予測符号化の処理過程で、左映像と右映像との間での各イメージの動きベクトルを検出し、それらから3D映像内の各イメージの奥行き情報を算出する。算出された各イメージの奥行き情報はフレーム奥行き情報6310に整理されてデータベース部6307に保存される。
 図64の(a)、(b)は、3D映像の一シーンの表示に利用される左映像ピクチャと右映像ピクチャとを表す模式図であり、(c)は、ビデオエンコーダ6301によってそれらのピクチャから算出された奥行き情報を示す模式図である。
 ビデオエンコーダ6301はまず、左右のピクチャ間の冗長性を利用して各ピクチャを圧縮する。そのとき、ビデオエンコーダ6301は圧縮前の左右のピクチャを8×8又は16×16の画素マトリクスごとに、すなわちマクロブロックごとに比較して、両ピクチャ間での各イメージの動きベクトルを検出する。具体的には、図64の(a)、(b)に示されているように、まず、左映像ピクチャ6401と右映像ピクチャ6402とはそれぞれ、マクロブロック6403のマトリクスに分割される。次に、両ピクチャ6401、6402間でイメージ・データがマクロブロック6403ごとに比較され、その結果から各イメージの動きベクトルが検出される。例えば「家」のイメージ6404を表す領域は両ピクチャ6401、6402間で実質的に等しい。従って、それらの領域からは動きベクトルが検出されない。一方、「球」のイメージ6405を表す領域は両ピクチャ6401、6402間で実質的に異なる。従って、それらの領域からは、「球」のイメージ6405の変位を表す動きベクトルが検出される。
 ビデオエンコーダ6301は次に、検出された動きベクトルを各ピクチャ6401、6402の圧縮に利用する一方、各イメージ・データ6404、6405の表す映像の両眼視差の計算にも利用する。こうして得られた両眼視差から、ビデオエンコーダ6301は更に、「家」及び「球」のイメージ6404、6405等、各イメージの「奥行き」を算出する。各イメージの奥行きを表す情報は、例えば図64の(c)に示されているように、各ピクチャ6401、6402のマクロブロックのマトリクスと同じサイズのマトリクス6406に整理される。図63に示されているフレーム奥行き情報6310はこのマトリクス6406を含む。このマトリクス6406内のブロック6407は、各ピクチャ6401、6402内のマクロブロック6403と一対一に対応する。各ブロック6407は、対応するマクロブロック6403の表すイメージの奥行きを、例えば8ビットの深度で表す。図64に示されている例では、「球」のイメージ6405の奥行きが、マトリクス6406の領域6408内の各ブロックに記録される。その領域6408は、そのイメージ6405を表す各ピクチャ6401、6402内の領域の全体に対応する。
 図63を再び参照するに、素材制作部6302は、ビデオ・ストリーム以外のエレメンタリ・ストリーム、例えば、オーディオ・ストリーム6312、PGストリーム6313、及びIGストリーム6314を作成してデータベース部6307に保存する。例えば、素材制作部6302はオーサリングスタッフから非圧縮のLPCM音声データを受け付けて、それをAC-3等の圧縮符号化方式で符号化してオーディオ・ストリーム6312に変換する。素材制作部6302はその他に、オーサリングスタッフから字幕情報ファイルを受け付けて、それに従ってPGストリーム6313を作成する。字幕情報ファイルは、字幕を表すイメージ・データ、その字幕の表示時期、及び、その字幕に加えられるべきフェードイン/フェードアウト等の視覚効果を規定する。素材制作部6302は更に、オーサリングスタッフからビットマップ・データとメニューファイルとを受け付けて、それらに従ってIGストリーム6314を作成する。ビットマップ・データはメニューのイメージを表す。メニューファイルは、そのメニューに配置される各ボタンの状態の遷移、及び各ボタンに加えられるべき視覚効果を規定する。
 シナリオ生成部6303は、オーサリングスタッフからGUI経由で受け付けられた指示に従ってBD-ROMシナリオ・データ6315を作成し、データベース部6307に保存する。BD-ROMシナリオ・データ6315は、データベース部6307に保存された各エレメンタリ・ストリーム6311-6314の再生方法を規定する。BD-ROMシナリオ・データ6315は、図5に示されているファイル群のうち、インデックス・ファイル511、ムービーオブジェクト・ファイル512、及びプレイリスト・ファイル521-523を含む。シナリオ生成部6303は更にパラメータ・ファイル6316を作成して多重化処理部6305へ送出する。パラメータ・ファイル6316は、データベース部6307に保存されたエレメンタリ・ストリーム6311-6314の中から、メインTSとサブTSとのそれぞれに多重化されるべきストリーム・データを規定する。
 BDプログラム制作部6304はオーサリングスタッフに対して、BD-Jオブジェクト及びJavaアプリケーション・プログラムのプログラミング環境を提供する。BDプログラム制作部6304はGUIを通じてユーザからの要求を受け付け、その要求に従って各プログラムのソースコードを作成する。BDプログラム制作部6304は更に、BD-JオブジェクトからBD-Jオブジェクト・ファイル551を作成し、Javaアプリケーション・プログラムをJARファイル561に圧縮する。それらのファイル551、561はフォーマット処理部6306へ送出される。
 ここで、BD-Jオブジェクトが次のようにプログラミングされる場合を想定する:BD-Jオブジェクトは、図46、49に示されているプログラム実行部4606、4906にGUI用のグラフィックス・データをシステム・ターゲット・デコーダ4603、4903へ送出させる。BD-Jオブジェクトは更に、システム・ターゲット・デコーダ4603、4903にそのグラフィックス・データをイメージ・プレーン・データとして処理させる。その場合、BDプログラム制作部6304は、データベース部6307に保存されたフレーム奥行き情報6310を利用して、BD-Jオブジェクトにイメージ・プレーン・データに対するオフセット情報を設定してもよい。
 多重化処理部6305はパラメータ・ファイル6316に従い、データベース部6307に保存されている各エレメンタリ・ストリーム6311-6314をMPEG2-TS形式のストリーム・ファイルに多重化する。具体的には図7に示されているように、各エレメンタリ・ストリーム6311-6314がソースパケット列に変換され、各列のソースパケットが一列にまとめられて一本の多重化ストリーム・データを構成する。こうして、メインTSとサブTSとが作成される。
 その処理と並行して、多重化処理部6305は、2Dクリップ情報ファイルとディペンデントビュー・クリップ情報ファイルとを以下の手順で作成する。まず、ファイル2DとファイルDEPとのそれぞれについて、図32に示されているエントリ・マップ3130が生成される。次に、各ファイルのエントリ・マップを利用して、図33に示されているエクステント起点の一覧表3310が作成される。続いて、メインTSとサブTSとのそれぞれに多重化されるべき各エレメンタリ・ストリームから、図31に示されているストリーム属性情報が抽出される。更に、図31に示されているように、エントリ・マップ、3Dメタデータ、及びストリーム属性情報の組み合わせがクリップ情報に対応付けられる。
 フォーマット処理部6306は、データベース部6307に保存されたBD-ROMシナリオ・データ6315、BDプログラム制作部6304によって制作されたBD-Jオブジェクト・ファイル等のプログラム・ファイル群、及び、多重化処理部6305によって生成された多重化ストリーム・データとクリップ情報ファイルとから、図5に示されているディレクトリ構造のBD-ROMディスクイメージ6320を作成する。そのディレクトリ構造では、ファイルシステムとしてUDFが利用される。
 フォーマット処理部6306は、ファイル2D、ファイルDEP、及びファイルSSの各ファイル・エントリを作成するとき、2Dクリップ情報ファイルとディペンデントビュー・クリップ情報ファイルとのそれぞれに含まれるエントリ・マップと3Dメタデータとを参照する。それにより、各エントリ・ポイントと各エクステント起点とのSPNが各アロケーション記述子の作成に利用される。特に図16に示されているようなインターリーブ配置が表現されるようにアロケーション記述子が作成される。それにより、各ベースビュー・データ・ブロックはファイルSSとファイル2Dとに共有され、各ディペンデントビュー・データ・ブロックはファイルSSとファイルDEPとに共有される。一方、ロングジャンプの必要な箇所では、図21、24、26に示されている配置1-3のいずれかが表現されるようにアロケーション記述子が作成される。特に、ベースビュー・データ・ブロックの一部は2D再生専用ブロックとしてファイル2D内のアロケーション記述子によってのみ参照され、その一部の複製データが3D再生専用ブロックとしてファイルSSのアロケーション記述子によってのみ参照される。更に、ベースビューとディペンデントビューとのエクステントの各サイズが式(1)-(5)を満たすように設計され、それに基づいて、各アロケーション記述子の表すべき論理アドレスの値が決定される。
 フォーマット処理部6306はその他に、データベース部6307に保存されたフレーム奥行き情報6310を利用して、図32の(a)に示されているオフセット・テーブルを、セカンダリ・ビデオ・ストリーム6311、PGストリーム6313、及びIGストリーム6314のそれぞれについて作成する。フォーマット処理部6306は更にオフセット・テーブルを2Dクリップ情報ファイルの3Dメタデータ内に格納する。ここで、各ストリームの表す3D映像が、他のストリームの表す3D映像と同じ視方向に重なって表示されないように、左右の各映像フレーム内でのイメージ・データの配置が自動的に調整される。更に、各ストリームの表す3D映像の奥行きが互いに重ならないように、各映像フレームに対するオフセット値が自動的に調整される。
 フォーマット処理部6306によって生成されたBD-ROMディスクイメージ6320はその後、BD-ROMプレス用データに変換される。更に、このデータはBD-ROMディスクの原盤に記録される。この原盤がプレス工程に利用されることにより、本発明の実施形態1によるBD-ROMディスク101の大量生産が実現可能になる。
 《実施形態3》
 図65は、本発明の実施形態3による集積回路3の機能ブロック図である。図65を参照するに、集積回路3は実施形態1による再生装置102に実装される。ここで、再生装置102は、集積回路3の他に、媒体インタフェース(IF)部1、メモリ部2、及び出力端子10を含む。
 媒体IF部1は、外部の媒体MEからデータを受信し、又は読み出して集積回路3に転送する。そのデータは特に、実施形態1によるBD-ROMディスク101上のデータを含む。媒体MEの種類は、光ディスク及びハードディスク等のディスク記録媒体、SDカード及びUSBメモリ等の半導体メモリ、CATV等の放送波、並びに、イーサネット(登録商標)、無線LAN、及び無線公衆回線等のネットワークを含む。媒体IF部1は媒体MEの種類に合わせて、ディスク・ドライブ、カードIF、CANチューナー、Siチューナー、及びネットワークIFを含む。
 メモリ部2は、媒体IF部1によって媒体MEから受信され、又は読み出されたデータ、及び、集積回路3によって処理されている途中のデータを一時的に格納する。メモリ部2としては、SDRAM(Synchronous Dynamic Random Access Memory)、及びDDRx SDRAM(Double-Date-Rate x Synchronous Dynamic Random Access Memory; x=1、2、3、…)等が用いられる。メモリ部2は単一のメモリ素子である。その他に、メモリ部2は複数のメモリ素子を含んでもよい。
 集積回路3はシステムLSIであり、媒体IF部1から転送されたデータに対して映像・音声処理を施す。図65を参照するに、集積回路3は、主制御部6、ストリーム処理部5、信号処理部7、メモリ制御部9、及びAV出力部8を含む。
 主制御部6はプロセッサコアとプログラム・メモリとを含む。プロセッサコアはタイマ機能と割り込み機能とを有する。プログラム・メモリはOS等の基本的なソフトウェアを格納する。プロセッサコアは、プログラム・メモリ等に格納されたプログラムに従って、集積回路3の全体の制御を行う。
 ストリーム処理部5は、主制御部6の制御の下、媒体MEから媒体IF部1を経由して転送されたデータを受信する。ストリーム処理部5は更に、その受信したデータを集積回路3内のデータバスを通してメモリ部2に格納する。ストリーム処理部5はその他に、受信したデータから映像系データと音声系データとを分離する。ここで、前述のとおり、媒体MEから受信されるデータは実施形態1による構造のデータを含む。その場合、「映像系データ」は、プライマリ・ビデオ・ストリーム、セカンダリ・ビデオ・ストリーム、PGストリーム、及びIGストリームを含む。「音声系データ」はプライマリ・オーディオ・ストリームとセカンダリ・オーディオ・ストリームとを含む。実施形態1による構造のデータでは特に、ベースビュー・ストリームとディペンデントビュー・ストリームとがそれぞれ、複数のエクステントに分割され、それらが交互に配置されている。ストリーム処理部5はそのデータを受信したとき、主制御部6の制御に従い、そのデータからベースビュー・ストリームを抽出してメモリ部2内の第1の領域に格納し、ディペンデントビュー・ストリームを抽出してメモリ部2内の第2の領域に格納する。ここで、メモリ部2内の第1の領域と第2の領域とは、単一のメモリ素子の領域を論理的に分割したものである。その他に、各領域が物理的に異なるメモリ素子に含まれてもよい。
 ストリーム処理部5によって分離された映像系データと音声系データとはそれぞれ、符号化によって圧縮されている。映像系データの符号化方式の種類は、MPEG-2、MPEG-4 AVC、MPEG4-MVC、及びSMPTE VC-1等を含む。音声系データの符号化方式の種類は、ドルビーAC-3、Dolby Digital Plus、MLP、DTS、DTS-HD、及びリニアPCM等を含む。信号処理部7は、主制御部6の制御の下、映像系データと音声系データとを、それぞれの符号化方式に適した方法で復号する。信号処理部7は、例えば図50に示されている各種デコーダに相当する。
 メモリ制御部9は、集積回路3内の各機能ブロック5-8からメモリ部2へのアクセスを調停する。
 AV出力部8は、主制御部6の制御の下、信号処理部7によって復号された映像系データと音声系データとをそれぞれ、適切な形式に加工して、個別の出力端子10を通して表示装置103とその内蔵スピーカとへ出力する。その加工の種類は、映像系データの重畳処理、各データのフォーマット変換、及び音声系データのミキシング等を含む。
 図66は、ストリーム処理部5の代表的な構成を示す機能ブロック図である。図66を参照するに、ストリーム処理部5は、デバイス・ストリームIF部51、多重分離部52、及び切替部53を備える。
 デバイス・ストリームIF部51は、媒体IF部1と集積回路3内の他の機能ブロック6-9との間でデータ転送を行うインターフェースである。例えば媒体MEが光ディスク又はハードディスクであるとき、デバイス・ストリームIF部51は、SATA(Serial Advanced Technology Attachment)、ATAPI(Advanced Technology Attachment Packet Interface)、又はPATA(Parallel Advanced Technology Attachment)を含む。媒体MEがSDカード及びUSBメモリ等の半導体メモリであるとき、デバイス・ストリームIF部51はカードIFを含む。媒体MEがCATV等の放送波であるとき、デバイス・ストリームIF部51はチューナーIFを含む。媒体MEが、イーサネット(登録商標)、無線LAN、及び無線公衆回線等のネットワークであるとき、デバイス・ストリームIF部51はネットワークIFを含む。ここで、媒体MEの種類によっては、デバイス・ストリームIF部51が媒体IF部1に代わって、その機能の一部を実現させてもよい。逆に、媒体IF部1が集積回路3に内蔵されている場合、デバイス・ストリームIF部51は省略されてもよい。
 多重分離部52は、媒体MEからメモリ部2に転送されたデータをメモリ制御部9から受信して、そのデータから映像系データと音声系データとを分離する。ここで、実施形態1による構造のデータに含まれる各エクステントは、図7に示されているように、ビデオ・ストリーム、オーディオ・ストリーム、PGストリーム、及びIGストリーム等のソースパケットから構成されている。但し、ディペンデントビュー・ストリームは、オーディオ・ストリームを含まない場合もある。多重分離部52は、各ソースパケットからPIDを読み取り、そのPIDに従って、ソースパケット群を映像系のTSパケットVTSと音声系のTSパケットATSに分別する。分別されたTSパケットVTS、ATSは、直接、若しくは、一旦メモリ部2に格納された後、信号処理部7に転送される。多重分離部52は、例えば図50に示されているソース・デパケタイザ5011、5012、及びPIDフィルタ5013、5014に相当する。
 切替部53は、デバイス・ストリームIF部51によって受信されたデータの種類に応じてその出力先を切り換える。例えば、デバイス・ストリームIF部51がベースビュー・ストリームを受信したときは、そのストリームの格納先をメモリ部2の第1の領域に切り換える。一方、デバイス・ストリームIF部51がディペンデントビュー・ストリームを受信したときは、そのストリームの格納先をメモリ部2の第2の領域に切り換える。
 切替部53は例えばDMAC(Direct Memory Access Controller)である。図67は、その場合における切替部53の周辺の構造を示す模式図である。DMAC53は、主制御部6の制御の下、デバイス・ストリームIF部51によって受信されたデータと、そのデータの格納先のアドレスとをメモリ制御部9に対して送信する。具体的には、デバイス・ストリームIF部51がベースビュー・ストリームBSを受信したとき、DMAC53は、ベースビュー・ストリームBSと共にアドレス1AD1を送信する。ここで、アドレス1AD1はメモリ部2内の第1の格納領域21の先頭アドレスAD1を示す。一方、デバイス・ストリームIF部51がディペンデントビュー・ストリームDSを受信したとき、DMAC53はディペンデントビュー・ストリームDSと共にアドレス2AD2を送信する。ここで、アドレスAD2はメモリ部2内の第2の格納領域22の先頭アドレスAD2を示す。こうして、DMAC53は、デバイス・ストリームIF部51によって受信されるデータの種類に依って、その出力先、特にメモリ部2内への格納先を切り換える。メモリ制御部9は、DMAC53から受信されたストリームBS、DSを、それと共に受信されたアドレスAD1、AD2の示すメモリ部2内の領域21、22に格納する。
 主制御部6は、切替部53による格納先の切り換えの制御に、クリップ情報ファイル内のエクステント起点を利用する。ここで、そのクリップ情報ファイルは、各ストリームBS、DSよりも先に受信され、メモリ部2に格納されている。特に、主制御部6はファイル・ベースを利用して、デバイス・ストリームIF部51によって受信されたデータがベースビュー・ストリームであることを認識する。一方、主制御部6はファイルDEPを利用して、デバイス・ストリームIF部51によって受信されたデータがディペンデントビュー・ストリームであることを認識する。主制御部6は更に、その認識された結果に応じて切替部53に制御信号CSを送り、データの格納先を切り換えさせる。尚、切替部53は、主制御部6とは別の専用の制御回路によって制御されてもよい。
 ストリーム処理部5は、図66に示されている機能ブロック51、52、53の他に、暗号エンジン部、セキュア管理部、及びダイレクト・メモリ・アクセス用のコントローラを更に備えていてもよい。暗号エンジン部は、デバイス・ストリームIF部51によって受信された暗号化データ及び鍵データ等を復号する。セキュア管理部は秘密鍵を保持し、それを利用して、媒体MEと再生装置102との間で機器認証プロトコル等の実行制御を行う。
 上記の例では、媒体MEから受信されたデータがメモリ部2に格納されるとき、そのデータがベースビュー・ストリームBSとディペンデントビュー・ストリームDSとのいずれであるかに依って、その格納先が切り替えられる。その他に、媒体MEから受信されたデータがその種類に関わらず、一旦メモリ部2内の同じ領域に格納され、その後、メモリ部2から多重分離部52へ転送されるときに、ベースビュー・ストリームBSとディペンデントビュー・ストリームDSとに分けられてもよい。
 図68は、AV出力部8の代表的な構成を示す機能ブロック図である。図68を参照するに、AV出力部8は、画像重畳部81、ビデオ出力フォーマット変換部82、及びオーディオ・ビデオ出力IF部83を備える。
 画像重畳部81は、信号処理部7によって復号された映像系データVP、PG、IGを互いに重畳する。具体的には、画像重畳部81はまず、ビデオ出力フォーマット変換部82からは処理後のレフトビュー又はライトビューのビデオ・プレーン・データVPを受信し、信号処理部7からは復号後のPGプレーン・データPGとIGプレーン・データIGとを受信する。画像重畳部81は次に、ビデオ・プレーン・データVPにPGプレーン・データPGとIGプレーン・データIGとをピクチャ単位で重畳する。画像重畳部81は、例えば図50、51に示されているプレーン加算部4910に相当する。
 ビデオ出力フォーマット変換部82は、信号処理部7からは復号後のビデオ・プレーン・データVPを受信し、画像重畳部81からは重畳後の映像系データVP/PG/IGを受信する。ビデオ出力フォーマット変換部82は更に、それらの映像系データVP、VP/PG/IGに対して種々の処理を必要に応じて行う。その処理の種類には、リサイズ処理、IP変換処理、ノイズ・リダクション処理、及びフレームレート変換処理が含まれる。リサイズ処理は、映像のサイズを拡大/縮小する処理である。IP変換処理は、プログレッシブ方式とインターレース方式との間で走査方式を変換する処理である。ノイズ・リダクション処理は、映像からノイズを除去する処理である。フレームレート変換処理は、フレームレートを変換する処理である。ビデオ出力フォーマット変換部82は、処理後のビデオ・プレーン・データVPを画像重畳部81に送出し、又は処理後の映像系データVSをオーディオ・ビデオ出力IF部83へ送出する。
 オーディオ・ビデオ出力IF部83は、ビデオ出力フォーマット変換部82からは映像系データVSを受信し、信号処理部7からは復号後の音声系データASを受信する。オーディオ・ビデオ出力IF部83は更に、受信されたデータVS、ASに対して、データ送信形式に合わせた符号化等の処理を行う。ここで、後述のように、オーディオ・ビデオ出力IF部83の一部は集積回路3の外部に備えられてもよい。
 図69は、AV出力部8を含む再生装置102のデータ出力に関する部分の詳細を示す模式図である。図69を参照するに、オーディオ・ビデオ出力IF部83は、アナログ・ビデオ出力IF部83a、デジタル・ビデオ・オーディオ出力IF部83b、及びアナログ・オーディオ出力IF部83cを含む。それにより、集積回路3及び再生装置102は、以下に述べるとおり、複数種類の映像系データと音声系データとのデータ送信方式に対応可能である。
 アナログ・ビデオ出力IF部83aは、ビデオ出力フォーマット変換部82から映像系データVSを受信して、そのデータVSをアナログ映像信号形式のデータVDに変換/符号化して出力する。アナログ・ビデオ出力IF部83aは、例えば、NTSC、PAL、及びSECAMのいずれかの方式に対応したコンポジット・ビデオ・エンコーダー、S映像信号(Y/C分離)用エンコーダー、コンポーネント映像信号用エンコーダー、並びにD/Aコンバータ(DAC)等を含む。
 デジタル・ビデオ・オーディオ出力IF部83bは、信号処理部7からは復号後の音声系データASを受信し、ビデオ出力フォーマット変換部82からは映像系データVSを受信する。デジタル・ビデオ・オーディオ出力IF部83bは更に、それらのデータAS、VSを一体化して暗号化する。その後、デジタル・ビデオ・オーディオ出力IF部83bは、暗号化データSVAをデータ送信規格に合わせて符号化して出力する。デジタル・ビデオ・オーディオ出力IF部83bは、例えばHDMI(High-Definition Multimedia InterFace)等に相当する。
 アナログ・オーディオ出力IF部83cは、信号処理部7から復号後の音声系データASを受信し、D/A変換によってアナログ音声データADに変換して出力する。アナログ・オーディオ出力IF部83cは、例えばオーディオDACに相当する。
 上記の映像系データ及び音声系データの送信形式は、表示装置103/スピーカー103Aの備えるデータ受信装置/データ入力端子の種類に合わせて切り換え可能であり、また、ユーザーの選択によっても切り換え可能である。更に、再生装置102は、同じコンテンツのデータを、単一の送信形式だけではなく、複数の送信形式でパラレルに送信可能である。
 AV出力部8は、図68、69に示されている機能ブロック81、82、83の他にグラフッィクス・エンジン部を更に備えていてもよい。グラフッィクス・エンジン部は、信号処理部7によって復号されたデータに対して、フィルタ処理、画面合成処理、曲線描画処理、及び3D表示処理等のグラフィックス処理を行う。
 集積回路3は、図65、66、68、69に示されている各機能ブロックを内蔵する。しかし、それは必須ではなく、一部の機能ブロックが集積回路3に外付けされていてもよい。また、図65に示されている構成とは異なり、メモリ部2が集積回路3に内蔵されていてもよい。更に、主制御部6と信号処理部7とは、完全に分離された機能ブロックでなくてもよく、例えば主制御部6が信号処理部7の処理の一部を行ってもよい。
 集積回路3内の機能ブロック間を接続する制御バス及びデータバスのトポロジーは、各機能ブロックの処理の手順及び内容に合わせて選択されればよい。図70は、集積回路3内の制御バス及びデータバスのトポロジーの例(a)、(b)を示す模式図である。図70の(a)を参照するに、制御バス11とデータバス12とはいずれも、各機能ブロック5-9を他の全ての機能ブロックに直結させるように配置されている。その他に、図70の(b)に示されているように、データバス13は各機能ブロック5-8をメモリ制御部9にのみ直結させるように配置されてもよい。その場合、各機能ブロック5-8はメモリ制御部9、更にメモリ部2を介してデータを他の機能ブロックに転送する。
 集積回路3は、単一のチップに実装されたLSIに代えて、マルチチップ・モジュールであってもよい。その場合、集積回路3を構成する複数のチップは一つのパッケージに封止されているので、集積回路3は見かけ上、単一のLSIである。集積回路3はその他に、FPGA(Field Programmable Gate Array)又はリコンフィギュラブル・プロセッサを利用して構成されてもよい。FPGAは、製造後にプログラム可能なLSIである。リコンフィギュラブル・プロセッサは、内部の回路セル間の接続、及び各回路セルの設定を再構成可能なLSIである。
 <集積回路3を利用した再生装置102の再生処理>
 図71は、集積回路3を利用した再生装置102による再生処理のフローチャートである。その再生処理は、光ディスクがディスクドライブに挿入される等、媒体IF部1が媒体MEにデータ受信可能に接続されたときに開始される。その再生処理では、再生装置102は媒体MEからデータを受信して復号する。その後、再生装置102は復号後のデータを映像信号及び音声信号として出力する。
 ステップS1:媒体IF部1が媒体MEからデータを受信し、又は読み出してストリーム処理部5へ転送する。その後、処理はステップS2へ進む。
 ステップS2:ストリーム処理部5は、ステップS1において受信され、又は読み出されたデータを映像系データと音声系データとに分離する。その後、処理はステップS3へ進む。
 ステップS3:信号処理部7は、ステップS2においてストリーム処理部5によって分離された各データをその符号化方式に適した方法で復号する。その後、処理はステップS4へ進む。
 ステップS4:AV出力部8は、ステップS3において信号処理部7によって復号された映像系データに対して重畳処理を行う。その後、処理はステップS5へ進む。
 ステップS5:AV出力部8は、ステップS2-4において処理された映像系データ及び音声系データを出力する。その後、処理はステップS6へ進む。
 ステップS6:主制御部6が再生処理を続行すべきか否かを判断する。媒体IF部1によって媒体MEから新たに受信されるべき、又は読み出されるべきデータが残されている等の場合は、ステップS1から処理が繰り返される。一方、光ディスクがディスクドライブから取り出され、又はユーザから再生停止が指示された等によって、媒体IF部1が媒体MEからのデータ受信、又は読み出しを終了させたとき、処理は終了する。
 図72は、図71に示されている各ステップS1-6の詳細を示すフローチャートである。図72に示されている各ステップS101-110は主制御部6の制御の下で行われる。ステップS101は主にステップS1の詳細に相当し、ステップS102-104は主にステップS2の詳細に相当し、ステップS105は主にステップS3の詳細に相当し、ステップS106-108は主にステップS4の詳細に相当し、ステップS109、S110は主にステップS5の詳細に相当する。
 ステップS101:デバイス・ストリームIF部51は、媒体IF部1を通して媒体MEから、再生対象のデータよりも先に、そのデータの再生に必要なデータ、例えばプレイリスト・ファイル及びクリップ情報ファイルを受信し、又は読み出す。デバイス・ストリームIF部51は更に、メモリ制御部9を介してそのデータをメモリ部2に格納する。その後、処理はステップS102へ進む。
 ステップS102:主制御部6は、クリップ情報ファイルに含まれるストリーム属性情報から、媒体MEに格納されている映像データ及び音声データの符号化方式を識別する。主制御部6は更に、識別された符号化方式に対応する復号処理が実行できるように信号処理部7の初期化を行う。その後、処理はステップS103へ進む。
 ステップS103:デバイス・ストリームIF部51は、媒体IF部1を通して媒体MEから、再生対象の映像データと音声データとを受信し、又は読み出す。特に、それらのデータはエクステント単位で受信され、又は読み出される。デバイス・ストリームIF部51は更に、それらのデータを切替部53とメモリ制御部9とを経由してメモリ部2に格納する。特に、ベースビュー・ストリームが受信され、又は読み出されたとき、主制御部6は切替部53を制御して、そのストリームの格納先をメモリ部2内の第1の領域へ切り換えさせる。一方、ディペンデントビュー・ストリームが受信され、又は読み出されたとき、主制御部6は切替部53を制御して、そのストリームの格納先をメモリ部2内の第2の領域へ切り換えさせる。その後、処理はステップS104へ進む。
 ステップS104:メモリ部2に格納されたストリームは、ストリーム処理部5内の多重分離部52に転送される。多重分離部52はまず、そのストリームを構成する各ソースパケットからPIDを読み取る。多重分離部52は次に、そのPIDに従って、そのソースパケットに含まれるTSパケットが映像系データと音声系データとのいずれであるのかを識別する。多重分離部52は更に、識別結果に従って各TSパケットを信号処理部7内の対応するデコーダへ転送する。その後、処理はステップS105へ進む。
 ステップS105:信号処理部7内では各デコーダが、転送されたTSパケットを適切な方法で復号する。その後、処理はステップS106へ進む。
 ステップS106:信号処理部7において復号されたレフトビュー・ビデオ・ストリーム及びライトビュー・ビデオ・ストリームの各ピクチャがビデオ出力フォーマット変換部82に送られる。ビデオ出力フォーマット変換部82はそれらのピクチャを表示装置103の解像度に合わせてリサイズする。その後、処理はステップS107へ進む。
 ステップS107:画像重畳部81は、ステップS106においてリサイズされたピクチャから成るビデオ・プレーン・データをビデオ出力フォーマット変換部82から受信する。一方、画像重畳部81は信号処理部7から復号後のPGプレーン・データとIGプレーン・データとを受信する。画像重畳部81は更に、それらのプレーン・データを重畳する。その後、処理はステップS108へ進む。
 ステップS108:ビデオ出力フォーマット変換部82は、ステップS107において重畳されたプレーン・データを画像重畳部81から受信する。ビデオ出力フォーマット変換部82は更に、そのプレーン・データに対してIP変換を行う。その後、処理はステップS109へ進む。
 ステップS109:オーディオ・ビデオ出力IF部83は、ビデオ出力フォーマット変換部82からは、ステップS108においてIP変換を受けた映像系データを受信し、信号処理部7からは復号後の音声系データを受ける。オーディオ・ビデオ出力IF部83は更に、それらのデータに対して、表示装置103/スピーカ103Aによるデータ出力方式、又はそれぞれへのデータ送信方式に従って符号化処理及びD/A変換等を行う。それにより、映像系データと音声系データとはそれぞれ、アナログ出力形式又はデジタル出力形式に変換される。例えば、アナログ出力形式の映像系データには、コンポジット映像信号、S映像信号、及びコンポーネント映像信号等が含まれる。また、デジタル出力形式の映像系データ/音声系データには、HDMI等が含まれる。その後、処理はステップS110へ進む。
 ステップS110:オーディオ・ビデオ出力IF部83は、ステップS109において処理された映像系データ及び音声系データを表示装置103/スピーカ103Aへ送信する。その後、処理はステップS6へ進む。尚、ステップS6については上記の説明を援用する。
 上記の各ステップでは、データが処理される度に、その結果がメモリ部2に一時的に格納されてもよい。また、ステップS106及びS108でのビデオ出力フォーマット変換部82によるリサイズ処理及びIP変換処理は必要に応じて省略されてもよい。更に、それらの処理に加え、又はそれらの処理に代えて、ノイズ・リダクション処理及びフレームレート変換処理等、他の処理が行われてもよい。更に、可能なものについては処理手順が変更されてもよい。
 <補足>
  ≪3D映像の再生方法の原理≫
 3D映像の再生方法は、ホログラフィ技術を用いる方法と、視差映像を用いる方法との2つに大別される。
 ホログラフィ技術を用いる方法の特徴は、現実の立体的な物体から人間の視覚に与えられる光学的な情報とほぼ全く同じ情報を視聴者の視覚に与えることにより、その視聴者に映像中の物体を立体的に見せる点にある。しかし、この方法を動画表示に利用する技術は理論上確立されてはいる。しかし、その動画表示に必要とされる、膨大な演算をリアルタイムに処理可能なコンピュータ、及び、1mmあたり数千本という超高解像度の表示装置はいずれも、現在の技術ではまだ、実現が非常に難しい。従って、この方法を商業用として実用化する目途は、現時点ではほとんど立っていない。
 「視差映像」とは、一つのシーンを見る視聴者の各目に映る2D映像の対、すなわち、レフトビューとライトビューとの対をいう。視差映像を用いる方法の特徴は、一つのシーンのレフトビューとライトビューとを視聴者の各目だけに見えるように再生することにより、その視聴者にそのシーンを立体的に見せる点にある。
 図73の(a)-(c)は、視差映像を用いる方法による3D映像(立体視映像)の再生原理を説明するための模式図である。図73の(a)は、視聴者6501が、顔の正面に置かれた立方体6502を見ている光景の上面図である。図73の(b)、(c)はそれぞれ、そのときに視聴者6501の左目6501L、右目6501Rに見える立方体6502の外観を2D映像として示す模式図である。図73の(b)、(c)を比較すれば明らかなとおり、各目に見える立方体6502の外観はわずかに異なる。この外観の差、すなわち両眼視差から、視聴者6501は立方体6502を立体的に認識できる。従って、視差映像を用いる方法では、まず、一つのシーン、例えば図73の(a)に示されている立方体6502に対し、視点が異なる左右の2D映像、例えば図73の(b)に示されている立方体6502のレフトビュー、及び図73の(c)に示されているそのライトビューを準備する。ここで、各視点の位置は視聴者6501の両眼視差から決定される。次に、各2D映像を視聴者6501のそれぞれの目だけに見えるように再生する。それにより、視聴者6501には、画面に再生されるそのシーン、すなわち立方体6502の映像が立体的に見える。このように、視差映像を用いる方法は、ホログラフィ技術を用いる方法とは異なり、高々二つの視点から見える2D映像を準備するだけでよい点で有利である。
 視差映像を用いる方法については、それを具体化するための方式が多様に提案されている。それらの方式は、左右の2D映像を視聴者のそれぞれの目にいかにして見せるかという観点から、経時分離方式、レンチキュラーレンズを用いる方式、及び二色分離方式等に分けられる。
 継時分離方式では、画面に左右の2D映像を一定時間ずつ交互に表示する一方、視聴者にシャッター眼鏡を通して画面を観察させる。ここで、シャッター眼鏡は、各レンズが例えば液晶パネルで形成されている。各レンズは、画面上の2D映像の切り換えに同期して交互に光をその全体で一様に透過させ、又は遮断する。すなわち、各レンズは、視聴者の目を周期的に塞ぐシャッターとして機能する。より詳細に言えば、画面上に左映像が表示される期間では、シャッター眼鏡は左側のレンズには光を透過させ、右側のレンズには光を遮断させる。逆に、画面上に右映像が表示されている期間では、シャッター眼鏡は右側のレンズには光を透過させ、左側のレンズには光を遮断させる。それにより、視聴者の目には、左右の映像の残像が重なって一つの3D映像に見える。
 経時分離方式では、上記のとおり、左右の映像を一定周期で交互に表示する。例えば2D映像の再生において1秒当たり24枚の映像フレームが表示されるとき、3D映像の再生では左右の映像を合わせて、1秒当たり48枚の映像フレームが表示される。従って、この方式には、画面の書き換えを速く実行できる表示装置が好適である。
 レンチキュラーレンズを用いる方式では、左右の各映像フレームを、縦方向に細長い短冊形の小領域に分割し、一つの画面の中に左右の映像フレームの各小領域を横方向に交互に並べて同時に表示する。ここで、画面の表面はレンチキュラーレンズで覆われている。レンチキュラーレンズは、細長い蒲鉾レンズを複数平行に並べて一枚のシート状にしたものである。各蒲鉾レンズは画面の表面を縦方向に延びている。レンチキュラーレンズを通して上記左右の映像フレームを視聴者に見せるとき、左映像フレームの表示領域からの光は視聴者の左目だけに結像し、右映像フレームの表示領域からの光は右目だけに結像するようにできる。こうして、左右の目に映る映像間での両眼視差により、視聴者には3D映像が見える。尚、この方式では、レンチキュラーレンズに代えて、同様な機能を持つ液晶素子等の他の光学部品が利用されてもよい。その他に、例えば左映像フレームの表示領域には縦偏光のフィルタを設置し、右映像フレームの表示領域には横偏光のフィルタを設置してもよい。そのとき、視聴者には偏光眼鏡を通して画面を見させる。ここで、その偏光眼鏡では、左側のレンズに縦偏光フィルタが設置され、かつ右側のレンズに横偏光フィルタが設置されている。従って、左右の映像が視聴者のそれぞれの目だけに見えるので、視聴者に3D映像を見せることができる。
 視差映像を用いる方法では、3D映像コンテンツが、初めから左右の映像の組み合わせで構成されている場合の他に、2D映像とデプスマップとの組み合わせで構成されていてもよい。その2D映像は、再生対象の3D映像から仮想的な2D画面への射影を表し、デプスマップは、その2D画面に対するその3D映像の各部の奥行きを画素別に表す。3D映像コンテンツが2D映像とデプスマップとの組み合わせで構成されているとき、3D再生装置又は表示装置はまず、それらの組み合わせから左右の映像を構成し、次にそれらの映像から上記の方式のいずれかで3D映像を再現する。
 図74は、2D映像6601とデプスマップ6602との組み合わせからレフトビュー6603Lとライトビュー6603Rとを構成する例を示す模式図である。図74を参照するに、2D映像6601では、背景6612の中に円板6611が表示されている。デプスマップ6602はその2D映像6601内の各部の奥行きを画素ごとに示す。そのデプスマップ6602によれば、2D映像6601のうち、円板6611の表示領域6621の奥行きが画面よりも手前であり、かつ、背景6612の表示領域6622の奥行きが画面よりも奥である。再生装置102内では視差映像生成部6600がまず、デプスマップ6602の示す各部の奥行きから2D映像6601内の各部の両眼視差を計算する。視差映像生成部6600は次に、2D映像6601内の各部の表示位置を、計算された両眼視差に応じて左右に移動させて、レフトビュー6603Lとライトビュー6603Rとを構成する。図74に示されている例では、視差映像生成部6600は、2D映像6601内の円板6611の表示位置に対し、レフトビュー6603L内の円板6631Lの表示位置をその両眼視差の半分S1だけ右に移動させ、ライトビュー6603R内の円板6631Rの表示位置をその両眼視差の半分S1だけ左に移動させる。それにより、視聴者には円板6611が画面よりも手前に見える。一方、視差映像生成部6600は、2D映像6601内の背景6612の表示位置に対し、レフトビュー6603L内の背景6632Lの表示位置をその両眼視差の半分S2だけ左に移動させ、ライトビュー6603R内の背景6632Rの表示位置をその両眼視差の半分S2だけ右に移動させる。それにより、視聴者には背景6612が画面よりも奥に見える。
 視差映像を用いる方法による3D映像の再生システムは、映画館及び遊園地のアトラクション等で利用されるものについては既に確立され、一般的に使用されている。従って、その方法は、3D映像を再生可能なホームシアター・システムの実用化にも有効である。本発明の実施形態では、視差映像を用いる方法のうち、継時分離方式又は偏光眼鏡を用いた方式を想定する。但し、本発明は、それらの方式とは異なる他の方式に対しても、それらが視差映像を用いている限り、適用可能である。それは、上記の実施形態の説明から当業者には明らかであろう。
  ≪放送、通信回路を経由したデータ配信≫
 本発明の実施形態1による記録媒体は、光ディスクの他、例えばSDメモリカードを含む可搬性半導体メモリ装置等、パッケージメディアとして利用可能なリムーバブルメディア全般を含む。また、実施形態1の説明では、予めデータが記録された光ディスク、すなわち、BD-ROM又はDVD-ROM等の既存の読み出し専用の光ディスクが例に挙げられている。しかし、本発明の実施形態はそれらに限定されない。例えば放送で、又はネットワーク経由で配信された3D映像のコンテンツを端末装置によって、BD-RE又はDVD-RAM等の既存の書き込み可能な光ディスクへ書き込むときに、実施形態1によるエクステントの配置が利用されてもよい。ここで、その端末装置は、再生装置に組み込まれていても、再生装置とは別の装置であってもよい。
  ≪半導体メモリカードの再生≫
 本発明の実施形態1による記録媒体として、光ディスクに代えて半導体メモリカードを用いたときにおける、再生装置のデータ読み出し部について説明する。
 再生装置のうち、光ディスクからデータを読み出す部分は、例えば光ディスクドライブによって構成される。それに対し、半導体メモリカードからデータを読み出す部分は、専用のインタフェース(I/F)で構成される。より詳細には、再生装置にカードスロットが設けられ、その内部に上記のI/Fが実装される。そのカードスロットに半導体メモリカードが挿入されるとき、そのI/Fを通してその半導体メモリカードが再生装置と電気的に接続される。更に、半導体メモリカードからデータがそのI/Fを通して再生装置に読み出される。
  ≪BD-ROMディスク上のデータに対する著作権保護技術≫
 ここで、以降の補足事項の前提として、BD-ROMディスクに記録されているデータの著作権を保護するための仕組みについて説明する。
 BD-ROMディスクに記録されたデータの一部が、例えば著作権の保護又はデータの秘匿性の向上の観点から暗号化されている場合がある。その暗号化データは例えば、ビデオ・ストリーム、オーディオ・ストリーム、又はその他のストリームを含む。その場合、暗号化データは以下のように解読される。
 再生装置には予め、BD-ROMディスク上の暗号化データを解読するための「鍵」の生成に必要なデータの一部、すなわちデバイスキーが記憶されている。一方、BD-ROMディスクには、そのその「鍵」の生成に必要なデータの別の一部、すなわちMKB(メディアキーブロック)と、その「鍵」自体の暗号化データ、すなわち暗号化タイトルキーとが記録されている。デバイスキー、MKB、及び暗号化タイトルキーは互いに対応付けられ、更に、図2に示されているBD-ROMディスク101上のBCA201に書き込まれた特定のID、すなわちボリュームIDにも対応付けられている。デバイスキー、MKB、暗号化タイトルキー、及びボリュームIDの組み合わせが正しくなければ、暗号化データの解読はできない。すなわち、これらの組み合わせが正しい場合にのみ、上記の「鍵」、すなわちタイトルキーが生成される。具体的には、まず、デバイスキー、MKB、及びボリュームIDを利用して暗号化タイトルキーが復号される。それによってタイトルキーを導き出すことができたときのみ、そのタイトルキーを上記の「鍵」として用いて暗号化データを解読することができる。
 BD-ROMディスク上の暗号化データを再生装置によって再生しようとしても、例えばそのBD-ROMディスク上の暗号化タイトルキー、MKB、及びボリュームIDに予め対応付けられたデバイスキーがその再生装置内に記憶されていなければ、その暗号化データを再生することができない。何故なら、その暗号化データの解読に必要な鍵、すなわちタイトルキーは、MKB、デバイスキー、及びボリュームIDの正しい組み合わせで暗号化タイトルキーを復号しなければ導き出せないからである。
 BD-ROMディスクに記録されるべきビデオ・ストリームとオーディオ・ストリームとの少なくともいずれかの著作権を保護するには、まず、保護対象のストリームをタイトルキーで暗号化して、BD-ROMディスクに記録する。次に、MKB、デバイスキー、及びボリュームIDの組み合わせから鍵を生成し、その鍵で上記のタイトルキーを暗号化して暗号化タイトルキーに変換する。更に、MKB、ボリュームID、及び暗号化タイトルキーをBD-ROMディスクに記録する。そのBD-ROMディスクからは、上述の鍵の生成に利用されたデバイスキーを備えた再生装置でしか、暗号化されたビデオ・ストリーム及び/又はオーディオ・ストリームをデコーダで復号することはできない。こうして、BD-ROMディスクに記録されたデータの著作権を保護することができる。
 以上に述べた、BD-ROMディスクにおけるデータの著作権保護の仕組みは、BD-ROMディスク以外にも適用可能である。例えば読み書き可能な半導体メモリ装置、特にSDカード等の可搬性半導体メモリカードにも適用可能である。
  ≪電子配信を利用した記録媒体へのデータ記録≫
 電子配信を利用して本発明の実施形態1による再生装置へ3D映像のAVストリーム・ファイル等のデータ(以下、配信データという。)を伝達し、更にその再生装置にその配信データを半導体メモリカードに記録させる処理について、以下説明する。尚、以下の動作は、上記の再生装置に代えて、その処理に特化した端末装置によって行われてもよい。また、記録先の半導体メモリカードがSDメモリカードである場合を想定する。
 再生装置は上記のとおり、カードスロットを備えている。そのカードスロットにはSDメモリカードが挿入されている。この状態で、再生装置はまず、ネットワーク上の配信サーバへ配信データの送信要求を送出する。このとき、再生装置はSDメモリカードからその識別情報を読み出して、その識別情報を送信要求と共に配信サーバへ送出する。SDメモリカードの識別情報は、例えばそのSDメモリカード固有の識別番号、より具体的にはそのSDメモリカードのシリアル番号である。この識別情報は上述のボリュームIDとして利用される。
 配信サーバには配信データが格納されている。その配信データのうち、ビデオ・ストリーム及び/又はオーディオ・ストリーム等、暗号化による保護の必要なデータは、所定のタイトルキーを用いて暗号化されている。その暗号化データは同じタイトルキーで復号が可能である。
 配信サーバは、再生装置と共通の秘密鍵としてデバイスキーを保持している。配信サーバは更に、SDメモリカードと共通のMKBを保持している。配信サーバは、再生装置から配信データの送信要求とSDメモリカードの識別情報とを受け付けたとき、まず、デバイスキー、MKB、及びその識別情報から鍵を生成し、その鍵でタイトルキーを暗号化して暗号化タイトルキーを生成する。
 配信サーバは次に公開鍵情報を生成する。その公開鍵情報は、例えば、上述のMKB、暗号化タイトルキー、署名情報、SDメモリカードの識別番号、及びデバイスリストを含む。署名情報は、例えば公開鍵情報のハッシュ値を含む。デバイスリストは、無効にすべきデバイス、すなわち、配信データ中の暗号化データを不正に再生する危険性のあるデバイスのリストである。そのリストには、例えば、再生装置のデバイスキー、再生装置の識別番号、再生装置に内蔵のデコーダ等、各種部品の識別番号、又は機能(プログラム)が特定されている。
 配信サーバは更に、配信データと公開鍵情報とを再生装置へ送出する。再生装置は、それらを受信して、カードスロット内の専用I/Fを通してSDメモリカードに記録する。
 SDメモリカードに記録された配信データのうち、暗号化データは、例えば公開鍵情報を以下のように利用して復号される。まず、公開鍵情報の認証として次の三種類のチェック(1)-(3)が行われる。尚、それらはどのような順序で行われてもよい。
 (1)公開鍵情報に含まれるSDメモリカードの識別情報が、カードスロットに挿入されているSDメモリカードに記憶されている識別番号と一致するか否か。
 (2)公開鍵情報から算出されるハッシュ値が、署名情報に含まれるハッシュ値と一致するか否か。
 (3)公開鍵情報の示すデバイスリストから当該再生装置が除外されているか否か。具体的には、デバイスリストから当該再生装置のデバイスキーが除外されているか否か。
 上述のチェック(1)-(3)のいずれかの結果が否定的であるとき、再生装置は暗号化データの復号処理を中止する。逆に、上述のチェック(1)-(3)の全ての結果が肯定的であるとき、再生装置は公開鍵情報の正当性を認め、デバイスキー、MKB、及びSDメモリカードの識別情報を利用して、公開鍵情報内の暗号化タイトルキーをタイトルキーに復号する。再生装置は更に、そのタイトルキーを用いて暗号化データを、例えばビデオ・ストリーム及び/又はオーディオ・ストリームに復号する。
 以上の仕組みには次の利点がある。電子配信時に既に、不正使用の危険性がある再生装置、部品、及び機能(プログラム)等が知られている場合、これらの識別情報がデバイスリストに列挙され、公開鍵情報の一部として配信される。一方、配信データを要求した再生装置は必ず、そのデバイスリスト内の識別情報を、その再生装置及びその部品等の識別情報と照合しなければならない。それにより、その再生装置又はその部品等がデバイスリストに示されていれば、たとえ、SDメモリカードの識別番号、MKB、暗号化タイトルキー、及びデバイスキーの組み合わせが正しくても、その再生装置は公開鍵情報を配信データ内の暗号化データの復号には利用できない。こうして、配信データの不正使用を効果的に抑制することができる。
 半導体メモリカードの識別情報は、半導体メモリカード内の記録領域のうち、特に秘匿性の高い記録領域に格納することが望ましい。何故なら、万一、その識別情報、例えばSDメモリカードではそのシリアル番号が不正に改竄された場合、SDメモリカードの違法コピーが容易に実行可能になってしまうからである。すなわち、その改竄の結果、同一の識別情報を持つ半導体メモリカードが複数存在するようになれば、上述のチェック(1)では正規品と違法な複製品との識別ができなくなるからである。従って、半導体メモリカードの識別情報は秘匿性の高い記録領域に記録して、不正な改竄から保護されねばならない。
 半導体メモリカード内にこのような秘匿性の高い記録領域を構成する手段は、例えば次のとおりである。まず、通常のデータ用の記録領域(以下、第1の記録領域と称す。)から電気的に分離された別の記録領域(以下、第2の記録領域と称す。)が設置される。次に、第2の記録領域へのアクセス専用の制御回路が半導体メモリカード内に設けられる。それにより、第2の記録領域へはその制御回路を介してのみアクセスが可能であるようにする。例えば、第2の記録領域には、暗号化されたデータのみが記録され、その暗号化されたデータを復号するための回路が制御回路内にのみ組み込まれる。それにより、第2の記録領域内のデータへのアクセスは、そのデータを制御回路に復号させなければ不可能である。その他に、第2の記録領域内の各データのアドレスを制御回路にのみ保持させてもよい。その場合、第2の記録領域内のデータのアドレスは制御回路にしか特定できない。
 半導体メモリカードの識別情報が第2の記録領域に記録された場合、再生装置上で動作するアプリケーション・プログラムは、電子配信を利用して配信サーバからデータを取得して半導体メモリカードに記録する場合、次のような処理を行う。まず、そのアプリケーション・プログラムは、メモリカードI/Fを介して上記の制御回路に対し、第2の記録領域に記録された半導体メモリカードの識別情報へのアクセス要求を発行する。制御回路はその要求に応じて、まず、第2の記録領域からその識別情報を読み出す。制御回路は次に、メモリカードI/Fを介して上記のアプリケーション・プログラムへその識別情報を送る。そのアプリケーション・プログラムはその後、その識別情報と共に配信データの送信要求を配信サーバに送出する。アプリケーション・プログラムは更に、その要求に応じて配信サーバから受信される公開鍵情報と配信データとを、メモリカードI/Fを介して半導体メモリカード内の第1の記録領域に記録する。
 尚、上記のアプリケーション・プログラムは、半導体メモリカード内の制御回路に対して上記のアクセス要求を発行する前に、そのアプリケーション・プログラム自体の改竄の有無をチェックすることが望ましい。そのチェックには、例えばX.509に準拠のデジタル証明書が利用されてもよい。また、配信データは上記のとおり、半導体メモリカード内の第1の記録領域に記録されればよく、その配信データへのアクセスは半導体メモリカード内の制御回路によって制御されなくてもよい。
  ≪リアルタイム・レコーディングへの適用≫
 本発明の実施形態2では、AVストリーム・ファイル及びプレイリスト・ファイルは、オーサリングシステムにおけるプリレコーディング技術によってBD-ROMディスクに記録されてユーザに供給されることを前提とした。しかし、AVストリーム・ファイル及びプレイリスト・ファイルは、リアルタイム・レコーディングによって、BD-REディスク、BD-Rディスク、ハードディスク、又は半導体メモリカード等の書き込み可能な記録媒体(以下、BD-REディスク等と略す。)に記録されてユーザに供給されるものであってもよい。その場合、AVストリーム・ファイルは、アナログ入力信号を記録装置がリアルタイムで復号することによって得られたトランスポート・ストリームであってもよい。その他に、記録装置がデジタル入力したトランスポート・ストリームをパーシャル化することで得られるトランスポート・ストリームであってもよい。
 リアルタイム・レコーディングを実行する記録装置は、ビデオエンコーダ、オーディオエンコーダ、マルチプレクサ、及びソースパケタイザを含む。ビデオエンコーダはビデオ信号を符号化してビデオ・ストリームに変換する。オーディオエンコーダはオーディオ信号を符号化してオーディオ・ストリームに変換する。マルチプレクサは、ビデオ・ストリームとオーディオ・ストリームとを多重化して、MPEG2-TS形式のデジタル・ストリームに変換する。ソースパケタイザは、MPEG2-TS形式のデジタル・ストリーム内のTSパケットをソースパケットに変換する。記録装置は各ソースパケットをAVストリーム・ファイルに格納して、BD-REディスク等に書き込む。
 AVストリーム・ファイルの書き込み処理と並行して、記録装置の制御部はクリップ情報ファイルとプレイリスト・ファイルとをメモリ上で生成してBD-REディスク等に書き込む。具体的には、ユーザによって録画処理が要求されたとき、制御部はまず、AVストリーム・ファイルに合わせてクリップ情報ファイルを生成してBD-REディスク等に書き込む。その場合、外部から受信されるトランスポート・ストリームからビデオ・ストリーム内の一つのGOPの先頭が検出される度に、又は、ビデオエンコーダによってビデオ・ストリーム内の一つのGOPが生成される度に、制御部は、そのGOPの先頭に位置するIピクチャのPTSと、そのGOPの先頭が格納されたソースパケットのSPNとを取得する。制御部は更に、そのPTSとSPNとの対を一つのエントリ・ポイントとしてクリップ情報ファイルのエントリ・マップに追記する。ここで、そのエントリ・ポイントには「is_angle_changeフラグ」が追加される。is_angle_changeフラグは、そのGOPの先頭がIDRピクチャであるときは“オン”に設定され、そのGOPの先頭がIDRピクチャではないときは“オフ”に設定される。クリップ情報ファイル内には更に、ストリーム属性情報が記録対象のストリームの属性に従って設定される。こうして、AVストリーム・ファイルとクリップ情報ファイルとがBD-REディスク等に書き込まれた後、制御部はそのクリップ情報ファイル内のエントリ・マップを利用してプレイリスト・ファイルを生成し、BD-REディスク等に書き込む。
  ≪マネージド・コピー≫
 本発明の実施形態1による再生装置は更に、マネージド・コピーによってBD-ROMディスク101上のデジタル・ストリームを他の記録媒体へ書き込んでもよい。「マネージド・コピー」とは、BD-ROMディスク等の読み出し専用記録媒体から書き込み可能な記録媒体へ、デジタル・ストリーム、プレイリスト・ファイル、クリップ情報ファイル、及びアプリケーション・プログラムをコピーすることを、サーバとの通信による認証が成功した場合にのみ許可するための技術をいう。その書き込み可能な記録媒体は、BD-R、BD-RE、DVD-R、DVD-RW、及びDVD-RAM等の書き込み可能な光ディスク、ハードディスク、並びに、SDメモリカード、メモリースティック(登録商標)、コンパクトフラッシュ(登録商標)、スマートメディア(登録商標)、及びマルチメディアカード(登録商標)等の可搬性半導体メモリ装置を含む。マネージド・コピーは、読み出し専用記録媒体に記録されたデータのバックアップ回数の制限、及びバックアップ処理に対する課金を可能にする。
 BD-ROMディスクからBD-Rディスク又はBD-REディスクへのマネージド・コピーが行われる場合、両ディスクの記録容量が等しいときは、コピー元のディスクに記録されたビット・ストリームがそのまま、順番にコピーされればよい。
 マネージド・コピーが異種の記録媒体間で行われるときはトランス・コードが必要である。「トランス・コード」とは、コピー元のディスクに記録されているデジタル・ストリームをコピー先の記録媒体のアプリケーション・フォーマットに適合させるための処理をいう。トランス・コードは、例えば、MPEG2-TS形式からMPEG2プログラム・ストリーム形式へ変換する処理、及び、ビデオ・ストリームとオーディオ・ストリームとのそれぞれに割り当てられているビットレートを低くして符号化し直す処理を含む。トランス・コードでは、上述のリアルタイム・レコーディングによって、AVストリーム・ファイル、クリップ情報ファイル、及びプレイリスト・ファイルが生成されねばならない。
  ≪データ構造の記述方法≫
 本発明の実施形態1によるデータ構造のうち、「所定型の情報が複数存在する」という繰り返し構造は、for文に制御変数の初期値と繰り返し条件とを記述することによって定義される。また、「所定の条件が成立するときに所定の情報が定義される」というデータ構造は、if文にその条件と、その条件の成立時に設定されるべき変数とを記述することによって定義される。このように、実施形態1によるデータ構造は高級プログラミング言語によって記述される。従って、そのデータ構造は、「構文解析」、「最適化」、「資源割付」、及び「コード生成」といったコンパイラによる翻訳過程を経て、コンピュータによって読み取り可能なコードに変換され、記録媒体に記録される。高級プログラミング言語での記述により、そのデータ構造は、オブジェクト指向言語におけるクラス構造体のメソッド以外の部分、具体的には、そのクラス構造体における配列型のメンバー変数として扱われ、プログラムの一部を成す。すなわち、そのデータ構造は、プログラムと実質的に同等である。従って、そのデータ構造はコンピュータ関連の発明として保護を受けるべきである。
  ≪再生プログラムによるプレイリスト・ファイル、クリップ情報ファイルの管理≫
 プレイリスト・ファイルとAVストリーム・ファイルとが記録媒体に記録されるとき、その記録媒体には再生プログラムが実行形式のファイルとして記録される。再生プログラムはコンピュータに、プレイリスト・ファイルに従ってAVストリーム・ファイルを再生させる。再生プログラムは記録媒体からコンピュータ内のメモリ装置にロードされた後、そのコンピュータによって実行される。そのロード処理はコンパイル処理又はリンク処理を含む。それらの処理により、再生プログラムはメモリ装置内では複数のセクションに分割される。それらのセクションは、textセクション、dataセクション、bssセクション、及びstackセクションを含む。textセクションは、再生プログラムのコード列、変数の初期値、及び書き換え不可のデータを含む。dataセクションは、初期値を持つ変数、及び書き換え可能なデータを含む。dataセクションは特に、記録媒体上に記録された、随時アクセスされるファイルを含む。bssセクションは、初期値を持たない変数を含む。bssセクション内のデータは、textセクション内のコードの示す命令に応じて参照される。コンパイル処理又はリンク処理では、コンピュータ内のRAMにbssセクション用の領域が確保される。stackセクションは、必要に応じて一時的に確保されるメモリ領域である。再生プログラムによる各処理ではローカル変数が一時的に使用される。stackセクションはそれらのローカル変数を含む。プログラムの実行が開始されるとき、bssセクション内の変数はゼロで初期化され、stackセクションには必要なメモリ領域が確保される。
 プレイリスト・ファイル及びクリップ情報ファイルは上述のとおり、記録媒体上では既に、コンピュータによって読み取り可能なコードに変換されている。従って、それらのファイルは再生プログラムの実行時、textセクション内の「書き換え不可のデータ」、又はdataセクション内の「随時アクセスされるファイル」として管理される。すなわち、プレイリスト・ファイル及びクリップ情報ファイルは、再生プログラムの実行時にその構成要素の中に組み込まれる。それ故、プレイリスト・ファイル及びクリップ情報ファイルは再生プログラムにおいて、単なるデータの提示を超えた役割を果たす。
 本発明は立体視映像の再生技術に関し、上記のとおり、記録媒体上に記録されたインターリーブ配置のデータ・ブロック群をファイルSSとファイル2D又はファイルDEPとで共有させる。このように、本発明は明らかに産業上利用可能である。
 2101 第1の3Dエクステント・ブロック
 2102 第2の3Dエクステント・ブロック
 2110 ファイル2Dのファイル・エントリ
 2120 第1ファイルSSのファイル・エントリ
 LB  層境界
 D1、D2、D3、D4 デプスマップ・データ・ブロック
 R1、R2、R3、R4 ライトビュー・データ・ブロック
 L1、L2、L4   ベースビュー・データ・ブロック
 L32D 2D再生専用ブロック
 L3SS 3D再生専用ブロック
 EXT2D[0]、EXT2D[1]、EXT2D[2]      2Dエクステント
 EXTSS[0]、EXTSS[1]、EXTSS[2]、EXTSS[3] 3Dエクステント

Claims (9)

  1.  平面視映像の再生に利用されるベースビュー・ストリーム、及び、前記ベースビュー・ストリームと組み合わされて立体視映像の再生に利用されるディペンデントビュー・ストリームが記録された記録媒体であって、
     平面視映像の再生時に、前記ベースビュー・ストリームを参照する第1のファイル、及び、
     立体視映像の再生時に、前記ベースビュー・ストリームを参照する第2のファイル、
    が更に記録された記録媒体。
  2.  前記記録媒体は、立体視/平面視共用領域と、立体視専用領域と、平面視専用領域とを有し、
     前記立体視/平面視共用領域は、立体視映像の再生時と平面視映像の再生時との両方でアクセスされる領域であり、
     前記立体視専用領域は、立体視映像の再生時にアクセスされる領域であり、
     前記平面視専用領域は、平面視映像の再生時にアクセスされる領域であり、
     前記ベースビュー・ストリームは、前記立体視/平面視共用領域と、前記立体視専用領域と、前記平面視専用領域とにわたって記録されており、
     前記ディペンデントビュー・ストリームは、前記立体視/平面視共用領域と、前記立体視専用領域とにわたって記録されており、
     前記第1のファイルは、前記ベースビュー・ストリームのうち、前記立体視/平面視共用領域に記録された部分と、前記平面視専用領域に記録された部分とを参照し、
     前記第2のファイルは、前記ベースビュー・ストリームのうち、前記立体視/平面視共用領域に記録された部分と、前記立体視専用領域に記録された部分とを参照する、
     請求項1に記載の記録媒体。
  3.  前記ベースビュー・ストリームは複数のベースビュー・データ・ブロックに分割されて前記記録媒体上に配置され、
     前記ディペンデントビュー・ストリームは複数のディペンデントビュー・データ・ブロックに分割されて前記記録媒体上に配置され、
     前記立体視/平面視共用領域は、ベースビュー・データ・ブロックとディペンデントビュー・データ・ブロックとが交互に配置されて記録された連続領域であり、
     前記立体視専用領域と前記平面視専用領域とはいずれも、前記立体視/平面視共用領域に後続する連続領域であり、
     前記立体視専用領域へのアクセスは、立体視映像の再生中に生じるロングジャンプの直前に行われ、
     前記立体視専用領域には、前記立体視/平面視共用領域に記録されたベースビュー・データ・ブロックに後続するベースビュー・データ・ブロックと、前記立体視/平面視共用領域に記録されたディペンデントビュー・データ・ブロックに後続するディペンデントビュー・データ・ブロックとが交互に配置されて記録されており、
     前記平面視専用領域へのアクセスは、平面視映像の再生中に生じるロングジャンプの直前に行われ、
     前記平面視専用領域には、前記立体視専用領域に記録されたベースビュー・データ・ブロックの複製が記録されており、
     前記第1のファイルは、前記立体視/平面視共用領域に記録されたベースビュー・データ・ブロックと、前記平面視専用領域に記録されたベースビュー・データ・ブロックとを参照し、
     前記第2のファイルは、前記立体視/平面視共用領域に記録されたベースビュー・データ・ブロックと、前記立体視専用領域に記録されたベースビュー・データ・ブロックとを参照する、
     請求項2に記載の記録媒体。
  4.  前記第2のファイルは、前記立体視/平面視共用領域と前記立体視専用領域とに記録された前記ベースビュー・ストリームにおける、各ベースビュー・データ・ブロックの先頭パケットのパケット番号から構成される、
     請求項3に記載の記録媒体。
  5.  平面視映像の再生に利用されるベースビュー・ストリーム、及び、前記ベースビュー・ストリームと組み合わされて立体視映像の再生に利用されるディペンデントビュー・ストリームが記録された記録媒体であって、
     前記ベースビュー・ストリームは複数のベースビュー・データ・ブロックに分割されており、
     前記ディペンデントビュー・ストリームは複数のディペンデントビュー・データ・ブロックに分割されており、
     前記複数のベースビュー・データ・ブロックと前記複数のディペンデントビュー・データ・ブロックとは交互に前記記録媒体上に配置されており、
     平面視映像の再生時に、前記複数のベースビュー・データ・ブロックを参照する第1のファイル、及び、
     立体視映像の再生時に、交互に配置されたベースビュー・データ・ブロックとディペンデントビュー・データ・ブロックとを一連のデータとして参照する第2のファイル、
    が更に記録された記録媒体。
  6.  記録媒体から映像を再生するための再生装置であって、
     前記記録媒体には、
     平面視映像の再生に利用されるベースビュー・ストリームと、
     前記ベースビュー・ストリームと組み合わされて立体視映像の再生に利用されるディペンデントビュー・ストリームと、
     平面視映像の再生時に、前記ベースビュー・ストリームを参照する第1のファイルと、
     立体視映像の再生時に、前記ベースビュー・ストリームを参照する第2のファイルと、
    が記録されており、
     前記ベースビュー・ストリームは複数のベースビュー・データ・ブロックに分割されており、
     前記ディペンデントビュー・ストリームは複数のディペンデントビュー・データ・ブロックに分割されており、
     前記複数のベースビュー・データ・ブロックと前記複数のディペンデントビュー・データ・ブロックとは交互に前記記録媒体上に配置されており、
     前記再生装置は、
     平面視映像の再生時には前記複数のベースビュー・データ・ブロックを前記記録媒体から読み出し、立体視映像の再生時には前記複数のベースビュー・データ・ブロックと前記複数のディペンデントビュー・データ・ブロックとが交互に配置されたデータを前記記録媒体から読み出す読み出し部と、
     立体視映像の再生時に、前記読み出し部によって読み出された前記複数のベースビュー・データ・ブロックと前記複数のディペンデントビュー・データ・ブロックとが交互に配置されたデータから、前記ベースビュー・ストリームと前記ディペンデントビュー・ストリームとを抽出するスイッチ部と、
     前記スイッチ部によって抽出された前記ベースビュー・ストリームを格納する第1のリード・バッファと、
     前記スイッチ部によって抽出された前記ディペンデントビュー・ストリームを格納する第2のリード・バッファと、
     前記第1のリード・バッファから前記ベースビュー・ストリームを読み出して復号し、前記第2のリード・バッファから前記ディペンデントビュー・ストリームを読み出して復号する復号部と、
    を備え、
     前記読み出し部は、平面視映像の再生時において、前記複数のベースビュー・データ・ブロックを前記記録媒体から読み出す際に、前記第1のファイルを利用し、
     前記スイッチ部は、立体視映像の再生時において、前記読み出し部によって読み出された前記複数のベースビュー・データ・ブロックと前記複数のディペンデントビュー・データ・ブロックとが交互に配置されたデータから、前記ベースビュー・ストリームを抽出する際に、前記第2のファイルを利用する
    ことを特徴とする再生装置。
  7.  記録媒体から映像を再生するための再生装置であって、
     前記記録媒体には、
     平面視映像の再生に利用されるベースビュー・ストリーム、及び、前記ベースビュー・ストリームと組み合わされて立体視映像の再生に利用されるディペンデントビュー・ストリームが記録されており、
     前記ベースビュー・ストリームは複数のベースビュー・データ・ブロックに分割されており、
     前記ディペンデントビュー・ストリームは複数のディペンデントビュー・データ・ブロックに分割されており、
     前記複数のベースビュー・データ・ブロックと前記複数のディペンデントビュー・データ・ブロックとは交互に前記記録媒体上に配置されており、
     平面視映像の再生時に、前記複数のベースビュー・データ・ブロックを参照する第1のファイルと、
     立体視映像の再生時に、交互に配置されたベースビュー・データ・ブロックとディペンデントビュー・データ・ブロックとを一連のデータとして参照する第2のファイルと、
    が前記記録媒体上に更に記録されており、
     前記再生装置は、
     平面視映像の再生時には前記複数のベースビュー・データ・ブロックを前記記録媒体から読み出し、立体視映像の再生時には前記複数のベースビュー・データ・ブロックと前記複数のディペンデントビュー・データ・ブロックとが交互に配置されたデータを前記記録媒体から読み出す読み出し部と、
     立体視映像の再生時に、前記読み出し部によって読み出された前記複数のベースビュー・データ・ブロックと前記複数のディペンデントビュー・データ・ブロックとが交互に配置されたデータから、前記ベースビュー・ストリームと前記ディペンデントビュー・ストリームとを抽出するスイッチ部と、
     前記スイッチ部によって抽出された前記ベースビュー・ストリームを格納する第1のリード・バッファと、
     前記スイッチ部によって抽出された前記ディペンデントビュー・ストリームを格納する第2のリード・バッファと、
     前記第1のリード・バッファから前記ベースビュー・ストリームを読み出して復号し、前記第2のリード・バッファから前記ディペンデントビュー・ストリームを読み出して復号する復号部と、
    を備え、
     前記読み出し部は、
     平面視映像の再生時において、前記複数のベースビュー・データ・ブロックを前記記録媒体から読み出す際に、前記第1のファイルを利用し、
     立体視映像の再生時において、前記複数のベースビュー・データ・ブロックと前記複数のディペンデントビュー・データ・ブロックとが交互に配置されたデータを前記記録媒体から読み出す際に、前記第2のファイルを利用する
    ことを特徴とする再生装置。
  8.  平面視映像の再生に利用されるベースビュー・ストリームと、
     前記ベースビュー・ストリームと組み合わされて立体視映像の再生に利用されるディペンデントビュー・ストリームと、
     平面視映像の再生時に、前記ベースビュー・ストリームを参照する第1のファイルと、
     立体視映像の再生時に、前記ベースビュー・ストリームを参照する第2のファイルと
    が記録された記録媒体から受信したデータに対して映像・音声信号処理を行う半導体集積回路であって、
     前記ベースビュー・ストリームは複数のベースビュー・データ・ブロックに分割されており、
     前記ディペンデントビュー・ストリームは複数のディペンデントビュー・データ・ブロックに分割されており、
     前記ベースビュー・データ・ブロックと前記ディペンデントビュー・データ・ブロックとが交互に前記記録媒体上に配置されており、
     前記複数のベースビュー・データ・ブロックと前記複数のディペンデントビュー・データ・ブロックとはそれぞれ、映像系データを含み、
     前記複数のベースビュー・データ・ブロックと前記複数のディペンデントビュー・データ・ブロックとの少なくともいずれかは、音声系データを含み、
     前記半導体集積回路は、
     前記半導体集積回路の制御を行う主制御部と、
     前記複数のベースビュー・データ・ブロックと前記複数のディペンデントビュー・データ・ブロックとが交互に配置されたデータを受信し、前記半導体集積回路の内部もしくは外部に設けられたメモリに一旦格納した後、前記映像系データと前記音声系データとに多重分離するストリーム処理部と、
     前記音声系データと前記映像系データとをそれぞれ復号する信号処理部と、
     復号された前記映像系データと前記音声系データとを出力するAV出力部と
    を備えており、
     前記ストリーム処理部は、受信した前記データの格納先を前記メモリ内の第1の領域と第2の領域との間で切り替える切替部を備えており、
     立体視映像の再生時に、前記主制御部は前記切替部を制御して、前記複数のベースビュー・データ・ブロックに属しているデータを前記第1の領域に格納させ、前記ディペンデントビュー・データ・ブロックに属しているデータを前記第2の領域に格納させ、
     前記主制御部は、前記複数のベースビュー・データ・ブロックに属しているデータを、前記第1の領域に格納するように前記切替部を制御する際は、前記第2のファイルを利用する
    ことを特徴とする半導体集積回路。
  9.  平面視映像の再生に利用されるベースビュー・ストリームと、
     前記ベースビュー・ストリームと組み合わされて立体視映像の再生に利用されるディペンデントビュー・ストリームと、
     平面視映像の再生時に利用される第1の参照ファイルと、
     立体視映像の再生時に利用される第2の参照ファイルと
    が記録された記録媒体から受信したデータに対して映像・音声信号処理を行う半導体集積回路であって、
     前記ベースビュー・ストリームは複数のベースビュー・データ・ブロックに分割されており、
     前記ディペンデントビュー・ストリームは複数のディペンデントビュー・データ・ブロックに分割されており、
     前記複数のベースビュー・データ・ブロックと前記複数のディペンデントビュー・データ・ブロックとが交互に前記記録媒体上に配置されており、
     前記第1の参照ファイルは、平面視映像の再生時に、前記複数のベースビュー・データ・ブロックを参照し、
     前記第2の参照ファイルは、立体視映像の再生時に、交互に配置されたベースビュー・データ・ブロックとディペンデントビュー・データ・ブロックとを一連のデータとして参照し、
     前記複数のベースビュー・データ・ブロックと前記複数のディペンデントビュー・データ・ブロックとはそれぞれ、映像系データを含み、
     前記複数のベースビュー・データ・ブロックと前記複数のディペンデントビュー・データ・ブロックとの少なくともいずれかは、音声系データを含み、
     前記半導体集積回路は、
     前記半導体集積回路の制御を行う主制御部と、
     前記複数のベースビュー・データ・ブロックと前記複数のディペンデントビュー・データ・ブロックとが交互に配置されたデータを受信し、前記半導体集積回路の内部もしくは外部に設けられたメモリに一旦格納した後、前記映像系データと前記音声系データとに多重分離するストリーム処理部と、
     前記音声系データと前記映像系データとをそれぞれ復号する信号処理部と、
     復号された前記映像系データと前記音声系データとを出力するAV出力部と
    を備えており、
     前記ストリーム処理部は、受信した前記データの格納先を前記メモリ内の第1の領域と第2の領域との間で切り替える切替部を備えており、
     立体視映像の再生時に、前記主制御部は前記切替部を制御して、前記複数のベースビュー・データ・ブロックに属しているデータを前記切替部に前記第1の領域に格納させ、前記複数のディペンデントビュー・データ・ブロックに属しているデータを前記第2の領域に格納させる
    ことを特徴とする半導体集積回路。
PCT/JP2010/000608 2009-02-04 2010-02-02 記録媒体、再生装置、及び集積回路 WO2010089994A1 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
US12/810,073 US20110050847A1 (en) 2009-02-04 2010-02-02 Recording medium, playback device, and integrated circuit
RU2010132156/08A RU2521288C2 (ru) 2009-02-04 2010-02-02 Носитель записи, устройство воспроизведения и интегральная схема
EP10732239.8A EP2395771B1 (en) 2009-02-04 2010-02-02 Recording medium, reproduction device, and integrated circuit
MX2010008146A MX2010008146A (es) 2009-02-04 2010-02-02 Medio de grabacion, dispositivo de reproduccion y circuito integrado.
CN2010800010573A CN101953170B (zh) 2009-02-04 2010-02-02 再现装置及集成电路
ES10732239.8T ES2472444T3 (es) 2009-02-04 2010-02-02 Medio de grabación, dispositivo de reproducción y circuito integrado
JP2010521246A JP4569935B2 (ja) 2009-02-04 2010-02-02 記録媒体、再生装置、及び集積回路
BRPI1001234-6A BRPI1001234A2 (pt) 2009-02-04 2010-02-02 meio de gravação, dispositivo de reprodução e circuito integrado

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009024230 2009-02-04
JP2009-024230 2009-02-04

Publications (1)

Publication Number Publication Date
WO2010089994A1 true WO2010089994A1 (ja) 2010-08-12

Family

ID=42541905

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/000608 WO2010089994A1 (ja) 2009-02-04 2010-02-02 記録媒体、再生装置、及び集積回路

Country Status (11)

Country Link
US (1) US20110050847A1 (ja)
EP (1) EP2395771B1 (ja)
JP (3) JP4569935B2 (ja)
KR (1) KR20110122786A (ja)
CN (2) CN102740037A (ja)
BR (1) BRPI1001234A2 (ja)
ES (1) ES2472444T3 (ja)
MX (1) MX2010008146A (ja)
RU (1) RU2521288C2 (ja)
TW (1) TW201037696A (ja)
WO (1) WO2010089994A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010244630A (ja) * 2009-04-07 2010-10-28 Sony Corp 情報処理装置、情報処理方法、プログラム、及び、データ構造
JP2012085206A (ja) * 2010-10-14 2012-04-26 Sony Corp 再生装置、再生方法、プログラム、および記録媒体
WO2013099289A1 (ja) * 2011-12-28 2013-07-04 パナソニック株式会社 再生装置、送信装置、再生方法及び送信方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI491244B (zh) * 2010-11-23 2015-07-01 Mstar Semiconductor Inc 調整物件三維深度的方法與裝置、以及偵測物件三維深度的方法與裝置
CN103202028A (zh) * 2011-03-11 2013-07-10 日立民用电子株式会社 记录装置/方法/介质、再现装置/方法
JP2012231370A (ja) * 2011-04-27 2012-11-22 Seiko Epson Corp 3d画像観賞用メガネ、及び、3d画像観賞用メガネの制御方法
TWI533663B (zh) * 2012-01-17 2016-05-11 晨星半導體股份有限公司 立體影像處理裝置及立體影像處理方法
JP5991036B2 (ja) 2012-06-13 2016-09-14 住友電気工業株式会社 受光素子および光学装置
TW201528775A (zh) 2014-01-02 2015-07-16 Ind Tech Res Inst 景深圖校正方法及系統
US20150253974A1 (en) 2014-03-07 2015-09-10 Sony Corporation Control of large screen display using wireless portable computer interfacing with display controller
US11062722B2 (en) 2018-01-05 2021-07-13 Summit Wireless Technologies, Inc. Stream adaptation for latency

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11191895A (ja) * 1996-12-04 1999-07-13 Matsushita Electric Ind Co Ltd 高解像度および立体映像記録用光ディスク、光ディスク再生装置、および光ディスク記録装置
JP3935507B2 (ja) 1996-02-28 2007-06-27 松下電器産業株式会社 高解像度および立体映像記録用光ディスク、光ディスク再生装置、光ディスク記録装置
WO2010032404A1 (ja) * 2008-09-17 2010-03-25 パナソニック株式会社 記録媒体、再生装置、及び集積回路

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1708487B1 (en) * 1997-08-29 2013-05-08 Panasonic Corporation Method and apparatus for reading a high-resolution optical video disc
WO2003092303A1 (en) * 2002-04-25 2003-11-06 Sharp Kabushiki Kaisha Multimedia information generation method and multimedia information reproduction device
KR100619008B1 (ko) * 2003-09-23 2006-08-31 삼성전자주식회사 멀티앵글 데이터 구조를 기록한 정보저장매체, 그재생방법 및 장치
JP4638784B2 (ja) * 2005-07-19 2011-02-23 オリンパスイメージング株式会社 画像出力装置及びプログラム
RU2334369C1 (ru) * 2006-11-30 2008-09-20 Борис Иванович Волков Система стереотелевидения
JP4671053B2 (ja) * 2007-01-30 2011-04-13 富士フイルム株式会社 画像記録装置及び画像記録方法
US8471893B2 (en) * 2007-06-26 2013-06-25 Samsung Electronics Co., Ltd. Method and apparatus for generating stereoscopic image bitstream using block interleaved method
JP2009135686A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3935507B2 (ja) 1996-02-28 2007-06-27 松下電器産業株式会社 高解像度および立体映像記録用光ディスク、光ディスク再生装置、光ディスク記録装置
JPH11191895A (ja) * 1996-12-04 1999-07-13 Matsushita Electric Ind Co Ltd 高解像度および立体映像記録用光ディスク、光ディスク再生装置、および光ディスク記録装置
WO2010032404A1 (ja) * 2008-09-17 2010-03-25 パナソニック株式会社 記録媒体、再生装置、及び集積回路

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2395771A4

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010244630A (ja) * 2009-04-07 2010-10-28 Sony Corp 情報処理装置、情報処理方法、プログラム、及び、データ構造
US8633966B2 (en) 2009-04-07 2014-01-21 Sony Corporation Information processing device, information processing method, program, and data structure
JP2012085206A (ja) * 2010-10-14 2012-04-26 Sony Corp 再生装置、再生方法、プログラム、および記録媒体
CN102959971A (zh) * 2010-10-14 2013-03-06 索尼公司 重放设备、重放方法、程序和记录介质
CN102959971B (zh) * 2010-10-14 2015-07-08 索尼公司 重放设备、重放方法、程序和记录介质
WO2013099289A1 (ja) * 2011-12-28 2013-07-04 パナソニック株式会社 再生装置、送信装置、再生方法及び送信方法

Also Published As

Publication number Publication date
RU2010132156A (ru) 2013-03-10
BRPI1001234A2 (pt) 2020-11-17
US20110050847A1 (en) 2011-03-03
CN101953170B (zh) 2012-07-18
ES2472444T3 (es) 2014-07-01
MX2010008146A (es) 2010-09-30
JPWO2010089994A1 (ja) 2012-08-09
KR20110122786A (ko) 2011-11-11
EP2395771B1 (en) 2014-05-14
JP2010288297A (ja) 2010-12-24
JP5385217B2 (ja) 2014-01-08
EP2395771A4 (en) 2012-12-12
EP2395771A1 (en) 2011-12-14
CN101953170A (zh) 2011-01-19
TW201037696A (en) 2010-10-16
CN102740037A (zh) 2012-10-17
JP2010273351A (ja) 2010-12-02
RU2521288C2 (ru) 2014-06-27
JP4569935B2 (ja) 2010-10-27
JP5385226B2 (ja) 2014-01-08

Similar Documents

Publication Publication Date Title
JP4642939B2 (ja) 記録媒体、再生装置、及び集積回路
WO2010089995A1 (ja) 記録媒体、再生装置、及び集積回路
JP5390485B2 (ja) 半導体集積回路
US8139925B2 (en) Recording medium, playback device, and integrated circuit
JP5491414B2 (ja) 記録媒体、再生装置、及び集積回路
JP4569935B2 (ja) 記録媒体、再生装置、及び集積回路
US8045844B2 (en) Recording medium, playback apparatus, and integrated circuit
WO2010100875A1 (ja) 記録媒体、再生装置、及び集積回路
WO2011036888A1 (ja) 記録媒体、再生装置、及び集積回路
WO2010076846A1 (ja) 記録媒体、再生装置、及び集積回路
JP2010283856A (ja) 記録媒体、再生装置、及び集積回路
WO2010098134A1 (ja) 記録媒体、再生装置、及び集積回路

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080001057.3

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2010521246

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: MX/A/2010/008146

Country of ref document: MX

WWE Wipo information: entry into national phase

Ref document number: 2010732239

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 20107016889

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2803/KOLNP/2010

Country of ref document: IN

WWE Wipo information: entry into national phase

Ref document number: P1017/2010

Country of ref document: AE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10732239

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2010132156

Country of ref document: RU

REG Reference to national code

Ref country code: BR

Ref legal event code: B01E

Ref document number: PI1001234

Country of ref document: BR

Free format text: APRESENTAR A TRADUCAO SIMPLES DA FOLHA DE ROSTO DA CERTIDAO DE DEPOSITO DA PRIORIDADE JP 2009-024230 DE 04/02/2009 OU DECLARACAO CONTENDO, OBRIGATORIAMENTE, TODOS OS DADOS IDENTIFICADORES DESTA (DEPOSITANTE(S), INVENTOR(ES), NUMERO DE REGISTRO, DATA DE DEPOSITO E TITULO), CONFORME O PARAGRAFO UNICO DO ART. 25 DA RESOLUCAO 77/2013, UMA VEZ QUE NAO FOI POSSIVEL DETERMINAR O(S) TITULAR(ES) DA CITADA PRIORIDADE, NEM SEUS INVENTORES, INFORMACAO NECESSARIA PARA O EXAME.

ENP Entry into the national phase

Ref document number: PI1001234

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20100730