WO2009157198A1 - 記録媒体、再生装置、記録装置、再生方法、記録方法、プログラム - Google Patents

記録媒体、再生装置、記録装置、再生方法、記録方法、プログラム Download PDF

Info

Publication number
WO2009157198A1
WO2009157198A1 PCT/JP2009/002905 JP2009002905W WO2009157198A1 WO 2009157198 A1 WO2009157198 A1 WO 2009157198A1 JP 2009002905 W JP2009002905 W JP 2009002905W WO 2009157198 A1 WO2009157198 A1 WO 2009157198A1
Authority
WO
WIPO (PCT)
Prior art keywords
stream
information
subtitle
playback
display method
Prior art date
Application number
PCT/JP2009/002905
Other languages
English (en)
French (fr)
Inventor
大久保雅文
金丸智一
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to CN200980123473.8A priority Critical patent/CN102067591B/zh
Priority to EP09769908.6A priority patent/EP2293553B1/en
Priority to ES09769908T priority patent/ES2428921T3/es
Priority to MX2010013448A priority patent/MX2010013448A/es
Priority to RU2010150618/07A priority patent/RU2518189C2/ru
Priority to JP2010517765A priority patent/JP5065488B2/ja
Publication of WO2009157198A1 publication Critical patent/WO2009157198A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • H04N21/42646Internal components of the client ; Characteristics thereof for reading from or writing on a non-volatile solid state storage medium, e.g. DVD, CD-ROM
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/21Disc-shaped record carriers characterised in that the disc is of read-only, rewritable, or recordable type
    • G11B2220/213Read-only discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2541Blu-ray discs; Blue laser DVR discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Definitions

  • the present invention is an invention belonging to the field of graphics subtitle display technology.
  • “Graphics subtitles” is a technology that decodes graphics data compressed by so-called run-length encoding to display subtitles, and is used in BD-ROM playback devices, DVB-MHP, and DVD-Video. Graphics subtitles are generally provided for display by decoding a graphics subtitle stream.
  • the graphics subtitle stream is an array of PES packets. Such PES packets include one storing graphics data, one storing pallet data, and one storing control data. It is length data, and is composed of a code value and a continuous length of the code value.
  • Pallet data shows the correspondence between each code value and brightness and color difference.
  • the control data includes a reference value indicating palette data to be used for the color conversion, information for designating a display area for writing graphics to the plane memory, and information on the display coordinates of the graphics in the plane memory, and the graphics based on the reference value Command display and color conversion.
  • the age group of viewers who watch movie works using a playback device has a wide spread from elderly people to infants, and there are various variations in playback devices from low-priced models to high-end models. In the near future, it is said that a model that can switch between stereoscopic playback and planar playback will also appear. From the creators of movie works, according to the specs of these playback devices and the diversification of user groups There is a demand for realizing a unique caption display.
  • control information incorporated in the graphics subtitle stream includes information for specifying the display area and display coordinates in the plane memory, the setting of the display coordinates in the control information and the range of the display area are changed.
  • display effects such as scroll, wipe, cut-in, and cut-out can be realized.
  • the type of control in such control information is limited to the display effect as described above, and there is no room for realizing a characteristic display according to the specifications of the playback device of the playback device and the diversification of the user layer. not exist.
  • An object of the present invention is to provide a recording medium capable of realizing a change in subtitle display method according to the processing capability of the playback device and the user's age group while maintaining compatibility of the data structure of the graphics subtitle stream It is to be.
  • a recording medium is a recording medium on which a subtitle stream to be reproduced in synchronization with a video stream and playlist information are recorded,
  • the playlist information includes playback section information and a display method flag,
  • the playback section information is information that defines in-time on the playback time axis of the video stream, and information that defines the playback section using information indicating the out time, and includes a stream information table,
  • the display method flag indicates whether to enable control of the display method of captions in the playback section,
  • the stream information table is characterized by instructing the playback apparatus which one of a plurality of subtitle streams should be selected when the display method is enabled in the playback section.
  • the display method flag in the playlist information indicates whether or not the control of the subtitle display method in the playback section is enabled, and the stream information table in the playlist information enables the display method in the playback section.
  • the content of the control information incorporated in the subtitle stream is the same as the conventional one.
  • the playback device can select one of these various subtitle streams according to the configuration of the playback device.
  • the subtitle display according to the specific display method can be executed by the playback device. Since the caption display is performed by the process of selecting the caption stream from a plurality of caption streams according to the effective display method, it is not necessary to cause fluctuations in the control information.
  • the display method can be changed depending on whether stereoscopic playback is possible and how old the user is, so manufacturers can change the subtitle display method according to the configuration. Differentiate from other companies.
  • FIG. 3 is a diagram illustrating a correspondence relationship between a physical unit of a BD-ROM and source packets that form one file extent.
  • FIG. 3 is a diagram illustrating a plurality of numerical ranges that can be taken by a packet ID of a TS packet and a PES stream type of a TS packet having a packet ID in each numerical range in association with each other.
  • positioning It is a figure which shows an example of the internal structure of the base view stream for stereoscopic vision, and the enhanced view stream. It is a figure which shows what kind of image
  • It shows how the coordinates of the window in the graphics plane defined by window_horizontal_position and window_vertical_position and the coordinates of the graphics subtitle in the graphics plane defined by object_horizontal_position and object_vertical_position affect the stereoscopic caption.
  • It is a figure which shows an example of a clip information file.
  • It is a figure which shows the internal structure of an entry map table. Indicates registration of entry points using an entry map.
  • It is a figure which shows the data structure of play list information.
  • It is a figure which shows the internal structure of a subpath information table. This indicates what playback section is defined for the left view and right view.
  • FIG. 1 It is a figure which shows the internal structure of a video stream number table.
  • the internal structure of the subtitle stream information table in STN_table is shown.
  • the PSR set 12 and the internal structure of the reproduction control engine 14 are shown.
  • 3 is a diagram illustrating an internal configuration of a planar view control unit 41.
  • the internal structure of the stereoscopic control unit 42 is shown. It is a figure which shows the internal structure of a graphics decoder. It is a flowchart which shows the process sequence of a playlist reproduction process. It is a flowchart which shows the reproduction
  • FIG. 10 is a flowchart showing a procedure for setting PSR2 when a device state changes and when a stream change is requested. It is a flowchart which shows the selection procedure at the time of reproduction according to age. It is a flowchart which shows the process sequence of the selection procedure at the time of stereoscopic vision reproduction
  • FIG. 1 is a diagram showing a form of usage of a recording medium and a playback device.
  • a BD-ROM 101 and a playback device 102 which are examples of a recording medium constitute a home theater system together with a television 103, a liquid crystal shutter goggles 104, and a remote controller 100, and are used by a user.
  • BD-ROM 101 supplies, for example, a movie work to the home theater system.
  • the playback device 102 is connected to the television 103 and plays back the BD-ROM 101.
  • the television 103 provides an interactive operation environment to the user by displaying a playback image of a movie work or displaying a menu or the like.
  • the liquid crystal shutter goggles 104 are composed of a liquid crystal shutter and a control unit, and realize stereoscopic viewing using parallax in both eyes of the user.
  • the liquid crystal shutter of the liquid crystal shutter goggles 104 is a shutter using a liquid crystal lens having a property that the light transmittance is changed by changing an applied voltage.
  • the control unit of the liquid crystal shutter goggles 104 receives the synchronization signal for switching the output of the right-view image and the left-view image sent from the playback device, and in accordance with this synchronization signal, the first state and the second state Switch.
  • FIG. 1B shows the first state.
  • the first state is a state in which the applied voltage is adjusted so that the liquid crystal lens corresponding to the right view does not transmit light, and the applied voltage is adjusted so that the liquid crystal lens corresponding to the left view transmits light. In this state, the left-view image is used for viewing.
  • FIG. 1 (c) shows the second state.
  • the second state is a state in which the applied voltage is adjusted so that the liquid crystal lens corresponding to the right view transmits light, and the applied voltage is adjusted so that the liquid crystal lens corresponding to the left view does not transmit light.
  • the liquid crystal shutter goggles can provide a right-view image for viewing.
  • the short time interval may be a time enough to give an illusion that a person looks three-dimensional by the switching display described above.
  • the remote controller 100 is a device that accepts an operation on a hierarchical GUI from a user. To accept such an operation, the remote controller 100 moves a menu key for calling a menu constituting the GUI and a focus of a GUI component constituting the menu. An arrow key, a determination key for performing a confirmation operation on a GUI component constituting the menu, a return key for returning a hierarchical menu to a higher level, and a numerical key are provided.
  • FIG. 2 shows an internal configuration of an optical disc, more specifically a BD-ROM, which is an example of a recording medium described in the present embodiment.
  • the first level shows a BD-ROM which is a multilayered optical disc
  • the second level shows a spiral track extending on each recording layer extended in the horizontal direction. This spiral track is treated as one continuous recording area.
  • the recording area includes a lead-in located on the innermost circumference, a lead-out located on the innermost circumference, a recording area of the first recording layer, a recording area of the second recording layer, and a recording area of the third recording layer existing therebetween. Consists of
  • the third row shows the file system area in BD-ROM.
  • the file system area is composed of a “volume management area” and a “logical address space”.
  • the “volume management area” stores file system management information for handling the recording area of the first recording layer, the recording area of the second recording layer, and the recording area of the third recording layer as one continuous file system space. It is an area.
  • Logical address space is an address space indicated by a logical block number (LBN) in which sectors continue. That is, the recording area of the first recording layer, the recording area of the second recording layer, and the recording area of the third recording layer in the second stage constitute one continuous logical address space.
  • LBN logical block number
  • the fourth row shows area allocation in the logical address space of the file system management area.
  • a non-AV data recording area exists on the inner circumference side.
  • An AV data recording area exists immediately after the non-AV data recording area.
  • the fifth row shows extents recorded in these non-AV data recording area and AV data recording area.
  • extents EXT, EXT, EXT... In the figure
  • non-AV data recording area there are extents (EXT, EXT, EXT... In the figure) constituting files other than AV files.
  • Fig. 3 is a diagram showing the application format of BD-ROM.
  • BDMV directory is a directory in which data such as AV contents and management information handled by the BD-ROM is recorded. Under the BDMV directory, there are five subdirectories called “JAR directory”, “BDJO directory”, “PLAYLIST directory”, “CLIPINF directory”, and “STREAM directory”. In the BDMV directory, “index.bdmv” ”And“ MovieObject.bdmv ”are arranged.
  • index.bdmv is management information relating to the entire BD-ROM, and after the disc is inserted into the playback device, the index.bdmv is read first so that the disc is uniquely recognized by the playback device.
  • index.bdmv indicates the correspondence between the title numbers of a plurality of titles that can be reproduced on the BD-ROM and BD-J objects or movie objects that define individual titles.
  • “MovieObject.bdmv” stores one or more movie objects.
  • a movie object is a management object that defines the control procedure to be performed by the playback device in an operation mode (HDMV mode) mainly controlled by a command interpreter.
  • HDMV mode operation mode
  • One or more commands, GUI menu calls, and title calls can be used by the user.
  • JAR directory is a directory in which JAR files corresponding to archive files are placed.
  • An archive file is a file obtained by combining one or more class files, one or more data files, etc. into one.
  • One or more class files, one or more data files, and the like can be combined into one by, for example, an archiver (not shown).
  • Java (registered trademark) archive file will be described as an example of an archive file.
  • BD-J mode mainly controlled by a Java virtual machine that is a byte code interpreter provided in the playback device
  • the control procedure to be performed by the playback device is specified.
  • a file storing a JAR file is identified by a 5-digit number zzzzz and an extension jar.
  • the “BDJO directory” is a file that stores a management object (BDJ object) that defines the control procedure to be performed by the playback device in an operation mode (BD-J mode) mainly controlled by a Java virtual machine that is a bytecode interpreter.
  • BDJ object management object
  • a file storing a BDJ object is identified by a 5-digit number zzzzz and an extension bdjo.
  • a file storing playlist information including main path information specifying a playback section for a base-view video stream and sub-path information specifying a playback section for an enhanced view video stream is arranged.
  • the file storing the playlist information is identified by a 5-digit identification number “yyyyy” and an extension “mpls”.
  • the base-view video stream is a video stream that constitutes a left view or a right view, and can realize planar display.
  • a video stream that constitutes a right view or a left view and is not a base view video stream is referred to as an “enhanced view video stream”.
  • the picture data constituting the enhanced view video stream is compression-encoded based on the frame correlation with the picture data constituting the base view video stream.
  • MVC Multiview Video Coding
  • the stream that makes up the base view and enhanced view is not limited to the video stream.
  • the subtitle stream also forms a base view and an enhanced view.
  • the base view video stream and the base view subtitle stream are collectively referred to as a “base view stream”.
  • the enhanced view video stream and the enhanced view subtitle stream are collectively referred to as an “enhanced view stream”.
  • CLIPINF directory is a directory in which files (clip information files) storing clip information are placed.
  • the clip information file is identified by a 5-digit identification number “xxxxx” and an extension “clpi”. Inside the clip information file, there are entry maps corresponding to the left-view video stream and the right-view video stream.
  • Extents that make up the files in the above directories are recorded in the non-AV data area.
  • “STREAM directory” is a directory in which an AV clip file storing a stereoscopic video stream and an AV clip file storing a stereoscopic video stream are arranged.
  • a file storing a planar video stream is identified by a 5-digit identification number “xxxxx” and an extension “m2ts”.
  • a file storing a stereoscopic video stream is identified by a 5-digit identification number “xxxxx” and an extension “ilts”.
  • the extents constituting the base view stream file stored in the STREAM directory and the extents constituting the enhanced view stream file to be stored in the STREAM directory are recorded in the AV data recording area.
  • FIG. 4 shows the process by which each source packet constituting the base view stream and the enhanced view stream is written into the AV data area.
  • the first level in the figure shows TS packets that constitute a base view stream or an enhanced view stream.
  • TS_extra_header (hatched portion in the figure) as shown in the second row to become a source packet with a length of 192 bytes.
  • This TS_extra_header includes Arrival_Time_Stamp indicating the decoder input time information of the TS packet.
  • the source packets that make up the base view stream and the enhanced view stream form one or more “ATC sequences”.
  • the “ATC sequence” is an array of source packets constituting the time axis of the ATS, and means that there is no discontinuity (no arrival time-base discontinutiy) in the Arrival_Time_Clock referenced by the Arrival_Time_Stamp.
  • a source packet sequence having continuity in the Arrival_Time_Clock referenced by the Arrival_Time_Stamp is referred to as an “ATC sequence”.
  • ATS is added to the head of the TS packet as follows, and indicates the transfer time to the decoder.
  • the ATC sequence becomes an AV clip and is recorded on the recording layer with the file name xxxxx.m2ts.
  • Such an AV clip is divided into one or more file extents and recorded in an area on each recording layer like a normal computer file.
  • the third row shows the AV clip
  • the fourth row schematically shows how the AV clip is recorded on each recording layer.
  • Each file extent constituting the file in the fourth level has a data length equal to or larger than a predetermined size (this size is referred to as S_EXT).
  • FIG. 5 is a diagram showing the correspondence between the physical unit of the BD-ROM and the source packets constituting one file extent.
  • a plurality of sectors are formed in the AV file recording area of the BD-ROM.
  • the source packets constituting the file extent are grouped every 32 and written into three consecutive sectors.
  • Thirty-two source packets stored in three sectors are called "Aligned Unit", and writing to the BD-ROM is performed in units of Aligned Unit.
  • error correction codes are added in units of 32 sectors, and an ECC block is configured.
  • the playback device can obtain 32 complete source packets as long as the BD-ROM is accessed in units of Aligned Unit. The above is the process of writing the AV clip to the BD-ROM.
  • FIG. 6A is a diagram in which a plurality of numerical ranges that can be taken by the packet ID (PID) of the TS packet and the PES stream types of the TS packet having the packet ID of each numerical range are associated with each other.
  • PID packet ID
  • TS packets having a packet ID of 0x0100 constitute a program map (Program_map), and TS packets having a packet ID of 0x1001 constitute a program clock reference (PCR).
  • Program_map program map
  • PCR program clock reference
  • TS packets having a packet ID of 0x1011 constitute a base-view video stream
  • Ox1012 TS packets constitute an enhanced-view video stream
  • TS packets with packet IDs of 0x1100 to 0x111F constitute an audio stream.
  • a TS packet having a packet ID of 0x1220 to x123F forms a base view subtitle stream.
  • TS packets having packet IDs of 0x1240 to 0x125F constitute an enhanced view subtitle stream.
  • the packet IDs of TS packets constituting a graphics subtitle stream for planar view that cannot be a base-view subtitle stream are in the numerical range of 0x1200 to 0x121F.
  • TS packets that make up the video stream and TS packets that make up the subtitle stream are grouped into those that make up the base view and those that make up the enhanced view.
  • FIG. 6B shows an example.
  • the group of source packets that make up the base view is the source packet of the base view video stream (Video in the figure) to which the PID of 0x1011 is assigned, and the source of the audio stream to which the PID of 0x1100 is assigned.
  • a packet (Audio in the figure) and a graphics subtitle stream source packet (PG in the figure) to which PIDs of 0x1220, 0x1221,0x1222,0x1223, 0x1224, 0x1225, and 0x1226 are assigned.
  • the source packet group constituting the enhanced view includes the source packet of the enhanced view video stream (Video in the figure) to which the PID of 0x1012 is assigned, and the source packet of the audio stream to which the PID of 0x1101 is assigned (in the figure). Audio), 0x1240, 0x1241,0x1242, 0x1243, 0x1244, and 0x1245 PIDs of graphics subtitle streams to which source packets (PG in the figure) are configured.
  • FIG. 7 is a diagram illustrating an example of an interleaved arrangement.
  • the interleaved arrangement means that the extents that make up the base view and enhanced view are recorded with the regularity of "base view”, “enhanced view”, “base view”, “enhanced view” ... It is that you are.
  • the first row shows the AV file
  • the second row shows the extents EXT_L [i], EXT_L [i + 1], EXT_R [i], and EXT_R [i + 1] constituting the AV file.
  • the third level shows the source packet sequence belonging to each extent
  • the fourth level shows the sector sequence in the recording layer.
  • variables i and i + 1 in parentheses indicate the number of extents to be reproduced.
  • Dashed arrows h1, h2, h3, and h4 indicate the belonging relationship that the extents EXT_L [i] and EXT_L [i + 1] belong to either the base view stream or the enhanced view stream.
  • the belonging relationship indicated by the arrows h1 and h2 it can be seen that the extents EXT_L [i] and EXT_L [i + 1] belong to the base view stream.
  • the arrows h3 and h4 it can be seen that the extents EXT_R [i] and EXT_R [i + 1] belong to the enhanced view stream.
  • SEXT_L and SEXT_R are alternately read out into two buffers, a right-view read buffer and a left-view read buffer, and provided to a video decoder in the playback apparatus.
  • the sizes of SEXT_L and SEXT_R need to be determined in consideration of the time required for buffering the right-view read buffer and the left-view read buffer.
  • the transfer rate to the read buffer for right view is Rmax1
  • Right-view read buffer Rmax1 x "Time to fill left-view read buffer with jump”
  • the capacity of the read buffer for right view must be determined so as to satisfy the relationship.
  • jumping is synonymous with disc seeking. This is because the continuous area that can be secured for recording in the BD-ROM is limited, and the base view stream and the enhanced view stream are not necessarily recorded side by side, and may be recorded in a skipped area. It is.
  • TS packet accumulation in the left-view read buffer is performed at a transfer rate of Rud-Rmax2. This means the difference between the output rate Rmax2 from the left-view read buffer and the input rate Rud to the left-view read buffer. Then, the time for filling the left-view read buffer becomes RB2 / (Rud-Rmax2).
  • the size of the view read buffer RB1 is RB1 ⁇ Rmax1 ⁇ ⁇ 2 ⁇ Tjump + RB2 / (Rud-Rmax2) ⁇ become.
  • the left view read buffer capacity RB2 is calculated.
  • RB2 ⁇ Rmax2 ⁇ ⁇ 2 ⁇ Tjump + RB1 / (Rud-Rmax1) ⁇ become.
  • the specific values of the memory size of the right-view read buffer and the left-view read buffer are 1.5 Mbytes or less.
  • the extent sizes SEXT_R and SEXT_L are the right-view read buffer and the left-view read. It is set to the same size as the buffer size or approximately the same size. This completes the description of how the base view stream and the enhanced view stream are recorded. Next, the internal configuration of the base view stream and the enhanced view stream will be described.
  • FIG. 8 is a diagram illustrating an example of an internal configuration of a base view stream and an enhanced view stream for stereoscopic viewing.
  • the base view stream and the enhanced view stream include, for example, picture data.
  • picture data There are a plurality of types of picture data, including picture data such as I picture, P picture, and B picture.
  • An I picture is picture data for one screen.
  • a P picture is picture data indicating a difference from a reference I picture.
  • a B picture is picture data generated by a standard I picture and P picture.
  • the second level in the figure shows the internal structure of the base view stream.
  • This stream includes picture data of picture data I1, P2, Br3, Br4, P5, Br6, Br7, and P9.
  • the picture data are decoded according to DTS (decoding time stamp: information indicating the start time of decoding by the decoder).
  • the first level shows a left view image.
  • the decoded picture data I1, P2, Br3, Br4, P5, Br6, Br7, P9 are played in the order of I1, Br3, Br4, P2, Br6, Br7, P5 according to PTS, and the left view The image will be played back.
  • the fourth level shows the internal structure of the enhanced view stream.
  • This secondary video stream includes picture data P1, P2, B3, B4, P5, B6, B7, and P8. These picture data are decoded according to DTS.
  • the third row shows a right view image.
  • the decoded picture data P1, P2, B3, B4, P5, B6, B7, and P8 are converted into P1, B3, B4, P2, and P2 according to PTS (presentation time stamp: information indicating video / audio presentation time). By reproducing in the order of B6, B7, and P5, the right-view image is reproduced.
  • the fifth row shows how the state of the liquid crystal shutter goggles 104 is changed. As shown in the fifth row, the right-view liquid crystal shutter is closed when viewing the left-view video, and the left-view liquid crystal shutter is closed when viewing the right-view video.
  • These primary video stream and secondary video stream are compressed by inter-picture predictive coding using inter-view redundancy in addition to inter-picture predictive coding using temporal redundancy.
  • the pictures in the enhanced view stream are compressed with reference to the pictures at the same display time in the base view stream.
  • the first P picture of the enhanced view stream refers to the I picture of the base view stream
  • the B picture of the enhanced view stream refers to the Br picture of the base view stream
  • the second P picture of the enhanced view stream is Referring to the P picture of the base view stream.
  • FIG. 9 is a diagram showing what video is used for reproduction by switching the light transmission / shading of goggles according to the timing of FIG.
  • the frame display period is 1/24 second, and if the translucency / shading of the right view and the left view in the goggles is changed every 1/48 seconds, the pictures of the right view and the left view are alternately displayed. Will appear.
  • the left view image and the right view image shown in FIG. 9 schematically show that the orientation and position of the face of the person appearing in the image are slightly shifted between the left view image and the right view image. (Incidentally, deviations in the orientation and position of a person's face in FIGS. 9 and 10 are schematic.)
  • FIG. 10 is a diagram showing a stereoscopic image formed by the afterimage reaction of the eyes.
  • FIG. 11 is a diagram illustrating a configuration of a graphics subtitle stream.
  • the first row in FIG. 11A shows a TS packet sequence constituting an AVClip.
  • the second level shows a PES packet sequence that constitutes a graphics subtitle stream.
  • the PES packet sequence in the second level is configured by extracting the payload from the TS packets having a predetermined PID among the TS packets in the first level and concatenating them.
  • the third row shows the structure of the graphics subtitle stream.
  • the graphics subtitle stream is composed of functional segments called PCS (Presentation, Composition, Segment), WDS (Window, Definition, Segment), PDS (Palette, Definition, Segment), ODS (Object_Definition_Segment), and END (END, End, Display, Set, Segment).
  • PCS is called a screen composition segment
  • WDS, PDS, ODS, and END are called definition segments.
  • the correspondence between PES packets and functional segments is a one-to-one relationship or a one-to-many relationship. That is, the functional segment is converted into one PES packet and recorded on the BD-ROM, or fragmented, converted into a plurality of PES packets, and recorded on the BD-ROM.
  • FIG. 11B is a diagram showing a PES packet obtained by converting a functional segment.
  • the PES packet includes a “packet header” and a “payload”, and this payload corresponds to a functional segment entity.
  • the packet header there are DTS and PTS corresponding to this functional segment.
  • the DTS and PTS existing in the header of the PES packet in which the functional segment is stored are treated as the DTS and PTS of the functional segment.
  • FIG. 12 is a diagram showing a logical structure composed of various types of functional segments.
  • the functional segment is shown in the third row
  • the Display Set is shown in the second row
  • Epoch is shown in the first row.
  • the second stage Display Set (abbreviated as DS) refers to a set of graphics constituting one screen of a plurality of functional segments constituting a graphics subtitle stream.
  • the broken line kz1 in the figure indicates the attribution relationship to which DS the third-stage functional segment belongs. It can be seen that a series of functional segments called PCS-WDS-PDS-ODS-END constitutes one DS.
  • the playback device can configure graphics for one screen by reading a plurality of functional segments constituting the DS from the BD-ROM.
  • the first-stage Epoch refers to one period having memory management continuity on the playback time axis of the AVClip, and a data group assigned to this period.
  • the memory assumed here is a graphics plane for storing graphics for one screen and an object buffer for storing graphics data in an expanded state. There is continuity in memory management for these, because the graphics plane and object buffer are not flushed during the period corresponding to this Epoch, and only within a certain rectangular area in the graphics plane. Erasing and redrawing are performed (* Flash here means clearing all stored contents of the plane and buffer).
  • the vertical and horizontal sizes and positions of the rectangular area are fixed throughout the period corresponding to Epoch.
  • Epoch can be said to be a unit on the playback time axis that can ensure synchronization of video-graphics.
  • the change time point must be defined on the playback time axis, and after that change point, a new Epoch must be set. In this case, video-graphics synchronization is not guaranteed at the boundary between two Epochs.
  • FIG. 13 is a diagram illustrating a relationship between a subtitle display position and Epoch.
  • consideration is given to changing the position of the subtitle according to the pattern of each picture of the moving image.
  • the two subtitles “Really”, “Sorry” are at the bottom of the screen, “From that”, “Three years have passed” Located on the upper side of the screen.
  • Epoch1 the period in which subtitles appear in the lower margin
  • the period in which subtitles appear in the upper margin is another Epoch2.
  • Each of these two Epochs has its own subtitle drawing area.
  • the lower margin of the screen is the subtitle drawing area (window 1).
  • the upper margin of the screen becomes the subtitle drawing area (window 2).
  • Epoch Start a series of Epoch Start, Acquisition Point, Normal Case constitutes the first stage Epoch.
  • Epoch Start “Acquisition Point”, and “NormalDSCase” are types of DS.
  • the order of Acquisition Point and Normal Case in this figure is only an example, and either may be the first.
  • Epoch Start indicates the start of a new Epoch. Therefore, EpochpoStart includes all the functional segments necessary for the next screen composition. Epoch Start is placed at a position where it has been found to be cued, such as a chapter in a movie work.
  • Acquisition Point is a Display Set that includes all functional segments necessary for the next screen composition, but not at the start of Epoch. If you cue from the Acquisition Point DS, you can reliably display graphics. In other words, Acquisition Point DS has the role of enabling screen composition from the middle of Epoch.
  • the Acquisition Point Display Set is embedded at a position where it can be the cue point. Such positions include positions that can be specified by time search.
  • the time search is an operation of accepting a time input of minutes and seconds from the user and cuing from the playback point corresponding to the time input. Since such time input is performed in rough units such as 10 minutes and 10 seconds, the reproduction position at intervals of 10 minutes and the reproduction position at intervals of 10 seconds are positions that can be designated by time search.
  • the Acquisition Point at a position that can be designated by time search, it is possible to suitably perform graphics subtitle stream reproduction at time search.
  • Normal ⁇ Case includes only the difference from the previous Display Set. For example, a subtitle of a certain DSv has the same content as the preceding DSu, but if the screen configuration is different from this preceding DSu, a DSS with only PCS and END is provided and this DSv is set as a DS of Normal Case . In this way, there is no need to provide overlapping ODS, which can contribute to capacity reduction in the BD-ROM. On the other hand, since the DS of Normal Case is only a difference, normal Case alone cannot be used for screen composition.
  • Definition Segment is a functional segment that defines graphics subtitles. This graphics subtitle will be described below. Since the AVClip recorded on the BD-ROM has a high picture quality equivalent to that of a high-definition video, the resolution of graphics subtitles is also set to a high-definition size of 1920 x 1080 pixels. Since it has a resolution of 1920x1080, the BD-ROM can vividly reproduce the subtitle display for theater screenings, that is, the handwritten subtitle display. Graphics subtitles consist of a plurality of run-length data.
  • the run-length data is data that represents a pixel string by a pixel code indicating a pixel value and a continuous length of the pixel value.
  • the pixel code is an 8-bit value and takes a value of 1 to 255.
  • any 256 colors can be selected from 16,777,216 full-color colors and set as the pixel color using this pixel code.
  • graphics subtitles When displayed as subtitles, graphics subtitles must be drawn by arranging character strings on a transparent background.
  • the definition of graphics subtitles by ODS has a data structure as shown in FIG. As shown in FIG.
  • the ODS uniquely identifies “segment_type” indicating that it is an ODS, “segment_length” indicating the data length of the ODS, and a graphics subtitle corresponding to this ODS in the Epoch. It consists of “object_id”, “object_version_number” indicating the version of ODS in Epoch, “last_in_sequence_flag”, and continuous byte length data “object_data_fragment” which is a part or all of the graphics subtitles.
  • PDS Picture Difinition Segment
  • the palette data is data indicating a combination of a pixel code of 1 to 255 and a pixel value.
  • the pixel value is composed of a red color difference component (Cr value), a blue color difference component (Cb value), a luminance component (Y value), and transparency (T value).
  • Cr value red color difference component
  • Cb value blue color difference component
  • Y value luminance component
  • T value transparency
  • the PDS has “segment_type” indicating that it is a PDS, “segment_length” indicating the data length of the PDS, “pallet_id” uniquely identifying the palette included in this PDS, Epoch “Pallet_version_number” indicating the version of Epoch's PDS and information "pallet_entry” for each entry.
  • “Pallet_entry” indicates a red color difference component (Cr value), a blue color difference component (Cb value), a luminance component Y value, and transparency (T value) in each entry.
  • Window_definition_segment is a functional segment for defining a rectangular area of the graphics plane. It has already been described in Epoch that continuity occurs in memory management only when clearing and redrawing are performed within a rectangular area in the graphics plane. The rectangular area in this graphics plane is called “window” and is defined by this WDS.
  • FIG. 15A shows the data structure of WDS. As shown in this figure, the WDS displays “window_id” that uniquely identifies a window in the graphics plane, “window_horizontal_position” that indicates the horizontal position of the upper left pixel in the graphics plane, and the vertical position of the upper left pixel in the graphics plane. “Window_vertical_position”, “window_width” indicating the horizontal width of the window in the graphics plane, and “window_height” indicating the vertical width in the graphics plane.
  • window_horizontal_position The values that can be taken by window_horizontal_position, window_vertical_position, window_width, and window_height will be described.
  • the coordinate system assumed by these is an internal area of the graphics plane, and the graphics plane has a two-dimensional size of vertical: video_height and horizontal: video_width.
  • window_horizontal_position is the horizontal address of the upper left pixel in the graphics plane, it takes a value of 1 to video_width, and window_vertical_position takes the value of 1 to video_height because it is the vertical address of the upper left pixel in the graphics plane.
  • window_width is the horizontal width of the window in the graphics plane, it takes a value of 1 to video_width-window_horizontal_position, and window_height has a value of 1 to video_height-window_vertical_position because it is the vertical width in the graphics plane.
  • WDS window_horizontal_position, window_vertical_position, window_width, and window_height can specify for each Epoch where the window is to be placed and how large the window should be. Therefore, during a period when a picture belonging to a certain Epoch is displayed, it is possible to make an adjustment during authoring so that a window appears at a position corresponding to a margin on the picture so as not to obstruct the pattern in the picture. Thereby, it is possible to make the subtitle display by graphics easy to see. Since WDS can be defined for each Epoch, even if there is a temporal variation in the picture pattern, graphics can be displayed in an easy-to-read manner according to the variation. As a result, the quality of the movie work can be improved to the same level as subtitles are incorporated into the video body.
  • END of Display Set Segment is an index indicating the end of transmission of Display Set, and is placed immediately after the last ODS in the functional segment in Display Set.
  • the internal structure of this END of Display SetSegment consists of “segment_type” indicating that it is END of Display SetSegment and “segment_length” indicating the data length of the relevant functional segment. There are no elements. Therefore, illustration is abbreviate
  • PCS is a functional segment that constitutes an interactive screen.
  • the PCS has a data structure shown in FIG. As shown in this figure, the PCS has “segment_type”, “segment_length”, “composition_number”, “composition_state”, “pallet_update_flag”, “pallet_id”, “composition_object (1) to (m)” Consists of
  • composition_number identifies the graphics update in Display Set using a number between 0 and 15. As for how to identify, if there is a graphics update from the beginning of the Epoch to this PCS, composition_number is set by a rule that it is incremented every time it passes through these graphics updates.
  • Composition_state indicates whether the Display Set starting from this PCS is Normal Case, ACquisition Point, or Epoch Start.
  • PalletOnly Displey Update is an update made by switching only the previous palette to a new one. If such an update is made in this PCS, this field is set to "1".
  • PalletOnly Displey Update is an update made by switching only the palette from the previous Display Set to a new one. This field is set to "1" when such an update is made in this PCS.
  • composition_object (1)... (N) is control information for realizing the screen configuration in the Display Set to which this PCS belongs.
  • a broken line wd1 in FIG. 15B closes up the internal configuration of an arbitrary composition_object (i).
  • composition_object (i) is composed of “object_id_ref”, “window_id_ref”, “object_cropped_flag”, “object_horizontal_position”, “object_vertical_position”, “cropping_rectangle information (1) (2) (n) ) ”.
  • Object_id_ref is a reference value of the graphics subtitle identifier (object_id). This reference value means an identifier of a graphics subtitle to be used in realizing the screen configuration corresponding to composition_object (i).
  • Window_id_ref is a reference value of the window identifier (window_id). This reference value indicates to which window a graphics subtitle should be displayed in realizing the screen configuration corresponding to composition_object (i).
  • “Object_cropped_flag” is a flag for switching between displaying the graphics subtitles cropped in the object buffer or not displaying the graphics subtitles. When “1” is set, the graphics subtitles cropped in the object buffer are displayed. When “0” is set, the graphics subtitles are not displayed.
  • Object_horizontal_position indicates the horizontal position of the upper left pixel of the graphics subtitle in the graphics plane.
  • Object_vertical_position indicates the vertical position of the upper left pixel in the graphics plane.
  • Croping_rectangle information (1) (2)... (N) is an information element that is valid when “object_cropped_flag” is set to 1.
  • a broken line wd2 closes up the internal configuration of arbitrary cropping_rectangle information (i). As shown by the broken line, cropping_rectangle information (i) includes “object_cropping_horizontal_position”, “object_cropping_vertical_position”, “object_cropping_width”, and “object_cropping_height”.
  • “Object_cropping_horizontal_position” indicates the horizontal position of the upper left pixel of the crop rectangle in the graphics plane.
  • the crop rectangle is a frame for cutting out a part of the graphics subtitle, and corresponds to “Region” in the ETSI EN 300 300 743 standard.
  • “Object_cropping_vertical_position” indicates the vertical position of the upper left pixel of the crop rectangle in the graphics plane.
  • “Object_cropping_width” indicates the horizontal width of the crop rectangle in the graphics plane.
  • “Object_cropping_height” indicates the vertical width of the crop rectangle in the graphics plane.
  • FIG. 16 shows a description example of WDS and PCS belonging to Display ⁇ Set.
  • FIG. 16 is a diagram illustrating a description example of the PCS in the display set.
  • window_horizontal_position and window_vertical_position of the WDS indicate the window upper left coordinates LP1 in the graphics plane
  • window_width and window_height indicate the horizontal and vertical widths of the window display frame.
  • the object_cropping_horizontal_position and object_cropping_vertical_position of the crop information in FIG. 16A indicate the reference SDT of the crop range in the coordinate system with the upper left coordinate of the graphics subtitle in the object buffer as the origin. Then, the range indicated by object_cropping_width and object_cropping_height from the reference point (thick frame portion in the figure) becomes the cropping range.
  • the cropped graphics subtitle is arranged in a broken line range cp1 with object_horizontal_position and object_vertical_position as reference points (upper left) in the coordinate system of the graphics plane. By doing so, “really” is written in the window in the graphics plane. As a result, the caption “Really” is combined with the moving image and displayed.
  • FIG. 16B is a diagram showing a description example of the PCS in DS2.
  • the description of WDS in this figure is the same as in FIG.
  • the description of the crop information is different from that in FIG.
  • the crop information object_cropping_horizontal_position and object_cropping_vertical_position in FIG. 16B indicate the upper left coordinates of “Komen” in the caption “Really sorry” on the object buffer. Show. By doing so, “I'm sorry” is written in the window in the graphics plane. As a result, the subtitle “I'm sorry” is combined with the moving image and displayed.
  • Epoch is a period in which memory management continues on the playback time axis, and since Epoch is composed of one or more Display Sets, it becomes a problem how to assign Display Set to the playback time axis of AVClip.
  • the playback time axis of AVClip refers to an assumed time axis for defining the decoding timing and playback timing of individual picture data constituting a video stream multiplexed on AVClip. On this playback time axis, the decode timing and playback timing are expressed with a time accuracy of 90 KHz.
  • DTS and PTS added to PCS and ODS in Display ⁇ Set indicate the timing at which synchronous control should be realized on this playback time axis.
  • Performing synchronous control using the DTS and PTS added to the PCS and ODS is the assignment of Display Set to the playback time axis.
  • FIG. 17 is a diagram showing an AVClip playback time axis to which DSn is assigned.
  • DTS DTS (DSn [PCS])
  • PTS PTS (DSn [PCS])
  • PTS PTS (DSn [PCS])
  • the timing at which the first display is performed in DSn is also indicated in the PCS PTS value (PTS (DSn [PCS])). If the timing at which a desired picture of a video stream appears on the AVClip playback time axis matches PTS (DSn [PCS]), the initial display of DSn is synchronized with that video stream.
  • PTS (DSn [PCS]) is a value obtained by adding the period required for ODS decoding (DECODEDURATION) to DTS (DSn [PCS]).
  • a period mc1 in FIG. 17 indicates a period during which an arbitrary ODS (ODSm) belonging to DSn is decoded.
  • the starting point of this decoding period is indicated by DTS (ODSn [ODSm]), and the end point of this decoding is indicated by PTS (ODSn [ODSm]).
  • Epoch is defined by assigning the playback time axis as described above to all ODSs belonging to Epoch. This completes the description of the allocation to the playback time axis.
  • FIG. 18 is a diagram showing the types of graphics subtitles defined by ODS.
  • A is a graphics subtitle that is a subtitle of hiragana characters
  • (b) is a graphics subtitle that is a subtitle of characters with a hiragana character.
  • C is a graphics subtitle that forms an expanded character subtitle
  • (d) and (e) are graphics subtitles that form a thick character subtitle.
  • the visible angles are slightly different between those of (d) and (e).
  • FIG. 19 shows how the subtitle stream constituting the base view and the subtitle stream constituting the enhanced view are decoded.
  • the graphics decoder, graphics plane, and video plane for the base view are referred to as a basic graphics decoder, a basic graphics plane, and a basic video plane.
  • the graphics decoder, graphics plane, and video plane for enhanced view are referred to as an extended graphics decoder, an extended graphics plane, and an extended video plane.
  • the graphics subtitles obtained by decoding these source packets are stored in the object buffer in the basic graphics decoder. The Then, the graphics subtitles obtained by decoding these source packets are written in the basic graphics plane, and are used for synthesis with the pictures stored in the basic video plane.
  • graphics subtitles obtained by decoding these source packets are stored in the object buffer in the extended graphics decoder. Then, graphics subtitles obtained by decoding these source packets are written in the extended graphics plane, and are used for synthesis with pictures stored in the extended video plane.
  • the graphics subtitles representing the thick characters shown in FIG. 18 are written to the basic graphics plane and the extended graphics plane in a state shifted to the left and right, so that the graphics appear to appear before the video.
  • FIG. 20 illustrates an example of a stereoscopic video that is played back when the playback of the base-view video stream and the enhanced-view video stream is synchronized with the playback of the base-view caption stream and the enhanced-view caption stream. Since the graphics are written in each of the basic graphics plane and the extended graphics plane, the subtitles appear stereoscopically in the stereoscopic video.
  • FIG. 21 shows how the coordinates of the window in the graphics plane defined by window_horizontal_position and window_vertical_position and the coordinates of the graphics subtitle in the graphics plane defined by object_horizontal_position and object_vertical_position affect the stereoscopic caption.
  • the interval between the position of the window and graphics subtitle in the left-view graphics plane and the position of the window and graphics subtitle in the right-view graphics plane is called “offset” in FIG. (A) shows a case where the offset is large and the interval between the left-view subtitle and the right-view subtitle is wide, and (b) shows that the offset is narrow, the left-view subtitle, the right-view subtitle, The case where the interval of is narrow is shown.
  • the stereoscopic subtitle is closer to the foreground.
  • the smaller the distance between the position of the window and graphics subtitle in the left-view graphics plane and the position of the window and graphics subtitle in the right-view graphics plane the smaller the stereoscopic subtitle is. Go far away.
  • Subtitles include a text subtitle stream defined by a text subtitle stream defined by a text code and font, in addition to the graphics subtitle stream defined by the run-length graphics data described above. Although these have different data structures, they have the same usage as subtitles and are treated uniformly. Compared with the text subtitle stream, the graphics stream subtitle stream has the advantage of being able to appropriately express the thickness for stereoscopic viewing and the like, although the time required for authoring is large, and to improve the reproduction quality.
  • FIG. 22 is a diagram illustrating an example of a clip information file.
  • the clip information file is management information of the AV clip as shown in the figure, has a one-to-one correspondence with the AV clip, and includes a stream attribute table and an entry map table.
  • the lead line zh1 shows a close-up of the internal structure of the stream attribute table.
  • attribute information about each stream included in the AV clip is registered for each PID.
  • the attribute information has different information for each base view stream and enhanced view stream.
  • the entry map is a table showing the correspondence between the source packet number of an arbitrary source packet and the PTS on the STC time axis among the STC time axes specified by using a certain packet ID.
  • the STC time axis is an MPEG2-TS time axis representing decoding time and display time.
  • a group of one source packet in which there is no system time-base discontinuity of STC (System Time Clock) that is the system reference time of the AV stream is called an “STC sequence”.
  • FIG. 23A shows the internal structure of the entry map table.
  • a lead line eh1 shows a close-up of the internal structure of the entry map table.
  • information including a pair of PTS and SPN is called an “entry point”.
  • the entry point is information in which a combination of PTS and SPN is associated with a display method flag (is_angle_change flag) indicating whether or not decoding from the SPN is possible.
  • a value incremented for each entry point with the head set to 0 is referred to as “entry point ID (hereinafter referred to as EP_ID)”.
  • the playback device can specify the source packet position corresponding to an arbitrary point on the time axis of the video stream. For example, at the time of special playback such as fast forward / rewind, it is possible to efficiently perform processing without analyzing an AV clip by specifying, selecting and playing back an I picture registered in the entry map.
  • An entry map is created for each video stream multiplexed in an AV clip and managed by PID.
  • FIG. 24 shows entry point registration using an entry map.
  • the first level shows a time axis defined by the STC sequence.
  • the second level shows an entry map in clip information.
  • the third level shows a source packet sequence constituting the STC sequence.
  • the arrows te1, te2, te3, and te4 schematically show the correspondence between the playback points t1, t11, t21, and t31 on the STC time axis and the entry points
  • the arrows sh1, sh2, sh3, and sh4 show the ATCsequece
  • SPN n1, n11, n21, and n31 and entry points
  • FIG. 25 is a diagram showing how entry maps corresponding to the left view and the right view are set.
  • the source packet number in the STC sequence is described in the source packet number of each entry map in the entry map
  • the PTS in the STC sequence is described in the PTS of each entry map in the entry map. That is done. It shows how the correspondence between the time axis source packet and the time axis is taken by the entry map.
  • the fifth row is the left-view and right-view extents recorded in an interleaved manner, and is the same as shown in the previous figures.
  • the extents of the left view and the right view that should be played back at the same playback time point on the time axis are recorded at different positions in the AV data recording area, but the entry maps associated with each are used.
  • the source packet at the head of the left view extent and the right view extent is uniquely accessed using the PTS.
  • FIG. 26 is a diagram showing the data structure of the playlist information.
  • the playlist information includes reproduction attribute information, main path information, sub path information table, and extension data as indicated by the lead line mp1.
  • a leader line mp3 shows a close-up of the internal structure of the reproduction attribute information.
  • the reproduction attribute information includes “version number”, “reproduction type”, and “stereoscopic reproduction flag” of the standard on which the corresponding content is based.
  • version number a version number such as BD-ROM application format version 2.00 can be stored.
  • playback type it is possible to instruct the playback apparatus to play back “sequential” or “random / shuffle” which means that the play items included in the playlist are played back in order from the top.
  • a lead line mp1 shows a close-up of the internal configuration of the main path information.
  • MainPath is defined from a plurality of PlayItem information # 1,..., #N as indicated by an arrow mp1.
  • PlayItem information defines one logical playback section that constitutes the MainPath.
  • the structure of the PlayItem information is closed up by a lead line mp2.
  • the PlayItem information includes “Clip_Information_file_name” indicating the file name of the playback section information of the AV clip to which the IN point and Out point of the playback section belong, “Clip_codec_identifier” indicating the encoding method of the AV clip, “Is_multi_angle” indicating whether or not the PlayItem constitutes a multi-angle, “connection_condition” indicating the connection state between this PlayItem (current PlayItem) and the previous PlayItem (previousPlayItem), and this PlayItem “Ref_to_STC_id [0]” uniquely indicating the STC_Sequence that is present, time information “In_time” indicating the start point of the playback section, time information “Out_time” indicating the end point of the playback section, and the user operation to be masked in this PlayItem “UO_mask_table” indicating whether or not “PlayItem_random_” indicating whether or not random access to the middle
  • the playback path is composed of a set of time information “In_time” indicating the start point of the playback section and time information “Out_time” indicating the end point of the playback section. It consists of a set of “Out_time”.
  • STN_table (STream Number_table) is a table that assigns a logical stream number to a combination of a stream entry including a packet ID and a stream attribute.
  • the order of combinations of stream entries and stream attributes in the STN_table indicates the priority order of the corresponding streams.
  • BaseView_indicator If BaseView_indicator is 0, BaseView is Left, and if it is 1, BaseView is Right.
  • FIG. 27 shows the internal structure of the subpath information table.
  • a lead line su1 shows a close-up of the internal configuration of the subpath information.
  • the subpath information table includes a plurality of subpath information 1, 2, 3,. These subpath information is a plurality of instances derived from one class structure, and the internal configuration is common.
  • a lead line su2 shows a close-up of a common internal configuration of Subpath information.
  • each Subpath information includes SubPath_type indicating the type of the subpath and one or more sub play item information (... sub play item information # 1 to VOB # m ).
  • a lead line su3 shows a close-up of the internal structure of SubPlayItem.
  • the sub play item information includes “Clip_information_file_name”, “Clip_codec_identifier”, “ref_to_STC_id [0]”, “SubPlayItem_In_time”, “SubPlayItem_Out_time”, “sync_PlayItem_id”, and “sync_start_PTS_of_PlayItem”.
  • the internal configuration of SubPlayItem will be described.
  • “Clip_information_file_name” is information for uniquely specifying a SubClip corresponding to a SubPlayItem by describing the file name of the clip information.
  • “Clip_codec_identifier” indicates the encoding method of the AV clip.
  • SubPlayItem_In_time is information indicating the start point of SubPlayItem on the playback time axis of SubClip.
  • SubPlayItem_Out_time is information indicating the end point of SubPlayItem on the playback time axis of SubClip.
  • Sync_PlayItem_id is information that uniquely designates the PlayItems constituting the MainPath that should be synchronized with the SubPlayItem.
  • SubPlayItem_In_time exists on the playback time axis of Play Item specified by this sync_PlayItem_id.
  • Sync_start_PTS_of_PlayItem indicates where the start point of the SubPlayItem specified by SubPlayItem_In_time exists on the playback time axis of the Play Item specified by sync_PlayItem_id with a time accuracy of 45 KHz.
  • FIG. 28 shows what playback sections are defined for the left view and the right view. This figure is drawn based on FIG. 14, and In_Time and Out_Time of PlayItem are drawn on the time axis of the second stage of this figure. In_Time and Out_Time of SubPlayItem are drawn on the time axis of the first row.
  • the third to fifth stages are the same as the third to fifth stages in FIG.
  • the left view and right view I pictures are at the same point in time.
  • Left view and right view are associated with each other by play item information and sub play item information.
  • FIG. 18 is a diagram showing an internal configuration of extension data in playlist information.
  • a lead line et1 shows a close-up of the internal structure of the extension data.
  • the extension data is composed of STN_table_extention corresponding to each of the play item information # 1 to #N.
  • a lead line et2 shows a close-up of the internal configuration of STN_table_extention corresponding to PlayItem information # 1.
  • STN_table_extention corresponding to PlayItem information # 1 includes a “video stream number table”.
  • FIG. 29 shows the internal structure of the video stream number table. As indicated by the lead line mh1, the video stream number table is composed of a set of stream_entry and stream_attribute.
  • Stream_entry is “ref_to_stream_PID_of_main_Clip” indicating a reference value for the PID of the PES packet constituting the primary video stream, “video_format” indicating a video display format such as NTSC, PAL, 1/24 seconds, 1 / 29.94 seconds, etc. Includes “frame_rate”.
  • FIG. 30 shows the internal structure of the subtitle stream information table in STN_table.
  • the subtitle stream information table in STN_table includes “display method information” and “N stream information”. Each of the n pieces of stream information is associated with each stream number, and includes stream_entry and stream_attribute.
  • a lead line gh1 shows a close-up of the internal structure of the stream_entry.
  • Stream_entry is set to either “ref_to_stream_PID_of_mainClip” or “ref_to_Sub_Path_id”, “ref_to_SubClip__entry_id”, or “ref_to_stream_PID_of_subClip”. “Ref_to_stream_PID_of_SubClip” indicates the PID for the subtitle stream when the subtitle stream corresponding to the stream number exists in the same AVClip as the video stream.
  • Stream_attribute is composed of a “language attribute” and a “character attribute” as indicated by the lead line gh2.
  • a lead line gh3 shows a close-up of the internal structure of the character attribute.
  • the character attribute is composed of “character type” and “character size”.
  • the lead line gh4 closes up the character type configuration.
  • the character type can indicate whether the subtitle stream corresponding to this stream_attribute is a hiragana character or a character with a kana character.
  • the character with a kana here means "shake a kana for normal display".
  • “Katakana” may be set.
  • the leader line gh5 is a close-up of the internal structure of the character size. As shown in the leader line gh5, the character size can indicate whether the subtitle character of the subtitle stream corresponding to stream_attribute is an enlarged character, a normal character, or a reduced character.
  • FIG. 30B shows the internal structure of the display method information in the caption stream information table. As shown in the figure, when the display method information is set to “1”, it indicates that the display method control according to the user age setting in the playback apparatus is effective, and is set to “0”. This indicates that the display method control according to the user age setting in the playback device is invalid.
  • FIG. 31 is a diagram showing an internal configuration of extension data in playlist information.
  • a lead line et1 shows a close-up of the internal structure of the extension data.
  • the extension data is composed of STN_table_extention corresponding to each of the play item information # 1 to #N.
  • a lead line et2 shows a close-up of the internal configuration of STN_table_extention corresponding to PlayItem information # 1.
  • STN_table_extention corresponding to PlayItem information # 1 includes a “video stream number table”.
  • FIG. 32 shows the internal structure of the video stream number table.
  • Stream_entry includes “ref_to_stream_PID_of_main_Clip” indicating a reference value for the PID of the PES packet constituting the primary video stream as indicated by the lead line vh1, and stream_attribute is “video_format” “frame_rate” as indicated by the lead line vh2. "including.
  • the order of stream_entry in these tables means the priority of stream selection when the playback apparatus selects a stream. That is, the playback apparatus preferentially selects the entry having the highest order in the table.
  • the packet ID of 0x1011 and the packet ID of 0x1012 are described in ref_to_stream_of_MainCLip.
  • FIG. 33 is a diagram illustrating an internal configuration of a caption stream information table in STN_table_extension.
  • FIG. 33A shows the overall structure of the caption stream information table.
  • the subtitle stream information table is composed of display method information indicated by f3 and N pieces of stream information indicated by f4. Each of the n pieces of stream information is associated with each stream number, and includes “stream_entry”, “stream_attribute”, and “stereoscopic display information”.
  • a lead line gh3 shows a close-up of the internal structure of the stream_entry.
  • any one of “ref_to_stream_PID_of_mainClip”, “ref_to_Sub_Path_id”, “ref_to_SubClip__entry_id”, and “ref_to_stream_PID_of_subClip” is set.
  • “Ref_to_stream_PID_of_mainClip” indicates the PID for the subtitle stream when the subtitle stream corresponding to the stream number exists in the same AVClip as the video stream.
  • “Ref_to_Sub_Path_id” indicates the ID of the sub path referring to the subtitle stream when the subtitle stream corresponding to the stream number exists in an AVClip different from the video stream.
  • Ref_to_SubClip__entry_id indicates the ID of the AVClip when the subtitle stream corresponding to the stream number exists in an AVClip different from the video stream.
  • “Ref_to_stream_PID_of_SubClip” indicates the PID for the subtitle stream when the subtitle stream corresponding to the stream number exists in an AVClip different from the video stream.
  • the lead line gh4 shows a close-up of the internal structure of the stereoscopic display information.
  • the stereoscopic display information indicates whether the corresponding subtitle stream is for left view or right view, and other subtitle streams to be selected simultaneously with the subtitle stream corresponding to the stream number. Indicates the stream number of the subtitle stream.
  • FIG. 33B shows the internal structure of the display method information in the caption stream information table.
  • the display method information is set to “1” to indicate that the display method control according to the stereoscopic playback setting in the playback device is effective, and is set to “0”. This indicates that the display method control according to the stereoscopic playback setting in the playback device is invalid.
  • the content in the present specification is a unit including playlist information managed by a certain title number and a video stream multiplexed on an AV clip referenced from the playlist information. Called. *
  • the data structure of the subtitle stream information table in the present application is essential in that it indicates which one of a plurality of subtitle streams should be selected when the playback method of stereoscopic playback is enabled in the playback section.
  • the stream information table only needs to be able to instruct a combination of two subtitle streams to be selected at the same time when the stereoscopic display method is enabled in the playback section, so that the stream number is associated with the packet ID of the TS packet corresponding thereto. Any data structure can be adopted as long as it is possible.
  • a format may be used in which a packet identifier of a TS packet constituting a left-view caption stream and a packet identifier of a TS packet constituting a right-view caption stream are associated with a stream number. That is, the format may be such that the packet identifier 0x1220 of the left-view subtitle stream and the packet identifier 0x1240 of the right-view subtitle stream are associated with the stream number.
  • FIG. 34 shows the internal structure of the playback device.
  • the main components constituting the playback apparatus in this figure are a front end unit 105, a system LSI 106, a memory device 107, a back end unit 108, a nonvolatile memory 109, a host microcomputer 110, and a network I / F 111.
  • the front end unit 105 is a data input source.
  • the front end unit 105 includes, for example, a BD-ROM drive 112 and a local storage 113.
  • the system LSI 106 is composed of logic elements and forms the core of the playback device.
  • the device 17a and the combiner 17b are included in the system LSI 106.
  • the system LSI may be composed of one chip or a plurality of chips.
  • the memory device 107 is composed of an array of memory elements such as SDRAM.
  • read buffer 1 read buffer 2
  • basic video plane 6a extended video plane 6b
  • basic graphics plane 8a extended graphics plane 8b
  • static scenario memory 13 heap memory 21
  • the dynamic scenario memory 23 will be included in the memory device 107.
  • the back end unit 108 is a connection interface between the playback device and other devices.
  • the back-end unit 108 includes, for example, the HDMI transmission / reception unit 10.
  • the non-volatile memory 109 is a readable / writable recording medium, and is a medium that can retain the recorded contents even when power is not supplied, and is used for configuration information backup for displaying subtitles.
  • the nonvolatile memory 109 for example, flash memory, FeRAM, or the like can be used.
  • the host microcomputer 110 is the core of a playback device composed of an MPU, ROM, and RAM. Among the specific components shown in FIG. 35 described later, the BD-J platform 22 and the command interpreter 25 are included in the host microcomputer 110.
  • the network interface 111 is for communicating with the outside of the playback device, and can access a server accessible via the Internet or a server connected via a local network. For example, it can be used to download additional BD-ROM content published on the Internet, or data communication can be performed with a server on the Internet specified by the content, enabling content playback using the network function.
  • the BD-ROM additional content is content that does not exist in the original BD-ROM, and includes, for example, additional sub audio, subtitles, privilege video, and applications.
  • the network interface 111 can be controlled from the BD-J platform, and additional content published on the Internet can be downloaded to the local storage 113.
  • the front end unit 105 includes the BD-ROM drive 112 and the local storage 113, for example.
  • the BD-ROM drive 112 includes, for example, a semiconductor laser (not shown), a collimator lens (not shown), a beam splitter (not shown), an objective lens (not shown), a condensing lens (not shown), light
  • An optical head (not shown) having a detector (not shown) is provided.
  • the light beam emitted from the semiconductor laser passes through the collimator lens, the beam splitter, and the objective lens, and is condensed on the information surface of the optical disk.
  • the condensed light beam is reflected / diffracted on the optical disk, and is collected on the photodetector through the objective lens, the beam splitter, and the condenser lens.
  • the generated signal corresponds to the data read from the BD-ROM according to the amount of light collected by the photodetector.
  • the local storage 113 includes built-in media and removable media, and is used for storing downloaded additional content and data used by applications.
  • the storage area for additional content is divided for each BD-ROM, and the area that an application can use to hold data is divided for each application.
  • merge management information that describes how merged downloaded content and data on the BD-ROM are merged is also stored in the built-in and removable media.
  • Build-in media is a writable recording medium such as a hard disk drive or memory built in the playback device.
  • the removable media is, for example, a portable recording medium, and preferably a portable semiconductor memory card such as an SD card.
  • a playback device has a slot (not shown) for mounting a removable medium and an interface (for example, a memory card) for reading the removable medium mounted in the slot.
  • an interface for example, a memory card
  • the removable media and the playback device are electrically connected and recorded in the semiconductor memory using an interface (for example, a memory card I / F). It is possible to read out the converted data into an electrical signal.
  • FIG. 35 is a diagram showing a detailed configuration within the front end unit 105 to the host microcomputer 110. As shown in FIG.
  • the read buffer 1 temporarily stores source packets that constitute extents that constitute the base view stream read from the BD-ROM drive 112, adjusts the transfer speed, and transfers the packets to the demultiplexer 4. And has the scale of “RB1” as described above.
  • the read buffer 2 is a buffer for temporarily storing source packets constituting extents constituting the enhanced view stream read from the BD-ROM drive 112, adjusting the transfer speed, and transferring the packets to the demultiplexer 4. And has the scale of “RB2” as described above.
  • the virtual file system 3 merges the additional content stored in the local storage with the content on the BD-ROM based on the merge management information downloaded to the local storage 113 together with the additional content.
  • Virtual package The virtual package and the original BD-ROM can be referenced without distinction from the command interpreter, which is the HDMV mode operator, and the BD-J platform, which is the BD-J mode operator.
  • the playback device performs playback control using both data on the BD-ROM and data on the local storage.
  • the demultiplexer 4 includes a source packet depacketizer and a PID filter, receives a packet identifier instruction corresponding to a stream to be reproduced, and executes packet filtering based on the packet identifier. If the source packets that make up the base-view video stream and the source packets that make up the enhanced-view video stream are transferred via the read buffers 1 and 2, the TS packets that make up the base-view video stream and the enhanced-view video stream are made up The TS packet to be processed is separated from the extent and transferred to the video decoder 5a and the video decoder 5b.
  • the basic video decoder 5a decodes the TS packet constituting the output from the demultiplexer 4 and writes a non-compressed picture into the basic video plane 6a.
  • the extended video decoder 5b decodes the enhanced view video stream output from the demultiplexer 4, decodes the TS packet, and writes a non-compressed picture to the extended video plane 6b.
  • the basic video plane 6a is a memory for storing uncompressed pictures that make up the base-view video stream.
  • the extended video plane 6b is a memory for storing uncompressed pictures that make up the enhanced view video stream.
  • the basic graphics decoder 7a decodes TS packets constituting the base-view subtitle stream output from the demultiplexer 4 and writes uncompressed graphics subtitles to the basic graphics plane 8a.
  • the extended graphics decoder 7b decodes TS packets constituting the enhanced view subtitle stream output from the demultiplexer 4 and writes uncompressed graphics subtitles in the extended graphics plane 8b.
  • the basic graphics plane 8a is a memory for storing uncompressed graphics subtitles obtained by decoding the base-view subtitle stream.
  • the extended graphics plane 8b is a memory for storing uncompressed graphics subtitles obtained by decoding the enhanced view subtitle stream.
  • the audio decoder 9 decodes the audio frame output from the demultiplexer 4 and outputs uncompressed audio data.
  • the HDMI transmission / reception unit 10 includes, for example, an interface compliant with the HDMI standard (HDMI: High Definition Multimedia Interface), and performs transmission / reception so as to comply with the HDMI standard with a device (in this example, the television 103) connected to the playback device.
  • the picture data stored in the basic video plane 6 a and the extended video plane 6 b and the uncompressed audio data decoded by the audio decoder 9 are transmitted to the television 103 via the HDMI interface 10.
  • the television 103 holds information regarding whether it is compatible with stereoscopic display, information regarding resolution capable of planar display, information regarding resolution capable of stereoscopic display, and when there is a request from the playback device via the HDMI interface, The television 103 returns the requested required information (for example, information regarding whether or not stereoscopic display is supported, information regarding resolution capable of planar display, and information regarding resolution capable of stereoscopic display) to the playback device.
  • information regarding whether or not the television 103 supports stereoscopic display can be acquired from the television 103 via the HDMI transmission / reception unit 10.
  • a playback status / setting register (Player Status / Setting ⁇ ⁇ ⁇ Register) set 12 is a playback status register for storing the playback status of a playlist, a playback setting register for storing configuration information indicating the configuration of the playback device, and an arbitrary content used by the content. It is a collection of registers including general-purpose registers that can store information.
  • the reproduction state of the playlist indicates a state such as which AV data is used in various AV data information described in the playlist and which position (time) of the playlist is being reproduced.
  • the playback control engine 14 stores the contents in the PSR set 12.
  • the value specified by the application can be stored or the stored value can be stored in the application according to the instruction from the command interpreter that is the HDMV mode operation subject or the Java platform that is the BD-J mode operation subject. It is possible to pass
  • the static scenario memory 13 is a memory for storing current playlist information and current clip information.
  • Current playlist information refers to information that is currently processed among multiple playlist information that can be accessed from a BD-ROM, a built-in media drive, or a removable media drive.
  • Current clip information refers to information that is currently processed among a plurality of clip information that can be accessed from a BD-ROM, a built-in media drive, or a removable media drive.
  • the playback control engine 14 executes an AV playback function and a playlist playback function in response to a function call from a command interpreter that is an HDMV mode operating entity and a Java platform that is an BD-J mode operating entity.
  • the AV playback function is a group of functions followed from DVD players and CD players. Playback start, playback stop, pause, release of pause, release of still image function, fast forward with specified playback speed, playback speed Is a process such as rewind, audio switching, sub-video switching, angle switching, etc., designated as an immediate value.
  • the playlist playback function refers to performing playback start and playback stop in accordance with current playlist information and current clip information constituting the current playlist in the AV playback function.
  • the color conversion unit 15a converts the pixel code stored in the basic graphics plane 8a into pixel values such as Y, Cr, and Cb using a color lookup table.
  • the color conversion unit 15b converts the pixel code stored in the extended graphics plane 8b into pixel values such as Y, Cr, and Cb using the color lookup table.
  • the scaler 16a executes enlargement / reduction of graphics stored in the basic graphics plane 8a.
  • the scaler 16b executes enlargement / reduction of the graphics stored in the extended graphics plane 8b.
  • the synthesizer 17a synthesizes each pixel of uncompressed picture data stored in the basic video plane 6a and each pixel of graphics developed on the basic graphics plane 8a.
  • the synthesizer 17b synthesizes each pixel of uncompressed picture data stored in the basic video plane 6b and each pixel of graphics developed in the extended graphics plane 8b.
  • the text subtitle decoder 18 obtains the text subtitle by developing the text code constituting the text subtitle stream in the font, and the graphics plane. Write to 8a, b.
  • the heap memory 21 is a stack area where system application byte codes, BD-J application byte codes, system parameters used by system applications, and application parameters used by BD-J applications are arranged.
  • the BD-J platform 22 is a Java platform that is the main operation of the BD-J mode, and is fully equipped with Java2Micro_Edition (J2ME) Personal Basis Profile (PBP 1.0) and Globally Executable MHP specification (GEM1.0.2) for package media targets. It is implemented and includes a class loader and a bytecode interpreter.
  • the class loader is one of the system applications, and loads the BD-J application by reading the bytecode from the class file existing in the JAR archive file and storing it in the heap memory.
  • the byte code interpreter converts the byte code constituting the BD-J application stored in the heap memory 21 and the byte code constituting the system application into a native code, and causes the MPU 21 to execute it.
  • the dynamic scenario memory 23 is a memory that stores a current dynamic scenario and is used for processing by a command interpreter that is an HDMV mode operation subject and a Java platform that is an BD-J mode operation subject.
  • the current dynamic scenario refers to an index.bdmv, BD-J object, or movie object that is currently being executed among BD-ROM, built-in media, and removable media.
  • the module manager 24 which is an example of the mode management module, holds Index.bdmv read from the BD-ROM, built-in media drive, and removable media drive, and performs mode management and branch control.
  • the mode management by the module manager 24 is an assignment of modules, which command interpreter 40 and BD-J module execute a dynamic scenario.
  • the command interpreter 25 which is an example of an HDMV module, is a DVD virtual player that is an HDMV mode operation subject, and an HDMV mode execution subject.
  • the command interpreter which is the main operation in the HDMV mode, decodes and executes the navigation commands that make up the scenario program. Since navigation commands are described in a syntax similar to DVD-Video, DVD-Video-like playback control can be realized by executing such navigation commands.
  • the UO detection module 26 detects a user operation performed on the remote control 100 or the front panel of the playback device 102, and outputs information indicating the user operation (hereinafter referred to as UO (User Operation)) to the mode management module 25. From the UO, only the UO appropriate for the mode in the current playback device is selected and transferred to the module that executes the mode. For example, if UOs such as up / down / left / right and activate are accepted during execution of HDMV mode, these UOs are output to the module in HDMV mode.
  • UO User Operation
  • FIG. 36 shows the internal configuration of the playback control engine 14 and the internal configuration of the PSR set 12.
  • PSR2 is set to a value between 1 and 32 to indicate the subtitle current stream number.
  • PSR4 is set to a value between 1 and 100 to indicate the current title number.
  • ⁇ PSR5 indicates the current chapter number when set to a value between 1 and 999, and indicates that the chapter number is invalid in the playback device when set to 0xFFFF.
  • PSR6 is set to a value between 0 and 999 to indicate the current playlist number.
  • ⁇ PSR7 is set to a value between 0 and 255 to indicate the current play item number.
  • ⁇ PSR8 is set to a value between 0 and OxFFFFFF to indicate the current playback point (current PTM) with a time accuracy of 45 KHz.
  • current PTM current playback point
  • PSR15 indicates the caption display capability in the playback device.
  • PSR16 indicates the language setting of the playback device.
  • the PSR set 12 includes a stereoscopic reproduction capability and a stereoscopic reproduction display method flag.
  • the stereoscopic capability indicates whether or not the playback device has the ability to perform stereoscopic playback.
  • the stereoscopic playback flag indicates whether or not the user intends to execute stereoscopic playback.
  • FIG. 36B is a diagram showing an internal configuration of the regeneration control engine 14. As shown in the figure, the playback control engine 14 executes a playlist playback control 41 for performing playlist playback control when executing planar playback, and performs playlist playback control when stereoscopic viewing is set.
  • the stereoscopic control unit 42 is configured.
  • FIG. 37 is a diagram showing an internal configuration of the planar view control unit 41. As shown in the figure, the plan view control unit 41 includes a procedure control unit 43 and a PID setting unit 44.
  • ⁇ Procedure control unit 43> When a change from one PlayItem information to another PlayItem information occurs or when an operation for switching the stream number is performed by the user, the procedure control unit 43 executes a predetermined stream selection procedure and sets the PSR2 Write the stream number of the new secondary video stream. Since the playback device plays back the secondary video stream according to the stream number written in PSR2, the secondary video stream is selected through the setting of PSR2.
  • the stream selection procedure is executed because the STN_Table exists for each PlayItem information, so that a secondary video stream that was playable in one PlayItem information cannot be played in another PlayItem information. This is because it is possible.
  • the procedure control unit 43 extracts the stream number corresponding to the user age in the PSR 13 from the STN_table in the current playitem information, and stores the stream number in the PSR 2 as the current stream number.
  • the procedure control unit 43 determines that the user using the playback device 102 is a child, the procedure control unit 43 sets the packet identifier of the subtitle stream whose language type is “Hiragana” in the demultiplexer, and plays the playback Causes the transport stream referenced by the list to be demultiplexed. In this way, the graphics subtitles whose language type is “Hiragana” are output by the basic graphics decoder 7a.
  • FIG. 38 shows the internal configuration of the stereoscopic control unit 42. As shown in the figure, the stereoscopic control unit 42 includes a procedure control unit 45 and a PID setting unit 46.
  • ⁇ Procedure control unit 45> When the capability 2 and the display method flag indicate that stereoscopic playback is possible, the procedure control unit 45 extracts two stream numbers from STN_table_extension in Extension_Data, and stores the stream numbers as current stream numbers in PSR2. .
  • a general-purpose register may be referred to, or the information that the playback apparatus 102 independently holds other than the PSR set 12 can be used as a determination material.
  • the flat / stereoscopic display setting can be realized by a user operation using the remote controller 100 or an instruction from the BD-J application.
  • the stereoscopic display flag indicates that stereoscopic display is not possible
  • the video for the right view or the video for the left view the subtitle stream is selected. specify. It is not always necessary that the video and subtitles are stereoscopically displayed. Also, when selecting either the right view or the left view, priority is given to the smaller stream number.
  • a part of a video stream for stereoscopic display in this example, a video for a left view or a right view
  • One of the streams and a part of the subtitle stream can be used for flat display.
  • the PID setting unit 46 extracts two PIDs corresponding to the two stream numbers stored in the PSR2 from the stream_entry in the STN_table_extension, sets them in the demultiplexer 4, and performs packet filtering based on this PID for the demultiplexer 4 Let me do it.
  • FIG. 39 is a diagram showing an internal configuration of the graphics decoder.
  • the graphics decoder 12 includes a coded data buffer 31, a peripheral circuit 36, a stream graphics processor 32, an object buffer 33, a composition buffer 34, and a graphics controller 35.
  • the coded data buffer 31 is a buffer in which functional segments are stored together with DTS and PTS. Such a functional segment is obtained by removing the TS packet header and the PES packet header from each TS packet of the transport stream and sequentially arranging the payloads. Of the removed TS packet header and PES packet header, PTS / DTS is stored in association with the PES packet.
  • the stream graphics processor 32 decodes the ODS, and writes the uncompressed graphics composed of the index colors obtained by the decoding into the object buffer 33 as graphics subtitles.
  • Decoding by the stream graphics processor 32 is performed instantaneously, and the stream graphics processor 32 temporarily holds graphics subtitles by decoding.
  • Decoding by the stream graphics processor 32 is performed instantaneously, but writing from the stream graphics processor 32 to the object buffer 33 does not end instantaneously. This is because, in the BD-ROM standard player model, writing to the object buffer 33 is performed at a transfer rate of 128 Mbps. Since the writing completion time to the object buffer 33 is indicated in the PTS of the END segment, processing for the next DS is waited until the time indicated in the PTS of this END segment elapses.
  • Writing of graphics subtitles obtained by decoding each ODS starts at the DTS time associated with the ODS and ends by the decoding end time indicated in the PTS associated with the ODS.
  • the object buffer 33 is a buffer in which graphics subtitles obtained by decoding by the stream graphics processor 32 are arranged.
  • the object buffer 33 must be set to be twice or four times as large as the graphics plane. This is because, considering the case of realizing Scrolling, it is necessary to store graphics subtitles twice and four times as large as the graphics plane 8.
  • the composition buffer 34 is a memory in which PCS and PDS are arranged. If there are two Display sets to be processed and the active periods of these PCS overlap, a plurality of PCSs to be processed are stored in the composition buffer 16.
  • the graphics controller 35 decodes the PCS, and writes the graphics subtitles into the object buffer 33, reads the graphics subtitles from the object buffer 33, and displays the graphics subtitles according to the PCS decoding results.
  • the display by the graphics controller 35 is executed at the time indicated by the PTS of the PES packet storing the PCS.
  • the interval from the display of the graphics subtitles belonging to DSn to the display of the graphics subtitles belonging to DSn + 1 by the graphics controller 35 is as described above.
  • the peripheral circuit 36 is wire logic that realizes transfer between the coded data buffer 31 and the stream graphics processor 32 and transfer between the coded data buffer 31 and the composition buffer 34.
  • the ODS is transferred from the coded data buffer 31 to the stream graphics processor 32.
  • the PCS and PDS are transferred to the composition buffer 34. This completes the description of the graphics decoder. Next, details of the playlist reproduction process will be described.
  • FIG. 40 is a flowchart showing a processing procedure of playlist reproduction processing.
  • step S1 the playlist information file is read, and the process in steps S2 to S5 is started.
  • Step S2 is a determination as to whether or not the playback device has the capability.
  • Step S ⁇ b> 3 is a determination as to whether or not the television to which the playback apparatus is connected has a stereoscopic playback processing capability.
  • Step S4 is a determination of whether or not the display method flag in the reproduction attribute information of the current playlist is valid. If any of Steps S2 to S4 is determined as No, the process proceeds to Step S5, and play item reproduction based on STN_table in each play item information is executed.
  • step S2 to step S4 If all of step S2 to step S4 are Yes, play item reproduction based on STN_table_extension in each play item information is executed in step S5.
  • FIG. 41 is a flowchart showing a playback procedure of playlist information.
  • step S51 the current PlayItem number is initialized to “1”, and the process proceeds to a loop of steps S52 to S62.
  • This loop repeats the process of executing steps S52 to S60 for the current play item number and incrementing the current play item number (step S61) until the current play item number is final. Yes (Yes in step S62).
  • Steps S52 to S60 are as follows.
  • step S52 the current PlayItem.In_Time and the current PlayItem.Out_Time are converted into Start_SPN [i] and End_SPN [i] using the entry map corresponding to the packet ID of the base view stream.
  • the enhanced view stream is selected, the current subtitle stream is selected (step S53), the current stream number of the selected stream is written in the PSR (step S54), and the SubPlayItem corresponding to the current stream number is specified (step S55).
  • SubPlayItemIn_Time and SubPlayItemOut_Time specified using the entry map [j] corresponding to the packet ID [j] of the enhanced view stream are converted to Start_SPN [j] and End_SPN [j] (step S56).
  • step S57 The extent belonging to the read range [i] for reading the TS packet [i] with the packet ID [i] from Start_SPN [i] to End_SPN [i] is specified (step S57), and the TS packet [i] with the packet ID [j]
  • step S58 The extent belonging to the reading range for reading j] from Start_SPN [j] to End_SPN [j] is specified (step S58).
  • step S59 the extents belonging to the reading ranges [i] and [j] are sorted in ascending order of addresses, and the extents belonging to the reading ranges [i] and [j] are continuously used by using the addresses sorted in step S60. Instruct the drive to read automatically.
  • the above is the reproduction procedure based on STN_table and STN_table_extension.
  • FIG. 42 (a) is a flowchart showing the procedure for setting PSR2 when the apparatus state changes.
  • Step S11 is a determination as to whether or not the number of entries in the STN_table is 0. If it is 0, the value of PSR2 is maintained (step S13).
  • Step S12 determines whether the number of entries in STN_table is larger than that in PSR2 and the condition (A) is true when the number of entries in STN_table is not zero.
  • the condition (A) is that the playback apparatus has the ability to play back the audio stream specified by PSR2. If Step S12 is Yes, PSR2 is maintained (Step S14). If the value of PSR2 is larger than the entry number or the condition (A) is not satisfied, PSR2 is reset (step S15).
  • FIG. 42B is a flowchart showing the procedure for setting PSR2 when the stream changes.
  • the difference between this flowchart and FIG. 10A is that the notation of PSR2 in FIG.
  • This X is a value based on User Operation.
  • Step S20 in this flowchart determines whether the number of entries in the STN_table is larger than X and the condition (A) is true.
  • the condition (A) is that the playback apparatus has the capability of playing back the audio stream specified by PSR2, and is determined by comparing PSR15 and Stream_coding_type of the audio stream. If X satisfies this condition, X is set in PSR2 (step S21).
  • step S22 If X is larger than the entry number or the condition (A) is not satisfied, it is determined whether X is 0xFFFF (step S22). If it is not OxFFFF, the audio stream number that the user intends to select is considered invalid, so the value X based on the user operation is ignored and the setting value of PSR2 is maintained (step S24). If the setting value of PSR2 is 0xFFFF, PSR2 is set (step S23).
  • FIG. 43 is a flowchart showing a selection procedure during reproduction by age.
  • Steps S31 and S32 in this flowchart are a loop process that repeats the processes of steps S33 to S35 for each subtitle stream described in the STN_table.
  • a subtitle stream to be processed in this loop processing is a subtitle stream i.
  • step S33 it is determined whether the subtitle stream i is a graphics subtitle stream or a text subtitle stream. If the subtitle stream i is a graphics subtitle stream, the process proceeds to step S34.
  • Step S34 is a determination of whether or not the graphics subtitle stream i satisfies the following (a) and (b).
  • the playback device has the capability to play back the graphics subtitle stream i.
  • the language attribute of the graphics subtitle stream i matches the language setting of the playback device.
  • the condition (b) is made by determining whether or not PG_language_code in the STN_table matches PSR17.
  • step S35 is a determination as to whether or not the text subtitle stream i satisfies (a) and (b).
  • the playback device has the ability to expand and play back the text subtitle stream i in fonts.
  • the language attribute of the text subtitle stream i matches the language setting of the playback device Whether or not the condition (a) is satisfied is determined based on whether or not the PSR 30 of the playback device indicates “with playback capability”. Whether or not the condition (b) is satisfied is determined by whether or not the textST_language_code of the STN_table matches the setting value of the PSR17. If the processes in steps S33 to S35 are repeated for all subtitle streams, the processes in steps S36 to S41 are executed.
  • Step S36 is a determination as to whether or not there is a subtitle stream satisfying (a). If there is no subtitle stream, an invalid value (0xFFFF) is set to PSR2 in step S39 (step S38).
  • Step S37 is a determination as to whether or not there is a subtitle stream that satisfies both (a) and (b). If there is a subtitle stream that satisfies both (a) and (b), the entry rank in the STN_table is the highest. The higher one is set to PSR2 (step S39).
  • Step S41 sets PSR2 to the one with the highest entry ranking in the STN_table among the graphics subtitle stream satisfying only (a) and the text subtitle stream satisfying only (a).
  • Step S40 is a determination of whether the user age in PSR13 means a young person. In the present embodiment, it is assumed that the age of 5 years or younger is set as a young person.
  • the scaler enlarges the subtitle character.
  • Step S44 determines whether the user age is a value indicating an elderly person. In this embodiment, it is assumed that 65 years old or older is determined as an elderly person. If Yes, in step S45, the stream number of the subtitle stream whose character attribute in stream_entry is an expanded character is set to PSR2.
  • FIG. 44 is a flowchart illustrating a processing procedure of a selection procedure at the time of setting a stereoscopic view.
  • step S46 the PID of the stream_entry corresponding to the stream number of PSR2 and the PID of the subtitle designated as “another subtitle” in the stereoscopic display information corresponding to the stream number of PSR2 are set in the demultiplexer. Enable packet filtering.
  • step S47 the basic graphics decoder and the extended graphics decoder are activated to decode two TS packet sequences.
  • FIG. 45 is a diagram showing an AV stream and play list information to be operated.
  • FIG. 6A shows the internal structure of the AV stream, which is the same as that shown in FIG.
  • FIG. 45 (b) shows the internal structure of the playlist information.
  • the play item information 1 in this playlist information includes STN_table for assigning stream numbers to the four subtitle streams.
  • the display method information is set such that display method control according to the user age is effective
  • the stream information in this STN_table is a subtitle stream composed of TS packets to which a PID of 0x1220 is assigned, 0x1221
  • stream numbers 1 to 4 are assigned.
  • the language codes are set to Japanese, Japanese, Japanese, and English, respectively, and the character attributes are set to none, hiragana, expanded characters, and none.
  • the Extension_Data of the playlist information in FIG. 45 (b) includes STN_table_extension that assigns stream numbers to the four subtitle streams.
  • the display method information is set to enable display method control according to the stereoscopic playback setting
  • the stream information in this STN_table_extension is a subtitle stream composed of TS packets to which a PID of 0x1225 is assigned.
  • stream numbers 6 to 9 are assigned.
  • Fig. 46 shows the content of subtitles.
  • the run-length data stored in the 0x1221 TS packet represents the hiragana character “Let's start”.
  • the run-length data stored in the 0x1222 TS packet represents the expanded character “Go Club”.
  • the run-length data stored in the 0x1242 TS packet indicates the English text “This is stereogram”.
  • the run-length data stored in the TS packet of 0x1243 is the English sentence “This is stereogram” and the display position is slightly different.
  • a subtitle stream that is output so as to display subtitles of a normal size is multiplexed with the video stream. Yes.
  • one of the two subtitle streams described above is appropriately specified, and the specified subtitle stream is output by the graphics decoder. In this way, it is not necessary to provide a function for enlarging subtitles in the playback apparatus, and the configuration of the playback apparatus can be simplified and manufactured at low cost.
  • FIG. 47 shows what subtitles are displayed according to the configuration information “User age is 4 years old” in the playback apparatus.
  • (A) is specific contents of the configuration information, and the user age in the PSR 13 is set to “4”, that is, 4 years old.
  • the language setting in PSR16 is Japanese, the stereoscopic capability is set to “none”, and the stereoscopic playback flag is set to “off”.
  • the subtitle “Come on now !” shown in FIG. 46 is combined with the moving image and displayed.
  • FIG. 48 shows what subtitles are displayed according to the configuration information “user age is 70 years old” in the playback apparatus.
  • (A) is specific contents of the configuration information, and the user age in the PSR 13 is set to “70”, that is, 70 years old.
  • the language setting in PSR16 is Japanese, the stereoscopic capability is set to “none”, and the stereoscopic playback flag is set to off.
  • the data is selectively output to the video decoder 5 by the demultiplexer 4.
  • FIG. 49 shows what subtitles are displayed according to the configuration information “stereoscopic capability is on” and “stereoscopic playback flag is on” in the playback apparatus.
  • (A) is specific contents of the configuration information, and is set in the configuration information that “stereoscopic capability is on” and “stereoscopic reproduction flag is on”.
  • the playlist information is written as follows. That is, when a BD-ROM is loaded, additional content corresponding to the BD-ROM is acquired from the WWW server via the network in accordance with a request from the application. The acquired additional content includes the playlist information.
  • a control unit that performs recording control writes the acquired playlist information in the local storage in accordance with a request from the application. By doing so, the virtual package can be constructed by combining the content recorded on the BD-ROM and the additional content recorded on the local storage.
  • the disc root certificate identifier, the identifier of the organization that distributed the BD-ROM content, and the identifier of the BD-ROM are recorded in the BD-ROM, and the area in which the additional content is to be stored is the disc root
  • the file path includes a certificate identifier, an organization identifier, and a BD-ROM identifier.
  • the application performs writing by passing a file path that specifies an area in which additional content is to be stored to the control unit.
  • the file path used for writing to the local storage has a directory name of 8 characters or less, and , Including the designation of the file name and extension in an 8.3 file system having a file name and an extension name of 3 characters or less.
  • the playlist information is written as follows.
  • the playback device 102 when the playback device 102 is supplied with playlist information by the on-demand manufacture service or the electronic sell-through service, the default directory and the MODEST directory are created under the root directory of the removable medium, and the MODEST directory is created. Create a BDMV directory under.
  • the MODEST directory is a first MODEST directory
  • the first MODEST directory is a MODEST directory that is created when the service is received for the first time.
  • the control unit in the playback apparatus 102 creates a MODEST directory corresponding to the second or later service.
  • This startup program is a program that is to be executed first when a recording medium is loaded in the playback device 102.
  • the startup program displays a menu for accepting an operation for selecting a BDMV directory from the user on the playback device 102, and the root program is executed.
  • the playback device 102 is caused to execute the change function.
  • This route change function is a function for recognizing the MODEST directory to which the selected BDMV directory belongs as the root directory when the selection operation on the menu is performed by the user.
  • the BD-J application may be, for example, an electronic commerce (EC) client application or an online online game. Further, various online services may be supplied to the user in cooperation with the search engine.
  • EC electronic commerce
  • various online services may be supplied to the user in cooperation with the search engine.
  • the information indicating whether to specify right view or left view when the 3D display is not possible is configured to be included in the configuration information of the playback device 102, and when the 3D display is not supported, playback is performed.
  • the stream for left view or right view (video stream and subtitle stream) may be designated according to information indicating which one is designated for left view set in the configuration information of the apparatus 102.
  • the nonvolatile memory 109 can also be implemented using a writable recording medium in a local storage or a BD drive. In addition, even if the medium can be accessed via the network I / F, it can be used as the non-volatile memory 109 as long as the recorded contents can be held without depending on the power supply state of the playback device. is there.
  • Pre-registration details User information such as the preferred size of the displayed subtitles may be stored and used as pre-registration information of the playback device 102, or information registered in the playback status register or general-purpose register included in the PSR set 12 May be used as configuration information.
  • the content creator since the content creator does not need to prepare a plurality of subtitle streams of different sizes, it is possible to reduce the usage capacity of the recording medium and to reduce the content creation cost.
  • the expanded character subtitle stream is stored separately from the normal character subtitle stream to execute the character expansion for the elderly.
  • the normal character subtitle stream is By expanding the scaler, the subtitle character may be enlarged.
  • the playback apparatus 102 may have a function for setting whether to enable or disable the automatic subtitle character change function. If the subtitle character automatic change function is valid, as shown in FIG. 10, if the subtitle character automatic change function is invalid, the user who uses the playback device 102 is a child. Even if it is determined that the subtitle stream is “normal”, the subtitle stream is set in the demultiplexer 4 and the transport stream referred to by the play list to be reproduced is demultiplexed.
  • avorite setting For example, user information in which the user of the playback device 102 has registered information on age and preferred subtitles (such as preferring display of hiragana) in advance may be stored and used as configuration information of the playback device 102, or playback. Information registered in the status register or general-purpose register may be used as configuration information.
  • Video stream for stereoscopic viewing Recording a video stream for left view and right view on a BD-ROM is merely an example. For each picture, a video stream representing a depth value for each pixel may be recorded on the BD-ROM as an enhanced view video stream for playback.
  • the BD-J Extension includes various packages specialized to give the Java (TM) platform functionality beyond GEM [1.0.2].
  • the packages supplied with BD-J Extension are as follows.
  • ⁇ Org.bluray.media This package provides special features that should be added to Java (TM) Media FrameWork. Control over angle, audio, and subtitle selection is added to this package.
  • TM Java
  • ⁇ Org.bluray.ti This package includes API for mapping "services" to "titles” in GEM [1.0.2], a mechanism for querying title information from BD-ROM, and a mechanism for selecting new titles.
  • Org.bluray.application This package includes an API for managing the lifetime of an application.
  • Org.bluray.ui This package defines constants for key events specific to BD-ROM, and includes classes that realize synchronization with video playback.
  • Org.bluray.vfs In order to seamlessly play back data regardless of the location of this data, this package can be used for content recorded on BD-ROM (on-disc content) and content on Local Storage that is not recorded on BD-ROM (off Provides a binding scheme for -disc content).
  • the Binding Scheme associates content (AV clip, subtitle, BD-J application) on BD-ROM with related content on Local Storage.
  • This Binding Scheme realizes seamless playback regardless of the location of the content.
  • Java TM
  • Java is used as the programming language of the virtual machine, but other than Java (TM), such as B-Shell used in UNIX (TM) OS, Perl Script, ECMA Script, etc. It may be a programming language.
  • Multi drive In the above-described embodiment, a BD-ROM drive has been described as an example of a BD-ROM as an example of a recording medium and an example of specific means having a function of reading data from a BD-ROM.
  • BD-ROM is merely an example, and even if the recording medium is an optical disk medium such as BD-R, BD-RE, DVD, or CD, data having the above-described data structure is stored in these recording media. In addition, if there is a drive device that reads these recording media, the operation described in the above embodiment is possible.
  • the recording medium in each embodiment includes all package media such as an optical disk and a semiconductor memory card.
  • the recording medium according to the present embodiment has been described by taking an example of an optical disc (for example, an existing readable optical disc such as a BD-ROM or DVD-ROM) on which necessary data is recorded.
  • a terminal device having a function of writing 3D content including data necessary for carrying out the present invention distributed via broadcasting or a network to an optical disc (for example, the function described on the left may be incorporated in a playback device) It may be good or may be a device different from the playback device) and recorded on a writable optical disc (for example, an existing writable optical disc such as BD-RE, DVD-RAM) and the recorded optical disc
  • a writable optical disc for example, an existing writable optical disc such as BD-RE, DVD-RAM
  • the present invention can be implemented even if the recording medium is a removable medium (semiconductor memory card) such as an SD memory card, for example, besides the optical disk.
  • a removable medium semiconductor memory card
  • semiconductor memory card such as an SD memory card
  • the read buffer 1 and the read buffer 2 are routed through an interface for reading data in the semiconductor memory card.
  • the virtual file system 3 may be sent to the heap memory 21, the dynamic scenario memory 23, the static scenario memory 13, the text subtitle decoder 18, and the demultiplexer 4 from the virtual file system 3. .
  • the playback device 102 and the semiconductor memory card are electrically connected via the memory card I / F.
  • Data recorded on the semiconductor memory card is sent to the virtual file system 3 via the read buffer 1 and the read buffer 2 via the memory card I / F, and the heap memory 21 and dynamic scenario memory 23 from the virtual file system 3. What is necessary is just to comprise so that it may transfer to the static scenario memory 13, the text subtitle decoder 18, and the demultiplexer 4.
  • a part of the data may be encrypted as necessary from the viewpoint of protecting the copyright and improving the confidentiality of the data.
  • the encrypted data may be any of the data recorded on the BD-ROM.
  • the data corresponds to the video stream and the audio stream. Or data corresponding to a subtitle stream or data corresponding to a stream including these.
  • data for example, a device key
  • a key necessary for decrypting the encrypted data in the BD-ROM is stored in advance in the playback device.
  • the BD-ROM decrypts the data corresponding to the key necessary for decrypting the encrypted data (for example, the MKB (media key block) corresponding to the device key described above) and the encrypted data.
  • Data obtained by encrypting the key itself (for example, the above-described device key and encrypted title key corresponding to the MKB) is recorded.
  • the device key, the MKB, and the encrypted title key are paired, and can also be associated with an identifier (for example, a volume ID) written in an area that cannot be normally copied (area called BCA) on the BD-ROM. Has been. If this combination is not correct, the code cannot be decrypted.
  • a key necessary for decryption (for example, a title key obtained by decrypting the encrypted title key based on the above-described device key, MKB, and volume ID) can be derived.
  • the encrypted data can be decrypted using the necessary key.
  • the playback is performed.
  • the data is not played back. This is because the key (title key) necessary for decrypting the encrypted data is recorded on the BD-ROM with the key itself encrypted (encrypted title key), and a combination of MKB and device key. If is not correct, the key necessary for decryption cannot be derived.
  • the playback apparatus is configured such that the video stream is decoded by the decoder using the title key, and the audio stream is decoded by the audio decoder.
  • the BD-ROM has been described as an example of the recording medium.
  • the recording medium is not necessarily limited to the BD-ROM.
  • a readable / writable semiconductor memory for example, an SD card or the like is portable. Even when it is applied to a semiconductor memory card, it can be implemented.
  • data corresponding to data recorded on the BD-ROM may be recorded on a semiconductor memory card using, for example, electronic distribution, and reproduced from the semiconductor memory card. Even when the necessary data is distributed using electronic distribution and the distributed data is recorded, some or all of the distributed data is encrypted and distributed as necessary. However, it is desirable to record the data necessary for the semiconductor memory while being encrypted. For example, an operation for recording data (distributed data) corresponding to the data described in the present embodiment in the semiconductor memory using electronic distribution will be described.
  • the above-described operation may be configured such that the playback device described in the present embodiment can perform such an operation, or distribution data is stored in a semiconductor memory separately from the playback device of the present embodiment. It is also possible to use a form that is performed by a dedicated terminal device that performs this. Here, an example performed by the playback apparatus will be described. Further, an SD card will be described as an example of a recording destination semiconductor memory.
  • the playback device When recording distribution data on an SD memory card inserted in a slot provided in the playback device, first, transmission of distribution data is requested to a distribution server (not shown) that stores the distribution data. At this time, the playback device uses the identification information for uniquely identifying the inserted SD memory card (for example, an identification number unique to each SD memory card, more specifically, for example, the serial number of the SD memory card) to the SD memory card. And the read identification information is transmitted to the distribution server together with the distribution request.
  • a distribution server not shown
  • the identification information for uniquely identifying the SD memory card corresponds to, for example, the volume ID described above.
  • the distribution server encrypts necessary data (for example, a video stream, an audio stream, etc.) among the data to be distributed using a key (for example, a title key) necessary for decryption. Stored on the server.
  • necessary data for example, a video stream, an audio stream, etc.
  • a key for example, a title key
  • the distribution server holds a secret key and is configured so that different public key information can be dynamically generated for each unique identification number of the semiconductor memory card.
  • the distribution server is configured to be able to encrypt the key (title key) necessary for decrypting the encrypted data (that is, configured to generate an encrypted title key).
  • the generated public key information includes, for example, information corresponding to the above-described MKB, volume ID, and encrypted title key.
  • the encrypted data is, for example, a key necessary for decryption (for example, Based on the device key, MKB, and identification number unique to the semiconductor memory, a title key obtained by decrypting the encrypted title key) is obtained, and using the obtained key (title key) necessary for decryption, Encrypted data can be decrypted.
  • the playback device records the received public key information and distribution data in the recording area of the semiconductor memory card inserted in the slot.
  • the received public key information includes, for example, a public key body (for example, the above-described MKB and encrypted title key), signature information, a unique identification number of the semiconductor memory card, and a device list indicating information on a device to be invalidated. Yes.
  • the signature information includes, for example, a hash value of public key information.
  • This may be a device that is likely to be played illegally, such as a device key pre-recorded on the playback device, an identification number of the playback device, or an identification number of a decoder included in the playback device, or a component included in the device, or This is information for uniquely identifying a function (program).
  • the following describes the playback of encrypted data among the distribution data recorded in the recording area of the semiconductor memory card.
  • (1) Check whether the identification information unique to the semiconductor memory included in the public key information matches the unique identification number stored in advance in the semiconductor memory card. (2) The public key information calculated in the playback device. Check whether hash value and hash value included in signature information match (3) Check whether playback device that performs playback is capable of unauthorized playback based on information shown in device list included in public key information (For example, check whether the device key shown in the device list included in the public key information matches the device key stored in advance in the playback device) To do. These checks may be performed in any order.
  • the identification information unique to the semiconductor memory included in the public key information does not match the unique identification number stored in advance in the semiconductor memory, and is calculated by the playback device. If the hash value of the key information and the hash value included in the signature information do not match or if it is determined that there is a possibility that the playback device that performs playback may be played back illegally, the playback device Control to prevent decryption of encrypted data.
  • the identification number unique to the semiconductor memory the public key body included in the public key information
  • the combination of the device key recorded in advance on the playback device is correct, and is obtained by decrypting the encrypted title key based on the key necessary for decryption (device key, MKB and identification number unique to the semiconductor memory)
  • the encrypted data is decrypted using the title key. For example, when the encrypted data is a video stream or an audio stream, the video decoder decrypts the video stream by using the above-described key necessary for decryption (the title key obtained by decrypting the encrypted title key).
  • the audio decoder decodes (decodes) the audio stream using the key necessary for the above-described decryption.
  • the audio decoder decodes (decodes) the audio stream using the key necessary for the above-described decryption.
  • information for identifying these is shown in the device list. If it is distributed, it is possible to prevent decryption using the public key information (public key body) when the playback device includes the ones shown in the device list. Even if the combination of the device identification number, the public key body included in the public key information, and the device key recorded in advance on the playback device is correct, it can be controlled so that the encrypted data cannot be decrypted. Use of distribution data on a simple device can be suppressed.
  • the unique identifier of the semiconductor memory card recorded in advance on the semiconductor memory card is stored in a highly confidential recording area.
  • a semiconductor memory card for example, an SD memory card as an example, the serial number of an SD memory card
  • illegal copying can be easily performed.
  • a different unique identification number is assigned to each of the plurality of semiconductor memory cards, but if the tampering is performed so that the unique identification numbers are the same, the determination of (1) above is made. This is because it makes no sense, and there is a possibility that illegal copies corresponding to the number of falsifications will be made.
  • a recording area for recording highly confidential data such as a unique identifier of the semiconductor memory card is used as a recording area for storing normal data (the first area).
  • a control circuit for accessing the second recording area Provided in a different recording area (referred to as a second recording area), a control circuit for accessing the second recording area, and a second recording area. Access to the access point is configured so that it can be accessed only through the control circuit.
  • the data recorded in the second recording area is encrypted and recorded
  • the control circuit includes, for example, a circuit for decrypting the encrypted data.
  • the encryption is decrypted and the decrypted data is returned.
  • the control circuit holds information on the storage location of the data recorded in the second recording area, and if there is a data access request, specifies the storage location of the corresponding data, and specifies the specified storage location It may be configured to return the data read from the.
  • An application that operates on a playback device and requests to record on a semiconductor memory card using electronic distribution is used to transmit data recorded in the second recording area to the control circuit via the memory card I / F (eg, semiconductor).
  • the control circuit that has received the request reads the data recorded in the second recording area and returns it to the application operating on the playback device. It is configured to request a distribution server for a required data distribution request together with a unique identification number of the semiconductor memory card, and record the public key information sent from the distribution server and the corresponding distribution data in the first recording area. That's fine.
  • an application that operates on the playback device and requests recording to the semiconductor memory card using electronic distribution is used to record data (in the second recording area) to the control circuit via the memory card I / F.
  • the application before issuing an access request to an identification number unique to a semiconductor memory, it is desirable to check in advance whether the application has been tampered with.
  • the existing X A check using a digital certificate compliant with the 509 specification may be used.
  • the application program shown in each embodiment can be created as follows. First, a software developer uses a programming language to write a source program that implements each flowchart and functional components. In this description, the software developer describes a source program that embodies each flowchart and functional components using a class structure, a variable, an array variable, and an external function call according to the syntax of the programming language.
  • the described source program is given to the compiler as a file.
  • the compiler translates these source programs to generate an object program.
  • Translator translation consists of processes such as syntax analysis, optimization, resource allocation, and code generation.
  • syntax analysis lexical analysis, syntax analysis, and semantic analysis of the source program are performed, and the source program is converted into an intermediate program.
  • optimization operations such as basic block formation, control flow analysis, and data flow analysis are performed on the intermediate program.
  • resource allocation in order to adapt to the instruction set of the target processor, a variable in the intermediate program is allocated to a register or memory of the processor of the target processor.
  • code generation each intermediate instruction in the intermediate program is converted into a program code to obtain an object program.
  • the object program generated here is composed of one or more program codes that cause a computer to execute the steps of the flowcharts shown in the embodiments and the individual procedures of the functional components.
  • program codes such as a processor native code and a JAVA byte code.
  • a call statement that calls the external function becomes a program code.
  • a program code that realizes one step may belong to different object programs.
  • each step of the flowchart may be realized by combining arithmetic operation instructions, logical operation instructions, branch instructions, and the like.
  • the linker allocates these object programs and related library programs to a memory space, and combines them into one to generate a load module.
  • the load module generated in this manner is premised on reading by a computer, and causes the computer to execute the processing procedures and the functional component processing procedures shown in each flowchart.
  • Such a program may be recorded on a computer-readable recording medium and provided to the user.
  • the system LSI is a package in which a bare chip is mounted on a high-density substrate and packaged.
  • a system LSI that includes a plurality of bare chips mounted on a high-density substrate and packaged to give the bare chip an external structure like a single LSI is also included in system LSIs (such systems LSI is called a multichip module.)
  • system LSIs are classified into QFP (Quad-Flood Array) and PGA (Pin-Grid Array).
  • QFP is a system LSI with pins attached to the four sides of the package.
  • the PGA is a system LSI with many pins attached to the entire bottom surface.
  • pins serve as an interface with other circuits. Since pins in the system LSI have such an interface role, the system LSI plays a role as the core of the playback device 102 by connecting other circuits to these pins in the system LSI.
  • Such a system LSI can be incorporated not only in the playback apparatus 102 but also in various devices that handle video playback, such as a TV, a game, a personal computer, a one-seg mobile phone, etc., and can broaden the application of the present invention.
  • the system LSI architecture conforms to the Uniphier architecture.
  • a system LSI that conforms to the Uniphier architecture consists of the following circuit blocks.
  • ⁇ Data parallel processor DPP This is a SIMD type processor in which multiple element processors operate in the same way. By operating the arithmetic units incorporated in each element processor simultaneously with a single instruction, the decoding process for multiple pixels constituting a picture is performed in parallel. Plan
  • Instruction parallel processor IPP This is a "Local Memory Controller” consisting of instruction RAM, instruction cache, data RAM, and data cache, "Processing Unit” consisting of instruction fetch unit, decoder, execution unit and register file, and Processing Unit part for parallel execution of multiple applications. It consists of a “Virtual Multi Processor Unit section” to be performed.
  • MPU block This is a peripheral interface such as ARM core, external bus interface (Bus Control Unit: BCU), DMA controller, timer, vector interrupt controller, UART, GPIO (General Purpose Input Output), synchronous serial interface, etc. Consists of.
  • -Stream I / O block This performs data input / output with drive devices, hard removable media drive devices, and SD memory card drive devices connected to the external bus via the USB interface or ATA Packet interface.
  • ⁇ AVI / O block This is composed of audio input / output, video input / output, and OSD controller, and performs data input / output with TV and AV amplifier.
  • Memory control block This is a block that realizes reading and writing of the SD-RAM connected via the external bus.
  • the internal bus connection part that controls the internal connection between each block, the SD-RAM connected outside the system LSI It consists of an access control unit that transfers data to and from the RAM, and an access schedule unit that adjusts SD-RAM access requests from each block.
  • the buses connecting circuit elements, ICs, LSIs, their peripheral circuits, external interfaces, etc. will be defined.
  • connection lines, power supply lines, ground lines, clock signal lines, and the like will be defined.
  • the circuit diagram is completed while adjusting the operation timing of each component in consideration of the specifications of the LSI, and making adjustments such as ensuring the necessary bandwidth for each component.
  • Mounting design refers to where on the board the parts (circuit elements, ICs, and LSIs) on the circuit board created by circuit design are placed, or how the connection lines on the circuit board are placed on the board. This is a board layout creation operation for determining whether to perform wiring.
  • the mounting design result is converted into CAM data and output to equipment such as an NC machine tool.
  • NC machine tools perform SoC implementation and SiP implementation based on this CAM data.
  • SoC (System on chip) mounting is a technology that burns multiple circuits on a single chip.
  • SiP (System-in-Package) packaging is a technology that combines multiple chips into one package with resin or the like.
  • the integrated circuit generated as described above may be called IC, LSI, super LSI, or ultra LSI depending on the degree of integration.
  • the hardware configuration shown in each embodiment can be realized.
  • the LUT is stored in the SRAM, and the contents of the SRAM disappear when the power is turned off.
  • the LUT that realizes the hardware configuration shown in each embodiment is defined by the definition of the configuration information. Must be written to SRAM. *
  • the user interface part, middleware part, and system LSI part of the playback device can be developed independently and in parallel, making development more efficient It becomes possible.
  • There are various ways to cut each interface part For example, when the video decoder 5a, the video decoder 5b, the audio decoder 9, the color converter 15a, the color converter 15b, the synthesizer 17a, and the synthesizer 17b shown as included in the system LSI 106 are integrated into one chip, these are controlled.
  • the middleware to be used and the interface part between these and the corresponding middleware are developed on the chip development side, and after completion, the chip is incorporated into the playback device, and the developed middleware and interface portion is the memory in the playback device. Incorporation into a storage unit such as the above enables development on the playback device side and development on the chip side to be performed in parallel, improving development efficiency.
  • the portion configured by the system LSI is not limited to being configured only by the LSI, but may be configured by using a signal processing circuit corresponding to the function to be included in the system LSI. .
  • a recording medium capable of dynamically switching between a flat display and a stereoscopic display, a reproducing apparatus and a reproducing method thereof, in particular, the movie industry involved in the production of AV contents, and the manufacture of equipment for processing the same.
  • a reproducing apparatus and a reproducing method thereof in particular, the movie industry involved in the production of AV contents, and the manufacture of equipment for processing the same.
  • it can be used as a BD-ROM disc and a BD-ROM player.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)

Abstract

 BD-ROMには、ビデオストリームと同期して再生すべき字幕ストリームと、プレイリスト情報とが記録されている。プレイリスト情報は、PlayItem情報と、表示方式フラグとを含み、前記PlayItem情報は、ビデオストリームの再生時間軸におけるIn_Timeを示す情報、及び、Out_Timeを示す情報を用いて再生区間を定義する情報であり、ストリーム情報テーブルとを含む。表示方式フラグは、再生区間における字幕の表示方式の制御を有効とするか否かを示し、ストリーム情報テーブルは、再生区間において表示方式を有効とする場合、複数の字幕ストリームのうちどれを選択させるべきかを再生装置に指示する。

Description

記録媒体、再生装置、記録装置、再生方法、記録方法、プログラム
 本発明は、グラフィクス字幕の表示技術の分野に属する発明である。
 グラフィクス字幕とは、いわゆるランレングス符号化によって圧縮されたグラフィクスデータを復号して、字幕表示を行う技術であり、BD-ROM再生装置を始め、DVB-MHP、DVD-Videoにおいて採用されている。グラフィクス字幕は、一般にグラフィクス字幕ストリームをデコードすることで表示に供される。グラフィクス字幕ストリームは、PESパケットの配列であり、かかるPESパケットには、グラフィクスデータを格納したものと、パレットデータを格納したものと、制御データを格納したものとがあり、前記グラフィクスデータは、ランレングスデータであり、コード値と、そのコード値の連続長によって構成されている。
 パレットデータは、各コード値と、輝度及び色差との対応関係を示す。制御データは、前記色変換に用いるべきパレットデータを示す参照値、プレーンメモリにグラフィクスを書き込むための表示領域を指定する情報、プレーンメモリにおけるグラフィクスの表示座標の情報を含み、当該参照値に基づくグラフィクス表示及び色変換に命じる。
 グラフィクス字幕を描画する際の再生装置の処理は、ランレングスデータの伸長、プレーンメモリへの書き込み、カラールックアッテーブルを参照した色変換といったものに留まるので、再生装置における字幕表示の処理は簡素化される。
特開平10-208446号公報 国際公開第2004/082297号パンフレット
 ところで、再生装置を用いて映画作品を視聴する視聴者の年齢層には年配者から幼児まで大きな広がりがあり、また再生装置にも、廉価モデルからハイエンドモデルまで、様々なバリエーションが存在する。近い将来には、立体視再生と平面視再生との切り替えが可能なモデルも登場すると囁かれており、映画作品の作り手側からは、これら再生装置のスペックやユーザ層の多様化に応じて特色ある字幕表示を実現することが要望されている。
 ここで、グラフィクス字幕ストリームに組み込まれる制御情報には、プレーンメモリにおける表示領域や表示座標を指定する情報が存在するので、この制御情報における表示座標の設定や、表示領域の範囲を変化させてやることで、スクロール、ワイプ、カットイン、カットアウトといった表示効果を実現することができる。ところが、かかる制御情報における制御の種別は、上述したような表示効果に限られており、再生装置の再生装置のスペックやユーザ層の多様化に応じて、特色ある表示を実現できるような余地は存在しない。
 無論、字幕ストリームに組込まれる制御情報に制御項目を追加したり、字幕ストリームに組込まれる制御情報のフォーマットを改変することで、そのような特色ある制御を実現することも考えられるが、これらの発案は、これまでの再生装置の製造開発で培われた制御情報の互換性を損なうものなので、メーカーの賛同を得られない恐れがある。特許文献1、2に記載されている記載されている技術も、既存のデータ構造の拡張、改変を前提にしたものであるから、制御情報の互換性を度外視している点は否めない。
 本発明の目的は、グラフィクス字幕ストリームのデータ構造の互換を維持しつつも、再生装置の処理能力やユーザの年齢層に応じた字幕の表示方式の変化を実現することができる、記録媒体を提供することである。
 上記課題を解決するため、本発明にかかる記録媒体は、ビデオストリームと同期して再生すべき字幕ストリームと、プレイリスト情報とが記録された記録媒体であって、
 前記プレイリスト情報は、再生区間情報と、表示方式フラグとを含み、
 前記再生区間情報は、ビデオストリームの再生時間軸におけるインタイムを示す情報、及び、アウトタイムを示す情報を用いて再生区間を定義する情報であり、ストリーム情報テーブルとを含み、
 表示方式フラグは、再生区間における字幕の表示方式の制御を有効とするか否かを示し、
 ストリーム情報テーブルは、再生区間において表示方式を有効とする場合、複数の字幕ストリームのうちどれを選択させるべきかを再生装置に指示する
 ことを特徴としている。
 本発明の記録媒体においてプレイリスト情報における表示方式フラグは、再生区間における字幕の表示方式の制御を有効とするか否かを示し、プレイリスト情報におけるストリーム情報テーブルは、再生区間において表示方式を有効とする場合、複数の字幕ストリームのうちどれを選択させるべきかを再生装置に指示するので、互換性の維持のため、たとえ字幕ストリームに組込まれる制御情報の内容が、従来のものと同一の内容であるとしても、様々な字幕ストリームが記録媒体に記録されて、再生装置に提供されさえすれば、再生装置のコンフィグレーションに応じて、これら様々な字幕ストリームの何れかを再生装置に選択させることで、特有の表示方式に応じた字幕表示を、再生装置に実行させることができる。複数の字幕ストリームの中から、有効となる表示方式に応じて、字幕ストリームを選択するという処理により、特色ある字幕表示を実現するので、制御情報に変動をもたらす必要はない。
 立体視再生が可能かどうかや、ユーザの年齢がいくつであるかに応じた表示方式の変更を実現することができるので、メーカーは、コンフィグレーションに応じて、字幕の表示方式を変化させることにより、他社との差別化を図ることができる。
記録媒体、再生装置の、使用行為についての形態を示す図である。 BD-ROMの内部構成を示す。 BD-ROMのアプリケーションフォーマットを示す図である。 レフトビューストリーム、ライトビューストリームを構成する各ソースパケットがどのような過程を経てAVデータ領域に書き込まれるかを示す。 BD-ROMの物理単位と、1つのファイルエクステントを構成するソースパケットとの対応関係を示す図である。 TSパケットのパケットIDがとりうる複数の数値範囲と、各数値範囲のパケットIDをもつTSパケットのPESストリーム種別とを対応付けて示す図である。 インターリーブ配置の一例を示す図である。 立体視のためのベースビューストリーム、エンハンスドビューストリームの内部構成の一例を示す図である。 ゴーグルの透光/遮光を、図8のタイミングに従って切り替えることにより、どのような映像が再生に供されるかを示す図である。 目の残像反応により形成される立体映像を示す図である。 グラフィクス字幕ストリームの構成を示す図である。 様々な種別の機能セグメントにて構成される論理構造を示す図である。 字幕の表示位置と、Epochとの関係を示す図である。 ODS、PDSのデータ構造を示す。 WDS、PCSのデータ構造を示す。 ディスプレイセットにおけるPCSの記述例を示す図である。 DSnが割り当てられた、AVClipの再生時間軸を示す図である。 ODSによって定義されるグラフィクス字幕の類型を示す図である。 ベースビューを構成する字幕ストリーム、エンハンスドビューを構成する字幕ストリームがどのようにデコードされるかを示す。 ベースビュービデオストリーム及びエンハンスドビュービデオストリームの再生と、ベースビュー字幕ストリーム及びエンハンスドビュー字幕ストリームの再生とが、同期する場合に再生される立体視映像の一例を示す。 window_horizontal_position、window_vertical_positionによって規定されたグラフィクスプレーンにおけるウィンドゥの座標、及び、object_horizontal_position,object_vertical_positionによって規定されたグラフィクスプレーンにおけるグラフィクス字幕の座標が、立体視字幕に対してどのように影響するかを示す。 クリップ情報ファイルの一例を示す図である。 エントリーマップテーブルの内部構成を示す図である。 エントリーマップによるエントリーポイントの登録を示す。 レフトビュー、ライトビューのそれぞれに対応するエントリーマップが、どのように設定されているかを示す図である。 プレイリスト情報のデータ構造を示す図である。 サブパス情報テーブルの内部構成を示す図である。 レフトビュー、ライトビューに対して、どのような再生区間が定義されているかを示す。 ビデオストリーム番号テーブルの内部構成を示す図である。 STN_tableにおける字幕ストリーム情報テーブルの内部構成を示す。 プレイリスト情報におけるエクステンションデータの内部構成を示す図である。 ビデオストリーム番号テーブルの内部構成を示す図である。 STN_table_extensionにおける字幕ストリーム情報テーブルの内部構成を示す図である。 再生装置の内部構成を示す図である。 再生装置の内部構成を詳細に示す図である。 PSRセット12、及び、再生制御エンジン14の内部構成とを示す。 平面視制御部41の内部構成を示す図である。 立体視制御部42の内部構成を示す。 グラフィクスデコーダの内部構成を示す図である。 プレイリス再生処理の処理手順を示すフローチャートである。 STN_table_extensionに基づく再生手順を示すフローチャートである。 装置状態変化時、ストリーム変化の要求時におけるPSR2の設定手順を示すフローチャートである。 年齢別再生時の選択手順を示すフローチャートである。 立体視再生時における選択手順の処理手順を示すフローチャートである。 動作の対象となるソースパケット列、プレイリスト情報を示す図である。 字幕の内容を示す。 再生装置における"ユーザ年齢が4歳"というコンフィグレーション情報に応じて、どのような字幕が表示されるかを示す。 再生装置における"ユーザ年齢が70歳"というコンフィグレーション情報に応じて、どのような字幕が表示されるかを示す。 再生装置における"立体視ケーパビリティがオン""立体視再生フラグがオン"というコンフィグレーション情報に応じて、どのような字幕が表示されるかを示す。
 図面を参照しながら、上記課題解決手段を具備した記録媒体、及び、再生装置の実施形態について説明する。
 図1は、記録媒体、再生装置の、使用行為についての形態を示す図である。本図に示すように、記録媒体の一例であるBD-ROM101、再生装置102は、テレビ103、液晶シャッタゴーグル104、リモコン100と共にホームシアターシステムを構成し、ユーザによる使用に供される。
 BD-ROM101は、上記ホームシアターシステムに、例えば映画作品を供給する。
 再生装置102は、テレビ103と接続され、BD-ROM101を再生する。
 テレビ103は、映画作品の再生映像を表示したり、メニュー等を表示することで、対話的な操作環境をユーザに提供する。
 液晶シャッタゴーグル104は、液晶シャッタと、制御部とから構成され、ユーザの両目における視差を用いて立体視を実現する。液晶シャッタゴーグル104の液晶シャッタは、印加電圧を変えることにより、光の透過率が変化する性質を有する液晶レンズを用いたシャッタである。液晶シャッタゴーグル104の制御部は、再生装置から送られるライトビュー用の画像とレフトビュー用の画像の出力の切り替えの同期信号を受け、この同期信号に従って、第1の状態、第2の状態の切り替えを行う。
 図1(b)は、第1の状態を示す。第1の状態とは、ライトビューに対応する液晶レンズが光を透過しないように印加電圧を調節し、レフトビューに対応する液晶レンズが光を透過するように印加電圧を調節した状態であり、この状態において、レフトビュー用の画像が視聴に供されることになる。
 図1(c)は、第2の状態を示す。第2の状態とは、ライトビューに対応する液晶レンズが光を透過するように印加電圧を調節し、レフトビューに対応する液晶レンズが光を透過しないように印加電圧を調節した状態であり、この場合、液晶シャッタゴーグルは、ライトビュー用の画像を視聴に供することができる。
 一般にライトビューと、レフトビューは、その位置の差に起因して、ライトビューから見える像とレフトビューから見える像には見え方に若干の差がある。この差を利用して人間は目に見える像を立体として認識できるのである。そこで、液晶シャッタゴーグル104が、以上のような第1の状態、第2の状態の切り替えを、ライトビュー用の画像とレフトビュー用の画像の出力の切り替えタイミングに同期させれば、ユーザは、平面的な表示が立体的に見えると錯覚する。次に、ライトビュー映像、レフトビュー映像を表示するにあたっての時間間隔について説明する。
 具体的には、平面表示の画像において、ライトビュー用の画像とレフトビュー用の画像には人間の視差に相当する見え方の差に相当する程度の差があり、これらの画像を短い時間間隔で切り替えて表示することにより、あたかも立体的な表示がなされているように見えるのである。
 この短い時間間隔というのは、上述の切り替え表示により人間が立体的に見えると錯覚する程度の時間であればよい。
 リモコン100は、階層化されたGUIに対する操作をユーザから受け付ける機器であり、かかる操作受け付けのため、リモコン100は、GUIを構成するメニューを呼び出すメニューキー、メニューを構成するGUI部品のフォーカスを移動させる矢印キー、メニューを構成するGUI部品に対して確定操作を行う決定キー、階層化されたメニューをより上位のものにもどってゆくための戻りキー、数値キーを備える。
 以上がホームシアターシステムについての説明である。続いて、BD-ROMの詳細について説明する。
 図2は、本実施の形態で説明をする記録媒体の一例である光ディスク、より具体的にはBD-ROMの内部構成を示す。
 第1段目は、多層化された光ディスクであるBD-ROMを示し、第2段目は、各記録層上に存在する螺旋トラックを水平方向に引き伸ばして描いている。この螺旋トラックは、1つの連続した記録領域として扱われる。この記録領域は、最内周に位置するリードイン、最内周に位置するリードアウト、この間に存在する第1記録層の記録領域、第2記録層の記録領域、第3記録層の記録領域から構成される。
 第3段目は、BD-ROMにおけるファイルシステム領域を示す。ファイルシステム領域は、"ボリューム管理領域"と、"論理アドレス空間"とから構成される。
 "ボリューム管理領域"は、第1記録層の記録領域、第2記録層の記録領域、第3記録層の記録領域を1つの連続したファイルシステム空間として扱うためのファイルシステム管理情報が記録されている領域である。
 "論理アドレス空間"は、セクタが連続する論理ブロック番号(LBN)によって指示されるアドレス空間である。つまり、第2段目における第1記録層の記録領域、第2記録層の記録領域、第3記録層の記録領域は、1つの連続した論理アドレス空間を構成することになる。
 第4段目は、ファイルシステム管理領域の論理アドレス空間における領域割り当てを示す。ファイルシステム管理記録のうち、内周側には、非AVデータ記録領域が存在する。非AVデータ記録領域の直後には、AVデータ記録領域が存在する。
 第5段目は、これら非AVデータ記録領域及びAVデータ記録領域に記録されるエクステントを示す。AVデータ記録領域には、AVファイルを構成する構成するエクステント(図中のEXT,EXT,EXT・・・・)が存在する。非AVデータ記録領域には、AVファイル以外のファイルを構成するエクステント(図中のEXT,EXT,EXT・・・・)が存在する。
 図3は、BD-ROMのアプリケーションフォーマットを示す図である。
 「BDMVディレクトリ」は、BD-ROMで扱うAVコンテンツや管理情報などのデータが記録されているディレクトリである。BDMVディレクトリの配下には、「JARディレクトリ」、「BDJOディレクトリ」、「PLAYLISTディレクトリ」、「CLIPINFディレクトリ」、「STREAMディレクトリ」と呼ばれる5つのサブディレクトリが存在し、BDMVディレクトリには、「index.bdmv」,「MovieObject.bdmv」の2種類のファイルが配置されている。
 『index.bdmv』は、BD-ROM全体に関する管理情報であり、再生装置へのディスク挿入後に、index.bdmvが最初に読み出されることで、再生装置においてディスクが一意に認識される。加えて、index.bdmvは、BD-ROMにおいて再生可能となる複数タイトルのタイトル番号と、個々のタイトルを規定するBD-Jオブジェクト又はムービーブジェクトとの対応付けを示す。
 『MovieObject.bdmv』は、1つ以上のムービーオブジェクトを格納している。ムービーオブジェクトは、コマンドインタプリタを制御主体とした動作モード(HDMVモード)において、再生装置が行うべき制御手順を規定する管理オブジェクトであり、1つ以上のコマンドと、GUIに対するメニューコール、タイトルコールがユーザによってなされた場合、これらのコールをマスクするかどうかを規定するマスクフラグを含む。
 『JARディレクトリ』は、アーカイブファイルに対応するJARファイルが配置されるディレクトリである。アーカイブファイルは、1つ以上のクラスファイル、1つ以上のデータファイル等を1つにまとめることで得られるファイルである。1つ以上のクラスファイル、1つ以上のデータファイル等は例えば、アーカイバ(図示せず)により、1つにまとめることができる。
 ここでは、アーカイブファイルの一例として、Java(登録商標)のアーカイブファイルを例に説明をする。
 例えば、再生装置が備えるバイトコードインタプリタであるJava仮想マシンを制御主体とした動作モード(BD-Jモード)において、再生装置が行うべき制御手順を規定する。JARファイルを格納したファイルは、5桁の数字zzzzzと、拡張子jarとによって識別される。
 『BDJOディレクトリ』は、バイトコードインタプリタであるJava仮想マシンを制御主体とした動作モード(BD-Jモード)において、再生装置が行うべき制御手順を規定する管理オブジェクト(BDJオブジェクト)を格納したファイルが格納されるディレクトリである。BDJオブジェクトを格納したファイルは、5桁の数字zzzzzと、拡張子bdjoとによって識別される。
 『PLAYLISTディレクトリ』は、ベースビュービデオストリームに対する再生区間を指定するメインパス情報、エンハンスドビュービデオストリームに対する再生区間を指定するサブパス情報を含むプレイリスト情報を格納したファイルが配置される。このプレイリスト情報を格納したファイルは、"yyyyy"という5桁の識別番号と、拡張子"mpls"とによって識別される。ここでベースビュービデオストリームとは、レフトビュー又はライトビューを構成するビデオストリームのうち、平面視表示を実現しうるものである。一方、ライトビュー又はレフトビューを構成するビデオストリームのうち、ベースビュービデオストリームではないものを"エンハンスドビュービデオストリーム"という。エンハンスドビュービデオストリームを構成するピクチャデータは、ベースビュービデオストリームを構成するピクチャデータとのフレーム相関性に基づき圧縮符号化されている。
 このような視点間の相関を利用したビデオ圧縮の方法としては、Multiview Video Coding(MVC)と呼ばれるMPEG-4 AVC/H.264の修正規格がある。ISO/IEC MPEGとITU-T VCEGの共同プロジェクトであるJoint Video Team(JVT)は、2008年7月にMultiview Video Coding(MVC)と呼ばれるMPEG-4 AVC/H.264の修正規格の策定を完了した。MVCは、複数視点の映像をまとめて符号化する規格であり、映像の時間方向の類似性だけでなく視点間の類似性も予測符号化に利用することで、複数視点の独立した圧縮に比べて圧縮効率を向上している。
 ベースビュー、エンハンスドビューを構成するストリームは、ビデオストリームだけではない。字幕ストリームも、ベースビュー、エンハンスドビューを構成する。以降、ベースビュービデオストリーム、ベースビュー字幕ストリームを併せて、"ベースビューストリーム"と呼ぶ。また、エンハンスドビュービデオストリーム、エンハンスドビュー字幕ストリームを併せて、"エンハンスドビューストリーム"と呼ぶ。
 『CLIPINFディレクトリ』は、クリップ情報を格納したファイル(クリップ情報ファイル)が配置されるディレクトリである。クリップ情報ファイルは、"xxxxx"という5桁の識別番号と、拡張子"clpi"とによって識別される。このクリップ情報ファイルの内部には、レフトビューのビデオストリーム、ライトビューのビデオストリームのそれぞれに対応するエントリーマップが存在する。
 以上のディレクトリに存在するファイルを構成するエクステントは、非AVデータ領域に記録される。
 『STREAMディレクトリ』は、平面視ビデオストリームを格納したAVクリップファイル、立体視ビデオストリームを格納したAVクリップファイルが配置されるディレクトリである。平面視ビデオストリームを格納したファイルは、"xxxxx"という5桁の識別番号と、拡張子"m2ts"とによって識別される。立体視ビデオストリームを格納したファイルは、"xxxxx"という5桁の識別番号と、拡張子"ilts"とによって識別される。
 STREAMディレクトリに格納されるベースビューストリームのファイルを構成するエクステント、STREAMディレクトリに格納されるべきエンハンスドビューストリームのファイルを構成するエクステントは、AVデータ記録領域に記録される。 
 (ストリームの記録のされ方)
 図4は、ベースビューストリーム、エンハンスドビューストリームを構成する各ソースパケットがどのような過程を経てAVデータ領域に書き込まれるかを示す。本図の第1段目は、ベースビューストリーム又はエンハンスドビューストリームを構成するTSパケットを示す。
 ベースビューストリーム及びエンハンスドビューストリームを構成する188バイトのTSパケットは、第2段目に示すように4バイトのTS_extra_header(図中のハッチング部)が付されて、192バイト長のソースパケットになる。このTS_extra_headerは、当該TSパケットのデコーダ入力時刻情報を示すArrival_Time_Stampを含む。
 ベースビューストリーム及びエンハンスドビューストリームを構成するソースパケットは、1つ以上の"ATCシーケンス"を構成する。"ATCシーケンス"とは、ATSの時間軸を構成するソースパケットの配列であって、そのArrival_Time_Stampが参照しているArrival_Time_Clockに、不連続点(no arrival time-base discontinutiy)が存在しないものをいう。いいかえれば、そのArrival_Time_Stampが参照しているArrival_Time_Clockに、連続性が存在するソースパケット列を"ATCシーケンス"という。ATSは以下のようにTSパケットの先頭につけられ、デコーダへの転送時刻を示す。
 かかるATCシーケンスがAVクリップになり、xxxxx.m2tsというファイル名で記録層に記録される。
 かかるAVクリップは、通常のコンピュータファイル同様、1つ以上のファイルエクステントに分割され、各記録層上の領域に記録される。第3段目はAVクリップを示し、第4段目はAVクリップがどのように各記録層に記録されるかを模式的に示す。この第4段目においてファイルを構成する各ファイルエクステントは、予め定められたサイズ(このサイズを、S_EXTという。)以上のデータ長を有する。
 図5は、BD-ROMの物理単位と、1つのファイルエクステントを構成するソースパケットとの対応関係を示す図である。第2段目に示すように、BD-ROMのAVファイル記録領域には複数セクタが形成されている。ファイルエクステントを構成するソースパケットは、第1段目に示すように、32個毎にグループ化されて、連続する3つのセクタに書き込まれる。32個のソースパケットからなるグループは、6144バイト(=32×192)であり、これは3個のセクタサイズ6144バイト(=2048×3)と一致する。3個のセクタに収められた32個のソースパケットを"Aligned Unit"といい、BD-ROMへの書き込みは、Aligned Unit単位でなされる。
 第3段目においてセクタは、32個単位で誤り訂正符号が付され、ECCブロックを構成する。再生装置はAligned Unitの単位でBD-ROMをアクセスする限り、32個の完結したソースパケットを得ることができる。以上がBD-ROMに対するAVクリップの書き込みのプロセスである。
 図6(a)は、TSパケットのパケットID(PID)がとりうる複数の数値範囲と、各数値範囲のパケットIDをもつTSパケットのPESストリーム種別とを対応付けて示す図である。
 0x0100のパケットIDをを有するTSパケットはプログラムマップ(Program_map)を構成し、0x1001のパケットIDを有するTSパケットはプログラムクロックレファレンス(PCR)を構成する。
 0x1011のパケットIDを有するTSパケットはベースビュービデオストリームを構成し、Ox1012のTSパケットはエンハンスドビュービデオストリームを構成する。
 0x1100~0x111FのパケットIDを有するTSパケットはオーディオストリームを構成する。
 0x1220~x123FのパケットIDを有するTSパケットは、ベースビュー字幕ストリームを構する。0x1240~0x125FのパケットIDを有するTSパケットは、エンハンスドビュー字幕ストリームを構成する。尚、平面視のためのグラフィクス字幕ストリームを構成するTSパケットであって、ベースビュー字幕ストリームになりえないもののパケットIDは、0x1200~0x121Fの数値範囲となる。
 これらのビデオストリームを構成するTSパケット、字幕ストリームを構成するTSパケットは、ベースビューを構成するもの同士、エンハンスドビューを構成するもの同士でまとめられる。図6(b)は、その一例を示す。
 本図に示すように、ベースビューを構成するソースパケットのグループは、0x1011のPIDが付与されたベースビュービデオストリームのソースパケット(図中のVideo)、0x1100のPIDが付与されたオーディオストリームのソースパケット(図中のAudio)、0x1220,0x1221,0x1222,0x1223,0x1224,0x1225,0x1226のPIDが付与されたグラフィクス字幕ストリームのソースパケット(図中のPG)から構成される。
 一方、エンハンスドビューを構成するソースパケットのグループは、0x1012のPIDが付与されたエンハンスドビュービデオストリーム(図中のVideo)のソースパケット、0x1101のPIDが付与されたオーディオストリームのソースパケット(図中のAudio)、0x1240,0x1241,0x1242,0x1243,0x1244,0x1245のPIDが付与されたグラフィクス字幕ストリームのソースパケット(図中のPG)から構成される。
 ベースビュー、エンハンスドビューを構成するソースパケットのグループは、インターリーブ配置される。図7は、インターリーブ配置の一例を示す図である。本図におけるインターリーブ配置とは、ベースビュー、エンハンスドビューを構成するエクステントが、"ベースビュー"、"エンハンスドビュー"、"ベースビュー"、"エンハンスドビュー"・・・・・という規則性をもって記録されていることである。
 第1段目は、AVファイルを示し、第2段目は、AVファイルを構成するエクステントEXT_L[i],EXT_L[i+1],EXT_R[i],EXT_R[i+1]を示す。第3段目は、各エクステント内に属するソースパケット列を示し、第4段目は、記録層におけるセクタ列を示す。ここで、括弧書きにおける変数i,i+1は、何番目のエクステントとして再生されるかを示す。この記法からすると、変数iによって指示される2つのエクステント、つまり、EXT_L[i],EXT_R[i]は同時に再生され、変数i+1によって指示される2つのエクステント、つまり、EXT_L[i+1],EXT_R[i+1]は同時に再生されることがわかる。
 エクステントEXT_L[i],EXT_L[i+1]は、PID=0x1011のソースパケットによって構成されている。破線の矢印h1,h2,h3,h4は、エクステントEXT_L[i],EXT_L[i+1]が、ベースビューストリーム、エンハンスドビューストリームのうちどちらに帰属するという帰属関係を示す。矢印h1,h2に示される帰属関係によると、エクステントEXT_L[i],EXT_L[i+1]は、ベースビューストリームに帰属していることがわかる。矢印h3,h4に示される帰属関係によると、エクステントEXT_R[i],EXT_R[i+1]は、エンハンスドビューストリームに帰属していることがわかる。
 エクステントEXT_L[i]のサイズをSEXT_L[i]と呼び、エクステントEXT_R[i]のサイズをSEXT_R[i]と呼ぶ。
 これらSEXT_L、SEXT_Rのサイズをどのように定めるかについて説明する。ここでエクステントは、再生装置においてライトビュー用リードバッファ、レフトビュー用リードバッファという2つのバッファに交互に読み出されてビデオデコーダに供される。そうすると、SEXT_L、SEXT_Rのサイズは、ライトビュー用リードバッファ及びレフトビュー用リードバッファをバッファフルにする時間を考慮して定める必要がある。つまり、ライトビュー用リードバッファへの転送レートを、Rmax1とすると、

 ライトビュー用リードバッファ=Rmax1×"ジャンプを伴いながらレフトビュー用リードバッファをフルにする時間"

 という関係を満たすよう、ライトビュー用リードバッファの容量を定めねばならない。ここでジャンプとは、ディスクシークと同義である。何故なら、BD-ROMにおいて記録に確保できる連続領域は有限であり、ベースビューストリーム及びエンハンスドビューストリームは、必ずしも、隣合わせで記録されるとは限らず、飛び飛びの領域に記録されることも有り得るからである。
 続いて"ジャンプを伴いながらレフトビュー用リードバッファをフルにする時間"について考える。レフトビュー用リードバッファにおけるTSパケット蓄積は、Rud-Rmax2という転送レートでなされる。これは、レフトビュー用リードバッファからの出力レートRmax2と、レフトビュー用リードバッファへの入力レートRudとの差分を意味する。そうすると、レフトビュー用リードバッファをフルにする時間は、RB2/(Rud-Rmax2)となる。

 レフトビュー用リードバッファにデータを読み出すにあたっては、ライトビュービデオストリームからレフトビュービデオストリームへのジャンプ時間(Tjump)と、レフトビュービデオストリームからライトビュービデオストリームへのジャンプ時間(Tjump)とを考慮する必要があるので、
 レフトビュー用リードバッファの蓄積には(2×Tjump+RB2/(Rud-Rmax2))という時間が必要になる。
 ライトビュー用リードバッファの転送レートをRmax1とすると、上述したレフトビュー用リードバッファの蓄積時間において、Rmax1という転送レートで、ライトビュー用リードバッファ内の全てのソースパケットは出力されねばならないから、ライトビュー用リードバッファのサイズRB1は、

       RB1≧Rmax1×{2×Tjump+RB2/(Rud-Rmax2)}

                       になる。

 同様の手順で、レフトビュー用リードバッファの容量RB2を求めると、

       RB2≧Rmax2×{2×Tjump+RB1/(Rud-Rmax1)}

                       になる。

 ライトビュー用リードバッファ,レフトビュー用リードバッファのメモリサイズの具体的な値としては、1.5Mbyte以下であり、本実施形態においてエクステントサイズSEXT_R、SEXT_Lは、このライトビュー用リードバッファ,レフトビュー用リードバッファのサイズと同じサイズか、またはこれにほぼ等しいサイズに設定されている。以上がベースビューストリーム、エンハンスドビューストリームの記録のされ方についての説明である。続いて、ベースビューストリーム及びエンハンスドビューストリームの内部構成について説明する。
 図8は、立体視のためのベースビューストリーム、エンハンスドビューストリームの内部構成の一例を示す図である。
 ベースビューストリーム、エンハンスドビューストリームは例えば、ピクチャデータを含む。ピクチャデータには複数種類があり、Iピクチャ、Pピクチャ、Bピクチャといったピクチャデータを含む。
 Iピクチャとは、一画面分のピクチャデータであるである。
 Pピクチャとは、基準となるIピクチャとの差分を示すピクチャデータである。
 Bピクチャとは、基準となるIピクチャとPピクチャにより生成されるピクチャデータである。
 本図の第2段目は、ベースビューストリームの内部構成を示す。このストリームには、ピクチャデータI1,P2,Br3,Br4,P5,Br6,Br7,P9というピクチャデータが含まれている。
 これらのピクチャデータは、DTS(デコーディングタイムスタンプ:デコーダによる復号の開始時刻を示す情報)に従いデコードされる。第1段目は、レフトビュー画像を示す。そうしてデコードされたピクチャデータI1,P2,Br3,Br4,P5,Br6,Br7,P9をPTSに従い、I1,Br3,Br4,P2,Br6,Br7,P5の順序で再生することで、レフトビュー画像が再生されることになる。
 第4段目は、エンハンスドビューストリームの内部構成を示す。このセカンダリビデオストリームは、P1,P2,B3,B4,P5,B6,B7,P8というピクチャデータが含まれている。これらのピクチャデータは、DTSに従いデコードされる。第3段目は、ライトビュー画像を示す。そうしてデコードされたピクチャデータP1,P2,B3,B4,P5,B6,B7,P8をPTS(プレゼンテーションタイムスタンプ:ビデオ・オーディオの提示時刻を示す情報)に従い、P1,B3,B4,P2,B6,B7,P5の順序で再生することで、ライトビュー画像が再生されることになる。
 第5段目は、液晶シャッタゴーグル104の状態をどのように変化させるかを示す。この第5段目に示すように、レフトビュー映像の視聴時は、ライトビューの液晶シャッタを閉じ、ライトビュー映像の視聴時は、レフトビューの液晶シャッタを閉じていることがわかる。
 これらのプライマリビデオストリーム、セカンダリビデオストリームは、時間方向の冗長性を利用したピクチャ間予測符号化に加えて、視点間の冗長性を利用したピクチャ間予測符号化によって圧縮されている。エンハンスドビューストリームのピクチャは、ベースビューストリームの同じ表示時刻のピクチャを参照して圧縮されている。
 例えば、エンハンスドビューストリームの先頭Pピクチャは、ベースビューストリームのIピクチャを参照し、エンハンスドビューストリームのBピクチャは、ベースビューストリームのBrピクチャを参照し、エンハンスドビューストリームの二つ目のPピクチャは、ベースビューストリームのPピクチャを参照している。 
 図9は、ゴーグルの透光/遮光を、図8のタイミングに従って切り替えることにより、どのような映像が再生に供されるかを示す図である。ここでフレーム表示期間が、1/24秒であり、ゴーグルにおけるライトビュー、レフトビューの透光/遮光を、1/48秒置きに変化させれば、ライトビュー、レフトビューのピクチャは、それぞれ交互に現れることになる。図9に示されるレフトビューの画像及びライトビューの画像は、画像内に現れる人物の顔の向きや位置が、レフトビュー画像と、ライトビュー画像とで僅かながらずれていることを模式的に示している(尚、図9、図10における人物の顔の向きや位置のズレは模式的なものである。)。
 図10は、目の残像反応により形成される立体映像を示す図である。
 以上で、エンハンスドビュービデオストリームの内部構成についての説明を終える。
 続いてグラフィクス字幕ストリームについて説明する。図11は、グラフィクス字幕ストリームの構成を示す図である。図11(a)の第1段目は、AVClipを構成するTSパケット列を示す。第2段目は、グラフィクス字幕ストリームを構成するPESパケット列を示す。第2段目におけるPESパケット列は、第1段目におけるTSパケットのうち、所定のPIDをもつTSパケットからペイロードを取り出して、連結することにより構成される。
 第3段目は、グラフィクス字幕ストリームの構成を示す。グラフィクス字幕ストリームは、PCS(Presentation Composition Segment)、WDS(Window Define Segment)、PDS(Palette Difinition Segment)、ODS(Object_Definition_Segment)、END(END of Display Set Segment)と呼ばれる機能セグメントからなる。これらの機能セグメントのうち、PCSは、画面構成セグメントと呼ばれ、WDS,PDS,ODS,ENDは定義セグメントと呼ばれる。PESパケットと機能セグメントとの対応関係は、1対1の関係、1対多の関係である。つまり機能セグメントは、1つのPESパケットに変換されてBD-ROMに記録されるか、又は、フラグメント化され、複数PESパケットに変換されてBD-ROMに記録される。
 図11(b)は、機能セグメントを変換することで得られるPESパケットを示す図である。図11(b)に示すようにPESパケットは、『パケットヘッダ』と、『ペイロード』とからなり、このペイロードが機能セグメント実体にあたる。またパケットヘッダには、この機能セグメントに対応するDTS、PTSが存在する。尚以降の説明では、機能セグメントが格納されるPESパケットのヘッダ内に存在するDTS及びPTSを、機能セグメントのDTS及びPTSとして扱う。
 これら様々な種別の機能セグメントは、図12のような論理構造を構築する。図12は、様々な種別の機能セグメントにて構成される論理構造を示す図である。本図は第3段目に機能セグメントを、第2段目にDisplay Setを、第1段目にEpochをそれぞれ示す。
 第2段目のDisplay Set(DSと略す)とは、グラフィクス字幕ストリームを構成する複数機能セグメントのうち、一画面分のグラフィクスを構成するものの集合をいう。図中の破線kz1は、第3段目の機能セグメントが、どのDSに帰属しているかという帰属関係を示す。PCS-WDS-PDS-ODS-ENDという一連の機能セグメントが、1つのDSを構成していることがわかる。再生装置は、このDSを構成する複数機能セグメントをBD-ROMから読み出せば、一画面分のグラフィクスを構成することができる。
 第1段目のEpochとは、AVClipの再生時間軸上においてメモリ管理の連続性をもっている一つの期間、及び、この期間に割り当てられたデータ群をいう。ここで想定しているメモリとは、一画面分のグラフィクスを格納しておくためのグラフィクスプレーン、伸長された状態のグラフィクスデータを格納しておくためのオブジェクトバッファである。これらについてのメモリ管理に、連続性があるというのは、このEpochにあたる期間を通じてこれらグラフィクスプレーン及びオブジェクトバッファのフラッシュは発生せず、グラフィックスプレーン内のある決められた矩形領域内でのみ、グラフィクスの消去及び再描画が行われることをいう(※ここでフラッシュとは、プレーン及びバッファの格納内容を全部クリアしてしまうことである。)。この矩形領域の縦横の大きさ及び位置は、Epochにあたる期間において、終始固定されている。グラフィックスプレーンにおいて、この固定化された領域内で、グラフィクスの消去及び再描画を行っている限り、映像とグラフィクスとの同期が保障される。つまりEpochは、映像-グラフィクスの同期の保障が可能な再生時間軸上の一単位ということができる。グラフィックスプレーンにおいて、グラフィクスの消去・再描画を行うべき領域を変更したい場合は、再生時間軸上においてその変更時点を定義し、その変更時点以降を、新たなEpochにせねばならない。この場合、2つのEpochの境界では、映像-グラフィクスの同期は保証されない。
 Epochにおける字幕の位置関係にたとえれば、再生時間軸上において、画面上のある決まった矩形領域内に字幕が出現している期間が、Epochということができる。図13は、字幕の表示位置と、Epochとの関係を示す図である。本図では、動画の各ピクチャの絵柄に応じて字幕の位置を変更するという配慮がなされている。つまり5つの字幕「本当に」「ごめん」「あれから」「3年がたった」のうち、2つの字幕「本当に」「ごめん」は画面の下側に、「あれから」「3年がたった」は画面の上側に配置されている。これは画面の見易さを考え、画面中の余白にあたる位置に字幕を配置することを意図している。かかる時間的な変動がある場合、AVClipの再生時間軸において、下側の余白に字幕が出現している期間が1つのEpoch1、上側の余白に字幕が出現している期間が別のEpoch2になる。これら2つのEpochは、それぞれ独自の字幕の描画領域をもつことになる。Epoch1では、画面の下側の余白が字幕の描画領域(window1)になる。一方Epoch2では、画面の上側の余白が字幕の描画領域(window2)になる。これらのEpoch1,2において、バッファ・プレーンにおけるメモリ管理の連続性は保証されているので、上述した余白での字幕表示はシームレスに行われる。以上がEpochについての説明である。続いてDisplay Setについて説明する。
 図12における破線hk1,2は、第2段目の機能セグメントが、どのEpochに帰属しているかという帰属関係を示す。Epoch Start,Acquisition Point,Normal Caseという一連のDSは、第1段目のEpochを構成していることがわかる。『Epoch Start』、『Acquisition Point』、『Normal Case』は、DSの類型である。本図におけるAcquisition Point、Normal Caseの順序は、一例にすぎず、どちらが先であってもよい。
 『Epoch Start』は、新たなEpochの開始を示す。そのためEpoch Startは、次の画面合成に必要な全ての機能セグメントを含んでいる。Epoch Startは、映画作品におけるチャプター等、頭出しがなされることが判明している位置に配置される。
 『Acquisition Point』は、Epochの開始時点ではないが、次の画面合成に必要な全ての機能セグメントを含んでいるDisplay Setである。Acquisition PointたるDSから頭出しを行えば、グラフィックス表示を確実に実現することができる。つまりAcquisition PointたるDSは、Epochの途中からの画面構成を可能するという役割をもつ。Acquisition PointたるDisplay Setは、頭出し先になり得る位置に組み込まれる。そのような位置には、タイムサーチにより指定され得る位置がある。タイムサーチとは、何分何秒という時間入力をユーザから受け付けて、その時間入力に相当する再生時点から頭出しを行う操作である。かかる時間入力は、10分単位、10秒単位というように、大まかな単位でなされるので、10分間隔の再生位置、10秒間隔の再生位置がタイムサーチにより指定され得る位置になる。このようにタイムサーチにより指定され得る位置にAcquisition Pointを設けておくことにより、タイムサーチ時のグラフィクス字幕ストリーム再生を好適に行うことができる。
 『Normal Case』は、前のDisplay Setからの差分のみを含む。例えば、あるDSvの字幕は、先行するDSuと同じ内容であるが、画面構成が、この先行するDSuとは異なる場合、PCSと、ENDのみのDSvを設けてこのDSvをNormal CaseのDSにする。こうすれば、重複するODSを設ける必要はなくなるので、BD-ROMにおける容量削減に寄与することができる。一方、Normal CaseのDSは、差分にすぎないので、Normal Case単独では画面構成は行えない。
 続いてDefinition Segment(ODS,WDS,PDS)について説明する。

 『Object_Definition_Segment』は、グラフィクス字幕を定義する機能セグメントである。このグラフィクス字幕について以下説明する。BD-ROMに記録されているAVClipは、ハイビジョン並みの高画質をセールスポイントにしているため、グラフィクス字幕の解像度も、1920×1080画素という高精細な大きさに設定されている。1920×1080という解像度があるので、BD-ROMでは、劇場上映用の字幕の字体、つまり、手書きの味わい深い字体の字幕表示を鮮やかに再現できる。グラフィクス字幕は複数のランレングスデータからなる。ランレングスデータとは、ピクセル値を示すピクセルコードと、ピクセル値の連続長とにより、画素列を表現したデータである。ピクセルコードは、8ビットの値であり、1~255の値をとる。ランレングスデータでは、このピクセルコードによりフルカラーの16,777,216色から任意の256色を選んで画素の色として設定することができる。尚、字幕として表示される場合、グラフィクス字幕は、透明色の背景に、文字列を配置することで描画せねばならない。

 ODSによるグラフィクス字幕の定義は、図14(a)に示すようなデータ構造をもってなされる。ODSは、図14(a)に示すように自身がODSであることを示す『segment_type』と、ODSのデータ長を示す『segment_length』と、EpochにおいてこのODSに対応するグラフィクス字幕を一意に識別する『object_id』と、EpochにおけるODSのバージョンを示す『object_version_number』と、『last_in_sequence_flag』と、グラフィクス字幕の一部又は全部である連続バイト長データ『object_data_fragment』とからなる。
 『Palette Difinition Segment(PDS)』は、パレットデータを格納する機能セグメントである。パレットデータとは、1~255のピクセルコードと、ピクセル値との組合せを示すデータである。ここでピクセル値は、赤色差成分(Cr値),青色差成分(Cb値),輝度成分(Y値),透明度(T値)から構成される。各ランレングスデータが有するピクセルコードを、パレットに示されるピクセル値に置き換えることで、ランレングスデータは発色されることになる。PDSのデータ構造を図14(b)に示す。図14(b)に示すようにPDSは、自身がPDSであることを示す『segment_type』、PDSのデータ長を示す『segment_length』、このPDSに含まれるパレットを一意に識別する『pallet_id』、EpochにおけるEpochのPDSのバージョンを示す『pallet_version_number』、各エントリーについての情報『pallet_entry』からなる。『pallet_entry』は、各エントリーにおける赤色差成分(Cr値),青色差成分(Cb値),輝度成分Y値,透明度(T値)を示す。
 続いてWDSについて説明する。
 『window_definition_segment』は、グラフィックスプレーンの矩形領域を定義するための機能セグメントである。Epochでは、クリア及び再描画が、グラフィックスプレーンにおけるある矩形領域内で行われている場合のみ、メモリ管理に連続性が生ずることは既に述べている。このグラフィックスプレーンにおける矩形領域は"window"と呼ばれ、このWDSで定義される。図15(a)は、WDSのデータ構造を示す図である。本図に示すようにWDSは、グラフィックスプレーンにおいてウィンドゥを一意に識別する『window_id』と、グラフィックスプレーンにおける左上画素の水平位置を示す『window_horizontal_position』と、グラフィックスプレーンにおける左上画素の垂直位置を示す『window_vertical_position』と、グラフィックスプレーンにおけるウィンドゥの横幅を示す『window_width』と、グラフィックスプレーンにおける縦幅を示す『window_height』とを用いて表現される。
 window_horizontal_position、window_vertical_position、window_width、window_heightがとりうる値について説明する。これらが想定している座標系は、グラフィックスプレーンの内部領域であり、このグラフィックスプレーンは、縦:video_height、横:video_widthという二次元状の大きさをもつ。
 window_horizontal_positionは、グラフィックスプレーンにおける左上画素の水平アドレスであるので、1~video_widthの値をとり、window_vertical_positionは、グラフィックスプレーンにおける左上画素の垂直アドレスであるので1~video_heightの値をとる。
 window_widthは、グラフィックスプレーンにおけるウィンドゥの横幅であるので、1~video_width-window_horizontal_positionの値をとり、window_heightは、グラフィックスプレーンにおける縦幅であるので1~video_height-window_vertical_positionの値をとる。
 WDSのwindow_horizontal_position、window_vertical_position、window_width、window_heightにより、グラフィックスプレーンの何処にウィンドゥを配置するか、ウィンドゥの大きさをどれだけにするかをEpoch毎に規定することができる。そのため、あるEpochに属するピクチャが表示されている期間において、ピクチャ内の絵柄の邪魔にならないように、ピクチャ上の余白にあたる位置に、ウィンドゥが現れるようオーサリング時に調整しておくことができる。これによりグラフィクスによる字幕表示を見易くすることができる。WDSはEpoch毎に定義可能なので、ピクチャの絵柄に時間的な変動があっても、その変動に応じて、グラフィクスを見易く表示することができる。そのため、結果として、字幕を映像本体に組み込むのと同じレベルにまで映画作品の品質を高めることができる。
 続いて『END of Display Set Segment』について説明する。END of Display Set Segmentは、Display Setの伝送の終わりを示す指標であり、Display Setにおける機能セグメントのうち、最後のODSの直後に配置される。この END of Display SetSegmentの内部構成は、自身が END of Display SetSegmentであることを示す『segment_type』と、当該機能セグメントのデータ長を示す『segment_length』とからなり、これといって説明が必要な構成要素はない。故に図示は省略する。
 以上がODS、PDS、WDS、ENDについての説明である。続いてPCSについて説明する。
 PCSは、対話的な画面を構成する機能セグメントである。PCSは、図15(b)に示すデータ構造で構成される。本図に示すようにPCSは、『segment_type』と、『segment_length』と、『composition_number』と、『composition_state』と、『pallet_update_flag』と、『pallet_id』と、『composition_object(1)~(m)』とから構成される。
 『composition_number』は、0から15までの数値を用いてDisplay Setにおけるグラフィクスアップデートを識別する。どのように識別するかというと、Epochの先頭から本PCSまでにグラフィクスアップデートが存在すれば、それらグラフィクスアップデートを経由する度に、インクリメントされるというルールでcomposition_numberは設定される。
 『composition_state』は、本PCSから始まるDisplay Setが、Normal Caseであるか、ACquisition Pointであるか、Epoch Startであるかを示す。
 『pallet_update_flag』は、本PCSにおいてPalletOnly Displey Updateがなされているかどうかを示す。PalletOnly Displey Updateとは、直前のパレットのみを新たなものに切り換えることでなされるアップデートをいう。本PCSでかかるアップデートがなされれば、本フィールドは"1"に設定される。
 『pallet_id』は、本PCSにおいてPalletOnly Displey Updateがなされているかどうかを示す。PalletOnly Displey Updateとは、直前のDisplay Setから、パレットのみを新たなものに切り換えることでなされるアップデートをいう。本PCSでかかるアップデートがなされる場合、本フィールドは"1"に設定される。
 『composition_object(1)・・・(n)』は、このPCSが属するDisplay Setにおける画面構成を実現するための制御情報である。図15(b)の破線wd1は、任意のcomposition_object(i)の内部構成をクローズアップしている。この破線wd1に示すように、composition_object(i)は、『object_id_ref』、『window_id_ref』、『object_cropped_flag』、『object_horizontal_position』、『object_vertical_position』、『cropping_rectangle情報(1)(2)・・・・・(n)』からなる。
 『object_id_ref』は、グラフィクス字幕識別子(object_id)の参照値である。この参照値は、composition_object(i)に対応する画面構成を実現するにあたって、用いるべきグラフィクス字幕の識別子を意味する。
 『window_id_ref』は、ウィンドゥ識別子(window_id)の参照値である。この参照値は、composition_object(i)に対応する画面構成を実現するにあたって、どのウィンドゥに、グラフィクス字幕を表示させるべきかを示す。
 『object_cropped_flag』は、オブジェクトバッファにおいてクロップされたグラフィクス字幕を表示するか、グラフィクス字幕を非表示とするかを切り換えるフラグである。"1"と設定された場合、オブジェクトバッファにおいてクロップされたグラフィクス字幕が表示され、"0"と設定された場合、グラフィクス字幕は非表示となる。
 『object_horizontal_position』は、グラフィックスプレーンにおけるグラフィクス字幕の左上画素の水平位置を示す。
 『object_vertical_position』は、グラフィックスプレーンにおける左上画素の垂直位置を示す。
 『cropping_rectangle情報(1)(2)・・・・・(n)』は、『object_cropped_flag』が1に設定されている場合に有効となる情報要素である。破線wd2は、任意のcropping_rectangle情報(i)の内部構成をクローズアップしている。この破線に示すようにcropping_rectangle情報(i)は、『object_cropping_horizontal_position』、『object_cropping_vertical_position』、『object_cropping_width』、『object_cropping_height』からなる。
 『object_cropping_horizontal_position』は、グラフィックスプレーンにおけるクロップ矩形の左上画素の水平位置を示す。クロップ矩形は、グラフィクス字幕の一部を切り出すための枠であり、ETSI EN 300 743標準規格における"Region"に相当する。
 『object_cropping_vertical_position』は、グラフィックスプレーンにおけるクロップ矩形の左上画素の垂直位置を示す。
 『object_cropping_width』は、グラフィックスプレーンにおけるクロップ矩形の横幅を示す。
 『object_cropping_height』は、グラフィックスプレーンにおけるクロップ矩形の縦幅を示す。
 以上がPCSのデータ構造である。続いてPCSの具体的な記述について説明する。この具体例は、動画の再生進行に伴い、複数のグラフィックスプレーンへの書き込みで『ほんとに』『ごめん』というように徐々に表示させるというものである。ここで想定するEpochは、DS1(Epoch Start)、DS2(Normal Case)を有する。DS1は、字幕の表示枠となるwindowを定義するWDS、台詞『ほんとに ごめん』を表すODS、1つ目のPCSを備える。DS2(Normal Case)は、2つ目のPCSを有すものとする。
 次に個々のPCSをどのように記述するかについて説明する。Display Setに属するWDS、PCSの記述例を図16に示す。図16は、ディスプレイセットにおけるPCSの記述例を示す図である。
 図16(a)において、WDSのwindow_horizontal_position、window_vertical_positionは、グラフィックスプレーンにおけるウィンドゥの左上座標LP1を、window_width,window_heightは、ウィンドゥの表示枠の横幅、縦幅を示す。
 図16(a)におけるクロップ情報のobject_cropping_horizontal_position,object_cropping_vertical_positionは、オブジェクトバッファにおけるグラフィクス字幕の左上座標を原点とした座標系においてクロップ範囲の基準SDTを示している。そして基準点からobject_cropping_width、object_cropping_heightに示される範囲(図中の太枠部分)がクロップ範囲になる。クロップされたグラフィクス字幕は、グラフィックスプレーンの座標系においてobject_horizontal_position,object_vertical_positionを基準点(左上)とした破線の範囲cp1に配置される。こうすることにより、『本当に』がグラフィックスプレーンにおけるウィンドゥ内に書き込まれる。これにより字幕『本当に』は動画像と合成され表示される。
 図16(b)は、DS2におけるPCSの記述例を示す図である。本図におけるWDSの記述は、図17と同じなので説明を省略する。クロップ情報の記述は、図16(b)と異なる。図16(b)におけるクロップ情報のobject_cropping_horizontal_position,object_cropping_vertical_position,は、オブジェクトバッファ上の字幕『本当にごめん』のうち、『こめん』の左上座標を示し、object_cropping_height,object_cropping_widthは、『ごめん』の横幅、縦幅を示す。こうすることにより、『ごめん』がグラフィックスプレーンにおけるウィンドゥ内に書き込まれる。これにより字幕『ごめん』は動画像と合成され表示される。
 以上が機能セグメントについての説明である。続いてこれらPCS、ODSを有したDisplay Setが、AVClipの再生時間軸上にどのように割り当てられるかについて説明する。Epochは、再生時間軸上においてメモリ管理が連続する期間であり、Epochは1つ以上のDisplay Setから構成されるので、Display SetをどうやってAVClipの再生時間軸に割り当てるかが問題になる。ここでAVClipの再生時間軸とは、AVClipに多重されたビデオストリームを構成する個々のピクチャデータのデコードタイミング、再生タイミングを規定するための想定される時間軸をいう。この再生時間軸においてデコードタイミング、再生タイミングは、90KHzの時間精度で表現される。Display Set内のPCS、ODSに付加されたDTS、PTSは、この再生時間軸において同期制御を実現すべきタイミングを示す。このPCS、ODSに付加されたDTS、PTSを用いて同期制御を行うことが、再生時間軸へのDisplay Setの割り当てである。
 Epochに属するDisplay Setのうち、任意のDisplay SetをDSnとすると、DSnは、図17に示すようなDTS、PTS設定によりAVClipの再生時間軸に割り当てられる。図17は、DSnが割り当てられた、AVClipの再生時間軸を示す図である。本図においてDSnの始期は、DSnに属するPCSのDTS値(DTS(DSn[PCS]))により示されており、終期は、DSnに属するPCSのPTS値(PTS(DSn[PCS]))により示されている。そしてDSnにおいて最初の表示が行われるタイミングも、PCSのPTS値(PTS(DSn[PCS]))に示されている。AVClip再生時間軸において、ビデオストリームの所望のピクチャが出現するタイミングと、PTS(DSn[PCS])とを一致させれば、DSnの最初の表示は、そのビデオストリームと同期することになる。
 PTS(DSn[PCS])は、DTS(DSn[PCS])に、ODSのデコードに要する期間(DECODEDURATION)を足し合わせた値である。
 最初の表示に必要なODSのデコードは、このDECODEDURATION内に行われることになる。図17の期間mc1は、DSnに属する任意のODS(ODSm)のデコードがなされる期間を示す。このデコード期間の開始点は、DTS(ODSn[ODSm])により示され、このデコードの終了点は、PTS(ODSn[ODSm])により示される。
 以上のような再生時間軸への割り付けを、Epochに属する全てのODSに対して行うことで、Epochは規定されることになる。以上が再生時間軸に対する割り付けについての説明である。
 以上がグラフィクスストリームについての説明である。
 図18は、ODSによって定義されるグラフィクス字幕の類型を示す図である。(a)は、平仮名文字の字幕をなすグラフィクス字幕であり、(b)は、振り仮名付き文字の字幕をなるグラフィクス字幕である。(c)は、拡大文字の字幕をなすグラフィクス字幕であり、(d)、(e)は、厚み付き文字の字幕をなすグラフィクス字幕である。これら(d)、(e)における文字の厚みは、(d)のものと、(e)のものとで見える角度が微妙に違っている。そのため、これらの厚み付き文字を、レフトビュー字幕、ライトビュー字幕として、レフトビュー動画像、ライトビュー動画像と共に再生させれば、動画像の立体視と共に、字幕の立体視を実現することができる。これらは、字幕の表示方式の制御を有効とする場合に、その制御の内容に応じて適宜選択される。
 続いて、このグラフィクスストリームを用いて立体視を実現する場合の改良について説明する。
 図19は、ベースビューを構成する字幕ストリーム、エンハンスドビューを構成する字幕ストリームがどのようにデコードされるかを示す。
 立体視を実現する場合、上述したようなグラフィクスデコーダ、グラフィクスプレーン、ビデオプレーンは、2系統用意される。これらのうち、ベースビューのためのグラフィクスデコーダ、グラフィクスプレーン、ビデオプレーンを、基本グラフィクスデコーダ、基本グラフィクスプレーン、基本ビデオプレーンという。一方、エンハンスドビューのためのグラフィクスデコーダ、グラフィクスプレーン、ビデオプレーンを拡張グラフィクスデコーダ、拡張グラフィクスプレーン、拡張ビデオプレーンと呼ぶ。
 そして、上述したように、0x1220~0x123FのPIDをもつソースパケットがデコードされることで、基本グラフィクスデコーダ内のオブジェクトバッファには、これらのソースパケットをデコードすることにより得られたグラフィクス字幕が格納される。そして、基本グラフィクスプレーンには、これらのソースパケットをデコードすることにより得られたグラフィクス字幕が書き込まれて、基本ビデオプレーンに格納されたピクチャとの合成に供される。
 並行して、0x1240~0x125FのPIDをもつソースパケットがデコードされることで、拡張グラフィクスデコーダ内のオブジェクトバッファには、これらのソースパケットをデコードすることにより得られたグラフィクス字幕が格納される。そして、拡張グラフィクスプレーンには、これらのソースパケットをデコードすることにより得られたグラフィクス字幕が書き込まれて、拡張ビデオプレーンに格納されたピクチャとの合成に供される。
 ここで、図18に示した厚み付き文字を表すグラフィクス字幕が、左右にずれた状態で基本グラフィクスプレーン、拡張グラフィクスプレーンに書き込まれることにより、グラフィクスが、映像より前に浮き出て見える。
 図20は、ベースビュービデオストリーム及びエンハンスドビュービデオストリームの再生と、ベースビュー字幕ストリーム及びエンハンスドビュー字幕ストリームの再生とが、同期する場合に再生される立体視映像の一例を示す。基本グラフィクスプレーン、拡張グラフィクスプレーンのそれぞれに、グラフィクスを書き込むので、立体視映像には、字幕が立体的に現れることになる。
 図21は、window_horizontal_position、window_vertical_positionによって規定されたグラフィクスプレーンにおけるウィンドゥの座標、及び、object_horizontal_position,object_vertical_positionによって規定されたグラフィクスプレーンにおけるグラフィクス字幕の座標が、立体視字幕に対してどのように影響するかを示す。レフトビューグラフィクスプレーンにおけるウィンドゥ及びグラフィクス字幕の位置と、ライトビューグラフィクスプレーンにおけるウィンドゥ及びグラフィクス字幕の位置との間隔を、図21では"オフセット"と呼んでいる。そして、(a)は、オフセットが大きく、レフトビューの字幕と、ライトビューの字幕との間隔が広いケースを示し、(b)は、オフセットが狭く、レフトビューの字幕と、ライトビューの字幕との間隔が狭いケースを示す。
 (a)に示すようにレフトビューグラフィクスプレーンにおけるウィンドゥ及びグラフィクス字幕の位置と、ライトビューグラフィクスプレーンにおけるウィンドゥ及びグラフィクス字幕の位置との間隔が広ければ広い程、立体視字幕は手前にくる。逆に、(b)に示すように、レフトビューグラフィクスプレーンにおけるウィンドゥ及びグラフィクス字幕の位置と、ライトビューグラフィクスプレーンにおけるウィンドゥ及びグラフィクス字幕の位置との間隔が狭ければ狭いば程、立体視字幕は奥に遠退く。
 以上の規則性が存在するので、オーサリングを実行するにあたっては、立体視動画像に対して、立体視字幕が適切な位置になるように、ベースビューグラフィクスストリームのPCSのwindow_horizontal_position、window_vertical_position、object_horizontal_position,object_vertical_position、エンハンスドビューストリームのPCSのwindow_horizontal_position、window_vertical_position、object_horizontal_position,object_vertical_positionを、適切な座標に設定しておく必要がある。
 以上で、ベースビュー字幕ストリーム、エンハンスドビュー字幕ストリームの内部構成についての説明を終える。続いて、クリップ情報ファイルについて説明する。
 字幕には、以上に説明した、ランレングスグラフィクスデータによって定義されるグラフィクス字幕ストリームの他に、テキストコードと、フォントによって定義されるテキスト字幕ストリームによって定義されるテキスト字幕ストリームが存在する。これらは、データ構造が違うものの、字幕としての用途は同じであるので、一律に扱われる。テキスト字幕ストリームと比較すると、グラフィクスストリーム字幕ストリームは、オーサリング時の手間が大きいものの、立体視のための厚み等を好適に表現することができ、再生品位を高くすることができるという利点がある。 

 <クリップ情報ファイル>
 図22は、クリップ情報ファイルの一例を示す図である。クリップ情報ファイルは、本図に示すようにAVクリップの管理情報であり、AVクリップと1対1に対応し、ストリーム属性テーブルとエントリーマップテーブルから構成される。
 引き出し線zh1は、ストリーム属性テーブルの内部構成をクローズアップして示している。ストリーム属性テーブルはこの引出線に示すように、AVクリップに含まれる各ストリームについての属性情報が、PID毎に登録される。属性情報はベースビューストリーム、エンハンスドビューストリーム毎に異なる情報を持つ。
 引き出し線zh2は、ベースビューストリームの内部構成をクローズアップして示している。引出線に示すように、PID=0x1011のTSパケットによって構成されるベースビューのストリーム属性情報として、コーディック、解像度、アスペクト比、フレームレートが記述される。
 続いて、エントリーマップテーブルの内部構成について説明する。
 エントリーマップは、あるパケットIDを用いて特定されるSTC時間軸のうち、任意のソースパケットのソースパケット番号と、STC時間軸におけるPTSとの対応付けを示すテーブルである。
 STC時間軸は、デコード時刻、表示時刻を表すMPEG2-TSの時間軸である。AVストリームのシステム基準時刻であるSTC(System Time Clock)の不連続点(system time-base discontinuity)が存在しない1つのソースパケットのまとまりを"STCシーケンス"と呼ぶ。

 図23(a)は、エントリーマップテーブルの内部構成を示す図である。引き出し線eh1は、エントリーマップテーブルの内部構成をクローズアップして示している。
 引出線eh1に示すように、エントリーマップテーブルは、PID=0x1011のTSパケットによって構成されるベースビューストリームについてのエントリーマップ、PID=0x1012のTSパケットによって構成されるエンハンスドビューストリームについてのエントリーマップというように、複数種別のTSパケットによって構成されるパケッタイズドエレメンタリストリームのそれぞれについて、エントリーマップが存在する。エントリーマップにおいて、一対となるPTSとSPNとの組みを含む情報を"エントリーポイント"と呼ぶ。エントリーポイントは、PTSとSPNとの組みに、当該SPNからのデコードが可能であるか否かを示す表示方式フラグ(is_angle_changeフラグ)を対応付けた情報である。また先頭を0として各エントリーポイント毎にインクリメントした値を"エントリーポイントID(以下EP_ID)"と呼ぶ。
 このエントリーマップを利用することにより、再生装置はビデオストリームの時間軸上の任意の地点に対応するソースパケット位置を特定することが出来るようになる。例えば、早送り・巻戻しの特殊再生の際には、エントリーマップに登録されるIピクチャを特定し選択して再生することによりAVクリップを解析することなく効率的に処理を行うことが出来る。また、エントリーマップはAVクリップ内に多重化される各ビデオストリーム毎に作られ、PIDで管理される。
 引き出し線eh2は、PID=0x1011のエントリーマップの内部構成をクローズアップして示している。EP_ID=0に対応するエントリーポイント、EP_ID=1に対応するエントリーポイント、EP_ID=2に対応するエントリーポイント、EP_ID=3に対応するエントリーポイントから構成される。EP_ID=0に対応するエントリーポイントは、オンに設定されたis_angle_changeフラグと、SPN=3と、PTS=80000とから構成される。EP_ID=1に対応するエントリーポイントは、オフに設定されたis_angle_changeフラグと、SPN=1500と、PTS=270000とから構成される。
 EP_ID=2に対応するエントリーポイントは、オフに設定されたis_angle_changeフラグと、SPN=3200と、PTS=360000とから構成される。EP_ID=3に対応するエントリーポイントは、オフに設定されたis_angle_changeフラグと、SPN=4800と、PTS=450000とを含んでいる。
 本図(b)は、(a)に示したPID=0x1011のTSパケットに対応するエントリーマップ内の複数のエントリーマップによって、どのソースパケットを指示されるかを示す。EP_ID=0に対応するエントリーマップは、SPN=3を指し示しており、このソースパケット番号をPTS=80000と対応付けている。EP_ID=1に対応するエントリーマップは、SPN=1500を指し示しており、このソースパケット番号をPTS=270000に対応付けている。
 EP_ID=2に対応するエントリーマップは、SPN=3200のソースパケットを指し示しており、このソースパケット番号をPTS=360000に対応付けている。EP_ID=3に対応するエントリーマップは、SPN=4800のソースパケットを指し示しおり、このソースパケット番号をPTS=450000と対応付けている。
 図24は、エントリーマップによるエントリーポイントの登録を示す。第1段目は、STCシーケンスにて規定される時間軸を示す。第2段目は、クリップ情報におけるエントリーマップを示す。第3段目は、STCシーケンスを構成するソースパケット列を示す。
 矢印te1,te2,te3,te4は、STC時間軸における再生時点t1,t11,t21,t31と、エントリーポイントとの対応関係を模式的に示しており、矢印sh1,sh2,sh3,sh4は、ATCsequeceにおけるSPN=n1,n11,n21,n31と、エントリーポイントとの対応関係を模式的に示している。
 エントリーマップが、ATCシーケンスのうちSPN=n1のソースパケットを指定している場合、このエントリーマップのPTSには、STCシーケンスにおけるPTS=t1に設定しておく。そうすると、PTS=t1という時点を用いて、ATCシーケンスにおけるSPN=n1からのランダムアクセスを再生装置に実行させることができる。またエントリーマップが、ATCシーケンスのうちSPN=n21のソースパケットを指定している場合、このエントリーマップのPTSには、STCシーケンスにおけるPTS=t21に設定しておく。そうすると、PTS=t21という時点を用いて、ATCシーケンスにおけるSPN=n21からのランダムアクセスを再生装置に実行させることができる。
 図25は、レフトビュー、ライトビューのそれぞれに対応するエントリーマップが、どのように設定されているかを示す図である。本図における対応付けは、エントリーマップにおける各エントリーマップのソースパケット番号に、STCシーケンスにおけるソースパケット番号を記述しておき、エントリーマップにおける各エントリーマップのPTSに、STCシーケンスにおけるPTSを記述しておくことでなされる。時間軸のソースパケットと、時間軸との対応付けが、エントリーマップによってどのようにとられているかを示す。
 矢印th1,th2,th3,th4は、STC時間軸における再生時点t1,t2,、エントリーポイントとの対応関係を模式的に示しており、矢印sh1,sh2,sh3,sh4は、ATCsequeceにおけSPN=n1,n11,n8,n18と、エントリーポイントとの対応関係を模式的に示している。
 第5段目は、インターリーブ記録されたレフトビュー、ライトビューのエクステントであり、これまでの図に示したものと同一である。第4段目は、PID=0x1011、PID=0x1012のそれぞれに対応するエントリーマップである。PID=0x1011に対応するエントリーマップは、n1を指し示すエントリーポイント、n8を指し示すエントリーポイントを含む。これらのエントリーポイントは、n1,n8と、STC時間軸におけるt1、t2との対応付けを示す。PID=0x1012に対応するエントリーマップは、n11を指し示すエントリーポイント、n18を指し示すエントリーポイントを含む。これらのエントリーポイントは、n11,n18と、STC時間軸におけるt1、t2との対応付けを示す。
 以上により、時間軸において、同じ再生時点で再生されるべきレフトビュー、ライトビューのエクステントは、AVデータ記録領域においてバラバラな位置に記録されつつも、各々に対応付けられたエントリーマップを用いることで、レフトビューのエクステント、ライトビューのエクステントの先頭となるソースパケットは、PTSを用いて一意にアクセスされることになる。
 以上がクリップ情報ファイルについての説明である。続いて、プレイリスト情報の詳細について説明する。
 図26は、プレイリスト情報のデータ構造を示す図であり、本図において、引き出し線mp1に示すようにプレイリスト情報は、再生属性情報、メインパス情報、サブパス情報テーブル、エクステンションデータを含む。
 先ず再生属性情報について説明する。引出線mp3は、再生属性情報の内部構成をクローズアップして示している。引出線mp3に示すように、再生属性情報は、該当コンテンツがベースとしている規格の「バージョン番号」、「再生タイプ」、「立体再生フラグ」を含む。バージョン番号としては、BD-ROMアプリケーションフォーマットバージョン2.00等というバージョン番号を格納することができる。また、再生タイプとしては、プレイリストに含まれるプレイアイテムを先頭から順番に再生していくことを意味する"シーケンシャル"や、"ランダム/シャッフル"に再生すること再生装置に指示することができる。
 次にメインパス情報について説明する。引き出し線mp1は、メインパス情報の内部構成をクローズアップして示している。MainPathは、矢印mp1で示すように複数のPlayItem情報#1・・・・#Nから定義される。PlayItem情報は、MainPathを構成する1つの論理的な再生区間を定義する。PlayItem情報の構成は、引き出し線mp2によりクローズアップされている。この引き出し線に示すようにPlayItem情報は、再生区間のIN点及びOut点が属するAVクリップの再生区間情報のファイル名を示す『Clip_Information_file_name』と、AVクリップの符号化方式を示す『Clip_codec_identifier』と、PlayItemがマルチアングルを構成するか否かを示す『is_multi_angle』と、このPlayItem(カレントPlayItem)と、その1つ前のPlayItem(previousPlayItem)との接続状態を示す『connection_condition』と、このPlayItemが対象としているSTC_Sequenceを一意に示す『ref_to_STC_id[0]』と、再生区間の始点を示す時間情報『In_time』と、再生区間の終点を示す時間情報『Out_time』と、このPlayItemにおいてマスクすべきユーザオペレーションがどれであるかを示す『UO_mask_table』と、このPlayItemの途中へのランダムアクセスを許可するか否かを示す『PlayItem_random_access_flag』と、このPlayItemの再生終了後、最後のピクチャの静止表示を継続するか否かを示す『Still_mode』と、『STN_table』と、『BaseView_indicator』と、『STN_table』と、『multi_clip_entry』とから構成される。このうち、再生経路を構成するのは、再生区間の始点を示す時間情報『In_time』、再生区間の終点を示す時間情報『Out_time』の組みであり、再生経路情報とは、この『In_time』及び『Out_time』の組みから構成される。
 STN_table(STream Number_table)は、パケットIDを含むストリームエントリー及びストリーム属性の組みに、論理的なストリーム番号を割り当てるテーブルである。STN_tableにおけるストリームエントリー及びストリーム属性の組みの順序は、対応するストリームの優先順位を示す。
 BaseView_indicatorは、0ならばBaseViewはLeftであり、1ならばBaseViewはRightであることを示す。
 図27は、サブパス情報テーブルの内部構成を示す図である。引き出し線su1は、サブパス情報の内部構成をクローズアップして示している。引出線su1に示すように、サブパス情報テーブルは複数のサブパス情報1,2,3・・・mを含む。これらのサブパス情報は、1つのクラス構造体から派生した複数のインスタンスであり、その内部構成は共通のものなる。引き出し線su2は、Subpath情報の共通の内部構成をクローズアップして示している。この引き出し線に示すように、各Subpath情報は、サブパスの類型を示すSubPath_typeと、1つ以上のサブプレイアイテム情報(・・・サブプレイアイテム情報#1~VOB#m・・・)とを含む。引き出し線su3は、SubPlayItemの内部構成をクローズアップして示している。この引出線に示すように、サブプレイアイテム情報は、『Clip_information_file_name』、『Clip_codec_identifier』、『ref_to_STC_id[0]』、『SubPlayItem_In_time』、『SubPlayItem_Out_time』、『sync_PlayItem_id』、『sync_start_PTS_of_PlayItem』からなる。以降、SubPlayItemの内部構成について説明する。
 『Clip_information_file_name』は、クリップ情報のファイル名を記述することにより、SubPlayItemに対応するSubClipを一意に指定する情報である。
 『Clip_codec_identifier』は、AVクリップの符号化方式を示す。
 『ref_to_STC_id[0]』は、このSubPlayItemが対象としているSTC_Sequenceを一意に示す。
 『SubPlayItem_In_time』は、SubClipの再生時間軸上における、SubPlayItemの始点を示す情報である。
 『SubPlayItem_Out_time』は、SubClipの再生時間軸上における、SubPlayItemの終点を示す情報である。
 『sync_PlayItem_id』は、MainPathを構成するPlayItemのうち、本SubPlayItemが同期すべきものを一意に指定する情報である。SubPlayItem_In_timeは、このsync_PlayItem_idで指定されたPlay Itemの再生時間軸上に存在する。
 『sync_start_PTS_of_PlayItem』は、sync_PlayItem_idで指定されたPlay Itemの再生時間軸上において、SubPlayItem_In_timeで指定されたSubPlayItemの始点が、どこに存在するかを45KHzの時間精度で示す。
 図28は、レフトビュー、ライトビューに対して、どのような再生区間が定義されているかを示す。本図は、図14をベースとして作図されており、このベースとなる図の第2段目の時間軸に、PlayItemのIn_Time及びOut_Timeを描いている。第1段目の時間軸に、SubPlayItemのIn_Time及びOut_Timeを描いている。第3段目から第5段目は、図14の第3段目から第5段目と同一である。レフトビュー、ライトビューのIピクチャは、時間軸において同じ時点になる。
 レフトビューと、ライトビューとは、プレイアイテム情報、サブプレイアイテム情報とによって、対応付けられることになる。
 エクステンションデータについて説明する。図18は、プレイリスト情報におけるエクステンションデータの内部構成を示す図である。引き出し線et1は、エクステンションデータの内部構成をクローズアップして示している。この引き出し線に示すように、エクステンションデータは、プレイアイテム情報#1~#Nのそれぞれがに対応するSTN_table_extentionから構成される。引き出し線et2は、PlayItem情報#1に対応するSTN_table_extentionの内部構成をクローズアップして示している。この引き出し線に示すように、PlayItem情報#1に対応するSTN_table_extentionは、"ビデオストリーム番号テーブル"を含む。
 図29は、ビデオストリーム番号テーブルの内部構成を示す図である。引き出し線mh1に示すように、ビデオストリーム番号テーブルは、stream_entry及びstream_attributeの組みから構成される。
 「Stream_entry」は、プライマリビデオストリームを構成するPESパケットのPIDに対する参照値を示す『ref_to_stream_PID_of_main_Clip』、NTSC,PAL等のビデオの表示方式を示す『video_format』、1/24秒、1/29.94秒などの『frame_rate』を含む。

 図30は、STN_tableにおける字幕ストリーム情報テーブルの内部構成を示す。STN_tableにおける字幕ストリーム情報テーブルは、「表示方式情報」と、「N個のストリーム情報」とから構成される。n個のストリーム情報のそれぞれは、ストリーム番号のそれぞれに対応付けられており、stream_entryと、stream_attributeとから構成される。引き出し線gh1は、stream_entryの内部構成をクローズアップして示している。stream_entryには、『ref_to_stream_PID_of_mainClip』、又は、『ref_to_Sub_Path_id』、『ref_to_SubClip__entry_id』、『ref_to_stream_PID_of_subClip』のどちらが設定される。『ref_to_stream_PID_of_SubClip』は、ストリーム番号に対応する字幕ストリームが、ビデオストリームと同じAVClipに存在する場合に、その字幕ストリームについてのPIDを示す。
 『stream_attribute』は、引き出し線gh2に示すように、「言語属性」と、「文字属性」とから構成される。引き出し線gh3は、文字属性の内部構成をクローズアップして示している。本引出線に示すように、文字属性は、「文字タイプ」と、「文字サイズ」とから構成される。引き出し線gh4は、文字タイプの構成をクローズアップしている。引出線gh4に示すように、文字タイプは、このstream_attributeに対応する字幕ストリームが、平仮名文字であるか、振り仮名付き文字であるかを示すことができる。ここでの振り仮名付き文字は、"通常表示に振り仮名をふる"という意味である。文字属性のバリエーションとしては、"カタカナ"を設定することも考えられる。
 引出線gh5は、文字サイズの内部構成をクローズアップしている。引出線gh5に示すように、文字サイズは、stream_attributeに対応する字幕ストリームの字幕文字が、拡大文字であるか、通常文字であるか、縮小文字であるかを示すことができる。
 図30(b)は、字幕ストリーム情報テーブルにおける表示方式情報の内部構成を示す。本図に示すように、表示方式情報は、"1"に設定されることにより、再生装置におけるユーザ年齢設定に応じた表示方式制御が有効である旨を示し、"0"に設定されることにより、再生装置におけるユーザ年齢設定に応じた表示方式制御が無効である旨を示す。
 以上が字幕ストリーム番号テーブルについての説明である。続いて、エクステンションデータについて説明する。図31は、プレイリスト情報におけるエクステンションデータの内部構成を示す図である。引き出し線et1は、エクステンションデータの内部構成をクローズアップして示している。この引き出し線に示すように、エクステンションデータは、プレイアイテム情報#1~#Nのそれぞれがに対応するSTN_table_extentionから構成される。引き出し線et2は、PlayItem情報#1に対応するSTN_table_extentionの内部構成をクローズアップして示している。この引き出し線に示すように、PlayItem情報#1に対応するSTN_table_extentionは、"ビデオストリーム番号テーブル"を含む。
 図32は、ビデオストリーム番号テーブルの内部構成を示す図である。
 N個のenhanced_view_is_availableフラグ及びdepth_is_availableフラグの組みe1と、N個のstream_entry及びstream_attributeの組みf1とから構成される。これらは、1~Nのストリーム番号に対応付けられており、enhanced_view_is_availableフラグは、1~Nのストリーム番号を用いることで一意に特定することができる。stream_entry及びstream_attributeの組みも、1~Nのストリーム番号を用いることで一意に特定することができる。
 「Stream_entry」は、引き出し線vh1に示すように、プライマリビデオストリームを構成するPESパケットのPIDに対する参照値を示す『ref_to_stream_PID_of_main_Clip』を含み、stream_attributeは、引出線vh2に示すように、『video_format』『frame_rate』を含む。
 これらのテーブルにおけるstream_entryの順位は、再生装置がストリームを選択するにあたって、ストリーム選択の優先順位を意味する。つまり、テーブルにおけるにおいてエントリーが高い順位にあるものを再生装置は、優先的に選択することになる。
 enhanced_view_is_availableフラグがオンであり、エンハンスドビューに設定されている場合、ref_to_stream_of_MainCLipには、0x1011のパケットIDと、0x1012のパケットIDとが記述される。
 図33は、STN_table_extensionにおける字幕ストリーム情報テーブルの内部構成を示す図である。図33(a)は、字幕ストリーム情報テーブルの全体構成を示す。本図に示すように、字幕ストリーム情報テーブルは、f3にて指示する表示方式情報と、f4にて指示するN個のストリーム情報とから構成される。n個のストリーム情報のそれぞれは、ストリーム番号のそれぞれに対応付けられており、「stream_entry」と、「stream_attribute」と、「立体表示情報」とから構成される。引き出し線gh3は、stream_entryの内部構成をクローズアップして示している。stream_entryには、『ref_to_stream_PID_of_mainClip』、又は、『ref_to_Sub_Path_id』、『ref_to_SubClip__entry_id』、『ref_to_stream_PID_of_subClip』のどちらが設定される。『ref_to_stream_PID_of_mainClip』は、ストリーム番号に対応する字幕ストリームが、ビデオストリームと同じAVClipに存在する場合に、その字幕ストリームについてのPIDを示す。
 『ref_to_Sub_Path_id』は、ストリーム番号に対応する字幕ストリームが、ビデオストリームとは異なるAVClipに存在する場合に、その字幕ストリームを参照しているサブパスのIDを示す。
 『ref_to_SubClip__entry_id』は、ストリーム番号に対応する字幕ストリームが、ビデオストリームとは異なるAVClipに存在する場合に、そのAVClipのIDを示す。
 『ref_to_stream_PID_of_SubClip』は、ストリーム番号に対応する字幕ストリームが、ビデオストリームとは異なるAVClipに存在する場合に、その字幕ストリームについてのPIDを示す。
 引き出し線gh4は、立体表示情報の内部構成をクローズアップして示している。引出線に示すように、立体表示情報は、対応する字幕ストリームが、レフトビュー用であるか、ライトビュー用であるかを示すと共に、当該ストリーム番号に対応する字幕ストリームと同時に選択すべき他の字幕ストリームのストリーム番号を示す。
 図33(b)は、字幕ストリーム情報テーブルにおける表示方式情報の内部構成を示す。本図に示すように、表示方式情報は、"1"に設定されることにより、再生装置における立体視再生設定に応じた表示方式制御が有効である旨を示し、"0"に設定されることにより、再生装置における立体視再生設定に応じた表示方式制御が無効である旨を示す。
 STN_table_extensionは、予備的に存在するので、立体表示可能でない場合、STN_tableのストリーム情報にて設定されているライトビュー用あるいはレフトビュー用のビデオストリーム又は字幕ストリームのうち、どちらか一方が指定される。 
 ただし、必ずしもビデオと字幕が共に立体表示である必要はない。
 本願明細書におけるコンテンツとは、あるタイトル番号にて管理されるプレイリスト情報と、このプレイリスト情報から参照されるAVクリップに多重化されているビデオストリームとを包含する単位であり、"タイトル"と呼ばれる。 
 また、本願における字幕ストリーム情報テーブルのデータ構造は、再生区間において立体視再生の再生方式を有効とする場合、複数の字幕ストリームのうちどれを選択させるべきかを指示する点に本質があり、字幕ストリーム情報テーブルは再生区間において立体視の表示方式を有効とする場合、同時に選択すべき2つの字幕ストリームの組合せを指示できればよいから、ストリーム番号と、これにに対応するTSパケットのパケットIDを対応付けることができるなら、どのようなデータ構造を採用してもかまわない。
 例えば、レフトビュー字幕ストリームを構成するTSパケットのパケット識別子と、ライトビュー字幕ストリームを構成するTSパケットのパケット識別子とを、ストリーム番号に対応付ける形式であってもよい。つまり、レフトビュー字幕ストリームの0x1220というパケット識別子と、ライトビュー字幕ストリームの0x1240というパケット識別子とを、ストリーム番号に対応付ける形式であってもよい。
 以上がプレイリスト情報についての説明である。続いて、再生装置の詳細について説明する。
 図34は、再生装置の内部構成を示す図である。本図において再生装置を構成する主だった部品は、フロントエンド部105、システムLSI106、メモリデバイス107、バックエンド部108、不揮発性メモリ109、ホストマイコン110、ネットワークI/F111である。
 フロントエンド部105は、データ入力源である。後述する図35において、フロントエンド部105は例えば、BD-ROMドライブ112、ローカルストレージ113を含む。
 システムLSI106は、論理素子から構成され、再生装置中核をなす。
 後述する図35の構成要素のうち、デマルチプレクサ4、ビデオデコーダ5a,b、グラフィクスデコーダ7a,b、オーディオデコーダ9、PSRセット12、再生制御エンジン14、色変換部15a、色変換部15b、合成器17a、合成器17bが、システムLSI106に包含されることになる。システムLSIは一チップで構成しても良いし、複数のチップで構成しても良い。
 メモリデバイス107は、SDRAM等のメモリ素子のアレイによって構成される。
 後述する図35の構成要素のうち、リードバッファ1、リードバッファ2、基本ビデオプレーン6a、拡張ビデオプレーン6b、基本グラフィックスプレーン8a、拡張グラフィックスプレーン8b、静的シナリオメモリ13、ヒープメモリ21、動的シナリオメモリ23が、メモリデバイス107に包含されることになる。
 バックエンド部108は、再生装置内部と、他の装置との接続インターフェイスである。後述する図35において、バックエンド部108は例えば、HDMI送受信部10を含む。
 不揮発性メモリ109は、読み書き可能な記録媒体であり、電源が供給されなくても、記録内容を保持できる媒体であり、字幕表示のためのコンフィグレーション情報のバックアップに利用される。かかる不揮発性メモリ109には、例えばフラッシュメモリ、FeRAMなどを利用することができる。
 ホストマイコン110は、MPU、ROM、RAMから構成される再生装置の中核である。後述する図35の具体的な構成要素のうち、BD-Jプラットフォーム22、コマンドインタプリタ25は、このホストマイコン110に包含されることになる。
 ネットワークインターフェース111は、再生装置の外部と通信を行うためのものであり、インターネットでアクセス可能なサーバにアクセスしたり、ローカルネットワークで接続されたサーバにアクセスしたりすることが可能である。例えば、インターネット上に公開されたBD-ROM追加コンテンツのダウンロードに用いられたり、コンテンツが指定するインターネット上のサーバとの間でデータ通信を行うこうことでネットワーク機能を利用したコンテンツの再生を可能としたりする。BD-ROM追加コンテンツとは、オリジナルのBD-ROMにないコンテンツで、例えば追加の副音声、字幕、特典映像、アプリケーションなどである。BD-Jプラットフォームからネットワークインターフェース111を制御することができ、インターネット上に公開された追加コンテンツをローカルストレージ113にダウンロードすることができる。
 上述したように、フロントエンド部105は例えば、BD-ROMドライブ112、ローカルストレージ113を含む。
 BD-ROMドライブ112は例えば、半導体レーザ(図示せず)、コリメートレンズ(図示せず)、ビームスプリッタ(図示せず)、対物レンズ(図示せず)、集光レンズ(図示せず)、光検出器(図示せず)を有する光学ヘッド(図示せず)を備える。半導体レーザから出射された光ビームは、コリメートレンズ、ビームスプリッタ、対物レンズを通って、光ディスクの情報面に集光される。集光された光ビームは、光ディスク上で反射/回折され、対物レンズ、ビームスプリッタ、集光レンズを通って、光検出器に集光される。光検出器にて集光された光の光量に応じて、生成された信号がBD-ROMから読み出されたデータに対応する。
 ローカルストレージ113は、ビルドインメディア、リムーバブルメディアを備え、ダウンロードしてきた追加コンテンツやアプリケーションが使うデータなどの保存に用いられる。追加コンテンツの保存領域はBD-ROM毎に分かれており、またアプリケーションがデータの保持に使用できる領域はアプリケーション毎に分かれている。また、ダウンロードした追加コンテンツをどのようにBD-ROM上のデータとマージされるか、マージ規則が記載されたマージ管理情報もこのビルドインメディア、リムーバブルメディアに保存される。
 ビルドインメディアとは例えば再生装置に内蔵されたハードディスクドライブ、メモリなどの書き込み可能な記録媒体である。
 リムーバブルメディアとは、例えば可搬性を有する記録媒体であり、好適にはSDカードなどの可搬性を有する半導体メモリーカードである。
 リムーバブルメディアを半導体メモリーカードとしたときを例に説明をすると、再生装置にはリムーバブルメディアを装着するためのスロット(図示せず)およびスロットに装着されたリムーバブルメディアを読み取るためのインターフェース(例えばメモリーカードI/F)が備えられており、スロットに半導体メモリを装着すると、リムーバブルメディアと再生装置とが電気的に接続され、インターフェース(例えばメモリーカードI/F)を利用して、半導体メモリに記録されたデータを電気信号に変換して読み出すことが可能となる。

 <再生装置における詳細構成>
 これらフロントエンド部105~ホストマイコン110内の構成要素を更に詳細に説明する。図35は、フロントエンド部105~ホストマイコン110内の詳細な構成を示す図である。本図に示すように、フロントエンド部105~ホストマイコン110内には、リードバッファ1,2、仮想ファイルシステム3、デマルチプレクサ4、ビデオデコーダ5a,b、ビデオプレーン6a,b、グラフィクスデコーダ7a,b、グラフィクスプレーン8a,b、オーディオデコーダ9、HDMIインターフェイス10、再生状態/設定レジスタセット12、静的シナリオメモリ13、再生制御エンジン14、色変換部15a,b、スケーラ部16a,b、合成器17a,b、テキスト字幕デコーダ18、ヒープメモリ21、BD-Jプラットフォーム22、動的シナリオメモリ23、モード管理モジュール24、コマンドインタプリタ25、UO検知モジュール26といった構成要素が存在する。
 リードバッファ1は、BD-ROMドライブ112か読み出されたベースビューストリームを構成するエクステントを構成するソースパケットを一旦格納しておき、転送速度を調整した上、デマルチプレクサ4に転送するためのバッファであり、上述したような"RB1"という規模をもつ。
 リードバッファ2は、BD-ROMドライブ112か読み出されたエンハンスドビューストリームを構成するエクステントを構成するソースパケットを一旦格納しておき、転送速度を調整した上、デマルチプレクサ4に転送するためのバッファであり、上述したような"RB2"という規模をもつ。
 仮想ファイルシステム3は、追加コンテンツと共にローカルストレージ113にダウンロードされたマージ管理情報を元に、ローカルストレージに格納された追加コンテンツとBD-ROM上のコンテンツをマージさせた、仮想的なBD-ROM(仮想パッケージ)を構築する。HDMVモードの動作主体であるコマンドインタプリタやBD-Jモードの動作主体であるBD-Jプラットフォームからは、仮想パッケージとオリジナルBD-ROMを区別なく参照することができる。仮想パッケージ再生中、再生装置はBD-ROM上のデータとローカルストレージ上のデータの両方を用いて再生制御を行うことになる。
 デマルチプレクサ4は、ソースパケットデパケッタイザー、PIDフイルタから構成され、再生すべきストリームに対応するパケット識別子の指示を受け付けて、当該パケット識別子に基づくパケットフィルタリングを実行する。ベースビュービデオストリームを構成するソースパケット、エンハンスドビュービデオストリームを構成するソースパケットが、リードバッファ1、2を介して転送されれば、ベースビュービデオストリームを構成するTSパケット、エンハンスドビュービデオストリームを構成するTSパケットを当該エクステントから分離して、ビデオデコーダ5a、ビデオデコーダ5bに転送する。
 基本ビデオデコーダ5aは、デマルチプレクサ4から出力されたを構成するTSパケットを復号して非圧縮形式のピクチャを基本ビデオプレーン6aに書き込む。
 拡張ビデオデコーダ5bは、デマルチプレクサ4から出力されたエンハンスドビュービデオストリームを復号してTSパケットを復号して非圧縮形式のピクチャを拡張ビデオプレーン6bに書き込む。
 基本ビデオプレーン6aは、ベースビュービデオストリームを構成する非圧縮形式のピクチャを格納しておくためのメモリである。
 拡張ビデオプレーン6bは、エンハンスドビュービデオストリームを構成する非圧縮形式のピクチャを格納しておくためのメモリである。
 基本グラフィクスデコーダ7aは、デマルチプレクサ4から出力されたベースビュー字幕ストリームを構成するTSパケットを復号して非圧縮形式のグラフィクス字幕を基本グラフィクスプレーン8aに書き込む。
 拡張グラフィクスデコーダ7bは、デマルチプレクサ4から出力されたエンハンスドビュー字幕ストリームを構成するTSパケットを復号して非圧縮形式のグラフィクス字幕を拡張グラフィクスプレーン8bに書き込む。
 基本グラフィクスプレーン8aは、ベースビュー字幕ストリームをデコードすることにより得られた非圧縮形式のグラフィクス字幕を格納しておくためのメモリである。
 拡張グラフィクスプレーン8bは、エンハンスドビュー字幕ストリームをデコードすることにより得られた非圧縮形式のグラフィクス字幕を格納しておくためのメモリである。
 オーディオデコーダ9は、デマルチプレクサ4から出力されたオーディオフレームを復号して、非圧縮形式のオーディオデータを出力する。
 HDMI送受信部10は、例えばHDMI規格(HDMI:High Definition Multimedia Interface)に準拠したインターフェイスを含み、再生装置とHDMI接続する装置(この例ではテレビ103)とHDMI規格に準拠するように送受信を行うものであり、基本ビデオプレーン6a、拡張ビデオプレーン6bに格納されたピクチャデータと、オーディオデコーダ9によってデコードされた非圧縮のオーディオデータとを、HDMIインターフェイス10を介してテレビ103に伝送する。テレビ103は、例えば立体視表示に対応しているかに関する情報、平面表示可能な解像度に関する情報、立体表示可能な解像度に関する情報を保持しており、再生装置からHDMIインターフェイスを介して要求があると、テレビ103は要求された必要な情報(例えば立体視表示に対応しているかに関する情報、平面表示可能な解像度に関する情報、立体表示可能な解像度に関する情報)を再生装置へ返す。このように、HDMI送受信部10を介することで、テレビ103が立体視表示に対応しているかどうかの情報を、テレビ103から取得することができる。
 再生状態/設定レジスタ(Player Status/Setting Register)セット12は、プレイリストの再生状態を格納する再生状態レジスタ、再生装置におけるコンフィグレーションを示すコンフィグレーション情報を格納する再生設定レジスタ、コンテンツが利用する任意の情報を格納できる汎用レジスタを含む、レジスタの集まりである。プレイリストの再生状態とは、プレイリストに記載されている各種AVデータ情報の中のどのAVデータを利用しているか、プレイリストのどの位置(時刻)を再生しているかなどの状態を現す。プレイリストの再生状態が変化した際は、再生制御エンジン14がPSRセット12に対し、その内容を格納する。また、HDMVモードの動作主体であるコマンドインタプリタもしくはBD-Jモードの動作主体であるJavaプラットフォームが実行しているアプリケーションからの指示により、アプリケーションが指定した値を格納したり、格納された値をアプリケーションに渡したりすることが可能である。
 静的シナリオメモリ13は、カレントプレイリスト情報やカレントクリップ情報を格納しておくためのメモリである。カレントプレイリスト情報とは、BD-ROMまたはビルドインメディアドライブ、リムーバブルメディアドライブからアクセスできる複数プレイリスト情報のうち、現在処理対象になっているものをいう。カレントクリップ情報とは、BD-ROMまたはビルドインメディアドライブ、リムーバブルメディアドライブからアクセスできる複数クリップ情報のうち、現在処理対象になっているものをいう。
 再生制御エンジン14は、HDMVモードの動作主体であるコマンドインタプリタ、BD-Jモードの動作主体であるJavaプラットフォームからの関数呼び出しに応じて、AV再生機能、プレイリストの再生機能を実行する。AV再生機能とは、DVDプレーヤ、CDプレーヤから踏襲した機能群であり、再生開始、再生停止、一時停止、一時停止の解除、静止画機能の解除、再生速度を即値で指定した早送り、再生速度を即値で指定した巻戻し、音声切り替え、副映像切り替え、アングル切り替えといった処理である。プレイリスト再生機能とは、このAV再生機能のうち、再生開始や再生停止をカレントプレイリストを構成するカレントプレイリスト情報、カレントクリップ情報に従って行うことをいう。
 色変換部15aは、カラールックアップテーブルを用いて、基本グラフィクスプレーン8aに格納されている画素コードを、Y,Cr,Cbといったピクセル値に変換する。
 色変換部15bは、カラールックアップテーブルを用いて、拡張グラフィクスプレーン8bに格納されている画素コードを、Y,Cr,Cbといったピクセル値に変換する。
 スケーラ16aは、基本グラフィクスプレーン8aに格納されているグラフィクスの拡大・縮小を実行する。
 スケーラ16bは、拡張グラフィクスプレーン8bに格納されているグラフィクスの拡大・縮小を実行する。
 合成器17aは、基本ビデオプレーン6aに格納された非圧縮形式のピクチャデータの各画素と、基本グラフィクスプレーン8aに展開されたグラフィクスの各画素とを合成する。
 合成器17bは、基本ビデオプレーン6bに格納された非圧縮形式のピクチャデータの各画素と、拡張グラフィクスプレーン8bに展開されたグラフィクスの各画素とを合成する。
 テキスト字幕デコーダ18は、グラフィクス字幕ストリームの代わりに、テキスト字幕ストリームがカレントストリームとして指定されている場合、テキスト字幕ストリームを構成するテキストコードを、フォントで展開することでテキスト字幕を得て、グラフィクスプレーン8a,bに書き込む。
 ヒープメモリ21は、システムアプリケーションのバイトコード、BD-Jアプリケーションのバイトコード、システムアプリケーションが利用するシステムパラメータ、BD-Jアプリケーションが利用するアプリケーションパラメータが配置されるスタック領域である。
 BD-Jプラットフォーム22は、BD-Jモードの動作主体であるJavaプラットフォームであり、Java2Micro_Edition(J2ME) Personal Basis Profile(PBP 1.0)と、Globally Executable MHP specification(GEM1.0.2)for package media targetsとをフル実装しており、クラスローダ、バイトコードインタプリタを含む。クラスローダは、システムアプリケーションの1つであり、JARアーカイブファイルに存在するクラスファイルからバイトコードを読み出して、ヒープメモリに格納することにより、BD-Jアプリケーションのロードを行う。バイトコードインタプリタは、ヒープメモリ21に格納されているBD-Jアプリケーションを構成するバイトコード、システムアプリケーションを構成するバイトコードをネィティブコードに変換して、MPU21に実行させる。

 動的シナリオメモリ23は、カレント動的シナリオを格納しておき、HDMVモードの動作主体であるコマンドインタプリタ、BD-Jモードの動作主体であるJavaプラットフォームによる処理に供されるメモリである。カレント動的シナリオとは、BD-ROMまたはビルドインメディア、リムーバブルメディアに記録されているIndex.bdmv、BD-Jオブジェクト、ムービーブジェクトのうち、現在実行対象になっているものをいう。
 モード管理モジュールの一例であるモジュールマネージャ24は、BD-ROMまたはビルドインメディアドライブ、リムーバブルメディアドライブから読み出されたIndex.bdmvを保持して、モード管理及び分岐制御を行う。モジュールマネージャ24によるモード管理とは、動的シナリオをどのコマンドインタプリタ40、BD-Jモジュールに実行させるかという、モジュールの割り当てである。
 HDMVモジュールの一例であるコマンドインタプリタ25は、HDMVモードの動作主体となるDVD仮想プレーヤであり、HDMVモードの実行主体となる。HDMVモードの動作主体であるコマンドインタプリタは、シナリオプログラムを構成するナビゲーションコマンドを解読して実行するものである。ナビゲーションコマンドは、DVD-Videoと似たようなシンタックスで記述されているため、かかるナビゲーションコマンドを実行することにより、DVD-Videoライクな再生制御を実現することができる。
 UO探知モジュール26は、リモコン100や再生装置102のフロントパネルに対してなされたユーザ操作を検出して、ユーザ操作を示す情報(以降UO(User Operation)という)をモード管理モジュール25に出力する。そのUOから、現在の再生装置におけるモードに適切なUOのみを選んで、そのモードを実行するモジュールに受け渡す。例えばHDMVモードの実行中に、上下左右、アクティベートといったUOを受け付けた場合、HDMVモードのモジュールにこれらのUOを出力する。以上がに再生装置の内部構成についての説明である。続いて、PSRセット12及び再生制御エンジン14の詳細について説明する。
 図36は、再生制御エンジン14の内部構成と、PSRセット12の内部構成とを示す。
 始めに、PSRのうち、代表的なものについて説明する。
 PSR2は、1~32の値に設定されることで、字幕のカレントストリーム番号を示す。
 PSR4は、1~100の値に設定されることで、カレントのタイトル番号を示す。
 PSR5は、1~999の値に設定されることで、カレントのチャプター番号を示し、0xFFFFに設定されることで、再生装置においてチャプター番号が無効であることを示す。
 PSR6は、0~999の値に設定されることで、カレントプレイリストの番号を示す。
 PSR7は、0~255の値に設定されることで、カレントプレイアイテムの番号を示す。
 PSR8は、0~OxFFFFFFFFの値に設定されることで、45KHzの時間精度を用いて現在の再生時点(カレントPTM)を示す。以上がPSRについての説明である。
 PSR13は、ユーザ年齢を示す。
 PSR15は、再生装置における字幕表示のケーパビリティを示す。
 PSR16は、再生装置の言語設定を示す。
 この他、PSRセット12には立体視再生ケーパビリティ、立体視再生表示方式フラグが存在する。
 立体視ケーパビリティは、再生装置に立体視再生を実行する能力が存在するかどうかを示す。立体視再生フラグは、ユーザが、立体視再生を実行することを意図しているかどうかを示す。
 図36(b)は、再生制御エンジン14の内部構成を示す図である。本図に示すように、再生制御エンジン14は、平面視再生を実行する場合のプレイリスト再生制御を実行する平面視制御部41、立体視が設定されている場合のプレイリスト再生制御を実行する立体視制御部42から構成される。
 図37は、平面視制御部41の内部構成を示す図である。本図に示すように平面視制御部41は、プロシージャ制御部43、PID設定部44から構成される。
 <プロシージャ制御部43>
 プロシージャ制御部43は、あるPlayItem情報から別のPlayItem情報への切り換わりが生じた場合、又はストリーム番号を切り換える旨の操作がユーザによりなされた場合、所定のストリーム選択プロシージャを実行して、PSR2に新たなセカンダリビデオストリームのストリーム番号を書き込む。再生装置は、PSR2に書き込まれたストリーム番号に応じて、セカンダリビデオストリームを再生するので、かかるPSR2の設定を通じて、セカンダリビデオストリームが選択されることになる。
 PlayItem情報の切り換わり時に、ストリーム選択プロシージャを実行するのは、STN_TableはPlayItem情報毎に存在するので、あるPlayItem情報においては再生可能であったセカンダリビデオストリームが、別のPlayItem情報において再生不可能になることが有り得るからである。
 特徴的な動作としてプロシージャ制御部43は、カレントプレイアイテム情報におけるSTN_tableの中から、PSR13におけるユーザ年齢に応じたストリーム番号を取り出して、そのストリーム番号をカレントストリーム番号としてPSR2に格納する。
 切り替えタイミングについて述べる。再生装置102を使用している利用者が幼少者だと判断した場合、プロシージャ制御部43は、言語タイプが"平仮名"である字幕ストリームのパケット識別子をデマルチプレクサに設定して、前記再生するプレイリストが参照しているトランスポートストリームの多重分離を行わせる。こうすることで、言語タイプが"平仮名"であるグラフィクス字幕が、基本グラフィクスデコーダ7aによって出力されることになる。
 次にエラーハンドリングについて述べる。BD-Jアプリケーションが対応できない字幕ストリームを指定した場合(例えば平仮名用の字幕ストリームがないのに平仮名用の字幕ストリームを指定した場合など)、これらの指定を通常の字幕ストリームに切り替えることができる。平面・立体表示の切り替えを行う場合、再生装置102は、一旦プレイリストを停止させて、再度プレイリストを停止位置から再生させるか、最初から再生させる。
 <PID設定部44>
 PID設定部44は、PSR2に格納されているストリーム番号に対応するPIDを、STN_tableにおけるstream_entryから取り出して、デマルチプレクサ4に設定してこのPIDに基づくパケットフィルタリングを、デマルチプレクサ4に行わせる。

 図38は、立体視制御部42の内部構成を示す。本図に示すように立体視制御部42は、プロシージャ制御部45、PID設定部46によって構成される。
 <プロシージャ制御部45>
 プロシージャ制御部45は、ケーパビリティ2、表示方式フラグが、立体視再生可能を示す場合、Extension_DataにおけるSTN_table_extensionの中から、2つのストリーム番号を取り出して、そのストリーム番号をカレントストリーム番号としてPSR2に格納する。
 字幕ストリームの優先順序について述べる。ライトビュー用、あるいは、レフトビュー用、どちらか一方を選ぶ場合、ストリーム番号の小さいほうから優先する。立体表示を行うかどうかの判断には、あるいは、汎用レジスタを参照しても良いし、再生装置102がPSRセット12以外に独自に保持しているものを、判断材料にすることができる。
 リモコン100を使用したユーザ操作やBD-Jアプリケーションからの指示によって、平面・立体表示設定を実現することもできる。
 立体表示フラグが立体表示可能ではないことを示す場合、ストリーム情報にある映像、および、字幕の立体表示情報に応じて、ライトビュー用、あるいは、レフトビュー用、どちらか一方の映像、字幕ストリームを指定する。必ずしもビデオと字幕が共に立体表示である必要はない。また、ライトビュー用、あるいは、レフトビュー用、どちらか一方を選ぶ場合、ストリーム番号の小さいほうから優先する。
 これにより、立体表示ができない再生装置または再生装置が立体表示できない表示装置に接続された場合であっても、立体表示用の映像ストリームの一部(この例ではレフトビュー用またはライトビュー用の映像ストリームの一方)および字幕ストリームの一部(この例ではレフトビュー用またはライトビュー用の字幕ストリームの一方)を用いて平面表示することが可能となる。
 さらに、プレイリスト再生中にリモコン100を使用したユーザ操作やBD-Jアプリケーションから字幕の平面・立体表示の切り替えを行うことができりるし、エラーとして処理することもできる。
 <PID設定部46>
 PID設定部46は、PSR2に格納されている2つのストリーム番号に対応する2つのPIDを、STN_table_extensionにおけるstream_entryから取り出して、デマルチプレクサ4に設定してこのPIDに基づく、パケットフィルタリングを、デマルチプレクサ4に行わせる。
 以上が再生制御エンジン14についての説明である。続いて、グラフィクスデコーダの詳細について説明する。
 図39は、グラフィクスデコーダの内部構成を示す図である。本図に示すようにグラフィクスデコーダ12は、コーデッドデータバッファ31、周辺回路36、ストリームグラフィクスプロセッサ32、オブジェクトバッファ33、コンポジションバッファ34、グラフィクスコントローラ35から構成される。
 コーデッドデータバッファ31は、機能セグメントがDTS、PTSと共に格納されるバッファである。かかる機能セグメントは、トランスポートストリームの各TSパケットから、TSパケットヘッダ、PESパケットヘッダを取り除き、ペイロードをシーケンシャルに配列することにより得られたものである。取り除かれたTSパケットヘッダ、PESパケットヘッダのうち、PTS/DTSは、PESパケットと対応付けて格納される。
 ストリームグラフィクスプロセッサ32は、ODSをデコードして、デコードにより得られたインデックスカラーからなる非圧縮状態の非圧縮グラフィクスをグラフィクス字幕としてオブジェクトバッファ33に書き込む。ストリームグラフィクスプロセッサ32によるデコードは瞬時に行われ、デコードによりグラフィクス字幕をストリームグラフィクスプロセッサ32は一時的に保持する。ストリームグラフィクスプロセッサ32によるデコードは瞬時になされるが、ストリームグラフィクスプロセッサ32からオブジェクトバッファ33への書き込みは、瞬時には終わらない。BD-ROM規格のプレーヤモデルでは、オブジェクトバッファ33への書き込みは、128Mbpsという転送レートでなされるからである。オブジェクトバッファ33への書き込み完了時点は、ENDセグメントのPTSに示されているので、このENDセグメントのPTSに示される時点が経過するまで、次のDSに対する処理を待つことになる。各ODSをデコードすることにより得られたグラフィクス字幕の書き込みは、そのODSに関連付けられたDTSの時刻に開始し、ODSに関連付けられたPTSに示されるデコード終了時刻までに終了する。
 オブジェクトバッファ33は、ストリームグラフィクスプロセッサ32のデコードにより得られたグラフィクス字幕が配置されるバッファである。オブジェクトバッファ33は、グラフィクスプレーンの2倍/4倍の大きさに設定せねばならない。何故ならScrollingを実現する場合を考えると、グラフィクスプレーン8の2倍、4倍のグラフィクス字幕を格納しておかねばならないからである。
 コンポジションバッファ34は、PCS、PDSが配置されるメモリである。処理すべきDisplay Setが2つあり、これらのPCSのアクティブ期間が重複している場合、Compositionバッファ16には処理すべきPCSが複数格納される。
 グラフィクスコントローラ35は、PCSの解読を行い、PCSの解読結果に従って、グラフィクス字幕のオブジェクトバッファ33への書き込み、及び、オブジェクトバッファ33からのグラフィクス字幕の読み出し、グラフィクス字幕の表示を実行する。グラフィクスコントローラ35による表示は、PCSを格納したPESパケットのPTSに示される時点において実行される。グラフィクスコントローラ35によるDSnに属するグラフィクス字幕の表示から、DSn+1に属するグラフィクス字幕の表示までの間隔は上述した通りである。
 周辺回路36は、コーデッドデータバッファ31-ストリームグラフィクスプロセッサ32間の転送、コーデッドデータバッファ31-コンポジションバッファ34間の転送を実現するワイヤロジックである。この転送処理において現在時点がODSのDTSに示される時刻になれば、ODSを、コーデッドデータバッファ31からストリームグラフィクスプロセッサ32に転送する。また現在時刻がPCS、PDSのDTSに示される時刻になれば、PCS、PDSをコンポジションバッファ34に転送するという処理を行う。以上がグラフィクスデコーダについての説明である。続いて、プレイリスト再生処理の詳細について説明する。
 図40は、プレイリス再生処理の処理手順を示すフローチャートである。
 ステップS1においてプレイリスト情報ファイルを読み込み、ステップS2~ステップS5の処理に突入する。ステップS2は、再生装置にケーパビリティが存在するか否かの判定である。ステップS3は、再生装置の接続相手であるテレビに、立体視再生の処理能力が存在するか否かの判定である。ステップS4は、カレントプレイリストの再生属性情報における表示方式フラグが有効かどうかの判定である。ステップS2~ステップS4の何れかがNoと判定されれば、ステップS5に移行して、各プレイアイテム情報におけるSTN_tableに基づくプレイアイテム再生を実行する。
 ステップS2~ステップS4の全てがYesであれば、ステップS5において各プレイアイテム情報におけるSTN_table_extensionに基づくプレイアイテム再生を実行する。
 図41は、プレイリスト情報の再生手順を示すフローチャートである。
 ステップS51において、カレントPlayItem番号を"1"に初期化して、ステップS52~S62のループに移る。このループは、カレントプレイアイテム番号に対してステップS52~ステップS60の処理を実行して、カレントプレイアイテム番号をインクリメントするという処理を(ステップS61)、カレントプレイアイテム番号が最終になるまで繰り返すものである(ステップS62でYes)。ステップS52~ステップS60は、以下のものである。
 ステップS52において、ベースビューストリームのパケットIDに対応するエントリーマップを用いて、カレントPlayItem.In_Time及びカレントPlayItem.Out_TimeをStart_SPN[i]及びEnd_SPN[i]に変換する。
 エンハンスドビューストリームを選択し、カレント字幕ストリームを選択して(ステップS53)、選択したストリームのカレントストリーム番号をPSRに書き込み(ステップS54)、カレントストリーム番号に対応するSubPlayItemを特定する(ステップS55)。エンハンスドビューストリームのパケットID[j]に対応するエントリーマップ[j]を用いて特定されたSubPlayItemIn_Time、SubPlayItemOut_TimeをStart_SPN[j]、End_SPN[j]に変換する(ステップS56)。
 パケットID[i]のTSパケット[i]をStart_SPN[i]からEnd_SPN[i]まで読み出すための読出範囲[i]に属するエクステントを特定し(ステップS57)、パケットID[j]のTSパケット[j]をStart_SPN[j]からEnd_SPN[j]まで読み出すための読出範囲に属するエクステントを特定する(ステップS58)。そしてステップS59において読出範囲[i],[j]に属するエクステントをアドレスの昇順にソートして、ステップS60においてソートされたアドレスを用いて、読出範囲[i],[j]に属するエクステントを連続的に読み出すよう、ドライブに指示する。以上が、STN_table、STN_table_extensionに基ずく再生手順である。
 次に字幕ストリーム選択手順について説明する。
 STN_table、又は、STN_table_extensionに基づき、字幕ストリームを選択する選択手順には、『Procedure when playback condition is changed』、『Procedure when Stream change is requested』という2つの選択手順がある。
 Procedure when playback condition is changedは、何等かの事象が再生装置に生じたため、再生装置の状態が変化した際に実行すべき処理手順を示す。
 Procedure when Stream Change is requestedは、ユーザがストリームの切り換えを要求した際、実行すべき処理手順を示す。
 図42(a)は、装置状態変化時におけるPSR2の設定手順を示すフローチャートである。
 ステップS11は、STN_tableにおけるentry数が0であるか否かの判定であり、もし0であればPSR2の値を維持する(ステップS13)。
 ステップS12は、STN_tableにおけるentry数は0ではない場合に、PSR2よりSTN_tableのentry数が多く、尚且つ、条件(A)が真であるかを判定するものである。条件(A)とは、PSR2で特定されるオーディオストリームを再生する能力が再生装置に存在することである。もしステップS12がYesであればPSR2を維持する(ステップS14)。もしPSR2の値がentry数より大きいか、或は条件(A)を満たさない場合は、PSR2を再設定する(ステップS15)。
 図42(b)は、ストリーム変化時におけるPSR2の設定手順を示すフローチャートである。本フローチャートと、同図(a)との違いは、(a)におけるPSR2の表記がXに置き換えられている点である。このXは、User Operationに基づく値である。

 本フローチャートにおけるステップS20は、XよりSTN_tableのentry数が多く、尚且つ、条件(A)が真であるかを判定するものである。条件(A)とは、PSR2で特定されるオーディオストリームを再生する能力が再生装置に存在することであり、PSR15と、オーディオストリームのStream_coding_typeの比較で判定される。もしXがこの条件を満たすなら、PSR2にXを設定する(ステップS21)。
 もしXがentry数より大きいか、或は条件(A)を満たさない場合は、Xが、0xFFFFであるか否かを判定する(ステップS22)。もしOxFFFFでなければ、ユーザが選択を意図するオーディオストリームの番号は無効であると考えられるので、ユーザ操作に基づく値Xを無視し、PSR2の設定値を維持する(ステップS24)。もしPSR2の設定値が0xFFFFであるなら、PSR2を設定する(ステップS23)。
 図43は、年齢別再生時の選択手順を示すフローチャートである。
本フローチャートのステップS31、ステップS32は、STN_tableに記述されている字幕ストリームのそれぞれについて、ステップS33~ステップS35の処理を繰り返すループ処理になっている。本ループ処理において処理対象となる字幕ストリームを字幕ストリームiとする。ステップS33は、字幕ストリームiが、グラフィクス字幕ストリームであるか、テキスト字幕ストリームであるかの判定であり、もしグラフィクス字幕であるならステップS34に移行する。
 ステップS34は、グラフィクス字幕ストリームiが、以下の(a)(b)を満たすか否かの判定である。
(a)グラフィクス字幕ストリームiを再生する能力が再生装置に存在すること
(b)グラフィクス字幕ストリームiの言語属性が再生装置の言語設定と一致すること
この(b)の条件は、STN_tableにおけるPG_language_codeがPSR17と一致するか否かの判定でなされる。
一方ステップS35は、テキスト字幕ストリームiが(a)(b)を満たすかを否かの判定である。
(a)テキスト字幕ストリームiをフォントで展開して再生する能力が再生装置に存在すること
(b)テキスト字幕ストリームiの言語属性が再生装置の言語設定と一致すること
(a)の条件を具備しているかの判定は、再生装置のPSR30が"再生能力有"を示すかどうかでなされる。(b)の条件を具備しているかの判定は、STN_tableのtextST_language_codeがPSR17の設定値と一致しているかどうかでなされる。

 以上のステップS33~ステップS35の処理が全ての字幕ストリームについて繰り返されれば、ステップS36~ステップS41の処理が実行される。
 ステップS36は、(a)を満たす字幕ストリームが存在しないかどうかの判定であり、もし存在しないのなら、ステップS39においてInvalidな値(0xFFFF)をPSR2に設定する(ステップS38)。
 ステップS37は、(a)(b)の双方を満たす字幕ストリームが存在するかどうかの判定であり、もし存在するのなら(a)(b)を満たす字幕ストリームのうち、STN_tableにおけるエントリー順位が最も高いものをPSR2に設定する(ステップS39)。
 ステップS41は、(a)のみを満たすグラフィクス字幕ストリーム、(a)のみを満たすテキスト字幕ストリームのうち、STN_tableにおけるエントリー順位が最も高いものをPSR2に設定する。以降具体例を交えながら、本フローチャートの処理について説明する。
 ステップS40は、PSR13におけるユーザ年齢が年少者を意味するかの判定である。尚、本実施形態では、5歳以下を年少者と設定していることにする。Yesである場合、(a)(b)を満たす字幕ストリームのうち、STN_tableにおけるエントリー順位が最も高いものをPSR2に設定する。ステップS43では、スケーラに、字幕文字の拡大を行わせる。
 ステップS44は、ユーザ年齢が年配者を示す値であるかを判定する。尚、本実施形態では、65歳以上を年配者と判定するものとする。Yesであれば、ステップS45において字幕ストリームのうち、stream_entryにおける文字属性が拡大文字であるもののストリーム番号をPSR2に設定する。
 (立体視設定時における選択手順)
 図44は、立体視設定時における選択手順の処理手順を示すフローチャートである。
 図42のフローチャートと、同一の参照符号を付したステップは、図42と共通する処理を意味するものなので、その説明は省略する。
  ステップS46において、PSR2のストリーム番号に対応するstream_entryのPIDと、PSR2のストリーム番号に対応する立体表示情報において、"他の字幕"として指定されている字幕のPIDとをデマルチプレクサに設定して、パケットフィルタリングを行わせる。
 ステップS47において、基本グラフィクスデコーダ、拡張グラフィクスデコーダを起動して、2系統のTSパケット系列のデコードを行わせる。
 以上が立体視設定時におけるストリーム選択手順についての説明である。続いて、上述した選択手順の具体的な動作の詳細を説明する。
  図45、図46の事例を題材にして、具体的な動作について説明する。
  図45は、動作の対象となるAVストリーム、プレイリスト情報を示す図である。同図(a)は、AVストリームの内部構成を示す図であり、これは、図6(b)に示したものと同じになる。
   図45(b)は、プレイリスト情報の内部構成を示す。このプレイリスト情報におけるプレイアイテム情報1は、4つの字幕ストリームに、ストリーム番号を割り当てるSTN_tableを含む。このSTN_tableにおいて表示方式情報は、ユーザ年齢に応じた表示方式制御が有効であると設定されており、このSTN_tableにおけるストリーム情報は、0x1220のPIDが付与されたTSパケットから構成される字幕ストリーム、0x1221のPIDが付与されたTSパケットから構成される字幕ストリーム、0x1222のPIDが付与されたTSパケットから構成される字幕ストリーム、0x1223のPIDが付与されたTSパケットから構成される字幕ストリームのそれぞれに対して、1~4のストリーム番号を割り当てている。これらの字幕ストリームに対しては、言語コードがそれぞれ、日本語、日本語、日本語、英語に設定されており、文字属性がなし、平仮名、拡大文字、なしに設定されている。
  一方、図45(b)におけるプレイリスト情報のExtension_Dataは、4つの字幕ストリームに、ストリーム番号を割り当てるSTN_table_extensionを含む。このSTN_table_extensionにおいて表示方式情報は、立体視再生設定に応じた表示方式制御が有効であると設定されており、このSTN_table_extensionにおけるストリーム情報は、0x1225のPIDが付与されたTSパケットから構成される字幕ストリーム、0x1240のPIDが付与されたTSパケットから構成される字幕ストリーム、0x1226のPIDが付与されたTSパケットから構成される字幕ストリーム、0x1241のPIDが付与されたTSパケットから構成される字幕ストリームのそれぞれに対して、6~9のストリーム番号を割り当てている。これらの字幕ストリームに対しては、言語属性がそれぞれ、日本語、日本語、英語、英語に設定されており、立体表示情報は、以下のように設定されている。つまり、ストリーム番号=6の立体表示情報は、組合せるべき字幕として、ストリーム番号=7が設定されており、ストリーム番号=7の立体表示情報は、組合せるべき字幕として、ストリーム番号=6が設定されている。ストリーム番号=8の立体表示情報は、組合せるべき字幕として、ストリーム番号=9が設定されており、ストリーム番号=9の立体表示情報は、組合せるべき字幕として、ストリーム番号=8が設定されている。 
  図46は、字幕の内容を示す。0x1221のTSパケットに格納されるランレングスデータは、"さあはじまるよ"という平仮名文字を表す。
  0x1222のTSパケットに格納されるランレングスデータは、"囲碁クラブ"という拡大文字を表す。
  0x1242のTSパケットに格納されるランレングスデータは、"This is stereogram"という英文を示す。
  0x1243のTSパケットに格納されるランレングスデータは、"This is stereogram"という英文であって、その表示位置がやや異なるものを示す。
  この具体例では、通常のサイズの字幕を表示するように出力する字幕ストリームの他に、通常のサイズよりも大きいサイズの字幕を表示するように出力する字幕ストリームが、ビデオストリームに多重化されている。こうすることで、上述の2つの字幕ストリームのいずれかを適宜指定し、指定した字幕ストリームがグラフィクスデコーダによって出力されるこになる。このようにすることで、再生装置内に字幕を拡大する機能を設ける必要はなくなり、再生装置の構成をより簡単にし、安価で製造することができる。
  図47は、再生装置における"ユーザ年齢が4歳"というコンフィグレーション情報に応じて、どのような字幕が表示されるかを示す。(a)は、コンフィグレーション情報の具体的な内容であり、PSR13におけるユーザ年齢が"4"つまり4歳に設定されている。PSR16における言語設定は日本語であり、立体視ケーパビリティは"無し"に、立体視再生フラグは"オフ"に設定されている。かかるコンフィグレーション情報の再生装置によって、先の図のプレイリスト情報が読み出されれば、上述したような処理手順を実行することにより、(b)に示すように、"ストリーム番号=2番"の字幕ストリームが選択の対象になる。
  その結果、PSR2には、ストリーム番号=2が設定されることになる。そうすると、STN_tableにおいて、ストリーム番号=2に対応付けられている、0x1221が、(c)に示すようにPSR2に設定されるから、0x1221のPIDが付与されたTSパケットが、(d)に示すように選択的にビデオデコーダ5に出力されることになる。結果として、(e)に示すように、図46に示した"さあはじまるよ!!"という字幕が、動画像に合成されて表示されることになる。

  図48は、再生装置における"ユーザ年齢が70歳"というコンフィグレーション情報に応じて、どのような字幕が表示されるかを示す。(a)は、コンフィグレーション情報の具体的な内容であり、PSR13におけるユーザ年齢が"70"つまり70歳に設定されている。PSR16における言語設定は日本語であり、立体視ケーパビリティは"無し"に、立体視再生フラグはオフに設定されている。かかるコンフィグレーション情報の再生装置によって、先の図のプレイリスト情報が読み出されれば、上述したような処理手順を実行することにより、(b)に示すように、ストリーム番号=3番の字幕ストリームが選択の対象になる。その結果、PSR2には、ストリーム番号=3が設定されることになる。そうすると、STN_tableにおいて、ストリーム番号=3に対応付けられている、0x1222が、(c)に示すようにPSR2に設定されるから、0x1222のPIDが付与されたTSパケットが、(d)に示すようにデマルチプレクサ4によって選択的にビデオデコーダ5に出力されることになる。結果として、(e)に示すように、図46に示した"囲碁サロン"という字幕が、動画像に合成されて表示されることになる。

 図49は、再生装置における"立体視ケーパビリティがオン""立体視再生フラグがオン"というコンフィグレーション情報に応じて、どのような字幕が表示されるかを示す。(a)は、コンフィグレーション情報の具体的な内容であり、"立体視ケーパビリティがオン""立体視再生フラグがオン"というコンフィグレーション情報に設定されている。PSR16における言語設定は英語である。かかるコンフィグレーション情報の再生装置によって、先の図のプレイリスト情報が読み出されれば、上述したような処理手順を実行することにより、(b)に示すように、ストリーム番号=8、9番の字幕ストリームが選択の対象になる。その結果、PSR2には、ストリーム番号=8、9が設定されることになる。そうすると、STN_tableにおいて、ストリーム番号=8、9に対応付けられている、0x1226、0x1241がデマルチプレクサ4に設定されるから、0x1226、0x1241のPIDが付与されたTSパケットが、選択的にビデオデコーダ5に出力されることになる。結果として、(d)に示すように、図36に示した"This is streogram"という字幕が、動画像に合成されて表示されることになる。
 (備考)
 以上、本願の出願時点において、出願人が知り得る最良の実施形態について説明したが、以下に示す技術的トピックについては、更なる改良や変更実施を加えることができる。各実施形態に示した通り実施するか、これらの改良・変更を施すか否かは、何れも任意的であり、実施する者の主観によることは留意されたい。

 (記録装置としての実施)
 再生装置102は、ビルドインメディアドライブ、リムーバブルメディアを含むローカルストレージを具備していて、これらへの書き込みを想定した構成になっているので、本願明細書に記載された再生装置は、記録装置としての機能を兼備しているといえる。再生装置102が記録装置として機能する場合、以下の2つの態様によって、プレイリスト情報の書き込みを実行する。

 i)再生装置102が仮想パッケージを再生する機能をもつ場合、プレイリスト情報の書き込みを以下のように行う。つまり、BD-ROMが装填された際、アプリケーションからの要求に従い、前記BD-ROMに対応する追加コンテンツを、ネットワークを介して、WWWサーバから取得する。取得された追加コンテンツは上記プレイリスト情報を含む。再生装置102において、記録制御を行う制御部は、前記アプリケーションからの要求に従い、取得したプレイリスト情報をローカルストレージに書き込む。こうすることで、BD-ROMに記録されたコンテンツと、前記ローカルストレージに記録された追加コンテンツとを組み合わせることで、前記仮想パッケージを構築することが可能になる。
 ここで前記BD-ROMには、ディスクルート証明書の識別子、BD-ROMコンテンツを頒布した組織の識別子、BD-ROMの識別子が記録されており、追加コンテンツが格納されるべき領域は、ディスクルート証明書識別子と、組織識別子と、BD-ROM識別子とを含むファイルパスによって特定される。
 前記アプリケーションは、追加コンテンツが格納されるべき領域を特定するファイルパスを、制御部に引き渡すことで書き込みを行う。
 前記ローカルストレージが、ディレクトリ名、及び、ファイル名が255文字以下に制限されたファイルシステムを有している場合、前記ローカルストレージへの書き込みに用いられるファイルパスは、8文字以下のディレクトリ名、及び、ファイル名で、かつ拡張子名が3文字以下である8.3形式のファイルシステムにおけるファイル名と、拡張子との指定を含む。
 
 ii)再生装置102がオンデマンドマニュファクチャサービス又は電子的セルスルーサービス(MODEST)の供給を受ける機能をもつ場合、プレイリスト情報の書き込みを以下のように行う。
 つまり再生装置102がオンデマンドマニュファクチャサービス又は電子的セルスルーサービスによってプレイリスト情報の供給を受ける際、リムーバブルメディアにおけるルートディレクトリの配下に、デフォルトのディレクトリと、MODESTディレクトリとをクリエイトして、MODESTディレクトリの配下に、BDMVディレクトリをクリエイトする。MODESTディレクトリは、ファーストMODESTディレクトリであり、ファーストMODESTディレクトリは、前記サービスを初めて受けた際、クリエイトされるMODESTディレクトリである。ユーザが2回目以降にサービスを受ける際、再生装置102における制御部は、2回目以降のサービスに対応するMODESTディレクトリをクリエイトする。
 そして、上述したように、プレイリスト情報を取得すると、制御部は、デフォルトディレクトリにスタートアッププログラムを書き込み、MODESTディレクトリ配下のBDMVディレクトリにプレイリスト情報を書き込む。このスタートアッププログラムは、記録媒体が再生装置102に装填された際、最初に実行されるべきプログラムであり、BDMVディレクトリを選択する操作をユーザから受け付けるためのメニューを再生装置102に表示させて、ルート変更機能を再生装置102に実行させる。このルート変更機能は、メニューに対する選択操作がユーザによってなされた場合、選択されたBDMVディレクトリが属するMODESTディレクトリをルートディレクトリとして認識させる機能である。かかるルート変更機能によって、BD-ROMを再生するのと同じ制御手順によって取得したプレイリスト情報に基づく再生制御を実行することができる。

 (Java(TM)アプリケーション)
 BD-Jアプリケーションは、例えば電子商取引(EC(Electronic Commerce))のクライアントアプリケーションであってもよいし、ネット対戦型のオンラインゲームであってもよい。更に、検索エンジンと連携して、様々なオンラインサービスを、ユーザに供給するものでもよい。

 (ライトビュー用、あるいは、レフトビュー用、どちらを指定するかを示す情報の置き場所)
 また、上述の例では立体表示に対応していない場合、ライトビュー用、あるいは、レフトビュー用、どちらを指定するかを示す情報をプレイリストに含ませるような構成を説明したがこれに限定される必要はない。立体表示できない場合、ライトビュー用、あるいは、レフトビュー用、どちらを指定するかを示す情報は、再生装置102のコンフィグレーション情報に含まれるように構成し、立体表示に対応していない場合、再生装置102のコンフィグレーション情報に設定されたレフトビュー用、どちらを指定するかを示す情報に従って、レフトビュー用またはライトビュー用のストリーム(映像ストリームおよび字幕ストリーム)を指定するようにしても良い。
 このライトビュー用あるいはレフトビュー用どちらを指定するかを示す情報は利用者が再生装置に登録することにより設定しても良いし、再生状態レジスタあるいは、汎用レジスタにライトビュー用あるいはレフトビュー用どちらを指定するかを示す情報を登録するようにし、この情報をコンフィグレーション情報として使用しても良い。

 (不揮発性メモリのバリエーション)
 不揮発性メモリ109は、ローカルストレージ、BDドライブにおける書き込み可能な記録媒体を利用しても実施可能である。また、ネットワークI/Fを経由してアクセス可能な媒体であっても、再生装置の電源供給状態に依存せず記録内容を保持できるのであれば、不揮発性メモリ109として利用しても実施可能である。
 (事前登録の内容)
 表示される字幕の好ましいサイズなどの利用者情報を再生装置102の事前登録情報として記憶し、使用しても良いし、PSRセット12に含まれる再生状態レジスタ、あるいは、汎用レジスタに登録された情報をコンフィグレーション情報として使用しても良い。
 これにより、コンテンツ作成時点では判断できないコンテンツ利用者のニーズに合わせた字幕再生を自動的に行うことが可能となる。
 また、コンテンツ作成者はサイズの異なる複数の字幕ストリームを用意する必要がなくなるため、記録媒体の使用容量を削減したり、コンテンツ作成コストを削減したりすることが可能となる。
 (字幕の拡大)
 上記実施形態では、拡大文字の字幕ストリームを、通常文字の字幕ストリームとは別に格納することで、年配者向けの文字拡大を実行したが、ユーザが年配者でされば、通常文字の字幕ストリームをスケーラが拡大することで、字幕文字の拡大を実行してもよい。

 (字幕の自動拡大・縮小機能の有効、無効を設定)
 字幕の自動拡大・縮小機能の有効、無効を設定する機能があっても良い。もし、字幕の自動拡大・縮小機能が有効であった場合には、拡大を実行するが、字幕の自動拡大・縮小機能が無効であった場合には、再生装置102を使用している利用者を年配者だと判断した場合であっても、字幕のサイズを変更させない。

 (自動変更機能の有効、無効設定)
 再生装置102に字幕文字の自動変更機能の有効、無効を設定する機能があっても良い。もし、字幕文字の自動変更機能が有効であった場合には、図10の通りだが、字幕文字の自動変更機能が無効であった場合には、再生装置102を使用している利用者を幼少者だと判断した場合であっても、言語タイプが"通常"である字幕ストリームをデマルチプレクサ4に設定し、前記再生するプレイリストが参照しているトランスポートストリームの多重分離を行わせる。

 (お気に入り設定)
 例えば再生装置102の利用者が事前に年齢、好ましい字幕(平仮名の表示を好むなど)の情報を登録した利用者情報を再生装置102のコンフィグレーション情報として記憶し、使用しても良いし、再生状態レジスタ、あるいは、汎用レジスタに登録された情報をコンフィグレーション情報として使用しても良い。

 (立体視のためのビデオストリーム)
  レフトビュー用、ライトビュー用のビデオストリームをBD-ROMに記録しておくというのは、一例に過ぎない。ピクチャ毎に、画素毎の奥行き値を表すビデオストリームをエンハンスドビュービデオストリームとしてBD-ROMに記録しておいて、再生に供してもよい。
 (実装すべきパッケージ)
 アプリケーション実行装置の実施にあたっては、以下のBD-J Extensionをアプリケーション実行装置に実装するのが望ましい。BD-J Extensionは、GEM[1.0.2]を越えた機能を、Java(TM)プラットフォームに与えるために特化された、様々なパッケージを含んでいる。BD-J Extensionにて供給されるパッケージには、以下のものがある。
・org.bluray.media
 このパッケージは、Java(TM) Media FrameWorkに追加すべき、特殊機能を提供する。アングル、音声、字幕の選択についての制御が、このパッケージに追加される。
・org.bluray.ti
 このパッケージは、GEM[1.0.2]における"サービス"を"タイトル"にマップして動作するためのAPIや、BD-ROMからタイトル情報を問い合わせる機構や新たなタイトルを選択する機構を含む。
・org.bluray.application
 このパッケージは、アプリケーションの生存区間を管理するためのAPIを含む。また、アプリケーションを実行させるにあたってのシグナリングに必要な情報を問い合わせるAPIを含む。
・org.bluray.ui
 このパッケージは、BD-ROMに特化されたキーイベントのための定数を定義し、映像再生との同期を実現するようなクラスを含む。
・org.bluray.vfs
 このパッケージは、データの所在に拘らず、データをシームレスに再生するため、BD-ROMに記録されたコンテンツ(on-discコンテンツ)と、BD-ROMに記録されていないLocal Storage上のコンテンツ(off-discコンテンツ)とをバインドする機構(Binding Scheme)を提供する。
 Binding Schemeとは、BD-ROM上のコンテンツ(AVクリップ、字幕、BD-Jアプリケーション)と、Local Storage上の関連コンテンツとを関連付けるものである。このBinding Schemeは、コンテンツの所在に拘らず、シームレス再生を実現する。

 (プログラミング言語の適用範囲)
 上記実施形態では、仮想マシンのプログラミング言語としてJava(TM)を利用したが、Java(TM)ではなく、UNIX(TM) OSなどで使われているB-Shellや、Perl Script、ECMA Scriptなど他のプログラミング言語であっても良い。

 (マルチドライブ化)
 上記実施形態では、記録媒体の一例としてBD-ROM、BD-ROMからデータを読み出す機能を有する具体的な手段の一例としてBD-ROMドライブを例に挙げて説明をした。しかしながら、BD-ROMは単なる一例であり、記録媒体としてBD-R、BD-RE、DVD、CDなどの光ディスク媒体であっても、これらの記録媒体に上述したデータ構造を有するデータが格納されていること、これらの記録媒体を読み取るドライブ装置があれば、上述の実施の形態で説明した動作が可能である。
 各実施の形態における記録媒体は、光ディスク、半導体メモリーカード等、パッケージメディア全般を含んでいる。本実施の形態の記録媒体は予め必要なデータが記録された光ディスク(例えばBD-ROM、DVD-ROMなどの既存の読み取り可能な光ディスク)を例に説明をしたが、これに限定される必要はなく、例えば、放送またはネットワークを経由して配信された本発明の実施に必要なデータを含んだ3Dコンテンツを光ディスクへ書き込む機能を有する端末装置(例えば左記の機能は再生装置に組み込まれていても良いし、再生装置とは別の装置であってもよい)を利用して書き込み可能な光ディスク(例えばBD-RE、DVD-RAMなどの既存の書き込み可能な光ディスク)に記録し、この記録した光ディスクを本発明の再生装置に適用しても本発明の実施は可能である。
 また、記録媒体は光ディスク以外にも例えば、SDメモリーカードなどのリムーバブルメディア(半導体メモリカード)であっても本発明の実施は可能である。
 例えば、BD-ROMの代わりに半導体メモリを用いた場合には、例えば図35に示すような構成では、半導体メモリーカード内のデータを読み出すためのインターフェイスを介してリードバッファ1、リードバッファ2を経由して仮想ファイルシステム3へ送られ、仮想ファイルシステム3から、ヒープメモリ21、動的シナリオメモリ23、静的シナリオメモリ13、テキスト字幕デコーダ18、デマルチプレクサ4に転送されるように構成すればよい。
 より詳細には、再生装置102のスロット(図示せず)に半導体メモリーカードが挿入されると、メモリーカードI/Fを経由して再生装置102と半導体メモリーカードが電気的に接続される。半導体メモリーカードに記録されたデータはメモリーカードI/Fを介してリードバッファ1、リードバッファ2を経由して仮想ファイルシステム3へ送られ、仮想ファイルシステム3からヒープメモリ21、動的シナリオメモリ23、静的シナリオメモリ13、テキスト字幕デコーダ18、デマルチプレクサ4に転送されるように構成すれば良い。
 BD-ROMに記録されたデータのうち、例えば著作権の保護、データの秘匿性の向上の観点からデータの一部が、必要に応じて暗号化されている場合がある。
 例えば、BD-ROMに記録されたデータのうち、暗号化されているデータは、BD-ROMに記録されたデータのいずれであってもよいが、例えばビデオストリームに対応するデータ、オーディオストリームに対応するデータ、字幕ストリームに対応するデータまたはこれらを含むストリームに対応するデータであったりする。
 以後、BD-ROMに記録されたデータのうち、暗号化されているデータの解読について説明をする。
 再生装置においては、BD-ROM内の暗号化されたデータを解読するために必要な鍵に対応するデータ(例えばデバイスキー)が予め再生装置に記憶されている。
 一方、BD-ROMには暗号化されたデータを解読するために必要な鍵に対応するデータ(例えば上述のデバイスキーに対応するMKB(メディアキーブロック))と、暗号化されたデータを解読するための鍵自体を暗号化したデータ(例えば上述のデバイスキー及びMKBに対応する暗号化タイトルキー)が記録されている。ここで、デバイスキー、MKB、及び暗号化タイトルキーは対になっており、さらにBD-ROM上の通常コピーできない領域(BCAと呼ばれる領域)に書き込まれた識別子(例えばボリュームID)とも対応付けがされている。この組み合わせが正しくなければ、暗号の解読ができないものとする。組み合わせが正しい場合のみ、暗号解読に必要な鍵(例えば上述のデバイスキー、MKB及びボリュームIDを元に、暗号化タイトルキーを復号して得られるタイトルキー)を導き出すことができ、この暗号解読に必要な鍵を用いて、暗号化されたデータの解読が可能となる。

 装填されたBD-ROMを再生装置において再生する場合、例えばBD-ROM内の暗号化タイトルキー、MKBと対になっている(または対応する)デバイスキーが再生装置内になければ、暗号化されたデータは再生がなされない。何故ならば、暗号化されたデータの解読に必要な鍵(タイトルキー)は、鍵自体が暗号化されて(暗号化タイトルキー)BD-ROM上に記録されており、MKBとデバイスキーの組み合わせが正しくなければ、暗号の解読に必要な鍵を導き出すことができないからである。
 逆に暗号化タイトルキー、MKB、デバイスキー及びボリュームIDの組み合わせが正しければ、例えば上述の暗号解読に必要な鍵(デバイスキー、MKB及びボリュームIDを元に、暗号化タイトルキーを復号して得られるタイトルキー)を用いてビデオストリームがデコーダにてデコードされ、オーディオストリームがオーディオデコーダにてデコードされるように再生装置は構成されている。

 本実施の形態では記録媒体としてBD-ROMを例に説明をしたが、BD-ROMに必ずしも限定されるのではなく、例えば、読込み/書込み可能な半導体メモリー(例えばSDカードなどの可搬性を有する半導体メモリーカード)に適用した場合においても、実施が可能である。
 例えば、BD-ROMに記録されるデータに相応するデータを例えば電子配信を利用して半導体メモリーカードに記録して、半導体メモリーカードから再生をするような構成としても良い。電子配信を利用して必要なデータを配信し、配信されたデータを記録する場合においても、配信されたデータのうちの一部または全てのデータに対して必要に応じて暗号化を行なって配信し、半導体メモリーに必要なデータについては暗号化がなされたままで記録するのが望ましい。

 例えば電子配信を利用して、本実施の形態で説明をしたデータに相応するデータ(配信データ)を半導体メモリーに記録する動作について説明をする。
 上述の動作は本実施の形態において説明をした再生装置がそのような動作を行なえるように構成をされていても良いし、本実施の形態の再生装置とは別に半導体メモリーに配信データを記憶することを行う専用の端末装置にて行なうような形態であっても良い。ここでは再生装置が行なう例について説明をする。また記録先の半導体メモリーとしてSDカードを例に説明をする。
 再生装置が備えるスロットに挿入されたSDメモリーカードに配信データを記録する場合、まず配信データを蓄積する配信サーバ(図示せず)へ配信データの送信を要求する。このとき再生装置は挿入したSDメモリーカードを一意に識別するための識別情報(例えば個々のSDメモリーカード固有の識別番号、より具体的には、例えばSDメモリーカードのシリアル番号等)をSDメモリーカードから読み出して、読み出した識別情報を配信要求とともに、配信サーバへ送信する。
 この、SDメモリーカードを一意に識別するための識別情報は例えば上述のボリュームIDに相当する。
 一方、配信サーバでは、配信するデータのうち必要なデータ(例えばビデオストリーム、オーディオストリーム等)が暗号解読に必要な鍵(例えばタイトルキー)を用いて暗号の解除ができるように暗号化がなされてサーバ上に格納されている。
 例えば配信サーバは、秘密鍵を保持しており、半導体メモリーカードの固有の識別番号のそれぞれに対して異なる公開鍵情報が動的に生成できるように構成されている。
 また、配信サーバは、暗号化されたデータの解読に必要な鍵(タイトルキー)自身に対して暗号化ができるように構成されている(つまり暗号化タイトルキーを生成できるように構成されている)。

 生成される公開鍵情報は例えば上述のMKB、ボリュームID及び暗号化タイトルキーに相当する情報を含む。暗号化されたデータは例えば半導体メモリー固有の識別番号、後述する公開鍵情報に含まれる公開鍵本体、および再生装置に予め記録されたデバイスキーの組み合わせが正しければ、暗号解読に必要な鍵(例えばデバイスキー、MKB及び半導体メモリー固有の識別番号を元に、暗号化タイトルキーを復号して得られるタイトルキー)が得られ、この得られた暗号解読に必要な鍵(タイトルキー)を用いて、暗号化されたデータの解読ができるものである。

 次に、再生装置は、受信した公開鍵情報と配信データをスロットに挿入した半導体メモリーカードの記録領域に記録する。
 次に、半導体メモリーカードの記録領域に記録した公開鍵情報と配信データに含まれるデータのうち暗号化したデータを復号して再生する方法の一例について説明をする。
 受信した公開鍵情報は例えば公開鍵本体(例えば上述のMKB及び暗号化タイトルキー)、署名情報、半導体メモリーカードの固有の識別番号、および無効にすべきデバイスに関する情報を示すデバイスリストが記録されている。
 署名情報には例えば、公開鍵情報のハッシュ値を含む。
 デバイスリストには例えば、不正に再生がなされる可能性があるデバイスに関する情報が記載されている。これは例えば再生装置に予め記録されたデバイスキー、再生装置の識別番号、または再生装置が備えるデコーダの識別番号といったように、不正に再生される可能性がある装置、装置に含まれる部品、または機能(プログラム)といったものを一意に特定するための情報である。
 半導体メモリーカードの記録領域に記録した配信データのうち、暗号化されたデータの再生に関し、説明をする。
 まず、公開鍵本体を利用して暗号化したデータを復号する前に復号鍵本体を機能させてよいかどうかに関するチェックを行う。
 具体的には、
(1) 公開鍵情報に含まれる半導体メモリー固有の識別情報と半導体メモリーカードに予め記憶されている固有の識別番号とが一致するかどうかのチェック
(2) 再生装置内で算出した公開鍵情報のハッシュ値と署名情報に含まれるハッシュ値が一致するかのチェック
(3) 公開鍵情報に含まれるデバイスリストに示される情報に基づいて、再生を行う再生装置が不正な再生が可能かどうかのチェック(例えば公開鍵情報に含まれるデバイスリストに示されるデバイスキーと、再生装置に予め記憶されたデバイスキーが一致するかどうかのチェック)
 を行なう。これらのチェックを行なう順番どのような順序で行なってもよい。
 上述の(1)~(3)のチェックにおいて、公開鍵情報に含まれる半導体メモリー固有の識別情報と半導体メモリーに予め記憶されている固有の識別番号とが一致しない、再生装置内で算出した公開鍵情報のハッシュ値と署名情報に含まれるハッシュ値が一致しない、または、再生を行う再生装置が不正に再生される可能性があると判断した、のいずれかを満足すれば、再生装置は、暗号化されたデータの解読がなされないように制御する。

 また、公開鍵情報に含まれる半導体メモリーカードの固有の識別情報と半導体メモリーカードに予め記憶されている固有の識別番号とが一致し、かつ再生装置内で算出した公開鍵情報のハッシュ値と署名情報に含まれるハッシュ値が一致し、かつ再生を行う再生装置が不正に再生される可能性がないと判断したのであれば、半導体メモリー固有の識別番号、公開鍵情報に含まれる公開鍵本体、および再生装置に予め記録されたデバイスキーの組み合わせが正しいと判断し、暗号解読に必要な鍵(デバイスキー、MKB及び半導体メモリー固有の識別番号を元に、暗号化タイトルキーを復号して得られるタイトルキー)を用いて、暗号化されたデータの解読を行なう。

 例えば暗号化されたデータがビデオストリーム、オーディオストリームである場合、ビデオデコーダは上述の暗号解読に必要な鍵(暗号化タイトルキーを復号して得られるタイトルキー)を利用してビデオストリームを復号し(デコードし)、オーディオデコーダは、上述の暗号解読に必要な鍵を利用してオーディオストリームを復号する(デコードする)。

 このように構成をすることにより、電子配信時において不正利用される可能性がある再生装置、部品、機能(プログラム)などが分っている場合、これらを識別するための情報をデバイスリストに示して、配信するようにすれば、再生装置側がデバイスリストに示されているものを含むような場合には公開鍵情報(公開鍵本体)を用いた復号を抑止できるようにできるため、半導体メモリー固有の識別番号、公開鍵情報に含まれる公開鍵本体、および再生装置に予め記録されたデバイスキーの組み合わせが、たとえ正しくても、暗号化されたデータの解読がなされないように制御できるため、不正な装置上での配信データの利用を抑止することが可能となる。

 また半導体メモリーカードに予め記録されている半導体メモリーカードの固有の識別子は秘匿性の高い記録領域に格納するような構成を採用するのが望ましい。何故ならば、半導体メモリーカードに予め記録されている固有の識別番号(例えばSDメモリーカードを例にすればSDメモリーカードのシリアル番号等)は改竄がなされると、違法コピーが容易になされてしまう。何故ならば複数の半導体メモリーカードには、それぞれ異なる固有の識別番号が割り当てられているが、この固有の識別番号が同一となるように改竄がなされてしまえば、上述の(1)の判定が意味を成さなくなり、改竄がなされた数に相当する違法コピーがなされてしまう可能性があるからである。
 従って、半導体メモリーカードの固有の識別番号といった情報は秘匿性が高い記録領域に記録するような構成を採用するのが望ましい。
 このような構成を実現するために、例えば半導体メモリーカードは、半導体メモリーカードの固有の識別子と言った秘匿性の高いデータを記録するための記録領域を通常のデータを格納する記録領域(第1の記録領域と称す)とは別の記録領域(第2の記録領域と称す)に設けること、およびこの第2の記録領域へのアクセスをするための制御回路を設けるとともに、第2の記録領域へのアクセスには制御回路を介してのみアクセスできるような構成とする。
 例えば、第2の記録領域に記録されているデータは暗号化がなされて、記録されており、制御回路は、例えば暗号化されたデータを復号するための回路が組み込まれている。制御回路へ第2の記録領域へのデータのアクセスが合った場合には、暗号を復号し、復号したデータを返すように構成すれば良い。または、制御回路は第2の記録領域に記録されているデータの格納場所の情報を保持しており、データのアクセスの要求があれば、対応するデータの格納場所を特定し、特定した格納場所から読み取ったデータを返すような構成としても良い。

 再生装置上で動作するアプリケーションで、電子配信を利用して半導体メモリーカードに記録する要求するアプリケーションは、メモリーカードI/Fを介して制御回路へ第2の記録領域に記録されたデータ(例えば半導体メモリ固有の識別番号)へのアクセス要求を発行すると、要求を受けた制御回路は第2の記録領域に記録されたデータを読み出して再生装置上で動作するアプリケーションへ返す。この半導体メモリーカードの固有の識別番号とともに必要なデータの配信要求を配信サーバに要求し、配信サーバから送られる公開鍵情報、および対応する配信データを第1の記録領域に記録するように構成すればよい。
 また、再生装置上で動作するアプリケーションで、電子配信を利用して半導体メモリーカードに記録を要求するアプリケーションは、メモリーカードI/Fを介して制御回路へ第2の記録領域に記録されたデータ(例えば半導体メモリ固有の識別番号)へのアクセス要求を発行する前に、アプリケーションの改竄がされていないかを事前にチェックすることが望ましい。改竄のチェックには例えば既存のX.509仕様に準拠したデジタル証明書を利用したチェックなどを利用しても良い。
 また、半導体メモリーカードの第1の記録領域に記録された配信データへのアクセスは半導体メモリーカードが有する制御回路を介してアクセスする必要は必ずしもない。

 (プログラムの実施形態)
 各実施形態に示したアプリケーションプログラムは、以下のようにして作ることができる。先ず初めに、ソフトウェア開発者は、プログラミング言語を用いて、各フローチャートや、機能的な構成要素を実現するようなソースプログラムを記述する。この記述にあたって、ソフトウェア開発者は、プログラミング言語の構文に従い、クラス構造体や変数、配列変数、外部関数のコールを用いて、各フローチャートや、機能的な構成要素を具現するソースプログラムを記述する。
 記述されたソースプログラムは、ファイルとしてコンパイラに与えられる。コンパイラは、これらのソースプログラムを翻訳してオブジェクトプログラムを生成する。
 コンパイラによる翻訳は、構文解析、最適化、資源割付、コード生成といった過程からなる。構文解析では、ソースプログラムの字句解析、構文解析および意味解析を行い、ソースプログラムを中間プログラムに変換する。最適化では、中間プログラムに対して、基本ブロック化、制御フロー解析、データフロー解析という作業を行う。資源割付では、ターゲットとなるプロセッサの命令セットへの適合を図るため、中間プログラム中の変数をターゲットとなるプロセッサのプロセッサが有しているレジスタまたはメモリに割り付ける。コード生成では、中間プログラム内の各中間命令を、プログラムコードに変換し、オブジェクトプログラムを得る。
 ここで生成されたオブジェクトプログラムは、各実施形態に示したフローチャートの各ステップや、機能的構成要素の個々の手順を、コンピュータに実行させるような1つ以上のプログラムコードから構成される。ここでプログラムコードは、プロセッサのネィティブコード、JAVAバイトコードというように、様々な種類がある。プログラムコードによる各ステップの実現には、様々な態様がある。外部関数を利用して、各ステップを実現することができる場合、この外部関数をコールするコール文が、プログラムコードになる。また、1つのステップを実現するようなプログラムコードが、別々のオブジェクトプログラムに帰属することもある。命令種が制限されているRISCプロセッサでは、算術演算命令や論理演算命令、分岐命令等を組合せることで、フローチャートの各ステップを実現してもよい。
 オブジェクトプログラムが生成されるとプログラマはこれらに対してリンカを起動する。リンカはこれらのオブジェクトプログラムや、関連するライブラリプログラムをメモリ空間に割り当て、これらを1つに結合して、ロードモジュールを生成する。こうして生成されるロードモジュールは、コンピュータによる読み取りを前提にしたものであり、各フローチャートに示した処理手順や機能的な構成要素の処理手順を、コンピュータに実行させるものである。かかるプログラムをコンピュータ読取可能な記録媒体に記録してユーザに提供してよい。

 (システムLSIの単体実施)
  システムLSIとは、高密度基板上にベアチップを実装し、パッケージングしたものをいう。複数個のベアチップを高密度基板上に実装し、パッケージングすることにより、あたかも1つのLSIのような外形構造を複数個のベアチップに持たせたものも、システムLSIに含まれる(このようなシステムLSIは、マルチチップモジュールと呼ばれる。)。
 ここでパッケージの種別に着目するとシステムLSIには、QFP(クッド フラッド アレイ)、PGA(ピン グリッド アレイ)という種別がある。QFPは、パッケージの四側面にピンが取り付けられたシステムLSIである。PGAは、底面全体に、多くのピンが取り付けられたシステムLSIである。
 これらのピンは、他の回路とのインターフェイスとしての役割を担っている。システムLSIにおけるピンには、こうしたインターフェイスの役割が存在するので、システムLSIにおけるこれらのピンに、他の回路を接続することにより、システムLSIは、再生装置102の中核としての役割を果たす。
 かかるシステムLSIは、再生装置102は勿論のこと、TVやゲーム、パソコン、ワンセグ携帯等、映像再生を扱う様々な機器に組込みが可能であり、本発明の用途を多いに広げることができる。
 エレメンタバッファやビデオデコーダ、オーディオデコーダ、グラフィクスデコーダをも、一体のシステムLSIにする場合、システムLSIのアーキテクチャは、Uniphierアーキテクチャに準拠させるのが望ましい。
 Uniphierアーキテクチャに準拠したシステムLSIは、以下の回路ブロックから構成される。
 ・データ並列プロセッサDPP
 これは、複数の要素プロセッサが同一動作するSIMD型プロセッサであり、各要素プロセッサに内蔵されている演算器を、1つの命令で同時動作させることで、ピクチャを構成する複数画素に対するデコード処理の並列化を図る。
 ・命令並列プロセッサIPP
 これは、命令RAM、命令キャッシュ、データRAM、データキャッシュからなる「Local Memory Controller」、命令フェッチ部、デコーダ、実行ユニット、レジスタファイルからなる「Processing Unit部」、複数アプリケーションの並列実行をProcessing Unit部に行わせる「Virtual Multi Processor Unit部」で構成される。
  ・MPUブロック
 これは、ARMコア、外部バスインターフェイス(Bus Control Unit:BCU)、DMAコントローラ、タイマー、ベクタ割込コントローラといった周辺回路、UART、GPIO(General Purpose Input Output)、同期シリアルインターフェイスなどの周辺インターフェイスで構成される。
 ・ストリームI/Oブロック
 これは、USBインターフェイスやATA Packetインターフェイスを介して、外部バス上に接続されたドライブ装置、ハードリムーバブルメディアドライブ装置、SDメモリカードドライブ装置とのデータ入出力を行う。
 ・AVI/Oブロック
 これは、オーディオ入出力、ビデオ入出力、OSDコントローラで構成され、テレビ、AVアンプとのデータ入出力を行う。
 ・メモリ制御ブロック
 これは、外部バスを介して接続されたSD-RAMの読み書きを実現するブロックであり、各ブロック間の内部接続を制御する内部バス接続部、システムLSI外部に接続されたSD-RAMとのデータ転送を行うアクセス制御部、各ブロックからのSD-RAMのアクセス要求を調整するアクセススケジュール部からなる。
 具体的な生産手順の詳細は以下のものになる。まず各実施形態に示した構成図を基に、システムLSIとすべき部分の回路図を作成し、回路素子やIC,LSIを用いて、構成図における構成要素を具現化する。
 そうして、各構成要素を具現化してゆけば、回路素子やIC,LSI間を接続するバスやその周辺回路、外部とのインターフェイス等を規定する。更には、接続線、電源ライン、グランドライン、クロック信号線等も規定してゆく。この規定にあたって、LSIのスペックを考慮して各構成要素の動作タイミングを調整したり、各構成要素に必要なバンド幅を保証する等の調整を加えながら、回路図を完成させてゆく。
 回路図が完成すれば、実装設計を行う。実装設計とは、回路設計によって作成された回路図上の部品(回路素子やIC,LSI)を基板上のどこへ配置するか、あるいは、回路図上の接続線を、基板上にどのように配線するかを決定する基板レイアウトの作成作業である。
 こうして実装設計が行われ、基板上のレイアウトが確定すれば、実装設計結果をCAMデータに変換して、NC工作機械等の設備に出力する。NC工作機械は、このCAMデータを基に、SoC実装やSiP実装を行う。SoC(System on chip)実装とは、1チップ上に複数の回路を焼き付ける技術である。SiP(System in Package)実装とは、複数チップを樹脂等で1パッケージにする技術である。以上の過程を経て、本発明に係るシステムLSIは、各実施形態に示した再生装置102の内部構成図を基に作ることができる。
 尚、上述のようにして生成される集積回路は、集積度の違いにより、IC、LSI、スーパーLSI、ウルトラLSIと呼称されることもある。
 FPGAを用いてシステムLSIを実現した場合は、多数のロジックエレメントが格子状に配置されており、LUT(Look Up Table)に記載されている入出力の組合せに基づき、縦・横の配線をつなぐことにより、各実施形態に示したハードウェア構成を実現することができる。LUTは、SRAMに記憶されており、かかるSRAMの内容は、電源断により消滅するので、かかるFPGAの利用時には、コンフィグ情報の定義により、各実施形態に示したハードウェア構成を実現するLUTを、SRAMに書き込ませる必要がある。 
 本実施の形態においては、ミドルウェアとシステムLSIに対応するハードウェア、システムLSI以外のハードウェア、ミドルウェアに対するインターフェイスの部分、ミドルウェアとシステムLSIとの間のインターフェイスの部分、ミドルウェアとシステムLSI以外の必要なハードウェアとの間のインターフェイスの部分、ユーザインターフェイスの部分で実現し、これらを組み込んで再生装置を構成したとき、それぞれが連携して動作することにより特有の機能が提供されることになる。
 ミドルウェアに対するインターフェイス、および、ミドルウェアとシステムLSIのインターフェイスを適切に定義することにより、再生装置のユーザインターフェイス部分、ミドルウェア部分、システムLSI部分をそれぞれ独立して並行開発することができ、より効率よく開発することが可能となる。なお、それぞれのインターフェイスの部分のきり方には、様々なきり方がある。例えば、システムLSI106に含まれるものとして示したビデオデコーダ5a、ビデオデコーダ5b、オーディオデコーダ9、色変換部15a、色変換部15b、合成器17a、合成器17bを一チップ化したとき、これらを制御するミドルウェアおよびこれらと対応するミドルウェアとの間のインターフェイスの部分について、チップを開発する側で開発をし、完成後、チップを再生装置に組み込むとともに、開発したミドルウェア、インターフェイス部分を再生装置内のメモリなどの記憶部に組み入れることにより、再生装置側の開発とチップ側の開発を並行して行なうことができるようになり、開発効率が向上する。
 開発したチップと開発したチップに関連するミドルウェアとの間のインターフェイス部分について、共通にすると、汎用性が高くなる。
 なお、システムLSIにて構成をした部分に関しては、LSIでしか構成ができないというものではなく、システムLSIに含まれるべき機能に対応する信号処理回路を用いて構成をしても良いことは言うまでもない。
 本発明に係る、平面表示と立体表示を動的に切り換え可能にする記録媒体、その再生装置および再生方法は、殊に、AVコンテンツの制作に携わる映画産業、および、それを処理する機器の製造に携わる民生機器産業において利用される可能性が高い。例えば、BD-ROMディスク、および、BD-ROMプレーヤ等として利用可能である。
   1,2 リードバッファ
     3 仮想ファイルシステム
      4 デマルチプレクサ
   5a,b ビデオデコーダ
   6a,b、ビデオプレーン
   7a,b グラフィクスデコーダ
   8a,b グラフィクスプレーン
   9   オーディオデコーダ
   10  HDMIインターフェイス
   12  再生状態/設定レジスタセット
   13  静的シナリオメモリ
   14  再生制御エンジン
   15a,b 色変換
   16a,b スケーラ部
   17a,b 合成器
   18  テキスト字幕デコーダ
   21  ヒープメモリ
   22  BD-Jプラットフォーム
   23  動的シナリオメモリ
   24  モード管理モジュール
   25  コマンドインタプリタ
   26  UO検知モジュール
 101 BD-ROM
 102 再生装置
 103 テレビ
 104 ゴーグル
 105 フロントエンド部
 106 システムLSI
 107 メモリデバイス
 108 バックエンド部
 109 不揮発性メモリ
 110 ホストマイコン
 111 ネットワークI/F
 112 BD-ROMドライブ
 113 ローカルストレージ 

Claims (17)

  1.  ビデオストリームと同期して再生すべき字幕ストリームと、プレイリスト情報とが記録された記録媒体であって、
     前記プレイリスト情報は、再生区間情報と、表示方式フラグとを含み、
     前記再生区間情報は、ビデオストリームの再生時間軸におけるインタイムを示す情報、及び、アウトタイムを示す情報を用いて再生区間を定義する情報であり、ストリーム情報テーブルとを含み、
     表示方式フラグは、再生区間における字幕の表示方式の制御を有効とするか否かを示し、
     ストリーム情報テーブルは、再生区間において表示方式を有効とする場合、複数の字幕ストリームのうちどれを選択させるべきかを再生装置に指示する
     ことを特徴とする記録媒体。
  2.  前記字幕の表示方式には、ライトビュー用の字幕、レフトビュー用の字幕を個別に表示することで、立体視を実現する立体視の表示方式があり、
     ストリーム情報テーブルは、再生区間において立体視の表示方式を有効とする場合、同時に選択すべき2つの字幕ストリームの組合せを再生装置に指示する
     ことを特徴とする請求項1記載の記録媒体。
  3.  前記字幕の表示方式には、ユーザの年齢に応じた表示方式があり、
     前記ストリーム番号テーブルは、複数のエントリーからなるエントリー列を含み、各エントリーには、字幕ストリームを構成するパケットのパケット識別子と、個々の字幕ストリームの文字属性とが記述されており、
     ストリーム情報テーブルは、年齢に応じた表示方式を有効とする場合、所定の文字属性をもつ字幕ストリームを再生装置に指示する
     ことを特徴とする請求項1記載の記録媒体。
  4.  所定の文字属性をもつ字幕ストリームとは、平仮名表記の字幕ストリーム、振り仮名付きの字幕ストリームである
     ことを特徴とする請求項3記載の記録媒体。
  5.  前記所定の文字属性をもつ字幕ストリームとは、拡大文字によって現された字幕ストリームである
     ことを特徴とする請求項3記載の記録媒体。
  6.  記録媒体に記録されている複数の字幕ストリームのうち1つを選んで、ビデオストリームと同期して再生する再生装置であって、
     記録媒体には、ビデオストリームと同期して再生すべき字幕ストリームと、プレイリスト情報とが記録されており、
     前記プレイリスト情報は、再生区間情報と、表示方式フラグとを含み、
     前記再生区間情報は、ビデオストリームの再生時間軸におけるインタイムを示す情報、及び、アウトタイムを示す情報を用いて再生区間を定義する情報であり、ストリーム情報テーブルとを含み、
     表示方式フラグは、再生区間における字幕の表示方式の制御を有効とするか否かを示し、
     ストリーム情報テーブルは、再生区間において表示方式を有効とする場合、複数の字幕ストリームのうちどれを選択させるべきかを再生装置に指示し、
     装置におけるコンフィグレーション情報を格納するコンフィグレーション格納部と、
     コンフィグレーション情報において、所定の表示方式の制御を有効にするかが設定されているかどうかの判定を行い、有効とする場合、複数の字幕ストリームのうち、当該表示方式に適合するものを、ビデオストリームと同期すべき字幕ストリームとして選択する選択手段と、
     選択されたグラフィクス字幕ストリームと、ビデオストリームとを再生する再生手段と
     を備えることを特徴とする再生装置。
  7.  前記字幕の表示方式には、ライトビュー用の字幕、レフトビュー用の字幕を個別に表示することで、立体視を実現する立体視方式があり、
     ストリーム情報テーブルは、再生区間において立体視方式を有効とする場合、同時に選択すべき2つの字幕ストリームの組合せを示し、
     前記表示方式に適合する字幕ストリームとは、
     ストリーム情報テーブルによって指示されている2つの字幕ストリームの組合せである、ことを特徴とする請求項6記載の再生装置。
  8.  前記再生装置は、多重分離部を備え、
     再生手段は、
     2つの字幕ストリームのうち、一方をデコードしてレフトビュー字幕を得るグラフィクスデコーダ、他方をデコードしてライトビュー字幕を得るグラフィクスデコーダを含み、
     前記多重分離部はパケットフィルタリングを実行するものであり、ビデオストリーム及び複数の字幕ストリームを構成する複数のTSパケットのうち、選択手段から指示されたパケット識別子をもつものを、ビデオデコーダ、グラフィクスデコーダに出力し、
     前記立体視の表示方式を有効とする場合における選択手段による選択は、2つの字幕ストリームのそれぞれに対応するパケット識別子を、ストリーム情報テーブルから取得して、当該2つのパケット識別子に基づくパケットフィルタリングを多重分離部に命じることでなされる
     ことを特徴とする請求項7記載の再生装置。
  9. 前記再生装置のコンフィグレーション格納部における表示方式が、平面表示を意味している場合、
     立体視再生をするために用いる2つの字幕ストリームのうち、いずれか一方のみを再生手段に再生させることにより、字幕の平面表示を行う
     ことを特徴とする請求項7記載の再生装置。
  10. 前記再生装置は、表示装置との接続が可能であり、
     再生装置は、さらに、
     表示装置が立体表示できるかどうかに関する情報を表示装置から取得する取得手段を備え、
     前記取得した情報から前記表示装置が立体表示できないと判断した場合、立体表示用の字幕ストリームの一部および映像ストリームの一部を用いて平面表示を行い、
     前記立体表示は、前記取得した情報から前記表示装置が立体表示できると判断した場合に実行される
     ように構成した請求項7記載の再生装置。
  11. 前記再生装置のコンフィグレーション格納部は、年齢情報を含み、
     表示方式には、ユーザの年齢に応じた表示方式があり、
     年齢に応じた表示方式は、
     前記コンフィグレーション格納部に設定された年齢情報が、年少者又は年配者向けの年齢を示す場合、字幕ストリームに対応する字幕を拡大することでなされる
     ことを特徴とする請求項6記載の再生装置。
  12. 前記再生装置のコンフィグレーション格納部は、字幕の表示サイズを含み、
     年齢に応じた表示方式は、前記コンフィグレーション格納部に設定されたサイズにまで、字幕サイズを拡大することでなされる
     ことを特徴とする請求項6記載の再生装置。
  13. 前記選択手段は、年齢に応じた表示方式を有効とする場合、所定の文字属性をもつ字幕ストリームを選択し、
     所定の文字属性をもつ字幕ストリームとは、
     平仮名表記の字幕ストリーム、又は、振り仮名付きの字幕ストリームである、ことを特徴する請求項6記載の再生装置。
  14.  ビデオストリームと同期して再生すべき字幕ストリームと、プレイリスト情報とを記録媒体に記録する記録装置であって、
     前記プレイリスト情報は、再生区間情報と、表示方式フラグとを含み、
     前記再生区間情報は、ビデオストリームの再生時間軸におけるインタイムを示す情報、及び、アウトタイムを示す情報を用いて再生区間を定義する情報であり、ストリーム情報テーブルとを含み、
     表示方式フラグは、再生区間における字幕の表示方式の制御を有効とするか否かを示し、
     ストリーム情報テーブルは、再生区間において表示方式を有効とする場合、複数の字幕ストリームのうちどれを選択させるべきかを再生装置に指示する
     ことを特徴とする記録装置。
  15.  記録媒体に記録されている複数の字幕ストリームのうち1つを選んで、ビデオストリームと同期して再生する処理をコンピュータ上で実行する再生方法であって、
     記録媒体には、ビデオストリームと同期して再生すべき字幕ストリームと、プレイリスト情報とが記録されており、
     前記プレイリスト情報は、再生区間情報と、表示方式フラグとを含み、
     前記再生区間情報は、ビデオストリームの再生時間軸におけるインタイムを示す情報、及び、アウトタイムを示す情報を用いて再生区間を定義する情報であり、ストリーム情報テーブルとを含み、
     表示方式フラグは、再生区間における字幕の表示方式の制御を有効とするか否かを示し、
     ストリーム情報テーブルは、再生区間において表示方式を有効とする場合、複数の字幕ストリームのうちどれを選択させるべきかを指示し、
     コンピュータにおけるコンフィグレーション情報を格納するコンフィグレーション格納部と、
     コンフィグレーション情報において、所定の表示方式の制御を有効にするかが設定されているかどうかの判定を行い、有効とする場合、複数の字幕ストリームのうち、当該表示方式に適合するものを、ビデオストリームと同期すべき字幕ストリームとして選択する選択ステップと、
     選択されたグラフィクス字幕ストリームと、ビデオストリームとを再生する再生ステップと
     を備えることを特徴とする再生方法。
  16.  ビデオストリームと同期して再生すべき字幕ストリームと、プレイリスト情報とを記録媒体に記録する記録方法であって、
     前記プレイリスト情報は、再生区間情報と、表示方式フラグとを含み、
     前記再生区間情報は、ビデオストリームの再生時間軸におけるインタイムを示す情報、及び、アウトタイムを示す情報を用いて再生区間を定義する情報であり、ストリーム情報テーブルとを含み、
     表示方式フラグは、再生区間における字幕の表示方式の制御を有効とするか否かを示し、
     ストリーム情報テーブルは、再生区間において表示方式を有効とする場合、複数の字幕ストリームのうちどれを選択させるべきかを再生装置に指示する
     ことを特徴とする記録方法。
  17.  記録媒体に記録されている複数の字幕ストリームのうち1つを選んで、ビデオストリームと同期して再生する処理をコンピュータに実行させるプログラムであって、
     記録媒体には、ビデオストリームと同期して再生すべき字幕ストリームと、プレイリスト情報とが記録されており、
     前記プレイリスト情報は、再生区間情報と、表示方式フラグとを含み、
     前記再生区間情報は、ビデオストリームの再生時間軸におけるインタイムを示す情報、及び、アウトタイムを示す情報を用いて再生区間を定義する情報であり、ストリーム情報テーブルとを含み、
     表示方式フラグは、再生区間における字幕の表示方式の制御を有効とするか否かを示し、
     ストリーム情報テーブルは、再生区間において表示方式を有効とする場合、複数の字幕ストリームのうちどれを選択させるべきかを指示し、
     コンピュータにおけるコンフィグレーション情報を格納するコンフィグレーション格納部と、
     コンフィグレーション情報において、所定の表示方式の制御を有効にするかが設定されているかどうかの判定を行い、有効とする場合、複数の字幕ストリームのうち、当該表示方式に適合するものを、ビデオストリームと同期すべき字幕ストリームとして選択する選択ステップと、
     選択されたグラフィクス字幕ストリームと、ビデオストリームとを再生する再生ステップと
     をコンピュータに実行させることを特徴とするプログラム。
PCT/JP2009/002905 2008-06-26 2009-06-24 記録媒体、再生装置、記録装置、再生方法、記録方法、プログラム WO2009157198A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN200980123473.8A CN102067591B (zh) 2008-06-26 2009-06-24 再现装置、记录装置、再现方法及记录方法
EP09769908.6A EP2293553B1 (en) 2008-06-26 2009-06-24 Recording medium, reproducing device, recording device, reproducing method, recording method, and program
ES09769908T ES2428921T3 (es) 2008-06-26 2009-06-24 Medio de grabación, dispositivo de reproducción, dispositivo de grabación, procedimiento de reproducción, procedimiento de grabación y programa
MX2010013448A MX2010013448A (es) 2008-06-26 2009-06-24 Medio de grabacion, dispositivo de reproduccion, dispositivo de grabacion, metodo de reproduccion, metodo de grabacion y programa.
RU2010150618/07A RU2518189C2 (ru) 2008-06-26 2009-06-24 Носитель записи, устройство воспроизведения, устройство записи, способ воспроизведения, способ записи и программа
JP2010517765A JP5065488B2 (ja) 2008-06-26 2009-06-24 再生装置、再生方法、再生プログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2008-166807 2008-06-26
JP2008166807 2008-06-26
US10961808P 2008-10-30 2008-10-30
US61/109,618 2008-10-30

Publications (1)

Publication Number Publication Date
WO2009157198A1 true WO2009157198A1 (ja) 2009-12-30

Family

ID=41444270

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/002905 WO2009157198A1 (ja) 2008-06-26 2009-06-24 記録媒体、再生装置、記録装置、再生方法、記録方法、プログラム

Country Status (8)

Country Link
US (2) US8265453B2 (ja)
EP (1) EP2293553B1 (ja)
JP (2) JP5065488B2 (ja)
CN (1) CN102067591B (ja)
ES (1) ES2428921T3 (ja)
MX (1) MX2010013448A (ja)
RU (1) RU2518189C2 (ja)
WO (1) WO2009157198A1 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110106149A (ko) * 2010-03-22 2011-09-28 엘지전자 주식회사 영상표시장치 및 그 동작방법
JP2012023488A (ja) * 2010-07-13 2012-02-02 Ntt Docomo Inc 画像処理装置、画像処理方法、表示装置及びプログラム
CN102379123A (zh) * 2010-02-12 2012-03-14 索尼公司 信息处理设备、信息处理方法、重放设备、重放方法、程序和记录介质
JP2013026644A (ja) * 2011-07-15 2013-02-04 Hitachi Consumer Electronics Co Ltd 受信装置、受信方法および送受信方法
JP2013527678A (ja) * 2010-04-14 2013-06-27 サムスン エレクトロニクス カンパニー リミテッド デジタル字幕放送のための放送ビットストリームを生成する方法及びその装置、デジタル字幕放送のための放送ビットストリームを受信する方法及びその装置
JP2013534097A (ja) * 2010-06-18 2013-08-29 サムスン エレクトロニクス カンパニー リミテッド 字幕サービスを含むデジタル放送サービスを提供する方法及びその装置
JP2013545344A (ja) * 2010-10-13 2013-12-19 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート ステレオスコピック映像情報の送信方法及び装置
AU2010248580B2 (en) * 2009-05-12 2015-05-28 Sony Corporation Data structure, recording medium, reproducing device, reproducing method, program, and program storage medium
WO2016039025A1 (ja) * 2014-09-08 2016-03-17 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
WO2018066382A1 (ja) * 2016-10-06 2018-04-12 ソニー株式会社 再生装置および再生方法、記録装置および記録方法、再生記録装置および再生記録方法、並びにプログラム
TWI853240B (zh) 2022-05-04 2024-08-21 台灣大哥大股份有限公司 提供視角切換之影音播放系統及方法

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8335425B2 (en) * 2008-11-18 2012-12-18 Panasonic Corporation Playback apparatus, playback method, and program for performing stereoscopic playback
US10257493B2 (en) * 2009-01-20 2019-04-09 Koninklijke Philips N.V. Transferring of 3D image data
WO2010093115A2 (en) * 2009-02-12 2010-08-19 Lg Electronics Inc. Broadcast receiver and 3d subtitle data processing method thereof
KR20110129903A (ko) * 2009-02-18 2011-12-02 코닌클리케 필립스 일렉트로닉스 엔.브이. 3d 시청자 메타데이터의 전송
JP4985807B2 (ja) * 2009-04-15 2012-07-25 ソニー株式会社 再生装置および再生方法
US8437603B2 (en) * 2009-05-25 2013-05-07 Panasonic Corporation Recording medium, reproduction device, integrated circuit, reproduction method, and program
US20100303437A1 (en) * 2009-05-26 2010-12-02 Panasonic Corporation Recording medium, playback device, integrated circuit, playback method, and program
WO2010147311A2 (en) 2009-06-16 2010-12-23 Lg Electronics Inc. 3d display device and selective image display method thereof
JP5521486B2 (ja) * 2009-06-29 2014-06-11 ソニー株式会社 立体画像データ送信装置および立体画像データ送信方法
CN102474603B (zh) * 2009-07-04 2015-04-22 杜比实验室特许公司 帧兼容三维传输中全分辨率图形、菜单和字幕的支持
EP2525579B1 (en) * 2010-01-11 2019-03-06 LG Electronics Inc. Broadcasting receiver and method for displaying 3d images
JP5533163B2 (ja) * 2010-04-08 2014-06-25 ソニー株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
KR101789636B1 (ko) * 2010-04-30 2017-10-25 엘지전자 주식회사 이미지 처리 방법 및 장치
JP2011239169A (ja) * 2010-05-10 2011-11-24 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
US8771064B2 (en) 2010-05-26 2014-07-08 Aristocrat Technologies Australia Pty Limited Gaming system and a method of gaming
CA2799704C (en) * 2010-05-30 2016-12-06 Jongyeul Suh Method and apparatus for processing and receiving digital broadcast signal for 3-dimensional subtitle
JP5637750B2 (ja) 2010-06-30 2014-12-10 日立コンシューマエレクトロニクス株式会社 記録装置/方法/媒体、再生装置/方法
JP5527727B2 (ja) * 2010-08-06 2014-06-25 日立コンシューマエレクトロニクス株式会社 映像表示システム及び表示装置
JP2012044407A (ja) * 2010-08-18 2012-03-01 Sony Corp 画像処理装置および方法、並びにプログラム
GB2485140A (en) * 2010-10-26 2012-05-09 Sony Corp A Method and Apparatus For Inserting Object Data into a Stereoscopic Image
GB2488746B (en) * 2010-12-23 2016-10-26 Samsung Electronics Co Ltd Improvements to subtitles for three dimensional video transmission
US8566870B2 (en) * 2011-03-31 2013-10-22 Sony Corporation Higher speed high definition television (HDTV) channel and external input surfing
US8988512B2 (en) * 2011-04-14 2015-03-24 Mediatek Inc. Method for adjusting playback of multimedia content according to detection result of user status and related apparatus thereof
JP6307213B2 (ja) * 2012-05-14 2018-04-04 サターン ライセンシング エルエルシーSaturn Licensing LLC 画像処理装置、画像処理方法およびプログラム
JP6140416B2 (ja) * 2012-10-10 2017-05-31 サターン ライセンシング エルエルシーSaturn Licensing LLC 情報処理装置、情報処理方法およびプログラム
KR20140049832A (ko) * 2012-10-18 2014-04-28 삼성전자주식회사 블루레이 디스크와 이를 재생하기 위한 블루레이 디스크 재생 장치 및 그 자막 표시 방법
EP2866435A1 (en) * 2013-10-22 2015-04-29 TP Vision Holding B.V. Consumer device and method for adapting the duration of a temporary control status related to the display of a user interface element
CN111212251B (zh) * 2014-09-10 2022-05-27 松下电器(美国)知识产权公司 再现装置以及再现方法
CN111899770B (zh) * 2014-09-12 2022-07-08 松下电器(美国)知识产权公司 非暂时性计算机可读介质、再现装置以及再现方法
JP2016081553A (ja) * 2014-10-17 2016-05-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 記録媒体、再生方法、および再生装置
CN104681023A (zh) * 2015-02-15 2015-06-03 联想(北京)有限公司 一种信息处理方法及电子设备
CN106980579B (zh) 2016-09-30 2020-08-14 阿里巴巴集团控股有限公司 一种图片加载方法及装置
CN106570096B (zh) * 2016-10-31 2019-02-22 腾讯科技(深圳)有限公司 图片排序方法和装置
CN107168892A (zh) * 2017-03-29 2017-09-15 联想(北京)有限公司 一种数据的写入方法及装置
CN108924599A (zh) 2018-06-29 2018-11-30 北京优酷科技有限公司 视频字幕显示方法及装置
CN109151507B (zh) * 2018-08-08 2021-06-11 武汉市风奥科技股份有限公司 视频播放系统及方法
CN114500974B (zh) * 2020-07-17 2024-01-30 深圳市瑞立视多媒体科技有限公司 基于虚幻引擎的字幕实现方法、设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10208446A (ja) 1996-11-22 1998-08-07 Toshiba Corp 多種言語記録媒体
JP2001333335A (ja) * 2000-05-24 2001-11-30 Minolta Co Ltd 映像情報機器
JP2003100055A (ja) * 2001-06-04 2003-04-04 Matsushita Electric Ind Co Ltd 記録装置、記録媒体、再生装置、プログラム、方法
WO2004082297A1 (ja) 2003-03-11 2004-09-23 Seijiro Tomita 立体映像表示装置
JP2005252989A (ja) * 2004-03-08 2005-09-15 Kazunari Era 立体視化パラメータ記憶媒体、立体視化パラメータ埋込装置、立体視画像再生装置、立体視化パラメータ埋込プログラム、立体視画像再生プログラム、及びビデオコンテンツデータの流通方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG82587A1 (en) * 1997-10-21 2001-08-21 Sony Corp Recording apparatus, recording method, playback apparatus, playback method, recording/playback apparatus, recording/playback method, presentation medium and recording medium
DE69841745D1 (de) * 1997-10-21 2010-08-12 Sony Corp Aufzeichnungsgerät, Aufzeichnungsverfahren, Aufzeichnungsmedium
EP2261908A3 (en) * 2001-06-04 2012-10-17 Panasonic Corporation Recording apparatus and method, playback apparatus and method and recording medium
JPWO2003092303A1 (ja) * 2002-04-25 2005-09-08 シャープ株式会社 マルチメディア情報生成装置およびマルチメディア情報再生装置
JP2004274125A (ja) * 2003-03-05 2004-09-30 Sony Corp 画像処理装置および方法
WO2005010882A1 (en) * 2003-07-24 2005-02-03 Lg Electronics Inc. Recording medium having a data structure for managing reproduction of text subtitle data recorded thereon and recording and reproducing methods and apparatuses
BRPI0409003A (pt) * 2003-11-10 2006-03-28 Matsushita Electric Ind Co Ltd meio de gravação, aparelho de reprodução, programa, método de reprodução, circuito integrado do sistema
KR100739680B1 (ko) * 2004-02-21 2007-07-13 삼성전자주식회사 스타일 정보를 포함하는 텍스트 기반 서브타이틀을 기록한저장 매체, 재생 장치 및 그 재생 방법
WO2005124779A1 (ja) * 2004-06-18 2005-12-29 Matsushita Electric Industrial Co., Ltd. 再生装置、プログラム、再生方法
EP1775726A4 (en) * 2004-07-22 2009-05-27 Panasonic Corp PLAYING DEVICE, PLAY PROCESS, PROGRAM AND COMPUTER READABLE RECORDING MEDIUM
JP4339206B2 (ja) * 2004-08-19 2009-10-07 ソニー株式会社 再生装置、再生方法および再生プログラム、ならびに、記録媒体
CN101853680B (zh) * 2004-12-01 2013-02-27 松下电器产业株式会社 再现装置和再现方法
JP4879480B2 (ja) * 2004-12-02 2012-02-22 ソニー株式会社 再生装置、再生方法および再生プログラム、記録媒体、ならびに、データ構造体
KR101377736B1 (ko) * 2006-10-11 2014-03-24 코닌클리케 필립스 엔.브이. 3차원 그래픽 데이터의 생성
JP2009135686A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10208446A (ja) 1996-11-22 1998-08-07 Toshiba Corp 多種言語記録媒体
JP2001333335A (ja) * 2000-05-24 2001-11-30 Minolta Co Ltd 映像情報機器
JP2003100055A (ja) * 2001-06-04 2003-04-04 Matsushita Electric Ind Co Ltd 記録装置、記録媒体、再生装置、プログラム、方法
WO2004082297A1 (ja) 2003-03-11 2004-09-23 Seijiro Tomita 立体映像表示装置
JP2005252989A (ja) * 2004-03-08 2005-09-15 Kazunari Era 立体視化パラメータ記憶媒体、立体視化パラメータ埋込装置、立体視画像再生装置、立体視化パラメータ埋込プログラム、立体視画像再生プログラム、及びビデオコンテンツデータの流通方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2293553A4

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2010248580B2 (en) * 2009-05-12 2015-05-28 Sony Corporation Data structure, recording medium, reproducing device, reproducing method, program, and program storage medium
CN103763541A (zh) * 2010-02-12 2014-04-30 索尼公司 信息处理设备、信息处理方法、重放设备、重放方法、程序和记录介质
US9025933B2 (en) 2010-02-12 2015-05-05 Sony Corporation Information processing device, information processing method, playback device, playback method, program and recording medium
CN103763541B (zh) * 2010-02-12 2015-11-25 索尼公司 信息处理设备、信息处理方法、重放设备、重放方法、程序和记录介质
JP2013511789A (ja) * 2010-02-12 2013-04-04 ソニー株式会社 情報処理方法、再生装置、および記録媒体
JP2013070385A (ja) * 2010-02-12 2013-04-18 Sony Corp 再生装置、記録媒体、および情報処理方法
JP2013081181A (ja) * 2010-02-12 2013-05-02 Sony Corp 再生装置、記録媒体、および情報処理方法
JP2013081180A (ja) * 2010-02-12 2013-05-02 Sony Corp 再生装置、記録媒体、および情報処理方法
CN102379123B (zh) * 2010-02-12 2015-05-13 索尼公司 信息处理设备、信息处理方法、重放设备和重放方法
JP2013138467A (ja) * 2010-02-12 2013-07-11 Sony Corp 記録媒体および情報処理方法
JP2013157992A (ja) * 2010-02-12 2013-08-15 Sony Corp 再生装置、記録媒体、および情報処理方法
JP2013158003A (ja) * 2010-02-12 2013-08-15 Sony Corp 再生装置、記録媒体、および情報処理方法
CN102379123A (zh) * 2010-02-12 2012-03-14 索尼公司 信息处理设备、信息处理方法、重放设备、重放方法、程序和记录介质
KR101638541B1 (ko) * 2010-03-22 2016-07-11 엘지전자 주식회사 영상표시장치 및 그 동작방법
KR20110106149A (ko) * 2010-03-22 2011-09-28 엘지전자 주식회사 영상표시장치 및 그 동작방법
US9313442B2 (en) 2010-04-14 2016-04-12 Samsung Electronics Co., Ltd. Method and apparatus for generating a broadcast bit stream for digital broadcasting with captions, and method and apparatus for receiving a broadcast bit stream for digital broadcasting with captions
JP2013527678A (ja) * 2010-04-14 2013-06-27 サムスン エレクトロニクス カンパニー リミテッド デジタル字幕放送のための放送ビットストリームを生成する方法及びその装置、デジタル字幕放送のための放送ビットストリームを受信する方法及びその装置
JP2013534097A (ja) * 2010-06-18 2013-08-29 サムスン エレクトロニクス カンパニー リミテッド 字幕サービスを含むデジタル放送サービスを提供する方法及びその装置
JP2012023488A (ja) * 2010-07-13 2012-02-02 Ntt Docomo Inc 画像処理装置、画像処理方法、表示装置及びプログラム
JP2013545344A (ja) * 2010-10-13 2013-12-19 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート ステレオスコピック映像情報の送信方法及び装置
JP2013026644A (ja) * 2011-07-15 2013-02-04 Hitachi Consumer Electronics Co Ltd 受信装置、受信方法および送受信方法
JPWO2016039025A1 (ja) * 2014-09-08 2017-06-01 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
WO2016039025A1 (ja) * 2014-09-08 2016-03-17 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
JP2017139052A (ja) * 2014-09-08 2017-08-10 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
WO2018066382A1 (ja) * 2016-10-06 2018-04-12 ソニー株式会社 再生装置および再生方法、記録装置および記録方法、再生記録装置および再生記録方法、並びにプログラム
JPWO2018066382A1 (ja) * 2016-10-06 2019-07-18 ソニー株式会社 再生装置および再生方法、記録装置および記録方法、再生記録装置および再生記録方法、並びにプログラム
US11398077B2 (en) 2016-10-06 2022-07-26 Sony Corporation Reproducing device, reproducing method, recording device, recording method, reproducing/recording device, and reproducing/recording method for display of a 3D model arranged in a space recreated by a free visual point moving image stream
TWI853240B (zh) 2022-05-04 2024-08-21 台灣大哥大股份有限公司 提供視角切換之影音播放系統及方法

Also Published As

Publication number Publication date
CN102067591B (zh) 2014-03-19
JP5065488B2 (ja) 2012-10-31
JP5400932B2 (ja) 2014-01-29
US20120294585A1 (en) 2012-11-22
US8265453B2 (en) 2012-09-11
JPWO2009157198A1 (ja) 2011-12-08
MX2010013448A (es) 2010-12-22
ES2428921T3 (es) 2013-11-12
US8509593B2 (en) 2013-08-13
EP2293553A4 (en) 2011-12-28
JP2012213220A (ja) 2012-11-01
EP2293553B1 (en) 2013-09-11
CN102067591A (zh) 2011-05-18
EP2293553A1 (en) 2011-03-09
RU2518189C2 (ru) 2014-06-10
US20090324202A1 (en) 2009-12-31
RU2010150618A (ru) 2012-08-10

Similar Documents

Publication Publication Date Title
JP5400932B2 (ja) 再生装置、再生方法
JP5291026B2 (ja) 3d映像を再生する再生装置、および配信装置
JP4923162B2 (ja) 受信装置、受信方法
WO2010038409A1 (ja) 再生装置、記録媒体、及び集積回路
WO2010095411A1 (ja) 記録媒体、再生装置、集積回路
WO2010095410A1 (ja) 記録媒体、再生装置、集積回路
WO2010095382A1 (ja) 記録媒体、再生装置、集積回路
WO2010095381A1 (ja) 記録媒体、再生装置、集積回路
WO2009157159A1 (ja) 記録媒体、再生装置、集積回路、再生方法、プログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980123473.8

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09769908

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010517765

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: MX/A/2010/013448

Country of ref document: MX

Ref document number: 2009769908

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 4711/KOLNP/2010

Country of ref document: IN

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2010150618

Country of ref document: RU