WO2005079063A1 - 再生装置および再生方法、プログラム格納媒体、並びにプログラム - Google Patents

再生装置および再生方法、プログラム格納媒体、並びにプログラム Download PDF

Info

Publication number
WO2005079063A1
WO2005079063A1 PCT/JP2005/002232 JP2005002232W WO2005079063A1 WO 2005079063 A1 WO2005079063 A1 WO 2005079063A1 JP 2005002232 W JP2005002232 W JP 2005002232W WO 2005079063 A1 WO2005079063 A1 WO 2005079063A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
file
subtitle
information
attribute
Prior art date
Application number
PCT/JP2005/002232
Other languages
English (en)
French (fr)
Inventor
Yoshiyuki Kobayashi
Motoki Kato
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to KR1020117019372A priority Critical patent/KR101161530B1/ko
Priority to CN2005800050866A priority patent/CN1922869B/zh
Priority to KR1020117019375A priority patent/KR101226884B1/ko
Priority to US10/589,192 priority patent/US7805058B2/en
Priority to KR1020067016321A priority patent/KR101122382B1/ko
Priority to EP05719134A priority patent/EP1718074A4/en
Priority to KR1020117019373A priority patent/KR101161529B1/ko
Priority to KR1020117019377A priority patent/KR101226775B1/ko
Publication of WO2005079063A1 publication Critical patent/WO2005079063A1/ja
Priority to US12/858,477 priority patent/US8615158B2/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/327Table of contents
    • G11B27/329Table of contents on a disc [VTOC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2541Blu-ray discs; Blue laser DVR discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/781Television signal recording using magnetic recording on disks or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/87Regeneration of colour television signals
    • H04N9/8715Regeneration of colour television signals involving the mixing of the reproduced video signal with a non-recorded signal, e.g. a text signal

Definitions

  • the present invention relates to a reproducing apparatus, a reproducing method, a program storage medium, and a program.
  • the present invention relates to a reproducing apparatus and a reproducing method, a program storage medium, and a program, and in particular, to a reproducing apparatus and a reproducing apparatus capable of downloading an update file of a content recorded on a recording medium.
  • the present invention relates to a method, a program storage medium, and a program. Background art
  • the DVD video format is one of the playback-only standards for DVD (Digital Versatile Disc).
  • content data such as video and audio are multiplexed with various sub-picture data such as subtitles and recorded on a disc as a program stream.
  • navigation data for playing the stream interactively is recorded on the disc.
  • the interactive playback includes not only playback from a desired position and playback in a preferred order, but also a multi-angle function that enables playback of video captured at various angles and multiple languages.
  • Users can use various DVD functions, such as a multi-language function that enables playback in the language of their choice from among them, a parental control function that prevents the playback of certain scenes such as violence scenes, etc. Playback.
  • the program stream can also multiplex a plurality of audio streams and a plurality of subtitle data streams.
  • subtitle data in a plurality of different languages can be recorded on a single disc, and the user can start or stop playing the video. You can select audio and subtitles in your favorite language.
  • Patent Document 1 discloses a system in which a user can easily download content such as sound effects, moving images, and still images, which are materials of a video work. Further, Patent Literature 2 discloses a technique capable of replacing a certain part of data of music data with other data. Patent Document 1: JP 2003-140662 A
  • Patent Document 2 Japanese Patent Application Laid-Open No. 2002-311967
  • the conventional display of subtitles of movie contents and the like is recorded as image information such as bitmaps.
  • image information such as bitmaps.
  • the display quality may be significantly deteriorated, for example, the outline may be broken.
  • the display size and color of the subtitles recorded as image information such as bitmaps, the type of fonts, and the like cannot be changed based on the user's operation input, and the user cannot display the subtitles, Or you can't do a hidden selection of power.
  • the present invention has been made in view of such circumstances, and by enabling an update file of a content recorded on a disc to be downloaded, the content recorded on the disc can be downloaded. On the other hand, it is intended to allow a user to display a caption in a desired format.
  • the playback device of the present invention includes a read control unit that controls reading of first information including a character object and attribute data for displaying subtitles from a recording medium or a storage unit inside the playback device.
  • a character object outside holding unit that holds outside the character object included in the first information whose reading is controlled by the reading control unit; and attribute data included in the first information whose reading is controlled by the reading control unit.
  • Attribute data holding means for holding character data and font data, and converting the character object held by the character object holding means into subtitle data using the attribute data and font data held by the attribute data holding means
  • conversion means for performing the conversion.
  • Operation input acquisition means for acquiring the user's operation input may be further provided, and the read control means includes a recording medium based on the user's operation input acquired by the operation input acquisition means. Alternatively, reading of the first information stored in the storage unit inside the playback device can be controlled.
  • An operation input acquisition unit that acquires a user's operation input, and based on the user's operation input acquired by the operation input acquisition unit, changes attribute data held by the attribute data holding unit.
  • control means for converting the character object into caption data based on the attribute data whose change is controlled by the attribute data change control means.
  • Operation input acquisition means for acquiring the user's operation input may be further provided, and the conversion means may acquire the operation input based on the user's operation input acquired by the operation input acquisition means. Font data to be changed.
  • Operation input acquisition means for acquiring a user's operation input may be further provided, and the read control means includes an AV stream and first information stored in the storage unit.
  • the second information which is information for controlling the reading of the information, and the reading of the AV stream recorded on the recording medium can be further controlled, and the user's information acquired by the operation input acquiring means can be further controlled.
  • the reading of the second information can be controlled based on the operation input, and the reading of the AV stream and the first information can be controlled based on the read second information. can do.
  • the information processing apparatus may further include first decoding means for decoding the AV stream whose reading has been controlled by the reading control means.
  • Second decoding means for decoding the first information the reading of which is controlled by the reading control means, and a count for counting a count value serving as a reference for the processing timing of the decoding of the AV stream by the first decoding means.
  • Means, and calculating means for calculating a reference for processing timing of decoding of the first information by the second decoding means based on the force value counted by the counting means. .
  • Decoding means for decoding the first information whose reading has been controlled by the reading control means may be further provided, and the character object holding means includes the first information decoded by the decoding means.
  • the attribute data holding means can hold attribute data included in the first information decoded by the decoding means.
  • a communication means for transmitting and receiving information to and from a predetermined information processing apparatus via a network may be further provided.
  • the storage unit inside the playback apparatus stores the first information received by the communication means. Can be stored.
  • the first data group and the first data group are stored based on the file system of the first data group stored in the recording medium and the file system of the second data group stored in the storage unit inside the playback device.
  • Virtual file system generating means for generating a virtual file system including at least a part of each of the second data group may be further provided.
  • the first information stored in the storage unit inside the playback device may include second information related to generation of a virtual file system, and the read control unit includes: The reading of the second information stored in the storage unit inside the playback device can be further controlled, and the virtual file system generating means has the second information whose reading has been controlled by the reading control means. It is possible to create a virtual file system based on the information.
  • a storage unit for storing the first information whose readout is controlled by the readout control unit may be further provided, and the storage unit is controlled by the readout control unit to control the entire readout.
  • the first information may be stored.
  • the apparatus further comprises table information generating means for generating table information indicating a relationship between information indicating a decoding start point of the first information whose reading is controlled by the reading control means and a time stamp of the decoding start point.
  • table information generating means for generating table information indicating a relationship between information indicating a decoding start point of the first information whose reading is controlled by the reading control means and a time stamp of the decoding start point.
  • the reading of the first information can be controlled by referring to the table information generated by the table information generating means.
  • a read control step of controlling reading of first information including a character object for displaying subtitles and attribute data from a recording medium or a storage unit inside the reproduction device and a character object holding step for holding a character object included in the first information whose reading is controlled by the processing of the reading control step, and an attribute included in the first information whose reading is controlled by the processing of the reading control step
  • An attribute data holding step for holding data and font data are acquired, and the character object held in the character object holding step is converted into subtitle data using the attribute data and font data held in the attribute data holding step.
  • a converting step is acquired, and the character object held in the character object holding step is converted into subtitle data using the attribute data and font data held in the attribute data holding step.
  • the program stored in the program storage medium of the present invention stores the first information including a character object for displaying subtitles and attribute data from a recording medium or a storage unit inside a playback device.
  • a reading control step of controlling reading a character object holding step of holding a character object included in the first information whose reading has been controlled by the processing of the reading control step, and a reading control step.
  • a conversion step of converting the data and the font data into subtitle data.
  • the program according to the present invention includes: a read control step of controlling reading of first information including a character object for displaying subtitles and attribute data from a recording medium or a storage unit inside the playback device; A character object holding step for holding a character object included in the first information whose reading has been controlled by the reading control step, and attribute data included in the first information whose reading has been controlled by the reading controlling step Attribute data holding step to hold the character data and font data, and convert the outside of the character object held by the outside character object holding step into subtitle data using the attribute data and font data held by the attribute data holding step And a converting step. To be executed by the over data.
  • the first information including the character object and the attribute data for displaying the caption is stored in the storage medium or the storage unit inside the playback device.
  • the outside of the character object included in the read and read first information is stored, the attribute data included in the read first information is stored, font data is obtained, and the character object is stored. Is converted to subtitle data using the attribute data and font data.
  • subtitle data corresponding to subtitles to be displayed is generated.
  • a character object which is separated from data corresponding to subtitles previously converted to image data is used.
  • attribute data can be obtained and converted to subtitle data.
  • FIG. 1 is a block diagram showing a configuration of a playback device according to a first embodiment of the present invention.
  • FIG. 2 is a diagram illustrating an example of an application format on a recording medium mounted on the playback device according to the first embodiment of the present invention.
  • FIG. 3 is a diagram for describing a different example of an application format on a recording medium to be mounted on a playback device to which the present invention is applied.
  • FIG. 4 is a diagram for explaining a state in which a file has been downloaded.
  • FIG. 5 is a diagram for describing a configuration of an AV stream.
  • FIG. 6 is a functional block diagram for explaining functions of a controller in FIG. 1.
  • FIG. 7 is a diagram showing an example of an optical disk file system and a local storage file system.
  • FIG. 8 is a diagram showing an example of a file system obtained by merging the two file systems of FIG. 7.
  • FIG. 9 is a diagram for describing a playlist and data that can be referenced by the playlist.
  • FIG. 10 is a diagram for explaining data to be additionally distributed.
  • FIG. 1l A view showing the syntax of SubPlayItem.
  • FIG. 12 is a diagram for explaining the syntax of a text subtitle file.
  • FIG. 13 is a diagram for describing attribute setting by control characters.
  • FIG. 14 is a diagram for describing attribute setting by control characters.
  • FIG. 15 is a diagram for explaining a markup format identifier and a markup format.
  • FIG. 16 is a diagram for describing a data structure of subtitle_data () in the case of specifying an attribute by a TLV encoding method.
  • FIG. 17 is a diagram showing escape codes.
  • FIG. 18 is a diagram for explaining a code indicating an attribute type described in attribute_type.
  • FIG. 19 A diagram showing the data structure of attribute_value when the described attribute type is CLUT setting.
  • FIG. 21 is a diagram showing an example of a code indicating designation of a rendering direction.
  • FIG. 22 is a diagram for describing a code described in attribute_value when the described attribute type is a font style designation.
  • FIG. 25 is a diagram showing a data structure of attribute_value when the described attribute type is a character object sequence repetition designation.
  • FIG. 26 is a diagram for describing the data structure of subtitle_data () in the case of attribute specification using a tagged language.
  • FIG. 27 is a diagram for explaining the format of TaggedAttr.
  • FIG. 28 is a diagram for describing elements and attribute types for attribute designation in a tagged language.
  • FIG. 29 is a diagram for describing a rendering direction.
  • FIG. 30 is a diagram for describing a rendering direction.
  • FIG. 31 is a diagram for describing a rendering direction.
  • FIG. 32 is a diagram showing a virtual storage area of the local storage in FIG. 1.
  • FIG. 33 is a block diagram for explaining a detailed configuration of the decoder in FIG. 1.
  • FIG. 34 is a block diagram for describing a detailed configuration of a text subtitle processing unit in FIG. 33.
  • FIG. 35 is a flowchart for describing download processing 1
  • FIG. 36 is a flowchart for describing a reproduction process 1
  • FIG. 37 is a flowchart illustrating a content reproduction process 1.
  • FIG. 38 is a flowchart for describing a caption display process 1.
  • FIG. 39 is a flowchart for describing a caption display process 1.
  • FIG. 40 is a block diagram illustrating a configuration of a playback device in a second embodiment to which the present invention is applied.
  • FIG. 41 is a functional block diagram for explaining functions of the controller in FIG. 40.
  • FIG. 42 is a diagram illustrating an example of a file system of the optical disc in FIG. 40.
  • FIG. 43 is a diagram for explaining data to be additionally distributed.
  • FIG. 44 is a diagram for explaining the archiving of data to be distributed and distributed.
  • FIG. 45 is a diagram for describing the configuration of SubPath.
  • FIG. 46 is a diagram showing a list of values that can be specified for operation_type included in the metadata in FIG. 44;
  • FIG. 47 is a diagram for describing file updating when 0x02 is described in an 8-bit field of operation_type.
  • FIG. 48 is a diagram for describing file updating when 0x02 is described in an 8-bit field of operation_type.
  • Fig. 49 is a diagram for describing updating of a file when 0x03 is described in an 8-bit field of operation_type.
  • FIG. 50 is a diagram for describing file update when 0x03 is described in an 8-bit field of operation_type.
  • FIG. 51 is a diagram for describing file updating when 0x04 is described in an 8-bit field of operation_type.
  • FIG. 52 is a diagram for describing file updating when 0x04 is described in an 8-bit field of operation_type.
  • FIG. 53 is a diagram showing a list of values that can be specified for permission included in the metadata in FIG. 44;
  • FIG. 54 is a diagram for describing the syntax of a text subtitle file.
  • FIG. 55 is a view for explaining the data structure of subtitle_data () in the case of specifying an attribute by the TLV encoding method.
  • FIG. 56 is a view for explaining codes indicating attribute types described in data_type.
  • FIG. 58 is a diagram for describing a container file in which a text subtitle stream is stored.
  • FIG. 59 is a diagram for describing a configuration example of a BDAV MPEG-2 transport stream in which a text subtitle stream is stored.
  • FIG. 60 is a diagram showing a data structure of data stored in a local storage 24.
  • FIG. 61 is a diagram showing a data structure of a second virtual file system.
  • FIG. 62 is a diagram for describing the PlayList, Main Path, and Sub path.
  • FIG. 63 is a block diagram showing a configuration of a decoder of the playback device in FIG. 1.
  • FIG. 64 is a view for explaining an EP_map.
  • FIG. 65 is a block diagram showing a configuration of a text subtitle processing unit in FIG. 63.
  • FIG. 66 is a diagram for describing reference to STC.
  • FIG. 67 is a diagram for describing reference to STC.
  • FIG. 68 is a flowchart for describing download processing 2
  • FIG. 69 is a flowchart for describing reproduction process 2;
  • FIG. 70 is a flowchart for describing virtual file system generation processing.
  • FIG. 71 is a flowchart illustrating a content reproduction process 2
  • FIG. 72 is a flowchart for describing subtitle display processing 2.
  • FIG. 73 is a flowchart for describing subtitle display processing 2.
  • FIG. 74 is a flowchart illustrating a content reproduction process 3
  • FIG. 75 is a flowchart for describing subtitle display processing 3
  • FIG. 76 is a flowchart for describing subtitle display processing 3
  • 1 playback device 11 optical disk, 21 controller, 22 optical disk drive, 23 memory, 24 local storage, 26 decoder, 31 menu screen display control unit, 32 operation input acquisition unit, 33 data acquisition unit, 34 local storage directory management unit, 35 Optical disk directory management unit, 66 file system merge processing unit, 37 playback control unit, 81 control unit, 86 audio decoder, 87 MPEG video decoder, 92 text subtitle processing unit, 93 subtitle graphics plane processing unit, 94 composition processing unit, 121 text data buffer, 122 character object buffer, 123 attributes Data buffer, 124 font rasterizer, 125 bookmark buffer, 181 playback device, 191 controller, 192 decoder, 193 optical disk, 201 local storage directory management unit, 202 optical disk directory management unit, 203 file system merge processing unit, 204 playback control unit , 211 STC counter, 214 control unit, 215 disk data acquisition unit, 216 memory, 217 buffer,
  • FIG. 1 is a block diagram showing a configuration example of a reproducing apparatus 1 according to the first embodiment to which the present invention is applied.
  • the controller 21 reads a navigation program (described later) recorded on the optical disk 11 by executing a control program prepared in advance or by controlling the optical disk drive 22 and stores it in the memory 23. By expanding and executing, the overall operation of the playback device 1 is controlled. For example, when the optical disk 11 is loaded, the controller 21 can display a predetermined menu screen on an external display device.
  • the optical disk drive 22 reads data from the optical disk 11 under the control of the controller 21 and outputs the read data to the controller 21, the memory 23, or the decoder 26.
  • information read from the optical disk 11 information read by the optical disk drive 22 is output to the controller 21 or the memory 23. If the information is an AV stream or text data read from the optical disc 11, the information read by the optical disc drive 22 is output to the decoder 26.
  • FIG. 2 is a diagram showing an example of an application format of the optical disc 11 mounted on the reproducing apparatus 1 to which the present invention is applied.
  • the recording medium is, for example, a magnetic disk in addition to the optical disk 11. It may be a semiconductor memory.
  • the application format is used to manage AV (Audio Visual) streams.
  • PlayList It has two layers, PlayList and Clip.
  • a pair of one AV stream or text data and Clip Information which is information associated therewith, is considered as one object, and these are collectively referred to as a Clip.
  • the data file of the AV stream is referred to as an AV stream file.
  • the Clip Information data file is called a Clip Information file.
  • a file used in a computer or the like is treated as a byte sequence.
  • the contents of an AV stream file are developed on a time axis, and an access point of a Clip is mainly designated by a time stamp in a PlayList. You.
  • the Information file is used to find, from the time stamp, address information at which decoding in the AV stream file is to be started.
  • PlayList is a set of information indicating the playback section of the AV stream.
  • Information indicating one playback section in a certain AV stream is called Playltem, and Playltem is represented by a pair of IN point (playback start point) and OUT point (playback end point) on the time axis on the playback section. . Therefore, the PlayList is composed of one or more Playltems as shown in FIG.
  • the first PlayList shown first from the left is made up of two Playltems, and the two Playltems are used to display the AV stream included in the first Clip shown on the left.
  • the first half and the second half are respectively referenced.
  • the second PlayList shown second from the left is made up of one Playltem, whereby the entire AV stream included in the second Clip shown on the right is referenced.
  • the third PlayList shown in the third diagram from the left is composed of two Playltems,
  • the Playltem refers to a predetermined portion of the AV stream included in the first Clip illustrated on the left and a predetermined portion of the AV stream included in the second Clip illustrated on the right, respectively. ing.
  • the navigation program determines the order of PlayList playback
  • the function to control the interactive playback of PlayList is executed by the controller 21. It is a program to make it.
  • the navigation program also has a function of displaying a menu screen for a user to instruct to execute various kinds of reproduction.
  • This navigation program is described in a programming language such as Java (registered trademark), and is recorded on a recording medium such as the optical disk 11.
  • Java registered trademark
  • the first Playltem included in the first PlayList shown first from the left in FIG. 2 is designated as the information indicating the playback position at that time.
  • the first half of the AV stream included in the first Clip shown on the left side referred to by the Playltem is reproduced.
  • the PlayList described with reference to FIG. 2 includes a main path (
  • SubPlayltem for example, an independent data stream that is not multiplexed with a Clip (for example, an MPEG2 transport stream) specified by the Playltem can be reproduced in synchronization with the AV stream reproduction.
  • a Clip for example, an MPEG2 transport stream
  • subtitle-related information including a text subtitle file and a font file required for rendering, and subtitles
  • SubPlayltem that specifies the playback section of the related information
  • the subtitles corresponding to the data described in the text subtitle file are converted to the font data described in the font file. Based on the display font, it can be displayed on the display device.
  • the subtitle-related information including the text subtitle file and the font file necessary for rendering, and the SubPlayltem may be recorded on the optical disk 11 in advance, or may be downloaded from the server 3 via the network 2. May be obtained, or may be obtained by using a removable medium (for example, a removable medium 28 described later). The details of downloading the subtitle related information and SubPlayltem from the server 3 will be described later with reference to FIG.
  • the memory 23 stores data necessary for the controller 21 to execute various processes. Is stored as appropriate.
  • the local storage 24 is composed of, for example, an HDD (Hard Disk Drive).
  • the Internet interface 25 is connected to the network 2 by wire or wirelessly, communicates with the server 3 via the network 2 under the control of the controller 21, and downloads data downloaded from the server 3. Is supplied to the local storage 24. From the server 3, for example, data that is recorded on the optical disk 11 mounted on the playback device 1 and that updates the data described with reference to FIG. 2 is downloaded as content.
  • the local storage 24 can record contents downloaded from the server 3 via the network 2.
  • the decoder 26 decodes the AV stream or the text data supplied from the optical disk drive 22 or the local storage 24, and outputs the obtained video signal and audio signal to an external display device.
  • output of a content recorded on the optical disk 11 is performed based on the signal decoded by the decoder 26.
  • the operation input unit 29 includes, for example, input devices such as buttons, keys, a touch panel, a jog dial, and a mouse, and a receiving unit that receives a signal such as infrared light transmitted from a predetermined remote commander. Get input and supply to controller 21
  • a drive 27 is also connected to the controller 21 as necessary.
  • the drive 27 includes, for example, a magnetic disk (including a flexible disk) and an optical disk (compact disk-read only memory (CD-ROM)). ), A DVD), a magneto-optical disk (including an MD (registered trademark) (Mini-Disk)), or a removable medium 28 such as a semiconductor memory.
  • the playback device 1 has a local storage 24 such as an HDD (Hard Disk Drive) provided therein.
  • the playback device 1 is connected to the network 2 by wire or wirelessly, and the server 3 outputs content downloaded via the network 2 to the local storage 24. Can be recorded. From the server 3, for example, data for updating content such as a movie recorded on the optical disk 11 mounted on the playback device 1 at that time can be downloaded.
  • HDD Hard Disk Drive
  • the controller 21 sends the content to the optical disc 11.
  • the recorded content is associated with the content recorded in the local storage 24, and the content is reproduced.
  • the optical disk 11 in FIG. 2 is a medium in which a package is sold, and a certain movie content is recorded. Also, it is assumed that only an English text subtitle file is recorded on the optical disc 11 as a subtitle data file that can be displayed by being superimposed on the video of the movie content.
  • the AV stream of Clipl which is recorded on the optical disc 11 and referenced by the Playltem of the PlayList, is a stream for displaying the video of the movie content and reproducing the corresponding audio
  • Subtitle related information 1 of Clip2 referenced by SubPlayltem of PlayList is a text subtitle file for displaying English subtitles along with video display.
  • the user causes the playback device 1 to download a text subtitle file of a desired language of the movie recorded on the optical disc 11 from the server 3 via the network 2 (or use the removable medium 28 Get it).
  • a state in which a text subtitle file not previously recorded on the optical disc 11, for example, a text file in Arabic is downloaded (or copied from the removable medium 28 to the local storage 24) will be described. That is, when the user instructs to download a text subtitle file in Arabic corresponding to a PlayList recorded in advance on the optical disc 11, the playback device 1 accesses the server 3. Then, as an update of the content recorded on the optical disk 11, a file prepared in the server 3 is downloaded.
  • a Clip3 composed of an Arabic text subtitle file (subtitle-related information 2) and its associated Clip Information file, a movie content recorded in advance on the optical disc 11, for example, movie content
  • a PlayList file Updated PlayList file
  • a new navigation program file that has been updated compared to the one that is being downloaded is downloaded and recorded in the local storage 24.
  • SubPlaylteml and SubPlayItem2 are added.
  • the Playltem of the Updated PlayList refers to the Clipl containing the AV Stream recorded on the optical disc 11, and the SubPlaylteml refers to the Clip2 recorded on the optical disc 11 and containing the subtitle related information 1.
  • SubPlayItem2 refers to Clip3 containing subtitle related information 2 which is an Arabic text subtitle file downloaded from Server 3 together with Updated PlayList.
  • the new navigation program shown in Fig. 4 uses Updated PlayList as a playback section.
  • SubPlaylteml or SubPlayItem2 can be specified, whereby, for example, in correspondence with desired video and audio data, an optical disc 11 is defined by a pre-recorded text subtitle file in English.
  • an optical disc 11 is defined by a pre-recorded text subtitle file in English.
  • the English subtitles or the Arabic subtitles not previously recorded on the optical disk 11 and defined by a text subtitle file in Arabic subtitles in the language desired by the user can be displayed.
  • the playback device 1 is able to store the English text subtitle file Clip2, It is possible to reproduce and display any one of Clip3 which is an Arabic text subtitle file, which is prepared in advance on the optical disc 11, as a movie subtitle. That is, the user selects a desired language from the languages of subtitles that can be displayed on the menu screen displayed on the display device, so that the subtitles in the desired language of English and Arabic can be displayed. You can watch movies.
  • the AV stream recorded on the optical disk 11 is an MPEG2 (
  • Moving Picture Experts Group 2 It has a transport stream structure.
  • An MPEG2 transport stream is composed of an integer number of Aligned units. The size of the Aligned unit is 6144 bytes (2048 x 3 bytes), and the first byte of the source packet starts. Source packets are 192 bytes long.
  • One source packet is composed of TP_extra_header and transport packet.
  • TP_extra_header is 4 bytes long, and transport packets are 188 bytes long.
  • One Aligned unit is composed of 32 source packets.
  • the data of the video stream and the audio stream is packetized into MPEG2 PES (Packetized Elementary Stream) packets, and the PES knot is packetized into a transport packet.
  • MPEG2 PES Packetized Elementary Stream
  • FIG. 6 is a block diagram showing a functional configuration example of the controller 21 in FIG.
  • Each configuration in FIG. 6 is realized by executing a control program prepared in advance by the controller 21 or by executing a navigation program recorded on the optical disc 11 by the controller 21. Is done.
  • the menu screen display control unit 31 includes a button operated by the user when selecting the audio or subtitle language of the content recorded on the optical disc 11, a video angle, and an update file to be downloaded.
  • a menu screen including buttons operated by the user when making a selection is displayed on an external display device.
  • the operation input obtaining unit 32 obtains a signal indicating an operation input by the user input from the operation input unit 29, and outputs the signal indicating the operation input from the user to the menu screen display control unit 31, the data obtaining unit 31 Output to the corresponding part of the unit 33 or the playback control unit 37.
  • the data acquisition unit 33 controls communication performed by the Internet interface 25 in FIG. 1, or controls transmission and reception of information to and from the removable medium 28 by the drive 27. example For example, the data acquisition unit 33 downloads and acquires the update file specified by the user from the server 3, and outputs the acquired file to the local storage directory management unit 34.
  • the local storage directory management unit 34 manages a directory of the local storage 24, and controls writing of data to the local storage 24 and reading of data from the local storage 24.
  • the PlayList read from the local storage 24 under the control of the local storage directory management unit 34 is output to the memory 23, and the audio data and video data of the AV stream read from the local storage 24 and the text subtitle files are read.
  • the text data is output to the decoder 26.
  • the local storage directory management unit 34 The information about the file is output to the file system merge processing unit 36.
  • the optical disk directory management unit 35 manages a directory of the optical disk 11 and controls reading of each data from the optical disk 11.
  • Studiojd and Contentjd which are identification information, are set on the optical disc 11, and under the control of the optical disc directory management unit 35, the Studiojd and Contentjd read from the optical disc 11 are stored in the data acquisition unit 33 and the local storage directory management unit. Output to 34.
  • the PlayList read from the optical disk 11 is output to the memory 23 under the control of the optical disk directory management unit 35, and the audio data and video data of the AV stream read from the optical disk 11 and the text of the subtitle file are read.
  • the data is output to the decoder 26.
  • the optical disk directory management unit 35 Information about the file system is output to the file system merge processing unit 36.
  • the file system merge processing unit 36 merges the file system of the optical disk 11 supplied from the optical disk directory management unit 35 with the file system of the local storage 24 supplied from the local storage directory management unit 34.
  • Virtual Huay Create a system.
  • the file system merge processing unit 36 outputs a virtual file system generated by merging to the reproduction control unit 37.
  • a first virtual file system one file system generated by being merged by the file system merge processing unit 36 in the first embodiment will be referred to as a first virtual file system as appropriate.
  • the reproduction control unit 37 executes the navigation program specified by the first virtual file system supplied from the file system merge processing unit 36, and controls the reproduction of the content. Specifically, the playback control unit 37 refers to the PlayList stored in the memory 23 and controls the local storage directory management unit 34 or the optical disk directory management unit 35 to record on the optical disk 11 or the local storage 24.
  • the audio data, video data, and, if necessary, the text data of the text subtitle file are read from the AV stream, and the decoder 26 shown in FIG. 1 is controlled to control the decoder 26 shown in FIG. Decodes (reproduces) audio data, video data, and, if necessary, text data of a text subtitle file.
  • the merge of the file system of the optical disk 11 and the file system recorded in the local storage 24 by downloading from the server 3 or the like, which is performed by the file system merge processing unit 36, will be described.
  • this merging is performed when the reproduction of the content recorded on the optical disk 11 is instructed.
  • FIG. 7 is a diagram showing an example of the file system (left side) of the optical disk 11 and the file system (right side) of the local storage 24. As shown in the figure, each file system has a directory structure.
  • a folder with the name "BDMV” is provided under "root” on the optical disk 11, and a file with the name “info.bdmv” and a file “Navigation.class” A file with the name of is set.
  • these files are appropriately referred to as an info.bdmv file and a Navigation.class file, respectively.
  • other files and folders are also referred to as "file name” with "file” added or "folder name” with "folder” added.
  • Studio_id which is identification information of the creator of the optical disk 11
  • Contentjd which is identification information of the content
  • the content recorded on the medium optical disk 11 of the entire distributed content is identified by the Studiojd and the Contentjd.
  • Studiojd is “xxx”
  • Contentjd is “yyy”.
  • Studiojd and Contentjd are also used to identify the update file to be downloaded.
  • the Navigation.class file is a navigation program described in a predetermined programming language.
  • the BDMV folder also includes a folder with the name "PLAYLIST” (PLAYLIST folder), a folder with the name “CLIPINF” (CLIPINF folder), and a folder with the name "STREAM”. (STREAM folder) is stored.
  • the PLAYLIST folder stores a file named “llll.mpls” and a file named “22222.mpls”. These files are PlayLists representing playback sections such as AV stream files by time stamps.
  • the CLIPINF folder stores a file named "01000.clpi", a file named "02000.clpi”, and the like. These files are lip information indicating the correspondence between the time stamp and the address information of the AV stream file or subtitle related information 1 (FIG. 4).
  • the STREAM folder stores a file with the name "01000.m2ts", a file with the name "02000.m2ts”, and the like. These files are the AV stream and subtitle related information 1 in FIG.
  • a folder with the name "xxx-yyy” is stored under "root” in the local storage 24.
  • the folder name “xxx-yyy” is data corresponding to the content identified by Studiojd “xxx” and Contentjd “yyy” recorded on the optical disc 11 in the data stored in this folder. It represents that.
  • the xxx-yyy folder is loaded with an optical disk 11 having Studiojd “xxx” and Contentjd “yyy” in the playback device 1 and downloading an update file (each file stored in the xxx-yyy folder). It is created when it is done.
  • the XXX-yyy folder stores an info.bdmv file and a Navigation.class file.
  • This info.bdmv file is the same as the info.bdmv file on optical disk 11
  • the Navigation.class file is an updated version of the Navigation.class file on the optical disk 11.
  • the Navigation.class file in the local storage 24 is a file that describes a navigation program that has been upgraded compared to that recorded on the optical disc 11.
  • the xxx-yyy folder further stores a PLAYLIST folder, a CLIPINF folder, and a STREAM folder.
  • a file with the name "11111. mpls” and a file with the name "22222.mpls” are stored in the PLAYLIST folder of the local storage 24.
  • the file to which the name “22222.mpls” is set is an updated file of the file to which the same name is set on the optical disc 11.
  • a file named “22222.mpls” in the local storage 24 represents a downloaded Update PlayList (FIG. 4), in which data in which a PlayList is added with SubPlayltem is described. .
  • the file with the name “04000.clpi” is stored. That is, “The file with the name“ 04000.clpiJ ”is a file newly obtained by download, for example, Clip Information of Clip3 in FIG.
  • the STREAM folder of the local storage 24 stores a file named "04000.m2ts". This file is a file newly obtained by downloading, for example, the subtitle-related information 2 of Clip3 in FIG.
  • a folder named "xxx-aaaj” and a name named “yyy-bbb” are set under "root” of the local storage 24. Folder is stored. These are created when the optical disc identified by Studio_id “xxx” and Content jd “aaa” and the optical disc identified by Studio_id “yyy” and Content jd “bbb” are mounted on the playback device 1, respectively. Yes, files corresponding to each content are stored.
  • Such a file system of the optical disk 11 and a file system of the local storage 24 are used. If there is a system, the file system merge processing unit 36 of the controller 21 merges the file system of the optical disk 11 and the file system of the local storage 24 on the memory 23 to generate a first virtual file system.
  • the file system merge processing unit 36 determines the time stamp (creation date and time) and version described in each file. Based on, the file is merged so that the file obtained by the download is used as a file to be referred to when the content is reproduced. In addition, the file system merge processing unit 36 performs merging so that a file only in the local storage 24 that is connected to the optical disk 11 is a file to be referred to when reproducing the content.
  • FIG. 8 is a diagram showing an example of a first virtual file system obtained from the two file systems of FIG.
  • the data stored in the optical disk 11 in advance and the data newly downloaded or copied and stored in the local storage 24 are distinguished. It is processed without being done.
  • subtitles are displayed corresponding to the AV stream in a predetermined section. If the subtitle-related information to be composed of text subtitle data that constitutes a text subtitle file corresponding to subtitles in multiple languages and font data that constitutes a font file, And subtitle-related information stored in advance on the optical disk 11 and the newly downloaded or copied local storage
  • the caption data in the language desired by the user is associated with the AV stream stored in advance on the optical disc 11, Processed and displayed.
  • the seller (seller, maker) of the optical disc shall provide the subtitle information in Arabic later through the network 2, and will not be able to display only the English subtitles. Can be sold.
  • the optical disk seller can sell the disk at an earlier timing than translating multiple languages at once, and provide additional subtitle-related information corresponding to other languages as necessary. It becomes possible.
  • the seller (seller, maker) of the optical disc must at least update the newly updated optical disc 11 in order to display subtitle data stored in advance on the optical disc 11 in association with the AV stream. It is necessary to distribute playlist files and text subtitle files, and in addition to this, distribute font files to define the display format of subtitles corresponding to the text data described in the text subtitle files. May be. It is assumed that the basic font data is stored in advance in the memory 23 of the playback device 1 or the like.
  • FIG. 10 shows an archive of data to be additionally distributed (that is, corresponding to the data stored in the local storage 24 described with reference to FIG. 4).
  • the data to be additionally distributed include a playlist file (PlayList.file), 8-bit number information (number_of_TextSubTitle) indicating the number of a text subtitle file, and text corresponding to the text subtitle file described above.
  • a subtitle file text_subtitle_file
  • a font file (fontjle) may be included.
  • Fig. 11 is a diagram illustrating the syntax of SubPlayltem.
  • the 8-bit field of o_STC_id specifies the identifier of the STC sequence referenced by the Clip.
  • SubPlayItem_IN_time specifies the playback start time of SubPlayltem.
  • SubPlayItem_OUT_time specifies the playback end time of SubPlayltem. That is, the SubPlayltem playback section can be specified by SubPlayItem_IN_time and SubPlayItem_OUT_time.
  • the time information described in SubPlayItem_IN_time and SubPlayItem_OUT_time is expressed based on the 45 kHz clock used in the STC.
  • the 8-bit field of number_of_ClipTextSubtitle specifies the total number of subtitle texts defined in SubPlayltem.
  • the 8-bit field of language jd specifies the language identifier used as subtitles.
  • the data in the language jd field shall conform to the ISO / IEC 639-1 standard.
  • the 8-bit field of character_code_id specifies the character data encoding method identifier.
  • the 8-bit field of font_format_id specifies the font format identifier.
  • font_file_path_length specifies the number of bytes of the path name of the font file described in font_file_path. In this field, 0 can be specified as the number of bytes for font_file_path. If 0 is specified, the built-in font stored in the playback device 1 in advance is processed as specified. Font_file_path specifies the nose name of the font file used to draw subtitle data. If an empty character string is specified in the font_file_path field, it is processed as if the built-in font stored in the playback device 1 in advance is specified. font_file_path This field value shall be encoded in ISO / IEC 646 format.
  • subtitle_file_path_length specifies the number of bytes of the path name of the text subtitle file described in subtitle_file_path.
  • subtitle_file_path specifies the path name of the text subtitle file.
  • the subtitle_file_path field value shall be encoded in ISO / IEC 646 format.
  • the 16-bit field of commentjength specifies the number of bytes of information described in comment.
  • a comment on the text subtitle is described.
  • the comment described in Comment shall be described using the character set ISO / IEC 646. It is.
  • version is 16-bit information that specifies the version of the text subtitle file.
  • markup_type is 8-bit information that specifies the markup format.
  • subtitle_count is 32-bit information that specifies the total number of subtitle data. (Subtitle_count is not the total number of line feed codes.)
  • Start_PTS is 33-bit information that specifies the subtitle display start time in the PTS of the Clip AV stream.
  • encLPTS is 33-bit information that specifies the subtitle display end time in the PTS of the Clip AV stream.
  • subtitle_data_length is 32-bit information that specifies the number of bytes of subtitle.data (not the number of subtitle characters;). subtitle.data is information for specifying subtitle data.
  • the subtitle data is composed of a "character object” indicating the character itself constituting the subtitle and "attribute data (attribute)". Describe how to set attribute data.
  • attribute setting methods for the attribute data of caption data There are two attribute setting methods for the attribute data of caption data: attribute setting by control characters and inline attribute setting by markup.
  • CR is a symbol indicating a carriage return but is treated as a line feed character
  • LF is treated as a line feed character
  • CR + LF is a symbol indicating a carriage return and line feed but is a line feed character
  • ⁇ NEL '' is treated as a line feed character
  • ⁇ VT '' is a symbol indicating a vertical tab but treated as a line feed character
  • ⁇ FF '' is a symbol indicating a page break but is a line feed character
  • LS is a symbol indicating a line break but is treated as a line feed character
  • PS is a symbol indicating a paragraph break but is treated as a line feed character.
  • Markup is defined for each attribute that can be specified. There are two types of markup: markup in TLV (Type-Length-Value) encoding format, and tagged language.
  • the markup format is defined as the TLV encoding format when the markup format identifier is 0x00, as shown in Fig. 15. When the markup format identifier is 0x01, the markup format is defined as a tagged language. In either form, the scope of the markup is all characters after the start marker, and no end marker is defined to allow one-way scanning of the decoder to decode the text data. Therefore, if you want to specify an attribute locally, you need to explicitly re-specify the previous attribute.
  • the attribute is specified by the TLV encoding method.
  • the character encoding method of the caption data is in accordance with the specification of the character_code_id in the SubPlayltem described in FIG.
  • the 8-bit field of escape_code specifies an escape code OxlB indicating that an attribute is described later.
  • the 8-bit attributejpe field specifies the attribute type. The code described in attributejpe will be described later using FIG.
  • the 16-bit attribute_value_length field specifies the number of bytes of attribute data that follows.
  • attribute_value specifies attribute data.
  • char_data specifies the byte sequence of the character object.
  • the attribute type described is the font color specification.
  • 0x06 is written in the 8-bit field of attribute_type of subtitle_data (), it is written !, and the type of attribute is the specification of the background color.
  • 0x07 is described in the 8-bit field of attribute-type of subtitle-data ()
  • the type of attribute described is the specification of the font style.
  • 0x08 is described in the attribute_type 8-bit field of subtitle.data ()
  • the type of the described attribute is the specification of the font size.
  • FIG. 19 shows a data structure of the attribute_value when the attribute type of the subtitle_data () is !!
  • the CLUT_size 8-bit field describes the size of the CLUT.
  • Y is 8-bit information for setting brightness data
  • Cb and Cr are 8-bit information for setting color difference data, respectively
  • T is 8-bit information for setting transparency.
  • the attribute type described in attribute_type of subtitle_data () is Shows the data structure of attribute_value when one origin is specified.
  • x_coordonate is 16-bit information indicating the x coordinate of the origin of the region.
  • y.coordonate is 16-bit information indicating the y coordinate of the origin of the region.
  • attribute_type of subtitle.data (), ! is described.
  • attribute type is a background color specification
  • the background color index for the CLUT in the processing unit is specified.
  • the area in the display screen that is filled with the specified background color is in units of regions, and the default background color may be unspecified (transparent).
  • the attribute_value is one of the codes shown in FIG. Is
  • the font style is specified. That is, when 0x00 is described in the attribute_value, the font style is specified as standard.When 0x01 is described in the attribute_value, the font style is specified in bold and 0x02 is described in the attribute_value. When set, the font style is specified as italic. The default of the font style may be "standard".
  • the attribute type of the subtitle.data () is specified by! /,, And!,
  • the attribute type is the specification of the font size
  • the attribute_value is a value between 8 and 72 that indicates the font size. Is specified.
  • the default value for specifying the font size should be “32”.
  • attributejpe of subtitle_data when the attribute type described is the specification of the font rotation angle, a value from 0 to 360 corresponding to the font rotation angle is specified in the attribute_value.
  • the rotation direction may be, for example, counterclockwise in the forward direction, and the default may be “0”.
  • the bookmark start position is specified, and the attribute_value specifies the bookmark start position.
  • a bookmark is information given in advance by a supplier of a text subtitle file so that a rendering process can be omitted when the same character is displayed in the same format a plurality of times.
  • FIG. 23 shows the data structure of attribute_value in the attribute_type of subtitle_data () when the described attribute type is the bookmark start position specification.
  • bookmarkjd In the 8-bit field of bookmarkjd, an ID that uniquely identifies a bookmark is described. Here, up to 256 bookmarks can be specified.
  • the start position of the bookmark is specified in the 8-bit field of start_of_bookmark_indicator.
  • FIG. 24 shows the data structure of attribute_value in the attribute_type of subtitle_data () when the described attribute type is the bookmark end position specification.
  • An 8-bit field of bookmarkjd contains an ID that uniquely identifies a bookmark. Will be posted. The end position of the bookmark is specified in the 8-bit field of end_of_bookmarkjndicator.
  • the attribute_value is the sequence of the character object with the bookmark. Is specified.
  • FIG. 25 shows the data structure of attribute_value when the attribute type indicated by! / In the attributejpe of subtitle.data () is a character object sequence repetition specification.
  • the 8-bit field of bookmarkjd an ID that uniquely identifies a bookmark is described.
  • the 8-bit field of Count specifies the number of bookmark repetitions.
  • subtitle_data () in the case of specifying an attribute using a tagged language will be described.
  • TaggedAttr specifies a tagged language expression of attribute data.
  • TaggedAttr follows a predetermined format, as shown in FIG. char_data specifies the byte sequence of the character object. However, the byte sequence shall be ISO / IEC 646 encoded using the BASE64 encoding method. At this time, “ku” and “>” are escaped by “0xlB”.
  • the default of the index to be set may be “0”.
  • the area painted with the background color is in units of regions, and the default of the background color may be unspecified (transparent).
  • the default font style is "Standard"
  • the default value for specifying the font size may be “32”.
  • the rotation direction is counterclockwise in the positive direction, and the default value corresponding to the font rotation angle may be “0”.
  • the text data of the text subtitle file for which the attribute is specified by the method described above is specified based on the setting of each attribute, for example, as shown in Fig. 29, the rendering direction is specified from left to right.
  • the line is displayed with a line feed downward at the set line feed position, or as shown in Figure 30, the rendering direction is specified from right to left, and the line is displayed with a line feed downward at the set line feed position.
  • the rendering direction is specified as upward and downward, and the line is displayed with a line feed to the left at the set line feed position.
  • FIG. 32 is a diagram showing a virtual storage area of the local storage 24.
  • the local storage 24 serves as a virtual storage area, a navigation program storage unit 51 which is an area where the downloaded navigation program is stored, and a downloaded program.
  • Playlist storage section 52 which is an area where playlists are stored
  • text subtitle file storage section 53 which is an area where downloaded text subtitle files are stored
  • fonts which are areas where downloaded font files are stored
  • a file storage unit 54 may be provided.
  • the data files stored in the navigation program storage unit 51 and the playlist storage unit 52 are read out and supplied to the memory 23 under the control of the local storage directory management unit 34 described with reference to FIG.
  • the data files stored in the text subtitle file storage unit 53 and the font file storage unit 54 are read out under the control of the local storage directory management unit 34 described with reference to FIG. Supplied.
  • FIG. 33 is a block diagram for describing a detailed configuration of decoder 26.
  • the decoder 26 includes a control unit 81, a disk data acquisition unit 82, buffers 83 and 84, a PID
  • the control unit 81 controls the processing of each unit of the decoder 26 based on the control of the reproduction control unit 37.
  • the disc data acquisition unit 82 acquires the data supplied to the decoder 26 from the data read from the optical disc 11, and performs a multiplexed stream such as an AV stream specified by the Playltem described with reference to FIG. Is supplied to a buffer 83 which is a read buffer for data specified by Playltem constituting the main path, and data of a text subtitle file or font file specified by SubPlayltem (font file data is specified, Is supplied to a buffer 84 which is a read buffer for data specified by the SubPlayltem constituting the sub path.
  • the stream data read from the buffer 83 is output to the subsequent PID filter 55 at a predetermined timing.
  • the PID filter 85 distributes and outputs the input multiplexed stream to an audio decoder 86, an MPEG video decoder 87, or a GUI data decoder 89, which is a decoder for each subsequent elementary stream, according to the PID. .
  • the PID filter 55 supplies the audio (audio) stream to the audio decoder 86, supplies the video (video) stream to the MPEG video decoder 87, and supplies the user interface-related image data to the GUI data decoder 89. I do.
  • the audio decoder 86 decodes the audio stream and outputs the decoded audio stream data.
  • the MPEG video decoder 87 decodes the video stream and outputs the decoded video data to the video plane processing unit 88.
  • the video plane processing unit 88 generates a video plane corresponding to an image (an image constituting a moving image) displayed on one page (or one frame) based on the decoded video data. Is output to the synthesis processing unit 94.
  • the GUI data decoder 89 decodes the interactive graphics stream and supplies the decoded GUI data to the GUI graphics plane processing unit 90.
  • the GUI graphics plane processing unit 90 generates a graphics plane corresponding to the GUI displayed on one screen, and outputs the generated graphics plane to the synthesis processing unit 94.
  • the storage data acquisition unit 91 acquires the data (that is, the data of the text subtitle file or the font file) supplied to the decoder 26 from the data read from the local storage 24, and Supply to 92.
  • the text subtitle processing unit 92 decodes text data supplied from the storage data acquisition unit 91 or read from the notifier 84 under the control of the control unit 81, and performs rasterization such as a bitmap based on predetermined font data.
  • the data is converted (rasterized) into data and supplied to the subtitle graphics plane processing unit 93. Details of the text subtitle processing unit 92 will be described later with reference to FIG.
  • the subtitle graphics plane processing unit 93 generates a subtitle graphics plane corresponding to the subtitle displayed on one page (or one frame) based on the decoded and rendered text data, and outputs it to the synthesis processing unit 94 I do.
  • the synthesis processing unit 94 includes a video plane supplied from the video plane processing unit 88, a graphic plane corresponding to the GUI supplied from the GUI graphics plane processing unit 90, and a subtitle graphics plane processing unit 93.
  • the supplied subtitle graphics plane is synthesized and output as a video signal.
  • FIG. 34 is a block diagram for describing a detailed configuration of text subtitle processing section 92.
  • the text data decoder 121 decodes the data of the text subtitle file (text subtitle file), and supplies the character object to the character object buffer 122 and the attribute (attribute) to the attribute data buffer 123.
  • the attribute data stored in the attribute data buffer 123 is changed under the control of the control unit 81 based on the user's operation input. For example, when the user instructs to change the font size or the character color, the corresponding code in the attribute data stored in the attribute data buffer 123 is rewritten under the control of the control unit 81.
  • the font rasterizer 124 specifies the attribute read from the attribute data buffer 123, and stores the font data supplied from the buffer 84 or the storage data acquisition unit 91, or the built-in font stored in the playback device 1 in advance. Based on the data, the character object read from character object buffer 122 is converted into raster data such as a bitmap and output to subtitle graphics plane processing section 93. For example, the font rasterizer 124 develops a scalable font into a bitmap based on the attribute designation, converts the rasterized data into raster data (rasterized), and outputs the rasterized data.
  • the font rasterizer 124 detects a character object to which a bookmark is assigned based on the attribute read from the attribute data notifier 123, and assigns the same bookmark ID using the bookmark buffer 125. Do not duplicately rasterize character objects.
  • the bookmark buffer 125 holds the raster data of the character object to which the bookmark is assigned by the processing of the font rasterizer 124, and reads the held raster data by the font rasterizer 124.
  • download processing 1 that is processing of the controller 21 of the playback device 1 that downloads an update file from the server 3 will be described.
  • the optical disk 11 is mounted on the playback device 1, and for example, from the menu screen, an Arabic text subtitle file corresponding to movie content with English subtitles recorded on the optical disk 11 is downloaded. Is executed when instructed.
  • step S1 the optical disc directory management unit 35 of the controller 21
  • the controller drives the drive 22 and reads out the Studiojd and Contentjd recorded on the optical disc 11.
  • Studio jd and Contentjd are described in the info.bdmv file.
  • the optical disc directory management unit 35 reads out from the optical disc 11
  • step S2 the data acquisition unit 33 controls the Internet interface 24 to transmit Studiojd and Contentjd supplied from the optical disc directory management unit 35 to the server 3 via the Internet 2.
  • the server 3 that has received the Studiojd and the Contentjd transmitted here, the content of the optical disc 11 attached to the playback device 1 is identified.
  • the server 3 notifies the playback device 1 of a list of files that can be updated.
  • the data acquisition unit 33 acquires a list of updatable files transmitted from the server 3 and received by the Internet interface 24, and supplies the list to the menu screen display control unit 31.
  • step S3 the menu screen display control unit 31 causes the display device to display a menu screen for updating, proceeds to step S4, and based on the signal supplied from the operation input acquisition unit 32, displays the menu screen. It is determined whether the button has been operated by the user and the content of the update has been selected.
  • step S4 menu screen display control unit 31 waits until it is determined that the content of the update has been selected, and when it is determined that the content of the update has been selected, proceeds to step S5.
  • Information indicating the content of the update selected by the user is output from the menu screen display control unit 31 to the data acquisition unit 33.
  • step S5 the data acquisition unit 33 controls the Internet interface 24 to transmit information indicating the content of the update to the server 3, and requests download of the update file specified by the user.
  • step S6 the data acquisition unit 33 controls the Internet interface 24 to cause the server 3 to download a text subtitle file prepared as an update file, and notifies the local storage directory management that the text subtitle file has been downloaded. Notify part 34.
  • step S7 the data acquisition unit 33 controls the Internet interface 24 to add the SubPlayltem representing the playback path of the text subtitle file downloaded in step S6 to the main Playltem! And notifies the local storage directory management unit 34 that the PlayList has been downloaded.
  • the SubPlayltem of the PlayList downloaded here refers to, for example, a text subtitle file for displaying Arabic subtitles.
  • step S8 the data acquisition unit 33 controls the Internet interface 24 to download the updated navigation program file, and notifies the local storage directory management unit 34 that the navigation program has been downloaded. Notice.
  • step S9 based on Studio jd and Content jd supplied from the optical disc directory management unit 35, the local storage directory management unit 34 creates directories identified by their IDs in the local storage 24. .
  • a folder directory in which the name of “xxx-yyy” is set as a directory corresponding to the optical disc 11 having the Studiojd of “xxx” and the Contentjd of “yyy” Created on local storage 24.
  • step S10 the local storage directory management unit 34 expands and stores each file downloaded from the server 3 in the directory created in step S9.
  • the server 3 also downloads the update file.
  • the server 3 is pre-recorded on the optical disk 11 that has purchased the optical disk 11 on which content such as a movie is recorded. You can get the files needed to display the subtitles. Therefore, it is possible to display subtitles in the language desired by the user and view the content.
  • the downloaded update file continues to be stored in the local storage 24.
  • the stored text subtitle file is used, and the AV stream file is reproduced. Be done.
  • a text subtitle file required to display Arabic subtitles has already been downloaded by the processing described above. If it has been downloaded, the user should display Arabic subtitles without having the playback device 1 perform the processing such as downloading again the next time the movie content on the optical disc 11 is played back on the playback device 1. Can be.
  • the download of the update file as described above may be performed for a fee! /, Or may be performed for free! /.
  • the server 3 may collect the text subtitle file as one text subtitle file and provide the compiled text subtitle file. In this case, the storage position of the text subtitle file in each language is specified by PlayList.
  • step S31 the optical disk directory
  • the management unit 35 reads Studiojd and Contentjd from the optical disk 11 and outputs the read Studiojd and Contentjd to the local storage directory management unit 34.
  • step S32 based on the Studiojd and the Content jd supplied from the optical disk directory management unit 35, the local storage directory management unit 34 creates a local storage 24 corresponding to the file system of the optical disk 11.
  • the file system is searched for and supplied to the file system merge processing unit 36.
  • the file system corresponding to the file system of the optical disc 11 is stored in the directory in which the name including Studiojd and Contentjd is set in the local storage 24 (FIG. 7).
  • the file system of the optical disk 11 is output from the optical disk directory management unit 35 to the file system merge processing unit 36.
  • step S33 the file system merge processing unit 36 compares the file system of the optical disk 11 and the file system of the local storage 24 with reference to Figs. 7 and 8. Merge as described above to generate the first virtual file system.
  • the generated first virtual file system is output to the playback control unit 37 and used for playing the AV stream file.
  • step S34 the playback control unit 37 also specifies and executes the supplied first virtual file system power navigation program. Therefore, as shown in FIG. 8, when the updated navigation program is in the first virtual file system, the navigation program (the navigation program recorded in the local storage 24! Is executed. Is done.
  • step S35 the playback control unit 37 obtains the PlayList and SubPlayltem specified by the navigation program as a playback section, and proceeds to step S36, in which the local storage directory management unit 34 and the optical disc directory management unit 35 Under the control, a file (AV file, text subtitle file, font file, etc.) referred to by the acquired PlayList and SubPlayltem is read and supplied to the decoder 26.
  • a time stamp represented by PlayList or SubPlayltem is converted into an address by Clip information, and access to an AV stream or the like is performed.
  • the playback control unit 37 reads the AV stream file from the local storage 24, and when the AV stream file does not exist, reads the optical disc 11 from the optical disc 11. Read the AV stream file.
  • a file name of r01000.m2tsj is set, and an AV stream file or a file name of “02000.m2ts” is set.
  • the AV stream file set with the file name “04000.m2ts” added by the download is read from the local storage 24.
  • step S37 content playback processing 1 described later with reference to Fig. 37 is executed, and the read AV stream file, text subtitle stream file, and the like are decoded. Then, video, audio, or subtitles are output to the display device, and the process ends.
  • step S37 in FIG. 37 the process is executed in step S37 in FIG.
  • the content reproduction process 1 will be described.
  • step S61 the reproduction control unit 37 controls the decoder 26 to reproduce the AV stream data specified by Playltem.
  • step S62 the operation input acquisition unit 32 determines whether or not a force has been received from an operation input for instructing display of subtitle data. If it is determined in step S62 that an operation input for instructing display of subtitle data has not been received, the process proceeds to step S68 described below.
  • step S63 the operation input acquisition unit 32 outputs a signal corresponding to the user's operation input to the menu screen display control unit 31.
  • the menu screen display control section 31 causes the display device to display a list menu of displayable subtitle data.
  • step S64 the operation input acquisition unit 32 determines whether or not a force has been received that has received an operation input for specifying the language of the caption data to be displayed. If it is determined in step S64 that an operation input for specifying the language of the subtitle data to be displayed has not been received, the process returns to step S63, and the subsequent processes are repeated.
  • step S65 If it is determined in step S64 that an operation input for specifying the language of the subtitle data to be displayed has been received, in step S65, the operation input acquisition unit 32 outputs a signal corresponding to the user's operation input to the reproduction control unit 37. To supply.
  • the playback control unit 37 controls the local storage directory management unit 34 to read the text subtitle data referenced by the specified SubPlayltem based on the user's operation input, and obtain the storage data of the decoder 26.
  • the storage data acquisition unit 91 of the decoder 26 supplies the font data to the storage data acquisition unit 91.
  • step S66 the subtitle display process 1 described below with reference to Figs. 38 and 39 is executed by the decoder 26.
  • step S67 the operation input acquisition unit 32 determines whether or not a force has been received that has received an operation input for instructing a change in the language of the caption data to be displayed. If it is determined in step S67 that an operation input for instructing to change the language of the caption data to be displayed has been received, the process returns to step S65, and the subsequent processes are repeated.
  • step S62 when it is determined that an operation input for instructing display of subtitle data has not been received, or in step S67, an operation input for instructing to change the language of the subtitle data to be displayed has not been received.
  • step S68 the operation input acquisition unit 32 determines whether the operation input for instructing the end of the content reproduction has been received or whether the AV stream data being reproduced has ended in step S68. I do.
  • step S68 when it is determined that the operation input for instructing the end of the reproduction of the content has not been received, and it is determined that the AV stream data being reproduced has not ended, in step S69, the operation input acquiring unit 32 Determines whether or not it has received an operation input to stop displaying subtitles.
  • step S69 If it is determined in step S69 that an operation input to stop the display of subtitles has not been received, the process returns to step S66, and the subsequent processes are repeated. If it is determined in step S69 that an operation input to stop the display of subtitles has been received, the process returns to step S61, and the subsequent processes are repeated.
  • step S68 if the operation input for instructing the end of the reproduction of the content has been received, or if it is determined that the AV stream data being reproduced has ended, the process ends.
  • a text subtitle file previously recorded on the optical disk 11 or downloaded from the server 3 and stored in the local storage 24 is used, and subtitles in a language desired by the user are used. Is displayed together with the video and audio of the content, and the text subtitle file to be read is changed to change the language of the displayed subtitle based on the user's operation input.
  • step S91 the text data decoder 121 of the text subtitle processing unit 92 of the decoder 26 decodes the text subtitle data acquired by the storage data acquisition unit 91.
  • step S92 the text data decoder 121 of the text subtitle processing unit 92 supplies the character object included in the decoded text subtitle data to the character object buffer 122 of the text subtitle processing unit 92. Then, the character object is buffered.
  • step S93 the text data decoder 121 supplies the attribute data included in the decoded text subtitle data to the attribute data buffer 123 of the text subtitle processing unit 92. Falling.
  • step S94 the control unit 81 determines whether or not a signal indicating an operation input for instructing a change of a subtitle attribute such as a font size has been received from the reproduction control unit 37 (controller 21). I do.
  • step S95 If it is determined in step S94 that a signal indicating an operation input for instructing the change of the subtitle attribute has been received, in step S95, the control unit 81 stores the attribute in the attribute data buffer 123 Change data.
  • step S94 If it is determined in step S94 that a signal indicating an operation input for instructing the change of the subtitle attribute has not been received, or after the process of step S95, the text subtitle process is performed in step S96.
  • the font rasterizer 124 of the unit 92 acquires character objects and attribute data from the character object buffer 122 and the attribute data buffer 123.
  • step S97 the control unit 81 determines whether or not the reproduction control unit 37 (controller 21) has received a signal indicating an operation input for instructing a font type change.
  • step S97 If it is determined in step S97 that a signal indicating an operation input for instructing a font type change has been received, the local storage directory management unit 34 (controller 21) controlled by the playback control unit 37 According to the processing described in the above, different font data is read from the local storage 24 based on the operation input.
  • the font rasterizer 124 of the text subtitle processing unit 92 acquires different font data based on the operation input.
  • step S97 if it is determined that the signal indicating the operation input for instructing the font type change has not been input, or after the process in step S98 is completed, in step S99, the font rasterizer 124 Refers to the attribute and the bookmark buffer 125 acquired in step S96, and determines whether or not the subtitle data to be rasterized is bookmarked and is subtitle data already buffered in the bookmark buffer 125. I do.
  • step S100 the font rasterizer 124 sends the stored subtitle image data from the bookmark buffer 125 to the bookmark. (Raster data) is read and output, and the process proceeds to step S104.
  • step S101 the font rasterizer 124 determines the acquired character object and attribute data. Based on the rasterization, the rasterization is performed and output to the subtitle graphic plane processing unit 93.
  • the subtitle graphics plane processing unit 93 generates a subtitle graphics plane based on the supplied raster data, and supplies the generated subtitle graphics plane to the synthesis processing unit 94.
  • step S102 based on the attribute data of the subtitle data rasterized in step S101, the font rasterizer 124 determines whether or not a new bookmark is described in the attribute data, and whether or not the character is powerful. .
  • step S102 If it is determined in step S102 that a bookmark is described, the font rasterizer 124 stores the rasterized subtitle image data in the book mark buffer 125 in step S103.
  • step S104 the combining processing unit 94 supplies the bookmark.
  • the subtitle image data is combined with the video data and output, and the process proceeds to step S67 in FIG.
  • caption data in a language desired by the user is desired by the user.
  • the reading of the data of the text subtitle file and the font file is controlled so that the font is displayed in the font desired by the user, and the buffered attribute data is changed and rasterized as necessary.
  • the content recorded on the optical disc and the content recorded on the local storage are combined by the method described below by combining the above cases. Can be played back in association.
  • a second embodiment for associating the content recorded on the optical disc with the content recorded on the local storage and reproducing the content will be described.
  • FIG. 40 is a block diagram illustrating a configuration example of a playback device 181 according to the second embodiment of the present invention.
  • playback device 181 in FIG. 40 the same reference numerals are given to portions corresponding to the case in playback device 1 described with reference to FIG. 1, and description thereof will be omitted as appropriate. That is, the playback device 181 of FIG. 40 basically uses FIG. 1 except that a controller 191 is provided instead of the controller 21 and a decoder 192 is provided instead of the decoder 26. It has the same configuration as the playback device 1 described.
  • the playback device 181 reads data recorded on an optical disc 193 having a file structure described later with reference to FIG. 42, and decodes and plays back an AV stream or text data.
  • the controller 191 executes a control program prepared in advance to control the overall operation of the playback device 181 or controls the optical disc drive 22 to record a plurality of pieces of information recorded on the optical disc 193.
  • Reads a MovieObject (movie object: details will be described later) expands it into the memory 23, and executes the command to reproduce the data stored in the optical device 11 and the local storage 24. Control the operation.
  • the controller 191 can display a predetermined menu screen on an external display device when the optical disc 193 is loaded.
  • the decoder 192 decodes the AV stream or text data supplied to the optical disk drive 22 or the local storage 24, and converts the obtained video signal and audio signal. Output to an external display device. In the display device, for example, based on the signal decoded by the decoder 192, for example, The contents recorded on disk 193 are output (video display, audio output).
  • FIG. 41 is a block diagram showing a functional configuration example of the controller 191 in FIG.
  • Each configuration in FIG. 41 is executed by executing a control program prepared in advance by the controller 191 or executing a command constituting a MovieObject recorded on the optical disc 193 by the controller 191. Is realized by:
  • a local storage directory management unit 201 is provided instead of the local storage directory management unit 34, and an optical disk directory management unit 202 is replaced with the optical disk directory management unit 35. 6 except that a file system merge processing unit 203 is provided in place of the file system merge processing unit 36 and a playback control unit 204 is provided in place of the playback control unit 37. This is basically the same as the functional configuration of the controller 21.
  • the local storage directory management unit 201 manages a directory of the local storage 24, and controls writing of data to the local storage 24 and reading of data from the local storage 24.
  • the PlayList read from the local storage 24 under the control of the local storage directory management unit 201 is output to the memory 23, and the audio data and the video data of the AV stream read from the local storage 24 and the text subtitle files are read.
  • the text data is output to the decoder 192.
  • the local storage directory management unit 201 merges the file system of the optical disk 193 with the file system of the local storage 24 by the file system merge processing unit 203, and outputs a second virtual file described later. When a system is generated, the information about the file system in the local storage 24 is output to the file system merge processing unit 203.
  • the local storage directory management unit 201 obtains the update file specified by the user from the server 3 by the data obtaining unit 33, and obtains the update file.
  • the update file corresponding to the PlayList that already exists File In the case of, the update procedure of the data already recorded in the local storage 24 is executed by referring to the acquired update file.
  • the optical disc directory management unit 202 manages the directory of the optical disc 193 and controls reading of each data from the optical disc 193.
  • the optical disc 193 includes author jd (or Studiojd in the first embodiment), which is secure identification information that cannot be rewritten by a user or the like, and discjd (or Studiojd in the first embodiment).
  • Contentjd is described as electronic data or physically pits, and the authorjd and discjd read from the optical disk 193 under the control of the optical disk directory management unit 202 are stored in the local storage directory management unit. Output to 201. Also, under the control of the optical disc directory management unit 202, the PlayList read from the optical disc 193 is output to the memory 23, and the audio data and video data of the AV stream read from the optical disc 193 and the text data of the text subtitle file are read. Is output to the decoder 192.
  • the optical disk directory management unit 202 merges the file system of the optical disk 193 with the file system of the local storage 24 by the file system merge processing unit 203, and the second When a virtual file system is generated, information about the file system of the optical disc 193 is output to the file system merge processing unit 203.
  • the file system merge processing unit 203 merges the file system of the optical disk 193 supplied from the optical disk directory management unit 202 with the file system of the local storage 24 to which the local storage directory management unit 201 is also supplied. Create a dynamic file system.
  • the file system merge processing unit 203 outputs a virtual file system generated by merging the two file systems to the reproduction control unit 204.
  • the virtual file system generated by the file system merge processing unit 203 is referred to as a second virtual file system.
  • the reproduction control unit 204 controls the reproduction of the content by executing a command included in the MovieObject specified by the second virtual file system supplied from the file system merge processing unit 203. Specifically, the reproduction control unit 204 refers to the PlayList supplied to the memory 23 and stored therein, and refers to the local storage directory management unit 201 or the optical disc. 40 by reading the audio data and video data of the AV stream recorded on the optical disk 193 or the local storage 24 and, if necessary, the text data of the text subtitle file. Of the AV stream recorded on the optical disc 193 or the local storage 24 and, if necessary, the decoding (playback) of the text data of the text subtitle file. Let it do.
  • the playback device 181 to which the present invention is applied can play back the content recorded on the optical disc 193 in association with the content recorded on the local storage 24.
  • the AV stream of Clipl recorded on the optical disc 193 and referred to by the Playltem of the PlayList is a stream for displaying the video of the movie content and reproducing the corresponding audio, and is referred to by the SubPlayltem of the PlayList.
  • the subtitle-related information 1 of Clip2 is a text subtitle file for displaying English subtitles along with the display of the video
  • the user corresponds to the movie recorded on the optical disc 193 to the playback device 181.
  • a text subtitle file in a desired language is downloaded from the server 3 via the network 2 (or obtained using the removable medium 28), recorded on the optical disc 193, and stored in the local storage 24! ⁇ ⁇ ⁇ ⁇ ⁇ ⁇
  • the content can be played back in association with it.
  • the playback device 181 transmits the file via the network 2 to the server. 3 is accessed, and a file prepared in the server 3 is downloaded to update the content recorded on the optical disc 193. Then, the playback device 181 plays back the content recorded on the optical disc 193 and the content recorded on the local storage 24. In addition to associating, the ClipAV stream and the text subtitle stream can be played back in synchronization.
  • FIG. 42 is a diagram illustrating an example of a file system of the optical disc 193. As shown in FIG. 42, the file system of the optical disc 193 has a directory structure.
  • ovieObject.bdmv "is stored.
  • these files are referred to as an Index file and a MovieObject file, respectively, as appropriate.
  • each file is referred to by adding “file” to “file name” or, for each directory, by adding “directory” to “directory name”.
  • the Index file includes information on a menu for playing the optical disc 193.
  • the playback device 181 displays, for example, a playback menu screen including content items such as playing all the contents of the optical disc 193, playing only a specific chapter, repeating playback, and displaying an initial menu based on the Index file. Display on the display device.
  • a MovieObject to be executed when each item is selected can be set in the Index file.
  • the playback device 181 is set to the Index file. Execute MovieObject command.
  • a MovieObject file is a file containing a MovieObject.
  • the MovieObject includes a command for controlling the playback of the PlayList recorded on the optical disk 193.
  • the playback device 181 selects one of the MovieObjects recorded on the optical disc 193 and executes it.
  • the content recorded on the optical disc 193 can be reproduced.
  • the BDMV directory also includes a directory named "BACKUP" (BACKUP directory), a directory named “PLAYLIST” (PLAYLIST directory), and a directory named rCLIPINFj (CLIPINF directory). ), A directory named “STREAM” (STREAM directory), and a directory named “AUXDATA” (AUXDATA directory).
  • the PLAYLIST directory stores PlayList files. As shown in the figure, each PlayList file is given a name obtained by adding an extension “.mpls” to a file name having a numerical power of five digits.
  • the Clip Information file is stored in the CLIPINF directory.
  • the name of the Information file is a file name consisting of a five-digit number with the extension “.clpi” added.
  • the STREAM directory stores Clip AV stream files and sub-stream files. As shown in the figure, each stream file is named after adding a file name that has a 5-digit numerical value and the extension “-m2ts”.
  • the AUXDATA directory is not included in the Clip AV stream file or substream file, but is included in the Clip AV stream file or substream file. Files such as data to be used are stored.
  • the AUXDATA directory stores a subtitle font file named “lllll.otf” and a sound effect file named “sound.bdmv”. RU
  • the optical disc 193 includes author jd (or an identifier assigned to each title author in order to identify the title author who is the content producer of the optical disc 193 such as a production company or a movie distribution company. , Studiojd in the first embodiment), and dis id (or the identifier in the first embodiment) assigned to identify the type of the optical disc 193 produced by the title author indicated by the authorjd.
  • Contentjd) Power This is recorded as secure electronic data that cannot be rewritten by the user or physically, or by pits.
  • a SubList and SubPlayltem that specify a text subtitle file storing subtitle data and a font file required for rendering are defined by a PlayList file.
  • the Clip AV file and the Clip Information file are newly downloaded to achieve synchronization between the Clip AV stream and text subtitles.
  • the set of archive files to be downloaded is shown in Figure 43. As mentioned above, the PlayList file, Clip Information file, text subtitle stream file, and font file are required.
  • FIG. 44 shows an archive of data to be additionally distributed in the second embodiment of the present invention.
  • the archive file newly distributed to the user has a structure in which metadata is added for the file addition or update procedure in the playback device 181.
  • the 8-bit field of compressionjpe specifies the compression method of the data in FileArchive (). If 0 is specified in 8 bits of compression_type, the data in FileArchive () shall be in uncompressed format.
  • the 8-bit field of encryption_type is
  • the data in FileArchive () shall be in non-scramble format (plaintext format).
  • the order of scrambling and compression of the data in FileArchive () shall be such that the compression processing is performed first, and then the scrambling processing is performed.
  • PlayList-file-The 8x5-bit field of name specifies the file name of the subsequent PlayList file.
  • the encoding method of the file name conforms to the ISO / IEC646 standard.
  • the 32-bit field of PlayList_file_size specifies the size of the following PlayList file in bytes. 0 must not be specified in the PlayList_file_size field.
  • PlayList_file stores a PlayList file as a byte sequence.
  • the metadata includes author-id, disc-id, title-id, version ⁇ operation-type, display-name, and permission ⁇ .
  • authorjd is an 8-bit field that specifies the identifier for specifying the title author.
  • titlejd is an 8-bit field that specifies an identifier to identify the title It is.
  • dis id is an 8-bit field that specifies an identifier for identifying the disk.
  • version is an 8-bit field that specifies version information for managing the history of files in the archive.
  • the operation_type is an 8-bit field that specifies the update method of the file in the archive. A value that can be specified in operation_type and a specific example of a file update method will be described later.
  • display_name specifies the name displayed in the GUI corresponding to this file.
  • XI is a 28-bit field.
  • the controller 191 described with reference to FIG. 1 can display a predetermined menu screen on an external display device. For example, when a predetermined menu screen is displayed on an external display device in order to allow the user to perform an operation for selecting a file, what is displayed on the menu screen is defined in the archive. Since the user cannot specify the contents of the file, it is difficult to select a desired file. Therefore, in the display_name field, information indicating a name that is easy for the user to specify the content of the file to be displayed on the menu screen is described.
  • the encoding method of the data stored in the display_name field shall conform to the ISO / IEC 10646-1 standard.
  • the permission indicates the attribute of the file to which the metadata is attached, and specifically, whether the corresponding file may be visible or invisible to the user. This is an 8-bit field that specifies the permission information of the license. The values that can be specified for permission will be described later.
  • the clipjnformation_file_name is an 8 x 5-bit field that specifies the file name of the subsequent Clip Information file.
  • the encoding method of the file name described in clip_information_file_name conforms to the ISO / IEC646 standard.
  • clip_information_file_size is a 32-bit field that specifies the size of the following Clip Information file in bytes. Do not specify 0 in the clip_information_file_size field.
  • the clip_information_file stores the Clip Information file as a byte sequence.
  • text_subtitle_file_name is the file name of the text subtitle stream file that follows. This is an 8 x 5 bit field to specify.
  • the encoding method of the file name described in text_subtitle_file_name conforms to the ISO / IEC646 standard.
  • text_subtitle_file_size is a 32-bit field that specifies the size of the following text subtitle stream file in bytes. Do not specify 0 in the text_subtitle_file_size field.
  • text_subtitle_file stores a text subtitle stream file as a byte sequence.
  • the syntax of the subtitle_file in which the text subtitle stream is stored will be described later with reference to FIG.
  • the structure of the container file in which the text subtitle stream is stored will be described later with reference to FIG.
  • font_file_name is an 8 x 5-bit field that specifies the file name of the following font file.
  • the encoding method of the file name described in font_file_name conforms to the ISO / IEC646 standard.
  • font_file_size is a 32-bit field that specifies the size of the following font file in bytes.
  • the font_file_size field must not be set to 0 !.
  • font_file stores a font file as a byte sequence.
  • FIG. 45 is a diagram showing the data structure of SubPath. First, the data structure of the uppermost layer of SubPath shown on the left side of FIG. 45 will be described.
  • SubPath_type indicates the application type of SubPath.
  • SubPath_type is used, for example, when indicating the type of whether the Sub Path is an audio, a bitmap subtitle, a text subtitle, or the like.
  • is_repeat_SubPath indicates the playback method of the SubPath, and indicates the power of repeating the playback of the SubPath during the playback of the MainPath, or indicates whether the playback of the SubPath is performed only once.
  • number_of_SubPlayItems indicates the number of SubPlayltems (the number of entries) included in the SubPath. After that, the number of SubPlayltems included in number_of_SubPlayItems is included.
  • Clip_Information_file_name is the Clip included in the sub Clip referenced by SubPlayltem.
  • Clip_codec_identifier is referenced by SubPlayltem Indicates the codec system of the sub clip to be performed.
  • is_multi_Clip_entries is a flag indicating whether or not this SubPlayltem refers to a plurality of sub-Clips.
  • ref_to_STC_id indicates information on an STC (System Time Clock) discontinuous point (a discontinuous point on a system time base).
  • SubPlayItem_IN_time and SubPlayItem_OUT_time indicate a playback section of a substream included in a sub Clip referenced by SubPlayltem. sync_PlayItem_id and
  • sync_start_PTS_of_PlayItem is used to specify the time at which SubPlayltem starts playback on the time axis of the Main Path. Specifically, the playback of the SubPlayltem is started at the time specified by sync_start_PTS_of_PlayItem on the time axis of the Playltem having the Playltemjd having the same value as the value of the sync_PlayItem_id.
  • number_of_Clip_entries indicates the number of sub Clips referred to by the SubPlayltem. After that, the number of SubClip_entry indicated by number_of_Clip_entries is included.
  • Clip_Information_file_name is the Clip included in the sub Clip referenced by SubPlayltem.
  • Clip_codec_identifier indicates the codec system of the sub Clip referred to by SubPlayltem.
  • o_STCjd indicates information on STC discontinuities (system time base discontinuities).
  • FIG. 46 shows a list of values that can be specified for the operation_type included in the metadata in FIG.
  • the SubPath element is extracted from the downloaded file, and is extracted into the SubPath element recorded on the optical disc 193. File system so that the added SubPath element is added. Updated (a second virtual file system is created).
  • 0x02 is described in the 8-bit field of the operation_type, and as shown in Fig. 47, the PlayList # l file including the SubPath # l, the ClipAV stream # 1 file, and the Audio stream # 1 file corresponding to the sub audio is recorded, and the content package downloaded from server 3 has SubPath # 2
  • SubPath # 2 of the PlayList # l file in the content package is extracted, and the extracted SubPath # 2 file is read from the optical disc 193.
  • the file system is updated to the state added to the issued update source PlayList # l file.
  • the ClipAV stream # 1 referenced by the Playltem, and the sub-audio referenced by the SubPlayltem and played in synchronization with the Clip AV stream 1 Audio stream # 1 is played back!
  • the PlayList after the update that is, after the file system is merged and updated
  • the PlayList is reproduced in synchronization with the ClipAV stream # 1 and independently.
  • the SubPlayltem element is extracted from the downloaded file, and is extracted into the SubPlayltem element recorded on the optical disc 193.
  • the file system is merged and updated so that the added SubPlayltem element is added (a second virtual file system is created).
  • the optical disc 193 has a PlayList # 1 file including a SubPath # l constituted by a SubPlayItem # l, a ClipAV stream # One file and, for example, Audio
  • the stream # 1 file is recorded and the content package downloaded from the server 3 includes a PlayList # l file having a SubPath # l composed of SubPlayItem # 2 and a text subtitle stream # 2 file
  • SubPlayItem # 2 constituting the SubPath # l of the PlayList # l file in the content package is extracted, and the extracted SubPlayItem # 2 is added to the SubPath # l of the update source PlayList # l file read from the optical disc 193.
  • the file system is updated to the added state.
  • ClipAV stream # 1 referenced by Playltem and SubPlayItem # 1 refer to and synchronize with ClipAV stream # 1.
  • Audio stream # 1 which is the data of the sub audio to be reproduced in the predetermined first section, is reproduced.
  • the ClipAV stream # 1 and the SubPlayItem # l referenced by the Playltem are referred to.
  • the audio stream # 1 which is the data of the sub audio to be reproduced in the predetermined first section that is reproduced in synchronization with the ClipAV stream 1
  • the audio stream # 1 is also reproduced, and the sub-path is the same as SubPlayItem # l. Since the included SubPlayItem # 2 (described as SPI2 in the figure) is added, the text subtitle stream # 1 can be played back in the predetermined second section in synchronization with the ClipAV stream # 1. .
  • the optical disc 193 has the SubPlayItem # l associated with the Clip # l.
  • a PlayList #l file, a ClipAV stream # 1 file, and a text subtitle stream # 1 file corresponding to subtitles in the first language, for example, are recorded.
  • the PlayList # 1 in the content package is included.
  • the Clip # 2 of the SubPlayItem # 1 constituting the SubPath # 1 of the file is extracted, and the extracted Clip # 2 force The PlayList # of the update source read from the optical disc 193
  • the SubPlayItem # constituting the SubPath # 1 of the file The file system is updated to the state added to 1.
  • FIG. 53 shows a list of values that can be specified for permission included in the metadata in FIG.
  • the attribute of the file accompanying this metadata is an invisible attribute to the user
  • the attribute of the file accompanied by this metadata is a visible attribute to the user
  • 0x03 is described in the 8-bit field of permission.
  • the attribute of the file accompanying this metadata is the overwrite-protected attribute.
  • the subtitle_file field stores a text subtitle stream file as a byte sequence.
  • Text subtitle files shall follow the syntax shown in Figure 54.
  • the syntax of the text subtitle file in the second embodiment is basically the same as that in the second embodiment described with reference to FIG. 54, the syntax of the text subtitle file in the second embodiment is different from the case described with reference to FIG. 12 in that version (version) information included in metadata is omitted, and the start_PTS and end_PTS
  • the subtitle is separated by 8-bit padder bits (reserved) to adjust the data boundary, and is stored in the subtitle_data byte sequence that is the information that specifies the subtitle data.
  • markupjpe is 8-bit information that specifies a markup format.
  • subtitle_count is 32-bit information that specifies the total number of subtitle data.
  • subtitle_count is not the total number of line feed codes. Reserved) is an 8-bit padding bit for adjusting the data boundary.
  • start_PTS is 33-bit information that specifies the display start time of subtitle data and the PTS (Presentation Time Stamp) on the time axis with the start time of PlayList being 0.
  • end_PTS is 33-bit information that specifies the display end time of subtitle data by the PTS on the time axis with the start time of PlayList being 0.
  • PTS use the value measured at 90 kHz.
  • start_PTS and end_PTS the value measured at 90 kHz is used for PTS.
  • subtitle_data_length is 32-bit information that specifies the number of bytes of subtitle_data (not the number of subtitle characters! /,).
  • subtitle_data is information specifying subtitle data, and is stored as a byte sequence! RU
  • caption data is composed of "character objects” indicating the characters themselves constituting the captions and "attribute data (attributes)", and the attribute data of the caption data includes
  • attribute setting methods attribute setting using control characters and inline attribute setting using markup.
  • the markup format is TLV (Type-Length-Value)
  • TLV encoded format the markup format identifier
  • the attribute is specified by the TLV encoding method.
  • the character encoding method of the caption data is in accordance with the specification of the character_code_id in the SubPlayltem described in FIG.
  • the 8-bit field of escape_code specifies the escape code OxlB indicating that the attribute will be described later! /, As described with reference to Fig. 17.
  • the 8-bit field of data_type specifies the attribute type.
  • the 16-bit data_value_length field specifies the number of bytes of attribute data that follows.
  • data_value specifies the attribute data or the byte sequence of the character object.
  • Fig. 56 shows attributes that can be specified as data_type.
  • CLUT Color Lookup
  • CLUT is a conversion table stored in the subtitle graphics plane processing unit 93 described later with reference to FIG.
  • the data structure of data_value when the attribute type described in datajpe of subtitle.data () is CLUT setting is the same as that described with reference to FIG.
  • the attribute type is the specification of the region origin.
  • the data structure of the data_value when the attribute type described is the region origin specification is the same as that described with reference to FIG. 8-bit file of data_type of subtitle_data ()
  • the type of the described attribute is designation of line spacing (Line Space).
  • the type of the described attribute is the specification of the background color.
  • the area filled with the specified background color is per region. The default may be unspecified (transparent).
  • the type of the described attribute is the specification of the font style.
  • the attribute type described in the datajpe of subtitle_data () is the specification of the font style, one of the codes described with reference to FIG. 22 is described in the data_value, The font style is specified. Note that the default font style may be "Standard”.
  • the type of attribute described is the specification of font size. If the attribute type of the sub title.data () is! /, which is described in! . The default value for specifying the font size may be “32”.
  • the attribute type described is the specification of the font rotation angle.
  • the attribute type described in the data_type of subtitle_data () is the specification of the font rotation angle, a value between 0 and 360 corresponding to the font rotation angle is specified in data_value.
  • the rotation direction may be, for example, counterclockwise in the forward direction, and the default may be “0”.
  • Character_codejd is ignored, and the encoding is assumed to be ISO / IEC646.
  • the data structure of subtitle_data () in the case of attribute specification in a tagged language is the same as that described with reference to FIG. 26, and TaggedAttr follows a predetermined format as described with reference to FIG. 27.
  • char_data specifies the byte sequence of the character object. However, the byte sequence shall be ISO / IEC646 encoded using the BASE64 encoding method. At this time, “ku” and “>” are escaped by “0xlB”.
  • the default of the index corresponding to the font color may be set to “0”.
  • the end of the font color designation is described as ⁇ / fontcolor>.
  • the area filled with the background color is in units of regions, and the default background color may be unspecified (transparent)!
  • the default value for specifying the font size may be “32”.
  • the end of the font size specification is described as ⁇ / fontsize>.
  • the rotation direction may be counterclockwise, and the default value corresponding to the font rotation angle may be “0”.
  • the end of the font rotational angle specification is described as Ku / fontr 0 t a t e> .
  • the attribute “c” has a repetition count. Is specified.
  • the caption data to which the bookmark corresponding to the attribute value set by the attribute “id” is repeated the number of times set to the attribute “c”.
  • the text data of the text subtitle file for which the attribute is specified by the above-described method is based on the setting of each attribute, for example, as described with reference to Fig. 29, the rendering direction is from left to right. Is specified and the line feed is displayed in a downward direction at the set line feed position, or as described with reference to FIG. 30, the rendering direction is specified from right to left, and the line feed is downward in the set line feed position. As described with reference to Fig. 31, the rendering direction is specified as upward and downward, and the line is displayed with a line feed to the left at the set line feed position.
  • the container file in which the text subtitle stream is stored has a different file format that is not multiplexed with the Clip AV stream.
  • the format of the container file is a BDAV MPEG-2 transport stream.
  • the PES (Packetized Elementary Stream) packet in which the text subtitle stream is stored follows the Private Stream 2 format shown in FIG.
  • packet_start_code_prefix is a 24-bit field that is a packet start code for identifying the start of a packet, and is set to a value of 0x000001.
  • streamjd is an 8-bit field that specifies the stream type and number, and the value OxBF is set.
  • PES_packet_length is a 16-bit field that specifies the number of bytes in the byte sequence that immediately follows. Then, PES_packet_data_byte specifies a text subtitle stream file as a byte sequence.
  • the BDAV MPEG-2 transport stream in which the text subtitle stream is stored has, for example, a configuration as shown in FIG.
  • source packet # 1 includes a PAT packet
  • source packet # 2 includes a PMT packet
  • Source packet # 3 including source SIT packet and source packet # 4 to source packet # 32 are packets # 1 to # 3 in which text subtitle stream files are stored in Private Stream 2 format described with reference to FIG. 58. It is supposed to contain packet # 29!
  • the above-described update data is acquired by being downloaded from the server 3 or the like, and is recorded in the local storage 24.
  • FIG. 60 shows the data structure of the data stored in the local storage 24.
  • the BACKUP directory contains the PlayList file
  • the CLIPINF directory contains the Cliplnformation file
  • the STREAM directory contains the text subtitle stream file.
  • the 1S AUXDATA directory stores font files. In the example of FIG. 60, both the name of the author jd directory and the name of the discjd directory are “1”. That is, under the directory shown in FIG. 60, an update file whose authorjd and discjd are both 1 is recorded.
  • the name of the update data file recorded in the local storage 24 is a file obtained by inserting a "" (period) and a 4-digit number between the file name and the extension. Is done. This four-digit number indicates the version number, starting at 0000 and increasing by one each time a new version of the update file is recorded. For example, if an update file for a PlayList file named “01001.mpls” is recorded in the PLAYLIST directory, the file “01001. ****. Mpls (**** is the version number)” will be stored in the PLAYLIST directory.
  • the update data downloaded from the server 3 includes metadata.
  • the metadata is recorded in the same directory as the update file corresponding to the metadata with a file name obtained by adding the extension “.data” to the file name of the update file.
  • FIG. 61 shows the data structure of the second virtual file system.
  • the authorjd and the discjd are recorded on the same optical disk 193, and the data file and the data file stored in the local storage 24!
  • the files are merged to prepare a directory named “VBDMV”, which is stored in the “BDMV” directory of the optical disk 193 described with reference to FIG.
  • a file named "Index.bdmv” and a file named "MovieObject.bdmv” The BACKUP directory, the PLAYLIST directory, the CLIPINF directory, and the
  • a STREAM directory and an AUXDATA directory have been created, each of which contains data files under the corresponding directory.
  • Metadata files are actually associated with the data files stored in the local storage 24, respectively.
  • the PlayList is shown in Fig. 3 in the PlayList.
  • Such a sub play item (Sub Play Item) can be used to include information of a sub path (Sub path) specified.
  • a SubPlayltem is defined, for example, a Clip specified by the Playltem (eg, an MPEG2 transport stream) Independent data streams that are not multiplexed in ()) can be played back in synchronization with AV stream playback.
  • the user can synchronize and reproduce the ClipAV stream set in the main path and the text subtitle stream. Also, multiple subtitle streams can be specified for one sub-playitem.
  • the reproducing device 181 of the present invention in order to perform synchronous reproduction, reproduction of the sub path is performed. Also in the processing, STC (System Time Clock) referred to in the main path reproduction processing can be referred to. In addition, in the reproduction process of the sub path, the decoder 192 can preload the text subtitle stream at once or partially preload the text subtitle stream.
  • STC System Time Clock
  • the text subtitle stream is pre-loaded collectively, or an EP_map for the text subtitle file, which will be described later, is created.
  • an EP_map for the text subtitle file which will be described later
  • FIG. 32 is a block diagram illustrating a configuration of a decoder 192 of a playback device 181 to which the present invention is applied, which can be executed.
  • the decoder 192 of FIG. 63 the same reference numerals are given to components corresponding to the case described in FIG. 33, and description thereof will be omitted as appropriate. That is, the decoder 192 is provided with an STC counter 211, a memory 216, a buffer 217, and a buffer 219, an audio decoder 212 is provided in place of the audio decoder 86, and an MPEG decoder is provided in place of the MPEG video decoder 87.
  • a video decoder 213 is provided, a control unit 214 is provided in place of the control unit 81, a disk data acquisition unit 215 is provided in place of the disk data acquisition unit 82, and a storage data unit is provided in place of the storage data acquisition unit 91.
  • the decoder 26 basically has the same configuration as the decoder 26 described with reference to FIG. 33 except that an acquisition unit 218 is provided and a text subtitle processing unit 220 is provided instead of the text subtitle processing unit 92. It is.
  • the STC counter 211 counts the STC.
  • the audio decoder 212 calculates a PTS (Program Time Stamp) with reference to the counter value of the STC counter 211, decodes the audio stream according to the calculated PTS, and decodes the data of the decoded audio stream. Is output.
  • the MPEG video decoder 213 calculates the PTS by referring to the counter value of the STC counter 211, decodes the video stream according to the calculated PTS, and outputs the decoded video data to the video plane processing unit 88. I do.
  • the control unit 214 executes processing of each unit of the decoder 192 based on the control of the reproduction control unit 204.
  • the disk data acquisition unit 215 or the storage data acquisition unit 218 is controlled to control the random access of the text subtitle stream by batch preloading the text subtitle stream and buffering it in the buffer 217.
  • control unit 214 performs play item switching under a non-seamless connection condition on the main path in order to synchronously play back the ClipAV stream specified by the main path and the text subtitle stream specified by the sub path.
  • the generated information such as a gap in the decoding operation of the ClipAV stream by the audio decoder 212 and the MPEG video decoder 213 is notified to the text subtitle processing unit 220.
  • the disc data acquisition unit 215 acquires the data supplied to the decoder 192 from the data read from the optical disc 193, and outputs the AV stream specified by the Playltem. To the buffer 83,
  • the data of the text subtitle file or font file specified by SubPlayltem is supplied to the buffer 84.
  • the decoder 192 can preload the text subtitle stream at once or partially preload the text subtitle stream.
  • the disk data acquisition unit 215 reads out all the corresponding text subtitle files and supplies the read text subtitle files to the notifier 217.
  • the disc data acquisition unit 215 transmits information such as SubPlayItem_IN_time and SubPlayItem_OUT_time corresponding to the text subtitle stream recorded on the optical disc 193. Acquired and supplied to the control unit 214.
  • the memory 216 corresponds to the text subtitle stream generated by the control unit 214.
  • the buffer 217 stores the text subtitle stream that is supplied from the disk data acquisition unit 215 or the storage data acquisition unit 218 and that is collectively preloaded.
  • the storage data obtaining unit 218 obtains data supplied to the decoder 192 (ie, data of a text subtitle file or font file) from the data read from the local storage 24, and performs batch preloading. If the preload is not performed or the partial preload is performed, the data is temporarily stored in a buffer (not shown) for the internal transport stream, and the obtained data is stored in the buffer 219. Supply data.
  • the storage data acquisition unit 218 acquires information such as SubPlayItem_IN_time and SubPlayItem_OUT_time corresponding to the text subtitle stream recorded in the local storage 24. And supplies it to the control unit 214.
  • the buffer 219 temporarily buffers the text subtitle stream data and font file data supplied to the text subtitle processing unit 220.
  • the text subtitle processing unit 220 receives the supply of the text subtitle stream data and the font file data, and based on the counter value of the STC counter 211 and information such as the gap in the decoding operation of the ClipAV stream to which the control unit 214 is also supplied. Then, the supplied text subtitle stream is decoded so as to be reproduced in synchronization with the ClipAV stream.
  • the text subtitle stream can be preloaded at once or partially preloaded, and the text subtitle file can be randomly accessed at high speed. Can be performed.
  • Batch preloading is a method in which the disk data acquisition unit 215 or the storage data acquisition unit 218 acquires the entire text subtitle stream required for reproduction, and preloads the data to the buffer 217 at a time.
  • the partial preload is a method in which the disk data acquisition unit 215 or the storage data acquisition unit 218 preloads only a part of the text subtitle stream.
  • the transport stream data of the partially preloaded text subtitle stream is stored in a source packet at a transfer rate corresponding to a leak rate value of a buffer 84, which is a transport stream buffer, or a buffer (not shown) in the storage data acquisition unit 218. (The stream loaded into the buffer 219 is an elementary stream of TextSubtitle).
  • the EP_map is referred to determine the source packet number from an arbitrary PTS value in the Playltem.
  • the EP_map will be described with reference to FIG.
  • the EP_map is a table that stores a pair of a time stamp (PTS_EP_start) of an entry point in a clip and a source packet number (SPN_EP_start) to start decoding the stream in the clip AV stream file. And is defined in the Clip Information file.
  • the playback device 181 detects the source packet number (SPN_EP_start) of the source packet to be randomly accessed (decoding should be started) by specifying the entry point time stamp (PTS_EP_start). be able to . That is, the playback device 181 can deal with random access, fast forward playback, or fast reverse playback of the Clip AV stream by referring to the EPjnap of the Clip AV stream.
  • the source packet number is a number that is incremented by one in the order of the source packets in the AV stream file, and the source packet number at the beginning of the file is set to zero.
  • control unit 214 controls the disk data acquisition unit 215 or the storage data acquisition unit 218 to batch preload the text subtitle stream and buffer the text subtitle stream in the buffer 217, and the global time in the playback device 181.
  • the text subtitle stream has the property of time-series data similarly to the ClipAV stream of audio Z-video, so that the relationship represented by the following equation (3) always holds.
  • the control unit 214 calculates the equation (1) and the equation (2) for an arbitrary PTS value T.
  • B-Tree indicing as a high-speed algorithm for finding a non-negative integer i that satisfies the condition, random access to subtitle data can be controlled.
  • the control unit 214 uses a non-B-Tree indicing algorithm to generate, for an arbitrary PTS value T, a non-negative integer You may ask for it, but it's not necessary! / ,.
  • control unit 214 transmits the SubPlayItem_IN_time and SubPlayItem_IN_time corresponding to the text subtitle stream recorded on the optical disc 193 from the disc data acquisition unit 215 during PlayList playback.
  • EPjnap of a text subtitle stream is generated in advance and stored in the memory 216, and random access can be controlled by referring to the EP_map of the text subtitle stream stored in the memory 216.
  • FIG. 65 is a block diagram showing a configuration of text subtitle processing section 220 in FIG. 63.
  • the text subtitle processing unit 220 acquires the counter value of the STC counter 211 and information such as the gap of the decoding operation of the ClipAV stream supplied from the control unit 214, and synchronizes with the ClipAV stream to obtain the text subtitle stream.
  • An STC processing unit 231 for calculating a PTS that is a reference of the operation of the text data decoder 232 is newly provided so that the STC processing unit 231 can replace the text data decoder 121 with the STC processing unit 231 based on the STC.
  • the ClipAV stream And the text subtitle stream can be synchronized.
  • the ClipAV stream can hold multiple STCs in one PlayList file, if the text data decoder 232 directly refers to the STC referenced by the ClipAV stream of MainPath, the playback control of the text subtitle stream is performed. Is a complicated factor. Also, the text subtitle stream has no PCR packet as described above.
  • the text subtitle processing unit 220 that decodes the text subtitle stream assumes a consistent global time axis in the playback device 181 based on the STC that is referred to when playing the Clip AV stream of the Main Path. It shall be.
  • the STC processing unit 231 calculates a time stamp based on the time axis and supplies the time stamp to the text data decoder 232.
  • the text data decoder 232 performs a decoding process based on the supplied time stamp.
  • the ClipAV stream refers to the STC in each Playltem in one PlayList file. Therefore, STC processing section 231 accumulates the counter value of STC counter 211 to form a global time axis in the PlayList, and calculates a PTS serving as a reference for the operation of text data decoder 232.
  • the STC processing unit 231 needs to integrate the counter value of the STC counter 211 in consideration of a gap generated by Playltem switching under non-seamless connection conditions. is there. Therefore, the STC processing unit 231 obtains information such as a gap in the decoding operation of the ClipAV stream supplied from the control unit 214, and, based on the information, obtains the counter value of the STC counter 211 in consideration of the gap generated by the Playltem switching. Is calculated to calculate a PTS which is a reference of the operation of the text data decoder 232.
  • the update file is downloaded from the server 3.
  • This process is executed when the user instructs acquisition of update data, regardless of whether the optical disc 193 is mounted on the playback device 181 or not.
  • step S201 the data acquisition unit 33 of the controller 191 controls the Internet interface 24, accesses the server 3 via the Internet 2, and requests transmission of data corresponding to an update menu screen.
  • step S202 the data acquisition unit 33 controls the Internet interface 24, and receives data corresponding to the update menu screen from Sano 3 via the Internet 2.
  • the data acquisition unit 33 supplies the data corresponding to the update menu screen transmitted from the server 3 and received by the Internet interface 24 to the menu screen display control unit 31.
  • step S203 the menu screen display control unit 31 causes the display device to display a menu screen for updating, and proceeds to step S204. Based on the signal supplied from the operation input acquisition unit 32, the menu screen display control unit 31 Is operated by the user to determine whether or not the content of the update is selected.
  • menu screen display control section 31 waits until it is determined that the content of the update has been selected, and when it is determined that the content of the update has been selected, proceeds to step S205.
  • Information representing the content of the update selected by the user is output from the menu screen display control unit 31 to the data acquisition unit 33.
  • step S205 the data acquisition unit 33 controls the Internet interface 24, causes the server 3 to transmit information indicating the contents of the update, and requests the server 3 to download the update file specified by the user.
  • step S206 the data acquisition unit 33 controls the Internet interface 24 to download the PlayList file, Cliplnformation file, text subtitle stream file, and font file prepared as update files by the server 3, The local storage directory management unit 201 is notified that these files have been downloaded.
  • step S207 the local storage directory management unit 201 stores the directories identified by their IDs in the local storage 24 based on the author jd and the disc jd included in the metadata of the downloaded update data file. create. Thereby, for example, a file system having the structure described with reference to FIG. 60 is created in the local storage 24.
  • step S208 the local storage directory management unit 201 expands and stores each file downloaded from the server 3 in the directory created in step S209.
  • the server 3 update file is downloaded and recorded in the local storage 24.
  • a user who purchases the optical disc 193 on which content such as a movie is recorded can be updated by the user. It is possible to acquire and record a file necessary to display the subtitles of the language, which is recorded in advance in the computer. Therefore, it is possible to display subtitles of the language desired by the user in synchronization with the AV stream recorded on the optical disc 193, and view the content.
  • the download of the update file as described above may be performed for a fee! /, Or may be performed for free! /.
  • the optical disk directory The management unit 202 reads, from the optical disc 193, authorjd and discjd recorded so as not to be rewritable by the user, and outputs the read authorjd and discjd to the local storage directory management unit 201.
  • step S222 based on the authorjd and discjd supplied from the optical disk directory management unit 202, the local storage directory management unit 201 determines the file system of the local storage 24 corresponding to the file system of the optical disk 193. And supplies it to the file system merge processing unit 203. As described above, the optical disk 193 The file system corresponding to the aisle system is stored in the local storage 24 in a directory that can be specified by using the authorjd and the disid (FIG. 60).
  • the file system of the optical disk 193 is output from the optical disk directory management unit 202 to the file system merge processing unit 203, and the file system of the optical disk 193 and the file system of the local storage 24 are compared with each other in FIG. Merged as described with reference to. Then, in step S223, a virtual file system generation process described later with reference to FIG. 70 is executed, and a second virtual file system is generated. The generated second virtual file system is output to the reproduction control unit 204 and used for reproducing the AV stream file.
  • step S224 the playback control unit 204 specifies a MovieObject from the generated second virtual file system, executes a playback command included in the MovieObject, and in step S225, executes a playback command included in the MovieObject.
  • step S226 the local storage directory management unit 201 and the optical disk directory management unit 202 are controlled to obtain the PlayList and the SubPlayltem designated as the playback section in step S226. Files, text subtitle files, font files, etc.) and supply them to the decoder 192.
  • step S227 the content reproduction process 2 described later with reference to Fig. 71 or the content reproduction process 3 described later with reference to Fig. 74 is executed, and the read AV stream file or text is read.
  • the subtitle stream file and the like are decoded, and the video, audio, or subtitles are output to the display device, and the process ends.
  • the second virtual file system is generated and used at the time of reproducing the content.
  • the data of the text subtitle file referred to by the SubPlayltem is read and reproduced simultaneously with the AV stream. Is done.
  • step S223 in FIG. 69 Next, the virtual file system generation processing executed in step S223 in FIG. 69 will be described with reference to the flowchart in FIG.
  • the file system merge processing unit 203 merges the file system of the optical disk 193 and the file system of the local storage 24 as described with reference to Fig. 61, and forms the second virtual file system. Generate. [0401] In step S241, the file system merge processing unit 203 determines whether the value of the operation_type of the metadata in the update file to be processed, that is, the file system detected in step S222 in Fig. 69 is 0x01. It is determined whether or not. In step S241, if it is determined that the value of operationjpe of the metadata of the update file is not 0x01, the process proceeds to step S243 described later.
  • step S241 if it is determined that the value of the operation_type of the metadata of the update file is 0x01, in step S242, the file system merge processing unit 203 updates the PlayList of the optical disc 193. A second virtual file system that has been exchanged for the file PlayList and updated is generated, and the process returns to step S223 in FIG. 69 and proceeds to step S224. That is, when it is determined that the value of the operation_type of the metadata of the update file is 0x01, the PlayList downloaded and recorded on the local storage 24 is referred to as it is, and the PlayList of the optical disk 193 is referred to at all. What!
  • step S241 if it is determined that the value of the operation_type of the metadata of the update file is not 0x01, in step S243, the file system merge processing unit 203 determines whether the update file to be processed is That is, it is determined whether the value of the operation_type of the metadata in the file system detected in step S222 of FIG. 69 is 0x02. If it is determined in step S243 that the value of the operation_type of the metadata is not 0x02, the process proceeds to step S225.
  • step S243 if it is determined that the value of the operation_type of the metadata is 0x02, the file system merge processing unit 203 stores the update file in the PlayList file of the optical disc 193 in step S244. A second virtual file system updated by adding the SubPath is generated, and the process returns to step S223 in FIG. 69 and proceeds to step S224.
  • the SubPath element is extracted from the downloaded file and the optical disk is extracted, as described with reference to FIGS. 47 and 48. The file system is merged and updated so that the extracted SubPath element is added to the SubPath element recorded in 193.
  • step S243 if it is determined that the value of the operation_type of the metadata is not 0x02! /, the file system merge processing unit 203 performs the update to be processed. It is determined whether the value of the operation_type of the metadata of the file, that is, the metadata of the file system detected in step S222 in FIG. 69 is 0x03. If it is determined in step S245 that the value of operationjpe of the metadata is not 0x03! /, The process proceeds to step S227.
  • step S245 if it is determined that the value of the operation_type of the metadata is 0x03, in step S246, the file system merge processing unit 203 stores the update file of the update file in the PlayList file of the optical disc 193.
  • the second virtual file system updated by adding the SubPlayltem is generated, and the process returns to step S223 in FIG. 69 and proceeds to step S224.
  • the SubPlayltem element is extracted from the downloaded file as described with reference to FIGS.
  • the file system is merged and updated so that the extracted SubPlayltem element is added to the SubPlayltem element recorded in 193.
  • step S245 if it is determined that the value of the operation_type of the metadata is not 0x03, that is, if the value of the operation_type is 0x04, in step S247, the file system
  • the merge processing unit 203 determines whether or not the value of is_multi_Clip_entries (FIG. 45) is 1 in the SubPlayltem to which the SubClip_entry is added.
  • step S247 if it is determined that the value of is_multi_Clip_entries is not 1! /, That is, if the SubPlayltem power to add the SubClip_entry is currently referencing only one SubClip_entry
  • step S248 the file system merge processing unit 203 checks the SubPlayltem for adding the SubClip_entry in the PlayList file of the update source.
  • step S249 the file system merge processing unit 203 adds SubClip_entry Increase the value of SubPlayltem's number_of_Clip_entries ( Figure 45) by one from its current value. That is, add SubClip_entry The setting value of the number of sub clips referenced by SubPlayltem is increased by one.
  • step S250 the file system merge processing unit 203 generates a second virtual file system in which the SubClip_entry of the update file is added to the SubPlayltem of the PlayList file of the optical disc 193 and updated, and the processing is performed. Then, the process returns to step S223 in FIG. 69, and proceeds to step S224. That is, when it is determined that the value of the operation_type of the metadata of the update file is 0x04, the description has been given with reference to FIG. 45.
  • the SubClip_entry element is extracted from the downloaded file and recorded on the optical disc 193 as described with reference to FIGS. 51 and 52. Then, the file system is merged and updated so that the extracted SubClip_entry element is added.
  • the data recorded on the optical disk 193 and the data recorded on the local storage 24 are merged in a method determined by the value of the operation_type of the metadata, and the optical disk 193 A second virtual file system is generated so that the user can view the data as having been updated by the data of the update file recorded in the local storage 24.
  • step S261 the reproduction control unit 204 controls the decoder 192 to reproduce the AV stream data specified by the Playltem of the second virtual file system generated by the processing described with reference to Fig. 70. .
  • Steps S262 to S264 [Steps S262 to S264 in FIG. 37] Basically, the same processing is executed. That is, it is determined whether or not an operation input for instructing display of subtitle data has been received. If it is determined that an operation input for instructing display of subtitle data has been received, a signal corresponding to the user's operation input is transmitted to the menu screen display control. A list menu of subtitle data that is supplied to the unit 31 and can be displayed on the display device is displayed, and it is determined whether or not an operation input for specifying a language of the subtitle data to be displayed has been received. If it is determined in step S264 that an operation input for specifying the language of the subtitle data to be displayed has not been received, the process returns to step S263, and the subsequent processes are repeated.
  • step S264 If it is determined in step S264 that an operation input for specifying the language of the subtitle data to be displayed has been received, in step S265, the operation input acquisition unit 32 outputs a signal corresponding to the user's operation input to the reproduction control unit. Supply to 204.
  • the playback control unit 204 controls the local storage directory management unit 201 to obtain the text subtitle data referred to by the SubPlayltem specified based on the user's operation input, that is, the text subtitle data, and obtain the storage data of the decoder 192. And supplies the data to the buffer 218 under the control of the control unit 214 to collectively preload the buffer 217 and, if necessary, reads the font data corresponding to the font specified by the user. 192 storage data acquisition unit 218.
  • step S266 subtitle display processing 2 described below with reference to Figs. 72 and 73 is executed.
  • Steps S267 to S269 are executed, and basically the same processes as those in steps S67 to S69 in Fig. 37 are executed. That is, it is determined whether or not a force has been received to input a command to change the language of the caption data to be displayed, and if it is determined that an operation input to change the language of the caption data to be displayed has been received, the processing is performed as follows. Returning to step S265, the subsequent processing is repeated. If it is determined in step S262 that an operation input for instructing display of subtitle data has not been received, or in step S267, an operation input for instructing to change the language of the subtitle data to be displayed is received.
  • step S268 it is determined whether the user has received the operation input for instructing the end of the content playback or the end of the AV stream data being played back. If it is determined that the operation input for instructing the end of the reproduction of the content has not been received and that the AV stream data being reproduced has not ended, in step S269, it is determined whether or not the operation input for stopping the display of the subtitle has been received. ⁇ is determined. If it is determined that the operation input to stop the display of the subtitle has not been received, the process returns to step S266, and the subsequent processing is repeated, and if it is determined that the operation input to stop the display of the subtitle has been received, The process returns to step S261, and the subsequent processes are repeated.
  • step S268 If it is determined in step S268 that an operation input for instructing the end of content playback has been received, or if it is determined that the AV stream data being played has ended, the process returns to step S227 in FIG. Will be terminated.
  • the data corresponding to the subtitles in the language desired by the user can be randomly accessed.
  • the text subtitle file to be read is changed in order to change the language of the subtitle to be displayed based on the user's operation input, while being displayed in synchronization with the video and audio of the content recorded in the subtitle.
  • step S291 the control unit 214 of the decoder 192 calculates a decoding start position in random access. Then, based on the calculation result of the decoding start position, the control unit 214 collects the text subtitle data, that is, the text subtitle data, that is, the text subtitle data, which has been batch preloaded and buffered in the buffer 217, via the buffer 219. And supplies it to the text subtitle processing unit 220.
  • step S292 the text data decoder 232 of the text subtitle processing unit 220 of the decoder 192 performs the processing of the STC processing unit 231 to count and control the same STC counter and STC counter as the STC referenced by the ClipAV stream. ClipAV based on information such as the gap in decoding operation of the stream, Pl ay l tem switched by based on PTS which is calculated taking into account a gear-up that occurs Te, the supplied text subtitle data supplied by Decode.
  • steps S293 to S305 basically the same processes as those performed in steps S92 to S104 in Figs. 38 and 39 are performed.
  • the text data decoder 232 of the text subtitle processing unit 220 supplies the character objects included in the decoded text subtitle data to the character object buffer 122 of the text subtitle processing unit 220 and causes the text objects to be buffered.
  • the text data decoder 232 supplies the attribute data included in the decoded text subtitle data to the attribute data buffer 123 of the text subtitle processing unit 220, and causes the attribute data buffer 123 to buffer the attribute data.
  • control unit 214 determines whether or not a force has been received from the reproduction control unit 204 (controller 191), for example, a signal indicating an operation input for instructing a change of a subtitle attribute such as a font size. However, when it is determined that a signal indicating an operation input for instructing a change of the subtitle attribute is received, the attribute data held in the attribute data buffer 123 is changed.
  • step S295 when it is determined that the signal indicating the operation input for instructing the change of the subtitle attribute has not been received, or after the process of step S296 is completed, the character object buffer 122 and the attribute data The character object and the attribute data are obtained from the buffer 123, and it is determined whether or not the reproduction control unit 204 (controller 191) has also received a signal indicating an operation input for instructing a font type change.
  • the processing of the local storage directory management unit 201 (controller 191) controlled by the playback control unit 204 causes different font data to be output based on the operation input.
  • the font data is read from the local storage 24 to obtain different font data.
  • step S298 when it is determined that the signal indicating the operation input for instructing the font type change has not been input, or after the process of step S299, the acquired attribute and bookmark buffer 125 Is referred to, the subtitle data to be rasterized is bookmarked, it is determined whether the subtitle data is already subtitle data buffered in the bookmark buffer 125, and the subtitle data that has been bookmarked and is being buffered is used. If so, the font rasterizer 124 From the mark buffer 125, the stored subtitle image data (raster data) to be bookmarked is read and output.
  • step S266 the supplied caption image data is combined with the video data and output by the combining processing unit 94, and the process returns to step S266 in Fig. 71 and proceeds to step S267.
  • the subtitle data in the language desired by the user and the data of the subtitle file and the font file data batch-preloaded so as to be displayed in the font desired by the user with the attribute desired by the user are displayed.
  • the readout is controlled, and if necessary, the attribute data is changed and rasterized.
  • step S227 in Fig. 68 the content reproduction process 3 executed in step S227 in Fig. 68 will be described.
  • the text subtitle data is partially preloaded, and an EP_map corresponding to the text subtitle stream is generated, so that the text subtitle data can be randomly accessed.
  • step S361 the reproduction control unit 204 controls the decoder 192 to reproduce the AV stream data specified by the Playltem of the second virtual file system generated by the processing described with reference to Fig. 70. .
  • steps S362 to S364 basically the same processing as in steps S62 to S64 in FIG. 37 is executed.
  • the force of receiving the operation input to instruct the display of subtitle data is determined, and if it is determined that the operation input to instruct the display of subtitle data is received, a signal corresponding to the user's operation input is displayed on the menu screen.
  • a menu of a list of subtitle data that is supplied to the control unit 31 and can be displayed on the display device is displayed, and it is determined whether or not an operation input for specifying a language of the subtitle data to be displayed has been received. Stets If it is determined in step S364 that the operation input for specifying the language of the subtitle data to be displayed has not been received, the process returns to step S363, and the subsequent processes are repeated.
  • step S365 the control unit 214 of the decoder 192 transmits the data recorded on the optical disc 193 from the disk data acquisition unit 215.
  • Information such as SubPlayItem_IN_time and SubPlayItem_OUT_time corresponding to the text subtitle stream, and information such as SubPlayItem_IN_time and SubPlayItem_OUT_time corresponding to the text subtitle stream recorded in the local storage 24 from the storage data acquisition unit 218
  • an EP_map of a text subtitle stream similar to EPjnap described with reference to FIG. 64 is generated and stored in the memory 216.
  • step S366 the operation input acquisition unit 32 supplies a signal corresponding to the user's operation input to the reproduction control unit 204.
  • the playback control unit 204 controls the local storage directory management unit 201, and transfers the text subtitle data referred to by the SubPlayltem specified based on the user's operation input, that is, text subtitle data, to the storage data acquisition unit 218 of the decoder 192.
  • step S367 subtitle display processing 3 described below with reference to Figs. 75 and 76 is executed by the decoder 192.
  • Steps S368 to S370 are basically the same as those in steps S67 to S69 in Fig. 37. That is, it is determined whether or not a force has been received to input a command to change the language of the caption data to be displayed, and if it is determined that an operation input to change the language of the caption data to be displayed has been received, the processing is performed as follows. Returning to step S365, the subsequent processing is repeated.
  • step S362 If it is determined in step S362 that an operation input for instructing display of subtitle data has not been received, or if it is determined in step S368 that V, If the operation input for instructing the change of the language of the subtitle data to be displayed is received, and it is determined that no, in step S369, the force for receiving the operation input for instructing the end of the content reproduction, Or, when it is determined whether the AV stream data being played has ended or not, no operation input for instructing the end of content playback has been received, and it is determined that the AV stream data being played has not ended. Then, in step S370, it is determined whether or not an operation input for stopping the display of subtitles has been received.
  • step S367 If it is determined that the operation input to stop the display of the subtitle has not been received, the process returns to step S367, and the subsequent processing is repeated. If it is determined that the operation input to stop the display of the subtitle has been received, The process returns to step S361, and the subsequent processes are repeated.
  • step S369 If it is determined in step S369 that an operation input for instructing the end of content playback has been received, or if it is determined that the AV stream data being played has ended, the process returns to step S227 in Fig. 68. , The process ends.
  • an EPjnap corresponding to the text subtitle stream downloaded to the server 3 and stored in the local storage 24 is generated, and data corresponding to the subtitle in the language desired by the user can be randomly accessed.
  • the text subtitle file is displayed in synchronization with the video and audio of the content recorded on the optical disc 193, and is read in order to change the language of the displayed subtitle based on the user's operation input. Is changed.
  • step S391 the control unit 214 of the decoder 192 refers to the EPjnap generated in step S365 in FIG. 74 and stored in the memory 216 to refer to the buffer 84 or the storage data acquisition unit 218. It supplies the text subtitle data buffered in the internal buffer, ie, the text subtitle data, to the text subtitle processing unit 220 via the notifier 219, and controls the text subtitle processing unit 220 to decode.
  • the text data decoder 232 of the text subtitle processing unit 220 of the decoder 192 counts the same STC counter as the STC referenced by the ClipAV stream by the processing of the STC processing unit 231 and decodes the ClipAV stream supplied by the control unit 214. Operation gap etc.
  • the supplied text subtitle data is decoded based on the PTS calculated in consideration of the gap generated by the Playltem switching based on the information of!
  • steps S392 to S404 basically the same processing as the processing performed in steps S92 to S104 in FIGS. 38 and 39 is performed. That is, the text data decoder 232 of the text subtitle processing unit 220 supplies the character objects included in the decoded text subtitle data to the character object buffer 122 of the text subtitle processing unit 220 and causes the text objects to be buffered. The text data decoder 232 supplies the attribute data included in the decoded text subtitle data to the attribute data buffer 123 of the text subtitle processing unit 220, and causes the attribute data buffer 123 to buffer the attribute data.
  • the control unit 214 determines whether or not a force has been received from the reproduction control unit 204 (the controller 191), for example, a signal indicating an operation input for instructing a change of the subtitle attribute such as a font size. However, when it is determined that a signal indicating an operation input for instructing a change of the subtitle attribute is received, the attribute data held in the attribute data buffer 123 is changed.
  • step S394 when it is determined that the signal indicating the operation input for instructing the change of the subtitle attribute has not been input, or after the process of step S395 is completed, the character object buffer 122 and the attribute data The character object and the attribute data are obtained from the buffer 123, and it is determined whether or not the reproduction control unit 204 (controller 191) has also received a signal indicating an operation input for instructing a font type change.
  • the processing of the local storage directory management unit 201 (controller 191) controlled by the playback control unit 204 causes different font data to be output based on the operation input.
  • the font data is read from the local storage 24 to obtain different font data.
  • step S397 when it is determined that the signal indicating the operation input for instructing the font type change has not been input, or after the process in step S398 is completed, the acquired attribute and bookmark buffer 125 Is referenced and the subtitle data to be rasterized is bookmarked and already buffered in the bookmark buffer 125. It is determined whether or not the subtitle data is the subtitle data being bookmarked, and if it is determined that the subtitle data is bookmarked and is being buffered, the font rasterizer 124 retrieves the stored bookmark from the bookmark buffer 125. The target subtitle image data (raster data) is read and output.
  • rasterization is performed based on the obtained character object and attribute data and output to the subtitle graphic plane processing unit 93. Then, a subtitle graphics plane is generated and supplied to the synthesis processing unit 94. Then, it is determined whether or not a new bookmark is described in the attribute data. If it is determined that the bookmark is described, the rasterized subtitle image data is stored in the bookmark buffer 125. Is done.
  • the subtitle data of the batch-preloaded text subtitle file and the font file data can be displayed in the font desired by the user with the attributes desired by the user in the language desired by the user.
  • the readout is controlled, and if necessary, the attribute data is changed and rasterized.
  • the second virtual file system for playing back the content recorded on the optical disc in association with the content recorded on the local storage is a meta data of the archive data downloaded and recorded on the local storage. Generated based on the value specified for operation_type included in the data.
  • the present invention is applied in which contents downloaded and recorded in the local storage can be preloaded collectively or partially preloaded during reproduction. By doing so, regardless of the preload format, the content recorded on the optical disc and the content recorded on the local storage are reproduced synchronously based on the STC! [0451]
  • the series of processes described above can also be executed by software.
  • the software is a computer that is built into dedicated hardware that constitutes the software that constitutes the software, or a general-purpose personal computer that can perform various functions by installing various programs. Then, it is installed from the program storage medium.
  • this program storage medium is a magnetic disk (including a flexible disk including a flexible disk) on which the program is recorded, which is distributed to provide the program to the user separately from the computer. ),
  • An optical disk including CD-ROM (Compact Disk-Read Only Memory), DVD (Digital Versatile Disk)), a magneto-optical disk (including MD (Mini-Disk) (trademark)), or a removable memory such as a semiconductor memory It is composed of a memory 23 such as ROM or RAM where programs are recorded and a local storage 24 such as a hard disk, etc., which are provided to the user in a state of being pre-installed in the main unit of the apparatus, not only consisting of the medium 28 .
  • the steps for describing the program recorded on the program storage medium include not only the processing performed in chronological order according to the described order but also the chronological order. Includes processing that is executed in parallel or individually even if not processed
  • the system represents the entire device including a plurality of devices.

Abstract

本発明は、ユーザの所望の言語の字幕を所望の形式で表示させる。テキストデータデコーダ121は、テキスト字幕データをデコードし、文字オブジェクトは文字オブジェクトバッファ122に、属性データは、アトリビュートデータバッファ123に供給する。アトリビュートデータバッファ123に保存される属性データは、ユーザの操作入力に基づいて変更される。フォントラスタライザ124は、アトリビュートデータバッファ123から読み出した属性の指定、取得されるフォントデータに基づいて、文字オブジェクトをラスタデータに変換して出力するとともに、属性に基づいて、ブックマークが付与されている文字オブジェクトを検出し、ブックマークバッファ125を利用して、同一のブックマークIDが付与されている文字オブジェクトに関しては、重複してラスタライズを行わないようにする。本発明は、再生装置に適用できる。

Description

明 細 書
再生装置および再生方法、プログラム格納媒体、並びにプログラム 技術分野
[0001] 本発明は、再生装置および再生方法、プログラム格納媒体、並びにプログラムに関 し、特に、記録媒体に記録されているコンテンツのアップデートファイルをダウンロー ドすることができるようにする再生装置および再生方法、プログラム格納媒体、並びに プログラムに関する。 背景技術
[0002] DVD (Digital Versatile Disc)の再生専用の規格の 1つに DVDビデオフォーマットが ある。この DVDビデオフォーマットにおいては、ビデオやオーディオなどのコンテンツ データが字幕などの各種のサブピクチヤのデータとともに多重化され、プログラムスト リームとしてディスクに記録されている。また、そのストリームをインタラクティブに再生 するためのナビゲーシヨンデータもディスクに記録されている。
[0003] ここで、インタラクティブな再生とは、好みの位置からの再生や好みの順番での再生 の他、様々な角度力 撮影された映像の再生を可能にするマルチアングル機能、複 数の言語の中から好みの言語での再生を可能にするマルチランゲージ機能、暴力シ ーンなどの、あるシーンの再生を行わないようにするバレンタルコントロール機能など 、 DVDの各種の機能をユーザが利用して行う再生をいう。
[0004] プログラムストリームは、複数のオーディオストリームと複数の字幕データストリーム を多重化することも可能とされる。これにより、例えば、映画などの 1つのビデオコンテ ンッに対して、複数の異なる言語の字幕のデータを 1枚のディスクに記録させることが 可能となり、ユーザは、ビデオの再生開始時や再生中に、好みの言語の音声や字幕 を選択することができる。
[0005] ところで、ビデオ作品の素材となる効果音や動画、静止画等のコンテンツをユーザ が容易にダウンロードすることができるシステムが特許文献 1に開示されて 、る。また 、音楽データ全体のうちのある部分のデータを、他のデータに置き換えることができる 技術が特許文献 2に開示されている。 特許文献 1:特開 2003— 140662号公報
特許文献 2:特開 2002— 311967号公報
発明の開示
発明が解決しょうとする課題
[0006] し力しながら、ユーザは、当然、プレーヤに装着している、そのディスクに記録され て 、るコンテンツを再生させることしかできな 、と 、う課題があった。
[0007] したがって、例えば、英語の字幕しか用意されていない映画コンテンツが記録され たディスクを購入した場合、ユーザは、そのディスクに予め記録されている言語である 英語の字幕を表示させることができるが、予め記録されている言語とは異なる所望の 言語の字幕が表示されている同一の映画コンテンツを視聴するためには、所望の言 語の字幕情報が予め記録されている異なるディスクを購入しなければならな力つた。
[0008] また、ディスクの販売者側とすれば、言語の異なる複数の国で映画コンテンツが記 録されたディスクを販売しょうとする場合、各言語の字幕情報が記録されたディスクを 予め用意したり、または、英語版のディスク、 日本語版のディスクなど、複数種類のデ イスクを用意したりする必要がある。したがって、そのようなディスクを用意するために 時間が力かることにより、場合によっては大きなビジネスチャンスを失うことにもなる。
[0009] また、従来の映画コンテンツなどの字幕の表示は、ビットマップなどの画像情報とし て記録されるため、例えば、所定の言語への翻訳処理が終了した後、それぞれの言 語別に、例えば、色や大きさや自体などが指定された文字画像情報を生成する手間 がかかってしまい、コンテンツのリリースに時間およびコストがかかってしまうという問 題があった。
[0010] 更に、従来の映画コンテンツなどの字幕の表示は、ビットマップなどの画像情報とし て記録されているため、例えば、大きな画面で映画コンテンツの映像を表示させたと き、字幕として表示される文字も、必要以上に拡大されてしまうため、アウトラインが崩 れてしまうなど、その表示品質が著しく悪ィ匕してしまう恐れがある。また、ビットマップ などの画像情報として記録されている字幕の表示の大きさや色、または、フォントの 種類などは、ユーザの操作入力に基づいて変更することができず、ユーザは、字幕 の表示、または、非表示の選択し力行うことができな力つた。 [0011] 本発明はこのような状況に鑑みてなされたものであり、ディスクに記録されているコ ンテンッのアップデートファイルをダウンロードすることができるようにすることでデイス クに記録されているコンテンツに対して、ユーザが所望する形式の字幕を表示させる ことができるようにするものである。
課題を解決するための手段
[0012] 本発明の再生装置は、字幕を表示するための文字オブジェクトおよび属性データ を含む第 1の情報の、記録媒体、または、再生装置内部の記憶部からの読み出しを 制御する読み出し制御手段と、読み出し制御手段により読み出しが制御された第 1 の情報に含まれる文字オブジェ外を保持する文字オブジェ外保持手段と、読み出 し制御手段により読み出しが制御された第 1の情報に含まれる属性データを保持す る属性データ保持手段と、フォントデータを取得し、文字オブジェ外保持手段により 保持された文字オブジェクトを、属性データ保持手段により保持された属性データお よびフォントデータを用いて字幕データに変換する変換手段とを備えることを特徴と する。
[0013] ユーザの操作入力を取得する操作入力取得手段を更に備えさせるようにすることが でき、読み出し制御手段には、操作入力取得手段により取得されたユーザの操作入 力に基づいて、記録媒体、または、再生装置の内部の記憶部に記憶されている第 1 の情報の読み出しを制御させるようにすることができる。
[0014] ユーザの操作入力を取得する操作入力取得手段と、操作入力取得手段により取得 されたユーザの操作入力に基づ 、て、属性データ保持手段により保持されて 、る属 性データの変更を制御する属性データ変更制御手段とを更に備えさせるようにする ことができ、変換手段には、属性データ変更制御手段により変更が制御された属性 データを基に、文字オブジェクトを字幕データに変換させるようにすることができる。
[0015] ユーザの操作入力を取得する操作入力取得手段を更に備えさせるようにすることが でき、変換手段には、操作入力取得手段により取得されたユーザの操作入力に基づ Vヽて、取得するフォントデータを変更させるようにすることができる。
[0016] ユーザの操作入力を取得する操作入力取得手段を更に備えさせるようにすることが でき、読み出し制御手段には、記憶部に記憶されている AVストリームおよび第 1の情 報の読み出しを制御するための情報である第 2の情報と、記録媒体に記録されてい る AVストリームとの読み出しを更に制御させるようにすることができ、操作入力取得 手段により取得されたユーザの操作入力に基づいて、第 2の情報の読み出しを制御 させるようにすることができ、読み出された第 2の情報に基づいて、 AVストリームおよ び第 1の情報の読み出しを制御させるようにすることができる。
[0017] 読み出し制御手段により読み出しが制御された AVストリームをデコードする第 1の デコード手段を更に備えさせるようにすることができる。
[0018] 変換手段により変換された字幕データ、および、第 1のデコード手段によりデコード された AVストリームに含まれる映像データを合成して出力する出力手段を更に備え させるよう〖こすることがでさる。
[0019] 読み出し制御手段により読み出しが制御された第 1の情報をデコードする第 2のデ コード手段と、第 1のデコード手段による AVストリームのデコードの処理タイミングの 基準となるカウント値をカウントするカウント手段と、カウント手段によりカウントされる力 ゥント値に基づいて、第 2のデコード手段による第 1の情報のデコードの処理タイミン グの基準を計算する計算手段とを更に備えさせるようにすることができる。
[0020] 読み出し制御手段により読み出しが制御された第 1の情報をデコードするデコード 手段を更に備えさせるようにすることができ、文字オブジェクト保持手段にはデコード 手段によりデコードされた第 1の情報に含まれる文字オブジェクトを保持させるように することができ、属性データ保持手段にはデコード手段によりデコードされた第 1の情 報に含まれる属性データを保持させるようにすることができる。
[0021] ネットワークを介して、所定の情報処理装置と情報を授受する通信手段を更に備え させるようにすることができ、再生装置内部の記憶部には、通信手段により受信され た第 1の情報が記憶されるようにすることができる。
[0022] 記録媒体に記憶されている第 1のデータ群のファイルシステムと、再生装置内部の 記憶部に記憶されている第 2のデータ群のファイルシステムとを基に、第 1のデータ 群および第 2のデータ群のそれぞれの少なくとも一部を含む仮想的なファイルシステ ムを生成する仮想ファイルシステム生成手段を更に備えさせるようにすることができる [0023] 再生装置内部の記憶部に記憶されている第 1の情報には、仮想的なファイルシス テムの生成に関する第 2の情報が含まれるものとすることができ、読み出し制御手段 には、再生装置内部の記憶部に記憶されている第 2の情報の読み出しを更に制御さ せるようにすることができ、仮想ファイルシステム生成手段には、読み出し制御手段に より読み出しが制御された第 2の情報を基に、仮想的なファイルシステムを生成させ るよう〖こすることがでさる。
[0024] 読み出し制御手段により読み出しが制御された第 1の情報を記憶する記憶手段を 更に備えさせるようにすることができ、記憶手段には、読み出し制御手段により一括し て全体の読み出しが制御された第 1の情報を記憶させるようにすることができる。
[0025] 読み出し制御手段により読み出しが制御される第 1の情報のデコード開始点を示す 情報と、デコード開始点のタイムスタンプとの関係を示すテーブル情報を生成するテ 一ブル情報生成手段を更に備えさせるようにすることができ、読み出し制御手段には
、テーブル情報生成手段により生成されたテーブル情報を参照して、第 1の情報の 読み出しを制御させるようにすることができる。
[0026] 本発明の再生方法は、字幕を表示するための文字オブジェクトおよび属性データ を含む第 1の情報の、記録媒体、または、再生装置の内部の記憶部からの読み出し を制御する読み出し制御ステップと、読み出し制御ステップの処理により読み出しが 制御された第 1の情報に含まれる文字オブジェクトを保持する文字オブジェクト保持 ステップと、読み出し制御ステップの処理により読み出しが制御された第 1の情報に 含まれる属性データを保持する属性データ保持ステップと、フォントデータを取得し、 文字オブジェ外保持ステップにより保持された文字オブジェ外を、属性データ保持 ステップにより保持された属性データおよびフォントデータを用いて字幕データに変 換する変換ステップとを含むことを特徴とする。
[0027] 本発明のプログラム格納媒体に格納されているプログラムは、字幕を表示するため の文字オブジェクトおよび属性データを含む第 1の情報の、記録媒体、または、再生 装置の内部の記憶部からの読み出しを制御する読み出し制御ステップと、読み出し 制御ステップの処理により読み出しが制御された第 1の情報に含まれる文字オブジェ タトを保持する文字オブジェクト保持ステップと、読み出し制御ステップの処理により 読み出しが制御された第 1の情報に含まれる属性データを保持する属性データ保持 ステップと、フォントデータを取得し、文字オブジェクト保持ステップにより保持された 文字オブジェクトを、属性データ保持ステップにより保持された属性データおよびフォ ントデータを用いて字幕データに変換する変換ステップとを含む処理をコンピュータ に実行させる。
[0028] 本発明のプログラムは、字幕を表示するための文字オブジェクトおよび属性データ を含む第 1の情報の、記録媒体、または、再生装置の内部の記憶部からの読み出し を制御する読み出し制御ステップと、読み出し制御ステップの処理により読み出しが 制御された第 1の情報に含まれる文字オブジェクトを保持する文字オブジェクト保持 ステップと、読み出し制御ステップの処理により読み出しが制御された第 1の情報に 含まれる属性データを保持する属性データ保持ステップと、フォントデータを取得し、 文字オブジェ外保持ステップにより保持された文字オブジェ外を、属性データ保持 ステップにより保持された属性データおよびフォントデータを用いて字幕データに変 換する変換ステップとを含むことを特徴とする処理をコンピュータに実行させる。
[0029] 本発明の再生装置および再生方法、並びにプログラムにおいては、字幕を表示す るための文字オブジェクトおよび属性データを含む第 1の情報が、記録媒体、または 、再生装置の内部の記憶部から読み出され、読み出された第 1の情報に含まれる文 字オブジェ外が保持され、読み出された第 1の情報に含まれる属性データが保持さ れ、フォントデータが取得され、文字オブジェクトが、属性データおよびフォントデータ を用いて字幕データに変換される。
発明の効果
[0030] 本発明によれば、表示される字幕に対応する字幕データが生成され、特に、 AVス トリームを再生する場合に、予め画像データに変換された字幕に対応するデータで はなぐ文字オブジェクトおよび属性データを取得して、字幕データに変換することが できる。
図面の簡単な説明
[0031] [図 1]本発明を適用した第 1の実施の形態における再生装置の構成を示すブロック図 である。 圆 2]本発明を適用した第 1の実施の形態における再生装置に装着される記録媒体 上のアプリケーションフォーマットの例を示す図である。
圆 3]本発明を適用した再生装置に装着される記録媒体上のアプリケーションフォー マットの例の異なる例について説明するための図である。
[図 4]ファイルのダウンロードが行われた状態について説明するための図である。
[図 5]AVストリームの構成について説明するための図である。
[図 6]図 1のコントローラの機能について説明するための機能ブロック図である。
[図 7]光ディスクのファイルシステムと、ローカルストレージのファイルシステムの例を示 す図である。
[図 8]図 7の 2つのファイルシステムがマージされることで得られるファイルシステムの 例を示す図である。
[図 9]プレイリストとプレイリストによって参照可能なデータについて説明するための図 である。
[図 10]追加して配布される対象となるデータについて説明するための図である。
[図 1 l]SubPlayItemのシンタックスを示す図である。
[図 12]テキスト字幕ファイルの構文について説明するための図である。
圆 13]制御文字による属性設定について説明するための図である。
圆 14]制御文字による属性設定について説明するための図である。
[図 15]マークアップ形式識別子とマークアップの形式ついて説明するための図である
[図 16]TLVエンコード方式による属性指定の場合の、 subtitle_data ()のデータ構造に ついて説明するための図である。
[図 17]エスケープコードを示す図である。
[図 18]attribute_typeに記載される属性種別を示すコードについて説明するための図 である。
[図 19]記載されて!、る属性種別が CLUT設定であるときの、 attribute_valueのデータ 構造を示す図である。
[図 20]記載されている属性種別がリージョン原点指定であるときの attribute_valueの データ構造を示す図である。
[図 21]レンダリング方向指定を示すコードの例を示す図である。
[図 22]記載されている属性種別がフォントスタイルの指定であるときの attribute_value に記載されているコードについて説明するための図である。
圆 23]記載されている属性種別がブックマーク開始位置指定であるときの
attribute_valueのデータ構造を示す図である。
圆 24]記載されている属性種別がブックマーク終了位置指定であるときの
attribute_valueのデータ構造を示す図である。
[図 25]記載されている属性種別が文字オブジェクトシーケンス繰り返し指定であるとき の attribute_valueのデータ構造を示す図である。
[図 26]タグ付き言語による属性指定の場合の、 subtitle_data ()のデータ構造につ!、て 説明するための図である。
[図 27]TaggedAttrの形式について説明するための図である。
圆 28]タグ付き言語による属性指定の要素および属性種別について説明するための 図である。
[図 29]レンダリング方向について説明するための図である。
[図 30]レンダリング方向について説明するための図である。
[図 31]レンダリング方向について説明するための図である。
[図 32]図 1のローカルストレージの仮想的な記憶領域を示す図である。
[図 33]図 1のデコーダの詳細な構成を説明するためのブロック図である。
[図 34]図 33のテキスト字幕処理部の詳細な構成を説明するためのブロック図である。
[図 35]ダウンロード処理 1について説明するためのフローチャートである。
[図 36]再生処理 1につ 、て説明するためのフローチャートである。
[図 37]コンテンツ再生処理 1について説明するためのフローチャートである。
[図 38]字幕表示処理 1につ 、て説明するためのフローチャートである。
[図 39]字幕表示処理 1につ 、て説明するためのフローチャートである。
圆 40]本発明を適用した第 2の実施の形態における再生装置の構成を示すブロック 図である。 [図 41]図 40のコントローラの機能について説明するための機能ブロック図である。
[図 42]図 40の光ディスクのファイルシステムの例を示す図である。
[図 43]追加して配布される対象となるデータについて説明するための図である。
[図 44]追カ卩して配布される対象となるデータのアーカイブについて説明するための図 である。
[図 45]SubPathの構成について説明するための図である。
[図 46]図 44のメタデータに含まれる operation_typeに指定可能な値の一覧を示す図 である。
[図 47]operation_typeの 8ビットのフィールドに 、 0x02が記載されていたときのファイル の更新について説明するための図である。
[図 48]operation_typeの 8ビットのフィールドに 、 0x02が記載されていたときのファイル の更新について説明するための図である。
[図 49]operation_typeの 8ビットのフィールドに、 0x03が記載されていたときのファイル の更新について説明するための図である。
[図 50]operation_typeの 8ビットのフィールドに、 0x03が記載されていたときのファイル の更新について説明するための図である。
[図 51]operation_typeの 8ビットのフィールドに、 0x04が記載されていたときのファイル の更新について説明するための図である。
[図 52]operation_typeの 8ビットのフィールドに、 0x04が記載されていたときのファイル の更新について説明するための図である。
[図 53]図 44のメタデータに含まれる permissionに指定可能な値の一覧を示す図であ る。
[図 54]テキスト字幕ファイルの構文について説明するための図である。
[図 55]TLVエンコード方式による属性指定の場合の、 subtitle_data ()のデータ構造に ついて説明するための図である。
[図 56]data_typeに記載される属性種別を示すコードについて説明するための図であ る。
圆 57]タグ付き言語による属性指定の要素および属性種別について説明するための 図である。
[図 58]テキスト字幕ストリームが格納されるコンテナファイルについて説明するための 図である。
[図 59]テキスト字幕ストリームが格納される BDAV MPEG- 2トランスポートストリームの 構成例について説明するための図である。
[図 60]ローカルストレージ 24に記憶されるデータのデータ構造を示す図である。
[図 61]第 2の仮想ファイルシステムのデータ構造を示す図である。
[図 62]PlayListと Main Pathおよび Sub pathについて説明するための図である。
[図 63]図 1の再生装置のデコーダの構成を示すブロック図である。
[図 64]EP_mapについて説明するための図である。
[図 65]図 63のテキスト字幕処理部の構成を示すブロック図である。
[図 66]STCの参照について説明するための図である。
[図 67]STCの参照について説明するための図である。
[図 68]ダウンロード処理 2について説明するためのフローチャートである。
[図 69]再生処理 2について説明するためのフローチャートである。
[図 70]仮想ファイルシステム生成処理について説明するためのフローチャートである
[図 71]コンテンツ再生処理 2について説明するためのフローチャートである。
[図 72]字幕表示処理 2について説明するためのフローチャートである。
[図 73]字幕表示処理 2について説明するためのフローチャートである。
[図 74]コンテンツ再生処理 3について説明するためのフローチャートである。
[図 75]字幕表示処理 3について説明するためのフローチャートである。
[図 76]字幕表示処理 3について説明するためのフローチャートである。
符号の説明
1 再生装置, 11 光ディスク, 21 コントローラ, 22 光ディスクドライブ, 23 メモリ, 24 ローカルストレージ, 26 デコーダ, 31 メニュー画面表示制御部 , 32 操作入力取得部, 33 データ取得部, 34 ローカルストレージディレクトリ 管理部, 35 光ディスクディレクトリ管理部, 66 ファイルシステムマージ処理部, 37 再生制御部, 81 制御部, 86 オーディオデコーダ, 87 MPEGビデオ デコーダ, 92 テキスト字幕処理部, 93 字幕グラフィックスプレーン処理部, 9 4 合成処理部, 121 テキストデータバッファ, 122 文字オブジェクトバッファ, 123 アトリビュートデータバッファ, 124 フォントラスタライザ, 125 ブックマーク バッファ, 181 再生装置, 191 コントローラ, 192 デコーダ, 193 光デイス ク, 201 ローカルストレージディレクトリ管理部, 202 光ディスクディレクトリ管理 部, 203 ファイルシステムマージ処理部, 204 再生制御部, 211 STCカウン タ, 214 制御部, 215 ディスクデータ取得部, 216 メモリ, 217 バッファ,
218 ストレージデータ取得部, 219 バッファ, 220 テキスト字幕処理部, 23 1 STC処理部, 232 テキストデータデコーダ
発明を実施するための最良の形態
[0033] 以下、図を参照して、本発明の実施の形態について説明する。
[0034] 図 1は、本発明を適用した第 1の実施の形態における再生装置 1の構成例を示す ブロック図である。
[0035] コントローラ 21は、予め用意されている制御プログラムを実行する力、または、光デ イスクドライブ 22を制御して光ディスク 11に記録されて 、るナビゲーシヨンプログラム( 後述)を読み出し、メモリ 23に展開して実行することで、再生装置 1の全体の動作を 制御する。例えば、コントローラ 21は、光ディスク 11が装着されたとき、所定のメ-ュ 一画面を外部の表示装置に表示させることができる。
[0036] 光ディスクドライブ 22は、コントローラ 21による制御に従って光ディスク 11からデー タを読み出し、読み出したデータを、コントローラ 21、メモリ 23、または、デコーダ 26 に出力する。光ディスク 11から読み出された情報力 ナビゲーシヨンプログラムや PlayListなどであった場合、光ディスクドライブ 22により読み出された情報は、コント口 ーラ 21、または、メモリ 23に出力される。光ディスク 11から読み出された情報力 AV ストリームやテキストデータであった場合、光ディスクドライブ 22により読み出された情 報は、デコーダ 26に出力される。
[0037] 図 2は、本発明を適用した再生装置 1に装着される光ディスク 11のアプリケーション フォーマットの例を示す図である。記録媒体は、光ディスク 11の他、例えば、磁気ディ スクゃ半導体メモリであってもよ 、。
[0038] アプリケーションフォーマットは、 AV (Audio Visual)ストリームの管理のために
PlayListと Clipの 2つのレイヤをもつ。ここでは、 1つの AVストリームまたはテキストデ ータとそれに付随する情報である Clip Informationのペアを 1つのオブジェクトと考え、 それらをまとめて Clipと称する。以下、 AVストリームのデータファイルを AVストリーム ファイルと称する。また、 Clip Informationのデータファイルを Clip Informationファイル と称する。
[0039] 一般的に、コンピュータ等で用いられるファイルはバイト列として扱われる力 AVス トリームファイルのコンテンツは時間軸上に展開され、 Clipのアクセスポイントは、主に 、タイムスタンプで PlayListにより指定される。
[0040] Clip中のアクセスポイントがタイムスタンプで PlayListにより示されている場合、 Clip
Informationファイルは、タイムスタンプから、 AVストリームファイル中のデコードを開始 すべきアドレス情報を見つけるために用いられる。
[0041] PlayListは AVストリームの再生区間を示す情報の集合である。ある AVストリーム中 の 1つの再生区間を示す情報は Playltemと呼ばれ、 Playltemは、時間軸上の再生区 間の IN点(再生開始点)と OUT点(再生終了点)のペアで表される。したがって、 PlayListは、図 2に示されるように 1つ、または複数の Playltemにより構成される。
[0042] 図 2において、左から 1番目に図示されている第 1の PlayListは 2つの Playltemから 構成され、その 2つの Playltemにより、左側に図示される第 1の Clipに含まれる AVスト リームの前半部分と後半部分がそれぞれ参照されている。また、左から 2番目に図示 されている第 2の PlayListは 1つの Playltemから構成され、それにより、右側に図示さ れている第 2の Clipに含まれる AVストリーム全体が参照されている。更に、左から 3番 目に図示されている第 3の PlayListは 2つの Playltemから構成され、その 2つの
Playltemにより、左側に図示されて!、る第 1の Clipに含まれる AVストリームの所定の 部分と、右側に図示されている第 2の Clipに含まれる AVストリームの所定の部分とが それぞれ参照されている。
[0043] ナビゲーシヨンプログラム(Navigation program)は、 PlayListの再生の順序や、
PlayListのインタラクティブな再生をコントロールする機能を、コントローラ 21に実行さ せるためのプログラムである。また、ナビゲーシヨンプログラムは、各種の再生の実行 をユーザが指示するためのメニュー画面を表示する機能なども有する。このナビゲー シヨンプログラムは、例えば、 Java (登録商標)などのプログラミング言語で記述され、 光ディスク 11などの記録媒体に記録される。例えば、ナビゲーシヨンプログラムがコン トローラ 21により実行されて、そのときの再生位置を表す情報として、図 2において左 から 1番目に図示される第 1の PlayListに含まれる第 1の Playltemが指定された場合、 その Playltemが参照する、左側に図示される第 1の Clipに含まれる AVストリームの前 半部分の再生が行われる。
[0044] また、図 2を用いて説明した PlayListには、 Playltemにより指定されるメインパス(
Main Path)に加えて、図 3に示されるようなサブプレイアイテム(Sub Play Item)を用い て指定されるサブパス (Sub path)の情報を含ませるよう〖こすることもできる。
SubPlayltemを定義すると、例えば、 Playltemにより指定される Clip (例えば、 MPEG2ト ランスポートストリーム)に多重化されていない、独立したデータストリームを AVストリ ーム再生に同期して再生させることができる。
[0045] 例えば、 Playltemにより指定されるメインパス(Main Path)の Clip AVストリームに対 応させて、テキスト字幕ファイル、および、レンダリングに必要となるフォントファイルか ら構成される字幕関連情報と、字幕関連情報の再生区間を指定した SubPlayltemを 用意することで、 Clip AVストリームの再生と同時に、テキスト字幕ファイルに記載され て 、るデータに対応する字幕を、フォントファイルに記載されて 、るフォントデータに 基づ 、た表示フォントで、表示装置に表示させるようにすることができる。
[0046] テキスト字幕ファイルおよびレンダリングに必要となるフォントファイルカゝら構成され る字幕関連情報や、 SubPlayltemは、予め光ディスク 11に記録されていても良いし、 ネットワーク 2を介して、サーバ 3からダウンロードされるものであっても良いし、または 、リムーバブルメディア(例えば、後述するリムーバブルメディア 28)を用いて取得す ることができるようにしても良 、。字幕関連情報および SubPlayltemをサーバ 3からダウ ンロードする場合の詳細にっ 、ては、図 4を用いて後述する。
[0047] 再び、図 1の説明に戻る。
[0048] メモリ 23は、コントローラ 21が各種の処理を実行する上において必要なデータなど を適宜記憶する。ローカルストレージ 24は、例えば、 HDD(Hard Disk Drive)などより 構成される。
[0049] インターネットインタフェース 25は、有線または無線によりネットワーク 2に接続され ており、コントローラ 21からの制御に従って、ネットワーク 2を介して、サーバ 3との間 で通信を行い、サーバ 3からダウンロードされたデータをローカルストレージ 24に供 給する。サーバ 3からは、例えば、そのとき再生装置 1に装着されている光ディスク 11 に記録されて 、る、図 2を用いて説明したデータをアップデートさせるデータがコンテ ンッとしてダウンロードされる。ローカルストレージ 24は、サーバ 3からネットワーク 2経 由でダウンロードしたコンテンツを記録することができる。
[0050] デコーダ 26は、光ディスクドライブ 22、または、ローカルストレージ 24から供給され る AVストリーム、または、テキストデータをデコードし、得られたビデオ信号とオーディ ォ信号を外部の表示装置に出力する。表示装置においては、デコーダ 26によりデコ ードされた信号に基づいて、例えば、光ディスク 11に記録されているコンテンツの出 力(映像の表示、音声の出力)が行われる。
[0051] 操作入力部 29は、例えば、ボタン、キー、タツチパネル、ジョグダイヤル、マウスなど の入力デバイスや、所定のリモートコマンダカ 送信される赤外線などの信号を受信 する受信部により構成され、ユーザの操作入力を取得し、コントローラ 21に供給する
[0052] また、コントローラ 21には、必要に応じてドライブ 27も接続されており、ドライブ 27に は、例えば、磁気ディスク (フレキシブルディスクを含む)、光ディスク (CD-ROM ( Compact Disk-Read Only Memory), DVDを含む)、光磁気ディスク(MD (登録商標) (Mini-Disk)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア 28が装 着される。
[0053] 次に、再生装置 1に装着された光ディスク 11に記録されたデータ、および、ロー力 ルストレージ 24に記憶されたデータを再生する方法について説明する。
[0054] 再生装置 1は HDD(Hard Disk Drive)などよりなるローカルストレージ 24を内部に備 える。再生装置 1は、有線または無線によりネットワーク 2に接続されており、サーバ 3 力 ネットワーク 2経由でダウンロードしたコンテンツを、このローカルストレージ 24に 記録することができる。サーバ 3からは、例えば、そのとき再生装置 1に装着されてい る光ディスク 11に記録されて ヽる映画などのコンテンツをアップデートさせるデータを ダウンロードすることができる。
[0055] ダウンロードされたコンテンツがローカルストレージ 24に記録されている状態で、操 作入力部 29から、光ディスク 11に記録されて 、るコンテンツの再生が指示されたとき 、コントローラ 21は、光ディスク 11に記録されているコンテンツと、ローカルストレージ 24に記録されているコンテンツを関連付けて、コンテンツの再生処理を実行する。
[0056] ここで、光ディスク 11に記録されているコンテンツと、ローカルストレージ 24に記録さ れて 、るコンテンツを関連付けて再生する方法にっ 、て、図 4を用いて説明する。
[0057] 例えば、図 2の光ディスク 11がパッケージ販売されているメディアであり、ある映画コ ンテンッが記録されているものとする。また、その映画コンテンツの映像に重畳して表 示させることが可能な字幕データファイルとして、英語のテキスト字幕ファイルのみが 光ディスク 11に記録されて 、るものとする。
[0058] 例えば、図 4において、光ディスク 11に記録されている、 PlayListの Playltemが参照 する Cliplの AVストリームは、映画コンテンツの映像を表示させ、対応する音声を再 生させるためのストリームであり、 PlayListの SubPlayltemが参照する Clip2の字幕関連 情報 1は、映像の表示に併せて英語の字幕を表示させるためのテキスト字幕ファイル である。
[0059] この状態で、英語とは異なる言語の字幕を表示させて、光ディスク 11に記録されて V、る映画コンテンツを視聴した 、場合、光ディスク 11には英語とは異なる言語の字幕 データが記録されていないことから、ユーザは、このままでは英語とは異なる言語の 字幕データを表示させて、映画を視聴することができな ヽ。
[0060] そこで、ユーザは、再生装置 1に、光ディスク 11に記録されている映画の所望の言 語のテキスト字幕ファイルをサーバ 3からネットワーク 2経由でダウンロードさせる(また は、リムーバブルメディア 28を用いて取得させる)。光ディスク 11に予め記録されてい ない、例えば、アラビア語によるテキスト字幕ファイルのダウンロードが行われた (また は、リムーバブルメディア 28からローカルストレージ 24にコピーされた)状態について 説明する。 [0061] すなわち、ユーザが、光ディスク 11に予め記録されている PlayListに対応する、ァラ ビア語によるテキスト字幕ファイルのダウンロードを指示した場合、再生装置 1におい ては、サーバ 3に対するアクセスが行われ、光ディスク 11に記録されているコンテンツ をアップデートするものとして、そのサーバ 3に用意されているファイルのダウンロード が行われる。
[0062] 図 4の例においては、アラビア語のテキスト字幕ファイル (字幕関連情報 2)およびそ れに付随する Clip Informationファイルで構成される Clip3、光ディスク 11に予め記録 されている、例えば、映画コンテンツの映像 Clipおよび音声 Clip (AVストリームデータ )と英語のテキスト字幕ファイルに加えて、対応する Clip3の字幕データの再生表示を 制御することができる PlayListファイル(Updated PlayListファイル)、光ディスク 11に記 録されているものと比較してアップデートされた新規ナビゲーシヨンプログラムフアイ ルのダウンロードが行われ、それらがローカルストレージ 24に記録される。
[0063] なお、 Updated PlayListには、メインパスを表す Playltem以外に、サブパスを表す
SubPlayltemlおよび SubPlayItem2が付カ卩されて 、る。 Updated PlayListの Playltemは 、光ディスク 11に記録されている AV Streamを含む Cliplを参照するものであり、 SubPlayltemlは、光ディスク 11に記録されて 、る字幕関連情報 1を含む Clip2を参照 するものであり、 SubPlayItem2は、 Updated PlayListとともにサーバ 3からダウンロード された、アラビア語のテキスト字幕ファイルである字幕関連情報 2を含む Clip3を参照 するものである。
[0064] 図 4の新規ナビゲーシヨンプログラムは、再生区間として Updated PlayListの
Playltemとともに、 SubPlayltemlまたは SubPlayItem2を指定することができるものであり 、これにより、例えば、所望の映像および音声データに対応付けて、光ディスク 11〖こ 予め記録されて ヽる英語によるテキスト字幕ファイルにより定義される英語字幕、また は、光ディスク 11に予め記録されていない、アラビア語によるテキスト字幕ファイルに より定義されるアラビア語字幕のうち、ユーザの所望の言語の字幕を表示させること ができる。
[0065] このように、サーバ 3からのダウンロード(または、リムーパブノレメディア 28からのコピ 一)が行われることにより、再生装置 1は、英語のテキスト字幕ファイルである Clip2と、 光ディスク 11に予め用意されて ヽな 、、アラビア語のテキスト字幕フアイノレである Clip3のいずれかを映画の字幕として再生表示することが可能となる。すなわち、ユー ザは、表示装置に表示されるメニュー画面に記載される表示可能な字幕の言語から 所望の言語を選択することで、英語とアラビア語のうちの所望する言語の字幕によつ て映画を視聴することができる。
[0066] なお、光ディスク 11に記録される AVストリームは、図 5に示すような、 MPEG2 (
Moving Picture Experts Group 2)トランスポートストリームの構造を有する。 MPEG2ト ランスポートストリームは、整数個の Aligned unitから構成される。 Aligned unitの大きさ は、 6144バイト (2048 X 3バイト)であり、ソースパケットの第 1バイト目力も始まる。ソース パケットは、 192バイト長である。 1つのソースパケットは、 TP_extra_headerとトランスポ ートパケットから構成される。 TP_extra_headerは、 4バイト長であり、またトランスポート パケットは、 188バイト長である。 1つの Aligned unitは、 32個のソースパケットから構成 される。ビデオストリームやオーディオストリームのデータは、 MPEG2 PES (Packetized Elementary Stream)パケットにパケット化されており、 PESノケットは、トランスポートパ ケットにパケットィ匕される。
[0067] 図 6は、図 1のコントローラ 21の機能構成例を示すブロック図である。
[0068] 図 6の各構成は、予め用意されている制御プログラムがコントローラ 21により実行さ れることにより、または、光ディスク 11に記録されているナビゲーシヨンプログラムがコ ントローラ 21により実行されることにより実現される。
[0069] メニュー画面表示制御部 31は、光ディスク 11に記録されているコンテンツの音声、 または字幕の言語や、映像のアングルを選択するときにユーザにより操作されるボタ ンゃ、ダウンロードするアップデートファイルを選択するときにユーザにより操作される ボタンなどを含むメニュー画面を外部の表示装置に表示させる。
[0070] 操作入力取得部 32は、操作入力部 29から入力された、ユーザ力もの操作入力を 示す信号を取得し、ユーザからの操作入力を示す信号を、メニュー画面表示制御部 31、データ取得部 33、または、再生制御部 37のうちの対応する箇所に出力する。
[0071] データ取得部 33は、図 1のインターネットインタフェース 25において行われる通信、 または、ドライブ 27によるリムーバブルメディア 28との情報の授受を制御する。例え ば、データ取得部 33は、ユーザが指示したアップデートファイルをサーバ 3からダウ ンロードして取得し、取得したファイルをローカルストレージディレクトリ管理部 34に出 力する。
[0072] ローカルストレージディレクトリ管理部 34は、ローカルストレージ 24のディレクトリを 管理し、ローカルストレージ 24に対するデータの書き込み、および、ローカルストレー ジ 24からのデータの読み出しを制御する。例えば、ローカルストレージディレクトリ管 理部 34の制御によりローカルストレージ 24から読み出された PlayListは、メモリ 23に 出力され、ローカルストレージ 24から読み出された AVストリームの音声データおよび 映像データやテキスト字幕ファイルのテキストデータは、デコーダ 26に出力される。ま た、ローカルストレージディレクトリ管理部 34は、後述するように、光ディスク 11のファ ィルシステムと、ローカルストレージ 24のファイルシステムとのマージがファイルシステ ムマージ処理部 36により行われる場合、ローカルストレージ 24のファイルシステムに 関する情報をファイルシステムマージ処理部 36に出力する。
[0073] 光ディスクディレクトリ管理部 35は、光ディスク 11のディレクトリを管理し、光ディスク 11からの各データの読み出しを制御する。光ディスク 11には識別情報である Studiojdと Contentjdが設定されており、光ディスクディレクトリ管理部 35の制御により 、光ディスク 11から読み出された Studiojdと Contentjdは、データ取得部 33とロー力 ルストレージディレクトリ管理部 34に出力される。また、光ディスクディレクトリ管理部 3 5の制御により、光ディスク 11から読み出された PlayListは、メモリ 23に出力され、光 ディスク 11から読み出された AVストリームの音声データおよび映像データやテキスト 字幕ファイルのテキストデータは、デコーダ 26に出力される。また、光ディスクディレク トリ管理部 35は、後述するように、光ディスク 11のファイルシステムと、ローカルストレ ージ 24のファイルシステムとのマージがファイルシステムマージ処理部 36により行わ れる場合、光ディスク 11のファイルシステムに関する情報をファイルシステムマージ 処理部 36に出力する。
[0074] ファイルシステムマージ処理部 36は、光ディスクディレクトリ管理部 35から供給され る光ディスク 11のファイルシステムと、ローカルストレージディレクトリ管理部 34から供 給されるローカルストレージ 24のファイルシステムをマージし、 1つの仮想的なフアイ ルシステムを生成する。ファイルシステムマージ処理部 36は、マージすることで生成 した仮想的なファイルシステムを再生制御部 37に出力する。以下、適宜、第 1の実施 の形態においてファイルシステムマージ処理部 36によりマージされることで生成され る 1つのファイルシステムを第 1の仮想ファイルシステムと称する。
[0075] 再生制御部 37は、ファイルシステムマージ処理部 36から供給される第 1の仮想ファ ィルシステムで指定されるナビゲーシヨンプログラムを実行し、コンテンツの再生を制 御する。具体的には、再生制御部 37はメモリ 23に供給され、記憶された PlayListを参 照し、ローカルストレージディレクトリ管理部 34または光ディスクディレクトリ管理部 35 を制御して、光ディスク 11またはローカルストレージ 24に記録されている AVストリー ムの音声データ、映像データ、および、必要に応じてテキスト字幕ファイルのテキスト データを読み出させ、図 1のデコーダ 26を制御して、光ディスク 11またはローカルス トレージ 24に記録されている AVストリームの音声データ、映像データ、および、必要 に応じてテキスト字幕ファイルのテキストデータのデコード (再生)を行わせる。
[0076] ここで、ファイルシステムマージ処理部 36により行われる、光ディスク 11のファイル システムと、サーバ 3からダウンロードするなどによりローカルストレージ 24に記録され たファイルシステムのマージについて説明する。例えば、このマージは光ディスク 11 に記録されているコンテンツの再生が指示されたときに行われる。
[0077] 図 7は、光ディスク 11のファイルシステム(左側)と、ローカルストレージ 24のファイル システム (右側)の例を示す図である。図に示されるように、各ファイルシステムはディ レクトリ構造を有している。
[0078] 光ディスク 11の「root」の下には「BDMV」の名前が設定されたフォルダが用意され、 そのフォルダに、 「info.bdmv」の名前が設定されたファイルと、 「Navigation.class」の名 前が設定されたファイルが格納されている。以下、これらのファイルを、適宜、 info.bdmvファイル、 Navigation.classファイルとそれぞれ称する。他のファイル、フオル ダについても同様に、「ファイル名」に「ファイル」を付加した形で、または、「フォルダ 名」に「フォルダ」を付加した形で称する。
[0079] info.bdmvファイルには、光ディスク 11の製作者の識別情報である Studio_id、コンテ ンッの識別情報である Contentjdが記述されている。 [0080] すなわち、 Studiojdと Contentjdにより、流通するコンテンツ全体の中力 光ディスク 11に記録されているコンテンツが識別される。図 7の例においては、 Studiojdは「xxx 」であり、 Contentjdは「yyy」である。なお、 Studiojdと Contentjdは、ダウンロードする アップデートファイルを識別するためにも利用される。
[0081] Navigation.classファイルは、所定のプログラム言語で記述されたナビゲーシヨンプロ グラムである。
[0082] BDMVフォルダにはまた、「PLAYLIST」の名前が設定されたフォルダ(PLAYLISTフ オルダ)、「CLIPINF」の名前が設定されたフォルダ(CLIPINFフォルダ)、「STREAM」 の名前が設定されたフォルダ(STREAMフォルダ)が格納されて ヽる。
[0083] 図 7においては、 PLAYLISTフォルダには、「lllll.mpls」の名前が設定されたフアイ ルと「22222.mpls」の名前が設定されたファイルが格納されて 、る。これらのファイル は、 AVストリームファイルなどの再生区間をタイムスタンプで表す PlayListである。
[0084] CLIPINFフォルダには、「01000.clpi」の名前が設定されたファイルと「02000.clpi」の 名前が設定されたファイルなどが格納されている。これらのファイルは、タイムスタンプ と、 AVストリームファイルまたは字幕関連情報 1(図 4)のアドレス情報の対応を表す し lip Informationである。
[0085] STREAMフォルダには、「01000.m2ts」の名前が設定されたファイルと「02000.m2ts」 の名前が設定されたファイルなどが格納されている。これらのファイルは、図 4の AV streamや字幕関連情報 1などである。
[0086] 一方、ローカルストレージ 24の「root」の下には「xxx-yyy」の名前が設定されたフォ ルダが格納されている。フォルダ名の「xxx-yyy」は、このフォルダに格納されているデ ータが、光ディスク 11に記録されている、 Studiojd「xxx」、 Contentjd「yyy」で識別さ れるコンテンツに対応するデータであることを表す。後述するように、 xxx-yyyフォルダ は、 Studiojd「xxx」、 Contentjd「yyy」を有する光ディスク 11が再生装置 1に装着され 、アップデートファイル (xxx-yyyフォルダに格納される各ファイル)のダウンロードが行 われたときに作成されるものである。
[0087] XXX- yyyフォルダには、 info.bdmvファイル、 Navigation.classファイルが格納されてい る。この info.bdmvファイルは光ディスク 11の info.bdmvファイルと同じであり、 Navigation.classフアイノレは、光ディスク 11の Navigation.classフアイノレをアップデートさ せたファイルである。すなわち、ローカルストレージ 24の Navigation.classファイルは、 光ディスク 11に記録されて 、るものと較べて、バージョンアップされたナビゲーシヨン プログラムを記述するファイルである。
[0088] xxx-yyyフォルダには、更に、 PLAYLISTフォルダ、 CLIPINFフォルダ、 STREAMフォ ルダが格納されている。
[0089] 図 7においては、ローカルストレージ 24の PLAYLISTフォルダに「11111. mpls」の名 前が設定されたファイルと「22222.mpls」の名前が設定されたファイルが格納されてお り、このうちの「22222.mpls」の名前が設定されたファイルは、光ディスク 11の同じ名前 が設定されているファイルをアップデートしたファイルとされている。例えば、ローカル ストレージ 24の「22222.mpls」の名前が設定されたファイルは、ダウンロードされた Update PlayList (図 4)を表し、このファイルに、 PlayListに SubPlayltemが付カ卩された データが記述される。
[0090] ローカルストレージ 24の CLIPINFフォルダには、光ディスク 11にも記録されている、
roiOOO.clpiJの名前が設定されたファイルと「02000.clpi」の名前が設定されたフアイ ルの他に、「04000.clpi」の名前が設定されたファイルが格納されている。すなわち、「 04000.clpiJの名前が設定されたファイルは、ダウンロードにより新たに取得されたファ ィルであり、例えば、図 4の Clip3の Clip Informationである。
[0091] ローカルストレージ 24の STREAMフォルダには、「04000.m2ts」の名前が設定された ファイルが格納されている。このファイルは、ダウンロードにより新たに取得されたファ ィルであり、例えば、図 4の Clip3の字幕関連情報 2である。
[0092] なお、同様に、図 7の例においては、ローカノレストレージ 24の「root」の下には「 xxx-aaajの名前が設定されたフォルダと、「yyy-bbb」の名前が設定されたフォルダが 格納されている。これらは、 Studio_id「xxx」、 Content jd「aaa」で識別される光ディスク 、 Studio_id「yyy」、 Content jd「bbb」で識別される光ディスクが再生装置 1に装着され たときにそれぞれ作成されたものであり、それぞれのコンテンツに対応するファイルが 格納されている。
[0093] このような光ディスク 11のファイルシステムとローカルストレージ 24のファイルシステ ムがある場合、コントローラ 21のファイルシステムマージ処理部 36は、光ディスク 11 のファイルシステムと、ローカルストレージ 24のファイルシステムをメモリ 23上でマー ジし、第 1の仮想ファイルシステムを生成する。
[0094] 具体的には、ファイルシステムマージ処理部 36は、同じ名前のファイルが光デイス ク 11とローカルストレージ 24の両方にある場合、それぞれのファイルに記述されるタ ィムスタンプ (作成日時)やバージョンに基づいて、ダウンロードにより取得されたファ ィルがコンテンツの再生時に参照するファイルとされるようにマージを行う。また、ファ ィルシステムマージ処理部 36は、光ディスク 11にはなぐローカルストレージ 24にの みあるファイルがコンテンツの再生時に参照するファイルとされるようにマージを行う。
[0095] 図 8は、図 7の 2つのファイルシステムから得られる第 1の仮想ファイルシステムの例 を示す図である。
[0096] 図 8においては、光ディスク 11に記録されているファイルのうち、 Navigation.classフ アイルと「22222.mpls」の名前が設定されたファイル力 ダウンロードされたファイルに よりアップデートされている(置き換えられている)。また、光ディスク 11には記録され ていない、「04000.clpi」の名前が設定されたファイルと、 「04000.m2ts」の名前が設定 されたファイルが追加されて 、る。
[0097] すなわち、ダウンロードされたファイルに、アップデートされたナビゲーシヨンプログ ラムや PlayListがある場合、そのファイルによって、光ディスク 11の同じ名前のフアイ ルがアップデートされる(置き換えられる)。また、光ディスク 11にはない Clipのフアイ ル(Clip Informationファイル、 AVストリームファイル)がダウンロードされた場合、それ がファイルシステムに追加される。
[0098] このようにして生成された第 1の仮想ファイルシステムを通して、ナビゲーシヨンプロ グラムに基づく AVストリームへのアクセスが行われる(直接、光ディスク 11やローカル ストレージ 24にアクセスが行われるのではな!/、)。
[0099] したがって、新たにダウンロードまたはコピーされた新規ナビゲーシヨンプログラムの 処理により、光ディスク 11に予め記憶されているデータと、新たにダウンロードまたは コピーされてローカルストレージ 24に記憶されたデータとは区別されることなく処理さ れる。図 9に示されるように、所定の区間の AVストリームに対応させて字幕を表示さ せるための字幕関連情報が、複数の言語の字幕に対応するテキスト字幕ファイルを 構成するテキストサブタイトルデータと、フォントファイルを構成するフォントデータによ り構成されている場合、ユーザの操作入力に基づいて、光ディスク 11に予め記憶さ れている字幕関連情報と、新たにダウンロードまたはコピーされてローカルストレージ
24に記憶された字幕関連情報とにより表示可能とされる複数の言語による字幕のう ち、ユーザが所望する言語の字幕データが、光ディスク 11に予め記憶されている AV ストリームに対応付けられて、処理されて表示される。
[0100] 一方、光ディスクの販売者側 (販売者、製作者)は、例えば、アラビア語の字幕情報 は後からネットワーク 2を介して提供するものとし、英語字幕のみを表示可能な状態で 、映画が記録された光ディスク 11を販売することができる。すなわち、光ディスクの販 売者側は、一度に多言語を翻訳することなぐより早いタイミングでディスクを販売し、 必要に応じて、他の言語に対応する字幕関連情報を追加して提供することが可能に なる。また、主な言語に対応する地域に光ディスクを先行販売し、他の言語の翻訳処 理の終了後、光ディスクの販売地域を後から追加するとともに、対応する言語のテキ スト字幕ファイルのダウンロードサービスを開始するようにすることなども可能になる。
[0101] 光ディスクの販売者側 (販売者、製作者)は、光ディスク 11に予め記憶されて 、る A Vストリームに対応付けて字幕データを表示可能とするために、少なくとも、アップデ ートされた新規のプレイリストファイルと、テキスト字幕ファイルを配布する必要があり、 これに加えて、テキスト字幕ファイルに記載されているテキストデータに対応する字幕 の表示形式を定義するためのフォントファイルを配布するようにしても良い。なお、基 本的なフォントデータに関しては、再生装置 1のメモリ 23などに予め記憶されているも のとする。
[0102] 追加して配布される対象となるデータ (すなわち、図 4を用いて説明したローカルス トレージ 24に記憶されるデータに対応する)のアーカイブを図 10に示す。
[0103] 追加して配布するデータには、プレイリストファイル (PlayList.file)、テキストサブタイ トルファイルの番号を示す 8ビットの番号情報(number_of_TextSubTitle)、および、上 述したテキスト字幕ファイルに対応するテキストサブタイトルファイル (text_subtitle_file )が含まれ、更に、フォントファイル (fontjle)が含まれる場合がある。 [0104] 図 11は、 SubPlayltemのシンタックスを示す図である。
[0105] reむ o_STC_idの 8ビットのフィールドは、 Clipが参照する STCシーケンスの識別子を 指定する。 SubPlayItem_IN_timeは、 SubPlayltemの再生開始時刻を指定する。
SubPlayItem_OUT_timeは、 SubPlayltemの再生終了時刻を指定する。すなわち、 SubPlayItem_IN_timeおよび SubPlayItem_OUT_timeで、 SubPlayltemの再生区間を指 定することができる。なお、 SubPlayItem_IN_timeおよび SubPlayItem_OUT_timeに記載 される時刻情報は、 STCで使用されている 45kHzのクロックをベースに表現される。
[0106] number_of_ClipTextSubtitleの 8ビットのフィールドは、 SubPlayltem中で定義する字 幕のテキストの総数を指定する。 language jdの 8ビットのフィールドは、字幕として使用 する言語の識別子を指定する。 language jdフィールドのデータは、 ISO/IEC 639- 1規 格に従うものとする。 character_code_idの 8ビットのフィールドは、文字データの符号化 方式の識別子を指定する。 font_format_idの 8ビットのフィールドは、フォントフォーマツ トの識別子を指定する。
[0107] font_file_path_lengthの 16ビットのフィールドは、 font_file_pathに記載されるフォントフ アイルのパス名称のバイト数を指定する。このフィールドには、 font_file_pathのバイト数 として、 0を指定することができる。 0が指定された場合は、再生装置 1に予め保存さ れている内蔵フォントが指定されたものとして処理される。 font_file_pathは、字幕デー タを描画するために使用するフォントファイルのノ ス名称を指定する。 font_file_pathの フィールドに、空文字列が指定された場合、再生装置 1に予め保存されている内蔵フ オントが指定されたものとして処理される。 font_file_path本フィールド値は、 ISO/IEC 646方式で符号化されるものとする。
[0108] subtitle_file_path_lengthの 16ビットのフィールドは、 subtitle_file_pathに記載されるテ キスト字幕ファイルのパス名称のバイト数を指定する。 subtitle_file_pathは、テキスト字 幕ファイルのパス名称を指定する。 subtitle_file_pathフィールド値は、 ISO/IEC 646方 式で符号化されるものとする。
[0109] commentjengthの 16ビットのフィールドは、 commentに記述される情報のバイト数を 指定する。 Commentには、テキスト字幕に関するコメントが記述される。なお、 Commentに記載されるコメントは、文字集合 ISO/IEC 646を使用して記述するものとさ れている。
[0110] テキスト字幕ファイルは、図 12に示される構文に従って記載される。
[0111] versionは、テキスト字幕ファイルのバージョンを指定する 16ビットの情報である。
markup_typeは、マークアップの形式を指定する 8ビットの情報である。 subtitle_count は、字幕データの総数を指定する 32ビットの情報である。(subtitle_countは、改行コ ードの総数ではない。)start_PTSは、字幕の表示開始時刻を Clip AVストリームの PT Sで指定する 33ビットの情報である。 encLPTSは、字幕の表示終了時刻を Clip AVスト リームの PTSで指定する 33ビットの情報である。 subtitle_data_lengthは、 subtitle.data のバイト数 (字幕の文字数ではな 、;)を指定する 32ビットの情報である。 subtitle.data は、字幕データを指定する情報である。
[0112] 字幕データは、字幕を構成する文字そのものを示す「文字オブジェクト」と「属性デ ータ (アトリビュート)」力 構成される。属性データの設定方法にっ 、て記述する。
[0113] 字幕データの属性データには、制御文字による属性設定と、マークアップによるィ ンライン属性設定の 2つの属性設定方法がある。
[0114] まず、図 13および図 14を用いて、制御文字による属性設定について説明する。
[0115] 図 13に示される「Tab」という文字は空白文字として取り扱われる。「Tab」以外にも、 空白文字として取り扱うことができる文字を複数設定することが可能であることはいう までもない。
[0116] また、図 14に示される文字は全て改行文字として取り扱われる。すなわち、「CR」は 、復帰を示す記号であるが改行文字として取り扱われ、「LF」は、改行文字として取り 扱われ、「CR + LF」は、復帰と改行を示す記号であるが改行文字として取り扱われ、「 NEL」は、改行文字として取り扱われ、「VT」は、垂直タブを示す記号であるが改行文 字として取り扱われ、「FF」は、改ページを示す記号であるが改行文字として取り扱わ れ、「LS」は、行区切りを示す記号であるが改行文字として取り扱われ、「PS」は、段落 区切りを示す記号であるが改行文字として取り扱われる。
[0117] 次に、マークアップによるインライン属性設定について説明する。
[0118] 指定可能な属性に対してそれぞれマークアップが定義される。マークアップの形式 は、 TLV (Type-Length-Value)エンコード形式でマークアップする場合と、タグ付き言 語の要素および属性によりマークアップする場合との 2通りがあり、図 15に示されるよ うに、マークアップ形式識別子が 0x00であるとき、マークアップの形式は、 TLVェンコ ード形式であると定義され、マークアップ形式識別子が 0x01であるとき、マークアップ の形式は、タグ付き言語であると定義される。いずれの形式においても、マークアップ のスコープは、開始マーカー以降の文字全てであり、テキストデータをデコードする デコーダの一方向走査を可能にするために、終了マーカーは定義されない。したが つて、属性を局所的に指定したい場合には、直前の属性を明示的に再指定する必 要がある。
[0119] まず、 TLVエンコード方式による属性指定が行われる場合について説明する。 TLV エンコード方式による属性指定の場合、字幕データの文字符号化方式は、図 11を用 V、て説明した、 SubPlayltem中の character_code_idの指定に従うものとする。
[0120] 図 16を用いて、 TLVエンコード方式による属性指定の場合の、 subtitle_data ()のデ ータ構造につ!、て説明する。
[0121] escape_codeの 8ビットのフィールドは、図 17に示されるように、後に属性が記述され て 、ることを示すエスケープコード OxlBを指定する。 attributej peの 8ビットのフィー ルドは、属性種別を指定する。 attributej peに記載されるコードについては、図 18を 用いて後述する。 attribute_value_lengthの 16ビットのフィールドは、後に続く属性デー タのバイト数を指定する。 attribute_valueは、属性データを指定する。 char_dataは、文 字オブジェクトのバイトシーケンスを指定する。
[0122] 次に、図 18を用いて、 attribute_typeに記載される属性種別を示すコードについて 説明する。
[0123] subtitle_data ()の attributej peの 8ビットのフィールドに 0x01が記載されていたとき、 記載されて ヽる属性の種別は、インデックスデータと代表色データとの変換テーブル である CLUT (Color Look Up Table)の設定である。 CLUTは、図 33を用いて後述す る字幕グラフィックスプレーン処理部に記憶される変換テーブルである。 subtitle.data ()の attributej peの 8ビットのフィールドに 0x02が記載されて!、たとき、記載されて!ヽ る属性の種別は、リージョン原点の指定である。 subtitle_data ()の attribute_typeの 8ビ ットのフィールドに 0x03が記載されていたとき、記載されている属性の種別は、行間 (Line Space)の指定である。 subtitle_data ()の attribute_typeの 8ビットのフィールドに 0x04が記載されていたとき、記載されている属性の種別は、レンダリング方向の指定 である。 subtitle_data ()の attributej peの 8ビットのフィールドに 0x05が記載されて!ヽ たとき、記載されている属性の種別は、フォント色の指定である。 subtitle_data ()の attribute_typeの 8ビットのフィールドに 0x06が記載されて!、たとき、記載されて!、る属 性の種別は、背景色の指定である。 subtitle— data ()の attribute— typeの 8ビットのフィー ルドに 0x07が記載されていたとき、記載されている属性の種別は、フォントスタイルの 指定である。 subtitle.data ()の attribute_typeの 8ビットのフィールドに 0x08が記載され ていたとき、記載されている属性の種別は、フォントサイズの指定である。
[0124] subtitle.data ()の attributej peの 8ビットのフィールドに 0x09が記載されて!、たとき、 記載されている属性の種別は、フォント回転角の指定である。 subtitle_data ()の attribute_typeの 8ビットのフィールドに OxOAが記載されて!、たとき、記載されて!、る属 性の種別は、ブックマークの開始位置である。 subtitle_data ()の attribute_typeの 8ビッ トのフィールドに OxOBが記載されていたとき、記載されている属性の種別は、ブックマ ークの終了位置である。 subtitle_data ()の attribute_typeの 8ビットのフィールドに OxOC が記載されていたとき、記載されている属性の種別は、ブックマークの付与された文 字オブジェクトシーケンスの繰り返しの指定である。
[0125] subtitle.data ()の attributej peにお!/、て、記載されて!、る属性種別が CLUT設定で あるとき、 attribute_valueにおいて、図 33を用いて後述する字幕グラフィックスプレー ン処理部における CLUTのインデックスが設定される。図 19に、 subtitle_data ()の attribute_typeにお!/、て、記載されて!、る属性種別が CLUT設定であるときの、 attribute_valueのテータ構造を示す。
[0126] CLUT_sizeの 8ビットのフィールドには、 CLUTのサイズが記載されている。 Yは、輝 度データを設定する 8ビットの情報であり、 Cb, Crは、それぞれ、色差データを設定 する 8ビットの情報であり、 Tは、透明度を設定する 8ビットの情報である。
[0127] subtitle.data ()の attribute_typeにお!/、て、記載されて!、る属性種別がリージョン原 点指定であるとき、 attribute_valueにおいて、リージョンの原点座標 (x, y)が指定され る。図 20に、 subtitle_data ()の attribute_typeにおいて、記載されている属性種別がリ 一ジョン原点指定であるときの attribute_valueのデータ構造を示す。
[0128] x_coordonateは、リージョンの原点の x座標を示す 16ビットの情報である。
y.coordonateは、リージョンの原点の y座標を示す 16ビットの情報である。
[0129] また、 subtitle_data ()の attribute_typeにお!/、て、記載されて!、る属性種別が行間
(Line Space)指定であるとき、 attribute_valueにおいて、行間がピクセル単位で指定さ れる。なお、行間 (Line Space)指定のデフォルトは、「フォントの高さ」であるものとして ちょい。
[0130] subtitle.data ()の attribute_typeにお!/、て、記載されて!、る属性種別がレンダリング 方向指定であるとき、 attribute_valueには、文字オブジェクトを描画するときのレンダリ ング方向を指定するためのレンダリング方向指定を示すコードが記載される。図 21に レンダリング方向指定を示すコードの例を示す。
[0131] すなわち、 subtitle.data ()の attributej peにお!/、て、記載されて!ヽる属性種別がレ ンダリング方向指定である場合、 attribute_valueに、 0x00が記載されているとき、文字 オブジェクトを描画するときのレンダリング方向は、左から右に指定され、
attribute_valueに、 0x01が記載されているとき、文字オブジェクトを描画するときのレン ダリング方向は、右から左に指定され、 attribute_valueに、 0x02が記載されているとき 、文字オブジェクトを描画するときのレンダリング方向は、上から下に指定される。
[0132] subtitle.data ()の attributej peにお!/、て、記載されて!、る属性種別がフォント色の 指定であるとき、 attribute_valueには、図 33を用いて後述する字幕グラフィックスプレ ーン処理部における CLUTに対する色指定のインデックスが指定される。フォント色を 設定するための attribute_valueの値のデフォルトは、「0」であるものとしてもよ!/、。
[0133] subtitle.data ()の attribute_typeにお!/、て、記載されて!、る属性種別が背景色の指 定であるとき、 attribute_valueには、図 33を用いて後述する字幕グラフィックスプレー ン処理部における CLUTに対する背景色のインデックスが指定される。ただし、指定さ れた背景色で塗りつぶされる表示画面内の領域は、リージョン単位であり、背景色の デフォルトは、無指定 (透過)であるものとしてもよ!/、。
[0134] subtitle.data ()の attributej peにお!/、て、記載されて!、る属性種別がフォントスタイ ルの指定であるとき、 attribute_valueには、図 22に示されるコードのうちのいずれかが 記載されて、フォントのスタイルが指定される。すなわち、 attribute_valueに、 0x00が記 載されているとき、フォントスタイルは標準に指定され、 attribute_valueに、 0x01が記載 されているとき、フォントスタイルは太字に指定され、 attribute_valueに、 0x02が記載さ れているとき、フォントスタイルは斜体に指定される。なお、フォントのスタイルのデフォ ルトは、「標準」とするようにしてもよい。
[0135] subtitle.data ()の attributej peにお!/、て、記載されて!、る属性種別がフォントサイ ズの指定であるとき、 attribute_valueには、フォントサイズを示す 8以上 72以下の値が 指定される。なお、フォントサイズを指定する値のデフォルトは、「32」とするようにして ちょい。
[0136] subtitle_data ()の attributej peにおいて、記載されている属性種別がフォント回転 角の指定であるとき、 attribute_valueには、フォント回転角に対応する 0以上 360以下 の値が指定される。なお、回転方向は、例えば、反時計回りが正方向され、デフオル トは、「0」とするようにしてもよい。
[0137] subtitle.data ()の attributej peにお!/、て、記載されて!、る属性種別がブックマーク 開始位置指定であるとき、 attribute_valueには、ブックマーク開始位置が指定される。 ブックマークとは、複数回同じ文字が同じ形式で表示される場合にレンダリング処理 を省略することができるように、テキスト字幕ファイルの供給元が予め付与する情報で ある。図 23に、 subtitle_data ()の attribute_typeにおいて、記載されている属性種別が ブックマーク開始位置指定であるときの attribute_valueのデータ構造を示す。
[0138] bookmarkjdの 8ビットのフィールドには、ブックマークを固有に区別可能な IDが記 載される。なお、ここでは、ブックマークは、最大 256個まで指定できる。
start_of_bookmark_indicatorの 8ビットのフィールドには、ブックマークの開始位置が指 定される。
[0139] subtitle.data ()の attributej peにお!/、て、記載されて!、る属性種別がブックマーク 終了位置指定であるとき、 attribute_valueには、ブックマーク終了位置が指定される。 図 24に、 subtitle_data ()の attribute_typeにおいて、記載されている属性種別がブック マーク終了位置指定であるときの attribute_valueのデータ構造を示す。
[0140] bookmarkjdの 8ビットのフィールドには、ブックマークを固有に区別可能な IDが記 載される。 end_of_bookmarkjndicatorの 8ビットのフィールドには、ブックマークの終了 位置が指定される。
[0141] subtitle.data ()の attributej peにお!/、て、記載されて!、る属性種別が文字オブジェ タトシーケンス繰り返し指定であるとき、 attribute_valueには、ブックマークの付与され た文字オブジェクトのシーケンスの繰り返し回数が指定される。図 25に、 subtitle.data ()の attributej peにお!/、て、記載されて!、る属性種別が文字オブジェクトシーケンス 繰り返し指定であるときの attribute_valueのデータ構造を示す。
[0142] bookmarkjdの 8ビットのフィールドには、ブックマークを固有に区別可能な IDが記 載される。 Countの 8ビットのフィールドには、ブックマークの繰り返し回数が指定され る。
[0143] 次に、タグ付き言語による属性指定の場合について説明する。タグ付き言語による 属性指定の場合、字幕データの文字符号ィ匕方式は、 SubPlayltem中の
character_codejdの指定を無視して、 ISO/IEC 646エンコードであるものとする。
[0144] 図 26を用いて、タグ付き言語による属性指定の場合の、 subtitle_data ()のデータ構 造について説明する。
[0145] TaggedAttrは、属性データのタグ付き言語表現を指定する。 TaggedAttrは、図 27 に示されるような、所定の形式に従う。 char_dataは、文字オブジェクトのバイトシーケ ンスを指定する。ただし、バイトシーケンスは、 BASE64エンコーディング方式により ISO/IEC 646エンコードするものとする。その際、「く」および「〉」は、「0xlB」によりエス ケープする。
[0146] 次に、図 28を参照して、タグ付き言語による属性指定の要素および属性種別につ いて説明する。
[0147] CLUT設定は、く CLUT size= y= cb= cr= t=〉と記載され、属性「size」に CLUTのサイ ズが指定され、属性「y」、 「cb」、 「cr」および「t」には、図 33を用いて後述する字幕ダラ フィックスプレーン処理部における CLUTのインデックス列が指定される。
[0148] リージョン原点指定は、く region x= y=〉と記載され、属性「x」および「y」に、リージョ ンの原点座標 (X, y)が指定される。
[0149] 行間 (Line Space)指定は、 <linespace d=〉と記載され、属性「d」に、行間がピクセル 単位で指定される。なお、行間のデフォルトは、「フォントの高さ」とするようにしてもよ い。
[0150] レンダリング方向指定は、く textflow d=〉と記載され、属性「d」に、文字オブジェクトを 描画するときの方向が指定される。なお、レンダリング方向のデフォルトは、「左から右 へ」とするようにしてもよい。
[0151] フォント色指定は、く fontcolor c=〉と記載され、属性「c」に、図 33を用いて後述する 字幕グラフィックスプレーン処理部における CLUTに対するインデックスが指定される なお、フォント色に対応するインデックスのデフォルトは、「0」とするようにしてもよい。
[0152] 背景色指定は、く backgroundcolor c=〉と記載され、属性「c」に、図 33を用いて後述 する字幕グラフィックスプレーン処理部における CLUTに対するインデックスが指定さ れる。ただし、背景色で塗りつぶされる領域は、リージョン単位であり、背景色のデフ オルトは、無指定 (透過)とするようにしてもよい。
[0153] フォントスタイル指定は、く fontstyle s=〉と記載され、属性「s」に、太字、斜体、標準な どのフォントのスタイルが指定される。なお、フォントのスタイルのデフォルトは、「標準
」とするようにしてもよい。
[0154] フォントサイズ指定は、く fontsize s=〉と記載され、属性「s」に、フォントサイズに対応 する 8以上 72以下の値が指定される。なお、フォントサイズを指定する値のデフォルト は、「32」とするようにしてもよい。
[0155] フォント回転角指定は、〈fontrotate a=〉と記載され、属性「a」に、フォントの回転角に 対応する 0以上 360以下の値が指定される。なお、回転方向は、反時計回りが正方 向とされ、フォントの回転角に対応する値のデフォルトは、「0」とするようにしてもよい
[0156] ブックマーク指定は、く mark id=〉と記載され、属性「id」に、ブックマークを個別に区 別可能な 0以上 255以下の値が指定される。これにより、本要素のスコープ内の字幕 データに対してブックマークが付与されたことになる。ブックマークは、最大 256個まで 旨定することができる。
[0157] 文字オブジェクトシーケンス繰り返し指定は、く repeat id= c=〉と記載され、属性「id」 に、ブックマークを個別に区別可能な 0以上 255以下の値力 属性「c」には繰り返し回 数が指定される。これにより、属性「id」により設定された属性値に対応するブックマー クが付与された字幕データが、属性「c」に設定された回数繰り返される。
[0158] 上述したような方法で属性が指定されたテキスト字幕ファイルのテキストデータは、 それぞれの属性の設定に基づいて、例えば、図 29に示されるように、レンダリング方 向が左から右へ指定され、設定された改行位置において下方向に改行されて表示さ れたり、図 30に示されるように、レンダリング方向が右から左へ指定され、設定された 改行位置において下方向に改行されて表示されたり、図 31に示されるように、レンダ リング方向が上力 下へ指定され、設定された改行位置において左方向に改行され て表示される。
[0159] また、例えば、表示される字幕に対して、フェードインまたはフェードアウトを指定す るときには、図 33を用いて後述する字幕グラフィックスプレーン処理部における CLUTの T値を変更して、文字の透明度を変化させつつ、文字オブジェクトシーケン スを繰り返し指定するようにすればよ!、。
[0160] 次に、図 32は、ローカルストレージ 24の仮想的な記憶領域を示す図である。
[0161] ローカルストレージ 24には、図 4を用いて説明したように、ダウンロードまたはコピー された各種情報が図 7を用いて説明したファイル形式で記憶される。これらのファイル を記憶するために、ローカルストレージ 24には、仮想的な記憶領域として、ダウン口 ードされたナビゲーシヨンプログラムが記憶される領域であるナビゲーシヨンプロダラ ム記憶部 51、ダウンロードされたプレイリストが記憶される領域であるプレイリスト記憶 部 52、ダウンロードされたテキストサブタイトルファイルが記憶される領域であるテキス トサブタイトルファイル記憶部 53、ダウンロードされたフォントファイルが記憶される領 域であるフォントファイル記憶部 54が設けられているものとすることができる。ナビゲ ーシヨンプログラム記憶部 51およびプレイリスト記憶部 52に記憶されたデータフアイ ルは、図 6を用いて説明したローカルストレージディレクトリ管理部 34の制御に基づい て読み出されてメモリ 23に供給され、テキストサブタイトルファイル記憶部 53およびフ オントファイル記憶部 54、に記憶されたデータファイルは、図 6を用いて説明したロー カルストレージディレクトリ管理部 34の制御に基づいて読み出されてデコーダ 26に 供給される。
[0162] なお、図 32に図示されたローカルストレージ 24のナビゲーシヨンプログラム記憶部 51、プレイリスト記憶部 52、テキストサブタイトルファイル記憶部 53、および、フォント ファイル記憶部 54のそれぞれの記憶領域は仮想的なものであるから、ローカルストレ ージ 24の記憶領域は、図 32に図示されているように記憶される情報の種類により物 理的に分割されて 、なくても良 、ことは 、うまでもな!/、。
[0163] コントローラ 21の制御に基づいて、光ディスク 11、または、ローカルストレージ 24か ら読み出されたデータは、図示せぬ復調および ECC復号部により復調され、誤り訂 正が施され、デコーダ 26に供給される。図 33は、デコーダ 26の詳細な構成を説明す るためのブロック図である。
[0164] デコーダ 26には、制御部 81、ディスクデータ取得部 82、バッファ 83および 84、 PID
(パケット ID)フィルタ 85、オーディオデコーダ 86、 MPEG (Moving Picture Experts Group)ビデオデコーダ 87、ビデオプレーン処理部 88、 GUI (Graphic User Interface )データデコーダ 89、 GUIグラフィックスプレーン処理部 90、ストレージデータ取得部 91、テキスト字幕処理部 92、字幕グラフィックスプレーン処理部 93、および、合成処 理部 94が設けられている。
[0165] 制御部 81は、再生制御部 37の制御に基づいて、デコーダ 26の各部の処理を制御 するものである。ディスクデータ取得部 82は、光ディスク 11から読み出されたデータ のうち、デコーダ 26に供給されたデータを取得し、図 9を用いて説明した Playltemに より指定される AVストリームなどの多重ィ匕ストリームを、メインパスを構成する Playltem により指定されるデータのリードバッファであるバッファ 83に供給し、 SubPlayltemによ り指定される、テキスト字幕ファイルまたはフォントファイルのデータ(フォントファイル のデータは指定されて 、な 、場合がある)を、サブパスを構成する SubPlayltemにより 指定されるデータのリードバッファであるバッファ 84に供給する。
[0166] ノッファ 83から読み出されたストリームデータは、所定のタイミングで、後段の PIDフ ィルタ 55へ出力される。この PIDフィルタ 85は、入力された多重化ストリームを、 PIDに 応じて、後段の各エレメンタリストリームのデコーダであるオーディオデコーダ 86、 M PEGビデオデコーダ 87、または、 GUIデータデコーダ 89へ振り分けて出力する。す なわち、 PIDフィルタ 55は、音声(オーディオ)ストリームをオーディオデコーダ 86に供 給し、映像 (ビデオ)ストリームを MPEGビデオデコーダ 87に供給し、ユーザインター フェース関連の画像データを GUIデータデコーダ 89に供給する。
[0167] オーディオデコーダ 86は、オーディオストリームをデコードし、デコードされたォー ディォストリームのデータを出力する。 MPEGビデオデコーダ 87は、ビデオストリーム をデコードし、デコードされたビデオデータをビデオプレーン処理部 88へ出力する。 ビデオプレーン処理部 88は、デコードされたビデオデータに基づいて、 1ページ (ま たは、 1フレーム)に表示される画像 (動画像である映像を構成する画像)に対応するビ デォプレーンを生成し、合成処理部 94に出力する。
[0168] GUIデータデコーダ 89は、インタラクティブグラフィクスストリームをデコードし、デコ ードされた GUIデータを、 GUIグラフィックスプレーン処理部 90に供給する。 GUIグ ラフィックスプレーン処理部 90は、 1画面に表示される GUIに対応するグラフィックス プレーンを生成し、合成処理部 94に出力する。
[0169] ストレージデータ取得部 91は、ローカルストレージ 24から読み出されたデータのう ち、デコーダ 26に供給されたデータ (すなわち、テキスト字幕ファイルまたはフォント ファイルのデータ)を取得し、テキスト字幕処理部 92に供給する。テキスト字幕処理部 92は、制御部 81の制御に従い、ストレージデータ取得部 91から供給される、または 、ノッファ 84から読み出されるテキストデータをデコードし、所定のフォントデータに 基づいて、ビットマップなどのラスタデータに変換 (ラスタライズ)し、字幕グラフィックス プレーン処理部 93に供給する。テキスト字幕処理部 92についての詳細は、図 34を 用いて後述する。字幕グラフィックスプレーン処理部 93は、デコードされレンダリング されたテキストデータを基に、 1ページ (または、 1フレーム)に表示される字幕に対応 する字幕グラフィックスプレーンを生成し、合成処理部 94に出力する。
[0170] 合成処理部 94は、ビデオプレーン処理部 88から供給されたビデオプレーン、 GUI グラフィックスプレーン処理部 90から供給された GUIに対応するグラフィックスプレー ン、および、字幕グラフィックスプレーン処理部 93から供給された字幕グラフィックス プレーンを合成し、ビデオ信号として出力する。
[0171] 図 34は、テキスト字幕処理部 92の詳細な構成を説明するためのブロック図である。 [0172] テキストデータデコーダ 121は、テキスト字幕ファイル (テキストサブタイトルファイル )のデータをデコードし、文字オブジェクトは文字オブジェクトバッファ 122に、属性( アトリビュート)は、アトリビュートデータバッファ 123に供給する。
[0173] アトリビュートデータバッファ 123に保存される属性データは、ユーザの操作入力に 基づいて、制御部 81の制御に従い変更される。例えば、ユーザがフォントサイズや文 字色の変更を指令した場合、制御部 81の制御により、アトリビュートデータバッファ 1 23に保存される属性データのうち、対応するコードが書き換えられる。
[0174] フォントラスタライザ 124は、アトリビュートデータバッファ 123から読み出した属性の 指定と、ノ ッファ 84またはストレージデータ取得部 91から供給されるフォントデータ、 もしくは、予め再生装置 1内部に保持されている内臓フォントデータに基づいて、文 字オブジェクトバッファ 122から読み出した文字オブジェクトをビットマップなどのラス タデータに変換して字幕グラフィックスプレーン処理部 93に出力する。例えば、フォ ントラスタライザ 124は、スケーラブルフォントを属性指定に基づ 、てビットマップ展開 し、ラスタデータに変換 (ラスタライズ)して出力する。
[0175] 更に、フォントラスタライザ 124は、アトリビュートデータノッファ 123から読み出した 属性に基づいて、ブックマークが付与されている文字オブジェクトを検出し、ブックマ ークバッファ 125を利用して、同一のブックマーク IDが付与されて!、る文字オブジェ タトに関しては、重複してラスタライズを行わないようにする。
[0176] ブックマークバッファ 125は、フォントラスタライザ 124の処理により、ブックマークが 付与されている文字オブジェクトのラスタデータを保持するとともに、フォントラスタライ ザ 124により、保持しているラスタデータを読み出される。
[0177] 次に、図 35のフローチャートを参照して、サーバ 3からアップデートファイルをダウン ロードする再生装置 1のコントローラ 21の処理であるダウンロード処理 1について説明 する。
[0178] この処理は、光ディスク 11が再生装置 1に装着され、例えば、メニュー画面から、光 ディスク 11に記録されて ヽる英語字幕つきの映画コンテンツに対応するアラビア語テ キスト字幕ファイルをダウンロードすることが指示されたときに実行される。
[0179] ステップ S1において、コントローラ 21の光ディスクディレクトリ管理部 35は、光デイス クドライブ 22を制御し、光ディスク 11に記録されて 、る Studiojdと Contentjdを読み出 す。図 7を参照して説明したように、 Studio jdと Contentjdは info.bdmvファイルに記述 されている。光ディスクディレクトリ管理部 35は、光ディスク 11から読み出した
Studiojdと Contentjdをデータ取得部 33とローカルストレージディレクトリ管理部 34に 出力する。
[0180] ステップ S2において、データ取得部 33は、インターネットインタフェース 24を制御し 、光ディスクディレクトリ管理部 35から供給された Studiojdと Contentjdとを、インター ネット 2を介してサーバ 3に送信する。ここで送信された Studiojdと Contentjdを受信し たサーバ 3にお 、ては、再生装置 1に装着されて 、る光ディスク 11のコンテンツが識 別される。このとき、例えば、アップデート可能なファイルの一覧がサーバ 3から再生 装置 1に通知される。データ取得部 33は、サーバ 3から送信され、インターネットイン タフエース 24により受信されたアップデート可能なファイルの一覧を取得し、メニュー 画面表示制御部 31に供給する。
[0181] ステップ S3において、メニュー画面表示制御部 31は、アップデート用のメニュー画 面を表示装置に表示させ、ステップ S4に進み、操作入力取得部 32から供給される 信号に基づいて、メニュー画面のボタンがユーザにより操作され、アップデートの内 容が選択されたか否かを判定する。
[0182] ステップ S4において、メニュー画面表示制御部 31は、アップデートの内容が選択さ れたと判定するまで待機し、アップデートの内容が選択されたと判定した場合、ステツ プ S5に進む。ユーザにより選択されたアップデートの内容を表す情報は、メニュー画 面表示制御部 31からデータ取得部 33に出力される。
[0183] ステップ S5において、データ取得部 33は、インターネットインタフェース 24を制御し 、アップデートの内容を表す情報をサーバ 3に送信させ、ユーザが指定したアップデ ートファイルのダウンロードを要求する。
[0184] ステップ S6において、データ取得部 33は、インターネットインタフェース 24を制御し 、サーバ 3によりアップデートファイルとして用意されるテキストサブタイトルファイルを ダウンロードさせ、テキストサブタイトルファイルがダウンロードされたことを、ローカル ストレージディレクトリ管理部 34に通知する。 [0185] ステップ S7において、データ取得部 33は、インターネットインタフェース 24を制御し 、ステップ S6でダウンロードしたテキストサブタイトルファイルの再生パスを表す SubPlayltemが、メインの Playltemに付カ卩されて!/、る PlayListをダウンロードさせ、 PlayListがダウンロードされたことを、ローカルストレージディレクトリ管理部 34に通知 する。ここでダウンロードされた PlayListの SubPlayltemにより、例えば、アラビア語の字 幕を表示させるためのテキストサブタイトルファイルが参照される。
[0186] ステップ S8において、データ取得部 33は、インターネットインタフェース 24を制御し 、アップデートされたナビゲーシヨンプログラムのファイルをダウンロードさせ、ナビゲ ーシヨンプログラムがダウンロードされたことを、ローカルストレージディレクトリ管理部 34に通知する。
[0187] ステップ S9において、ローカルストレージディレクトリ管理部 34は、光ディスクディレ クトリ管理部 35から供給された Studio jdと Contentjdに基づ 、て、それらの IDで識別 されるディレクトリをローカルストレージ 24に作成する。これにより、例えば、図 7に示さ れるように「xxx」の Studiojdと「yyy」の Contentjdを有する光ディスク 11に対応するデ ィレクトリとして、「xxx-yyy」の名前が設定されるフォルダ (ディレクトリ)がローカルスト レージ 24に作成される。
[0188] ステップ S10において、ローカルストレージディレクトリ管理部 34は、ステップ S9で 作成したディレクトリに、サーバ 3からダウンロードされたそれぞれのファイルを展開し 、格納させる。
[0189] このような処理により、サーバ 3力もアップデートファイルがダウンロードされるので、 例えば、映画などのコンテンツが記録された光ディスク 11を購入したユーザ力 光デ イスク 11に予め記録されて 、な 、言語の字幕を表示させるために必要なファイルを 取得することができる。したがって、ユーザが所望する言語の字幕を表示させてコン テンッを視聴することが可能となる。
[0190] なお、ダウンロードされたアップデートファイルはローカルストレージ 24に保存され 続け、再度、同じ光ディスク 11が装着された場合には、保存されているテキスト字幕 ファイルが利用され、 AVストリームファイルの再生が行われる。例えば、アラビア語の 字幕を表示させるために必要なテキスト字幕ファイルが、上述した処理により既にダ ゥンロードされている場合、ユーザは、光ディスク 11の映画コンテンツを再生装置 1で 次に再生させるとき、ダウンロードなどの処理を再生装置 1に再度行わせることなぐ アラビア語の字幕を表示させるようにすることができる。
[0191] また、以上のようなアップデートファイルのダウンロードは、有料で行うことができるも のであってもよ!/、し、無料で行うことができるものであってもよ!/、。
[0192] 更に、メニュー画面から、ユーザが、複数の言語の字幕の表示に必要なテキスト字 幕ファイルをダウンロードすることを指示した場合、それぞれの言語の字幕の表示に 必要なテキスト字幕ファイルが個別に提供されるのではなぐ 1つのテキスト字幕ファ ィルとしてサーバ 3側でまとめられ、そのまとめられたテキスト字幕ファイルが提供され るよう〖こしてもよい。この場合、各言語のテキスト字幕ファイルの保存の位置は PlayListにより指定される。
[0193] 次に、図 36のフローチャートを参照して、コントローラ 21の再生処理 1について説 明する。
[0194] 上述したようにしてダウンロードされたアップデートファイルがローカルストレージ 24 に記録されて 、る状態で、光ディスク 11に記録されて 、るコンテンツの再生が指示さ れた場合、ステップ S31において、光ディスクディレクトリ管理部 35は、光ディスク 11 から Studiojdと Contentjdを読み出し、読み出した Studiojdと Contentjdをローカルス トレージディレクトリ管理部 34に出力する。
[0195] ステップ S32において、ローカルストレージディレクトリ管理部 34は、光ディスクディ レクトリ管理部 35から供給された Studiojdと Content jdに基づ!/、て、光ディスク 11のフ アイルシステムに対応する、ローカルストレージ 24のファイルシステムを検索し、フアイ ルシステムマージ処理部 36に供給する。上述したように、光ディスク 11のファイルシ ステムに対応するファイルシステムは、ローカルストレージ 24において、 Studiojdと Contentjdを含む名前が設定されたディレクトリに格納されている(図 7)。
[0196] このとき、光ディスクディレクトリ管理部 35からは、光ディスク 11のファイルシステム がファイルシステムマージ処理部 36に出力される。
[0197] ステップ S33において、ファイルシステムマージ処理部 36は、光ディスク 11のフアイ ルシステムと、ローカルストレージ 24のファイルシステムとを、図 7および図 8を参照し て説明したようにしてマージし、第 1の仮想ファイルシステムを生成する。生成された 第 1の仮想ファイルシステムは再生制御部 37に出力され、 AVストリームファイルの再 生に用いられる。
[0198] ステップ S34において、再生制御部 37は、供給されてきた第 1の仮想ファイルシス テム力もナビゲーシヨンプログラムを指定し、実行する。したがって、図 8に示されるよ うに、アップデートされたナビゲーシヨンプログラムが第 1の仮想ファイルシステムにあ る場合、そのナビゲーシヨンプログラム(ローカルストレージ 24に記録されて!、るナビ ゲーシヨンプログラム)が実行される。
[0199] ステップ S35において、再生制御部 37は、ナビゲーシヨンプログラムが再生区間と して指定する PlayListと SubPlayltemを取得し、ステップ S36に進み、ローカルストレー ジディレクトリ管理部 34および光ディスクディレクトリ管理部 35を制御して、取得した PlayListと SubPlayltemが参照するファイル(AVファイル、テキスト字幕ファイル、フォ ントファイルなど)を読み出させて、デコーダ 26に供給させる。ここでは、 PlayListや SubPlayltemにより表されるタイムスタンプが Clip informationによりアドレスに変換され 、 AVストリームなどに対するアクセスが行われる。
[0200] すなわち、再生制御部 37は、 PlayListや SubPlayltemが参照する AVストリームフアイ ルがローカルストレージ 24に存在する場合は、ローカルストレージ 24からその AVスト リームファイルを読み出し、存在しない場合、光ディスク 11から AVストリームファイル を読み出す。
[0201] 例えば、再生制御部 37が、図 8のファイルシステムに従って、ローカルストレージデ ィレクトリ管理部 34および光ディスクディレクトリ管理部 35を制御して、 AVストリーム の読み出しを行わせて 、る場合、光ディスク 11に予め用意されて 、る r01000.m2tsj のファイル名が設定されて 、る AVストリームファイルや、「02000.m2ts」のファイル名 が設定されて 、る AVストリームファイルにつ!/、ては光ディスク 11からの読み出しが行 われ、ダウンロードにより追加された「04000.m2ts」のファイル名が設定されている AV ストリームファイルにつ!/、ては、ローカルストレージ 24からの読み出しが行われる。
[0202] ステップ S37において、図 37を用いて後述するコンテンツ再生処理 1が実行されて 、読み出した AVストリームファイルやテキスト字幕ストリームファイルなどがデコードさ れ、映像や音声、または字幕が表示装置力 出力されて、処理が終了される。
[0203] 以上のように、第 1の仮想ファイルシステムが生成され、コンテンツの再生時に利用 されることにより、例えば、 SubPlayltemが参照するテキスト字幕ファイルのデータが、
AVストリームと同時に読み出されて再生される。
[0204] 次に、図 37のフローチャートを参照して、図 36のステップ S37において実行される
、コンテンツ再生処理 1について説明する。
[0205] ステップ S61において、再生制御部 37は、デコーダ 26を制御して、 Playltemにより 指定される AVストリームデータを再生させる。
[0206] ステップ S62にお 、て、操作入力取得部 32は、字幕データの表示を指令する操作 入力を受けた力否かを判断する。ステップ S62において、字幕データの表示を指令 する操作入力を受けていないと判断された場合、処理は、後述するステップ S68に 進む。
[0207] ステップ S62において、字幕データの表示を指令する操作入力を受けたと判断され た場合、ステップ S63において、操作入力取得部 32は、ユーザの操作入力に対応 する信号をメニュー画面表示制御部 31に供給する。メニュー画面表示制御部 31は、 表示装置に、表示可能な字幕データの一覧メニューを表示させる。
[0208] ステップ S64において、操作入力取得部 32は、表示させる字幕データの言語を指 定する操作入力を受けた力否かを判断する。ステップ S64において、表示させる字 幕データの言語を指定する操作入力を受けていないと判断された場合、処理は、ス テツプ S63に戻り、それ以降の処理が繰り返される。
[0209] ステップ S64において、表示させる字幕データの言語を指定する操作入力を受け たと判断された場合、ステップ S65において、操作入力取得部 32は、ユーザの操作 入力に対応する信号を再生制御部 37に供給する。再生制御部 37は、ローカルスト レージディレクトリ管理部 34を制御し、ユーザの操作入力に基づ 、て指定される SubPlayltemにより参照されるテキストサブタイトルデータを読み出させて、デコーダ 2 6のストレージデータ取得部 91に供給させるとともに、必要に応じて、ユーザに指定さ れたフォントに対応するフォントデータを読み出させて、デコーダ 26のストレージデー タ取得部 91に供給させる。 [0210] ステップ S66において、デコーダ 26により、図 38および図 39を用いて後述する字 幕表示処理 1が実行される。
[0211] ステップ S67において、操作入力取得部 32は、表示させる字幕データの言語の変 更を指令する操作入力を受けた力否かを判断する。ステップ S67において、表示さ せる字幕データの言語の変更を指令する操作入力を受けたと判断された場合、処理 は、ステップ S65に戻り、それ以降の処理が繰り返される。
[0212] ステップ S62において、字幕データの表示を指令する操作入力を受けていないと 判断された場合、または、ステップ S67において、表示させる字幕データの言語の変 更を指令する操作入力を受けていないと判断された場合、ステップ S68において、操 作入力取得部 32は、コンテンツの再生の終了を指令する操作入力を受けた力、また は、再生中の AVストリームデータが終了したか否かを判断する。
[0213] ステップ S68において、コンテンツの再生の終了を指令する操作入力を受けず、か つ、再生中の AVストリームデータが終了していないと判断された場合、ステップ S69 において、操作入力取得部 32は、字幕の表示を中止させる操作入力を受けた力否 かを判断する。
[0214] ステップ S69において、字幕の表示を中止させる操作入力を受けていないと判断さ れた場合、処理は、ステップ S66に戻り、それ以降の処理が繰り返される。ステップ S 69において、字幕の表示を中止させる操作入力を受けたと判断された場合、処理は 、ステップ S61に戻り、それ以降の処理が繰り返される。
[0215] ステップ S68において、コンテンツの再生の終了を指令する操作入力を受けたか、 再生中の AVストリームデータが終了したと判断された場合、処理が終了される。
[0216] このような処理により、予め光ディスク 11に記録されている、または、サーバ 3からダ ゥンロードされ、ローカルストレージ 24に記憶されているテキスト字幕ファイルが用い られて、ユーザが所望した言語の字幕がコンテンツの映像および音声とともに表示さ れ、ユーザの操作入力に基づいて、表示される字幕の言語を変更するために、読み 出されるテキスト字幕ファイルが変更される。
[0217] 次に、図 38および図 39のフローチャートを参照して、図 37のステップ S66〖こおい て実行される字幕表示処理 1につ ヽて説明する。 [0218] ステップ S91において、デコーダ 26のテキスト字幕処理部 92のテキストデータデコ ーダ 121は、ストレージデータ取得部 91により取得されたテキストサブタイトルデータ をデコードする。
[0219] ステップ S92において、テキスト字幕処理部 92のテキストデータデコーダ 121は、 デコードされたテキストサブタイトルデータに含まれる文字オブジェクトをテキスト字幕 処理部 92の文字オブジェクトバッファ 122に供給するので、文字オブジェクトバッファ 122に、文字オブジェクトがバッファリングされる。
[0220] ステップ S93において、テキストデータデコーダ 121は、デコードされたテキストサブ タイトルデータに含まれる属性データをテキスト字幕処理部 92のアトリビュートデータ バッファ 123に供給するので、アトリビュートデータバッファ 123に属性データがバッ ファリングされる。
[0221] ステップ S94において、制御部 81は、再生制御部 37 (コントローラ 21)から、例えば 、フォントサイズなどの字幕の属性の変更を指令する操作入力を示す信号の入力を 受けたか否かを判断する。
[0222] ステップ S94において、字幕の属性の変更を指令する操作入力を示す信号の入力 を受けたと判断された場合、ステップ S95において、制御部 81は、アトリビュートデー タバッファ 123に保持されて 、る属性データを変更する。
[0223] ステップ S94において、字幕の属性の変更を指令する操作入力を示す信号の入力 を受けていないと判断された場合、または、ステップ S95の処理の終了後、ステップ S 96において、テキスト字幕処理部 92のフォントラスタライザ 124は、文字オブジェクト バッファ 122およびアトリビュートデータバッファ 123から文字オブジェクトおよび属性 データを取得する。
[0224] ステップ S97において、制御部 81は、再生制御部 37 (コントローラ 21)力もフォント タイプの変更を指令する操作入力を示す信号の入力を受けたカゝ否かを判断する。
[0225] ステップ S97において、フォントタイプの変更を指令する操作入力を示す信号の入 力を受けたと判断された場合、再生制御部 37の制御を受けたローカルストレージデ ィレクトリ管理部 34 (コントローラ 21)の処理により、操作入力に基づいて、異なるフォ ントデータがローカルストレージ 24から読み出されるので、ステップ S98において、テ キスト字幕処理部 92のフォントラスタライザ 124は、操作入力に基づいた異なるフォ ントデータを取得する。
[0226] ステップ S97において、フォントタイプの変更を指令する操作入力を示す信号の入 力を受けていないと判断された場合、または、ステップ S98の処理の終了後、ステツ プ S99において、フォントラスタライザ 124は、ステップ S96において取得された属性 およびブックマークバッファ 125を参照し、ラスタライズしようとしている字幕データは、 ブックマークされ、すでにブックマークバッファ 125にバッファリングされている字幕デ ータであるカゝ否かを判断する。
[0227] ステップ S99において、ブックマークされ、バッファリングされている字幕データであ ると判断された場合、ステップ S100において、フォントラスタライザ 124は、ブックマ ークバッファ 125から、保存されているブックマーク対象の字幕画像データ(ラスタデ ータ)を読み出して出力し、処理は、ステップ S 104に進む。
[0228] ステップ S99にお!/、て、すでにブックマークされて!/、る字幕データではな 、と判断さ れた場合、ステップ S101において、フォントラスタライザ 124は、取得された文字ォ ブジェクトおよび属性データを基に、ラスタライズを実行して字幕グラフィックスプレー ン処理部 93に出力する。字幕グラフィックスプレーン処理部 93は、供給されたラスタ データを基に、字幕グラフィックスプレーンを生成し、合成処理部 94に供給する。
[0229] ステップ S102において、フォントラスタライザ 124は、ステップ S101においてラスタ ライズした字幕データの属性データを基に、この属性データには、新たなブックマー クが記載されて 、る力否かを判断する。
[0230] ステップ S102において、ブックマークが記載されていると判断された場合、ステップ S 103において、フォントラスタライザ 124は、ラスタライズされた字幕画像データをブ ックマークバッファ 125に保存する。
[0231] ステップ S100の処理の終了後、ステップ S102において、ブックマークが記載され ていないと判断された場合、または、ステップ S103の処理の終了後、ステップ S104 において、合成処理部 94は、供給された字幕画像データを映像データと合成して出 力し、処理は、図 37のステップ S67〖こ進む。
[0232] このような処理により、ユーザの所望する言語の字幕データ力 ユーザの所望する 属性で、ユーザの所望するフォントで表示されるように、テキスト字幕ファイルおよび フォントファイルのデータの読み出しが制御されて、必要に応じてバッファリングされ ている属性データが変更され、ラスタライズされる。
[0233] ところで、本発明を適用した再生装置においては、上述した場合にカ卩えて、以下に 示すような方法で、光ディスクに記録されているコンテンツと、ローカルストレージに記 録されているコンテンツを関連付けて再生することができる。以下、光ディスクに記録 されているコンテンツと、ローカルストレージに記録されているコンテンツを関連付け て再生するための第 2の実施の形態について説明する。
[0234] 図 40は、本発明を適用した第 2の実施の形態における再生装置 181の構成例を示 すブロック図である。
[0235] なお、図 40の再生装置 181においては、図 1を用いて説明した再生装置 1におけ る場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。す なわち、図 40の再生装置 181は、コントローラ 21に代わって、コントローラ 191が設 けられ、デコーダ 26に代わって、デコーダ 192が設けられている以外は、基本的に、 図 1を用いて説明した再生装置 1と同様の構成を有するものである。また、再生装置 1 81は、図 42を用 、て後述するファイル構造を有する光ディスク 193に記録されたデ ータを読み込み、 AVストリーム、または、テキストデータをデコードして再生する。
[0236] コントローラ 191は、予め用意されている制御プログラムを実行して、再生装置 181 の全体の動作を制御したり、または、光ディスクドライブ 22を制御して光ディスク 193 に記録されて 、る、複数のコマンドで構成されて 、る MovieObject (ムービーオブジェ タト:詳細は後述する)を読み出し、メモリ 23に展開してコマンドを実行することで、光 デイス 11およびローカルストレージ 24に記憶されているデータの再生動作を制御す る。例えば、コントローラ 191は、光ディスク 193が装着されたとき、所定のメニュー画 面を外部の表示装置に表示させることができる。
[0237] デコーダ 192は、コントローラ 191の制御に基づいて、光ディスクドライブ 22、また は、ローカルストレージ 24力 供給される AVストリーム、または、テキストデータをデ コードし、得られたビデオ信号とオーディオ信号を外部の表示装置に出力する。表示 装置においては、デコーダ 192によりデコードされた信号に基づいて、例えば、光デ イスク 193に記録されて 、るコンテンツの出力(映像の表示、音声の出力)が行われる
[0238] 図 41は、図 40のコントローラ 191の機能構成例を示すブロック図である。
[0239] 図 41の各構成は、予め用意されている制御プログラムがコントローラ 191により実 行されることにより、または、光ディスク 193に記録されている MovieObjectを構成する コマンドがコントローラ 191により実行されることにより実現される。
[0240] なお、図 41に示される機能構成図においては、図 6を用いて説明した場合と対応 する部分には同一の符号を付してあり、その説明は適宜省略する。すなわち、図 41 に示されるコントローラ 191の機能構成は、ローカルストレージディレクトリ管理部 34 に代わって、ローカルストレージディレクトリ管理部 201が設けられ、光ディスクディレ クトリ管理部 35に代わって、光ディスクディレクトリ管理部 202が設けられ、ファイルシ ステムマージ処理部 36に代わって、ファイルシステムマージ処理部 203が設けられ、 再生制御部 37に代わって、再生制御部 204が設けられている以外は、図 6を用いて 説明したコントローラ 21の機能構成と基本的に同一である。
[0241] ローカルストレージディレクトリ管理部 201は、ローカルストレージ 24のディレクトリを 管理し、ローカルストレージ 24に対するデータの書き込み、および、ローカルストレー ジ 24からのデータの読み出しを制御する。例えば、ローカルストレージディレクトリ管 理部 201の制御によりローカルストレージ 24から読み出された PlayListは、メモリ 23に 出力され、ローカルストレージ 24から読み出された AVストリームの音声データおよび 映像データやテキスト字幕ファイルのテキストデータは、デコーダ 192に出力される。 また、ローカルストレージディレクトリ管理部 201は、後述するように、光ディスク 193 のファイルシステムと、ローカルストレージ 24のファイルシステムとのマージがファイル システムマージ処理部 203により行われて、後述する第 2の仮想ファイルシステムが 生成される場合、ローカルストレージ 24のファイルシステムに関する情報をファイルシ ステムマージ処理部 203に出力する。
[0242] また、ローカルストレージディレクトリ管理部 201は、データ取得部 33により、ユーザ が指示したアップデートファイルがサーバ 3からダウンロードされて取得され、取得さ れたアップデートファイル力 既に存在する PlayListに対応するアップデートファイル である場合、取得されたアップデートファイルを参照して、既にローカルストレージ 24 に記録されて 、るデータの更新手続きを実行する。
[0243] 光ディスクディレクトリ管理部 202は、光ディスク 193のディレクトリを管理し、光ディ スク 193からの各データの読み出しを制御する。光ディスク 193には、ユーザなどに より書き換えることができな ヽセキュアな識別情報である author jd (または、第 1の実 施の形態における Studiojd)と、 discjd (または、第 1の実施の形態における
Contentjd)とが電子的なデータとして、または、物理的にピットによって記載されてお り、光ディスクディレクトリ管理部 202の制御により、光ディスク 193から読み出された authorjdと discjdとは、ローカルストレージディレクトリ管理部 201に出力される。また 、光ディスクディレクトリ管理部 202の制御により、光ディスク 193から読み出された PlayListは、メモリ 23に出力され、光ディスク 193から読み出された AVストリームの音 声データおよび映像データやテキスト字幕ファイルのテキストデータは、デコーダ 19 2に出力される。また、光ディスクディレクトリ管理部 202は、後述するように、光デイス ク 193のファイルシステムと、ローカルストレージ 24のファイルシステムとのマージがフ アイルシステムマージ処理部 203により行われて、後述する第 2の仮想ファイルシステ ムが生成される場合、光ディスク 193のファイルシステムに関する情報をファイルシス テムマージ処理部 203に出力する。
[0244] ファイルシステムマージ処理部 203は、光ディスクディレクトリ管理部 202から供給さ れる光ディスク 193のファイルシステムと、ローカルストレージディレクトリ管理部 201 力も供給されるローカルストレージ 24のファイルシステムをマージし、 1つの仮想的な ファイルシステムを生成する。ファイルシステムマージ処理部 203は、 2つのファイル システムをマージすることで生成した仮想的なファイルシステムを再生制御部 204に 出力する。以下、第 2の実施の形態において、ファイルシステムマージ処理部 203に より生成される仮想的なファイルシステムを、第 2の仮想ファイルシステムと称する。
[0245] 再生制御部 204は、ファイルシステムマージ処理部 203から供給される第 2の仮想 ファイルシステムで指定される MovieObjectに含まれるコマンドを実行することにより、 コンテンツの再生を制御する。具体的には、再生制御部 204はメモリ 23に供給され、 記憶された PlayListを参照し、ローカルストレージディレクトリ管理部 201または光ディ スタディレクトリ管理部 202を制御して、光ディスク 193またはローカルストレージ 24に 記録されている AVストリームの音声データ、映像データ、および、必要に応じてテキ スト字幕ファイルのテキストデータを読み出させ、図 40のデコーダ 192を制御して、光 ディスク 193またはローカルストレージ 24に記録されている AVストリームの音声デー タ、映像データ、および、必要に応じてテキスト字幕ファイルのテキストデータのデコ ード (再生)を行わせる。
[0246] なお、第 2の実施の形態においても、本発明を適用した再生装置 181に装着される 光ディスク 193のアプリケーションフォーマットの例は、 PlayListLayerおよび ClipLayer においては、図 2および図 3を用いて説明した光ディスク 11における場合と、基本的 に同様であるので、その説明は省略する。
[0247] 第 2の実施の形態においても、本発明を適用した再生装置 181は、光ディスク 193 に記録されているコンテンツと、ローカルストレージ 24に記録されているコンテンツを 関連付けて再生することができるという、上述した第 1の実施の形態における場合と 同様の作用効果を奏する。したがって、例えば、光ディスク 193に記録されている、 PlayListの Playltemが参照する Cliplの AVストリームは、映画コンテンツの映像を表示 させ、対応する音声を再生させるためのストリームであり、 PlayListの SubPlayltemが参 照する Clip2の字幕関連情報 1は、映像の表示に併せて英語の字幕を表示させるた めのテキスト字幕ファイルであるとき、ユーザは、再生装置 181に、光ディスク 193に 記録されている映画に対応する所望の言語のテキスト字幕ファイルをサーバ 3からネ ットワーク 2経由でダウンロード(または、リムーバブルメディア 28を用いて取得)させ、 光ディスク 193に記録されて!、るコンテンツと、ローカルストレージ 24に記録されて!ヽ るコンテンツを関連付けて再生することができる。
[0248] すなわち、ユーザが、光ディスク 193に予め記録されている PlayListに対応する、ァ ラビア語によるテキスト字幕ファイルのダウンロードを指示した場合、再生装置 181に おいては、ネットワーク 2を介して、サーバ 3に対するアクセスが行われ、光ディスク 19 3に記録されているコンテンツをアップデートするものとして、そのサーバ 3に用意され ているファイルのダウンロードが行われる。そして、再生装置 181は、光ディスク 193 に記録されているコンテンツと、ローカルストレージ 24に記録されているコンテンツを 関連付けるとともに、 ClipAVストリームと、テキスト字幕ストリームとを、同期させて再生 することができる。
[0249] 図 42は、光ディスク 193のファイルシステムの例を示す図である。図 42に示される ように、光ディスク 193のファイルシステムはディレクトリ構造を有している。
[0250] 光ディスク 193の「root」の下には「BDMV」の名前が設定されたディレクトリが用意さ れ、そのディレクトリに、「Index.bdmv」の名前が設定されたファイルと、「M
ovieObject.bdmv」の名前が設定されたファイルが格納されている。以下、適宜、これ らのファイルをそれぞれ Indexファイル、 MovieObjectファイルと称する。また、適宜、各 ファイルについては、「ファイル名」に「ファイル」を付加した形で、または、各ディレクト リにつ 、ては、「ディレクトリ名」に「ディレクトリ」を付加した形で称する。
[0251] Indexファイルは、光ディスク 193を再生するメニューに関する情報を含む。再生装 置 181は、例えば、光ディスク 193のコンテンツを全て再生する、特定のチヤプタの み再生する、繰り返し再生する、初期メニューを表示するなどの内容の項目を含む再 生メニュー画面を Indexファイルに基づいて、表示装置に表示させる。 Indexファイル には各項目が選択されたときに実行する MovieObjectを設定することができ、ユーザ により再生メニュー画面から 1つの項目が選択された場合、再生装置 181は Indexファ ィルに設定されている MovieObjectのコマンドを実行する。
[0252] MovieObjectファイルは、 MovieObjectを含むファイルである。 MovieObjectは、光デ イスク 193に記録されている PlayListの再生を制御するコマンドを含み、例えば、再生 装置 181は、光ディスク 193に記録されて!、る MovieObjectの中から 1つを選択して、 実行することにより、光ディスク 193に記録されて 、るコンテンツを再生させることがで きる。
[0253] BDMVディレクトリにはまた、「BACKUP」の名前が設定されたディレクトリ (BACKUP ディレクトリ)、「PLAYLIST」の名前が設定されたディレクトリ(PLAYLISTディレクトリ)、 rCLIPINFjの名前が設定されたディレクトリ(CLIPINFディレクトリ)、「STREAM」の名 前が設定されたディレクトリ(STREAMディレクトリ)、「AUXDATA」の名前が設定され たディレクトリ(AUXDATAディレクトリ)が設けられている。
[0254] BACKUPディレクトリには、光ディスク 193に記録されているファイルやデータをバッ クアップするためのファイルやデータが記録される。
[0255] PLAYLISTディレクトリには、 PlayListファイルが格納される。各 PlayListファイルには 、図内に示されるように 5桁の数字力もなるファイル名に拡張子「.mpls」を付加した名 称が命名される。
[0256] CLIPINFディレクトリには、 Clip Informationファイルが格納される。各 Clip
Informationファイルには、図内に示されるように 5桁の数字からなるファイル名に拡張 子「.clpi」を付加した名称が命名される。
[0257] STREAMディレクトリには、 Clip AVストリームファイルやサブストリームファイルが格 納される。各ストリームファイルには、図内に示されるように 5桁の数字力もなるフアイ ル名に拡張子「- m2ts」を付加した名称が命名される。
[0258] AUXDATAディレクトリには、 Clip AVストリームファイルやサブストリームファイルに 含まれずに、 Clip AVストリームファイルやサブストリームファイル力 参照されるデー タゃ、 Clip AVストリームファイルやサブストリームファイルとは独立して利用されるデ ータなどのファイルが格納される。図 42の例においては、 AUXDATAディレクトリには 、「lllll.otf」の名前がつけられている字幕のフォントのファイル、「sound.bdmv」の名 前が設定された効果音のファイルが格納されて 、る。
[0259] また、光ディスク 193には、製作会社や映画の配給会社などの光ディスク 193のコ ンテンッ製作元であるタイトルオーサを識別するために各タイトルオーサに割り当てら れた識別子である author jd (または、第 1の実施の形態における Studiojd)、および、 authorjdに示されるタイトルオーサにおいて製作された光ディスク 193の種類を識別 するために割り当てられた識別子である dis id (または、第 1の実施の形態における Contentjd)力 ユーザなどにより書き換えることができないセキュアな電子データとし て、または、物理的にピットによって記録されている。
[0260] また、本発明の第 2の実施の形態においては、字幕データを格納したテキスト字幕 ファイルおよびレンダリングに必要となるフォントファイルを指定した、 SubPathおよび SubPlayltemを定義して!/、る PlayListファイルと Clip Informationファイルとが、新たにダ ゥンロードされることで、 Clip AVストリームとテキスト字幕との同期が実現されるように なされている。ダウンロードされる一組のアーカイブファイルには、図 43に示されるよ うに、 PlayListファイル、 Clip Informationファイル、テキスト字幕ストリームファイル、お よび、フォントファイル力 必須で含まれる。
[0261] 次に、本発明の第 2の実施の形態において追加して配布される対象となるデータの アーカイブを図 44に示す
[0262] 図 44に示されるように、ユーザに新たに配布されるアーカイブファイルは、再生装 置 181におけるファイル追加または更新手続きのために、メタデータが付加された構 造となっている。
[0263] compressionj peの 8ビットのフィールドは、 FileArchive ()内データの圧縮方式を指 定する。 compression_typeの 8ビットに 0が指定された場合、 FileArchive ()内のデータ は、非圧縮形式であるものとする。 encryption_typeの 8ビットのフィールドは、
FileArchive ()内データのスクランブル方式(暗号化方式)を指定する。
encryption_typeの 8ビットのフィールドに 0が指定された場合、 FileArchive ()内のデー タは、ノンスクランブル形式(平文形式)であるものとする。なお、 FileArchive ()内デー タのスクランブルと圧縮の順序は、圧縮処理が先に行われて、その後、スクランブル 処理が行われるものとする。
[0264] PlayList— file— nameの 8 X 5ビットのフィールドは、後に続く PlayListファイルのファイル 名称を指定する。ファイル名称の符号化方式は、 ISO/IEC646規格に従う。
PlayList_file_sizeの 32ビットのフィールドは、次に続く PlayListファイルのバイト単位で のサイズを指定する。 PlayList_file_sizeのフィールドには、 0を指定してはならない。
[0265] PlayList_fileは、 PlayListファイルをバイトシーケンスとして格納する。
[0266] number_of_Filesの 16ビットのフィールドは、ファイル総数を指定する。
number_of_Filesフィールドには 0を指定してはならな 、。また、 number_of_Filesフィー ルドで指定したファイル総数は、直前の PlayList_file中の SubPlayltem内で定義されて V、る SubClip_entryの総数と一致しなければならな!/、。
[0267] そして、メタァ ~~タには、 author— id、 disc— id、 title— id、 version^ operation— type、 display — name、および、 permission^、含まれて ヽる。
[0268] authorjdは、タイトルオーサを特定するための識別子を指定する 8ビットのフィール ドである。 titlejdは、タイトルを特定するための識別子を指定する 8ビットのフィールド である。 dis idは、ディスクを特定するための識別子を指定する 8ビットのフィールドで ある。 versionは、アーカイブ内ファイルの履歴管理のためのバージョン情報を指定す る 8ビットのフィールドである。
[0269] operation_typeは、アーカイブ内ファイルの更新方法を指定する 8ビットのフィールド である。 operation_typeに指定可能な値と、ファイルの更新方法の具体例については 、後述する。
[0270] display_nameは、このファイルに対応して GUIにおいて表示される名前を指定する 8
X I 28ビットのフィールドである。図 1を用いて説明したコントローラ 191は、所定のメ ニュー画面を外部の表示装置に表示させることができる。例えば、ユーザに、フアイ ルを選択させる操作を行わせるために所定のメニュー画面を外部の表示装置に表示 させる場合、メニュー画面に表示されるのがアーカイブ内で定義されて 、るファイル 名称では、ユーザはファイルの内容を特定することができないため、所望のファイル を選択するのが困難となる。そのため、 display_nameフィールドには、メニュー画面に 表示させるための、ユーザがファイルの内容を特定し易い名前を示す情報が記載さ れる。 display_nameフィールドに格納されるデータの符号化方式は、 ISO/IEC 10646-1規格に従うものとする。
[0271] permissionは、このメタデータを付随しているファイルの属性を示すものであり、具体 的には、対応するファイルをユーザに対して可視属性にしてよいか、不可視属性にし ておくかなどの許認可情報を指定する 8ビットのフィールドである。 permissionに指定 可能な値については、後述する。
[0272] そして、 clipjnformation_file_nameは、後に続く Clip Informationファイルのファイル名 称を指定する 8 X 5ビットのフィールドである。 clip_information_file_nameに記載される ファイル名称の符号化方式は、 ISO/IEC646規格に従う。
[0273] clip_information_file_sizeは、次に続く Clip Informationファイルのバイト単位でのサイ ズを指定する 32ビットのフィールドである。 clip_information_file_sizeフィールドには 0を 指定してはならない。
[0274] clip_information_fileは、 Clip Informationファイルをバイトシーケンスとして格納する。
[0275] text_subtitle_file_nameは、後に続くテキスト字幕ストリームファイルのファイル名称を 指定する 8 X 5ビットのフィールドである。 text_subtitle_file_nameに記載されるファイル 名称の符号ィ匕方式は、 ISO/IEC646規格に従う。
[0276] text_subtitle_file_sizeは、次に続くテキスト字幕ストリームファイルのバイト単位でのサ ィズを指定する 32ビットのフィールドである。 text_subtitle_file_sizeフィールドには 0を 指定してはならない。
[0277] text_subtitle_fileは、テキスト字幕ストリームファイルをバイトシーケンスとして格納す る。テキスト字幕ストリームが格納される subtitle_fileの構文については、図 54を用いて 後述する。また、テキスト字幕ストリームが格納されるコンテナファイルの構造につい ては、図 58を用いて後述する。
[0278] font_file_nameは、後に続くフォントファイルのファイル名称を指定する 8 X 5ビットの フィールドである。 font_file_nameに記載されるファイル名称の符号化方式は、 ISO/IEC646規格に従う。
[0279] font_file_sizeは、次に続くフォントファイルのバイト単位でのサイズを指定する 32ビッ トのフィールドである。 font_file_sizeフィールドには 0を指定してはならな!、。
[0280] font_fileは、フォントファイルをバイトシーケンスとして格納する。
[0281] 追加されて配布されるアップデートファイルのデータに含まれる PlayListは、
MainPathおよび SubPathを含む。図 45は、 SubPathのデータ構造を示す図である。ま ず、図 45の左側に示される SubPathの最上位層のデータ構造について説明する。
[0282] SubPath_typeは、 SubPathのアプリケーション種類を示す。 SubPath_typeは、例えば、 Sub Pathがオーディオである力、ビットマップ字幕である力、テキスト字幕であるかなど の種類を示す場合に利用される。 is_repeat_SubPathは、 SubPathの再生方法を示し、 MainPathの再生の間に Sub Pathの再生を繰り返し行う力、または SubPathの再生を 1 回だけ行うかを示すものである。 number_of_SubPlayItemsは、 SubPathに含まれる SubPlayltemの数(エントリー数)を示す。その後、 number_of_SubPlayItemsに含まれる 数の SubPlayltemが含まれる。
[0283] 次に、図 45の中央に示される SubPlayltemのデータ構造について説明する。
[0284] Clip_Information_file_nameは、 SubPlayltemが参照するサブ Clipに含まれる Clip
Informationファイルのファイル名を示す。 Clip_codec_identifierは、 SubPlayltemが参照 するサブ Clipのコーデック方式を示す。 is_multi_Clip_entriesは、この SubPlayltemが複 数のサブ Clipを参照するか否かを示すフラグである。 ref_to_STC_idは、 STC (System Time Clock)不連続点(システムタイムベースの不連続点)に関する情報を示す。
[0285] SubPlayItem_IN_timeと SubPlayItem_OUT_timeは、 SubPlayltemが参照するサブ Clip に含まれるサブストリームの再生区間を示す。 sync_PlayItem_idと
sync_start_PTS_of_PlayItemは、 Main Pathの時間軸上で SubPlayltemが再生を開始す る時刻を指定するために用いられる。具体的には、 sync_PlayItem_idの値と同じ値の Playltemjdを持つ Playltemの時間軸上において、 sync_start_PTS_of_PlayItemで指定 される時刻に、この SubPlayltemの再生が開始される。
[0286] number_of_Clip_entriesは、 SubPlayltemが参照するサブ Clipの数を示している。その 後、 number_of_Clip_entriesにより示される数だけの SubClip_entryが含まれる。
[0287] 次に、図 45の右側に示される SubClip_entryのデータ構造について説明する。
[0288] Clip_Information_file_nameは、 SubPlayltemが参照するサブ Clipに含まれる Clip
Informationファイルのファイル名を示す。 Clip_codec_identifierは、 SubPlayltemが参照 するサブ Clipのコーデック方式を示す。 reむ o_STCjdは、 STC不連続点(システムタイ ムベースの不連続点)に関する情報を示す。
[0289] 次に、図 46に、図 44のメタデータに含まれる operation_typeに指定可能な値の一覧 を示す。
[0290] 図 46に示されるように、 operation_typeの 8ビットのフィールドに、 0x01が記載されて いたとき、アーカイブ内ファイルの更新方法は、 PlayListの交換である。すなわち、 operation_typeの 8ビットのフィールドに、 0x01が記載されて!、るアップデートファイル がダウンロードされた場合、このアップデートファイルを用いてマージされて作成され る第 2の仮想ファイルシステムにおいては、ダウンロードされてローカルストレージ 24 に記録されている PlayListがそのままの状態で参照され、光ディスク 193の PlayListは 全く参照されない。
[0291] また、 operation_typeの 8ビットのフィールドに、 0x02が記載されて!、たとき、ダウン口 ードされたファイルから、 SubPath要素が抽出され、光ディスク 193に記録されている SubPath要素に、抽出された SubPath要素が加えられるようにファイルシステムがマー ジされて更新される (第 2の仮想的なファイルシステムが生成される)。
[0292] 例えば、 operation_typeの 8ビットのフィールドに、 0x02が記載され、図 47に示される ように、光ディスク 193には SubPath#lを含む PlayList#lファイル、 ClipAVストリーム #1 ファイル、および、例えば、副音声に対応する Audioストリーム #1ファイルが記録され、 サーバ 3からダウンロードしたコンテンツパッケージには、 SubPath#2を有する
PlayList#lファイル、および、テキスト字幕ストリーム #1ファイルが含まれていたとき、コ ンテンッパッケージ内の PlayList#lファイルの SubPath#2が抽出されて、抽出された SubPath#2力 光ディスク 193から読み出された更新元の PlayList#lファイルに追加 された状態にファイルシステムが更新される。
[0293] すなわち、図 48に示されるように、 Playltemから構成される MainPath、および、
SubPlayltemから構成される SubPathを有するアップデート前の、すなわち、光ディスク 193の PlayListにおいては、 Playltemが参照する ClipAVストリーム #1、および、 SubPlayltemが参照し、 Clip AVストリーム 1と同期して再生される副音声のデータであ る Audioストリーム #1が再生されるようになされて!、る。この光ディスク 193に記録され ているコンテンツに対して、アップデート後(すなわち、ファイルシステムがマージされ て更新された後)の PlayListにおいては、 ClipAVストリーム #1に同期して再生され、か つ、独立して再生区間が設定可能な 2つ目の SubPlayltemが Sub Pathに追加されるの で、 Playltemが参照する ClipAVストリーム #1、および、 1つ目の SubPlayltemが参照し 、 ClipAVストリーム #1と同期して再生される副音声のデータである Audioストリーム #1 が再生されるのみならず、 Audioストリーム #1とは独立して再生区間が設定可能なテ キスト字幕ストリーム #1が再生可能なようになされて!、る。
[0294] また、 operation_typeの 8ビットのフィールドに、 0x03が記載されて!、たとき、ダウン口 ードされたファイルから、 SubPlayltem要素が抽出され、光ディスク 193に記録されて いる SubPlayltem要素に、抽出された SubPlayltem要素が加えられるようにファイルシス テムがマージされて更新される(第 2の仮想的なファイルシステムが生成される)。
[0295] 例えば、 operation_typeの 8ビットのフィールドに、 0x03が記載され、図 49に示される ように、光ディスク 193には SubPlayItem#l力 構成される SubPath#lを含む PlayList# 1ファイル、 ClipAVストリーム #1ファイル、および、例えば、副音声に対応する Audioス トリーム #1ファイルが記録され、サーバ 3からダウンロードしたコンテンツパッケージに は、 SubPlayItem#2から構成される SubPath#lを有する PlayList#lファイル、および、 テキスト字幕ストリーム #2ファイルが含まれていたとき、コンテンツパッケージ内の PlayList#lファイルの SubPath#lを構成する SubPlayItem#2が抽出されて、抽出された SubPlayItem#2が、光ディスク 193から読み出された更新元の PlayList#lファイルの SubPath#lに追加された状態に、ファイルシステムが更新される。
[0296] すなわち、図 50に示されるように、 Playltemから構成される MainPath、および、
SubPlayItem#l (図中 SPI1と記載)から構成される Sub Pathを有するアップデート前の PlayListにおいては、 Playltemが参照する ClipAVストリーム #1、および、 SubPlayItem# 1が参照し、 ClipAVストリーム #1と同期して所定の第 1の区間に再生される副音声の データである Audioストリーム #1が再生されるようになされている。この光ディスク 193 に記録されているコンテンツに対して、アップデート後(すなわち、ファイルシステムが マージされて更新された後)の PlayListにおいては、 Playltemが参照する ClipAVストリ ーム #1、および、 SubPlayItem#lが参照し、 ClipAVストリーム 1と同期して所定の第 1 の区間に再生される再生される副音声のデータである Audioストリーム #1が再生され るのみならず、 SubPlayItem#lと同一の SubPathに含まれる SubPlayItem#2 (図中 SPI2 と記載)が追加されるので、 ClipAVストリーム #1と同期して、所定の第 2の区間にテキ スト字幕ストリーム #1が再生可能なようになされて 、る。
[0297] そして、 operation_typeの 8ビットのフィールドに、 0x04が記載されて!、たとき、ダウン ロードされたファイルから、 SubClip_entry要素が抽出され、光ディスク 193に記録され ている SubClip_entry要素に、抽出された SubClip_entry要素が加えられるようにフアイ ルシステムがマージされて更新される(第 2の仮想的なファイルシステムが生成される
) o
[0298] 例えば、 operation_typeの 8ビットのフィールドに、 0x04が記載され、図 51に示される ように、光ディスク 193には Clip#lが対応付けられている SubPlayItem#l力 構成され る SubPath#lを含む PlayList#lファイル、 ClipAVストリーム #1ファイル、および、例え ば、第 1の言語の字幕に対応するテキスト字幕ストリーム #1ファイルが記録され、サー ノ 3力もダウンロードしたコンテンツパッケージには、 Clip#2が対応付けられている SubPlayItem#l力 構成される SubPath#lを有する PlayList#lファイル、および、第 2 の言語の字幕に対応するテキスト字幕ストリーム #2ファイルが含まれて 、たとき、コン テンッパッケージ内の PlayList# 1ファイルの SubPath# 1を構成する SubPlayItem# 1の Clip#2が抽出されて、抽出された Clip#2力 光ディスク 193から読み出された更新元 の PlayList# 1フアイルの SubPath# 1を構成する SubPlayItem# 1に追加された状態にフ アイルシステムが更新される。
[0299] すなわち、図 52に示されるように、 Playltemから構成される MainPath、および、
SubPlayltemから構成される SubPathを有するアップデート前の PlayListにおいては、 Playltemが参照する ClipAVストリーム #1、および、 SubPlayItem#lが参照し、 ClipAVス トリーム #1と同期して、第 1の言語の字幕に対応するテキスト字幕ストリーム #1が再生 されるようになされて!、る。この光ディスク 193に記録されて!、るコンテンツに対して、 アップデート後(すなわち、ファイルシステムがマージされて更新された後)の PlayList においては、 Playltemが参照する ClipAVストリーム #1、および、 SubPlayltemが参照し 、 ClipAVストリーム #1と同期して再生される第 1の言語の字幕に対応するテキスト字 幕ストリーム #1が再生されるのみならず、 SubPathを構成する SubPlayltemに、更に、 Clip#2が追加されるので、 ClipAVストリーム #1と同期して、 SubPlayltemが参照する、 第 2の言語に対応するテキスト字幕ストリーム #2が、更に再生可能なようになされて!ヽ る。
[0300] 図 53に、図 44のメタデータに含まれる permissionに指定可能な値の一覧を示す。
[0301] 図 53に示されるように、 permissionの 8ビットのフィールドに、 0x00が記載されている 場合、このメタデータを付随しているファイルの属性は、ユーザに対して不可視属性 であり、 permissionの 8ビットのフィールドに、 0x01が記載されている場合、このメタデ ータを付随しているファイルの属性は、ユーザに対して可視属性であり、 permissionの 8ビットのフィールドに、 0x03が記載されている場合、このメタデータを付随しているフ アイルの属性は、上書き禁止属性である。
[0302] また、図 44を用いて説明したように、 subtitle_fileのフィールドには、テキスト字幕スト リームファイルがバイトシーケンスとして格納されている。テキスト字幕ファイルは、図 5 4に示される構文に従うものとする。 [0303] 基本的に、第 2の実施の形態におけるテキスト字幕ファイルの構文は、図 12を用い て説明した第 2の実施の形態における場合と、基本的に同一である部分が多いが、 図 54に示される、第 2の実施の形態におけるテキスト字幕ファイルの構文は、図 12を 用いて説明した場合と比較して、メタデータに含まれる version (バージョン)情報が省 略され、 start_PTSおよび end_PTSの前力 データ境界を調整するための 8ビットのパ ディンダビット(reserved)で区切られ、字幕データを指定する情報である subtitle_data 力 バイトシーケンスで格納されるようになされている。
[0304] すなわち、 markupj peは、マークアップの形式を指定する 8ビットの情報である。
subtitle_countは、字幕データの総数を指定する 32ビットの情報である。 (
subtitle_countは、改行コードの総数ではない。) reservedは、データ境界を調整する ための 8ビットのパディングビットである。 start_PTSは、字幕データの表示開始時刻を 、 PlayListの開始時刻を 0とした時間軸での PTS (Presentation Time Stamp)で指定 する 33ビットの情報である。 end_PTSは、字幕データの表示終了時刻を、 PlayListの 開始時刻を 0とした時間軸での PTSで指定する 33ビットの情報である。 PTSには、 90kHzで計測された値を使用する。 start_PTSおよび end_PTSにおいては、 PTS〖こは、 90kHzで計測された値が使用される。
[0305] subtitle_data_lengthは、 subtitle_dataのバイト数を指定する(字幕の文字数ではな!/、) 32ビットの情報である。 subtitle_dataは、字幕データを指定する情報であり、バイトシ 一ケンスとして格納されて!、る。
[0306] また、第 2の実施の形態においても、字幕データは、字幕を構成する文字そのもの を示す「文字オブジェクト」と「属性データ (アトリビュート)」から構成され、字幕データ の属性データには、制御文字による属性設定と、マークアップによるインライン属性 設定の 2つの属性設定方法がある。
[0307] 制御文字による属性設定は、図 13および図 14を用いて説明した場合と同様である また、マークアップによるインライン属性設定においても、マークアップの形式は、 TLV (Type-Length-Value)エンコード形式でマークアップする場合と、タグ付き言語 の要素および属性によりマークアップする場合との 2通りがあり、図 15を用いて説明し た場合と同様に、マークアップ形式識別子が 0x00であるとき、マークアップの形式は 、 TLVエンコード形式であると定義され、マークアップ形式識別子が 0x01であるとき、 マークアップの形式は、タグ付き言語であると定義される。
[0308] まず、 TLVエンコード方式による属性指定が行われる場合について説明する。 TLV エンコード方式による属性指定の場合、字幕データの文字符号化方式は、図 11を用 V、て説明した、 SubPlayltem中の character_code_idの指定に従うものとする。
[0309] 図 55を用いて、 TLVエンコード方式による属性指定の場合の、 subtitle_data ()のデ ータ構造につ!、て説明する。
[0310] escape_codeの 8ビットのフィールドは、図 17を用いて説明したように、後に属性が記 述されて!/、ることを示すエスケープコード OxlBを指定する。 data_typeの 8ビットのフィ 一ルドは、属性種別を指定する。 data_value_lengthの 16ビットのフィールドは、後に続 く属性データのバイト数を指定する。 data_valueは、属性データ、または、文字ォブジ ェタトのバイトシーケンスを指定する。
[0311] 図 56に、 data_typeとして指定可能な属性を示す。
[0312] subtitle_data ()の data_typeの 8ビットのフィールドに 0x01が記載されていたとき、記 載されている属性の種別は、字幕データとして使用される文字列を指定する字幕文 字列の設定である。字幕データは、 SubPlayltem ()中の character_code_idフィールドで 指定された符号化方式で符号化されて ヽなければならな!/ヽ。
[0313] subtitle_data ()の data_typeの 8ビットのフィールドに 0x02が記載されていたとき、記 載されて!ヽる属性の種別は、インデックスデータと代表色データとの変換テーブルで ある CLUT (Color Look Up Table)の設定である。 CLUTは、図 63を用いて後述する 字幕グラフィックスプレーン処理部 93に記憶される変換テーブルである。
subtitle.data ()の dataj peに記載されて!、る属性種別が CLUT設定であるときの、 data_valueのデータ構造は、図 19を用いて説明した場合と同様である。 subtitle.data ( )の data_typeの 8ビットのフィールドに 0x03が記載されて!、たとき、記載されて!、る属 性の種別は、リージョン原点の指定である。 subtitle_data ()の data_typeにおいて、記 載されている属性種別がリージョン原点指定であるときの data_valueのデータ構造は、 図 20を用いて説明した場合と同様である。 subtitle_data ()の data_typeの 8ビットのフィ 一ルドに 0x04が記載されていたとき、記載されている属性の種別は、行間 (Line Space)の指定である。
[0314] subtitle.data ()の data_typeの 8ビットのフィールドに 0x05が記載されて!、たとき、記 載されている属性の種別は、レンダリング方向の指定である。 subtitle_data ()の dataj peにお 、て、記載されて!、る属性種別がレンダリング方向指定であるとき、 data.valueに記載されるコードは、図 21を用 、て説明した場合と同様である。
subtitle.data ()の dataj peの 8ビットのフィールドに 0x06が記載されて!、たとき、記載 されている属性の種別は、フォント色の指定である。デフォルトは、「0」であるものとし てもよい。
subtitle.data ()の dataj peの 8ビットのフィールドに 0x07が記載されて!、たとき、記載 されている属性の種別は、背景色の指定である。指定された背景色で塗りつぶされる 領域は、リージョン単位である。デフォルトは、無指定 (透過)であるものとしてもよい。
[0315] subtitle_data ()の data_typeの 8ビットのフィールドに 0x08が記載されていたとき、記 載されている属性の種別は、フォントスタイルの指定である。 subtitle_data ()の dataj peにお 、て、記載されて!ヽる属性種別がフォントスタイルの指定であるとき、 data_valueには、図 22を用いて説明したコードのうちのいずれかが記載されて、フォ ントのスタイルが指定される。なお、フォントのスタイルのデフォルトは、「標準」とする ようにしてもょ 、。 subtitle.data ()の data_typeの 8ビットのフィールドに 0x09が記載され ていたとき、記載されている属性の種別は、フォントサイズの指定である。 sub title.data ()の data_typeにお!/、て、記載されて!、る属性種別がフォントサイズの指定で あるとき、 data_valueには、フォントサイズを示す 8以上 72以下の値が指定される。な お、フォントサイズを指定する値のデフォルトは、「32」とするようにしてもよい。
subtitle.data ()の dataj peの 8ビットのフィールドに OxOAが記載されて!、たとき、記載 されている属性の種別は、フォント回転角の指定である。 subtitle_data ()の data_type において、記載されている属性種別がフォント回転角の指定であるとき、 data_valueに は、フォント回転角に対応する 0以上 360以下の値が指定される。なお、回転方向は 、例えば、反時計回りが正方向され、デフォルトは、「0」とするようにしてもよい。
[0316] subtitle.data ()の data_typeの 8ビットのフィールドに OxOBが記載されて!、たとき、記 載されている属性の種別は、ブックマークの開始位置である。ブックマークとは、複数 回同じ文字が同じ形式で表示される場合にレンダリング処理を省略することができる ように、テキスト字幕ファイルの供給元が予め付与する情報である。 subtitle_data ()の datajypeにお ヽて、記載されて!ヽる属性種別がブックマーク開始位置指定であるとき の data_valueのデータ構造は、図 23を用いて説明した場合と同様である。
subtitle.data ()の dataj peの 8ビットのフィールドに OxOCが記載されて!、たとき、記載 されている属性の種別は、ブックマークの終了位置である。 subtitle_data ()の dataj peにお 、て、記載されて!、る属性種別がブックマーク終了位置指定であるとき の data_valueのデータ構造は、図 24を用いて説明した場合と同様である。
subtitle.data ()の dataj peの 8ビットのフィールドに OxODが記載されて!、たとき、記載 されて 、る属性の種別は、ブックマークの付与された文字オブジェクトシーケンスの 繰り返しの指定である。 subtitle_data ()の data_typeにおいて、記載されている属性種 別が文字オブジェクトシーケンス繰り返し指定であるときの data_valueのデータ構造は 、図 25を用いて説明した場合と同様である。
[0317] 次に、タグ付き言語による属性指定の場合について説明する。タグ付き言語による 属性指定の場合、字幕データの文字符号ィ匕方式は、 SubPlayltem中の
character_codejdの指定を無視して、 ISO/IEC646エンコードであるものとする。タグ付 き言語による属性指定の場合の、 subtitle_data ()のデータ構造は、図 26を用いて説 明した場合と同様であり、 TaggedAttrは、図 27を用いて説明したように、所定の形式 に従う。 char_dataは、文字オブジェクトのバイトシーケンスを指定する。ただし、バイト シーケンスは、 BASE64エンコーディング方式により ISO/IEC646エンコードするものと する。その際、「く」および「〉」は、「0xlB」によりエスケープする。
[0318] 次に、図 57を参照して、タグ付き言語による属性指定の要素および属性種別につ いて説明する。
[0319] CLUT設定は、く CLUT size= y= cb= cr= t=〉と記載され、属性「size」に CLUTのサイ ズが指定され、属性「y」、「cb」、「cr」および「t」には、図 63を用いて後述する字幕ダラ フィックスプレーン処理部 93における CLUTのインデックス列が指定される。
[0320] リージョン原点指定は、く region x= y=〉と記載され、属性「x」および「y」に、リージョ ンの原点座標 (X, y)が指定される。
[0321] 行間 (Line Space)指定は、 <linespace d=〉と記載され、属性「d」に、行間がピクセル 単位で指定される。なお、行間のデフォルトは、「フォントの高さ」とするようにしてもよ い。
[0322] レンダリング方向指定は、く textflow d=〉と記載され、属性「d」に、文字オブジェクトを 描画するときの方向が指定される。なお、レンダリング方向のデフォルトは、「左から右 へ」とするようにしてもよい。
[0323] フォント色指定の開始は、く fontcolor c=〉と記載され、属性「c」に、図 63を用いて後 述する字幕グラフィックスプレーン処理部 93における CLUTに対するインデックスが 指定される。なお、フォント色に対応するインデックスのデフォルトは、「0」とするように してもよい。そして、フォント色指定の終了は、〈/fontcolor〉と記載される。
[0324] 背景色指定は、く backgroundcolor c=〉と記載され、属性「c」に、図 63を用いて後述 する字幕グラフィックスプレーン処理部 93における CLUTに対するインデックスが指 定される。ただし、背景色で塗りつぶされる領域は、リージョン単位であり、背景色の デフォルトは、無指定 (透過)とするようにしてもよ!、。
[0325] フォントスタイル指定は、く fontstyle s=〉と記載され、属性「s」に、太字、斜体、標準な どのフォントのスタイルが指定される。なお、フォントのスタイルのデフォルトは、「標準 」とするようにしてもよい。そして、フォントスタイル指定の終了は、く/ fontstyle〉と記載 される。
[0326] フォントサイズ指定は、く fontsize s=〉と記載され、属性「s」に、フォントサイズに対応 する 8以上 72以下の値が指定される。なお、フォントサイズを指定する値のデフォルト は、「32」とするようにしてもよい。そして、フォントサイズ指定の終了は、〈/fontsize〉と 記載される。
[0327] フォント回転角指定は、〈fontrotate a=〉と記載され、属性「a」に、フォントの回転角に 対応する 0以上 360以下の値が指定される。なお、回転方向は、反時計回りが正方 向とされ、フォントの回転角に対応する値のデフォルトは、「0」とするようにしてもよい 。そして、フォントの回転角度指定の終了は、く/ fontr0tate〉と記載される。
[0328] ブックマーク指定は、く mark id=〉と記載され、属性「id」に、ブックマークを個別に区 別可能な 0以上 255以下の値が指定される。これにより、本要素のスコープ内の字幕 データに対してブックマークが付与されたことになる。ブックマークは、最大 256個まで 指定することができる。そして、ブックマークを付与する字幕テキストの終了は、く /mark〉と記載される。
[0329] 文字オブジェクトシーケンス繰り返し指定は、く repeat id= c=〉と記載され、属性「id」 に、ブックマークを個別に区別可能な 0以上 255以下の値力 属性「c」には繰り返し回 数が指定される。これにより、属性「id」により設定された属性値に対応するブックマー クが付与された字幕データが、属性「c」に設定された回数繰り返される。
[0330] 上述したような方法で属性が指定されたテキスト字幕ファイルのテキストデータは、 それぞれの属性の設定に基づいて、例えば、図 29を用いて説明したように、レンダリ ング方向が左から右へ指定され、設定された改行位置において下方向に改行されて 表示されたり、図 30を用いて説明したように、レンダリング方向が右から左へ指定され 、設定された改行位置において下方向に改行されて表示されたり、図 31を用いて説 明したように、レンダリング方向が上力 下へ指定され、設定された改行位置におい て左方向に改行されて表示される。
[0331] また、例えば、表示される字幕に対して、フェードインまたはフェードアウトを指定す るときには、図 63を用いて後述する字幕グラフィックスプレーン処理部 93における CLUTの T値を変更して、文字の透明度を変化させつつ、文字オブジェクトシーケン スを繰り返し指定するようにすればよ!、。
[0332] 次に、テキスト字幕ストリームが格納されるコンテナファイルについて説明する。
[0333] テキスト字幕ストリームが格納されるコンテナファイルは、 Clip AVストリームに多重化 されていない別ファイル形式であるものとする。また、コンテナファイルのフォーマット は、 BDAV MPEG- 2トランスポートストリームであるものとする。そして、テキスト字幕ス トリームの格納される PES (Packetized Elementary Stream)パケットは、図 58に示され る Private Stream 2形式に従つ。
[0334] 図 58にお!/、て、 packet_start_code_prefixは、パケットの開始を識別するパケット開始 コードである 24ビットのフィールドであり、値 0x000001が設定される。 streamjdは、スト リームの種類と番号を規定する 8ビットのフィールドであり、値 OxBFが設定される。 PES_packet_lengthは、直後に続くバイトシーケンスのバイト数を指定する 16ビットのフ ィールドである。そして、 PES_packet_data_byteは、テキスト字幕ストリームファイルをバ イトシーケンスとして指定する。
[0335] また、テキスト字幕ストリームが格納されるコンテナファイルにおいて、 PATパケット、 PMTパケット、および、 SITパケットは、 Aligned Unitの先頭に、それぞれ一回だけ出 現するようになされており、 PCR (Program Clock Reference基準時刻情報)パケットを 持たな 、ようになされて!、る。
[0336] したがって、テキスト字幕ストリームが格納される BDAV MPEG- 2トランスポートストリ ームは、例えば、図 59に示されるような構成になる。
[0337] 図 59に示されるテキスト字幕ストリームが格納される BDAV MPEG-2トランスポートス トリームにおいては、それぞれの Aligned Unitにおいて、ソースパケット #1が、 PATパ ケットを含み、ソースパケット #2力 PMTパケットを含み、ソースパケット #3力 SITパケ ットを含み、ソースパケット #4乃至ソースパケット #32が、図 58を用いて説明した Private Stream 2形式でテキスト字幕ストリームファイルが格納されたパケット #1乃至 パケット #29を含むものとされて!/、る。
[0338] このように、第 2の実施の形態においては、サーバ 3からダウンロードされるなどして 、以上説明したアップデートデータが取得されて、ローカルストレージ 24に記録され る。図 60に、ローカルストレージ 24に記憶されるデータのデータ構造を示す。
[0339] ローカルストレージ 24のルートディレクトリの直下に処理対象アップデートデータフ アイルを記録する authorjdディレクトリがな!/、場合、ローカルストレージ 24のルートデ ィレクトリの直下に処理対象アップデートファイルの author jdと同じ名前の authorjdデ ィレクトリが作成される。そして、 authorjdディレクトリの下に処理対象アップデートファ ィルの discjdと同じ名前の discjdディレクトリが作成される。
[0340] そして、作成した dis idディレクトリの下に、図 42を用いて説明した光ディスク 193 の BDMVディレクトリより下の階層と同様に、 BACKUPディレクトリ、 PLAYLISTディレク トリ、 CLIPINFディレクトリ、 STREAMディレクトリ、および AUXDATAディレクトリが作成 され、 PLAYLISTディレクトリには PlayListファイルが、 CLIPINFディレクトリには Cliplnformationファイルが、 STREAMディレクトリには、テキスト字幕ストリームファイル 1S AUXDATAディレクトリには、フォントファイル力 それぞれ格納される。なお、図 6 0の例においては、 author jdディレクトリの名称および discjdディレクトリの名称とも「1 」である。すなわち、図 60に示されるディレクトリの下には authorjdおよび discjdがとも に 1であるアップデートファイルが記録されている。
[0341] ローカルストレージ 24に記録されるアップデートデータファイルの名前は、図 60に 示されるように、ファイル名と拡張子の間に 」(ピリオド)と 4桁の数字の番号を挿入し たものとされる。この 4桁の数字はバージョン番号を示し、 0000から始まり、新しいバー ジョンのアップデートファイルが記録されるごとに 1ずつ増やされる。例えば、「 01001. mpls」の名前の PlayListファイルのアップデートファイル力 PLAYLISTディレクト リに記録される場合、 PLAYLISTディレクトリに「01001. ****.mpls (****はバージョン番 号)」のファイル名のファイルが記録されていないとき、すなわち、「01001.mpls」の名 前の PlayListファイルのアップデートファイルがまだ存在しな!、とき、アップデートファ ィルは「01001.0000.mpls」の名前で記録され、 PLAYLISTディレクトリにすでに「 01001.0000.mpls」のファイルが記録されているとき、アップデートファイルは「 01001.0001.mpls」の名前で記録される。
[0342] また、サーバ 3からダウンロードされるアップデートデータには、メタデータが含まれ ている。メタデータは、メタデータが対応するアップデートファイルと同じディレクトリに 、アップデートファイルのファイル名の末尾に拡張子「.data」を付カ卩したファイル名で 記録される。
[0343] そして、図 42を用いて説明した、光ディスク 193に記録されているデータファイルと 、図 60を用いて説明した、ローカルストレージ 24に記憶されているデータファイルと がマージされて、第 2の仮想ファイルシステムが生成される。
[0344] 図 61に、第 2の仮想ファイルシステムのデータ構造を示す。
[0345] 第 2の仮想ファイルシステムにお!/、ては、 authorjdおよび discjdが同一である光ディ スク 193に記録されて!、るデータファイルと、ローカルストレージ 24に記憶されて!、る データファイルとがマージされて、「VBDMV」の名前が設定されたディレクトリが用意 され、図 42を用いて説明した光ディスク 193の「BDMV」ディレクトリに格納されて!、る 、「Index.bdmv」の名前が設定されたファイルと、「MovieObject.bdmv」の名前が設定 されたファイルが格納されるとともに、 BDMVディレクトリより下の階層と同様の構成と なるように、 BACKUPディレクトリ、 PLAYLISTディレクトリ、 CLIPINFディレクトリ、
STREAMディレクトリ、および AUXDATAディレクトリが作成され、それぞれ、対応する ディレクトリの下に、データファイルが格納されているものとなされている。
[0346] 第 2の仮想ファイルシステムの PLAYLISTディレクトリ、 CLIPINFディレクトリ、
STREAMディレクトリ、および AUXDATAディレクトリに格納されるデータファイルのうち 、実際にはローカルストレージ 24に記憶されているデータファイルには、それぞれ、メ タデータファイルが対応付けられて 、る。
[0347] このようにして、光ディスクに記録されているコンテンツと、ローカルストレージに記 録されて!/、るコンテンツを関連付けて再生することができるように、第 2の仮想フアイ ルシステムによりデータがマージされる。
[0348] また、図 2を用いて説明した場合と同様に、第 2の実施の形態においても、 PlayList には、 Playltemにより指定されるメインパス(Main Path)に加えて、図 3に示されるよう なサブプレイアイテム(Sub Play Item)を用いて指定されるサブパス(Sub path)の情報 を含ませることができ、 SubPlayltemを定義すると、例えば、 Playltemにより指定される Clip (例えば、 MPEG2トランスポートストリーム)に多重化されていない、独立したデー タストリームを AVストリーム再生に同期して再生させることができる。
[0349] すなわち、図 62に示されるように、 Playltemにより指定されるメインパスの Clip AVス トリームに対応させて、テキスト字幕ファイル、および、レンダリングに必要となるフォン トフアイルカゝら構成される字幕関連情報と字幕関連情報の再生区間を指定した
SubPlayltemにより構成されるサブパスを用意することで、 Clip AVストリームの再生に 対して、テキスト字幕ファイルに記載されているデータに対応する字幕を、同期させて 表示させるよう〖こすることができる。
[0350] ユーザは、テキスト字幕ストリーム用のサブパスおよびサブプレイアイテムを取得す ることにより、メインパスに設定されている ClipAVストリームと、テキスト字幕ストリーム とを同期させて再生させることができる。また、ひとつのサブプレイアイテムには、複数 のテキスト字幕ストリームを指定することができる。
[0351] また、本発明の再生装置 181においては、同期再生を行うために、サブパスの再生 処理においても、メインパスの再生処理で参照される STC (System Time Clock)を参 照するものとすることができる。また、サブパスの再生処理において、デコーダ 192は 、テキスト字幕ストリームを一括プリロードしたり、部分プリロードすることができる。
[0352] 更に、本発明の再生装置 181においては、サブパスの再生処理において、テキスト 字幕ストリームを一括プリロードしたり、または、テキスト字幕ファイルに関する、後述 する EP_mapを作成することにより、テキスト字幕ファイルに対して、高速なランダムァク セスを実現させることができる。
[0353] 図 63は、同期再生のための STCを参照することができ、更に、テキスト字幕ストリー ムを一括プリロードしたり、部分プリロードすることができるとともに、テキスト字幕フアイ ルに対してランダムアクセスを実行することができる、本発明を適用した再生装置 18 1のデコーダ 192の構成を示すブロック図である。
[0354] なお、図 63のデコーダ 192においては、図 33において説明した場合と対応する部 分には同一の符号を付してあり、その説明は適宜省略する。すなわち、デコーダ 192 は、 STCカウンタ 211、メモリ 216、ノッファ 217、および、バッファ 219が新たに設け られ、オーディオデコーダ 86に代わって、オーディオデコーダ 212が設けられ、 MP EGビデオデコーダ 87に代わって、 MPEGビデオデコーダ 213が設けられ、制御部 81に代わって、制御部 214が設けられ、ディスクデータ取得部 82に代わって、デイス クデータ取得部 215が設けられ、ストレージデータ取得部 91に代わって、ストレージ データ取得部 218が設けられ、テキスト字幕処理部 92に代わって、テキスト字幕処理 部 220が設けられている以外は、図 33を用いて説明したデコーダ 26と、基本的に同 様の構成を有するものである。
[0355] STCカウンタ 211は、 STCをカウントする。オーディオデコーダ 212は、 STCカウン タ 211のカウンタ値を参照して、 PTS (Program Time Stamp)を計算し、計算された P TSにしたがって、オーディオストリームをデコードし、デコードされたオーディオストリ ームのデータを出力する。 MPEGビデオデコーダ 213は、 STCカウンタ 211のカウン タ値を参照して、 PTSを計算し、計算された PTSにしたがって、ビデオストリームをデ コードし、デコードされたビデオデータをビデオプレーン処理部 88へ出力する。
[0356] 制御部 214は、再生制御部 204の制御に基づいて、デコーダ 192の各部の処理を 制御するものであり、例えば、ディスクデータ取得部 215またはストレージデータ取得 部 218を制御して、テキスト字幕ストリームを一括プリロードさせてバッファ 217にバッ ファリングさせることにより、テキスト字幕ストリームのランダムアクセスを制御したり、デ イスクデータ取得部 215、または、ストレージデータ取得部 218から供給されたテキス ト字幕ストリームに対応する SubPlayItem_IN_timeおよび SubPlayItem_OUT_timeなどの 情報を基に、テキスト字幕ストリームに対応する EP_mapを生成して、メモリ 216に保存 し、保存された EP_mapを参照してテキスト字幕ストリームのランダムアクセスを制御す ることができる。また、制御部 214は、メインパスで指定される ClipAVストリームと、サ ブパスで指定されるテキスト字幕ストリームとを同期して再生させるために、メインパス におけるノンシームレス接続条件下でのプレイアイテム切り替えにより発生する、ォー ディォデコーダ 212および MPEGビデオデコーダ 213による ClipAVストリームのデコ ード動作のギャップなどの情報を、テキスト字幕処理部 220に通知する。
[0357] ディスクデータ取得部 215は、制御部 214の制御に基づいて、光ディスク 193から 読み出されたデータのうち、デコーダ 192に供給されたデータを取得し、 Playltemに より指定される AVストリームなどの多重化ストリームをバッファ 83に供給し、
SubPlayltemにより指定される、テキスト字幕ファイルまたはフォントファイルのデータを ノ ッファ 84に供給する。また、デコーダ 192は、テキスト字幕ストリームを一括プリロー ドしたり、部分プリロードすることができる。ディスクデータ取得部 215は、光ディスク 1 93に記録されているテキスト字幕ストリームが一括プリロードされる場合、対応するす ベてのテキスト字幕ファイルを読み出して、ノッファ 217に供給する。また、ディスクデ ータ取得部 215は、光ディスク 193に記録されているテキスト字幕ストリームが部分プ リロードされる場合、光ディスク 193に記録されているテキスト字幕ストリームに対応す る SubPlayItem_IN_timeおよび SubPlayItem_OUT_timeなどの情報を取得して、制御部 214に供給する。
[0358] メモリ 216は、制御部 214により生成された、テキスト字幕ストリームに対応する
EP_mapを保存する。ノ ッファ 217は、ディスクデータ取得部 215、または、ストレージ データ取得部 218から供給された、一括プリロードされたテキスト字幕ストリームを保 存する。 [0359] ストレージデータ取得部 218は、ローカルストレージ 24から読み出されたデータのう ち、デコーダ 192に供給されたデータ (すなわち、テキスト字幕ファイルまたはフォント ファイルのデータ)を取得し、一括プリロードが行われる場合は、ノッファ 217に、プリ ロードが行われない場合、または、部分プリロードが行われる場合は、内部のトランス ポートストリーム用の図示しないバッファに一時保存し、ノ ッファ 219に、取得したデ ータを供給する。また、ストレージデータ取得部 218は、ローカルストレージ 24に記録 されているテキスト字幕ストリームが部分プリロードされる場合、ローカルストレージ 24 に記録されているテキスト字幕ストリームに対応する SubPlayItem_IN_timeおよび SubPlayItem_OUT_timeなどの情報を取得して、制御部 214に供給する。
[0360] ノ ッファ 219は、テキスト字幕処理部 220に供給されるテキスト字幕ストリームデータ およびフォントファイルのデータを一時バッファリングする。テキスト字幕処理部 220 は、テキスト字幕ストリームデータおよびフォントファイルのデータの供給を受け、 ST Cカウンタ 211のカウンタ値、および、制御部 214力も供給される ClipAVストリームの デコード動作のギャップなどの情報を基に、 ClipAVストリームと同期して再生されるよ うに、供給されたテキスト字幕ストリームをデコードする。
[0361] このように、本発明を適用した再生装置 181のデコーダ 192においては、テキスト字 幕ストリームを一括プリロードしたり、部分プリロードすることができるとともに、テキスト 字幕ファイルに対して、高速にランダムアクセスを実行することができる。
[0362] 一括プリロードは、ディスクデータ取得部 215またはストレージデータ取得部 218に 、再生に必要なテキスト字幕ストリーム全体を取得させ、ノ ッファ 217に一度にプリ口 ードする方式である。部分プリロードは、ディスクデータ取得部 215またはストレージ データ取得部 218に、テキスト字幕ストリームの一部分だけをプリロードさせる方式で ある。部分プリロードされたテキスト字幕ストリームのトランスポートストリームデータは、 トランスポートストリームバッファであるバッファ 84、または、ストレージデータ取得部 2 18内部の図示しないバッファのリークレート値に対応した転送レートにて、ソースパケ ット単位でバッファ 219にロードされる(バッファ 219にロードされるストリームは、 TextSubtitleのエレメンタリストリームである)。
[0363] 次に、 ClipAVストリームの再生時にテキスト字幕ストリームにランダムアクセスする場 合について説明する。
[0364] Clip AVストリームの場合、 Playltem中で任意の PTS値からソースパケット番号を求 めるために EP_mapを参照する。 EP_mapにつ!/、て図 64を用いて説明する。
[0365] EP_mapとは、クリップの中のエントリーポイントのタイムスタンプ(PTS_EP_start)と、ク リップ AVストリームファイルの中でストリームのデコードを開始すべきソースパケット番 号(SPN_EP_start)とのペアを格納したテーブルであり、 Clip Informationファイル中に 定義される。換言すれば、再生装置 181は、エントリーポイントのタイムスタンプ( PTS_EP_start)が指定されることにより、ランダムアクセスする対象となる(デコードを開 始すべき)ソースパケットのソースパケット番号(SPN_EP_start)を検出することができる 。すなわち、再生装置 181は、 Clip AVストリームの EPjnapを参照することで、 Clip AV ストリームのランダムアクセス、ファーストフォワード再生、または、ファーストリバース再 生に対応することができる。なお、ソースパケット番号とは、 AVストリームファイルの中 のソースパケットの順番に 1ずつインクリメントする番号であり、ファイルの先頭のソー スパケット番号がゼロとされる。
[0366] しカゝしながら、テキスト字幕ストリームは、規格上では、 ClipAVストリームとは異なり、 EP_mapを持たな!、ものとされて!/、る。
[0367] そのため、制御部 214は、ディスクデータ取得部 215またはストレージデータ取得 部 218を制御して、テキスト字幕ストリームを一括プリロードさせてバッファ 217にバッ ファリングさせるとともに、再生装置 181でのグローバル時間軸における PTS値 Tに対 して、次の式 (1)および式 (2)をいずれも満足するような非負整数 iを求めることにより、 PTS値 Tに対応した字幕データが格納されたデータ位置へのランダムアクセスを制 御することができる。
[0368] start— PTS (i)≤T · · · ( 1)
T≤end— PTS (i) · · · (2)
[0369] 一方で、テキスト字幕ストリームは、オーディオ Zビデオの ClipAVストリームと同様に 時系列データの性質を持つことから、常に、次の式 (3)に示される関係が成立する。
[0370] end— PTS (i)≤ start— PTS (i+ 1) · · · (3)
[0371] したがって、制御部 214は、任意の PTS値 Tに対して、式 (1)および式 (2)に示される 条件を満足するような非負整数 iを求める高速なアルゴリズムとして、例えば、 B-Tree インデッキシングなどを用いるようにすることにより、字幕データへのランダムアクセス を制御することが可能になる。なお、制御部 214は、 B-Treeインデッキシング以外の アルゴリズムを用いて、任意の PTS値 Tに対して、式 (1)および式 (2)に示される条件 を満足するような非負整数 iを求めるようにしてもよ 、ことは 、うまでもな!/、。
[0372] また、制御部 214は、テキスト字幕ストリームが部分プリロードされる場合、ランダム アクセスを許可せず、シーケンシャルアクセスのみを制御するようにしてもよい。また、 制御部 214は、 PlayList再生時に、ディスクデータ取得部 215から、光ディスク 193に 記録されているテキスト字幕ストリームに対応する SubPlayItem_IN_timeおよび
SubPlayItem_OUT_timeなどの情報の供給を受ける力、ストレージデータ取得部 218 から、ローカルストレージ 24に記録されているテキスト字幕ストリームに対応する SubPlayItem_IN_timeおよび SubPlayItem_OUT_timeなどの情報の供給を受け、図 64を 用いて説明した EP_mapと同様の、テキスト字幕ストリームの EPjnapを、事前に生成し て、メモリ 216に記憶させておき、メモリ 216に記憶されたテキスト字幕ストリームの EP_mapを参照して、ランダムアクセスを制御することができるようにしてもょ 、。
[0373] 図 65は、図 63のテキスト字幕処理部 220の構成を示すブロック図である。
[0374] なお、図 65のテキスト字幕処理部 220においては、図 34を用いて説明した場合と 対応する部分には同一の符号を付してあり、その説明は適宜省略する。すなわち、 テキスト字幕処理部 220は、 STCカウンタ 211のカウンタ値、および、制御部 214か ら供給される ClipAVストリームのデコード動作のギャップなどの情報を取得し、 ClipA Vストリームと同期してテキスト字幕ストリームが再生されるように、テキストデータデコ ーダ 232の動作の基準となる PTSを計算する STC処理部 231が新たに設けられ、テ キストデータデコーダ 121に代わって、 STC処理部 231が STCを基に計算した PTS に基づいて、供給されたテキスト字幕ストリームをデコードするテキストデータデコー ダ 232が設けられている以外は、基本的に、図 34を用いて説明したテキスト字幕処 理部 92と同様の構成を有するものである。
[0375] テキストデータデコーダ 232によるテキストデータのデコード処理においては、
MainPathの ClipAVストリームが参照する STCを参照することにより、 ClipAVストリーム とテキスト字幕ストリームとの同期を図ることができる。しかしながら、 ClipAVストリーム は、一つの PlayListファイル中で複数の STCを保持できるため、テキストデータデコ ーダ 232が MainPathの ClipAVストリームが参照する STCを直接参照してしまうと、テ キスト字幕ストリームの再生制御が複雑になってしまう要因となる。また、テキスト字幕 ストリームは、上述したように、 PCRパケットを持たない。
[0376] そこで、テキスト字幕ストリームをデコードするテキスト字幕処理部 220においては、 Main Pathの Clip AVストリームの再生時に参照される STCを基に、再生装置 181に おいて一貫したグローバルな時間軸を想定するものとする。 STC処理部 231は、この 時間軸を基準としてタイムスタンプを計算し、テキストデータデコーダ 232に供給する 。テキストデータデコーダ 232は、供給されたタイムスタンプを基準にデコード処理を 実行する。
[0377] すなわち、図 66において示されるように、 ClipAVストリームは、一つの PlayListファ ィル中のそれぞれの Playltemで、それぞれに STCを参照する。したがって、 STC処 理部 231は、 STCカウンタ 211のカウンタ値を積算して、 PlayList内でのグローバル な時間軸を構成し、テキストデータデコーダ 232の動作の基準となる PTSを計算する
[0378] そのとき、 STC処理部 231は、図 67に示されるように、ノンシームレス接続条件下 での Playltem切り替えにより発生するギャップを考慮して、 STCカウンタ 211のカウン タ値を積算する必要がある。したがって、 STC処理部 231は、制御部 214から供給さ れる ClipAVストリームのデコード動作のギャップなどの情報を取得し、その情報を基 に、 Playltem切り替えにより発生するギャップを考慮した STCカウンタ 211のカウンタ 値の積算を実行して、テキストデータデコーダ 232の動作の基準となる PTSを計算す る。
[0379] テキストデータデコーダ 232は、図 66および図 67を用いて説明したように、
Playltem切り替えにより発生するギャップを考慮して、 Main Pathの Clip AVストリーム が参照する STCカウンタ 211のカウンタ値を積算することにより算出される PTSを基 に、供給されるテキスト字幕のエレメンタリストリームをデコードする。
[0380] 次に、図 68のフローチャートを参照して、サーバ 3からアップデートファイルをダウン ロードする再生装置 181コントローラ 191の処理であるダウンロード処理 2について説 明する。
[0381] この処理は、光ディスク 193が再生装置 181に装着されている力否かにかかわらず 、ユーザにより、アップデート用データの取得が指令された場合に実行される。
[0382] ステップ S201において、コントローラ 191のデータ取得部 33は、インターネットイン タフエース 24を制御し、インターネット 2を介してサーバ 3にアクセスし、アップデート 用のメニュー画面に対応するデータの送信を要求する。
[0383] ステップ S202において、データ取得部 33は、インターネットインタフェース 24を制 御し、インターネット 2を介してサーノ 3から、アップデート用のメニュー画面に対応す るデータを受信する。データ取得部 33は、サーバ 3から送信され、インターネットイン タフエース 24により受信されたアップデート用のメニュー画面に対応するデータを、メ ニュー画面表示制御部 31に供給する。
[0384] ステップ S203において、メニュー画面表示制御部 31は、アップデート用のメニュー 画面を表示装置に表示させ、ステップ S204に進み、操作入力取得部 32から供給さ れる信号に基づいて、メニュー画面のボタンがユーザにより操作され、アップデートの 内容が選択されたか否かを判定する。
[0385] ステップ S204において、メニュー画面表示制御部 31は、アップデートの内容が選 択されたと判定するまで待機し、アップデートの内容が選択されたと判定した場合、ス テツプ S205に進む。ユーザにより選択されたアップデートの内容を表す情報は、メ- ユー画面表示制御部 31からデータ取得部 33に出力される。
[0386] ステップ S205において、データ取得部 33は、インターネットインタフェース 24を制 御し、アップデートの内容を表す情報をサーバ 3に送信させ、ユーザが指定したアツ プデートファイルのダウンロードを要求する。
[0387] ステップ S206において、データ取得部 33は、インターネットインタフェース 24を制 御し、サーバ 3によりアップデートファイルとして用意される、 PlayListファイル、 Cliplnformationファイル、テキスト字幕ストリームファイル、および、フォントファイルを ダウンロードさせ、これらのファイルがダウンロードされたことを、ローカルストレージデ ィレクトリ管理部 201に通知する。 [0388] ステップ S207において、ローカルストレージディレクトリ管理部 201は、ダウンロード されたアップデートデータファイルのメタデータに含まれる author jdと discjdとに基づ いて、それらの IDで識別されるディレクトリをローカルストレージ 24に作成する。これ により、例えば、図 60を用いて説明した構造のファイルシステムがローカルストレージ 24に作成される。
[0389] ステップ S208において、ローカルストレージディレクトリ管理部 201は、ステップ S2 09で作成したディレクトリに、サーバ 3からダウンロードされたそれぞれのファイルを展 開し、格納させる。
[0390] このような処理により、サーバ 3力 アップデートファイルがダウンロードされて、ロー カルストレージ 24に記録されるので、例えば、映画などのコンテンツが記録された光 ディスク 193を購入したユーザが、光ディスク 193に予め記録されて ヽな 、言語の字 幕を表示させるために必要なファイルを取得して記録させることができる。したがって 、光ディスク 193に記録されている AVストリームと同期させて、ユーザが所望する言 語の字幕を表示させて、コンテンツを視聴することが可能となる。
[0391] また、以上のようなアップデートファイルのダウンロードは、有料で行うことができるも のであってもよ!/、し、無料で行うことができるものであってもよ!/、。
[0392] 次に、図 36のフローチャートを参照して、コントローラ 191により制御が実行される 再生処理 2について説明する。
[0393] 上述したようにしてダウンロードされたアップデートファイルがローカルストレージ 24 に記録されている状態で、光ディスク 193が装着され、記録されているコンテンツの 再生が指示された場合、ステップ S221において、光ディスクディレクトリ管理部 202 は、光ディスク 193から、ユーザにより書き換え不能なように記録されている authorjd と discjdとを読み出し、読み出した authorjdと discjdとをローカルストレージディレクトリ 管理部 201に出力する。
[0394] ステップ S222において、ローカルストレージディレクトリ管理部 201は、光ディスク ディレクトリ管理部 202から供給された authorjdと discjdに基づ!/、て、光ディスク 193 のファイルシステムに対応する、ローカルストレージ 24のファイルシステムを検索し、 ファイルシステムマージ処理部 203に供給する。上述したように、光ディスク 193のフ アイルシステムに対応するファイルシステムは、ローカルストレージ 24において、 authorjdと dis idを用いて特定可能なディレクトリに格納されて 、る(図 60)。
[0395] このとき、光ディスクディレクトリ管理部 202からは、光ディスク 193のファイルシステ ムがファイルシステムマージ処理部 203に出力され、光ディスク 193のファイルシステ ムと、ローカルストレージ 24のファイルシステムとが、図 61を参照して説明したようにし てマージされる。そして、ステップ S223において、図 70を用いて後述する仮想フアイ ルシステム生成処理が実行されて、第 2の仮想ファイルシステムが生成される。生成 された第 2の仮想ファイルシステムは、再生制御部 204に出力され、 AVストリームファ ィルの再生に用いられる。
[0396] 再生制御部 204は、ステップ S224において、生成された第 2の仮想ファイルシステ ムから MovieObjectを指定し、 MovieObjectに含まれる再生コマンドを実行し、ステツ プ S225において、 MovieObjectに含まれる再生コマンドにおいて再生区間として指 定される PlayListと SubPlayltemを取得し、ステップ S 226において、ローカルストレー ジディレクトリ管理部 201および光ディスクディレクトリ管理部 202を制御して、取得し た PlayListと SubPlayltemが参照するファイル(AVファイル、テキスト字幕ファイル、フ オントファイルなど)を読み出させて、デコーダ 192に供給させる。
[0397] そして、ステップ S227において、図 71を用いて後述するコンテンツ再生処理 2、ま たは、図 74を用いて後述するコンテンツ再生処理 3が実行されて、読み出された AV ストリームファイルやテキスト字幕ストリームファイルなどがデコードされ、映像や音声、 または字幕が表示装置力 出力されて、処理が終了される。
[0398] 以上のように、第 2の仮想ファイルシステムが生成され、コンテンツの再生時に利用 されることにより、例えば、 SubPlayltemが参照するテキスト字幕ファイルのデータが、 AVストリームと同時に読み出されて再生される。
[0399] 次に、図 70のフローチャートを参照して、図 69のステップ S223において実行され る仮想ファイルシステム生成処理にっ 、て説明する。
[0400] ファイルシステムマージ処理部 203は、光ディスク 193のファイルシステムと、ロー力 ルストレージ 24のファイルシステムとを、図 61を参照して説明したようにしてマージし 、第 2の仮想ファイルシステムを生成する。 [0401] ステップ S241において、ファイルシステムマージ処理部 203は、処理対象となるァ ップデートファイル、すなわち、図 69のステップ S222において検出されたファイルシ ステムにおけるメタデータの operation_typeの値が 0x01であるか否かを判定する。ステ ップ S 241にお!/、て、アップデートファイルのメタデータの operationj peの値が 0x01 ではないと判定された場合、処理は、後述するステップ S243に進む。
[0402] ステップ S241にお!/、て、アップデートファイルのメタデータの operation_typeの値が 0x01であると判定された場合、ステップ S 242において、ファイルシステムマージ処理 部 203は、光ディスク 193の PlayListがアップデートファイルの PlayListに交換されて 更新された第 2の仮想ファイルシステムを生成し、処理は、図 69のステップ S223に 戻り、ステップ S224に進む。すなわち、アップデートファイルのメタデータの operation_typeの値が 0x01であると判定された場合、ダウンロードされてローカルスト レージ 24に記録されている PlayListがそのままの状態で参照され、光ディスク 193の PlayListは全く参照されな!、。
[0403] ステップ S241にお!/、て、アップデートファイルのメタデータの operation_typeの値が 0x01ではないと判定された場合、ステップ S243において、ファイルシステムマージ処 理部 203は、処理対象となるアップデートファイル、すなわち、図 69のステップ S222 において検出されたファイルシステムにおけるメタデータの operation_typeの値が 0x02であるか否かを判定する。ステップ S243において、メタデータの operation_type の値が 0x02ではないと判断された場合、処理は、ステップ S225に進む。
[0404] ステップ S243にお!/、て、メタデータの operation_typeの値が 0x02であると判断され た場合、ステップ S244において、ファイルシステムマージ処理部 203は、光ディスク 193の PlayListファイルに、アップデートファイルの SubPathが追加されて更新された 第 2の仮想ファイルシステムを生成し、処理は、図 69のステップ S223に戻り、ステツ プ S224に進む。すなわち、アップデートファイルのメタデータの operation_typeの値 が 0x02であると判定された場合、図 47および図 48を用いて説明したように、ダウン口 ードされたファイルから、 SubPath要素が抽出され、光ディスク 193に記録されている SubPath要素に、抽出された SubPath要素が加えられるようにファイルシステムがマー ジされて更新される。 [0405] ステップ S243にお!/、て、メタデータの operation_typeの値が 0x02ではな!/、と判断さ れた場合、ステップ S245において、ファイルシステムマージ処理部 203は、処理対 象となるアップデートファイル、すなわち、図 69のステップ S222において検出された ファイルシステムにおけるメタデータの operation_typeの値が 0x03であるか否かを判定 する。ステップ S 245にお!/、て、メタデータの operationj peの値が 0x03ではな!/、と判 断された場合、処理は、ステップ S227に進む。
[0406] ステップ S245にお!/、て、メタデータの operation_typeの値が 0x03であると判断され た場合、ステップ S246において、ファイルシステムマージ処理部 203は、光ディスク 193の PlayListファイルに、アップデートファイルの SubPlayltemが追加されて更新され た第 2の仮想ファイルシステムを生成し、処理は、図 69のステップ S223に戻り、ステ ップ S224に進む。すなわち、アップデートファイルのメタデータの operation_typeの値 が 0x03であると判定された場合、図 49および図 50を用いて説明したように、ダウン口 ードされたファイルから、 SubPlayltem要素が抽出され、光ディスク 193に記録されて いる SubPlayltem要素に、抽出された SubPlayltem要素が加えられるようにファイルシス テムがマージされて更新される。
[0407] ステップ S245にお!/、て、メタデータの operation_typeの値が 0x03ではな!/、と判断さ れた場合、すなわち、 operation_typeの値が 0x04である場合、ステップ S 247において 、ファイルシステムマージ処理部 203は、 SubClip_entryを追加する SubPlayltemにお いて、 is_multi_Clip_entries (図 45)の値が 1であるか否かを判定する。
[0408] ステップ S247にお!/、て、 is_multi_Clip_entriesの値が 1でな!/、と判定された場合、す なわち、 SubClip_entryを追加する SubPlayltem力 現在 1つの SubClip_entryのみを参 照している場合、ステップ S248において、ファイルシステムマージ処理部 203は、更 新元の PlayListファイル内の SubClip_entryを追加する SubPlayltemの
is_multi_Clip_entriesの値を 1に設定する。
[0409] ステップ S247において、 is_multi_Clip_entriesの値が 1であると判定された場合、ま たは、ステップ S248の処理の終了後、ステップ S249において、ファイルシステムマ ージ処理部 203は、 SubClip_entryを追加する SubPlayltemの number_of_Clip_entries ( 図 45)の値を、現在の値から 1増やす。すなわち、 SubClip_entryを追加する SubPlayltemが参照するサブ Clipの数の設定値が 1つ増加される。
[0410] そして、ステップ S250において、ファイルシステムマージ処理部 203は、光ディスク 193の PlayListファイルの SubPlayltemに、アップデートファイルの SubClip_entryが追 カロされて更新された第 2の仮想ファイルシステムを生成し、処理は、図 69のステップ S 223に戻り、ステップ S224に進む。すなわち、アップデートファイルのメタデータの operation_typeの値が 0x04であると判定された場合、図 45を用いて説明した
SubPlayltemの is_multi_Clip_entriesおよび number_of_Clip_entriesの値が適宜修正され た後、図 51および図 52を用いて説明したように、ダウンロードされたファイルから、 SubClip_entry要素が抽出され、光ディスク 193に記録されて!、る SubClip_entry要素 に、抽出された SubClip_entry要素が加えられるようにファイルシステムがマージされて 更新される。
[0411] このような処理により、メタデータの operation_typeの値によって定められた方法で、 光ディスク 193に記録されているデータと、ローカルストレージ 24に記録されているデ ータがマージされて、光ディスク 193に記録されているデータ力 ローカルストレージ 24に記録されているアップデートファイルのデータにより更新されたようにユーザから 見えるように、第 2の仮想ファイルシステムが生成される。
[0412] また、コンテンツの再生のためのテキスト字幕データのロード方法には、上述したよ うに、一括プリロードと部分ロードとの 2種類の方法がある。部分ロードが実行される場 合、テキスト字幕データのランダムアクセスを可能とするためには、テキスト字幕デー タに対応する EP_mapを作成する必要がある。
[0413] 次に、図 71のフローチャートを参照して、図 68のステップ S227において実行され る、コンテンツ再生処理 2について説明する。コンテンツ再生処理 2においては、テキ スト字幕データを一括プリロードすることにより、テキスト字幕データのランダムァクセ スが可能なようになされて!、る。
[0414] ステップ S261において、再生制御部 204は、デコーダ 192を制御して、図 70を用 いて説明した処理により生成された第 2の仮想ファイルシステムの Playltemにより指定 される AVストリームデータを再生させる。
[0415] ステップ S262乃至ステップ S264【こお!/、て、図 37のステップ S62乃至ステップ S64 と基本的に同様の処理が実行される。すなわち、字幕データの表示を指令する操作 入力を受けたか否かが判断され、字幕データの表示を指令する操作入力を受けたと 判断された場合、ユーザの操作入力に対応する信号がメニュー画面表示制御部 31 に供給されて、表示装置に表示可能な字幕データの一覧メニューが表示され、表示 させる字幕データの言語を指定する操作入力を受けた力否かが判断される。ステツ プ S264において、表示させる字幕データの言語を指定する操作入力を受けていな いと判断された場合、処理は、ステップ S263〖こ戻り、それ以降の処理が繰り返される
[0416] ステップ S264において、表示させる字幕データの言語を指定する操作入力を受け たと判断された場合、ステップ S265において、操作入力取得部 32は、ユーザの操 作入力に対応する信号を再生制御部 204に供給する。再生制御部 204は、ロー力 ルストレージディレクトリ管理部 201を制御し、ユーザの操作入力に基づいて指定さ れる SubPlayltemにより参照されるテキストサブタイトルデータ、すなわち、テキスト字 幕データをデコーダ 192のストレージデータ取得部 218に供給させて、制御部 214 の制御に基づいて、ノ ッファ 217に一括プリロードさせるとともに、必要に応じて、ュ 一ザに指定されたフォントに対応するフォントデータを読み出させて、デコーダ 192 のストレージデータ取得部 218に供給させる。
[0417] ステップ S266において、図 72および図 73を用いて後述する字幕表示処理 2が実 行される。
[0418] ステップ S267乃至ステップ S269【こお!/、て、図 37のステップ S67乃至ステップ S69 と基本的に同様の処理が実行される。すなわち、表示させる字幕データの言語の変 更を指令する操作入力を受けた力否かが判断され、表示させる字幕データの言語の 変更を指令する操作入力を受けたと判断された場合、処理は、ステップ S265に戻り 、それ以降の処理が繰り返される。また、ステップ S262において、字幕データの表示 を指令する操作入力を受けていないと判断された場合、または、ステップ S267にお V、て、表示させる字幕データの言語の変更を指令する操作入力を受けて 、な 、と判 断された場合、ステップ S268において、コンテンツの再生の終了を指令する操作入 力を受けた力、または、再生中の AVストリームデータが終了した力否かが判断され、 コンテンツの再生の終了を指令する操作入力を受けず、かつ、再生中の AVストリー ムデータが終了していないと判断された場合、ステップ S269において、字幕の表示 を中止させる操作入力を受けたか否カゝが判断される。字幕の表示を中止させる操作 入力を受けていないと判断された場合、処理は、ステップ S266に戻り、それ以降の 処理が繰り返され、字幕の表示を中止させる操作入力を受けたと判断された場合、 処理は、ステップ S261に戻り、それ以降の処理が繰り返される。
[0419] また、ステップ S268において、コンテンツの再生の終了を指令する操作入力を受 けたか、再生中の AVストリームデータが終了したと判断された場合、処理は、図 68 のステップ S227に戻り、終了される。
[0420] このような処理により、サーバ 3力 ダウンロードされ、ローカルストレージ 24に記憶 されて ヽるテキスト字幕ファイルのうちの、ユーザが所望した言語の字幕に対応する データがランダムアクセス可能となり、光ディスク 193に記録されているコンテンツの 映像および音声に同期されて表示されるとともに、ユーザの操作入力に基づいて、 表示される字幕の言語を変更するために、読み出されるテキスト字幕ファイルが変更 される。
[0421] 次に、図 72および図 73のフローチャートを参照して、図 71のステップ S266〖こおい て実行される字幕表示処理 2について説明する。
[0422] ステップ S291において、デコーダ 192の制御部 214は、ランダムアクセスにおける デコード開始位置を算出する。そして、制御部 214は、デコード開始位置の算出結 果を基に、一括プリロードされて、ノ ッファ 217にバッファリングされているテキストサ ブタイトルデータ、すなわち、テキスト字幕データを、ノ ッファ 219を介して、テキスト 字幕処理部 220に供給する。
[0423] ステップ S292において、デコーダ 192のテキスト字幕処理部 220のテキストデータ デコーダ 232は、 STC処理部 231の処理により、 ClipAVストリームが参照している ST Cと同一の STCカウンタのカウントおよび制御部 214により供給される ClipAVストリー ムのデコード動作のギャップなどの情報を基に、 Playltem切り替えにより発生するギヤ ップを考慮して計算された PTSに基づ 、て、供給されたテキストサブタイトルデータを デコードする。 [0424] ステップ S293乃至ステップ S305において、図 38および図 39のステップ S92乃至 ステップ S104において実行された処理と基本的に同様の処理が実行される。すな わち、テキスト字幕処理部 220のテキストデータデコーダ 232は、デコードされたテキ ストサブタイトルデータに含まれる文字オブジェクトを、テキスト字幕処理部 220の文 字オブジェクトバッファ 122に供給して、バッファリングさせ、テキストデータデコーダ 2 32は、デコードされたテキストサブタイトルデータに含まれる属性データをテキスト字 幕処理部 220のアトリビュートデータバッファ 123に供給して、アトリビュートデータバ ッファ 123に属性データをバッファリングさせる。
[0425] そして、制御部 214は、再生制御部 204 (コントローラ 191)から、例えば、フォントサ ィズなどの字幕の属性の変更を指令する操作入力を示す信号の入力を受けた力否 かを判断し、字幕の属性の変更を指令する操作入力を示す信号の入力を受けたと 判断された場合、アトリビュートデータバッファ 123に保持されている属性データが変 更される。
[0426] ステップ S295において、字幕の属性の変更を指令する操作入力を示す信号の入 力を受けていないと判断された場合、または、ステップ S296の処理の終了後、文字 オブジェクトバッファ 122およびアトリビュートデータバッファ 123から文字オブジェクト および属性データが取得され、再生制御部 204 (コントローラ 191)力もフォントタイプ の変更を指令する操作入力を示す信号の入力を受けたか否力が判断され、フォント タイプの変更を指令する操作入力を示す信号の入力を受けたと判断された場合、再 生制御部 204の制御を受けたローカルストレージディレクトリ管理部 201 (コントローラ 191)の処理により、操作入力に基づいて、異なるフォントデータがローカルストレー ジ 24から読み出されて、異なるフォントデータが取得される。
[0427] ステップ S298において、フォントタイプの変更を指令する操作入力を示す信号の 入力を受けていないと判断された場合、または、ステップ S299の処理の終了後、取 得された属性およびブックマークバッファ 125が参照されて、ラスタライズしようとして いる字幕データは、ブックマークされ、すでにブックマークバッファ 125にバッファリン グされている字幕データである力否かが判断され、ブックマークされ、ノ ッファリングさ れている字幕データであると判断された場合、フォントラスタライザ 124により、ブック マークバッファ 125から、保存されているブックマーク対象の字幕画像データ(ラスタ データ)が読み出して出力される。
[0428] そして、すでにブックマークされて 、る字幕データではな 、と判断された場合、取得 された文字オブジェクトおよび属性データを基に、ラスタライズが実行されて、字幕グ ラフィックスプレーン処理部 93に出力され、字幕グラフィックスプレーンが生成されて 、合成処理部 94に供給される。そして、この属性データには、新たなブックマークが 記載されて ヽるカゝ否かが判断され、ブックマークが記載されて ヽると判断された場合 、ラスタライズされた字幕画像データがブックマークバッファ 125に保存される。
[0429] そして、合成処理部 94により、供給された字幕画像データが映像データと合成され て出力され、処理は、図 71のステップ S266に戻り、ステップ S267に進む。
[0430] このような処理により、ユーザの所望する言語の字幕データ力 ユーザの所望する 属性で、ユーザの所望するフォントで表示されるように、一括プリロードされたテキスト 字幕ファイルおよびフォントファイルのデータの読み出しが制御されて、必要に応じて ノ ッファリングされて 、る属性データが変更され、ラスタライズされる。
[0431] 次に、図 74のフローチャートを参照して、図 68のステップ S227において実行され る、コンテンツ再生処理 3について説明する。コンテンツ再生処理 3においては、テキ スト字幕データは部分プリロードされ、テキスト字幕ストリームに対応する EP_mapが生 成されることにより、テキスト字幕データのランダムアクセスが可能なようになされてい る。
[0432] ステップ S361において、再生制御部 204は、デコーダ 192を制御して、図 70を用 いて説明した処理により生成された第 2の仮想ファイルシステムの Playltemにより指定 される AVストリームデータを再生させる。
[0433] ステップ S362乃至ステップ S364において、図 37のステップ S62乃至ステップ S64 と基本的に同様の処理が実行される。すなわち、字幕データの表示を指令する操作 入力を受けた力否力が判断され、字幕データの表示を指令する操作入力を受けたと 判断された場合、ユーザの操作入力に対応する信号がメニュー画面表示制御部 31 に供給されて、表示装置に表示可能な字幕データの一覧メニューが表示され、表示 させる字幕データの言語を指定する操作入力を受けた力否かが判断される。ステツ プ S364において、表示させる字幕データの言語を指定する操作入力を受けていな いと判断された場合、処理は、ステップ S363〖こ戻り、それ以降の処理が繰り返される
[0434] ステップ S364において、表示させる字幕データの言語を指定する操作入力を受け たと判断された場合、ステップ S365において、デコーダ 192の制御部 214は、デイス クデータ取得部 215から、光ディスク 193に記録されて 、るテキスト字幕ストリームに 対応する SubPlayItem_IN_timeおよび SubPlayItem_OUT_timeなどの情報の供給を受け る力、ストレージデータ取得部 218から、ローカルストレージ 24に記録されているテキ スト字幕ストリームに対応する SubPlayItem_IN_timeおよび SubPlayItem_OUT_timeなど の情報の供給を受け、図 64を用いて説明した EPjnapと同様の、テキスト字幕ストリー ムの EP_mapを生成し、メモリ 216に記憶させる。
[0435] ステップ S366において、操作入力取得部 32は、ユーザの操作入力に対応する信 号を再生制御部 204に供給する。再生制御部 204は、ローカルストレージディレクトリ 管理部 201を制御し、ユーザの操作入力に基づいて指定される SubPlayltemにより参 照されるテキストサブタイトルデータ、すなわち、テキスト字幕データをデコーダ 192 のストレージデータ取得部 218に供給させて、制御部 214の制御に基づいて、バッフ ァ 84にバッファリングさせる力、または、ストレージデータ記憶部 218の内部のバッフ ァにバッファリングさせるとともに、必要に応じて、ユーザに指定されたフォントに対応 するフォントデータを読み出させて、デコーダ 192のストレージデータ取得部 218に 供給させる。
[0436] ステップ S367において、デコーダ 192により、図 75および図 76を用いて後述する 字幕表示処理 3が実行される。
[0437] ステップ S368乃至ステップ S370【こお!ヽて、図 37のステップ S67乃至ステップ S69 と基本的に同様の処理が実行される。すなわち、表示させる字幕データの言語の変 更を指令する操作入力を受けた力否かが判断され、表示させる字幕データの言語の 変更を指令する操作入力を受けたと判断された場合、処理は、ステップ S365に戻り 、それ以降の処理が繰り返される。また、ステップ S362において、字幕データの表示 を指令する操作入力を受けていないと判断された場合、または、ステップ S368にお V、て、表示させる字幕データの言語の変更を指令する操作入力を受けて 、な 、と判 断された場合、ステップ S369において、コンテンツの再生の終了を指令する操作入 力を受けた力、または、再生中の AVストリームデータが終了した力否かが判断され、 コンテンツの再生の終了を指令する操作入力を受けず、かつ、再生中の AVストリー ムデータが終了していないと判断された場合、ステップ S370において、字幕の表示 を中止させる操作入力を受けたか否カゝが判断される。字幕の表示を中止させる操作 入力を受けていないと判断された場合、処理は、ステップ S367に戻り、それ以降の 処理が繰り返され、字幕の表示を中止させる操作入力を受けたと判断された場合、 処理は、ステップ S361に戻り、それ以降の処理が繰り返される。
[0438] また、ステップ S369において、コンテンツの再生の終了を指令する操作入力を受 けたか、再生中の AVストリームデータが終了したと判断された場合、処理は、図 68 のステップ S227〖こ戻り、処理が終了される。
[0439] このような処理により、サーバ 3力 ダウンロードされ、ローカルストレージ 24に記憶 されて ヽるテキスト字幕ストリームに対応する EPjnapが生成され、ユーザが所望した 言語の字幕に対応するデータがランダムアクセス可能となり、光ディスク 193に記録さ れているコンテンツの映像および音声に同期されて表示されるとともに、ユーザの操 作入力に基づいて、表示される字幕の言語を変更するために、読み出されるテキスト 字幕ファイルが変更される。
[0440] 次に、図 75および図 76のフローチャートを参照して、図 74のステップ S367〖こおい て実行される字幕表示処理 3について説明する。
[0441] ステップ S391において、デコーダ 192の制御部 214は、図 74のステップ S365に おいて生成され、メモリ 216に記憶された EPjnapを参照して、ノ ッファ 84、または、ス トレージデータ取得部 218の内部のバッファにバッファリングされているテキストサブ タイトルデータすなわち、テキスト字幕データを、ノッファ 219を介して、テキスト字幕 処理部 220に供給し、テキスト字幕処理部 220を制御して、デコードさせる。デコーダ 192のテキスト字幕処理部 220のテキストデータデコーダ 232は、 STC処理部 231 の処理により、 ClipAVストリームが参照している STCと同一の STCカウンタのカウント および制御部 214により供給される ClipAVストリームのデコード動作のギャップなど の情報を基に、 Playltem切り替えにより発生するギャップを考慮して計算された PTS に基づ!/、て、供給されたテキストサブタイトルデータをデコードする。
[0442] ステップ S392乃至ステップ S404において、図 38および図 39のステップ S92乃至 ステップ S104において実行された処理と基本的に同様の処理が実行される。すな わち、テキスト字幕処理部 220のテキストデータデコーダ 232は、デコードされたテキ ストサブタイトルデータに含まれる文字オブジェクトを、テキスト字幕処理部 220の文 字オブジェクトバッファ 122に供給して、バッファリングさせ、テキストデータデコーダ 2 32は、デコードされたテキストサブタイトルデータに含まれる属性データをテキスト字 幕処理部 220のアトリビュートデータバッファ 123に供給して、アトリビュートデータバ ッファ 123に属性データをバッファリングさせる。
[0443] そして、制御部 214は、再生制御部 204 (コントローラ 191)から、例えば、フォントサ ィズなどの字幕の属性の変更を指令する操作入力を示す信号の入力を受けた力否 かを判断し、字幕の属性の変更を指令する操作入力を示す信号の入力を受けたと 判断された場合、アトリビュートデータバッファ 123に保持されている属性データが変 更される。
[0444] ステップ S394において、字幕の属性の変更を指令する操作入力を示す信号の入 力を受けていないと判断された場合、または、ステップ S395の処理の終了後、文字 オブジェクトバッファ 122およびアトリビュートデータバッファ 123から文字オブジェクト および属性データが取得され、再生制御部 204 (コントローラ 191)力もフォントタイプ の変更を指令する操作入力を示す信号の入力を受けたか否力が判断され、フォント タイプの変更を指令する操作入力を示す信号の入力を受けたと判断された場合、再 生制御部 204の制御を受けたローカルストレージディレクトリ管理部 201 (コントローラ 191)の処理により、操作入力に基づいて、異なるフォントデータがローカルストレー ジ 24から読み出されて、異なるフォントデータが取得される。
[0445] ステップ S397において、フォントタイプの変更を指令する操作入力を示す信号の 入力を受けていないと判断された場合、または、ステップ S398の処理の終了後、取 得された属性およびブックマークバッファ 125が参照されて、ラスタライズしようとして いる字幕データは、ブックマークされ、すでにブックマークバッファ 125にバッファリン グされている字幕データである力否かが判断され、ブックマークされ、ノ ッファリングさ れている字幕データであると判断された場合、フォントラスタライザ 124により、ブック マークバッファ 125から、保存されているブックマーク対象の字幕画像データ(ラスタ データ)が読み出して出力される。
[0446] そして、すでにブックマークされて 、る字幕データではな 、と判断された場合、取得 された文字オブジェクトおよび属性データを基に、ラスタライズが実行されて、字幕グ ラフィックスプレーン処理部 93に出力され、字幕グラフィックスプレーンが生成されて 、合成処理部 94に供給される。そして、この属性データには、新たなブックマークが 記載されて ヽるカゝ否かが判断され、ブックマークが記載されて ヽると判断された場合 、ラスタライズされた字幕画像データがブックマークバッファ 125に保存される。
[0447] そして、合成処理部 94により、供給された字幕画像データが映像データと合成され て出力され、処理は、図 74のステップ S367に戻り、ステップ S368に進む。
[0448] このような処理により、ユーザの所望する言語の字幕データ力 ユーザの所望する 属性で、ユーザの所望するフォントで表示されるように、一括プリロードされたテキスト 字幕ファイルおよびフォントファイルのデータの読み出しが制御されて、必要に応じて ノ ッファリングされて 、る属性データが変更され、ラスタライズされる。
[0449] 以上説明したように、本発明の第 2の実施の形態においても、光ディスクに記録さ れているコンテンツと、ダウンロードされてローカルストレージに記録されているコンテ ンッを関連付けて再生することができる。また、光ディスクに記録されているコンテン ッと、ローカルストレージに記録されているコンテンツを関連つけて再生させるための 第 2の仮想ファイルシステムは、ダウンロードされてローカルストレージに記録されて いるアーカイブデータのメタデータに含まれる operation_typeに指定される値に基づ いて生成される。
[0450] また、本発明の第 2の実施の形態において、ダウンロードされてローカルストレージ に記録されているコンテンツは、再生時に、一括プリロードされても、部分プリロードさ れてもよぐ本発明を適用することにより、プリロードの形式にかかわらず、光ディスク に記録されているコンテンツと、ローカルストレージに記録されているコンテンツとは、 STCを基準として、同期されて再生されるようになされて!ヽる。 [0451] 上述した一連の処理は、ソフトウェアにより実行することもできる。そのソフトウェアは 、そのソフトウェアを構成するプログラム力 専用のハードウェアに組み込まれている コンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行 することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム格納媒 体からインストールされる。
[0452] このプログラム格納媒体は、図 1または図 40に示すように、コンピュータとは別に、 ユーザにプログラムを提供するために配布される、プログラムが記録されて ヽる磁気 ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM (Compact Disk-Read Only Memory) , DVD (Digital Versatile Disk)を含む)、光磁気ディスク(MD ( Mini-Disk) (商標)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア 28 により構成されるだけでなぐ装置本体に予め組み込まれた状態でユーザに提供さ れる、プログラムが記録されている ROMまたは RAMなどのメモリ 23や、ハードディスク などのローカルストレージ 24などにより構成される。
[0453] また、本明細書にぉ 、て、プログラム格納媒体に記録されるプログラムを記述するス テツプは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時 系列的に処理されなくとも、並列的または個別に実行される処理をも含むものである
[0454] なお、本明細書において、システムとは、複数の装置により構成される装置全体を 表すものである。

Claims

請求の範囲
[1] 着脱可能な記録媒体に記録されている AVストリームを再生するとともに、前記 AV ストリームに対応する字幕を表示させるための字幕データを生成する再生装置にお いて、
前記字幕を表示するための文字オブジェクトおよび属性データを含む第 1の情報 の、前記記録媒体、または、前記再生装置内部の記憶部からの読み出しを制御する 読み出し制御手段と、
前記読み出し制御手段により読み出しが制御された前記第 1の情報に含まれる前 記文字オブジェ外を保持する文字オブジェ外保持手段と、
前記読み出し制御手段により読み出しが制御された前記第 1の情報に含まれる前 記属性データを保持する属性データ保持手段と、
フォントデータを取得し、前記文字オブジェ外保持手段により保持された前記文字 オブジェクトを、前記属性データ保持手段により保持された前記属性データおよび前 記フォントデータを用いて字幕データに変換する変換手段と
を備えることを特徴とする再生装置。
[2] ユーザの操作入力を取得する操作入力取得手段を更に備え、
前記読み出し制御手段は、前記操作入力取得手段により取得された前記ユーザの 操作入力に基づいて、前記記録媒体、または、前記再生装置の内部の記憶部に記 憶されている前記第 1の情報の読み出しを制御する
ことを特徴とする請求項 1に記載の再生装置。
[3] ユーザの操作入力を取得する操作入力取得手段と、
前記操作入力取得手段により取得された前記ユーザの操作入力に基づ!ヽて、前 記属性データ保持手段により保持されている前記属性データの変更を制御する属性 データ変更制御手段と
を更に備え、
前記変換手段は、前記属性データ変更制御手段により変更が制御された前記属 性データを基に、前記文字オブジェクトを前記字幕データに変換する
ことを特徴とする請求項 1に記載の再生装置。
[4] ユーザの操作入力を取得する操作入力取得手段を更に備え、
前記変換手段は、前記操作入力取得手段により取得された前記ユーザの操作入 力に基づ 、て、取得する前記フォントデータを変更する
ことを特徴とする請求項 1に記載の再生装置。
[5] ユーザの操作入力を取得する操作入力取得手段を更に備え、
前記読み出し制御手段は、
前記記憶部に記憶されている前記 AVストリームおよび前記第 1の情報の読み出 しを制御するための情報である第 2の情報と、前記記録媒体に記録されて!、る前記 A Vストリームとの読み出しを更に制御し、
前記操作入力取得手段により取得された前記ユーザの操作入力に基づ!、て、前 記第 2の情報の読み出しを制御し、
読み出された前記第 2の情報に基づいて、前記 AVストリームおよび前記第 1の情 報の読み出しを制御する
ことを特徴とする請求項 1に記載の再生装置。
[6] 前記読み出し制御手段により読み出しが制御された前記 AVストリームをデコード する第 1のデコード手段を更に備える
ことを特徴とする請求項 5に記載の再生装置。
[7] 前記変換手段により変換された字幕データ、および、前記第 1のデコード手段によ りデコードされた前記 AVストリームに含まれる映像データを合成して出力する出力手 段を更に備える
ことを特徴とする請求項 6に記載の再生装置。
[8] 前記読み出し制御手段により読み出しが制御された前記第 1の情報をデコードする 第 2のデコード手段と、
前記第 1のデコード手段による前記 AVストリームのデコードの処理タイミングの基 準となるカウント値をカウントするカウント手段と、
前記カウント手段によりカウントされる前記カウント値に基づいて、前記第 2のデコー ド手段による前記第 1の情報のデコードの処理タイミングの基準を計算する計算手段 と を更に備えることを特徴とする請求項 6に記載の再生装置。
[9] 前記読み出し制御手段により読み出しが制御された前記第 1の情報をデコードする デコード手段を更に備え、
前記文字オブジェクト保持手段は前記デコード手段によりデコードされた前記第 1 の情報に含まれる前記文字オブジェクトを保持し、
前記属性データ保持手段は前記デコード手段によりデコードされた前記第 1の情 報に含まれる前記属性データを保持する
ことを特徴とする請求項 1に記載の再生装置。
[10] ネットワークを介して、所定の情報処理装置と情報を授受する通信手段を更に備え 前記再生装置内部の前記記憶部には、前記通信手段により受信された前記第 1の 情報が記憶される
ことを特徴とする請求項 1に記載の再生装置。
[11] 前記記録媒体に記憶されている第 1のデータ群のファイルシステムと、前記再生装 置内部の前記記憶部に記憶されている第 2のデータ群のファイルシステムとを基に、 前記第 1のデータ群および前記第 2のデータ群のそれぞれの少なくとも一部を含む 仮想的なファイルシステムを生成する仮想ファイルシステム生成手段を更に備える ことを特徴とする請求項 10に記載の再生装置。
[12] 前記再生装置内部の前記記憶部に記憶されている前記第 1の情報には、前記仮 想的なファイルシステムの生成に関する第 2の情報が含まれ、
前記読み出し制御手段は、前記再生装置内部の前記記憶部に記憶されている前 記第 2の情報の読み出しを更に制御し、
前記仮想ファイルシステム生成手段は、前記読み出し制御手段により読み出しが 制御された前記第 2の情報を基に、前記仮想的なファイルシステムを生成する ことを特徴とする請求項 11に記載の再生装置。
[13] 前記読み出し制御手段により読み出しが制御された前記第 1の情報を記憶する記 憶手段を更に備え、
前記記憶手段は、前記前記読み出し制御手段により一括して全体の読み出しが制 御された前記第 1の情報を記憶する
ことを特徴とする請求項 1に記載の再生装置。
[14] 前記読み出し制御手段により読み出しが制御される前記第 1の情報のデコード開 始点を示す情報と、前記デコード開始点のタイムスタンプとの関係を示すテーブル情 報を生成するテーブル情報生成手段を更に備え、
前記読み出し制御手段は、前記テーブル情報生成手段により生成された前記テー ブル情報を参照して、前記第 1の情報の読み出しを制御する
ことを特徴とする請求項 1に記載の再生装置。
[15] 着脱可能な記録媒体に記録されている AVストリームを再生するとともに、前記 AV ストリームに対応する字幕を表示させるための字幕データを生成する再生装置の再 生方法において、
前記字幕を表示するための文字オブジェクトおよび属性データを含む第 1の情報 の、前記記録媒体、または、前記再生装置の内部の記憶部からの読み出しを制御す る読み出し制御ステップと、
前記読み出し制御ステップの処理により読み出しが制御された前記第 1の情報に 含まれる前記文字オブジェクトを保持する文字オブジェクト保持ステップと、
前記読み出し制御ステップの処理により読み出しが制御された前記第 1の情報に 含まれる前記属性データを保持する属性データ保持ステップと、
フォントデータを取得し、前記文字オブジェクト保持ステップにより保持された前記 文字オブジェクトを、前記属性データ保持ステップにより保持された前記属性データ および前記フォントデータを用いて字幕データに変換する変換ステップと
を含むことを特徴とする再生方法。
[16] 着脱可能な記録媒体に記録されている AVストリームを再生するとともに、前記 AV ストリームに対応する字幕を表示させるための字幕データを生成する処理をコンビュ ータに実行させるためのプログラムであって、
前記字幕を表示するための文字オブジェクトおよび属性データを含む第 1の情報 の、前記記録媒体、または、再生装置の内部の記憶部からの読み出しを制御する読 み出し制御ステップと、 前記読み出し制御ステップの処理により読み出しが制御された前記第 1の情報に 含まれる前記文字オブジェクトを保持する文字オブジェクト保持ステップと、 前記読み出し制御ステップの処理により読み出しが制御された前記第 1の情報に 含まれる前記属性データを保持する属性データ保持ステップと、
フォントデータを取得し、前記文字オブジェクト保持ステップにより保持された前記 文字オブジェクトを、前記属性データ保持ステップにより保持された前記属性データ および前記フォントデータを用いて字幕データに変換する変換ステップと
を含むことを特徴とするコンピュータが読み取り可能なプログラムが格納されている プログラム格納媒体。
着脱可能な記録媒体に記録されている AVストリームを再生するとともに、前記 AV ストリームに対応する字幕を表示させるための字幕データを生成する処理をコンビュ ータに実行させるためのプログラムであって、
前記字幕を表示するための文字オブジェクトおよび属性データを含む第 1の情報 の、前記記録媒体、または、再生装置の内部の記憶部からの読み出しを制御する読 み出し制御ステップと、
前記読み出し制御ステップの処理により読み出しが制御された前記第 1の情報に 含まれる前記文字オブジェクトを保持する文字オブジェクト保持ステップと、 前記読み出し制御ステップの処理により読み出しが制御された前記第 1の情報に 含まれる前記属性データを保持する属性データ保持ステップと、
フォントデータを取得し、前記文字オブジェクト保持ステップにより保持された前記 文字オブジェクトを、前記属性データ保持ステップにより保持された前記属性データ および前記フォントデータを用いて字幕データに変換する変換ステップと
を含むことを特徴とする処理をコンピュータに実行させるためのプログラム。
PCT/JP2005/002232 2004-02-16 2005-02-15 再生装置および再生方法、プログラム格納媒体、並びにプログラム WO2005079063A1 (ja)

Priority Applications (9)

Application Number Priority Date Filing Date Title
KR1020117019372A KR101161530B1 (ko) 2004-02-16 2005-02-15 재생 장치 및 재생 방법
CN2005800050866A CN1922869B (zh) 2004-02-16 2005-02-15 重放装置以及重放方法
KR1020117019375A KR101226884B1 (ko) 2004-02-16 2005-02-15 재생 장치 및 재생 방법
US10/589,192 US7805058B2 (en) 2004-02-16 2005-02-15 Reproduction device, reproduction method, program storage medium, and program
KR1020067016321A KR101122382B1 (ko) 2004-02-16 2005-02-15 재생 장치 및 재생 방법
EP05719134A EP1718074A4 (en) 2004-02-16 2005-02-15 REPRODUCTION DEVICE, REPRODUCTION METHOD, PROGRAM STORAGE MEDIUM, AND PROGRAM
KR1020117019373A KR101161529B1 (ko) 2004-02-16 2005-02-15 재생 장치 및 재생 방법
KR1020117019377A KR101226775B1 (ko) 2004-02-16 2005-02-15 재생 장치 및 재생 방법
US12/858,477 US8615158B2 (en) 2004-02-16 2010-08-18 Reproduction device, reproduction method, program storage medium, and program

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2004-038573 2004-02-16
JP2004038573 2004-02-16
JP2004204875A JP5119566B2 (ja) 2004-02-16 2004-07-12 再生装置および再生方法、プログラム記録媒体、並びにプログラム
JP2004-204875 2004-07-12

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US10/589,192 A-371-Of-International US7805058B2 (en) 2004-02-16 2005-02-15 Reproduction device, reproduction method, program storage medium, and program
US12/858,477 Continuation US8615158B2 (en) 2004-02-16 2010-08-18 Reproduction device, reproduction method, program storage medium, and program

Publications (1)

Publication Number Publication Date
WO2005079063A1 true WO2005079063A1 (ja) 2005-08-25

Family

ID=34863471

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/002232 WO2005079063A1 (ja) 2004-02-16 2005-02-15 再生装置および再生方法、プログラム格納媒体、並びにプログラム

Country Status (6)

Country Link
US (2) US7805058B2 (ja)
EP (1) EP1718074A4 (ja)
JP (1) JP5119566B2 (ja)
KR (5) KR101226884B1 (ja)
CN (1) CN102523457B (ja)
WO (1) WO2005079063A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1789972A2 (en) * 2004-09-13 2007-05-30 LG Electronics Inc. Method and apapratus for reproducing data from recording medium using local storage
EP1789958A2 (en) * 2004-09-13 2007-05-30 LG Electronics Inc. Method and apparatus for reproducing a data recorded in recording medium using a local storage
EP1817773A2 (en) * 2004-12-03 2007-08-15 LG Electronics Inc. Method and apparatus for reproducing data from recording medium using local storage
US7792418B2 (en) 2004-10-12 2010-09-07 Lg Electronics, Inc. Method and apparatus for reproducing data from recording medium using local storage
WO2016132482A1 (ja) * 2015-02-18 2016-08-25 三菱電機株式会社 再生装置及び再生方法

Families Citing this family (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101826363B (zh) * 2003-11-10 2012-11-28 松下电器产业株式会社 记录介质,播放装置,程序,播放方法,系统集成电路
US8472792B2 (en) 2003-12-08 2013-06-25 Divx, Llc Multimedia distribution system
US7519274B2 (en) 2003-12-08 2009-04-14 Divx, Inc. File format for multiple track digital data
WO2006009221A1 (ja) 2004-07-22 2006-01-26 Matsushita Electric Industrial Co., Ltd. 再生装置、再生方法、プログラム及びコンピュータ読取可能な記録媒体
US7613384B2 (en) 2004-08-17 2009-11-03 Lg Electronics Inc. Method for configuring composite file structure for data reproduction, and method and apparatus for reproducing data using the composite file structure
US7609939B2 (en) 2004-08-17 2009-10-27 Lg Electronics Inc. Method and apparatus of reproducing data recorded on recording medium and local storage
US7609945B2 (en) 2004-08-17 2009-10-27 Lg Electronics Inc. Recording medium, and method and apparatus for reproducing data from the recording medium
WO2006019259A1 (en) 2004-08-17 2006-02-23 Lg Electronics Inc. Method and apparatus of reproducing data recorded on recording medium and local storage
US7725010B2 (en) 2004-08-17 2010-05-25 Lg Electronics, Inc. Method and apparatus of reproducing data recorded on recording medium and local storage
US7599611B2 (en) 2004-09-13 2009-10-06 Lg Electronics Co. Recording medium, and method and apparatus of reproducing data recorded on the same
US8473475B2 (en) * 2004-09-15 2013-06-25 Samsung Electronics Co., Ltd. Information storage medium for storing metadata supporting multiple languages, and systems and methods of processing metadata
KR20060063601A (ko) 2004-12-03 2006-06-12 엘지전자 주식회사 로컬 스토리지에 데이터를 다운로드/업데이트 하는 방법 및장치
CN101057286B (zh) 2004-11-08 2010-04-07 Lg电子株式会社 利用本地存储器从记录介质中再现出数据的方法和装置
KR20060065476A (ko) 2004-12-10 2006-06-14 엘지전자 주식회사 기록매체, 기록매체 내의 콘텐츠 서치방법 및 기록매체재생방법과 재생장치
KR20060081323A (ko) 2005-01-07 2006-07-12 엘지전자 주식회사 로컬 스토리지를 이용한 기록매체 재생방법 및 재생장치
KR100656207B1 (ko) * 2005-03-14 2006-12-13 삼성전자주식회사 ―vr포맷에서 북마크를 이용해 자동으로 재생목록을 생성하는 것이 가능한 영상 기록/재생 장치 및 그 재생목록 생성방법
KR101267956B1 (ko) * 2005-03-18 2013-05-27 소니 가부시끼가이샤 정보 처리 장치 및 정보 처리 방법과 컴퓨터 판독가능한 기록 매체
JP4715278B2 (ja) 2005-04-11 2011-07-06 ソニー株式会社 情報処理装置および情報処理方法、プログラム格納媒体、プログラム、並びに提供装置
US20070106516A1 (en) * 2005-11-10 2007-05-10 International Business Machines Corporation Creating alternative audio via closed caption data
JP4687424B2 (ja) * 2005-11-25 2011-05-25 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにコンピュータ・プログラム
BRPI0619181B1 (pt) 2005-11-29 2020-10-06 Pioneer Corporation Aparelho e método de reprodução de informações
JP2007179591A (ja) * 2005-12-26 2007-07-12 Toshiba Corp 動画像再生装置
WO2007106844A2 (en) 2006-03-14 2007-09-20 Divx, Inc. Federated digital rights management scheme including trusted systems
JP2007281537A (ja) * 2006-04-03 2007-10-25 Hitachi Ltd 録画再生装置及び録画再生装置を含むテレビジョン受信機
DK2418594T3 (en) * 2006-11-10 2015-08-24 United Video Properties Inc Visualization and grouping method of maintaining the order of the assets in a playlist.
US20080115173A1 (en) 2006-11-10 2008-05-15 Guideworks Llc Systems and methods for using playlists
JP5100746B2 (ja) 2007-03-22 2012-12-19 三菱電機株式会社 映像再生装置および映像再生方法
JP2008283518A (ja) * 2007-05-11 2008-11-20 Ricoh Co Ltd 通信装置およびその制御方法
JP4349441B2 (ja) * 2007-06-12 2009-10-21 ソニー株式会社 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
WO2009065137A1 (en) 2007-11-16 2009-05-22 Divx, Inc. Hierarchical and reduced index structures for multimedia files
EP2242263A1 (en) * 2008-02-14 2010-10-20 Panasonic Corporation Reproduction device, integrated circuit, reproduction method, program, and computer-readable recording medium
EP2257931A4 (en) * 2008-06-06 2011-03-16 Divx Inc SYSTEMS AND METHOD FOR WRITING FILES OPTIMIZATION FOR MULTIMEDIA FILES
JP4577409B2 (ja) * 2008-06-10 2010-11-10 ソニー株式会社 再生装置、再生方法、プログラム、及び、データ構造
US8510303B2 (en) 2009-01-07 2013-08-13 Divx, Llc Singular, collective and automated creation of a media guide for online content
US9319444B2 (en) 2009-06-22 2016-04-19 Monotype Imaging Inc. Font data streaming
WO2011023134A1 (en) 2009-08-28 2011-03-03 Beijing Innovation Works Technology Company Limited Method and system for managing distributed storage system through virtual file system
EP2507995A4 (en) 2009-12-04 2014-07-09 Sonic Ip Inc SYSTEMS AND METHODS FOR TRANSPORTING ELEMENTARY BIT TRAIN CRYPTOGRAPHIC MATERIAL
US8615709B2 (en) 2010-04-29 2013-12-24 Monotype Imaging Inc. Initiating font subsets
US8914534B2 (en) 2011-01-05 2014-12-16 Sonic Ip, Inc. Systems and methods for adaptive bitrate streaming of media stored in matroska container files using hypertext transfer protocol
US9467708B2 (en) 2011-08-30 2016-10-11 Sonic Ip, Inc. Selection of resolutions for seamless resolution switching of multimedia content
KR102163151B1 (ko) 2011-08-30 2020-10-08 디빅스, 엘엘씨 복수의 최대 비트레이트 레벨들을 사용하여 인코딩된 비디오를 인코딩하고 스트리밍하기 위한 시스템들 및 방법들
US8818171B2 (en) 2011-08-30 2014-08-26 Kourosh Soroushian Systems and methods for encoding alternative streams of video for playback on playback devices having predetermined display aspect ratios and network connection maximum data rates
US8909922B2 (en) 2011-09-01 2014-12-09 Sonic Ip, Inc. Systems and methods for playing back alternative streams of protected content protected using common cryptographic information
US8964977B2 (en) 2011-09-01 2015-02-24 Sonic Ip, Inc. Systems and methods for saving encoded media streamed using adaptive bitrate streaming
WO2013122909A1 (en) * 2012-02-13 2013-08-22 Ortsbo, Inc. Real time closed captioning language translation
US20130215126A1 (en) * 2012-02-17 2013-08-22 Monotype Imaging Inc. Managing Font Distribution
US10452715B2 (en) 2012-06-30 2019-10-22 Divx, Llc Systems and methods for compressing geotagged video
CN102843603A (zh) * 2012-08-17 2012-12-26 Tcl集团股份有限公司 一种智能电视及其字幕控制的方法
US9817615B2 (en) 2012-12-03 2017-11-14 Monotype Imaging Inc. Network based font management for imaging devices
US9569865B2 (en) 2012-12-21 2017-02-14 Monotype Imaging Inc. Supporting color fonts
US9191457B2 (en) 2012-12-31 2015-11-17 Sonic Ip, Inc. Systems, methods, and media for controlling delivery of content
US9313510B2 (en) 2012-12-31 2016-04-12 Sonic Ip, Inc. Use of objective quality measures of streamed content to reduce streaming bandwidth
EP2943894A2 (en) 2013-01-09 2015-11-18 Monotype Imaging Inc. Advanced text editor
US9906785B2 (en) 2013-03-15 2018-02-27 Sonic Ip, Inc. Systems, methods, and media for transcoding video data according to encoding parameters indicated by received metadata
US10397292B2 (en) 2013-03-15 2019-08-27 Divx, Llc Systems, methods, and media for delivery of content
US10283013B2 (en) * 2013-05-13 2019-05-07 Mango IP Holdings, LLC System and method for language learning through film
US9094737B2 (en) 2013-05-30 2015-07-28 Sonic Ip, Inc. Network video streaming with trick play based on separate trick play files
US9967305B2 (en) 2013-06-28 2018-05-08 Divx, Llc Systems, methods, and media for streaming media content
CN104424192A (zh) * 2013-08-20 2015-03-18 北大方正集团有限公司 形成多字型字库、通过该字库显示不同字型的方法及装置
US9317777B2 (en) 2013-10-04 2016-04-19 Monotype Imaging Inc. Analyzing font similarity for presentation
US9866878B2 (en) 2014-04-05 2018-01-09 Sonic Ip, Inc. Systems and methods for encoding and playing back video at different frame rates using enhancement layers
US9691169B2 (en) 2014-05-29 2017-06-27 Monotype Imaging Inc. Compact font hinting
JP6618246B2 (ja) 2014-09-30 2019-12-11 キヤノン株式会社 情報処理装置、表示方法、及びコンピュータプログラム
US10542233B2 (en) * 2014-10-22 2020-01-21 Genetec Inc. System to dispatch video decoding to dedicated hardware resources
CN106156032B (zh) * 2015-03-25 2020-01-17 北京奇虎科技有限公司 清理文件的识别方法及装置
US10115215B2 (en) 2015-04-17 2018-10-30 Monotype Imaging Inc. Pairing fonts for presentation
US11537262B1 (en) 2015-07-21 2022-12-27 Monotype Imaging Inc. Using attributes for font recommendations
JP6812141B2 (ja) * 2016-05-31 2021-01-13 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
US10148989B2 (en) 2016-06-15 2018-12-04 Divx, Llc Systems and methods for encoding video content
CA3028354C (en) * 2016-07-05 2021-02-16 Sharp Kabushiki Kaisha Systems and methods for communicating user settings in conjunction with execution of an application
US10498795B2 (en) 2017-02-17 2019-12-03 Divx, Llc Systems and methods for adaptive switching between multiple content delivery networks during adaptive bitrate streaming
US11805293B2 (en) 2017-03-29 2023-10-31 Samsung Electronics Co., Ltd. Device and method for transmitting and receiving signal in multimedia system
US11334750B2 (en) 2017-09-07 2022-05-17 Monotype Imaging Inc. Using attributes for predicting imagery performance
US10909429B2 (en) 2017-09-27 2021-02-02 Monotype Imaging Inc. Using attributes for identifying imagery for selection
WO2019089578A1 (en) 2017-10-30 2019-05-09 Monotype Imaging Inc. Font identification from imagery
CN108989876B (zh) * 2018-07-27 2021-07-30 青岛海信传媒网络技术有限公司 一种字幕显示的方法及装置
US20200118593A1 (en) * 2018-10-16 2020-04-16 Vudu Inc. Systems and methods for identifying scene changes in video files
CN115657900B (zh) * 2022-07-15 2023-09-22 内蒙古师范大学 基于自动翻译及文本转换的多文种私章定制方法与装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10117332A (ja) * 1996-10-11 1998-05-06 Toshiba Corp マルチネットワークテレビジョン装置
JP2002236479A (ja) * 2001-02-08 2002-08-23 Aiwa Co Ltd 集積回路
JP2002369154A (ja) * 2001-04-02 2002-12-20 Matsushita Electric Ind Co Ltd ディジタル映像コンテンツの映像再生装置、映像再生方法、映像再生プログラム、パッケージメディア
JP2004221765A (ja) * 2003-01-10 2004-08-05 Toshiba Corp 情報再生装置及び情報再生方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01280853A (ja) * 1988-03-03 1989-11-13 Fujitsu Ltd 端末コンピユータ
JPH04122659A (ja) 1990-09-14 1992-04-23 Seikosha Co Ltd プリンタのフォント制御装置
JPH04332918A (ja) * 1991-05-02 1992-11-19 Yamaha Corp Cd再生装置の文字表示回路およびcdの情報配置方法
JPH0890864A (ja) 1994-09-20 1996-04-09 Casio Comput Co Ltd 印刷装置
CN1104725C (zh) * 1995-11-24 2003-04-02 株式会社东芝 多种语言记录介质的再现装置
WO2001018811A1 (fr) * 1999-09-09 2001-03-15 Sony Corporation Dispositif et procede d'enregistrement/lecture de donnees
JP4122659B2 (ja) 1999-10-18 2008-07-23 ソニー株式会社 発振信号生成装置及び発振信号生成方法
JP2001186454A (ja) * 1999-12-24 2001-07-06 Matsushita Electric Ind Co Ltd 光ディスク再生装置
KR20030007706A (ko) * 2001-04-02 2003-01-23 마츠시타 덴끼 산교 가부시키가이샤 디지털 영상 콘텐츠의 영상재생 장치, 영상재생 방법,영상재생 프로그램, 패키지 미디어
US20040081434A1 (en) 2002-10-15 2004-04-29 Samsung Electronics Co., Ltd. Information storage medium containing subtitle data for multiple languages using text data and downloadable fonts and apparatus therefor
JP4165895B2 (ja) * 2003-01-20 2008-10-15 エルジー エレクトロニクス インコーポレーテッド 記録された静止映像の再生を管理するためのデータ構造を有する記録媒体、それによる記録と再生の方法及び装置
JP4534501B2 (ja) * 2004-01-30 2010-09-01 株式会社日立製作所 映像再生装置および記録媒体
CN1922869B (zh) * 2004-02-16 2012-02-08 索尼株式会社 重放装置以及重放方法
JP4715278B2 (ja) 2005-04-11 2011-07-06 ソニー株式会社 情報処理装置および情報処理方法、プログラム格納媒体、プログラム、並びに提供装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10117332A (ja) * 1996-10-11 1998-05-06 Toshiba Corp マルチネットワークテレビジョン装置
JP2002236479A (ja) * 2001-02-08 2002-08-23 Aiwa Co Ltd 集積回路
JP2002369154A (ja) * 2001-04-02 2002-12-20 Matsushita Electric Ind Co Ltd ディジタル映像コンテンツの映像再生装置、映像再生方法、映像再生プログラム、パッケージメディア
JP2004221765A (ja) * 2003-01-10 2004-08-05 Toshiba Corp 情報再生装置及び情報再生方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1718074A4 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1789972A2 (en) * 2004-09-13 2007-05-30 LG Electronics Inc. Method and apapratus for reproducing data from recording medium using local storage
EP1789958A2 (en) * 2004-09-13 2007-05-30 LG Electronics Inc. Method and apparatus for reproducing a data recorded in recording medium using a local storage
EP1789958A4 (en) * 2004-09-13 2009-12-09 Lg Electronics Inc METHOD AND DEVICE FOR REPRODUCING DATA RECORDED IN A RECORDING MEDIUM USING A LOCAL STORAGE
EP1789972A4 (en) * 2004-09-13 2009-12-30 Lg Electronics Inc METHOD AND APPARATUS FOR READING DATA FROM A RECORDING MEDIUM USING LOCAL STORAGE
US7792418B2 (en) 2004-10-12 2010-09-07 Lg Electronics, Inc. Method and apparatus for reproducing data from recording medium using local storage
EP1817773A2 (en) * 2004-12-03 2007-08-15 LG Electronics Inc. Method and apparatus for reproducing data from recording medium using local storage
EP1817773A4 (en) * 2004-12-03 2009-12-23 Lg Electronics Inc METHOD AND APPARATUS FOR REPRODUCING DATA FROM A RECORDING MEDIUM USING LOCAL MEMORY
WO2016132482A1 (ja) * 2015-02-18 2016-08-25 三菱電機株式会社 再生装置及び再生方法

Also Published As

Publication number Publication date
JP5119566B2 (ja) 2013-01-16
KR20110110336A (ko) 2011-10-06
KR101161530B1 (ko) 2012-07-02
US7805058B2 (en) 2010-09-28
US8615158B2 (en) 2013-12-24
KR20110110335A (ko) 2011-10-06
KR20060123546A (ko) 2006-12-01
KR101122382B1 (ko) 2012-04-12
EP1718074A4 (en) 2012-02-15
KR101226884B1 (ko) 2013-01-25
KR20110110338A (ko) 2011-10-06
KR101226775B1 (ko) 2013-01-25
CN102523457A (zh) 2012-06-27
CN102523457B (zh) 2015-05-20
KR101161529B1 (ko) 2012-07-02
US20100310228A1 (en) 2010-12-09
KR20110110337A (ko) 2011-10-06
JP2005269595A (ja) 2005-09-29
EP1718074A1 (en) 2006-11-02
US20070172199A1 (en) 2007-07-26

Similar Documents

Publication Publication Date Title
JP5119566B2 (ja) 再生装置および再生方法、プログラム記録媒体、並びにプログラム
US7982802B2 (en) Text subtitle decoder and method for decoding text subtitle streams
RU2378722C2 (ru) Носитель записи, способ и устройство для воспроизведения потоков текстовых субтитров
US7643732B2 (en) Recording medium and method and apparatus for decoding text subtitle streams
US7756398B2 (en) Recording medium and method and apparatus for reproducing text subtitle stream for updating palette information
KR20070028325A (ko) 텍스트 서브타이틀 디코더 및 텍스트 서브타이틀 스트림디코딩 방법
JP2007522595A (ja) 記録媒体及びテキスト・サブタイトル・ストリームのデコード方法と装置
WO2005088634A1 (en) Recording medium, method, and apparatus for reproducing text subtitle streams
US8208782B2 (en) Recording device, recording method, and recording program
US8145033B2 (en) Recording medium having data structure for managing reproducton duration of still pictures recorded thereon and recording and reproducing methods and apparatuses
JP5120484B2 (ja) 再生装置および再生方法、プログラム記録媒体、並びにプログラム
KR20070028329A (ko) 텍스트 서브타이틀 재생 방법 및 텍스트 서브타이틀 디코딩시스템

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 3661/DELNP/2006

Country of ref document: IN

WWE Wipo information: entry into national phase

Ref document number: 2005719134

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2007172199

Country of ref document: US

Ref document number: 10589192

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1020067016321

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 200580005086.6

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Ref document number: DE

WWP Wipo information: published in national office

Ref document number: 2005719134

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020067016321

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 10589192

Country of ref document: US