WO2006109673A1 - 情報処理装置および情報処理方法、プログラム格納媒体、プログラム、データ構造、並びに記録媒体の製造方法。 - Google Patents

情報処理装置および情報処理方法、プログラム格納媒体、プログラム、データ構造、並びに記録媒体の製造方法。 Download PDF

Info

Publication number
WO2006109673A1
WO2006109673A1 PCT/JP2006/307334 JP2006307334W WO2006109673A1 WO 2006109673 A1 WO2006109673 A1 WO 2006109673A1 JP 2006307334 W JP2006307334 W JP 2006307334W WO 2006109673 A1 WO2006109673 A1 WO 2006109673A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
font style
outline
character object
font
Prior art date
Application number
PCT/JP2006/307334
Other languages
English (en)
French (fr)
Inventor
Kouichi Uchimura
Kazuo Yamamoto
Yoshiyuki Kobayashi
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to EP06731282A priority Critical patent/EP1871097A4/en
Priority to KR1020137019610A priority patent/KR101383290B1/ko
Priority to KR1020067025974A priority patent/KR101324129B1/ko
Priority to US11/629,082 priority patent/US8208531B2/en
Publication of WO2006109673A1 publication Critical patent/WO2006109673A1/ja
Priority to US13/490,076 priority patent/US10075668B2/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/278Subtitling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2541Blu-ray discs; Blue laser DVR discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/781Television signal recording using magnetic recording on disks or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8211Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a sound signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8233Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a character code signal

Definitions

  • the present invention relates to an information processing apparatus, an information processing method, a program storage medium, a program, a data structure, and a recording medium manufacturing method, and in particular, an information processing that enables a user to reliably determine subtitles.
  • the present invention relates to an apparatus, an information processing method, a program storage medium, a program, a data structure, and a recording medium manufacturing method.
  • DVD Digital Versatile Disc
  • content data such as video and audio is multiplexed together with various sub-picture data such as subtitles and recorded as a program stream on the disc.
  • Navigation data for interactive playback of the stream is also recorded on the disc.
  • Such technology is also disclosed in, for example, Patent Document 1 and Patent Document 2! /
  • interactive playback refers to playback from a desired position or playback in a desired order, as well as a multi-angle function that enables playback of images taken from various angles.
  • Various languages of DVD such as the multi-language function that enables playback in the language of your choice, the violent scene, etc. V, playback that the user uses the function.
  • the program stream can multiplex a plurality of audio streams and a plurality of caption data streams. This makes it possible, for example, to record subtitle data in different languages on a single disc for one video content such as a movie, and the user can start video playback or during playback. , You can select audio and subtitles in your preferred language.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2003-140662
  • Patent Document 2 JP 2002-311967
  • each of the sequentially played back frames includes video and corresponding subtitles.
  • the user cannot distinguish the subtitle because the subtitle is combined with the video. There was a problem that there was.
  • the present invention has been made in view of such a situation, and makes it possible for a user to reliably determine captions.
  • An information processing apparatus is an information processing apparatus that generates subtitle data for displaying a subtitle corresponding to a predetermined AV stream, and is a character that holds a character object for displaying a subtitle.
  • Font style specification information that can specify at least a font style with an outline as the font style to be applied to the object holding means and the character object, and a font style with an outline is specified in the font style specification information.
  • the attribute data holding means for holding attribute data including at least width specification information that can specify the width of the outline of the character object corresponding to the font style and the attribute data holding means.
  • Preserved font style specification information If a font style with an outline is specified, the font style data of the font style with the outline is acquired, and the font style is based on the width specification information held by the attribute data holding means.
  • the conversion means obtains the first font style data of the outline font style when the font style designation information specifies the font style and outline font style. And the width of the outline of the character object corresponding to the first font style data obtained by the obtaining means based on the width designation information.
  • the outline of the character object is expanded and contracted at the same rate in both the inner direction toward the white part and the opposite outer direction, and the width is expanded and contracted in the inner direction and the outer direction.
  • the width change means for outputting the second font style data of the font style with the mark, and the acquisition means on the character object corresponding to the second font style data output from the width change means Perform processing to synthesize character object data corresponding to the first font style data, and obtain a font-style character object data outline with an outline whose width is expanded or contracted only in the outer direction. It is possible to have a compositing means for outputting subtitle data.
  • the attribute information held by the attribute data holding means is the font style with the outline when the font style specification information specifies the outline and the font style. It further includes color designation information that can specify the outline color for the corresponding character object, and the conversion means updates the font style data based on the color designation information in addition to the width designation information held by the attribute data holding means.
  • the character object held by the character object holding means can be converted into subtitle data using at least the updated font style data.
  • An information processing method of the present invention is an information processing method of an information processing device that generates caption data for displaying captions corresponding to a predetermined AV stream, and includes a character object for displaying captions.
  • Character object retention control step for controlling retention, font style specification information that can specify at least a font style with an outline as a font style to be applied to the character object, and font style specification information.
  • Attribute data that controls the retention of attribute data that includes at least width specification information that can specify the width of the outline for the character object corresponding to the font style with the outline.
  • step of controlling processing font style specifying information Nio held by, One outline Te was font style is specified, acquires font style data of the font style having an outline, the genus
  • the font style data is updated based on the width designation information retained by the processing of the property data retention control step, and the character object retained by the character object retaining means is converted into subtitle data using at least the updated font style data.
  • a conversion step for converting is a step for converting.
  • Each of the program storage medium and the program of the present invention is a program storage medium and a program corresponding to the above-described information processing method of the present invention.
  • caption data for displaying a caption corresponding to a predetermined AV stream is generated.
  • caption data is generated as follows.
  • a character object for displaying subtitles is held, font style specification information that can specify at least a font style with an outline as a font style to be applied to the character object, and font style specification
  • the attribute data including at least the width specification information that can specify the width of the outline of the character object corresponding to the font style is retained. ing.
  • the font style specification information specified specifies the outline and the font style
  • the font style data of the outline and the font style is acquired and the saved width Based on the designation information, the font style data is updated, and the retained character object is converted into subtitle data using at least the updated font style data.
  • the data structure of the present invention is a data structure of information necessary for generating subtitle data for displaying subtitles corresponding to a predetermined AV stream, and is a character object and character for displaying subtitles. If the font style to be applied to the object is one of the outlines, the font style specification information that can specify at least the font style, and the font style specification information, the font style specification information is one of the outlines and the font style is specified. And the attribute data including at least width designation information capable of designating an outline width of the character object corresponding to the font style.
  • the data structure is included in a predetermined stream, and the clip manages the predetermined stream.
  • the information file can contain specification information that specifies the file for the character object.
  • the data structure is stored in a file different from the file in which the AV stream is stored, and the AV stream is stored in the PlayList file that is the playback management information!
  • the structure is specified by the SubPlay system stored in the PlayList file.
  • the recording medium of the present invention has a data structure of information necessary for generating caption data for displaying captions corresponding to a predetermined AV stream, and is a character object for displaying captions. If the font style to be applied to the character object is one of the outlines, the font style specification information that can specify at least the font style, and the font style specification information is one of the outlines and the font style that is specified. In addition, data having a data structure including attribute data including at least width designation information capable of designating an outline width of a character object corresponding to the font style with the outline is recorded.
  • the recording medium manufacturing method of the present invention is a data structure of information necessary for generating subtitle data for causing a playback device to play back subtitles corresponding to a predetermined AV stream, and displays the subtitles.
  • Font style specification information that can specify at least a font style with an outline as a font style applied to the character object, and a font style with an outline is specified in the font style specification information.
  • data having a data structure including at least attribute data including at least width specifying information for specifying an outline width of the character object corresponding to the font style is generated.
  • the generated data becomes a playback target of the playback device. Comprising the step of recording the recording medium.
  • Subtitle data for displaying subtitles corresponding to the AV stream is generated.
  • a font object that can specify at least a font style with an outline as a character object for displaying subtitles and a font style applied to the character object
  • the font style is specified in the font style specification information and the font style specification information
  • the outline of the character object corresponding to the font style is selected.
  • Subtitle data is generated using attribute data including at least width specification information that can specify the width of the video.
  • the present invention it is possible to display subtitles corresponding to an AV stream when a predetermined AV stream is being reproduced.
  • the user can reliably determine the caption.
  • FIG. 1 is a block diagram showing a configuration of a playback device to which the present invention is applied.
  • FIG. 2 is a diagram showing an example of an application format on a recording medium mounted on a playback device to which the present invention is applied.
  • FIG. 3 is a diagram for explaining a different example of an application format on a recording medium mounted on a playback apparatus to which the present invention is applied.
  • FIG. 4 is a functional block diagram for explaining functions of the controller of FIG. 1.
  • FIG. 5 is a diagram showing an example of an optical disk file system and a local storage file system.
  • FIG. 6 is a diagram showing an example of a file system obtained by merging the two file systems in FIG.
  • FIG. 7 is a diagram for explaining a playlist and data that can be referred to by the playlist.
  • FIG. 8 is a diagram for explaining data to be additionally distributed.
  • FIG. 9 is a diagram illustrating the syntax of SubPlayItem.
  • FIG. 10 is a diagram showing a configuration example of a text subtitle file.
  • FIG. 11 is a diagram showing the syntax of the text subtitle file of FIG.
  • FIG. 12 is a diagram showing the syntax of each segment constituting the text subtitle in FIG.
  • FIG.13 Explains the syntax of segment_descriptor among the components of the segment in Fig.12. It is a figure to do.
  • FIG. 14 is a diagram illustrating values that can be specified with segmenUype in FIG.
  • FIG. 15 is a diagram showing the syntax of dialog_style_segment among the segments constituting the text subtitle of FIG.
  • FIG. 16 is a diagram for explaining the syntax of dialog_style_set among the components of dialog_style_segment in FIG.
  • FIG. 17 is a diagram for explaining the syntax of dialog_style_set among the components of dialog_style_segment in FIG.
  • FIG. 18 is a diagram for explaining values that can be specified with player_style_flag in FIG.
  • FIG. 19 is a diagram for explaining values that can be specified with textjlow in FIG.
  • FIG. 20 is a diagram for explaining values that can be specified in text_horizontal_alignment in FIG.
  • FIG. 21 is a diagram for explaining values that can be specified with text_vertical_alignment in FIG.
  • FIG. 22 is a diagram for explaining values that can be specified with font_style in FIG.
  • FIG.23 An example of a table in which the parts necessary for applying the present invention are updated to Table 9-59 (Data—type definition) of the conventional Blu-Ray Disc Read-Only Format Version 0.89r3 FIG.
  • FIG. 24 is a diagram showing a virtual storage area of the local storage in FIG. 1.
  • FIG. 25 is a block diagram for explaining a detailed configuration of the decoder in FIG. 1.
  • FIG. 26 is a block diagram for explaining a detailed configuration of a text subtitle processing unit in FIG. 25.
  • FIG. 27 is a block diagram for explaining a detailed configuration of the font rasterizer of FIG. 26.
  • FIG. 28 is a diagram illustrating an example of character object data in a normal font style.
  • FIG. 29 shows an example of outline-style character object data.
  • FIG. 30 is a diagram for explaining an example of a conventional method among outline size (width) changing methods.
  • FIG. 31 is a diagram for explaining an example of a technique to which the present invention is applied among the outline size (width) changing techniques.
  • FIG. 32 is a flowchart for explaining playback processing.
  • FIG. 33 is a flowchart for explaining content reproduction processing.
  • FIG. 34 is a flowchart for explaining subtitle display processing.
  • FIG. 35 is a flowchart for explaining subtitle display processing.
  • FIG. 36 is a diagram for explaining the manufacture of a recording medium on which data reproducible by the reproducing device of FIG. 1 is recorded.
  • FIG. 37 is a diagram for explaining the manufacture of a recording medium on which data that can be played back by the playback device of FIG. 1 is recorded.
  • FIG. 1 is a block diagram showing a configuration example of a playback device 1 as an information processing device to which the present invention is applied.
  • the controller 21 reads the navigation program (described later) recorded on the optical disk 11 by controlling the optical disk drive 22 or the power to execute a prepared control program, and stores it in the memory 23. By unfolding and executing, the entire operation of the playback device 1 is controlled. For example, the controller 21 can display a predetermined menu screen on an external display device when the optical disc 11 is loaded.
  • the optical disk drive 22 reads data from the optical disk 11 according to the control by the controller 21 and outputs the read data to the controller 21, the memory 23, or the decoder 26. Information power read from the optical disc 11 If the information is a navigation program or a play list, the information read by the optical disc drive 22 is output to the controller 21 or the memory 23. If the information power AV stream read from the optical disk 11 is text data, the information read by the optical disk drive 22 is output to the decoder 26.
  • FIG. 2 is a diagram illustrating an example of the application format of the recording medium.
  • the recording medium referred to here includes, in addition to the optical disk 11 mounted on the reproducing apparatus 1 to which the present invention is applied, for example, a magnetic disk, a semiconductor memory, and the like.
  • This application format has two layers, PI ayList and Clip, for AV (Audio Visual) stream management.
  • a pair of one AV stream or text data and Clip Information, which is information accompanying it, is considered as one object, and these are collectively called a Clip.
  • an AV stream data file is referred to as an AV stream file.
  • the Clip Information data file is called a Clip Information file.
  • a file used in a computer or the like is handled as a byte string.
  • the content of an AV stream file is expanded on the time axis, and the access point of Clip is mainly designated by a PlayList with a time stamp.
  • the Clip Information file is used to find address information to start decoding in the AV stream file from the time stamp.
  • the PlayList is a set of information indicating the playback section of the AV stream.
  • Information indicating one playback section in an AV stream is called Playltem, and Playltem is represented by a pair of IN point (playback start point) and OUT point (playback end point) between playback sections on the time axis. . Therefore, the Play List is composed of one or more Playltems as shown in FIG.
  • the first PlayList illustrated first from the left is composed of two Playltems, and the AV Plays included in the first Clip illustrated on the left side by the two Playltems.
  • the first half and the second half of the ream are each referenced.
  • the second PlayList illustrated second from the left is composed of one Playltem, so that the entire AV stream included in the second Clip illustrated on the right is referred to.
  • the third PlayList shown in the third figure from the left is composed of two Playltems, and the predetermined part of the AV stream included in the first Clip shown on the left side by the two Playstems. And a predetermined portion of the AV stream included in the second clip shown on the right side.
  • the navigation program is a program for causing the controller 21 to execute the function of controlling the PlayList playback order and PlayList interactive playback.
  • the navigation program also has a function of displaying a menu screen for the user to instruct execution of various reproductions.
  • the navigation program is written in a programming language such as Java (registered trademark), and is recorded on a recording medium such as the optical disk 11.
  • Java registered trademark
  • the first Playltem included in the first PlayList illustrated first from the left in FIG. 2 is designated as information indicating the playback position at that time.
  • playback of the first half of the AV stream included in the first clip shown on the left side referred to by the Platform, is performed.
  • the PlayList described with reference to FIG. 2 uses a sub play item (Sub Play Item) as shown in FIG. It is also possible to include information on the specified sub path (Sub path).
  • SubPlayltem is defined, for example, an independent data stream that is not multiplexed with a Clip (eg, MPEG2 transport stream) specified by Playltem can be played back in synchronization with AV stream playback.
  • subtitle related information composed of a text subtitle file and a font file necessary for rendering corresponding to the Clip AV stream of the main path (Main Path) specified by Playltem, and subtitles
  • main path Main Path
  • subtitles By preparing a SubPlayltem that specifies the playback section of related information, the subtitle corresponding to the data that is described in the text subtitle file is described in the font file at the same time as the playback of the Clip AV stream, and the font style data is displayed.
  • the display font can be displayed on the display device. That is
  • the subtitle-related information and SubPlayltem configured from the text subtitle file and the font file necessary for rendering may be recorded in advance on the optical disc 11, or downloaded from the server 3 via the network 2. Or may be obtained using removable media (for example, removable media 28 described later!).
  • the memory 23 appropriately stores data necessary for the controller 21 to execute various processes.
  • the local storage 24 is composed of, for example, an HDD (Hard Disk Drive).
  • the Internet interface 25 is connected to the network 2 by wire or wirelessly, communicates with the server 3 via the network 2 under the control of the controller 21, and downloads data downloaded from the server 3. Is supplied to the local storage 24. From the server 3, for example, data that is recorded on the optical disk 11 that is mounted on the playback device 1 at that time and that updates the data described with reference to FIG. 2 is downloaded as content.
  • the local storage 24 can record contents downloaded from the server 3 via the network 2.
  • the decoder 26 is supplied from the optical disk drive 22 or the local storage 24.
  • the AV stream or text data is decoded, and the obtained video signal and audio signal are output to an external display device.
  • the display device based on the signal decoded by the decoder 26, for example, the content recorded on the optical disc 11 (video display, audio output) is output.
  • the operation input unit 29 includes an input device such as a button, a key, a touch panel, a jog dial, and a mouse, and a receiving unit that receives a signal such as infrared rays transmitted from a predetermined remote commander. Get input and supply to controller 21
  • a drive 27 is connected to the controller 21 as necessary.
  • a magnetic disk including a flexible disk
  • an optical disk CD-ROM (Compact Disk-Read Only) are connected to the drive 27.
  • Memory, DVD, etc. a magneto-optical disk (including MD (registered trademark) (Mini-Disk)), or a removable medium 28 such as a semiconductor memory is mounted.
  • MD registered trademark
  • Mini-Disk a magneto-optical disk
  • a removable medium 28 such as a semiconductor memory
  • the playback device 1 includes a local storage 24 including an HDD (Hard Disk Drive).
  • the playback device 1 is connected to the network 2 by wire or wirelessly, and the content downloaded via the server 3 network 2 can be recorded in the local storage 24. From the server 3, for example, data for updating content such as a movie recorded on the optical disc 11 mounted on the playback device 1 at that time can be downloaded.
  • HDD Hard Disk Drive
  • FIG. 4 is a block diagram illustrating a functional configuration example of the controller 21 in FIG.
  • Each configuration of FIG. 4 has a control program prepared in advance executed by the controller 21 or a navigation program recorded on the optical disc 11 is copied. This is realized by being executed by the controller 21.
  • the menu screen display control unit 31 is a button operated by the user when selecting the audio or subtitle language or video angle of the content recorded on the optical disc 11, and the update file to be downloaded.
  • a menu screen including buttons operated by the user when selecting is displayed on an external display device.
  • the operation input obtaining unit 32 obtains a signal indicating an operation input from the user input from the operation input unit 29, and obtains a signal indicating the operation input from the user from the menu screen display control unit 31 and data acquisition.
  • the data is output to the corresponding part of the unit 33 or the playback control unit 37.
  • the data acquisition unit 33 controls communication performed in the Internet interface 25 in FIG. 1 or information exchange with the removable medium 28 by the drive 27. For example, the data acquisition unit 33 downloads and acquires the update file specified by the user from the server 3 and outputs the acquired file to the local storage directory management unit 34.
  • the local storage directory management unit 34 manages a directory of the local storage 24, and controls data writing to the local storage 24 and data reading from the local storage 24.
  • the PlayList read from the local storage 24 under the control of the local storage directory management unit 34 is output to the memory 23, and the AV stream audio data, video data, and text subtitle file read from the local storage 24 are read.
  • the text data is output to the decoder 26.
  • the local storage directory management unit 34 when merging the file system of the optical disc 11 and the file system of the local storage 24 is performed by the file system merge processing unit 36, the file system of the local storage 24. Information related to this is output to the file system merge processing unit 36.
  • the optical disc directory management unit 35 manages a directory of the optical disc 11 and controls reading of each data from the optical disc 11.
  • Studiojd and Contentjd which are identification information, are set in the optical disc 11, and the Studiojd and Contentjd read from the optical disc 11 are controlled by the optical disc directory management unit 35, and the data acquisition unit 33 and the local storage. Output to the directory manager 34.
  • the optical disk directory management unit 35 As a result, the PlayList read from the optical disc 11 is output to the memory 23, and the audio data and video data of the AV stream and the text data of the text subtitle file read from the optical disc 11 are output to the decoder 26. .
  • the optical disk directory management unit 35 when merging the file system of the optical disk 11 and the file system of the local storage 24, is performed by the file system merge processing unit 36, the file system of the optical disk 11 The information about is output to the file system merge processing unit 36.
  • the file system merge processing unit 36 merges the file system of the optical disc 11 supplied from the optical disc directory management unit 35 and the file system of the local storage 24 supplied from the local storage directory management unit 34 into one Create a virtual file system.
  • the file system merge processing unit 36 outputs the virtual file system generated by merging to the reproduction control unit 37.
  • one file system generated by being merged by the file system merge processing unit 36 in the first embodiment will be referred to as a first virtual file system as appropriate.
  • the playback control unit 37 executes the navigation program specified by the first virtual file system supplied from the file system merge processing unit 36, and controls the playback of the content. Specifically, the playback control unit 37 is supplied to the memory 23, refers to the stored PlayList, controls the local storage directory management unit 34 or the optical disc directory management unit 35, and records it in the optical disc 11 or the local storage 24. Audio data, video data, and text data of a text subtitle file, if necessary, are read out and recorded on the optical disc 11 or local storage 24 by controlling the decoder 26 in FIG. The audio data and video data of the AV stream that is being decoded and the text data of the text subtitle file are decoded (reproduced) as necessary.
  • the merge of the file system of the optical disc 11 performed by the file system merge processing unit 36 and the file system recorded in the local storage 24 by downloading from the server 3 will be described.
  • this merging is performed when reproduction of content recorded on the optical disc 11 is instructed.
  • FIG. 5 shows the file system (left side) of the optical disc 11 and the files in the local storage 24. It is a figure which shows the example of a system (right side). As shown in the figure, each file system has a directory structure.
  • a folder with the name “BDMV” is prepared under “root” on the optical disc 11.
  • a file with the name “info.bdmv”, and “Navigation.class” A file with the name of is stored.
  • info.bd mv file and Navigation.class file these files will be referred to as info.bd mv file and Navigation.class file, respectively.
  • other files and folders are also referred to as “file name” with “file” added or “folder name” with “folder” added.
  • the info.bdmv file describes Studio_id, which is the identification information of the producer of the optical disc 11, and Contentjd, which is the content identification information.
  • Studiojd is “xxx” and Contentjd is “yyy”. Studiojd and Contentjd are also used to identify the update file to be downloaded.
  • the Navigation.class file is a navigation program described in a predetermined program language.
  • the BDMV folder also has a folder with the name “PLAYLIST” (PLAYLIST folder), a folder with the name “CLIPINF” (CLIPINF folder), and a folder with the name “STREAM”. (STREAM folder) is stored.
  • the PLAYLIST folder stores a file set with the name "lllll.mpls" and a file set with the name "22222.mpls”. These files are PlayLists that represent playback sections such as AV stream files with time stamps.
  • the CLIPINF folder stores a file in which the name "01000.clpi" is set, a file in which the name "02000.clpi” is set, and the like. These files are Clip Information indicating the correspondence between the time stamp and the address information of the AV stream file or caption related information.
  • the STREAM folder stores a file in which the name "01000.m2ts" is set, a file in which the name "02000.m2ts” is set, and the like. These files are AV stream And subtitle related information.
  • a folder with a name “xxx-yyy” is stored under “root” of the local storage 24.
  • the folder name “xxx-yyy” is data corresponding to the content recorded in the optical disc 11 and identified by Studio_id “xxx” and Content_id “yyy”. Represents that.
  • the ⁇ -yyy folder is downloaded when the optical disc 11 with Studiojd “XX x” and Content_id “yyy” is loaded into the playback device 1 and the update file (each file stored in the xxx-yyy folder) is downloaded. It is made by
  • an info.bdmv file and a Navigation.class file are stored.
  • This info.bdmv file is the same as the info.bdmv file on the optical disc 11
  • the Navigation.class file is a file obtained by updating the Navigation.class file on the optical disc 11.
  • the Navigation.class file in the local storage 24 is a file that describes a navigation program that is recorded on the optical disk 11 and is upgraded as compared with the recorded one.
  • the xxx-yyy folder further stores a PLAYLIST folder, a CLIPINF folder, and a STREAM folder.
  • a file with the name “11111.mpls” and a file with the name “22222.mpls” are stored in the PLAYLIST folder of the local storage 24.
  • the file with the name “22222.mpls” is an updated file of the file with the same name on the optical disc 11.
  • a file in which the name “22222.mpls” is set in the local storage 24 represents a downloaded update play list, and data in which a sub play is added to the play list is described in this file.
  • the file with the name “04000.clpi” is stored. That is, the file with the name “04000.clpiJ” is a file newly acquired by downloading. [0070]
  • the STREAM folder of the local storage 24 stores a file with the name "04000.m2ts". This file is a newly acquired file.
  • a folder with the name “xxx-aaaj” and a name “yyy-bbb” are set under “root” in the local storage 24. Folder is stored. These were created when the optical disc identified by Studio_id “xxx” and Content jd “aaa” and the optical disc identified by Stud iojd “yyy” and Content jd “bbb” were mounted on the playback device 1, respectively. A file corresponding to each content is stored.
  • the file system merge processing unit 36 of the controller 21 stores the file system of the optical disc 11 and the file system of the local storage 24 in the memory 23. Merge above to create the first virtual file system.
  • the file system merge processing unit 36 determines the time stamp (creation date) and version described in each file. Based on the above, merging is performed so that the file obtained by downloading is used as a file to be referred to when the content is played back. Further, the file system merge processing unit 36 performs merging so that a file only in the local storage 24 connected to the optical disc 11 is used as a file to be referred to when content is reproduced.
  • FIG. 6 is a diagram showing an example of a first virtual file system obtained from the two file systems of FIG.
  • the navigation file is updated with the file with the navigation.class file and the name “22222.mpls” set (replaced). Is).
  • a file with the name “04000.clpi” and a file with the name “04000.m2ts” that are not recorded on the optical disc 11 are added.
  • the downloaded file includes an updated navigation program or PlayList
  • the file of the same name on the optical disc 11 is changed depending on the file. Is updated (replaced). If a clip file (Clip Information file, AV stream file) that is not on the optical disc 11 is downloaded, it is added to the file system.
  • subtitle-related information for displaying subtitles corresponding to AV streams in a predetermined section includes text subtitle data constituting a text subtitle file corresponding to subtitles in a plurality of languages, fonts Based on user operation input, subtitle-related information stored in advance on the optical disc 11 and newly downloaded or copied subtitle-related information stored in the local storage 24 based on user operation input.
  • the subtitle data in the language desired by the user among the subtitles in a plurality of languages that can be displayed by the user is stored in advance on the optical disc 11 and is processed and displayed in association with the AV stream.
  • the optical disc seller (seller, producer), for example, will provide Arabic subtitle information later via the network 2 in a state where only English subtitles can be displayed. Can be sold.
  • optical disc sellers can sell discs at an earlier timing than translating multiple languages at once, and provide additional subtitle-related information for other languages as needed. It becomes possible.
  • optical discs will be pre-sold in the regions corresponding to the main languages, and after the translation processing for other languages is completed, the optical disc sales region will be added later, and a text subtitle file download service for the corresponding languages will be provided. It is also possible to start.
  • the optical disc seller (seller, producer) must at least update the new data so that the subtitle data can be displayed in association with the AV stream stored in advance on the optical disc 11.
  • Playlist files and text subtitle files must be distributed, In addition to this, a font file may be distributed to define the subtitle display format corresponding to the text data described in the text subtitle file.
  • FIG. 8 shows an archive of such data to be distributed additionally (corresponding to data stored in the local storage 24).
  • the data to be additionally distributed includes a playlist file (PlayList.file), 8-bit number information (number_of_TextSubTitle) indicating the number of the text subtitle file, and text corresponding to the text subtitle file described above.
  • a subtitle file (text_subtitle_file) may be included, and a font file (fontjle) may also be included.
  • FIG. 9 is a diagram illustrating the syntax of SubPlayltem.
  • the 8-bit field of Re_m o_STCjd specifies the identifier of the STC sequence referenced by Clip.
  • SubPlayItem_IN_time specifies the playback start time of SubPlayltem.
  • SubPlayItem_OUT_time specifies the playback end time of SubPlayltem. That is, the SubPlayltem_IN_time and SubPlayItem_OUT_time can specify the playback area of SubPlayltem.
  • the time information described in SubPlayItem_IN_time and SubPlayItem_OUT_time is expressed based on the 45 kHz clock used in STC.
  • the 8-bit field of number_of_ClipTextSubtitle specifies the total number of subtitle texts defined in SubPlayltem.
  • the language jd 8-bit field specifies the language identifier to be used as subtitles.
  • the data in the language jd field shall conform to the ISO / IEC 639-1 standard.
  • the 8-bit field of character_code_id specifies an identifier for character data encoding.
  • the 8-bit field of font_format_id specifies the font format identifier.
  • font_file_path_length specifies the number of bytes in the path name of the font file described in font_file_path. In this field, 0 can be specified as the number of bytes of font_file_path. If 0 is specified, it is processed as if the built-in font stored in advance on the playback device 1 is specified.
  • font_file_path specifies the name of the font file used to draw the caption data. If an empty string is specified in the font_file_path field, it is processed as if the built-in font stored in advance on the playback device 1 is specified.
  • font_file_path This field value is ISO / IEC 6 It shall be encoded by 46 methods.
  • subtitle_file_path_length specifies the number of bytes of the path name of the text subtitle file described in subtitle_file_path.
  • subtitle_file_path specifies the path name of the text caption file.
  • the subtitle_file_path field value shall be encoded in ISO / IEC 646 format.
  • the 16-bit field of commentjength specifies the number of bytes of information described in comment. Comment describes a text subtitle comment. The comments described in the Comment are written using the character set ISO / IEC 646.
  • the text subtitle file (text subtitle file, text_subtitle_file referred to in FIG. 8) is configured as a stream file as shown in FIG.
  • the text subtitle file configured as a stream file in this way is referred to as a text subtitle stream file (Text_Subtitle_Stream File).
  • the text subtitle stream file is a plurality of transport packets (packets described as TP in FIG. 10) during transmission. (Also referred to as TP) in the form of a transport stream.
  • the transport stream is composed only of TPs having the same PID of 0x1800.
  • the transport stream is composed of only the TP corresponding to a part of the text subtitle stream file. That is, in the example of FIG. 10, the transport stream is composed of only the text subtitle stream file.
  • Such a transport stream is a PES (Packetized Elementary Stream) at the time of data processing (for example, at the time of recording processing or playback processing), as shown in the second diagram from the top in FIG. ) Converted to a stream in units of packets. That is, the second figure from the top in FIG. 10 shows an example of the structure of a text subtitle stream file in units of PES packets.
  • the first PES packet among the multiple PES packets that make up the text subtitle stream file is called the Dialog Style Segment.
  • the This Dialog Style Segment is a PES packet corresponding to attribute data described later.
  • Each of a plurality of PES packets following the Dialog Style Segment is called a Dialog Presentation Segment.
  • This Dialog Presentation Segment is a PES packet corresponding to a character object described later.
  • FIG. 11 is a diagram showing the syntax of such a text subtitle stream (Text_subtitle_stream) finale.
  • the 16 bits of the number—of—dialog—presentation—segments specify the number of Dialog Presentation Segments following the Dialog Style Segmnt.
  • the text subtitle stream (Text_subtitle_stream) file is preceded by Dialog Style Segment ⁇ , followed by the number of Dialog Presentation Segments specified by number—of—dialog—presentation—segments. It will be arranged and configured.
  • FIG. 12 is a diagram showing a general syntax of one segment (Segment).
  • one segment is composed of segment_descriptor and segment_data.
  • FIG. 13 is a diagram illustrating the syntax of segment_descriptor.
  • the 8-bit field of segmenUype specifies the type of segment. Specifically, segmenUype is specified by a predetermined value of one of the segment types shown in FIG. 14 (the value on the same line in FIG. 14). That is, when the segment type is Dialog Style Segment, 0x81 is set to segmenUype. If the segment type is Dialog Presentation Segment, 0x82 is set to segmenUype. Note that 0x00 to 0x13, 0x19 to 0x7F, and 0x83 to OxFF are prepared as spares. In addition, 0x14 to 0x18 and 0x80 are prepared as values for designating segments for the graphic stream.
  • segment_data in Fig. 12 is the same as dialog_style_set in the Dialog Style Segment in Fig. 15. Become.
  • Figures 16 and 17 show the syntax of this dialog_style_set. Although the details will be described later, this syntax makes it possible to realize “add an outline to a character object used in text constituting subtitles”, which is one of the features of the present invention.
  • the 1-bit field of player_style_flag specifies whether or not this dialog_style_set is allowed to be changed to the user's own style.
  • Ob is specified as player_style_flag when the permission is not allowed (prohibited).
  • lb is specified as player_style_flag.
  • the 8-bit finalo of number_of_region_styles specifies the number of regi on.style (described later) used in this dialog_style_set.
  • the 8-bit field of number_of_user_styles specifies the number of user_style (described later) used in this dialog_style_set.
  • region_stylejd specifies the identifier of the target region_style (region style).
  • a region indicates a drawing area.
  • the 16-bit field of region_horizontal_position specifies the horizontal coordinate of the target region.
  • the 16-bit field of region_vertical_position specifies the vertical coordinate of the target region.
  • the region—width 16-bit field specifies the width of the target region.
  • the 16-bit field of region_height specifies the height of the target region.
  • the 8-bit field of region_bg_palette_entry_id_ref specifies the background color of the target region.
  • the 16-bit field of text_box_horizontal_position specifies the horizontal coordinate of the text box in the target region (the range in which the text composing the subtitle is displayed).
  • the 16-bit field of ext_box_vertical_position specifies the vertical coordinate of the text box.
  • the 16-bit field of text_box_width specifies the width of the text box.
  • the 16-bit field of text_box_height specifies the height of the text box.
  • the 8-bit field of text_flow is displayed in the text box in the target region.
  • the text_flow is specified by a predetermined one of the display directions shown in FIG. 19 and a value corresponding thereto (the value on the same line in FIG. 19). That is, if the display direction is the direction of the left force in the horizontal direction, 1 is specified for text_flow. If the display direction is right force in the horizontal direction and left force direction, 2 is specified for t ext_flow. When the display direction is the direction of force from top to bottom in the vertical direction, 3 is specified for text_flow. Note that 0 and values other than 1 to 3 are prepared as spare values.
  • the 8-bit field of text_horizontal_alignment specifies the right alignment, left alignment, or center alignment (horizontal alignment) of the text displayed in the text bot- toms in the target region.
  • the value power 3 ⁇ 4ext_horizontal_alignment as shown in FIG. 20 is specified. That is, in the case of left alignment, 1 is specified for text_horizontal_alignment. For centering, 2 is specified for text_horizontal_alignment. In case of right alignment, 3 is specified for text_horiz ontaLalignment. Note that 0 and values other than 1 to 3 are prepared as spare values.
  • the 8-bit field of text_vertical_alignment specifies the top, bottom, and center (vertical center) of the text displayed in the text box in the target region. Specifically, the value force 3 ⁇ 4ext_vertical_alignment as shown in FIG. 21 is specified. In other words, 1 is specified for text_vertical_alignment for top alignment. When centered, 2 forces 3 ⁇ 4ext_vertical_alignment is specified. In the case of bottom alignment, 3 is specified for text_vertical_alignment. Note that 0 and values other than 1 to 3 are prepared as spare values.
  • the 8-bit field of line_space specifies the interval between baselines in the target region.
  • the 8-bit field of font_id_ref specifies the font of the text displayed in the text box in the target region.
  • the 8-bit field of font_style specifies the font style of the text displayed in the text box in the target region. Specifically, a value as shown in FIG. 22 is specified in f ont_style. That is, the font style is Normal (previously set as standard 0x00 is specified for font_style. For font style power 3 ⁇ 4old (bold), 0x01 is specified for font_style. If the font style is Italic, 0x02 is specified for font_style. For font style power 3 ⁇ 4old and Italic, 0x03 is specified for font_style. When the font style is Outline-bordered (outline), 0x04 is specified for font_style.
  • 0x05 is specified for font-style.
  • 0x06 is specified for font_style.
  • 0x07 is specified for font_style.
  • the font style specified by 0x04 to 0x07 is one of the features of the present invention, which is “outline (contour) to the character object used in text composing subtitles etc.
  • This is the font style necessary to realize "
  • the value of font_style is set to any of 0x04 to 0x07. Must be specified.
  • font styles in which 0x00 to 0x03 are specified as font_style are collectively referred to as normal font styles.
  • Font styles with 0x04 to 0x07 specified as font_style are collectively referred to as outline styles.
  • the 8-bit field of font_size specifies the font size of the text displayed in the text box in the target region.
  • the font_palette_entry_id_ref field specifies the color of the font.
  • outline_palette_entry_id_ref is an outline
  • the text is displayed in the font style Specifies the color of the outline (the outline of the text) when displayed.
  • outline.size specifies the size (width) of the outline. The outline color and size will be described later with reference to FIGS.
  • dialog_style_set in the examples of Fig. 16 and Fig. 17, the syntax of user_style change setting (hereinafter referred to as user_changeable_Style_set) is shown in Fig. 17 for the syntax of region_style described above. Yes.
  • the 8-bit field of user_style_id specifies the identifier of the target User_control_style.
  • the 15-bit field of region— vertical— position— delta specifies the vertical movement amount of region— vertical — positi on.
  • the 1-bit field of font_size_inc_dec specifies the direction in which the font size is changed, that is, whether it becomes larger or smaller after the change. Specifically, 0b force becomes larger when it becomes larger, and lb force becomes smaller when it becomes smaller. Each font_sizejnc_dec is specified.
  • font— The 7-bit field of size_delta specifies the amount of font size change.
  • the 1-bit field of text_box_horizontal_position_direction specifies the horizontal direction of movement of the text box. Specifically, the text_box_horizontal_position_direction is set to 0 when the moving direction is right and 1 when the moving direction is left.
  • the 15-bit field of text_box_horizontal_position_delta specifies the amount of horizontal movement of the text box.
  • the 1-bit field of text_box_vertical_position_direction specifies the vertical direction of movement of the text box. Specifically, 0 is specified for text_box_vertical_position_direction when the moving direction is downward, and 1 is specified when the moving direction is upward.
  • the text_box_vertical_position_delta 15-bit fine redo specifies the amount of vertical movement of the text box.
  • the 1-bit field of text_box_width_inc_dec specifies the direction in which the width of the text box is changed, that is, the force to increase or decrease the width after the change. Specifically, the Ob force is increased when it becomes thick, and 1 b is specified as text_box_width_inc_dec when it becomes smaller.
  • the 15-bit field of text_box_width_delta specifies the amount of text box width change.
  • the 1-bit field of text_box_height_inc_dec specifies the direction in which the height of the text box is changed, that is, the force that increases or decreases after the change. Specifically, 1b is specified for text_box_height_inc_dec when the Ob force decreases when the height increases.
  • the 15-bit field of text_box_height_delta specifies the amount of text box height change.
  • the 1-bit field of line_space_inc_dec specifies the direction of change of line_space, that is, whether it increases or decreases after the change. Specifically, Ob is specified for line_space_inc_dec when increasing, and lb force when decreasing.
  • the line_space_delta and other 7-bit fields specify the amount of line_space change.
  • PaletteO is composed of the following fields (not shown). That is, length specifying the length of this pale tteO, palette_entry_id specifying the specific color identifier of the palette, Y_value specifying the Y value of (Y, Cb, Cr), (Y, Cb, Cr Cb_value that specifies the value of Cb in (), Cr_value that specifies the value of Cr in (Y, Cb, Cr), and transparency PaletteO is composed of the specified T_value, t, and two fields.
  • FIG. 24 is a diagram showing a virtual storage area of the local storage 24.
  • the local storage 24 stores various information downloaded or copied in the file format described with reference to FIG.
  • the local storage 24 has a downloaded navigation program storage unit 51, which is a storage area for downloaded navigation programs, as a virtual storage area.
  • a playlist storage unit 52 that is an area for storing playlists
  • a text subtitle file storage unit 53 that is an area for storing downloaded text subtitle files (text subtitle files)
  • the font file storage unit 54 can be provided.
  • the data files stored in the navigation program storage unit 51 and the playlist storage unit 52 are read out and supplied to the memory 23 under the control of the local storage directory management unit 34 described with reference to FIG.
  • the data files stored in the text subtitle file storage unit 53 and the font file storage unit 54 are read and supplied to the decoder 26 under the control of the local storage directory management unit 34 described with reference to FIG. Is done.
  • the storage areas of the navigation program storage unit 51, the playlist storage unit 52, the text subtitle file storage unit 53, and the font file storage unit 54 of the local storage 24 illustrated in FIG. 24 are virtual. Therefore, the storage area of the local storage 24 does not have to be physically divided according to the type of information stored as shown in FIG. 24. What! /
  • FIG. 25 is a block diagram for explaining a detailed configuration of the decoder 26.
  • the decoder 26 includes a control unit 81, a disk data acquisition unit 82, buffers 83 and 84, and a PID.
  • a data decoder 89, a GUI graphics plane processing unit 90, a storage data acquisition unit 91, a text subtitle processing unit 92, a subtitle graphics plane processing unit 93, and a synthesis processing unit 94 are provided.
  • the control unit 81 controls the processing of each unit of the decoder 26 based on the control of the reproduction control unit 37.
  • the disc data acquisition unit 82 acquires the data supplied to the decoder 26 out of the data read from the optical disc 11, and a multiplexed stream such as an AV stream specified by Playltem described with reference to FIG. Is supplied to the buffer 83 which is a read buffer of data specified by Playltem constituting the main path, and the data of the text subtitle file or font file specified by SubPlayltem (the data of the font file is specified, If there is a case, the data is supplied to a buffer 84 which is a read buffer for data specified by SubPlayltem constituting the sub path.
  • the stream data read from the noffer 83 is output to the PID filter 55 in the subsequent stage at a predetermined timing.
  • the PID filter 85 distributes the input multiplexed stream to the audio decoder 86, the MPEG video decoder 87, or the GUI data decoder 89, which is a decoder of each subsequent elementary stream, according to the PID, and outputs it.
  • the PID filter 55 supplies an audio (audio) stream to the audio decoder 86, supplies a video (video) stream to the MPEG video decoder 87, and supplies image data related to the user interface to the GUI data decoder 89. Supply.
  • the audio decoder 86 decodes the audio stream and outputs data of the decoded audio stream.
  • the MPEG video decoder 87 decodes the video stream and outputs the decoded video data to the video plane processing unit 88.
  • the video plane processing unit 88 Based on the decoded video data, the video plane processing unit 88 generates a video plane corresponding to an image displayed on one page (or one frame) (an image constituting a moving image). And output to the synthesis processing unit 94.
  • the GUI data decoder 89 decodes the interactive graphics stream and supplies the decoded GUI data to the GUI graphics plane processing unit 90.
  • the GUI graphics plane processing unit 90 generates a graphics plane corresponding to the GUI displayed on one screen, and outputs it to the synthesis processing unit 94.
  • the storage data acquisition unit 91 acquires data (that is, text subtitle file or font file data) supplied to the decoder 26 from the data read from the local storage 24, and the text subtitle processing unit 91 Supply to 92.
  • the text subtitle processing unit 92 decodes the text data supplied from the storage data acquisition unit 91 or read from the nota 84 under the control of the control unit 81, and based on predetermined font style data, Is converted (rasterized) into raster data (character object data) and the like and supplied to the subtitle graphics plane processing unit 93. Details of the text subtitle processing unit 92 will be described later with reference to FIG.
  • the subtitle graphics plane processing unit 93 generates a subtitle graphics plane corresponding to the subtitles to be displayed on one page (one frame) based on the decoded and rendered text data, and performs synthesis processing. Output to part 94.
  • the composition processing unit 94 receives the video plane supplied from the video plane processing unit 88, the graphic plane corresponding to the GUI supplied from the GUI graphics plane processing unit 90, and the subtitle graphics plane processing unit 93.
  • the supplied subtitle graphics plane is synthesized and output as a video signal.
  • FIG. 26 is a block diagram for explaining a detailed configuration of the text subtitle processing unit 92.
  • the text data decoder 121 decodes the data of the text subtitle file (text subtitle file), and supplies the character object to the character object buffer 122 and the attribute (attribute) data to the attribute data buffer 123.
  • the text subtitle file mentioned here refers to, for example, the text subtitle stream file shown in Fig. 10 described above. Therefore, the character object refers to, for example, the above-described Dialog presentation Segment in FIG.
  • the attribute data here refers to, for example, the Dialog Style Segment shown in FIG. 10 described above.
  • the font_style, font, or the like shown in FIG. The outline color in the font style is specified as ⁇ outline. Palette_entry_id_ref, and the outline size (width) in the outline font style is specified.
  • the attribute data stored in the attribute data buffer 123 is used for user operation input. Based on the control of the control unit 81, the change is made. For example, when the user instructs to change the font size or character color, the corresponding User_control_styleO (FIG. 17) of the attribute data stored in the attribute data buffer 123 is changed under the control of the control unit 81.
  • the font rasterizer 124 selects the character object read from the character object buffer 122 based on the designation of the attribute read from the attribute data buffer 123 and the font style data supplied from the notifier 84 or the storage data acquisition unit 91.
  • the data is converted into raster data (character object data) such as a bitmap and output to the subtitle graphics plane processing unit 93.
  • the font rasterizer 124 detects a character object to which a bookmark is attached based on the attribute read from the attribute data buffer 123, and uses the bookmark buffer 125 to apply the same bookmark ID to the character. For objects, do not rasterize redundantly! /. Details of the font rasterizer 124 will be described later with reference to FIG.
  • the bookmark buffer 125 holds the raster data of the character object to which the bookmark is given by the processing of the font rasterizer 124, and the held raster data is read by the font rasterizer 124.
  • FIG. 27 is a block diagram for explaining the detailed configuration of the font rasterizer 124.
  • the character object acquisition unit 151 acquires the character object from which the character object buffer 122 (FIG. 26) is also read, and supplies it to the bookmark detection unit 152.
  • the bookmark detection unit 152 determines whether the character object supplied from the character object acquisition unit 151 has already been bookmarked and stored in the bookmark buffer 125 (Fig. 26). It is detected whether or not a character object to which an ID is assigned is already stored in the bookmark buffer 125.
  • the bookmark detection unit 152 detects that a character object to which the same bookmark ID is assigned is stored in the bookmark buffer 125, the character object ( (Rasterized data) is acquired from the bookmark buffer 125 and the subtitle graphics plane processing unit 93 (Fig. 2 Output to 5).
  • the bookmark detection unit 152 detects that a character object having the same bookmark ID is not yet stored in the bookmark buffer 125, the bookmark detection unit 152 is supplied from the character object acquisition unit 151. The character object is supplied to the rasterizing unit 153 as it is.
  • the rasterization unit 153 specifies the attribute read from the attribute data buffer 123, and supplies the normal font style font style data supplied from the normal font style acquisition unit 156 or the outline style force check unit 157.
  • the character object supplied from the bookmark detection unit 152 is converted to raster data (character object data) such as a bitmap based on the outline style font style data, and the subtitle graphics plane processing unit 93 At the same time, it is supplied to the bookmark storage control unit 154.
  • the font style data of the outline style supplied from the force outline style caloche unit 157 which will be described later with reference to FIGS. 28 to 31, is the outline of the original font style data. Font style data in which the color and size (width) of the font are changed (processed) as necessary.
  • the bookmark storage control unit 154 determines whether or not a new bookmark is described based on the attribute data of the character object supplied from the rasterizing unit 153, and the bookmark is described. If the bookmark is not listed, the control is prohibited.
  • the font style detection unit 155 is required to rasterize the character object acquired by the character object acquisition unit 151 with reference to the corresponding font_style of the attribute data stored in the attribute data buffer 123. Detects the correct font style. When the font style detection unit 155 detects that the font style is the normal font style, the font style detection unit 155 notifies the normal font style acquisition unit 156 of the detection result. On the other hand, the font style detection unit 155 uses the outline style as the font style. Is detected, the result of the detection is notified to the outline style acquisition unit 161 of the outline style processing unit 157.
  • the normal font style acquisition unit 156 is the font style data of the normal font style specified by the detection result of the font style detection unit 155 out of the font style data to which the buffer 84 or the storage data acquisition unit 91 is also supplied. Is obtained and supplied to the rasterizing unit 153.
  • the outline style force check unit 157 is the font style specified by the detection result of the font style detection unit 155 out of the font style data supplied from the buffer 84 or the storage data acquisition unit 91, that is, the outline. Get the font style data for the style. Further, the outline style force checking unit 157 refers to the corresponding outline_palette_entry_id_rel3 ⁇ 4 of the attribute data stored in the attribute data buffer 123, and updates the outline color. The outline style force checking unit 157 refers to the corresponding outline_size in the attribute data stored in the attribute data buffer 123 and updates the size (width) of the outline. Then, the outline style processing unit 157 supplies the font style data whose outline color and size (width) are updated to the rasterizing unit 153 (more precisely, a combining unit 164 described later).
  • FIG. 28 shows alphabet A as an example of character object data in the normal font style.
  • the character object data A of the normal font style is referred to as character object data 171.
  • FIG. 29 shows an alphabet A as an example of outline-style character object data.
  • the A character object data in the outline style is referred to as character object data 181.
  • the character object data 181 is generated based on the outline data.
  • Outline data is font style data in which the shape of a character is expressed as an outline. It is one of the data. This outline data was used in outline fonts.
  • outline font is one of the font formats that exist in the past, and it is a format that retains outline data and performs lettering. Outline fonts have the characteristics that they are more resistant to enlargement and reduction than bitmap fonts (a format that holds bitmaps).
  • FIG. 30 is a diagram for explaining a conventional method among the changing methods for changing the outline (contour) width of the character object data 181.
  • FIG. 30 is a diagram for explaining a conventional method among the changing methods for changing the outline (contour) width of the character object data 181.
  • the width of the outline 181—LO of the character object data 181 is expanded and contracted at an equal rate in both directions perpendicular to the outline (FIG. 30).
  • the left and right sides of the horizontal direction are stretched), and as a result, it is changed to outline 181—L1.
  • the character object data 181 has the outline width thickened at a uniform rate in both directions perpendicular to the outline. As a result, the character object data 181 as shown in FIG. Changed to 182.
  • FIG. 31 is a diagram for explaining an example of a change method that can solve the problems of the conventional method, among the change methods of the outline size (width).
  • the method of FIG. 31 is applied to the combining unit 164 (FIG. 27) of the rasterizing unit 153.
  • the synthesis unit 164 performs character object data 181 based on the outline data. Is generated.
  • the compositing unit 164 changes the outline width of the character object data 181 in accordance with the conventional method described with reference to FIG. 30 at an equal ratio in both directions perpendicular to the outline. 182 is generated.
  • the synthesis unit 164 uses the font style data with the outline supplied from the outline style force check unit 157 in order to generate the character object data 182.
  • the font style data with this outline will be described later.
  • the composition unit 164 superimposes the character object data 181 on the character object data 182 (executes composition processing).
  • the outline of the character object data 181 is referred to as a center line
  • the composition unit 164 uses the outline style font style data supplied from the outline style processing unit 157 in order to generate the character object data 182.
  • this character object data 182 has outline data (font style data of outline style used in conventional outline fonts), and the width (inward and outward directions) of the outline of character object data 181 that is also generated. Both) and the outline has changed color.
  • the outline style force checking unit 157 needs to change the outline data necessary for generating the character object data 181 to the font style data necessary for generating the character object 182.
  • the outline style force feeding portion 157 is configured as shown in FIG. That is, in the example of FIG. 27, the outline style force check unit 157 includes an outline style acquisition unit 161, a color change unit 162, and a both width change unit 163.
  • the outline style acquisition unit 161 detects the detection result of the font style detection unit 155 out of the font style data supplied from the buffer 84 or the storage data acquisition unit 91.
  • the font style specified in step i.e., outline style font style data (outline data)
  • the acquired outline style font style data is provided to the color changing unit 162.
  • the color changing unit 162 refers to the outline_palette_entry_id_ref ⁇ corresponding to the attribute data stored in the attribute data buffer 123, and obtains the outline style font unit 16 for the outline style font style data supplied. Change the outline color.
  • the font style data of the outline style in which the outline color is changed is supplied to the both width changing unit 163 and the synthesizing unit 164 of the rasterizing unit 153.
  • the synthesis unit 164 generates character font data 181 having a color outline corresponding to the font style data based on the font style data supplied from the color change unit 162. Will do.
  • the double width changing unit 163 refers to the corresponding outline_size of the attribute data stored in the attribute data buffer 123, and for the outline style font style data supplied from the color changing unit 162, The size (width) of the outline is expanded and contracted at an equal rate both in the outer and inner directions.
  • Outline style font style data in which the size (width) of the outline has been changed in both the outward direction and the inward direction is supplied from the width change unit 163 to the composition unit 164.
  • the synthesizing unit 164 executes the process according to the conventional method shown in FIG. Specifically, for example, when the character object data 181 of FIG. 31 has already been generated, the compositing unit 164 generates an outline of the character object 181 based on the font style data supplied from the both-width changing unit 163. Character object data 182 having an outline whose width is expanded and contracted at the same rate in the outer direction and the inner direction with respect to the width (and the color is changed) is generated.
  • the composition unit 164 combines the character object data 181 and the character object data 182 so that only the outer direction of the outline width of the character object 181 expands or contracts.
  • Character object data 183 having an outline of a specified width (and color changed) is generated.
  • step S1 When the update file downloaded as described above is recorded in the local storage 24 and recorded on the optical disc 11 in a state where playback of the content is instructed, in step S1, the optical disc directory is The management unit 35 reads Studiojd and ContenUd from the optical disc 11 and outputs the read Studiojd and Content jd to the local storage directory management unit 34.
  • step S2 the local storage directory management unit 34 searches for the file system of the local storage 24 corresponding to the file system of the optical disc 11 based on the Studiojd and Contentjd supplied from the optical disc directory management unit 35.
  • the file system merge processing unit 36 is supplied.
  • the file system corresponding to the file system of the optical disc 11 is stored in the directory in which names including Studiojd and Contentjd are set in the local storage 24 (FIG. 5).
  • the file system of the optical disc 11 is output from the optical disc directory management unit 35 to the file system merge processing unit 36.
  • step S3 the file system merge processing unit 36 merges the file system of the optical disc 11 and the file system of the local storage 24 as described with reference to FIG. 5 and FIG. Generate 1 virtual file system.
  • the generated first virtual file system is output to the playback control unit 37 and used for playback of the AV stream file.
  • step S4 the playback control unit 37 also designates and executes the navigation program for the supplied first virtual file system card. Therefore, as shown in FIG. 6, when the updated navigation program is in the first virtual file system, the navigation program (the navigation program recorded in the local storage 24! Is executed.
  • step S5 the playback control unit 37 acquires the PlayList and SubPlayltem specified as the playback section by the navigation program, proceeds to step S6, and controls the local storage directory management unit 34 and the optical disc directory management unit 35. Then, the acquired PlayList and the file (AV file, text subtitle file, font file, etc.) referenced by SubPlayltem are read and supplied to the decoder 26.
  • PlayList and SubPl The time stamp represented by ayltem is converted into an address by Clip information, and an AV stream or the like is accessed.
  • the playback control unit 37 reads the AV stream file from the local storage 24 when the AV stream file referred to by the PlayList or SubPlayltem exists in the local storage 24, and from the optical disk 11 when the AV stream file does not exist. Read AV stream file.
  • the playback control unit 37 controls the local storage directory management unit 34 and the optical disc directory management unit 35 according to the file system of FIG.
  • the file name of r01000.m2tsj is set in advance, and the AV stream file and the file name of “02000.m2ts” are set to the AV stream file! Is read from the local storage 24 for the AV stream file set with the file name “04000.m2ts” added by downloading! /.
  • step S7 the content playback process described later with reference to FIG. 33 is executed, and the read AV stream file, text subtitle stream file (text subtitle stream file), etc. are decoded, and video, audio, or Subtitles are output from the display device and the process is terminated.
  • step S21 the playback control unit 37 (Fig. 4) controls the decoder 26 to play back the AV stream data specified by Playltem.
  • step S22 the operation input acquisition unit 32 determines whether or not the operation input commanding the display of caption data has been received. If it is determined in step S22 that an operation input commanding subtitle data display has not been received, the process proceeds to step S28 described later. [0194] If it is determined in step S22 that an operation input commanding display of caption data has been received, in step S23, the operation input acquisition unit 32 sends a signal corresponding to the user operation input to the menu screen display control unit 31. To supply. The menu screen display control unit 31 displays a list menu of subtitle data that can be displayed on the display device.
  • step S24 the operation input acquisition unit 32 determines whether or not it has received an operation input that specifies the language of the caption data to be displayed. If it is determined in step S24 that an operation input designating the language of the character data to be displayed has not been received, the process returns to step S23, and the subsequent processes are repeated.
  • step S25 the operation input acquisition unit 32 outputs a signal corresponding to the user operation input to the reproduction control unit 37.
  • the playback control unit 37 controls the local storage directory management unit 34 to read the text subtitle data referenced by the Sub Playltem specified by the user's operation input, and obtain the storage data of the decoder 26.
  • the font style data corresponding to the font (outline font or the like) designated by the user is read out and supplied to the storage data acquisition unit 91 of the decoder 26 as needed.
  • step S26 the decoder 26 executes a caption display process to be described later with reference to FIGS. 34 and 35.
  • step S27 the operation input acquisition unit 32 determines whether or not it has received an operation input instructing to change the language of the caption data to be displayed. If it is determined in step S27 that an operation input commanding the change of the language of the caption data to be displayed has been received, the process returns to step S25, and the subsequent processes are repeated.
  • step S28 the operation input acquisition unit 32 determines whether the operation input commanding the end of content playback has been received, or whether the AV stream data being played has ended. To do.
  • step S28 the operation input commanding the end of content playback is not received.
  • step S29 the operation input acquisition unit 32 determines whether or not it has received an operation input for stopping the display of subtitles.
  • step S29 If it is determined in step S29 that an operation input for stopping the display of subtitles has not been received, the process returns to step S26, and the subsequent processes are repeated. If it is determined in step S29 that an operation input for stopping the display of subtitles has been received, the process returns to step S21, and the subsequent processes are repeated.
  • step S28 If it is determined in step S28 that an operation input for instructing the end of content playback has been received or that the AV stream data being played back has ended, the processing ends.
  • a text subtitle file recorded in advance on the optical disc 11 or downloaded from the server 3 and stored in the local storage 24 is used. Is displayed together with the video and audio of the content, and the text subtitle file to be read is changed to change the language of the displayed subtitle based on the user's operation input.
  • step S51 the text data decoder 121 (FIG. 26) of the text subtitle processing unit 92 of the decoder 26 (FIG. 25) decodes the text subtitle data acquired by the storage data acquisition unit 91.
  • step S52 the text data decoder 121 supplies the character object included in the decoded text subtitle data to the character object buffer 122, so that the character object is buffered in the character object buffer 122.
  • step S53 the text data decoder 121 converts the attribute data such as font style (font_style), outline color (outline_palette_entry_id_ref) and size (outline_size) included in the decoded text subtitle data into the attribute data buffer. Attribute data is buffered in the attribute data buffer 123.
  • step S54 the font style detection unit 155 of the font rasterizer 124 (Fig. 2).
  • step 7 it is determined whether the font style buffered in step S53 is an outline style.
  • step S54 If it is determined in step S54 that it is not an outline style, that is, if it is determined that it is a normal font style, in step S55, the normal font style acquisition unit 156 selects the font style data of the normal font style. To get.
  • step S54 when it is determined in step S54 that the outline style is selected, in step S56, the outline style force check unit 157 acquires font data of the outline style.
  • step S57 the outline style processing unit 157 updates the font style data of the outline style based on the attribute data such as the size and color of the outline buffered in the process of step S53. That is, the font style data of the outline style with the outline color and width changed is generated.
  • step S58 the character object acquisition unit 151 acquires a character object from the character object buffer 122 (FIG. 26) and supplies it to the bookmark detection unit 152.
  • step S59 the rasterizing unit 153 acquires font style data from the normal font style acquiring unit 156 or the outline style force checking unit 157.
  • step S60 the bookmark detection unit 152 refers to the attribute noferred in the process of step S53 (Fig. 34) and the bookmark buffer 125, and attempts to rasterize it.
  • the subtitle data corresponding to the character object acquired in the processing is bookmarked and is already buffered in the bookmark buffer 125.
  • step S61 If it is determined in step S60 that the subtitle data is bookmarked and buffered, in step S61, the bookmark detection unit 152 stores the subtitles to be bookmarked from the bookmark buffer 125. Read and output image data (raster data). Thereby, the process proceeds to step S65.
  • step S60 On the other hand, when it is determined in step S60 that the caption data is not already bookmarked, the character object acquired in the process of step S58 is transferred from the bookmark detection unit 152 to the rasterization unit 153. Supplied. Thereby, the process proceeds to step S62.
  • step S62 the rasterizing unit 153 acquires the character object acquired in the process of step S58, the process of step S55 or S56 of Fig. 34 (and is updated in the process of step S57 as necessary). Based on the font style data and the attribute data buffered in step S53 of Fig. 34, rasterization is performed, and the raster data (character object data) that is the execution result is converted into a caption graphic spp.
  • the data is output to the lane processing unit 93 (FIG. 25) and supplied to the bookmark storage control unit 154.
  • the subtitle graphics plane processing unit 93 generates a subtitle graph status plane based on the supplied raster data, and supplies the subtitle graph status plane to the synthesis processing unit 94.
  • step S63 the bookmark storage control unit 154 uses the attribute data of the caption data (character object data, which is raster data) rasterized in the process of step S62, to add a new bookmark to the attribute data. Judge whether or not the power is listed.
  • the bookmark storage control unit 154 stores the rasterized subtitle image data (raster data) in the bookmark buffer 125 in step S64.
  • step S62 After the process of step S62 is completed, if it is determined in step S63 that no bookmark is described, or if the process of step S61 is completed, in step S65, the composition processing unit 94 (FIG. 25). ) Combines the supplied subtitle image data with video data and outputs it. Thereby, the subtitle display process which is the process of step S26 in FIG. 33 ends, and the process proceeds to step S27.
  • the reading of the text subtitle file and the font file data is controlled so that the subtitle data in the language desired by the user is displayed in the font desired by the user with the attribute desired by the user. Then, the buffered attribute data is changed and rasterized as necessary. [0222] Therefore, when the currently played frame is, for example, a frame in which the color of the subtitle and the color of the video are the same or similar, that is, the user's power, the subtitle is integrated with the video. If the user cannot identify the subtitle, the user can specify the desired outline style so that the text composing the subtitle will be displayed in the desired outline style. The subtitles can be reliably identified.
  • the recording medium 11 is a disc-shaped recording medium. This case will be described as an example.
  • a master disc made of, for example, glass is prepared, and a recording material made of, for example, a photoresist is applied thereon. As a result, a recording master is produced.
  • video data in a format that can be played back by the playback device 1 and encoded by the encoding device is stored in the temporary buffer.
  • Audio data encoded by the audio encoder is stored in the temporary buffer, and data other than the stream (eg, Indexes, Playlist, Playltem, etc.) encoded by the data encoder is also stored. It is stored in the hour buffer.
  • the video data, audio data, and non-stream data stored in each buffer are multiplexed together with the synchronization signal by a multiplexer (MPX), and error correction code (ECC) is used for error correction.
  • MPX multiplexer
  • ECC error correction code
  • a predetermined modulation is applied by a modulation circuit (MOD), and the software is recorded on a magnetic tape or the like according to a predetermined format, and is recorded on a reproducible recording medium 11 by a reproducing device 11. Is produced.
  • MOD modulation circuit
  • the software is edited (premastered) as necessary, and a signal of a format to be recorded on the optical disc is generated.
  • the laser beam is modulated, and this laser beam is irradiated onto the photoresist on the master.
  • the photoresist on the master is exposed corresponding to the recording signal.
  • the master is developed, and pits appear on the master.
  • the master master prepared in this way is treated with, for example, electric light to produce a metal master master with transferred pits on the glass master. Make.
  • a metal stamper is further produced from this metal master, and this is used as a molding die.
  • a material such as PMMA (acrylic) or PC (polycarbonate) is injected into the molding die by, for example, injection and fixed.
  • 2 P (ultraviolet curable resin) or the like is applied on a metal stamper and then cured by irradiating with ultraviolet rays. As a result, the pits on the metal stamper can be transferred onto a replica made of resin.
  • a reflective film is formed by vapor deposition or sputtering.
  • a reflective film is formed on the generated replica by spin coating.
  • the inner and outer diameters of the disk are processed, and necessary measures such as bonding two disks are performed.
  • a label is attached or a hub is attached and inserted into the cartridge. In this way, the recording medium 11 on which data reproducible by the reproducing apparatus 1 is recorded is completed.
  • the software can be a computer built into hardware dedicated to the program power that constitutes the software, or various functions can be executed by installing various programs. Installed from a program storage medium on a computer.
  • this program storage medium is a magnetic disk (including a flexible disk) on which a program is recorded, which is distributed to provide a program to the user, separately from the computer.
  • Removable media consisting of optical disks (including CD-ROM (compact disk-read only memory), DVD (digital versatile disk)), magneto-optical disks (including MD (mini-disk) (trademark)), or semiconductor memory 28 It consists of memory 23 such as ROM or RAM where programs are recorded, local storage 24 such as a hard disk, etc. that are provided to the user in a state of being pre-installed in the main unit of the device. Is done.
  • a step describing a program recorded on a program storage medium is not necessarily performed in time series as well as processing performed in time series in the order described. Includes processes that are not processed, but that are executed in parallel or individually
  • the system represents the entire apparatus composed of a plurality of apparatuses.

Abstract

本発明は、ユーザが字幕を確実に判別できるようにする情報処理装置および方法、プログラム格納媒体、プログラム、データ構造、並びに記録媒体の製造方法である。即ち、アトリビュートバッファ123は、文字オブジェクトバッファ122に保持された字幕用の文字オブジェクトに適用するフォントスタイルを指定するフォントスタイル指定情報、および、アウトラインのついたフォントスタイルに対応する文字オブジェクトについてのアウトラインの幅を指定可能な幅指定情報を少なくとも保持する。フォントラスタライザ124は、フォントスタイル指定情報においてアウトラインのついたフォントスタイルが指定されている場合、アウトラインのついたフォントスタイルのフォントスタイルデータを取得し、幅指定情報に基づいてフォントスタイルデータを更新し、文字オブジェクトを、更新されたフォントスタイルデータを少なくとも用いて字幕データに変換する。

Description

明 細 書
情報処理装置および情報処理方法、プログラム格納媒体、プログラム、デ ータ構造、並びに記録媒体の製造方法
技惯分野
[0001] 本発明は、情報処理装置おょぴ情報処理方法、プログラム格納媒体、プログラム、 データ構造、並びに記録媒体の製造方法に関し、特に、ユーザが字幕を確実に判 別できるようにする情報処理装置および情報処理方法、プログラム格納媒体、プログ ラム、データ構造、並びに記録媒体の製造方法に関する。
背景技術
[0002] DVD (Digital Versatile Disc)の再生専用の規格の 1つに DVDビデオフォーマットが ある。この DVDビデ才フォーマットにおいては、ビデオやオーディオなどのコンテンツ データが字幕などの各種のサブピクチヤのデータとともに多重ィ匕され、プログラムスト リームとしてディスクに記録されている。また、そのストリームをインタラクティブに再生 するためのナビゲーシヨンデータもディスクに記録されている。このような技術は、例 えば特許文献 1や特許文献 2等にも開示されて!/、る。
[0003] ここで、インタラクティブな再生とは、好みの位置からの再生や好みの順番での再生 の他、様々な角度カゝら撮影された映像の再生を可能にするマルチアングル機能、複 数の言語の中力ら好みの言語での再生を可能にするマルチランゲージ機能、暴力シ ーンなどの、あるシーンの再生を行わな!/、ようにするバレンタルコントロール機能など 、 DVDの各種の機能をユーザが利用して行う再生を V、う。
[0004] プログラムストリームは、複数のオーディオストリームと複数の字幕デ一タストリーム を多重化することも可能とされる。これにより、例えば、映画などの 1つのビデオコンテ ンッに対して、複数の異なる言語の字幕のデータを 1枚のディスクに記録させることが 可能となり、ユーザは、ビデオの再生開始時や再生中に、好みの言語の音声や字幕 を選択することができる。
[0005] 特許文献 1 :特開 2003— 140662号公報
特許文献 2 :特開 2002— 311967号公報
差替え用紙(¾1 6》 発明の開示
発明が解決しょうとする課題
[0006] しカゝしながら、字幕とビデオとは同時に再生されるが、即ち、順次再生されていく各 フレームのそれぞれにはビデオとそれに対応する字幕とが含まれて 、るが、それらの フレームのうちの、例えば字幕の色とビデオの色とが同一または類似となってしまうフ レームでは、ユーザからすると、あた力も字幕がビデオと一体ィ匕してしまって、字幕を 判別できないこともある、という問題があった。
[0007] 本発明はこのような状況に鑑みてなされたものであり、ユーザが字幕を確実に判別 できるようにするものである。
課題を解決するための手段
[0008] 本発明の情報処理装置は、所定の AVストリームに対応する字幕を表示させるため の字幕データを生成する情報処理装置であって、字幕を表示させるための文字ォブ ジェタトを保持する文字オブジェクト保持手段と、文字オブジェクトに適用するフォント スタイルとしてアウトラインのついたフォントスタイルを少なくとも指定可能なフォントス タイル指定情報、および、フォントスタイル指定情報においてアウトラインのついたフ オントスタイルが指定されて 、る場合に、そのアウトラインのつ 、たフォントスタイルに 対応する文字オブジェクトについてのアウトラインの幅を指定可能な幅指定情報を少 なくとも含む属性データを保持する属性データ保持手段と、属性データ保持手段に より保持されたフォントスタイル指定情報においてアウトラインのついたフォントスタイ ルが指定されて 、る場合、アウトラインのつ 、たフォントスタイルのフォントスタイルデ ータを取得し、属性データ保持手段により保持された幅指定情報に基づいてフォント スタイルデータを更新し、文字オブジェクト保持手段により保持された文字オブジェク トを、更新されたフォントスタイルデータを少なくとも用いて字幕データに変換する変 換手段とを備えることを特徴とする。
[0009] 変換手段は、フォントスタイル指定情報にぉ 、てアウトラインのつ 、たフォントスタイ ルが指定されて 、る場合、アウトラインのつ 、たフォントスタイルの第 1のフォントスタイ ルデータを取得する取得手段と、幅指定情報に基づいて、取得手段により取得され た第 1のフォントスタイルデータに対応する文字オブジェクトのアウトラインの幅を、そ の文字オブジェクトの白抜き部分に向かう内側方向とその逆の外側方向ともに同一 の割合で伸縮させる処理を施し、その処理の結果得られる、前記内側方向と前記外 側方向ともに幅が伸縮されたアウトラインのついたフォントスタイルの第 2のフォントス タイルデータを出力する幅変更手段と、幅変更手段から出力された第 2のフォントス タイルデータに対応する文字オブジェクトの上に、取得手段により取得された第 1の フォントスタイルデータに対応する文字オブジェクトデータを合成させる処理を施し、 その処理の結果得られる、外側方向だけに幅が伸縮されたアウトラインのついたフォ ントスタイルの文字オブジェクトデータカゝらなる字幕データを出力する合成手段とを有 するよう〖こすることがでさる。
[0010] 属性データ保持手段により保持されて 、る属性情報は、フォントスタイル指定情報 にお 、てアウトラインのつ 、たフォントスタイルが指定されて 、る場合に、そのアウトラ インのついたフォントスタイルに対応する文字オブジェクトについてのアウトラインの 色を指定可能な色指定情報をさらに含み、変換手段は、属性データ保持手段により 保持された幅指定情報に加えてさらに色指定情報基づいてフォントスタイルデータを 更新し、文字オブジェクト保持手段により保持された文字オブジェ外を、更新された フォントスタイルデータを少なくとも用いて字幕データに変換するようにすることができ る。
[0011] 本発明の情報処理方法は、所定の AVストリームに対応する字幕を表示させるため の字幕データを生成する情報処理装置の情報処理方法であって、字幕を表示させ るための文字オブジェクトの保持を制御する文字オブジェクト保持制御ステップと、文 字オブジェクトに適用するフォントスタイルとしてアウトラインのついたフォントスタイル を少なくとも指定可能なフォントスタイル指定情報、および、フォントスタイル指定情報 にお 、てアウトラインのつ 、たフォントスタイルが指定されて 、る場合に、そのアウトラ インのついたフォントスタイルに対応する文字オブジェクトについてのアウトラインの 幅を指定可能な幅指定情報を少なくとも含む属性データの保持を制御する属性デ ータ保持制御ステップと、属性データ保持制御ステップの制御処理により保持された フォントスタイル指定情報にぉ 、てアウトラインのつ 、たフォントスタイルが指定されて いる場合、アウトラインのついたフォントスタイルのフォントスタイルデータを取得し、属 性データ保持制御ステップの処理により保持された幅指定情報に基づいてフォントス タイルデータを更新し、文字オブジェクト保持手段により保持された文字オブジェクト を、更新されたフォントスタイルデータを少なくとも用いて字幕データに変換する変換 ステップとを含むことを特徴とする。
[0012] 本発明のプログラム格納媒体とプログラムのそれぞれは、上述した本発明の情報処 理方法に対応するプログラム格納媒体とプログラムのそれぞれである。
[0013] 本発明の情報処理装置および方法、プログラム格納媒体、並びにプログラムにお いては、所定の AVストリームに対応する字幕を表示させるための字幕データが生成 される。具体的には、字幕データは次のようにして生成される。即ち、字幕を表示させ るための文字オブジェクトが保持されており、また、文字オブジェクトに適用するフォ ントスタイルとしてアウトラインのついたフォントスタイルを少なくとも指定可能なフォン トスタイル指定情報、および、フォントスタイル指定情報においてアウトラインのついた フォントスタイルが指定されて 、る場合に、そのアウトラインのつ 、たフォントスタイル に対応する文字オブジェクトについてのアウトラインの幅を指定可能な幅指定情報を 少なくとも含む属性データが保持されている。そこで、保持されたフォントスタイル指 定情報にお 、てアウトラインのつ 、たフォントスタイルが指定されて 、る場合、アウトラ インのつ 、たフォントスタイルのフォントスタイルデータが取得されて、保持された幅 指定情報に基づ 、てフォントスタイルデータが更新され、保持された文字オブジェク トが、更新されたフォントスタイルデータを少なくとも用いて字幕データに変換される。
[0014] 本発明のデータ構造は、所定の AVストリームに対応する字幕を表示させるための 字幕データを生成するために必要な情報のデータ構造であって、字幕を表示させる ための文字オブジェクト、文字オブジェクトに適用するフォントスタイルとしてアウトライ ンのつ、、たフォントスタイルを少なくとも指定可能なフォントスタイル指定情報、および 、フォントスタイル指定情報にぉ 、てアウトラインのつ 、たフォントスタイルが指定され て 、る場合に、そのアウトラインのつ 、たフォントスタイルに対応する文字オブジェクト についてのアウトラインの幅を指定可能な幅指定情報を少なくとも含む属性データと を含むことを特徴とする。
[0015] データ構造は、所定のストリームに含まれ、その所定のストリームを管理するクリップ 情報ファイルは、文字オブジェクトに対してのファイルを指定する指定情報を含むこと ができる。
[0016] データ構造は、 AVストリームが保存されたファイルとは別のファイルに保存されて おり、 AVストリームは再生管理情報である PlayListファイルに保持されて!、る Playltem により指定されるとともに、データ構造は、 PlayListファイルに保持されている SubPlayl temにより指定されて ヽることを特徴とする。
[0017] 本発明の記録媒体は、所定の AVストリームに対応する字幕を表示させるための字 幕データを生成するために必要な情報のデータ構造であって、字幕を表示させるた めの文字オブジェクト、文字オブジェクトに適用するフォントスタイルとしてアウトライン のつ 、たフォントスタイルを少なくとも指定可能なフォントスタイル指定情報、および、 フォントスタイル指定情報にぉ 、てアウトラインのつ 、たフォントスタイルが指定されて いる場合に、そのアウトラインのついたフォントスタイルに対応する文字オブジェクトに ついてのアウトラインの幅を指定可能な幅指定情報を少なくとも含む属性データとを 含むデータ構造を有するデータが記録されていることを特徴とする。
[0018] 本発明の記録媒体の製造方法は、所定の AVストリームに対応する字幕を再生装 置に再生させるための字幕データを生成するために必要な情報のデータ構造であつ て、字幕を表示させるための文字オブジェクト、文字オブジェクトに適用するフォントス タイルとしてアウトラインのついたフォントスタイルを少なくとも指定可能なフォントスタ ィル指定情報、および、フォントスタイル指定情報においてアウトラインのついたフォ ントスタイルが指定されて 、る場合に、そのアウトラインのつ 、たフォントスタイルに対 応する文字オブジェクトについてのアウトラインの幅を指定可能な幅指定情報を少な くとも含む属性データとを含むデータ構造を有するデータを生成し、生成された前記 データを、前記再生装置の再生対象となる記録媒体に記録するステップを含む。
[0019] 本発明のデータ構造を有するデータ、本発明の記録媒体に記録されたデータ、ま たは、本発明の記録媒体の製造方法により製造された記録媒体に記録されたデータ により、所定の AVストリームに対応する字幕を表示させるための字幕データが生成さ れる。即ち、字幕を表示させるための文字オブジェクト、文字オブジェクトに適用する フォントスタイルとしてアウトラインのついたフォントスタイルを少なくとも指定可能なフ オントスタイル指定情報、および、フォントスタイル指定情報においてアウトラインのつ V、たフォントスタイルが指定されて!、る場合に、そのアウトラインのつ!/、たフォントスタ ィルに対応する文字オブジェクトについてのアウトラインの幅を指定可能な幅指定情 報を少なくとも含む属性データを利用して、字幕データが生成される。
発明の効果
[0020] 本発明によれば、所定の AVストリームが再生されているときに、 AVストリームに対 応する字幕の表示が可能になる。特に、ユーザがその字幕を確実に判別できるよう になる。
図面の簡単な説明
[0021] [図 1]本発明を適用した再生装置の構成を示すブロック図である。
[図 2]本発明を適用した再生装置に装着される記録媒体上のアプリケーションフォー マットの例を示す図である。
[図 3]本発明を適用した再生装置に装着される記録媒体上のアプリケーションフォー マットの例の異なる例について説明するための図である。
[図 4]図 1のコントローラの機能について説明するための機能ブロック図である。
[図 5]光ディスクのファイルシステムと、ローカルストレージのファイルシステムの例を示 す図である。
[図 6]図 5の 2つのファイルシステムがマージされることで得られるファイルシステムの 例を示す図である。
[図 7]プレイリストとプレイリストによって参照可能なデータについて説明するための図 である。
[図 8]追加して配布される対象となるデータについて説明するための図である。
[図 9]SubPlayItemのシンタックスを示す図である。
[図 10]テキストサブタイトルファイルの構成例を示す図である。
[図 11]図 10のテキストサブタイトルファイルのシンタックスを示す図である。
[図 12]図 10のテキストサブタイトルを構成する各セグメントのシンタックスを示す図で ある。
[図 13]図 12のセグメントの構成要素のうちの segment_descriptorのシンタックスを説明 する図である。
[図 14]図 13の segmenUypeで指定可能な値を説明する図である。
[図 15]図 10のテキストサブタイトルを構成する各セグメントのうちの dialog_style_segme ntのシンタックスを示す図である。
[図 16]図 15の dialog_style_segmentの構成要素のうちの dialog_style_setのシンタックス を説明する図である。
[図 17]図 15の dialog_style_segmentの構成要素のうちの dialog_style_setのシンタックス を説明する図である。
[図 18]図 16の player_style _flagで指定可能な値を説明する図である。
[図 19]図 16の textjlowで指定可能な値を説明する図である。
[図 20]図 16の text_horizontal_alignmentで指定可能な値を説明する図である。
[図 21]図 16の text_vertical_alignmentで指定可能な値を説明する図である。
[図 22]図 16の font_styleで指定可能な値を説明する図である。
[図 23]従来の Blu- Ray Disc Read- Only Format Version0.89r3の Table 9- 59(Data— typ e definition)に対して、本発明を適用するために必要な部分を更新したテーブルの一 例を示す図である。
[図 24]図 1のローカルストレージの仮想的な記憶領域を示す図である。
[図 25]図 1のデコーダの詳細な構成を説明するためのブロック図である。
[図 26]図 25のテキスト字幕処理部の詳細な構成を説明するためのブロック図である。
[図 27]図 26のフォントラスタライザの詳細な構成を説明するためのブロック図である。
[図 28]通常フォントスタイルの文字オブジェクトデータの一例を示す図である。
[図 29]アウトラインスタイルの文字オブジェクトデータの一例を示す図である。
[図 30]アウトラインのサイズ (幅)の変更手法のうちの、従来の手法の一例を説明する 図である。
圆 31]アウトラインのサイズ (幅)の変更手法のうちの、本発明を適用した手法の一例 を説明する図である。
[図 32]再生処理について説明するためのフローチャートである。
[図 33]コンテンツ再生処理について説明するためのフローチャートである。 [図 34]字幕表示処理について説明するためのフローチャートである。
[図 35]字幕表示処理について説明するためのフローチャートである。
[図 36]図 1の再生装置で再生可能なデータを記録した記録媒体の製造について説 明するための図である。
[図 37]図 1の再生装置で再生可能なデータを記録した記録媒体の製造について説 明するための図である。
符号の説明
[0022] 1 再生装置, 11 光ディスク, 21 コントローラ, 22 光ディスクドライブ, 23 メモリ, 24 ローカルストレージ, 26 デコーダ, 31 メニュー画面表示制御部 , 32 操作入力取得部, 33 データ取得部, 34 ローカルストレージディレクトリ 管理部, 35 光ディスクディレクトリ管理部, 66 ファイルシステムマージ処理部, 37 再生制御部, 81 制御部, 86 オーディオデコーダ, 87 MPEGビデオ デコーダ, 92 テキスト字幕処理部, 93 字幕グラフィックスプレーン処理部, 9 4 合成処理部, 121 テキストデータバッファ, 122 文字オブジェクトバッファ, 123 アトリビュートデータバッファ, 124 フォントラスタライザ, 125 ブックマーク バッファ, 151 文字オブジェクト取得部, 152 ブックマーク検出部, 153 ラス タラィズ部, 154 ブックマーク記憶制御部, 155 フォントスタイル検出部, 156 通常フォントスタイル取得部, 157 アウトラインスタイルカ卩ェ部, 161 アウトライ ンスタイル取得部, 162 色変更部, 163 両幅変更部, 164 合成部 発明を実施するための最良の形態
[0023] 以下、図を参照して、本発明の実施の形態について説明する。
[0024] 図 1は、本発明を適用した情報処理装置としての再生装置 1の構成例を示すブロッ ク図である。
[0025] コントローラ 21は、予め用意されている制御プログラムを実行する力、または、光デ イスクドライブ 22を制御して光ディスク 11に記録されて 、るナビゲーシヨンプログラム( 後述)を読み出し、メモリ 23に展開して実行することで、再生装置 1の全体の動作を 制御する。例えば、コントローラ 21は、光ディスク 11が装着されたとき、所定のメ-ュ 一画面を外部の表示装置に表示させることができる。 [0026] 光ディスクドライブ 22は、コントローラ 21による制御に従って光ディスク 11からデー タを読み出し、読み出したデータを、コントローラ 21、メモリ 23、または、デコーダ 26 に出力する。光ディスク 11から読み出された情報力 ナビゲーシヨンプログラムや Play Listなどであった場合、光ディスクドライブ 22により読み出された情報は、コントローラ 21、または、メモリ 23に出力される。光ディスク 11から読み出された情報力 AVストリ ームゃテキストデータであった場合、光ディスクドライブ 22により読み出された情報は 、デコーダ 26に出力される。
[0027] 図 2は、記録媒体のアプリケーションフォーマットの例を示す図である。ここで言う記 録媒体とは、本発明を適用した再生装置 1に装着される光ディスク 11を含む他、例え ば、磁気ディスクや半導体メモリ等も含む。
[0028] このアプリケーションフォーマットは、 AV (Audio Visual)ストリームの管理のために PI ayListと Clipの 2つのレイヤをもつ。ここでは、 1つの AVストリームまたはテキストデー タとそれに付随する情報である Clip Informationのペアを 1つのオブジェクトと考え、そ れらをまとめて Clipと称する。以下、 AVストリームのデータファイルを AVストリームファ ィルと称する。また、 Clip Informationのデータファイルを Clip Informationファイルと称 する。
[0029] 一般的に、コンピュータ等で用いられるファイルはバイト列として扱われる力 AVス トリームファイルのコンテンツは時間軸上に展開され、 Clipのアクセスポイントは、主に 、タイムスタンプで PlayListにより指定される。
[0030] Clip中のアクセスポイントがタイムスタンプで PlayListにより示されている場合、 Clip I nformationファイルは、タイムスタンプから、 AVストリームファイル中のデコードを開始 すべきアドレス情報を見つけるために用いられる。
[0031] PlayListは AVストリームの再生区間を示す情報の集合である。ある AVストリーム中 の 1つの再生区間を示す情報は Playltemと呼ばれ、 Playltemは、時間軸上の再生区 間の IN点(再生開始点)と OUT点(再生終了点)のペアで表される。したがって、 Play Listは、図 2に示されるように 1つ、または複数の Playltemにより構成される。
[0032] 図 2において、左から 1番目に図示されている第 1の PlayListは 2つの Playltemから 構成され、その 2つの Playltemにより、左側に図示される第 1の Clipに含まれる AVスト リームの前半部分と後半部分がそれぞれ参照されている。また、左から 2番目に図示 されている第 2の PlayListは 1つの Playltemから構成され、それにより、右側に図示さ れている第 2の Clipに含まれる AVストリーム全体が参照されている。更に、左から 3番 目に図示されている第 3の PlayListは 2つの Playltemから構成され、その 2つの Playlte mにより、左側に図示されている第 1の Clipに含まれる AVストリームの所定の部分と、 右側に図示されている第 2の Clipに含まれる AVストリームの所定の部分とがそれぞ れ参照されている。
[0033] ナビゲーシヨンプログラム(Navigation program)は、 PlayListの再生の順序や、 PlayL istのインタラクティブな再生をコントロールする機能を、コントローラ 21に実行させるた めのプログラムである。また、ナビゲーシヨンプログラムは、各種の再生の実行をユー ザが指示するためのメニュー画面を表示する機能なども有する。このナビゲーシヨン プログラムは、例えば、 Java (登録商標)などのプログラミング言語で記述され、光ディ スク 11などの記録媒体に記録される。例えば、ナビゲーシヨンプログラムがコントロー ラ 21により実行されて、そのときの再生位置を表す情報として、図 2において左から 1 番目に図示される第 1の PlayListに含まれる第 1の Playltemが指定された場合、その P layltemが参照する、左側に図示される第 1の Clipに含まれる AVストリームの前半部 分の再生が行われる。
[0034] また、図 2を用いて説明した PlayListには、 Playltemにより指定されるメインパス(Mai n Path)に加えて、図 3に示されるようなサブプレイアイテム(Sub Play Item)を用いて 指定されるサブパス(Sub path)の情報を含ませるようにすることもできる。 SubPlayltem を定義すると、例えば、 Playltemにより指定される Clip (例えば、 MPEG2トランスポート ストリーム)に多重化されていない、独立したデータストリームを AVストリーム再生に 同期して再生させることができる。
[0035] 例えば、 Playltemにより指定されるメインパス(Main Path)の Clip AVストリームに対 応させて、テキスト字幕ファイル、および、レンダリングに必要となるフォントファイルか ら構成される字幕関連情報と、字幕関連情報の再生区間を指定した SubPlayltemを 用意することで、 Clip AVストリームの再生と同時に、テキスト字幕ファイルに記載され て 、るデータに対応する字幕を、フォントファイルに記載されて 、るフォントスタイルデ ータに基づいた表示フォントで、表示装置に表示させるようにすることができる。即ち
、映像データや音声データを含むメインパス(Main Path)の Clip AVストリームフアイ ルとは別のファイルを SubPlayltemにより指定することで、例えば再生開始時 (ディスク 挿入時)に、比較的容量が小さいテキストデータをバッファにプリロードすることが可 能になる。従って、ディスクの連続再生確保上、例えば一度に読み込めるストリームフ アイルが 2つに制限されていたとしても、映像データ等と同期して再生が必要な字幕 に対して 1つのストリームファイルの割り当ては必要無い。このため例えば、第 1のファ ィルで映像データと第 1の音声データを、第 2のファイルで第 2の音声データを、第 3 のファイルで字幕をそれぞれ保存する、 t\、つたように 3つのファイルでストリームを保 存していたとしても、連続再生ができる。以上より明らかなように、プリロードする構成 とすれば、連続性を保障しつつ、より自由度の高い再生が可能となる。
[0036] テキスト字幕ファイルおよびレンダリングに必要となるフォントファイルカゝら構成され る字幕関連情報や、 SubPlayltemは、予め光ディスク 11に記録されていても良いし、 ネットワーク 2を介して、サーバ 3からダウンロードされるものであっても良いし、または 、リムーバブルメディア(例えば、後述するリムーバブルメディア 28)を用いて取得す ることができるようにしても良!、。
[0037] 再び、図 1の説明に戻る。
[0038] メモリ 23は、コントローラ 21が各種の処理を実行する上において必要なデータなど を適宜記憶する。ローカルストレージ 24は、例えば、 HDD(Hard Disk Drive)などより 構成される。
[0039] インターネットインタフェース 25は、有線または無線によりネットワーク 2に接続され ており、コントローラ 21からの制御に従って、ネットワーク 2を介して、サーバ 3との間 で通信を行い、サーバ 3からダウンロードされたデータをローカルストレージ 24に供 給する。サーバ 3からは、例えば、そのとき再生装置 1に装着されている光ディスク 11 に記録されて 、る、図 2を用いて説明したデータをアップデートさせるデータがコンテ ンッとしてダウンロードされる。ローカルストレージ 24は、サーバ 3からネットワーク 2経 由でダウンロードしたコンテンツを記録することができる。
[0040] デコーダ 26は、光ディスクドライブ 22、または、ローカルストレージ 24から供給され る AVストリーム、または、テキストデータをデコードし、得られたビデオ信号とオーディ ォ信号を外部の表示装置に出力する。表示装置においては、デコーダ 26によりデコ ードされた信号に基づいて、例えば、光ディスク 11に記録されているコンテンツの出 力(映像の表示、音声の出力)が行われる。
[0041] 操作入力部 29は、例えば、ボタン、キー、タツチパネル、ジョグダイヤル、マウスなど の入力デバイスや、所定のリモートコマンダカ 送信される赤外線などの信号を受信 する受信部により構成され、ユーザの操作入力を取得し、コントローラ 21に供給する
[0042] また、コントローラ 21には、必要に応じてドライブ 27も接続されており、ドライブ 27に は、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM (Com pact Disk-Read Only Memory), DVDを含む)、光磁気ディスク(MD (登録商標)(Mi ni-Disk)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア 28が装着さ れる。
[0043] 次に、再生装置 1に装着された光ディスク 11に記録されたデータ、および、ロー力 ルストレージ 24に記憶されたデータを再生する方法について説明する。
[0044] 再生装置 1は HDD(Hard Disk Drive)などよりなるローカルストレージ 24を内部に備 える。再生装置 1は、有線または無線によりネットワーク 2に接続されており、サーバ 3 力 ネットワーク 2経由でダウンロードしたコンテンツを、このローカルストレージ 24に 記録することができる。サーバ 3からは、例えば、そのとき再生装置 1に装着されてい る光ディスク 11に記録されて ヽる映画などのコンテンツをアップデートさせるデータを ダウンロードすることができる。
[0045] ダウンロードされたコンテンツがローカルストレージ 24に記録されている状態で、操 作入力部 29から、光ディスク 11に記録されて 、るコンテンツの再生が指示されたとき 、コントローラ 21は、光ディスク 11に記録されているコンテンツと、ローカルストレージ 24に記録されているコンテンツを関連付けて、コンテンツの再生処理を実行する。
[0046] 図 4は、図 1のコントローラ 21の機能構成例を示すブロック図である。
[0047] 図 4の各構成は、予め用意されている制御プログラムがコントローラ 21により実行さ れることにより、または、光ディスク 11に記録されているナビゲーシヨンプログラムがコ ントローラ 21により実行されることにより実現される。
[0048] メニュー画面表示制御部 31は、光ディスク 11に記録されているコンテンツの音声、 または字幕の言語や、映像のアングルを選択するときにユーザにより操作されるボタ ンゃ、ダウンロードするアップデートファイルを選択するときにユーザにより操作される ボタンなどを含むメニュー画面を外部の表示装置に表示させる。
[0049] 操作入力取得部 32は、操作入力部 29から入力された、ユーザ力もの操作入力を 示す信号を取得し、ユーザからの操作入力を示す信号を、メニュー画面表示制御部 31、データ取得部 33、または、再生制御部 37のうちの対応する箇所に出力する。
[0050] データ取得部 33は、図 1のインターネットインタフェース 25において行われる通信、 または、ドライブ 27によるリムーバブルメディア 28との情報の授受を制御する。例え ば、データ取得部 33は、ユーザが指示したアップデートファイルをサーバ 3からダウ ンロードして取得し、取得したファイルをローカルストレージディレクトリ管理部 34に出 力する。
[0051] ローカルストレージディレクトリ管理部 34は、ローカルストレージ 24のディレクトリを管 理し、ローカルストレージ 24に対するデータの書き込み、および、ローカルストレージ 24力ものデータの読み出しを制御する。例えば、ローカルストレージディレクトリ管理 部 34の制御によりローカルストレージ 24から読み出された PlayListは、メモリ 23に出 力され、ローカルストレージ 24から読み出された AVストリームの音声データおよび映 像データやテキスト字幕ファイルのテキストデータは、デコーダ 26に出力される。また 、ローカルストレージディレクトリ管理部 34は、後述するように、光ディスク 11のフアイ ルシステムと、ローカルストレージ 24のファイルシステムとのマージがファイルシステム マージ処理部 36により行われる場合、ローカルストレージ 24のファイルシステムに関 する情報をファイルシステムマージ処理部 36に出力する。
[0052] 光ディスクディレクトリ管理部 35は、光ディスク 11のディレクトリを管理し、光ディスク 11からの各データの読み出しを制御する。光ディスク 11には識別情報である Studioj dと Contentjdが設定されており、光ディスクディレクトリ管理部 35の制御により、光デ イスク 11から読み出された Studiojdと Contentjdは、データ取得部 33とローカルストレ ージディレクトリ管理部 34に出力される。また、光ディスクディレクトリ管理部 35の制 御により、光ディスク 11から読み出された PlayListは、メモリ 23に出力され、光ディスク 11から読み出された AVストリームの音声データおよび映像データやテキスト字幕フ アイルのテキストデータは、デコーダ 26に出力される。また、光ディスクディレクトリ管 理部 35は、後述するように、光ディスク 11のファイルシステムと、ローカルストレージ 2 4のファイルシステムとのマージがファイルシステムマージ処理部 36により行われる場 合、光ディスク 11のファイルシステムに関する情報をファイルシステムマージ処理部 3 6に出力する。
[0053] ファイルシステムマージ処理部 36は、光ディスクディレクトリ管理部 35から供給され る光ディスク 11のファイルシステムと、ローカルストレージディレクトリ管理部 34から供 給されるローカルストレージ 24のファイルシステムをマージし、 1つの仮想的なフアイ ルシステムを生成する。ファイルシステムマージ処理部 36は、マージすることで生成 した仮想的なファイルシステムを再生制御部 37に出力する。以下、適宜、第 1の実施 の形態においてファイルシステムマージ処理部 36によりマージされることで生成され る 1つのファイルシステムを第 1の仮想ファイルシステムと称する。
[0054] 再生制御部 37は、ファイルシステムマージ処理部 36から供給される第 1の仮想ファ ィルシステムで指定されるナビゲーシヨンプログラムを実行し、コンテンツの再生を制 御する。具体的には、再生制御部 37はメモリ 23に供給され、記憶された PlayListを参 照し、ローカルストレージディレクトリ管理部 34または光ディスクディレクトリ管理部 35 を制御して、光ディスク 11またはローカルストレージ 24に記録されている AVストリー ムの音声データ、映像データ、および、必要に応じてテキスト字幕ファイルのテキスト データを読み出させ、図 1のデコーダ 26を制御して、光ディスク 11またはローカルス トレージ 24に記録されている AVストリームの音声データ、映像データ、および、必要 に応じてテキスト字幕ファイルのテキストデータのデコード (再生)を行わせる。
[0055] ここで、ファイルシステムマージ処理部 36により行われる、光ディスク 11のファイル システムと、サーバ 3からダウンロードするなどによりローカルストレージ 24に記録され たファイルシステムのマージについて説明する。例えば、このマージは光ディスク 11 に記録されているコンテンツの再生が指示されたときに行われる。
[0056] 図 5は、光ディスク 11のファイルシステム(左側)と、ローカルストレージ 24のファイル システム (右側)の例を示す図である。図に示されるように、各ファイルシステムはディ レクトリ構造を有している。
[0057] 光ディスク 11の「root」の下には「BDMV」の名前が設定されたフォルダが用意され、 そのフォルダに、 「info.bdmv」の名前が設定されたファイルと、 「Navigation.class」の名 前が設定されたファイルが格納されている。以下、これらのファイルを、適宜、 info.bd mvファイル、 Navigation.classファイルとそれぞれ称する。他のファイル、フォルダにつ Vヽても同様に、「ファイル名」に「ファイル」を付加した形で、または、「フォルダ名」に「 フォルダ」を付加した形で称する。
[0058] info.bdmvファイルには、光ディスク 11の製作者の識別情報である Studio_id、コンテ ンッの識別情報である Contentjdが記述されている。
[0059] すなわち、 Studiojdと Contentjdにより、流通するコンテンツ全体の中力 光ディスク 11に記録されているコンテンツが識別される。図 5の例においては、 Studiojdは「xxx 」であり、 Contentjdは「yyy」である。なお、 Studiojdと Contentjdは、ダウンロードする アップデートファイルを識別するためにも利用される。
[0060] Navigation.classファイルは、所定のプログラム言語で記述されたナビゲーシヨンプロ グラムである。
[0061] BDMVフォルダにはまた、「PLAYLIST」の名前が設定されたフォルダ(PLAYLISTフ オルダ)、 「CLIPINF」の名前が設定されたフォルダ(CLIPINFフォルダ)、 「STREAM」 の名前が設定されたフォルダ(STREAMフォルダ)が格納されて ヽる。
[0062] 図 5においては、 PLAYLISTフォルダには、「lllll.mpls」の名前が設定されたフアイ ルと「22222.mpls」の名前が設定されたファイルが格納されて 、る。これらのファイル は、 AVストリームファイルなどの再生区間をタイムスタンプで表す PlayListである。
[0063] CLIPINFフォルダには、「01000.clpi」の名前が設定されたファイルと「02000.clpi」の 名前が設定されたファイルなどが格納されている。これらのファイルは、タイムスタンプ と、 AVストリームファイルまたは字幕関連情報のアドレス情報の対応を表す Clip Infor mationである。
[0064] STREAMフォルダには、「01000.m2ts」の名前が設定されたファイルと「02000.m2ts」 の名前が設定されたファイルなどが格納されている。これらのファイルは、 AV stream や字幕関連情報などである。
[0065] 一方、ローカルストレージ 24の「root」の下には「xxx-yyy」の名前が設定されたフォ ルダが格納されている。フォルダ名の「xxx-yyy」は、このフォルダに格納されているデ ータが、光ディスク 11に記録されている、 Studio_id「xxx」、 Content_id「yyy」で識別さ れるコンテンツに対応するデータであることを表す。 χχχ-yyyフォルダは、 Studiojd「XX x」、 Content_id「yyy」を有する光ディスク 11が再生装置 1に装着され、アップデートフ アイル (xxx-yyyフォルダに格納される各ファイル)のダウンロードが行われたときに作 成されるちのである。
[0066] XXX- yyyフォルダには、 info.bdmvファイル、 Navigation.classファイルが格納されてい る。この info.bdmvファイルは光ディスク 11の info.bdmvファイルと同じであり、 Navigatio n.classファイルは、光ディスク 11の Navigation.classファイルをアップデートさせたファ ィルである。すなわち、ローカルストレージ 24の Navigation.classファイルは、光デイス ク 11に記録されて 、るものと較べて、バージョンアップされたナビゲーシヨンプログラ ムを記述するファイルである。
[0067] xxx-yyyフォルダには、更に、 PLAYLISTフォルダ、 CLIPINFフォルダ、 STREAMフォ ルダが格納されている。
[0068] 図 5においては、ローカルストレージ 24の PLAYLISTフォルダに「11111. mpls」の名 前が設定されたファイルと「22222.mpls」の名前が設定されたファイルが格納されてお り、このうちの「22222.mpls」の名前が設定されたファイルは、光ディスク 11の同じ名前 が設定されているファイルをアップデートしたファイルとされている。例えば、ローカル ストレージ 24の「22222.mpls」の名前が設定されたファイルは、ダウンロードされた Upd ate PlayListを表し、このファイルに、 PlayListに SubPlayltemが付カ卩されたデータが記 述される。
[0069] ローカルストレージ 24の CLIPINFフォルダには、光ディスク 11にも記録されている、
roiOOO.clpiJの名前が設定されたファイルと「02000.clpi」の名前が設定されたフアイ ルの他に、「04000.clpi」の名前が設定されたファイルが格納されている。すなわち、「 04000.clpiJの名前が設定されたファイルは、ダウンロードにより新たに取得されたファ ィルである。 [0070] ローカルストレージ 24の STREAMフォルダには、「04000.m2ts」の名前が設定された ファイルが格納されている。このファイルは、ダウンロードにより新たに取得されたファ ィルである。
[0071] なお、同様に、図 5の例においては、ローカノレストレージ 24の「root」の下には「xxx- aaajの名前が設定されたフォルダと、 「yyy-bbb」の名前が設定されたフォルダが格納 されている。これらは、 Studio_id「xxx」、 Content jd「aaa」で識別される光ディスク、 Stud iojd「yyy」、 Content jd「bbb」で識別される光ディスクが再生装置 1に装着されたとき にそれぞれ作成されたものであり、それぞれのコンテンツに対応するファイルが格納 されている。
[0072] このような光ディスク 11のファイルシステムとローカルストレージ 24のファイルシステ ムがある場合、コントローラ 21のファイルシステムマージ処理部 36は、光ディスク 11 のファイルシステムと、ローカルストレージ 24のファイルシステムをメモリ 23上でマー ジし、第 1の仮想ファイルシステムを生成する。
[0073] 具体的には、ファイルシステムマージ処理部 36は、同じ名前のファイルが光デイス ク 11とローカルストレージ 24の両方にある場合、それぞれのファイルに記述されるタ ィムスタンプ (作成日時)やバージョンに基づいて、ダウンロードにより取得されたファ ィルがコンテンツの再生時に参照するファイルとされるようにマージを行う。また、ファ ィルシステムマージ処理部 36は、光ディスク 11にはなぐローカルストレージ 24にの みあるファイルがコンテンツの再生時に参照するファイルとされるようにマージを行う。
[0074] 図 6は、図 5の 2つのファイルシステムから得られる第 1の仮想ファイルシステムの例 を示す図である。
[0075] 図 6においては、光ディスク 11に記録されているファイルのうち、 Navigation.classフ アイルと「22222.mpls」の名前が設定されたファイル力 ダウンロードされたファイルに よりアップデートされている(置き換えられている)。また、光ディスク 11には記録され ていない、「04000.clpi」の名前が設定されたファイルと、 「04000.m2ts」の名前が設定 されたファイルが追加されて 、る。
[0076] すなわち、ダウンロードされたファイルに、アップデートされたナビゲーシヨンプログ ラムや PlayListがある場合、そのファイルによって、光ディスク 11の同じ名前のフアイ ルがアップデートされる(置き換えられる)。また、光ディスク 11にはない Clipのフアイ ル(Clip Informationファイル、 AVストリームファイル)がダウンロードされた場合、それ がファイルシステムに追加される。
[0077] このようにして生成された第 1の仮想ファイルシステムを通して、ナビゲーシヨンプロ グラムに基づく AVストリームへのアクセスが行われる(直接、光ディスク 11やローカル ストレージ 24にアクセスが行われるのではな!/、)。
[0078] したがって、新たにダウンロードまたはコピーされた新規ナビゲーシヨンプログラムの 処理により、光ディスク 11に予め記憶されているデータと、新たにダウンロードまたは コピーされてローカルストレージ 24に記憶されたデータとは区別されることなく処理さ れる。図 7に示されるように、所定の区間の AVストリームに対応させて字幕を表示さ せるための字幕関連情報が、複数の言語の字幕に対応するテキスト字幕ファイルを 構成するテキストサブタイトルデータと、フォントファイルを構成するデータにより構成 されている場合、ユーザの操作入力に基づいて、光ディスク 11に予め記憶されてい る字幕関連情報と、新たにダウンロードまたはコピーされてローカルストレージ 24に 記憶された字幕関連情報とにより表示可能とされる複数の言語による字幕のうち、ュ 一ザが所望する言語の字幕データ力 光ディスク 11に予め記憶されて 、る AVストリ ームに対応付けられて、処理されて表示される。
[0079] 一方、光ディスクの販売者側 (販売者、製作者)は、例えば、アラビア語の字幕情報 は後からネットワーク 2を介して提供するものとし、英語字幕のみを表示可能な状態で 、映画が記録された光ディスク 11を販売することができる。すなわち、光ディスクの販 売者側は、一度に多言語を翻訳することなぐより早いタイミングでディスクを販売し、 必要に応じて、他の言語に対応する字幕関連情報を追加して提供することが可能に なる。また、主な言語に対応する地域に光ディスクを先行販売し、他の言語の翻訳処 理の終了後、光ディスクの販売地域を後から追加するとともに、対応する言語のテキ スト字幕ファイルのダウンロードサービスを開始するようにすることなども可能になる。
[0080] 光ディスクの販売者側 (販売者、製作者)は、光ディスク 11に予め記憶されて 、る A Vストリームに対応付けて字幕データを表示可能とするために、少なくとも、アップデ ートされた新規のプレイリストファイルと、テキスト字幕ファイルを配布する必要があり、 これに加えて、テキスト字幕ファイルに記載されているテキストデータに対応する字幕 の表示形式を定義するためのフォントファイルを配布するようにしても良 、。
[0081] このような追加して配布される対象となるデータ(ローカルストレージ 24に記憶され るデータに対応する)のアーカイブを図 8に示す。
[0082] 追加して配布するデータには、プレイリストファイル (PlayList.file)、テキストサブタイ トルファイルの番号を示す 8ビットの番号情報(number_of_TextSubTitle)、および、上 述したテキスト字幕ファイルに対応するテキストサブタイトルファイル (text_subtitle_file )が含まれ、更に、フォントファイル (fontjle)が含まれる場合がある。
[0083] 図 9は、 SubPlayltemのシンタックスを示す図である。
[0084] Reむ o_STCjdの 8ビットのフィールドは、 Clipが参照する STCシーケンスの識別子を 指定する。 SubPlayItem_IN_timeは、 SubPlayltemの再生開始時刻を指定する。 SubPla yItem_OUT_timeは、 SubPlayltemの再生終了時刻を指定する。すなわち、 SubPlaylte m_IN_timeおよび SubPlayItem_OUT_timeで、 SubPlayltemの再生区間を指定すること ができる。なお、 SubPlayItem_IN_timeおよび SubPlayItem_OUT_timeに記載される時刻 情報は、 STCで使用されている 45kHzのクロックをベースに表現される。
[0085] number_of_ClipTextSubtitleの 8ビットのフィールドは、 SubPlayltem中で定義する字 幕のテキストの総数を指定する。 language jdの 8ビットのフィールドは、字幕として使用 する言語の識別子を指定する。 language jdフィールドのデータは、 ISO/IEC 639- 1規 格に従うものとする。 character_code_idの 8ビットのフィールドは、文字データの符号化 方式の識別子を指定する。 font_format_idの 8ビットのフィールドは、フォントフォーマツ トの識別子を指定する。
[0086] font_file_path_lengthの 16ビットのフィールドは、 font_file_pathに記載されるフォントフ アイルのパス名称のバイト数を指定する。このフィールドには、 font_file_pathのバイト数 として、 0を指定することができる。 0が指定された場合は、再生装置 1に予め保存さ れている内蔵フォントが指定されたものとして処理される。 font_file_pathは、字幕デー タを描画するために使用するフォントファイルのノ ス名称を指定する。 font_file_pathの フィールドに、空文字列が指定された場合、再生装置 1に予め保存されている内蔵フ オントが指定されたものとして処理される。 font_file_path本フィールド値は、 ISO/IEC 6 46方式で符号化されるものとする。
[0087] subtitle_file_path_lengthの 16ビットのフィールドは、 subtitle_file_pathに記載されるテ キスト字幕ファイルのパス名称のバイト数を指定する。 subtitle_file_pathは、テキスト字 幕ファイルのパス名称を指定する。 subtitle_file_pathフィールド値は、 ISO/IEC 646方 式で符号化されるものとする。
[0088] commentjengthの 16ビットのフィールドは、 commentに記述される情報のバイト数を 指定する。 Commentには、テキスト字幕に関するコメントが記述される。なお、 Comme ntに記載されるコメントは、文字集合 ISO/IEC 646を使用して記述するものとされてい る。
[0089] 本実施の形態では、テキスト字幕ファイル (テキストサブタイトルファイルであって、 図 8で言う text_subtitle_file)は、図 10に示されるようなストリームファイルとして構成さ れている。以下、このようにストリームファイルとして構成されるテキスト字幕ファイルを 、テキストサブタイトルストリームファイル(Text_Subtitle_Stream File)と称する。
[0090] 図 10の一番上の図に示されるように、テキストサブタイトルストリームファイルは、伝 送時には、複数のトランスポートパケット(図 10中 TPと記述されているパケットであり、 以下、その記載に併せて TPと称する)カゝら構成されるトランスポートストリームの形態 を取っている。
[0091] なお、図 10の例では、トランスポートストリームは、 0x1800という同一の PIDを有する TPのみで構成されている。換言すると、図 10の例では、トランスポートストリームは、 テキストサブタイトルストリームファイルの一部に対応する TPのみで構成されている。 即ち、図 10の例では、トランスポートストリームは、テキストサブタイトノレストリームフアイ ルのみから構成されて 、る。
[0092] このようなトランスポートストリームは、データ処理時 (例えば記録処理時や再生処理 時)またはその前に、図 10の上から 2番目の図に示されるように、 PES(Packetized Ele mentary Stream)パケットを単位とするストリームに変換される。即ち、図 10の上から 2 番目の図は、 PESパケット(PES Packet)を単位とするテキストサブタイトルストリームフ アイルの構成例を示して ヽる。テキストサブタイトルストリームファイルを構成する複数 の PESパケットのうちの一番先頭の PESパケットは、 Dialog Style Segmentと称されてい る。この Dialog Style Segmentが、後述する属性データに対応する PESパケットである。 また、 Dialog Style Segmentに続く複数の PESパケットのそれぞれは、 Dialog Presentat ion Segmentと称されている。この Dialog Presentation Segmentが、後述する文字ォブ ジェタトに対応する PESパケットである。
[0093] 図 11は、このようなテキストサブタイトルストリーム(Text_subtitle_stream)フアイノレの シンタックスを示す図である。
[0094] 図 11にお 、て、 number— of— dialog— presentation— segmentsの 16ビットのフィーノレドは、 Dialog Style Segmntに続く Dialog Presentation Segmentの個数を指定する。即ち、テ キストサブタイトルストリーム(Text_subtitle_stream)ファイルは、先頭に Dialog Style Se gment ^酉己 され、その後には、 number— of— dialog— presentation— segmentsで寸旨 れ た個数分の Dialog Presentation Segmentが続いて配置されて構成されることになる。
[0095] 図 12は、 1つのセグメント (Segment)の一般的なシンタックスを示す図である。
[0096] 図 12に示されるように、 1つのセグメント (Segment)は、 segment_descriptorと segment_ dataと力ら構成される。
[0097] 図 13は、 segment_descriptorのシンタックスを示す図である。
[0098] segmenUypeの 8ビットのフィールドは、セグメントのタイプを指定する。具体的には、 segmenUypeには、図 14に示されるセグメントのタイプのうちの所定の 1つ力 それに 対応する値(図 14中同一行の値)で指定される。即ち、セグメントのタイプが Dialog St yle Segmentの場合、 0x81が segmenUypeに設定される。また、セグメントのタイプが Di alog Presentation Segmentの場合、 0x82が segmenUypeに設定される。なお、 0x00乃 至 0x13、 0x19乃至 0x7F、および、 0x83乃至 OxFFは、予備として用意されている。また 、 0x14乃至 0x18、および、 0x80は、グラフィックストリーム用のセグメントを指定する値 として用意されている。
[0099] segmenUengthの 16ビットのフィールドは、このセグメント (segment)のバイト数を指定 する。
[0100] このような図 12乃至図 14のシンタックスを有する segmentのうちの、 Dialog Style Seg mentのシンタックスは図 15に示される通りになる。
[0101] 即ち、図 12の segment_dataは、図 15の Dialog Style Segmentでは dialog_style_setと なる。
[0102] 図 16と図 17は、この dialog_style_setのシンタックスを示している。詳細については後 述するが、このシンタックスにより、本発明の特徴のひとつである「字幕等を構成する テキストで利用される文字オブジェクトにアウトラインを付ける」ことが実現可能になる
[0103] 図 16において、 player_style_flagの 1ビットのフィールドは、この dialog_style_setをュ 一ザ独自のスタイルに変更することの許可の有無を指定する。即ち、図 18に示され るように、その許可を行わない (禁止する)場合には、 player_style_flagとして Obが指定 される。これに対して、その許可を行う場合には、 player_style_flagとして lbが指定され る。
[0104] number_of_region_stylesの 8ビットのフィーノレドは、この dialog_style_setで使われる regi on.style (後述)の個数を指定する。 number_of_user_stylesの 8ビットのフィールドは、こ の dialog_style_setで使われる user_style (後述)の個数を指定する。
[0105] region_stylejdの 8ビットのフィールドは、対象の region_style (リージョン スタイル)の 識別子を指定する。 region (リージョン)とは描画領域を示す。
[0106] region_horizontal_positionの 16ビットのフィールドは、対象のリージョンの水平方向 座標を指定する。 region_vertical_positionの 16ビットのフィールドは、対象のリージョン の垂直方向座標を指定する。 region— widthの 16ビットのフィールドは、対象のリージョ ンの幅を指定する。 region_heightの 16ビットのフィールドは、対象のリージョンの高さ を指定する。 region_bg_palette_entry_id_refの 8ビットのフィールドは、対象のリージョン のバックグラウンドの色を指定する。
[0107] text_box_horizontal_positionの 16ビットのフィールドは、対象のリージョン中のテキス トボックス (字幕を構成するテキストが表示される範囲)の水平方向座標を指定する。 t ext_box_vertical_positionの 16ビットのフィールドは、そのテキストボックスの垂直方向 座標を指定する。 text_box_widthの 16ビットのフィールドは、そのテキストボックスの幅 を指定する。 text_box_heightの 16ビットのフィールドは、そのテキストボックスの高さを 指定する。
[0108] text_flowの 8ビットのフィールドは、対象のリージョン中のテキストボックスに表示され るテキストの表示方向を指定する。具体的には、 text_flowには、図 19に示される表示 方向のうちの所定の 1つ力 それに対応する値(図 19中同一行の値)で指定される。 即ち、表示方向が水平方向のうちの左力 右に向力う方向である場合、 1が text_flow に指定される。表示方向が水平方向のうちの右力 左に向力 方向である場合、 2が t ext_flowに指定される。表示方向が垂直方向のうちの上から下に向力 方向である場 合、 3が text_flowに指定される。なお、予備の値として、 0、および 1乃至 3以外の値が 用意されている。
[0109] text_horizontal_alignmentの 8ビットのフィールドは、対象のリージョン中のテキストボ ッタスに表示されるテキストの右寄せ、左寄せ、中央寄せ (水平方向での中央寄せ) を指定する。具体的には、図 20に示されるような値力 ¾ext_horizontal_alignmentに指 定される。即ち、左寄せの場合、 1が text_horizontal_alignmentに指定される。中央寄 せの場合、 2が text_horizontal_alignmentに指定される。右寄せの場合、 3が text_horiz ontaLalignmentに指定される。なお、予備の値として、 0、および 1乃至 3以外の値が 用意されている。
[0110] text_vertical_alignmentの 8ビットのフィールドは、対象のリージョン中のテキストボック スに表示されるテキストの上寄せ、下寄せ、中央寄せ (垂直方向での中央寄せ)を指 定する。具体的には、図 21に示されるような値力 ¾ext_vertical_alignmentに指定される 。即ち、上寄せの場合、 1が text_vertical_alignmentに指定される。中央寄せの場合、 2力 ¾ext_vertical_alignmentに指定される。下寄せの場合、 3が text_vertical_alignment に指定される。なお、予備の値として、 0、および 1乃至 3以外の値が用意されている
[0111] line_spaceの 8ビットのフィールドは、対象のリージョンにおけるベースラインの間隔を 指定する。
[0112] font_id_refの 8ビットのフィールドは、対象のリージョン中のテキストボックスに表示さ れるテキストのフォントを指定する。
[0113] font_styleの 8ビットのフィールドは、対象のリージョン中のテキストボックスに表示さ れるテキストのフォントスタイルを指定する。具体的には、図 22に示されるような値が f ont_styleに指定される。即ち、フォントスタイルが Normal (予め標準として設定された フォントスタイル)の場合、 0x00が font_styleに指定される。フォントスタイル力 ¾old (ボ 一ルド体)の場合、 0x01が font_styleに指定される。フォントスタイルが Italic (イタリック 体)の場合、 0x02が font_styleに指定される。フォントスタイル力 ¾old and Italic (ボール ドアンドイタリック体)の場合、 0x03が font_styleに指定される。フォントスタイルが Outl ine- bordered (アウトライン)の場合、 0x04が font_styleに指定される。フォントスタイル が Bold and Outline- bordered (ボールドアンドアウトライン)の場合、 0x05が font— style に指定される。フォントスタイル力 ¾alic and outline- bordered (イタリックアンドアウトラ イン)の場合、 0x06が font_styleに指定される。フォントスタイルが Bold, Italic and Outli ne- bordered (ボールド,イタリックアンドアウトライン)の場合、 0x07が font_styleに指 定される。
[0114] 以上説明したフォントスタイルのうちの 0x04乃至 0x07で指定されるフォントスタイルこ そが、本発明の特徴のひとつである「字幕等を構成するテキストで利用される文字ォ ブジエタトにアウトライン (輪郭)を付ける」ことの実現に必要なフォントスタイルである。 即ち、本発明の特徴のひとつである「字幕等を構成するテキストで利用される文字ォ ブジエタトにアウトラインを付ける」ことを実現するためには、 font_styleの値が 0x04乃至 0x07のうちの何れかに指定されている必要がある。
[0115] なお、以下、 font_styleとして 0x00乃至 0x03が指定されるフォントスタイルを通常フォ ントスタイルと総称する。また、 font_styleとして 0x04乃至 0x07が指定されるフォントスタ ィルをアウトラインスタイル総称する。
[0116] font_sizeの 8ビットのフィールドは、対象のリージョン中のテキストボックスに表示され るテキストのフォントのサイズを指定する。 font_palette_entry_id_refのフィールドは、そ のフォントの色を指定する。
[0117] 図 16と図 17の例の dialog_style_setのシンタックスでは、 font_styleとして 0x04乃至 Ox 07のうちの何れかが指定されている場合、即ち、本発明の特徴のひとつである「字幕 等で利用される文字オブジェクトにアウトラインを付ける」を実現するためにアウトライ ンスタイルが指定されて!、る場合、 outline_palette_entry_id_refと!、う 8ビットのフィール ドと、 outline_sizeと!、う 8ビットのフィールドとが指定される。
[0118] outline_palette_entry_id_refは、アウトラインのつ 、たフォントスタイルでテキストが表 示される場合におけるアウトライン (そのテキストの輪郭)の色を指定する。 outline.size は、そのアウトラインのサイズ (幅)を指定する。なお、アウトラインの色やサイズについ ては、図 28乃至図 30を参照して後述する。
[0119] なお、 inline_styleにおいて部分的に font_styleをアウトラインスタイルに変更するため に、従来の Blu- Ray Disc (商標) Read- Only Format Version0.89r3の Table 9- 59(Dat a_type definition)に対して、図 23の灰色の項目を付カ卩したテーブル、即ち、 Data_typ eが 0x033である項目(行)において、 Data丄 engthが 3に変更され、かつ、 inline_style_v aluesO or text— stringに outline— palette— entry— id— refと outline— sizeと力 S新規に追ノ J口 れ 7こ テーブルを採用する必要がある。
[0120] 図 16と図 17の例の dialog_style_setのシンタックスのうちの、以上説明した region_styl eのシンタックスに対して、 user_styleの変更設定(以下、 user_changeable_Style_set)の シンタックスが図 17に示されている。
[0121] 図 17において、 user_style_idの 8ビットのフィールドは、対象の User_control_styleの 識別子を指定する。
[0122] region— horizontal— position— directionの 1ビットのフィ ~~ノレド【ま、 region— horizontal— posit ionの移動方向を指定する。具体的には、移動方向が右方向の場合には 0が、移動 方向が左方向の場合には 1カ、それぞれ region_horizontal_position_directionに旨定 れる。 region— horizontal— position— deltaの 15ピットのフィ ~~ノレト 、 region— horizontal— p ositionの水平方向の移動量を指定する。
[0123] region— vertical— position— directionの 1ビットのフィ ~~ノレド【ま、 region— vertical— position の進行 (移動)方向を指定する。具体的には、進行方向が下方向の場合には 0が、進 行方向が上方向の場合には 1が、それぞれ region_vertical_position_directionに指定 れる。 region— vertical— position— deltaの 15ビットのフィ ~~ノレドは、 region— vertical— positi onの垂直方向の移動量を指定する。
[0124] font_size_inc_decの 1ビットのフィールドは、フォントサイズの変更の方向、即ち、その 変更後に大きくなるのかそれとも小さくなるかを指定する。具体的には、大きくなる場 合には 0b力 小さくなる場合には lb力 それぞれ font_sizejnc_decに指定される。 font— size_deltaの 7ビットのフィールドは、フォントサイズの変更量を指定する。 [0125] text_box_horizontal_position_directionの 1ビットのフィールドは、テキストボックスの水 平方向の移動方向を指定する。具体的には、移動方向が右方向の場合には 0が、移 動方向が左方向の場合には 1カ、それぞれ text_box_horizontal_position_directionに 旨定される。 text_box_horizontal_position_deltaの 15ビットのフィールドは、テキストボッ タスの水平方向の移動量を指定する。
[0126] text_box_vertical_position_directionの 1ビットのフィールドは、テキストボックスの垂直 方向の移動方向を指定する。具体的には、移動方向が下方向の場合には 0が、移動 方向が上方向の場合には 1が、それぞれ text_box_vertical_position_directionに指定さ れる。 text_box_vertical_position_deltaの 15ビットのフィーノレドは、テキストボックスの垂 直方向の移動量を指定する。
[0127] text_box_width_inc_decの 1ビットのフィールドは、テキストボックスの幅の変更の方向 、即ち、その変更後に幅が太くなるのかそれとも狭くなる力を指定する。具体的には、 太くなる場合には Ob力 狭くなる場合には 1 bが、それぞれ text_box_width_inc_decに指 定される。 text_box_width_deltaの 15ビットのフィールドは、テキストボックスの幅の変更 量を指定する。
[0128] text_box_height_inc_decの 1ビットのフィールドは、テキストボックスの高さの変更の方 向、即ち、その変更後に高くなるのかそれとも低くなる力を指定する。具体的には、高 くなる場合には Ob力 低くなる場合には 1 bが、それぞれ text_box_height_inc_decに指 定される。 text_box_height_deltaの 15ビットのフィールドは、テキストボックスの高さの 変更量を指定する。
[0129] line_space_inc_decの 1ビットのフィールドは、 line_spaceの変更の方向、即ち、その変 更後に増えるのかそれとも減るのかを指定する。具体的には、増える場合には Obが、 減る場合には lb力 それぞれ line_space_inc_decに指定される。 line_space_deltaと 、う 7 ビットのフィールドは、 line_spaceの変更量を指定する。
[0130] paletteOは、図示はしないが、次のようなフィールドにより構成される。即ち、この pale tteOの長さを指定する length、 paletteの特定の色の識別子を指定する palette_entry_i d、 (Y, Cb, Cr)のうちの Yの値を指定する Y_value、 (Y, Cb, Cr)のうちの Cbの値を指 定する Cb_value、 (Y, Cb, Cr)のうちの Crの値を指定する Cr_value、および、透明度を 指定する T_value、 t 、つたフィールドから paletteOは構成される。
[0131] 次に、図 24は、ローカルストレージ 24の仮想的な記憶領域を示す図である。
[0132] ローカルストレージ 24には、図 4を用いて説明したように、ダウンロードまたはコピー された各種情報が図 5を用いて説明したファイル形式で記憶される。これらのファイル を記憶するために、ローカルストレージ 24には、仮想的な記憶領域として、ダウン口 ードされたナビゲーシヨンプログラムが記憶される領域であるナビゲーシヨンプロダラ ム記憶部 51、ダウンロードされたプレイリストが記憶される領域であるプレイリスト記憶 部 52、ダウンロードされたテキストサブタイトルファイル (テキスト字幕ファイル)が記憶 される領域であるテキストサブタイトルファイル記憶部 53、ダウンロードされたフォント ファイルが記憶される領域であるフォントファイル記憶部 54が設けられているものとす ることができる。ナビゲーシヨンプログラム記憶部 51およびプレイリスト記憶部 52に記 憶されたデータファイルは、図 4を用いて説明したローカルストレージディレクトリ管理 部 34の制御に基づ 、て読み出されてメモリ 23に供給され、テキストサブタイトルファ ィル記憶部 53およびフォントファイル記憶部 54、に記憶されたデータファイルは、図 4を用いて説明したローカルストレージディレクトリ管理部 34の制御に基づいて読み 出されてデコーダ 26に供給される。
[0133] なお、図 24に図示されたローカルストレージ 24のナビゲーシヨンプログラム記憶部 51、プレイリスト記憶部 52、テキストサブタイトルファイル記憶部 53、および、フォント ファイル記憶部 54のそれぞれの記憶領域は仮想的なものであるから、ローカルストレ ージ 24の記憶領域は、図 24に図示されているように記憶される情報の種類により物 理的に分割されて 、なくても良 、ことは 、うまでもな!/、。
[0134] コントローラ 21の制御に基づいて、光ディスク 11、または、ローカルストレージ 24か ら読み出されたデータは、図示せぬ復調および ECC復号部により復調され、誤り訂 正が施され、デコーダ 26に供給される。図 25は、デコーダ 26の詳細な構成を説明す るためのブロック図である。
[0135] デコーダ 26には、制御部 81、ディスクデータ取得部 82、バッファ 83および 84、 PID
(パケット ID)フィルタ 85、オーディオデコーダ 86、 MPEG (Moving Picture Experts Group)ビデオデコーダ 87、ビデオプレーン処理部 88、 GUI (Graphic User Interface )データデコーダ 89、 GUIグラフィックスプレーン処理部 90、ストレージデータ取得部 91、テキスト字幕処理部 92、字幕グラフィックスプレーン処理部 93、および、合成処 理部 94が設けられている。
[0136] 制御部 81は、再生制御部 37の制御に基づいて、デコーダ 26の各部の処理を制御 するものである。ディスクデータ取得部 82は、光ディスク 11から読み出されたデータ のうち、デコーダ 26に供給されたデータを取得し、図 7を用いて説明した Playltemに より指定される AVストリームなどの多重ィ匕ストリームを、メインパスを構成する Playltem により指定されるデータのリードバッファであるバッファ 83に供給し、 SubPlayltemによ り指定される、テキスト字幕ファイルまたはフォントファイルのデータ(フォントファイル のデータは指定されて 、な 、場合がある)を、サブパスを構成する SubPlayltemにより 指定されるデータのリードバッファであるバッファ 84に供給する。
[0137] ノッファ 83から読み出されたストリームデータは、所定のタイミングで、後段の PIDフ ィルタ 55へ出力される。この PIDフィルタ 85は、入力された多重化ストリームを、 PIDに 応じて、後段の各エレメンタリストリームのデコーダであるオーディオデコーダ 86、 M PEGビデオデコーダ 87、または、 GUIデータデコーダ 89へ振り分けて出力する。す なわち、 PIDフィルタ 55は、音声(オーディオ)ストリームをオーディオデコーダ 86に供 給し、映像 (ビデオ)ストリームを MPEGビデオデコーダ 87に供給し、ユーザインター フェース関連の画像データを GUIデータデコーダ 89に供給する。
[0138] オーディオデコーダ 86は、オーディオストリームをデコードし、デコードされたォー ディォストリームのデータを出力する。 MPEGビデオデコーダ 87は、ビデオストリーム をデコードし、デコードされたビデオデータをビデオプレーン処理部 88へ出力する。 ビデオプレーン処理部 88は、デコードされたビデオデータに基づいて、 1ページ (ま たは、 1フレーム)に表示される画像 (動画像である映像を構成する画像)に対応するビ デォプレーンを生成し、合成処理部 94に出力する。
[0139] GUIデータデコーダ 89は、インタラクティブグラフィクスストリームをデコードし、デコ ードされた GUIデータを、 GUIグラフィックスプレーン処理部 90に供給する。 GUIグ ラフィックスプレーン処理部 90は、 1画面に表示される GUIに対応するグラフィックス プレーンを生成し、合成処理部 94に出力する。 [0140] ストレージデータ取得部 91は、ローカルストレージ 24から読み出されたデータのう ち、デコーダ 26に供給されたデータ (すなわち、テキスト字幕ファイルまたはフォント ファイルのデータ)を取得し、テキスト字幕処理部 92に供給する。テキスト字幕処理部 92は、制御部 81の制御に従い、ストレージデータ取得部 91から供給される、または 、ノッファ 84から読み出されるテキストデータをデコードし、所定のフォントスタイルデ ータに基づいて、ビットマップなどのラスタデータ (文字オブジェクトデータ)に変換 (ラ スタライズ)し、字幕グラフィックスプレーン処理部 93に供給する。テキスト字幕処理部 92についての詳細は、図 26を用いて後述する。字幕グラフィックスプレーン処理部 9 3は、デコードされレンダリングされたテキストデータを基に、 1ページほたは、 1フレ ーム)に表示される字幕に対応する字幕グラフィックスプレーンを生成し、合成処理部 94に出力する。
[0141] 合成処理部 94は、ビデオプレーン処理部 88から供給されたビデオプレーン、 GUI グラフィックスプレーン処理部 90から供給された GUIに対応するグラフィックスプレー ン、および、字幕グラフィックスプレーン処理部 93から供給された字幕グラフィックス プレーンを合成し、ビデオ信号として出力する。
[0142] 図 26は、テキスト字幕処理部 92の詳細な構成を説明するためのブロック図である。
[0143] テキストデータデコーダ 121は、テキスト字幕ファイル (テキストサブタイトルファイル )のデータをデコードし、文字オブジェクトは文字オブジェクトバッファ 122に、属性( アトリビュート)データは、アトリビュートデータバッファ 123に供給する。
[0144] ここで言うテキスト字幕ファイルとは、例えば上述した図 10に示されるテキストサブタ イトルストリームファイル等を指す。従って、文字オブジェクトとは、例えば上述した図 10の Dialog presentation Segment等を指す。また、ここで言う属性データとは、例え ば上述した図 10の Dialog Style Segment等を指し、具体的には例えば、図 16に示さ れる、アウトラインスタイルまたは通常フォントスタイルが指定されている font_style、ァ ゥトラインのつ 、たフォントスタイルにおけるアウトラインの色が指定されて ^outline. palette_entry_id_ref、および、アウトラインのついたフォントスタイルにおけるアウトライ ンのサイズ(幅)が指定されて!ヽる outline_size等を指す。
[0145] アトリビュートデータバッファ 123に保存される属性データは、ユーザの操作入力に 基づいて、制御部 81の制御に従い変更される。例えば、ユーザがフォントサイズや文 字色の変更を指令した場合、制御部 81の制御により、アトリビュートデータバッファ 1 23に保存される属性データのうち、対応する User_control_styleO (図 17)が変更され る。
[0146] フォントラスタライザ 124は、アトリビュートデータバッファ 123から読み出した属性の 指定と、ノ ッファ 84またはストレージデータ取得部 91から供給されるフォントスタイル データに基づいて、文字オブジェクトバッファ 122から読み出した文字オブジェクトを ビットマップなどのラスタデータ (文字オブジェクトデータ)に変換して字幕グラフィック スプレーン処理部 93に出力する。さらに、フォントラスタライザ 124は、アトリビュート データバッファ 123から読み出した属性に基づいて、ブックマークが付与されている 文字オブジェクトを検出し、ブックマークバッファ 125を利用して、同一のブックマーク IDが付与されて 、る文字オブジェクトに関しては、重複してラスタライズを行わな!/、よ うにする。なお、フォントラスタイザ 124についての詳細は、図 27を用いて後述する。
[0147] ブックマークバッファ 125は、フォントラスタライザ 124の処理により、ブックマークが 付与されている文字オブジェクトのラスタデータを保持するとともに、フォントラスタライ ザ 124により、保持しているラスタデータが読み出される。
[0148] 図 27は、フォントラスタライザ 124の詳細な構成を説明するためのブロック図である
[0149] 文字オブジェクト取得部 151は、文字オブジェクトバッファ 122 (図 26)力も読み出し た文字オブジェクトを取得し、ブックマーク検出部 152に供給する。
[0150] ブックマーク検出部 152は、文字オブジェクト取得部 151から供給された文字ォブ ジェタトが、既にブックマークが付与されてブックマークバッファ 125 (図 26)に記憶さ れているか否力 即ち、同一のブックマーク IDが付与されている文字オブジェクトが ブックマークバッファ 125に既に記憶されて 、るか否かを検出する。
[0151] そして、ブックマーク検出部 152は、同一のブックマーク IDが付与されている文字 オブジェクトがブックマークバッファ 125に記憶されていることを検出した場合、同一 のブックマーク IDが付与されて 、る文字オブジェクト (既にラスタライズされたデータ) をブックマークバッファ 125から取得して、字幕グラフィックスプレーン処理部 93 (図 2 5)に出力する。
[0152] これに対して、ブックマーク検出部 152は、同一のブックマーク IDが付与されている 文字オブジェクトがブックマークバッファ 125にまだ記憶されていないことを検出した 場合、文字オブジェクト取得部 151から供給された文字オブジェクトをそのままラスタ ライズ部 153に供給する。
[0153] ラスタライズ部 153は、アトリビュートデータバッファ 123から読み出した属性の指定 と、通常フォントスタイル取得部 156から供給された通常フォントスタイルのフォントス タイルデータ、若しくは、アウトラインスタイル力卩ェ部 157から供給されたアウトラインス タイルのフォントスタイルデータに基づ 、て、ブックマーク検出部 152から供給された 文字オブジェクトをビットマップなどのラスタデータ(文字オブジェクトデータ)に変換し て、字幕グラフィックスプレーン処理部 93に出力するとともに、ブックマーク記憶制御 部 154に供給する。
[0154] なお、ラスタライズ部 153に設けられている合成部 164については後述する。
[0155] また、詳細については図 28乃至図 31を用いて後述する力 アウトラインスタイルカロ ェ部 157から供給されてくるアウトラインスタイルのフォントスタイルデータは、元のフ オントスタイルデータに対して、そのアウトラインの色やサイズ (幅)が必要に応じて変 更 (加工)されたフォントスタイルデータである。
[0156] ブックマーク記憶制御部 154は、ラスタライズ部 153から供給された文字オブジェク トの属性データに基づ 、て、新たなブックマークが記載されて 、るか否かを判断し、 ブックマークが記載されて 、る場合、そのラスタデータをブックマークバッファ 125に 記憶させる制御を行い、ブックマークが記載されていない場合、その制御を禁止する
[0157] フォントスタイル検出部 155は、アトリビュートデータバッファ 123に記憶されている 属性データのうちの対応する font_styleを参照して、文字オブジェクト取得部 151に取 得された文字オブジェクトをラスタライズするために必要なフォントスタイルを検出する 。そして、フォントスタイル検出部 155は、フォントスタイルが通常フォントスタイルであ ることを検出した場合、その検出結果を通常フォントスタイル取得部 156に通知する。 これに対して、フォントスタイル検出部 155は、フォントスタイルがアウトラインスタイル であることを検出した場合、その検出結果をアウトラインスタイル加工部 157のアウトラ インスタイル取得部 161に通知する。
[0158] 通常フォントスタイル取得部 156は、バッファ 84またはストレージデータ取得部 91 力も供給されるフォントスタイルデータのうちの、フォントスタイル検出部 155の検出結 果で特定される通常フォントスタイルのフォントスタイルデータを取得し、ラスタライズ 部 153に供給する。
[0159] アウトラインスタイル力卩ェ部 157は、バッファ 84またはストレージデータ取得部 91か ら供給されるフォントスタイルデータのうちの、フォントスタイル検出部 155の検出結果 で特定されるフォントスタイル、即ち、アウトラインスタイルのフォントスタイルデータを 取得する。さらに、アウトラインスタイル力卩ェ部 157は、アトリビュートデータバッファ 12 3に記憶されている属性データのうちの対応する outline_palette_entry_id_rel¾参照し て、アウトラインの色を更新する。また、アウトラインスタイル力卩ェ部 157は、アトリビュ ートデータバッファ 123に記憶されている属性データのうちの対応する outline_sizeを 参照して、アウトラインのサイズ (幅)を更新する。そして、アウトラインスタイル加工部 1 57は、アウトラインの色やサイズ (幅)が更新されたフォントスタイルデータをラスタライ ズ部 153 (より正確には後述する合成部 164)に供給する。
[0160] ここで、アウトラインスタイル加工部 157の詳細な構成例を説明する前に、図 28乃 至図 31を参照して、アウトラインのサイズ (幅)の変更手法の一例について説明する。 なお、アウトラインのサイズ (幅)の変更手法は、次の例に限定されないことは言うまで も無い。
[0161] 図 28には、通常フォントスタイルの文字オブジェクトデータの一例として、アルファ ベットの Aが示されている。なお、以下、通常フォントスタイルの Aの文字オブジェクト データを、文字オブジェクトデータ 171と称する。
[0162] また、図 29には、アウトラインスタイルの文字オブジェクトデータの一例として、アル ファベットの Aが示されている。なお、以下、アウトラインスタイルの Aの文字オブジェ タトデータを、文字オブジェクトデータ 181と称する。
[0163] 文字オブジェクトデータ 181は、アウトラインデータに基づいて生成される。アウトラ インデータとは、文字の形がアウトライン (輪郭)として表現されるフォントスタイルデー タのひとつである。このアウトラインデータはアウトラインフォントで利用されていた。即 ち、アウトラインフォントとは、従来力 存在するフォントの形式のひとつであって、ァゥ トラインデータを保持し、レタリングを行う形式のことを言う。アウトラインフォントは、ビ ットマップフォント (ビットマップを保持する形式)に比べて拡大や縮小に強 、と 、ぅ特 徴がある。
[0164] 図 30は、この文字オブジェクトデータ 181のアウトライン (輪郭)の幅を変更するため の変更手法のうちの、従来の手法を説明する図である。
[0165] 図 30に示されるように、従来においては、文字オブジェクトデータ 181のアウトライ ン 181— LOは、アウトラインに対して垂直方向のうちの両方向とも均等な割合でその 幅が伸縮され(図 30の例では水平方向のうちの左方向も右方向も伸ばされ)、その 結果、アウトライン 181— L1のように変更される。
[0166] 即ち、従来においては、文字オブジェクトデータ 181は、アウトラインに対して垂直 方向のうちの両方向とも均等な割合でアウトラインの幅が太くされ、その結果、図 31 に示されるような文字オブジェクトデータ 182に変更される。
[0167] この文字オブジェクトデータ 182と元の文字オブジェクトデータ 181とを比較すると 容易にわ力ることである力 アウトラインに対して垂直方向のうちの両方向とも均等な 割合でアウトラインの幅が太くされてしまうと、アウトラインで囲まれた白色の領域(白 抜き部分)の面積がその分だけ小さくされ、最悪白色の領域が消されてしまう(白抜き 部分がつぶれてしまう) t 、う問題が従来の手法では発生してしまう。
[0168] そこで、この従来の手法の問題を解決すベぐ本実施の形態では、図 31に示される ような手法を採用することで、文字オブジェクトデータ 181のアウトラインのサイズ (幅) を可変するようにしている。即ち、図 31は、アウトラインのサイズ (幅)の変更手法のう ちの、従来の手法の問題を解決可能な変更手法の一例を説明する図である。換言 すると、本実施の形態では、図 31の手法は、ラスタライズ部 153の合成部 164 (図 27 )に適用されている。
[0169] 以下、図 31の手法についてさらに説明する。換言すると、以下、合成部 164の動作
(処理)について説明する。
[0170] 最初に、合成部 164は、アウトラインデータに基づいて文字オブジェクトデータ 181 を生成する。次に、合成部 164は、図 30で説明した従来の手法に従って、文字ォブ ジェタトデータ 181のアウトラインの幅を、アウトラインに対して垂直方向のうちの両方 向とも均等な割合で変更した文字オブジェクトデータ 182を生成する。
[0171] なお、合成部 164は、この文字オブジェクトデータ 182を生成するために、アウトライ ンスタイル力卩ェ部 157から供給されるアウトラインのついたフォントスタイルデータを利 用することになる。ただし、このアウトラインのついたフォントスタイルデータについて は後述する。
[0172] 次に、合成部 164は、文字オブジェクトデータ 182の上に文字オブジェクトデータ 1 81を重ね合わせる(合成処理を実行する)。その結果、文字オブジェクトデータ 181 のアウトラインを中心線と称するとすると、中心線に対して、白抜き部分に向力う方向( 以下、内側方向と称する)とは逆方向(以下、外側方向と称する)のみが太くなつたァ ゥトラインを有する文字オブジェクトデータ 183、即ち、文字オブジェクトデータ 181に 対して白抜き部分の面積は変更されずに、アウトラインの幅だけが外側に太くなつた 文字オブジェクトデータ 183が生成される。
[0173] ところで、上述したように、合成部 164は、文字オブジェクトデータ 182を生成するた めにアウトラインスタイル加工部 157から供給されるアウトラインスタイルのフォントスタ ィルデータを利用する。また、この文字オブジェクトデータ 182は、アウトラインデータ (従来のアウトラインフォントで利用されていたアウトラインスタイルのフォントスタイル データ)力も生成される文字オブジェクトデータ 181のアウトラインに対して、その幅( 内側方向と外側方向とも)や色が変更されたアウトラインを有している。
従って、アウトラインスタイル力卩ェ部 157は、文字オブジェクトデータ 181を生成する ために必要なアウトラインデータを、文字オブジェクト 182を生成するために必要なフ オントスタイルデータに変更する必要がある。このため、本実施の形態では、アウトラ インスタイル力卩ェ部 157は図 27に示されるように構成されているのである。即ち、図 2 7の例では、アウトラインスタイル力卩ェ部 157は、アウトラインスタイル取得部 161、色 変更部 162、および、両幅変更部 163から構成されている。
[0174] アウトラインスタイル取得部 161は、バッファ 84またはストレージデータ取得部 91か ら供給されるフォントスタイルデータのうちの、フォントスタイル検出部 155の検出結果 で特定されるフォントスタイル、即ち、アウトラインスタイルのフォントスタイルデータ(ァ ゥトラインデータ)を取得する。取得されたアウトラインスタイルのフォントスタイルデー タは、色変更部 162に提供される。
[0175] 色変更部 162は、アトリビュートデータバッファ 123に記憶されている属性データの うちの対応する outline_palette_entry_id_ref^参照して、アウトラインスタイル取得部 16 1力 供給されたアウトラインスタイルのフォントスタイルデータについて、そのアウトラ インの色を変更する。アウトラインの色が変更されたアウトラインスタイルのフォントスタ ィルデータは、両幅変更部 163と、ラスタライズ部 153の合成部 164とに供給される。
[0176] 即ち、合成部 164は、例えば図 31の例では、色変更部 162から供給されたフォント スタイルデータに基づいて、そのフォントスタイルデータに対応する色のアウトライン を有する文字フォントデータ 181を生成することになる。
[0177] 両幅変更部 163は、アトリビュートデータバッファ 123に記憶されている属性データ のうちの対応する outline_sizeを参照して、色変更部 162から供給されたアウトラインス タイルのフォントスタイルデータについて、そのアウトラインのサイズ(幅)を外側方向も 内側方向も均等な割合で伸縮する。アウトラインのサイズ (幅)が外側方向と内側方 向ともに変更されたアウトラインスタイルのフォントスタイルデータは、両幅変更部 163 から合成部 164に供給される。
[0178] すると、合成部 164は、両幅変更部 163から供給されたフォントスタイルデータに基 づいて、上述した図 30の従来の手法に従った処理を実行する。具体的には例えば、 図 31の文字オブジェクトデータ 181を既に生成している場合、合成部 164は、両幅 変更部 163から供給されたフォントスタイルデータに基づ 、て、文字オブジェクト 181 のアウトラインの幅に対して、その外側方向と内側方向ともに同率で伸縮された幅の アウトラインを有する(かつ色が変更された)文字オブジェクトデータ 182を生成する。
[0179] そして、上述したように、合成部 164は、文字オブジェクトデータ 181と、文字ォブジ ェクトデータ 182とを合成することで、文字オブジェクト 181のアウトラインの幅に対し て、その外側方向だけが伸縮された幅のアウトラインを有する (かつ色が変更された) 文字オブジェクトデータ 183を生成する。
[0180] 次に、図 32を参照して、コントローラ 21 (図 1)の再生処理について説明する。 [0181] 上述したようにしてダウンロードされたアップデートファイルがローカルストレージ 24 に記録されて 、る状態で、光ディスク 11に記録されて 、るコンテンツの再生が指示さ れた場合、ステップ S1において、光ディスクディレクトリ管理部 35は、光ディスク 11か ら Studiojdと ContenUdを読み出し、読み出した Studiojdと Content jdをローカルスト レージディレクトリ管理部 34に出力する。
[0182] ステップ S2において、ローカルストレージディレクトリ管理部 34は、光ディスクディレ クトリ管理部 35から供給された Studiojdと Contentjdに基づいて、光ディスク 11のファ ィルシステムに対応する、ローカルストレージ 24のファイルシステムを検索し、フアイ ルシステムマージ処理部 36に供給する。上述したように、光ディスク 11のファイルシ ステムに対応するファイルシステムは、ローカルストレージ 24において、 Studiojdと Co ntentjdを含む名前が設定されたディレクトリに格納されている(図 5)。
[0183] このとき、光ディスクディレクトリ管理部 35からは、光ディスク 11のファイルシステム がファイルシステムマージ処理部 36に出力される。
[0184] ステップ S3において、ファイルシステムマージ処理部 36は、光ディスク 11のフアイ ルシステムと、ローカルストレージ 24のファイルシステムとを、図 5および図 6を参照し て説明したようにしてマージし、第 1の仮想ファイルシステムを生成する。生成された 第 1の仮想ファイルシステムは再生制御部 37に出力され、 AVストリームファイルの再 生に用いられる。
[0185] ステップ S4において、再生制御部 37は、供給されてきた第 1の仮想ファイルシステ ムカもナビゲーシヨンプログラムを指定し、実行する。従って、図 6に示されるように、 アップデートされたナビゲーシヨンプログラムが第 1の仮想ファイルシステムにある場 合、そのナビゲーシヨンプログラム(ローカルストレージ 24に記録されて!、るナビゲー シヨンプログラム)が実行される。
[0186] ステップ S5において、再生制御部 37は、ナビゲーシヨンプログラムが再生区間とし て指定する PlayListと SubPlayltemを取得し、ステップ S6に進み、ローカルストレージ ディレクトリ管理部 34および光ディスクディレクトリ管理部 35を制御して、取得した Pla yListと SubPlayltemが参照するファイル(AVファイル、テキスト字幕ファイル、フォント ファイルなど)を読み出させて、デコーダ 26に供給させる。ここでは、 PlayListや SubPl ayltemにより表されるタイムスタンプが Clip informationによりアドレスに変換され、 AV ストリームなどに対するアクセスが行われる。
[0187] すなわち、再生制御部 37は、 PlayListや SubPlayltemが参照する AVストリームフアイ ルがローカルストレージ 24に存在する場合は、ローカルストレージ 24からその AVスト リームファイルを読み出し、存在しない場合、光ディスク 11から AVストリームファイル を読み出す。
[0188] 例えば、再生制御部 37が、図 6のファイルシステムに従って、ローカルストレージデ ィレクトリ管理部 34および光ディスクディレクトリ管理部 35を制御して、 AVストリーム の読み出しを行わせて 、る場合、光ディスク 11に予め用意されて 、る r01000.m2tsj のファイル名が設定されて 、る AVストリームファイルや、「02000.m2ts」のファイル名 が設定されて 、る AVストリームファイルにつ!/、ては光ディスク 11からの読み出しが行 われ、ダウンロードにより追加された「04000.m2ts」のファイル名が設定されている AV ストリームファイルにつ!/、ては、ローカルストレージ 24からの読み出しが行われる。
[0189] ステップ S7において、図 33を用いて後述するコンテンツ再生処理が実行されて、 読み出した AVストリームファイルやテキスト字幕ストリームファイル (テキストサブタイト ルストリームファイル)などがデコードされ、映像や音声、または字幕が表示装置から 出力されて、処理が終了される。
[0190] 以上のように、第 1の仮想ファイルシステムが生成され、コンテンツの再生時に利用 されることにより、例えば、 SubPlayltemが参照するテキスト字幕ファイルのデータが、 AVストリームと同時に読み出されて再生される。
[0191] 次に、図 33のフローチャートを参照して、図 32のステップ S7において実行される、 コンテンツ再生処理について説明する。
[0192] ステップ S21において、再生制御部 37 (図 4)は、デコーダ 26を制御して、 Playltem により指定される AVストリームデータを再生させる。
[0193] ステップ S22において、操作入力取得部 32は、字幕データの表示を指令する操作 入力を受けた力否かを判断する。ステップ S22において、字幕データの表示を指令 する操作入力を受けていないと判断された場合、処理は、後述するステップ S28に 進む。 [0194] ステップ S22において、字幕データの表示を指令する操作入力を受けたと判断され た場合、ステップ S23において、操作入力取得部 32は、ユーザの操作入力に対応 する信号をメニュー画面表示制御部 31に供給する。メニュー画面表示制御部 31は、 表示装置に、表示可能な字幕データの一覧メニューを表示させる。
[0195] ステップ S24において、操作入力取得部 32は、表示させる字幕データの言語を指 定する操作入力を受けた力否かを判断する。ステップ S 24において、表示させる字 幕データの言語を指定する操作入力を受けていないと判断された場合、処理は、ス テツプ S23に戻り、それ以降の処理が繰り返される。
[0196] ステップ S24において、表示させる字幕データの言語を指定する操作入力を受け たと判断された場合、ステップ S25において、操作入力取得部 32は、ユーザの操作 入力に対応する信号を再生制御部 37に供給する。再生制御部 37は、ローカルスト レージディレクトリ管理部 34を制御し、ユーザの操作入力に基づ 、て指定される Sub Playltemにより参照されるテキストサブタイトルデータを読み出させて、デコーダ 26の ストレージデータ取得部 91に供給させるとともに、必要に応じて、ユーザに指定され たフォント (アウトラインフォント等)に対応するフォントスタイルデータを読み出させて 、デコーダ 26のストレージデータ取得部 91に供給させる。
[0197] ステップ S26において、デコーダ 26により、図 34と図 35とを用いて後述する字幕表 示処理が実行される。
[0198] ステップ S27において、操作入力取得部 32は、表示させる字幕データの言語の変 更を指令する操作入力を受けた力否かを判断する。ステップ S27において、表示さ せる字幕データの言語の変更を指令する操作入力を受けたと判断された場合、処理 は、ステップ S25に戻り、それ以降の処理が繰り返される。
[0199] ステップ S22において、字幕データの表示を指令する操作入力を受けていないと 判断された場合、または、ステップ S27において、表示させる字幕データの言語の変 更を指令する操作入力を受けていないと判断された場合、ステップ S28において、操 作入力取得部 32は、コンテンツの再生の終了を指令する操作入力を受けた力、また は、再生中の AVストリームデータが終了したか否かを判断する。
[0200] ステップ S28において、コンテンツの再生の終了を指令する操作入力を受けず、か つ、再生中の AVストリームデータが終了していないと判断された場合、ステップ S29 において、操作入力取得部 32は、字幕の表示を中止させる操作入力を受けた力否 かを判断する。
[0201] ステップ S29において、字幕の表示を中止させる操作入力を受けていないと判断さ れた場合、処理は、ステップ S26に戻り、それ以降の処理が繰り返される。ステップ S 29において、字幕の表示を中止させる操作入力を受けたと判断された場合、処理は 、ステップ S21に戻り、それ以降の処理が繰り返される。
[0202] ステップ S28において、コンテンツの再生の終了を指令する操作入力を受けたか、 再生中の AVストリームデータが終了したと判断された場合、処理が終了される。
[0203] このような処理により、光ディスク 11に予め記録されている、または、サーバ 3からダ ゥンロードされ、ローカルストレージ 24に記憶されているテキスト字幕ファイルが用い られて、ユーザが所望した言語の字幕がコンテンツの映像および音声とともに表示さ れ、ユーザの操作入力に基づいて、表示される字幕の言語を変更するために、読み 出されるテキスト字幕ファイルが変更される。
[0204] 次に、図 34と図 35とのフローチャートを参照して、図 33のステップ S26において実 行される字幕表示処理につ!ヽて説明する。
[0205] ステップ S51において、デコーダ 26 (図 25)のテキスト字幕処理部 92のテキストデ ータデコーダ 121 (図 26)は、ストレージデータ取得部 91により取得されたテキストサ ブタイトルデータをデコードする。
[0206] ステップ S52において、テキストデータデコーダ 121は、デコードされたテキストサブ タイトルデータに含まれる文字オブジェクトを文字オブジェクトバッファ 122に供給す るので、文字オブジェクトバッファ 122に、文字オブジェクトがバッファリングされる。
[0207] ステップ S53において、テキストデータデコーダ 121は、デコードされたテキストサブ タイトルデータに含まれる、フォントスタイル(font_style)、アウトラインの色(outline_pal ette_entry_id_ref)やサイズ(outline_size)等の属性データをアトリビュートデータバッフ ァ 123に供給するので、アトリビュートデータバッファ 123に属性データがバッファリン グされる。
[0208] ステップ S54において、フォントラスタライザ 124のフォントスタイル検出部 155 (図 2 7)は、ステップ S53の処理でバッファリングされたフォントスタイルは、アウトラインスタ ィルであるか否かを判定する。
[0209] ステップ S54において、アウトラインスタイルではないと判定された場合、即ち、通常 フォントスタイルであると判定された場合、ステップ S55において、通常フォントスタイ ル取得部 156は、通常フォントスタイルのフォントスタイルデータを取得する。
[0210] これに対して、ステップ S54において、アウトラインスタイルであると判定された場合 、ステップ S56において、アウトラインスタイル力卩ェ部 157は、アウトラインスタイルのフ オントスタイルデータを取得する。そして、ステップ S57において、アウトラインスタイル 加工部 157は、ステップ S53の処理でバッファリングされたアウトラインのサイズや色 等の属性データを基に、アウトラインスタイルのフォントスタイルデータを更新する。即 ち、そのアウトラインの色や幅が変更されたアウトラインスタイルのフォントスタイルデ ータが生成される。
[0211] ステップ S55の処理で通常フォントスタイルのフォントスタイルデータが取得される 力 または、ステップ S56の処理で取得されたアウトラインスタイルのフォントスタイル データがステップ S57の処理で更新されると、処理は図 35のステップ S58に進む。
[0212] ステップ S58において、文字オブジェクト取得部 151は、文字オブジェクトバッファ 1 22 (図 26)から文字オブジェクトを取得して、ブックマーク検出部 152に供給する。
[0213] ステップ S59において、ラスタライズ部 153は、通常フォントスタイル取得部 156また はアウトラインスタイル力卩ェ部 157からフォントスタイルデータを取得する。
[0214] ステップ S60において、ブックマーク検出部 152は、ステップ S53 (図 34)の処理で ノ ッファリングされた属性、およびブックマークバッファ 125を参照し、ラスタライズしょ うとして!/ヽる字幕データ (ステップ S58の処理で取得された文字オブジェクトに対応す る字幕データ)は、ブックマークされ、すでにブックマークバッファ 125にバッファリン グされて!/ヽる字幕データであるカゝ否かを判断する。
[0215] ステップ S60において、ブックマークされ、バッファリングされている字幕データであ ると判断された場合、ステップ S61において、ブックマーク検出部 152は、ブックマー クバッファ 125から、保存されているブックマーク対象の字幕画像データ(ラスタデー タ)を読み出して出力する。これにより、処理はステップ S65に進む。 [0216] これに対して、ステップ S60において、すでにブックマークされている字幕データで はないと判断された場合、ステップ S58の処理で取得された文字オブジェクトは、ブッ クマーク検出部 152からラスタライズ部 153に供給される。これにより、処理はステップ S62に進む。
[0217] ステップ S62において、ラスタライズ部 153は、ステップ S58の処理で取得された文 字オブジェクト、図 34のステップ S55または S56の処理で取得された(さらに必要に 応じてステップ S57の処理で更新された)フォントスタイルデータ、および図 34のステ ップ S53の処理でバッファリングされた属性データを基に、ラスタライズを実行して、 その実行結果であるラスタデータ(文字オブジェクトデータ)を、字幕グラフィックスプ レーン処理部 93 (図 25)に出力するともにブックマーク記憶制御部 154に供給する。 字幕グラフィックスプレーン処理部 93は、供給されたラスタデータを基に、字幕グラフ イツタスプレーンを生成し、合成処理部 94に供給する。
[0218] ステップ S63において、ブックマーク記憶制御部 154は、ステップ S62の処理でラス タラィズされた字幕データ (ラスタデータである文字オブジェクトデータ)の属性データ を基に、この属性データには、新たなブックマークが記載されている力否かを判断す る。
[0219] ステップ S63において、ブックマークが記載されていると判断した場合、ステップ S6 4において、ブックマーク記憶制御部 154は、ラスタライズされた字幕画像データ (ラ スタデータ)をブックマークバッファ 125に保存する。
[0220] ステップ S62の処理の終了後、ステップ S63において、ブックマークが記載されて いないと判断された場合、または、ステップ S61の処理が終了した場合、ステップ S6 5において、合成処理部 94 (図 25)は、供給された字幕画像データを映像データと 合成して出力する。これにより、図 33のステップ S26の処理である字幕表示処理は 終了し、処理はステップ S27に進む。
[0221] このような処理により、ユーザの所望する言語の字幕データ力 ユーザの所望する 属性で、ユーザの所望するフォントで表示されるように、テキスト字幕ファイルおよび フォントファイルのデータの読み出しが制御されて、必要に応じてバッファリングされ ている属性データが変更され、ラスタライズされる。 [0222] 従って、現在再生されているフレームが例えば字幕の色とビデオの色とが同一また は類似となってしまうフレームのような場合、即ち、ユーザ力もすると、あた力も字幕が ビデオと一体ィ匕してしまって、字幕を判別できないような場合、ユーザは、所望のァゥ トラインスタイルを指定することで、字幕を構成するテキストがその所望のアウトライン スタイルで表示されるようになるので、その字幕を確実に判別できるようになる。
[0223] 次に、図 64および図 65を参照して、再生装置 1において再生可能なデータが記録 された記録媒体 11の製造方法につ!、て、記録媒体 11がディスク状の記録媒体だつ た場合を例として説明する。
[0224] 即ち、図 36に示すように、例えばガラスなどよりなる原盤が用意され、その上に、例 えばフォトレジストなどよりなる記録材料が塗布される。これにより、記録用原盤が製 作される。
[0225] そして、図 37に示すように、ソフト製作処理部において、符号化装置 (ビデオェンコ ーダ)で符号化された、再生装置 1において再生可能な形式のビデオデータが、一 時バッファに記憶され、オーディオエンコーダで符号ィ匕されたオーディオデータが、 一時バッファに記憶されるとともに、更に、データエンコーダで符号ィ匕された、ストリー ム以外のデータ(例えば、 Indexes、 Playlist, Playltemなど)がー時バッファに記憶され る。それぞれのバッファに記憶されたビデオデータ、オーディオデータ、および、ストリ ーム以外のデータは、多重化器 (MPX)で同期信号と共に多重化され、誤り訂正符 号回路 (ECC)でエラー訂正用のコードが付加される。そして、変調回路 (MOD)で 所定の変調がかけられ、所定のフォーマットにしたがって、例えば磁気テープなどに ー且記録され、再生装置 11にお 、て再生可能な記録媒体 11に記録されるソフトゥェ ァが製作される。
[0226] このソフトウェアを必要に応じて編集(プリマスタリング)し、光ディスクに記録すべき フォーマットの信号が生成される。そして、この記録信号に対応して、レーザビームが 変調されて、このレーザビームが原盤上のフォトレジスト上に照射される。これにより、 原盤上のフォトレジストが記録信号に対応して露光される。
[0227] その後、この原盤を現像し、原盤上にピットを出現させる。このようにして用意された 原盤に、例えば電铸等の処理を施し、ガラス原盤上のピットを転写した金属原盤を製 作する。この金属原盤から、さらに金属スタンパを製作し、これを成形用金型とする。
[0228] この成形用金型に、例えばインジェクションなどにより PMMA (アクリル)または PC ( ポリカーボネート)などの材料を注入し、固定化させる。あるいは、金属スタンパ上に 2 P (紫外線硬化榭脂)などを塗布した後、紫外線を照射して硬化させる。これにより、 金属スタンパ上のピットを、榭脂よりなるレプリカ上に転写することができる。
[0229] このようにして生成されたレプリカ上に、反射膜が、蒸着あるいはスパッタリングなど により形成される。あるいはまた、生成されたレプリカ上に、反射膜が、スピンコートに より形成される。
[0230] その後、このディスクに対して内外径の加工が施され、 2枚のディスクを張り合わせ るなどの必要な処置が施される。さらに、ラベルを貼り付けたり、ハブが取り付けられ て、カートリッジに挿入される。このようにして再生装置 1によって再生可能なデータが 記録された記録媒体 11が完成する。
[0231] ところで、上述した一連の処理は、ソフトウェアにより実行することもできる。そのソフ トウエアは、そのソフトウェアを構成するプログラム力 専用のハードウェアに組み込ま れているコンピュータ、または、各種のプログラムをインストールすることで、各種の機 能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム 格納媒体からインストールされる。
[0232] このプログラム格納媒体は、図 1に示すように、コンピュータとは別に、ユーザにプロ グラムを提供するために配布される、プログラムが記録されている磁気ディスク (フレ キシブルディスクを含む)、光ディスク(CD- ROM (Compact Disk-Read Only Memory ) , DVD (Digital Versatile Disk)を含む)、光磁気ディスク(MD (Mini-Disk) (商標)を 含む)、もしくは半導体メモリなどよりなるリムーバブルメディア 28により構成されるだ けでなぐ装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記 録されている ROMまたは RAMなどのメモリ 23や、ハードディスクなどのローカルストレ ージ 24などにより構成される。
[0233] また、本明細書にぉ 、て、プログラム格納媒体に記録されるプログラムを記述するス テツプは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時 系列的に処理されなくとも、並列的または個別に実行される処理をも含むものである なお、本明細書において、システムとは、複数の装置により構成される装置全体を 表すものである。

Claims

請求の範囲
[1] 所定の AVストリームに対応する字幕を表示させるための字幕データを生成する情 報処理装置において、
前記字幕を表示させるための文字オブジェクトを保持する文字オブジェクト保持手 段と、
前記文字オブジェクトに適用するフォントスタイルとしてアウトラインのついたフォント スタイルを少なくとも指定可能なフォントスタイル指定情報、および、前記フォントスタ ィル指定情報にぉ 、て前記アウトラインのつ 、たフォントスタイルが指定されて 、る場 合に、そのアウトラインのつ!/、たフォントスタイルに対応する文字オブジェクトにつ!/、て のアウトラインの幅を指定可能な幅指定情報を少なくとも含む属性データを保持する 属性データ保持手段と、
前記属性データ保持手段により保持された前記フォントスタイル指定情報において 前記アウトラインのつ 、たフォントスタイルが指定されて 、る場合、前記アウトラインの つ!、たフォントスタイルのフォントスタイルデータを取得し、前記属性データ保持手段 により保持された前記幅指定情報に基づいて前記フォントスタイルデータを更新し、 前記文字オブジェ外保持手段により保持された前記文字オブジェ外を、更新され た前記フォントスタイルデータを少なくとも用いて字幕データに変換する変換手段と を備えることを特徴とする情報処理装置。
[2] 前記変換手段は、
前記フォントスタイル指定情報にぉ 、て前記アウトラインのつ 、たフォントスタイル が指定されて 、る場合、前記アウトラインのつ 、たフォントスタイルの第 1のフォントス タイルデータを取得する取得手段と、
前記幅指定情報に基づいて、前記取得手段により取得された前記第 1のフォント スタイルデータに対応する文字オブジェクトのアウトラインの幅を、その文字オブジェ タトの白抜き部分に向かう内側方向とその逆の外側方向ともに同一の割合で伸縮さ せる処理を施し、その処理の結果得られる、前記内側方向と前記外側方向ともに幅 が伸縮されたアウトラインのついたフォントスタイルの第 2のフォントスタイルデータを 出力する幅変更手段と、 前記幅変更手段から出力された前記第 2のフォントスタイルデータに対応する文 字オブジェクトの上に、前記取得手段により取得された前記第 1のフォントスタイルデ ータに対応する文字オブジェクトデータを合成させる処理を施し、その処理の結果得 られる、前記外側方向だけに幅が伸縮されたアウトラインのつ 、たフォントスタイルの 文字オブジェクトデータ力 なる前記字幕データを出力する合成手段と
を有することを特徴とする請求項 1に記載の情報処理装置。
[3] 前記属性データ保持手段により保持されて!、る前記属性情報は、
前記フォントスタイル指定情報にぉ 、て前記アウトラインのつ 、たフォントスタイル が指定されて 、る場合に、そのアウトラインのつ!/、たフォントスタイルに対応する文字 オブジェクトについてのアウトラインの色を指定可能な色指定情報をさらに含み、 前記変換手段は、
前記属性データ保持手段により保持された前記幅指定情報に加えてさらに前記 色指定情報基づ ヽて前記フォントスタイルデータを更新し、前記文字オブジェクト保 持手段により保持された前記文字オブジェクトを、更新された前記フォントスタイルデ ータを少なくとも用いて前記字幕データに変換する
ことを特徴とする請求項 1に記載の情報処理装置。
[4] 所定の AVストリームに対応する字幕を表示させるための字幕データを生成する情 報処理装置の情報処理方法にお!、て、
前記字幕を表示させるための文字オブジェクトの保持を制御する文字オブジェクト 保持制御ステップと、
前記文字オブジェクトに適用するフォントスタイルとしてアウトラインのついたフォント スタイルを少なくとも指定可能なフォントスタイル指定情報、および、前記フォントスタ ィル指定情報にぉ 、て前記アウトラインのつ 、たフォントスタイルが指定されて 、る場 合に、そのアウトラインのつ!/、たフォントスタイルに対応する文字オブジェクトにつ!/、て のアウトラインの幅を指定可能な幅指定情報を少なくとも含む属性データの保持を制 御する属性データ保持制御ステップと、
前記属性データ保持制御ステップの制御処理により保持された前記フォントスタイ ル指定情報にぉ 、て前記アウトラインのつ 、たフォントスタイルが指定されて 、る場 合、前記アウトラインのついたフォントスタイルのフォントスタイルデータを取得し、前 記属性データ保持制御ステップの処理により保持された前記幅指定情報に基づいて 前記フォントスタイルデータを更新し、前記文字オブジェクト保持手段により保持され た前記文字オブジェクトを、更新された前記フォントスタイルデータを少なくとも用い て字幕データに変換する変換ステップと
を含むことを特徴とする情報処理方法。
[5] 所定の AVストリームに対応する字幕を表示させるための字幕データを生成する処 理をコンピュータに実行させるプログラムであって、
前記字幕を表示させるための文字オブジェクトの保持を制御する文字オブジェクト 保持制御ステップと、
前記文字オブジェクトに適用するフォントスタイルとしてアウトラインのついたフォント スタイルを少なくとも指定可能なフォントスタイル指定情報、および、前記フォントスタ ィル指定情報にぉ 、て前記アウトラインのつ 、たフォントスタイルが指定されて 、る場 合に、そのアウトラインのつ!/、たフォントスタイルに対応する文字オブジェクトにつ!/、て のアウトラインの幅を指定可能な幅指定情報を少なくとも含む属性データの保持を制 御する属性データ保持制御ステップと、
前記属性データ保持制御ステップの制御処理により保持された前記フォントスタイ ル指定情報にぉ 、て前記アウトラインのつ 、たフォントスタイルが指定されて 、る場 合、前記アウトラインのついたフォントスタイルのフォントスタイルデータを取得し、前 記属性データ保持制御ステップの処理により保持された前記幅指定情報に基づいて 前記フォントスタイルデータを更新し、前記文字オブジェクト保持手段により保持され た前記文字オブジェクトを、更新された前記フォントスタイルデータを少なくとも用い て字幕データに変換する変換ステップと
を含むことを特徴とするコンピュータが読み取り可能なプログラムが格納されている プログラム格納媒体。
[6] 所定の AVストリームに対応する字幕を表示させるための字幕データを生成する処 理をコンピュータに実行させるプログラムであって、
前記字幕を表示させるための文字オブジェクトの保持を制御する文字オブジェクト 保持制御ステップと、
前記文字オブジェクトに適用するフォントスタイルとしてアウトラインのついたフォント スタイルを少なくとも指定可能なフォントスタイル指定情報、および、前記フォントスタ ィル指定情報にぉ 、て前記アウトラインのつ 、たフォントスタイルが指定されて 、る場 合に、そのアウトラインのつ!/、たフォントスタイルに対応する文字オブジェクトにつ!/、て のアウトラインの幅を指定可能な幅指定情報を少なくとも含む属性データの保持を制 御する属性データ保持制御ステップと、
前記属性データ保持制御ステップの制御処理により保持された前記フォントスタイ ル指定情報にぉ 、て前記アウトラインのつ 、たフォントスタイルが指定されて 、る場 合、前記アウトラインのついたフォントスタイルのフォントスタイルデータを取得し、前 記属性データ保持制御ステップの処理により保持された前記幅指定情報に基づいて 前記フォントスタイルデータを更新し、前記文字オブジェクト保持手段により保持され た前記文字オブジェクトを、更新された前記フォントスタイルデータを少なくとも用い て字幕データに変換する変換ステップと
を含むことを特徴とするプログラム。
[7] 所定の AVストリームに対応する字幕を表示させるための字幕データを生成するた めに必要な情報のデータ構造であって、
前記字幕を表示させるための文字オブジェクト、
前記文字オブジェクトに適用するフォントスタイルとしてアウトラインのついたフォント スタイルを少なくとも指定可能なフォントスタイル指定情報、および、前記フォントスタ ィル指定情報にぉ 、て前記アウトラインのつ 、たフォントスタイルが指定されて 、る場 合に、そのアウトラインのつ!/、たフォントスタイルに対応する文字オブジェクトにつ!/、て のアウトラインの幅を指定可能な幅指定情報を少なくとも含む属性データと
を含むことを特徴とするデータ構造。
[8] 前記データ構造は、
所定のストリームに含まれ、
前記第所定のストリームを管理するクリップ情報ファイルは、前記文字オブジェクト に対してのファイルを指定する指定情報を含む ことを特徴とする請求項 7に記載のデータ構造。
[9] 前記データ構造は、
前記 AVストリームが保存されたファイルとは別のファイルに保存されており、 前記 AVストリームは再生管理情報である PlayListファイルに保持されている Playlte mにより指定されるとともに、
前記データ構造は、前記 PlayListファイルに保持されて 、る SubPlayltemにより指定 されている
ことを特徴とする請求項 7に記載のデータ構造。
[10] 所定の AVストリームに対応する字幕を表示させるための字幕データを生成するため に必要な情報のデータ構造であって、
前記字幕を表示させるための文字オブジェクト、
前記文字オブジェクトに適用するフォントスタイルとしてアウトラインのついたフォント スタイルを少なくとも指定可能なフォントスタイル指定情報、および、前記フォントスタ ィル指定情報にぉ 、て前記アウトラインのつ 、たフォントスタイルが指定されて 、る場 合に、そのアウトラインのつ!/、たフォントスタイルに対応する文字オブジェクトにつ!/、て のアウトラインの幅を指定可能な幅指定情報を少なくとも含む属性データと
を含むデータ構造を有するデータ
が記録されて!ヽることを特徴とする記録媒体。
[11] 所定の AVストリームに対応する字幕を再生装置に再生させるための字幕データを 生成するために必要な情報のデータ構造であって、
前記字幕を表示させるための文字オブジェクト、
前記文字オブジェクトに適用するフォントスタイルとしてアウトラインのついたフォント スタイルを少なくとも指定可能なフォントスタイル指定情報、および、前記フォントスタ ィル指定情報にぉ 、て前記アウトラインのつ 、たフォントスタイルが指定されて 、る場 合に、そのアウトラインのつ!/、たフォントスタイルに対応する文字オブジェクトにつ!/、て のアウトラインの幅を指定可能な幅指定情報を少なくとも含む属性データと
を含むデータ構造を有するデータを生成し、
生成された前記データを、前記再生装置の再生対象となる記録媒体に記録する ステップを含む記録媒体の製造方法。
PCT/JP2006/307334 2005-04-11 2006-04-06 情報処理装置および情報処理方法、プログラム格納媒体、プログラム、データ構造、並びに記録媒体の製造方法。 WO2006109673A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP06731282A EP1871097A4 (en) 2005-04-11 2006-04-06 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, PROGRAM MEMORY, PROGRAM, DATA STRUCTURE AND MANUFACTURING METHOD FOR A RECORDING MEDIUM
KR1020137019610A KR101383290B1 (ko) 2005-04-11 2006-04-06 정보 처리 장치, 정보 처리 방법 및 데이터가 기록된 기록 매체
KR1020067025974A KR101324129B1 (ko) 2005-04-11 2006-04-06 정보 처리 장치 및 정보 처리 방법, 프로그램 격납 매체,프로그램, 데이터 구조와, 기록 매체의 제조 방법
US11/629,082 US8208531B2 (en) 2005-04-11 2006-04-06 Information processing device, information processing method, program storage medium, program, data structure, and recording medium manufacturing method
US13/490,076 US10075668B2 (en) 2005-04-11 2012-06-06 Information processing device and information processing method, program storage medium, program, data structure, and manufacturing method for storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005-113302 2005-04-11
JP2005113302A JP4715278B2 (ja) 2005-04-11 2005-04-11 情報処理装置および情報処理方法、プログラム格納媒体、プログラム、並びに提供装置

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US11/629,082 A-371-Of-International US8208531B2 (en) 2005-04-11 2006-04-06 Information processing device, information processing method, program storage medium, program, data structure, and recording medium manufacturing method
US13/490,076 Continuation US10075668B2 (en) 2005-04-11 2012-06-06 Information processing device and information processing method, program storage medium, program, data structure, and manufacturing method for storage medium

Publications (1)

Publication Number Publication Date
WO2006109673A1 true WO2006109673A1 (ja) 2006-10-19

Family

ID=37086949

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/307334 WO2006109673A1 (ja) 2005-04-11 2006-04-06 情報処理装置および情報処理方法、プログラム格納媒体、プログラム、データ構造、並びに記録媒体の製造方法。

Country Status (7)

Country Link
US (2) US8208531B2 (ja)
EP (1) EP1871097A4 (ja)
JP (1) JP4715278B2 (ja)
KR (2) KR101383290B1 (ja)
CN (1) CN100525399C (ja)
TW (2) TW200705220A (ja)
WO (1) WO2006109673A1 (ja)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5119566B2 (ja) * 2004-02-16 2013-01-16 ソニー株式会社 再生装置および再生方法、プログラム記録媒体、並びにプログラム
TW200707417A (en) 2005-03-18 2007-02-16 Sony Corp Reproducing apparatus, reproducing method, program, program storage medium, data delivery system, data structure, and manufacturing method of recording medium
JP5194335B2 (ja) * 2005-04-26 2013-05-08 ソニー株式会社 情報処理装置および情報処理方法、並びにプログラム
KR20080070201A (ko) * 2007-01-25 2008-07-30 삼성전자주식회사 추가적인 자막 제공 방법 및 그 재생 장치
JP2009049726A (ja) 2007-08-21 2009-03-05 Sony Corp 情報変換装置、情報変換方法およびプログラム
JP2010140459A (ja) * 2008-02-22 2010-06-24 Ricoh Co Ltd プログラムと印刷データ変換装置とコンピュータ読み取り可能な記録媒体
JP2010154053A (ja) * 2008-12-24 2010-07-08 Canon Inc 映像処理装置、映像処理方法並びにプログラム
CN102082921A (zh) * 2009-11-27 2011-06-01 新奥特(北京)视频技术有限公司 一种多样化字幕飞播的方法及装置
CN102082918B (zh) * 2009-11-27 2015-06-17 新奥特(北京)视频技术有限公司 一种进行多样化字幕飞播的字幕机
JP5159916B2 (ja) 2011-04-28 2013-03-13 株式会社東芝 ホスト
CN102739990B (zh) * 2011-05-06 2017-02-01 新奥特(北京)视频技术有限公司 一种具有独立播出特性的字幕素材编辑方法和装置
US8584167B2 (en) 2011-05-31 2013-11-12 Echostar Technologies L.L.C. Electronic programming guides combining stored content information and content provider schedule information
US8660412B2 (en) 2011-08-23 2014-02-25 Echostar Technologies L.L.C. System and method for dynamically adjusting recording parameters
US8763027B2 (en) 2011-08-23 2014-06-24 Echostar Technologies L.L.C. Recording additional channels of a shared multi-channel transmitter
US8437622B2 (en) 2011-08-23 2013-05-07 Echostar Technologies L.L.C. Altering presentation of received content based on use of closed captioning elements as reference locations
US8606088B2 (en) 2011-08-23 2013-12-10 Echostar Technologies L.L.C. System and method for memory jumping within stored instances of content
US8850476B2 (en) 2011-08-23 2014-09-30 Echostar Technologies L.L.C. Backwards guide
US8959566B2 (en) * 2011-08-23 2015-02-17 Echostar Technologies L.L.C. Storing and reading multiplexed content
US8627349B2 (en) 2011-08-23 2014-01-07 Echostar Technologies L.L.C. User interface
US9621946B2 (en) 2011-08-23 2017-04-11 Echostar Technologies L.L.C. Frequency content sort
US9357159B2 (en) 2011-08-23 2016-05-31 Echostar Technologies L.L.C. Grouping and presenting content
US8447170B2 (en) 2011-08-23 2013-05-21 Echostar Technologies L.L.C. Automatically recording supplemental content
US9185331B2 (en) 2011-08-23 2015-11-10 Echostar Technologies L.L.C. Storing multiple instances of content
CN103067678A (zh) * 2011-10-20 2013-04-24 四川长虹电器股份有限公司 一种电视机字幕显示方法及装置
US8819722B2 (en) 2012-03-15 2014-08-26 Echostar Technologies L.L.C. Smartcard encryption cycling
US8959544B2 (en) 2012-03-15 2015-02-17 Echostar Technologies L.L.C. Descrambling of multiple television channels
US9489981B2 (en) 2012-03-15 2016-11-08 Echostar Technologies L.L.C. Successive initialization of television channel recording
US8989562B2 (en) 2012-03-15 2015-03-24 Echostar Technologies L.L.C. Facilitating concurrent recording of multiple television channels
CN103358727B (zh) * 2012-03-26 2017-09-19 精工爱普生株式会社 记录装置及记录装置的控制方法
US9172737B2 (en) * 2012-07-30 2015-10-27 New York University Streamloading content, such as video content for example, by both downloading enhancement layers of the content and streaming a base layer of the content
US20140046923A1 (en) 2012-08-10 2014-02-13 Microsoft Corporation Generating queries based upon data points in a spreadsheet application
KR20140049832A (ko) * 2012-10-18 2014-04-28 삼성전자주식회사 블루레이 디스크와 이를 재생하기 위한 블루레이 디스크 재생 장치 및 그 자막 표시 방법
US8793724B2 (en) 2012-11-08 2014-07-29 Eldon Technology Limited Image domain compliance
US9628838B2 (en) 2013-10-01 2017-04-18 Echostar Technologies L.L.C. Satellite-based content targeting
US9756378B2 (en) 2015-01-07 2017-09-05 Echostar Technologies L.L.C. Single file PVR per service ID
US20160307603A1 (en) * 2015-04-15 2016-10-20 Sony Corporation Information processing device, information recording medium, information processing method, and program
US10614108B2 (en) * 2015-11-10 2020-04-07 International Business Machines Corporation User interface for streaming spoken query
US11295497B2 (en) * 2019-11-25 2022-04-05 International Business Machines Corporation Dynamic subtitle enhancement
CN112070860A (zh) * 2020-08-03 2020-12-11 广东以诺通讯有限公司 一种图片处理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62216969A (ja) * 1986-03-17 1987-09-24 住友電気工業株式会社 繊維強化Si3N4セラミツクス及びその製造方法
WO2004034398A1 (en) * 2002-10-11 2004-04-22 Thomson Licensing S.A. Method and apparatus for synchronizing data streams containing audio, video and/or other data
WO2004036574A1 (en) * 2002-10-15 2004-04-29 Samsung Electronics Co., Ltd. Information storage medium containing subtitle data for multiple languages using text data and downloadable fonts and apparatus therefor
WO2004049710A1 (ja) * 2002-11-28 2004-06-10 Sony Corporation 再生装置、再生方法、再生プログラムおよび記録媒体

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6282472A (ja) 1985-10-07 1987-04-15 Canon Inc 画像処理方法
JP2979109B2 (ja) * 1992-12-03 1999-11-15 日本アイ・ビー・エム 株式会社 認識文字の情報作成方法及び装置
US6744921B1 (en) * 1993-12-29 2004-06-01 Canon Kabushiki Kaisha Image processing apparatus and method that determines the thickness of characters and lines
US5680619A (en) * 1995-04-03 1997-10-21 Mfactory, Inc. Hierarchical encapsulation of instantiated objects in a multimedia authoring system
US6393145B2 (en) * 1999-01-12 2002-05-21 Microsoft Corporation Methods apparatus and data structures for enhancing the resolution of images to be rendered on patterned display devices
JP3532781B2 (ja) * 1999-02-12 2004-05-31 株式会社メガチップス 画像入力装置の画像処理回路
US6678410B1 (en) * 1999-02-17 2004-01-13 Adobe Systems Incorporated Generating a glyph
JP3589620B2 (ja) 1999-06-29 2004-11-17 松下電器産業株式会社 ビットマップデータ生成装置、および指示装置
US7239318B2 (en) * 2001-03-23 2007-07-03 Rise Kabushikikaisha Method and computer software program product for processing characters based on outline font
JP2002311967A (ja) * 2001-04-13 2002-10-25 Casio Comput Co Ltd 替え歌作成装置及び替え歌作成プログラム及び替え歌作成方法
JP2003037792A (ja) 2001-07-25 2003-02-07 Toshiba Corp データ再生装置及びデータ再生方法
JP3906345B2 (ja) * 2001-11-01 2007-04-18 株式会社東海電通 効果音及び映像の配信システム
US20040081434A1 (en) * 2002-10-15 2004-04-29 Samsung Electronics Co., Ltd. Information storage medium containing subtitle data for multiple languages using text data and downloadable fonts and apparatus therefor
KR100970727B1 (ko) * 2002-10-15 2010-07-16 삼성전자주식회사 텍스트 데이터와 다운로드 폰트를 이용한 다국어 지원용서브 타이틀 데이터가 기록된 정보저장매체 및 그 장치
CN1781149B (zh) * 2003-04-09 2012-03-21 Lg电子株式会社 具有用于管理文本字幕数据重现的数据结构的记录媒体以及记录和重现的方法和装置
JP2004326491A (ja) * 2003-04-25 2004-11-18 Canon Inc 画像処理方法
JP5119566B2 (ja) 2004-02-16 2013-01-16 ソニー株式会社 再生装置および再生方法、プログラム記録媒体、並びにプログラム
US7529467B2 (en) * 2004-02-28 2009-05-05 Samsung Electronics Co., Ltd. Storage medium recording text-based subtitle stream, reproducing apparatus and reproducing method for reproducing text-based subtitle stream recorded on the storage medium
WO2005088635A1 (en) * 2004-03-18 2005-09-22 Lg Electronics Inc. Recording medium and method and apparatus for reproducing text subtitle stream recorded on the recording medium
US7571386B2 (en) * 2004-05-03 2009-08-04 Lg Electronics Inc. Recording medium having a data structure for managing reproduction of text subtitle data and methods and apparatuses associated therewith
US9298675B2 (en) * 2004-09-30 2016-03-29 Adobe Systems Incorporated Smart document import

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62216969A (ja) * 1986-03-17 1987-09-24 住友電気工業株式会社 繊維強化Si3N4セラミツクス及びその製造方法
WO2004034398A1 (en) * 2002-10-11 2004-04-22 Thomson Licensing S.A. Method and apparatus for synchronizing data streams containing audio, video and/or other data
WO2004036574A1 (en) * 2002-10-15 2004-04-29 Samsung Electronics Co., Ltd. Information storage medium containing subtitle data for multiple languages using text data and downloadable fonts and apparatus therefor
WO2004049710A1 (ja) * 2002-11-28 2004-06-10 Sony Corporation 再生装置、再生方法、再生プログラムおよび記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1871097A4 *

Also Published As

Publication number Publication date
CN1969540A (zh) 2007-05-23
EP1871097A4 (en) 2008-12-03
CN100525399C (zh) 2009-08-05
US20120242898A1 (en) 2012-09-27
US20080291206A1 (en) 2008-11-27
TWI341473B (ja) 2011-05-01
KR101324129B1 (ko) 2013-11-01
EP1871097A1 (en) 2007-12-26
KR20130096766A (ko) 2013-08-30
KR20080006432A (ko) 2008-01-16
JP4715278B2 (ja) 2011-07-06
JP2006295531A (ja) 2006-10-26
TW200705220A (en) 2007-02-01
US8208531B2 (en) 2012-06-26
KR101383290B1 (ko) 2014-04-09
TWI488055B (zh) 2015-06-11
TW201112009A (en) 2011-04-01
US10075668B2 (en) 2018-09-11

Similar Documents

Publication Publication Date Title
WO2006109673A1 (ja) 情報処理装置および情報処理方法、プログラム格納媒体、プログラム、データ構造、並びに記録媒体の製造方法。
US8498515B2 (en) Recording medium and recording and reproducing method and apparatuses
RU2378722C2 (ru) Носитель записи, способ и устройство для воспроизведения потоков текстовых субтитров
EP1730730B1 (en) Recording medium and method and apparatus for reproducing text subtitle stream recorded on the recording medium
US20070140667A1 (en) Reproducing apparatus, reproducing method, reproducing program, recording medium, data structure, authoring apparatus, authoring method, and authoring program
US8849094B2 (en) Data structure, recording medium, authoring apparatus, method, and program, recording apparatus, method, and program, verification apparatus, method, and program, and manufacturing, apparatus and method for recording medium
US20050147387A1 (en) Recording medium and method and apparatus for reproducing and recording text subtitle streams
KR20070052643A (ko) 데이터 재생방법 및 재생장치
US8326118B2 (en) Recording medium storing a text subtitle stream including a style segment and a plurality of presentation segments, method and apparatus for reproducing a text subtitle stream including a style segment and a plurality of presentation segments
JP5354316B1 (ja) 再生装置、再生方法、および記録媒体
JP5339002B2 (ja) 情報処理装置、再生方法、および記録媒体
JP5517012B2 (ja) 再生装置、再生方法、および記録媒体
JP5321566B2 (ja) 情報処理装置および情報処理方法
JP5194335B2 (ja) 情報処理装置および情報処理方法、並びにプログラム
RU2378720C2 (ru) Носитель записи и способ и устройство воспроизведения и записи потоков текстовых субтитров

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 7389/DELNP/2006

Country of ref document: IN

WWE Wipo information: entry into national phase

Ref document number: 1020067025974

Country of ref document: KR

REEP Request for entry into the european phase

Ref document number: 2006731282

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2006731282

Country of ref document: EP

Ref document number: 200680000330.4

Country of ref document: CN

Ref document number: 11629082

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: RU

WWP Wipo information: published in national office

Ref document number: 2006731282

Country of ref document: EP