WO2004095837A1 - 再生装置、プログラム。 - Google Patents

再生装置、プログラム。 Download PDF

Info

Publication number
WO2004095837A1
WO2004095837A1 PCT/JP2004/005778 JP2004005778W WO2004095837A1 WO 2004095837 A1 WO2004095837 A1 WO 2004095837A1 JP 2004005778 W JP2004005778 W JP 2004005778W WO 2004095837 A1 WO2004095837 A1 WO 2004095837A1
Authority
WO
WIPO (PCT)
Prior art keywords
resolution
display
graphics
data
ratio
Prior art date
Application number
PCT/JP2004/005778
Other languages
English (en)
French (fr)
Inventor
Hiroshi Hamasaka
Masayuki Kozuka
Masataka Minami
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to EP04728900A priority Critical patent/EP1628477A4/en
Priority to US10/549,608 priority patent/US20060204092A1/en
Priority to JP2005505782A priority patent/JPWO2004095837A1/ja
Publication of WO2004095837A1 publication Critical patent/WO2004095837A1/ja

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/11Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information not detectable on the record carrier
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/418External card to be used in combination with the client device, e.g. for conditional access
    • H04N21/4184External card to be used in combination with the client device, e.g. for conditional access providing storage capabilities, e.g. memory stick
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • H04N21/42646Internal components of the client ; Characteristics thereof for reading from or writing on a non-volatile solid state storage medium, e.g. DVD, CD-ROM
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/432Content retrieval operation from a local storage medium, e.g. hard-disk
    • H04N21/4325Content retrieval operation from a local storage medium, e.g. hard-disk by playing back content from the storage medium
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • H04N21/4355Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream involving reformatting operations of additional data, e.g. HTML pages on a television screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440218Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by transcoding between formats or standards, e.g. from MPEG-2 to MPEG-4
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4621Controlling the complexity of the content stream or additional data, e.g. lowering the resolution or bit-rate of the video stream for a mobile client with a small screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4858End-user interface for client configuration for modifying screen layout parameters, e.g. fonts, size of the windows
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2541Blu-ray discs; Blue laser DVR discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/46Receiver circuitry for the reception of television signals according to analogue transmission standards for receiving on more than one standard at will
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/775Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/0122Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal the input and the output signals having different aspect ratios

Definitions

  • the present invention relates to a playback device that plays back content composed of moving image data and auxiliary data, and relates to an improvement in displaying auxiliary data while synchronizing with moving image data.
  • BD-ROMs There are two types of content supplied on large-capacity discs such as BD-ROMs, depending on the supported resolution.
  • One is high quality with a resolution of 1920 x 1080 and the other is standard quality with a resolution of 720 x 480.
  • High-resolution content is suitable for playback on a display device called HDTV Hi Definition Television.
  • content with standard resolution is suitable for playback on a display device called SDTV (Standard Definition Television).
  • SDTV Standard Definition Television
  • the content resolution of these content and display devices is 1920x1080 and the display device is of HDTV type, the moving images and subtitles that make up the content will be displayed at their original resolution. . By playing back at the original resolution, the user can enjoy movie content with high image quality comparable to a movie theater.
  • auxiliary data is subtitles
  • a digital stream consisting of an HDTV-compatible video stream and HDTV-compatible subtitle graphics a digital stream consisting of an SDTV-compatible video stream
  • a digital stream consisting of an SDTV-compatible subtitle graphics You have to make the stream and record it on a recording medium.
  • subtitles need to be large for each country / region where movie content should be distributed. Creating graphics for each of SDTV and HDTV and multiplexing them with the video stream requires a lot of man-hours.
  • An object of the present invention is to provide a playback device capable of displaying subtitles equivalent to those produced, even if production of either of the subtitle graphics for SDTV and the subtitle graphics for HDTV is omitted. That is.
  • a playback device includes: a detection unit that detects a resolution for expressing a frame image in moving image data; a resolution of a display device connected to the playback device; When the ratio to the resolution detected by the first is 1, the auxiliary data multiplexed with the moving image data and recorded on the recording medium is displayed on the display device in synchronization with the moving image data.
  • a display unit and a second display unit that, when the resolution ratio is not 1, displays the auxiliary data supplied from the server device on the display device in synchronization with the moving image data.
  • the second display means displays the subtitle data supplied from the server device.
  • subtitles are displayed according to the ratio of the resolution of the display device to the resolution of the content, even if the combination of “content-display device” changes dynamically, the optimal display for that combination is displayed. Can be performed.
  • the above-mentioned reproducing apparatus receives the supply of the auxiliary data from the server apparatus, this is an optional item in the present invention, and the reproducing apparatus according to the present invention requires this technical matter as essential. Do not. This is because if the auxiliary data can be supplied from a recording source different from the recording medium on which the video data is recorded, the above-mentioned object can be achieved without receiving the supply from the server device. . BRIEF DESCRIPTION OF THE FIGURES
  • FIG. 1 is a diagram showing a mode of use of the playback device according to the present invention.
  • FIG. 2 is a diagram showing a configuration of the BD-R0M.
  • FIG. 3 is a diagram schematically showing how the AV Clip is configured.
  • FIG. 4 (a) is a diagram showing a configuration of a presentation graphics stream.
  • FIG. 4B is a diagram showing the internal configuration of the PES bucket.
  • FIG. 5 is a diagram showing a logical structure composed of various types of functional segments.
  • FIG. 6 is a diagram showing a relationship between the subtitle display position and the Epoch.
  • FIG. 7 (a) is a diagram showing how a graphics object by 0DS is performed.
  • FIG. 7B shows the data structure of the PDS.
  • FIG. 8A is a diagram showing the data structure of WDS.
  • FIG. 8B shows the data structure of the PCS.
  • Figure 9 is a diagram showing a description example for implementing caption display.
  • FIG. 10 is a diagram illustrating a description example of a PCS in DS1.
  • FIG. 11 is a diagram illustrating a description example of a PCS in DS2.
  • FIG. 12 is a diagram illustrating a description example of a PCS in DS3.
  • FIG. 13 is a diagram showing a comparison between the contents of movie content and the contents of subtitle content.
  • FIG. 14 is a diagram showing an example of a text type subtitle content.
  • FIG. 15 is a diagram showing the internal configuration of the playback device according to the present invention.
  • FIG. 16 is a diagram showing an internal configuration of the graphics decoder 9.
  • FIG. 17 is a flowchart showing the processing procedure of the Graphics Controller 3.7.
  • FIG. 18 is a flowchart showing the processing procedure of the movie content playback processing.
  • FIG. 19 is a front chart showing the processing procedure of the text subtitle display processing.
  • FIGS. 20 (a) to 20 (c) are diagrams showing the process of enlarging the outer information based on the resolution ratio.
  • FIGS. 21 (a) to 21 (c) are explanatory diagrams of a conversion process of an HTML document by the control unit 29 according to the second embodiment.
  • FIGS. 22 (a) to 22 (c) are explanatory diagrams showing a processing procedure of line spacing adjustment.
  • FIG. 1 is a diagram showing a mode of use of a playback device according to the present invention.
  • the playback device according to the present invention The device 200, together with the television 300 and the remote controller 400, forms a home theater system.
  • BD-R0M100 has the purpose of supplying movie content to home theater systems.
  • Movie content is composed of AVClip, which is a digital stream, and Clip information, which is its management information.
  • AVClip is entity data that constitutes video, audio, and subtitles of movie content.
  • Subtitles in movie content are bitmap-type subtitles and consist of an elementary stream called a graphics stream.
  • the Cli information includes resolution information indicating the resolution for expressing a frame image in moving image data.
  • the resolution indicated in the resolution information is typically a numerical value such as 1920 ⁇ 1080 (1080i), 720 ⁇ 480 (480i, 480 ⁇ ), 1440 1080, 1280 720, 540 ⁇ 480.
  • the suffix "i” means the interlace method, and the suffix "P” means the progressive method.
  • the playback device 200 loads the BD-R0M100 and plays the movie content recorded on the BD-R0M100.
  • the display device 300 is connected to a playback device via an HDMK High Definition Multimedia Interface), and the playback device can acquire resolution information from the display device 300 via the HDMI. . Since this resolution information indicates the resolution of the display device 300, the playback device can know whether the display resolution of the display device 300 is high resolution or standard image quality.
  • Remote controller 400 is a portable device that receives an operation from a user.
  • the server device 500 holds subtitle content in various languages, and supplies the subtitle content to the playback device in response to a request from the playback device.
  • FIG. 2 is a diagram showing a configuration of the BD-ROM.
  • the fourth row of the figure shows the BD-ROM, and the third row shows the tracks on the BD-ROM.
  • the track in this figure is drawn by extending a spiral track from the inner circumference to the outer circumference of the BD-R0M in the horizontal direction.
  • This track includes a read-in area, a volume area, and a read-write area.
  • the film area in this figure has a layer model of a physical layer, a file system layer, and an application layer. Expressing the application layer format (application format) of the BD-ROM using the directory structure is as shown in the first row of the figure.
  • the BD-ROM has a BDMV directory under the ROOT directory, and files such as XXX.M2TS and XXX.CLPI under the BDMV directory.
  • files such as XXX.M2TS and XXX.CLPI under the BDMV directory.
  • File XXX. M2TS corresponds to AVClip
  • file XXX.CLPI corresponds to Cli information.
  • the recording medium according to the present invention is produced by creating an application format as shown in FIG.
  • AVClip As the components (AVClip—Clip information) of the movie content, AVClip will be described.
  • FIG. 3 is a diagram schematically showing how the AVClip is configured.
  • AVCli stage 4
  • video stream consisting of multiple video frames (pictures pjl, 2, 3)
  • audio and video streams consisting of multiple audio frames (stage 1)
  • PES It is converted to a packet sequence (2nd stage), and further converted to TS packets (3rd stage).
  • a subtitle presentation graphics stream and an interactive interactive graphics stream (2nd stage) (7th stage) is converted to a PES bucket sequence (6th stage), further converted to a TS bucket (5th stage), and multiplexed.
  • FIG. 4A is a diagram showing a configuration of the presentation graphics stream.
  • the first level shows a sequence of TS packets constituting the AVClip.
  • the second row shows the PES packet sequence that makes up the graphics stream.
  • the PES bucket sequence in the second stage is constructed by extracting the payload from the TS bucket having a predetermined PID out of the TS buckets in the first stage and concatenating them.
  • the third row shows the configuration of the graphics stream.
  • the graphics stream consists of function segments called PCS (Presentation Composition Segment), WDS (Window Define Segment), PDSCPalette Dif inition Segment, ODS Object—Definition—Segment, and END (END of Display Set Segment). Consisting of Of these functional segments, PCS is called a screen composition segment, and WDS, PDS, ODS, and END are called definition segments. The correspondence between PES buckets and functional segments is one-to-one and one-to-many.
  • Fig. 4 (b) is a diagram showing a PES bucket obtained by converting functional segments.
  • the PES packet consists of a packet header and a payload, and this payload corresponds to the functional segment entity.
  • the packet header there are DTS and PTS corresponding to this functional segment.
  • the DTS and PTS existing in the header of the PES packet storing the functional segment are treated as the DTS and PTS of the functional segment.
  • FIG. 5 is a diagram showing a logical structure composed of various types of functional segments.
  • the function segment is shown in the third row
  • the Display Set is shown in the second row
  • the Epoch is shown in the first row.
  • the second-stage Display Set (abbreviated as DS) refers to a set of multiple functional segments that make up a graphics stream and that make up a Dallax for one screen.
  • the dashed line in the figure indicates which DS the functional segment in the third row belongs to.
  • PCS-TOS- PDS-0DS-END It can be understood that a series of functional segments described above constitute one DS.
  • the playback device can compose graphics for one screen by reading the multiple function segments that make up this DS from the BD-ROM.
  • the first stage Epoch refers to one period that has continuity of memory management on the playback time axis of AVC Lip, and a data group assigned to this period.
  • the memory assumed here is a graphics plane for storing graphics for one screen, and an object buffer for storing decompressed graphics data.
  • the continuity of memory management for these means that no flushing of these graphics planes and object buffers occurs during the period of this Epoch, and that a certain rectangular area in the graphics plane is used. This means that the graphics are erased and redrawn only in the case of (* Flash here means clearing all the stored contents of the plane and the buffer.)
  • the vertical and horizontal size and position of this rectangular area are fixed throughout the Epoch period.
  • FIG. 6 is a diagram showing a relationship between a subtitle display position and Epoch.
  • Epochl the bottom margin of the screen becomes the subtitle drawing area.
  • the upper margin of the screen becomes the subtitle drawing area (window2).
  • the continuity of memory management in the buffer 'plane is guaranteed, so that the above caption display in the margin is performed seamlessly.
  • Epoch Start a series of DSs called Epoch Start, Acquisition Point, and Normal Case constitute the first stage Epoch.
  • Epoch Start a series of DSs called Epoch Start, Acquisition Point, and Normal Case constitute the first stage Epoch.
  • O “Epoch Start:”, “Acquisition Point”, and “Normal Case” are types of DS. is there.
  • the order of Acquisition Point. Normal Case in this figure is only an example, and either may be the first.
  • EpochStart is a DS that has a display effect of "new display” and indicates the start of a new Epoch. Therefore, Epoch Start includes all the functional segments required for the next screen composition.
  • the Epoch Start is located at a location known to be cueed, such as a chapter in a movie.
  • “Acquisition Point” is a Display Set that has a display effect called “display refresh”, which is exactly the same as the preceding Epoch Start.
  • the Acquisition Point DS is not at the start of Epoch, it includes all the functional segments required for the next screen composition, so if the cue is performed from the Acquisition Point DS, the graphics display will be assured. Can be realized.
  • Normal CaseJ is a DS that has a display effect of" display update "and includes only the differences from the previous screen composition.
  • the subtitle of a certain DSv has the same content as the preceding DSu, but if the screen configuration is different from the preceding DSu, a DSv of PCS only or a DSv of PCS only is provided and this DSv is Change to DS for Case.
  • the DS of the Normal Case is only a difference, the screen cannot be composed by the Normal Case alone.
  • “0bject—Definition_Segment” is a functional segment that defines a graphics object that is a bitmap type of graphics. This graphics object will be described below. Recorded on the BD-ROM The AVClip, which uses high-definition image quality as its selling point, has also set the resolution of graphics objects to a high-definition size of 1920 x 1080 pixels. With a resolution of 1920 x 1080, the BD-R0M can vividly reproduce subtitles for theatrical screenings, that is, rich handwritten subtitles. For the pixel color, the bit length of the index value (red color difference component (Cr value), blue color difference component (Cb value), brightness component Y value, transparency (T value)) per pixel is 8 bits. This makes it possible to select any 256 colors from the full-color 16,777,216 colors and set them as pixel colors. Subtitles by graphics objects are rendered by placing text on a transparent background.
  • a graphics object is defined by 0DS with a data structure as shown in Fig. 7 (a).
  • 0DS is a “segment—type” that indicates that it is itself a 0DS, “segment—length” that indicates the data length of the 0DS, and a graphic corresponding to this 0DS in Epoch.
  • "Object-id” that uniquely identifies the graphics object, "object-version-number” that indicates the 0DS innovation in Epoch, riast_insequence_flagj, and part or all of the graphics object It consists of continuous byte length data robject_data_fragmentJ. The above is the description of 0DS.
  • PDS Picture Definition Segment
  • Figure 7 (b) shows the data structure of the PDS. As shown in Fig. 7 (b), the PDS has “segment one type” indicating that it is itself a PDS, “segment_length” indicating the data length of the PDS, and “pallet” that uniquely identifies the pallet included in this PDS. “Id”, “pallet—version—number”, which indicates the Epoch's PDS purge information in Epoch, and “palle entry”, which is information about each entry. “Pal let_entry” indicates the red color difference component (Cr value), blue color difference component (Cb value), luminance component Y value, and transparency (T value) in each entry.
  • Cr value red color difference component
  • Cb value blue color difference component
  • T value transparency
  • Window—definition—segment is a rectangle in the graphics plane This is a functional segment for defining an area. Epoch has already stated that continuity in memory management occurs only when clearing and redrawing are performed within a rectangular area in the graphics plane. The rectangular area in this graphics plane is called “window” and is defined in this WDS.
  • FIG. 8A is a diagram showing the data structure of WDS.
  • WDS consists of a “window_id” that uniquely identifies a window in the graphics plane, a “window—horizontal—position” that indicates the horizontal position of the upper left pixel in the graphics plane, and a graphics “Window—vertical—position”, which indicates the vertical position of the upper left pixel in the lane, “window-width”, which indicates the horizontal width of the window in the graphics plane, and “vertical” in the graphics plane It is expressed using “window_height” which indicates the width.
  • PCS is a functional segment that composes interactive screens.
  • the PCS has the data structure shown in Fig. 8 (b). As shown in this figure, PCS consists of “segment—type”, “segment—length”, “composion on—numberj”, “composition—state”, “pal let—update—flagj, and palLet— id ”and“ Composition—Object (1)-(! n) ”.
  • Compositioii_number identifies the graphics update in the Display Set using a number from 0 to 15.
  • Composition_state indicates whether the Display Set starting from this PCS is a Normal Case, the force obtained by Acquisition Point, and the force obtained by Epoch Start.
  • Composition—Object (l) ⁇ ⁇ ⁇ (n) is information indicating how to control each window in the Display Set to which this PCS belongs.
  • Figure The dashed line wdl in 8 (b) is a close-up of the internal composition of any Composition_Object (i).
  • the composition—object (i) is “object—id”, “window—id”, “object—cropped—flag”, “object—horizontal—position” — “object”.
  • Object_id indicates the identifier of the 0DS existing in the window corresponding to Composition_Object (i).
  • Window-id indicates the window to be assigned to the graphics object in this PCS. Up to two graphics objects can be assigned to one window.
  • “Object-cropped_flag” is a flag for switching between displaying the cropped graphics object in the object buffer and hiding the graphics object. When set to “1”, the cropped graphics object is displayed in the object buffer, and when set to "0", the graphics object is hidden.
  • Object-horizontal-positionj indicates the horizontal position of the upper left pixel of the graphics ex- ject in the graphics plane.
  • Object_vertical_position indicates the vertical position of the upper left pixel in the graphics plane.
  • Object—cropping—horizontal—positioiU is a graphics The horizontal position of the upper left pixel of the cup rectangle in the drawing.
  • the crop rectangle is a frame for cutting out a part of the graphic object.
  • “Object—cropping—vertical—address” indicates the vertical position of the upper left pixel of the crop rectangle in the graphics plane.
  • “Object—cropping—width” indicates the width of the crop rectangle in the graphics plane.
  • “Object—cropping_height” indicates the height of the crop rectangle in the graphics plane.
  • FIG. 9 is a description example for implementing such subtitle display.
  • Epoch in this figure has DS1 (Epoch Start), DS2 (Normal Case) and DS3 (Normal Case).
  • DS1 has a WDS that defines a window that serves as a subtitle display frame, a 0DS that represents the dialogue “You really were a kid,” and a first PCS.
  • DS2 Normal Case
  • DS3 Normal Case
  • DS3 has a third PCS.
  • FIG. 10 is a diagram illustrating a description example of a PCS in DS1.
  • window_horizontal_position and window—vertical—position of WDS indicate the upper left coordinate LP1 of the window in the graphics plane
  • window_width and windo_eigt indicate the width and height of the window display frame.
  • the object_cropping—horizontal—position, object—cropping—vertical—position of the crop information in Figure 10 is based on the coordinate system whose origin is the upper left coordinate of the graphics object in the object tongue
  • the crop area standard ST1 is shown.
  • Object cropping width
  • object The area indicated by croppingjieight (the thick frame in the figure) is the cropping area.
  • the cropped graphics object is placed in the dashed line range cpl with object-horizontal-position and object-vertical-position as the reference points (upper left) in the coordinate system of the graphics plane. Be placed. In this way, "really” is written in the window in the graphics plane.
  • the subtitle “Sure” is combined with the moving image and displayed.
  • FIG. 11 is a diagram illustrating a description example of a PCS in DS2.
  • the description of WDS in this figure is the same as that in FIG.
  • the description of the crop information is different from that in FIG.
  • object-cropping-horizontal-position, object-cropping-vertical-position is the subtitle on the object buffer.
  • the upper left coordinate of "Potato” is shown in the "Your ga”, and the width and height of "object-cropping-height, object-cropping-width are Show. By doing so, "I was sorry” is written in the window on the graphics status plane.
  • the subtitle “ ⁇ ” was combined with the moving image and displayed.
  • FIG. 12 is a diagram illustrating a description example of a PCS in DS3.
  • the description of WDS in this figure is the same as that in FIG.
  • the description of the crop information is different from that in FIG.
  • object—cropping—vertical—position is the subtitle on the object buffer.
  • object—cropping—width indicates the width and height of ll . This will write “you” in a window in the graphics plane.
  • the caption “You” is displayed in combination with the moving image.
  • the effect of displaying subtitles can be realized.
  • the display effects such as Fadeln / Out, Wipeln / Out, and Scroll can be realized by the description of the PCS. This is the advantage of PCS.
  • 0DS is added to the function segments described above, and DTS and PTS are added to the PCS.
  • the DTS of 0DS indicates the time to start decoding of 0DS with a time accuracy of 90 KHz, and the PTS of 0DS indicates the time to end decoding.
  • the DTS of the PCS indicates when the PCS should load the buffer on the playback device.
  • the PTS of the PCS indicates the timing of updating the screen using the PCS.
  • the graphics stream forming the subtitle of the bitmap type has control information for displaying the subtitle and a time stamp indicating processing timing on the reproduction time axis. Therefore, the playback device can realize subtitle display by processing only the graphics stream.
  • the above is the description of AVClip. Next, the Clip information will be described.
  • Cli information (XXX.CLPI) is management information for each AVClip.
  • Clip information (XXX.CLPI) consists of “attribute information” for video streams and audio streams, and “EP_map” which is a reference table at the time of cueing.
  • the attribute information is: attribute information (Video attribute information) about the video stream, the number of attribute information (Number), and attribute information (Multi-distribution stream) multiplexed on the AVC1 ip. Audio attribute information # 1 to #m).
  • the video attribute information includes the compression method used for the video stream (Coding), the resolution of the individual picture data that make up the video stream (Resolution), and the aspect ratio. (Aspect), and what the frame rate is (Framerate).
  • the attribute information (Audio attribute information # 1 to #m) of the audio stream includes the compression method (Coding) of the audio stream and the compression method of the audio stream. What is the channel number of the system (Cli.), What language is supported (Lang), and what the sampling frequency is.
  • the Resolution of the corresponding AV Clip indicates the resolution of the video stream in the Resolution of the Clip information described above.
  • the subtitle content of the bitmap type consists of only the graphics stream among the multiple elementary streams that make up the AVCip shown above. Similar to the graphics stream in BD-R0M, the graphics stream that composes the subtitle content is composed of functional segments PCS, TOS, PDS, 0DS, and END, and PTS and DTS are added to each functional segment. . With these time stamps, the subtitle content is displayed in synchronization with the video stream on the BD-ROM side.
  • FIG. 13 is a diagram showing a comparison between the contents of movie content and the contents of subtitle content.
  • the upper part of Fig. 13 shows the video stream and graphics stream on the movie content side, and the lower part shows the graphics stream on the subtitle content side.
  • the G0P and Display Set at the top of this figure are played back at 1 minute, 1 minute 40 seconds, and 2 minutes after the start of playback of the AV stream, respectively.
  • the Display Set at the bottom of the figure is also played back 1 minute, 1 minute 40 seconds, and 2 minutes after the start of the playback of the AV stream, respectively.
  • the adjustment of the reproduction timing is performed by setting desired values to ICS, TOS, PDS, and PTS and DTS attached to 0DS belonging to the Display Set.
  • the HD Display Set is synchronized with the video with high time accuracy.
  • this bitmap type subtitle content is prepared according to various resolutions. By downloading this subtitle content from the server device 500 in response to a request from the playback device, the combination of the display device and the content However, the control unit 200 can display subtitles at an appropriate resolution.
  • Text-type caption content is captions composed of information necessary for caption display corresponding to text data. Text has a smaller amount of data than bitmap subtitles, and can be transferred in a short time even on a line with a relatively low transfer rate. For this reason, if there is a restriction on the line speed, it is desirable to use text subtitles.
  • Figure 14 shows an example of a text-type subtitle content.
  • the text type subtitle content includes a chapter number indicating the chapter where the subtitle exists, a “start time code” indicating the subtitle display start time, and an “end time code” indicating the subtitle display end time. ”, The“ display color ”of the subtitle, the“ size ”of the subtitle, and the“ display position ”of the subtitle in association with the text data.
  • the “size” is determined by assuming that it is displayed on either SDTV or HDTV.
  • the format used to develop this text subtitle is outline font (also called vector font), which is represented by outlines and endpoints.
  • the contour can be enlarged smoothly.
  • the present playback device enlarges and reduces the size of the trie font according to the resolution of the display device side, and sets the start time code and the end time code.
  • Subtitles are displayed based on the subtitles.
  • the term “enlargement” in this specification means that the original data is represented by a larger number of pixels.
  • reduction in this specification refers to expressing original data with fewer pixels.
  • FIG. 15 is a diagram showing the internal configuration of the playback device according to the present invention.
  • the playback device according to the present invention is industrially produced based on the interior shown in the drawing.
  • the playback device according to the present invention mainly includes two parts, a system LSI and a drive device, and can be industrially manufactured by mounting these parts on a cabinet and a substrate of the device.
  • a system LSI is an integrated circuit that integrates various processing units that perform the functions of a playback device.
  • the playback devices produced in this way include BD drive 1, read buffer 2, demultiplexer 3, video decoder 4, video plane 5, background still plane 6, synthesizing unit 7, switch 8, P-Graphics decoder 9, Presentation Graphics plane 10, synthesis unit 11, font generator 12, graphics decoder 13, switch 14, enhanced Interactive Graphics plane 15, synthesis unit 16, HDD 17 Read buffer 18, Demultiplexer 19, Audio decoder 20, Switch 21, Switch 22, Static scenario memory 23, Dynamic scenario memory 24, CLUT section 26, CLUT section 27, Switch 28, Control It consists of part 29.
  • the BD-R0M drive 1 performs loading / ejection of the BD-ROM and executes access to the BD-R0M.
  • the read buffer 2 is a FIFO memory in which TS buckets read from the BD-ROM are stored in a first-in first-out manner.
  • the demultiplexer (De-MUX) 3 extracts the TS packet from the read buffer 2 and converts the TS packet into a PES bucket. Then, of the PES buckets obtained by the conversion, a desired one is output to any one of the video decoder 4, the audio decoder 20, the P-Graphics decoder 9, and the I-Graphics decoder 13.
  • the video decoder 4 uses the multiple PES Decode the packet to obtain an uncompressed picture and write it to video plane 5.
  • Video plane 5 is a plane for storing uncompressed pictures.
  • the plane is a memory area for storing one screen of pixel data in the playback device. If a plurality of planes are provided in the playback device, and the stored contents of these planes are added for each pixel and video output is performed, the video output can be performed after combining the video content.
  • the resolution in the video plane 5 is 1920 x 1080, and the picture data stored in the video plane 5 is composed of pixel data represented by a 16-bit YUV value.
  • Background still plane 6 is a plane that stores a still image to be used as a background image.
  • the resolution in this plane is 1920 x 1080
  • the picture data stored in this Background still plane 6 is composed of 16-bit YUV pixel data.
  • the combining unit 7 combines the uncompressed picture data stored in the video plane 5 with the still image stored in the Background still plane 6.
  • the switch 8 is a switch for switching between outputting the uncompressed picture data in the video plane 5 as it is or outputting it in combination with the stored contents of the Background still plane 6.
  • the P-Graphics decoder 9 decodes the graphics stream read from the BD-R0M and the HDD 17, and writes the raster graphics to the Presentation Graphics plane 10. Subtitles will appear on the screen by decoding the graphics stream.
  • the Presentation Graphics plane 10 is a memory having an area for one screen, and can store one screen of raster graphics.
  • the resolution in this plane is ⁇ 920 ⁇ 1080, and each pixel of the raster graph.ex in the Presentation Graphics plane 10 is represented by an 8-bit index color.
  • CLUT Color Lookup Table
  • Presentation Graphics The raster graphics stored in plane 10 are provided for display.
  • the synthesizing unit 11 synthesizes any of the uncompressed picture data (i) and the picture data (ii) obtained by synthesizing the stored contents of the Background still plane 6 with the stored contents of the Presentation Graphics plane 10.
  • the font generator 12 has an outline font, and performs character drawing by expanding the text code acquired by the control unit 29 using the outline font. This expansion is performed on the Enhanced Interactive Graphics plane 15.
  • the I-Graphics decoder 13 decodes the interactive graphics stream read from the BD-R0M and HDD 17 and writes the raster graphics to the Enhanced Interactive Graphics plane 15. By decoding the interactive graphics stream, the buttons that make up the interactive screen will appear on the screen.
  • the switch 14 selectively selects one of a font sequence generated by the font generator 12, a drawing content drawn directly by the control unit 29, and a button generated by the I-Graphics decoder 13. This is a switch to be used in the Enhanced Interactive Graphics plane 15.
  • the Enhanced Interactive Graphics plane 15 is a display plane that can support a resolution of 1920 x 1080 and a resolution of 960 x 540.
  • the synthesizing unit 16 synthesizes the uncompressed picture data (i), the picture data (ii) in which the stored contents of the Background still plane 6 are synthesized, and the stored contents of the Presentation Graphics plane 10 and the Background still plane 6.
  • the picture data (iii) is combined with the contents stored in the Enhanced Interactive Graphics plane 15.
  • the HDD 17 is an internal medium for storing subtitle content obtained by downloading from a server device.
  • the read buffer 18 is a FIFO memory, and stores TS packets read from the HDD 17 in a first-in first-out manner.
  • the demultiplexer (De-MUX) 19 extracts the TS packet from the read buffer 18 and converts the TS packet into a PES bucket. And convert Of the PES buckets obtained by the above, a desired one is output to one of the audio decoder 20 and the P-Graphics decoder 9.
  • the audio decoder 20 decodes the PES bucket output from the demultiplexer 19 and outputs uncompressed audio data.
  • the switch 21 is a switch for switching the input source to the audio decoder 20. With this switch, the input to the audio decoder 20 is switched between the BD-R0M side and the HDD side.
  • the switch 22 switches the input source to the P-Graphics decoder 9 and is read from the presentation graphics stream and the BD-R0M read from the HDD 17 by the switch 22.
  • the output presentation graphics stream can be selectively input to the P-Graphics decoder 9.
  • the static scenario memory 23 is a memory for storing the current CI ip information.
  • the current C Lip information is the information currently being processed from among the plurality of C Lip information recorded on the BD-R0M.
  • the communication unit 24 accesses the server device 500 in response to an instruction from the control unit 29, and downloads subtitle content from the server device 500.
  • the switch 25 stores various data read from the BD-ROM and the HDD 17 in one of the read buffer 2, the read buffer 18, the static scenario memory 23, and the dynamic scenario memory 24. This is a switch that is selectively turned on.
  • the CLUT unit 26 converts the index colors in the raster graphics stored in the video plane 5 based on the Y, Cr, and Cb values indicated in the PDS.
  • the 111 ”unit 27 calculates the index colors in the raster graphics stored in the Enhanced Interactive Graphics plane 15 based on the Y, Cr, and Cb values indicated in the PDS included in the presentation graphics stream. Convert.
  • the switch 28 is a switch for switching the conversion by the CLUT unit 27 so as to output through.
  • the control unit 29 acquires resolution information indicating the resolution on the display device side via HDMI. Then, this is compared with the resolution in the Clip information to calculate a resolution ratio. If the resolution ratio is 1.0, the graphics stream multiplexed on the AVClip is displayed as it is. If the resolution ratio is not 1, the subtitle content recorded on HDD17 is displayed.
  • the font string is given to the font generator 12 by giving the text font type to the font generator 12 (Text and Font). Is generated and placed on the Enhanced Interactive Graphics plane 15. If the drawing of the Enhanced Interactive Graphics plane 15 is made in this way, the storage contents of the video plane 5 are ordered to be enlarged and reduced, and then the storage contents of the Enhanced Interactive Graphics plane 15 are combined by the combining unit 16. (Display layout ControDo
  • the graphics decoder 9 includes a coded data buffer 33, a peripheral circuit 33a, a Stream Graphics Processor 34, an Object Buffer 35, a Composition Buffer 36, and a Graphics Controller 37.
  • Coded Data Buffer 33 is a buffer in which functional segments are stored together with DTS and PTS.
  • the peripheral circuit 33a is a wire logic that realizes transfer between the Coded Data Buffer 33 and the Stream Graphics Processor 34 and transfer between the Coded Data Buffer 33 and the Composition Buffer 36. In this transfer processing, if the current time point is the time indicated in the DTS of 0DS, the 0DS is transferred from the Coded Data Buffer 33 to the Stream Graphics Processor 34. If the current time is the time indicated in the DTS of the PCS and PDS, the PCS and PDS are transferred to the Composition Buffer 36.
  • the Stream Graphics Processor 34 decodes the 0DS and writes the uncompressed bitmap composed of the index scalar obtained by the decoding to the Object Buffer 35 as a graphics object.
  • the Object Buffer 35 a Dallax object obtained by decoding by the Stream Graphics Processor 34 is placed.
  • Composition Buffer 36 is a memory in which PCS and PDS are arranged.
  • the Graphics Controller 37 decodes the PCS placed in the Composition Buffer 36 and performs control based on the PCS.
  • the execution timing of this control is based on the value of the PTS added to the PCS.
  • the above is the description of the internal configuration of the P-Graphics decoder 9.
  • Graphics Controller 37 is described. Graphics Controllers 7 is a flowchart for performing the processing procedure shown in FIG.
  • Step S1 is the main routine of the flowchart, and waits for the establishment of the event specified in step S1.
  • Step S1 is for judging whether or not the current reproduction time point is the DTS time of the PCS. If so, the processing of steps S1 to S13 is performed.
  • Step S1 is for determining whether or not the composition_state of the PCS is Epoch-Start. If it is Epoch Start, the graphics plane 8 is completely cleared in Step S6. Otherwise, in step S7, clear the window indicated by WDS windowjiorizontal—position, indow_vertival_position window_width, window—height.
  • Step S8 is a step executed after clearing in step S6 or step S7, and is a determination as to whether or not the PTS time of an arbitrary ODSx has already passed. In other words, when clearing the entire graphics plane 8, it takes a long time to clear the entire graphics plane 8, so that decoding of a certain ODS (ODSx) may have already been completed. Step S8 verifies that possibility. If not, return to the main routine. If the decoding time of any of the 0DS has passed, steps S9 to S11 are executed. Step S9 is a determination as to whether or not the object_crop_flag indicates 0. If the flag indicates 0, the graphics The object is hidden (step S10).
  • step S11 If it does not show 0, object— cropping— horizontal— posi tioiu object— cropping— vertival— position, cropping— width, cropping_height Write to the position indicated by object_cropping_horizontl_position, object_crop mg_vertival_position in window of lane 8 (step S11).
  • object_cropping_horizontl_position By the above processing, one or more graphics objects are drawn in the window.
  • Step S12 is a determination as to whether or not the PTS time of another ODSy has elapsed. If ODSx is already written to the graphics plane 8 and another 0DS has already been decoded, this ODSy is changed to ODSx (step S13), and the process proceeds to step S9. As a result, the processing of steps S9 to S51 is repeated for another 0DS. '
  • FIG. 18 is a flowchart showing a processing procedure of the movie content reproduction processing.
  • step S21 the resolution in the Clip information is referred to, and in step S22, the resolution is obtained from the connected display device via HDMI.
  • step S23 the resolution ratio between the movie content and the display device is calculated.
  • step S24 the video stream multiplexed on the AVCUp is supplied to the video decoder 4 to start the reproduction of the moving image.
  • step S25 it is determined whether or not the resolution ratio is 1. If it is 1, in step S26, switch 22 and switch 25 are switched, and the graphics stream multiplexed on the AVClip is input to the CLUT section 9 to display subtitles.
  • step S27 it is determined whether or not subtitle content exists in the HD. If there is, the process skips step S28 and shifts to step S29. If there is, the subtitle content is downloaded from the server device to HD in step S28.
  • step S29 whether the subtitle content is text type or Judgment is performed to determine whether or not it is a map type. If it is a bitmap type, the subtitle display is executed by switching the switch 22 and the switch 25 in step S30 and inputting the subtitle content on HD to the P-Graphics decoder 9.
  • step S31 display processing of text subtitles is performed.
  • FIG. 19 is a flowchart showing the processing procedure of the text subtitle display processing.
  • the processing consisting of steps S33 to S37 of this flowchart is equivalent to steps S1 to S13 in FIG. 17, and it is said that subtitles are displayed as the playback of the video stream progresses. Things. That is, the reproduction of the graphics stream multiplexed on the AVClip may be left to the Graphics Controller 37, but the reproduction of the text data must be performed by the control unit 29 itself.
  • FIG. 19 shows a processing procedure for the control unit 29 itself to reproduce text data.
  • Step S33 to step S35 of step S33 to step S37 constitute a loop process, and determine any of the events defined in step S33 to step S35. .
  • step S33 it is determined whether or not a start time code in the subtitle content that matches the current reproduction time point exists. If it exists, the process goes to step S36 with this time code as the start time code i.
  • Step S36 is a process of expanding and displaying the characters in the text data corresponding to the start time code i using the out-line font.
  • step S34 it is determined whether or not the current reproduction time point corresponds to the start time code i. If so, erase the character displayed in step S37.
  • Step S35 is for judging whether or not the reproduction of the movie content has ended, and if so, the process of this flowchart ends.
  • step S36 that is, the process of enlarging the image font based on the resolution ratio
  • the size of the caption in the caption content is determined to be one of SDTVZHDTV. This is because, like the subtitle graph graphics, instead of producing subtitles for both SDTV and HDTV, there is a desire by movie producers to reduce production costs by omitting production on one side. is there. If the “size” of the subtitle content is SDTV-compatible, even though the display 300 is HDTV, the HDTV-type display 300 must display SDTV-compatible subtitles.
  • FIG. 20 (a) is a diagram showing a pixel shape in each of SDTV and HDTV.
  • the shape of one pixel is a horizontally long rectangle.
  • the shape of one pixel in an HDTV type display device is a square. Therefore, if the font that assumes the resolution of SDTV is directly expanded, as shown in Fig. 20 (b), the characters that make up the subtitles appear vertically long and are unsightly. Therefore, when expanding, the vertical and horizontal magnifications are set to different values.
  • the subtitle content compatible with SDTV is displayed on an HDTV type display device.
  • the resolution of the display device is 1920 ⁇ 1080 and the resolution of the movie content is 720 ⁇ 480
  • the out-of-print size determined for the SDTV-compatible size is 2.67 times the width and 2 heights as shown in Figure 20 (c). . Magnify 25 times.
  • the subtitles will be displayed at the resolution corresponding to the resolution of the display device side be able to. If the playback device has an outline font for a set of characters used in one language system, the subtitles can be appropriately displayed on the display device.
  • the outline font is reduced to 0.375 times in width and 0.444 times in height. If the text data is expanded using the font thus reduced and displayed according to the start time code and end time code, subtitles can be displayed at a resolution corresponding to the resolution of the display device side. . Since the outline can be expanded to any number of pixels, it is not necessary to equip the playback device with both SDTV-compatible fonts and HDTV-compatible fonts. If the playback device is equipped with a character font of a set of characters used in one language system, it is possible to display the subtitles properly on the display device. it can.
  • the subtitle content obtained from the server device is used, it is possible to display subtitles that match the resolution of the display device without enlarging or reducing the presentation graphics stream multiplexed on the AV Clip. Can be done. Since it is not necessary to enlarge or reduce the bitmap, the subtitles can be displayed beautifully even if the subtitles multiplexed on the AVClip are drawn in the bitmap.
  • Such substitution of subtitle data is performed when the ratio between the resolution on the content side and the resolution on the display device side is not 1, and is not performed when both resolutions match.
  • the communication cost associated with downloading caption data from the server device can be minimized.
  • the size of the subtitle is adjusted by enlarging / reducing the outline font according to the resolution ratio.
  • the second embodiment realizes subtitle display using a bitmap font. Since bitmap fonts require a smaller processing load for expansion than autoinfor- mation, bitmap fonts are suitable for use in displaying subtitles on CPUs with limited performance.
  • the text data in the subtitle content shown in Fig. 14 has been replaced with an HTML document described in HTML. Then, the control unit 29 realizes subtitle display by interpreting the HTML document and performing display processing.
  • the control unit 29 according to the second embodiment converts the HTML document described in HTML so as to match the resolution of the display device side.
  • it performs conversion processing. Referring to FIG. 21, the conversion processing by the control unit 29 according to the second embodiment will be described. Will be described.
  • the upper half shows the HTML document before resolution conversion
  • the lower half shows the HTML document after resolution conversion.
  • the fonts that the browser can display are: There are multiple points, which can be indicated by a font size from 1 to 7. In the example in Figure 21, the font with the smallest number of points is selected for display in the HTML document. Means this.
  • the disadvantage of this enlargement method is that when displaying subtitles in two lines, the subtitle display area changes. That is, as described above, in the SDTV type display device, the shape of one pixel is a horizontally long rectangle. In contrast, the shape of one pixel in an HDTV type display device is a square. Therefore, if the subtitles in two lines are to be HD-compatible, the characters that make up each line will change from the rectangular shape shown in Fig. 21 (b) to the square shape shown in Fig. 21 (c). The subtitles expand upward, occupying more area in the layout of the entire screen.
  • FIGS. 22 (a) to 22 (c) are explanatory diagrams showing a processing procedure of line spacing adjustment. It is assumed that subtitles are displayed in two lines as shown in Fig. 22 (a). As shown in Fig. 20, if this subtitle is enlarged vertically by 2.25 times, or if a large font is used as shown in Fig. 21, the line spacing will be reduced as shown in Fig. 22 (b). Spread too much.
  • the font is enlarged to 267% and the line spacing is set to 84%.
  • the third embodiment is an explanation of page content composed of “document + still image”.
  • Such content is a document obtained by embedding a still image in a document described in a markup language, and is often found on web pages. Such contents are also used as menu images in BD-ROM. In such content, the still image is displayed in a reduced size so as to fit within a predetermined frame in the document.
  • Img src ". ./Picture/xxx.j pg" If this is to be displayed on an HDTV, it must be enlarged and displayed based on the horizontal and vertical resolution ratios obtained in the first embodiment. To realize the enlarged display, the above description of HTML can be rewritten as follows. Good,
  • JFIF format still images are "appkication TypeO segment"
  • start of frame typeO segment consists of multiple functional segments called "start of frame typeO segment", "Image—Width”, and "Image—Height”.
  • JFIF still image data is shown below.
  • the still image reduced in the horizontal and vertical directions is enlarged as described above. That is, when the still image is enlarged as described above, it is enlarged horizontally and vertically as shown in the following ratio.
  • the ratio of the resolution of the display device to the resolution of the content side is obtained instead of enlarging the page content in a state where the still image is inserted.
  • the above description does not show all the modes of carrying out the present invention.
  • the embodiment of the present invention can also be implemented by the following forms of implementation (A), (B), (0 (D), etc.).
  • This embodiment is an expanded description or generalized description of the embodiments and their modifications. The extent of the expansion or generalization is based on the characteristics of the state of the art in the technical field of the present invention at the time of filing.
  • the above description does not show all the modes of carrying out the present invention.
  • the embodiment of the present invention can also be implemented by the following forms of implementation (A), (B), (0 (D), etc.).
  • This embodiment is an expanded description or generalized description of the embodiments and their modifications. The extent of the expansion or generalization is based on the characteristics of the state of the art in the technical field of the present invention at the time of filing.
  • caption data has been described as an example of auxiliary data, but the present invention is not limited to this. Menus, buttons, icons, and banners can be used if they are played along with the video.
  • the display target may be subtitle graphics selected according to the display settings on the device side.
  • graph status for various display modes such as wide vision, pan scan, and letterbox is available.
  • the device selects and displays any one of them according to the settings of the television connected to itself.
  • the subtitle graphics displayed in this way are given a display effect based on the PCS, so that the appearance is improved.
  • a display effect using characters as expressed in the main body of the moving image can be realized with captions displayed according to the display settings of the device, and thus has a great practical value.
  • subtitles are displayed horizontally on the upper and lower sides of the screen.
  • subtitles may be displayed on the right and left sides of the screen. In this way, Japanese subtitles can be displayed vertically.
  • the AVC Lip may implement karaoke, and in this case, subtitles may be added according to the progress of the song.
  • the display effect of changing the color of the image may be realized.
  • the playback device receives the supply of subtitle data from the server device, but may receive the supply from a source other than the server device.
  • a source other than the server device For example, a recording medium other than the BD-ROM may be separately purchased, and the caption data may be supplied by installing this in the HDD. Also, the connection with the semiconductor memory in which the caption data is recorded may allow the supply of the caption data.
  • the recording medium and the playback device according to the present invention can realize subtitle display according to the combination of the display device and the content, so that a movie product with higher added value can be supplied to the market. It can stimulate the consumer equipment market. Therefore, the playback device according to the present invention has high applicability in the movie industry and the consumer electronics industry.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Studio Circuits (AREA)

Abstract

ビデオストリームと、字幕用のグラフィクスストリームとから構成されるAVClipが記録された光ディスクにおいて、このAVClipが対応している解像度を、Clip情報から検出する。再生装置に接続可能なディスプレイ装置の解像度と、検出手段により検出された解像度との比率を算出して、算出された解像度比に基づいた字幕コンテンツを、ビデオストリームと共に再生する。

Description

明細書
再生装置、 プログラム。 技術分野
本発明は、 動画データ と、 補助データから構成されるコンテンツを再 生する再生装置に関し、 動画データと同期させながら、 補助データを表 示する改良に関する。 背景技術
BD- ROMのような大容量ディ スクで供給されるコンテンツには、対応し ている解像度の違いにより、 2 つのタイプがある。 1 つは、 1920 X 1080 という解像度をもった高画質なもの、 もう 1 つは 720 x480 という解像 度をもつた標準画質のものである。
高解像度をもったコンテンツは、 HDTV Hi Definition Television)と 呼ばれるディスプレイ装置での再生に適している。 一方標準解像度をも つたコンテンツは、 SDTV(Standard Definition Television)と呼ばれる ディ スプレイ装置での再生に適している。 これらコンテンツ、 ディ スプ レイ装置のうちコンテンツ側の解像度が 1920x 1080 であり、 ディ スプ レイ装置が HDTV 型である時、 コンテンツを構成する動画、 字幕は本来 の解像度での表示が行われることになる。 この本来の解像度での再生に よりユーザは、 映画館並みの高画質で映画コンテンッを鑑賞することが できる。
従来技術では、 HDTV 型のディ スプレイ装置、 SDTV 型のディスプレイ 装置のそれぞれで表示されることを想定して、 動画だけではなく補助デ ータを作成する必要がある。 補助データが字幕である場合、 HDTV対応の ビデオス ト リームと、 HDTV対応の字幕グラフィ クスとからなるデジタル ス ト リーム、 SDTV 対応のビデオス ト リームと、 SDTV 対応の字幕グラフ イ クスとからなるデジタルス ト リームを製作し、 記録媒体に記録すると いう手間を払うことになる。 だが字幕は、 映画コンテンツが頒布される べき国 ·地域に応じた多数のものが必要であり、 各言語についての字幕 グラフィ クスを、 SDTV— HDTVのそれぞれについて作成してビデオス ト リ —ムと多重させるというのは多大な工数を要する。 そのため、 少数派の 言語については、 SDTV 対応の字幕、 HDTV 対応の字幕のうち一方のみが 製作され、 他方の製作が省略されることがある。 HDTV対応の字幕、 SDTV 対応の字幕のうちどちらかの製作が省略されれば、 たとえ動画データが HDTV対応であり、 ディ スプレイ装置が HDTV対応であっとしても、 HDTV 対応の解像度での字幕表示は行えない。 コス ト面からの要請からとはい え、 少数派の言語を用いるユーザを、 HDTV対応の流れから置き去りにす ることは、 映画会社がグローバルな市場展開を実現するうえで望ましく ない。 発明の開示
本発明の目的は、 SDTV対応の字幕グラフィクス及び HDTV対応の字幕 グラフ ィ クスのうち、 どちらかの製作が省略されたとしても、 製作され た場合と同等な字幕表示を行い得る再生装置を提供することである。 上記目的と達成するため、 本発明に係る再生装置は、 動画データにお けるフ レーム画像を表現するための解像度を検出する検出手段と、 再生 装置に接続されたディスプレイ装置の解像度と、 検出手段により検出さ れた解像度との比率が 1である場合、 動画データと多重化されて記録媒 体に記録されている補助データを、 動画データと同期させながら前記デ ィ スプレイ装置に表示する第 1表示手段と、 解像度の比率が 1でない場 合、 サーバ装置から供給された補助データを、 動画データと同期させな がら前記ディ スプレイ装置に表示する第 2表示手段とを備えている。 第 2表示手段は、 ディ スプレイ装置側の解像度と、 コンテンツ側の解像度 との比率が 1 でない場合に、 サーバ装置から供給を受けた字幕データを 表示するので、 たとえォーサリングを行う製作者がデジタルス ト リーム の製作時にあたって、 字幕グラフ ィ クスの製作を省略したとしても、 サ —バ装置による字幕データの供給さえ可能であれば、 字幕表示を実現す ることができる。
コンテンツ出荷までに字幕データの製作が間に合わなくても、 後日字 幕データを供給しさえすれば少数派言語での字幕表示を、 ユーザに行わ せることができるので、 世界中の幅広い地域に居住するユーザに対し、
HDTV対応の字幕を視聴する機会を与えることができる。 これによりコン テンッを頒布するにあたっての市場拡大を実現することができる。
またディ スプレイ装置側の解像度と、 コンテンツ側の解像度との比率 に応じて字幕を表示するので、 『コ ンテンツ一ディ スプレイ装置』 の組 合せが動的に変わるとしても、 その組合せに最適な表示を行うことがで ぎる。
尚、 上記再生装置は、 補助データの供給をサーバ装置から受けている が、 これは本発明において、 任意的に付加された事項であり、 本発明に 係る再生装置はこの技術的事項を必須とはしない。 何故なら、 動画デ一 夕が記録された記録媒体とは異なる供給源から補助データの供給が可 能であれば、 サーバ装置による供給を受けなくても上述した目的達成は 可能になるからである。 図面の簡単な説明
図 1 は、 本発明に係る再生装置の、 使用行為についての形態を示す図 である。
図 2は、 BD-R0Mの構成を示す図である。
図 3は、 AVCl ipがどのように構成されているかを模式的に示す図であ る。
図 4 ( a ) は、 プレゼンテーショ ングラフ ィ クスス ト リームの構成を 示す図である。
図 4 ( b ) は、 PESバケツ トの内部構成を示す図である。
図 5は、 様々な種別の機能セグメ ン トにて構成される論理構造を示す 図である。
図 6は、 字幕の表示位置と、 Epochとの関係'を示す図である。
図 7 ( a ) は、 0DS によるグラフィクスオブジェク トがどのように行 われるかを示す図である。
図 7 ( b ) は、 PDSのデータ構造を示す図である。 図 8 (a) は、 WDSのデータ構造を示す図である。
図 8 (b) は、 PCSのデータ構造を示す図である。
図 9.は、 字幕表示を実現するための記述例を示す図である。
図 1 0は、 DS1 における PCSの記述例を示す図である。
図 1 1は、 DS2における PCSの記述例を示す図である。
図 1 2は、 DS3における PCSの記述例を示す図である。
図 1 3は、 映画コンテンツの中身と、 字幕コンテンツの中身とを対比 して示す図である。
図 1 4は、 テキス トタイプの字幕コンテンッの一例を示す図である。 図 1 5は、 本発明に係る再生装置の内部構成を示す図である。
図 1 6は、 グラフィ クスデコーダ 9の内部構成を示す図である。
図 1 7は、 Graphics Controller3.7の処理手順を示すフローチャー トである。
図 1 8は、 映画コンテンッ再生処理の処理手順を示すフローチヤ一ト である。
図 1 9は、 テキス ト字幕表示処理の処理手順を示すフ口一チャートで ある。
図 20 (a) 〜 (c) は、 解像度比に基づくアウ トラインフォ ン トの 拡大処理を示す図である。
図 2 1 (a) 〜 (c) は、 第 2実施形態に係る制御部 29による HTML 文書の変換処理についての説明図である。
図 22 (a) 〜 (c) は、 行間調整の処理手順を示す説明図である。 発明を実施するための最良の形態
(第 1実施形態)
以降、 本発明に係る再生装置の実施形態について説明する。 尚、 説明 にあたって補助データは字幕データであるものとして説明を進める。 先 ず始めに、 本発明に係る再生装置の実施行為のうち、 使用行為について の形態を説明する。 図 1は、 本発明に係る再生装置の、 使用行為につい ての形態を示す図である。 図 1において、 本発明に係る再生装置は再生 装置 200であり、 テレビ 300、 リモコン 400と共にホ一ムシァタ 一システムを形成する。
BD-R0M 1 00は、 映画コンテンツをホームシアターシステムに供給す る目的をもつ。 映画コンテンツは、 デジタルス ト リームである AVClip と、 その管理情報である Clip情報とから構成される。 AVClipは、 映画 コンテンツの動画、 音声、 字幕を構成する実体データである。 映画コン テンッにおける字幕は、 ビッ トマップタイプの字幕であり、 グラフイ ク スス ト リームと呼ばれるエ レメ ンタ リ ス ト リームによ り構成される。 Cli 情報は、動画データにおけるフレーム画像を表現するための解像度 を示す解像度情報を内部に有する。 解像度情報に示される解像度は、 1920 X 1080(1080i) , 720 x 480 (480i , 480ρ) , 1440 1080, 1280 720, 540 x 480といった数値が代表的である。 尚、 添え字" i" は、 イ ンターレス方 式の意味であり、 添え字" P" は、 プログレッシブ方式の意味である。 再生装置 200は、 BD-R0M1 00を装填して、 BD-R0M 1 00に記録さ れている映画コンテンツの再生を行う。
デ ィ スプ レイ 装置 3 0 0 は、 HDMKHigh Definition Multimedia Interface)を介して再生装置と接続されており、 この HDMI を介して再 生装置は、 ディ スプレイ装置 300から解像度情報を取得することがで きる。 この解像度情報は、 ディスプレイ装置 300の解像度を示すもの なので、 これにより再生装置は、 ディスプレイ装置 300における表示 解像度が、 高解像度対応であるか、 標準画質対応であるかを知り得る。
リモコン 400は、 ユーザからの操作を受け付ける携帯機器である。 サーバ装置 500は、 様々な言語に じた字幕コンテンツを保持して おり、 再生装置からの要求に応じて字幕コンテンツを再生装置に供給す る。 字幕コンテンツの供給の仕方には、 ス ト リーミ ング、 一括ダウン口 ードの 2種がある。 映画コンテンツにおける字幕がビッ トマップタイプ の字幕であるのに対し、 字幕コンテンッにはビッ トマップタイプのもの, テキス トタイプのものの 2種類がある。
続いて、 映画コンテンツが BD-R0M 上にどのように記録されるかにつ いて説明する。 図 2は、 BD- ROMの構成を示す図である。 本図の第 4段目に BD- ROMを 示し、第 3段目に BD- ROM上のトラックを示す。本図のトラックは、 BD-R0M の内周から外周にかけて螺旋状に形成されている トラックを、 横方向に 引き伸ばして描画している。 このトラックは、 リードイ ン領域と、 ボリ ュ一ム領域と、 リードァゥ ト領域とからなる。本図のポリ ュ一ム領域は、 物理層、 フ ァイルシステム層、 応用層という レイヤモデルをもつ。 ディ レク ト リ構造を用いて BD- ROMの応用層フォ一マツ ト(アプリケーション フ ォーマツ ト)を表現すると、 図中の第 1段目のようになる。 本図に示 すように BD- ROMには、 ROOTディ レク ト リの下に BDMVディ レク ト リがあ り、 BDMV ディ レク ト リの配下には、 XXX.M2TS、 XXX.CLPI といったファ ィルが存在する。 フ ァイル XXX. M2TS が AVClip にあたり、 フ ァイ ル XXX.CLPIが Cli 情報にあたる。
本図に示すようなアプリケーショ ンフ ォーマツ トを作成することに より、 本発明に係る記録媒体は生産される。
続いて、 映画コ ンテンツの構成要素(AVClip— Clip 情報)のう ち、 AVClipについて説明する。
図 3は、 AVClipがどのように構成されているかを模式的に示す図であ る。
AVCli は(第 4段目)、 複数のビデオフ レーム(ピクチャ pjl,2,3)から なるビデオス ト リーム、 複数のオーディオフ レームからなるオーデ、ィォ ス ト リームを(第 1段目)、 PESパケッ ト列に変換し(第 2段目)、 更に TS パケッ トに変換し(第 3段目)、 同じく字幕系のプレゼンテーショングラ フ ィ クスス ト リーム、 対話系のィ ンタラクティ ブグラフィ クスス ト リー ム(第 7段目)を、 PESバケツ ト列に変換し(第 6段目)、 更に TSバケツ ト に変換して(第 5段目)、 これらを多重化することで構成される。
以上が AVClipに多重化されるェレメン夕リス ト リームである(インタ ラクティブグラフィ クスス ト リームについては、 本発明の主眼ではない ので説明を省略する)。
続いてプレゼンテーショ ングラフ ィ クスス ト リームについて説明す る。 このプレゼンテーショ ングラフィクスス ト リームの特徴は、 ビッ ト マップ型のグラフイ クスを、 表示のための制御情報と一体化して構成し ている点である。 図 4 ( a ) は、 プレゼンテーショングラフィ クスス ト リームの構成を示す図である。 第 1段目は、 AVClipを構成する TSパケ ッ ト列を示す。 第 2段目は、 グラフィ クスス ト リームを構成する PESパ ケッ ト列を示す。 第 2段目における PESバケツ ト列は、 第 1段目におけ る TSバケツ トのうち、 所定の PIDをもつ TSバケツ 卜からペイロードを 取り出して、 連結することにより構成される。
第 3段目は、 グラフ ィ クスス ト リームの構成を示す。 グラフ ィ クスス 卜 リ ーム は、 PCS(Presentation Composition Segment)、 WDS(Window Define Segment) 、 PDSCPalette Dif inition Segment) 、 ODS Object— Def inition—Segment)、 END (END of Display Set Segment) と呼ばれる機能セグメン トからなる。 これらの機能セグメン トのうち、 PCS は、 画面構成セグメントと呼ばれ、 WDS,PDS,ODS,END は定義セグメ ントと呼ばれる。 PESバケツ トと機能セグメントとの対応関係は、 1対 1 の関係、 1対多の関係である。
図 4 (b) は、 機能セグメ ン トを変換することで得られる PESバケツ トを示す図である。 図 4 (b) に示すように PESパケッ トは、 パケッ ト ヘッダと、 ペイロードとからなり、 このペイロードが機能セグメント実 体にあたる。 またパケッ トヘッダには、 この機能セグメントに対応する DTS、 PTSが存在する。 尚以降の説明では、 機能セグメン トが格納される PESパケ トのへッダ内に存在する DTS及ぴ PTSを、 機能セグメントの DTS及び PTSとして扱う。
これら様々な種別の機能セグメントは、 図 5のような論理構造を構築 する。 図 5は、 様々な種別の機能セグメ ン トにて構成される論理構造を 示す図である。本図は第 3段目に機能セグメントを、第 2段目に Display Setを、 第 1段目に Epochをそれぞれ示す。
第 2段目の Display Set(DSと略す)とは、 グラフ ィ クスス ト リームを 構成する複数機能セグメントのうち、 一画面分のダラフィ クスを構成す るものの集合をいう。 図中の破線は、 第 3段目の機能セグメントが、 ど の DSに帰属しているかという帰属関係を示す。 PCS-TOS- PDS- 0DS- ENDと いう一連の機能セグメン トが、 1 つの DS ¾構成していることがわかる。 再生装置は、 この DSを構成する複数機能セグメントを BD- ROMから読み 出せば、 一画面分のグラフィ クスを構成することができる。
第 1段目の Epochとは、 AVC l ipの再生時間軸上においてメモリ管理の 連続性をもっている一つの期間、 及び、 この期間に割り当てられたデ一 タ群をいう。 ここで想定しているメモリとは、 一画面分のグラフィ クス を格納しておくためのグラフィ クスプレーン、 伸長された状態のクラフ ィ クスデータを格納しておくためのオブジェク トノ ッファである。 これ らについてのメモリ管理に、 連続性があるというのは、 この Epochにあ たる期間を通じてこれらグラフィ クスプレーン及びオブジェク トバッ ファのフラッシュは発生せず、 グラフィ ックスプレーン内のある決めら れた矩形領域内でのみ、 グラフィクスの消去及び再描画が行われること をいう(※ここでフラッシュとは、 プレーン及ぴバッファの格納内容を 全部クリアしてしまうことである。 )。 この矩形領域の縦横の大きさ及 び位置は、 Epochにあたる期間において、終始固定されている。図 6は、 字幕の表示位置と、 Epoch との関係を示す図である。 本図では、 動画の 各ビクチャの絵柄に応じて字幕の位置を変更するという配慮がなされ ている。つまり 5つの字幕「本当は」「ゥソだった」「あなたが」「ずつと」「す きだった」のうち、 3つの字幕「本当は」「ゥソだった」「あなたが」は画面の 下側に、 「ずっと」「すきだった」は画面の上側に配置されている。 これは 画面の見易さを考え、 画面中の余白にあたる位置に字幕を配置すること を意図している。 か,かる時間的な変動がある場合、 AVC l i pの再生時間軸 において、 下側の余白に字幕が出現している期間が 1つの Epochl、 上側 の余白に字幕が出現している期間が別の Epoch2 になる。 これら 2 つの Epochは、 それぞれ独自の字幕の描画領域をもつことになる。 Epochlで は、 画面の下側の余白が字幕の描画領域(wi ndowl)になる。 一方 Epoch2 では、 画面の上側の余白が字幕の描画領域(wi ndow2)になる。 これらの Epochl , 2 において、 バッファ 'プレーンにおけるメモリ管理の連続性は 保証されているので、 上述した余白での字幕表示はシームレスに行われ る。 以上が Epochについての説明である。 続いて Di sp lay Setについて 説明する。
図 5における破線 hkl , 2は、第 2段目の機能セグメントが、どの Epoch に帰属しているかという帰属関係を示す。 Epoch Start, Acquisition Point, Normal Caseという一連の DSは、 第 1段目の Epochを構成してい ることがわかる o 『Epoch Start:』、 『Acquisition Point』、 『Normal Case』 は、 DS の類型である。 本図における Acquisition Point. Normal Case の順序は、 一例にすぎず、 どちらが先であってもよい。
『EpochStart』 は、" 新表示" という表示効果をもたらす DSであり、 新たな Epochの開始を示す。 そのため Epoch Startは、 次の画面合成に 必要な全ての機能セグメン トを含んでいる。 Epoch Start は、 映画作品 におけるチャプター等、 頭出しがなされることが判明している位置に配 置される。
『Acquisition Point』 は、" 表示リフ レッシュ" という表示効果をも たらす Display Setであり、先行する Epoch Startと全く同じ Display Set をいう。 Acquisition Point たる DS は、 Epochの開始時点ではないが、 次の画面合成に必要な全ての機能セグメ ン ト を含んでいるので、 Acquisition Pointたる DSから頭出しを行えば、 グラフィ ックス表示を 確実に実現することができる。
『Normal CaseJ は、" 表示アップデート" という表示効果をもたらす DSであり、 前の画面合成からの差分のみを含む。 例えば、 ある DSvの字 幕は、先行する DSuと同じ内容であるが、画面構成が、 この先行する DSu とは異なる場合、 PCS のみの DSv、 又は、 PCS のみの DSv を設けてこの DSvを Normal Caseの DSにする。 こうすれば、 重複する 0DSを設ける必 要はなくなるので、 BD-R0M における容量削減に寄与することができる。 一方、 Normal Caseの DSは、 差分にすぎないので、 Normal Case単独で は画面構成は行えない。
続いて Definition Segment (0DS, WDS, PDS)について説明する。
『0bject— Definition_Segment』 は、 ビッ トマップ型のグラフィ クス であるグラフィクスォブジヱク トを定義する機能セグメントである。 こ のグラフィ クスォブジェク トについて以下説明する。 BD- ROMに記録され ている AVClip は、 ハイ ビジョン並みの高画質をセールスポイントにし ているため、 グラフィ クスオブジェク トの解像度も、 1920 x 1080画素と いう高精細な大きさに設定されている。 1920 X 1080という解像度がある ので、 BD-R0Mでは、 劇場上映用の字幕の字体、 つまり、 手書きの味わい 深い字体の字幕表示を鮮やかに再現できる。 画素の色にあたっては、 一 画素当たりのイ ンデックス値(赤色差成分(Cr値),青色差成分(Cb値),輝 度成分 Y値,透明度(T値))のビッ ト長が 8ビッ トになっており、 これに よりフルカラーの 16,777,216色から任意の 256色を選んで画素の色と して設定することができる。 グラフィ クスォブジェク トによる字幕は、 透明色の背景に、 文字列を配置することで描画される。
0DS によるグラフィ クスオブジェク トの定義は、 図 7 (a) に示すよ うなデータ構造をもってなされる。 0DS は、 図 7 ( a ) に示すように自 身が 0DSであることを示す 『 segment— type』 と、 0DSのデータ長を示す 『segment— length』 と、 Epochにおいてこの 0DSに対応するグラフイ ク スオブジェク トを一意に識別する 『object— id』 と、 Epochにおける 0DS の ノ 一 ジ ョ ン を 示 す Γ object— version— number 』 と 、 riast_insequence_f lagj と、 グラフィ クスオブジェク トの一部又は全 部である連続バイ ト長データ robject_data_fragmentJ とからなる。 以 上が 0DSの説明である。
『Palette Dif inition Segment (PDS)』 は、 色変換用のパレッ トを定 義する情報である。 PDS のデータ構造を図 7 (b) に示す。 図 7 (b) に示すように PDSは、 自身が PDSであることを示す 『segment一 type』、 PDSのデータ長を示す 『segment_length』、 この PDSに含まれるパレッ ト を一意に識別する 『pallet— id』、 Epochにおける Epochの PDSのパージ ヨ ンを示す 『pallet— version— number』、 各エン ト リ 一についての情報 『palleし entry』 からなる。 『pal let_entry』 は、 各エン ト リーにおけ る赤色差成分(Cr値),青色差成分(Cb値),輝度成分 Y値,透明度(T値)を 示す。
続いて WDSについて説明する。
『window— definition— segment』 は、 グラフィ ックスプレーンの矩形 領域を定義するための機能セグメントである。 Epoch では、 クリア及び 再描画が、 グラフィ ックスプレーンにおけるある矩形領域内で行われて いる場合のみ、 メモリ管理に連続性が生ずることは既に述べている。 こ のグラフィ ックスプレーンにおける矩形領域は" window" と呼ばれ、 こ の WDSで定義される。 図 8 (a) は、 WDSのデータ構造を示す図である。 本図に示すように WDSは、 グラフィ ックスプレーンにおいてゥイ ンドウ を一意に識別する 『window_id』 と、 グラフィ ックスプレーンにおける 左上画素の水平位置を示す 『window— horizontal— position』 と、 グラフ ィ ッ ク ス プ レ ー ン に お け る 左 上 画 素 の 垂 直 位 置 を 示 す 『window— vertical— position』 と、 グラフィ ックスプレーンにおけるゥ イ ンドウの横幅を示す 『window一 width』 と、 グラフィ ックスプレーンに おける縦幅を示す 『window_height』 とを用いて表現される。
以上が 0DS、 PDS、 WDS, END についての説明である。 続いて PCS につ いて説明する。
PCS は、 対話的な画面を構成する機能セグメントである。 PCS は、 図 8 (b) に示すデータ構造で構成される。 本図に示すように PCS は、 『segment— type』 と、 『segment— length』 と、『composi ti on— numberj と、 『composi tion— state』 と、『pal let— update— flagj と、 palLet— id』 と、 『Composition— Object (1)〜(! n)』 とから構成される。
『compositioii_number』は、 0から 15までの数値を用いて Display Set におけるグラフィ クスアップデートを識別する。
『composition_state』 は、 本 PCSから始まる Display Setが、 Normal Caseであるか、 Acquisition Pointでめる力、、 Epoch Startでめる力 を. 示す。
『pallet_update_flag』は、本 PCSにおいて PalletOnly Displey Update がなされているかどうかを示す。
『pallet_id』 は、 Pal letOnly Displey Updateに用いられるべきパレ ッ トを示す。
『Composition— Object(l) · · · (n)』 は、 この PCSが属する Display Set 内の、 個々のウィ ン ドウをどのように制御するかを示す情報である。 図 8 (b) の破線 wdl は、 任意の Composition_Object(i)の内部構成をク ロ ー ズ ア ッ プ し て い る 。 こ の 破 線 wdl に 示 す よ う に 、 Composition— Object(i) は 、 『 object— id 』 、 『 window— id 』 ゝ Γ object— cropped— flag 』 、 『 object— horizontal— position 』 ゝ 『object一 vertical一 position』、 『cropping— rectangle 情報 (1) (2)
(n)』 からなる。
『object_id』 は、 Composition_Object(i)に対応するウィ ンドウ内に 存在する 0DSの識別子を示す。
『window— id』 は、 本 PCS において、 グラフィ クスオブジェク トに割 り当てられるべきウィ ンドウを示す。 1 つのウィ ンドウには最大 2つの グラフィクスオブジェク トが割り当てられる。
『object— cropped_flag』 は、 ォブジヱク ト ノ ッファにおいてクロッ プされたグラフィ クスォブジェク トを表示するか、 グラフィクスォブジ ヱク トを非表示とするかを切り換えるフラグである。" 1" と設定された 場合、 オブジェク トバッファにおいてクロップされたグラフィ クスォブ ジェタ トが表示され、" 0" と設定された場合、 グラフィ クスォプジヱク トは非表示となる。
『object— horizontal— positionj は、 グラフィ ックスプレーンにおけ るグラフイ クスォブジヱク トの左上画素の水平位置を示す。
『object_vertical_position』 は、 グラフィ ックスプレーンにおける 左上画素の垂直位置を示す。
『 cropping— rectangle 情 報 (1) (2) (n) 』 は 、
『object— cropped_flag』 が 1 に設定されている場合に有効となる情報 要素である。 破線 wd2は、 任意の cropping— rectangle情報(i)の内部構 成 を ク ロ ー ズ ア ッ プ し て い る 。 こ の 破 線 に 示 す よ う に cropping— rectangle 情 報 (i) は 、
Γ object— cropping—horizontal— position 』 、
『 object— cropping— vertical—address』、 『 object— cropping—width』、 『object— cropping— heightj 力、らなる。
『object— cropping—horizontal— positioiU は、 グラフィ ックスプレ ーンにおけるク口ップ矩形の左上画素の水平位置を示す。 クロップ矩形 は、 グラフイ クスォプジェク トの一部を切り出すための枠である。
『object— cropping— vertical— address』 は、 グラフィ ックスプレーン におけるク口ップ矩形の左上画素の垂直位置を示す。
『object— cropping— width』 は、 グラフィ ックスプレーンにおけるク 口ップ矩形の横幅を示す。
『object— cropping_height』 は、 グラフィ ックスプレーンにおけるク 口ップ矩形の縦幅を示す。
以上が PCSのデータ構造である。 続いて PCSの具体的な記述について 説明する。 この具体例は、 図 6に示した字幕の表示、 つまり動画の再生 進行に伴い、三回のグラフィ ックスプレーンへの書き込みで『ほんとは』 『ゥソだった』 『あなたが』 というように徐々に表示させるというもの である。 図 9は、 かかる字幕表示を実現するための記述例である。 本図 における Epochは、 DS1 (Epoch Start). DS2(Normal Case), DS3(Normal Case)を有する。 DS1 は、 字幕の表示枠となる window を定義する WDS、 台詞 『ほんとは ゥソだった あなたが』 を表す 0DS、 1 つ目の PCS を 備える。 DS2(Normal Case)は、 2つ目の PCSを有する。 DS3(Normal Case) は 3つ目の PCSを有する。
次に個々の PCS をどのように記述するかについて説明する。 Display Setに属する TOS、 PCSの記述例を図 1 0〜図 1 2に示す。 図 1 0は、 DS1 における PCSの記述例を示す図である。
図 1 0 に お い て 、 WDS の window_horizontal_position 、 window— vertical—positionは、 グラフィ ックスプレーンにおけるウイ ン ドゥの左上座標 LP1を、 window_width, windo _ eig tは、 ウィ ンドウの 表示枠の横幅、 縦幅を示す。
図 1 0 に お け る ク ロ ッ プ 情 報 の object_cropping— horizontal— posi t ion, object— cropping— vertical— po sitionは、ォブジ ク トノ ッファにおけるグラフィ クスォブジヱク トの 左上座標を原点とした座標系においてクロップ範囲の基準 ST1を示して い る 。 そ し て 基 ^; 力、 ら object— cropping width 、 object— croppingjieight に示される範囲(図中の太枠部分)がクロップ 範囲になる。 クロップされたグラフィ クスオブジェク トは、 グラフイ ツ ク ス プ レ ー ン の 座 標 系 に お い て object— horizontal— position, object— vertical— position を基準点 (左 上)とした破線の範囲 cplに配置される。 こうすることにより、『本当は』 がグラフィ ックスプレーンにおけるウィ ンドウ内に書き込まれる。 これ により字幕 『本当は』 は動画像と合成され表示される。
図 1 1は、 DS2における PCSの記述例を示す図である。 本図における WDS の記述は、 図 1 0と同じなので説明を省略する。 クロップ情報の記 述 は 、 図 1 0 と 異 な る 。 図 1 1 に お け る ク ロ ッ プ情報 の object— cropping— horizontal— posi t ion, object— cropping— vertical— po sition,は、 オブジェク トバッファ上の字幕 『本当はゥソだった。 あな た が 』 の う ち 、 『 ゥ ソ だ っ た 』 の 左 上 座 標 を 示 し 、 object— cropping— height, object— cropping— width は、 uゥソにった』 の 横幅、 縦幅を示す。 こうすることにより、 『ゥソだった』 がグラフイ ツ タスプレーンにおけるウイ ン ドウ内に書き込まれる。 これにより字幕 『ゥソだった』 は動画像と合成され表示される。
図 1 2は、 DS3における PCSの記述例を示す図である。 本図における WDS の記述は、 図 1 0と同じなので説明を省略する。 クロップ情報の記 述 は 、 図 1 0 と 異 な る 。 図 1 2 に お け る ク ロ ッ プ情報 の object— cropping— horizontal— posi t ion, object— cropping— vertical— po sition,は、 オブジェク トバッファ上の字幕 『本当はゥソだった。 あな た が 』 の う ち 、 『 あ な た が 』 の 左 上 座 標 を 示 し 、 object— cropping— height, object— cropping— width は、 ll ¾なにカ』 の横 幅、 縦幅を示す。 こうすることにより、 『あなたが』 がグラフィ ックス プレーンにおけるウ ィ ン ドウ内に書き込まれる。 これにより字幕 『あな たが』 は動画像と合成され表示される。
DS1.2.3の PCSを以上のように記述することで、 字幕の表示効果を実 現することができる。 このように PCS の記述によ り Fadeln/Out や Wipeln/Out, Scroll といった表示効果を実現できることが、 本発明に係 る PCSの利点である。
以上説明した機能セグメ ン ト には、 0DS、 PCSには DTS、 PTSが付加さ れている。
0DSの DTSは、 0DSのデコードを開始すべき時間を 90KHzの時間精度 で示しており、 0DSの PTSはデコードを終了すべき時刻を示す。
PCSの DTS は、 PCSが再生装置上のバッファにロードすべきタィ ミ ン グを示す。
PCS の PTS は、 PCSを用いた画面のアツプデートを実行するタィ ミ ン グを示す。
以上説明したように、 ビッ トマップタイプの字幕を構成するグラフィ クスス ト リームは、 字幕を表示するための制御情報や、 再生時間軸にお ける処理タィ ミ ングを示すタィムスタンプを有しているので、 再生装置 は、 このグラフィ クスス ト リームのみを処理することにより、 字幕表示 を実現することができる。 以上が AVClip についての説明である。 引き 続き Clip情報について説明する。
Cli 情報(XXX.CLPI)は、 個々の AVClipについての管理情報である。 Clip情報(XXX.CLPI)は、 ビデオス ト リーム、 オーディォス ト リームにつ いての「属性情報」と、頭出し時のリファ レンステーブルである「EP_map」 とからなる。
属性情報(Attribute)は.、 ビデオス ト リ ームについての属性情報 (Video属性情報)、 属性情報数(Number)、 AVC1 ipに多重化される複数ォ 一ディォス ト リームのそれぞれについての属性情報(Audio 属性情報 #1 ~#m)からなる。 ビデオ属性情報は、 ビデオス ト リームがどのような圧 縮方式で圧縮されたか(Coding)、 ビデオス ト リームを構成する個々のピ クチャデータの解像度がどれだけであるか(Resolution) アスペク ト比 はどれだけであるか(Aspect)、 フ レーム レー ト はどれだけであるか (Framerate)を示す。
一方、 オーディオス ト リームについての属性情報(Audio 属性情報 #1〜 #m)は、 そのオーディオス ト リ一ムがどのような圧縮方式で圧縮された か(Coding)、 そのオーディオス ト リ ームのチャネル番号が何であるか (Cli. )、 何という言語に対応しているか(Lang)、 サンプリ ング周波数が どれだけであるかを示す。
上述した C l ip情報の Reso l ut i on に、 対応する AVCl ip におけるビデ ォス ト リ一ムの解像度が、 示されることになる。
以上が Cl i p 情報についての説明である。 続いてサーバ装置により供 給される字幕コンテンツについて説明する。 先ずビッ トマップタイプの 字幕コンテンッについて説明する。
ビッ トマップタィプの字幕コンテンツは、 先に示した AVC l ip を構成 する複数エレメンタリス ト リームのうち、 グラフィ クスス ト リームのみ から構成される。 BD-R0Mにおけるグラフィ クスス ト リーム同様、 字幕コ ンテンッを構成するグラフィ クスス ト リームは、 PCS、 TOS、 PDS、 0DS、 ENDという機能セグメントからなり、 各機能セグメントには PTS、 DTSが 付加されている。 これらのタイムスタンプにより字幕コ ンテンツは、 BD - ROM側のビデオス ト リームと、 同期表示されることになる。
図 1 3は、 映画コンテンツの中身と、 字幕コンテンツの中身とを対比 して示す図である。 図 1 3の上段は、 映画コンテンツ側のビデオス ト リ ーム及びグラフィ クスス ト リームであり、 下段は字幕コンテンツ側のグ ラフィ クスス ト リ一 Λである。本図の上段における G0P及ぴ Di spl ay Set は、 それぞれ AV ス ト リームの再生開始から 1 分後、 1 分 40秒後、 2分 後に再生されるものである。
本図の下段における Di spl ay Set も、 それぞれ AV ス ト リ一ムの再生 開始から 1分後, 1分 40秒後、 2分後に再生されるものである。 かかる 再生タイ ミ ングの調整は、 Di sp lay Setに属する I CS、 TOS、 PDS、 0DSに 付された PTS、 DTS に、 所望の値を設定することでなされる。 つまり字 幕コンテンツにおける機能セグメントにも、 タイムスタンプを付するこ とにより、 HDにおける D i splay Setを、 高い時間精度で、 動画と同期さ せるのである。 サーバ装置においてこのビッ トマップタイプの字幕コン テンッは、 様々な解像度に応じたものが用意されている。 この字幕コン テンッを再生装置からの要求に応じて、 サーバ装置 5 0 0からダウン口 —ドすることで、 ディスプレイ装置一コンテンツの組合せがどのような ものであっても、 制御部 2 0 0は適切な解像度での字幕表示を行うこと ができる。
以上がビッ トマップタイプの字幕コンテンッについての説明である。 続いてテキス トタイプの字幕コンテンッについて説明する。 テキス ト タイプの字幕コンテンツとは、 字幕表示のために必要な情報を、 テキス トデータに対応させることで構成される字幕である。 テキス トは、 ビッ トマップ字幕に対してデータ量が少なく、 比較的転送レートが低い回線 でも短時間で転送できる。 このため回線速度に制約がある場合は、 テキ ス ト字幕の使用が望ましい。
テキス トタイプの字幕コンテンッの一例を図 1 4に示す。 本図に示す ようにテキス ト タイプの字幕コンテンツは、 字幕が存在するチャプター を示すチャプター番号と、 字幕の表示開始時刻を示す 「開始タイムコー ド」 と、 字幕の表示終了時刻を示す 「終了タイムコード」 と、 字幕の 「表 示色」 と、 字幕の 「サイズ」 と、 字幕の 「表示位置」 をテキス トデータ に対応づけることで構成される。 この字幕コンテンッにおいて「サイズ」 は、 SDTV ' HDTV のどちらかで表示されることを想定して大きさが定めら れている。
このテキス ト字幕の展開に用いられるフォーマッ トは、 アウ トライン フォン ト (ベクターフォ ン トともいう)であり、 輪郭、 端点により表現さ れているため、 テキス ト字幕の 「サイズ」 指定に応じて輪郭をスムーズ に拡大できる。 更に本再生装置はディ スプレイ装置一コンテンツの解像 度比が 1でない場合、 ディスプレイ装置側の解像度に合わせてァゥ トラ イ ンフ ォ ン トの拡大'縮小を行い、 開始タイ ムコード、 終了タイ ムコー ドに基づき字幕表示を行う。 尚、 本明細書における拡大とは、 本来のデ 一夕を、 より数が多い画素で表現するこという。 また本明細書における 縮小とは、 本来のデータを、 より少ない画素で表現するこという。
拡大'縮小がなされたビッ トマップを表示するのではないので、 この 字幕コンテンツを用いれば、 ジャギーゃ文字潰れがないきれいな字幕表 示を行うことができる。
尚テキス トデータの表示位置については、 図 1 0に示したような WDS の window— horizontal— posi tion、 window— vertical— posi tionに基づき、 定めても良い。 これらの表示位置は、 グラフィクスス ト リームの製作時 に綿密に規定されているので、 これらを利用することで、 テキス ト字幕 の見易さを維持することができる。 以上が字幕コンテンツの説明であ る。 続いて本発明に係る再生装置の実施形態について説明する。 図 1 5 は、 本発明に係る再生装置の内部構成を示す図である。 本発明に係る再 生装置は、 本図に示す内部に基づき、 工業的.に生産される。 本発明に係 る再生装置は、 主としてシステム LSI と、 ドライブ装置という 2つのパ ーッからなり、 これらのパーツを装置のキヤビネッ ト及び基板に実装す ることで工業的に生産することができる。 システム LSIは、 再生装置の 機能を果たす様々な処理部を集積した集積回路である。 こう して生産さ れる再生装置は、 BD ドライブ 1、 リードバッファ 2、 デマルチプレクサ 3、 ビデオデコーダ 4、 ビデオプレーン 5、 Background stillプレーン 6、 合成部 7、 スィ ッ チ 8、 P- Graphics デコーダ 9、 Presentation Graphics プレーン 1 0、 合成部 1 1 、 フ ォ ン トゼネ レータ 1 2、 ト Graphics デコ ーダ 1 3、 ス ィ ッ チ 1 4、 Enhanced Interactive Graphics プレーン 1 5、 合成部 1 6、 HDD 1 7, リードバッフ ァ 1 8、 デマルチプレクサ 1 9、 オーディオデコーダ 20、 スィ ッチ 2 1、 スィ ツチ 22、 静的シナリオメモリ 23、 動的シナリオメモリ 24、 CLUT部 26、 CLUT部 27、 スィ ッチ 28、 制御部 29から構成される。
BD-R0M ドライブ 1は、 BD- ROM のローディ ング/イジヱク トを行い、 BD-R0Mに対するアクセスを実行する。
リ一ドバッフ ァ 2は、 FIFO メモリであり、 BD- ROM から読み出された TSバケツ トが先入れ先出し式に格納される。
デマルチプレクサ(De-MUX) 3は、 リードパッファ 2から TS パケッ ト を取り出して、 TSバケツ トを PESバケツ トに変換する。 そして変換によ り得られた PESバケツ トのうち、 所望のものをビデオデコーダ 4、 ォー ディォデコーダ 20、 P- Graphics デコーダ 9、 I-Graphics デコーダ 1 3のどれかに出力する。
'ビデオデコーダ 4は、 デマルチプレクサ 3から出力された複数 PESパ ケッ トを復号して非圧縮形式のピクチャを得てビデオプレーン 5に書 き込む。
ビデオプレーン 5は、 非圧縮形式のピクチャを格納しておくためのプ レーンである。 プレーンとは、 再生装置において一画面分の画素データ を格納しておくためのメモリ領域である。 再生装置に複数のプレーンを 設けておき、 これらプレーンの格納内容を画素毎に加算して、 映像出力 を行えば、 複数の映像内容を合成させた上で映像出力を行うことができ る。 ビデオプレーン 5における解像度は 1920 x 1080 であり、 このビデ ォプレーン 5に格納されたピクチャデータは、 16ビッ トの YUV値で表現 された画素データにより構成される。
Background stillプレーン 6は、 背景画として用いるべき静止画を格 納しておくプレーンである。 本プレーンにおける解像度は 1920 x 1080 であり、 この Background still プレーン 6に格納されたピクチャデー 夕は、 16ビッ トの YUV値で表現された画素データにより構成される。 合成部 7は、 ビデオプレーン 5に格納されている非圧縮状態のピクチ ャデータを、 Background stillプレーン 6に格納されている静止画と合 成する。
スィ ッチ 8は、 ビデオプレーン 5における非圧縮状態のピクチャデ一 夕をそのまま出力するか、 Background stillプレーン 6の格納内容と合 成して出力するかを切り換えるスィ ッチである。
P-Graphics デコーダ 9は、 BD- R0M、 HDD 1 7から読み出されたグラフ イ クスス ト リームをデコードして、 ラスタグラフィ クスを Presentation Graphicsプレーン 1 0に書き込む。 グラフィ クスス ト リームのデコード により、 字幕が画面上に現れることになる。
Presentation Graphics プレーン 1 0は、 一画面分の領域をもったメ モリであり、 一画面分のラスタグラフィ クスを格納することができる。 本プ レー ンにおける解像度は ί920 X 1080 であ り 、 Presentation Graphicsプレーン 1 0中のラスタグラフ.イ クスの各画素は 8ビッ トのィ ンデックスカラーで表現される。 CLUT(Color Lookup Table)を用いてか かるインデックスカラ一を変換することにより、 Presentation Graphics プレーン 1 0に格納されたラスタグラフイ クスは、 表示に供される。 合成部 1 1は、 非圧縮状態のピクチャデータ(i)、 Background still プレーン 6の格納内容が合成されたピクチャデータ(ii)の何れかを、 Presentation Graphicsプレーン 1 0の格納内容と合成する。
フ ォ ン トゼネレータ 1 2は、 アウ トラインフ ォ ン トを具備しており、 このアウ トライ ンフォン トを用いて制御部 29が取得したテキス ト コ ー ドを展開する こ と で文字描画を行う。 こ の展開は、 Enhanced Interactive Graphicsプレーン 1 5上でなされる。
I-Grap .ics デコーダ 1 3は、 BD-R0M、 HDD 1 7から読み出されたイ ン タラタティブグラフィクスス ト リームをデコードして、 ラスタグラフィ クスを Enhanced Interactive Graphicsプレーン 1 5に書き込む。 ィン タラクティブグラフ ィ クスス ト リームのデコードにより、 対話画面を構 成するボタンが画面上に現れることになる。
スィ ッチ 1 4は、 フォ ン トゼネ レータ 1 2が生成したフ オン ト列及び 制御部 29がダイ レク トに描画した描画内容、 I- Graphicsデコーダ 1 3 が生成したボタンの何れかを選択的に Enhanced Interactive Graphics プレーン 1 5に投入するスィ ツチである。
Enhanced Interactive Graphics プレーン 1 5は、 横 1920 X縦 1080 の解像度、横 960 X縦 540の解像度に対応しうる表示用プレーンである。 合成部 1 6は、 非圧縮状態のピクチャデータ(i)、 Background still プレーン 6の格納内容が合成されたピクチャデータ(ii)、 Presentation Graphicsプレーン 1 0及ぴ Background still プレーン 6の格納内容と 合成されたピクチャデータ(iii)を Enhanced Interactive Graphics プ レーン 1 5の格納内容と合成する。
HDD 1 7は、 サーバ装置からのダウンロードにより取得した字幕コン テンッを格納しておくための内部媒体である。
リードバッファ 1 8は、 FIFO メモリであり、 HDD 1 7から読み出され た TSパケッ トが先入れ先出し式に格納される。
デマルチプレクサ(De-MUX) 1 9は、 リードバッファ 1 8から TS パケ ッ トを取り出して、 TSバケツ トを PESバケツ トに変換する。 そして変換 により得られた PESバケツ トのうち、 所望のものをオーディオデコーダ 2 0、 P-Grap icsデコーダ 9のどれかに出力する。
オーディ オデコーダ 2 0は、 デマルチプレクサ 1 9から出力された PESバケツ トを復号して、 非圧縮形式のオーディォデータを出力する。
スィ ッチ 2 1は、 オーディオデコーダ 2 0への入力源を切り換えるた めのスィ ツチであり、 本スィ ツチによりオーディオデコーダ 2 0への入 力は、 BD-R0M側、 HDD側に切り換わる。
スィ ッチ 2 2は、 P-Graphi csデコーダ 9への入力源を切り換えるスィ ツチであり、 本スィッチ 2 2により HDD 1 7から読み出されたプレゼン テーシヨングラフィクスス ト リーム、 BD-R0Mから読み出されたプレゼン テ一シヨングラフィクスス ト リームを選択的に P-Graphi cs デコーダ 9 に投入することができる。
静的シナリオメモリ 2 3は、 カ レントの CI ip 情報を格納しておくた めのメモリである。 カ レント C l i p情報とは、 BD-R0Mに記録されている 複数 C l ip情報のうち、 現在処理対象になっているものをいう。
通信部 2 4は、 制御部 2 9からの指示に応じてサーバ装置 5 0 0をァ クセスし、 当該サーバ装置 5 0 0から字幕コンテンッをダウンロードす る。
スィ ッチ 2 5は、 BD- ROM及ぴ HDD 1 7から読み出された各種データを、 リードバッファ 2、 リードバッファ 1 8、 静的シナリオメモリ 2 3、 動 的シナリオメモリ 2 4のどれかに選択的に投入するスィ ッチである。
CLUT部 2 6は、 ビデオプレーン 5に格納されたラスタグラフイ クスに おけるインデックスカラーを、 PDS に示される Y,Cr, Cb値に基づき変換 する。
111"部2 7は、 Enhanced I nteract ive Graphi csプレーン 1 5に格納 されたラスタグラフィ クスにおけるインデックスカラーを、 プレゼンテ ーショングラフィ クスス ト リームに含まれる PDSに示される Y,Cr, Cb値 に基づき変換する。
スィ ツチ 2 8は、 CLUT部 2 7による変換をスルー出力するよ 切り換 えるスィ ッチである。 制御部 29は、 HDMIを介してディ スプレイ装置側の解像度を示す解像 度情報を取得する。そしてこれを Clip情報における解像度と比較して、 解像度比を算出する。 解像度比が 1.0であるなら、 AVClipに多重されて いるグラフィ クスス ト リームをそのまま表示する。 もし解像度比が 1で ないなら、 HDD1 7に記録されている字幕コンテンツを表示する。
テキス トタイプの字幕コンテンツを表示させる場合、 テキス トゃフォ ン ト種をフォントゼネレー夕 1 2に与えることにより(Text and Font), フ ォ ン ト ゼネ レ ー タ 1 2 に フ ォ ン ト 列 を生成さ せ、 Enhanced Interactive Graphics プレーン 1 5に配置させる。 こう して Enhanced InteractiveGraphicsプレーン 1 5の描画がなされれば、 ビデオプレ一 ン 5の格納内容の拡大 '縮小を命じた上で、 Enhanced Interactive Graphics プレーン 1 5の格納内容を合成部 1 6に合成させる(Display layout ControDo
続いて図 1 6を参照しながら、 P-Graphicsデコーダ 9の内部構成につ いて説明する。 図 1 6に示すようにグラフィ クスデコーダ 9は、 Coded Data Buffer 33、 周辺回路 33 a、 Stream Graphics Processor 34、 Object Buffer 35、 Composition Buffer 36、 Graphics Control ler 3 7から構成される。
Coded Data Buffer 33は、 機能セグメントが DTS、 PTSと共に格納さ れるバッフ ァである。
周辺回路 3 3 a は、 Coded Data Buffer 3 3 - Stream Graphics Processor34間の転送、 Coded Data Buffer33 -Composition Buffer 36間の転送を実現するワイャロジックである。 この転送処理において 現在時点が 0DS の DTS に示される時刻になれば、 0DS を、 Coded Data Buffer33から Stream Graphics Processor34に転送する。 また現在 時刻が PCS、PDSの DTSに示される時刻になれば、 PCS、PDSを Composition Buffer 36に転送するという処理を行う。
Stream Graphics Processor 34は、 0DSをデコードして、 デコードに より得られたイ ンデッ クスカラ一からなる非圧縮状態のビッ トマップ をグラフィクスォブジヱク トとして Object Buffer 35に書き込む。 Object Buffer 35は、 Stream Graphics Processor 34のデコードに より得られたダラフィ クスオブジェク トが配置される。
Composition Buffer36は、 PCS、 PDSが配置されるメモリである。 Graphics Controller 3 7は、 Composition Buffer 3 6に配置された PCS を解読して、 PCS に基づく制御をする。 この制御の実行タイ ミ ング は、 PCSに付加された PTSの値に基づく。 以上が P- Graphicsデコーダ 9 の内部構成についての説明である。
こ の Graphics Controller 3 7 に つ い て説 明す る 。 Graphics Controllers 7は、 図 1 7に示すような処理手順を行うフローチャー ト である。
ステップ S 1は、 本フローチャー トのメインルーチンであり、 ステツ プ S 1に規定した事象の成立を待つ。
ステップ S 1は、 現在の再生時点が PCSの DTS時刻になっているか否 かの判定であり、 もしなつていれば、 ステップ S 1〜ステップ S 1 3の 処理を行う。
ステップ S 1は、 PCSの composition_stateが、 Epoch— Start である か否かの判定であり、 もし Epoch Startであるなら、 ステップ S 6にお いてグラフィ クスプレーン 8を全クリアする。 それ以外であるなら、 ス テ ツ プ S 7 に お い て WDS の windowjiorizontal— position、 indow_vertival_posi tion window_width、 window— height に示される windowをクリアする。
ステップ S 8は、 ステップ S 6又はステップ S 7でのクリァ後の実行 されるステップであり、 任意の ODSx の PTS時刻が既に経過しているか 否かの判定である。 つまり、 グラフィ クスプレーン 8全体のクリアにあ たっては、 そのクリア時間に長時間を費するので、 ある ODS(ODSx)のデ コードが既に完了していることもある。 ステップ S 8はその可能性を検 証している。 もし経過していないなら、 メインルーチンにリターンする。 どれかの 0DSのデコード時刻を経過しているなら、 ステップ S 9〜ステ ップ S 1 1を実行する。 ステップ S 9は、 object_crop_flagが 0を示し ているか否かの判定であり、 もし 0を示しているなら、 グラフィ クスォ ブジェク トを非表示とする(ステップ S 1 0)。
もし 0を示していないなら、 object— cropping— horizontal— posi tioiu object— cropping— vertival— position 、 cropping— width 、 cropping_height に基づきク口ップされたグラフィ クスオブジェク トを、 グ ラ フ ィ ク ス プ レ ー ン 8 の window に お い て object_cropping_horizont l_posi tion, obj ect_crop mg_verti val_po sitionに示される位置に書き込む(ステツプ S 1 1 )。以上の処理により、 ウィ ン ドウに 1つ以上のグラフィ クスォブジヱク トが描かれることにな る。
ステップ S 1 2は、 別の ODSyの PTS時刻が経過しているか否かの判 定である。 ODSx をグラフィ クスプレーン 8に書き込んでいる際、 別の 0DSのデコードが既に完了していれば、 この ODSyを ODSxにして(ステツ プ S 1 3)、 ステップ S 9に移行する。 これにより、 別の 0DS に対して も、 ステップ S 9〜S 5 1の処理が繰り返し行われる。 '
図 1 8は、 映画コンテンッ再生処理の処理手順を示すフローチャート である。 ステップ S 2 1において Clip 情報における解像度を参照し、 ステップ S 22において HDMIを介して、接続されているディ スプレイ装 置から解像度を取得する。
ステップ S 23では、 映画コンテンツ-ディ スプレイ装置間の解像度 比を算出する。 ステップ S 24において AVCUp に多重されているビデ ォス ト リームをビデオデコーダ 4に投入することで動画再生を開始さ せた後、ステップ S 25において解像度比が 1であるか否かを判定する。 もし 1であればステップ S 26においてスィ ッチ 22、 スィ ッチ 25を 切り換えて AVClipに多重されているグラフイ クスス ト リームを CLUT部 9に投入することで字幕表示を実行する。
ステップ S 27では HD に字幕コンテンッが存在するか否かの判定を 行う。 もし存在すればステップ S 28をスキップしてステップ S 29に 移行するが、 存在すればステップ S 28においてサーバ装置から HD に 字幕コンテンツをダウンロー ドする。
ステップ S 29では、 字幕コンテンツがテキス トタイプであるか、 ビ ッ トマップタイプであるかの判定を行う。 もしビッ トマップタイプであ れば、 ステップ S 30においてスィ ッチ 22、 スィ ッチ 25を切り換え て HD上の字幕コンテンッを P- Graphicsデコーダ 9に投入することで字 幕表示を実行する。
もしテキス トタイプであるなら、 ステップ S 3 1において、 テキス ト 字幕の表示処理を行う。
図 1 9は、 テキス ト字幕表示処理の処理手順を示すフローチヤ一トで ある。 本フ口 チャートのステップ S 33〜ステップ S 37からなる処 理は、 図 1 7のステップ S 1〜ステップ S 1 3に相当する処理であり、 ビデオス ト リームの再生進行に伴い字幕表示を行うというものである。 つまり AVClipに多重されたグラフィ クスス ト リームの再生は、 Graphics Controller37に委ねればよいが、 テキス トデータ再生は制御部 29自 らが行う必要がある。 制御部 29自らが、 テキス トデータ再生を行うた めの処理手順が、 この図 1 9である。
ステップ S 33〜ステップ S 3 7のうちステップ S 33〜ステップ S 35は、 ループ処理を構成しており、 ステップ S 33〜ステップ S 3 5に規定される事象のうち、 何れかの成立を判定する。
ステップ S 33は、 字幕コンテンツにおける開始タイムコードの中に 現在の再生時点に合致するものが存在するかどうかの判定である。 もし 存在すれば、 このタイムコードを開始タイムコード i としてステップ S 36に移行する。 ステップ S 36は、 アウ トライ ンフ ォ ン トを用いて、 開始タイムコード i に対応するテキス トデータ中の文字を展開し、表示 する処理である。
ステップ S 34は、 現在の再生時点が開始タイムコード i に対応する. 終了タイムコードであるか否かの判定である。 もしそうであるなら、 ス テツプ S 37において表示された文字を消去する。
ステップ S 35は、 映画コンテンッの再生が終了したか否かの判定で あり、 もしそうであるなら、 本フローチャー トの処理を終了す
次に、 ステップ S 36で行われる処理、 つまり解像度比に基づく ァゥ ト ライ ンフォン トの拡大処理について図 20 (a) 〜 (c) を参照しな がら説明する。字幕コンテンッにおいて字幕の「サイズ」は、 SDTVZHDTV のどちらかになるように大きさが定められている。 これは、 字幕グラフ イ クス同様、 SDTV/HDTV の双方について字幕を製作するのではなく、 一 方の製作を省略して、 製作コス トを低減させたいとの映画製作者側の要 望からである。 ディ スプレイ 3 0 0が HDTV であるのに、 字幕コンテン ッの「サイズ」が SDTV対応であれば、 HDTV型のディ スプレイ 3 0 0に、 SDTV対応の字幕を表示せざるを得ない。 上述したように HDTV型のディ スプレイ 3 0 0は解像度が高いので、 SDTV対応の字幕をそのまま表示し たのでは、 画面全体に対する字幕の割合が小さく なり、 見た目が悪い。 そこで制御部 2 9は、 字幕コンテンッの表示にあたって制御部 2 9は、 ディ スプレイ 3 0 0が対応している解像度と、 字幕コンテンツが対応し ている解像度との水平方向の比率、 及び、 垂直方向の比率をそれぞれ求 め、 算出された水平方向の比率、 及び、 垂直方向の比率に応じて、 水平 方向、 及び、 垂直方向にァゥ トラインフォン トを拡大又は縮小する処理 を行う。 このような拡大処理を行うのは、 1 つの画素の形状が、 SDTV、 HDTVのそれぞれで違っているためである。 図 2 0 ( a ) は、 SDTV、 HDTV のそれぞれにおける画素形状を示す図である。 SDTV型のディスプレイ装 置は、 一画素の形状が横長の長方形になっている。 これに対し HDTV 型 のディ スプレイ装置における一画素の形状は、 正方形になっている。 そ のため、 SDTV の解像度を想定したフオ ン トをそのまま拡大したのでは、 図 2 0 ( b ) に示すように、 字幕を構成する各文字が縦長になって現れ 見苦しい。 そこで拡大にあたって、 縦'横の拡大率を、 それぞれ違う値 にする。
ここで SDTV対応の字幕コンテンツを、 HDTV型のディ スプレイ装置に 表示させるケースを想定する。ディスプレイ装置における解像度が 1920 X 1080であり、映画コンテンツにおける解像度が 720 X 480である場合、 水平方向の解像度比は、 水平方向の解像度比 = 1 920画素 720画素 2. 67となる。 また垂直方向の解像度比は、 垂直方向の解像度比 = 1 080画素/ 480画素 = 2. 25となる。 こう して水平、 垂直方向の解像度比が算出されれば、 SDTV対応のサイ ズに定められたアウ トラインフォ ン トを、 図 2 0 ( c ) に示すように横 2. 67倍、 縦 2. 25倍に拡大する。 このように拡大されたフォ ン トを用い てテキス トデータを展開し、 開始タイムコード、 終了タイムコードに従 つて表示させれば、 ディ スプレイ装置側の解像度に応じた解像度で、 字 幕を表示させることができる。 1 つの言語体系で使用される文字一式の アウ トラインフォン トが再生装置に具備されていれば、 字幕を適切にデ ィ スプレイ装置に表示させることができる。
逆に、 HDTV 対応の字幕コンテンッを、 SDTV 型のディ スプレイ装置に 表示させるケースでは、 水平方向の解像度比 = 720画素 1920画素 = 0. 375となる。 また垂直方向の解像度比は、 垂直方向の解像度比 = 480画素/ 1080画素 0. 444となる。 こうして水平、 垂直方向の解像度比が算出されれば、 アウ トラインフ オ ントを、 横 0. 375倍、 縦 0. 444倍に縮小する。 このように縮小された フォ ン トを用いてテキス トデータを展開し、 開始タイムコード、 終了タ ィムコードに従って表示させれば、 ディ スプレイ装置側の解像度に応じ た解像度で、字幕を表示させることができる。 アウ トラインフォ ン トは、 どのような画素数にも拡大可能なので、 SDTV 対応のフ ォ ン ト、 HDTV 対 応のフォン トのそれぞれを再生装置に具備しておく必要はない。 1 つの 言語体系で使用される文字一式のァゥ トライ ンフ ォ ン トが再生装置に 具備されていれば、 字幕を適切にディスプレイ装置に表示させることが できる。
以上のように本実施形態によれば、 映画コンテンッ側の解像度情報と、 ディスプレイ装置側の解像度情報との比率が 1 でなければ AVCl ip に多 重されているプレゼンテーショングラフィ クスス ト リームに代えて、 サ —バ装置から取得した字幕コンテンッを用いるので、 AVCl ipに多重され ているプレゼンテーシ ョ ングラフィ クスス ト リームを拡大'縮小しなく ても、 ディ スプレイ装置側の解像度にあった字幕表示を行うことができ る。 ビッ トマップの拡大'縮小は不要なので、 たとえ AVC l ipに多重され ている字幕がビッ トマップで描画されていたとしても、 字幕を美しく表 示することができる。
かかる字幕データの代用は、 コンテンツ側の解像度と、 ディスプレイ 装置側の解像度との比率が 1でない場合になされるので、 双方の解像度 がー致している場合にはなされない。 過剰な字幕データ表示を避けるこ とから、 字幕データをサーバ装置からダウンロードすることに伴う通信 コス トを最低限にすることができる。
(第 2実施形態)
第 1実施形態では解像度比に応じて、 アウ トラインフォントを拡大 · 縮小することで字幕の大きさを調整した。 これに対し第 2実施形態は、 ビッ トマップフォン トで、 字幕表示を実現する。 ビッ トマップフ ォ ン ト は、 アウ トラインフォ ン トに比べてその展開に必要とされる処理負荷が 小さいので、 限られた性能をもつ CPUにおいて字幕を表示する場合に使 用すると、 好適である。 ビッ トマップフォン トでの字幕表示を実現する ため、 図 1 4に示した字幕コンテンッにおけるテキス トデータは、 HTML で記述された HTML 文書に置き換えられている。 そして制御部 2 9は、 この HTML 文書を解釈して表示処理を行うことで字幕表示を実現する。 その一方第 2実施形態に係る制御部 2 9は、 ディ スプレイ装置一字幕コ ンテンッの解像度比が 1. 0でない場合、 ディ スプレイ装置側の解像度に 整合するよう、 HTMLで記述された HTML文書に対し、 変換処理を施す。 図 2 1を参照しながら、 第 2実施形態に係る制御部 2 9による変換処 理について説明する。 図 2 1の HTML 文書において上半分は解像度変換 前の HTML文書を、 下半分は解像度変換後の HTML文書を示す。
変 換 前 の HTML 文 書 に お け る 解 像 度 情 報 は 、 く meta name="Resolution"C0NTENT="48(H">と規定されている部分である。 また この HTML文書における font size descriptionは SDTV型のディスプレ ィ装置にて表示される場合のビッ トマップフ ォ ン ト のサイズを示して いる。 つまりく font size=l>であることがわかる。 ここでブラウザが表 示できるフォントには、 複数ポイント数のものがあり、 これらは 1から 7までの font sizeで指示することができる。 この図 2 1の一例では、 最も小さなボイン ト数のフオ ントを HTML 文書は、 表示に選んでいるこ とを意味する。
制御部 29は、 <meta name="Resolution"CONTENT="480 〉の記述から、 この HTML文書が SDTV対応であることを知得する。 そして接続されてい るディ スプレー部分 00が、 HDTVであることを HDMI を介して知得すれ ば、 この解像度比から HTML文書におけるく: font size=l〉の記述を、 く font size=5>に変換する。 このような変換により、 ブラウザでの表示時に文 字列は拡大表示されることになる。
また〈meta name="Resolution"C0NTENT="480i ">¾r
<meta name="Resolution"C0NTENT="1080i" ;:書き換える。 この拡大法では、 二行表記の字幕を表示させるにあたって、 字幕の表 示領域が変わるという不利益がある。 つまり上述したように SDTV 型の ディスプレイ装置は、 一画素の形状が横長の長方形になっている。 これ に対し HDTV 型のディスプレイ装置における一画素の形状は、 正方形に なっている。 そのため、 二行表記の字幕を HD 対応にしょうとすると、 各行を構成する文字は図 2 1 (b)に示す長方形のものから、図 2 1 (c) に示す正方形のものになり、 縦方向に大きく拡大されるので、 字幕は上 方向に広がり、 画面全体のレイアウ トにおいて、 より多くの領域を占有 してしまう。 そうすると画面において本来動画が占めるべき領域が、 拡 大された字幕領域により隠されてしまうことが起こり得る。 そこで本実施形態では、 HDTVにおいて字幕が占める割り合いを、 SDTV と同様になるように、 字幕間の行間調整を行う。 図 22 (a) 〜 (c) は、 行間調整の処理手順を示す説明図である。 図 2 2 (a) のように、 二行表記の字幕が表示される場合を想定する。 図 2 0に示したように、 この字幕を縦方向に 2.25倍に拡大したり、また図 2 1 に示したように、 大きめのフォントを使えば、 図 22 (b) のように、 行間が広がり過ぎ る。 本実施形態では、 以下の式に基づき、 字幕の行間の倍率を求める。 この倍率は、 フォン トに対し通常設定される行間を基準にして与えられ る。 倍率 =垂直方向の解像度比 / 水平方向の解像度比 HDTV及び SDTVの実際の数値を適用すると、 倍率 = (1080/480)/(1920/720) = 0.84 になる。
こう して倍率が算出されれば、 フォン トを 267%に拡大し、行間を 84% にする。
ここで HTML 文書に以下の文字表示の記述が存在するものとする。 こ れはフォ ン トサイズ =3の文字列を二段表記で表示させるものである。
<P><f ont size= 3">
表示文字列
表示文字列
</font></p> 上述した比率で、 この文字列を拡大するよう HTML 文書を書き換えれ ば以下のようになる。 <P><f ont s i ze="3" >
く span styl e="f ont-s i ze : 67%; 1 i ne-hei ght: 84%" >
表示文字列
表示文字列
</span>
</font></p> この書き換えにより、 文字は 2. 67 倍になるとともに、 表示文字列の 行間は 84%になるので、 図 2 2 ( c ) に示すように、 字幕領域の上方向 への広がりは抑制され、 動画の視認性を妨げない。
(第 3実施形態)
第 3実施形態は 「文書 +静止画」 で構成されるページコンテンツにつ いての説明である。 かかるコンテンツは、 マークアップ言語で記述され た文書に、 静止画をはめ込んで得られる文書であり、 web ページにおい て多く見受けられる。 BD- ROMでも、 かかるコンテンツは、 メニュ一画像 として用いられる。 かかるコンテンツにおいて静止画は、 文書中の決め られた枠内に収められるように縮小されて表示される。
しかしこのように表示されるコンテンツの再生時にあたつて、 デイ ス プレイ装置における対応解像度と、 コンテンツにおける対応解像度とが 違えば、 はめ込みのために縮小した静止画を更に拡大する必要がある。 例えば、 オリジナルの HTML文書が SDTV対応であり、 以下のような記 述をもっているものとする。 くオリジナルの HTML文書〉
く img src=" . . /pi cture/xxx. j pg 》 これを HDTVで表示しょうとすると、第 1実施形態で求めた水平方向、 垂直方向の解像度比に基づき、 拡大表示させねばならない、 この拡大表 示を実現するには、 HTMLの上述した記述を、 以下のように書き換えれば よい,
<変換後の HTML文書 >
く img src=".. / icture/xxx. j g" eight=225% widt =267%> 225%= 1080/480、 267%= 1920/720 文書中の静止画はめ込みでは、 原本たる静止画の画素を間引く ことで 静止画の縮小を行う。 そのためかかる間引きで原本たる静止画の一部に 欠落がある。 一部欠落がある静止画を更に拡大しょうとすると、 かかる 欠落も拡大されることになるので、 静止画の本来の美しさを表現するこ とができない。 この欠落について、 JFIF JPEG File Interchange Format)形式の静止 画を用いてより詳細に説明する。 JFIF 形式の静止画は、 "appkication TypeO segment",
"start of frame typeO segment", "Image— Width", "Image— Height"とい う複数の機能セグメントから構成される。
JFIF形式の静止画データのフォーマツ トを以下に示す。
Start of image Segment (OxFF, 0xD8)
Start of frame type0(0xFF, OxCO)
Field Length
Sample
Image— Height
Image—Width
End of image Segment こ の う ち 水 平 方 向 、 垂 直 方 向 の 解 像 度 は 、
" Image— Width" , " ImageJIeight"に記述される。 SDTV対応の HTML文書に はめ込まれて表示される場合、 この静止画は、 水平方向、 垂直方向にお いて以下の比率に縮小されて、 表示されることになる。 水平方向の比率 = 720/Image jidth
垂直方向の比率 = 480/Image— Height
この HTML文書を HDTV型のディ スプレイ装置に表示するには、 上述の ように、 水平 ·垂直方向に縮小された静止画を、 拡大することになる。 つまり静止画は上述したような拡大がなされた場合、 水平、 垂直方向に 以下の比率に示すように拡大されることになる。
水平方向の比率 = 267% · Image_Wi dt
垂直方向の比率 = 225%· Image— Height
はめ込みのために縮小した静止画が更に拡大されれば、 上述した欠落 が存在する状態のまま拡大されることになり、 静止画の本来の美しさが 損なわれる。 そこで第 3実施形態では、 ページコンテンツの再生にあたって、 静止 画がはめ込まれた状態のページコンテンッを拡大するのではなく、 ディ スプレイ装置側の解像度と、 コンテンツ側の解像度との比率を求め、 そ の比率に基づき、 オリジナルの静止画の拡大を行う。 具体的にいうと、 以下の手法で水平、 垂直方向の拡大比率を算出する。 水平方向の比率 = 1920/Image— Wi dth
垂直方向の比率 = 1080/Image— Height 静止画に記述されている Image jidth, Image_Height の情報を、 HDTV 側の解像度に合わせて拡大することで、 上述したような欠損の拡大は発 生しえない。 これにより静止画は本来の美しさを損なわずに拡大される ことになる。
(備考)
以上の説明は、 本発明の全ての実施行為の形態を示している訳ではな い。 下記(A) (B) (0 (D)……の変更を施した実施行為の形態によっても、 本発明の実施は可能となる。 本願の請求項に係る各発明は、 以上に記載 した複数の実施形態及び T それらの変形形態を拡張した記載、 ないし、 一般化した記載としている。 拡張ないし一般化の程度は、 本発明の技術 分野の、 出願当時の技術水準の特性に基づく。
(備考)
以上の説明は、 本発明の全ての実施行為の形態を示している訳ではな い。 下記(A) (B) (0 (D)……の変更を施した実施行為の形態によっても、 本発明の実施は可能となる。 本願の請求項に係る各発明は、 以上に記載 した複数の実施形態及び T それらの変形形態を拡張した記載、 ないし、 一般化した記載としている。 拡張ないし一般化の程度は、 本発明の技術 分野の、 出願当時の技術水準の特性に基づく。
(A)第 1実施形態、 第 2実施形態では、 補助データの一例として字幕 データについて説明したが、 これに限らない。 動画と共に再生されるの であれば、 メニューやポタン、 アイコン、 バナーであってもよい。
(B)表示の対象は、 装置側のディ スプレイ設定に応じて選ばれた字幕 グラフィ クスであってもよい。つまり、ワイ ドビジョン、パンスキャン、 レターボッ クス用といった様々 な表示モー ド用のグラフ ィ タスが
BD-R0Mに記録されており、装置側は自身に接続されたテレビの設定に応 じてこれらの何れかを選んで表示する。 この場合、 そう して表示された 字幕グラフィ クスに対し、 PCS に基づく表示効果をほどこすので、 見栄 えがよくなる。 これにより、 動画像本体で表現していたような文字を用 いた表示効果を、 装置側のディスプレイ設定に応じて表示された字幕で 実現することができるので、 実用上の価値は大きい。
(C)字幕は、 映画の台詞を表す文字列であるとして説明を進めたが、 商標を構成するような図形,文字,色彩の組合せや、 国の紋章,旗章,記章, 国家が採用する監督/証明用の公の記号 ·印章、 政府間国際機関の紋章, 旗章,記章,特定商品の原産地表示を含んでいてもよい。
(D)第 1実施形態では、 字幕を画面の上側、 下側に横書きで表示する ものとしたが、 字幕を画面の右側、 左側に表示するものとしてもよい。 こうすることにより、 日本語字幕を縦書きで表示することができる。
(E)各実施形態における AVCl ipは、 映画コンテンツを構成するもので あつたが、 AVC l ipはカラオケを実現するものであってもよい、 そしてこ の場合、 歌の進行に応じて、 字幕の色を変えるという表示効果を実現し てもよい。
(F)第 1実施形態、 第 2実施形態において再生装置は、 字幕データの 供給をサーバ装置から受けているが、 サーバ装置以外の供給源から供給 を受けてもよい。 例えば、 BD- ROM以外の記録媒体を別途購入し、 これを HDD にイ ンス トールすることで字幕データの供給を受けても良い。 また 字幕データが記録された半導体メモリ と接続することで字幕データの 供給を受けてもよい。 産業上の利用可能性
本発明に係る記録媒体、 再生装置は、 ディ スプレイ装置一コンテンツ の組合せに応じた字幕表示を実現することができるので、 より付加価値 が高い映画作品を市場に供給することができ、 映画市場や民生機器市場 を活性化させることができる。 故に本発明に係る再生装置は、 映画産業 や民生機器産業において高い利用可能性をもつ。

Claims

6H 求 の
1 . 再生装置であって、
動画データにおけるフ レーム画像を表現するための解像度を検出す る検出手段と、
再生装置に接続されたディ スプレイ装置の解像度と、 検出手段により 検出された解像度との比率が 1である場合、 動画データと多重化されて 記録媒体に記録されている補助データを、 動画データと同期させながら 前記ディスプレイ装置に表示する第 1表示手段と、
解像度の比率が 1でない場合、 サーバ装置から供給された補助データ を、 動画データと同期させながら前記ディ スプレイ装置に表示する第 2 表示手段と
を備えることを特徴とする再生装置。
2 . サーバ装置から供給される補助データはテキス トデータであり、 前記第 2表示手段による補助データ表示は、
フォン トを用いて、 テキス トデータを展開することでなされる、 請求 項 1記載の再生装置。
3 . 前記第 2表示手段は、 テキス トデータの展開にあたって、 ディスプレイ装置が対応している解像度と、 補助データが対応してい る解像度との水平方向の比率、 及び、 垂直方向の比率をそれぞれ求め、 算出された水平方向の比率、 及び、 垂直方向の比率に応じて、 水平方 向、 及び、 垂直方向にフォントを拡大又は縮小する
ことを特徴とする請求項 2記載の再生装置。
4 . 補助データが、 複数行にわたって表示される字幕である場合、 前記第 2表示手段は、 所定の比率に従い、 字幕の行間を調整する処理 を行う
ことを特徴とする請求項 3記載の再生装置。
5 . 前記所定の比率は、
ディ スプレイ装置の縦画素数と、 動画データの縦画素数との比率を、 ディスプレイ装置の横画素数と、 動画データの横画素数の比率で割った 値である、 請求項 4記載の再生装置。
6 . コンピュータに再生処理を行わせるプログラムであって、 動画データにおけるフ レーム画像を表現するための解像度を検出す る検出ステップと、
再生装置に接続されたディスプレイ装置の解像度と、 検出手段により 検出された解像度との比率が 1である場合、 動画データと多重化されて 記録媒体に記録されている補助データを、 動画データと同期させながら 前記ディ スプレイ装置に表示する第 1表示ステップと、
解像度の比率が 1でない場合、 サーバ装置から供給された補助データ を、 動画データと同期させながら前記ディ スプレイ装置に表示する第 2 表示ステップと
をコンピュー夕に実行させることを特徴とするプログラム。
PCT/JP2004/005778 2003-04-22 2004-04-22 再生装置、プログラム。 WO2004095837A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP04728900A EP1628477A4 (en) 2003-04-22 2004-04-22 REPRODUCTIVE DEVICE AND PROGRAM
US10/549,608 US20060204092A1 (en) 2003-04-22 2004-04-22 Reproduction device and program
JP2005505782A JPWO2004095837A1 (ja) 2003-04-22 2004-04-22 再生装置、プログラム。

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/420,426 2003-04-22
US10/420,426 US20040213542A1 (en) 2003-04-22 2003-04-22 Apparatus and method to reproduce multimedia content for a multitude of resolution displays

Publications (1)

Publication Number Publication Date
WO2004095837A1 true WO2004095837A1 (ja) 2004-11-04

Family

ID=33298506

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/005778 WO2004095837A1 (ja) 2003-04-22 2004-04-22 再生装置、プログラム。

Country Status (5)

Country Link
US (2) US20040213542A1 (ja)
EP (1) EP1628477A4 (ja)
JP (1) JPWO2004095837A1 (ja)
CN (1) CN1778111A (ja)
WO (1) WO2004095837A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006287364A (ja) * 2005-03-31 2006-10-19 Toshiba Corp 信号出力装置及び信号出力方法
JP2006295518A (ja) * 2005-04-11 2006-10-26 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2009081610A (ja) * 2007-09-26 2009-04-16 Nippon Telegr & Teleph Corp <Ntt> デジタルシネマ再生装置,デジタルシネマ再生方法およびデジタルシネマ再生プログラム
WO2010146847A1 (ja) * 2009-06-17 2010-12-23 パナソニック株式会社 3d映像を再生するための情報記録媒体、及び再生装置
JP2011151851A (ja) * 2011-04-18 2011-08-04 Sony Corp 再生装置、再生方法および再生プログラム
WO2012017603A1 (ja) * 2010-08-06 2012-02-09 パナソニック株式会社 再生装置、集積回路、再生方法、プログラム
US8638861B2 (en) 2006-02-22 2014-01-28 Sony Corporation Reproducing apparatus, reproducing method and reproducing program
US8928669B2 (en) 2009-07-17 2015-01-06 Seiko Epson Corporation OSD display control program product, OSD display control method, and OSD display device
JPWO2016038791A1 (ja) * 2014-09-10 2017-06-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 記録媒体、再生装置および再生方法

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8737810B2 (en) * 2002-11-15 2014-05-27 Thomson Licensing Method and apparatus for cropping of subtitle elements
US9171577B1 (en) 2003-04-25 2015-10-27 Gopro, Inc. Encoding and decoding selectively retrievable representations of video content
CN101702757B (zh) * 2003-04-28 2013-07-31 松下电器产业株式会社 记录介质和方法、再现装置和方法、程序和集成电路
EP1618562A4 (en) * 2003-04-29 2011-03-16 Lg Electronics Inc RECORDING MEDIUM HAVING A DATA STRUCTURE FOR MANAGING REPRODUCTION OF GRAPHIC DATA, METHODS AND APPARATUSES FOR RECORDING AND REPRODUCING THEM
KR101029132B1 (ko) * 2003-05-05 2011-04-13 톰슨 라이센싱 프로그램을 레코딩하기에 충분한 공간이 존재하는지 여부를 나타내는 방법 및 장치
KR20040099058A (ko) * 2003-05-17 2004-11-26 삼성전자주식회사 서브타이틀 처리 방법, 그 재생 장치 및 그 정보저장매체
CN1849821B (zh) * 2003-07-11 2012-06-20 松下电器产业株式会社 记录方法、再现装置和方法
EP1511004A3 (en) * 2003-08-19 2010-01-27 Sony Corporation Memory controller, memory control method, rate conversion apparatus, rate conversion method, image-signal-processing apparatus, image-signal-processing method, and program for executing these methods
KR100565058B1 (ko) * 2003-08-22 2006-03-30 삼성전자주식회사 최적의 디스플레이 환경을 설정하는 dvd 플레이어 및그 동작 방법
US8233779B2 (en) * 2004-07-09 2012-07-31 Panasonic Corporation Recording medium, recording method, reproduction apparatus and method, and computer-readable program
WO2006051037A1 (en) 2004-11-09 2006-05-18 Thomson Licensing Bonding contents on separate storage media
JP2006179973A (ja) * 2004-12-20 2006-07-06 Toshiba Corp 電子機器及びその制御方法
US9329827B2 (en) * 2004-12-29 2016-05-03 Funmobility, Inc. Cropping of images for display on variably sized display devices
KR100615676B1 (ko) * 2005-01-11 2006-08-25 삼성전자주식회사 콘텐츠 재생장치 및 그의 gui화면 디스플레이방법
JP5124912B2 (ja) * 2005-06-23 2013-01-23 ソニー株式会社 電子広告システム及び電子広告方法
TW200826584A (en) * 2005-12-21 2008-06-16 Koninkl Philips Electronics Nv A method and apparatus for sharing data content between a transmitter and a receiver
JP2008067223A (ja) * 2006-09-08 2008-03-21 Toshiba Corp データ放送コンテンツ再生装置及びデータ放送コンテンツ再生方法
JP4715734B2 (ja) * 2006-12-05 2011-07-06 船井電機株式会社 光ディスク装置
US8625663B2 (en) * 2007-02-20 2014-01-07 Pixar Home-video digital-master package
US9098868B1 (en) 2007-03-20 2015-08-04 Qurio Holdings, Inc. Coordinating advertisements at multiple playback devices
US8756103B1 (en) * 2007-03-28 2014-06-17 Qurio Holdings, Inc. System and method of implementing alternative redemption options for a consumer-centric advertising system
US8560387B2 (en) 2007-06-07 2013-10-15 Qurio Holdings, Inc. Systems and methods of providing collaborative consumer-controlled advertising environments
US9881323B1 (en) * 2007-06-22 2018-01-30 Twc Patent Trust Llt Providing hard-to-block advertisements for display on a webpage
US20110019088A1 (en) * 2008-04-17 2011-01-27 Daisuke Kase Digital television signal processor and method of displaying subtitle
CN101668132A (zh) * 2008-09-02 2010-03-10 华为技术有限公司 一种字幕匹配处理的方法和系统
WO2010058546A1 (ja) * 2008-11-18 2010-05-27 パナソニック株式会社 立体視再生を行う再生装置、再生方法、プログラム
US8335425B2 (en) * 2008-11-18 2012-12-18 Panasonic Corporation Playback apparatus, playback method, and program for performing stereoscopic playback
JP2010226705A (ja) * 2009-02-27 2010-10-07 Sanyo Electric Co Ltd 撮像システム
EP2230839A1 (en) * 2009-03-17 2010-09-22 Koninklijke Philips Electronics N.V. Presentation of video content
US8019903B2 (en) * 2009-03-27 2011-09-13 Microsoft Corporation Removable accessory for a computing device
WO2010137261A1 (ja) * 2009-05-25 2010-12-02 パナソニック株式会社 記録媒体、再生装置、集積回路、再生方法、プログラム
US20110013888A1 (en) * 2009-06-18 2011-01-20 Taiji Sasaki Information recording medium and playback device for playing back 3d images
CN102474603B (zh) * 2009-07-04 2015-04-22 杜比实验室特许公司 帧兼容三维传输中全分辨率图形、菜单和字幕的支持
CN101996206B (zh) * 2009-08-11 2013-07-03 阿里巴巴集团控股有限公司 一种呈现网页页面的方法、装置及系统
CN102014258B (zh) * 2009-09-07 2013-01-16 艾比尔国际多媒体有限公司 多媒体字幕显示系统与方法
KR20110032678A (ko) * 2009-09-23 2011-03-30 삼성전자주식회사 디스플레이장치, 시스템 및 그 해상도 제어방법
CN102194504B (zh) * 2010-03-15 2015-04-08 腾讯科技(深圳)有限公司 媒体文件播放方法、播放器和用于媒体文件播放的服务器
JP6068329B2 (ja) 2010-04-01 2017-01-25 トムソン ライセンシングThomson Licensing 立体表示用のサブタイトルを生成する方法及びシステム
US20120134529A1 (en) * 2010-11-28 2012-05-31 Pedro Javier Vazquez Method and apparatus for applying of a watermark to a video during download
US8537195B2 (en) * 2011-02-09 2013-09-17 Polycom, Inc. Automatic video layouts for multi-stream multi-site telepresence conferencing system
JP2015050655A (ja) * 2013-09-02 2015-03-16 ソニー株式会社 情報表示装置及び情報表示方法、並びにコンピューター・プログラム
JP6512458B2 (ja) * 2014-06-30 2019-05-15 パナソニックIpマネジメント株式会社 データ再生方法及び再生装置
US10595099B2 (en) * 2015-04-05 2020-03-17 Lg Electronics Inc. Method and device for transmitting and receiving broadcast signal for broadcast service on basis of XML subtitle
CA2991102A1 (en) * 2015-07-09 2017-01-12 Sony Corporation Reception apparatus, reception method, transmission apparatus, and transmission method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001045436A (ja) * 1999-07-27 2001-02-16 Nec Corp デジタル放送受信機及びデータ伝送装置
JP2002016884A (ja) * 2000-06-29 2002-01-18 Matsushita Electric Ind Co Ltd 映像信号再生装置
JP2002027429A (ja) * 2000-05-18 2002-01-25 Deutsche Thomson Brandt Gmbh オーディオ翻訳データをオンデマンドで与える方法及びその受信器
JP2002152691A (ja) * 2000-11-16 2002-05-24 Pioneer Electronic Corp 情報再生装置及び情報表示方法
JP2002247526A (ja) * 2001-02-19 2002-08-30 Toshiba Corp 内外ストリームデータの同期再生装置とストリームデータ配信装置

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5307171A (en) * 1989-07-24 1994-04-26 Hitachi, Ltd. Video tape recorder/player
US6771888B1 (en) * 1993-10-29 2004-08-03 Christopher J. Cookson Data structure for allowing play of a video program in multiple aspect ratios
JPH09182109A (ja) * 1995-12-21 1997-07-11 Sony Corp 複合映像機器
JP3345019B2 (ja) * 1996-03-29 2002-11-18 松下電器産業株式会社 インタラクティブな再生進行の性能を向上させた記録媒体の記録方法、再生装置および再生方法
EP0838948B1 (en) * 1996-05-09 2000-03-15 Matsushita Electric Industrial Co., Ltd. Multimedia optical disk, reproducing device, and reproducing method capable of superposing sub-video upon main video in well-balanced state irrespective of position of main video on screen
JP3742167B2 (ja) * 1996-12-18 2006-02-01 株式会社東芝 画像表示制御装置
JP4346114B2 (ja) * 1997-03-12 2009-10-21 パナソニック株式会社 複数の標準的な出力信号を提供するmpegデコーダ
US6141457A (en) * 1997-09-12 2000-10-31 Samsung Electronics Co., Ltd. Method and apparatus for processing a high definition image to provide a relatively lower definition image using both discrete cosine transforms and wavelet transforms
JPH11252518A (ja) * 1997-10-29 1999-09-17 Matsushita Electric Ind Co Ltd 字幕用副映像ユニット作成装置および記憶媒体
JP2000023061A (ja) * 1998-07-02 2000-01-21 Sony Corp テレビジョン受信機
US6798420B1 (en) * 1998-11-09 2004-09-28 Broadcom Corporation Video and graphics system with a single-port RAM
KR100631499B1 (ko) * 2000-01-24 2006-10-09 엘지전자 주식회사 디지털 티브이의 캡션 표시 방법
US6633725B2 (en) * 2000-05-05 2003-10-14 Microsoft Corporation Layered coding of image data using separate data storage tracks on a storage medium
JP3670934B2 (ja) * 2000-06-01 2005-07-13 三洋電機株式会社 デジタルテレビ放送受信機における文字データの表示方法
US6850571B2 (en) * 2001-04-23 2005-02-01 Webtv Networks, Inc. Systems and methods for MPEG subsample decoding
KR100456024B1 (ko) * 2002-02-28 2004-11-08 한국전자통신연구원 디브이디 플레이어의 자막정보 재생 장치 및 방법
JP4008745B2 (ja) * 2002-04-25 2007-11-14 アルパイン株式会社 Dvdビデオ再生装置及びサブピクチャストリームの再生制御方法
KR100910975B1 (ko) * 2002-05-14 2009-08-05 엘지전자 주식회사 인터넷을 이용한 대화형 광디스크 재생방법
WO2004030356A1 (ja) * 2002-09-25 2004-04-08 Matsushita Electric Industrial Co., Ltd. 再生装置、光ディスク、記録媒体、プログラム、再生方法
PL376934A1 (pl) * 2002-11-27 2006-01-09 Samsung Electronics Co., Ltd. Urządzenie i sposób odtwarzania zawartości interakcyjnej przez sterowanie fontem zgodnie z przekształceniem współczynnika kształtu obrazu
US7106383B2 (en) * 2003-06-09 2006-09-12 Matsushita Electric Industrial Co., Ltd. Method, system, and apparatus for configuring a signal processing device for use with a display device
JP2005100585A (ja) * 2003-09-05 2005-04-14 Toshiba Corp 情報記憶媒体、情報再生装置、情報再生方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001045436A (ja) * 1999-07-27 2001-02-16 Nec Corp デジタル放送受信機及びデータ伝送装置
JP2002027429A (ja) * 2000-05-18 2002-01-25 Deutsche Thomson Brandt Gmbh オーディオ翻訳データをオンデマンドで与える方法及びその受信器
JP2002016884A (ja) * 2000-06-29 2002-01-18 Matsushita Electric Ind Co Ltd 映像信号再生装置
JP2002152691A (ja) * 2000-11-16 2002-05-24 Pioneer Electronic Corp 情報再生装置及び情報表示方法
JP2002247526A (ja) * 2001-02-19 2002-08-30 Toshiba Corp 内外ストリームデータの同期再生装置とストリームデータ配信装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1628477A4 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006287364A (ja) * 2005-03-31 2006-10-19 Toshiba Corp 信号出力装置及び信号出力方法
JP2006295518A (ja) * 2005-04-11 2006-10-26 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
US8638861B2 (en) 2006-02-22 2014-01-28 Sony Corporation Reproducing apparatus, reproducing method and reproducing program
JP2009081610A (ja) * 2007-09-26 2009-04-16 Nippon Telegr & Teleph Corp <Ntt> デジタルシネマ再生装置,デジタルシネマ再生方法およびデジタルシネマ再生プログラム
JP4647645B2 (ja) * 2007-09-26 2011-03-09 日本電信電話株式会社 デジタルシネマ再生装置,デジタルシネマ再生方法およびデジタルシネマ再生プログラム
US8121460B2 (en) 2009-06-17 2012-02-21 Panasonic Corporation Information recording medium and playback device for playing back 3D images
JP4733785B2 (ja) * 2009-06-17 2011-07-27 パナソニック株式会社 3d映像を再生するための情報記録媒体、記録媒体の記録方法、再生装置、及び記録媒体再生システム
WO2010146847A1 (ja) * 2009-06-17 2010-12-23 パナソニック株式会社 3d映像を再生するための情報記録媒体、及び再生装置
US8928669B2 (en) 2009-07-17 2015-01-06 Seiko Epson Corporation OSD display control program product, OSD display control method, and OSD display device
WO2012017603A1 (ja) * 2010-08-06 2012-02-09 パナソニック株式会社 再生装置、集積回路、再生方法、プログラム
CN102598686A (zh) * 2010-08-06 2012-07-18 松下电器产业株式会社 再现装置、集成电路、再现方法、程序
US8737811B2 (en) 2010-08-06 2014-05-27 Panasonic Corporation Playback device, integrated circuit, playback method, and program
JP5728649B2 (ja) * 2010-08-06 2015-06-03 パナソニックIpマネジメント株式会社 再生装置、集積回路、再生方法、プログラム
JP2011151851A (ja) * 2011-04-18 2011-08-04 Sony Corp 再生装置、再生方法および再生プログラム
JPWO2016038791A1 (ja) * 2014-09-10 2017-06-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 記録媒体、再生装置および再生方法
JP2017182873A (ja) * 2014-09-10 2017-10-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 記録媒体
JP2017182874A (ja) * 2014-09-10 2017-10-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 再生装置
JP2017184263A (ja) * 2014-09-10 2017-10-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 再生装置

Also Published As

Publication number Publication date
EP1628477A1 (en) 2006-02-22
CN1778111A (zh) 2006-05-24
JPWO2004095837A1 (ja) 2006-07-13
EP1628477A4 (en) 2010-06-02
US20040213542A1 (en) 2004-10-28
US20060204092A1 (en) 2006-09-14

Similar Documents

Publication Publication Date Title
WO2004095837A1 (ja) 再生装置、プログラム。
KR100984412B1 (ko) 기록매체, 재생장치, 기록방법, 재생방법
US8498515B2 (en) Recording medium and recording and reproducing method and apparatuses
US8350870B2 (en) Recording medium, reproduction apparatus, recording method, reproducing method, program, and integrated circuit
US20050207736A1 (en) Recording medium and method and apparatus for decoding text subtitle streams
KR100882079B1 (ko) 디스플레이 세트의 병렬처리를 수행할 수 있는 재생장치, 기록매체, 기록방법, 재생방법, 및 컴퓨터 판독가능한 기록매체
KR102558213B1 (ko) 재생 장치, 재생 방법, 프로그램, 및 기록 매체
JPH10304308A (ja) サブピクチャデータ作成方法および装置、ならびにサブピクチャデータ作成用プログラムを記録したコンピュータ読み取り可能な記録媒体
WO2006018786A1 (en) Method of storing and transferring image signals

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005505782

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 20048109776

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2004728900

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2004728900

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 10549608

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 10549608

Country of ref document: US