WO2006092993A1 - 字幕表示装置 - Google Patents

字幕表示装置 Download PDF

Info

Publication number
WO2006092993A1
WO2006092993A1 PCT/JP2006/303132 JP2006303132W WO2006092993A1 WO 2006092993 A1 WO2006092993 A1 WO 2006092993A1 JP 2006303132 W JP2006303132 W JP 2006303132W WO 2006092993 A1 WO2006092993 A1 WO 2006092993A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
display
subtitle
unit
video
Prior art date
Application number
PCT/JP2006/303132
Other languages
English (en)
French (fr)
Inventor
Takahisa Fujita
Norihiro Matsui
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to CN2006800063752A priority Critical patent/CN101129070B/zh
Priority to EP06714272A priority patent/EP1855479A4/en
Priority to JP2007505861A priority patent/JP4792458B2/ja
Priority to US11/884,784 priority patent/US20090207305A1/en
Publication of WO2006092993A1 publication Critical patent/WO2006092993A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/162Authorising the user terminal, e.g. by paying; Registering the use of a subscription channel, e.g. billing
    • H04N7/163Authorising the user terminal, e.g. by paying; Registering the use of a subscription channel, e.g. billing by receiver means only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4314Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for fitting data in a restricted space on the screen, e.g. EPG data in a rectangular grid
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4782Web browsing, e.g. WebTV
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4858End-user interface for client configuration for modifying screen layout parameters, e.g. fonts, size of the windows
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles

Definitions

  • the present invention relates to a caption display device that displays video and captions 'character super, etc., and more specifically, displays subtitles' character super distribution etc. with a consistent operation system regardless of the type of terminal.
  • the present invention relates to a caption display device in which settings can be changed and captions can be viewed even when a menu or dialog is displayed.
  • the closed caption method has been adopted as a standard in addition to the open caption method that superimposes subtitles and character super images on the video on the transmitting station side, which has been common in conventional analog television broadcasting. ing.
  • data related to subtitle 'character super' is transmitted from the transmitting station independently from the video, and data related to subtitle 'character super' (hereinafter referred to as subtitle 'character super data') is received from the receiver. To be presented to the user in a superimposed manner with the video.
  • the receiver can control the display of subtitles / character super, etc., and for example, by adding a language identifier to the subtitles / character super, the language the user wants to see It becomes possible to browse the subtitle 'superscript'.
  • the closed caption method for displaying subtitles and character super we will describe the closed caption method for displaying subtitles and character super.
  • the caption / character super data includes character data representing a character string itself, which is a set of characters to be displayed, and additional information. By using additional information, the receiver can improve the expressive power of subtitles and character supers, simply by displaying a character string on the screen. In other words, it is possible to perform expressions such as display and emphasis that are easy for the user.
  • the additional information of subtitles' character super includes the following types of data: [0005]
  • the subtitle / character super display timing data is data representing the time at which the subtitle / character super is displayed.
  • the receiver uses the subtitle 'character super display timing data to achieve synchronization between the subtitle and the TV program.
  • the character size data is data that specifies the size for displaying a character string as a subtitle / character super.
  • the color data is data for designating the color of the character string itself to be displayed as the subtitle character and the background color.
  • the repeated data is data that specifies the number of repetitions of the character string so that the amount of subtitle character super data can be saved when the same character string is repeatedly displayed.
  • Receiver built-in sound playback data is data that specifies sound data to be played back in accordance with the timing at which characters or character strings are displayed by specifying sound data stored in the receiver in advance using an identifier. .
  • a receiver that is assumed to be used in a certain place during use is particularly called a fixed receiver.
  • the feature of the fixed receiver is that the display screen of the receiver is generally more than a dozen inches.
  • terminals that are equipped with a digital broadcast reception function for devices that are assumed to be carried and moved by users such as mobile phones, PDAs (Personal Digital Assistants), digital cameras, etc.
  • the terminal is particularly called a portable receiver.
  • the feature of the portable receiver is that the display screen of the receiver is a few inches or less (in many cases 3 inches or less).
  • video data and subtitles / character super data that are generally transmitted from the transmitting station are converted into video, subtitles, and character super images, respectively, and converted.
  • the video and the subtitle 'character super image are superimposed and combined and displayed on the display screen.
  • mobile receivers that receive digital broadcasts generally convert video data and subtitles / text data transmitted from the transmitting station into video and subtitles / text super images, respectively, Display subtitles and character super images in a separate area of the display screen.
  • the differences between the fixed receiver and the portable receiver regarding the display method of the subtitle 'character super are mainly due to the difference in the size of the display screen of each receiver.
  • the display screen In a fixed receiver, the display screen is as large as more than a dozen inches, so video, subtitles, and text super are overlaid. Even if they are displayed together, it is possible for the user to recognize the subtitle 'text super' separately from the video. Displaying video as large as possible increases the expressiveness of the video and the power given to the user. Therefore, with fixed receivers, video and subtitles and text can be displayed in the entire display area of the display screen. It is more preferable to superimpose and superimpose them for display.
  • the display screen of the portable receiver is as small as several inches or less, if the video and the subtitle 'character super are superimposed and synthesized, the user cannot recognize the subtitle' character super or it is difficult to recognize it. there is a possibility. Accordingly, it is preferable to reduce the display size of the video so that the video and the character / character super are displayed in different areas.
  • the display screen There are empty display areas above and below. By displaying the subtitle 'character super in this empty area, it is possible to secure a dedicated display area for the subtitle' character super without sacrificing the size of the video display area.
  • data broadcasting as content transmitted from a transmitting station to a receiver in addition to video, audio, program information, and caption / text.
  • the content of the data broadcast is transmitted as a BML document expressed by, for example, BML (Broadcast Markup Language) or a still image 'video'.
  • BML Broadcast Markup Language
  • the content is presented to the user by displaying it on the same screen as the video and subtitles.
  • the data broadcast is preferably displayed in an area independent of the video for the same reason as the subtitle 'text super' in the portable receiver.
  • a caption display device such as a portable receiver displays a video, a data broadcast, and a caption 'text super' on the display screen at the same time
  • the video display area, the data broadcast display area, and the caption 'text super display area Is preferably a separate region.
  • FIG. 13 is a diagram showing an example of a data broadcast by a portable receiver and a display layout of subtitle / text.
  • Fig. 13 (a) shows the layout for displaying video and data broadcasting.
  • Figure 13 (b) shows the layout when video, subtitles, character super, and data broadcasting are displayed.
  • a mobile receiver since a mobile receiver generally has a vertically long display screen, it is common to place a data broadcast display area below the video display area.
  • FIG. 13B when the mobile receiver further displays the caption “character super”, the display area of the data broadcast is shared with the display area of the caption “character super”.
  • the display area for data broadcasting is divided into a subtitle / text super area and a data broadcasting area. It is preferable that the distribution ratio between the subtitle 'text super broadcast display area and the data broadcast display area can be set by the user according to his / her preference.
  • the difference between the fixed receiver and the portable receiver is a difference regarding the definition of the display screen.
  • a fixed receiver can provide a standard model for resolution and ratio to the display screen.
  • the display will depend on the function, application, and shape of the original terminal. The aspect ratio and resolution of the screen are greatly different. For this reason, it is difficult to provide a standard display model for portable receivers. If a standard display model is provided, it is not possible to provide a display model optimized for each type of terminal. Therefore, with conventional mobile receivers, the standard display model is not specified, and the display method of video, subtitles, and character supervision is left to the implementation of each terminal. In this way, the display method left to the implementation of each terminal is referred to as the conventional display method 1.
  • a display method for displaying subtitles / characters using a WWW browser is disclosed (for example, Patent Document 1).
  • teletext data is converted into HTML (Hyper Text Markup Language) data, and the teletext is displayed on the display screen using the WWW browser.
  • WWW browsers have a function that optimizes the content display layout for the display screen resolution and display area size.
  • using a WWW browser to display subtitles and character super-functions can use the function that optimizes the display layout. It is effective in. In this way, the method of displaying the subtitle 'character super using a WWW browser is called conventional display method 2.
  • Patent Document 1 Japanese Patent Laid-Open No. 11-18060
  • the conventional display method 1 that is, the display method entrusted to the implementation of each terminal
  • operations related to screen display such as subtitles' character super broadcast display area and data broadcast display area allocation setting.
  • the system was also left to the implementation of each terminal. Therefore, in order to avoid confusion for users, the subtitle display device to which the conventional display method 1 is applied provides a terminal-specific operation system and a consistent operation system for each terminal for screen display. There was a problem that we had to do.
  • the contents of the data broadcast can only be viewed on the WWW browser, and the subtitle character Additional information such as super display timing data, character size data, color data, repeated data, and receiver built-in sound reproduction data could not be reflected in the display on the WWW browser.
  • the caption display device to which the conventional display method 2 is applied has a problem in that it has poor expressive power.
  • the caption display device displays a menu or a dialog panel for displaying information related to the television presentation function or a warning display, it is possible to display a caption. Area power Hide by S menu and dialog display (see Figure 14). For this reason, the caption display device to which the conventional display method 1 and display method 2 are applied has a problem that the user cannot view the caption superscript while displaying a menu or a dialog.
  • the object of the present invention is to change the display settings such as subtitle / character super distribution and the like with a consistent operation system regardless of the type of terminal, and also when displaying menus and dialogs. It is to provide a caption display device that can be viewed.
  • the present invention is directed to a caption display device that acquires, as content data, stream data including at least caption / character superstream data and section data, and displays the acquired content data on a screen.
  • the caption display device of the present invention includes a stream analysis unit, a document data conversion unit, a section analysis unit, and a display data generation unit.
  • the stream analysis unit analyzes the subtitle 'character super stream data included in the stream data, and outputs the subtitle' character super data to be displayed.
  • the section analysis unit analyzes the section data included in the stream data and converts it into the first document data.
  • the document data conversion unit converts the subtitle 'character super data output from the stream analysis unit to the second document data in the same format as the first document data, and specifies the display area for the second document data. Output together with the layout data.
  • the display data generation unit generates display data related to subtitle / character super, based on the first document data output from the section analysis unit, the second document data output from the document data conversion unit, and the layout data. .
  • the stream analysis unit further outputs subtitle time information indicating a presentation time of the subtitle 'character super data.
  • the caption display device includes a display control unit that requests the display data generation unit to update the display data based on the timing indicated by the caption time information. Then, when the display data generation unit receives an update request from the display control unit, the display data generation unit updates the display data related to the subtitles' character super.
  • the caption display device further includes a presentation data conversion unit, a video data analysis unit, a display switching unit, and a display data synthesis unit.
  • the presentation data conversion unit converts the subtitle 'character super data output from the stream analysis unit into image data and presents it as subtitle' character super image data.
  • the video data analysis unit analyzes the video stream data included in the stream data and outputs it as video data.
  • the display switching unit determines whether or not the video data has the power to superimpose and display the subtitle character super image data.
  • the display data synthesizing unit outputs video data or synthesized video display data obtained by superimposing subtitle / character super image data on the video data according to the determination of the display switching unit.
  • the video output unit screen-displays the video data or composite video display data output from the display data synthesis unit and the display data related to the caption / character super generated by the display data generation unit.
  • the display switching unit determines that the caption / character super image data is not superimposed on the video data
  • the display data synthesizing unit outputs the video data
  • the display switching unit Decided to superimpose subtitle 'character super image data on data
  • the caption data and the super image data are superimposed and synthesized on the video data
  • the synthesized data is output as synthesized video display data.
  • the display data generation unit outputs, as mask data, a bitmap image representing an area in which the second text data is displayed in addition to the display data relating to the caption / character super.
  • the caption display device further includes a video data analysis unit, a display switching unit, a display data synthesis unit, and a video output unit.
  • the video data analysis unit analyzes the video stream data included in the stream data and outputs it as video data.
  • the display switching unit determines whether or not to superimpose display data related to the caption “text super” on the video data.
  • the display data synthesizing unit outputs video data or synthesized video display data obtained by superimposing a bitmap image on video data and display data related to the caption superscript according to the determination of the display switching unit.
  • the video output unit displays the video data or composite video display data output by the display data synthesis unit and the display data related to the caption / character super generated by the display data generation unit.
  • the display data composition unit outputs the video data and the display data related to the caption / character super when the display switching unit determines that the display data related to the caption / character super is not superimposed on the video data. To do.
  • the display switching unit determines that the display switching unit displays the display data related to the caption / character superposition on the video data
  • the display data combining unit and the display data related to the caption / character super Is output.
  • the caption display device may further include a data receiving unit that receives content data including document data in caption supertext data.
  • the document data converter extracts the received subtitle / character super data document data and outputs it to the display data generator.
  • the present invention is also directed to a caption display method for realizing the above-described screen display, a program for executing the caption display method, a storage medium storing the program, and an integrated circuit.
  • the subtitle display method of the present invention analyzes a subtitle 'character superstream data included in the stream data, and outputs a subtitle' character superdata to be displayed; Section analysis step that analyzes the section data contained in the data and converts it to the first document data Stream analysis step force
  • the output subtitle character super data is converted to the second document data in the same format as the first text data, together with the layout data that specifies the display area of the second document data Display data related to subtitles and character super, based on the document data conversion step to be output, the first document data output in the section analysis step, the second document data output in the document data conversion step, and the layout data
  • the document data conversion unit converts the 8-unit code character representing the subtitle / character supertext input via the stream analysis unit into BML document data, and the frame It is output to the display data generation unit together with the layout data for designating the system.
  • the display data generation unit shows the BML document data output from the document data conversion unit and the data broadcasting content output from the section analysis unit using the HTML and BML interpretation 'display function of the WWW browser. Display data related to subtitles' character super is generated from BML document data. As a result, the caption display device can realize the display of the character 'character super' using the WWW browser.
  • the same UI as the frame area allocation setting in the WWW browser can be used to allocate the data broadcast display area and the subtitle 'character super broadcast display area. Settings can be made.
  • the subtitle display device can realize the same operation system as the WWW browser for screen display.
  • the subtitle display device uses additional information such as subtitles 'subtitles included in character super' character super display timing data, character size data, color data, repetition data, and receiver built-in sound reproduction data. In this way, it is possible to display subtitles with excellent expressiveness and character super.
  • the display switching unit receives flag data representing display / non-display processing of menus and the like from the UI display control unit, so that when the menu is displayed on the display data composition unit, subtitles are displayed. Instruct to synthesize the character super with the video data, and when the menu is not displayed, instruct not to synthesize the subtitle 'character super with the video data.
  • the caption display device the caption / text broadcasting display area is hidden by the menu. In this case, it is possible to display subtitles and character super in the video display area. In other words, the user can view the subtitle 'character super while the menu and dialog are displayed.
  • FIG. 1 is a block diagram showing an example of a configuration of a caption display device 101 according to a first embodiment of the present invention.
  • FIG. 2 is a diagram showing an example of layout data output by a document data conversion unit 105.
  • FIG. 3 is a diagram showing an example of 8-unit code characters inputted as subtitle character super data.
  • FIG. 4 is a diagram showing an example of BML document data in which 8-unit code character power is also converted.
  • FIG. 5 is a diagram showing an example of BML document data including a playromsound O function.
  • FIG. 6 is a diagram showing an example of a display layout realized by the video output unit 113.
  • FIG. 7 is a block diagram showing an example of the configuration of a caption display device 201 according to the second embodiment of the present invention.
  • FIG. 8 is a block diagram showing an example of the configuration of a caption display device 301 according to the third embodiment of the present invention.
  • FIG. 9 is a block diagram showing an example of the configuration of a caption display device 401 according to the fourth embodiment of the present invention.
  • FIG. 10 is a block diagram showing an example of a configuration of a caption display device 501 according to a fifth embodiment of the present invention.
  • FIG. 11 is a block diagram showing an example of a configuration of a caption display device 601 according to a sixth embodiment of the present invention.
  • FIG. 12 is a block diagram showing an exemplary configuration of a caption display device 701 according to a seventh embodiment of the present invention.
  • FIG. 13 is a diagram showing an example of a data broadcast by a mobile receiver and a display layout of subtitles' character super.
  • FIG. 14 is a diagram for explaining problems of a conventional display method.
  • FIG. 1 is a block diagram showing an example of the configuration of the caption display device 101 according to the first embodiment of the present invention.
  • a caption display device 101 includes a user operation input unit 102, a caption 'character super stream analysis unit 103 (hereinafter simply referred to as a stream analysis unit 103), a section Analysis unit 104, subtitle'character super document data conversion unit 105 (hereinafter simply referred to as document data conversion unit 105), display data generation unit 106, subtitle / character super display control unit 107 (hereinafter simply referred to as display control unit 107).
  • Video data analysis unit 108 subtitle 'character super presentation data conversion unit 109 (hereinafter simply referred to as presentation data conversion unit 109), video subtitle' character super display data synthesis unit 110 (hereinafter simply referred to as display data). Synthesizer 110), UI display controller 11 1, subtitle 'character super display switching unit 112 (hereinafter simply referred to as display switching unit 112), video output unit 113, audio data analysis unit 114, and audio output unit 115.
  • MPEG2-TS MPEG2 System Transport Str earn
  • MPEG2 System Transport Str earn which is data in the MPEG2 System transport stream format
  • the user operation input unit 102 is realized by, for example, a keypad device of a mobile phone or a combination of software for monitoring the state of the keypad device.
  • the user operation input unit 102 detects pressing of the keypad device and outputs information input by the user as a key event.
  • the stream analysis unit 103 analyzes a PES (Packetized Elementary Stream) included in the MPE G2-TS input as subtitles 'character superstream data as data in which subtitles' character superdata are stored.
  • the stream analysis unit 103 is realized by software, for example.
  • the stream analysis unit 103 analyzes the PES in which the subtitle 'character super data is stored, and outputs the display start time as subtitle time information and the 8-unit character code data of the data data as subtitle' character super data. To do.
  • the caption time information is represented by a 36-bit numerical value, for example.
  • the stream analysis unit 103 can use PTS (Presentation Time Stamp) in PES as caption time information.
  • the stream analysis unit 103 can set the current time as caption time information when the time control mode during PES is immediate reproduction.
  • Section analysis unit 104 converts data stored in the section format included in MPEG2-TS input as section data into BML document data indicating content for data broadcasting.
  • the section analysis unit 104 is realized by software, for example.
  • BML document data is stored in DSMCC (Di gital Storage Media Commnad and Control) method.
  • the section analysis unit 104 analyzes a DDB (Download Data Block) message or a DII (Download Info Indication) message transmitted in the DSMCC format on the section, and generates BML document data, which is a resource expressed in the DDB and DII. Extract.
  • DDB Download Data Block
  • DII Download Info Indication
  • FIG. 2 is a diagram showing an example of layout data output from the document data conversion unit 105.
  • the layout data shows that in the initial state, the data broadcast display area is divided into two parts, upper and lower, and subtitles and character super are displayed in the upper half, and the data broadcast is displayed in the lower half.
  • the SRC attribute value “x—cc: default” of the first FRAME element specifies BML document data output from the document data conversion unit 105.
  • the SRC attribute value “x—dc: default” of the second F RAME element is specified by specifying the BML document data output from the section analysis unit 104.
  • the document data conversion unit 105 realizes conversion from 8-unit code characters to BML document data by a predetermined method.
  • FIG. 3 is a diagram showing an example of 8-unit code characters input as subtitle character super data.
  • FIG. 4 is a diagram showing an example of BML document data converted from 8-unit code characters.
  • the character string enclosed in “[” and “]” represents the control character, and the number written immediately after the control character type represents the parameter for the control character.
  • the document data conversion unit 105 includes a control character representing the built-in sound reproduction data and character size data in the 8-unit code character (see Fig. 3), so it includes a playromsound O function and is styled for character size.
  • the BML document data (see Fig. 4) is output. The specific conversion method from 8-unit code characters to BML document data will be described in detail later.
  • the display data generation unit 106 receives BML document data representing content for data broadcasting from the section analysis unit 104, and receives BML document data and layout data representing subtitle character superscript from the document data conversion unit 105. Is done.
  • the display data generation unit 106 For example, WWW browser software that can interpret and display HTML and BML.
  • the display data generation unit 106 generates display data related to subtitles / characters according to the contents of tags and function declarations specified in HTML and BML included in the input BML document data and layout data.
  • the SRC attribute specified by the FRAME element in the input layout data stores a URL indicating BML document data.
  • the display data generation unit 106 determines a layout method for a plurality of BML document data based on the rows attribute or cols attribute of the FRAMESET element included in the layout data.
  • the display data generation unit 106 divides the display area into two parts vertically, and the upper half contains the BML document data indicated by the URI "x— cc: d efaultj.
  • the BML document data indicated by the URI “x— dc: default” is displayed.
  • the display data generation unit 106 uses “x—cc: default” as the URI representing the BML document data output from the document data conversion unit 105.
  • X—dc: defa ult is recognized as a URI representing the BML document data output from the section analysis unit 104.
  • the display data generation unit 106 uses the HTML and BML analysis' display function to convert bitmap data as display data based on the BML document data specified by the FRAM E element and the layout specified by the FRAMSET element. Convert. If the BML document data includes a play romsound O function, and the corresponding function is executed while the BML document data is being interpreted, the display data generation unit 106 stores in advance in ROM or RAM specified by the argument of the playromsound O function. The built-in sound data is output as voice presentation data. At this time, the time stamp indicating the audio time information can be the current time.
  • the built-in sound data is expressed in PCM (Pulse Code Modulation) format, for example.
  • FIG. 5 is a diagram illustrating an example of BML document data including a playromsound () function.
  • the display data generation unit 106 provides an interface for accepting a display data update request to external software as an update request function. When an external software isotropic display data update request function is called, the display data generation unit 106 re-inputs and interprets the BML document data, and outputs display data and voice presentation data. Display data generation unit 106 displays multiple document data using layout data In addition, a parameter for specifying document data is prepared in the update request function so that display data can be updated by specifying one of the specific document data.
  • the display data generation unit 106 responds to input to the WWW browser, such as changing the frame area, scrolling, pressing a link, etc., by inputting a key event from the user operation input unit 102, and updating the display data if necessary. I do.
  • Subtitle time information is input from the stream analysis unit 103 to the display control unit 107.
  • the display control unit 107 calls an update request function of the WWW browser software that is the display data generation unit 106 when the time indicated by the caption time information comes.
  • the display data generation unit 106 can update the subtitle display at the timing synchronized with the television program.
  • the video data analysis unit 108 analyzes the PES included in the MPEG2-TS input as the video stream data as data storing video.
  • the video data analysis unit 108 is realized by software such as a decoder, for example.
  • the video stream data stored in the PES is, for example, MEPG4 AVC video ES (Elementary Stream) format data.
  • the video data analyzer 108 analyzes the video stream data and outputs it as YUV format video data. At this time, the time stamp indicating the video time information can be the PTS in the PES.
  • the presentation data conversion unit 109 receives 8-unit code characters and subtitle time information as subtitle character super data from the stream analysis unit 103.
  • the presentation data conversion unit 109 converts the subtitle 'character super data into a bitmap format image according to the display timing indicated in the subtitle time information, and outputs it as subtitle' character super image data.
  • the presentation data conversion unit 109 is realized by software, for example. Specifically, the presentation data conversion unit 109 analyzes the 8-unit code character input as subtitle / character super data, and expresses the subtitle 'character super using the character font stored in the ROM or RAM. Generate image data in bitmap format.
  • the presentation data conversion unit 109 considers the character size, character color, background color, and the number of character repetitions according to the control data included in the 8-unit code character when converting the character subtitle super to the bitmap image.
  • the presentation data converter 10 9 is a bitmap image representing a character font as a subtitle 'character super, and a character super
  • a bitmap mask image for synthesizing alpha by distinguishing the area representing the path from the other area is output as subtitle character super image data.
  • the presentation data conversion unit 109 sets the parameter specified by the control character. Based on the above, PCM internal sound data stored in ROM or RAM in advance is output as voice presentation data. At this time, the time stamp representing the audio time information is the time of the time stamp input as the caption time information.
  • the display data synthesizing unit 110 receives the YUV format video data output presentation data conversion unit 109 from the video data analysis unit 108, and the bitmap format subtitle character super image data. When instructed by the display switching unit 112, the display data synthesizing unit 110 superimposes the subtitle / character super image data on the video data.
  • the display data synthesis unit 110 is realized by, for example, video processing software.
  • the display data synthesizing unit 110 provides an interface for designating whether or not to perform superimposition to an external software as a superposition designation function.
  • the overlay specification function has a boolean parameter indicating whether or not to perform overlay.
  • the display data composition unit 110 When designated to superimpose by external software, the display data composition unit 110 analyzes each frame of the YUV format video data, and based on the input bitmap image based on the bitmap mask image, Then, the image data is alpha-combined and converted again into YUV format video data that consists of frames. When it is designated not to perform superimposition by the superposition designation function, the display data composition unit 110 outputs the input video data as it is. Further, the display data synthesis unit 110 outputs the time stamp of the input video time information as the video time information as it is.
  • a key event is input from the user operation input unit 102 to the UI display control unit 111.
  • the UI display control unit 111 displays and deletes the menu and dialog based on the contents of the input key event.
  • the UI display control unit 111 is realized by software, for example.
  • the UI display control unit 111 When the menu key on the keypad is pressed, the UI display control unit 111 generates a bitmap image and a bitmap mask image representing the UI menu (hereinafter, the generated image is referred to as a menu image).
  • the UI display control unit 111 performs menu display 'non-display processing.
  • the flag data is output as UI display data.
  • the flag data is set to “true” when performing menu display processing, and “false” when performing menu non-display processing.
  • Flag data is input to the display switching unit 112 from the UI display control unit 111.
  • the display switching unit 112 determines whether or not to superimpose the caption / character super image data on the video data by calling the overlay designation function of the display data synthesis unit 110 based on the true / false value of the input flag data. Is specified.
  • the display switching unit 112 is realized by software, for example.
  • the display switching unit 112 calls the overlay specification function of the display data synthesis unit 110 with the parameter set to true (that is, instructs to perform overlay).
  • the display switching unit 112 calls the overlay specification function of the display data synthesis unit 110 with the parameter set to false (that is, instructs not to perform overlay). .
  • the display switching unit 112 superimposes and combines the caption / text in the video display area.
  • the display switching unit 112 does not superimpose the caption / superscript on the video display area.
  • the display switching unit 112 can display the subtitle'character super in the video display area even when the subtitle / text super broadcast display area is hidden by the menu display.
  • Video data is input to the video output unit 113 from the display data synthesizing unit 110, and display data related to the subtitle character is input from the display data generating unit 106.
  • display data related to the subtitle character is input from the display data generating unit 106.
  • a menu image is input to the video output unit 113 via the display switching unit 112.
  • the video output unit 113 displays the input video data, subtitles' character super, menu screen, and the like on the display screen.
  • the video output unit 113 is realized by, for example, a combination of a display screen and software that controls layout display on the display screen.
  • FIG. 6 is a diagram showing an example of a display layout realized by the video output unit 113.
  • FIG. 6 shows the case where a liquid crystal display with a resolution of QVGA (vertical 320 pixels, horizontal 240 pixels) is used as the display screen.
  • the video output unit 113 is a rectangular area (vertical 180 pixels wide by 240 pixels wide) above the liquid crystal display (hereinafter referred to as the video display area).
  • the video data is displayed in a rectangular area (hereinafter referred to as subtitle “text super broadcast display area”) of 140 pixels in the bottom and 240 pixels in the bottom of the display (see Fig. 6 (a)).
  • the video output unit 113 When a menu image is input, the video output unit 113 receives the video data combined with the caption “character super” from the display data combining unit 110. Therefore, the video output unit 113 displays the video data combined with the subtitle / character super in the video display area. Then, the video output unit 113 displays the input menu image on the front of the display data (that is, the subtitle / text super broadcast display area) (see FIG. 6B).
  • the audio data analysis unit 114 analyzes the PES included in the MPEG2-TS input as the audio stream data as data storing audio, and outputs the audio presentation data to the audio output unit 115.
  • the audio data analysis unit 114 is realized by software such as a decoder, for example.
  • the audio stream data stored in the PES is, for example, data in AAC (Advanced Audio Coding) ES format.
  • the audio data analysis unit 114 analyzes the AAC ES format audio stream data and outputs the PCM format audio presentation data.
  • the PTS in the PES can be used for the time stamp representing the audio time information.
  • Voice presentation data is input to the voice output unit 115 from the voice data analysis unit 114, the presentation data conversion unit 109, and the display data generation unit 106.
  • the voice output unit 115 mixes the voice input as voice presentation data and presents it to the user.
  • the audio output unit 115 is realized by a combination of hardware such as a speaker and software, for example.
  • the audio output unit 115 outputs the audio input as the audio presentation data in accordance with the times described in the corresponding time stamps.
  • the document data conversion unit 105 sequentially analyzes the byte sequence represented by the 8-unit code character to generate body data and header data.
  • the initial value of the body data is the string “ku body>”.
  • the initial value of the header data is the character string “ ⁇ bml> ⁇ head> ⁇ title>subtitle> / title> ⁇ script> ⁇ ! [CDATA [function play SO und () ⁇ ".
  • Document data converter 105 is currently used as an internal state It has the character set table type and character font information that stores the display specification of the current character font. Character font information has size, foreground color, and background color as attributes, the initial value of the size attribute is "normal", the initial value of the foreground color attribute is "# 000000", and the initial value of the background color is "#FFFFFFJ" .
  • Character size data which is additional information in subtitle character super data, is represented by control characters such as SSZ, MMZ, and NSZ in 8-unit code characters. Color data is represented by control characters such as BKF, RDF, and CSI.
  • control characters such as BKF, RDF, and CSI.
  • the character set table currently used as the internal state of the document data conversion unit 105 is switched, and nothing is added to the body data. If a control character representing character size data appears, add the character string “ku Zspan>” to the body data (however, add the “ku span” character string to the body data once. In this case, do not add “Zspan>”.
  • control character representing the character size data is SMZ
  • “x—small” is used as the character string for the size attribute of the character font information
  • “small” is used for the MMZ
  • “normal” is used for the NMZ.
  • add “ku span style “ font—size: ”to the body data.
  • the character string stored in the size attribute of the character font information is added to the body data.
  • “; color:” is added to the body data.
  • the character string stored in the foreground color attribute of the character font information is added to the body data.
  • add “background—color:” is added to the body data.
  • the character string stored in the background color attribute of the character font information is added to the body data.
  • the RBG designation is used for the foreground color attribute and the background color attribute of the character font information according to the foreground color and background color specified by each control character.
  • the character string stored in the size attribute of the character font information is added to the body data.
  • “; color:” is the body Append to data.
  • the character string stored in the background color attribute of the character font information is added to the body data. Then add ">".
  • a control character representing repeated data such as an RPC control character
  • the character that appears immediately after the control character is added to the body data as many times as the parameter is specified by the RPC control character.
  • a control character representing the sound reproduction data built in the receiver for example, a PRA control character appears, “playromsound (“ romsound: ZZ) ”is added to the header data.
  • a decimal number representing the internal sound specifier specified by the PRA control character parameter is added to the header data as a character string.
  • the 8-unit code character representing the caption 'character super input via the stream analysis unit 103 is documented.
  • the data conversion unit 105 converts the data into BML document data and outputs it to the display data generation unit 106 together with the layout data for designating the frame.
  • the display data generation unit 106 uses the HTML and BML interpretation 'display function of the WWW browser to display the BML document data output from the document data conversion unit 105 and the data broadcast output from the section analysis unit 104.
  • Display data related to subtitles' character super is generated from BML document data indicating the content.
  • the caption display device 101 can realize the display of the caption “character super” using the WWW browser.
  • the distribution of the data broadcast display area and the subtitle 'character super broadcast display area is the same as the frame area distribution setting in the WWW browser. Settings can be made.
  • the caption display device 101 can realize the same operation system as the WWW browser with respect to the screen display.
  • the caption display device 101 uses additional information such as caption "subtitles included in the character super" character super display timing data, character size data, color data, repetition data, and receiver built-in sound reproduction data. And display of expressive subtitles' character super Can be realized.
  • the display switching unit 112 receives flag data representing display / non-display processing of a menu or the like from the UI display control unit 111, so that when the menu is displayed on the display data synthesis unit 110, Indicates that the subtitle 'character super is combined with the video data, and when the menu is hidden, the subtitle' character super is not combined with the video data. Accordingly, the caption display device 101 can display the caption “text super” in the video display area when the caption “text super broadcast display area” is hidden by the menu. In other words, according to the caption display device 101, the user can view the caption / character supervision while the menu or the dialog is displayed.
  • FIG. 7 is a block diagram showing an example of the configuration of the caption display device 201 according to the second embodiment of the present invention.
  • the same components as those in the first embodiment are denoted by the same reference numerals, and description thereof is omitted.
  • the caption display device 201 includes a user operation input unit 102, a stream analysis unit 103, a section analysis unit 104, a document data conversion unit 105, a display data generation unit 106, a display control unit 107, a video data analysis unit 108, A video output unit 213, an audio data analysis unit 114, and an audio output unit 215 are provided.
  • the caption display device 201 according to the second embodiment has a configuration for synthesizing menus and dialogs with video data from the caption display device 101 according to the first embodiment (that is, the presentation data conversion unit 109, The display data synthesis unit 110, UI display control unit 111, and display switching unit 112) are omitted.
  • video data is input to the video output unit 213 from the video data analysis unit 108, and display data related to subtitles / character super is input from the display data generation unit 106.
  • the video output unit 213 displays the input video data and subtitles' character super on the display screen.
  • Voice presentation data is input to the voice output unit 215 from the voice data analysis unit 114 and the display data generation unit 106.
  • the voice output unit 215 mixes the voice input as voice presentation data and presents it to the user.
  • the caption display device 201 As described above, according to the caption display device 201 according to the second embodiment of the present invention, the caption / character super display using the WWW browser is realized as in the first embodiment. Therefore, it is possible to set the distribution of the data broadcasting display area and the caption / text broadcasting display area with the same UI as the frame area distribution setting in the WWW browser. Thereby, the caption display device 201 can realize the same operation system as the WWW browser with respect to the screen display.
  • the subtitle display device 201 uses additional information such as subtitle 'subtitles included in character super' character super display timing data, character size data, color data, repetition data, and receiver built-in sound reproduction data. In this way, it is possible to display subtitles that are expressive and to display character super.
  • FIG. 8 is a block diagram showing an example of the configuration of the caption display device 301 according to the third embodiment of the present invention.
  • a caption display device 301 includes a user operation input unit 102, a stream analysis unit 103, a video data analysis unit 108, a presentation data conversion unit 109, a display data synthesis unit 110, a UI display control unit 111, and a display switching unit.
  • 112 a video output unit 313, an audio data analysis unit 114, and an audio output unit 315.
  • the caption display device 301 according to the third embodiment is different from the caption display device 101 according to the first embodiment in that the section analysis unit 104, the document data conversion unit 105, the display data generation unit 106, and the display control unit 107 is omitted.
  • video data is input to the video output unit 313 from the display data synthesis unit 110, and subtitle “character super image data is input from the presentation data conversion unit 109.
  • subtitle “character super image data” is input from the presentation data conversion unit 109.
  • the video output unit 313 displays the video data in the video display area and the subtitle 'character super image data in the subtitle' text super broadcast display area (see FIG. 6 (a)). Also, when a menu image is input, the video output unit 313 receives the video data combined with the subtitle / character text from the display data combining unit 110. For this reason, the video output unit 313 displays the video data combined with the subtitle character in the video display area. Then, the video output unit 313 displays the input menu image in the subtitle 'text super broadcast display area. (See Fig. 6 (b)).
  • the voice output unit 315 receives voice presentation data from the voice data analysis unit 114 and the presentation data conversion unit 109.
  • the voice output unit 215 mixes the voice input as voice presentation data and presents it to the user.
  • the caption display device 301 when the caption / text broadcast display area is hidden by the menu, as in the first embodiment. Makes it possible to display subtitles and character super in the video display area. In other words, according to the caption display device 301, the user can view the caption subtitle “superscript” while the menu or dialog is displayed.
  • FIG. 9 is a block diagram showing an example of the configuration of a caption display device 401 according to the fourth embodiment of the present invention.
  • the same components as those in the first to third embodiments are denoted by the same reference numerals and the description thereof is omitted.
  • FIG. 9 the same components as those in the first to third embodiments are denoted by the same reference numerals and the description thereof is omitted.
  • the caption display device 401 includes a user operation input unit 102, a stream analysis unit 403, a section analysis unit 404, a document data conversion unit 105, a display data generation unit 106, a display control unit 107, a video data analysis unit 408, Presentation data conversion unit 109, display data synthesis unit 110, UI display control unit 111, display switching unit 112, video output unit 113, audio data analysis unit 414, audio output unit 115, tuner demodulation unit 416, and TS analysis unit 417.
  • the tuner demodulator 416 receives, for example, an OFDM (Orthogonal Frequency Division Multiplexing) carrier and demodulates it into transport stream data that stores digital TV broadcast content, and includes demodulator software and demodulator software. Realized by combination.
  • the transport stream data is, for example, data in the MP EG2 System transport stream format.
  • Tuner demodulation section 416 outputs demodulated transport stream data.
  • the TS analysis unit 417 inputs'analyzes transport stream data, analyzes PES format audio stream data, video stream data, subtitles' character superstream data, multiplexed in the transport stream data, And software that outputs section data in section format.
  • the stream analysis unit 403 is the same as the stream analysis unit 103 according to the first embodiment except that the subtitle 'character Suno stream data is input from the TS analysis unit 417.
  • the section analysis unit 404 is the same as the section analysis unit 104 according to the first embodiment except that section data is input from the TS analysis unit 417.
  • the video data analysis unit 408 is the same as the video data analysis unit 108 according to the first embodiment except that video stream data is input from the TS analysis unit 417.
  • the audio data analysis unit 414 is the same as the audio data analysis unit 117 according to the first embodiment except that audio stream data is input from the TS analysis unit 417.
  • the caption display device 401 includes the tuner demodulation unit 416 and the TS analysis unit 417, so that the television broadcast from the transmission station can be directly received.
  • FIG. 10 is a block diagram showing an example of the configuration of a caption display device 501 according to the fifth embodiment of the present invention.
  • the same components as those in the first to fourth embodiments are denoted by the same reference numerals, and the description thereof is omitted.
  • a screen display device 501 according to the fifth embodiment includes a TS storage unit 516 instead of the tuner demodulation unit 416, as compared with the caption display device 401 according to the fourth embodiment.
  • the TS storage unit 516 is realized by, for example, a combination of storage device hardware and control software.
  • Storage hardware includes, for example, a fixed hard disk, USB connection memory, RAM, ROM, DVD (Digital Versatile Disc), BD (Blue-ray Disc), HD DVD (High Definition DVD) ⁇ SD (Secure Digital) memory card. Medium and reading device.
  • the TS storage unit 516 outputs transport stream data stored in the storage device hardware under the control of the control software.
  • the caption display device 501 of the fifth embodiment of the present invention includes a TS storage unit 516 and a TS analysis unit 417, so that the TV broadcast content stored in the device can be stored. Enable subtitle display.
  • FIG. 11 is a block diagram showing an example of the configuration of a caption display device 601 according to the sixth embodiment of the present invention.
  • the caption display device 601 according to the sixth embodiment includes a user operation input unit 102, a stream analysis unit 103, a section analysis unit 104, a document data conversion unit 605, a display data generation unit 606, and a display control unit 107.
  • the display data generation unit 606 outputs, as mask data, a bit map mask image related to an area for displaying document data indicated by URI ⁇ -cc: default] in addition to the display data related to the caption / character super described above. Further, the display data generation unit 606 may output the height of the document data indicated by the URI ⁇ -cc: default] as the caption display length! /.
  • the display data generation unit 606 is the same as the display data generation unit 106 according to the first embodiment except for the points described above.
  • the document data conversion unit 605 When the document data conversion unit 605 receives a BML document instead of an 8-unit code character as subtitle / character super data, the document data conversion unit 605 does not perform the conversion described in the first embodiment, and receives the received subtitle character super.
  • the data is output as BML document data indicating the display data.
  • the document data conversion unit 605 is the same as the document data conversion unit 105 according to the first embodiment except for the points described above.
  • Display data composition unit 610 receives video data from video data analysis unit 108, and display data generation unit 606 receives display data related to subtitles / character super, mask data, and subtitle display length. .
  • the display data composition unit 610 is software that outputs display data having a resolution of QVGA (vertical 320 pixels, horizontal 240 pixels), for example.
  • the display data composition unit 610 arranges video data in a rectangular area of 180 pixels in the top and 240 pixels in the top of the display, and the display data on the subtitle 'character super in the rectangular area of 140 pixels in the bottom and 240 pixels in the bottom of the display. Place. Furthermore, the display data composition unit 610 also uses external software capabilities to match the video data and character using an overlay designation function. If you are instructed to superimpose the display data related to the curtain and text super, overlay the video data and the display data related to the text super on the 180-pixel by 240-pixel rectangular area at the top of the display. Deploy.
  • the display data composition unit 610 performs alpha composition on display data related to subtitles and character super on the video data based on the mask data and the caption display length, and uses the synthesized data as composite video display data. Output.
  • the display data composition unit 610 is the same as the display data composition unit 110 according to the first embodiment except for the points described above.
  • the video output unit 613 is supplied with a time stamp as video time information, video data or composite video display data, and display data related to subtitles' character super, from the display data synthesis unit 610.
  • the video output unit 613 displays the input video data or the composite video display data and the display data related to the caption / text supervision on the display screen.
  • the video output unit 613 is the same as the video output unit 113 according to the first embodiment except for the points described above.
  • the video output unit 613 When the video output unit 613 is instructed to enlarge and display the video data by the user via the user operation input unit 102, the above-described composite video display data is displayed on the entire display screen. It may be displayed. As a result, the user can view the video data on which the subtitle 'character super data is superimposed using the entire display screen.
  • Voice output unit 615 receives voice data in PCM format as voice presentation data from voice data analysis unit 114, and a time stamp as voice time information from display data generation unit 606.
  • the audio output unit 615 is the same as the audio output unit 615 according to the first embodiment except for the points described above.
  • FIG. 12 is a block diagram showing an example of the configuration of a caption display device 701 according to the seventh embodiment of the present invention.
  • a caption display device 701 includes a user operation input unit 102, a stream analysis unit 403, a section analysis unit 404, a document data conversion unit.
  • the caption transmission device includes a transmission TS storage unit 722, a transmission caption 'character super document data conversion unit 723 (hereinafter referred to as a transmission document data conversion unit 723), and a modulation transmission unit 724.
  • the transmission TS storage unit 722 is the same as the TS storage unit 516 according to the fifth embodiment.
  • Data in the MPEG2 System transport stream format is input to the transmission document data conversion unit 723 as transport stream data.
  • the transmission document data conversion unit 723 converts subtitle / character super data represented by 8-unit code characters in the data unit data included in the transport data stream into BML document data, and outputs it as a transport stream.
  • the transmission document data conversion unit 723 is realized by software, for example.
  • the method for converting subtitle character super data represented by 8-unit code characters into BML document data is the same as in the first embodiment.
  • MPEG2 System transport stream format data is input to modulation transmission section 724.
  • the modulation transmission unit 724 is realized by a combination of software that modulates and transmits input data to an OFDM carrier wave and hardware including a transmitter.
  • the subtitle display device 701 can convert the subtitle character super data in the transport stream into a BML document before transmission on the transmitting station side.
  • Each processing procedure performed by the caption display devices described in the first to seventh embodiments is a predetermined processing procedure that can execute the above-described processing procedure stored in a storage device (ROM, RAM, hard disk, etc.).
  • Program data power May be realized by being interpreted and executed by the CPU.
  • the program data may be introduced into the storage device via the storage medium, or may be directly executed from the storage medium.
  • the storage medium is a semiconductor memory such as ROM, RAM or flash memory, or a magnetic disk such as a flexible disk or a node disk.
  • the storage medium is a concept including a communication medium such as a telephone line or a conveyance path.
  • the configurations included in the caption display devices described in the first to seventh embodiments can be realized as LSIs that are integrated circuits. These may be individually made into one chip, or may be made into one chip so as to include all or part of each. Here, it is sometimes called IC, system LSI, super LSI, or ultra LS I depending on the difference in power integration.
  • the method of circuit integration is not limited to LSI's, and implementation using dedicated circuitry or general purpose processors is also possible.
  • An FPGA Field Programmable Gate Array
  • a reconfigurable 'processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.
  • integrated circuit technology that replaces LSI emerges as a result of advances in semiconductor technology or other derived technologies, it is naturally possible to integrate functional blocks using this technology. Possible applications of biotechnology are possible.
  • the caption display device has an effect of improving the operability of the user and the caption readability with respect to the viewing of the caption, and is useful as a television receiver, a content reproduction device with captions, and the like. It is.

Abstract

 端末の種類によらず一貫性のある操作体系で字幕・文字スーパの配分等の表示設定を変更でき、かつメニューやダイアログ表示時にも字幕・文字スーパの閲覧が可能である字幕表示装置を提供する。  字幕表示装置は、文書データ変換部(105)と、表示データ生成部(106)とに字幕・文字スーパを表示させることにより、WWWブラウザのフレーム機能を用いて表示領域の配分設定を可能とする。また、字幕表示装置は、表示制御部(107)を用いてWWWブラウザでの字幕表示を可能とし、表示切替え部(112)を用いてメニュー・ダイアログ等の表示に応じて映像表示領域での字幕・文字スーパの表示を可能とする。

Description

明 細 書
字幕表示装置
技術分野
[0001] 本発明は、映像や字幕'文字スーパ等を表示する字幕表示装置に関し、より特定 的には、端末の種類によらず一貫性のある操作体系で字幕'文字スーパの配分等の 表示設定を変更でき、かつメニューやダイアログ表示時にも字幕'文字スーパの閲覧 が可能である字幕表示装置に関する。
背景技術
[0002] デジタルテレビ放送において、映像や音声の提示タイミングに同期して、すなわち テレビ番組の内容に同期して画面に表示される文字列を「字幕」と呼ぶ。一方、テレ ビ番組の内容に同期せず画面に表示される文字列を「文字スーパ」と呼ぶ。以降、字 幕と文字スーパとの総称を「字幕 ·文字スーパ」と呼ぶ。
[0003] デジタルテレビ放送においては、従来アナログテレビ放送で一般的であった、送信 局側で、映像に字幕'文字スーパ画像を重ね合わせるオープンキャプション方式に 加え、クローズキャプション方式が標準規格として採用されている。クローズキヤプショ ン方式では、送信局側から字幕'文字スーパに関するデータを映像と独立して送信 し、受信機側で字幕'文字スーパに関するデータ (以下、字幕'文字スーパデータと 記す)を画像に変換し、映像と重ね合わせて利用者に提示する。クローズドキヤプシ ヨン方式を採用することにより、受信機側で字幕 ·文字スーパ等の表示の有無を制御 できるほか、例えば、字幕 ·文字スーパに言語識別子を付加することにより、利用者 が見たい言語で字幕'文字スーパを閲覧することが可能になる。以降、クローズドキヤ プシヨン方式での字幕 ·文字スーパの表示方法に関して述べる。
[0004] 字幕 ·文字スーパデータには、表示する文字の集合である文字列自体を表す文字 データと付加情報とが含まれる。付加情報を用いることによって、受信機は、ただ単 に文字列を画面に表示するだけでなぐ字幕 ·文字スーパの表現力を向上させること ができる。すなわち、利用者にわ力りやすい表示や強調等の表現を行うことが可能と なる。一般的に字幕'文字スーパの付加情報には、以下の種類のデータが含まれる [0005] 字幕 ·文字スーパ表示タイミングデータは、字幕 ·文字スーパを表示する時刻を表 すデータである。受信機は、字幕'文字スーパ表示タイミングデータを利用することで 、字幕とテレビ番組との同期を実現する。文字サイズデータは、字幕 ·文字スーパとし て文字列を表示する際の大きさを指定するデータである。色データは、字幕'文字ス ーパとして表示する文字列自体の色やその背景色を指定するデータである。繰り返 しデータは、同じ文字列を繰り返し表示したい場合に字幕'文字スーパデータの量を 節約できるよう、文字列の繰り返し回数を指定するデータである。受信機内蔵音再生 データは、予め受信機に格納された音データを識別子で指定することにより、文字や 文字列が表示されるタイミングに合わせて音データを再生させることを指定するデー タである。
[0006] 受信機の中でも、利用時に一定の場所に置いて利用することを前提にした受信機 を、特に固定受信機と呼ぶ。固定受信機の特徴は、受信機が持つ表示画面が一般 的に十数インチ以上の大きさになることである。一方、携帯電話、 PDA (Personal Digital Assistant)、デジタルカメラ等のように利用者が携帯し、移動することを前 提にした機器にデジタル放送受信機能を付加した端末、及び携帯型デジタル放送 受信専用端末を特に携帯受信機と呼ぶ。携帯受信機の特徴は、受信機が持つ表示 画面が数インチ以下(多くの場合 3インチ以下)の大きさになることである。
[0007] デジタル放送を受信する固定受信機では、一般的に送信局力 送信されてきた映 像データと字幕 ·文字スーパデータとをそれぞれ映像と字幕 ·文字スーパ画像とに変 換し、変換した映像と字幕'文字スーパ画像とを重ね合わせ合成して表示画面に表 示する。一方、デジタル放送を受信する携帯受信機では、一般的に送信局から送信 されてきた映像データと字幕 ·文字スーパデータとをそれぞれ映像と字幕 ·文字スー パ画像とに変換し、変換した映像と字幕'文字スーパ画像とを表示画面の別領域に 表示する。
[0008] 字幕'文字スーパの表示方法に関して、固定受信機と携帯受信機とで異なる特徴 は、主にそれぞれの受信機が持つ表示画面の大きさの違いに起因する。固定受信 機では、表示画面が十数インチ以上と大きいため、映像と字幕 ·文字スーパとを重ね 合わせて表示しても、利用者が字幕'文字スーパを映像と区別して認識することが可 能である。映像をなるベく大きく表示させる方が映像の表現力や利用者に与える迫 力が増すため、固定受信機では、表示画面の表示領域の全てに映像を表示できるよ うに、映像と字幕 ·文字スーパとを重ね合わせ合成して表示させるほうが好ましい。
[0009] 一方、携帯受信機では、表示画面が数インチ以下と小さいため、映像と字幕'文字 スーパとを重ね合わせ合成すると、利用者が字幕'文字スーパを認識できない、又は 認識が困難になる可能性がある。従って、映像の表示サイズを小さくして、映像と字 幕 ·文字スーパとをそれぞれ別の領域に表示させる方が好ましい。特に携帯電話の ような表示装置が一般的に縦長であるような端末にテレビ受信機能を持たせた携帯 受信機の場合は、 4 : 3や 16 : 9の映像を表示させると、表示画面の上下に表示の空 き領域が存在することになる。この空き領域に字幕'文字スーパを表示させることで、 映像表示領域の大きさを犠牲にすることなく字幕'文字スーパの専用表示領域を確 保することが可能となる。
[0010] また、デジタルテレビ放送では、映像、音声、番組情報、及び字幕 ·文字スーパ以 外にも、送信局カゝら受信機に送信されるコンテンツとしてデータ放送がある。データ 放送の内容は、例えば、 BML (Broadcast Markup Language)や静止画 '動画 等によって表現される BML文書として送信される。データ放送では、映像や字幕'文 字スーパと同じぐ画面上に表示を行うことで利用者へのコンテンツ提示が行われる。 データ放送は、携帯受信機においては字幕'文字スーパと同様の理由から、映像と は独立した領域に表示されることが好ましい。すなわち、携帯受信機などの字幕表示 装置は、映像とデータ放送と字幕'文字スーパとを表示画面に同時に表示する際は 、映像の表示領域、データ放送の表示領域、字幕'文字スーパの表示領域を別個の 領域にすることが好ましい。
[0011] 図 13は、携帯受信機によるデータ放送や字幕 ·文字スーパの表示レイアウトの一例 を示す図である。図 13 (a)は、映像とデータ放送とを表示する場合のレイアウトを示し ている。図 13 (b)は、映像と字幕'文字スーパとデータ放送とを表示する場合のレイ アウトを示している。図 13 (a)において、携帯受信機は、一般的に縦長の表示画面を 持っため、映像の表示領域の下にデータ放送の表示領域を配置するのが普通であ る。また、図 13 (b)において、携帯受信機がさらに字幕'文字スーパを表示する場合 、データ放送の表示領域は、字幕'文字スーパの表示領域と共有される。すなわち、 データ放送の表示領域が分割され、字幕 ·文字スーパ領域とデータ放送領域とに配 分される。字幕'文字スーパ放送表示領域とデータ放送表示領域との配分の割合は 、利用者が好みに応じて設定できることが好ましい。
[0012] さらに、字幕 ·文字スーパ等の表示方法に関して、固定受信機と携帯受信機とで異 なる点として、表示画面の規定に関する違いが挙げられる。固定受信機では、表示 画面に対する解像度や比率に関して、標準的なモデルを提供することができる。一 方、携帯受信機の場合、特に携帯電話や PDA、デジタルカメラ等の端末にデジタル 放送受信機能が付加されている携帯受信機においては、本来の端末の機能、用途 、形状に応じて、表示画面の縦横の比率や解像度が大きく異なる。そのため、携帯 受信機では、標準的な表示モデルを提供することが難しい。仮に標準的な表示モデ ルが提供された場合には、端末の種類毎に最適化された表示モデルを提供すること ができなくなる。従って、従来の携帯受信機では、標準的な表示モデルを規定せず に、映像や字幕 ·文字スーパの表示方法に関しては、各端末の実装に委ねられてい た。このように、各端末の実装に委ねられた表示方法を従来の表示方法 1とする。
[0013] また、その他の表示方法として、 WWWブラウザを用いて字幕 ·文字スーパを表示 する表示方法が開示されている(例えば、特許文献 1)。 WWWブラウザを用いる表 示方法においては、文字放送データを HTML (Hyper Text Markup Languag e)データに変換し、 WWWブラウザを用いて表示画面への文字放送の表示を実現 する。 WWWブラウザは、表示画面の解像度や表示領域のサイズに対してコンテンツ の表示レイアウトを最適化する機能を有して 、る。携帯受信機のように端末の種類に よって表示画面の解像度や大きさが異なる端末においては、字幕'文字スーパの表 示に WWWブラウザを用いることは、表示レイアウトを最適化する機能を利用できる点 で有効である。このように、 WWWブラウザを用いて字幕'文字スーパを表示する方 法を従来の表示方法 2とする。
特許文献 1:特開平 11― 18060号公報
発明の開示 発明が解決しょうとする課題
[0014] しかしながら、従来の表示方法 1 (すなわち、各端末の実装に委ねられた表示方法 )によれば、字幕'文字スーパ放送表示領域とデータ放送表示領域との配分設定な どの画面表示に関する操作体系も各端末の実装に委ねられていた。そのため、従来 の表示方法 1が適用された字幕表示装置には、利用者の混乱を避けるために、画面 表示に関して、端末に固有の操作体系と一貫性のある操作体系をそれぞれの端末 毎に提供しなければならな 、と 、う課題があった。
[0015] また、従来の表示方法 2 (すなわち、 WWWブラウザを用いた表示方法)によれば、 データ放送の内容を WWWブラウザ上で閲覧できるのみで、字幕 ·文字スーパに含 まれる字幕'文字スーパ表示タイミングデータ、文字サイズデータ、色データ、繰り返 しデータ、及び受信機内蔵音再生データと ヽつた付加情報を WWWブラウザでの表 示に反映させることができな力つた。このため、従来の表示方法 2が適用された字幕 表示装置には、表現力が乏しいという課題があった。
[0016] さらに、従来の表示方法 1及び表示方法 2によれば、字幕表示装置がテレビ提示機 能に関する情報や警告表示のためにメニューやダイアログパネルを表示する際、字 幕.文字スーパ放送表示領域力 Sメニューやダイアログの表示によって隠れることにな る(図 14参照)。このため、従来の表示方法 1及び表示方法 2が適用された字幕表示 装置には、メニューやダイアログを表示している間は、利用者が字幕'文字スーパを 閲覧できなくなるという課題があった。
[0017] それ故に、本発明の目的は、端末の種類によらず一貫性のある操作体系で字幕 · 文字スーパの配分等の表示設定を変更でき、かつメニューやダイアログ表示時にも 字幕'文字スーパの閲覧が可能である字幕表示装置を提供することである。
課題を解決するための手段
[0018] 本発明は、少なくとも字幕 ·文字スーパストリームデータとセクションデータとを含む ストリームデータをコンテンツデータとして取得し、取得したコンテンツデータを画面 表示する字幕表示装置に向けられている。そして上記目的を達成するために、本発 明の字幕表示装置は、ストリーム解析部、文書データ変換部、セクション解析部、及 び表示データ生成部を備える。 [0019] ストリーム解析部は、ストリームデータに含まれる字幕'文字スーパストリームデータ を解析し、表示対象の字幕'文字スーパデータを出力する。セクション解析部は、スト リームデータに含まれるセクションデータを解析し、第 1の文書データに変換する。文 書データ変換部は、ストリーム解析部から出力された字幕'文字スーパデータを、第 1 の文章データと同一形式の第 2の文書データに変換し、第 2の文書データの表示領 域を指定するレイアウトデータと共に出力する。表示データ生成部は、セクション解析 部から出力された第 1の文書データ、文書データ変換部から出力された第 2の文書 データ、及びレイアウトデータに基づいて、字幕 ·文字スーパに関する表示データを 生成する。
[0020] 好ましくは、ストリーム解析部は、字幕'文字スーパデータの提示時刻を示す字幕時 刻情報をさらに出力する。この場合、字幕表示装置は、字幕時刻情報によって示さ れたタイミングに基づいて、表示データ生成部に表示データの更新を要求する表示 制御部を備える。そして、表示データ生成部は、表示制御部から更新の要求を受け 取った場合、字幕'文字スーパに関する表示データの更新を行う。
[0021] 好ましくは、字幕表示装置は、提示データ変換部、映像データ解析部、表示切替 え部、及び表示データ合成部をさらに備える。提示データ変換部は、ストリーム解析 部から出力された字幕'文字スーパデータを画像データに変換して、字幕'文字スー パ画像データとして提示する。映像データ解析部は、ストリームデータに含まれる映 像ストリームデータを解析し、映像データとして出力する。表示切替え部は、映像デ ータに、字幕'文字スーパ画像データを重ね合わせて表示する力否かを決定する。 表示データ合成部は、表示切替え部の決定に従って、映像データ、あるいは映像デ ータに字幕 ·文字スーパ画像データを重ね合わせた合成映像表示データを出力す る。映像出力部は、表示データ合成部が出力した映像データまたは合成映像表示 データと、表示データ生成部が生成した字幕 ·文字スーパに関する表示データとを画 面表示する。
[0022] 表示データ合成部は、表示切替え部が、映像データに字幕 ·文字スーパ画像デー タを重ね合わせて表示しないと決定した場合には、映像データを出力し、表示切替 え部が、映像データに字幕'文字スーパ画像データを重ね合わせて表示すると決定 した場合には、映像データに字幕'文字スーパ画像データを重ね合わせ合成して、 合成したデータを合成映像表示データとして出力する。
[0023] 好ましくは、表示データ生成部は、字幕 ·文字スーパに関する表示データに加えて 、第 2の文章データを表示する領域を表したビットマップ画像をマスクデータとして出 力する。この場合、字幕表示装置は、映像データ解析部、表示切替え部、表示デー タ合成部、映像出力部とをさらに備える。映像データ解析部は、ストリームデータに含 まれる映像ストリームデータを解析し、映像データとして出力する。表示切替え部は、 映像データに、字幕'文字スーパに関する表示データを重ね合わせて表示するか否 かを決定する。表示データ合成部は、表示切替え部の決定に従って、映像データま たは映像データにビットマップ画像を重ね合わせた合成映像表示データと、字幕'文 字スーパに関する表示データとを出力する。映像出力部は、表示データ合成部が出 力した映像データまたは合成映像表示データと、表示データ生成部が生成した字幕 •文字スーパに関する表示データとを画面表示する。また、表示データ合成部は、表 示切替え部が、映像データに字幕 ·文字スーパに関する表示データを重ね合わせて 表示しないと決定した場合には、映像データと字幕 ·文字スーパに関する表示データ とを出力する。あるいは、表示データ合成部は、表示切替え部が、映像データに字幕 •文字スーパに関する表示データを重ね合わせて表示すると決定した場合には、合 成映像表示データと、字幕 ·文字スーパに関する表示データとを出力する。
[0024] また、字幕表示装置は、字幕'文字スーパデータに文書データを含んだコンテンツ データを受信するデータ受信部をさらに備えることができる。この場合、文書データ 変換部は、受信した字幕 ·文字スーパデータ力 文書データを取り出し、表示データ 生成部に出力する。
[0025] また、本発明は、上述した画面表示する実現する字幕表示方法、字幕表示方法を 実行するためのプログラム、そのプログラムを格納した記憶媒体、及び集積回路にも 向けられている。そして、上記目的を達成させるために、本発明の字幕表示方法は、 ストリームデータに含まれる字幕'文字スーパストリームデータを解析し、表示対象の 字幕'文字スーパデータを出力するストリーム解析ステップと、ストリームデータに含ま れるセクションデータを解析し、第 1の文書データに変換するセクション解析ステップ と、ストリーム解析ステップ力 出力された字幕'文字スーパデータを、第 1の文章デ ータと同一形式の第 2の文書データに変換し、第 2の文書データの表示領域を指定 するレイアウトデータと共に出力する文書データ変換ステップと、セクション解析ステツ プで出力された第 1の文書データ、文書データ変換ステップで出力された第 2の文書 データ、及びレイアウトデータに基づいて、字幕 ·文字スーパに関する表示データを 生成する表示データ生成ステップとを備える。
発明の効果
[0026] 以上のように、本発明によれば、ストリーム解析部を介して入力された字幕 ·文字ス ーパを表す 8単位符号文字を文書データ変換部が BML文書データに変換し、フレ ーム指定を行うレイアウトデータと共に表示データ生成部に出力する。表示データ生 成部は、 WWWブラウザが備える HTML及び BMLの解釈'表示機能を用いて、文 書データ変換部から出力された BML文書データと、セクション解析部から出力され たデータ放送用コンテンツを示す BML文書データとから字幕'文字スーパに関する 表示データを生成する。これにより、字幕表示装置は、 WWWブラウザを利用した字 幕'文字スーパの表示を実現することができる。
[0027] また、字幕 ·文字スーパの表示に WWWブラウザを利用することで、 WWWブラウザ におけるフレーム領域の配分設定と同じ UIで、データ放送表示領域と字幕'文字ス ーパ放送表示領域との配分設定を行うことが可能となる。これにより、字幕表示装置 は、画面表示に関して、 WWWブラウザと同じ操作体系を実現することができる。
[0028] また、字幕表示装置は、字幕'文字スーパに含まれる字幕'文字スーパ表示タイミン グデータ、文字サイズデータ、色データ、繰り返しデータ、及び受信機内蔵音再生デ ータといった付加情報を用いることで、表現力のある字幕'文字スーパの表示を実現 することができる。
[0029] また、表示切替え部は、 UI表示制御部からメニュー等の表示,非表示処理を表す フラグデータを受け取ることで、表示データ合成部に対してメニューが表示された際 には、字幕'文字スーパを映像データと合成するように指示し、メニューが非表示に なった際には、字幕'文字スーパを映像データと合成しないように指示する。これによ つて、字幕表示装置は、字幕 ·文字スーパ放送表示領域がメニューによって隠された 際には、映像表示領域に字幕 ·文字スーパを表示させることが可能になる。すなわち 、メニューやダイアログが表示されている間も、利用者は字幕'文字スーパを閲覧でき るよつになる。
図面の簡単な説明
[図 1]図 1は、本発明の第 1の実施形態に係る字幕表示装置 101の構成の一例を示 すブロック図である。
[図 2]図 2は、文書データ変換部 105が出力するレイアウトデータの一例を示す図で ある。
[図 3]図 3は、字幕'文字スーパデータとして入力された 8単位符号文字の一例を示す 図である。
[図 4]図 4は、 8単位符号文字力も変換された BML文書データの一例を示す図であ る。
[図 5]図 5は、 playromsound O関数を含む BML文書データの一例を示す図である
[図 6]図 6は、映像出力部 113によって実現される表示レイアウトの一例を示す図であ る。
[図 7]図 7は、本発明の第 2の実施形態に係る字幕表示装置 201の構成の一例を示 すブロック図である。
[図 8]図 8は、本発明の第 3の実施形態に係る字幕表示装置 301の構成の一例を示 すブロック図である。
[図 9]図 9は、本発明の第 4の実施形態に係る字幕表示装置 401の構成の一例を示 すブロック図である。
[図 10]図 10は、本発明の第 5の実施形態に係る字幕表示装置 501の構成の一例を 示すブロック図である。
[図 11]図 11は、本発明の第 6の実施形態に係る字幕表示装置 601の構成の一例を 示すブロック図である。
[図 12]図 12は、本発明の第 7の実施形態に係る字幕表示装置 701の構成の一例を 示すブロック図である。 [図 13]図 13は、携帯受信機によるデータ放送や字幕'文字スーパの表示レイアウトの 一例を示す図である。
[図 14]図 14は、従来の表示方法の問題点を説明する図である。
符号の説明
[0031] 101、 201、 301、 401、 501、 601、 701 字幕表示装置
102 ユーザ操作入力部
103、 403 ストリーム解析部
104、 404 セクション解析部
105、 605、 723 文書データ変換部
106、 606 表示データ生成部
107 表示制御部
108、 408 映像データ解析部
109 提示データ変換部
110、 610 表示データ合成部
111 UI表示制御部
112 表示切替え部
113、 213、 313、 613 映像出力部
114、 414 音声データ解析部
115、 215、 315、 615 音声出力部
416 チューナ復調部
417 TS解析部
516, 722 TS格納部
724 変調送信部
発明を実施するための最良の形態
[0032] (第 1の実施形態)
図 1は、本発明の第 1の実施形態に係る字幕表示装置 101の構成の一例を示すブ ロック図である。図 1において、字幕表示装置 101は、ユーザ操作入力部 102、字幕 '文字スーパストリーム解析部 103 (以下、単にストリーム解析部 103と記す)、セクショ ン解析部 104、字幕'文字スーパ文書データ変換部 105 (以下、単に文書データ変 換部 105と記す)、表示データ生成部 106、字幕 ·文字スーパ表示制御部 107 (以下 、単に表示制御部 107と記す)、映像データ解析部 108、字幕'文字スーパ提示デー タ変換部 109 (以下、単に提示データ変換部 109と記す)、映像字幕'文字スーパ表 示データ合成部 110 (以下、単に表示データ合成部 110と記す)、 UI表示制御部 11 1、字幕'文字スーパ表示切替え部 112 (以下、単に表示切替え部 112と記す)、映 像出力部 113、音声データ解析部 114、及び音声出力部 115を備える。
[0033] 字幕表示装置 101には、 TS受信部を介して、 MPEG2 Systemのトランスポート ストリーム形式のデータである MPEG2—TS (MPEG2 System Transport Str earn)が入力される。
[0034] ユーザ操作入力部 102は、例えば、携帯電話のキーパッドデバイスやキーパッドデ バイスの状態を監視するソフトウェアの組み合わせによって実現される。ユーザ操作 入力部 102は、キーバッドデバイスの押下を検出し、ユーザが入力した情報をキーィ ベントとして出力する。
[0035] ストリーム解析部 103は、字幕'文字スーパストリームデータとして入力された MPE G2— TSに含まれる PES (Packetized Elementary Stream)を、字幕'文字スー パデータが格納されたデータとして解析する。ストリーム解析部 103は、例えば、ソフ トウエアによって実現される。ストリーム解析部 103は、字幕'文字スーパデータが格 納された PESを解析することで、表示開始時刻を字幕時刻情報として、データュ-ッ トデータの 8単位文字符号データを字幕'文字スーパデータとして出力する。字幕時 刻情報は、例えば、 36ビットの数値で表される。例えば、ストリーム解析部 103は、 P ES中の PTS (Presentation Time Stamp)を字幕時刻情報とすることができる。 あるいは、ストリーム解析部 103は、 PES中の時刻制御モードが即時再生の場合に は、現在の時刻を字幕時刻情報とすることができる。
[0036] セクション解析部 104は、セクションデータとして入力された MPEG2— TSに含ま れるセクション形式で格納されたデータを、データ放送用のコンテンツを示す BML文 書データに変換する。セクション解析部 104は、例えば、ソフトウェアによって実現さ れる。デジタル放送では、 BML文書データは、セクション形式を用いた DSMCC (Di gital Storage Media Commnad and Control)方式で伝送される。セクション 解析部 104は、セクション上に DSMCC方式で伝送される DDB (Download Data Block)メッセージや、 DII (Download Info Indication)メッセージを解析し、 D DB及び DIIで表現されるリソースである BML文書データを抽出する。
[0037] 文書データ変換部 105には、ストリーム解析部 103から字幕'文字スーパデータとし て 8単位符号文字が入力される。文書データ変換部 105は、入力された 8単位符号 文字を変換し、 BML文書データと、 FRAME要素を含む HTML文書であるレイァゥ トデータとを出力する。文書データ変換部 105は、例えば、ソフトウェアによって実現 される。図 2は、文書データ変換部 105が出力するレイアウトデータの一例を示す図 である。図 2において、レイアウトデータは、初期状態でデータ放送表示領域を上下 に 2分割し、上半分に字幕 ·文字スーパを、下半分にデータ放送を表示することを示 している。具体的には、 1つ目の FRAME要素の SRC属性値「x—cc : default」は、 文書データ変換部 105から出力される BML文書データを指定している。 2つ目の F RAME要素の SRC属性値「x— dc : default」は、セクション解析部 104から出力され る BML文書データを指定して ヽる。
[0038] 文書データ変換部 105は、所定の方法により、 8単位符号文字から BML文書デー タへの変換を実現する。図 3は、字幕'文字スーパデータとして入力された 8単位符 号文字の一例を示す図である。図 4は、 8単位符号文字から変換された BML文書デ ータの一例を示す図である。図 3において、「[」と「]」とで囲まれた文字列は、制御文 字を表し、制御文字の種別の直後に書かれた数字は、制御文字に対するパラメータ を表す。文書データ変換部 105は、 8単位符号文字(図 3参照)に内蔵音再生データ や文字サイズデータを表す制御文字が含まれているので、 playromsound O関数を 含み、文字の大きさに関してスタイル指定された BML文書データ(図 4参照)を出力 する。 8単位符号文字から BML文書データへの具体的な変換方法は、後に詳細を 説明する。
[0039] 表示データ生成部 106には、セクション解析部 104からデータ放送用のコンテンツ を表す BML文書データが入力され、文書データ変換部 105から字幕'文字スーパを 表す BML文書データ及びレイアウトデータが入力される。表示データ生成部 106は 、例えば、 HTMLや BMLを解釈.表示可能な WWWブラウザソフトウェアである。表 示データ生成部 106は、入力された BML文書データやレイアウトデータに含まれる HTMLや BMLで指定されたタグや関数宣言の内容に従って、字幕 ·文字スーパに 関する表示データを生成する。
[0040] 入力されるレイアウトデータ中の FRAME要素で指定される SRC属性には、 BML 文書データを示す URLが格納されている。表示データ生成部 106は、レイアウトデ ータに含まれる FRAMESET要素の rows属性または cols属性に基づき、複数の B ML文書データのレイアウト方法を決定する。図 2のレイアウトデータが入力された場 合、表示データ生成部 106は、表示領域を上下に 2分割し、上半分に URI「x— cc : d efaultjで示される BML文書データを、下半分に URI「x— dc: default]で示される BML文書データを表示する。表示データ生成部 106は、「x— cc : default」を文書 データ変換部 105から出力される BML文書データを表す URIとして、「x— dc : defa ult」をセクション解析部 104から出力される BML文書データを表す URIとして認識 する。
[0041] 表示データ生成部 106は、 HTML及び BMLの解析'表示機能を用いて、 FRAM E要素で指定された BML文書データ及び FRAMSET要素で指定されたレイアウト に基づき、表示データとしてビットマップデータに変換する。 BML文書データに play romsound O関数が含まれ、 BML文書データ解釈中に該当関数が実行された場合 、表示データ生成部 106は、 playromsound O関数の引数で指定された、予め RO Mまたは RAMに格納された内蔵音データを音声提示データとして出力する。このと き、音声時刻情報を表すタイムスタンプは、現在の時刻とすることができる。内蔵音デ ータは、例えば、 PCM (Pulse Code Modulation)形式で表現される。
[0042] 図 5は、 playromsound ()関数を含む BML文書データの一例を示す図である。表 示データ生成部 106は、外部のソフトウェアに対して、表示データの更新要求を受け 付けるためのインタフェースを、更新要求関数として提供する。表示データ生成部 10 6は、外部のソフトウェア等力 表示データの更新要求関数を呼び出されると、 BML 文書データを再入力して解釈し、表示データ及び音声提示データを出力する。表示 データ生成部 106は、レイアウトデータにより複数の文書データを表示している場合 、特定の文書データの 1つを指定して表示データの更新ができるよう、更新要求関数 に文書データ指定用のパラメータが用意される。表示データ生成部 106は、ユーザ 操作入力部 102からキーイベントが入力されることによって、フレーム領域の変更や スクロール、リンクの押下等の WWWブラウザに対する入力に反応し、必要があれば 表示データの更新を行う。
[0043] 表示制御部 107には、ストリーム解析部 103から字幕時刻情報が入力される。表示 制御部 107は、字幕時刻情報によって示された時刻になったときに、表示データ生 成部 106である WWWブラウザソフトウェアの更新要求関数を呼び出す。これにより、 表示データ生成部 106は、テレビ番組と同期したタイミングで字幕の表示を更新する ことが可能となる。
[0044] 映像データ解析部 108は、映像ストリームデータとして入力された MPEG2— TSに 含まれる PESを、映像が格納されたデータとして解析する。映像データ解析部 108 は、例えば、デコーダなどのソフトウェアによって実現される。 PESに格納された映像 ストリームデータは、例えば、 MEPG4 AVCの映像 ES (Elementary Stream)形 式のデータである。映像データ解析部 108は、映像ストリームデータを解析し、 YUV 形式の映像データとして出力する。このとき、映像時刻情報を表すタイムスタンプは、 PES中の PTSとすることができる。
[0045] 提示データ変換部 109には、ストリーム解析部 103から字幕'文字スーパデータとし て 8単位符号文字と字幕時刻情報とが入力される。提示データ変換部 109は、字幕 時刻情報に示された表示タイミングに従って、字幕'文字スーパデータをビットマップ 形式の画像に変換して、字幕'文字スーパ画像データとして出力する。提示データ変 換部 109は、例えば、ソフトウェアによって実現される。具体的には、提示データ変換 部 109は、字幕 ·文字スーパデータとして入力された 8単位符号文字を解析し、 RO Mまたは RAMに格納された文字フォントを用いて、字幕'文字スーパを表現するビッ トマップ形式の画像データを生成する。提示データ変換部 109は、文字'字幕スーパ をビットマップ画像に変換する際、 8単位符号文字に含まれる制御データに従い、文 字サイズや文字色、背景色、文字の繰り返し回数を考慮する。提示データ変換部 10 9は、文字フォントを字幕'文字スーパとして表現したビットマップ画像、及び文字スー パを表す領域とそれ以外の領域とを区別してアルファ合成するためのビットマップマ スク画像を字幕'文字スーパ画像データとして出力する。
[0046] また、提示データ変換部 109は、 8単位符号文字に含まれる制御データに受信機 内蔵音再生データを示す制御文字が含まれて!/ヽた場合は、制御文字で指定された パラメータに基づき、予め ROMまたは RAMに格納された PCM形式の内蔵音デー タを音声提示データとして出力する。このとき、音声時刻情報を表すタイムスタンプは 、字幕時刻情報として入力されたタイムスタンプの時刻とする。
[0047] 表示データ合成部 110には、映像データ解析部 108から YUV形式の映像データ 力 提示データ変換部 109からビットマップ形式の字幕'文字スーパ画像データが入 力される。表示データ合成部 110は、表示切替え部 112から指示された場合、映像 データに字幕 ·文字スーパ画像データを重ね合わせ合成する。表示データ合成部 1 10は、例えば、映像処理ソフトウェアによって実現される。表示データ合成部 110は 、外部のソフトウェアに対して、重ね合わせを行うか否かを指定するためのインタフエ ースを、重ね合わせ指定関数として提供する。重ね合わせ指定関数は、重ね合わせ を行うか否かの真偽値パラメータを持つ。外部のソフトウェア等によって重ね合わせを 行うように指定された場合、表示データ合成部 110は、 YUV形式の映像データの各 フレームを解析し、入力されたビットマップ画像をビットマップマスク画像に基づ 、て、 映像データとアルファ合成し、再度フレームを構成した YUV形式の映像データに変 換'出力する。重ね合わせ指定関数により重ね合わせを行わないよう指定されている 場合、表示データ合成部 110は、入力された映像データをそのまま出力する。また、 表示データ合成部 110は、入力された映像時刻情報のタイムスタンプをそのまま映 像時刻情報として出力する。
[0048] UI表示制御部 111には、ユーザ操作入力部 102からキーイベントが入力される。 U I表示制御部 111は、入力されたキーイベントの内容に基づいて、メニューやダイァロ グを表示 '消去する。 UI表示制御部 111は、例えば、ソフトウェアによって実現される 。 UI表示制御部 111は、キーバッド上のメニューキーが押下されたとき、 UIメニュー を表すビットマップ画像とビットマップマスク画像とを生成する(以下、生成された画像 をメニュー画像と記す)。 UI表示制御部 111は、メニューの表示'非表示処理を行う 際、 UI表示データとしてフラグデータを出力する。フラグデータは、メニューの表示処 理を行う場合は"真"に、メニューの非表示処理を行う場合は"偽"に設定される。
[0049] 表示切替え部 112には、 UI表示制御部 111からフラグデータが入力される。表示 切替え部 112は、入力されたフラグデータの真偽値に基づいて、表示データ合成部 110の重ね合わせ指定関数を呼び出すことにより、映像データに字幕 ·文字スーパ 画像データの重ね合わせを行うか否かを指定する。表示切替え部 112は、例えば、 ソフトウェアによって実現される。フラグデータが真に設定されている場合、表示切替 え部 112は、表示データ合成部 110の重ね合わせ指定関数を、パラメータを真に設 定して呼び出す (すなわち、重ね合せを行うよう指示する)。フラグデータが偽に設定 されている場合、表示切替え部 112は、表示データ合成部 110の重ね合わせ指定 関数を、ノ メータを偽に設定して呼び出す (すなわち、重ね合わせを行わないよう 指示する)。
[0050] 表示切替え部 112は、メニュー表示時には、映像表示領域に字幕 ·文字スーパを 重ね合わせ合成する。一方、表示切替え部 112は、メニュー非表示時には、映像表 示領域に字幕 ·文字スーパを重ね合わせ合成しない。これによつて、表示切替え部 1 12は、字幕 ·文字スーパ放送表示領域がメニュー表示によって隠された場合にも、 映像表示領域に字幕'文字スーパを表示することができる。
[0051] 映像出力部 113には、表示データ合成部 110から映像データ、及び表示データ生 成部 106から字幕'文字スーパに関する表示データが入力される。また、ユーザが所 定のキー操作を行った場合、映像出力部 113には、表示切替え部 112を介してメ- ユー画像が入力される。映像出力部 113は、入力された映像データ、字幕'文字スー パ、及びメニュー画面等を表示画面に表示する。映像出力部 113は、例えば、表示 画面と、表示画面上のレイアウト表示を制御するソフトウェアとの組み合わせによって 実現される。
[0052] 図 6は、映像出力部 113によって実現される表示レイアウトの一例を示す図である。
図 6では、 QVGA (縦 320ピクセル、横 240ピクセル)の解像度を持つ液晶ディスプレ ィが表示画面として用いられた場合を示している。映像出力部 113は、液晶ディスプ レイ上部の縦 180ピクセル横 240ピクセルの矩形領域 (以下、映像表示領域と記す) に映像データを、ディスプレイ下部の縦 140ピクセル、横 240ピクセルの矩形領域( 以下、字幕'文字スーパ放送表示領域と記す)に表示データを表示する(図 6 (a)参 照)。
[0053] また、メニュー画像が入力された場合、映像出力部 113には、表示データ合成部 1 10から字幕'文字スーパと合成された映像データが入力されることになる。このため、 映像出力部 113は、映像表示領域に字幕 ·文字スーパと合成された映像データを表 示する。そして、映像出力部 113は、入力されたメニュー画像を表示データ(すなわ ち、字幕 ·文字スーパ放送表示領域)の前面に表示させる(図 6 (b)参照)。
[0054] 音声データ解析部 114は、音声ストリームデータとして入力された MPEG2— TSに 含まれる PESを、音声が格納されたデータとして解析し、音声提示データとして音声 出力部 115に出力する。音声データ解析部 114は、例えば、デコーダなどのソフトゥ エアによって実現される。 PESに格納される音声ストリームデータは、例えば、 AAC ( Advanced Audio Coding) ES形式のデータである。音声データ解析部 114は、 AAC ES形式の音声ストリームデータを解析し、 PCM形式の音声提示データを出 力する。このとき、音声時刻情報を表すタイムスタンプには、 PES中の PTSを用いる ことができる。
[0055] 音声出力部 115には、音声データ解析部 114、提示データ変換部 109及び表示 データ生成部 106から音声提示データが入力される。音声出力部 115は、音声提示 データとして入力された音声をミックスして利用者に提示する。音声出力部 115は、 例えば、スピーカ等のハードウェアとソフトウェアとの組み合わせによって実現される。 音声出力部 115は、音声提示データとして入力された音声を、それぞれに対応した タイムスタンプに記述された時刻に合わせて出力する。
[0056] ここで、文書データ変換部 105による 8単位符号文字から BML文書データへの具 体的な変換方法の一例を示す。文書データ変換部 105は、 8単位符号文字で表され るバイト列を先頭力 順次解析し、ボディデータとヘッダデータとを生成する。ボディ データの初期値は、文字列「く body >」である。ヘッダデータの初期値は、文字列「 く bml> < head > < title >字幕く/ title > < script > < ! [CDATA [function playSOund () { }」である。文書データ変換部 105は、内部状態として現在使用する 文字集合テーブル種別と、現在の文字フォントの表示指定を保存する文字フォント情 報とを持つ。文字フォント情報は、属性としてサイズ、前景色、背景色を持ち、サイズ 属性の初期値が「normal」、前景色属性の初期値が「 # 000000」、背景色の初期 値が「 # FFFFFFJである。
[0057] 字幕'文字スーパデータにおける付加情報である文字サイズデータは、 8単位符号 文字では SSZ、 MMZ、 NSZ等の制御文字で表される。また、色データは、 BKF、 R DF、 CSI等の制御文字で表される。 8単位符号文字で表されるバイト列を先頭から 順次解析する際、通常の文字を表すバイト列の場合は、現在の文字集合テーブルに 基づきシフト JIS符号に変換してボディデータへ追加する。ロッキングシフト等の文字 集合のテーブル切替えを表す制御文字があった場合は、文書データ変換部 105の 内部状態として現在使用する文字集合テーブルを切替え、ボディデータには何も追 カロしない。文字サイズデータを表す制御文字が現れた場合は、文字列「く Zspan> 」をボディデータに追加する(ただし、今まで一度も「く span」文字列をボディデータ に追カ卩して ヽな 、場合は「く Zspan >」を追カ卩しな 、)。
[0058] 文字サイズデータを表す制御文字が SMZの場合は「x— small」を、 MMZの場合 は「small」を、 NMZの場合は「normal」を文字フォント情報のサイズ属性に文字列と して設定する。次に「く span style = "font— size:」をボディデータに追加する。次 に、文字フォント情報のサイズ属性に格納されて ヽる文字列をボディデータに追加す る。次に、「; color:」をボディデータに追加する。次に、文字フォント情報の前景色属 性に格納されている文字列をボディデータに追加する。次に「background— color: 」をボディデータに追加する。次に、文字フォント情報の背景色属性に格納されてい る文字列をボディデータに追加する。次に、「" >」を追加する。
[0059] 色データを表す制御文字が現れた場合は、それぞれの制御文字で指定される前 景色及び背景色の指定に応じて文字フォント情報の前景色属性と背景色属性に RG B指定で「 # RRGGBB」形式の文字列として設定する。前景色または背景色の一方 のみを指定する制御文字の場合は、もう一方の属性値は設定しない。次に、「く spa n style = "font— size:」をボディデータに追加する。次に、文字フォント情報のサイ ズ属性に格納されて 、る文字列をボディデータに追加する。次に「; color:」をボディ データに追加する。次に文字フォント情報の前景色属性に格納されている文字列を ボディデータ〖こ追カロする。次に「background - color:」をボディデータ〖こ追カロする。 次に文字フォント情報の背景色属性に格納されている文字列をボディデータに追カロ する。次に「" >」を追加する。繰り返しデータを表す制御文字、例えば RPC制御文 字が現れた場合は、制御文字直後に現れる文字を RPC制御文字でパラメータ指定 された回数分ボディデータに追加する。受信機内蔵音再生データを表す制御文字、 例えば PRA制御文字が現れた場合は、ヘッダデータに「playromsound ("romsou nd:ZZ)を追加する。次に PRA制御文字のパラメータで指定された内蔵音指定子 を表す 10進数の数字を文字列としてヘッダデータに追加する。 8単位符号文字の文 字列の解析が終了したら、ボディデータに「<71)0(1 ><71)1111>」を追加し、へッ ダデータに「 } ] ] > < /head >」を追加する。ヘッダボディにボディデータの内容を 追加し、字幕'文字スーパを表す BML文書データとする。
[0060] 以上のように、本発明の第 1の実施形態に係る字幕表示装置 101によれば、ストリ ーム解析部 103を介して入力された字幕'文字スーパを表す 8単位符号文字を文書 データ変換部 105が BML文書データに変換し、フレーム指定を行うレイアウトデータ と共に表示データ生成部 106に出力する。表示データ生成部 106は、 WWWブラウ ザが備える HTML及び BMLの解釈'表示機能を用いて、文書データ変換部 105か ら出力された BML文書データと、セクション解析部 104から出力されたデータ放送 用コンテンツを示す BML文書データとから字幕'文字スーパに関する表示データを 生成する。これにより、字幕表示装置 101は、 WWWブラウザを利用した字幕 '文字 スーパの表示を実現することができる。
[0061] また、字幕 ·文字スーパの表示に WWWブラウザを利用することで、 WWWブラウザ におけるフレーム領域の配分設定と同じ UIで、データ放送表示領域と字幕'文字ス ーパ放送表示領域との配分設定を行うことが可能となる。これにより、字幕表示装置 101は、画面表示に関して、 WWWブラウザと同じ操作体系を実現することができる。
[0062] また、字幕表示装置 101は、字幕'文字スーパに含まれる字幕'文字スーパ表示タ イミングデータ、文字サイズデータ、色データ、繰り返しデータ、及び受信機内蔵音 再生データといった付加情報を用いることで、表現力のある字幕'文字スーパの表示 を実現することができる。
[0063] また、表示切替え部 112は、 UI表示制御部 111からメニュー等の表示 ·非表示処 理を表すフラグデータを受け取ることで、表示データ合成部 110に対してメニューが 表示された際には、字幕'文字スーパを映像データと合成するように指示し、メニュー が非表示になった際には、字幕'文字スーパを映像データと合成しないように指示す る。これによつて、字幕表示装置 101は、字幕'文字スーパ放送表示領域がメニュー によって隠された際には、映像表示領域に字幕'文字スーパを表示させることが可能 になる。すなわち、字幕表示装置 101によれば、メニューやダイアログが表示されて いる間も、利用者は字幕 ·文字スーパを閲覧できるようになる。
[0064] (第 2の実施形態)
図 7は、本発明の第 2の実施形態に係る字幕表示装置 201の構成の一例を示すブ ロック図である。図 7において、第 1の実施形態と同一の構成要素については、同一 の参照符号を用いて説明を省略する。図 7において、字幕表示装置 201は、ユーザ 操作入力部 102、ストリーム解析部 103、セクション解析部 104、文書データ変換部 1 05、表示データ生成部 106、表示制御部 107、映像データ解析部 108、映像出力 部 213、音声データ解析部 114、及び音声出力部 215を備える。
[0065] 第 2の実施形態に係る字幕表示装置 201は、第 1の実施形態に係る字幕表示装置 101から、メニューやダイアログを映像データと合成するための構成 (すなわち、提示 データ変換部 109、表示データ合成部 110、 UI表示制御部 111、及び表示切替え 部 112)を省略したものである。
[0066] 図 7において、映像出力部 213には、映像データ解析部 108から映像データが入 力され、表示データ生成部 106から字幕 ·文字スーパに関する表示データが入力さ れる。映像出力部 213は、入力された映像データ及び字幕'文字スーパを表示画面 に表示する。音声出力部 215には、音声データ解析部 114及び表示データ生成部 1 06から音声提示データが入力される。音声出力部 215は、音声提示データとして入 力された音声をミックスして利用者に提示する。
[0067] 以上のように、本発明の第 2の実施形態に係る字幕表示装置 201によれば、第 1の 実施形態と同様に、 WWWブラウザを利用した字幕 ·文字スーパの表示を実現する。 そのため、 WWWブラウザにおけるフレーム領域の配分設定と同じ UIで、データ放 送表示領域と字幕,文字スーパ放送表示領域との配分設定を行うことが可能となる。 これにより、字幕表示装置 201は、画面表示に関して、 WWWブラウザと同じ操作体 系を実現することができる。
[0068] また、字幕表示装置 201は、字幕'文字スーパに含まれる字幕'文字スーパ表示タ イミングデータ、文字サイズデータ、色データ、繰り返しデータ、及び受信機内蔵音 再生データといった付加情報を用いることで、表現力のある字幕'文字スーパの表示 を実現することができる。
[0069] (第 3の実施形態)
図 8は、本発明の第 3の実施形態に係る字幕表示装置 301の構成の一例を示すブ ロック図である。図 8において、第 1〜2の実施形態と同一の構成要素については、同 一の参照符号を用いて説明を省略する。図 8において、字幕表示装置 301は、ユー ザ操作入力部 102、ストリーム解析部 103、映像データ解析部 108、提示データ変 換部 109、表示データ合成部 110、 UI表示制御部 111、表示切替え部 112、映像 出力部 313、音声データ解析部 114、及び音声出力部 315を備える。
[0070] 第 3の実施形態に係る字幕表示装置 301は、第 1の実施形態に係る字幕表示装置 101から、セクション解析部 104、文書データ変換部 105、表示データ生成部 106、 及び表示制御部 107を省略したものである。
[0071] 図 8において、映像出力部 313には、表示データ合成部 110から映像データが入 力され、提示データ変換部 109から字幕'文字スーパ画像データが入力される。また 、ユーザが所定のキー操作を行った場合、映像出力部 313には、表示切替え部 112 を介してメニュー画像が入力される。
[0072] 映像出力部 313は、映像表示領域に映像データを、字幕'文字スーパ放送表示領 域に字幕'文字スーパ画像データを表示する(図 6 (a)参照)。また、メニュー画像が 入力された場合、映像出力部 313には、表示データ合成部 110から字幕 ·文字スー ノ と合成された映像データが入力されることになる。このため、映像出力部 313は、 映像表示領域に字幕'文字スーパと合成された映像データを表示する。そして、映像 出力部 313は、入力されたメニュー画像を字幕'文字スーパ放送表示領域に表示す る(図 6 (b)参照)。
[0073] 音声出力部 315は、音声データ解析部 114及び提示データ変換部 109から音声 提示データが入力される。音声出力部 215は、音声提示データとして入力された音 声をミックスして利用者に提示する。
[0074] 以上のように、本発明の第 3の実施形態に係る字幕表示装置 301によれば、第 1の 実施形態と同様に、字幕 ·文字スーパ放送表示領域がメニューによって隠された際 には、映像表示領域に字幕 ·文字スーパを表示させることが可能になる。すなわち、 字幕表示装置 301によれば、メニューやダイアログが表示されている間も、利用者は 字幕'文字スーパを閲覧できるようになる。
[0075] (第 4の実施形態)
図 9は、本発明の第 4の実施形態に係る字幕表示装置 401の構成の一例を示すブ ロック図である。図 9において、第 1〜3の実施形態と同一の構成要素については、同 一の参照符号を用い説明を省略する。図 9において、字幕表示装置 401は、ユーザ 操作入力部 102、ストリーム解析部 403、セクション解析部 404、文書データ変換部 1 05、表示データ生成部 106、表示制御部 107、映像データ解析部 408、提示データ 変換部 109、表示データ合成部 110、 UI表示制御部 111、表示切替え部 112、映 像出力部 113、音声データ解析部 414、音声出力部 115、チューナ復調部 416、及 び TS解析部 417を備える。
[0076] チューナ復調部 416は、例えば、 OFDM (Orthogonal Frequency Division Multiplexing)方式の搬送波を受信し、デジタルテレビ放送のコンテンツを格納する トランスポートストリームデータへの復調を行うチューナハードウェア及び復調ソフトゥ エアの組み合わせにより実現される。トランスポートストリームデータは、例えば、 MP EG2 Systemのトランスポートストリーム形式のデータである。チューナ復調部 416 は、復調したトランスポートストリームデータを出力する。
[0077] TS解析部 417は、例えば、トランスポートストリームデータを入力'解析し、トランス ポートストリームデータ中に多重化されている PES形式の音声ストリームデータ、映像 ストリームデータ、字幕'文字スーパストリームデータ、及びセクション形式のセクショ ンデータを出力するソフトウェアである。 [0078] ストリーム解析部 403は、 TS解析部 417から字幕'文字スーノ ストリームデータが入 力されるという点以外は、第 1の実施形態に係るストリーム解析部 103と同じである。 セクション解析部 404は、 TS解析部 417からセクションデータが入力されるという点 以外は、第 1の実施形態に係るセクション解析部 104と同じである。映像データ解析 部 408は、 TS解析部 417から映像ストリームデータが入力されるという点以外は、第 1の実施形態に係る映像データ解析部 108と同じである。音声データ解析部 414は 、 TS解析部 417から音声ストリームデータが入力されるという点以外は、第 1の実施 形態に係る音声データ解析部 117と同じである。
[0079] 以上のように、本発明の第 4の実施形態に係る字幕表示装置 401によれば、第 1の 実施形態と同様の効果を得ることができる。また、字幕表示装置 401は、チューナ復 調部 416及び TS解析部 417を備えることで、送信局からのテレビ放送を直接受信す ることがでさる。
[0080] (第 5の実施形態)
図 10は、本発明の第 5の実施形態に係る字幕表示装置 501の構成の一例を示す ブロック図である。図 10において、第 1〜4の実施形態と同一の構成要素については 、同一の参照符号を用い説明を省略する。図 10において、第 5の実施形態に係る字 幕表示装置 501は、第 4の実施形態に係る字幕表示装置 401と比較して、チューナ 復調部 416の代わりに TS格納部 516を備える。
[0081] TS格納部 516は、例えば、記憶装置ハードウェア及び制御ソフトウェアの組み合わ せにより実現される。記憶装置ハードウェアは、例えば、固定ハードディスクや USB 接続メモリや、 RAM、 ROM, DVD (Digital Versatile Disc)、 BD (Blue -ray Disc)、HD DVD (High Definition DVD)ゝ SD (Secure Digital)メモリカー ド等の媒体及び読み出し装置である。 TS格納部 516は、制御ソフトウェアの制御に よって、記憶装置ハードウェアに格納されたトランスポートストリームデータを出力する
[0082] 以上のように、本発明の第 5の実施形態に係る字幕表示装置 501によれば、第 1の 実施形態と同様の効果を得ることができる。また、字幕表示装置 501は、 TS格納部 5 16及び TS解析部 417を備えることで、装置内に格納されたテレビ放送コンテンッの 字幕表示を可能とする。
[0083] (第 6の実施形態)
図 11は、本発明の第 6の実施形態に係る字幕表示装置 601の構成の一例を示す ブロック図である。図 11において、第 1〜5の実施形態と同一の構成要素については 、同一の参照符号を用いて説明を省略する。図 11において、第 6の実施形態に係る 字幕表示装置 601は、ユーザ操作入力部 102、ストリーム解析部 103、セクション解 析部 104、文書データ変換部 605、表示データ生成部 606、表示制御部 107、映像 データ解析部 108、表示データ合成部 610、 UI表示制御部 111、表示切替え部 11 2、映像出力部 613、音声データ解析部 114、及び音声出力部 615を備える。
[0084] 表示データ生成部 606は、上述した字幕 ·文字スーパに関する表示データに加え て、 URI Γχ-cc: default]で示される文書データを表示する領域に関するビットマツ プマスク画像をマスクデータとして出力する。さらに、表示データ生成部 606は、 URI Γχ-cc : default]で示される文書データの高さを字幕表示長として出力してもよ!/、。 表示データ生成部 606は、上述した点以外は、第 1の実施形態に係る表示データ生 成部 106と同じである。
[0085] 文書データ変換部 605は、字幕 ·文字スーパデータとして 8単位符号文字ではなく BML文書を受け取った際に、第 1の実施形態で説明した変換を実施せず、受け取 つた字幕'文字スーパデータを、そのまま表示データを示す BML文書データとして 出力する。文書データ変換部 605は、上述した点以外は、第 1の実施形態に係る文 書データ変換部 105と同じである。
[0086] 表示データ合成部 610には、映像データ解析部 108から映像データが入力され、 表示データ生成部 606から字幕 ·文字スーパに関する表示データと、マスクデータと 、字幕表示長とが入力される。表示データ合成部 610は、例えば、 QVGA (縦 320ピ クセル、横 240ピクセル)の解像度を持つ表示データを出力するソフトウェアである。
[0087] 表示データ合成部 610は、ディスプレイ上部の縦 180ピクセル横 240ピクセルの矩 形領域に映像データを配置し、ディスプレイ下部の縦 140ピクセル横 240ピクセルの 矩形領域に字幕'文字スーパに関する表示データを配置する。さらに、表示データ 合成部 610は、外部ソフトウェア力も重ね合わせ指定関数によって、映像データと字 幕 ·文字スーパに関する表示データとを重ね合わせるように指示された場合、デイス プレイ上部の縦 180ピクセル、横 240ピクセルの矩形領域に、映像データと字幕'文 字スーパに関する表示データとを重ね合わせて配置する。具体的には、表示データ 合成部 610は、マスクデータと字幕表示長とに基づいて、映像データに対して字幕' 文字スーパに関する表示データをアルファ合成し、当該合成したデータを合成映像 表示データとして出力する。表示データ合成部 610は、上述した点以外は、第 1の実 施形態に係る表示データ合成部 110と同じである。
[0088] 映像出力部 613には、表示データ合成部 610から映像時刻情報としてのタイムスタ ンプと、映像データまたは合成映像表示データと、字幕'文字スーパに関する表示デ ータとが入力される。映像出力部 613は、入力された映像データまたは合成映像表 示データと、字幕 ·文字スーパに関する表示データとを表示画面に表示する。映像出 力部 613は、上述した点以外は、第 1の実施形態に係る映像出力部 113と同じであ る。
[0089] なお、映像出力部 613は、ユーザ操作入力部 102を介してユーザから映像データ を拡大して表示するように指示された場合には、上述した合成映像表示データを表 示画面全域に表示してもよい。これによつて、ユーザは、字幕'文字スーパデータが 重ね合わされた映像データを、表示画面全域を使って視聴することができる。
[0090] 音声出力部 615は、音声データ解析部 114から音声提示データとして PCM形式の 音声データと、表示データ生成部 606から音声時刻情報としてタイムスタンプとが入 力される。音声出力部 615は、上述した点以外は、第 1の実施形態に係る音声出力 部 615と同じである。
[0091] 以上のように、本発明の第 6の実施形態に係る字幕表示装置 601によれば、第 1の 実施形態と同様の効果を得ることができる。
[0092] (第 7の実施形態)
図 12は、本発明の第 7の実施形態に係る字幕表示装置 701の構成の一例を示す ブロック図である。図 12において、第 1〜6の実施形態と同一の構成要素については 、同一の参照符号を用い説明を省略する。図 12において、字幕表示装置 701は、ュ 一ザ操作入力部 102、ストリーム解析部 403、セクション解析部 404、文書データ変 換部 605、表示データ生成部 606、表示制御部 107、映像データ解析部 408、表示 データ合成部 610、 UI表示制御部 111、表示切替え部 112、映像出力部 613、音 声データ解析部 414、音声出力部 615、チューナ復調部 416、及び TS解析部 417 を備える。また、字幕送信装置は、送信 TS格納部 722、送信字幕'文字スーパ文書 データ変換部 723 (以下、送信文書データ変換部 723と記す)、及び変調送信部 72 4を備える。送信 TS格納部 722は、第 5の実施形態に係る TS格納部 516と同じであ る。
[0093] 送信文書データ変換部 723には、トランスポートストリームデータとして MPEG2 S ystemのトランスポートストリーム形式のデータが入力される。送信文書データ変換部 723は、トランスポートデータストリームに含まれるデータユニットデータ中の 8単位符 号文字で表される字幕 ·文字スーパデータを、 BML文書データに変換し、トランスポ 一トストリームとして出力する。送信文書データ変換部 723は、例えば、ソフトウェアに よって実現させる。 8単位符号文字で表される字幕'文字スーパデータを BML文書 データに変換する方法は、第 1の実施形態と同じである。
[0094] 変調送信部 724には、 MPEG2 Systemのトランスポートストリーム形式のデータ が入力される。変調送信部 724は、入力されたデータを OFDM方式の搬送波に変 調して送信するソフトウェア及び送信機を含むハードウェアの組み合わせから実現さ れる。
[0095] 以上のように、本発明の第 7の実施形態に係る字幕表示装置 701によれば、第 1の 実施形態と同様の効果を得ることができる。また、字幕表示装置 701は、送信局側で 送信前にトランスポートストリーム内の字幕'文字スーパデータを BML文書に変換す ることがでさる。
[0096] また、第 1〜7の実施形態で述べた字幕表示装置が行うそれぞれの処理手順は、 記憶装置 (ROM、 RAM,ハードディスク等)に格納された上述した処理手順を実行 可能な所定のプログラムデータ力 CPUによって解釈実行されることで実現されても よい。この場合、プログラムデータは、記憶媒体を介して記憶装置内に導入されても よいし、記憶媒体上から直接実行されてもよい。なお、記憶媒体は、 ROMや RAM やフラッシュメモリ等の半導体メモリ、フレキシブルディスクゃノヽードディスク等の磁気 ディスクメモリ、 CD— ROMや DVDや BD等の光ディスクメモリ、及びメモリカード等を いう。また、記憶媒体は、電話回線や搬送路等の通信媒体を含む概念である。
[0097] また、第 1〜7の実施形態で述べた字幕表示装置に含まれる構成は、それぞれ集 積回路である LSIとして実現することができる。これらは、個別に 1チップ化されてもよ いし、それぞれにおいて全てまたは一部を含むように 1チップ化されてもよい。ここで は、 LSIとした力 集積度の違いにより、 IC、システム LSI、スーパー LSI、ウルトラ LS Iと呼称されることちある。
[0098] また、集積回路化の手法は LSIに限るものではなぐ専用回路又は汎用プロセッサ で実現してもよい。 LSI製造後に、プログラムすることが可能な FPGA (Field Progr ammable Gate Array)や、 LSI内部の回路セルの接続や設定を再構成可能なリ コンフィギユラブル 'プロセッサを利用してもよい。さらには、半導体技術の進歩又は 派生する別技術により LSIに置き換わる集積回路化の技術が登場すれば、当然、そ の技術を用いて機能ブロックの集積ィ匕を行ってもょ 、。バイオ技術の適応例が可能 性としてありえる。
産業上の利用可能性
[0099] 本発明にかかる字幕表示装置は、字幕の閲覧に関して利用者の操作性と字幕閲 覧性を向上させるという効果等を有し、テレビジョン受信機や字幕つきコンテンツ再 生装置等として有用である。

Claims

請求の範囲
[1] 少なくとも字幕'文字スーパストリームデータとセクションデータとを含むストリームデ ータをコンテンツデータとして取得し、取得したコンテンツデータを画面表示する字幕 表示装置であって、
前記ストリームデータに含まれる字幕'文字スーノ ストリームデータを解析し、表示 対象の字幕'文字スーパデータを出力するストリーム解析部と、
前記ストリームデータに含まれるセクションデータを解析し、第 1の文書データに変 換するセクション解析部と、
前記ストリーム解析部カゝら出力された字幕 ·文字スーパデータを、前記第 1の文章 データと同一形式の第 2の文書データに変換し、当該第 2の文書データの表示領域 を指定するレイアウトデータと共に出力する文書データ変換部と、
前記セクション解析部力も出力された第 1の文書データ、前記文書データ変換部か ら出力された第 2の文書データ、及びレイアウトデータに基づいて、字幕 ·文字スーパ に関する表示データを生成する表示データ生成部とを備えることを特徴とする、字幕 表示装置。
[2] 前記ストリーム解析部は、字幕'文字スーパデータの提示時刻を示す字幕時刻情 報をさらに出力し、
前記字幕時刻情報によって示されたタイミングに基づ 、て、前記表示データ生成 部に前記表示データの更新を要求する表示制御部をさらに備え、
前記表示データ生成部は、前記表示制御部力 更新の要求を受け取った場合、前 記字幕 ·文字スーパに関する表示データの更新を行うことを特徴とする、請求項 1に 記載の字幕表示装置。
[3] 前記ストリーム解析部カゝら出力された字幕'文字スーパデータを画像データに変換 して、字幕'文字スーパ画像データとして提示する提示データ変換部と、
前記ストリームデータに含まれる映像ストリームデータを解析し、映像データとして 出力する映像データ解析部と、
前記映像データに、前記字幕 ·文字スーパ画像データを重ね合わせて表示するか 否かを決定する表示切替え部と、 前記表示切替え部の決定に従って、前記映像データ、あるいは前記映像データに 前記字幕 ·文字スーパ画像データを重ね合わせた合成映像表示データを出力する 表示データ合成部と、
前記表示データ合成部が出力した映像データまたは合成映像表示データと、前記 表示データ生成部が生成した字幕 ·文字スーパに関する表示データとを画面表示す る映像出力部とをさらに備えることを特徴とする、請求項 1に記載の字幕表示装置。
[4] 前記表示データ合成部は、
前記表示切替え部が、前記映像データに前記字幕'文字スーパ画像データを重ね 合わせて表示しないと決定した場合には、前記映像データを出力し、
前記表示切替え部が、前記映像データに前記字幕'文字スーパ画像データを重ね 合わせて表示すると決定した場合には、前記映像データに前記字幕'文字スーパ画 像データを重ね合わせ合成して、当該合成したデータを前記合成映像表示データと して出力することを特徴とする、請求項 3に記載の字幕表示装置。
[5] 前記表示データ生成部は、前記字幕 ·文字スーパに関する表示データに加えて、 前記第 2の文章データを表示する領域を表したビットマップ画像をマスクデータとして 出力し、
前記ストリームデータに含まれる映像ストリームデータを解析し、映像データとして 出力する映像データ解析部と、
前記映像データに、前記字幕'文字スーパに関する表示データを重ね合わせて表 示するか否かを決定する表示切替え部と、
前記表示切替え部の決定に従って、前記映像データまたは前記映像データに前 記ビットマップ画像を重ね合わせた合成映像表示データと、前記字幕 ·文字スーパに 関する表示データとを出力する表示データ合成部と、
前記表示データ合成部が出力した映像データまたは合成映像表示データと、前記 表示データ生成部が生成した字幕 ·文字スーパに関する表示データとを画面表示す る映像出力部とをさらに備え、
前記表示データ合成部は、
前記表示切替え部が、前記映像データに前記字幕'文字スーパに関する表示デ ータを重ね合わせて表示しないと決定した場合には、前記映像データと前記字幕' 文字スーパに関する表示データとを出力し、
前記表示切替え部が、前記映像データに前記字幕'文字スーパに関する表示デ ータを重ね合わせて表示すると決定した場合には、前記合成映像表示データと、前 記字幕 ·文字スーパに関する表示データとを出力することを特徴とする、請求項 1に 記載の字幕表示装置。
[6] 前記字幕'文字スーパデータに前記文書データを含んだコンテンツデータを受信 するデータ受信部をさらに備え、
前記文書データ変換部は、前記受信した字幕'文字スーパデータから前記文書デ ータを取り出し、前記表示データ生成部に出力することを特徴とする、請求項 1に記 載の字幕表示装置。
[7] 少なくとも字幕'文字スーパストリームデータとセクションデータとを含むストリームデ ータをコンテンツデータとして取得し、取得したコンテンツデータを画面表示する字幕 表示方法であって、
前記ストリームデータに含まれる字幕'文字スーノ ストリームデータを解析し、表示 対象の字幕'文字スーパデータを出力するストリーム解析ステップと、
前記ストリームデータに含まれるセクションデータを解析し、第 1の文書データに変 換するセクション解析ステップと、
前記ストリーム解析ステップカゝら出力された字幕'文字スーパデータを、前記第 1の 文章データと同一形式の第 2の文書データに変換し、当該第 2の文書データの表示 領域を指定するレイアウトデータと共に出力する文書データ変換ステップと、 前記セクション解析ステップで出力された第 1の文書データ、前記文書データ変換 ステップで出力された第 2の文書データ、及びレイアウトデータに基づいて、字幕 '文 字スーパに関する表示データを生成する表示データ生成ステップとを備えることを特 徴とする、字幕表示方法。
[8] 少なくとも字幕'文字スーパストリームデータとセクションデータとを含むストリームデ ータをコンテンツデータとして取得し、取得したコンテンツデータを画面表示する字幕 表示装置が実行するプログラムであって、 前記ストリームデータに含まれる字幕'文字スーノ ストリームデータを解析し、表示 対象の字幕'文字スーパデータを出力するストリーム解析ステップと、
前記ストリームデータに含まれるセクションデータを解析し、第 1の文書データに変 換するセクション解析ステップと、
前記ストリーム解析ステップカゝら出力された字幕'文字スーパデータを、前記第 1の 文章データと同一形式の第 2の文書データに変換し、当該第 2の文書データの表示 領域を指定するレイアウトデータと共に出力する文書データ変換ステップと、 前記セクション解析ステップで出力された第 1の文書データ、前記文書データ変換 ステップで出力された第 2の文書データ、及びレイアウトデータに基づいて、字幕 '文 字スーパに関する表示データを生成する表示データ生成ステップとを備えることを特 徴とする、プログラム。
[9] 少なくとも字幕'文字スーパストリームデータとセクションデータとを含むストリームデ ータをコンテンツデータとして取得し、取得したコンテンツデータを画面表示する字幕 表示装置が実行するプログラムを格納する記録媒体であって、
前記ストリームデータに含まれる字幕'文字スーノ ストリームデータを解析し、表示 対象の字幕'文字スーパデータを出力するストリーム解析ステップと、
前記ストリームデータに含まれるセクションデータを解析し、第 1の文書データに変 換するセクション解析ステップと、
前記ストリーム解析ステップカゝら出力された字幕'文字スーパデータを、前記第 1の 文章データと同一形式の第 2の文書データに変換し、当該第 2の文書データの表示 領域を指定するレイアウトデータと共に出力する文書データ変換ステップと、 前記セクション解析ステップで出力された第 1の文書データ、前記文書データ変換 ステップで出力された第 2の文書データ、及びレイアウトデータに基づいて、字幕 '文 字スーパに関する表示データを生成する表示データ生成ステップとを備えたプロダラ ムが格納された、記録媒体。
[10] 少なくとも字幕'文字スーパストリームデータとセクションデータとを含むストリームデ ータをコンテンツデータとして取得し、取得したコンテンツデータを画面表示する集積 回路であって、 前記ストリームデータに含まれる字幕'文字スーノ ストリームデータを解析し、表示 対象の字幕'文字スーパデータを出力するストリーム解析部と、
前記ストリームデータに含まれるセクションデータを解析し、第 1の文書データに変 換するセクション解析部と、
前記ストリーム解析部カゝら出力された字幕 ·文字スーパデータを、前記第 1の文章 データと同一形式の第 2の文書データに変換し、当該第 2の文書データの表示領域 を指定するレイアウトデータと共に出力する文書データ変換部と、
前記セクション解析部力 出力された第 1の文書データ、前記文書データ変換部 から出力された第 2の文書データ、及びレイアウトデータに基づいて、字幕'文字スー パに関する表示データを生成する表示データ生成部とを備えることを特徴とする、集 積回路。
PCT/JP2006/303132 2005-02-28 2006-02-22 字幕表示装置 WO2006092993A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN2006800063752A CN101129070B (zh) 2005-02-28 2006-02-22 字幕显示设备
EP06714272A EP1855479A4 (en) 2005-02-28 2006-02-22 CAPTION DISPLAY
JP2007505861A JP4792458B2 (ja) 2005-02-28 2006-02-22 字幕表示装置
US11/884,784 US20090207305A1 (en) 2005-02-28 2006-02-22 Caption Display Device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005-054671 2005-02-28
JP2005054671 2005-02-28

Publications (1)

Publication Number Publication Date
WO2006092993A1 true WO2006092993A1 (ja) 2006-09-08

Family

ID=36941027

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/303132 WO2006092993A1 (ja) 2005-02-28 2006-02-22 字幕表示装置

Country Status (5)

Country Link
US (1) US20090207305A1 (ja)
EP (1) EP1855479A4 (ja)
JP (1) JP4792458B2 (ja)
CN (1) CN101129070B (ja)
WO (1) WO2006092993A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008047648A1 (fr) * 2006-10-13 2008-04-24 Sharp Kabushiki Kaisha Dispositif terminal d'informations mobile
JP2008131328A (ja) * 2006-11-21 2008-06-05 Sharp Corp コンテンツ表示装置、およびコンテンツ表示装置の制御方法
JP2009159483A (ja) * 2007-12-27 2009-07-16 Kyocera Corp 放送受信装置
JP2011030224A (ja) * 2009-07-27 2011-02-10 Ipeer Multimedia Internatl Ltd マルチメディア字幕表示システム及びマルチメディア字幕表示方法
JP2015159366A (ja) * 2014-02-21 2015-09-03 日本放送協会 受信機
JP2015173444A (ja) * 2014-02-21 2015-10-01 日本放送協会 受信機
JP2016129296A (ja) * 2015-01-09 2016-07-14 株式会社アステム 番組出力装置、サーバ、番組と絵文字の出力方法、およびプログラム
JP2017500770A (ja) * 2013-10-24 2017-01-05 ▲華▼▲為▼▲終▼端有限公司 サブタイトル表示方法およびサブタイトル表示デバイス

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7966560B2 (en) * 2006-10-24 2011-06-21 International Business Machines Corporation Laying out web components using mounting and pooling functions
KR20080057847A (ko) * 2006-12-21 2008-06-25 삼성전자주식회사 방송수신장치 및 이의 오픈 캡션 정보 저장 방법
US20090129749A1 (en) * 2007-11-06 2009-05-21 Masayuki Oyamatsu Video recorder and video reproduction method
US8621505B2 (en) * 2008-03-31 2013-12-31 At&T Intellectual Property I, L.P. Method and system for closed caption processing
KR101479079B1 (ko) * 2008-09-10 2015-01-08 삼성전자주식회사 디지털 캡션에 포함된 용어의 설명을 표시해주는 방송수신장치 및 이에 적용되는 디지털 캡션 처리방법
JP4482051B1 (ja) * 2008-12-23 2010-06-16 株式会社東芝 装置制御システム
US8817072B2 (en) 2010-03-12 2014-08-26 Sony Corporation Disparity data transport and signaling
US9565466B2 (en) * 2010-03-26 2017-02-07 Mediatek Inc. Video processing method and video processing system
CN102566952B (zh) * 2010-12-20 2014-11-26 福建星网视易信息系统有限公司 应用于嵌入式数字娱乐点播系统的显示系统和方法
KR101830656B1 (ko) * 2011-12-02 2018-02-21 엘지전자 주식회사 이동 단말기 및 이의 제어방법
CN102883213B (zh) * 2012-09-13 2018-02-13 中兴通讯股份有限公司 字幕提取方法及装置
JP5509284B2 (ja) * 2012-09-14 2014-06-04 株式会社東芝 マルチフォーマット出力装置、マルチフォーマット出力装置の制御方法
US10582255B2 (en) * 2014-06-30 2020-03-03 Lg Electronics Inc. Broadcast receiving device, method of operating broadcast receiving device, linking device for linking to broadcast receiving device, and method of operating linking device
CN104093063B (zh) * 2014-07-18 2017-06-27 三星电子(中国)研发中心 还原字幕属性的方法和装置
JP6340994B2 (ja) * 2014-08-22 2018-06-13 スター精密株式会社 プリンタ、印刷システムおよび印刷制御方法
CN104994312A (zh) * 2015-07-15 2015-10-21 北京金山安全软件有限公司 一种视频生成方法及装置
CN104978161A (zh) * 2015-07-30 2015-10-14 张阳 Mv全屏显示方法及系统
US10511882B2 (en) * 2016-01-26 2019-12-17 Sony Corporation Reception apparatus, reception method, and transmission apparatus
CN110602566B (zh) * 2019-09-06 2021-10-01 Oppo广东移动通信有限公司 匹配方法、终端和可读存储介质
CN115689860A (zh) * 2021-07-23 2023-02-03 北京字跳网络技术有限公司 视频蒙层显示方法、装置、设备及介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1118060A (ja) * 1997-06-27 1999-01-22 Matsushita Electric Ind Co Ltd テレビジョン受信機
JP2005027053A (ja) * 2003-07-02 2005-01-27 Toshiba Corp コンテンツ処理装置
JP2005033764A (ja) * 2003-06-19 2005-02-03 Ekitan & Co Ltd 受信機及び受信方法

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08275205A (ja) * 1995-04-03 1996-10-18 Sony Corp データ符号化/復号化方法および装置、および符号化データ記録媒体
JPH09102940A (ja) * 1995-08-02 1997-04-15 Sony Corp 動画像信号の符号化方法、符号化装置、復号化装置、記録媒体及び伝送方法
KR100218474B1 (ko) * 1997-06-10 1999-09-01 구자홍 에치티엠엘 데이터 송신 및 수신 장치
GB2327837B (en) * 1997-07-29 1999-09-15 Microsoft Corp Providing enhanced content with broadcast video
DE19757046A1 (de) * 1997-12-20 1999-06-24 Thomson Brandt Gmbh Vorrichtung zur Erzeugung der digitalen Daten für die Bilder einer Animations-/Informations-Sequenz für ein elektronisches Gerät
KR100631499B1 (ko) * 2000-01-24 2006-10-09 엘지전자 주식회사 디지털 티브이의 캡션 표시 방법
JP2002016885A (ja) * 2000-06-30 2002-01-18 Pioneer Electronic Corp 映像再生装置及び映像再生方法
US6704024B2 (en) * 2000-08-07 2004-03-09 Zframe, Inc. Visual content browsing using rasterized representations
JP4672856B2 (ja) * 2000-12-01 2011-04-20 キヤノン株式会社 マルチ画面表示装置及びマルチ画面表示方法
JP2002232802A (ja) * 2001-01-31 2002-08-16 Mitsubishi Electric Corp 映像表示装置
US7050109B2 (en) * 2001-03-02 2006-05-23 General Instrument Corporation Methods and apparatus for the provision of user selected advanced close captions
US7546527B2 (en) * 2001-03-06 2009-06-09 International Business Machines Corporation Method and apparatus for repurposing formatted content
US20020188959A1 (en) * 2001-06-12 2002-12-12 Koninklijke Philips Electronics N.V. Parallel and synchronized display of augmented multimedia information
US6952236B2 (en) * 2001-08-20 2005-10-04 Ati Technologies, Inc. System and method for conversion of text embedded in a video stream
JP3945687B2 (ja) * 2001-12-26 2007-07-18 シャープ株式会社 映像表示装置
JP4192476B2 (ja) * 2002-02-27 2008-12-10 株式会社日立製作所 映像変換装置及び映像変換方法
US8522267B2 (en) * 2002-03-08 2013-08-27 Caption Colorado Llc Method and apparatus for control of closed captioning
WO2003081917A1 (en) * 2002-03-21 2003-10-02 Koninklijke Philips Electronics N.V. Multi-lingual closed-captioning
US20030189669A1 (en) * 2002-04-05 2003-10-09 Bowser Todd S. Method for off-image data display
JP2005523555A (ja) * 2002-04-16 2005-08-04 サムスン エレクトロニクス カンパニー リミテッド インタラクティブコンテンツバージョン情報が記録された情報保存媒体、その記録方法及び再生方法
EP1420580A1 (en) * 2002-11-18 2004-05-19 Deutsche Thomson-Brandt GmbH Method and apparatus for coding/decoding items of subtitling data
US7555199B2 (en) * 2003-01-16 2009-06-30 Panasonic Corporation Recording apparatus, OSD controlling method, program, and recording medium
US7106381B2 (en) * 2003-03-24 2006-09-12 Sony Corporation Position and time sensitive closed captioning
JP3830913B2 (ja) * 2003-04-14 2006-10-11 パイオニア株式会社 情報表示装置及び情報表示方法等
KR100532997B1 (ko) * 2003-05-23 2005-12-02 엘지전자 주식회사 디지털 티브이의 클로즈 캡션 운용 장치
WO2005001614A2 (en) * 2003-06-02 2005-01-06 Disney Enterprises, Inc. System and method of dynamic interface placement based on aspect ratio
JP4449359B2 (ja) * 2003-07-23 2010-04-14 ソニー株式会社 電子機器及び情報視聴方法、並びに情報視聴システム
KR100828354B1 (ko) * 2003-08-20 2008-05-08 삼성전자주식회사 자막 위치 제어 장치 및 방법
KR20050078907A (ko) * 2004-02-03 2005-08-08 엘지전자 주식회사 고밀도 광디스크의 서브타이틀 재생방법과 기록재생장치
US20060015649A1 (en) * 2004-05-06 2006-01-19 Brad Zutaut Systems and methods for managing, creating, modifying, and distributing media content

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1118060A (ja) * 1997-06-27 1999-01-22 Matsushita Electric Ind Co Ltd テレビジョン受信機
JP2005033764A (ja) * 2003-06-19 2005-02-03 Ekitan & Co Ltd 受信機及び受信方法
JP2005027053A (ja) * 2003-07-02 2005-01-27 Toshiba Corp コンテンツ処理装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
OTSU T. ET AL.: "Digital Jushinki Muke Kumikomigata Data Hoso Software 'BML Browser'", MATSUSHITA TECHNICAL JOURNAL, vol. 46, no. 6, December 2000 (2000-12-01), pages 653 - 660, XP003006772 *
See also references of EP1855479A4 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008047648A1 (fr) * 2006-10-13 2008-04-24 Sharp Kabushiki Kaisha Dispositif terminal d'informations mobile
JP2008099053A (ja) * 2006-10-13 2008-04-24 Sharp Corp 携帯情報端末装置
JP2008131328A (ja) * 2006-11-21 2008-06-05 Sharp Corp コンテンツ表示装置、およびコンテンツ表示装置の制御方法
JP2009159483A (ja) * 2007-12-27 2009-07-16 Kyocera Corp 放送受信装置
JP2011030224A (ja) * 2009-07-27 2011-02-10 Ipeer Multimedia Internatl Ltd マルチメディア字幕表示システム及びマルチメディア字幕表示方法
JP2017500770A (ja) * 2013-10-24 2017-01-05 ▲華▼▲為▼▲終▼端有限公司 サブタイトル表示方法およびサブタイトル表示デバイス
US9813773B2 (en) 2013-10-24 2017-11-07 Huawei Device Co., Ltd. Subtitle display method and subtitle display device
JP2015159366A (ja) * 2014-02-21 2015-09-03 日本放送協会 受信機
JP2015173444A (ja) * 2014-02-21 2015-10-01 日本放送協会 受信機
JP2016129296A (ja) * 2015-01-09 2016-07-14 株式会社アステム 番組出力装置、サーバ、番組と絵文字の出力方法、およびプログラム

Also Published As

Publication number Publication date
CN101129070A (zh) 2008-02-20
EP1855479A1 (en) 2007-11-14
JP4792458B2 (ja) 2011-10-12
EP1855479A4 (en) 2009-10-14
JPWO2006092993A1 (ja) 2008-08-07
CN101129070B (zh) 2010-09-01
US20090207305A1 (en) 2009-08-20

Similar Documents

Publication Publication Date Title
JP4792458B2 (ja) 字幕表示装置
US8752120B2 (en) Digital broadcasting receiving apparatus and method for controlling the same
JP6529493B2 (ja) メディアデータの送信及び受信のための方法及び装置
JP6077200B2 (ja) 受信装置、表示制御方法、放送システム、並びにコンピューター・プログラム
JP6399725B1 (ja) テキストコンテンツ生成装置、送信装置、受信装置、およびプログラム
JP5345224B2 (ja) デジタル放送受信機
JP4287621B2 (ja) テレビジョン受信機およびこれに対する情報提供方法
CN111601142B (zh) 一种字幕的显示方法及显示设备
JP2005124163A (ja) 受信装置、番組連携表示方法および印刷制御方法
JP4829443B2 (ja) 受信装置、受信方法および記録媒体
JP2003219372A (ja) データ放送受信再生装置、その制御方法、データ放送システム、データ放送装置、データ放送ショッピングにおける商品表示方法、及び制御プログラム
US20100251294A1 (en) Moving image processor and moving image processing method
JP2015037264A (ja) 受信装置、送出装置、及びプログラム
JP2001211401A (ja) デジタル放送受信機およびメール端末装置
JP5501359B2 (ja) デジタル放送受信装置及びデジタル放送受信方法
JP2004336179A (ja) 放送受信端末、並びに、放送受信端末の操作キー制御方法及び操作キー制御プログラム
JP2009260685A (ja) 放送受信装置
JP2008085940A (ja) テレビジョン受像機
JP2003224783A (ja) データ放送受信再生装置、その制御方法、データ放送システム、放送データ送信装置、データ放送ショッピングにおける商品表示方法、及び制御プログラム
KR100721561B1 (ko) 콘텐츠 변환 장치 및 그 방법
JP4785543B2 (ja) 携帯通信端末及びその制御方法
JP6307182B2 (ja) 受信装置、表示制御方法、並びに放送システム
JP2016116032A (ja) 受信装置、放送システム、受信方法及びプログラム
JP2016001918A (ja) 表示装置、受信装置、表示方法、テレビジョン受像機、表示システム、プログラムおよび記録媒体
JP5010102B2 (ja) 放送受信方式

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2007505861

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2006714272

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11884784

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 200680006375.2

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

WWP Wipo information: published in national office

Ref document number: 2006714272

Country of ref document: EP