WO2015173975A1 - 受信装置、および送信装置、並びにデータ処理方法 - Google Patents

受信装置、および送信装置、並びにデータ処理方法 Download PDF

Info

Publication number
WO2015173975A1
WO2015173975A1 PCT/JP2014/073148 JP2014073148W WO2015173975A1 WO 2015173975 A1 WO2015173975 A1 WO 2015173975A1 JP 2014073148 W JP2014073148 W JP 2014073148W WO 2015173975 A1 WO2015173975 A1 WO 2015173975A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
display
subtitle
ttml
attribute
Prior art date
Application number
PCT/JP2014/073148
Other languages
English (en)
French (fr)
Inventor
義治 出葉
北里 直久
山岸 靖明
淳 北原
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP14892022.6A priority Critical patent/EP3145210A4/en
Priority to US15/305,846 priority patent/US11102444B2/en
Priority to CN201480078709.1A priority patent/CN106416283A/zh
Publication of WO2015173975A1 publication Critical patent/WO2015173975A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43074Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of additional data with content streams on the same device, e.g. of EPG data or interactive icon with a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/025Systems for the transmission of digital non-picture data, e.g. of text during the active part of a television frame
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/458Scheduling content for creating a personalised stream, e.g. by combining a locally stored advertisement with an incoming stream; Updating operations, e.g. for OS modules ; time-related management operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8543Content authoring using a description language, e.g. Multimedia and Hypermedia information coding Expert Group [MHEG], eXtensible Markup Language [XML]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content

Definitions

  • the present disclosure relates to a reception device, a transmission device, and a data processing method. More particularly, the present invention relates to a receiving device, a transmitting device, and a data processing method that perform transmission / reception and processing of caption data.
  • TTML Timed Text Markup
  • XML Extensible Markup Language
  • TTML has a feature that it can be linked with a web application such as HTML5. Note that TTML is described in, for example, Japanese Patent Application Laid-Open No. 2012-169885.
  • TTML subtitle data which is the above subtitle data, has a configuration capable of describing information indicating subtitle display timing together with subtitle data to be displayed.
  • the display of the caption data may be interrupted.
  • An object of the present disclosure is to provide a reception device, a transmission device, and a data processing method that realize processing capable of eliminating the caption display interruption in caption display processing using control information of TTML caption data.
  • the first aspect of the present disclosure is: A communication unit that receives TTML (Timed Text Markup Language) caption data; A data processing unit that executes subtitle display control using the TTML subtitle data;
  • the TTML subtitle data is data having a continuous display instruction value for executing the continuous display processing of the subtitle being displayed as at least one of the subtitle display end time prescription attribute or the subtitle display start time prescription attribute.
  • the second aspect of the present disclosure is: A data processing unit for generating TTML (Timed Text Markup Language) caption data; A communication unit for transmitting the TTML caption data;
  • the TTML subtitle data is data having a continuous display instruction value for executing the continuous display processing of the subtitle being displayed as at least one of the subtitle display end time prescription attribute or the subtitle display start time prescription attribute.
  • the third aspect of the present disclosure is: A data processing method executed in the receiving device, A communication unit receiving TTML (Timed Text Markup Language) subtitle data; A data processing unit having a step of executing caption display control to which the TTML caption data is applied;
  • the TTML subtitle data is data having a continuous display instruction value for executing the continuous display processing of the subtitle being displayed as at least one of the subtitle display end time prescription attribute or the subtitle display start time prescription attribute. It is in the processing method.
  • the fourth aspect of the present disclosure is: A data processing method executed in a transmission device, A step of generating a TTML (Timed Text Markup Language) caption data; A communication unit includes a step of transmitting the TTML caption data;
  • the TTML subtitle data is data having a continuous display instruction value for executing the continuous display processing of the subtitle being displayed as at least one of the subtitle display end time prescription attribute or the subtitle display start time prescription attribute. It is in the processing method.
  • system is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of each configuration are in the same casing.
  • an apparatus and a method for realizing reliable display control without interruption of caption display of TTML caption data are realized.
  • the setting value of the subtitle display end time defining attribute of the TTML subtitle data is the continuous display instruction value
  • the memory storage and display processing of the subtitle data being displayed is continued even after the reproduction end timing of the image file.
  • TTML caption data file switching processing is executed.
  • the setting value of the subtitle display start time regulation attribute of the TTML subtitle data is the continuous display instruction value
  • display control without interruption of caption display of TTML caption data is realized. Note that the effects described in the present specification are merely examples and are not limited, and may have additional effects.
  • a communication system 10 includes a transmission device 20 that transmits image data, audio data, caption data, and data such as various control information, and a reception device that receives data transmitted by the transmission device 20. 30.
  • the transmission device 20 is a device that provides content, such as a broadcasting station 21 and a content server 22.
  • the receiving device 30 is a client device of a general user, and specifically includes, for example, a television 31, a PC 32, a portable terminal 33, and the like.
  • Data communication between the transmission device 20 and the reception device 30 is performed as communication using at least one of bidirectional communication, one-way communication, one-way communication using a broadcast wave, or the like via a network such as the Internet. Is called.
  • Data transmission from the transmission device 20 to the reception device 30 is, for example, MPEG-2TS, It is executed according to various formats such as MP4 and MMT (MPEG Media Transport). Note that the data distribution format is not limited when executing the processing of the present disclosure.
  • the MPEG-2TS, MP4, and MMT formats all specify encoded data, which is content configuration data, such as images (Video), audio (Audio), captions (Caption), etc., and a format for transmitting these control information. Yes.
  • the transmitting device 20 encodes the content data, generates a data file including the encoded data and the metadata of the encoded data, stores the generated encoded data in a packet, and transmits the packet via a broadcast wave or a network.
  • the data provided by the transmission device 20 to the reception device 30 is composed of reproduction target data such as images, sounds, and captions, as well as guide information such as a program guide, notification information, and control information.
  • the data that the transmission device 20 transmits to the reception device 30 includes the following data.
  • Each of these data is transmitted as a payload of a packet defined by the communication format.
  • the signaling data is notification information and control information for the receiving device 30 and is configured by setting information, data attribute information, control information, and the like necessary for reception, decoding, and reproduction of image data, audio data, and caption data. .
  • TTML Timed Text Markup Language
  • XML Extensible Markup Language
  • FIG. 3 shows a configuration example of TTML subtitle data in XML format stored in subtitle data (Subtitle) 70 transmitted from the transmission apparatus 20 to the reception apparatus 30, and is executed in the reception apparatus 30 using the TTML subtitle data. It is a figure which shows the example of a caption display.
  • the (A) caption data (Subtitle) 70 transmitted from the transmission apparatus 20 to the reception apparatus 30 stores, for example, TTML caption data as shown in FIG.
  • the TTML subtitle data is data in the XML format as shown in FIG. 3B, and has a configuration in which information such as a display area and display timing can be described in addition to a character string that is actually displayed.
  • the receiving device 30 interprets such TTML caption data, and generates display data as shown in FIG. 3C, that is, display data in which captions are superimposed on image data acquired and decoded from other packets. Then, a process for displaying on the display unit is performed.
  • This TTML data is A caption data "Hello", the two strings of "I Regards” is a TTML data to realize the control to be displayed in the designated area in each of the specified time.
  • ⁇ Div_regon “r1”> This is control information for displaying a caption in a specific display area [r1] of the display screen.
  • Display start time 00:00:01, 878,
  • Display end time 00: 00: 05.334,
  • Display start time 00:00:00 08.608,
  • Display end time 00: 00: 15: 296,
  • this TTML caption data has control information for executing the following caption display.
  • FIG. 3 (C1) is a display image example of displaying superimposed subtitles "Hello” to the image, from the time 0:00 01 sec 878 corresponds to the display data of the 00 00 05 seconds 334.
  • FIG. 3 (C2) is display data after (C1), and is an example of a display image in which the subtitle “Thank you” is displayed superimposed on the image. This corresponds to display data from time 0: 00: 08: 608 to 00: 00: 15: 296.
  • the example shown in FIG. 3 is an example of TTML subtitle data using an attribute (begin) indicating the display start time of subtitle data and an attribute (end) indicating the display end time.
  • TTML caption data using an attribute (begin) indicating the display start time of caption data and an attribute (dur) indicating a display period (duration).
  • Display start time 00:00:00 08.608,
  • Display period 06 seconds 688, This is control information for displaying subtitle data “Yoshikure Ne” with the above settings.
  • this TTML caption data has control information for executing the following caption display.
  • Period of the subtitle "Hello” Time 0 hours, 00 minutes 01 seconds 878 from 03 seconds to 456, is displayed on the display area [r1]. Thereafter, the subtitle “Thank you for watching” is displayed in the display area [r1] for a period of time 0: 00: 08: 608 to 06: 688. This is control information for executing display of these two subtitles.
  • the display result based on the TTML data is the display data of FIGS. 4C1 to 4C2.
  • the caption data is displayed superimposed on the image data with a specified display time.
  • Figure 4 (C1) is a display image example of displaying superimposed subtitles "Hello” to the image, corresponding to the display data from the time 0:00 01 seconds 878 03 seconds 456 period.
  • FIG. 4 (C2) is display data after (C1), and is an example of a display image in which the subtitle “Very nice” is displayed superimposed on the image. This corresponds to the display data in the period from 0: 00: 08: 608 to 06: 688.
  • the TTML caption data is generated as data including a character string to be caption data and control information such as display timing and display area of each character string.
  • control information can be set in addition to those described with reference to FIGS.
  • the TTML subtitle data includes a character string serving as subtitle data, and control information such as display timing and display area of each character string.
  • FIG. 5 shows the following two pieces of information (a) and (b).
  • the receiving device 30 receives the image / audio data files 101 to 103 from the transmitting device 20 and three TTML subtitle data files (TTML-1 to 3) for performing processing synchronized with these data files.
  • TTML-1 to 3 Three TTML subtitle data files (TTML-1 to 3) for performing processing synchronized with these data files.
  • An example of processing when 111 to 113 are received is shown.
  • the receiving device 30 performs subtitle display processing using the received three subtitle data files 111 to 113.
  • each of the image / audio data files 101 to 103 is a data file serving as a transfer unit or a processing unit defined by a data transfer method such as MPEG-2TS, MP4, or MMT.
  • a data transfer method such as MPEG-2TS, MP4, or MMT.
  • each of the image / audio data files 101 to 103 corresponds to an encoded data file “mdat” defined as a processing unit in MP4.
  • MMT encoded data file
  • each of the image / audio data files 101 to 103 is shown as one file, but the image file / audio file may be transferred as an individual file.
  • the image and audio data files 101 to 103 store reproduction data so that no data interruption occurs during the processing period in consideration of the processing period at the time of file switching.
  • each of the caption data files 111 to 113 is TTML caption data similar to that described with reference to FIGS. Since each of the caption data files 111 to 113 performs processing synchronized with the image / audio data files 101 to 103, a time stamp is set for each of the files.
  • the receiving device 30 can perform synchronization control of images, audio, and subtitles by executing processing with reference to a time stamp.
  • a time stamp By referring to the time stamp, it is possible to determine which of the subtitle data files 111 to 113 should be associated with which image / audio data file 101 to 103.
  • the TTML caption data file (TTML-1) 111 stores the following caption display control data.
  • the caption data processing unit of the receiving device 30 uses the TTML caption data file (TTML-1) 111 to perform caption display of the character string 1 and the character string 2 as shown in FIG. 5B.
  • TTML-1 TTML caption data file
  • the next TTML subtitle data file (TTML-2) 112 stores the following subtitle display control data.
  • the receiving device 30 switches the processing for the next image / sound data file 103, and this file switching is performed.
  • the subtitle data file is also switched.
  • the playback data considering the processing time at the time of file switching is stored in the preceding file so that the data is not interrupted, so that the data is not interrupted.
  • the TTML subtitle data has only the display start time and the display end time or the display period as control information, and data continuity due to file switching such as image data is not considered.
  • the caption data processing unit of the receiving device 30 stops displaying the caption data being displayed by switching the TTML caption data file. That is, the display subtitle data is deleted from the stored memory, the subtitle display is stopped, and the process proceeds to the next TTML subtitle data processing.
  • the display of the subtitle (character 4) of the TTML subtitle data (TTML-2) 112 in FIG. 5 is interrupted. That is, the subtitle data processing unit performs switching of the subtitle data file in conjunction with the switching of the image / audio data file, and at the time of the file switching process, performs the deletion of the display character data from the memory and the display stop process.
  • the display end time of the subtitle (character 4) of the TTML subtitle data (TTML-2) 112 is set after the playback end time of the image / audio data file 102 as the main data, the display by file switching is performed.
  • the character data display is forcibly terminated, and the character display is interrupted. That is, caption display interruption occurs during the period of time t8 to t9 shown in FIG.
  • the subtitle data processing unit of the receiving device 30 performs the image / audio
  • the subtitle data file is switched in synchronization with the data file switching. By this file switching, caption display interruption occurs during a period of time t8 to t9 shown in FIG.
  • the caption data processing unit of the receiving device 30 starts processing the next caption data file (TTML-3) 113.
  • the next TTML subtitle data file (TTML-3) 113 stores the following subtitle display control data.
  • the caption data processing unit of the receiving device 30 follows the display control information.
  • the control information of the caption data file (TTML-2) 112 and the caption data file (TTML-3) 113 is originally the following control information. This is control information for displaying a character string (character 4) continuously from the display start time (t7) to the display end time (t10).
  • the subtitle data file (TTML-2) 112 shown in FIG. 6 includes the following information.
  • ⁇ P begin “00: 00: 25.008”> Character 4 ⁇ / p>
  • the above caption data file (TTML-2) 112 is About character string (character 3)
  • Display start time 00: 00: 16.278
  • Display end time 00: 00: 24.556
  • Character 4
  • Display start time 00: 00: 25.008 I have this information.
  • the caption data processing unit that performs caption display control performs caption display of the character string (character 4) until the final processing time of the caption data file.
  • the TTML caption data file switching process is performed, and the display of the character string (character 4) is interrupted during the file switching process.
  • an attribute (dur) indicating a display period (duration) can be used instead of the attribute (end) of the caption display end time in the TTML caption data.
  • An example using an attribute (dur) indicating a display period (duration) is shown in FIG.
  • the subtitle data file (TTML-2) 112 shown in FIG. 7 includes the following information.
  • the character string (character 4) is interrupted when the subtitle data file is switched.
  • time t9 00: 00: 36.178 shown in Fig. 7B.
  • the subtitle data processing unit of the receiving device 30 performs the image / audio
  • the subtitle data file is switched in synchronization with the data file switching.
  • the caption display is interrupted during the period from time t8 to t9 shown in FIG. 7B.
  • caption interruption occurs regardless of the type of control information recorded in TTML caption data.
  • FIG. 8 is a diagram illustrating a processing example in the receiving device 30. Similar to the processing example described with reference to FIGS. 5 to 7, FIG. 8 shows the following two pieces of information (a) and (b).
  • the receiving device 30 receives the image / audio data files 101 to 103 from the transmitting device 20 and three TTML subtitle data files (TTML-1 to 3) that are processed in synchronization with these data files. This is an example of processing when 121 to 123 are received.
  • the receiving device 30 executes subtitle display processing using the received three subtitle data files 121-123.
  • Each of the image / audio data files 101 to 103 is one data file that is a transfer and processing unit defined by a data transfer method such as MPEG-2TS, MP4, or MMT.
  • a data transfer method such as MPEG-2TS, MP4, or MMT.
  • each of the image / audio data files 101 to 103 corresponds to an encoded data file “mdat” defined as a processing unit in MP4.
  • MMT encoded data file
  • These data files store playback images for a predetermined period and playback audio for a predetermined period.
  • the image / sound data files are shown as one, but the image data file and the sound data file can be set as separate data files.
  • the image / audio data files 101 to 103 store reproduction data so that no data interruption occurs during the file switching period in consideration of the processing period at the time of file switching.
  • each of the caption data files 121 to 123 is TTML caption data similar to that described with reference to FIGS. Since each of the caption data files 121 to 123 performs processing synchronized with the image / audio data files 101 to 103, a time stamp is set in each file.
  • the receiving device 30 can perform the processing with reference to the time stamps of the image, audio, and subtitle data files to output the image, audio, and subtitle data in synchronization.
  • the receiving apparatus 30 can determine which of the subtitle data files 121 to 123 is associated with which image / audio data file 101 to 103 by referring to the time stamp.
  • the TTML caption data file (TTML-1) 121 stores the following caption display control data.
  • TTML subtitle data file (TTML-1) 111 This is control information similar to the TTML subtitle data file (TTML-1) 111 described above with reference to FIG.
  • the caption data processing unit of the receiving apparatus 30 uses the TTML caption data file (TTML-1) 121 to perform caption display of the character string 1 and the character string 2 as shown in FIG. 8B.
  • the next TTML subtitle data file (TTML-2) 122 records the following data.
  • Display end time of character string (character 4) indefinite This setting is different from the TTML caption data (TTML-2) 112 of FIG. 5 described above.
  • This display end time continuation display instruction value (indefine) is control information for executing file switching while continuing to display the display target character.
  • Display end time continuous display instruction value
  • the caption data processing unit continues the character display using the memory storage data (character 4) without erasing the memory character string in which the display character string (character 4) for the display unit is stored. Further, while this character display is continued, file switching is performed in parallel, that is, file switching from the TTML subtitle data (TTML-2) 122 to the TTML subtitle data (TTML-3) 123 is executed.
  • the next TTML caption data file (TTML-3) 123 has the following configuration.
  • the caption data processing unit switches the processing target file to the TTML caption data file (TTML-3) 123, and from the switched TTML caption data file (TTML-3) 123, the control information of the following character string (character 4) Is detected.
  • Display start time continuous display instruction value (indefinete)
  • Display end time 00: 00: 50.856
  • the character strings in the above (a) and (b) match the character string currently being continuously displayed is stored in the memory as it is, and the display is continued.
  • the character display control process is executed as a process based on the file after the file switching, that is, the TTML subtitle data (TTML-3) 123.
  • a receiving device that has received a program (content) from the middle receives the subtitle data file (TTML-3) 123 and does not receive the subtitle data file (TTML-2) 122 shown in FIG.
  • (A) Display start time character string (character 4) in which the continuous display instruction value (indefinete) is set
  • (B) A character string that is continuously stored and displayed in memory
  • the data (a) can be obtained from the caption data file (TTML-3) 123.
  • the data (b) does not exist. That is, there is no character string stored in the memory and being displayed continuously.
  • the caption data processing unit of the receiving device 30 executes the process according to only the caption data file (TTML-3) 123.
  • the caption data processing unit detects control information of the following character string (character 4) from the TTML caption data file (TTML-3) 123.
  • Display start time continuous display instruction value (indefinete)
  • Display end time 00: 00: 50.856
  • the caption data processing unit Display start time continuous display instruction value (indefinete)
  • processing for immediately displaying a designated character string is performed.
  • Display start time continuous display instruction value (indefinete)
  • Display end time continuous display instruction value (indefinete)
  • Display start time continuous display instruction value (indefinete) Based on this control information, the following comparison processes (a) and (b) are performed.
  • A) Display start time a character string in which a continuous display instruction value (indefinit) is set;
  • B) A character string that is continuously stored and displayed in memory, In this comparison processing, only when (a) (b), the character display during the display continues and the processing target file is switched.
  • Display end time continuous display instruction value (indefinete)
  • the process of switching to the next TTML subtitle data file is performed while the character display is continued. By performing such processing, it is possible to continue displaying the same caption data by applying three or more TTML caption data files.
  • Display end time continuous display instruction value (indefinete)
  • Display start time continuous display instruction value (indefinete)
  • display data of the specific character string (character x) is stored in the memory, and when the display is executed, the display is continued. While continuing this display, processing based on the processing target file after switching is started.
  • the character string (character 4) is not interrupted at the end of the image reproduction time (t8) of the image / audio data file, and the period of time t7 to t10, It will be displayed continuously.
  • the example shown in FIG. 8 is a processing example using the attribute (end) indicating the caption display end time, but the attribute (dur) indicating the display period (duration) described with reference to FIG. 7 is used. Also in this case, it is possible to perform the subtitle continuation display similar to that shown in FIG.
  • FIG. 9 shows an embodiment using an attribute (dur) indicating a display period (duration).
  • the TTML subtitle data file (TTML-2) 132 shown in FIG. 9 records the following data.
  • this display period continuous display instruction value (indefine) is control information for executing file switching while continuing to display the display target character.
  • Display period (dur) continuous display instruction value (indefinete)
  • the caption data processing unit has a character display period (duration) of the character string (character 4) of the TTML caption data (TTML-2) 122.
  • Display period continuous display instruction value (indefinit) The following processing is executed based on the confirmation that the setting is the above.
  • the caption data processing unit continues the character display using the memory storage data (character 4) without erasing the memory character string in which the display character string (character 4) for the display unit is stored. Further, while continuing the character display, the file switching, that is, the file switching from the TTML subtitle data (TTML-2) 132 to the TTML subtitle data (TTML-3) 133 is executed in parallel.
  • the next TTML caption data file (TTML-3) 133 has the following configuration.
  • the caption data processing unit switches the processing target file to the TTML caption data file (TTML-3) 133, and from the switched TTML caption data file (TTML-3) 133, the control information of the following character string (character 4) Is detected.
  • Display start time continuous display instruction value (indefinete)
  • Display end time 00: 00: 50.856
  • the character strings in the above (a) and (b) match the character string currently being continuously displayed is stored in the memory as it is, and the display is continued.
  • the character display control processing is executed as processing based on the file after file switching, that is, TTML subtitle data (TTML-3) 133.
  • the character string (character 4) is not interrupted when switching files as shown in FIG. 9B. It will be displayed continuously.
  • the flowchart shown in FIG. 10 is a flow for explaining a processing sequence related to subtitle display control executed in the receiving device 30.
  • the processing according to the flow shown in FIG. 10 is executed according to a program stored in the storage unit, for example, under the control of a data processing unit including a CPU having a program execution function in the receiving device.
  • processing of each step will be described.
  • Step S101 First, in step S101, the receiving apparatus receives data storing image, audio, and caption data.
  • the received data includes TTML caption data.
  • Step S102 the receiving device extracts a TTML caption data file from the received data.
  • the TTML subtitle data file records control information such as a display character string and display timing corresponding to the character string.
  • Step S103 The caption data processing unit of the receiving apparatus selects caption data to be displayed from the TTML caption data file. Subtitle data to be processed is selected in accordance with the recording data order of the TTML subtitle data, and subtitle display processing according to the control information is started.
  • Step S104 the caption data processing unit executes a display end time defining attribute (end attribute or dur attribute) handling process that defines the display end time of the display target caption data. Details of the processing in step S104 will be described with reference to the flow shown in FIG.
  • Step S201 the caption data processing unit determines whether or not the display end time defining attribute (end attribute or dur attribute) of the display target character string is a continuous display instruction value (infinite). If it is a continuous display instruction value (indefine), the process proceeds to step S202. If it is not a continuous display instruction value (indefinete), the process proceeds to step S203.
  • Step S202 When it is confirmed that the display end time regulation attribute (end attribute or dur attribute) of the display target character string is the continuous display instruction value (indefine), the receiving apparatus executes the following process in step S202.
  • the display target subtitle data is continuously stored in the memory even after the end of the distribution data unit (image, audio data file as the main data), and the display processing of the memory stored character string is continued.
  • the caption data processing unit performs a switching process of the TTML caption data file in conjunction with the switching process of the image and audio data files that are the main data.
  • the end time specification attribute (end attribute) is also used during the switching process.
  • the character string character x
  • the dur attribute is the continuous display instruction value (indefine)
  • memory storage and display are continuously performed.
  • Step S203 On the other hand, when it is confirmed that the display end time regulation attribute (end attribute or dur attribute) of the display target character string is not the continuous display instruction value (indefine), the receiving apparatus executes the following process in step S203.
  • the display of the display target caption data is ended according to the designation of the display end time regulation attribute (end attribute or dur attribute).
  • steps S201 to S203 are executed as the process in step S104 in the flow of FIG. Thereafter, the process proceeds to step S105.
  • Step S105 the caption data processing unit of the receiving device executes a display start time defining attribute (begin attribute) handling process that defines the display start time of the display target caption data. Details of the processing in step S105 will be described with reference to the flow shown in FIG.
  • Step S301 the caption data processing unit determines whether or not the display start time defining attribute (begin attribute) of the display target character string is a continuous display instruction value (indefine). If it is not the continuous display instruction value (indefinit), the process proceeds to step S302, and if it is the continuous display instruction value (indefinete), the process proceeds to step S303.
  • Step S302 When the display start time regulation attribute (begin attribute) of the display target character string is not the continuous display instruction value (indefine), the caption data processing unit performs the following process in step S302. Display control for starting display of display target subtitle data at a time specified by a display start time defining attribute (begin attribute) is executed.
  • Step S303 On the other hand, when the display start time defining attribute (begin attribute) of the display target character string is the continuous display instruction value (indefine), the caption data processing unit performs the following processing in step S303. It is determined whether the same character data as the character string in which the display start time defining attribute (begin attribute) is the continuous display instruction value (indefine) is stored in the memory and the display is continuing. If the same character as the character to be processed is stored in the memory and is being displayed, the process proceeds to step S304, and if not, the process proceeds to step S305.
  • Step S304 When the same character data as the character string in which the display start time defining attribute (begin attribute) is the continuous display instruction value (indefine) is stored in the memory and the display is continuing, the caption data processing unit performs step S304. In FIG. Continue to display subtitles that are stored in memory and are being displayed.
  • Step S305 On the other hand, if the same character data as the character string in which the display start time defining attribute (begin attribute) is the continuous display instruction value (indefine) is not stored in the memory and the display is not continuing, the caption data processing unit Performs the following processing in step S305. Processing for immediately displaying the display target caption data.
  • the subtitle data file (TTML-2) 122 is not received but the subtitle data file (TTML-3) 123 is received, This is a process corresponding to a process when viewing a program (content) from.
  • steps S301 to S305 are executed as the process in step S105 in the flow of FIG. Thereafter, the process proceeds to step S106.
  • step S106 the subtitle data processing unit of the receiving apparatus determines whether there is the next display target subtitle data. If there is, the process from step S103 is repeated. If not, the process ends.
  • steps S103 to S106 are processes for one TTML caption data file, and each time a new TTML caption data file is received and extracted in steps S101 to S102. , Repeatedly executed.
  • the subtitle display is not interrupted when the TTML subtitle file is switched. Thus, it is possible to perform continuous caption display.
  • FIG. 13 shows a configuration example of the transmission device 20 and the reception device 30.
  • the transmission device 20 includes a data processing unit 141, a communication unit 142, and a storage unit 143.
  • the receiving device 30 includes a data processing unit 151, a communication unit 152, a storage unit 153, an input unit 154, and an output unit 155.
  • the data processing unit 141 of the transmission device 20 executes various data processes for executing the data distribution service. For example, generation of configuration data of the data distribution service and transmission control are performed. Specifically, generation of a packet storing image and audio data, generation of a packet storing subtitle data and other signaling data, and distribution processing are executed.
  • the caption data storage packet is a packet storing TTML caption data in XML format.
  • the communication unit 142 performs transmission processing of control signals such as images, audio, captions, and other signaling data generated by the data processing unit 141.
  • the storage unit 143 stores data such as images, sounds, and captions to be distributed. Furthermore, the storage unit 143 is used as a work area for data processing executed by the data processing unit 141, and is also used as a storage area for various parameters.
  • the receiving device 30 includes a data processing unit 151, a communication unit 152, a storage unit 153, an input unit 154, and an output unit 155.
  • the communication unit 152 receives data distributed from the transmission device 20, for example, a packet storing video, audio, and subtitles, and signaling data.
  • the caption data is TTML caption data.
  • the data processing unit 151 performs display control of caption data according to the above-described embodiment. Specifically, for example, subtitle display control according to TTML subtitle data is executed.
  • a user instruction command such as a content designation command is input via the input unit 154.
  • the reproduction data is output to an output unit 155 such as a display unit or a speaker.
  • the storage unit 153 stores received data such as images, sounds, and captions. Furthermore, the storage unit 153 is used as a work area for data processing executed by the data processing unit 151, and is also used as a storage area for various parameters.
  • FIG. 14 is a diagram illustrating a detailed configuration of the data processing unit 141 of the transmission device 20.
  • the data processing unit 141 includes an image data processing unit 201, an audio data processing unit 202, a caption data processing unit 203, a control signal generation unit 204, and a packet generation unit 205.
  • the image data processing unit 201 performs processing on image data, which is configuration data of content to be transmitted to the receiving device, for example, transmission data generation processing such as encoding processing, and generates encoded image data to be stored in the packet. This is supplied to the generation unit 205.
  • the audio data processing unit 202 performs processing on the audio data that is the configuration data of the content to be transmitted to the receiving device, for example, transmission data generation processing such as encoding processing, and generates encoded audio data to be stored in the packet This is supplied to the generation unit 205.
  • the caption data processing unit performs processing on caption data that is content configuration data to be transmitted to the receiving device. Specifically, TTML caption data is generated and supplied to the packet generator 205.
  • the control signal generation unit 204 generates a control signal including, for example, program information and outputs the control signal to the packet generation unit 205.
  • the packet generation unit 205 generates a packet storing images, audio, captions, and control signals, and supplies the packet to the communication unit 142.
  • the packet generated by the packet generation unit 205 is set with a packet identifier corresponding to the data type such as image, audio, or caption.
  • the communication unit 142 outputs a packet input from the packet generation unit 205 via a broadcast wave or a network.
  • FIG. 15 is a diagram illustrating a detailed configuration of the data processing unit 151 of the receiving device 30.
  • the data processing unit 151 of the receiving device 30 includes a packet separation unit 301, an image data processing unit 302, an audio data processing unit 303, a caption data processing unit 304, a control unit 305, and a superimposition processing unit 306.
  • the packet separation unit 301 separates the received packet for each data type (image, audio, caption, control signal) based on the packet identifier of the packet received via the communication unit 152, and processes each separated packet for each data processing Supply to the department.
  • the image data processing unit 302 acquires image data from a packet storing the image data, and executes processing necessary for image reproduction processing such as decoding processing.
  • the audio data processing unit 303 acquires audio data from the packet storing the audio data, and executes processing necessary for audio reproduction processing such as decoding processing.
  • the subtitle data processing unit 304 acquires TTML subtitle data from a packet storing subtitle-related data, applies control information recorded in the TTML subtitle data, controls subtitle output timing, and outputs subtitles. .
  • the control unit 305 executes processing control in each processing unit of the image data processing unit 302, the audio data processing unit 303, the subtitle data processing unit 304, and the superimposition processing unit 306, in addition to the output of the above-described subtitle-related control signals.
  • the superimposition processing unit 306 performs superimposition processing of the image data output from the image data processing unit 302 and the caption data output from the caption data processing unit 304, and outputs the result to the display unit.
  • FIG. 16 shows a hardware configuration example of a communication device applicable as the transmission device 20 and the reception device 30.
  • a CPU (Central Processing Unit) 401 functions as a data processing unit that executes various processes according to a program stored in a ROM (Read Only Memory) 402 or a storage unit 408. For example, processing according to the sequence described in the above-described embodiment is executed.
  • a RAM (Random Access Memory) 403 stores programs executed by the CPU 401, data, and the like. These CPU 401, ROM 402, and RAM 403 are mutually connected by a bus 404.
  • the CPU 401 is connected to an input / output interface 405 through a bus 404.
  • the input / output interface 405 is connected to an input unit 406 including various switches, a keyboard, a mouse, a microphone, and the like, and an output unit 407 including a display and a speaker. Yes.
  • the CPU 401 executes various processes in response to a command input from the input unit 406 and outputs the processing result to the output unit 407, for example.
  • the storage unit 408 connected to the input / output interface 405 includes, for example, a hard disk and stores programs executed by the CPU 401 and various data.
  • the communication unit 409 functions as a data communication transmission / reception unit via a network such as the Internet or a local area network, and further as a broadcast wave transmission / reception unit, and communicates with an external device.
  • the drive 410 connected to the input / output interface 405 drives a removable medium 411 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory such as a memory card, and executes data recording or reading.
  • a removable medium 411 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory such as a memory card
  • the encoding or decoding of data can be executed as the processing of the CPU 401 as the data processing unit, but a configuration including a codec as dedicated hardware for executing the encoding or decoding processing may be adopted.
  • the technology disclosed in this specification can take the following configurations.
  • the TTML subtitle data is data having a continuous display instruction value for executing the continuous display processing of the subtitle being displayed as at least one of the subtitle display end time prescription attribute or the subtitle display start time prescription attribute.
  • the data processing unit When the setting value of the subtitle display end time defining attribute of the TTML subtitle data is a continuous display instruction value, The receiving device according to (1) or (2), wherein control is performed to continue memory storage and display processing of subtitle data being displayed even after the reproduction end timing of an image file that is a synchronization processing file for the TTML subtitle data. .
  • the data processing unit When the setting value of the subtitle display start time defining attribute of the TTML subtitle data is a continuous display instruction value, Determine whether there is a character string that is stored in memory and display processing is ongoing, If there is, it is determined whether or not the character string in which the continuous display instruction value is set is the same as the character string that is stored in the memory and the display process is continuing. If it is the same, the display character is continued.
  • the receiving device according to any one of (1) to (4), wherein control for displaying the information is executed.
  • the data processing unit When the setting value of the subtitle display start time defining attribute of the TTML subtitle data is a continuous display instruction value, Determine whether there is a character string that is stored in memory and display processing is ongoing, 6.
  • the receiving device according to any one of (1) to (5), wherein if there is not, control for immediately displaying the character string in which the continuous display instruction value is set is executed.
  • TTML subtitle data is data having a continuous display instruction value for executing the continuous display processing of the subtitle being displayed as at least one of the subtitle display end time prescription attribute or the subtitle display start time prescription attribute.
  • the data processing unit Generate TTML subtitle data in which the setting value of the subtitle display end time regulation attribute is the continuous display instruction value,
  • the transmission device according to (9), wherein the TTML subtitle data is data that allows the subtitle display processing execution device to execute storage processing of the subtitle data being displayed in memory and display processing continuation processing.
  • the data processing unit Generate TTML subtitle data in which the setting value of the subtitle display end time regulation attribute is the continuous display instruction value,
  • the TTML subtitle data causes the subtitle display processing execution device to execute the process of switching the TTML subtitle data file to be processed while executing the memory storage of the subtitle data being displayed and the continuation processing of the display processing.
  • the transmission device according to (9) or (10), wherein the transmission device is data that enables the above.
  • the data processing unit Generate TTML subtitle data in which the setting value of the subtitle display start time regulation attribute is the continuous display instruction value,
  • the TTML caption data is sent to the caption display processing execution device. Determine whether there is a character string that is stored in memory and is being displayed, If there is, it is determined whether or not the character string in which the continuous display instruction value is set is the same as the character string that is stored in the memory and the display process is continuing. If it is the same, the display character is continued.
  • the transmission device according to any one of (9) to (11), which is data that enables execution of display control.
  • the data processing unit Generate TTML subtitle data in which the setting value of the subtitle display start time regulation attribute is the continuous display instruction value,
  • the TTML caption data is sent to the caption display processing execution device. Determine whether there is a character string that is stored in memory and is being displayed, If not, the transmission device according to any one of (9) to (12), wherein control for immediately displaying the character string in which the continuous display instruction value is set is executed.
  • a data processing method executed in the receiving device A communication unit receiving TTML (Timed Text Markup Language) subtitle data; A data processing unit having a step of executing caption display control to which the TTML caption data is applied;
  • the TTML subtitle data is data having a continuous display instruction value for executing the continuous display processing of the subtitle being displayed as at least one of the subtitle display end time prescription attribute or the subtitle display start time prescription attribute. Processing method.
  • a data processing method executed in the transmission device A step of generating a TTML (Timed Text Markup Language) caption data;
  • a communication unit includes a step of transmitting the TTML caption data;
  • the TTML subtitle data is data having a continuous display instruction value for executing the continuous display processing of the subtitle being displayed as at least one of the subtitle display end time prescription attribute or the subtitle display start time prescription attribute. Processing method.
  • the series of processes described in the specification can be executed by hardware, software, or a combined configuration of both.
  • the program recording the processing sequence is installed in a memory in a computer incorporated in dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It can be installed and run.
  • the program can be recorded in advance on a recording medium.
  • the program can be received via a network such as a LAN (Local Area Network) or the Internet and installed on a recording medium such as a built-in hard disk.
  • the various processes described in the specification are not only executed in time series according to the description, but may be executed in parallel or individually according to the processing capability of the apparatus that executes the processes or as necessary.
  • the system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same casing.
  • an apparatus and a method for realizing reliable display control without interruption of caption display of TTML caption data are realized.
  • the setting value of the subtitle display end time defining attribute of the TTML subtitle data is the continuous display instruction value
  • the memory storage and display processing of the subtitle data being displayed is continued even after the reproduction end timing of the image file.
  • TTML caption data file switching processing is executed.
  • the setting value of the subtitle display start time regulation attribute of the TTML subtitle data is the continuous display instruction value, it is determined whether or not there is a character string that is continuing the display process. If there is, the continuous display of the display character is continued. .
  • display control without interruption of caption display of TTML caption data is realized.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Databases & Information Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Systems (AREA)
  • Studio Circuits (AREA)

Abstract

TTML字幕データの字幕表示途切れのない確実な表示制御を実現する装置、方法を提供する。TTML字幕データの字幕表示終了時間規定属性の設定値が継続表示指示値である場合、画像ファイルの再生終了タイミング以降も、表示中の字幕データのメモリ保存と表示処理を継続し、TTML字幕データファイルの切り換え処理を実行する。TTML字幕データの字幕表示開始時間規定属性の設定値が継続表示指示値である場合、表示処理継続中の文字列があるか否かを判定し、ある場合は、表示文字の継続表示を続行する。これらの処理によってTTML字幕データの字幕表示途切れのない表示制御が実現される。

Description

受信装置、および送信装置、並びにデータ処理方法
 本開示は、受信装置、および送信装置、並びにデータ処理方法に関する。さらに詳細には字幕データの送受信や処理を実行する受信装置、および送信装置、並びにデータ処理方法に関する。
 映像に対して字幕を重畳して表示する方式には様々な方式があるが、表示領域や表示タイミング等の制御を可能としたXML(Extensible Markup Language)形式の字幕データであるTTML(Timed Text Markup Language)の利用が多くなってきている。
 TTMLは、HTML5等のwebアプリケーションとの連携も可能であるという特徴を持つ。
 なお、TTMLについては、例えば特許文献1(特開2012-169885号公報)に記載がある。
特開2012-169885号公報
 上記の字幕データであるTTML字幕データは、表示する字幕データとともに字幕の表示タイミングを示す情報を記述可能な構成を持つ。しかし、TTMLファイルの切り換え処理を行なう際に、字幕データの表示が途切れてしまう可能性がある。
 本開示は、TTML字幕データの制御情報を用いた字幕表示処理において、字幕表示途切れを解消することを可能とした処理を実現する受信装置、および送信装置、並びにデータ処理方法を提供することを目的とする。
 本開示の第1の側面は、
 TTML(Timed Text Markup Language)字幕データを受信する通信部と、
 前記TTML字幕データを適用した字幕表示制御を実行するデータ処理部を有し、
 前記TTML字幕データは、字幕表示終了時間規定属性、または字幕表示開始時間規定属性、少なくともいずれかの属性値として、表示中の字幕の継続表示処理を実行させる継続表示指示値を有するデータである受信装置にある。
 さらに、本開示の第2の側面は、
 TTML(Timed Text Markup Language)字幕データを生成するデータ処理部と、
 前記TTML字幕データを送信する通信部を有し、
 前記TTML字幕データは、字幕表示終了時間規定属性、または字幕表示開始時間規定属性、少なくともいずれかの属性値として、表示中の字幕の継続表示処理を実行させる継続表示指示値を有するデータである送信装置にある。
 さらに、本開示の第3の側面は、
 受信装置において実行するデータ処理方法であり、
 通信部が、TTML(Timed Text Markup Language)字幕データを受信するステップと、
 データ処理部が、前記TTML字幕データを適用した字幕表示制御を実行するステップを有し、
 前記TTML字幕データは、字幕表示終了時間規定属性、または字幕表示開始時間規定属性、少なくともいずれかの属性値として、表示中の字幕の継続表示処理を実行させる継続表示指示値を有するデータであるデータ処理方法にある。
 さらに、本開示の第4の側面は、
 送信装置において実行するデータ処理方法であり、
 データ処理部が、TTML(Timed Text Markup Language)字幕データを生成するステップと、
 通信部が、前記TTML字幕データを送信するステップを有し、
 前記TTML字幕データは、字幕表示終了時間規定属性、または字幕表示開始時間規定属性、少なくともいずれかの属性値として、表示中の字幕の継続表示処理を実行させる継続表示指示値を有するデータであるデータ処理方法にある。
 本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 本開示の一実施例の構成によれば、TTML字幕データの字幕表示途切れのない確実な表示制御を実現する装置、方法が実現される。
 具体的には、TTML字幕データの字幕表示終了時間規定属性の設定値が継続表示指示値である場合、画像ファイルの再生終了タイミング以降も、表示中の字幕データのメモリ保存と表示処理を継続し、TTML字幕データファイルの切り換え処理を実行する。TTML字幕データの字幕表示開始時間規定属性の設定値が継続表示指示値である場合、表示処理継続中の文字列があるか否かを判定し、ある場合は、表示文字の継続表示を続行する。
 本構成により、TTML字幕データの字幕表示途切れのない表示制御が実現される。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
本開示の処理を実行する通信システムの一構成例について説明する図である。 送信装置の送信データについて説明する図である。 TTML字幕データを利用した字幕表示処理について説明する図である。 TTML字幕データを利用した字幕表示処理について説明する図である。 TTML字幕データを利用した字幕表示処理において発生する字幕途切れについて説明する図である。 TTML字幕データを利用した字幕表示処理において発生する字幕途切れについて説明する図である。 TTML字幕データを利用した字幕表示処理において発生する字幕途切れについて説明する図である。 字幕途切れの発生を防止したTTML字幕データを利用した字幕表示制御処理について説明する図である。 字幕途切れの発生を防止したTTML字幕データを利用した字幕表示制御処理について説明する図である。 字幕途切れの発生を防止したTTML字幕データを利用した字幕表示制御処理のシーケンスについて説明するフローチャートを示す図である。 字幕途切れの発生を防止したTTML字幕データを利用した字幕表示制御処理のシーケンスについて説明するフローチャートを示す図である。 字幕途切れの発生を防止したTTML字幕データを利用した字幕表示制御処理のシーケンスについて説明するフローチャートを示す図である。 送信装置と受信装置の構成例について説明する図である。 送信装置の構成例について説明する図である。 受信装置の構成例について説明する図である。 通信装置である送信装置と受信装置のハードウェア構成例について説明する図である。
 以下、図面を参照しながら本開示の受信装置、および送信装置、並びにデータ処理方法の詳細について説明する。なお、説明は以下の項目に従って行なう。
 1.通信システムの構成例について
 2.字幕データの概要について
 3.TTML字幕データファイルの切り換え時の問題点について
 4.字幕途切れの解消を実現する実施例について
 5.字幕表示制御シーケンスについて
 6.送信装置と受信装置の構成例について
 7.本開示の構成のまとめ
  [1.通信システムの構成例について]
 まず、図1を参照して本開示の処理を実行する通信システムの一構成例について説明する。
 図1に示すように、通信システム10は、画像データや音声データ、さらに字幕データ、さらに各種の制御情報等のデータを送信する送信装置20と、送信装置20の送信するデータを受信する受信装置30を有する。
 送信装置20は、具体的には、例えば放送局21やコンテンツサーバ22等、コンテンツを提供する側の装置である。
 一方、受信装置30は、一般ユーザのクライアント装置であり、具体的には、例えばテレビ31、PC32、携帯端末33等によって構成される。
 送信装置20と受信装置30間のデータ通信は、インターネット等のネットワークを介した双方向通信、一方向通信、あるいは、放送波等による一方向通信の少なくともいずれか、あるいは両者を利用した通信として行われる。
 送信装置20から受信装置30に対するデータ送信は、例えば、MPEG-2TS、
MP4、MMT(MPEG Media Transport)など、様々なフォーマットに従って実行される。なお、本開示の処理を実行する場合、データ配信フォーマットは限定されない。
 MPEG-2TS、MP4、MMTフォーマットのいずれも、画像(Video)、音声(Audio)、字幕(Caption)等、コンテンツ構成データである符号化データと、これらの制御情報を送信するフォーマットを規定している。
 送信装置20は、コンテンツデータを符号化し、符号化データおよび符号化データのメタデータを含むデータファイルを生成し、生成した符号化データをパケットに格納して放送波やネットワークを介して送信する。
 送信装置20が受信装置30に提供するデータは、画像、音声、字幕等の再生対象データの他、番組ガイド等の案内情報や通知情報、制御情報等によって構成される。
 送信装置20の送信データの例について図2を参照して説明する。
 図2には、送信装置20が受信装置30に対して送信するデータの種類を示している。送信装置20が受信装置30に対して送信するデータには以下のデータがある。
 (a)画像データ(Video)50
 (b)音声データ(Audio)60
 (c)字幕データ(Subtitle)70
 (d)シグナリングデータ80
 これらの各データが、通信フォーマットで規定されるパケットのペイロードとして送信される。
 なお、シグナリングデータは、受信装置30に対する通知情報や制御情報であり、画像データ、音声データ、字幕データの受信、復号、再生に必要となる設定情報、データ属性情報、制御情報等によって構成される。
  [2.字幕データの概要について]
 本開示の構成では、字幕データは表示領域や表示タイミング等の制御を可能としたXML(Extensible Markup Language)形式の字幕データであるTTML(Timed Text Markup Language)を用いる。
 TTML字幕データを利用した字幕表示制御例について説明する。
 図3は、送信装置20が受信装置30に対して送信する字幕データ(Subtitle)70に格納されるXML形式のTTML字幕データの構成例と、TTML字幕データを利用して受信装置30において実行する字幕表示例を示す図である。
 送信装置20が受信装置30に対して送信する(A)字幕データ(Subtitle)70には、例えば図3(B)に示すようなTTML字幕データが格納されている。
 TTML字幕データは、図3(B)に示すようなXML形式のデータであり、実際に表示される文字列の他、表示領域、表示タイミング等の情報を記述可能なとした構成を持つ。
 受信装置30は、このようなTTML字幕データを解釈して、図3(C)に示すような表示データ、すなわち、他のパケットから取得して復号した画像データに字幕を重畳した表示データを生成して表示部に表示する処理を行う。
 図3(B)に示すTTML字幕データには、以下の情報が記録されている。
 <div   regon="r1">
   <p begin ="00:00:01.878" end="00:00:05.334">
           こんにちは 
   <p begin ="00:00:08.608" end="00:00:15.296">
           よろしくね  
     </p>
 </div?
 このTTMLデータは、
 字幕データ「こんにちは」と、「よろしくね」の2つの文字列を、それぞれの指定時間に指定領域に表示させる制御を実現するTTMLデータである。
 <div   regon="r1">は、
 表示画面の特定の表示領域[r1]に字幕を表示させるための制御情報である。
 <p begin ="00:00:01.878" end="00:00:05.334">は、
 字幕データ「こんにちは」の表示開始時間と表示終了時間を規定した制御情報である。
 表示開始時間=00時00分01秒878、
 表示終了時間=00時00分05秒334、
 上記設定で字幕データ「こんにちは」を表示させるための制御情報である。
 なお、時間は、受信装置30のシステムクロックに基づいて計測可能である。
 <p begin ="00:00:08.608" end="00:00:15.296">は、
 字幕データ「よろしくね」の表示開始時間と表示終了時間を規定した制御情報である。
 表示開始時間=00時00分08秒608、
 表示終了時間=00時00分15秒296、
 上記設定で字幕データ「よろしくね」を表示させるための制御情報である。
 すなわち、このTTML字幕データは、以下の字幕表示を実行させる制御情報を持つ。
 字幕「こんにちは」を時間0時00分01秒878から、00時00分05秒334まで、表示領域[r1]に表示する。
 その後、字幕「よろしくね」を時間0時00分08秒608から、00時00分15秒296まで、表示領域[r1]に表示する。
 これらの2つの字幕表示を実行させる制御情報である。
 このTTMLデータに基づく表示結果が、図3(C1)~(C2)の表示データとなる。
 字幕データは、表示時間の規定された画像データに対して重畳して表示される。
 図3(C1)は、字幕「こんにちは」を画像に重畳して表示した表示画像例であり、時間0時00分01秒878から、00時00分05秒334までの表示データに相当する。
 図3(C2)は、(C1)の後の表示データであり、字幕「よろしくね」を画像に重畳して表示した表示画像例である。時間0時00分08秒608から、00時00分15秒296までの表示データに相当する。
 図3に示す例は、字幕データの表示開始時間を示す属性(begin)と、表示終了時間を示す属性(end)を利用したTTML字幕データの例であるが、この他、例えば図4に示すように、字幕データの表示開始時間を示す属性(begin)と、表示期間(duration)を示す属性(dur)を利用したTTML字幕データもある。
 図4(B)に示すTTML字幕データには、以下の情報が記録されている。
 <div   regon="r1">
   <p begin ="00:00:01.878" dur="03.456">
           こんにちは 
   <p begin ="00:00:08.608" dur="06.668">
           よろしくね  
     </p>
 </div?
 このTTMLデータでも、図3に示す例と同様、
 字幕データ「こんにちは」と、「よろしくね」の2つの文字列を、それぞれの指定時間に表示させる制御を実現するTTMLデータである。
 <div   regon="r1">は、
 表示画面の特定の表示領域[r1]に字幕を表示させるための制御情報である。
 <p begin ="00:00:01.878" dur="03.456">は、
 字幕データ「こんにちは」の表示開始時間と表示期間を規定した制御情報である。
 表示開始時間=00時00分01秒878、
 表示期間=03秒456、
 上記設定で字幕データ「こんにちは」を表示させるための制御情報である。
 なお、時間は、受信装置30のシステムクロックに基づいて計測可能である。
 <p begin ="00:00:08.608" dur="06.668">は、
 字幕データ「よろしくね」の表示開始時間と表示期間を規定した制御情報である。
 表示開始時間=00時00分08秒608、
 表示期間=06秒688、
 上記設定で字幕データ「よろしくね」を表示させるための制御情報である。
 すなわち、このTTML字幕データは、以下の字幕表示を実行させる制御情報を持つ。
 字幕「こんにちは」を時間0時00分01秒878から03秒456の期間、表示領域[r1]に表示する。
 その後、字幕「よろしくね」を時間0時00分08秒608から06秒688の期間、表示領域[r1]に表示する。
 これらの2つの字幕の表示を実行させる制御情報である。
 このTTMLデータに基づく表示結果が、図4(C1)~(C2)の表示データとなる。
 字幕データは、表示時間の規定された画像データに対して重畳して表示される。
 図4(C1)は、字幕「こんにちは」を画像に重畳して表示した表示画像例であり、時間0時00分01秒878から03秒456の期間の表示データに相当する。
 図4(C2)は、(C1)の後の表示データであり、字幕「よろしくね」を画像に重畳して表示した表示画像例である。時間0時00分08秒608から06秒688の期間の表示データに相当する。
 図3、図4を参照して説明したように、TTML字幕データは、字幕データとなる文字列と、各文字列の表示タイミング、表示領域等の制御情報を含むデータとして生成される。
 なお、図3、図4で説明した以外にも様々な制御情報の設定が可能である。
  [3.TTML字幕データファイルの切り換え時の問題点について]
 図3、図4を参照して説明したように、TTML字幕データには、字幕データとなる文字列と、各文字列の表示タイミング、表示領域等の制御情報が含まれる。
 しかし、このTTMLデータに含まれる表示タイミング制御情報を用いた処理を行なうと、TTMLデータファイルの切り換え時に表示文字列の消失、すなわち字幕途切れが発生するという問題がある。
 この問題点について図5を参照して説明する。
 図5には、以下の(a),(b)2つの情報を示している。
 (a)受信装置30が、送信装置20から、順次、受信するデータファイル
 (b)受信装置30が実行する字幕データの表示シーケンス
 図5(b)の時間軸(t)に示すように、左から右に時間が経過するものとする。
 図5に示す例は、受信装置30が、送信装置20から画像/音声データファイル101~103と、これらのデータファイルに同期させた処理を行なう3つのTTML字幕データファイル(TTML-1~3)111~113を受信した場合の処理例を示している。受信装置30は、受信した3つの字幕データファイル111~113を利用して、字幕表示処理を実行する。
 なお、画像/音声データファイル101~103の各々は、例えばMPEG-2TS、MP4やMMT等のデータ転送方式で規定される転送単位、処理単位となるデータファイルである。
 例えばデータ通信フォーマットがMP4の場合、画像/音声データファイル101~103の各々は、MP4で処理単位として規定される符号化データのファイル「mdat」に対応する。
 また、データ通信フォーマットがMMTの場合、画像/音声データファイル101~103の各々は、MMTで処理単位として規定される符号化データのファイル「MFU」に対応する。
 これらのデータファイルには、所定期間の再生画像と再生音声が格納されている。なお、図5では、画像/音声データファイル101~103の各々を1つのファイルとして示しているが、画像ファイルト音声ファイルは個別のファイルとして転送する場合もある。
 画像、音声のデータファイル101~103には、ファイル切り換え時の処理期間を考慮し、処理期間にデータ途切れが発生しないように再生用データが格納されている。
 一方、字幕データファイル111~113の各々は図3、図4を参照して説明したと同様のTTML字幕データである。
 字幕データファイル111~113の各々は、画像/音声データファイル101~103と同期した処理を行なうため、それぞれのファイルにタイムスタンプが設定されている。
 受信装置30は、タイムスタンプを参照した処理を実行することで、画像、音声、字幕の同期制御を行うことが可能となる。
 タイムスタンプを参照することで字幕データファイル111~113の各々について、どの画像/音声データファイル101~103と対応付けて処理を行なうべきかを判断することができる。
 図5(a)に示すように、TTML字幕データファイル(TTML-1)111は、以下の字幕表示制御データを格納している。
 文字列(文字1)について、
 表示開始時間(begin)=00:00:01.878
 表示終了時間(end)=00:00:05.334
 文字列(文字2)について、
 表示開始時間(begin)=00:00:08.608
 表示終了時間(end)=00:00:15.296
 受信装置30の字幕データ処理部は、このTTML字幕データファイル(TTML-1)111を利用して、図5(b)に示すように、文字列1と、文字列2の字幕表示を実行する。
 すなわち、文字列1を、
 時刻t1=00:00:01.878に表示を開始し、時刻t2=00:00:05.334に表示終了する。
 さらに、文字列2について、
 時刻t3=00:00:08.608に表示を開始し、時刻t4=00:00:15.296に表示を終了する。
 次のTTML字幕データファイル(TTML-2)112は、以下の字幕表示制御データを格納している。
 文字列(文字3)について、
 表示開始時間=00:00:16.278
 表示終了時間=00:00:24.556
 文字列(文字4)について、
 表示開始時間=00:00:25.008
 表示終了時間=00:00:36.178
 受信装置30の字幕データ処理部は、TTML字幕データファイル(TTML-1)111の表示処理終了後、処理対象をTTML字幕データファイル(TTML-2)112に切り換え、このTTML字幕データファイル(TTML-2)112を利用して、図5(b)に示すように、文字列3と、文字列4の字幕表示を実行する。
 すなわち、文字列3を、
 時刻t5=00:00:16.278に表示を開始し、時刻t6=00:00:24.556に表示終了する。
 さらに、文字列4について、
 時刻t7=00:00:25.008に表示を開始する。
 しかし、文字列4の表示終了時間=t9=00:00:36.178は、TTML字幕データファイル(TTML-2)112に対応付けられた同期処理データファイル、すなわち画像/音声データファイル102の画像再生終了時間(t8=00:00:35.442)より遅い時間の設定となっている。
 図に示す例では、画像/音声データファイル102の画像再生終了時間は、t8=00:00:35.442であるものとする。
 受信装置30は、メインデータである画像/音声データファイル102の再生終了時間(t8=00:00:35.442)になると、次の画像/音声データファイル103に対する処理切り換えを行い、このファイル切り換えに際して、字幕データファイルの切り換えも併せて実行する。
 画像/音声データについては、データ途切れが発生しないように、ファイル切り換え時の処理時間を考慮した再生データが先行ファイルに格納されているため、データ途切れは発生しない。
 しかし、TTML字幕データは、表示開始時間と、表示終了時間または表示期間を制御情報として有するのみであり、画像データのようなファイル切り換えによるデータ継続性が考慮されていない。
 受信装置30の字幕データ処理部は、TTML字幕データファイルの切り換えにより、表示中の字幕データの表示を停止してしまう。すなわち、表示用字幕データを格納したメモリから消去し、字幕表示を停止して次のTTML字幕データの処理に移行する。
 この結果、図5のTTML字幕データ(TTML-2)112の字幕(文字4)の表示は途切れることになる。
 すなわち、字幕データ処理部は、画像/音声データファイルの切り換えに併せて字幕データファイルの切り換えを行い、このファイル切り換え処理の際に、表示文字データのメモリからの消去と、表示停止処理を行う。
 このように、TTML字幕データ(TTML-2)112の字幕(文字4)の表示終了時間がメインデータである画像/音声データファイル102の再生終了時間より後に設定されている場合、ファイル切り換えによる表示文字データの表示の強制終了がなされ、文字表示が途絶えることになる。
 すなわち、図5(B)に示す時間t8~t9の期間、字幕表示途切れが発生してしまう。
 図5に示す例における文字表示の途切れ発生状況について詳しく説明する。
 図5(b)に示す時間t8=00:00.35.442は、メインデータである画像/音声データファイル102の再生終了時間に相当する。
 TTML字幕データファイル(TTML-2)112は、
 文字列4について、
 表示開始時間=00:00:25.008
 表示終了時間=00:00:36.178
 上記の表示タイミング制御情報を記録している。
 文字列4の表示終了時間=00:00:36.178は、TTML-2と同期再生対象として設定されたメインデータである画像/音声データファイル102の再生終了時間(t8=00:00:35.442)より後の時間の設定となっている。
 このように、TTML字幕データに記録された表示終了時間が、メインデータである画像/音声データファイルの再生終了時間より後に設定されていても、受信装置30の字幕データ処理部は、画像/音声データファイルの切り換えに同期した字幕データファイルの切り換えを行う。このファイル切り換えにより、図5(B)に示す時間t8~t9の期間、字幕表示途切れが発生する。
 その後、受信装置30の字幕データ処理部は、次の字幕データファイル(TTML-3)113の処理を開始する。
 次のTTML字幕データファイル(TTML-3)113は、以下の字幕表示制御データを格納している。
 文字列(文字4)について、
 表示開始時間=00:00:36.178
 表示終了時間=00:00:50.856
 図5(b)に示すように、受信装置30の字幕データ処理部は、この表示制御情報に従って、
 文字列4を、
 時刻t9=00:00:36.178に表示を開始し、時刻t10=00:00:50.856に表示終了する。
 字幕データファイル(TTML-2)112と、字幕データファイル(TTML-3)113の制御情報は、本来、以下の制御情報である。
 文字列(文字4)を、表示開始時間(t7)から表示終了時間(t10)まで継続させて表示させる制御情報である。
 しかし、同期処理データファイルである画像/音声データファイル102の再生終了時間(t8=00:00:35.442)に併せて、字幕データファイルの切り換えを行うことで、上述した時間t8~t9の字幕途切れを発生させてしまう。
 なお、TTML字幕データにおける字幕表示終了時間の属性(end)に値(時間情報)を記録しない設定とすることも可能である。属性(end)に値(時間情報)を記録しない場合、その字幕については、字幕データファイルの処理最終時間まで、字幕表示を実行する。
 すなわち、図6に示す字幕データファイル(TTML-2)112に示す設定である。
 図6に示す字幕データファイル(TTML-2)112は、以下の情報によって構成されている。
 <p begin="00:00:16.278"
 end="00:00:24.556" >
 文字3</p> 
 <p begin="00:00:25.008">
 文字4</p>
 上記の字幕データファイル(TTML-2)112は、
 文字列(文字3)について、
 表示開始時間=00:00:16.278
 表示終了時間=00:00:24.556
 文字列(文字4)について、
 表示開始時間=00:00:25.008
 これらの情報を有している。
 文字列(文字4)についての表示終了時間を記録していない設定である。この場合、字幕表示制御を実行する字幕データ処理部は、文字列(文字4)を字幕データファイルの処理最終時間まで、字幕表示を実行する。
 しかし、この場合、字幕データファイル(TTML2)112の処理最終時間は、同期処理データである画像/音声ファイル102の画像再生終了時間(t8=00:00:35.442)となる。この時点で、TTML字幕データファイルの切り換え処理を行なうことになり、やはり、このファイル切り換え処理の間、文字列(文字4)の表示は途切れてしまうことになる。
 さらに、先に図4を参照して説明したように、TTML字幕データにおける字幕表示終了時間の属性(end)の代わりに、表示期間(duration)を示す属性(dur)を用いることも可能である。
 表示期間(duration)を示す属性(dur)を用いた例を図7に示す。
 図7に示す字幕データファイル(TTML-2)112は、以下の情報によって構成されている。
 <p begin="00:00:16.278"
  dur="08.278">
 文字3</p> 
 <p begin="00:00:25.008"
  dur="11.170">
 文字4</p>
 上記の字幕データファイル(TTML-2)112は、
 文字列(文字3)について、
 表示開始時間=00:00:16.278
 表示期間=08.278秒
 文字列(文字4)について、
 表示開始時間=00:00:25.008
 表示期間=11.170秒
 これらの情報を有している。
 しかし、この場合も、図5、図6を参照して説明したと同様、文字列(文字4)は字幕データファイルの切り換えに際して表示途切れが発生する。
 字幕データファイル(TTML-2)112の制御情報に従い、文字列4は、表示開始時間=00:00:25.008から表示を開始する。
 表示期間=11.170秒が終了する時間は、図7(b)に示す時間t9=00:00:36.178である。
 この時間t9は、TTML-2と同期再生対象として設定されたメインデータである画像/音声データファイル102の再生終了時間(t8=00:00:35.442)より後の時間の設定となっている。
 このように、TTML字幕データに記録された表示終了時間が、メインデータである画像/音声データファイルの再生終了時間より後に設定されていても、受信装置30の字幕データ処理部は、画像/音声データファイルの切り換えに同期した字幕データファイルの切り換えを行う。このファイル切り換えにより、図7(b)に示す時間t8~t9の期間、字幕表示途切れが発生する。
 このように、TTML字幕データに記録される制御情報の種類に関わらず、字幕途切れが発生してしまう。
  [4.字幕途切れの解消を実現する実施例について]
 上述した字幕途切れの問題点を解決した実施例について、以下説明する。
 図8は、受信装置30における処理例を示す図である。
 図5~図7を参照して説明した処理例と同様、図8には、以下の(a),(b)2つの情報を示している。
 (a)受信装置30が、送信装置20から、順次、受信するデータファイル
 (b)受信装置30が実行する字幕データの表示シーケンス
 図8(b)の時間軸(t)に示すように、左から右に時間が経過する。
 図8に示す例は、受信装置30が、送信装置20から画像/音声データファイル101~103と、これらのデータファイルに同期させて処理を行なう3つのTTML字幕データファイル(TTML-1~3)121~123を受信した場合の処理例である。受信装置30は、受信した3つの字幕データファイル121~123を利用して字幕表示処理を実行する。
 なお、画像/音声データファイル101~103の各々は、例えばMPEG-2TS、MP4やMMT等のデータ転送方式で規定される転送および処理単位となる1つのデータファイルである。
 例えばデータ通信フォーマットがMP4の場合、画像/音声データファイル101~103の各々は、MP4で処理単位として規定される符号化データのファイル「mdat」に対応する。
 また、データ通信フォーマットがMMTの場合、画像/音声データファイル101~103の各々は、MMTで処理単位として規定される符号化データのファイル「MFU」に対応する。
 これらのデータファイルには、所定期間の再生画像や所定期間の再生音声が格納されている。なお、図には、画像/音声データファイルとして1つにまとめて示しているが、画像データファイルと音声データファイルは個別のデータファイルとして設定可能である。
 画像/音声データファイル101~103には、ファイル切り換え時の処理期間を考慮し、ファイル切り換え期間にデータ途切れが発生しないように再生用データが格納される。
 一方、字幕データファイル121~123の各々は図3、図4を参照して説明したと同様のTTML字幕データである。
 字幕データファイル121~123の各々は、画像/音声データファイル101~103と同期した処理を行なうため、それぞれのファイルには、タイムスタンプが設定されている。
 受信装置30は、画像、音声、字幕各データファイルのタイムスタンプを参照して処理を行なうことで、画像、音声、字幕の各データを同期させて出力することが可能となる。受信装置30は、タイムスタンプを参照することで字幕データファイル121~123の各々について、どの画像/音声データファイル101~103と対応付けて処理を行なうかを判断できる。
 図8(a)に示すように、TTML字幕データファイル(TTML-1)121は、以下の字幕表示制御データを格納している。
 文字列(文字1)について、
 表示開始時間=00:00:01.878
 表示終了時間=00:00:05.334
 文字列(文字2)について、
 表示開始時間=00:00:08.608
 表示終了時間=00:00:15.296
 これは、先に図5を参照して説明したTTML字幕データファイル(TTML-1)111と同様の制御情報である。
 受信装置30の字幕データ処理部は、このTTML字幕データファイル(TTML-1)121を利用して、図8(b)に示すように、文字列1と、文字列2の字幕表示を実行する。
 すなわち、文字列1を、
 時刻t1=00:00:01.878に表示を開始し、時刻t2=00:00:05.334に表示を終了する。
 さらに、文字列2について、
 時刻t3=00:00:08.608に表示を開始し、時刻t4=00:00:15.296に表示を終了する。
 次のTTML字幕データファイル(TTML-2)122は、以下に示すデータを記録している。
 <p begin="00:00:16.278"
 end="00:00:24.556" >
 文字3</p> 
 <p begin="00:00:25.008" 
 end="indefinite" >
 文字4</p>
 このデータは、以下の意味を有する。
 文字列(文字3)について、
 表示開始時間=00:00:16.278
 表示終了時間=00:00:24.556
 文字列(文字4)について、
 表示開始時間=00:00:25.008
 表示終了時間=継続表示指示値(indefinite)
 文字列(文字4)の
 表示終了時間=不定(indefinite)
 この設定が、先に説明した図5のTTML字幕データ(TTML-2)112とは異なっている。
 この表示終了時間=継続表示指示値(indefinite)は、表示対象文字の表示を継続させながら、ファイル切り換えを実行させるための制御情報である。
 受信装置30の画像音声データ処理部は、TTML字幕データファイル(TTML-2)122と同期処理対象に設定されているメインデータである画像/音声データファイル102の再生終了時間(t8=00:00:35.442)になると、次の画像/音声データファイル103に対する処理切り換えを行う。
 一方、字幕データ処理部は、処理対象としているTTML字幕データに基づいて表示中の文字に関する制御情報として、
 表示終了時間=継続表示指示値(indefinite)
 この設定がなされている場合、表示部に対する表示文字列を保存したメモリの文字列を消去することなく、メモリ格納データを利用した文字表示を継続する。この文字表示継続処理に並列して、ファイル切り換えを実行する。
 図8に示す例では、先に説明した図5~図7の例と同様、TTML字幕データ(TTML-2)122の文字列(文字4)を表示中に、TTML字幕データファイル(TTML-2)122と同期処理対象に設定されているメインデータである画像/音声データファイル102の再生終了時間(t8=00:00:35.442)になる。
 ここで、字幕データ処理部は、TTML字幕データ(TTML-2)122の文字列(文字4)の文字表示終了時間が、
 表示終了時間=継続表示指示値(indefinite)
 上記設定であることの確認に基づいて、以下の処理を実行する。
 字幕データ処理部は、表示部に対する表示文字列(文字4)を保存したメモリの文字列を消去することなく、メモリ格納データ(文字4)を利用した文字表示を継続する。
 さらに、この文字表示を継続させたまま、並列してファイル切り換え、すなわち、TTML字幕データ(TTML-2)122から、TTML字幕データ(TTML-3)123へのファイル切り換えを実行する。
 次のTTML字幕データファイル(TTML-3)123は、以下に示す構成を持つ。
 <p begin="indefinite8"
 end="00:00:50.856" >
 文字4</p>
 このデータは、以下の意味を有する。
 文字列(文字4)について、
 表示開始時間=継続表示指示値(indefinite)
 表示終了時間=00:00:50.856
 このファイル切り換え時点で、受信装置30の字幕データ処理部は、先行処理ファイルであるTTML字幕データファイル(TTML-2)122の制御情報(文字列(文字4)の表示終了時間=継続表示指示値(indefinite))に従って、文字データ(文字4)のメモリ保存と文字表示を継続している。
 字幕データ処理部は、処理対象ファイルをTTML字幕データファイル(TTML-3)123に切り換えて、切り換え後のTTML字幕データファイル(TTML-3)123から、以下の文字列(文字4)の制御情報を検出する。
 表示開始時間=継続表示指示値(indefinite)
 表示終了時間=00:00:50.856
 字幕データ処理部は、TTML字幕データ(TTML-3)123の文字列(文字4)の文字表示開始時間が、
 表示開始時間=継続表示指示値(indefinite)
 上記設定であることを確認する。
 この確認に基づいて、字幕データ処理部は、
 (a)表示開始時間=継続表示指示値(indefinite)が設定された文字列(文字4)、
 (b)メモリ保存および表示継続されている文字列、
 これらの両者が一致するか否かを判定する。
 上記(a),(b)の文字列が一致している場合、現在継続表示中の文字列をそのままメモリに保存し、表示を継続する。
 ただし、文字表示制御処理は、ファイル切り換え後のファイル、すなわち、TTML字幕データ(TTML-3)123に基づく処理として実行する。
 この処理対象ファイルの切り換えによって、文字列(文字4)は、TTML字幕データ(TTML-3)123に記録された表示終了時間=t10=00:00:50.856まで、表示を継続し、時間t10において表示が終了する。
 このような処理を行なうことで、図8(b)に示すように文字列(文字4)はファイル切り換え時の途切れを発生させることなく。継続して表示されることになる。
 なお、上記の(a),(b)が一致しない場合もある。
 例えば、途中から番組(コンテンツ)を受信した受信装置は、図8に示す字幕データファイル(TTML-2)122を受信せずに、字幕データファイル(TTML-3)123を受信して番組を視聴する場合である。
 この場合、
 (a)表示開始時間=継続表示指示値(indefinite)が設定された文字列(文字4)、
 (b)メモリ保存および表示継続されている文字列、
 上記(a)のデータは、字幕データファイル(TTML-3)123から取得できる。
 しかし、上記(b)のデータは存在しない。すなわち、メモリに保存され表示継続中の文字列は存在しない。
 この場合は、受信装置30の字幕データ処理部は、字幕データファイル(TTML-3)123のみに従って処理を実行する。
 字幕データ処理部は、TTML字幕データファイル(TTML-3)123から、以下の文字列(文字4)の制御情報を検出する。
 表示開始時間=継続表示指示値(indefinite)
 表示終了時間=00:00:50.856
 この検出情報に従って、文字列(文字4)の表示を即時表示し、表示終了時間=00:00:50.856に表示を終了させる。
 このように、メモリ保存、表示継続中の文字列がない場合、字幕データ処理部は、
 表示開始時間=継続表示指示値(indefinite)
 この制御情報に従って、指定の文字列を即時表示する処理を行なう。
 なお、図8を参照して説明した実施例では、表示開始時間または、表示終了時間のいずれか一方のみを、継続表示指示値(indefinite)とした例のみを示しているが、
 表示開始時間=継続表示指示値(indefinite)
 表示終了時間=継続表示指示値(indefinite)
 このように、開始、終了の双方とも継続表示指示値(indefinite)とした制御情報もある。
 この場合は、まず、
 表示開始時間=継続表示指示値(indefinite)
 この制御情報に基づいて、以下の(a),(b)の比較処理を行なう。
 (a)表示開始時間=継続表示指示値(indefinite)が設定された文字列、
 (b)メモリ保存および表示継続されている文字列、
 この比較処理において、(a)=(b)の場合のみ、表示継続中の文字表示をそのまま継続して、処理対象ファイルを切り換える。
 さらに、
 表示終了時間=継続表示指示値(indefinite)
 この制御情報に従って、文字表示を継続したまま、次のTTML字幕データファイルへの切り換え処理を行なう。
 このような処理を行なうことで、3以上のTTML字幕データファイルを適用して同一字幕データの表示を継続させて行うことが可能となる。
 このように、本実施例では、字幕データ処理部は、TTML字幕データファイルに記録された特定文字列(文字x)に対する制御情報として、、
 表示終了時間=継続表示指示値(indefinite)
 上記情報が記録されている場合、その特定文字列(文字x)の表示用データを格納したメモリからの消去を行わず、表示を継続する。
 この表示継続中に、処理対象ファイルの切り換えを実行する。
 さらに、切り換え後のTTML字幕データファイルに記録された制御情報として、上記特定文字列(文字x)に対する制御情報として、、
 表示開始時間=継続表示指示値(indefinite)
 上記情報が記録されている場合、その特定文字列(文字x)の表示用データがメモリに格納されていて、その表示が実行されている場合、その表示を継続する。
 この表示継続しながら、切り換え後の処理対象ファイルに基づく処理を開始する。
 このような処理を実行することで、図8に示すように、文字列(文字4)は、画像/音声データファイルの画像再生時間終端(t8)において途切れることなく、時間t7~t10の期間、連続して表示されることになる。
 図8に示す例では、文字列(文字4)は、
 字幕データファイル(TTML-2)122のに規定された表示開始時間、
 表示開始時間=t7=00:00:25.008
 から、
 字幕データファイル(TTML-3)122のに規定された表示終了時間、
 表示終了時間=t10=00:00:50.856
 このt7~t10の期間、表示途切れを発生させることなく、表示可能となる。
 図8に示す例は、字幕表示終了時間を示す属性(end)を用いた処理例であるが、先に図7を参照して説明した表示期間(duration)を示す属性(dur)を用いた場合も図8に示すと同様の字幕継続表示を行うことが可能である。
 図9に、表示期間(duration)を示す属性(dur)を用いた実施例を示す。
 図9に示すTTML字幕データファイル(TTML-2)132は、以下に示すデータを記録している。
 <p begin="00:00:16.278"
 dur="08.278" >
 文字3</p> 
 <p begin="00:00:25.008" 
 dur="indefinite" >
 文字4</p>
 このデータは、以下の意味を有する。
 文字列(文字3)について、
 表示開始時間=00:00:16.278
 表示期間=08.278秒
 文字列(文字4)について、
 表示開始時間=00:00:25.008
 表示期間=継続表示指示値(indefinite)
 文字列(文字4)の制御情報である
 dur="indefinite" >に対する処理は、
 図8を参照して説明した制御情報、
 end="indefinite" >
 と同様の処理となる。
 すなわち、この表示期間=継続表示指示値(indefinite)は、表示対象文字の表示を継続させながら、ファイル切り換えを実行させるための制御情報である。
 受信装置30の画像音声データ処理部は、TTML字幕データファイル(TTML-2)122と同期処理対象に設定されているメインデータである画像/音声データファイル102の再生終了時間(t8=00:00:35.442)になると、次の画像/音声データファイル103に対する処理切り換えを行う。
 一方、字幕データ処理部は、処理対象としているTTML字幕データに基づいて表示中の文字に関する制御情報として、
 表示期間(dur)=継続表示指示値(indefinite)
 この設定がなされている場合、表示部に対する表示文字列を保存したメモリの文字列を消去することなく、メモリ格納データを利用した文字表示を継続する。この文字表示継続処理に並列して、ファイル切り換えを実行する。
 図9に示す例では、先に説明した図5~図7の例と同様、TTML字幕データ(TTML-2)132の文字列(文字4)を表示中に、TTML字幕データファイル(TTML-2)132と同期処理対象に設定されているメインデータである画像/音声データファイル102の再生終了時間(t8=00:00:35.442)になる。
 ここで、字幕データ処理部は、TTML字幕データ(TTML-2)122の文字列(文字4)の文字表示期間(duration)が、
 表示期間=継続表示指示値(indefinite)
 上記設定であることの確認に基づいて、以下の処理を実行する。
 字幕データ処理部は、表示部に対する表示文字列(文字4)を保存したメモリの文字列を消去することなく、メモリ格納データ(文字4)を利用した文字表示を継続する。
 さらに、この文字表示を継続させたまま、並列して、ファイル切り換え、すなわち、TTML字幕データ(TTML-2)132から、TTML字幕データ(TTML-3)133へのファイル切り換えを実行する。
 次のTTML字幕データファイル(TTML-3)133は、以下に示す構成を持つ。
 <p begin="indefinite8"
 end="00:00:50.856" >
 文字4</p>
 このデータは、以下の意味を有する。
 文字列(文字4)について、
 表示開始時間=継続表示指示値(indefinite)
 表示終了時間=00:00:50.856
 このファイル切り換え時点で、受信装置30の字幕データ処理部は、先行処理ファイルであるTTML字幕データファイル(TTML-2)132の制御情報(文字列(文字4)の表示期間=継続表示指示値(indefinite))に従って、文字データ(文字4)のメモリ保存と文字表示を継続している。
 字幕データ処理部は、処理対象ファイルをTTML字幕データファイル(TTML-3)133に切り換えて、切り換え後のTTML字幕データファイル(TTML-3)133から、以下の文字列(文字4)の制御情報を検出する。
 表示開始時間=継続表示指示値(indefinite)
 表示終了時間=00:00:50.856
 字幕データ処理部は、TTML字幕データ(TTML-3)123の文字列(文字4)の文字表示開始時間が、
 表示開始時間=継続表示指示値(indefinite)
 上記設定であることを確認する。
 この確認に基づいて、字幕データ処理部は、
 (a)表示開始時間=継続表示指示値(indefinite)が設定された文字列(文字4)、
 (b)メモリ保存および表示継続されている文字列、
 これらの両者が一致するか否かを判定する。
 上記(a),(b)の文字列が一致している場合、現在継続表示中の文字列をそのままメモリに保存し、表示を継続する。
 ただし、文字表示制御処理は、ファイル切り換え後のファイル、すなわち、TTML字幕データ(TTML-3)133に基づく処理として実行する。
 この処理対象ファイルの切り換えによって、文字列(文字4)は、TTML字幕データ(TTML-3)133に記録された表示終了時間=t10=00:00:50.856まで、表示を継続し、時間t10において表示が終了する。
 このような処理を行なうことで、図9(b)に示すように文字列(文字4)はファイル切り換え時の途切れを発生させることなく。継続して表示されることになる。
 このように、字幕表示終了時間を示す属性(end)、表示期間(duration)を示す属性(dur)、いずれを用いた場合もファイル切り換えに伴う表示途切れを発生させることなく、継続した字幕表示を行うことが可能になる。
 なお、図8、図9を参照して説明した実施例では、
 字幕の継続表示を実行させる制御情報として、
 各属性(end,begin,dur)に対して設定する継続表示指示値を[indefinite]とした例を説明したが、この値は、一例であり、その他、例えば[00:00:00.000]、あるいはその他の値を継続表示指示値として、上述した処理と同様の字幕継続表示を実行させる構成としてもよい。
 また、定規実施例では、各属性(end,begin,dur)に対して設定する値を、すべて[indefinite]として統一した例を説明したが、属性ごとに異なる値を設定して、上記と同様の処理を行なわせる構成としてもよい。
  [5.字幕表示制御シーケンスについて]
 次に、受信装置30において実行する字幕表示制御シーケンスについて、図10~図13を参照して説明する。
 図10に示すフローチャートは、受信装置30において実行する字幕表示制御に関する処理シーケンスを説明するフローである。
 図10に示すフローに従った処理は、例えば、受信装置におけるプログラム実行機能を持つCPU等を有するデータ処理部の制御の下に、記憶部に格納されたプログラムに従って実行される。
 以下、各ステップの処理について説明する。
  (ステップS101)
 まず、受信装置は、ステップS101において、画像、音声、字幕の各データを格納したデータを受信する。
 受信データには、TTML字幕データが含まれる。
  (ステップS102)
 次に、受信装置は、受信データから、TTML字幕データファイルを抽出する。
 図3、図4等を参照して説明したように、TTML字幕データファイルには、表示文字列と、その文字列に対応する表示タイミング等の制御情報が記録されている。
  (ステップS103)
 受信装置の字幕データ処理部は、TTML字幕データファイルから、表示対象とする字幕データを選択する。
 TTML字幕データの記録データ順に従って処理対象となる字幕データを選択して、制御情報に従った字幕表示処理を開始する。
  (ステップS104)
 次に、字幕データ処理部は、ステップS104において、表示対象字幕データの表示終了時間を規定した表示終了時間規定属性(end属性またはdur属性)対応処理を実行する。
 このステップS104の処理の詳細について、図11に示すフローを参照して説明する。
  (ステップS201)
 まず、字幕データ処理部は、ステップS201において、表示対象文字列の表示終了時間規定属性(end属性またはdur属性)が継続表示指示値(indefinite)か否かを判定する。
 継続表示指示値(indefinite)である場合はステップS202に進み、継続表示指示値(indefinite)でない場合は、ステップS203に進む。
  (ステップS202)
 表示対象文字列の表示終了時間規定属性(end属性またはdur属性)が継続表示指示値(indefinite)であることが確認された場合、受信装置は、ステップS202において、以下の処理を実行する。
 表示対象字幕データを、配信データ単位(メインデータである画像、音声データファイル)の終端後もメモリに継続して保存し、メモリ保存文字列の表示処理を継続する。
 字幕データ処理部は、メインデータである画像、音声データファイルの切り換え処理に併せて、TTML字幕データファイルの切り換え処理を行なうが、このふぁいる切り換え処理の間も、示終了時間規定属性(end属性またはdur属性)が継続表示指示値(indefinite)であることが確認された文字列(文字x)については、メモリ保存と表示を継続して行う。
  (ステップS203)
 一方、表示対象文字列の表示終了時間規定属性(end属性またはdur属性)が継続表示指示値(indefinite)でないことが確認された場合、受信装置は、ステップS203において、以下の処理を実行する。
 表示対象字幕データを、表示終了時間規定属性(end属性またはdur属性)の指定に従って表示を終了する。
 これらのステップS201~S203の処理を図10のフローのステップS104の処理として実行する。
 その後、ステップS105の処理に移行する。
  (ステップS105)
 受信装置の字幕データ処理部は、次のステップS105において、表示対象字幕データの表示開始時間を規定した表示開始時間規定属性(begin属性)対応処理を実行する。
 このステップS105の処理の詳細について、図12に示すフローを参照して説明する。
  (ステップS301)
 まず、字幕データ処理部は、ステップS301において、表示対象文字列の表示開始時間規定属性(begin属性)が継続表示指示値(indefinite)か否かを判定する。
 継続表示指示値(indefinite)でない場合はステップS302に進み、継続表示指示値(indefinite)である場合は、ステップS303に進む。
  (ステップS302)
 表示対象文字列の表示開始時間規定属性(begin属性)が継続表示指示値(indefinite)でない場合、字幕データ処理部は、ステップS302において以下の処理を行なう。
 表示対象字幕データを、表示開始時間規定属性(begin属性)の指定時間に表示を開始する表示制御を実行する。
  (ステップS303)
 一方、表示対象文字列の表示開始時間規定属性(begin属性)が継続表示指示値(indefinite)である場合、字幕データ処理部は、ステップS303において以下の処理を行なう。
 表示開始時間規定属性(begin属性)が継続表示指示値(indefinite)とされた文字列と、同一の文字データが、メモリに保存され表示継続中であるかを判定する。
 処理対象となる文字と同一の文字がメモリに保存され表示継続中である場合は、ステップS304に進み、そうでない場合はステップS305に進む。
  (ステップS304)
 表示開始時間規定属性(begin属性)が継続表示指示値(indefinite)とされた文字列と、同一の文字データが、メモリに保存され表示継続中である場合は、字幕テータ処理部は、ステップS304において以下の処理を行なう。
 メモリに保存され、表示中の字幕の表示を継続して実行する。
  (ステップS305)
 一方、表示開始時間規定属性(begin属性)が継続表示指示値(indefinite)とされた文字列と、同一の文字データが、メモリに保存されておらず表示継続中でない場合は、字幕テータ処理部は、ステップS305において以下の処理を行なう。
 表示対象字幕データを、即時表示する処理を行なう。
 なお、このケースは、先に説明したように、例えば図8に示す例で、字幕データファイル(TTML-2)122を受信せず、字幕データファイル(TTML-3)123から受信して、途中から番組(コンテンツ)を視聴する場合の処理等に対応する処理である。
 これらのステップS301~S305の処理を図10のフローのステップS105の処理として実行する。
 その後、ステップS106の処理に移行する。
  (ステップS106)
 受信装置の字幕データ処理部は、ステップS106において、次の表示対象字幕データがあるか否かを判定し、ある場合は、ステップS103以下の処理を繰り返す。ない場合は処理を終了する。
 なお、図10に示すフロー中、ステップS103~S106の処理は、1つのTTML字幕データファイルに対する処理であり、ステップS101~S102において、新たなTTML字幕データファイルの受信と抽出が実行される毎に、繰り返し実行される。
 この図10~図13を参照して説明した処理を実行することで、先に図8、図9を参照して説明したように、TTML字幕ファイルの切り換え時に、字幕表示途切れを発生させることなく、継続した字幕表示を行うことが可能となる。
  [6.送信装置と受信装置の構成例について]
 次に、通信装置である送信装置20と、受信装置30の装置構成例について、図13以下を参照して説明する。
 図13には、送信装置20と、受信装置30の構成例を示している。
 送信装置20は、データ処理部141、通信部142、記憶部143を有する。
 受信装置30は、データ処理部151、通信部152、記憶部153、入力部154、出力部155を有する。
 送信装置20のデータ処理部141は、データ配信サービスを実行するための各種のデータ処理を実行する。例えばデータ配信サービスの構成データの生成や送信制御を行う。
 具体的には、画像、音声データの格納パケットの生成、字幕データ、その他のシグナリングデータを格納したパケット生成、配信処理を実行する。
 なお、字幕データ格納パケットは、XML形式のTTML字幕データを格納したパケットである。
 通信部142は、データ処理部141の生成した画像、音声、字幕、その他のシグナリングデータ等の制御信号の送信処理を行う。
 記憶部143は配信対象とする画像、音声、字幕等の各データなどが格納される。
 さらに、記憶部143は、データ処理部141の実行するデータ処理のワークエリアとして利用され、また各種パラメータの記憶領域としても利用される。
 一方、受信装置30は、データ処理部151、通信部152、記憶部153、入力部154、出力部155を有する。
 通信部152は、送信装置20から配信されるデータ、例えば画像、音声、字幕を格納したパケットやシグナリングデータを受信する。
 字幕データはTTML字幕データである。
 データ処理部151は、例えば、上述した実施例に従った字幕データの表示制御を実行する。
 具体的には例えばTTML字幕データに従った字幕の表示制御を実行する。
 ユーザの指示コマンド、例えばコンテンツ指定コマンド等は入力部154を介して入力される。
 再生データは表示部やスピーカ等の出力部155に出力される。
 記憶部153は受信した画像、音声、字幕等の各データが格納される。
 さらに、記憶部153は、データ処理部151の実行するデータ処理のワークエリアとして利用され、また各種パラメータの記憶領域としても利用される。
 図14は、送信装置20のデータ処理部141の詳細構成を示す図である。
 データ処理部141は、画像データ処理部201、音声データ処理部202、字幕データ処理部203、制御信号生成部204、パケット生成部205を有する。
 画像データ処理部201は、受信装置に送信するコンテンツの構成データである画像データに対する処理、例えば符号化処理等の送信用データ生成処理を行ない、パケットに格納する符号化画像データを生成してパケット生成部205に供給する。
 音声データ処理部202は、受信装置に送信するコンテンツの構成データである音声データに対する処理、例えば符号化処理等の送信用データ生成処理を行ない、パケットに格納する符号化音声データを生成してパケット生成部205に供給する。
 字幕データ処理部は、受信装置に送信するコンテンツの構成データである字幕データに対する処理を行なう。
 具体的には、TTML字幕データの生成処理を行ない、パケット生成部205に供給する。
 制御信号生成部204は、例えば番組情報等からなる制御信号を生成してパケット生成部205に出力する。
 パケット生成部205は、画像、音声、字幕、制御信号を格納したパケットを生成して通信部142に供給する。
 なお、パケット生成部205の生成するパケットには画像、音声、字幕等のデータ種別に応じたパケット識別子が設定される。
 通信部142はパケット生成部205から入力するパケットを、放送波やネットワークを介して出力する。
 図15は、受信装置30のデータ処理部151の詳細構成を示す図である。
 受信装置30のデータ処理部151は、パケット分離部301、画像データ処理部302、音声データ処理部303、字幕データ処理部304、制御部305、重畳処理部306を有する。
 パケット分離部301は、通信部152を介して受信するパケットのパケット識別子に基づいて受信パケットをデータ種別(画像、音声、字幕、制御信号)ごとに分離して、分離した各パケットを各データ処理部に供給する。
 画像データ処理部302は、画像データを格納したパケットから画像データを取得し、復号処理等、画像の再生処理に必要な処理を実行する。
 音声データ処理部303は、音声データを格納したパケットから音声データを取得し、復号処理等、音声の再生処理に必要な処理を実行する。
 字幕データ処理部304は、字幕関連データを格納したパケットから、TTML字幕データを取得し、TTML字幕データに記録された制御情報を適用して、字幕の出力タイミングを制御して字幕の出力を行う。
 制御部305は、上述した字幕関連の制御信号の出力の他、画像データ処理部302、音声データ処理部303、字幕データ処理部304、重畳処理部306の各処理部における処理制御を実行する。
 重畳処理部306は、画像データ処理部302から出力される画像データと、字幕データ処理部304から出力される字幕データの重畳処理を実行して、表示部に出力する。
 図16は、送信装置20、受信装置30として適用可能な通信装置のハードウェア構成例を示している。
 CPU(Central Processing Unit)401は、ROM(Read Only Memory)402、または記憶部408に記憶されているプログラムに従って各種の処理を実行するデータ処理部として機能する。例えば、上述した実施例において説明したシーケンスに従った処理を実行する。RAM(Random Access Memory)403には、CPU401が実行するプログラムやデータなどが記憶される。これらのCPU401、ROM402、およびRAM403は、バス404により相互に接続されている。
 CPU401はバス404を介して入出力インタフェース405に接続され、入出力インタフェース405には、各種スイッチ、キーボード、マウス、マイクロホンなどよりなる入力部406、ディスプレイ、スピーカなどよりなる出力部407が接続されている。CPU401は、入力部406から入力される指令に対応して各種の処理を実行し、処理結果を例えば出力部407に出力する。
 入出力インタフェース405に接続されている記憶部408は、例えばハードディスク等からなり、CPU401が実行するプログラムや各種のデータを記憶する。通信部409は、インターネットやローカルエリアネットワークなどのネットワークを介したデータ通信の送受信部、さらに放送波の送受信部として機能し、外部の装置と通信する。
 入出力インタフェース405に接続されているドライブ410は、磁気ディスク、光ディスク、光磁気ディスク、あるいはメモリカード等の半導体メモリなどのリムーバブルメディア411を駆動し、データの記録あるいは読み取りを実行する。
 なお、データの符号化あるいは復号は、データ処理部としてのCPU401の処理として実行可能であるが、符号化処理あるいは復号処理を実行するための専用ハードウェアとしてのコーデックを備えた構成としてもよい。
  [7.本開示の構成のまとめ]
 以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
 なお、本明細書において開示した技術は、以下のような構成をとることができる。
 (1) TTML(Timed Text Markup Language)字幕データを受信する通信部と、
 前記TTML字幕データを適用した字幕表示制御を実行するデータ処理部を有し、
 前記TTML字幕データは、字幕表示終了時間規定属性、または字幕表示開始時間規定属性、少なくともいずれかの属性値として、表示中の字幕の継続表示処理を実行させる継続表示指示値を有するデータである受信装置。
 (2)前記データ処理部は、
 前記TTML字幕データの字幕表示終了時間規定属性の設定値が継続表示指示値である場合、
 表示中の字幕データのメモリ保存と表示処理を継続する制御を実行する前記(1)に記載の受信装置。
 (3)前記データ処理部は、
 前記TTML字幕データの字幕表示終了時間規定属性の設定値が継続表示指示値である場合、
 前記TTML字幕データに対する同期処理ファイルである画像ファイルの再生終了タイミング以降も、表示中の字幕データのメモリ保存と表示処理を継続する制御を実行する前記(1)または(2)に記載の受信装置。
 (4)前記データ処理部は、
 前記TTML字幕データの字幕表示終了時間規定属性の設定値が継続表示指示値である場合、
 表示中の字幕データのメモリ保存と表示処理を継続させたまま、処理対象とするTTML字幕データファイルの切り換え処理を実行する前記(1)~(3)いずれかに記載の受信装置。
 (5)前記データ処理部は、
 前記TTML字幕データの字幕表示開始時間規定属性の設定値が継続表示指示値である場合、
 メモリに保存され表示処理が継続中の文字列があるか否かを判定し、
 ある場合は、前記継続表示指示値の設定された文字列が、メモリに保存され表示処理が継続中の文字列と同一であるか否かを判定し、同一である場合は、表示文字を継続して表示する制御を実行する前記(1)~(4)いずれかに記載の受信装置。
 (6) 前記データ処理部は、
 前記TTML字幕データの字幕表示開始時間規定属性の設定値が継続表示指示値である場合、
 メモリに保存され表示処理が継続中の文字列があるか否かを判定し、
 ない場合は、前記継続表示指示値の設定された文字列を即時表示する制御を実行する前記(1)~(5)いずれかに記載の受信装置。
 (7) 前記TTML字幕データの字幕表示終了時間規定属性は、end属性、またはdur属性である前記(1)~(6)いずれかに記載の受信装置。
 (8) 前記TTML字幕データの字幕表示開始時間規定属性は、begin属性である前記(1)~(7)いずれかに記載の受信装置。
 (9)TTML(Timed Text Markup Language)字幕データを生成するデータ処理部と、
 前記TTML字幕データを送信する通信部を有し、
 前記TTML字幕データは、字幕表示終了時間規定属性、または字幕表示開始時間規定属性、少なくともいずれかの属性値として、表示中の字幕の継続表示処理を実行させる継続表示指示値を有するデータである送信装置。
 (10)前記データ処理部は、
 字幕表示終了時間規定属性の設定値が継続表示指示値であるTTML字幕データを生成し、
 該TTML字幕データは、字幕表示処理実行装置に対して、表示中の字幕データのメモリ保存と表示処理の継続処理を実行させることを可能としたデータである前記(9)に記載の送信装置。
 (11) 前記データ処理部は、
 字幕表示終了時間規定属性の設定値が継続表示指示値であるTTML字幕データを生成し、
 該TTML字幕データは、字幕表示処理実行装置に対して、表示中の字幕データのメモリ保存と表示処理の継続処理を実行させたまま、処理対象とするTTML字幕データファイルの切り換え処理を実行させることを可能としたデータである前記(9)または(10)に記載の送信装置。
 (12) 前記データ処理部は、
 字幕表示開始時間規定属性の設定値が継続表示指示値であるTTML字幕データを生成し、
 該TTML字幕データは、字幕表示処理実行装置に対して、
 メモリに保存され表示処理が継続中の文字列があるか否かを判定させ、
 ある場合は、前記継続表示指示値の設定された文字列が、メモリに保存され表示処理が継続中の文字列と同一であるか否かを判定させ、同一である場合は、表示文字を継続して表示する制御を実行させることを可能としたデータである前記(9)~(11)いずれかに記載の送信装置。
 (13) 前記データ処理部は、
 字幕表示開始時間規定属性の設定値が継続表示指示値であるTTML字幕データを生成し、
 該TTML字幕データは、字幕表示処理実行装置に対して、
 メモリに保存され表示処理が継続中の文字列があるか否かを判定させ、
 ない場合は、前記継続表示指示値の設定された文字列を即時表示する制御を実行させる前記(9)~(12)いずれかに記載の送信装置。
 (14) 前記TTML字幕データの字幕表示終了時間規定属性は、end属性、またはdur属性である前記(9)~(13)いずれかに記載の送信装置。
 (15) 前記TTML字幕データの字幕表示開始時間規定属性は、begin属性である前記(9)~(14)いずれかに記載の送信装置。
 (16) 受信装置において実行するデータ処理方法であり、
 通信部が、TTML(Timed Text Markup Language)字幕データを受信するステップと、
 データ処理部が、前記TTML字幕データを適用した字幕表示制御を実行するステップを有し、
 前記TTML字幕データは、字幕表示終了時間規定属性、または字幕表示開始時間規定属性、少なくともいずれかの属性値として、表示中の字幕の継続表示処理を実行させる継続表示指示値を有するデータであるデータ処理方法。
 (17) 送信装置において実行するデータ処理方法であり、
 データ処理部が、TTML(Timed Text Markup Language)字幕データを生成するステップと、
 通信部が、前記TTML字幕データを送信するステップを有し、
 前記TTML字幕データは、字幕表示終了時間規定属性、または字幕表示開始時間規定属性、少なくともいずれかの属性値として、表示中の字幕の継続表示処理を実行させる継続表示指示値を有するデータであるデータ処理方法。
 また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
 なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 以上、説明したように、本開示の一実施例の構成によれば、TTML字幕データの字幕表示途切れのない確実な表示制御を実現する装置、方法が実現される。
 具体的には、TTML字幕データの字幕表示終了時間規定属性の設定値が継続表示指示値である場合、画像ファイルの再生終了タイミング以降も、表示中の字幕データのメモリ保存と表示処理を継続し、TTML字幕データファイルの切り換え処理を実行する。TTML字幕データの字幕表示開始時間規定属性の設定値が継続表示指示値である場合、表示処理継続中の文字列があるか否かを判定し、ある場合は、表示文字の継続表示を続行する。
 本構成により、TTML字幕データの字幕表示途切れのない表示制御が実現される。
  10 通信システム
  20 送信装置
  21 放送局
  22 データ配信サーバ
  30 受信装置
  31 TV
  32 PC
  33 携帯端末
  50 画像データ
  60 音声データ
  70 字幕データ
  80 シグナリングデータ
 101~103 画像/音声データファイル
 111~113 字幕データファイル(TTML)
 121~123 字幕データファイル(TTML)
 141 データ処理部
 142 通信部
 143 記憶部
 151 データ処理部
 152 通信部
 153 記憶部
 154 入力部
 155 出力部
 201 画像データ処理部
 202 音声データ処理部
 203 字幕データ処理部
 204 制御信号生成部
 205 パケット生成部
 301 パケット分離部
 302 画像データ処理部
 303 音声データ処理部
 304 字幕データ処理部
 305 制御部
 306 重畳処理部
 401 CPU
 402 ROM
 403 RAM
 404 バス
 405 入出力インタフェース
 406 入力部
 407 出力部
 408 記憶部
 409 通信部
 410 ドライブ
 411 リムーバブルメディア

Claims (17)

  1.  TTML(Timed Text Markup Language)字幕データを受信する通信部と、
     前記TTML字幕データを適用した字幕表示制御を実行するデータ処理部を有し、
     前記TTML字幕データは、字幕表示終了時間規定属性、または字幕表示開始時間規定属性、少なくともいずれかの属性値として、表示中の字幕の継続表示処理を実行させる継続表示指示値を有するデータである受信装置。
  2.  前記データ処理部は、
     前記TTML字幕データの字幕表示終了時間規定属性の設定値が継続表示指示値である場合、
     表示中の字幕データのメモリ保存と表示処理を継続する制御を実行する請求項1に記載の受信装置。
  3.  前記データ処理部は、
     前記TTML字幕データの字幕表示終了時間規定属性の設定値が継続表示指示値である場合、
     前記TTML字幕データに対する同期処理ファイルである画像ファイルの再生終了タイミング以降も、表示中の字幕データのメモリ保存と表示処理を継続する制御を実行する請求項1に記載の受信装置。
  4.  前記データ処理部は、
     前記TTML字幕データの字幕表示終了時間規定属性の設定値が継続表示指示値である場合、
     表示中の字幕データのメモリ保存と表示処理を継続させたまま、処理対象とするTTML字幕データファイルの切り換え処理を実行する請求項1に記載の受信装置。
  5.  前記データ処理部は、
     前記TTML字幕データの字幕表示開始時間規定属性の設定値が継続表示指示値である場合、
     メモリに保存され表示処理が継続中の文字列があるか否かを判定し、
     ある場合は、前記継続表示指示値の設定された文字列が、メモリに保存され表示処理が継続中の文字列と同一であるか否かを判定し、同一である場合は、表示文字を継続して表示する制御を実行する請求項1に記載の受信装置。
  6.  前記データ処理部は、
     前記TTML字幕データの字幕表示開始時間規定属性の設定値が継続表示指示値である場合、
     メモリに保存され表示処理が継続中の文字列があるか否かを判定し、
     ない場合は、前記継続表示指示値の設定された文字列を即時表示する制御を実行する請求項1に記載の受信装置。
  7.  前記TTML字幕データの字幕表示終了時間規定属性は、end属性、またはdur属性である請求項1に記載の受信装置。
  8.  前記TTML字幕データの字幕表示開始時間規定属性は、begin属性である請求項1に記載の受信装置。
  9.  TTML(Timed Text Markup Language)字幕データを生成するデータ処理部と、
     前記TTML字幕データを送信する通信部を有し、
     前記TTML字幕データは、字幕表示終了時間規定属性、または字幕表示開始時間規定属性、少なくともいずれかの属性値として、表示中の字幕の継続表示処理を実行させる継続表示指示値を有するデータである送信装置。
  10.  前記データ処理部は、
     字幕表示終了時間規定属性の設定値が継続表示指示値であるTTML字幕データを生成し、
     該TTML字幕データは、字幕表示処理実行装置に対して、表示中の字幕データのメモリ保存と表示処理の継続処理を実行させることを可能としたデータである請求項9に記載の送信装置。
  11.  前記データ処理部は、
     字幕表示終了時間規定属性の設定値が継続表示指示値であるTTML字幕データを生成し、
     該TTML字幕データは、字幕表示処理実行装置に対して、表示中の字幕データのメモリ保存と表示処理の継続処理を実行させたまま、処理対象とするTTML字幕データファイルの切り換え処理を実行させることを可能としたデータである請求項9に記載の送信装置。
  12.  前記データ処理部は、
     字幕表示開始時間規定属性の設定値が継続表示指示値であるTTML字幕データを生成し、
     該TTML字幕データは、字幕表示処理実行装置に対して、
     メモリに保存され表示処理が継続中の文字列があるか否かを判定させ、
     ある場合は、前記継続表示指示値の設定された文字列が、メモリに保存され表示処理が継続中の文字列と同一であるか否かを判定させ、同一である場合は、表示文字を継続して表示する制御を実行させることを可能としたデータである請求項9に記載の送信装置。
  13.  前記データ処理部は、
     字幕表示開始時間規定属性の設定値が継続表示指示値であるTTML字幕データを生成し、
     該TTML字幕データは、字幕表示処理実行装置に対して、
     メモリに保存され表示処理が継続中の文字列があるか否かを判定させ、
     ない場合は、前記継続表示指示値の設定された文字列を即時表示する制御を実行させる請求項9に記載の送信装置。
  14.  前記TTML字幕データの字幕表示終了時間規定属性は、end属性、またはdur属性である請求項9に記載の送信装置。
  15.  前記TTML字幕データの字幕表示開始時間規定属性は、begin属性である請求項9に記載の送信装置。
  16.  受信装置において実行するデータ処理方法であり、
     通信部が、TTML(Timed Text Markup Language)字幕データを受信するステップと、
     データ処理部が、前記TTML字幕データを適用した字幕表示制御を実行するステップを有し、
     前記TTML字幕データは、字幕表示終了時間規定属性、または字幕表示開始時間規定属性、少なくともいずれかの属性値として、表示中の字幕の継続表示処理を実行させる継続表示指示値を有するデータであるデータ処理方法。
  17.  送信装置において実行するデータ処理方法であり、
     データ処理部が、TTML(Timed Text Markup Language)字幕データを生成するステップと、
     通信部が、前記TTML字幕データを送信するステップを有し、
     前記TTML字幕データは、字幕表示終了時間規定属性、または字幕表示開始時間規定属性、少なくともいずれかの属性値として、表示中の字幕の継続表示処理を実行させる継続表示指示値を有するデータであるデータ処理方法。
PCT/JP2014/073148 2014-05-15 2014-09-03 受信装置、および送信装置、並びにデータ処理方法 WO2015173975A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP14892022.6A EP3145210A4 (en) 2014-05-15 2014-09-03 Reception apparatus, transmission apparatus, and data processing method
US15/305,846 US11102444B2 (en) 2014-05-15 2014-09-03 Reception apparatus, transmission apparatus, and data processing method
CN201480078709.1A CN106416283A (zh) 2014-05-15 2014-09-03 接收设备、传输设备以及数据处理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-101126 2014-05-15
JP2014101126A JP6384119B2 (ja) 2014-05-15 2014-05-15 受信装置、および送信装置、並びにデータ処理方法

Publications (1)

Publication Number Publication Date
WO2015173975A1 true WO2015173975A1 (ja) 2015-11-19

Family

ID=54479540

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/073148 WO2015173975A1 (ja) 2014-05-15 2014-09-03 受信装置、および送信装置、並びにデータ処理方法

Country Status (5)

Country Link
US (1) US11102444B2 (ja)
EP (1) EP3145210A4 (ja)
JP (1) JP6384119B2 (ja)
CN (1) CN106416283A (ja)
WO (1) WO2015173975A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5874870B1 (ja) * 2014-05-12 2016-03-02 ソニー株式会社 受信装置、および送信装置、並びにデータ処理方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6416698B2 (ja) * 2014-05-30 2018-10-31 日本放送協会 送信装置および受信装置、ならびにプログラム
JP6610019B2 (ja) * 2015-06-16 2019-11-27 ソニー株式会社 受信装置、送信装置、及び、データ処理方法
US10230812B1 (en) * 2016-01-29 2019-03-12 Amazon Technologies, Inc. Dynamic allocation of subtitle packaging
JP6700957B2 (ja) * 2016-05-10 2020-05-27 日本放送協会 字幕データ生成装置、およびプログラム
CN110035808A (zh) * 2016-09-14 2019-07-19 声感股份有限公司 具有同步的多设备音频流传输系统
WO2018182313A1 (ko) * 2017-03-29 2018-10-04 삼성전자 주식회사 멀티미디어 시스템에서 신호를 송신 및 수신하는 장치 및 방법
CN114554285A (zh) * 2022-02-25 2022-05-27 京东方科技集团股份有限公司 视频插帧处理方法、视频插帧处理装置和可读存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009283124A (ja) * 2004-02-17 2009-12-03 Panasonic Corp システムlsi

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100448285C (zh) * 2002-12-18 2008-12-31 索尼株式会社 信息处理设备和信息处理方法
US20090241092A1 (en) * 2008-03-24 2009-09-24 Nokia Corporation Apparatus, methods, and computer program products providing improved application development for electronic devices
JP5685969B2 (ja) 2011-02-15 2015-03-18 ソニー株式会社 表示制御方法、表示制御装置
IN2014CN00513A (ja) * 2011-07-29 2015-04-03 Sony Corp
JP5751347B2 (ja) 2011-12-13 2015-07-22 ダイキン工業株式会社 歯車
WO2013088986A1 (ja) * 2011-12-16 2013-06-20 ソニー株式会社 受信装置及びその制御方法、配信装置及び配信方法、プログラム、並びに配信システム
GB2510116A (en) * 2013-01-23 2014-07-30 Sony Corp Translating the language of text associated with a video
US9313544B2 (en) * 2013-02-14 2016-04-12 The Nielsen Company (Us), Llc Methods and apparatus to measure exposure to streaming media
JP5672409B1 (ja) * 2014-10-31 2015-02-18 ソニー株式会社 受信装置、およびデータ処理方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009283124A (ja) * 2004-02-17 2009-12-03 Panasonic Corp システムlsi

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
GLENN ADAMS: "Timed Text Markup Language(TTML) 1.0(Second Edition", W3C(WORLD WIDE WEB CONSORTIUM, 31 January 2013 (2013-01-31), XP008184342, Retrieved from the Internet <URL:http://www.w3.org/TR/2013/WD-ttafl-dfxp-20130131> [retrieved on 20140616] *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5874870B1 (ja) * 2014-05-12 2016-03-02 ソニー株式会社 受信装置、および送信装置、並びにデータ処理方法

Also Published As

Publication number Publication date
US11102444B2 (en) 2021-08-24
JP2015220517A (ja) 2015-12-07
EP3145210A4 (en) 2017-10-25
EP3145210A1 (en) 2017-03-22
CN106416283A (zh) 2017-02-15
US20170048485A1 (en) 2017-02-16
JP6384119B2 (ja) 2018-09-05

Similar Documents

Publication Publication Date Title
JP6384119B2 (ja) 受信装置、および送信装置、並びにデータ処理方法
KR101454136B1 (ko) 스트리밍 디지털 컨텐츠의 동기화된 재생을 위한 시스템 및 방법
TWI571868B (zh) 用於定序內容之方法及裝置
US9549027B2 (en) Network-synchronized media playback
JP2015050768A (ja) 受信方法、送信方法、受信装置、及び送信装置
JP2007074608A (ja) 再生装置および再生方法
CN103491430B (zh) 流媒体数据处理方法和电子设备
US11758245B2 (en) Interactive media events
JP5672409B1 (ja) 受信装置、およびデータ処理方法
JP2006332759A (ja) 電子機器、画像制御方法、及び画像制御用のプログラム
US20220394328A1 (en) Consolidated Watch Parties
JP2013162205A (ja) 信号処理装置及びプログラム
JP6590043B2 (ja) 受信装置、および送信装置、並びにデータ処理方法
US10820061B2 (en) Apparatus, systems and methods for presentation of media content using an electronic Braille device
JP5672411B1 (ja) 受信装置、およびデータ処理方法
JP6715910B2 (ja) インターネット経由で同時配信されるテレビ番組における字幕データの処理システム、処理方法およびプログラム
JP5672410B1 (ja) 受信装置、およびデータ処理方法
JP5874870B1 (ja) 受信装置、および送信装置、並びにデータ処理方法
JP5899738B2 (ja) 情報処理システム、情報処理装置及び情報処理プログラム
WO2014010069A1 (ja) 映像送信方法、字幕表示装置、及び映像送信装置
WO2012131832A1 (ja) 音声読み上げシステム、音声読み上げ装置、および音声読み上げ方法
JP6157679B2 (ja) 信号処理装置及びプログラム
JP5899718B2 (ja) 情報処理システム、情報処理装置及び情報処理プログラム
JP6192547B2 (ja) 映像記録再生装置および映像記録再生方法
KR102435049B1 (ko) 셋탑박스 및 그 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14892022

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15305846

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2014892022

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2014892022

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE