WO2014010069A1 - 映像送信方法、字幕表示装置、及び映像送信装置 - Google Patents

映像送信方法、字幕表示装置、及び映像送信装置 Download PDF

Info

Publication number
WO2014010069A1
WO2014010069A1 PCT/JP2012/067880 JP2012067880W WO2014010069A1 WO 2014010069 A1 WO2014010069 A1 WO 2014010069A1 JP 2012067880 W JP2012067880 W JP 2012067880W WO 2014010069 A1 WO2014010069 A1 WO 2014010069A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
subtitle
display device
content
caption
Prior art date
Application number
PCT/JP2012/067880
Other languages
English (en)
French (fr)
Inventor
田中 真愉子
Original Assignee
日立コンシューマエレクトロニクス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立コンシューマエレクトロニクス株式会社 filed Critical 日立コンシューマエレクトロニクス株式会社
Priority to PCT/JP2012/067880 priority Critical patent/WO2014010069A1/ja
Publication of WO2014010069A1 publication Critical patent/WO2014010069A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/775Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor

Definitions

  • the technical field relates to the display of video information.
  • Patent Document 1 states that “subtitle display corresponding to a conversation of a movie or 3D movie in real time can be provided only for a person who needs subtitle display, and the effect of producing a screen with subtitles that are unnecessary for other audiences is impaired. There is no need to provide a caption display system that does not have to be connected to the theater equipment, and the solution is “a caption file playback device 2 that plays back a caption file and a caption file playback device 2.
  • AV controller 1 that performs control and audio / video control of the entire show, a display unit 3 that is provided with subtitle signal receiving means and is worn on the head by the viewer, and a subtitle signal to the display unit 3
  • Subtitle signal transmission means 6 for transmission show controller 4 for controlling field devices such as projectors and lighting devices, and
  • a Is controlled by the controller 1 is described to consist of a digital audio player 5 for transmitting a synchronization signal to show controller 4 "with playing audio files.
  • Patent Document 1 does not consider selection of a display terminal that displays subtitles.
  • an embodiment of the present invention includes a video transmission device that transmits a video signal, a display device that receives and displays a video signal transmitted from the video transmission device, and a video transmission device.
  • the subtitle display device requests information on content displayed on the display device; The step of transmitting information on the content displayed on the display device by the display device, the step of acquiring the information on the transmitted content by the subtitle display device, and the content displayed by the subtitle display device based on the acquired content information.
  • Requesting subtitle-related information related to the subtitle a step in which the video transmitting device transmits subtitle-related information, and a subtitle display device
  • a step of acquiring the transmitted subtitle related information a step of displaying subtitle information that can be displayed based on the subtitle related information acquired by the subtitle display device, and a subtitle selected by the subtitle display device from the displayed subtitle information
  • a step of requesting transmission of information a step of transmitting the requested subtitle information by the video transmitting device, a step of acquiring subtitle information of the subtitle display device, and displaying the subtitle information acquired by the subtitle display device.
  • a step a step.
  • FIG. It is a block diagram which shows the structural example of a system. It is a block diagram which shows an example of a structure of a video transmission apparatus. It is a block diagram which shows an example of a structure of a content display terminal. 3 is a diagram illustrating a software configuration example of a video transmission device 110.
  • FIG. It is a figure which shows the software structural example of the content display terminal. It is a figure which shows the example of a software structure of the caption display terminal. It is a figure which shows an example of the processing flow of a caption display. It is a figure which shows an example of a search message. It is a figure which shows an example of the response message with respect to a search message.
  • a configuration will be described in which a user-desired subtitle is selected from a plurality of types of subtitles provided by content and displayed on a display terminal desired by the user.
  • FIG. 1 shows an example of a system configuration in this embodiment.
  • 1 is a router
  • 2 is an external network
  • 3 is an external server
  • 110 is a recorder
  • 120 and 150 are digital televisions (DTV)
  • 130 is a tablet terminal
  • 140 is a server.
  • the recorder 110, the DTV 120, 150, the tablet terminal 130, and the server 140 are devices constituting the home network, and are connected to the router 1 by wire or wirelessly and can mutually communicate and control data.
  • the devices constituting the home network can be connected to the external network 2 via the router 12, and content can be acquired and transmitted from the external server 3 connected to the external network 2, or other devices can be connected via the external network. It is possible to control the devices constituting the home network from the devices connected to the external network.
  • the DTV 120 and the recorder 110 are also connected by a cable capable of transmitting an uncompressed digital bit stream, for example, an HDMI (High-Definition Multimedia Interface: registered trademark) cable.
  • a cable capable of transmitting an uncompressed digital bit stream for example, an HDMI (High-Definition Multimedia Interface: registered trademark) cable.
  • the recorder 110 will be described as a video transmission device that transmits content
  • the DTVs 120 and 150 are content display terminals that display content
  • the tablet terminal 130 is a caption display terminal that displays content captions.
  • the recorder 110 and the video transmission device 110 are the same.
  • the DTV 120 and the content display terminal 120, and the tablet terminal 130 and the caption display terminal 130 are the same.
  • the subtitle information of the content displayed on the DTV 120 is displayed on the tablet terminal 130, or the audio output unit ( It is possible to output a sound (for example, a sound in a different language) different from the sound output from a speaker or the like.
  • a sound for example, a sound in a different language
  • FIG. 2 is a block diagram showing an example of the configuration of the video transmission apparatus 110 of the present embodiment.
  • the video transmission apparatus 110 includes an antenna connection terminal 201, a network terminal 202, an operation signal reception unit 203, an output terminal 204, a system bus 205, a tuner unit 210, a demodulation decoding unit 211, a demax unit 212, a decoding unit 213, a combining unit 214, and an OSD.
  • Have OSD is an abbreviation for On Screen Display.
  • An operation device 250 is used by the user to operate the video transmission device 110, such as a remote control, a mouse, a keyboard, or a touch panel.
  • the tablet terminal 130 may have a function as an operation device and may be used as the operation device 250.
  • the digital broadcast signal is input to the tuner unit 210 via the antenna connection terminal 201.
  • the tuner unit 210 extracts a channel frequency band of a channel to be received, and generates a baseband signal by orthogonal demodulation and outputs the baseband signal to the demodulation / decoding unit 211.
  • the demodulation / decoding unit 211 performs synchronous demodulation using, for example, 8PSK (Phase Shift Keying) on the baseband signal, performs error correction such as Viterbi decoding and RS (Reed-Solomon) decoding, and decodes the digital broadcast signal.
  • 8PSK Phase Shift Keying
  • error correction such as Viterbi decoding and RS (Reed-Solomon) decoding
  • RS Raster-Solomon
  • the demax unit 212 separates and extracts signals used in the subsequent stage from the multiplexed MPEG2-TS. Then, the key information held in the conditional access information storage unit 226 is acquired via the conditional access I / F unit 225, and the scramble applied to the MPEG2-TS for copyright protection is obtained using this information.
  • the PES Packetized Elementary Stream
  • ES Simple Stream
  • data broadcasting which is a video signal, audio signal, or subtitle signal stream constituting content such as a broadcast program, is output.
  • the decoding unit 213 decodes the PES or ES of the video signal and audio signal separated and extracted by the demax unit 212, and generates an uncompressed video signal and audio signal.
  • the decoded audio signal is output to the output I / F unit 216.
  • the decoded video signal is output to the synthesis unit 214.
  • the combining unit 214 combines the video signal input from the decoding unit 213 and the OSD input from the OSD unit 215 to form a display screen, and outputs the display screen to the output I / F unit 216.
  • the OSD unit 215 corresponds to an OSD such as a UI (User Interface) screen for user operation or a message dialog for notifying the user of the operation state or a video signal decoded by the decoding unit 213 according to the control of the control unit 222.
  • a subtitle to be generated is generated and output to the synthesis unit 214.
  • the output I / F unit 216 includes an AV transmission unit 217 and a data I / F unit 218.
  • the AV transmitter 217 transmits a video signal, an audio signal, and auxiliary data via the output terminal 216.
  • the auxiliary data is data related to the output video signal and audio signal, such as the format of the video signal and audio signal.
  • the data I / F unit 218 performs bi-directional data communication with other devices connected via the input terminal 204. Data input to the data I / F unit 218 is processed by the control unit 222. Further, data is transmitted to another device under the control of the control unit 222.
  • the data is, for example, a CEC (Consumer Electronics Control) message or a bidirectional Ethernet (registered trademark) signal used for mutual operation of devices in the HDMI network.
  • the broadcast program received by the video transmission device 110 From the AV transmission unit 217, the broadcast program received by the video transmission device 110, the content recorded in the recording / playback unit 230, the content input to the network connection unit via the network terminal 202, or played back by the recording / playback unit 230, A video / audio signal of the content recorded on the removable recording medium is output together with the auxiliary data.
  • the network connection unit 221 includes a communication processing unit and a transmission content protection unit (not shown), and other devices connected to the home network via the network terminal 202, the external server 3 connected to the external network 2, etc. Send and receive.
  • the communication processing unit interprets communication protocols and performs communication data flow control.
  • the transmission content protection unit performs device authentication processing according to copyright protection applied to the content, encryption processing of content output to the network, decryption processing of content received from the network, and the like.
  • the network connection unit 221 may include a wireless communication unit (not shown). In that case, the network connection unit 221 can be connected to the router 1 by wireless communication.
  • the control unit 222 performs OS (Operating System) and application execution processing, and causes the DTV 110 to function.
  • OS Operating System
  • the memory 223 includes a volatile memory and a nonvolatile memory.
  • the nonvolatile memory stores software for operating the DTV 110 such as an OS and applications.
  • the volatile memory temporarily stores data necessary for software operation.
  • the operation I / F unit 224 processes the input signal from the operation device 250 received by the operation signal receiving unit 203.
  • the operation signal receiving unit 203 may receive an input signal from the operation device 250 wirelessly using infrared rays or the like, or may connect the operation device 250 via a connection terminal and receive an input signal.
  • the system bus 205 is a data bus connected to the components of the DTV 110 (part of the connection lines are omitted). It is used for communication of control signals and data signals between each component.
  • the limited reception I / F unit 225 is an interface for connecting the limited reception information storage unit 226.
  • the limited reception information storage unit 226 holds key information for releasing scramble.
  • the limited reception information storage unit 226 is, for example, a B-CAS card.
  • the recording / reproducing unit 230 includes a recording medium and an encryption / decryption processing unit.
  • the recording / reproducing unit 230 includes a recording process for writing received content such as a broadcast program or content acquired via a network to the recording medium, and reading and outputting the recorded content from the recording medium. Playback processing and recorded content deletion processing.
  • the encryption processing unit performs an appropriate encryption process.
  • the encryption applied at the time of recording is decrypted and output.
  • the encryption process is optional, and the content can be recorded and reproduced on the recording medium without performing the encryption process.
  • the recording medium includes a removable recording medium such as a hard disk, a removable recording medium such as an optical disk, a removable hard disk, or a memory card, or both. Moreover, you may provide several types of recording media like a hard disk, an optical disk, and a memory card.
  • FIG. 3 is a block diagram showing an example of the configuration of the content display terminal 120 according to the present embodiment.
  • the same or corresponding parts as those in FIG. 3 are identical or corresponding parts as those in FIG.
  • the difference in configuration from the video transmission device 110 is that an input terminal 310 is provided instead of an output terminal, an audio output unit 303, a video display unit 304, and switches 301 and 302 are provided.
  • the input I / F unit 310 includes an AV receiving unit 311 and a data I / F unit 312.
  • the AV receiver 311 receives a video signal, an audio signal, and auxiliary data input from the outside via the input terminal 305.
  • the video signal is output to the switch 302, and the audio signal is output to the switch 301.
  • the auxiliary data is data relating to the input video signal and audio signal, such as the format of the video signal and audio signal.
  • the auxiliary data is output to the control unit 222 via the system bus 205 and used for display control of the video signal.
  • the data I / F unit 312 performs two-way data communication with other devices connected via the input terminal 305. Data input to the data I / F unit 312 is processed by the control unit 222. Further, data is transmitted to another device under the control of the control unit 222. In this embodiment, a CEC message and a bidirectional Ethernet signal used for mutual operation of devices in the HDMI network are transmitted.
  • the switch 301 is a switch for switching an audio signal output to the audio output unit 303
  • the switch 302 is a switch for switching a video signal output to the video display unit 304.
  • the switches 301 and 302 are controlled by the control unit 222 to output a video / audio signal externally input via the input terminal 305 or a video / audio signal generated by the decoding unit 213.
  • the switch 302 has a function of combining the video signal from the AV receiving unit 311 and the video signal from the synthesizing unit 214 and causing the video display unit 304 to display two screens.
  • the switch 301 may have a function of outputting both the audio from the AV receiving unit 311 and the audio signal from the decoding unit 213 to the audio output unit 303.
  • the switch 302 may have a function of synthesizing the video signal from the AV receiving unit 311 and the OSD generated by the OSD unit 215.
  • the audio output unit 303 is a speaker that outputs an audio signal input via the switch 301.
  • the video display unit 304 displays a video signal input via the switch 302 on a display panel such as a liquid crystal display.
  • the configuration of the content display terminal 150 and the subtitle display terminal 130 is the same as that of the content display terminal 120, and thus description thereof is omitted.
  • FIG. 4 is a diagram illustrating a software configuration example of the video transmission device 110.
  • the control software 400 that realizes the function of the video transmission device 110 is expanded in the memory 223 of the video transmission device 110 and executed by the control unit 222.
  • the control software 400 includes a program information generation unit 401, a content information generation unit 402, a content information provision unit 403, a content management unit 404, a stream transmission unit 405, a device information provision unit 406, a message analysis / generation unit 407, and a network communication processing unit 408.
  • the program information generation unit 401 uses the PES or ES including the broadcast program information separated and extracted by the demax unit 212 to select the selected program information that is the program information of the currently selected program or the program of the non-selected channel.
  • Electronic program guide information including program information and a broadcast schedule is acquired and recorded in the memory 223 or the recording / reproducing unit 230.
  • the content information generation unit 402 acquires and generates content information of content to be recorded in the recording / playback unit 230 and records it in the memory 223 or the recording / playback unit 230.
  • the content information providing unit 403 provides a “content information providing function” to other network devices.
  • the “content information providing function” is a function for providing content information regarding all contents that can be distributed to another apparatus by the video transmitting apparatus 110.
  • the content information of the content that can be provided to other devices includes the content recorded in the recording / playback unit 230, the program information of the channel being selected, and the digital broadcast electronic received by the video transmitting device 110. Program guide information and the like.
  • the content management unit 404 manages content recording and content transmission.
  • the content information generation unit 402 is requested to generate and record content information of the content.
  • the content information is updated when the content is deleted or moved, and the number of copies for a content with a limited number of copies is managed.
  • the stream transmission unit 405 outputs content such as a broadcast program received by the video transmission device 110 and a broadcast program recorded in the recording / playback unit 230 via the network communication processing unit 408 in accordance with a request from another device.
  • the device information providing unit 406 includes a “device information description” that describes information about the device itself, such as the device name, device identification ID that uniquely identifies the device on the network, device display name, and device type. “Network function detailed information description” describing details of information for using the network function, such as command name and argument of the network function provided to the other apparatus via the network, is provided to the other apparatus.
  • a device information description that describes information about the device itself, such as the device name, device identification ID that uniquely identifies the device on the network, device display name, and device type.
  • Network function detailed information description describing details of information for using the network function, such as command name and argument of the network function provided to the other apparatus via the network, is provided to the other apparatus.
  • the message analysis / generation unit 407 interprets a message such as a control request generated according to a predetermined format transmitted / received between devices, and distributes a control request and a response to the control request to software components that process them.
  • the network communication processing unit 408 controls the network connection unit 221 to process communication data according to a communication protocol when transmitting / receiving content and control messages to / from other devices connected via the network.
  • Communication protocols include HTTP GET and RTP (Real-time Transport Protocol).
  • the subtitle stream transmission unit 409 provides subtitle stream information according to a request from another device, and outputs the subtitle stream via the network communication processing unit 408.
  • the output start position of the subtitle stream file is controlled to match the content output position (reproduction time from the top of the content).
  • FIG. 5 is a diagram illustrating a software configuration example of the content display terminal 120.
  • the control software 500 that realizes the function of the content display terminal 120 is expanded in the memory 223 of the content display terminal 120 and executed by the control unit 222.
  • the control software 500 includes a content reception management unit 501, a stream reception unit 502, a content information acquisition unit 503, a display content information provision unit 504, a device information acquisition unit 505, a device information provision unit 506, a message analysis / generation unit 507, and network communication processing. Part 508.
  • the content reception management unit 501 is a means for managing content reception processing from a device that provides content via a network.
  • the device information acquisition unit 505 searches for the video transmission device 110 that distributes the content, and the content information provided by the “content information providing function” that is the network function provided by the video transmission device 110 is used as the content information acquisition unit 503. And a content list for selecting viewing content is presented to the user.
  • the stream reception unit 502 is requested to acquire the selected content.
  • the display content information providing unit 504 stores information on the content requested to be acquired.
  • the stream receiving unit 502 accesses the URI described in the access destination information of the content, and acquires the content stream.
  • the acquired content stream is output to the demux unit 212, separated and extracted, and then decoded by the decoding unit 213 and output to the audio output unit 303 and the video display unit 304.
  • the content information acquisition unit 503 acquires content information provided by the “content information providing function” in response to a request from the content reception management unit 501.
  • the display content information providing unit 504 provides a “display content information providing function” to other network devices.
  • the “display content information providing function” is a function for providing content information of content currently displayed on the video display unit 304.
  • the device information acquisition unit 505 When the device information acquisition unit 505 detects a notification of connection or disconnection of another device to the network, and detects the connection of the device to be controlled, the device information acquisition unit 505 detects "device information description" , A request message for requesting “detailed network function information description” is transmitted. It is also possible to transmit a device search request for searching for a desired control target device on the home network.
  • the device information acquisition unit 505 manages the “control target device information table” and holds the acquired “device information description” and “network function detailed information description”.
  • the “control target device information table” is recorded in the memory 223 and can be referred to by the device identification ID, device type, or the like.
  • connection state information indicating the connection state (connection / disconnection) of the device that recorded the information
  • update time information a value indicating the date of connection or disconnection
  • the device information acquisition unit 505 detects the notification of the removal of the control target device recorded in the “control target device information table”
  • the device information acquisition unit 505 updates the connection state information in the “control target device information table” to a value indicating disconnection, and updates the time information Is updated to the time when the notification of departure is detected.
  • the device information recorded in the “control target device information table” may be deleted when the separation is detected, but may be deleted after a predetermined time (24 hours, etc.) has passed since the separation. Since tablet devices that are easy to carry are frequently taken out of the house, connection and disconnection to the network frequently occur. If the information of the device that has left the device is deleted from the “control target device information table” after a predetermined time has elapsed since the device has left, the “device information description” and “network function details” will be displayed each time a connection to the network is detected. Rather than requesting “information description”, the information held in the “control target device information table” can be used, and the time required for recognition of the control target device can be shortened.
  • the device information providing unit 506, message analysis / generation unit 507, and network communication processing unit 508 are the same as the device information providing unit 406, message analysis / generation unit 407, and network communication processing unit 408 in FIG. .
  • FIG. 6 is a diagram illustrating a software configuration example of the caption display terminal 130.
  • the control software 600 for realizing the function of the caption display terminal 130 is developed in the memory 223 of the caption display terminal 130 and executed by the control unit 222.
  • the control software 600 includes a content reception management unit 601, a stream reception unit 602, a content information acquisition unit 603, a display content information acquisition unit 604, a device information acquisition supply unit 605, a device information provision unit 606, a message analysis / generation unit 607, and network communication.
  • a processing unit 608 and a caption reception operation unit 609 are included.
  • the display content information acquisition unit 604 acquires display content information provided by the “display content information providing function” in response to a request from the caption reception operation unit 609.
  • a caption reception operation unit 609 acquires a caption of the content displayed on the content display terminal 120 on the network and displays it on the video display unit 304.
  • the content reception management unit 601, the stream reception unit 602, the content information acquisition unit 603, and the device information acquisition unit 605 are the content reception management unit 501, the stream reception unit 502, the content information acquisition unit 503, and the device information acquisition unit 505 of FIG. Since it is equivalent, explanation is omitted.
  • the device information providing unit 606, message analysis / generation unit 607, and network communication processing unit 608 are the same as the device information providing unit 406, message analysis / generation unit 407, and network communication processing unit 408 in FIG. .
  • FIG. 7 is a diagram illustrating an example of a processing flow of subtitle display in the present embodiment.
  • the caption reception operation unit 609 of the caption display terminal 130 requests the device information acquisition unit 605 to search for a device and search for a content display terminal on the network.
  • a display terminal on the network can search by sending a search message specifying a search target on the network by multicast.
  • the device information acquisition unit 605 of the caption display terminal 130 responds to the search message transmitted from the device information providing unit 506 of the content display terminal on the network, and “device information description” or “network function” of the display terminal on the network. “Detailed information description” is acquired and recorded in the memory 223 of the caption display terminal 130.
  • the “device information description” includes information such as a device identification ID, a device display name, and a device type.
  • the caption reception operation unit 609 of the caption display terminal 130 generates a UI (User Interface) screen that presents a list of content display terminals to the user using these pieces of information, and displays it on the video display unit 303 of the caption display terminal 130. (S701). Then, the device displaying the content for which the subtitle stream is acquired is selected (S702).
  • UI User Interface
  • the content display terminal selected by the user will be described as the content display terminal 120.
  • the subtitle reception operation unit 609 of the subtitle display terminal 130 acquires information on the content displayed on the content display terminal 120, and displays the “display” of the content display terminal 120 on the display content information acquisition unit 604.
  • the acquisition of “content information” is requested (S703).
  • “Display content information” includes information such as a content identifier, a subtitle stream delivery flag, a subtitle stream information acquisition destination URI (Uniform Resource Identifier).
  • the display content information providing unit 504 of the content display terminal 120 that has requested acquisition of “display content information” transmits information on the content displayed on the display terminal as the “display content information” and displays the subtitles.
  • the display content information acquisition unit 604 of the display terminal 130 acquires.
  • the subtitle reception operation unit 609 determines whether the subtitle stream of the content can be acquired from the subtitle stream distribution enable flag of the “display content information” acquired by the display content information acquisition unit 604 (S704). If the value of the subtitle stream distribution enable flag indicates that distribution is not possible (FALSE), the subtitle acquisition display processing is terminated.
  • the caption reception operation unit 609 accesses the URI of the caption stream information acquisition destination included in the display content information and obtains “subtitle stream information” (S705).
  • the “subtitle stream information” includes information such as a content identifier, a list of subtitle languages that can be distributed, a subtitle stream acquisition destination URI, and the like.
  • the subtitle of the video transmission device 110 that is the transmission source of the content displayed on the content display terminal 120 Obtained from the stream transmission unit 409.
  • the caption stream information is necessarily acquired from the video transmission device 110 that is the transmission source of the content displayed on the content display terminal 120.
  • the caption stream record of the server that recorded the caption information is the URI of the caption stream information acquisition destination.
  • the subtitle reception operation unit 609 of the subtitle display terminal 130 generates a UI screen that presents a list of subtitle languages that can be acquired from the “subtitle stream information” and displays the UI screen on the video display unit 303 (S706). Then, the language of the subtitle stream to be acquired is selected (S707).
  • the subtitle reception operation unit 609 requests the stream reception unit 602 to acquire a subtitle stream corresponding to the selected language (S708).
  • the stream receiving unit 602 requests a desired subtitle stream from the subtitle stream acquisition destination URI corresponding to the subtitle stream corresponding to the selected language.
  • the video transmission apparatus 110 that has received this request transmits a subtitle stream corresponding to the request from the subtitle stream transmission unit 409, and the stream reception unit 602 of the subtitle display terminal 130 acquires the transmitted subtitle stream.
  • the subtitle stream is decoded and displayed on the video display unit 304 of the subtitle display terminal 130 (S709). For example, when the content and the caption information of the content are recorded in different servers, the caption stream is acquired from the server in which the caption information is recorded.
  • FIG. 8A shows an example of a search message for searching for a display terminal.
  • FIG. 8B shows an example of a response message to the search message.
  • the numbers in the 800s at the beginning of each line are line numbers for explanation.
  • FIGS. 8A and 8B show a case where the search message is an HTTP (HyperTextTTransfer Protocol) request message and the response message to the search message is an HTTP response message.
  • HTTP HyperTextTTransfer Protocol
  • Line 800 is the request line of the HTTP request message.
  • M-SEARCH indicates that this message is a search request
  • HTTP / 1.1” indicates the HTTP version.
  • Lines 801 to 805 are header fields.
  • a message destination is specified by an IP address and a port number. In this example, in order to search for all content display terminals on the network, the address (239.255.255.250) and the port number (1900) of the multicast message are specified.
  • the “MAN” field in line 802 indicates an extension of HTTP.
  • Ssdp: discover” represents that a search (discover) of SSDP (Simple
  • a maximum waiting time (seconds) for a response is designated in the “MX” field in the row 803.
  • the “ST” field in line 804 is a field for designating a search target.
  • “content display terminal” is designated. It is possible to search for a device having a predetermined function according to a value specified in the “ST” field, search for all devices connected to the network, or search for a specific device. For example, when searching for all devices, “ssdp: all” is set.
  • the “USER-AGENT” field on line 805 is a field for describing information such as an OS (Operating System) name and version, UPnP version, and the like.
  • Line 810 is the response line of the HTTP response message.
  • HTTP / 1.1 represents an HTTP version.
  • 200 OK is a status code indicating the state of this response message.
  • 200 OK indicates that the transmitted request is successful, and the header field from line 811 to line 815 contains a correct response.
  • the “CACHE-CONTROL” field on line 811 indicates the expiration date of this response message, and specifies a numerical value (second) indicating the expiration date. In this embodiment, 1800 seconds (30 minutes) is designated.
  • the “DATE” field on line 812 is the time when this response message was generated.
  • the “EXT” field in line 813 indicates that the UPnP version specified in line 805 is backward compatible.
  • the “EXT” field has only a field name and no field value.
  • the “LOCATION” field on line 814 is a field that describes the URL of the device information indicating the acquisition destination of the “device information description” of the device that biased the response message.
  • the device information acquisition unit 605 acquires “device information description” from the URL indicated in the “LOCATION” field.
  • the “device information description” includes device type, device name, manufacturer name, device model name, device identification ID, version, network function list information provided by the device, and the like as unique information of the device.
  • the network function list information includes “network function detailed information description acquisition destination URL” information indicating the acquisition destination of the detailed information of each network function.
  • the device information acquisition unit 605 acquires information on control commands and control command arguments for using the network function by accessing the “network function detailed information description acquisition destination URL” and acquiring “network function detailed information description”. can do.
  • the “SERVER” field on line 815 is a field for describing information such as an OS (Operating System) name and version, and a UPnP version.
  • the “ST” field on line 816 is a field for designating a search target.
  • the specified value is inserted in the “ST” field (line 804) of the request message.
  • the “USN” field in line 817 is a field describing a unique service name that uniquely identifies a device in the UPnP network.
  • Display content information is information provided by the display content information providing unit 504 of the content display terminal 120, and the content being displayed on the content display terminal 120, that is, the content output to the video display unit 304 of the content display terminal 120. Providing information.
  • FIG. 9 is a diagram illustrating an example of “display content information” generated and output by the display content information providing unit 504 in response to a request from another device.
  • display content information an “identifier” that uniquely identifies the content, a “title name” of the content, a “caption stream distributable flag” indicating whether or not the subtitle stream of the content can be distributed, and information on the subtitle stream
  • a “caption stream information acquisition destination URI” indicating the acquisition destination of the video is provided will be described as an example.
  • FIG. 9 shows an example in which “display content information” is described in XML (extensible Markup Language) which is one of markup languages.
  • ⁇ item> “Display content information” from line 900 ⁇ item> to line 905 ⁇ / item>.
  • the ⁇ item> tag has an id attribute.
  • the id attribute indicates an “identifier” that uniquely identifies the content.
  • ⁇ Item> has ⁇ class>, ⁇ title>, ⁇ captionESAvailable>, and ⁇ captionESInfoURI> as element tags.
  • the ⁇ class> tag on line 901 indicates what information is described in the portion surrounded by ⁇ item> ⁇ / item>.
  • object. item. currentVideoItem indicates that “display content information” is described.
  • the ⁇ title> tag on line 902 indicates the “title name” of the content.
  • the ⁇ captionESAvailable> tag in line 903 indicates a “caption stream delivery enable flag”. “1” indicates that a subtitle stream can be distributed. If delivery is not possible, “0” is inserted.
  • ⁇ CaptionESInfoURI> on line 904 indicates an acquisition destination URI “subtitle stream information acquisition destination URI” of “subtitle stream information”. It is inserted only when the value of the ⁇ captionESAvailable> tag is “1”.
  • the subtitle reception operation unit 609 accesses the “subtitle stream information acquisition destination URI” described in ⁇ captionESInfoURI> and acquires “subtitle stream information”.
  • “Subtitle stream information” is information provided by the subtitle stream transmission unit 504 of the video transmission apparatus 110, and provides information regarding the subtitle stream of the content distributed by the video transmission apparatus 110.
  • FIG. 10 is a diagram illustrating an example of “subtitle stream information” generated and output by the subtitle stream transmission unit 409 in response to a request from another apparatus.
  • identifier that uniquely identifies content
  • title name of content
  • subtitle stream list information that can provide content
  • the subtitle stream list information includes subtitle stream language information and subtitle stream acquisition destination URI information. A description will be given by taking an example in which XML is described as in FIG.
  • the ⁇ item> tag has an id attribute.
  • the id attribute indicates an “identifier” that uniquely identifies the content.
  • ⁇ Item> has ⁇ class>, ⁇ title>, and ⁇ captionESList> as element tags.
  • ⁇ CaptionESList> has ⁇ captionESURI> as many as the number of subtitle streams that can be provided as element tags.
  • the ⁇ class> tag on line 1001 indicates what information is described in the portion surrounded by ⁇ item> ⁇ / item>.
  • VideoCaptionItem represents that “subtitle stream information” is described.
  • the ⁇ title> tag in line 1002 indicates the “title name” of the content.
  • ⁇ captionESURI> tags are provided as many elements as the number of subtitle streams that can be provided, and language information and subtitle stream acquisition destination URI information of each subtitle stream are provided.
  • the language information of the subtitle stream is described in the lang attribute of the ⁇ captionESURI> tag.
  • ISO_639_language_code and ISO_639_language_code2 represent languages.
  • the subtitle receiving operation unit 609 presents a UI screen that allows the user to select the subtitle stream by acquiring the language information of the subtitle stream that can be acquired from the lang attribute of the ⁇ captionESURI> tag described in the ⁇ captionESList>.
  • FIG. 11 is a diagram illustrating an example of a UI screen for selecting a subtitle stream generated by the subtitle reception operation unit 609.
  • 1101 is the “title name” of the content and displays the value acquired from the ⁇ title> tag of “subtitle stream information”.
  • Reference numerals 1111, 1112, and 1113 indicate a list of subtitle stream languages that can be provided by the content. It is generated based on the information of the lang attribute of the ⁇ captionESURI> tag listed as an element of the ⁇ captionESList> tag of “Subtitle Stream Information”. In this example, 1112 English subtitles are selected.
  • FIG. 12 shows a display example of the language code (ISO_639_language_code and ISO_639_language_code2) described in the lang attribute and the language name on the UI screen.
  • the language code ISO_639_language_code and ISO_639_language_code2
  • FIG. 13 shows an example of subtitle display on the subtitle display terminal 130.
  • 1301 is a screen displayed on the video display unit 303 of the content display terminal 120
  • 1302 is a screen displayed on the video display unit 303 of the subtitle display terminal 130.
  • Reference numeral 1301 indicates that the content display terminal 120 is reproducing the content in Japanese audio without displaying the subtitles.
  • Reference numeral 1311 denotes a Japanese voice output to the voice output unit 304.
  • Reference numeral 1312 denotes a display of the selected English subtitle stream.
  • Reference numeral 1313 denotes a caption change button for changing the language of the caption to be displayed. The subtitle change button is displayed on the GUI. Although one language subtitle is displayed in FIG. 13, subtitles in a plurality of languages such as English and Japanese may be displayed.
  • the subtitle display terminal 130 that displays subtitles, obtain subtitle information of the content displayed on the content display terminal 120, and select the language of the subtitles to be displayed, which is convenient.
  • the video transmission device 110 when the video transmission device 110 is requested by the stream transmission unit 405 for a caption stream for the content being transmitted, the video transmission device 110 sets the output start position of the caption stream file so as to match the output position of the content (the playback time from the beginning of the content). Control. Therefore, the subtitle display terminal 130 can acquire a subtitle stream synchronized with the content without specifying the acquisition position of the subtitle stream file.
  • the present Example demonstrated the case where there was one caption display terminal 130 which displays a caption stream, there may be two or more. In this case, a desired subtitle stream can be selected and displayed for each subtitle display terminal 130. Therefore, even when a plurality of users with different native languages are viewing, it is possible to provide subtitles suitable for each user.
  • the subtitle stream has been described, but an equivalent function may be provided in the audio stream.
  • this function When providing this function with an audio stream, replace the portion described as a subtitle stream in the embodiment with an audio stream.
  • this function is provided by an audio stream, for example, the content can be reproduced with Japanese audio on the DTV 120 and English audio can be output to the tablet terminal 130.
  • the DTV 120 When the same content is viewed by a family, the DTV 120 can play in Japanese voice for children, and an adult can listen to English voice on the tablet terminal 130.
  • subtitle stream has been described in the present embodiment, it may be configured to deliver an audio stream in addition to the subtitle stream.
  • the portion described as the subtitle stream in the embodiment is replaced with the subtitle stream and the audio stream.
  • the content can be played back with Japanese audio on the DTV 120 and English subtitles and English audio can be output to the tablet terminal 130.
  • the DTV 120 can use Japanese voice for children and adults can watch and listen to English subtitles and English voices on the tablet terminal 130.
  • each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit.
  • Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor.
  • Information such as programs, tables, and files for realizing each function can be stored in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), or a recording medium such as an IC card, SD card, or DVD.
  • control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.
  • router 2 external network 3 external server 110 recorder (video transmission device) 120, 150 Digital TV (DTV) (content display terminal) 130 Tablet terminal (caption display terminal) 140 Server 201 Antenna Connection Terminal 202 Network Terminal 203 Operation Signal Receiving Unit 204 Output Terminal 205 System Bus 210 Tuner Unit 211 Demodulation Decoding Unit 212 Demax Unit 213 Decoding Unit 214 Synthesis Unit 215 OSD Unit 216 Output I / F Unit 221 Network Connection Unit 222 Control unit 223 Memory 214 Operation I / F unit 225 Limited reception I / F unit 226 Limited reception information storage unit 230 Recording / playback unit 310 Input terminal 303 Video display unit 304 Audio output unit 301, 302 Switch 400, 500 Control software 401 Program information Generation unit 402 Content information generation unit 403 Content information provision unit 404 Content management unit 405 Stream transmission units 406, 506, 606 Device information provision units 407, 507, 607 Message analysis / generation unit 40 , 508,608 network communication processing section 409 subtitle stream transmission unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

 従来技術では、字幕の表示に関して、字幕を表示する表示端末の選択について考慮されていない。 そこで、本発明の一実施の態様は、映像信号を送信する映像送信装置と、映像送信装置から送信される映像信号を受信して表示する表示装置と、映像送信装置から字幕情報を受信して表示する字幕表示装置とがネットワークを介して接続されている映像表示システムにおける映像表示方法において、字幕表示装置が表示装置で表示しているコンテンツの情報を要求するステップと、表示装置が表示装置で表示しているコンテンツの情報を送信するステップと、送信されたコンテンツの情報を字幕表示装置が取得するステップと、字幕表示装置が、取得したコンテンツの情報に基づいて当該コンテンツの字幕に関する字幕関連情報を要求するステップと、映像送信装置が字幕関連情報を送信するステップと、字幕表示装置が送信された字幕関連情報を取得するステップと、字幕表示装置が取得した字幕関連情報に基づいて表示可能な字幕情報を表示するステップと、字幕表示装置が、表示された字幕情報から選択された字幕情報の送信を要求するステップと、映像送信装置が要求された字幕情報を送信するステップと、字幕表示装置が送信された字幕情報を取得するステップと、字幕表示装置が取得した字幕情報を表示するステップと、を有するように構成する。

Description

映像送信方法、字幕表示装置、及び映像送信装置
 技術分野は、映像情報の表示に関する。
 特許文献1には、「字幕表示が必要な人に対してのみ、映画又は3D映画の会話にリアルタイムに対応する字幕表示を提供でき、他の観客にとって無用な字幕によるスクリーンの演出効果を損ねることがなく、また、シアター設備に配線を接続する必要がない字幕表示システムを提供すること」を課題とし、その解決手段として「字幕ファイルを再生する字幕ファイル再生装置2と、字幕ファイル再生装置2の制御とショー全体のオーディオ・ビデオの制御を行なうAVコントローラ1と、字幕信号受信手段を備えていて視聴者が頭部に装着して使用するディスプレイ・ユニット3と、ディスプレイ・ユニット3に字幕信号を送信する字幕信号送信手段6と、映写機、照明機器等のフィールド機器を制御するショー・コントローラ4と、AVコントローラ1に制御されて音声ファイルを再生すると共にショー・コントローラ4に同期信号を伝送するデジタル・オーディオ・プレーヤー5とから成る」ことが記載されている。
特開2006-119653号公報
 しかし、特許文献1では、字幕を表示する表示端末の選択について考慮されていない。
 上記課題を解決するために、本発明の一実施の態様は、映像信号を送信する映像送信装置と、映像送信装置から送信される映像信号を受信して表示する表示装置と、映像送信装置から字幕情報を受信して表示する字幕表示装置とがネットワークを介して接続されている映像表示システムにおける映像表示方法において、字幕表示装置が表示装置で表示しているコンテンツの情報を要求するステップと、表示装置が表示装置で表示しているコンテンツの情報を送信するステップと、送信されたコンテンツの情報を字幕表示装置が取得するステップと、字幕表示装置が、取得したコンテンツの情報に基づいて当該コンテンツの字幕に関する字幕関連情報を要求するステップと、映像送信装置が字幕関連情報を送信するステップと、字幕表示装置が送信された字幕関連情報を取得するステップと、字幕表示装置が取得した字幕関連情報に基づいて表示可能な字幕情報を表示するステップと、字幕表示装置が、表示された字幕情報から選択された字幕情報の送信を要求するステップと、映像送信装置が要求された字幕情報を送信するステップと、字幕表示装置が送信された字幕情報を取得するステップと、字幕表示装置が取得した字幕情報を表示するステップと、を有するように構成する。
 上記手段によれば、字幕の表示又は音声の出力に関してユーザにとって使い勝手の良い装置を提供することができる。
システムの構成例を示すブロック図である。 映像送信装置の構成の一例を示すブロック図である。 コンテンツ表示端末の構成の一例を示すブロック図である。 映像送信装置110のソフトウェア構成例を示す図である。 コンテンツ表示端末120のソフトウェア構成例を示す図である。 字幕表示端末130のソフトウェア構成例を示す図である。 字幕表示の処理フローの一例を示す図である。 探索メッセージの一例を示す図である。 索メッセージに対する応答メッセージの一例を示す図である。 「表示コンテンツ情報」の一例を示す図である。 「字幕ストリーム情報」の一例を示す図である。 字幕ストリーム選択させるUI画面の一例を示す図である。 言語コードと表示する言語名の一例を示す図である。 字幕ストリームの表示例を示す図である。
 以下、実施例を図面を用いて説明する。なお、図面において、同一符号は、同一または相当部分を示す。また、本発明は、図示例に限定されるものではない。
 本実施例では、コンテンツが提供する複数種類の字幕からユーザが所望する字幕を選択し、ユーザが所望する表示端末で表示する構成ついて説明する。
 図1は本実施例におけるシステム構成の例である。
 1はルータ、2は外部ネットワーク、3は外部サーバ、110はレコーダ、120、150はデジタルテレビ(DTV)、130はタブレット端末、140はサーバである。
 レコーダ110、DTV120、150、タブレット端末130、サーバ140はホームネットワークを構成する装置であり、有線、或いは、無線でルータ1に接続され相互にデータの通信や制御が可能である。また、これらホームネットワークを構成する装置はルータ12を介して外部ネットワーク2に接続可能で、外部ネットワーク2に接続された外部サーバ3からコンテンツの取得や送信、或いは外部ネットワークを介して他の装置を制御したり、外部ネットワークに接続された装置からホームネットワークを構成する装置を制御することができる。
 また、DTV120とレコーダ110は非圧縮デジタルビットストリーム伝送可能なケーブル、例えばHDMI(High-Definition Multimedia Interfaceの略。登録商標。)ケーブルでも接続されている。
 本実施例において、レコーダ110はコンテンツを送信する映像送信装置、DTV120、150はコンテンツを表示するコンテンツ表示端末、タブレット端末130はコンテンツの字幕を表示する字幕表示端末として説明する。以下の記述において、レコーダ110と映像送信装置110は同じものを示す。同様に、DTV120とコンテンツ表示端末120、タブレット端末130と字幕表示端末130はそれぞれ同じものを示す。
 本実施例においては、例えばレコーダ110から送信されるコンテンツをDTV120で表示している際に、タブレット端末130にDTV120で表示しているコンテンツの字幕情報を表示することや、DTV120の音声出力部(スピーカ等)から出力される音声とは異なる音声(例えば、異なる言語の音声)を出力することが可能となる。以下、これらの機能を実現する具体的な方法を説明する。
 図2は本実施例の映像送信装置110の構成の一例を示すブロック図である。
 映像送信装置110はアンテナ接続端子201、ネットワーク端子202、操作信号受信部203、出力端子204、システムバス205、チューナ部210、復調復号部211、デマックス部212、デコード部213、合成部214、OSD部215、出力I/F部216、ネットワーク接続部221、制御部222、メモリ223、操作I/F部214、限定受信I/F部225、限定受信情報記憶部226、記録再生部230を備えるを有する。なお、OSDはOn Screen Displayの略である。
 250は、ユーザが映像送信装置110の操作に使用する操作装置であり、例えばリモコンやマウス、キーボード、タッチパネルなどである。タブレット端末130に操作装置としての機能を持たせ、操作装置250として用いてもよい。
デジタル放送信号はアンテナ接続端子201を介してチューナ部210に入力される。チューナ部210は受信すべきチャンネルのチャンネル周波数帯を抽出し、直交復調によりベースバンド信号とされ復調復号部211に出力する。復調復号部211は、ベースバンド信号に対して、例えば8PSK(Phase Shift Keying)を用いた同期復調を行い、ビタビ復号やRS(リード・ソロモン)復号などの誤り訂正を施しデジタル放送信号を復号してデマックス部212に出力する。ここでは、デジタル放送信号として、MPEG(Moving Picture Experts Group)方式によって圧縮符号化され、TS(Transport Stream)方式で多重化されたMPEG2-TSを扱う場合について説明する。
 デマックス部212は多重化されたMPEG2-TSから後段で使われる信号を分離・抽出する。そして、限定受信I/F部225を介して限定受信情報記憶部226に保持されている鍵情報などを取得し、この情報を用いて著作権保護のためにMPEG2-TSにかけられているスクランブルを解除し、放送番組などコンテンツを構成する映像信号や音声信号や字幕の信号ストリームであるPES(Packetized Elementary Stream)あるいはES(Elementary Stream)やデータ放送などのデータを出力する。
 デコード部213はデマックス部212で分離・抽出された映像信号および音声信号のPESあるいはESをデコードして、圧縮されていない映像信号と音声信号を生成する。デコードされた音声信号は出力I/F部216に出力される。デコードされた映像信号は合成部214に出力される。
 合成部214はデコード部213から入力された映像信号と、OSD部215から入力されたOSDを合成して表示画面を構成し、出力I/F部216へ出力する。
 OSD部215は、制御部222の制御に従ってユーザ操作のためのUI(User Interface)画面やユーザに操作の状態を通知するメッセージダイアログなどのOSD、或いは、デコード部213でデコードされた映像信号に対応する字幕などを生成し合成部214に出力する。
 出力I/F部216はAV送信部217とデータI/F部218で構成する。AV送信部217は出力端子216を介して映像信号、音声信号、補助データを送信する。補助データは映像信号、音声信号のフォーマットなど出力される映像信号、音声信号に関するデータである。データI/F部218は入力端子204を介して接続された他の装置と双方向のデータ通信を行う。データI/F部218に入力されたデータは制御部222で処理される。また、制御部222の制御によって他の装置にデータを送信する。データとは、例えば、HDMIネットワークにおいて装置の相互操作に使用されるCEC(Consumer Electronics Control)メッセージや双方向イーサネット(登録商標)信号などである。
 AV送信部217からは映像送信装置110が受信した放送番組や記録再生部230に記録したコンテンツ、ネットワーク端子202を介してネットワーク接続部へ入力されたコンテンツ、あるいは、記録再生部230で再生した、取り外し可能な記録媒体に記録されたコンテンツの映像音声信号が補助データと共に出力される。
 ネットワーク接続部221は図示しない通信処理部と伝送コンテンツ保護部を備え、ネットワーク端子202を介してホームネットワークに接続された他の装置や外部ネットワーク2に接続された外部サーバ3などとデータやコンテンツの送受信を行う。通信処理部は通信プロトコルの解釈や、通信データのフロー制御をおこなう。伝送コンテンツ保護部は、コンテンツに掛けられた著作権保護に応じた機器認証処理や、ネットワークへ出力するコンテンツの暗号処理、ネットワークから受信したコンテンツの復号処理等を行う。なお、ネットワーク接続部221は図示しない無線通信部を備えていても良く、その場合、無線通信でルータ1に接続することが可能である。
 制御部222はOS(Operating System)やアプリケーションの実行処理を行い、DTV110を機能させる。
 メモリ223は揮発性メモリおよび不揮発性メモリで構成する。不揮発性メモリにはOSやアプリケーションなどのDTV110を動作させるためのソフトウェアを格納する。揮発性メモリにはソフトウェアの動作に必要なデータなどを一時的に格納する。
 操作I/F部224は、操作信号受信部203が受信した操作装置250からの入力信号を処理する。操作信号受信部203は赤外線などを用いて無線で操作装置250からの入力信号を受信しても良いし、接続端子を介して操作装置250を接続し、入力信号を受信しても良い。
 システムバス205はDTV110の構成要素(接続線の記載を一部省略している)に接続されるデータバスである。各構成要素の間で、制御信号やデータ信号の通信に使用される。
 限定受信I/F部225は限定受信情報記憶部226を接続するインターフェースである。限定受信情報記憶部226はスクランブルを解除するための鍵情報などを保持する。限定受信情報記憶部226は、例えばB-CASカードである。
 記録再生部230は記録媒体と暗号・復号処理部を備え、受信した放送番組などのコンテンツやネットワークを介して取得したコンテンツを記録媒体に書き込む記録処理、および、記録したコンテンツを記録媒体から読み出し出力する再生処理、記録したコンテンツの削除処理などを行う。コンテンツを記録媒体に記録する際には暗号処理部で適切な暗号化処理を施す。コンテンツを記録媒体から読み出す場合は、記録時に施された暗号を復号して出力する。ただし、暗号化処理はオプションであって、暗号化処理をせずにコンテンツを記録媒体に記録、再生することも可能である。なお記録媒体は、ハードディスクのような取り外せない記録媒体、もしくは光ディスク、リムーバブルハードディスク、メモリカードのような取り外し可能な記録媒体のどちらか、もしく両方を備える。また、ハードディスクと光ディスクとメモリカードなどのように数種類の記録媒体を備えても良い。
 図3は本実施例に掛かるコンテンツ表示端末120の構成の一例を示すブロック図である。図3において図2と同一または相当部分は同一符号で示し、説明を省略する。
 映像送信装置110との構成の違いは、出力端子ではなく入力端子310を備えること、音声出力部303、映像表示部304、スイッチ301、302を備えることである。
 入力I/F部310はAV受信部311とデータI/F部312で構成する。AV受信部311は入力端子305を介して外部から入力される映像信号、音声信号、補助データを受信する。映像信号はスイッチ302へ出力し、音声信号はスイッチ301へ出力する。補助データは映像信号、音声信号のフォーマットなど入力される映像信号、音声信号に関するデータである。補助データはシステムバス205を介して制御部222に出力され映像信号の表示制御などに使用される。
 データI/F部312は入力端子305を介して接続された他の装置と双方向のデータ通信を行う。データI/F部312に入力されたデータは制御部222で処理される。また、制御部222の制御によって他の装置にデータを送信する。本実施例では、HDMIネットワークにおいて装置の相互操作に使用されるCECメッセージや双方向イーサネット信号を伝送する。
 スイッチ301は音声出力部303に出力する音声信号を切換えるスイッチで、スイッチ302は映像表示部304に出力する映像信号を切換えるスイッチである。スイッチ301、302は制御部222によって、入力端子305を介して外部入力された映像音声信号を出力するか、デコード部213が生成した映像音声信号を出力するかが制御される。ただし、必ずしもいずれか一方のみを選択する必要はなく、例えばAV受信部311からの映像信号と合成部214からの映像信号とを合成して映像表示部304に2画面表示させる機能をスイッチ302に持たせたり、AV受信部311からの音声とデコード部213からの音声信号との両方を音声出力部303へ出力させる機能をスイッチ301に持たせたりしてもよい。また、スイッチ302にAV受信部311からの映像信号とOSD部215が生成したOSD等を合成する機能を持たせてもよい。
 音声出力部303はスイッチ301を介して入力された音声信号を出力するスピーカなどである。映像表示部304は液晶ディスプレイなどの表示パネルでスイッチ302を介して入力された映像信号を表示する。
 コンテンツ表示端末150、及び、字幕表示端末130の構成はコンテンツ表示端末120と同等であるため説明を省略する。
 図4は映像送信装置110のソフトウェア構成例を示す図である。
 映像送信装置110の機能を実現する制御ソフトウェア400は映像送信装置110のメモリ223に展開され制御部222で実行される。
 制御ソフトウェア400は番組情報生成部401、コンテンツ情報生成部402、コンテンツ情報提供部403、コンテンツ管理部404、ストリーム送信部405、機器情報提供部406、メッセージ解析/生成部407、ネットワーク通信処理部408、字幕ストリーム送信部409で構成される。
 番組情報生成部401はデマックス部212で分離・抽出された、放送番組の情報を含むPESあるいはESから、選局中の番組の番組情報である選局番組情報や、非選局チャンネルの番組の番組情報や放送スケジュールなどを含む電子番組案内情報を取得してメモリ223もしくは記録再生部230に記録する。
 コンテンツ情報生成部402は記録再生部230に記録するコンテンツのコンテンツ情報を取得、生成しメモリ223もしくは記録再生部230に記録する。
 コンテンツ情報提供部403は他のネットワーク装置に「コンテンツ情報提供機能」を提供する。「コンテンツ情報提供機能」は映像送信装置110が他の装置に配信できる全てのコンテンツに関して、コンテンツ情報を提供する機能である。本実施例において、他の装置に提供できるコンテンツのコンテンツ情報とは、記録再生部230に記録されたコンテンツや選局中の番組の番組情報、及び、映像送信装置110が受信するデジタル放送の電子番組案内情報などである。
 コンテンツ管理部404はコンテンツの記録及び、コンテンツの送信を管理する。記録再生部210にコンテンツを記録する際には、そのコンテンツのコンテンツ情報の生成、記録をコンテンツ情報生成部402に要求する。また、コンテンツが削除されたり移動されたりした場合のコンテンツ情報の更新、コピー回数に制限があるコンテンツについてのコピー回数の管理などを行う。
 ストリーム送信部405は他の装置からの要求に従って、映像送信装置110が受信した放送番組や記録再生部230に記録した放送番組などのコンテンツをネットワーク通信処理部408を介して出力する。
 機器情報提供部406は、装置の名前や、ネットワーク上で装置を一意に識別する機器識別ID、デバイスの表示名、デバイスタイプなどの装置自身についての情報を記述した「装置情報記述」や、機器が他の装置にネットワークを介して提供するネットワーク機能のコマンド名や引数など、ネットワーク機能を利用するための情報の詳細を記述した「ネットワーク機能詳細情報記述」などを他の装置に提供する。また、装置自身がネットワークへ接続したり、ネットワークから離脱する場合にネットワーク上に通知したり、他の装置がネットワーク上の装置を探索するデバイス検索メッセージを受信した場合に、そのデバイス検索メッセージに対する応答処理を行いメッセージ解析/生成部407、ネットワーク通信処理部408を介して応答メッセージを送信する。
 メッセージ解析/生成部407は装置間で送受信される、所定の形式に従って生成された制御要求などのメッセージを解釈し、制御要求や、制御要求に対する応答を、それらを処理するソフトウェア構成要素に振り分ける。
 ネットワーク通信処理部408は、ネットワーク接続部221を制御し、ネットワークで接続された他の装置との間でコンテンツや制御メッセージを送受信する際に通信プロトコルに従って通信データの処理を行う。通信プロトコルとはHTTP GETやRTP(Real‐time Transport Protocol)などである。
 字幕ストリーム送信部409は他の装置からの要求に従って、字幕ストリーム情報を提供し、また、字幕ストリームをネットワーク通信処理部408を介して出力する。ストリーム送信部405で送信中のコンテンツに対する字幕ストリームを要求された場合は、コンテンツの出力位置(コンテンツ先頭からの再生時間)に合わせるように字幕ストリームファイルの出力開始位置を制御する。
 図5はコンテンツ表示端末120のソフトウェア構成例を示す図である。
 コンテンツ表示端末120の機能を実現する制御ソフトウェア500はコンテンツ表示端末120のメモリ223に展開され制御部222で実行される。
 制御ソフトウェア500はコンテンツ受信管理部501、ストリーム受信部502、コンテンツ情報取得部503、表示コンテンツ情報提供部504、機器情報取得部505、機器情報提供部506、メッセージ解析/生成部507、ネットワーク通信処理部508で構成される。
 コンテンツ受信管理部501はネットワークを介してコンテンツを提供する装置からのコンテンツ受信処理を管理する手段である。機器情報取得部505を介して、コンテンツを配信する映像送信装置110を探索し、映像送信装置110が提供するネットワーク機能である「コンテンツ情報提供機能」が提供するコンテンツ情報を、コンテンツ情報取得部503を介して取得し、視聴コンテンツを選択させるためのコンテンツ一覧をユーザに提示する。ユーザがコンテンツを選択したら、ストリーム受信部502に対し、選択されたコンテンツの取得を要求する。また、表示コンテンツ情報提供部504に取得を要求したコンテンツの情報を記憶させる。
 ストリーム受信部502はコンテンツのアクセス先情報に記述されたURIへアクセスし、コンテンツのストリームを取得する。取得したコンテンツのストリームはデマックス部212へ出力され分離・抽出された後、デコード部213でデコードされ音声出力部303、映像表示部304に出力される。
 コンテンツ情報取得部503はコンテンツ受信管理部501の要求により、「コンテンツ情報提供機能」が提供するコンテンツ情報を取得する。
 表示コンテンツ情報提供部504は他のネットワーク装置に「表示コンテンツ情報提供機能」を提供する。「表示コンテンツ情報提供機能」とは現在、映像表示部304に表示しているコンテンツのコンテンツ情報を提供する機能である。
 機器情報取得部505は他の装置のネットワークへの接続や離脱の通知を検知し、制御対象の装置の接続を検知した場合は、検出した装置の機器情報提供部に対し「装置情報記述」や、「ネットワーク機能詳細情報記述」を要求する要求メッセージを送信する。ホームネットワーク上の所望の制御対象装置を検索するデバイス検索要求を送信することも可能である。機器情報取得部505は「制御対象装置情報テーブル」を管理し、取得した「装置情報記述」や、「ネットワーク機能詳細情報記述」を保持する。
 「制御対象装置情報テーブル」はメモリ223に記録し、機器識別IDやデバイスタイプなどで参照できる構成とする。また、「制御対象装置情報テーブル」には、情報を記録した装置の接続の状態(接続/離脱)を示す接続状態情報と更新時刻情報(接続または離脱した日時を示す値)も記録する。機器情報取得部505は「制御対象装置情報テーブル」に記録した制御対象装置の離脱の通知を検知したら、「制御対象装置情報テーブル」の接続状態情報を離脱を示す値に更新し、更新時刻情報を離脱の通知を検知した時刻に更新する。「制御対象装置情報テーブル」に記録した装置の情報を、当該装置の離脱を検知したときに削除することで、常に制御対象の装置の最新の状態を把握することが可能となる。
 「制御対象装置情報テーブル」に記録した装置の情報は、離脱を検知したときに削除しても良いが、離脱から所定の時間(24時間など)経過した後に削除するようにしてもよい。携帯が容易なタブレット端末などは宅外に持ち出す頻度が高いため、ネットワークへの接続、離脱が頻繁に発生する。装置の離脱から所定の時間経過した後に「制御対象装置情報テーブル」から離脱した装置の情報を削除するようにすると、ネットワークへの接続を検知する度に「装置情報記述」や、「ネットワーク機能詳細情報記述」を要求するよりも、「制御対象装置情報テーブル」に保持していた情報を使うことができ、制御対象装置の認識にかかる時間を短くすることができる。
 機器情報提供部506、メッセージ解析/生成部507、ネットワーク通信処理部508はそれぞれ図4の機器情報提供部406、メッセージ解析/生成部407、ネットワーク通信処理部408と同等であるため説明を省略する。
 コンテンツ表示端末150のソフトウェア構成はコンテンツ表示端末120と同等であるため説明を省略する。
 図6は字幕表示端末130のソフトウェア構成例を示す図である。
 字幕表示端末130の機能を実現する制御ソフトウェア600は字幕表示端末130のメモリ223に展開され制御部222で実行される。
 制御ソフトウェア600はコンテンツ受信管理部601、ストリーム受信部602、コンテンツ情報取得部603、表示コンテンツ情報取得部604、機器情取得供部605、機器情報提供部606、メッセージ解析/生成部607、ネットワーク通信処理部608、字幕受信操作部609で構成される。
 表示コンテンツ情報取得部604は字幕受信操作部609の要求により、「表示コンテンツ情報提供機能」が提供する表示コンテンツ情報を取得する。字幕受信操作部609はネットワーク上のコンテンツ表示端末120で表示しているコンテンツの字幕を取得し映像表示部304に表示する。
 コンテンツ受信管理部601、ストリーム受信部602、コンテンツ情報取得部603、機器情報取得部605はそれぞれ図5のコンテンツ受信管理部501、ストリーム受信部502、コンテンツ情報取得部503、機器情報取得部505と同等であるため説明を省略する。
 機器情報提供部606、メッセージ解析/生成部607、ネットワーク通信処理部608はそれぞれ図4の機器情報提供部406、メッセージ解析/生成部407、ネットワーク通信処理部408と同等であるため説明を省略する。
 次に、コンテンツ表示端末120に表示しているコンテンツの字幕を字幕表示端末130で表示する方法について図7のフローチャートを用いて説明する。図7は本実施例における字幕表示の処理フローの一例を示す図である。
 始めに、字幕表示端末130の字幕受信操作部609は、機器情報取得部605に対し、機器探索を要求しネットワーク上のコンテンツ表示端末を探索する。ネットワーク上の表示端末は、ネットワーク上に探索対象を指定した探索メッセージをマルチキャストで送信することにより探索できる。
 字幕表示端末130の機器情報取得部605は、ネットワーク上のコンテンツ表示端末の機器情報提供部506から送信された探索メッセージへの応答によってネットワーク上の表示端末の「装置情報記述」や、「ネットワーク機能詳細情報記述」を取得し、字幕表示端末130のメモリ223に記録する。「装置情報記述」には機器識別ID、デバイスの表示名、デバイスタイプなどの情報が含まれる。字幕表示端末130の字幕受信操作部609はこれらの情報を用いて、コンテンツ表示端末の一覧をユーザに提示するUI(User Interface)画面を生成し、字幕表示端末130の映像表示部303に表示する(S701)。そして、字幕ストリームを取得する対象となるコンテンツを表示している装置を選択させる(S702)。
 以下、ユーザが選択したコンテンツ表示端末をコンテンツ表示端末120として説明する。ユーザが装置を選択すると、字幕表示端末130の字幕受信操作部609は、コンテンツ表示端末120で表示しているコンテンツの情報を取得するため、表示コンテンツ情報取得部604へコンテンツ表示端末120の「表示コンテンツ情報」の取得を要求する(S703)。「表示コンテンツ情報」はコンテンツ識別子、字幕ストリーム配信可能フラグ、字幕ストリーム情報取得先URI(Uniform Resource Identifier)などの情報を含む。
 「表示コンテンツ情報」の取得を要求されたコンテンツ表示端末120の表示コンテンツ情報提供部504は、コンテンツ表示端末120で表示端末で表示されているコンテンツの情報を「表示コンテンツ情報」として送信し、字幕表示端末130の表示コンテンツ情報取得部604が取得する。字幕受信操作部609は、表示コンテンツ情報取得部604が取得した「表示コンテンツ情報」の字幕ストリーム配信可能フラグからコンテンツの字幕ストリームが取得可能かを判断する(S704)。字幕ストリーム配信可能フラグの値が配信不可(FALSE)を示す場合は字幕取得表示の処理を終了する。
 配信可能(TRUE)を示す場合、字幕受信操作部609は表示コンテンツ情報に含まれる字幕ストリーム情報取得先のURIにアクセスして「字幕ストリーム情報」を得る(S705)。「字幕ストリーム情報」はコンテンツ識別子、配信可能な字幕言語のリスト、字幕ストリーム取得先URIなどの情報を含み、例えばコンテンツ表示端末120で表示しているコンテンツの送信元である映像送信装置110の字幕ストリーム送信部409から取得する。但し、例えばコンテンツと当該コンテンツの字幕情報とが別のサーバに記録されている場合など、必ずしもコンテンツ表示端末120で表示しているコンテンツの送信元である映像送信装置110から字幕ストリーム情報を取得するわけではなく、字幕情報を記録したサーバが存在する場合、その字幕情報を記録したサーバの字幕ストリーム記録一が字幕ストリーム情報取得先のURIとなる。
 字幕表示端末130の字幕受信操作部609は「字幕ストリーム情報」から、取得可能な字幕言語の一覧をユーザに提示するUI画面を生成し、映像表示部303に表示する(S706)。そして、取得する字幕ストリームの言語を選択させる(S707)。
 ユーザが言語を選択すると、字幕受信操作部609は、選択された言語に対応する字幕ストリームの取得をストリーム受信部602に要求する(S708)。ストリーム受信部602は選択された言語に対応する字幕ストリームに対応する字幕ストリーム取得先URIへ所望の字幕ストリームを要求する。この要求を受けた映像送信装置110は、要求に対応する字幕ストリームを字幕ストリーム送信部409から字幕ストリームを送信し、字幕表示端末130のストリーム受信部602は送信された字幕ストリームを取得する。字幕ストリームはデコードされ、字幕表示端末130の映像表示部304に表示される(S709)。なお、例えばコンテンツと当該コンテンツの字幕情報とが別のサーバに記録されている場合は、字幕情報が記録されているサーバから字幕ストリームを取得する。
 ここで、コンテンツ表示端末の探索する探索メッセージと応答メッセージについて説明する。図8(a)は表示端末を探索する探索メッセージの一例を示す図である。図8(b)は探索索メッセージに対する応答メッセージの一例を示す図である。図8(a)、図8(b)において各行の先頭に記した800番代の数字は説明のための行番号である。図8(a)、図8(b)は、探索メッセージをHTTP(HyperText Transfer Protocol)のリクエストメッセージ、探索メッセージに対する応答メッセージをHTTPのレスポンスメッセージとした場合を示している。
 図8(a)の探索メッセージについて説明する。
 800行はHTTPリクエストメッセージのリクエスト行である。「M-SEARCH」はこのメッセージが探索要求であることを示し、「HTTP/1.1」はHTTPのバージョンを表す。801行から805行はヘッダフィールドである。801行の「HOST」フィールドにはメッセージの送出先をIPアドレスとポート番号で指定する。本例ではネットワーク上の全てのコンテンツ表示端末を探索するため、マルチキャストメッセージのアドレス(239.255.255.250)とポート番号(1900)を指定している。802行の「MAN」フィールドはHTTPの拡張を示す。”ssdp:discover”はUPnP(登録商標)の探索プロトコルにSSDP(Simple Servece Discovery Protocol)の探索(discover)を利用していることを表す。803行の「MX」フィールドには応答の最大待ち時間(秒)を指定する。804行の「ST」フィールドは探索対象を指定するフィールドである。本例では、”コンテンツ表示端末”と指定している。この「ST」フィールドに指定する値によって所定の機能を備えた装置を探索したり、ネットワークに接続された全ての装置を探索したり、特定の装置を探索したりできる。例えば、全ての装置を探索する場合は、”ssdp:all”と設定する。
 805行の「USER-AGENT」フィールドはOS(Operating System)の名前やバージョン、UPnPのバージョンなどの情報を記述するフィールドである。
 図8(b)の探索メッセージに対する応答メッセージについて説明する。
 810行はHTTPレスポンスメッセージのレスポンス行である。「HTTP/1.1」はHTTPのバージョンを表す。「200 OK」はこのレスポンスメッセージの状態を示すステータスコードである。「200 OK」は送信したリクエストが成功し、811行から815行のヘッダフィールドに正しい応答が入っていることを示す。
 811行の「CACHE-CONTROL」フィールドは、この応答メッセージの有効期限を示すもので、有効期間を示す数値(秒)を指定する。本実施例では1800秒(30分)と指定している。
 812行の「DATE」フィールドはこの応答メッセージが生成された時間である。
 813行の「EXT」フィールドは805行で指定されたUPnPバージョンの下位互換性があること示すものである。「EXT」フィールドはフィールド名のみでフィールド値は持たない。
 814行の「LOCATION」フィールドは応答メッセージを偏した装置の「装置情報記述」の取得先を示す機器情報のURLを記述するフィールドである。機器情報取得部605は「LOCATION」フィールドに示されたURLから「装置情報記述」を取得する。「装置情報記述」はその装置の固有情報として、デバイスタイプ、装置の名称、製造メーカの名前、装置のモデル名、機器識別ID、バージョン、装置が提供するネットワーク機能の一覧情報などを持つ。ネットワーク機能の一覧情報は、それぞれのネットワーク機能の詳細情報の取得先を示す「ネットワーク機能詳細情報記述取得先URL」情報を含む。機器情報取得部605は「ネットワーク機能詳細情報記述取得先URL」にアクセスし「ネットワーク機能詳細情報記述」を取得することで、ネットワーク機能を利用するための制御コマンドや制御コマンドの引数の情報を取得することができる。
 815行の「SERVER」フィールドはOS(Operating System)の名前やバージョン、UPnPのバージョンなどの情報を記述するフィールドである。
 816行の「ST」フィールドは探索対象を指定するフィールドである。応答メッセージではリクエストメッセージの「ST」フィールド(804行)に指定された値を挿入する。
 817行の「USN」フィールドはUPnPネットワークで装置を一意に特定するユニークサービス名を記述するフィールドである。
 ここで「表示コンテンツ情報」について説明する。「表示コンテンツ情報」はコンテンツ表示端末120の表示コンテンツ情報提供部504が提供する情報で、コンテンツ表示端末120に表示中のコンテンツ、すなわち、コンテンツ表示端末120の映像表示部304に出力しているコンテンツの情報を提供する。
 図9は他の装置からの要求に応じて表示コンテンツ情報提供部504が生成し、出力する「表示コンテンツ情報」の一例を示す図である。ここでは、「表示コンテンツ情報」としてコンテンツを一意に特定する「識別子」、コンテンツの「タイトル名」、コンテンツの字幕ストリームを配信可能か否かを示す「字幕ストリーム配信可能フラグ」、字幕ストリームに関する情報の取得先を示す「字幕ストリーム情報取得先URI」を提供している場合を例に説明する。また、図9ではマークアップ言語のひとつであるXML(eXtensible Markup Language)で「表示コンテンツ情報」を記述した例を示したものである。
 900行の<item>から905行</item>までが「表示コンテンツ情報」である。<item>タグはid属性を持つ。id属性はコンテンツを一意に特定する「識別子」を示す。<item>は要素タグとして<class>、<title>、<captionESAvailable>、<captionESInfoURI>を持つ。
 901行の<class>タグは<item></item>で囲まれた部分に記述された情報が何であるかを示すものである。object.item.currentVideoItemは「表示コンテンツ情報」が記述されていることを表す。
 902行の<title>タグはコンテンツの「タイトル名」を示す。
 903行の<captionESAvailable>タグは「字幕ストリーム配信可能フラグ」を示す。”1”は字幕ストリームを配信できることを示す。配信できない場合は”0”が挿入される。
 904行の<captionESInfoURI>は「字幕ストリーム情報」の取得先URI「字幕ストリーム情報取得先URI」を示す。<captionESAvailable>タグの値が”1”の場合にのみ挿入される。字幕受信操作部609は<captionESInfoURI>に記述された「字幕ストリーム情報取得先URI」にアクセスし「字幕ストリーム情報」を取得する。
 ここで「字幕ストリーム情報」について説明する。
「字幕ストリーム情報」は映像送信装置110の字幕ストリーム送信部504が提供する情報で、映像送信装置110が配信するコンテンツの字幕ストリームに関する情報を提供する。
 図10は他の装置からの要求に応じて字幕ストリーム送信部409が生成し、出力する「字幕ストリーム情報」の一例を示す図である。ここでは、「字幕ストリーム情報」としてコンテンツを一意に特定する「識別子」、コンテンツの「タイトル名」、コンテンツが提供できる「字幕ストリームの一覧情報」を提供している場合を例に説明する。字幕ストリームの一覧情報は字幕ストリームの言語情報と字幕ストリーム取得先URI情報を持つ。
図9と同様XMLで記述した場合を例に説明する。
 1000行の<item>から1008行</item>までが「字幕ストリーム情報」である。<item>タグはid属性を持つ。id属性はコンテンツを一意に特定する「識別子」を示す。<item>は要素タグとして<class>、<title>、<captionESList>を持つ。<captionESList>は要素タグとして提供可能な字幕ストリームの数の分だけ<captionESURI>を持つ。
 1001行の<class>タグは<item></item>で囲まれた部分に記述された情報が何であるかを示すものである。object.item.VideoCaptionItemは「字幕ストリーム情報」が記述されていることを表す。
 1002行の<title>タグはコンテンツの「タイトル名」を示す。
 1003行の<captionESList>から1007行</captionESList>までが「字幕ストリームの一覧情報」である。1004行から1006行に示すように提供可能な字幕ストリームの数の分だけ<captionESURI>タグを要素に持ち各字幕ストリームの言語情報と字幕ストリーム取得先URI情報を提供する。字幕ストリームの言語情報は<captionESURI>タグのlang属性に記述される。本例ではISO_639_langauage_codeおよびISO_639_langauage_code2で言語を表している。
 字幕受信操作部609は<captionESList>に記述された<captionESURI>タグのlang属性から、取得可能な字幕ストリームの言語情報を取得しのユーザに字幕ストリームを選択させるUI画面を提示する。
 図11は字幕受信操作部609が生成する字幕ストリーム選択させるUI画面の一例を示す図である。
 1101はコンテンツの「タイトル名」で「字幕ストリーム情報」の<title>タグから取得した値を表示する。1111、1112、1113はコンテンツが提供できる字幕ストリームの言語を一覧表示である。「字幕ストリーム情報」の<captionESList>タグの要素として列挙された<captionESURI>タグのlang属性の情報をもとに生成する。本例では1112の英語字幕が選択されている様子を示している。
 図12にlang属性に記載された言語コード(ISO_639_langauage_codeおよびISO_639_langauage_code2)とUI画面への言語名の表示例を示す。
 図13に字幕表示端末130への字幕表示例を示す。
 1301がコンテンツ表示端末120の映像表示部303に表示されている画面で、1302は字幕表示端末130の映像表示部303に表示されている画面である。
 1301はコンテンツ表示端末120でコンテンツを字幕非表示で日本語音声で再生中であることを示している。1311が音声出力部304に出力されている日本語音声である。そして、1312は選択された英語字幕ストリームの表示である。1313は表示する字幕の言語を変更する字幕変更ボタンである。字幕変更ボタンはGUIで表示する。図13では1つの言語の字幕を表示しているが、英語と日本語など複数の言語の字幕を表示してもよい。
 以上により、本実施例ではコンテンツを表示している表示端末以外の端末で表示中のコンテンツの字幕を選択し、所望の字幕ストリームを取得し表示することが可能になる。ユーザは、字幕を表示する字幕表示端末130を操作し、コンテンツ表示端末120に表示されているコンテンツの字幕情報を取得し、表示する字幕の言語を選択できるため使い勝手が良い。
 また、映像送信装置110はストリーム送信部405で送信中のコンテンツに対する字幕ストリームを要求された場合は、コンテンツの出力位置(コンテンツ先頭からの再生時間)に合わせるように字幕ストリームファイルの出力開始位置を制御する。このため、字幕表示端末130は字幕ストリームファイルの取得位置を指定しなくてもコンテンツと同期した字幕ストリームを取得できる。
 なお、本実施例では、字幕ストリームを表示する字幕表示端末130が1台の場合で説明したが複数台あっても構わない。この場合は、字幕表示端末130毎に、所望の字幕ストリームを選択し表示することができる。したがって、母国語が異なる複数のユーザが視聴している場合も、それぞれのユーザに適した字幕を提供することができる。
 なお、本実施例では字幕ストリームについて説明したが、音声ストリームで同等の機能を提供しても良い。
 音声ストリームで本機能を提供する場合は、実施例にて字幕ストリームと記述した部分を音声ストリームと置き換える。音声ストリームで本機能を提供した場合は、例えば、DTV120で日本語音声でコンテンツを再生し、タブレット端末130には英語音声を出力することができる。家族で同じコンテンツを視聴している場合など、DTV120では子供向けに日本語音声で再生し、大人は英語音声を、タブレット端末130で聞くといった使い方ができる。
 また、本実施例では字幕ストリームについて説明したが、字幕ストリームに加えて、音声ストリームを配信するように構成しても良い。
 字幕ストリームと音声ストリームとの両方を配信する場合は、実施例にて字幕ストリームと記述した部分を字幕ストリーム及び音声ストリームと置き換える。字幕ストリームに加えて音声ストリームを配信する場合は、例えば、DTV120で日本語音声でコンテンツを再生し、タブレット端末130には英語字幕及び英語音声を出力することができる。家族で同じコンテンツを視聴している場合など、DTV120では子供向けに日本語音声で再生し、大人は英語字幕及び英語音声を、タブレット端末130で見聞きするといった使い方ができる。
 また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
 また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
1   ルータ
2   外部ネットワーク
3   外部サーバ
110 レコーダ(映像送信装置)
120、150 デジタルテレビ(DTV)(コンテンツ表示端末)
130 タブレット端末(字幕表示端末)
140 サーバ
201 アンテナ接続端子
202 ネットワーク端子
203 操作信号受信部
204 出力端子
205 システムバス
210 チューナ部
211 復調復号部
212 デマックス部
213 デコード部
214 合成部
215 OSD部
216 出力I/F部
221 ネットワーク接続部
222 制御部
223 メモリ
214 操作I/F部
225 限定受信I/F部
226 限定受信情報記憶部
230 記録再生部
310 入力端子
303 映像表示部
304 音声出力部
301、302 スイッチ
400、500 制御ソフトウェア
401 番組情報生成部
402 コンテンツ情報生成部
403 コンテンツ情報提供部
404 コンテンツ管理部
405 ストリーム送信部
406、506、606 機器情報提供部
407、507、607 メッセージ解析/生成部
408、508、608 ネットワーク通信処理部
409 字幕ストリーム送信部
501、601 コンテンツ受信管理部
502、602 ストリーム受信部
503、603 コンテンツ情報取得部
505、605  機器情報取得部
504 表示コンテンツ情報提供部

Claims (13)

  1.  映像信号を送信する映像送信装置と、前記映像送信装置から送信される映像信号を受信して表示する表示装置と、前記映像送信装置から字幕情報を受信して表示する字幕表示装置とがネットワークを介して接続されている映像表示システムにおける映像表示方法であって、
     前記表示装置で表示しているコンテンツの情報を要求するステップと、
     前記表示装置で表示しているコンテンツの情報を送信するステップと、
     送信されたコンテンツの情報を取得するステップと、
     取得したコンテンツの情報に基づいて字幕情報の送信を要求するステップと、
     要求された字幕情報を送信するステップと、
     送信された字幕情報を取得するステップと、
     取得した字幕情報を表示するステップと、
     を有することを特徴とする映像表示方法。
  2.  映像信号を送信する映像送信装置と、前記映像送信装置から送信される映像信号を受信して表示する表示装置と、前記映像送信装置から字幕情報を受信して表示する字幕表示装置とがネットワークを介して接続されている映像表示システムにおける映像表示方法であって、
     前記字幕表示装置が前記表示装置で表示しているコンテンツの情報を要求するステップと、
     当該表示装置で表示しているコンテンツの情報を送信するステップと、
     送信されたコンテンツの情報を前記字幕表示装置が取得するステップと、
     前記字幕表示装置が、取得したコンテンツの情報に基づいて字幕情報の送信を要求するステップと、
     要求された字幕情報を送信するステップと、
     前記字幕表示装置が送信された字幕情報を取得するステップと、
     前記字幕表示装置が取得した字幕情報を表示するステップと、
     を有することを特徴とする映像表示方法。
  3.  請求項2の映像表示方法であって、
     前記字幕表示装置が当該コンテンツの字幕に関する字幕関連情報を要求するステップと、
     前記映像送信装置が字幕関連情報を送信するステップと、
     前記字幕表示装置が送信された字幕関連情報を取得するステップと、
     前記字幕表示装置が取得した字幕関連情報に基づいて表示可能な字幕情報を表示するステップと、を有し、
     前記字幕表示装置は、表示された字幕情報から選択された字幕情報の送信を要求することを特徴とする映像表示方法。
  4.  請求項2の映像表示方法であって、前記映像送信装置は、前記表示装置へ送信しているコンテンツの再生位置に対応する字幕情報を前記字幕表示装置へ送信することを特徴とする映像表示方法。
  5.  請求項2の映像表示方法であって、
     前記字幕表示装置が取得したコンテンツの情報から字幕情報の配信が可能か否かを判定するステップと、を有することを特徴とする映像表示方法。
  6.  請求項2の映像表示方法であって、
     前記字幕関連情報は字幕の言語に関する情報を含み、
     前記字幕表示装置は、取得した字幕関連情報に含まれる字幕の言語に関する情報に基づいて表示可能な字幕情報の言語を表示することを特徴とする映像表示方法。
  7.  字幕情報を表示する字幕表示装置であって、
     ネットワークを介して取得した字幕情報を表示する表示部を有し、
     前記ネットワークを介して表示装置で表示しているコンテンツの情報を取得し、
     取得したコンテンツの情報に基づいて当該コンテンツの字幕情報を取得し前記表示部で表示することを特徴とする字幕表示装置。
  8.  請求項7の字幕表示装置であって、
     字幕に関する字幕関連情報を前記ネットワークを介して取得し、
     取得した字幕関連情報に基づいて表示可能な字幕情報を前記表示部に表示し、
     前記表示部に表示された表示可能な字幕情報から選択された字幕情報を取得し前記表示部で表示することを特徴とする字幕表示装置。
  9.  請求項7の字幕表示装置であって、
     前記ネットワーク接続部を介して取得したコンテンツの情報から字幕情報の配信が可能か否かを判定することを特徴とする字幕表示装置。
  10.  請求項7の字幕表示装置であって、
     前記字幕関連情報は字幕の言語に関する情報を含み、
     前記ネットワーク接続部を介して取得した字幕関連情報に含まれる字幕の言語に関する情報に基づいて、表示可能な字幕情報の言語を前記表示部に表示することを特徴とする字幕表示装置。
  11.  映像信号を表示装置へ送信する映像送信装置であって、
     前記表示装置へ映像信号を送信する送信部を有し、
     ネットワークを介して前記送信部から送信する映像信号に対応する字幕に関する字幕関連情報を字幕表示装置へ送信し、
     前記ネットワークを介して前記送信部から送信する映像信号に対応する字幕情報を送信することを特徴とする映像送信装置。
  12.  請求項11の映像送信装置であって、
     前記送信部から前記表示装置へ送信しているコンテンツの再生位置に対応する字幕情報を、前記ネットワーク接続部を介して前記字幕表示装置へ送信することを特徴とする映像送信装置。
  13.  請求項11の映像送信装置であって、
     前記字幕関連情報は字幕の言語に関する情報を含み、
     前記字幕表示装置により指定された言語の字幕情報を前記ネットワーク接続部を介して前記字幕表示装置へ送信することを特徴とする映像送信装置。
PCT/JP2012/067880 2012-07-13 2012-07-13 映像送信方法、字幕表示装置、及び映像送信装置 WO2014010069A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/067880 WO2014010069A1 (ja) 2012-07-13 2012-07-13 映像送信方法、字幕表示装置、及び映像送信装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/067880 WO2014010069A1 (ja) 2012-07-13 2012-07-13 映像送信方法、字幕表示装置、及び映像送信装置

Publications (1)

Publication Number Publication Date
WO2014010069A1 true WO2014010069A1 (ja) 2014-01-16

Family

ID=49915571

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/067880 WO2014010069A1 (ja) 2012-07-13 2012-07-13 映像送信方法、字幕表示装置、及び映像送信装置

Country Status (1)

Country Link
WO (1) WO2014010069A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015173444A (ja) * 2014-02-21 2015-10-01 日本放送協会 受信機
JP2017005751A (ja) * 2014-03-28 2017-01-05 株式会社インフォシティ 放送コンテンツ再生装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002262246A (ja) * 2001-03-05 2002-09-13 Mitsubishi Electric Corp 出力情報制御装置及び出力情報制御方法
JP2005515510A (ja) * 2001-12-24 2005-05-26 サイエンティフィック ジェネリクス リミテッド キャプション・システム
JP2006303936A (ja) * 2005-04-21 2006-11-02 Matsushita Electric Ind Co Ltd コンテンツデータ、受信装置、生成装置および送信装置
JP2008118664A (ja) * 1997-10-07 2008-05-22 Masanobu Kujirada 時間軸関連型の複数連携型表示システム
JP2009130876A (ja) * 2007-11-28 2009-06-11 Hitachi Ltd 端末連携継続視聴システム、端末、サーバ、方法
JP2010068016A (ja) * 2008-09-08 2010-03-25 Q-Tec Inc 映画・字幕同期表示システム
JP2010263636A (ja) * 2010-06-16 2010-11-18 Sony Corp 情報処理装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008118664A (ja) * 1997-10-07 2008-05-22 Masanobu Kujirada 時間軸関連型の複数連携型表示システム
JP2002262246A (ja) * 2001-03-05 2002-09-13 Mitsubishi Electric Corp 出力情報制御装置及び出力情報制御方法
JP2005515510A (ja) * 2001-12-24 2005-05-26 サイエンティフィック ジェネリクス リミテッド キャプション・システム
JP2006303936A (ja) * 2005-04-21 2006-11-02 Matsushita Electric Ind Co Ltd コンテンツデータ、受信装置、生成装置および送信装置
JP2009130876A (ja) * 2007-11-28 2009-06-11 Hitachi Ltd 端末連携継続視聴システム、端末、サーバ、方法
JP2010068016A (ja) * 2008-09-08 2010-03-25 Q-Tec Inc 映画・字幕同期表示システム
JP2010263636A (ja) * 2010-06-16 2010-11-18 Sony Corp 情報処理装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015173444A (ja) * 2014-02-21 2015-10-01 日本放送協会 受信機
JP2017005751A (ja) * 2014-03-28 2017-01-05 株式会社インフォシティ 放送コンテンツ再生装置
JP2018125869A (ja) * 2014-03-28 2018-08-09 株式会社インフォシティ 放送コンテンツ再生装置および情報端末を利用した情報提供システム

Similar Documents

Publication Publication Date Title
US9118950B2 (en) Broadcast receiving apparatus, playback apparatus, broadcast communication system, broadcast receiving method, playback method, and program
US11716497B2 (en) Control system for playing a data stream on a receiving device
KR101464839B1 (ko) 콘텐트 분배 방법 및 시스템
JP5763170B2 (ja) ホームエンターテイメントネットワークについてのネットワーク装置
JP2009543201A (ja) ローカル・ユーザ・インターフェースの、リモートで生成されたユーザ・インターフェースおよびメディアとの組合せ構成
US9544658B2 (en) Video signal transmission/reception method, display device, and decoding device
TW200803490A (en) Content output system, information display apparatus, content output apparatus, and content information display method
JP2009200788A (ja) 受信装置
TWI559756B (zh) 傳送至具有含或不含網路存取之多重可攜式裝置之數位電視接收器的內容同步系統
US20120180095A1 (en) Transmitter and transmission method
WO2014010069A1 (ja) 映像送信方法、字幕表示装置、及び映像送信装置
US20080022334A1 (en) Communication apparatus
JP2007184899A (ja) ウェブサービス技術を支援するa/vネットワークにおけるコンテンツ再生時の字幕表示方法及びその装置
JP2009010898A (ja) 録画装置および放送受信装置
JP2014022903A (ja) 番組情報送信装置、番組情報受信装置および番組情報送信方法
KR100678902B1 (ko) A/v 홈 네트워킹을 위한 디지털 tv 프록시 장치 및상기 장치를 포함하는 네트워크 시스템
US20120131620A1 (en) Control apparatus and control method
JP2012114606A (ja) 制御装置及び制御方法
JP6089969B2 (ja) デジタル放送受信装置
KR20120057028A (ko) 서비스 제공자로부터 광고 컨텐츠를 제공/수신하기 위한 방법 및 그 방법을 이용한 시스템 및 장치
WO2013061364A1 (ja) 映像信号の送受信方法、表示装置、及び送信装置
JP2022002408A (ja) 放送受信装置及びコンテンツ出力方法
JP2015115935A (ja) 放送受信装置、放送受信方法
JP2012065059A (ja) 送信装置、受信装置及び送信方法
JP2013070199A (ja) 番組情報送信装置、番組情報受信装置および番組情報送信方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12880760

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12880760

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP