WO2013021656A1 - 再生装置、再生方法、集積回路、放送システム、及び放送方法 - Google Patents

再生装置、再生方法、集積回路、放送システム、及び放送方法 Download PDF

Info

Publication number
WO2013021656A1
WO2013021656A1 PCT/JP2012/005088 JP2012005088W WO2013021656A1 WO 2013021656 A1 WO2013021656 A1 WO 2013021656A1 JP 2012005088 W JP2012005088 W JP 2012005088W WO 2013021656 A1 WO2013021656 A1 WO 2013021656A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
image
broadcast
stream
frame image
Prior art date
Application number
PCT/JP2012/005088
Other languages
English (en)
French (fr)
Inventor
泰治 佐々木
洋 矢羽田
智輝 小川
上坂 靖
和寛 持永
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to JP2013505237A priority Critical patent/JP5979499B2/ja
Priority to CN201280003152.6A priority patent/CN103125123B/zh
Priority to US13/824,581 priority patent/US8773584B2/en
Priority to EP12821943.3A priority patent/EP2744197A4/en
Publication of WO2013021656A1 publication Critical patent/WO2013021656A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234318Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/631Multimode Transmission, e.g. transmitting basic layers and enhancement layers of the content over different transmission paths or transmitting with different error corrections, different keys or with different transmission protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/06Systems for the simultaneous transmission of one television signal, i.e. both picture and sound, by more than one carrier
    • H04N7/063Simultaneous transmission of separate parts of one picture

Definitions

  • the present invention relates to a technique for combining a video received by broadcast waves and a video received using a network and displaying them as one video.
  • Non-Patent Document 1 receives a broadcast program transmitted by broadcast waves and a content transmitted via a network by a receiver, synchronizes, A technique of synthesizing and presenting (“Hybridcast (registered trademark)”) is disclosed.
  • a receiver receives a broadcast video transmitted by broadcasting and an additional video transmitted via a network, and combines the broadcast video on the right and the additional video on the left.
  • a video By displaying as a video, it is possible to display a video having a wider video transmitted by broadcast waves.
  • legacy receiver since a receiver that does not support the above-described technology (hereinafter referred to as “legacy receiver”) can receive and display only video transmitted by broadcast waves, compatibility with the legacy receiver can be ensured.
  • the broadcast video is also reproduced by the legacy receiver, and is often a high-importance video in which a high-priority subject is reflected as a subject.
  • the broadcast video is a video in which the area around the soccer ball is roughly reflected.
  • the content of the additional video is determined from a fixed relative position to the broadcast video, for example, a video arranged on the left side of the broadcast video, and may become a video with low importance.
  • the broadcast video is a video around the goal on the left side when viewed from the viewer
  • the additional video is only the audience seat on the left side of the goal on the left side when viewed from the viewer. This is a case where
  • the present invention has been made in view of such a problem, and even when an arbitrary video that is not a video determined from a fixed relative position to the broadcast video is used as the additional video, the broadcast video and the additional video are combined. It is an object of the present invention to provide a playback apparatus that can generate and display one combined video.
  • a playback device is a playback device that plays back an original video, and is a broadcast image obtained by extracting an arbitrary portion of each frame image in a group of frame images constituting the original video.
  • First receiving means for acquiring broadcast video comprising a group from broadcast waves;
  • second receiving means for receiving additional video comprising a remaining image group other than the extracted portion of each frame image in the frame image group;
  • arrangement information acquisition means for acquiring arrangement information indicating the arrangement of the broadcast image and the remaining image in each frame image, and the broadcast image group and the remaining image group are arranged based on the arrangement information.
  • a reproducing means for generating and displaying the frame image group.
  • the playback apparatus can play back an original video using a broadcast video and an additional video that is an arbitrary video that is not a video determined from a fixed relative position of the broadcast video. .
  • video The figure which shows an example of video arrangement
  • regenerating apparatus Flowchart showing the procedure of video playback processing by the playback device
  • positioning setting data The figure shown about the division
  • positioning setting data The figure shown about the division
  • regeneration of a broadcast image and an additional image are shared by several apparatuses.
  • the figure which shows the structure of the digital stream of a MPEG-2 transport stream format The figure which shows how a video stream is stored in a PES packet sequence.
  • the figure which shows the reference relation of the picture of the video stream Diagram showing the hierarchical structure of the video stream Diagram showing the configuration of the video access unit Diagram for explaining cropping area Diagram for explaining cropping area Diagram showing data structure of TS packet Diagram showing data structure of PMT Diagram for explaining the case of simply combining broadcast video and additional video
  • the block diagram which shows the structure of the system which concerns on the modification of this invention The block diagram which shows the structure of the reproducing
  • the content broadcast reception system includes a broadcast system and a playback device.
  • the broadcast system transmits content by broadcasting (hereinafter, content transmitted by broadcasting is referred to as “broadcast content”), and transmits content related to the broadcast content (hereinafter referred to as “additional content”) by network communication.
  • broadcast content content transmitted by broadcasting
  • additional content content related to the broadcast content
  • video is used as an example of content. That is, the broadcast content is a broadcast video, and the additional content is an additional video.
  • the playback device receives broadcast video and additional video, combines them, and plays them.
  • the content broadcast receiving system is designed for compatibility with a playback device (legacy device) that does not have the function of receiving and playing back additional video. That is, the broadcast system transmits broadcast video in a format that can be received and played back by the legacy device.
  • a playback device legacy device
  • the subject in FIG. 32 is a soccer field where a soccer game is held.
  • the “soccer ball” has the highest importance as a subject, and then “advertising” is the second highest due to the relationship of sponsors and the like.
  • this is only an example, and the present invention is not limited to this.
  • FIG. 32A schematically shows a case where the video 3211 is generated by simply combining the additional video 3202 on the left side of the broadcast video 3201.
  • Broadcast video 3201 reflects the scenery around the most important soccer ball.
  • the video 3211 shows the scenery around the soccer ball with the highest importance and the entire advertisement 3206 as the subject with the second highest importance.
  • the scenery around the soccer ball with the highest importance is shown as the broadcast video 3203.
  • the additional video 3204 the landscape on the left side of the broadcast video 3203 is displayed. Then, in the playback device, the broadcast video 3203 and the additional video 3204 are combined to play a video such as the video 3212.
  • the present invention eliminates inconveniences (for example, the second most important subject cannot be displayed) caused by the fact that only video determined from a fixed relative position to the broadcast video can be used as the additional video. is there.
  • an ultra-wide video 310 is captured as an original video, and an arbitrary range of video is selected as a broadcast video 311 from the ultra-wide video 310 and transmitted as a broadcast stream.
  • the ultra-wide video is a video obtained by shooting a video having a wider and higher resolution than a video broadcast using a broadcast wave.
  • the remaining video 312 from which the broadcast video 311 is extracted and the additional video 320 generated by combining the video 313 are transmitted as an additional stream via the network.
  • an additional video other than a video determined from a fixed relative position to the broadcast video.
  • the playback apparatus side can generate and display an ultra-wide video 310 from the broadcast video 311 and the additional video 320.
  • FIG. 1 is a block diagram showing a configuration of the broadcast system 100.
  • the broadcast system 100 includes a wide video photographing unit 101, a video separation unit 102, a video arrangement unit 103, a broadcast stream creation unit 104, and an additional stream creation unit 105.
  • the broadcast system 100 includes a processor and a memory, and the functions of the wide video photographing unit 101, the video separation unit 102, the video arrangement unit 103, the broadcast stream creation unit 104, and the additional stream creation unit 105 are as follows. This is realized by the processor executing the program stored in the memory.
  • the wide video photographing unit 101 is composed of a video camera that shoots an ultra-wide video having a wider and higher resolution than a video broadcast using a broadcast wave. Output.
  • the broadcast wave image is a full HD image having a horizontal 1920 pixel ⁇ vertical 1080 pixel number
  • the ultra-wide image has a horizontal 3820 pixel ⁇ 1080 vertical pixel number. It is assumed that the video has.
  • the video separation unit 102 receives video data related to an ultra-wide video from the wide video shooting unit 101, and separates the ultra-wide video into a video (hereinafter referred to as “broadcast video”) transmitted by a broadcast wave and another video.
  • a broadcast video hereinafter referred to as “broadcast video”
  • video separation function Function
  • the video separation function is realized by separating the frame image into a plurality of images for each frame image constituting the video.
  • the video separation function consists of a selection range acquisition function and an image separation function.
  • 3 is an image having a width of c pixels and a height of d pixels.
  • the video separation unit 102 acquires designation of a range to be transmitted as broadcast video (hereinafter referred to as “selection range”) in the ultra-wide video 310.
  • selection range is specified by the user operating an input device (not shown) such as a remote controller.
  • the selection range is shown in a rectangular portion surrounded by a wavy line in the ultra-wide video 310.
  • the selection range is a range surrounded by a rectangle whose upper left corner has a coordinate (a, 0), a width (ba), and a height d.
  • coordinates such as (x, y) may be indicated for video, images, etc., but these coordinates indicate the position of the pixel with the upper left corner of the video, image as the origin (0, 0). Yes.
  • the video separation unit 102 extracts the video 311 within the selected range from the ultra-wide video 310.
  • the video 311 is a rectangular video having a width ba and a height d.
  • the video separation unit 102 obtains the remaining video 312 and the video 313 as a result of extracting the video 311 from the ultra-wide video 310.
  • the video separation unit 102 outputs selection range information indicating the selection range to the video placement unit 103.
  • the selection range information includes the coordinates of the upper left corner of the selection range in the wide image, the width of the selection range, and the height of the selection range.
  • the video layout unit 103 has a video layout function.
  • the video layout function consists of an additional video generation function and a video layout setting data generation function.
  • the additional video generation function is a function for generating a video to be transmitted by communication as an additional video from the remaining video after the broadcast video is separated from the ultra-wide video by the video separation unit 102. .
  • the remaining video may be one or more.
  • the video separation unit 102 generates the video 320 by combining the video 312 and the video 313 that are not transmitted by broadcast waves.
  • the image 312 is a rectangular image in which the coordinates of the upper left corner point are (0, 0), the width is a, and the height is d.
  • the video 313 is a rectangular video in which the coordinates of the upper left corner point are (b, 0), the width is c ⁇ b, and the height is d.
  • the additional video 320 is a combination of the video 312 and the video 313, and is a rectangular video having a width of a + (c ⁇ b) and a height of d.
  • each frame image constituting the additional video is generally rectangular because the video is normally composed of a rectangular frame image, and is usually used when transmission, compression coding, decoding, etc. are performed on the additional video. This is because it can be handled in the same manner as the frame image.
  • the video layout setting data generation function is a function that generates video layout setting data.
  • the video arrangement setting data is information indicating how to arrange the broadcast video and the remaining video in order to generate an ultra-wide video.
  • the video separation unit 102 refers to the selection range information and generates video layout setting data.
  • the video arrangement setting data indicates how the broadcast video 311, the remaining video 312 and the video 313 should be arranged in order to generate the ultra-wide video 310.
  • FIG. 4 is a diagram showing an example of video layout setting data.
  • the video layout setting data 400 includes a rectangular ID, stream area information, and composite position information for the broadcast video generated by the video separation unit 102 separating the video and each remaining video.
  • the rectangle ID is an ID for identifying each video generated by the video separation unit 102 separating the video.
  • the rectangle ID is given a value “0” for the broadcast video 311, a value “1” for the video 312, and a value “2” for the video 313. Yes.
  • Stream area information includes stream identification information, x position, y position, width, and height.
  • the stream specifying information indicates whether the video specified by the rectangular ID is transmitted by broadcast wave or communication.
  • the value of the stream specifying information is “0” when transmitted by broadcast waves, and is “1” when transmitted by communication.
  • the x position and the y position indicate the x coordinate and y coordinate in the broadcast video or additional video of the video specified by the rectangle ID. Whether the video specified by the rectangular ID is included in the broadcast video or the additional video can be distinguished by the stream specifying information. That is, when the stream specifying information indicates a broadcast wave, it is included in the broadcast video, and when the stream specifying information indicates communication, it is included in the additional video.
  • Width and height indicate the width and height of the image specified by the rectangle ID.
  • the composite position information consists of an X position and a Y position.
  • the X position and the Y position indicate the x coordinate and the y coordinate in the wide image of the image specified by the rectangle ID.
  • the video separation unit 102 sets “0” to the rectangle ID, sets “0” indicating the broadcast wave to the stream identification information, sets “0” to the x position, and y Set the position to “0”, set the width to “ba”, set the height to “d”, set the X position to “a” which is the x coordinate in the ultra-wide image, and set the Y position Is set to “0” which is the y coordinate in the ultra-wide image.
  • the video separation unit 102 sets “2” for the rectangular ID, sets “1” indicating communication to the stream specifying information, and the x position is the x coordinate in the additional video.
  • “A” is set, “y” in the additional video is set to “0”, “cb” is set to width, “d” is set to height, and “x” is set to X position.
  • “B” that is the x coordinate in the ultra-wide video is set, and “0” that is the y coordinate in the ultra-wide video is set in the Y position.
  • the video arrangement setting data is described so as to be generated for each ultra-wide video, but actually, it is generated for each of one or a plurality of frame images constituting the ultra-wide video, It is possible to control separation and combination for each frame image.
  • the broadcast stream creation unit 104 has a function of converting broadcast video into a format that can be broadcast by broadcast waves and outputting the format (hereinafter referred to as “broadcast stream creation function”).
  • the broadcast stream creation unit 104 As a broadcast stream creation function, the broadcast stream creation unit 104 generates a video stream by compressing and encoding the broadcast video with a predetermined video codec such as MPEG-2 (Moving Picture Experts Group-2), MPEG-4 AVC, etc. .
  • a predetermined video codec such as MPEG-2 (Moving Picture Experts Group-2), MPEG-4 AVC, etc.
  • the broadcast stream creation unit 104 creates an audio stream by compressing and encoding the audio with a predetermined audio codec such as AC3 (Audio Code number 3) or AAC (Advanced Audio Coding).
  • a predetermined audio codec such as AC3 (Audio Code number 3) or AAC (Advanced Audio Coding).
  • the broadcast stream creation unit 104 generates a single system stream such as MPEG-2 TS by multiplexing a video stream, an audio stream, a caption stream, data broadcasting data, and the like.
  • broadcast stream (121).
  • the additional stream creation unit 105 has a function (hereinafter referred to as “additional stream creation function”) for converting and outputting the additional video into a format for transmission by communication.
  • the additional stream creation unit 105 generates a video stream by compression-coding the additional video generated by the video placement unit 103 with a predetermined video codec such as MPEG-2, MPEG-4 AVC. Then, a system stream such as one MPEG-2 TS is generated by multiplexing a video stream, an audio stream, a caption stream, data broadcasting data, and the like.
  • a predetermined video codec such as MPEG-2, MPEG-4 AVC.
  • the additional stream creation unit 105 stores the video arrangement setting data 123 generated by the video arrangement unit 103 in the additional stream 122.
  • the additional stream creation unit 105 stores the video arrangement setting data 123 in the video stream as a part of supplementary data or as a part of a descriptor such as PMT (Program Map Table).
  • the broadcast system 100 is configured to transmit a broadcast stream using a broadcast wave, similar to that provided in a general digital broadcast transmission system.
  • the transmitter includes a modulator, a frequency converter, and an RF transmitter.
  • the sending unit transmits the broadcast stream generated by the broadcast stream creation unit 104 to the playback device 200 or the like by broadcast waves.
  • the broadcasting system 100 includes a network interface for transmitting and receiving data using a network.
  • the network interface transmits the additional stream generated by the additional stream creation unit 105 to the playback device 200 via the network.
  • FIG. 6 is a flowchart showing a procedure of video transmission processing by the broadcasting system 100.
  • the wide image photographing unit 101 photographs an ultra wide image (for example, an ultra wide image 310) as an original image (S601).
  • the video separation unit 102 acquires the selection range in the captured ultra-wide video by the selection range acquisition function (S602).
  • the video separation unit 102 extracts a selection range from each frame image constituting the original video by the video separation function, and generates a broadcast video including the extracted image group (S603).
  • the broadcast stream creation unit 104 creates a broadcast stream in which broadcast video is multiplexed by the broadcast stream creation function (S604).
  • the video placement unit 103 creates an additional image from the remaining images in which the selection range is extracted from each frame image constituting the ultra-wide video by the additional video creation function, and the additional video including the generated additional image group Is generated (S605).
  • the video layout unit 103 generates video layout setting data by the video layout setting data generation function (S606).
  • the additional stream creation unit 105 creates an additional stream obtained by multiplexing the additional video and the video arrangement setting data using the additional stream creation function (S607).
  • the broadcast stream creation unit 104 broadcasts a broadcast stream using a broadcast wave (S608).
  • the additional stream creation unit 105 transmits the additional stream to the playback device 200 through communication (S609).
  • FIG. 2 is a block diagram showing the configuration of the playback apparatus 200.
  • the playback apparatus 200 includes a tuner 201, a broadcast stream decoding unit 202, a first video plane 203, a NIC (network interface card) 211, an additional stream decoding unit 212, a second video plane 213, and a video.
  • a composition method setting unit 214, an image composition unit 221, and a composition image plane 222 are configured.
  • the playback device 200 includes a processor and a memory, and functions of the tuner 201, the broadcast stream decoding unit 202, the NIC 211, the additional stream decoding unit 212, the video composition method setting unit 214, and the video composition unit 221 are as follows. This is realized by the processor executing a program stored in the memory.
  • the tuner 201 is realized by a tuner LSI including a digital tuner, an OFDM (Orthogonal Frequency Division Multiplexing) demodulation unit, an error correction unit, and a demultiplexing unit.
  • a tuner LSI including a digital tuner, an OFDM (Orthogonal Frequency Division Multiplexing) demodulation unit, an error correction unit, and a demultiplexing unit.
  • the tuner 201 receives a broadcast wave, extracts a signal about a predetermined channel (service ID) designated by a user using a remote controller (not shown), and TS packets related to video, audio, subtitles, and the like from the extracted signal. Has a function of extracting and outputting.
  • the broadcast stream decoding unit 202 is realized by an AV signal processing LSI, and has a function of generating a video frame by receiving and decoding a TS packet related to video, and outputting it at a timing indicated by a PTS (Presentation Time Stamp). Have.
  • PTS Presentation Time Stamp
  • the broadcast stream decoding unit 202 receives a TS packet from the tuner 201 and writes the generated video frame (hereinafter referred to as “broadcast video frame”) to the first video plane 203.
  • the first video plane 203 is composed of a frame memory.
  • the first video plane 203 stores the broadcast video frame generated by the broadcast stream decoding unit 202.
  • plane ID 1 is assigned to the first video plane 203.
  • the NIC 211 is composed of a communication LSI and has a function of transmitting and receiving data via a network.
  • the NIC 211 When the NIC 211 receives the additional stream via the network, the NIC 211 outputs the received additional stream to the additional stream decoding unit 212.
  • the additional stream decoding unit 212 is realized by an AV signal processing LSI, and has a function of decoding a video stream included in the additional stream.
  • the additional stream decoding unit 212 receives an additional stream from the NIC 211 and decodes the video stream included in the additional stream to thereby generate a video frame (hereinafter referred to as “additional video frame”). .) Is written to the second video plane 213. Further, the additional stream decoding unit 212 extracts the video arrangement setting data 241 stored in the additional stream.
  • the second video plane 213 is composed of a frame memory.
  • the second video plane 213 stores the additional video frame generated by the additional stream decoding unit 212.
  • the video composition method setting unit 214 refers to the video layout setting data 241 and synthesizes the broadcast video frame stored in the first video plane 203 and the additional video frame stored in the second video plane 213, It has a composition instruction function for outputting a composition instruction using the composition information for generating a frame image constituting an ultra-wide video as a parameter.
  • composition instruction function The composition instruction function by the image composition method setting unit 214 will be described using a specific example.
  • the video composition method setting unit 214 acquires video arrangement setting data 241 corresponding to the PTS of the broadcast video frame stored in the first video plane 203 and the additional video frame stored in the second video plane 213.
  • the video layout setting data 241 has the contents shown in the video layout setting data 400 of FIG.
  • the video composition method setting unit 214 counts the number of rectangular IDs (the number of images) in the video layout setting data 400 and outputs it to the video composition unit 221.
  • a compositing instruction (referred to as “combining instruction 1” for convenience) is output.
  • a compositing instruction (referred to as “combining instruction 3” for convenience) is output.
  • the video composition method setting unit 214 also reads these.
  • the video compositing unit 221 has a compositing instruction with the plane ID, x position, y position, width, height, X position, and Y position as parameters ( For the sake of convenience, this is referred to as “synthesis instruction N”).
  • the video composition unit 221 is realized by an AV signal processing LSI.
  • the video composition unit 221 has a video composition function for composing each video according to the compositing instructions 1 to N notified from the video compositing method setting unit 214 and generating an ultra-wide video.
  • the generation of the ultra-wide video is performed by generating each of the frame images constituting the ultra-wide video.
  • the video composition unit 221 outputs the frame images constituting the ultra wide video stored in the composite video plane 222 to a display (not shown) at the PTS timing. Thereby, an ultra-wide video is reproduced.
  • Video composition function The video composition function will be described using a specific example.
  • the video composition unit 221 acquires the number of images from the video composition method setting unit 214.
  • the number of images matches the number of images that are combined to produce an ultra-wide image.
  • the video composition unit 221 initializes the composite video plane 222.
  • the video composition unit 221 acquires a composition instruction from the video composition method setting unit 214. Then, in the video plane (first video plane 203 or second video plane 213) identified by the plane ID included as a parameter in the compositing instruction, the width ⁇ high where the coordinates of the upper left corner are (x position, y position) This image is written at a position having the (X position, Y position) of the composite video plane 222 as the coordinates of the upper left corner.
  • the width is ba and the height is d from the position (0, 0) of the first video plane 203.
  • the image is read, and the read image is written at the position (a, 0) of the composite video plane 222.
  • the video compositing unit 221 when the video compositing unit 221 receives the compositing instruction 2 described above, the video compositing unit 221 reads and reads an image having the width a and the height d from the position (0, 0) of the second video plane 213. The image is written at the position (0, 0) of the composite video plane 222.
  • the video compositing unit 221 when the video compositing unit 221 receives the compositing instruction 3 described above, the video compositing unit 221 reads an image having a width c ⁇ b and a height d from the position (a, 0) of the second video plane 213. The read image is written at the position (b, 0) of the composite video plane 222.
  • an ultra-wide image (for example, the ultra-wide image 310 in FIG. 3) is restored on the composite video plane 222.
  • the composite video plane 222 is composed of a frame memory.
  • the composite video plane 222 stores the wide video frame output from the video composition unit 221.
  • FIG. 8 is a flowchart showing a procedure of video playback processing by the playback device 200.
  • the playback apparatus 200 first receives a broadcast stream by the tuner 201 (S801). Then, the NIC 211 receives the additional stream (S802).
  • the broadcast stream decoding unit 202 generates a broadcast image constituting the broadcast video by decoding the broadcast stream (S803). Further, the additional stream decoding unit 212 generates an additional image constituting the additional video by decoding the additional stream (S804). Further, the additional stream decoding unit 212 extracts video arrangement setting data from the additional stream (S805).
  • the image composition method setting unit 214 outputs a composition instruction to the image composition unit 221 based on the image arrangement setting data by the composition instruction function.
  • the video composition unit 221 extracts a plurality of small images (hereinafter referred to as “partial images”) from the additional images based on the composition instruction (S806).
  • the video composition unit 221 generates a frame image constituting an ultra-wide video as an original video by synthesizing the broadcast image and a plurality of partial images based on the synthesis instruction, and stores the frame image in the synthesized video plane 222. (S807).
  • the video composition unit 221 reproduces the original video by displaying each frame image stored in the composite video plane 222 according to the PTS (S808).
  • PTS PTS
  • the additional stream creation unit 105 stores the video layout setting data (123) in a descriptor such as a PMT, but it is sufficient if it can be transmitted to the playback device 200.
  • the video layout setting data may be stored in a SIT (Service Information Table).
  • SIT Service Information Table
  • the video arrangement setting data may be stored in supplemental data of each frame in the video stream.
  • the video arrangement setting data may be stored only in the first access unit of the GOP (Group of Pictures), and may be valid in the GOP.
  • a section for validating the video layout setting data in the video stream is provided and stored together with time information such as the PTS of the start time and the PTS of the end time of the valid section. It is good as well.
  • a PID may be assigned to the video arrangement setting data and multiplexed into a stream.
  • the video layout setting data may be stored in the broadcast stream, not in the additional stream.
  • one video arrangement setting data may be generated for each frame group instead of for each frame.
  • the selection range for the ultra-wide video 310 is specified by the user operating an input device such as a remote controller. However, it is sufficient if the selection range can be specified. .
  • the user touches the touch panel on which the ultra-wide video 310 is displayed so as to divide the area (for example, draw a rectangle), and the video separation unit 102 acquires information indicating the touched range. Then, the area may be determined as the selection range.
  • an important subject or the like in the ultra-wide video 310 may be detected by image recognition processing or the like, and an area within a predetermined range centered on the subject may be set as the selection range.
  • image processing is performed on an ultra-wide video 310 that displays a soccer field where a soccer game is being performed, the position of the soccer ball is recognized, and an area where the soccer ball is centered is automatically selected as a selection range. May be.
  • the video to be transmitted using the broadcast stream and the additional stream is an ultra-wide video.
  • the video is not limited to this, and other video with high-quality broadcast video is transmitted. It is good.
  • a high-resolution video may be transmitted as an example of high-quality broadcasting video.
  • FIG. 9 is a diagram for explaining an example in which an original video with high resolution is transmitted using a broadcast stream and an additional stream.
  • An image 901 in FIG. 9 represents one frame image in a group of frame images constituting the original video.
  • the video separation unit 102 of the broadcast system 100 divides the image 901 into three images 902 to 904.
  • An image 902 is a broadcast image.
  • the broadcast stream creation unit 104 multiplexes the broadcast image (image 902, etc.) as a part of the broadcast stream, and transmits this broadcast stream by a broadcast wave.
  • the video layout unit 103 combines them up and down to generate an image 911 as an additional image constituting the additional video. To do.
  • the video arrangement unit 103 generates video arrangement setting data indicating the arrangement of the image 902 to the image 904 in the image 901.
  • the additional stream creation unit 105 multiplexes the additional image (image 911 or the like) as a part of the additional stream. Further, the additional stream creation unit 105 multiplexes the video arrangement setting data as a part of the additional stream.
  • the additional stream creation unit 105 transmits the additional stream by network communication.
  • FIG. 9B is a diagram showing video layout setting data 900 related to the image 901.
  • the details of the video layout setting data 900 are the same as those of the video layout setting data 400 described above, and only the values are different.
  • the playback device 200 on the receiving side receives the broadcast stream and the additional stream, and combines the image 902, the image 903, and the image 904 based on the video arrangement setting data included in the additional stream to restore the high-resolution image 901. To do.
  • the playback device 200 restores other frame images of the image 901 in the same manner, thereby restoring the frame image group and playing back the original video.
  • a broadcast video and a widened video may be transmitted as an original video using a broadcast stream and an additional stream.
  • FIG. 10 is a diagram for explaining an example in which an original video is transmitted using a broadcast stream and an additional stream.
  • An image 1001 in FIG. 10 represents one frame image in a group of frame images constituting the original video.
  • the video separation unit 102 of the broadcast system 100 divides an image 1001 that is a frame image constituting the original video into three images 1002 to 1004.
  • An image 1002 is a broadcast image.
  • the other frame images constituting the original video are also divided as in the case of the image 1001.
  • the broadcast stream creation unit 104 multiplexes the broadcast image (the image 1002, etc.) as a part of the broadcast stream, and transmits this broadcast stream by a broadcast wave.
  • the image 1004 is vertically long. ) Is not a rectangular image (image 911 as an example).
  • an image 1015 is generated by combining the image 1014 rotated 270 degrees clockwise with the lower end of the image 1003.
  • an empty image 1006 for example, a black color image
  • the video layout unit 103 generates video layout setting data indicating the layout of the image 1002 to the image 1004 in the image 1001.
  • the additional stream creation unit 105 multiplexes the image 1015 as a part of the additional stream. Further, the additional stream creation unit 105 multiplexes the video arrangement setting data as a part of the additional stream.
  • the additional stream creation unit 105 transmits the additional stream by network communication.
  • FIG. 10B is a diagram showing video layout setting data 1000 related to the image 1001.
  • the details of the video layout setting data 1000 are the same as those of the video layout setting data 400 described above, but an item “rotation angle” for designating the rotation angle for each image is added.
  • the playback device 200 on the receiving side receives the broadcast stream and the additional stream, and combines the images 1002, 1003, and 1014 based on the video arrangement setting data included in the additional stream, and restores the image 1001.
  • the image 1014 is used after the posture is changed by rotating it clockwise by 90 degrees designated as the “rotation angle”.
  • the image 1014 after the orientation change is the image 1004.
  • the video layout setting data may be expanded so that the horizontal magnification and the vertical magnification for enlarging / reducing each image can be designated. .
  • FIG. 11 is a diagram for explaining a case where enlargement / reduction is performed when an additional image is generated by combining a plurality of images.
  • An image 1101 in FIG. 11 represents one frame image in a group of frame images constituting the original video.
  • the video separation unit 102 of the broadcasting system 100 divides the image 1101 into three images 1102 to 1104.
  • An image 1102 is a broadcast image.
  • the other frame images constituting the original video are also divided in the same manner as the image 1101.
  • the broadcast stream creation unit 104 multiplexes broadcast images (images 1102, etc.) as a part of the broadcast stream, and transmits this broadcast stream by broadcast waves.
  • the image 1103 is halved in the horizontal direction (image 1113), the image 1104 is halved in the vertical direction (image 1114), and then the additional image is synthesized. 1115 is generated.
  • the video layout unit 103 generates video layout setting data indicating the layout of the image 1102 to the image 1104 in the image 1101.
  • the additional stream creation unit 105 multiplexes the image 1115 as a part of the additional stream. Further, the additional stream creation unit 105 multiplexes the video arrangement setting data as a part of the additional stream.
  • the additional stream creation unit 105 transmits the additional stream by network communication.
  • FIG. 11B is a diagram showing video layout setting data 1100 related to the image 1101.
  • the details of the video layout setting data 1100 are the same as those of the video layout setting data 400 described above, but items for specifying the horizontal and vertical magnifications for each image are added.
  • the playback device 200 on the receiving side receives the broadcast stream and the additional stream, and combines the image 1102, the image 1113, and the image 1114 based on the video arrangement setting data included in the additional stream to restore the image 1101.
  • the image 1113 is enlarged twice in the horizontal direction (image 903)
  • the image 1114 is enlarged after being doubled in the vertical direction (image 904).
  • a broadcast video smaller than the wide video is displayed on a display capable of displaying a wide video
  • a monochrome image such as black is displayed in an area other than the area where the broadcast video is displayed on the display.
  • a predetermined background image may be displayed.
  • the broadcast video may be enlarged and displayed on the display.
  • margin images 1232 and / or 1233 are provided at the left end portion of the image 1222 and / or the right end portion of the image 1223 so that the macroblock has a boundary (1231). You may adjust so that it may not straddle.
  • the broadcast stream and the additional stream are generated as independent streams and transmitted through separate paths. However, it is sufficient if the broadcast video and the additional video can be transmitted.
  • the broadcast stream and the additional stream may be generated as subordinate streams and transmitted via one route.
  • compression encoding using inter-view reference MPEG-4 AVC / H.
  • MPEG-4 MVC Multiview Video Coding
  • FIG. 13 is a diagram for explaining an encoding system based on MPEG-4 MVC.
  • Streams conforming to the MPEG-4 MVC standard are “Basic View Video Stream” that is compatible with playback of conventional equipment, and “Extended View Video” that enables playback of video from a different viewpoint by processing simultaneously with the basic view. Stream ".
  • a basic view video stream is generated from a broadcast stream, and an extended view video stream is generated from an additional stream.
  • the basic view video stream is a frame (picture) group constituting a video compressed using inter-picture predictive coding using only temporal redundancy.
  • an extended view video stream compresses a frame group constituting a video by using inter-view predictive coding using inter-view redundancy in addition to inter-picture predictive coding using temporal redundancy. It is a thing.
  • the pictures of the basic view video stream are compressed with reference to the pictures at the same display time (PTS) of the extended view video stream.
  • the first P picture (P0) of the extended view video stream refers to the I picture (I0) of the basic view video stream.
  • the B picture (B1) of the extended view video stream refers to the Br picture (Br1) of the basic view video stream.
  • the second P picture (P3) of the extended view video stream refers to the P picture (P3) of the basic view video stream.
  • the basic view video stream does not refer to the extended view video stream, it can be played back alone.
  • the correlation between the left-eye video and the right-eye video is large. Therefore, when the left-eye video is multiplexed on the basic view video stream and the right-eye video is multiplexed on the extended view video stream, the inter-view prediction encoding is performed between the viewpoints, thereby reducing the data amount of the extended view video stream. The amount of data of the basic view video stream can be greatly reduced.
  • the video (image) pairs to be compressed using the inter-view reference usually have the same resolution, but in this modification, as shown in FIG. 14, the broadcast video 1402 is encoded as a basic view video stream.
  • an MPEG-4 MVC stream (hereinafter referred to as “MPEG-4 MVC broadcast stream”) is generated.
  • the basic view video stream 1402 is all referred to for the broadcast video 1402 equivalent part (part 1403) in the ultra-wide video 1401. Therefore, the amount of data obtained by compressing and encoding this portion 1403 is very small.
  • the broadcast system 100 transmits an MPEG-4 MVC broadcast stream to the playback device 200 by broadcasting.
  • the playback device 200 receives an MPEG-4 MVC broadcast stream by broadcasting. Then, the playback device 200 generates and displays the ultra-wide video 1401 by decoding the extended view video stream while referring to the basic view video stream in the MPEG-4 MVC broadcast stream.
  • the broadcast video 1501 when a broadcast video including the broadcast video 1501 is compressed and encoded as a basic view video stream, the broadcast video 1501 is enlarged to, for example, twice the area to generate an enlarged video 1502.
  • the extended view video stream may be generated by compressing and encoding the ultra-wide video 1503 with reference to this between views.
  • a resolution other than the resolution of the broadcast image can be selected as the resolution of the video transmitted by the extended view video stream.
  • multi-angle a service that allows a user to select and play a video desired by a user from a plurality of different viewpoint videos
  • FIG. 16 is a block diagram showing a configuration of a system according to this modification.
  • the system according to this modification includes a broadcast system 1601 and a playback device 1602.
  • the broadcast stream is transmitted from the broadcast system 1601 to the playback device 1602 by broadcasting, and the additional stream is transmitted from the broadcast system 1601 to the playback device 1602 via network communication.
  • the broadcast system 1601 includes a broadcast video photographing unit 1611, a broadcast stream creating unit 104, another viewpoint video photographing unit 1612, an additional stream creating unit 105, another viewpoint video photographing unit 1613, an additional stream creating unit 1614, A transmission additional stream selection unit 1615 and a switch 1616 are included.
  • the broadcast video shooting unit 1611 includes a video camera, and outputs the shot video (broadcast wave video) to the broadcast stream creation unit 104.
  • the broadcast stream creation unit 104 is the same as that already described with reference to FIG.
  • the different viewpoint video photographing unit 1612 is composed of a video camera, and outputs the photographed video (different viewpoint video 1) to the broadcast stream creating unit 104.
  • the additional stream creation unit 105 has the same configuration as that already described with reference to FIG. 1 and generates the additional stream 122 by compressing and encoding the different viewpoint video 1.
  • the additional stream creation unit 105 also stores the different viewpoint video information 1631 in the additional stream instead of the video layout setting data 123.
  • the different viewpoint video photographing unit 1613 is composed of a video camera, and outputs the photographed video (different viewpoint video 2) to the broadcast stream creating unit 1614.
  • the additional stream creation unit 1614 has the same configuration as the additional stream creation unit 105 described above, and generates the additional stream 124 by compressing and encoding the different viewpoint video 2.
  • the additional stream creation unit 105 also stores the different viewpoint video information 1631 in the additional stream.
  • the transmission additional stream selection unit 1615 transmits the additional stream 122 and the additional stream 124 requested by the playback device 1602 to the playback device 1602.
  • the request from the playback device 1602 is made using, for example, a URL format.
  • a separate URL is assigned in advance to each of the additional stream 122 and the additional stream 124, and the playback device 1602 requests access to the URL corresponding to the additional stream that is desired to be transmitted.
  • the transmission additional stream selection unit 1615 receives this access request, and switches the switch 1616 to output an additional stream corresponding to the URL requested to be accessed by the playback device 1602. Then, the transmission additional stream selection unit 1615 transmits an additional stream corresponding to the URL requested to be accessed by the playback device 1602 to the playback device 1602.
  • the transmission additional stream selection unit 1615 creates different viewpoint video information.
  • FIG. 17B is a diagram showing an example of different viewpoint video information (different viewpoint video information 1631 and 1651).
  • the different viewpoint video information includes “angle ID” which is a unique ID for specifying the viewpoint (angle), “stream type” in which a method for specifying and accessing the stream type is described, and the content of the angle video
  • angle ID which is a unique ID for specifying the viewpoint (angle)
  • stream type in which a method for specifying and accessing the stream type is described
  • the table information is a pair of “contents” with
  • the switch 1616 is a switch that switches between the additional stream 122 and the additional stream 124 to be transmitted based on the control by the transmission additional stream selection unit 1615.
  • the playback device 1602 includes a tuner 201, a broadcast stream decoding unit 202, a first video plane 203, a NIC 211, an additional stream decoding unit 212, a second video plane 213, a video synthesis unit 221, and a synthesized video plane 222. , And a reception additional stream selection unit 1652.
  • the tuner 201, the broadcast stream decoding unit 202, the first video plane 203, the NIC 211, the second video plane 213, the video synthesis unit 221, and the synthesized video plane 222 are the same as those already described with reference to FIG.
  • the additional stream decoding unit 212 is basically the same as that already described with reference to FIG. 2, but extracts the different viewpoint video information 1651 included in the additional stream and transmits it to the reception additional stream selection unit 1652. Is different.
  • the different viewpoint video information 1651 is the same as the different viewpoint video information 1631.
  • the received additional stream selection unit 1652 receives the different viewpoint video information from the additional stream decoding unit 212, and prompts the user to select one from a plurality of different viewpoint videos by performing menu display or the like. Then, the transmission system 1601 is requested to transmit an additional stream storing another viewpoint video selected by the user by remote control input or the like via the network. In response to this request, the NIC 211 receives from the broadcast system 1601 an additional stream in which the selected different viewpoint video is stored.
  • the received additional stream selection unit 1652 displays the menu 1701 in FIG.
  • the “content” item in the different viewpoint video information 1651 is displayed briefly.
  • the user selects one of the “contents” displayed in the menu using the remote controller or the like.
  • the received additional stream selection unit 1652 refers to the different viewpoint video information 1651 and reads the “angle ID” corresponding to the selected “content” and the “stream type” corresponding to the angle ID. Then, the received additional stream selection unit 1652 requests the broadcast system 1601 to transmit the stream related to the read stream type using the URL described in the stream type.
  • the user's favorite video can be selected and reproduced from a plurality of additional streams of different viewpoint videos.
  • the different viewpoint video information 1631 (1651) may be stored in the broadcast stream instead of the additional stream, or may be configured as a metadata file independently of the stream.
  • the different viewpoint video information 1631 (1651) may be configured to individually set information (PID as an example) used to acquire video and audio as shown in FIG.
  • the stream is identified using the PID, but it is sufficient if the stream can be identified.
  • it may be specified using a tag such as a reference destination PID of the hierarchical transmission descriptor.
  • a reduced video of a plurality of different viewpoint videos (hereinafter referred to as “different viewpoint reduced videos”). ) May be displayed on one screen, and the user may select a desired different viewpoint video from these different viewpoint videos.
  • each viewpoint video is identified by an angle ID.
  • an additional stream storing “index video” as shown as video 1901 in FIG. 19A and “correspondence information between display area and angle ID” is used.
  • “Correspondence relationship information between display area and angle ID” includes the display area in which each different viewpoint reduced video is displayed in the index video (video 1901 as an example), and the angle ID of the displayed different viewpoint reduced video. This is information indicating the correspondence relationship.
  • the image 1902 in FIG. 19 is a diagram visually representing the content of the correspondence information, that is, the correspondence between the four different viewpoint reduced videos displayed in the video 1901 and the angle ID (1902).
  • the angle ID of the different viewpoint reduced video in the upper left area is 0 and the angle ID of the different viewpoint reduced video in the upper right area is 1 in the area divided vertically and horizontally.
  • the angle ID of the different viewpoint reduced video in the lower left area is 2, and the angle ID of the different viewpoint reduced video in the lower right area is 3.
  • the playback device 1602 first receives the additional stream including the index video, decodes it, and displays it on the display. Then, the user is made to select one of the different viewpoint reduced videos (videos 1911 to 1914 in FIG. 19 as an example) included in the index video.
  • the playback device 1602 displays the different viewpoint video associated with the different viewpoint reduced video selected by the user.
  • a menu image in which a portion other than the character display portion in the image 1902 is made translucent is superimposed on the video 1901.
  • the angle ID 0 to 3 may be selectable by a remote controller or the like.
  • the playback device 1602 is a device having a touch panel such as a tablet terminal
  • an angle selection index image is displayed on the touch panel, and the user can touch any one of a plurality of displayed different viewpoint reduced images. It may be selected.
  • the tablet terminal refers to the stream type associated with the angle ID for identifying the different viewpoint reduced video in the different viewpoint video information, and receives the additional stream represented by the stream type by communication from the broadcasting system. And play it.
  • the tablet terminal is configured such that a separate playback device receives and decodes the additional stream, converts it into a format that can be displayed by the tablet terminal, and displays what has been transferred using a wireless LAN or the like. Also good. (10)
  • it is preferable that the video can be switched seamlessly without interruption when switching to another viewpoint video.
  • three configuration examples for seamless switching will be described with reference to FIG.
  • FIG. 20 shows an example of a detailed configuration of the additional stream decoding unit.
  • FIG. 20A shows a configuration similar to a decoder model of a video stream in the MPEG-2 system.
  • the PID filter refers to the PID of the TS packet, filters the TS packet, and outputs it to the TB (transport buffer) 2004.
  • the TS packet input to TB 2004 is removed from the TS header and transferred to MB (main buffer) 2005 at a predetermined rate.
  • the predetermined rate indicates the amount of data that must be retrieved from the TB 2004 per unit time.
  • packetized video ES data (video PES data) is accumulated in MB 2005.
  • the system stream header information such as TS packet header and PES header is removed, and in EB2006, only the video elementary stream is stored. Become.
  • Dec (decoder) 2007 has a function of decoding a video elementary stream, and data is transmitted from EB 2006 to Dec 2007 at a timing of DTS (Decoding Time Stamp).
  • DTS Decoding Time Stamp
  • Dec 2007 is stored in DPB (decoded picture buffer) 2008 and output to Plane (display plane) 2009 at the PTS timing.
  • DPB decoded picture buffer
  • the input switching between the additional stream # 1 (hereinafter TS1) and the additional stream # 2 (hereinafter TS2) is performed using the PID filter 2003. It is necessary to do this by switching the input to.
  • FIG. 20B is a diagram showing a configuration having a plurality of video stream decoder models.
  • FIG. 20C is a diagram illustrating a configuration in which a plurality of buffers and a single core portion (configuration after Dec 2042) are provided in the video stream decoder model.
  • the timing of the DTS and the PTS since the timing of the DTS and the PTS does not match, it is configured to display the DPB picture of the TS1 until the timing of the PTS comes after the switching by the DTS of the TS2. That is, SW1 (2041) is switched at the DTS timing, and SW2 (2043) is switched at the PTS timing. Thereby, seamless switching can be realized.
  • the previous PTS is stored in the DPB 2008 of TS1.
  • the picture stored at the timing may be displayed.
  • the wide video may be divided into two, the right half video may be displayed on one television, and the left half video may be displayed on another television.
  • the playback apparatus 200 includes a video output unit 2101 at the subsequent stage of the composite video plane 222 as shown in FIG.
  • the video output unit 2101 divides the wide video so that it can be displayed using the above-described two televisions, outputs the right half video from output 1, and outputs the left half video from output 2.
  • the video output unit 2101 has acquired in advance information on a television for displaying a wide video separately on two televisions.
  • the video arrangement unit 103 of the broadcast system 100 divides the wide video and includes display instruction information for displaying on a plurality of displays on the playback device 200 side in the video placement setting data 123, so that the playback device 200 includes the display instruction information. It is good also as transmitting.
  • the display instruction information indicates that, for example, the right half of the wide video restored by the playback device 200 is displayed on the left display when viewed from the user, and the right half of the wide video is displayed on the right display when viewed from the user. Indicates.
  • the playback device 200 When the wide video is restored, the playback device 200 refers to the video layout setting data, and outputs the right half of the wide video as output 1 so that it is displayed on the left display as viewed from the user. Is output as output 2 to be displayed on the right display as viewed from the user. (12) In the above-described embodiment, both the broadcast stream and the additional stream are received and played back by the playback device 200. However, the reception and playback processing may be shared by a plurality of devices.
  • the television 1 (corresponding to the playback device 200) receives a broadcast wave and plays a broadcast video. Also, the additional stream is received by the mobile terminal via the network and the additional video is reproduced. At this time, the mobile terminal transmits the additional video to the television 2 via the wireless LAN (Local Area Network), and the television 2 displays the additional video.
  • the wireless LAN Local Area Network
  • Broadcast video and additional video can be displayed on the television 1 and the television 2.
  • the television 1 and the mobile terminal access the time server in order to synchronize the images when displaying the video of the broadcast stream and the additional stream on a plurality of televisions. And (b) adding information for synchronization to a signal of a remote controller (not shown) and receiving the information by the TV 1 and the portable terminal to synchronize the time.
  • C A method of decoding broadcast waves of the same channel between the television 1 and the portable terminal and synchronizing them using PCR.
  • the additional stream is transmitted from the broadcasting system 100 to the playback device 200 via the network.
  • the additional stream may be transmitted from the broadcasting system 100 to the playback device 200 by a broadcast wave.
  • FIG. 33 is a block diagram showing a configuration of the broadcasting system 100 according to the present modification.
  • the additional stream creation unit 105 creates the additional video as an additional stream 122 by converting it into a format that can be broadcast by broadcast waves instead of communication.
  • a sending unit (not shown) transmits a stream in which the broadcast stream 121 generated by the broadcast stream generation unit 104 and the additional stream 122 generated by the additional stream generation unit 105 are multiplexed by broadcast waves.
  • FIG. 34 is a block diagram showing the configuration of the playback apparatus 200 according to this modification.
  • the playback apparatus 200 of FIG. 34 does not have the NIC 211, and the tuner 201 extracts the TS packet related to the broadcast stream 121 and the TS packet related to the additional stream 122 from the received broadcast wave. Then, the tuner 201 outputs TS packets related to the broadcast stream 121 to the broadcast stream decoding unit 202, and outputs TS packets related to the additional stream 122 to the additional stream decoding unit 212.
  • the additional stream can also be transmitted from the broadcast system 100 to the playback device 200 by broadcast waves.
  • FIG. 35 is a block diagram showing a configuration of a system according to this modification.
  • the additional stream creation unit 105 and the additional stream creation unit 1614 convert the different viewpoint video into a format that can be broadcast by broadcast waves, not by communication, as additional streams (122, 124). Creating.
  • a sending unit (not shown) transmits a stream obtained by multiplexing the broadcast stream 121, the additional stream 122, and the additional stream 124 using broadcast waves.
  • the playback device 1602 in FIG. 35 does not have the NIC 211, and the tuner 201 outputs TS packets related to the broadcast stream 121 to the broadcast stream decoding unit 202 from the received broadcast wave.
  • the received additional stream selection unit 1652 requests the tuner 201 to extract an additional stream in which another viewpoint video selected by a user performing remote control input or the like is stored.
  • the tuner 201 extracts a TS packet related to the requested additional stream (122 or 124). Then, the tuner 201 outputs TS packets related to the additional stream to the additional stream decoding unit 212.
  • the additional stream can also be transmitted from the broadcast system 100 to the playback device 200 by broadcast waves.
  • the additional stream is also transmitted from the broadcast system 100 to the playback apparatus 200 by broadcast waves. It is good also as transmitting.
  • FIG. 36 is a block diagram showing the configuration of the playback apparatus 200 according to this modification.
  • the playback apparatus 200 in FIG. 36 does not have the NIC 211 as in the case of the modification (13) described above, and the tuner 201 adds the TS packet related to the broadcast stream 121 from the received broadcast wave. TS packets related to the stream 122 are extracted. Then, the tuner 201 outputs TS packets related to the broadcast stream 121 to the broadcast stream decoding unit 202, and outputs TS packets related to the additional stream 122 to the additional stream decoding unit 212.
  • the additional stream can also be transmitted from the broadcast system 100 to the playback device 200 by broadcast waves.
  • the broadcast stream and the additional stream are transmitted from the broadcast system to the playback device by one broadcast wave.
  • the broadcast stream and the additional stream are transmitted by a plurality of broadcast waves. It is good also as composition to do.
  • the broadcast stream and the additional stream may be transmitted using different broadcast waves.
  • FIG. 37 is a diagram showing a configuration of a broadcasting system 100 according to this modification.
  • FIG. 38 is a diagram showing the configuration of the playback apparatus 200 according to this modification.
  • the playback device 200 of FIG. 38 includes a tuner 3801, and receives an additional stream using broadcast waves using the tuner 3801.
  • the additional stream can also be transmitted from the broadcast system to the playback device using the broadcast wave.
  • the system described in the above modification (14) may also be configured to transmit a broadcast stream and an additional stream using a plurality of broadcast waves, as in the case of the modification (16). Good.
  • FIG. 39 is a block diagram showing a configuration of a system according to this modification.
  • a stream in which the additional stream 122 and the additional stream 124 are multiplexed is transmitted by broadcast waves.
  • the playback device 1602 in FIG. 39 has a tuner 3901 and receives a broadcast wave in which an additional stream is multiplexed.
  • the reception additional stream selection unit 1652 requests the tuner 3901 to extract an additional stream in which another viewpoint video selected by a user performing remote control input or the like is stored.
  • the tuner 3901 extracts TS packets related to the requested additional stream (122 or 124). Then, the tuner 3901 outputs TS packets related to the additional stream to the additional stream decoding unit 212.
  • the broadcast stream and the additional stream can be transmitted by a plurality of broadcast waves.
  • the playback apparatus 200 described in the above modification (15) also receives a broadcast stream and an additional stream using a plurality of broadcast waves. It is good.
  • FIG. 40 is a block diagram showing the configuration of the playback apparatus 200 according to this modification.
  • the playback device 200 of FIG. 40 includes a tuner 3801 as in the case of the above-described modification (16), and receives an additional stream using broadcast waves using the tuner 3801.
  • the broadcast stream and the additional stream can be received by a plurality of broadcast waves.
  • a control program consisting of a program code of a machine language or a high-level language to be executed by various circuits connected to the processor can be recorded on a recording medium, or can be distributed and distributed via various communication paths.
  • a recording medium includes an IC card, a hard disk, an optical disk, a flexible disk, a ROM, a flash memory, and the like.
  • the distributed and distributed control program is used by being stored in a memory or the like that can be read by the processor, and the processor executes the control program to realize each function as shown in each embodiment. Will come to be.
  • the processor may be compiled and executed or executed by an interpreter.
  • Each functional component shown in the above-described embodiment (the wide video photographing unit 101, the video separation unit 102, the video arrangement unit 103, the broadcast stream creation unit 104, the additional stream creation unit 105, and the playback device of the broadcast system 100) 200 tuner 201, broadcast stream decoding unit 202, first video plane 203, NIC 211, additional stream decoding unit 212, second video plane 213, video synthesis method setting unit 214, video synthesis unit 221, synthesized video plane 222, etc.) Further, it may be realized as a circuit that executes the function, or may be realized by executing a program by one or a plurality of processors.
  • each functional component described above is typically realized as an LSI which is an integrated circuit. These may be individually made into one chip, or may be made into one chip so as to include a part or all of them.
  • the name used here is LSI, but it may also be called IC, system LSI, super LSI, or ultra LSI depending on the degree of integration.
  • the method of circuit integration is not limited to LSI's, and implementation using dedicated circuitry or general purpose processors is also possible.
  • An FPGA Field Programmable Gate Array
  • a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.
  • integrated circuit technology comes out to replace LSI's as a result of the advancement of semiconductor technology or a derivative other technology, it is naturally also possible to carry out function block integration using this technology. Biotechnology can be applied.
  • the MPEG-2 transport stream is a stream conforming to the standard standardized in ISO / IEC13818-1 and ITU-T recommendation H222.0.
  • FIG. 23 is a diagram showing the structure of a digital stream in the MPEG-2 transport stream format.
  • the transport stream is obtained by multiplexing a video stream composed of a video frame sequence, an audio stream composed of an audio frame sequence, a subtitle stream, and the like.
  • the video stream is a program in which the main video of the program is compression-coded using a method such as MPEG-2, MPEG-4, or AVC.
  • the audio stream is obtained by compressing and encoding the main audio and sub audio of a program using a method such as Dolby AC-3, MPEG-2 AAC, MPEG-4 AAC, HE-AAC.
  • the subtitle stream is a stream that stores the subtitle information of the program.
  • a video stream 2301 composed of a plurality of video frames is converted into a PES packet sequence 2302 and further converted into TS packets 2303.
  • an audio stream 2304 including a plurality of audio frames is converted into a PES packet sequence 2305 and further converted into a TS packet 2306.
  • the data of the subtitle stream 2307 is converted into a PES packet sequence 2308, and further converted into TS packets 2309.
  • the MPEG-2 transport stream 2313 is obtained by multiplexing the TS packet 2303, the TS packet 2306, and the TS packet 2309 as one stream.
  • Each stream included in the transport stream can be identified by a stream identification ID called PID.
  • PID stream identification ID
  • the playback apparatus extracts the target stream.
  • the correspondence between PID and stream is stored in a descriptor of a PMT packet described later.
  • FIG. 24 is a diagram showing how a video stream is stored in a PES packet sequence.
  • Stream 2401 indicates a video frame sequence in the video stream.
  • the PES packet sequence 2402 indicates a PES packet sequence.
  • a plurality of Video Presentation Units in the video stream are divided for each picture and stored in the payload of the PES packet. .
  • Each PES packet has a PES header, and a PTS (Presentation Time-Stamp) that is a picture display time and a DTS (Decoding Time-Stamp) that is a picture decoding time are stored in the PES header.
  • PTS Presentation Time-Stamp
  • DTS Decoding Time-Stamp
  • Video compression coding such as MPEG-2, MPEG-4 AVC, SMPTE VC-1 (Society of Motion Picture Engineers Engineers VC-1) uses redundancy in the spatial and temporal directions of moving images.
  • Inter-picture predictive coding is used as a technique that uses temporal redundancy.
  • a picture is a frame or field with reduced image redundancy.
  • inter-picture predictive coding as compression coding of a picture to be coded, a picture that is forward or backward in display time order is used as a reference picture, thereby reducing temporal redundancy. Then, the amount of motion from the reference picture is detected, and the difference between the motion compensated picture and the picture to be coded is compression-coded, thereby reducing the redundancy in the spatial direction.
  • FIG. 25 is a diagram showing a reference relationship between pictures in a general video stream.
  • the arrow in FIG. 25 indicates a reference picture.
  • the pictures are divided into I pictures, PI pictures, and B pictures according to the encoding method.
  • An I picture (such as I 0 in the figure) is a picture generated by performing intra-picture predictive coding using only a current picture without using a reference picture.
  • a P picture (P 3 , P 6, etc. in the figure) is a picture that is subjected to inter-picture prediction encoding with reference to one already processed picture.
  • a B picture (B 1 , B 2 , B 4 , B 5, etc. in the figure) is a picture that performs inter-picture predictive coding by simultaneously referring to two already processed pictures.
  • a B picture that is referred to by another picture is called a Br picture.
  • FIG. 26 is a diagram for explaining a hierarchical structure of a video stream.
  • the video stream is composed of a plurality of GOPs that are basic units of the encoding process. Editing of moving images and random access are performed in units of this GOP.
  • the GOP includes one or more video access units described above.
  • the video access unit includes an AU identification code, a sequence header, a picture header, supplementary data, compressed picture data, padding data, a sequence end code, a stream end code, and the like. These data are stored in units of NAL units in the case of MPEG-4 AVC.
  • AU identification code is a start code indicating the head of the access unit.
  • the sequence header is a header for storing common information in a playback sequence composed of a plurality of video access units. Specifically, information such as resolution, frame rate, aspect ratio, and bit rate is stored in the sequence header.
  • the picture header is a header that stores information such as the encoding method of the entire picture.
  • Supplementary data is additional information that is not essential for decoding compressed data.
  • character information of closed captions to be displayed on the TV in synchronization with the video, GOP structure information, and the like are stored.
  • Compressed picture data stores compressed and encoded picture data.
  • the padding data stores meaningless data for formatting. For example, it is used as stuffing data for maintaining a predetermined bit rate.
  • the sequence end code is data indicating the end of the reproduction sequence.
  • the stream end code is data indicating the end of the bit stream.
  • the contents of the AU identification code, sequence header, picture header, supplemental data, compressed picture data, padding data, sequence end code, and stream end code differ depending on the video encoding method.
  • the AU identification code is AU delimiter (Access Unit Delimiter)
  • the sequence header is SPS (Sequence Parameter Set)
  • the picture header is PPS (Picture Parameter).
  • Set supplementary data
  • SEI Supplemental Enhancement Information
  • compressed picture data is a plurality of slices
  • padding data is Filler Data
  • sequence end code is End of Sequence
  • stream The termination code is End of Stream.
  • the sequence header is sequence_Header, sequence_extension, group_of_picture_header, the picture header is picture_header, picture_coding_extension, the compressed data is _, the supplementary data is er, And the sequence end code is sequence_end_code. Further, although no AU identification code exists, the break of the access unit can be detected using the start code of each header.
  • sequence header may be described only in the video access unit at the head of the GOP and may not be described in other video access units.
  • a video access unit that does not include a picture header in its own video access unit and that refers to the picture header of the previous video access unit in code order.
  • I picture data is stored as compressed picture data, and an AU identification code, sequence header, picture header, and compressed picture data are always described. . Supplementary data, padding data, sequence end code, and stream end code are described as necessary.
  • Cropping is extracting a part of the area from the encoded frame area. Scaling is to enlarge or reduce the extracted area.
  • an area to be actually displayed is specified as a “cropping area” (a cropping area 2802 as an example) from the encoded frame area 2801. Then, the cropping region 2802 is up-converted according to scaling information indicating a scaling method when actually displaying the image on a television or the like, thereby generating a region (image) 2803 that is actually used for display.
  • a “cropping area” a cropping area 2802 as an example
  • the cropping area can be specified using frame_cropping information stored in the SPS.
  • the frame_cropping information indicates the difference between the upper line / underline / left line / right line of the cropping area and the upper line / underline / left line / right line of the encoded frame area. Specified as crop amount for top, bottom, left and right.
  • set frame_cropping_flag to 1 and set frame_crop_top_offset / frame_crop_bottom_offset / frame_crop_left_offset / right_crop_right_crop
  • the vertical and horizontal sizes of the cropping area (display_horizontal_size of display_display_extension, display_vertical_size), the center of the encoded frame area and the center of the cropping area
  • the difference information (frame_center_horizontal_offset of frame_display_extension, frame_center_vertical_offset) can be specified.
  • the scaling information is set as an aspect ratio, for example.
  • the playback device uses the aspect ratio information to up-convert and display the cropping area.
  • aspect ratio information (aspect_ratio_idc) is stored in the SPS as scaling information.
  • FIG. 30 is a diagram illustrating a data structure of a TS packet.
  • the TS packet is a 188-byte fixed-length packet composed of a 4-byte TS header, an adaptation field, and a TS payload.
  • the TS header is composed of transport_priority, PID, adaptation_field_control, and the like.
  • PID is an ID for identifying a stream multiplexed in a transport stream as described above.
  • the transport_priority is information for identifying the type of packet in TS packets with the same PID.
  • Adaptation_field_control is information for controlling the configuration of the adaptation field and the TS payload. There are cases where only one of the adaptation field and the TS payload exists or both, and adaptation_field_control indicates the presence / absence thereof.
  • adaptation_field_control When adaptation_field_control is 1, only the TS payload exists, when adaptation_field_control is 2, only the adaptation field exists, and when adaptation_field_control is 3, both TS payload and adaptation field are present.
  • the adaptation field is a storage area for storing information such as PCR and stuffing data for making the TS packet a fixed length of 188 bytes.
  • a PES packet is divided and stored in the TS payload.
  • TS packets included in a transport stream include PAT (Program Association Table), PMT (Program Map Table), PCR (Program Clock Reference), and the like in addition to video, audio, and subtitle streams. These packets are called PSI (Program Specific Information).
  • PAT indicates what the PID of the PMT used in the transport stream is, and the PID of the PAT itself is 0.
  • the PMT has PID of each stream such as video / audio / subtitles included in the transport stream and attribute information of the stream corresponding to each PID, and has various descriptors related to the transport stream.
  • the descriptor includes copy control information for instructing permission / non-permission of copying of the AV stream.
  • the PCR is information on the STC time corresponding to the timing at which the PCR packet is transferred to the decoder. have.
  • FIG. 31 is a diagram showing the data structure of the PMT.
  • a PMT header describing the length of data included in the PMT is arranged at the head of the PMT. After that, a plurality of descriptors related to the transport stream are arranged.
  • the copy control information described above is described as a descriptor.
  • a plurality of pieces of stream information regarding each stream included in the transport stream are arranged after the descriptor.
  • the stream information includes a stream descriptor in which a stream type, a stream PID, and stream attribute information (frame rate, aspect ratio, etc.) are described to identify a compression codec of the stream. ⁇ 6. Supplement 2>
  • the configuration of the content broadcast receiving system as one embodiment of the present invention, and its modifications and effects will be described.
  • a playback apparatus is a playback apparatus that plays back an original video, and a broadcast image group in which an arbitrary part of each frame image is extracted from the frame image group constituting the original video.
  • First receiving means for acquiring a broadcast video comprising a broadcast wave
  • second receiving means for receiving an additional video comprising a remaining image group other than the extracted portion of each frame image in the frame image group
  • Arrangement information acquisition means for acquiring arrangement information indicating the arrangement of broadcast images and remaining images in each frame image for the frame image group, and arranging the broadcast image group and the remaining image group based on the arrangement information
  • a reproducing means for generating and displaying the frame image group.
  • the original video can be reproduced using the broadcast video and an additional video that is an arbitrary video that is not a video determined from a fixed relative position of the broadcast video.
  • Each of the frame images is divided into the broadcast image and a plurality of partial images.
  • the remaining image is formed by combining the plurality of partial images. Including information indicating an arrangement position of each of the plurality of partial images in a remaining image, wherein the reproduction unit divides the remaining image into the plurality of partial images with reference to the arrangement information and combines the information with the broadcast image By doing so, the frame image may be generated.
  • each of the frame images is a left partial image as one of the plurality of partial images, the broadcast image, and a right partial image as one of the plurality of partial images in the horizontal direction.
  • the reproduction means refers to the arrangement information, divides the remaining image into the left partial image and the right partial image, combines the left partial image with the left end of the broadcast image, and
  • the frame image may be generated by combining the right partial image with the right end of the broadcast image.
  • each of the frame images includes, in the vertical direction, an upper partial image as one of the plurality of partial images, the broadcast image, and a lower partial image as one of the plurality of partial images.
  • the reproduction means refers to the arrangement information, divides the remaining image into the upper partial image and the lower partial image, combines the upper partial image with an upper end of the broadcast image, and
  • the frame image may be generated by combining the lower partial image with the lower end of the broadcast image.
  • a video having a higher resolution than the broadcast image can be used as the original video.
  • at least one of the plurality of partial images is enlarged or reduced when combined with another partial image, and the arrangement information includes an original about the enlarged or reduced partial image.
  • a magnification for returning to the size of the image is described, and when the broadcast unit combines the broadcast image and the plurality of partial images, the enlarged or reduced partial image is included in the arrangement information. It is good also as combining after performing the process which returns to the original magnitude
  • At least one of the plurality of partial images is rotated when it is combined with another partial image, and the arrangement information includes a position for returning the rotated partial image to a posture before rotation.
  • a rotation angle is described, and when the reproduction unit combines the broadcast image and the plurality of partial images, the rotated partial image is only the rotation angle described in the arrangement information. It is good also as combining after rotating.
  • the broadcast system may transmit the additional video via a network, and the second receiving unit may receive the additional video via the network.
  • the original video can be received separately for broadcast waves and communications.
  • the arrangement information is generated one by one for each predetermined group of frame images having the same extracted portion, and the reproduction unit generates the frame image group
  • the frame information constituting the group may be generated by referring to the arrangement information generated for the group.
  • a playback method is a playback method executed by a playback device that plays back an original video, and an arbitrary portion of each frame image in a group of frame images that constitute the original video.
  • a receiving step an arrangement information obtaining step for obtaining arrangement information indicating an arrangement of a broadcast image and a remaining image in each frame image for the frame image group, and the broadcast image group and the remaining image group based on the arrangement information. And a reproducing step of generating and displaying the frame image group.
  • An integrated circuit is an integrated circuit used in a playback device that plays back an original video, and is a broadcast in which an arbitrary part of each frame image is extracted from a group of frame images constituting the original video.
  • First receiving means for acquiring a broadcast video comprising an image group from a broadcast wave; and second receiving means for receiving an additional video comprising a remaining image group other than the extracted portion of each frame image in the frame image group;
  • Arrangement information acquisition means for acquiring arrangement information indicating arrangement of broadcast images and remaining images in each frame image, and arrangement of the broadcast image group and the remaining image group based on the arrangement information.
  • a reproducing means for generating and displaying the frame image group.
  • a broadcasting system is a broadcasting system that transmits an original video, and extracts an arbitrary part of each frame image in a frame image group constituting the original video, and the extraction
  • a first transmission means for transmitting a broadcast video composed of the group of images using a broadcast wave, and generating an additional video composed of a remaining image group other than the extracted portion of each frame image in the frame image group
  • Second transmission means for transmitting and arrangement information transmitting means for generating and transmitting arrangement information indicating the arrangement of broadcast images and remaining images in each frame image for the frame image group.
  • a broadcasting method is a broadcasting method executed by a broadcasting system that transmits an original video, and extracts an arbitrary part of each frame image in a group of frame images constituting the original video, A first transmission step of transmitting a broadcast video composed of the extracted image group using a broadcast wave, and generating an additional video composed of a remaining image group other than the extracted portion of each frame image in the frame image group And a second transmission step of transmitting, and an arrangement information transmitting step of generating and transmitting arrangement information indicating the arrangement of the broadcast image and the remaining image in each frame image for the frame image group.
  • An integrated circuit is an integrated circuit used in a broadcasting system for transmitting an original video, and extracts an arbitrary part of each frame image in a frame image group constituting the original video, A first transmission means for transmitting a broadcast video composed of the extracted image group using a broadcast wave, and an additional video composed of a remaining image group other than the extracted portion of each frame image in the frame image group are generated. And a second transmission means for transmitting, and an arrangement information transmitting means for generating and transmitting arrangement information indicating the arrangement of the broadcast image and the remaining image in each frame image for the frame image group.
  • the original video can be transmitted to the playback device using the broadcast video and an additional video that is an arbitrary video that is not a video determined from a fixed relative position of the broadcast video.
  • the playback device generates a combined video by combining a broadcast video and an additional video, and displays the video as an additional video determined from a fixed relative position to the broadcast video. Any video that is not available can be used, and is useful for devices that receive, combine, and play back video from both broadcast and communication.

Abstract

 本発明は、放送映像と追加映像とを結合して1個の結合映像を生成し表示する場合に、追加映像として放送映像との固定の相対位置から定まる映像ではない任意の映像を用いることができる再生装置を提供する。再生装置は、原映像を再生する再生装置であって、前記原映像を構成するフレーム画像群における、各フレーム画像の任意の部分を抽出した放送画像群から成る放送映像を放送波から取得する第1受信手段と、前記フレーム画像群における、各フレーム画像の前記抽出された部分以外の残画像群から成る追加映像を受信する第2受信手段と、前記フレーム画像群についての、各フレーム画像における放送画像及び残画像の配置を示す配置情報を取得する配置情報取得手段と、前記配置情報に基づき、前記放送画像群と前記残画像群とを配置することにより前記フレーム画像群を生成し、表示する再生手段とを備える。

Description

再生装置、再生方法、集積回路、放送システム、及び放送方法
 本発明は、放送波により受信する映像と、ネットワークを用いて受信する映像とを結合し、1つの映像として表示する技術に関する。
 近年、放送事業者などにより、放送サービスを中心にしながら、通信を活用して放送サービスを強化するという観点に基づいた、放送と通信のハイブリッドサービスが検討されている。このハイブリッドサービスを提供するための技術の一例として、非特許文献1には、放送波により送られてくる放送番組と、ネットワーク経由で送られてくるコンテンツとを受信機で受信し、同期させ、合成して提示する技術(「Hybridcast(登録商標)」)が開示されている。
 この技術を用いれば、例えば、受信機が、放送により送信される放送映像と、ネットワーク経由で送信される追加映像とを受信し、放送映像を右に、追加映像を左に並べて1枚の結合映像として表示することで、放送波により送信される映像をよりワイドにした映像を表示することができる。また、上述の技術に対応していない受信機(以下、「レガシー受信機」という。)では、放送波により送信される映像のみ受信して表示できることから、レガシー受信機に対する互換性も確保できる。
松村欣司、金次保明、「HybridcastTM の概要と技術」、NHK技研R&D No.124 2010年
 ところで、放送映像は、レガシー受信機においても再生されるものであり、被写体として重要度の高いものが映っている重要度の高い映像である場合が多い。例えば、サッカー中継の例であれば、放送映像は、おおよそサッカーボール周辺が映された映像となる。
 一方で、追加映像は、例えば放送映像の左側に並べる映像というような、放送映像との固定の相対位置から内容が定まり、重要度が低い映像になってしまう場合がある。例えば、サッカー中継の例であれば、放送映像が、視聴者から見て左側のゴール周囲の映像となった場合に、追加映像が、視聴者から見て左側のゴールのさらに左側の観客席ばかりを映すこととなるような場合である。
 この場合、放送映像と追加映像とを結合した結合映像においても、重要度の低い領域の割合が多くなってしまう。
 本発明は、係る問題に鑑みてなされたものであり、追加映像として放送映像との固定の相対位置から定まる映像ではない任意の映像が用いられた場合にも、放送映像と追加映像とを結合して1個の結合映像を生成し表示することができる再生装置を提供することを目的とする。
 上記課題を解決するために、本発明に係る再生装置は、原映像を再生する再生装置であって、前記原映像を構成するフレーム画像群における、各フレーム画像の任意の部分を抽出した放送画像群から成る放送映像を放送波から取得する第1受信手段と、前記フレーム画像群における、各フレーム画像の前記抽出された部分以外の残画像群から成る追加映像を受信する第2受信手段と、前記フレーム画像群についての、各フレーム画像における放送画像及び残画像の配置を示す配置情報を取得する配置情報取得手段と、前記配置情報に基づき、前記放送画像群と前記残画像群とを配置することにより前記フレーム画像群を生成し、表示する再生手段とを備える。
 上述の構成により、本発明に係る再生装置は、放送映像と、放送映像との固定の相対位置から定まる映像ではない任意の映像である追加映像とを用いて、原映像を再生することができる。
本発明の一実施形態に係る放送システムの構成を示すブロック図 本発明の一実施形態に係る再生システムの構成を示すブロック図 映像を分離する処理について説明するための図 映像配置設定データの一例を示す図 映像配置設定データのトランスポートストリームへの格納について説明するための図 放送システムによる映像送信処理の手順を示すフローチャート 再生装置における映像の合成について説明するための図 再生装置による映像再生処理の手順を示すフローチャート 本発明の変形例に係る画像の分割と合成及び、映像配置設定データについて示す図 本発明の変形例に係る画像の分割と合成及び、映像配置設定データについて示す図 本発明の変形例に係る画像の分割と合成及び、映像配置設定データについて示す図 本発明の変形例に係る、マクロブロックが画像の境界を跨ぐ場合について説明するための図 MPEG-4 MVCによる符号化方式を説明するための図 本発明の変形例に係る、放送映像を基本ビュービデオストリームとして符号化し、超ワイド映像を拡張ビュービデオストリームとして符号化する場合について説明するための図 本発明の変形例に係る、放送映像を拡大した拡大映像をビュー間参照して、超ワイド映像を圧縮符号化する場合について説明するための図 本発明の変形例に係るシステムの構成を示すブロック図 本発明の変形例に係る(a)マルチアングルサービスの一例を示す図、(b)別視点映像情報の一例を示す図 本発明の変形例に係る別視点映像情報を示す図 (a)本発明の変形例に係るインデックス映像を用いた別視点映像の選択について説明するための図、(b)別視点映像情報の一例を示す図 本発明の変形例に係る追加ストリームデコード部の構成を示す図、(a)構成1を示す図、(b)構成2を示す図、(c)構成3を示す図 本発明の変形例に係る再生装置の構成を示すブロック図 放送映像と追加映像の受信、再生を複数の装置で分担する場合について説明するための図 MPEG-2トランスポートストリーム形式のデジタルストリームの構成を示す図 PESパケット列にビデオストリームがどのように格納されるかを示す図 ビデオストリームのピクチャの参照関係を示す図 ビデオストリームの階層構造を示す図 ビデオアクセスユニットの構成を示す図 クロッピング領域について説明するための図 クロッピング領域について説明するための図 TSパケットのデータ構造を示す図 PMTのデータ構造を示す図 放送映像と追加映像とを単純に結合する場合について説明するための図 本発明の変形例に係る放送システムの構成を示すブロック図 本発明の変形例に係る再生装置の構成を示すブロック図 本発明の変形例に係るシステムの構成を示すブロック図 本発明の変形例に係る再生装置の構成を示すブロック図 本発明の変形例に係る放送システムの構成を示すブロック図 本発明の変形例に係る再生装置の構成を示すブロック図 本発明の変形例に係るシステムの構成を示すブロック図 本発明の変形例に係る再生装置の構成を示すブロック図
<1.概要>
 以下、本発明の一実施の形態に係るコンテンツ放送受信システムについて説明する。
 コンテンツ放送受信システムは、放送システムと、再生装置とを含んで構成される。
 放送システムは、コンテンツを放送により送信し(以下、放送により送信されるコンテンツを「放送コンテンツ」という。)、放送コンテンツに関連するコンテンツ(以下、「追加コンテンツ」という。)をネットワーク通信により送信する。本実施形態では、コンテンツの一例として、映像を用いる。すなわち、放送コンテンツは、放送映像であり、追加コンテンツは、追加映像である。
 再生装置は、放送映像及び追加映像を受信し、結合して再生する。
 コンテンツ放送受信システムは、追加映像を受信し再生する機能のない再生装置(レガシー装置)との互換性を考慮したものとなっている。すなわち、放送システムは、放送映像を、レガシー装置により受信、再生できるフォーマットで送信している。
 ここで、図32を用いて、放送映像と追加映像とを単純に結合する場合について説明する。
 なお、図32の被写体は、サッカーの試合が行われているサッカー場である。本実施形態では、サッカー場を撮影して放送する場合に、被写体としての重要度は、「サッカーボール」が最も高く、次いで、スポンサー等の関係などから「広告」が2番目に高いこととするが、あくまで一例であり、これに限るものではない。
 図32(a)は、放送映像3201の左側に、追加映像3202を単純に結合して、映像3211を生成する場合について模式的に示している。
 放送映像3201は、最も重要度の高いサッカーボール周辺の風景を映したものとなっている。また、映像3211には、最も重要度の高いサッカーボール周辺の風景、2番目に重要度の高い被写体である広告3206の全体が映っている。
 ここで、サッカーボールが、図32(b)に示すようにコートの左側のゴール付近に移動したとする。
 この場合、放送映像3203として、最も重要度の高いサッカーボール周辺の風景が映される。また、追加映像3204として、放送映像3203の左側の風景が映されることになる。そして、再生装置において、放送映像3203と追加映像3204とを結合し、映像3212のような映像を再生することになる。
 そうすると、映像3212には、2番目に重要度の高い被写体である広告2306の一部しか映らなくなってしまう。すなわち、重要度の低い映像の割合が多くなるのを避けられない。
 本発明は、追加映像として、放送映像との固定の相対位置から定まる映像しか用いることができないことから生じる不都合(例えば、2番目に重要度の高い被写体が表示できなくなるなど)を解消するものである。
 本実施形態では、一例として図3に示すように、原映像として超ワイド映像310を撮影し、超ワイド映像310のうち任意の範囲の映像を放送映像311として選択し、放送ストリームとして送信する。ここで、本実施形態において、超ワイド映像とは、放送波を用いて放送される映像よりもワイドかつ高解像度の映像を撮影したものである。
 また、超ワイド映像310のうち、放送映像311が抽出された残りの部分の映像312、及び映像313を結合して生成した追加映像320を、追加ストリームとしてネットワークを介して送信する。これにより、追加映像として、放送映像との固定の相対位置から定まる映像以外のものを使用できることとなる。
 再生装置側では、放送映像311と、追加映像320とから、超ワイド映像310を生成し、表示できることとしている。
 以下、本実施形態について、詳細に説明する。
<2.放送システム100>
<2-1.構成>
 図1は、放送システム100の構成を示すブロック図である。
 放送システム100は、図1に示すように、ワイド映像撮影部101、映像分離部102、映像配置部103、放送ストリーム作成部104、及び追加ストリーム作成部105を含んで構成される。
 また、放送システム100は、プロセッサ及びメモリを含んで構成されており、ワイド映像撮影部101、映像分離部102、映像配置部103、放送ストリーム作成部104、及び追加ストリーム作成部105の機能は、メモリに記憶されているプログラムをプロセッサが実行することにより実現される。
 <ワイド映像撮影部101>
 ワイド映像撮影部101は、放送波を用いて放送される映像よりもワイドかつ高解像度の超ワイド映像を撮影するビデオカメラで構成され、撮影した超ワイド映像に係る映像データを映像分離部102に出力する。
 本実施の形態では、一例として、放送波の映像が、横1920画素×縦1080画素の画素数を有するフルHDの映像であり、超ワイド映像が、横3820画素×縦1080画素の画素数を有する映像であるとする。
 <映像分離部102>
 映像分離部102は、ワイド映像撮影部101から超ワイド映像に係る映像データを受け取り、超ワイド映像を、放送波で伝送する映像(以下、「放送映像」という。)と他の映像とに分離する機能(以下、「映像分離機能」という。)を有する。
 (映像分離機能)
 映像分離機能は、映像を構成するフレーム画像それぞれについて、フレーム画像を複数の画像に分離することにより実現する。
 映像分離機能は、選択範囲取得機能と、画像分離機能とから成る。
 (1)選択範囲取得機能
 以下、選択範囲取得機能について、図3を用いて説明する。
 図3の超ワイド映像310は、幅がc画素、高さがd画素の映像である。
 映像分離部102は、超ワイド映像310において、放送映像として送信すべき範囲(以下、「選択範囲」という。)の指定を取得する。選択範囲は、一例として、ユーザがリモコン等の入力デバイス(図示せず)を操作することにより指定する。
 図3の例で、超ワイド映像310における、波線で囲まれた矩形部分内が選択範囲を示している。選択範囲は、具体的には、左上隅の点の座標が(a,0)であり、幅が(b-a)、高さがdの矩形で囲まれた範囲である。
 なお、以下では、映像、画像などについて、(x,y)などの座標を示す場合があるが、この座標は映像、画像の左上隅を原点(0,0)とした画素の位置を示している。
 (2)画像分離機能
 以下、画像分離機能について、図3を用いて説明する。
 映像分離部102は、超ワイド映像310から、選択範囲内の映像311を抽出する。映像311は、幅がb-a、高さがdの矩形映像である。
 映像分離部102は、超ワイド映像310から映像311を抽出した結果として、残余の映像312と、映像313とを得る。
 また、映像分離部102は、選択範囲を示す選択範囲情報を映像配置部103に出力する。
 選択範囲情報は、選択範囲の左上隅の点の、ワイド映像における座標と、選択範囲の幅と、選択範囲の高さとを含む。
 <映像配置部103>
 映像配置部103は、映像配置機能を有する。
 映像配置機能は、追加映像生成機能と、映像配置設定データ生成機能とから成る。
 (1)追加映像生成機能
 追加映像生成機能は、映像分離部102により超ワイド映像から放送映像を分離した後の残余の映像から、追加映像として通信により送信するための映像を生成する機能である。
 残余の映像は、1個の場合もあるが、複数となる場合もある。
 例えば、映像分離部102は、放送波では送信しない、映像312と、映像313とを結合して映像320を生成する。
 ここで、映像312は、左上隅の点の座標が(0,0)であり、幅がa、高さがdの矩形映像である。映像313は、左上隅の点の座標が(b,0)であり、幅がc-b、高さがdの矩形映像である。
 また、追加映像320は、映像312と映像313とを結合したものであり、幅がa+(c-b)であり、高さがdの矩形映像である。
 なお、追加映像を構成する各フレーム画像を矩形にするのは、通常、映像は矩形のフレーム画像から構成されるものであり、追加映像に関し送信、圧縮符号化、復号等を行う場合に、通常のフレーム画像と同様に扱えるようにするためである。
 (2)映像配置設定データ生成機能
 映像配置設定データ生成機能は、映像配置設定データを生成する機能である。
 映像配置設定データは、超ワイド映像を生成するために、放送映像と、残余の映像とをどのように配置すべきかを示す情報である。
 以下、映像配置設定データ生成機能について、具体例に基づき説明する。
 映像分離部102は、選択範囲情報を参照し、映像配置設定データを生成する。
 映像配置設定データは、一例として、超ワイド映像310を生成するために、放送映像311、残余の映像312及び映像313をどのように配置すべきかを示す。
 図4は、映像配置設定データの一例を示す図である。
 映像配置設定データ400は、映像分離部102が映像を分離することにより生成した放送映像及び残余の各映像についての、矩形ID、ストリーム領域情報、及び合成位置情報から成る。
 矩形IDは、映像分離部102が映像を分離することにより生成した各映像を識別するためのIDである。
 矩形IDは、図4の例では、放送映像311に対し、値「0」が付され、映像312に対し、値「1」が付され、映像313に対し、値「2」が付されている。
 ストリーム領域情報は、ストリーム特定情報、x位置、y位置、幅、及び高さから成る。
 ストリーム特定情報は、矩形IDで特定される映像が、放送波、通信のいずれで送信されるかを示す。ストリーム特定情報の値は、放送波で送信される場合には「0」であり、通信で送信される場合には「1」である。
 x位置及びy位置は、矩形IDで特定される映像の、放送映像又は追加映像におけるx座標及びy座標を示す。矩形IDで特定される映像が、放送映像又は追加映像のいずれに含まれるかは、ストリーム特定情報により区別できる。すなわち、ストリーム特定情報が放送波を示す場合、放送映像に含まれることになり、ストリーム特定情報が通信を示す場合、追加映像に含まれることになる。
 幅及び高さは、矩形IDで特定される映像の幅及び高さを示す。
 合成位置情報は、X位置及びY位置から成る。
 X位置及びY位置は、矩形IDで特定される映像の、ワイド映像におけるx座標及びy座標を示す。
 映像分離部102は、例えば、放送映像311については、矩形IDに「0」を設定し、ストリーム特定情報に放送波を示す「0」を設定し、x位置に「0」を設定し、y位置に「0」を設定し、幅に「b-a」を設定し、高さに「d」を設定し、X位置に超ワイド画像におけるx座標である「a」を設定し、Y位置に超ワイド画像におけるy座標である「0」を設定する。
 また、映像分離部102は、放送映像313については、矩形IDに「2」を設定し、ストリーム特定情報に通信を示す「1」を設定し、x位置には、追加映像におけるx座標である「a」を設定し、y位置には、追加映像におけるy座標である「0」を設定し、幅に「c-b」を設定し、高さに「d」を設定し、X位置に超ワイド映像におけるx座標である「b」を設定し、Y位置に超ワイド映像におけるy座標である「0」を設定する。
 なお、上記の説明では、映像配置設定データは、超ワイド映像毎に生成されるように記載しているが、実際には、超ワイド映像を構成する1又は複数のフレーム画像毎に生成し、フレーム画像毎の分離、結合の制御を可能としている。
 <放送ストリーム作成部104>
 放送ストリーム作成部104は、放送映像を、放送波で放送できるフォーマットに変換し、出力する機能(以下、「放送ストリーム作成機能」という。)を有する。
 放送ストリーム作成機能として、放送ストリーム作成部104は、放送映像を、MPEG-2(Moving Picture Experts Group - 2)、MPEG-4 AVCなど所定のビデオコーデックにより圧縮符号化することでビデオストリームを生成する。
 また、放送ストリーム作成部104は、音声についても、AC3(Audio Code number 3)、AAC(Advanced Audio Coding)などの所定のオーディオコーデックで圧縮符号化することでオーディオストリームを生成する。
 そして、放送ストリーム作成部104は、ビデオストリーム、オーディオストリーム、字幕ストリーム、データ放送用データなどを多重化することにより、1本のMPEG-2 TSなどのシステムストリームを生成する。
 以上のように生成されたシステムストリームであって、放送されるものを、以下では「放送ストリーム」(121)という。
 なお、音声に関しては、本発明との関連が薄いので、必要な場合以外は特に説明を行わない。
 <追加ストリーム作成部105>
 追加ストリーム作成部105は、追加映像を、通信により送信するためのフォーマットに変換し、出力する機能(以下、「追加ストリーム作成機能」という。)を有する。
 追加ストリーム作成機能として、追加ストリーム作成部105は、映像配置部103により生成された追加映像をMPEG-2、MPEG-4 AVCなど所定のビデオコーデックにより圧縮符号化することでビデオストリームを生成する。そして、ビデオストリーム、オーディオストリーム、字幕ストリーム、データ放送用データなどを多重化することにより、1本のMPEG-2 TSなどのシステムストリームを生成する。
 以上のように生成されたシステムストリームであって、通信により送信されるものを、以下では「追加ストリーム」という。
 また、追加ストリーム作成機能の1つとして、追加ストリーム作成部105は、映像配置部103によって生成された映像配置設定データ123を追加ストリーム122に格納する。例えば、追加ストリーム作成部105は、図5に示すように、映像配置設定データ123を、ビデオストリームに補足データの一部として、又はPMT(Program Map Table)などのディスクリプタの一部として格納する。
 <その他の構成>
 図1には、図示していないが、放送システム100は、一般的なデジタル放送の送出システムが備えているのと同様の、放送波を用いて放送ストリームを送信するための構成である、OFDM変調部、周波数変換部、及びRF送出部などから成る送出部を備えている。
 この送出部が、放送ストリーム作成部104で生成された放送ストリームを、放送波により再生装置200などに送信する。
 また、図1には、図示していないが、放送システム100は、ネットワークを用いてデータを送受信するためのネットワークインターフェイスを備えている。
 このネットワークインターフェイスが、追加ストリーム作成部105で生成された追加ストリームを、ネットワークを介して再生装置200に送信する。
 <2-2.動作>
 図6は、放送システム100による映像送信処理の手順を示すフローチャートである。
 放送システム100において、まず、ワイド映像撮影部101が、原映像として超ワイド映像(一例として、超ワイド映像310)を撮影する(S601)。
 次に、映像分離部102が、選択範囲取得機能により、撮影された超ワイド映像における、選択範囲を取得する(S602)。
 次に、映像分離部102が、映像分離機能により、原映像を構成する各フレーム画像から選択範囲を抽出し、抽出した画像群から成る放送映像を生成する(S603)。
 次に、放送ストリーム作成部104が、放送ストリーム作成機能により、放送映像が多重化された放送ストリームを生成する(S604)。
 次に、映像配置部103が、追加映像作成機能により、超ワイド映像を構成する各フレーム画像から選択範囲が抽出された残余の画像から追加画像を作成し、生成した追加画像群から成る追加映像を生成する(S605)。
 また、映像配置部103は、映像配置設定データ生成機能により、映像配置設定データを生成する(S606)。
 次に、追加ストリーム作成部105は、追加ストリーム作成機能により、追加映像、及び映像配置設定データを多重化した追加ストリームを作成する(S607)。
 そして、放送ストリーム作成部104は、放送波により放送ストリームを放送する(S608)。
 また、追加ストリーム作成部105は、通信により追加ストリームを再生装置200へと送信する(S609)。
 <3.再生装置200>
 <3-1.構成>
 図2は、再生装置200の構成を示すブロック図である。
 再生装置200は、図2に示すように、チューナ201、放送ストリームデコード部202、第1映像プレーン203、NIC(ネットワーク・インターフェイス・カード)211、追加ストリームデコード部212、第2映像プレーン213、映像合成方法設定部214、映像合成部221、合成映像プレーン222を含んで構成される。
 また、再生装置200は、プロセッサ及びメモリを含んで構成されており、チューナ201、放送ストリームデコード部202、NIC211、追加ストリームデコード部212、映像合成方法設定部214、及び映像合成部221の機能は、メモリに記憶されているプログラムをプロセッサが実行することにより実現される。
 <チューナ201>
 チューナ201は、デジタルチューナ、OFDM(Orthogonal Frequency Division Multiplexing)復調部、誤り訂正部、及び多重分離部などを含むチューナLSIで実現されている。
 チューナ201は、放送波を受信し、ユーザがリモコン(図示せず)等を用いて指示した所定のチャンネル(サービスID)についての信号を抜き出し、抜き出した信号から映像、音声、字幕などに関するTSパケットを抽出して、出力する機能を有する。
 放送波の受信から、映像、音声、データ放送などに関するTSパケットの抽出までの処理については、周知のため、説明は省略する。
 <放送ストリームデコード部202>
 放送ストリームデコード部202は、AV信号処理LSIで実現されており、映像に関するTSパケットを受信し、復号することによりビデオフレームを生成し、PTS(Presentation Time Stamp)で示されるタイミングで出力する機能を有する。
 本実施形態では、放送ストリームデコード部202は、チューナ201からTSパケットを受信し、生成したビデオフレーム(以下、「放送ビデオフレーム」という。)を第1映像プレーン203に書き込む。
 <第1映像プレーン203>
 第1映像プレーン203は、フレームメモリで構成される。第1映像プレーン203は、放送ストリームデコード部202により生成された放送ビデオフレームを格納する。
 なお、第1映像プレーン203には、プレーンID=1が割り当てられているものとする。
 <NIC211>
 NIC211は、通信用のLSIで構成されており、ネットワークを介してデータを送受信する機能を有する。
 NIC211は、ネットワークを介して追加ストリームを受信した場合、受信した追加ストリームを、追加ストリームデコード部212に出力する。
 <追加ストリームデコード部212>
 追加ストリームデコード部212は、AV信号処理LSIで実現されており、追加ストリームに含まれるビデオストリームのデコード機能を有する。
 ビデオストリームのデコード機能として、追加ストリームデコード部212は、具体的には、NIC211から追加ストリームを受信し、追加ストリームに含まれるビデオストリームをデコードすることによりビデオフレーム(以下、「追加ビデオフレーム」という。)を生成して第2映像プレーン213に書き込む。また、追加ストリームデコード部212は、追加ストリームに格納される映像配置設定データ241を抽出する。
 <第2映像プレーン213>
 第2映像プレーン213は、フレームメモリで構成される。第2映像プレーン213は、追加ストリームデコード部212により生成された追加ビデオフレームを格納する。
 なお、第2映像プレーン213には、プレーンID=2が割り当てられているものとする。
 <映像合成方法設定部214>
 映像合成方法設定部214は、映像配置設定データ241を参照し、第1映像プレーン203に格納されている放送ビデオフレームと、第2映像プレーン213に格納されている追加ビデオフレームとを合成し、超ワイド映像を構成するフレーム画像を生成するための合成情報をパラメータとした合成指示を出力する合成指示機能を有する。
 (合成指示機能)
 映像合成方法設定部214による合成指示機能について、具体例を用いて説明する。
 映像合成方法設定部214は、第1映像プレーン203に格納されている放送ビデオフレーム、及び第2映像プレーン213に格納されている追加ビデオフレームのPTSに対応する映像配置設定データ241を取得する。
 一例として、映像配置設定データ241が、図4の映像配置設定データ400に示す内容であるとする。
 まず、映像合成方法設定部214は、映像配置設定データ400中の矩形IDの数(画像数)を計数し、映像合成部221に出力する。
 映像合成方法設定部214は、映像配置設定データ400の1行目(矩形ID=0)を読み出す。
 映像合成方法設定部214は、ストリーム特定情報が0(=放送波)であるため、矩形ID=0である画像は、第1映像プレーン203から読み出すと判断する。
 そして、映像配置設定データ400の1行目の記載に基づき、映像合成部221に対し、プレーンID(=1)、x位置(=0)、y位置(=0)、幅(=b-a)、高さ(=d)、X位置(=a)、及びY位置(=0)をパラメータとした合成指示(便宜上、「合成指示1」という。)を出力する。
 次に、映像合成方法設定部214は、映像配置設定データ400の2行目(矩形ID=1)を読み出す。
 映像合成方法設定部214は、ストリーム特定情報が1(=通信)であるため、矩形ID=1である画像は、第2映像プレーン213から読み出すと判断する。
 そして、映像配置設定データ400の2行目の記載に基づき、映像合成部221に対し、プレーンID(=2)、x位置(=0)、y位置(=0)、幅(=a)、高さ(=d)、X位置(=0)、及びY位置(=0)をパラメータとした合成指示(便宜上、「合成指示2」という。)を出力する。
 次に、映像合成方法設定部214は、映像配置設定データ400の3行目(矩形ID=2)を読み出す。
 映像合成方法設定部214は、ストリーム特定情報が1(=通信)であるため、矩形ID=2である画像は、第2映像プレーン213から読み出すと判断する。
 そして、映像配置設定データ400の3行目の記載に基づき、映像合成部221に対し、プレーンID(=2)、x位置(=a)、y位置(=0)、幅(=c-b)、高さ(=d)、X位置(=b)、及びY位置(=0)をパラメータとした合成指示(便宜上、「合成指示3」という。)を出力する。
 以下、映像合成方法設定部214は、映像配置設定データ400のN行目(Nは4以上の自然数)がある場合には、これらも読み出す。
 そして、映像配置設定データ400のN行目について、映像合成方法設定部214は、ストリーム特定情報が0か1のいずれであるかを判定し、0の場合、第1映像プレーン203から読み出す(プレーンID=1)と判断し、1の場合、第2映像プレーン213から読み出す(プレーンID=2)と判断する。
 そして、映像配置設定データ400のN行目の記載に基づき、映像合成部221に対し、プレーンID、x位置、y位置、幅、高さ、X位置、及びY位置をパラメータとした合成指示(便宜上、「合成指示N」という。)を出力する。
 <映像合成部221>
 映像合成部221は、AV信号処理LSIで実現されている。
 映像合成部221は、映像合成方法設定部214から通知される合成指示1~Nに従って各映像を合成し、超ワイド映像を生成する映像合成機能を有する。超ワイド映像の生成は、超ワイド映像を構成するフレーム画像のそれぞれを生成することで行う。
 一例として、合成指示1~3に従い、図7に模式的に示すように、第1映像プレーン203に格納されている放送映像のフレーム画像(ID=0)と、第2映像プレーン213に格納されている追加映像のフレーム画像(ID=1及び2)とを合成して、超ワイド映像のフレーム画像を生成し、合成映像プレーン222に出力する。
 映像合成部221は、合成映像プレーン222に格納されている超ワイド映像を構成するフレーム画像を、PTSのタイミングでディスプレイ(図示せず)に出力する。これにより、超ワイド映像が再生されることになる。
 (映像合成機能)
 映像合成機能について、具体例により説明する。
 映像合成部221は、映像合成方法設定部214から画像数を取得する。画像数は、超ワイド映像を生成するために結合する映像の数に一致する。
 そして、映像合成部221は、合成映像プレーン222を初期化する。
 そして、映像合成部221は、映像合成方法設定部214から合成指示を取得する。そして、合成指示にパラメータとして含まれる、プレーンIDで識別される映像プレーン(第1映像プレーン203又は第2映像プレーン213)において、左上隅の座標が(x位置,y位置)である幅×高さの画像を、合成映像プレーン222の(X位置,Y位置)を左上隅の座標とする位置に書き込む。
 具体的には、映像合成部221は、上述の合成指示1を受信した場合、第1映像プレーン203の(0,0)の位置から、幅がb-aであり、高さがdである画像を読み出し、読み出した画像を、合成映像プレーン222の(a,0)の位置に書き込む。
 また、映像合成部221は、上述の合成指示2を受信した場合、第2映像プレーン213の(0,0)の位置から、幅がaであり、高さdである画像を読み出し、読み出した画像を、合成映像プレーン222の(0,0)の位置に書き込む。
 また、映像合成部221は、上述の合成指示3を受信した場合、第2映像プレーン213の(a,0)の位置から、幅がc-bであり、高さがdである画像を読み出し、読み出した画像を、合成映像プレーン222の(b,0)の位置に書き込む。
 以上の処理により、合成映像プレーン222において、超ワイド画像(例えば、図3の超ワイド画像310)が復元されることになる。
 <合成映像プレーン222>
 合成映像プレーン222は、フレームメモリで構成される。合成映像プレーン222は、映像合成部221から出力されるワイドビデオフレームを格納する。
 <3-2.動作>
 図8は、再生装置200による映像再生処理の手順を示すフローチャートである。
 再生装置200は、まず、チューナ201により、放送ストリームを受信する(S801)。そして、NIC211が、追加ストリームを受信する(S802)。
 次に、放送ストリームデコード部202が、放送ストリームを復号することにより、放送映像を構成する放送画像を生成する(S803)。また、追加ストリームデコード部212が、追加ストリームを復号することにより、追加映像を構成する追加画像を生成する(S804)。また、追加ストリームデコード部212が、追加ストリームから映像配置設定データを抽出する(S805)。
 次に、映像合成方法設定部214が、合成指示機能により、映像配置設定データに基づき、映像合成部221に対し、合成指示を出力する。
 映像合成部221は、合成指示に基づき、追加画像から複数の小画像(以下、「部分画像」という。)を抽出する(S806)。
 そして、映像合成部221は、放送画像と、複数の部分画像を合成指示に基づいて合成することにより、原映像としての超ワイド映像を構成するフレーム画像を生成し、合成映像プレーン222に格納する(S807)。
 映像合成部221は、合成映像プレーン222に格納された各フレーム画像をPTSに従い表示させることにより、原映像を再生する(S808)。
<4.変形例>
 以上、本発明に係るコンテンツ放送受信システムの実施形態を説明したが、例示したコンテンツ放送受信システムを以下のように変形することも可能であり、本発明が上述の実施形態で示した通りのコンテンツ放送受信システムに限られないことは勿論である。
 (1)上述の実施形態では、追加ストリーム作成部105は、映像配置設定データ(123)をPMTなどのディスクリプタ中に格納することとしたが、再生装置200に送信できれば足りる。
 例えば、映像配置設定データをSIT(Service Information Table)に格納してもよい。
 また、ビデオストリームにおける各フレームの補足データなどに映像配置設定データを格納することとしてもよい。
 また、GOP(Group of Pictures)先頭のアクセスユニットのみに映像配置設定データを格納し、GOP内で有効であるとしても良い。
 また、映像配置設定データをディスクリプタに格納する場合に、ビデオストリームにおける映像配置設定データを有効とする区間を設け、有効とする区間の開始時刻のPTS、終了時刻のPTSなどの時刻情報とともに格納することとしてもよい。
 また、映像配置設定データにPIDを割り当てて、ストリームに多重化するよう構成してもよい。
 また、映像配置設定データは、追加ストリーム中ではなく、放送ストリームに格納することとしてもよい。
 また、選択範囲が不変であるフレーム群について、フレーム毎ではなくフレーム群に1つの映像配置設定データを生成してもよい。
 (2)上述の実施形態では、選択範囲取得処理において、超ワイド映像310についての選択範囲の指定を、ユーザがリモコン等の入力デバイスを操作することにより指定するとしたが、選択範囲を特定できれば足りる。
 例えば、ユーザが、超ワイド映像310が表示されているタッチパネルに、領域を区切るよう(例えば矩形を描くよう)に接触することとし、映像分離部102が、その接触された範囲を示す情報を取得して、その領域内を選択範囲と決定するとしてもよい。
 また、画像認識処理などにより、超ワイド映像310における重要な被写体などを検知し、その被写体を中心とした所定範囲内の領域を、選択範囲としてもよい。一例として、サッカーの試合が行われているサッカー場を表示する超ワイド映像310について画像処理を施してサッカーボールの位置を認識し、サッカーボールが中心に来る領域を自動で選択範囲として選択するなどしてもよい。
 (3)上述の実施形態では、放送ストリームと追加ストリームとを用いて送信する映像は超ワイド映像であるとしたが、これに限らず、放送映像を高品位化した他の映像を送信することとしてもよい。
 例えば、放送映像を、高品位化の一例として高解像度化した映像を送信することとしてもよい。
 図9は、高解像度化した原映像を、放送ストリームと追加ストリームとを用いて送信する例について説明するための図である。
 図9の画像901は、原映像を構成するフレーム画像群のうちの1つのフレーム画像を表す。
 本変形例では、放送システム100の映像分離部102が、画像901を、画像902~画像904の3つの画像に分割する。画像902が、放送画像である。
 原映像を構成する他のフレーム画像についても、画像901の場合と同様に分割する。
 そして、放送ストリーム作成部104が、放送画像(画像902他)を放送ストリームの一部として多重化し、この放送ストリームを放送波により送信する。
 また、画像901から画像902を抽出した残余の画像である画像903及び画像904については、映像配置部103が、これらを上下に結合することにより、追加映像を構成する追加画像として画像911を生成する。
 そして、映像配置部103は、画像902~画像904についての画像901における配置を示す映像配置設定データを生成する。
 そして、追加ストリーム作成部105が、追加画像(画像911他)を追加ストリームの一部として多重化する。また、追加ストリーム作成部105は、映像配置設定データを、追加ストリームの一部として多重化する。
 そして、追加ストリーム作成部105は、追加ストリームをネットワーク通信により送信する。
 ここで、本変形例に係る映像配置設定データの一例について説明する。
 図9(b)は、画像901に係る映像配置設定データ900を示す図である。
 映像配置設定データ900の詳細については、構成が上述の映像配置設定データ400と同様であって、値が異なるのみなので説明を省略する。
 受信側である再生装置200は、放送ストリーム、追加ストリームを受信し、追加ストリームに含まれる映像配置設定データに基づき、画像902、画像903及び画像904を結合して、高解像度な画像901を復元する。また、再生装置200は、画像901の他のフレーム画像についても同様に復元することによって、フレーム画像群を復元し、原映像を再生する。
 (4)上述の変形例(3)に示すほか、放送ストリームと追加ストリームとを用いて、放送映像を高解像度化及びワイド化した映像を原映像として送信することとしてもよい。
 図10は、原映像を、放送ストリームと追加ストリームとを用いて送信する例について説明するための図である。
 図10の画像1001は、原映像を構成する構成するフレーム画像群のうちの1つのフレーム画像を表す。
 本変形例では、放送システム100の映像分離部102は、原映像を構成するフレーム画像である画像1001を、画像1002~画像1004の3つの画像に分割する。画像1002が、放送画像である。
 原映像を構成する他のフレーム画像についても、画像1001の場合と同様に分割する。
 そして、放送ストリーム作成部104は、放送画像(画像1002他)を放送ストリームの一部として多重化し、この放送ストリームを放送波により送信する。
 ここで、画像1001から画像1002を抽出した残余の画像である画像1003及び画像1004をそのままの形態で結合しても、画像1004が縦長であることから、結合結果は、上述の変形例(3)のように矩形の画像(一例として画像911)にはならない。
 よって、画像1004については、時計回りに270度回転させた画像1014を、画像1003の下端に結合させて画像1015を生成する。但し、画像1003の幅と画像1014の幅とが異なるので、画像1014の右側に、画像1015を矩形にするための空画像1006(例えば、黒一色の画像など)が付されている。
 また、映像配置部103は、画像1002~画像1004についての画像1001における配置を示す映像配置設定データを生成する。
 そして、追加ストリーム作成部105が、画像1015を追加ストリームの一部として多重化する。また、追加ストリーム作成部105は、映像配置設定データを、追加ストリームの一部として多重化する。
 そして、追加ストリーム作成部105は、追加ストリームをネットワーク通信により送信する。
 ここで、本変形例に係る映像配置設定データの一例について説明する。
 図10(b)は、画像1001に係る映像配置設定データ1000を示す図である。
 映像配置設定データ1000の詳細については、構成は上述の映像配置設定データ400と同様であるが、各画像について回転角度を指定するための「回転角」の項目が追加されている。
 具体的には、画像1014(矩形ID=2)について、時計回りに90度回転する旨の指定を行う。
 受信側である再生装置200は、放送ストリーム、追加ストリームを受信し、追加ストリームに含まれる映像配置設定データに基づき、画像1002、画像1003及び画像1014を結合して、画像1001を復元するのであるが、画像1014については、「回転角」として指定された90度だけ時計回りに回転させることにより姿勢を変更してから用いる。なお、画像1014の姿勢変更後の画像は、画像1004である
 また、映像配置設定データについて、各画像を拡大縮小するための水平方向の倍率、垂直方向の倍率を指定できるよう拡張してもよい。
 図11は、複数の画像を結合して追加画像を生成する際に、拡大縮小を行う場合について説明するための図である。
 図11の画像1101は、原映像を構成するフレーム画像群のうちの1つのフレーム画像を表す。
 本変形例では、放送システム100の映像分離部102は、画像1101を、画像1102~画像1104の3つの画像に分割する。画像1102が、放送画像である。
 原映像を構成する他のフレーム画像についても、画像1101の場合と同様に分割する。
 そして、放送ストリーム作成部104が、放送画像(画像1102他)を放送ストリームの一部として多重化し、この放送ストリームを放送波により送信する。
 画像1101から画像1102を抽出した残余の画像である画像1103及び画像1104をそのままの形態で結合しても、画像1103及び画像1104の水平方向及び垂直方向の長さの違いから、結合結果が上述の変形例(3)のように矩形の画像にならない。
 そこで、画像1103と画像1104に関しては、画像1103を水平方向に1/2倍し(画像1113)、画像1104を垂直方向に1/2倍し(画像1114)、その後、合成することで追加画像1115を生成する。
 また、映像配置部103は、画像1102~画像1104についての画像1101における配置を示す映像配置設定データを生成する。
 そして、追加ストリーム作成部105が、画像1115を追加ストリームの一部として多重化する。また、追加ストリーム作成部105は、映像配置設定データを、追加ストリームの一部として多重化する。
 そして、追加ストリーム作成部105は、追加ストリームをネットワーク通信により送信する。
 ここで、本変形例に係る映像配置設定データの一例について説明する。
 図11(b)は、画像1101に係る映像配置設定データ1100を示す図である。
 映像配置設定データ1100の詳細については、構成は上述の映像配置設定データ400と同様であるが、各画像について水平方向及び垂直方向の倍率を指定するための項目が追加されている。
 具体的には、画像1113(矩形ID=1)については、水平方向に2倍する旨の指定を行っている。また、画像1114(矩形ID=2)については、垂直方向に2倍する旨の指定を行っている。
 受信側である再生装置200は、放送ストリーム、追加ストリームを受信し、追加ストリームに含まれる映像配置設定データに基づき、画像1102、画像1113及び画像1114を結合して、画像1101を復元するのであるが、画像1113については、水平方向に2倍(画像903)に拡大し、画像1114については垂直方向に2倍(画像904)に拡大した上で用いる。
 (5)上述の実施形態では、放送ストリームと追加ストリームを利用して、ワイド映像を放送する例について説明したが、常に放送ストリームと追加ストリームの双方を送信する必要はない。例えば、全期間でワイド映像を送信するのではなく、放送ストリームのみ、即ち放送映像のみを送信する期間があってもよい。
 この場合、放送映像のみを送信している期間については、映像配置設定データにおいて、放送画像についてのみ記載することとなる。
 また、再生装置200側でも、この期間中は、放送波のみを受信して、放送映像のみ再生することになる。また、ワイド映像を表示可能なディスプレイに、ワイド映像より小さな放送映像を表示することになるため、ディスプレイにおける放送映像を表示している領域以外の領域については、黒色などの単色画像を表示したり、所定の背景画像を表示するなどしてもよい。また、放送映像をディスプレイに拡大表示することとしてもよい。
 (6)上述の実施形態では、画像を分割する際の境界が、マクロブロックを跨ぐ場合については説明していない。例えば、図12に示すように、画像1201を複数の画像1202及び1203に分割して追加画像を生成する際に、マクロブロックが複数の画像の境界1210を跨ぐような場合である。
 このようにマクロブロックが境界(1210)を跨いでしまうと、マクロブロック内部の画素間の相関が下がり、圧縮率が下がってしまう。
 これを回避するために、図12の画像1221として示すように、画像1222の左端部及び/又は画像1223の右端部にマージン画像1232、及び/又は1233を設けて、マクロブロックが境界(1231)を跨がないように調整してもよい。
 (7)上述の実施形態では、放送ストリームと追加ストリームとを独立したストリームとして生成し別経路で送信することとしたが、放送映像と追加映像とを送信できれば足りる。
 例えば、放送ストリームと追加ストリームとを独立したストリームとして生成せずに、従属関係のあるストリームとして生成し、1つの経路で送信してもよい。一例としては、ワイド映像について、ビュー間参照を使った圧縮符号化を行って、1つの経路で送信することが考えられる。ビュー間参照を使った圧縮符号化としては、MPEG-4 AVC/H.264の修正規格であるMPEG-4 MVC(Multiview Video Coding)を用いる手法がある。
 図13は、MPEG-4 MVCによる符号化方式を説明するための図である。
 MPEG-4 MVC規格に従ったストリームは、従来の機器との再生互換性のある「基本ビュービデオストリーム」と、基本ビューと同時に処理することで別視点の映像の再生を実現する「拡張ビュービデオストリーム」から構成される。
 本変形例では、放送ストリームから基本ビュービデオストリームを生成し、追加ストリームから拡張ビュービデオストリームを生成することになる。
 基本ビュービデオストリームは、図13に示すように、映像を構成するフレーム(ピクチャ)群を、時間方向の冗長性のみを利用してピクチャ間予測符号化を用いて圧縮したものである。
 一方、拡張ビュービデオストリームは、映像を構成するフレーム群を、時間方向の冗長性を利用したピクチャ間予測符号化に加えて、視点間の冗長性を利用したビュー間予測符号化を用いて圧縮したものである。
 基本ビュービデオストリームのピクチャは、拡張ビュービデオストリームの同じ表示時刻(PTS)のピクチャを参照して圧縮されている。
 ここで、図13の矢印は参照関係を示している。
 例えば、拡張ビュービデオストリームの先頭Pピクチャ(P0)は、基本ビュービデオストリームのIピクチャ(I0)を参照している。また、拡張ビュービデオストリームのBピクチャ(B1)は、基本ビュービデオストリームのBrピクチャ(Br1)を参照している。また、拡張ビュービデオストリームの二つ目のPピクチャ(P3)は、基本ビュービデオストリームのPピクチャ(P3)を参照している。
 ここで、基本ビュービデオストリームは、拡張ビュービデオストリームを参照しないため、単体で再生することができる。
 一方、拡張ビュービデオストリームは、基本ビュービデオストリームを参照しているため、単体で再生することはできない。
 ただし、3D映像については、左右の視点から同じ被写体を見ているため、左目映像と右目映像の相関が大きい。よって、基本ビュービデオストリームに左目映像が多重化し、拡張ビュービデオストリームに右目映像が多重化するような場合、視点間のピクチャ間予測符号化を行うことで、拡張ビュービデオストリームのデータ量を、基本ビュービデオストリームのデータ量よりも大幅に削減できる。
 ここで、ビュー間参照を使って圧縮する映像(画像)対は、通常、解像度が同じものであるが、本変形例では、図14に示すように、放送映像1402を基本ビュービデオストリームとして符号化し、超ワイド映像1401を拡張ビュービデオストリームとして符号化することにより、MPEG-4 MVCのストリーム(以下、「MPEG-4 MVC放送ストリーム」という。)を生成する。
 この場合、超ワイド映像が拡張ビュービデオストリームとして圧縮符号化される場合に、超ワイド映像1401における放送映像1402相当部分(部分1403)については、全て基本ビュービデオストリーム1402を参照する。よって、この部分1403を圧縮符号化したデータの量は、非常に小さいものとなる。
 放送システム100は、MPEG-4 MVC放送ストリームを放送により再生装置200に送信する。
 再生装置200では、MPEG-4 MVC放送ストリームを放送により受信する。そして、再生装置200は、MPEG-4 MVC放送ストリームにおける基本ビュービデオストリームを参照しながら、拡張ビュービデオストリームを復号することにより、超ワイド映像1401を生成し、表示する。
 また、図15に示すように、放送映像1501を含む放送映像を基本ビュービデオストリームとして圧縮符号化する場合に、放送映像1501を、例えば2倍の面積に拡大して拡大映像1502を生成し、これをビュー間参照して、超ワイド映像1503を圧縮符号化することにより拡張ビュービデオストリームを生成することとしてもよい。
 これにより、拡張ビュービデオストリームにより送信する映像の解像度として、放送画像の解像度以外の解像度を選択することができることとなる。
(8)コンテンツ放送受信システムにおいて、放送ストリームと追加ストリームとを用い、複数の別視点映像から、ユーザが望む映像を選択して再生できる(以下、「マルチアングル」という。)サービスを実現することとしてもよい。
 図16は、本変形例に係るシステムの構成を示すブロック図である。
 本変形例に係るシステムは、放送システム1601と、再生装置1602とから成る。放送ストリームは、放送システム1601から再生装置1602に放送により送信され、追加ストリームは、放送システム1601から再生装置1602にネットワーク通信により送信される。
 (放送システム1601)
 放送システム1601は、図16に示すように、放送映像撮影部1611、放送ストリーム作成部104、別視点映像撮影部1612、追加ストリーム作成部105、別視点映像撮影部1613、追加ストリーム作成部1614、送出追加ストリーム選択部1615、及びスイッチ1616を含んで構成される。
 放送映像撮影部1611は、ビデオカメラで構成されており、撮影した映像(放送波映像)を放送ストリーム作成部104に出力する。
 放送ストリーム作成部104は、図1を用いて既に説明したものと同様である。
 別視点映像撮影部1612は、ビデオカメラで構成されており、撮影した映像(別視点映像1)を放送ストリーム作成部104に出力する。
 追加ストリーム作成部105は、図1を用いて既に説明したものと原則、同様の構成を有し、別視点映像1を圧縮符号化することにより追加ストリーム122を生成する。追加ストリーム作成部105は、また、映像配置設定データ123に代えて、別視点映像情報1631を追加ストリームに格納する。
 別視点映像撮影部1613は、ビデオカメラで構成されており、撮影した映像(別視点映像2)を放送ストリーム作成部1614に出力する。
 追加ストリーム作成部1614は、上述の追加ストリーム作成部105と同様の構成を有し、別視点映像2を圧縮符号化することにより追加ストリーム124を生成する。追加ストリーム作成部105は、また、別視点映像情報1631を追加ストリームに格納する。
 送出追加ストリーム選択部1615は、追加ストリーム122及び追加ストリーム124のうち、再生装置1602から要求されたものを再生装置1602に送信する。
 この再生装置1602からの要求は、例えば、URLの形式を用いて行われる。追加ストリーム122及び追加ストリーム124のそれぞれに、別個のURLが予め割り当てられており、再生装置1602は、送信を要望する追加ストリームに対応するURLにアクセス要求する。
 送出追加ストリーム選択部1615は、このアクセス要求を受け付けて、再生装置1602によりアクセス要求されたURLに応じた追加ストリームを出力するようスイッチ1616を切り替える。そして、送出追加ストリーム選択部1615は、再生装置1602によりアクセス要求されたURLに応じた追加ストリームを、再生装置1602に送信する。
 また、送出追加ストリーム選択部1615は、別視点映像情報を作成する。
 図17(b)は、別視点映像情報の一例(別視点映像情報1631、1651)を示す図である。
 別視点映像情報は、視点(アングル)を特定するためのユニークなIDである「アングルID」、ストリームの種別を特定してアクセスするための方法が記載される「ストリーム種別」、アングル映像の内容を記した「内容」をペアとするテーブル情報である。
 スイッチ1616は、送出追加ストリーム選択部1615による制御に基づいて、追加ストリーム122及び追加ストリーム124のいずれの追加ストリームを送信するかを切り替えるスイッチである。
 (再生装置1602)
 再生装置1602は、図16に示すように、チューナ201、放送ストリームデコード部202、第1映像プレーン203、NIC211、追加ストリームデコード部212、第2映像プレーン213、映像合成部221、合成映像プレーン222、及び受信追加ストリーム選択部1652を含んで構成される。
 チューナ201、放送ストリームデコード部202、第1映像プレーン203、NIC211、第2映像プレーン213、映像合成部221、及び合成映像プレーン222は、図2を用いて既に説明したものと同様である。
 追加ストリームデコード部212は、図2を用いて既に説明したものと基本的には同様であるが、追加ストリームに含まれる別視点映像情報1651を抽出し、受信追加ストリーム選択部1652に送信する点が異なる。なお、この別視点映像情報1651は、別視点映像情報1631と同様のものである。
 受信追加ストリーム選択部1652は、追加ストリームデコード部212から別視点映像情報を受け取り、メニュー表示を行うなどにより、ユーザに対し、複数の別視点映像から1つを選択することを促す。そして、ユーザがリモコン入力するなどにより選択した別視点映像が格納された追加ストリームの伝送を、ネットワーク経由で放送システム1601に要求する。この要求に対する応答として、NIC211が、選択された別視点映像が格納された追加ストリームを放送システム1601から受信する。
 上述のメニュー表示の一例として、受信追加ストリーム選択部1652は、図17(a)のメニュー1701を表示する。メニュー1701では、別視点映像情報1651における「内容」項目を端的に表示する。
 ユーザは、リモコン等を用いて、メニュー表示された「内容」のうちの1つを選択する。
 受信追加ストリーム選択部1652は、別視点映像情報1651を参照し、選択された「内容」に対応する「アングルID」、そのアングルIDに対応する「ストリーム種別」を読み出す。そして、受信追加ストリーム選択部1652は、その読み出したストリーム種別に係るストリームを伝送するよう、ストリーム種別に記載されたURLを用いて放送システム1601に要求する。
 以上により、複数ある別視点映像の追加ストリームの中からユーザの好みの映像を選択して再生することができる。
 なお、別視点映像情報1631(1651)は、追加ストリームではなく、放送ストリームに格納してもよいし、メタデータファイルとして、ストリームとは独立して構成するようにしてもよい。
 なお、別視点映像情報1631(1651)は、一例として図18に示すように、ビデオとオーディオを取得するために用いる情報(一例として、PID)を個別に設定できるようにしてもよい。
 図18の例では、アングルID=1のストリームについては、ビデオが、通信で提供される追加ストリームにPID=Aのパケットとして格納されていることを示す。また、オーディオは、放送波で提供される放送ストリームにPID=Zのパケットとして格納されていることを示す。
 アングルID=2のストリームについては、ビデオが、通信で提供される追加ストリームにPID=Bのパケットとして格納されていることを示す。また、オーディオは、通信で提供される追加ストリームにPID=Yのパケットとして格納されていることを示す。
 以上のように、この変形例によれば、様々な態様で追加ストリームを構成しても、その取得のための情報を記載ができるので、追加ストリームを作成する際の自由度を増すことができる。
 なお、上記の例では、PIDを用いてストリームの特定を行っているが、ストリームが特定できれば足りる。
 例えば、階層伝送記述子の参照先PIDなどのタグを使って特定することとしてもよい。
 (9)上述の変形例(8)における複数の別視点映像から1つを選択させる際のUI(ユーザインターフェース)として、複数の別視点映像の縮小映像(以下、「別視点縮小映像」という。)を1画面内に表示するインデックス映像を表示し、それらの別視点映像からユーザに好みの別視点映像を選択させるような構成としてもよい。
 ここで、別視点映像のそれぞれは、アングルIDで識別される。
 この構成を実現するために、一例として、図19(a)の映像1901として示すような「インデックス映像」と、「表示領域とアングルIDとの対応関係情報」を格納する追加ストリームを用いる。
 「表示領域とアングルIDとの対応関係情報」は、インデックス映像(一例として映像1901)における、各別視点縮小映像が表示されている表示領域と、表示されている別視点縮小映像のアングルIDとの対応関係を示す情報である。
 図19の画像1902は、対応関係情報が示す内容、すなわち、映像1901中に表示されている4つの別視点縮小映像と、アングルID(1902)との対応を視覚的に表した図である。具体的には、図19の画像1902は、縦横に2分割された領域について、左上の領域の別視点縮小映像のアングルIDは0であり、右上の領域の別視点縮小映像のアングルIDは1であり、左下の領域の別視点縮小映像のアングルIDは2であり、右下の領域の別視点縮小映像のアングルIDは3であることを表現している。
 そして、図19(b)に示すように、別視点映像情報には、インデックス映像(アングルID=4)についての情報を追加している。
 再生装置1602は、まず、インデックス映像を含む追加ストリームを受信し、復号して、ディスプレイに表示する。そして、インデックス映像に含まれる別視点縮小映像(一例として、図19の映像1911~1914)の1つを、ユーザに選択させる。
 再生装置1602は、ユーザにより選択された別視点縮小映像に対応付けられている別視点映像を表示する。
 例えば、映像1901のうち、ユーザにより映像1912(アングルID=1)が選択された場合には、アングルID=1の映像である映像1921をディスプレイに表示する。
 なお、ユーザに4つの別視点縮小映像から1つを選択させるためのUIとしては、一例として、画像1902における文字表示部分以外の部分を半透明化するなどしたメニュー画像を、映像1901に重畳して表示し、リモコンなどによりアングルID=0~3を選択可能としてもよい。
 また、再生装置1602がタブレット端末などタッチパネルを有する装置である場合には、アングル選択用のインデックス映像をタッチパネルに表示し、ユーザに、表示されている複数の別視点縮小映像のいずれかをタッチにより選択させてもよい。この場合、タブレット端末は、別視点映像情報における、別視点縮小映像を識別するアングルIDに対応づけられているストリーム種別を参照し、放送システムから通信により、ストリーム種別により表される追加ストリームを受信して再生する。また、タブレット端末は、別個の再生装置が、追加ストリームを受信し復号し、タブレット端末が表示できるフォーマットに変換して、無線LANなどを用いて転送してきたものを、表示するような構成にしてもよい。
(10)上述の変形例において、別視点映像への切り替え時には、映像が途切れることなくシームレスに切り替えできることが好ましい。以下、シームレスに切り替えるための3つの構成例について図20を用いて説明する。
 図20は、追加ストリームデコード部の詳細な構成の一例を示している。
 (構成例1:図20(a))
 図20(a)は、MPEG-2システムにおけるビデオストリームのデコーダモデルと同様の構成を示す。
 PIDフィルタは、TSパケットのPIDを参照して、TSパケットをフィルタリングして、TB(トランスポートバッファ)2004に出力する。
 TB2004に入力されたTSパケットは、TSヘッダが取り除かれて、所定レートでMB(メインバッファ)2005に転送される。ここで、所定レートは、TB2004から単位時間あたりに取り出さなければならないデータ量を示す。
 TB2004からMB2005へのデータの転送により、MB2005には、パケッタイズドビデオESデータ(ビデオPESデータ)が蓄積される。
 MB2005からは、EB(エレメンタリバッファ)2006に空きがあれば、ビデオPESデータが、所定タイミングでEB2006に転送される。
 ここで、データがTB2004から、MB2005、EB2006へと移動するにつれて、TSパケットヘッダ、PESヘッダなどのシステムストリームのヘッダ情報が取り除かれ、EB2006においては、ビデオのエレメンタリストリームのみが格納された状態となる。
 Dec(デコーダ)2007は、ビデオのエレメンタリストリームをデコードする機能を有し、EB2006からDec2007へはDTS(Decoding Time Stamp)のタイミングでデータが伝送される。
 Dec2007の出力は、DPB(復号化ピクチャバッファ)2008に保存され、PTSのタイミングでPlane(表示プレーン)2009に出力される。
 ここで、図20(a)のように、ビデオストリームのデコーダが1つの場合には、追加ストリーム#1(以降、TS1)と、追加ストリーム#2(以降、TS2)の入力切り替えを、PID filter2003への入力を切り替えることで行う必要がある。
 ここで、アングル切り替えをシームレスに行うには、TS1における、アングル切り替えタイミング時のTSパケットの位置(一例として、PTSなどの時間情報で表す。)を記憶しておく必要がある。そして、TS2については、位置(PTS)が上述のTS1について記憶しておいたTSパケットの位置と同じTSパケットをビデオデコーダに入力できる状態になったときに、ビデオデコーダへ入力するパケットのPIDを、TS1からTS2のものに切り替える。
 (構成例2:図20(b))
 図20(b)は、ビデオストリームのデコーダモデルを複数有する構成を示す図である。
 この構成において、復号後の画像をPlane2009に格納するストリームを、TS1からTS2に切り替える場合、切り替えることを決定してからTS1の復号と並行して、TS2の復号を開始する。そして、TS2についての表示準備(表示すべきピクチャの復号)が完了した後、直近のPTSのタイミングで、Plane2009の入力を、DPB2008からDPB2026へ切り替える。これにより、Plane2009に格納されるピクチャが、TS1から生成されるピクチャから、TS2から生成するピクチャへとシームレスに切り替えられる。
 (構成例3:図20(c))
 図20(c)は、ビデオストリームのデコーダモデルにおいて、バッファは複数あり、コア部分(Dec2042以降の構成)が1個である構成を示す図である。
 この構成において、TS1からTS2に切り替える場合には、TS2のGOP先頭を検出したタイミングでTS2のデコードを開始する。そして、EB2024にデータが十分たまった段階で、GOP先頭のピクチャのDTSのタイミングで、Dec2024への入力をTS1のEB2006から、TS2のEB2024に切り替える。
 ここで、DTSとPTSのタイミングは一致しないため、TS2のDTSで切り替えた後、PTSのタイミングが到来するまでは、TS1のDPBのピクチャを表示するよう構成する。すなわち、SW1(2041)は、DTSのタイミングで切り替え、SW2(2043)はPTSのタイミングで切り替える。これにより、シームレスな切り替えが実現できる。
 なお、SW1(2041)で、Dec2042の入力を、TS2のEB2024に切り替えたタイミングで、つぎのPTSに対応するピクチャがTS1のDPB2008に格納されていなければ、TS1のDPB2008に、1つ前のPTSのタイミングで格納されていたピクチャを表示するよう構成してもよい。
(11)上述の実施形態では、ワイド映像をワイドテレビに表示する構成で説明したが、ワイド映像を表示できれば足りる。
 例えば、ワイド映像を2分割し、右半分の映像を1つのテレビに表示し、左半分の映像を他のテレビに表示することとしてもよい。
 この場合、例えば、再生装置200において、図21に示すように、合成映像プレーン222の後段に映像出力部2101を備えることとする。
 この映像出力部2101が、ワイド映像を上述の2つのテレビを用いて表示できるよう分割し、出力1から右半分の映像を出力し、出力2から左半分の映像を出力する。
 映像出力部2101は、ワイド映像を2つのテレビに分けて表示するためのテレビに関する情報については、予め取得しているものとする。
 また、放送システム100の映像配置部103が、ワイド映像を分割し、再生装置200側で複数台のディスプレイに表示させるための表示指示情報を、映像配置設定データ123に含めて、再生装置200に送信することとしてもよい。
 表示指示情報は、例えば、再生装置200において復元したワイド映像の右半分を、ユーザから見て左のディスプレイに表示させ、またワイド映像の右半分を、ユーザから見て右のディスプレイに表示させる旨を示す。
 再生装置200は、ワイド映像を復元した場合に、映像配置設定データを参照し、ワイド映像の右半分を、出力1として出力することで、ユーザから見て左のディスプレイに表示させ、またワイド映像の右半分を、出力2として出力することで、ユーザから見て右のディスプレイに表示させる。
(12)上述の実施形態では、放送ストリームと追加ストリームの双方を再生装置200において受信し、再生することとしたが、受信及び再生の処理を複数の装置で分担して行ってもよい。
 例えば、図22に示すように、放送ストリームについては、テレビ1(再生装置200に相当)が放送波により受信して、放送映像を再生する。また、追加ストリームについては、携帯端末がネットワークにより受信して、追加映像を再生する。このとき、携帯端末は、追加映像を無線LAN(Local Area Network)によりテレビ2へと送信し、テレビ2が追加映像を表示する。
 この場合に、追加映像をいずれのテレビに表示させるかは、映像配置設定データに記載され追加ストリームに含められ、放送システム100から携帯端末に送信されるものとする。
 以上のように構成することで、テレビ1及びテレビ2が、放送システム100とネットワークを介した通信機能を有しない場合、又は、放送システム100とネットワークを介した通信ができない場合であっても、放送映像と追加映像とをテレビ1及びテレビ2に表示させることができる。
 上述のように、複数台のテレビに放送ストリームと追加ストリームの映像を表示する場合の、映像相互の同期をとるために、例えば、(a)テレビ1と、携帯端末とが、タイムサーバにアクセスして現在時刻を取得し時刻同期をとる方法、(b)リモコン(図示せず)の信号に同期のための情報を付して、テレビ1と、携帯端末とに受信させることにより時刻同期を取る方法、(c)テレビ1と、携帯端末とで、同じチャンネルの放送波を復号し、PCRを用いて同期を合わせる方法、(d)同じチャンネルではなくとも、サイマル放送(通常の放送波、及びワンセグ放送波)に関し、例えば、テレビ1において放送波を受信して復号し、携帯端末でワンセグ放送を受信して復号して、PCRを得て、PCRを用いて同期を合わせる方法、(e)携帯端末がカメラ機能を有する場合に、テレビ1で表示されている映像を撮影しながら、携帯端末においてワンセグ放送を復号し、撮影された映像と、ワンセグ放送を復号した映像とを比較して時間のずれを検出し、補償することにより同期を取る、などの方法を用いてもよい。
 (13)上述の実施形態では、追加ストリームは、放送システム100から再生装置200に対しネットワークを介して送信することとしていたが、送信できれば足りる。
 例えば、追加ストリームについても、放送波により放送システム100から再生装置200へと送信することとしてもよい。
 図33は、本変形例に係る放送システム100の構成を示すブロック図である。
 図33の放送システム100は、図1を用いて既に説明した放送システム100とは、以下の点で異なる。
 すなわち、図33の放送システムでは、追加ストリーム作成部105が、追加ストリーム122として、追加映像を、通信ではなく、放送波で放送できるフォーマットに変換することにより作成している。そして、図示しない送出部は、放送ストリーム作成部104が生成した放送ストリーム121と、追加ストリーム作成部105が生成した追加ストリーム122とが多重化されたストリームを放送波により送信している。
 図34は、本変形例に係る再生装置200の構成を示すブロック図である。
 図34の再生装置200は、図2を用いて既に説明した再生装置200とは、以下の点で異なる。
 すなわち、図34の再生装置200は、NIC211を有さず、チューナ201が、受信した放送波から、放送ストリーム121に係るTSパケットと、追加ストリーム122に係るTSパケットとを抽出する。そして、チューナ201は、放送ストリーム121に係るTSパケットを放送ストリームデコード部202に出力し、追加ストリーム122に係るTSパケットを追加ストリームデコード部212に出力する。
 以上により、追加ストリームについても、放送波により放送システム100から再生装置200へと送信する構成とすることができる。
 (14)上述の変形例(8)にて説明したシステムについても、上述の変形例(13)の場合と同様に、追加ストリームについても、放送波により放送システムから再生装置へと送信することとしてもよい。
 図35は、本変形例に係るシステムの構成を示すブロック図である。
 図35のシステムは、図16を用いて既に説明したシステムとは、以下の点で異なる。
 図35の放送システム1601では、追加ストリーム作成部105及び追加ストリーム作成部1614が、追加ストリーム(122、124)として、別視点映像を、通信ではなく、放送波で放送できるフォーマットに変換することにより作成している。そして、図示しない送出部は、放送ストリーム121、追加ストリーム122及び追加ストリーム124が多重化されたストリームを放送波により送信している。
 一方、図35の再生装置1602は、NIC211を有さず、チューナ201が、受信した放送波から、放送ストリーム121に係るTSパケットを放送ストリームデコード部202に出力する。
 また、受信追加ストリーム選択部1652は、チューナ201に対し、ユーザがリモコン入力するなどにより選択した別視点映像が格納された追加ストリームの抽出を要求する。
 そして、チューナ201は、要求された追加ストリーム(122又は124)に係るTSパケットを抽出する。そして、チューナ201は、追加ストリームに係るTSパケットを追加ストリームデコード部212に出力する。
 以上により、追加ストリームについても、放送波により放送システム100から再生装置200へと送信する構成とすることができる。
 (15)上述の変形例(11)にて説明した再生装置200についても、上述の変形例(13)の場合と同様に、追加ストリームについても、放送波により放送システム100から再生装置200へと送信することとしてもよい。
 図36は、本変形例に係る再生装置200の構成を示すブロック図である。
 この場合、図36の再生装置200は、上述の変形例(13)の場合と同様に、NIC211を有さず、チューナ201が、受信した放送波から、放送ストリーム121に係るTSパケットと、追加ストリーム122に係るTSパケットとを抽出する。そして、チューナ201は、放送ストリーム121に係るTSパケットを放送ストリームデコード部202に出力し、追加ストリーム122に係るTSパケットを追加ストリームデコード部212に出力する。
 以上により、追加ストリームについても、放送波により放送システム100から再生装置200へと送信する構成とすることができる。
 (16)上述の変形例(13)~(15)では、放送ストリームと、追加ストリームとを1つの放送波により、放送システムから再生装置へと送信する構成としていたが、複数の放送波により送信する構成としてもよい。
 例えば、放送ストリームと、追加ストリームとを別の放送波で送信することとしてもよい。
 図37は、本変形例に係る放送システム100の構成を示す図である。
 図37の放送システム100は、図33を用いて既に説明した放送システム100とは、追加ストリームを放送波で送信する点が異なる。
 図38は、本変形例に係る再生装置200の構成を示す図である。
 図38の再生装置200は、図34を用いて説明した再生装置200とは、以下の点で異なる。
 すなわち、図38の再生装置200は、チューナ3801を備えており、チューナ3801を用いて、放送波により、追加ストリームを受信する。
 以上により、追加ストリームについても、放送波により放送システムから再生装置へと送信する構成とすることができる。
 (17)上述の変形例(14)にて説明したシステムについても、上述の変形例(16)の場合と同様に、放送ストリームと、追加ストリームとを、複数の放送波により送信する構成としてもよい。
 図39は、本変形例に係るシステムの構成を示すブロック図である。
 図39のシステムは、図35を用いて既に説明したシステムとは、以下の点で異なる。
 すなわち、図39の放送システム1601では、追加ストリーム122及び追加ストリーム124が多重化されたストリームを放送波により送信している。
 また、図39の再生装置1602は、チューナ3901を有しており、追加ストリームが多重化された放送波を受信する。
 受信追加ストリーム選択部1652は、チューナ3901に対し、ユーザがリモコン入力するなどにより選択した別視点映像が格納された追加ストリームの抽出を要求する。
 そして、チューナ3901は、要求された追加ストリーム(122又は124)に係るTSパケットを抽出する。そして、チューナ3901は、追加ストリームに係るTSパケットを追加ストリームデコード部212に出力する。
 以上により、放送ストリームと、追加ストリームとを、複数の放送波により送信する構成とすることができる。
 (18)上述の変形例(15)にて説明した再生装置200についても、上述の変形例(16)の場合と同様に、放送ストリームと、追加ストリームとを、複数の放送波により受信する構成としてもよい。
 図40は、本変形例に係る再生装置200の構成を示すブロック図である。
 この場合、図40の再生装置200は、上述の変形例(16)の場合と同様に、チューナ3801を備え、チューナ3801を用いて、放送波により、追加ストリームを受信する。
 以上により、放送ストリームと、追加ストリームとを、複数の放送波により受信する構成とすることができる。
 (19)上述の実施形態で示した、放送システム100の映像分離処理、選択範囲取得処理など、再生装置200の合成指示処理、映像合成処理などを、放送システム100及び再生装置200のプロセッサ、及びそのプロセッサに接続された各種回路に実行させるための機械語或いは高級言語のプログラムコードからなる制御プログラムを、記録媒体に記録すること、又は各種通信路等を介して流通させ頒布することもできる。このような記録媒体には、ICカード、ハードディスク、光ディスク、フレキシブルディスク、ROM、フラッシュメモリ等がある。流通、頒布された制御プログラムはプロセッサに読み出され得るメモリ等に格納されることにより利用に供され、そのプロセッサがその制御プログラムを実行することにより各実施形態で示したような各機能が実現されるようになる。なお、プロセッサは、制御プログラムを直接実行する他、コンパイルして実行或いはインタプリタにより実行してもよい。
 (20)上述の実施形態で示した各機能構成要素(放送システム100のワイド映像撮影部101、映像分離部102、映像配置部103、放送ストリーム作成部104、及び追加ストリーム作成部105、再生装置200のチューナ201、放送ストリームデコード部202、第1映像プレーン203、NIC211、追加ストリームデコード部212、第2映像プレーン213、映像合成方法設定部214、映像合成部221、合成映像プレーン222など)は、その機能を実行する回路として実現されてもよいし、1又は複数のプロセッサによりプログラムを実行することで実現されてもよい。
 なお、上述の各機能構成要素は典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。更には、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適応等が可能性としてありえる。
 (21)上述の実施形態及び各変形例を、部分的に組み合せてもよい。
<5.補足1>
 上述の実施形態についての補足説明を行う。
<ストリームの多重化>
 次に、デジタルテレビ放送波などで伝送されるストリームである、MPEG-2トランスポートストリーム形式のデジタルストリームについて説明する。
 MPEG-2トランスポートストリームは、ISO/IEC13818-1およびITU-T勧告H222.0において標準化された規格に準拠したストリームである。
 図23は、MPEG-2トランスポートストリーム形式のデジタルストリームの構成を示す図である。
 図23に示すように、トランスポートストリームは、ビデオフレーム列から成るビデオストリーム、オーディオフレーム列から成るオーディオストリーム、字幕ストリームなどを多重化することで得られる。
 ビデオストリームは、番組の主映像が、MPEG-2、MPEG-4 AVCなどの方式を用いて圧縮符号化されたものである。
 オーディオストリームは、番組の主音声や副音声が、ドルビーAC-3、MPEG-2 AAC、MPEG-4 AAC、HE-AACなどの方式を用いて圧縮符号化されたものである。
 字幕ストリームは、番組の字幕情報を格納するストリームである。
 多重化の手順としては、ビデオについては、複数のビデオフレームからなるビデオストリーム2301を、PESパケット列2302に変換し、更に、TSパケット2303に変換する。
 オーディオについては、複数のオーディオフレームからなるオーディオストリーム2304を、PESパケット列2305に変換し、更に、TSパケット2306に変換する。
 字幕については、字幕ストリーム2307のデータを、それぞれPESパケット列2308に変換し、更に、TSパケット2309に変換する。
 そして、TSパケット2303、TSパケット2306、及びTSパケット2309を、1本のストリームとして多重化することにより、MPEG-2トランスポートストリーム2313を得る。
 トランスポートストリームに含まれる各ストリームは、PIDと呼ばれるストリーム識別のためのIDによって識別できる。このPIDのパケットを抽出することで再生装置は、対象のストリームを抽出する。PIDとストリームの対応は、後述のPMTパケットのディスクリプタに格納される。
 図24は、PESパケット列にビデオストリームがどのように格納されるかを示す図である。
 ストリーム2401は、ビデオストリームにおけるビデオフレーム列を示している。
 PESパケット列2402は、PESパケット列を示す。
 図24に矢印yy1、yy2、 yy3、 yy4として示すように、ビデオストリームにおける複数のVideo Presentation UnitであるIピクチャ、Bピクチャ、Pピクチャは、ピクチャ毎に分割され、PESパケットのペイロードに格納される。
 各PESパケットはPESヘッダを有しており、PESヘッダには、ピクチャの表示時刻であるPTS(Presentation Time-Stamp)やピクチャの復号時刻であるDTS(Decoding Time-Stamp)が格納される。
<ビデオストリームの圧縮符号化>
 ここでは、ビデオストリームの圧縮符号化について説明する。
 MPEG-2、MPEG-4 AVC、SMPTE VC-1(Society of Motion Picture Television Engineers VC-1)などの動画圧縮符号化では、動画像の空間方向および時間方向の冗長性を利用している。
 時間方向の冗長性を利用する手法としては、ピクチャ間予測符号化が用いられる。
 ここで、ピクチャとは、画像の冗長度が削減されたフレーム又はフィールドのことである。
 ピクチャ間予測符号化では、符号化対象のピクチャの圧縮符号化として、表示時間順で前方または後方にあるピクチャを参照ピクチャとすることで、時間方向の冗長度を削減する。そして、その参照ピクチャからの動き量を検出し、動き補償を行ったピクチャと符号化対象のピクチャとの差分値を圧縮符号化することで、空間方向の冗長度を削減する。
 図25は、一般的なビデオストリームのピクチャの参照関係を示す図である。
 図25中の矢印は、参照ピクチャを示す。
 ピクチャは、符号化方法によりIピクチャ、PIピクチャ、Bピクチャに分けられる。
 Iピクチャ(図中のI0など)は、参照ピクチャを用いることなく、符号化対象ピクチャのみを用いて、ピクチャ内予測符号化を行うことで生成するピクチャである。
 Pピクチャ(図中のP3、P6など)は、既に処理済の1枚のピクチャを参照してピクチャ間予測符号化するピクチャである。
 Bピクチャ(図中のB1、B2、B4、B5など)は、既に処理済みの2枚のピクチャを同時に参照してピクチャ間予測符号化するピクチャである。また、Bピクチャの中で、他のピクチャから参照されるピクチャをBrピクチャという。
 また、ビデオストリームがフレームで構成されている(フレーム構造である)場合のフレーム、またフィールドで構成されている(フィールド構造である)場合のフィールドを「ビデオアクセスユニット」という。
<ビデオストリームの階層構造>
 図26は、ビデオストリームの階層構造について説明するための図である。
 ビデオストリームは、複数の、符号化処理の基本単位であるGOPから構成されている。動画像の編集やランダムアクセスは、このGOPを単位として行われる。
 GOPは、上述のビデオアクセスユニットを1以上含めて構成されている。
 ビデオアクセスユニットは、AU識別コード、シーケンスヘッダ、ピクチャヘッダ、補足データ、圧縮ピクチャデータ、パディングデータ、シーケンス終端コード、ストリーム終端コードなどから構成される。これらのデータは、MPEG-4 AVCの場合であれば、NALユニット単位で格納される。
 AU識別コードは、アクセスユニットの先頭を示す開始符号である。
 シーケンスヘッダは、複数ビデオアクセスユニットから構成される再生シーケンスでの共通の情報を格納するヘッダである。シーケンスヘッダには、具体的には、解像度、フレームレート、アスペクト比、ビットレートなどの情報が格納される。
 ピクチャヘッダは、ピクチャ全体の符号化の方式などの情報を格納するヘッダである。
 補足データは、圧縮データの復号に必須ではない付加情報である。例えば、映像と同期してTVに表示するクローズドキャプションの文字情報やGOP構造情報などが格納される。
 圧縮ピクチャデータには、圧縮符号化されたピクチャのデータが格納される。パディングデータは、形式を整えるための意味のないデータが格納される。例えば、決められたビットレートを保つためのスタッフィングデータとして用いる。シーケンス終端コードは、再生シーケンスの終端を示すデータである。ストリーム終端コードは、ビットストリームの終端を示すデータである。
 AU識別コード、シーケンスヘッダ、ピクチャヘッダ、補足データ、圧縮ピクチャデータ、パディングデータ、シーケンス終端コード、ストリーム終端コードの内容は、ビデオの符号化方式によって異なる。
 例えば、ビデオの符号化方式がMPEG-4 AVCの場合、AU識別コードは、AUデリミタ(Access Unit Delimiter)であり、シーケンスヘッダは、SPS(Sequence Paramter Set)に、ピクチャヘッダは、PPS(Picture Parameter Set)であり、補足データはSEI(Supplemental Enhancement Information)であり、圧縮ピクチャデータは、複数個のスライスであり、パディングデータは、Filler Dataであり、シーケンス終端コードは、End of Sequenceであり、ストリーム終端コードは、End of Streamである。
 また、ビデオの符号化方式がMPEG-2の場合、シーケンスヘッダは、sequence_Header、sequence_extension、group_of_picture_headerであり、ピクチャヘッダは、picture_header、picture_coding_extensionであり、補足データは、user_dataであり、圧縮ピクチャデータは、複数個のスライスであり、シーケンス終端コードは、sequence_end_codeである。また、AU識別コードは存在しないが、アクセスユニットの切れ目は、それぞれのヘッダのスタートコードを用いて検出することができる。
 ここで、上述したデータのいくつかは省略可能な場合がある。例えば、シーケンスヘッダは、GOP先頭のビデオアクセスユニットにのみ記載しておき、それ以外のビデオアクセスユニットには記載しないこととしてもよい。
 また、符号化方式によっては、ビデオアクセスユニットとして、自ビデオアクセスユニット内にピクチャヘッダの記載がなく、符号順が前のビデオアクセスユニットのピクチャヘッダを参照するものが存在してもよい場合もある。
 例えば、一例として図27に示すGOP先頭のビデオアクセスユニット(2701)には、圧縮ピクチャデータとしてIピクチャのデータが格納され、AU識別コード、シーケンスヘッダ、ピクチャヘッダ、圧縮ピクチャデータが必ず記載される。補足データ、パディングデータ、シーケンス終端コード、ストリーム終端コードについては、必要に応じ記載される。
 一方、GOP先頭以外のビデオアクセスユニット(2702)には、AU識別コード、圧縮ピクチャデータが必ず記載され、補足データ、パディングデータ、シーケンス終端コード、ストリーム終端コードは、必要に応じ記載される。
<クロッピング及びスケーリング>
 クロッピングは、符号化されたフレーム領域から、一部の領域を抜き出すことである。スケーリングは、その抜き出した領域を拡大、縮小することである。
 クロッピング及びスケーリングを行うことで、符号化されたフレーム領域から、実際に表示に用いる領域を生成することができる。
 例えば、図28に示すように、符号化されたフレーム領域2801の中から実際に表示する領域を「クロッピング領域」(一例としてクロッピング領域2802)として指定する。そして、クロッピング領域2802を、実際にテレビなどに表示する際のスケーリング方法を示すスケーリング情報に従ってアップコンバート等することで実際に表示に用いる領域(画像)2803を生成する。
 クロッピング領域の指定は、MPEG-4 AVCの場合であれば、SPSに格納されるframe_cropping情報を用いて行うことができる。
 frame_cropping情報は、図29の説明用画像2901として示すように、クロッピンング領域の上線/下線/左線/右線と、符号化されたフレーム領域の上線/下線/左線/右線との差分を、上下左右のクロップ量として指定する。
 より具体的には、クロッピング領域を指定する場合には、frame_cropping_flagを1に設定し、frame_crop_top_offset / frame_crop_bottom_offset / frame_crop_left_offset / frame_crop_right_offsetに上/下/左/右のクロップ量を指定する。
 また、MPEG-2の場合には、図29の説明用画像2902として示すように、クロッピング領域の縦横のサイズ(sequence_display_extensionのdisplay_horizontal_size, display_vertical_size)と、符号化されたフレーム領域の中心とクロッピング領域の中心との差分情報(picture_display_extensionのframe_centre_horizontal_offset, frame_centre_vertical_offset)を使ってクロッピング領域を指定できる。
 また、スケーリング情報は、例えばアスペクト比として設定される。再生装置は、そのアスペクト比の情報を使って、クロッピング領域をアップコンバートして表示する。
 例えば、MPEG-4 AVCの場合には、スケーリング情報として、SPSにアスペクト比の情報(aspect_ratio_idc)が格納される。
 例えば、MPEG-4 AVCの場合、1440×1080のクロッピング領域を1920×1080に拡大して表示するためには、アスペクト比として4:3を指定する。この場合、水平方向に4/3倍にアップコンバート(1440×4/3=1920)され、1920×1080に拡大されて表示されることになる。
 MPEG-2の場合にも同様に、sequence_headerにアスペクト比の情報(aspect_ratio_information)が格納される。
<TSパケット>
 図30は、TSパケットのデータ構造を示す図である。
 TSパケットは、4バイトのTSヘッダ、アダプテーションフィールド、及びTSペイロードから構成される188バイト固定長のパケットである。
 TSヘッダは、transport_priority、PID、adaptaion_field_controlなどから構成される。
 PIDは前述の通りトランスポートストリームに多重化されているストリームを識別するためのIDである。transport_priorityは、同一PIDのTSパケットの中のパケットの種別を識別するための情報である。adaptation_field_controlは、アダプテーションフィールドとTSペイロードの構成を制御するための情報である。アダプテーションフィールドとTSペイロードは、いずれかのみが存在する場合と、両方が存在する場合とがあり、adaptation_field_controlが、その有無を示す。
 adaptation_field_controlが1の場合は、TSペイロードのみが存在し、adaptation_field_controlが2の場合は、アダプテーションフィールドのみが存在し、adaptation_field_controlが3の場合は、TSペイロードとアダプテーションフィールドの両方が存在することを示す。
 アダプテーションフィールドは、PCRなどの情報の格納や、TSパケットを188バイト固定長にするためのスタッフィングするデータの格納領域である。TSペイロードにはPESパケットが分割されて格納される。
 トランスポートストリームに含まれるTSパケットには、映像・音声・字幕などの各ストリーム以外にもPAT(Program Association Table)、PMT(Program Map Table)、PCR(Program Clock Reference)などがある。これらのパケットはPSI(Program Specific Information)と呼ばれる。
 PATは、トランスポートストリーム中に利用されるPMTのPIDが何であるかを示し、PAT自身のPIDは0である。
 PMTは、トランスポートストリーム中に含まれる映像・音声・字幕などの各ストリームのPIDと各PIDに対応するストリームの属性情報を有し、またトランスポートストリームに関する各種ディスクリプタを有する。
 ディスクリプタには、AVストリームのコピーを許可・不許可を指示するコピーコントロール情報などがある。PCRは、TSパケットのデコーダへの到着時刻とPTS・DTSの時間軸であるSTC(System Time Clock)の同期を取るために、そのPCRパケットがデコーダに転送されるタイミングに対応するSTC時間の情報を持つ。
 図31は、PMTのデータ構造を示す図である。
 PMTの先頭には、そのPMTに含まれるデータの長さなどを記したPMTヘッダが配置される。その後ろには、トランスポートストリームに関するディスクリプタが複数配置される。前述したコピーコントロール情報などが、ディスクリプタとして記載される。ディスクリプタの後には、トランスポートストリームに含まれる各ストリームに関するストリーム情報が複数配置される。ストリーム情報は、ストリームの圧縮コーデックなどを識別するためストリームタイプ、ストリームのPID、ストリームの属性情報(フレームレート、アスペクト比など)が記載されたストリームディスクリプタから構成される。
<6.補足2>
 以下、更に本発明の一実施形態としてのコンテンツ放送受信システムの構成及びその変形例と効果について説明する。
(1)本発明の一実施形態に係る再生装置は、原映像を再生する再生装置であって、前記原映像を構成するフレーム画像群における、各フレーム画像の任意の部分を抽出した放送画像群から成る放送映像を放送波から取得する第1受信手段と、前記フレーム画像群における、各フレーム画像の前記抽出された部分以外の残画像群から成る追加映像を受信する第2受信手段と、前記フレーム画像群についての、各フレーム画像における放送画像及び残画像の配置を示す配置情報を取得する配置情報取得手段と、前記配置情報に基づき、前記放送画像群と前記残画像群とを配置することにより前記フレーム画像群を生成し、表示する再生手段とを備える。
 この構成により、放送映像と、放送映像との固定の相対位置から定まる映像ではない任意の映像である追加映像とを用いて、原映像を再生することができる。
(2)また、前記フレーム画像のそれぞれは、前記放送画像と、複数の部分画像とに分割されており、前記残画像は、前記複数の部分画像が結合されて成り、前記配置情報は、前記残画像における、前記複数の部分画像それぞれの配置位置を示す情報を含み、前記再生手段は、前記配置情報を参照して、前記残画像を前記複数の部分画像に分割し、前記放送画像と結合することにより前記フレーム画像を生成することとしてもよい。
 この構成により、フレーム画像を、放送画像と、連続しない複数の部分画像とに分けられた場合であっても、これらの放送画像及び複数の部分画像からフレーム画像を生成することができる。よって、放送システムでフレーム画像を分割する場合における、フレーム画像の区切り方の自由度を増すことができる。
(3)また、前記フレーム画像のそれぞれは、水平方向に、前記複数の部分画像の1つとしての左部分画像、前記放送画像、及び前記複数の部分画像の1つとしての右部分画像の3つに分割され、前記再生手段は、前記配置情報を参照して、前記残画像を前記左部分画像及び前記右部分画像に分割し、前記左部分画像を前記放送画像の左端に結合し、前記右部分画像を前記放送画像の右端に結合することにより前記フレーム画像を生成することとしてもよい。
 この構成により、原映像として、放送画像を水平方向によりワイド化した映像を用いることができる。
(4)また、前記フレーム画像のそれぞれは、垂直方向に、前記複数の部分画像の1つとしての上部分画像、前記放送画像、及び前記複数の部分画像の1つとしての下部分画像の3つに分割され、前記再生手段は、前記配置情報を参照して、前記残画像を前記上部分画像及び前記下部分画像に分割し、前記上部分画像を前記放送画像の上端に結合し、前記下部分画像を前記放送画像の下端に結合することにより前記フレーム画像を生成することとしてもよい。
 この構成により、原映像として、放送画像よりも解像度を増した映像を用いることができる。
(5)また、前記複数の部分画像の少なくとも1つは、他の部分画像と結合される場合に拡大又は縮小されており、前記配置情報には、前記拡大又は縮小された部分画像について、元の大きさに戻すための倍率が記載されており、前記再生手段は、前記放送画像と前記複数の部分画像とを結合する場合に、前記拡大又は縮小された部分画像については、前記配置情報に基づき元の大きさに戻す処理を行ってから結合することとしてもよい。
 また、前記複数の部分画像の少なくとも1つは、他の部分画像と結合される場合に回転されており、前記配置情報には、前記回転された部分画像について、回転前の姿勢に戻すための回転角が記載されており、前記再生手段は、前記放送画像と前記複数の部分画像とを結合する場合に、前記回転された部分画像については、前記配置情報に記載された回転角の分だけ回転させてから結合することとしてもよい。
 この構成により、放送システムでフレーム画像を分割する場合における、フレーム画像の区切り方の自由度を一層増すことができる。
(6)また、前記放送システムは、ネットワークを介して前記追加映像を送信し、前記第2受信手段は、前記ネットワークを介して前記追加映像を受信することとしてもよい。
 この構成により、原映像を、放送波及び通信に分けて受信することができる。
(7)また、前記配置情報は、前記抽出される部分が同じであるフレーム画像から成る所定のグループ毎に、1つずつ生成されており、前記再生手段は、前記フレーム画像群を生成する場合に、前記グループそれぞれについて、当該グループについて生成された配置情報を参照し、当該グループを構成するフレーム画像を生成することとしてもよい。
 この構成により、フレーム画像個々に配置情報を生成する場合よりも、受信する配置情報の量を減らすことができる。よって、通信回線の混雑度合を低減することができる。
(8)本発明の一実施形態に係る再生方法は、原映像を再生する再生装置が実行する再生方法であって、前記原映像を構成するフレーム画像群における、各フレーム画像の任意の部分を抽出した放送画像群から成る放送映像を放送波から取得する第1受信ステップと、前記フレーム画像群における、各フレーム画像の前記抽出された部分以外の残画像群から成る追加映像を受信する第2受信ステップと、前記フレーム画像群についての、各フレーム画像における放送画像及び残画像の配置を示す配置情報を取得する配置情報取得ステップと、前記配置情報に基づき、前記放送画像群と前記残画像群とを配置することにより前記フレーム画像群を生成し、表示する再生ステップとを含む。
 本発明の一実施形態に係る集積回路は、原映像を再生する再生装置に用いられる集積回路であって、前記原映像を構成するフレーム画像群における、各フレーム画像の任意の部分を抽出した放送画像群から成る放送映像を放送波から取得する第1受信手段と、前記フレーム画像群における、各フレーム画像の前記抽出された部分以外の残画像群から成る追加映像を受信する第2受信手段と、前記フレーム画像群についての、各フレーム画像における放送画像及び残画像の配置を示す配置情報を取得する配置情報取得手段と、前記配置情報に基づき、前記放送画像群と前記残画像群とを配置することにより前記フレーム画像群を生成し、表示する再生手段とを備える。
 この構成により、放送映像と、放送映像との固定の相対位置から定まる映像ではない任意の映像である追加映像とを用いて、原映像を再生することができる。
(9)本発明の一実施形態に係る放送システムは、原映像を送信する放送システムであって、前記原映像を構成するフレーム画像群における、各フレーム画像の任意の部分を抽出し、前記抽出した画像群から成る放送映像を、放送波を用いて送信する第1送信手段と、前記フレーム画像群における、各フレーム画像の前記抽出された部分以外の残画像群から成る追加映像を生成し、送信する第2送信手段と、前記フレーム画像群についての、各フレーム画像における放送画像及び残画像の配置を示す配置情報を生成し、送信する配置情報送信手段とを備える。
 本発明の一実施形態に係る放送方法は、原映像を送信する放送システムが実行する放送方法であって、前記原映像を構成するフレーム画像群における、各フレーム画像の任意の部分を抽出し、前記抽出した画像群から成る放送映像を、放送波を用いて送信する第1送信ステップと、前記フレーム画像群における、各フレーム画像の前記抽出された部分以外の残画像群から成る追加映像を生成し、送信する第2送信ステップと、前記フレーム画像群についての、各フレーム画像における放送画像及び残画像の配置を示す配置情報を生成し、送信する配置情報送信ステップとを含む。
 本発明の一実施形態に係る集積回路は、原映像を送信する放送システムに用いられる集積回路であって、前記原映像を構成するフレーム画像群における、各フレーム画像の任意の部分を抽出し、前記抽出した画像群から成る放送映像を、放送波を用いて送信する第1送信手段と、前記フレーム画像群における、各フレーム画像の前記抽出された部分以外の残画像群から成る追加映像を生成し、送信する第2送信手段と、前記フレーム画像群についての、各フレーム画像における放送画像及び残画像の配置を示す配置情報を生成し、送信する配置情報送信手段とを備える。
 この構成により、放送映像と、放送映像との固定の相対位置から定まる映像ではない任意の映像である追加映像とを用いて、原映像を再生装置へと送信することができる。
 本発明の一実施形態に係る再生装置は、放送映像と追加映像とを結合して1個の結合映像を生成し表示する場合に、追加映像として放送映像との固定の相対位置から定まる映像ではない任意の映像を用いることができるものであり、放送及び通信の双方から映像を受信し結合し再生する装置等に有用である。
  100  放送システム
  101  ワイド映像撮影部
  102  映像分離部
  103  映像配置部
  104  放送ストリーム作成部
  105  追加ストリーム作成部
  106  追加ストリーム作成部
  200  再生装置
  201  チューナ
  202  放送ストリームデコード部
  203  映像プレーン
  211  NIC
  212  追加ストリームデコード部
  213  映像プレーン
  214  映像合成方法設定部
  215  映像合成方法設定部
  221  映像合成部
  222  合成映像プレーン

Claims (13)

  1.  原映像を再生する再生装置であって、
     前記原映像を構成するフレーム画像群における、各フレーム画像の任意の部分を抽出した放送画像群から成る放送映像を放送波から取得する第1受信手段と、
     前記フレーム画像群における、各フレーム画像の前記抽出された部分以外の残画像群から成る追加映像を受信する第2受信手段と、
     前記フレーム画像群についての、各フレーム画像における放送画像及び残画像の配置を示す配置情報を取得する配置情報取得手段と、
     前記配置情報に基づき、前記放送画像群と前記残画像群とを配置することにより前記フレーム画像群を生成し、表示する再生手段とを備える
     ことを特徴とする再生装置。
  2.  前記フレーム画像のそれぞれは、前記放送画像と、複数の部分画像とに分割されており、
     前記残画像は、前記複数の部分画像が結合されて成り、
     前記配置情報は、前記残画像における、前記複数の部分画像それぞれの配置位置を示す情報を含み、
     前記再生手段は、前記配置情報を参照して、前記残画像を前記複数の部分画像に分割し、前記放送画像と結合することにより前記フレーム画像を生成する
     ことを特徴とする請求項1記載の再生装置。
  3.  前記フレーム画像のそれぞれは、水平方向に、前記複数の部分画像の1つとしての左部分画像、前記放送画像、及び前記複数の部分画像の1つとしての右部分画像の3つに分割され、
     前記再生手段は、前記配置情報を参照して、前記残画像を前記左部分画像及び前記右部分画像に分割し、前記左部分画像を前記放送画像の左端に結合し、前記右部分画像を前記放送画像の右端に結合することにより前記フレーム画像を生成する
     ことを特徴とする請求項2記載の再生装置。
  4.  前記フレーム画像のそれぞれは、垂直方向に、前記複数の部分画像の1つとしての上部分画像、前記放送画像、及び前記複数の部分画像の1つとしての下部分画像の3つに分割され、
     前記再生手段は、前記配置情報を参照して、前記残画像を前記上部分画像及び前記下部分画像に分割し、前記上部分画像を前記放送画像の上端に結合し、前記下部分画像を前記放送画像の下端に結合することにより前記フレーム画像を生成する
     ことを特徴とする請求項2記載の再生装置。
  5.  前記複数の部分画像の少なくとも1つは、他の部分画像と結合される場合に拡大又は縮小されており、
     前記配置情報には、前記拡大又は縮小された部分画像について、元の大きさに戻すための倍率が記載されており、
     前記再生手段は、前記放送画像と前記複数の部分画像とを結合する場合に、前記拡大又は縮小された部分画像については、前記配置情報に基づき元の大きさに戻す処理を行ってから結合する
     ことを特徴とする請求項2記載の再生装置。
  6.  前記複数の部分画像の少なくとも1つは、他の部分画像と結合される場合に回転されており、
     前記配置情報には、前記回転された部分画像について、回転前の姿勢に戻すための回転角が記載されており、
     前記再生手段は、前記放送画像と前記複数の部分画像とを結合する場合に、前記回転された部分画像については、前記配置情報に記載された回転角の分だけ回転させてから結合する
     ことを特徴とする請求項2記載の再生装置。
  7.  前記放送システムは、ネットワークを介して前記追加映像を送信し、
     前記第2受信手段は、前記ネットワークを介して前記追加映像を受信する
     ことを特徴とする請求項1記載の再生装置。
  8.  前記配置情報は、前記抽出される部分が同じであるフレーム画像から成る所定のグループ毎に、1つずつ生成されており、
     前記再生手段は、前記フレーム画像群を生成する場合に、前記グループそれぞれについて、当該グループについて生成された配置情報を参照し、当該グループを構成するフレーム画像を生成する
     ことを特徴とする請求項1記載の再生装置。
  9.  原映像を再生する再生装置が実行する再生方法であって、
     前記原映像を構成するフレーム画像群における、各フレーム画像の任意の部分を抽出した放送画像群から成る放送映像を放送波から取得する第1受信ステップと、
     前記フレーム画像群における、各フレーム画像の前記抽出された部分以外の残画像群から成る追加映像を受信する第2受信ステップと、
     前記フレーム画像群についての、各フレーム画像における放送画像及び残画像の配置を示す配置情報を取得する配置情報取得ステップと、
     前記配置情報に基づき、前記放送画像群と前記残画像群とを配置することにより前記フレーム画像群を生成し、表示する再生ステップとを含む
     ことを特徴とする再生方法。
  10.  原映像を再生する再生装置に用いられる集積回路であって、
     前記原映像を構成するフレーム画像群における、各フレーム画像の任意の部分を抽出した放送画像群から成る放送映像を放送波から取得受信する第1受信手段と、
     前記フレーム画像群における、各フレーム画像の前記抽出された部分以外の残画像群から成る追加映像を受信する第2受信手段と、
     前記フレーム画像群についての、各フレーム画像における放送画像及び残画像の配置を示す配置情報を取得する配置情報取得手段と、
     前記配置情報に基づき、前記放送画像群と前記残画像群とを配置することにより前記フレーム画像群を生成し、表示する再生手段とを備える
     ことを特徴とする集積回路。
  11.  原映像を送信する放送システムであって、
     前記原映像を構成するフレーム画像群における、各フレーム画像の任意の部分を抽出し、前記抽出した画像群から成る放送映像を、放送波を用いて送信する第1送信手段と、
     前記フレーム画像群における、各フレーム画像の前記抽出された部分以外の残画像群から成る追加映像を生成し、送信する第2送信手段と、
     前記フレーム画像群についての、各フレーム画像における放送画像及び残画像の配置を示す配置情報を生成し、送信する配置情報送信手段とを備える
     ことを特徴とする放送システム。
  12.  原映像を送信する放送システムが実行する放送方法であって、
     前記原映像を構成するフレーム画像群における、各フレーム画像の任意の部分を抽出し、前記抽出した画像群から成る放送映像を、放送波を用いて送信する第1送信ステップと、
     前記フレーム画像群における、各フレーム画像の前記抽出された部分以外の残画像群から成る追加映像を生成し、送信する第2送信ステップと、
     前記フレーム画像群についての、各フレーム画像における放送画像及び残画像の配置を示す配置情報を生成し、送信する配置情報送信ステップとを含む
     ことを特徴とする放送方法。
  13.  原映像を送信する放送システムに用いられる集積回路であって、
     前記原映像を構成するフレーム画像群における、各フレーム画像の任意の部分を抽出し、前記抽出した画像群から成る放送映像を、放送波を用いて送信する第1送信手段と、
     前記フレーム画像群における、各フレーム画像の前記抽出された部分以外の残画像群から成る追加映像を生成し、送信する第2送信手段と、
     前記フレーム画像群についての、各フレーム画像における放送画像及び残画像の配置を示す配置情報を生成し、送信する配置情報送信手段とを備える
     ことを特徴とする集積回路。
PCT/JP2012/005088 2011-08-11 2012-08-09 再生装置、再生方法、集積回路、放送システム、及び放送方法 WO2013021656A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013505237A JP5979499B2 (ja) 2011-08-11 2012-08-09 再生装置、再生方法、集積回路、放送システム、及び放送方法
CN201280003152.6A CN103125123B (zh) 2011-08-11 2012-08-09 再现装置、再现方法、集成电路、广播系统及广播方法
US13/824,581 US8773584B2 (en) 2011-08-11 2012-08-09 Playback apparatus, playback method, integrated circuit, broadcast system, and broadcast method using a broadcast video and additional video
EP12821943.3A EP2744197A4 (en) 2011-08-11 2012-08-09 DEVICE AND METHOD FOR READING, INTEGRATED CIRCUIT, SYSTEM AND METHOD FOR BROADCAST

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201161522393P 2011-08-11 2011-08-11
US61/522,393 2011-08-11

Publications (1)

Publication Number Publication Date
WO2013021656A1 true WO2013021656A1 (ja) 2013-02-14

Family

ID=47668190

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/005088 WO2013021656A1 (ja) 2011-08-11 2012-08-09 再生装置、再生方法、集積回路、放送システム、及び放送方法

Country Status (5)

Country Link
US (1) US8773584B2 (ja)
EP (1) EP2744197A4 (ja)
JP (1) JP5979499B2 (ja)
CN (1) CN103125123B (ja)
WO (1) WO2013021656A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014142203A1 (ja) * 2013-03-14 2014-09-18 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
WO2015001947A1 (ja) * 2013-07-05 2015-01-08 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
WO2022118460A1 (ja) * 2020-12-04 2022-06-09 日本電信電話株式会社 制御装置、制御方法、およびプログラム

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9190110B2 (en) 2009-05-12 2015-11-17 JBF Interlude 2009 LTD System and method for assembling a recorded composition
US11232458B2 (en) 2010-02-17 2022-01-25 JBF Interlude 2009 LTD System and method for data mining within interactive multimedia
EP2866457B1 (en) * 2012-06-22 2019-03-20 Saturn Licensing LLC Reception device, and synchronous processing method therefor
WO2015014773A1 (en) * 2013-07-29 2015-02-05 Koninklijke Kpn N.V. Providing tile video streams to a client
TWI520610B (zh) * 2013-08-01 2016-02-01 晨星半導體股份有限公司 電視控制裝置與相關方法
WO2015060349A1 (ja) * 2013-10-22 2015-04-30 シャープ株式会社 表示制御装置、配信装置、表示制御方法、および表示制御システム
US20150253974A1 (en) 2014-03-07 2015-09-10 Sony Corporation Control of large screen display using wireless portable computer interfacing with display controller
US9653115B2 (en) 2014-04-10 2017-05-16 JBF Interlude 2009 LTD Systems and methods for creating linear video from branched video
EP3162075B1 (en) 2014-06-27 2020-04-08 Koninklijke KPN N.V. Hevc-tiled video streaming
KR101953679B1 (ko) 2014-06-27 2019-03-04 코닌클리즈케 케이피엔 엔.브이. Hevc-타일드 비디오 스트림을 기초로 한 관심영역 결정
JP6239472B2 (ja) * 2014-09-19 2017-11-29 株式会社東芝 エンコード装置、デコード装置、ストリーミングシステム、および、ストリーミング方法
US9792957B2 (en) 2014-10-08 2017-10-17 JBF Interlude 2009 LTD Systems and methods for dynamic video bookmarking
US11412276B2 (en) 2014-10-10 2022-08-09 JBF Interlude 2009 LTD Systems and methods for parallel track transitions
US10110946B2 (en) 2014-12-25 2018-10-23 Echostar Uraine, L.L.C. Simultaneously viewing multiple camera angles
EP3338454A1 (en) 2015-08-20 2018-06-27 Koninklijke KPN N.V. Forming one or more tile streams on the basis of one or more video streams
US10460765B2 (en) * 2015-08-26 2019-10-29 JBF Interlude 2009 LTD Systems and methods for adaptive and responsive video
WO2017036953A1 (en) * 2015-09-02 2017-03-09 Thomson Licensing Method, apparatus and system for facilitating navigation in an extended scene
US10674185B2 (en) 2015-10-08 2020-06-02 Koninklijke Kpn N.V. Enhancing a region of interest in video frames of a video stream
US11164548B2 (en) 2015-12-22 2021-11-02 JBF Interlude 2009 LTD Intelligent buffering of large-scale video
US11856271B2 (en) 2016-04-12 2023-12-26 JBF Interlude 2009 LTD Symbiotic interactive video
US20180070048A1 (en) * 2016-09-05 2018-03-08 International Business Machines Corporation Management of media content on a storage medium
US11050809B2 (en) 2016-12-30 2021-06-29 JBF Interlude 2009 LTD Systems and methods for dynamic weighting of branched video paths
US10257578B1 (en) 2018-01-05 2019-04-09 JBF Interlude 2009 LTD Dynamic library display for interactive videos
US11601721B2 (en) 2018-06-04 2023-03-07 JBF Interlude 2009 LTD Interactive video dynamic adaptation and user profiling
US20200296462A1 (en) 2019-03-11 2020-09-17 Wci One, Llc Media content presentation
US11523185B2 (en) 2019-06-19 2022-12-06 Koninklijke Kpn N.V. Rendering video stream in sub-area of visible display area
US11490047B2 (en) 2019-10-02 2022-11-01 JBF Interlude 2009 LTD Systems and methods for dynamically adjusting video aspect ratios
US11245961B2 (en) 2020-02-18 2022-02-08 JBF Interlude 2009 LTD System and methods for detecting anomalous activities for interactive videos
CN111479162B (zh) * 2020-04-07 2022-05-13 成都酷狗创业孵化器管理有限公司 直播数据传输方法、装置以及计算机可读存储介质
US11882337B2 (en) 2021-05-28 2024-01-23 JBF Interlude 2009 LTD Automated platform for generating interactive videos
US11934477B2 (en) 2021-09-24 2024-03-19 JBF Interlude 2009 LTD Video player integration within websites

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007104540A (ja) * 2005-10-07 2007-04-19 Open Interface Inc 撮影画像配信装置、撮影画像配信プログラム及び撮影画像配信方法
JP2010258707A (ja) * 2009-04-23 2010-11-11 Sharp Corp 映像表示装置、映像表示方法、プログラムおよび記録媒体
JP2011091578A (ja) * 2009-10-21 2011-05-06 Canon Inc 映像判定装置、映像表示装置及びそれらの制御方法、プログラム

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR8807633A (pt) * 1987-07-27 1990-06-05 David M Geshwind Processo para codificar um sinal,dispositivo e processo para exibir visualmente um sinal e informacoes,suporte,sistema de camera e processo para decodificar um sinal codificado
GB8721565D0 (en) * 1987-09-14 1987-10-21 Rca Corp Video signal processing system
US5068728A (en) * 1990-06-22 1991-11-26 Albert Macovski Compatible increased aspect ratio television system
JP3241368B2 (ja) * 1990-09-27 2001-12-25 日本電気株式会社 テレビジョン信号伝送方式
JPH05191803A (ja) * 1992-01-13 1993-07-30 Hitachi Ltd 動画像の合成装置および多地点間会議装置
US5430486A (en) * 1993-08-17 1995-07-04 Rgb Technology High resolution video image transmission and storage
KR100461207B1 (ko) * 1994-04-15 2005-04-21 코닌클리케 필립스 일렉트로닉스 엔.브이. 디지탈영상신호송수신장치
JPH07298258A (ja) * 1994-04-28 1995-11-10 Nippon Telegr & Teleph Corp <Ntt> 画像符号化復号化方法
US5768539A (en) * 1994-05-27 1998-06-16 Bell Atlantic Network Services, Inc. Downloading applications software through a broadcast channel
GB9526304D0 (en) * 1995-05-22 1996-02-21 British Sky Broadcasting Ltd Interactive services interface
US6020931A (en) * 1996-04-25 2000-02-01 George S. Sheng Video composition and position system and media signal communication system
JPH11122610A (ja) * 1997-10-17 1999-04-30 Toshiba Corp 画像符号化方法及び画像復号化方法並びにこれらの装置
AU2001266303A1 (en) * 2000-06-26 2002-01-08 Nds Limited Time shifted interactive television
EP1233614B1 (fr) * 2001-02-16 2012-08-08 C.H.I. Development Mgmt. Ltd. XXIX, LLC Système de transmission et de traitement vidéo pour générer une mosaique utilisateur
US7206352B2 (en) * 2001-04-02 2007-04-17 Koninklijke Philips Electronics N.V. ATSC digital television system
JP4646446B2 (ja) * 2001-06-28 2011-03-09 パナソニック株式会社 映像信号処理装置
US7050113B2 (en) * 2002-03-26 2006-05-23 International Business Machines Corporation Digital video data scaler and method
FR2848372B1 (fr) * 2002-12-09 2005-04-01 Medialive Synchronisation de flux audiovisuels securises
CN1509081A (zh) * 2002-12-20 2004-06-30 �ʼҷ����ֵ��ӹɷ����޹�˾ 通过广播和网络流传送双层hdtv信号的方法和系统
US7911536B2 (en) * 2004-09-23 2011-03-22 Intel Corporation Screen filled display of digital video content
US7489833B2 (en) * 2004-10-06 2009-02-10 Panasonic Corporation Transmitting device, reconstruction device, transmitting method and reconstruction method for broadcasts with hidden subtitles
JP2006115001A (ja) * 2004-10-12 2006-04-27 Fujitsu Ltd 映像送信装置および映像受信装置
JP4760288B2 (ja) * 2005-10-13 2011-08-31 ソニー株式会社 画像表示システム、表示装置、画像再合成装置、画像再合成方法及びプログラム
EP2103129A4 (en) * 2006-11-20 2014-07-23 Sk Planet Co Ltd SYSTEM, SERVER AND METHOD FOR PROVIDING A SUPPLEMENTARY INFORMATION SERVICE RELATED TO EQUIPPED CONTENT
JP4645638B2 (ja) * 2007-11-22 2011-03-09 ソニー株式会社 信号送信装置、信号送信方法、信号受信装置及び信号受信方法
CN101783873A (zh) * 2009-01-19 2010-07-21 北京视典无限传媒技术有限公司 数字化多媒体信息传输平台
JP2011199389A (ja) * 2010-03-17 2011-10-06 Sony Corp 画像処理装置、画像変換方法、およびプログラム
JP5132808B1 (ja) * 2011-10-11 2013-01-30 株式会社東芝 デジタル放送録画再生装置およびデジタル放送録画再生方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007104540A (ja) * 2005-10-07 2007-04-19 Open Interface Inc 撮影画像配信装置、撮影画像配信プログラム及び撮影画像配信方法
JP2010258707A (ja) * 2009-04-23 2010-11-11 Sharp Corp 映像表示装置、映像表示方法、プログラムおよび記録媒体
JP2011091578A (ja) * 2009-10-21 2011-05-06 Canon Inc 映像判定装置、映像表示装置及びそれらの制御方法、プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KINJI MATSUMURA; YASUAKI KANATSUGU: "HybridcastTM No Gaiyou To Gijutsu", NHK STRL R&D, NO.124, 2010
See also references of EP2744197A4

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102145154B1 (ko) 2013-03-14 2020-08-14 소니 주식회사 송신 장치, 송신 방법, 수신 장치 및 수신 방법
US10862638B2 (en) 2013-03-14 2020-12-08 Sony Corporation Transmission apparatus, transmission method, reception apparatus, and reception method
US11075728B2 (en) 2013-03-14 2021-07-27 Sony Corporation Transmission apparatus, transmission method, reception apparatus, and reception method
KR20190136131A (ko) * 2013-03-14 2019-12-09 소니 주식회사 송신 장치, 송신 방법, 수신 장치 및 수신 방법
KR102052684B1 (ko) 2013-03-14 2019-12-06 소니 주식회사 송신 장치, 송신 방법, 수신 장치 및 수신 방법
KR101753503B1 (ko) 2013-03-14 2017-07-03 소니 주식회사 송신 장치, 송신 방법, 수신 장치 및 수신 방법
KR20170077285A (ko) * 2013-03-14 2017-07-05 소니 주식회사 송신 장치, 송신 방법, 수신 장치 및 수신 방법
US9876616B2 (en) 2013-03-14 2018-01-23 Sony Corporation Transmission apparatus, transmission method, reception apparatus, and reception method
RU2642834C2 (ru) * 2013-03-14 2018-01-29 Сони Корпорейшн Передающее устройство, способ передачи, приемное устройство и способ приема
WO2014142203A1 (ja) * 2013-03-14 2014-09-18 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
KR102102349B1 (ko) 2013-03-14 2020-04-21 소니 주식회사 송신 장치, 송신 방법, 수신 장치 및 수신 방법
KR20200040941A (ko) * 2013-03-14 2020-04-20 소니 주식회사 송신 장치, 송신 방법, 수신 장치 및 수신 방법
KR20160030104A (ko) * 2013-07-05 2016-03-16 소니 주식회사 송신 장치, 송신 방법, 수신 장치 및 수신 방법
JPWO2015001947A1 (ja) * 2013-07-05 2017-02-23 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
CN105340281A (zh) * 2013-07-05 2016-02-17 索尼公司 发送装置、发送方法、接收装置和接收方法
RU2652099C2 (ru) * 2013-07-05 2018-04-25 Сони Корпорейшн Устройство передачи, способ передачи, устройство приема и способ приема
WO2015001947A1 (ja) * 2013-07-05 2015-01-08 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
KR102269311B1 (ko) * 2013-07-05 2021-06-28 소니그룹주식회사 송신 장치, 송신 방법, 수신 장치 및 수신 방법
CN105340281B (zh) * 2013-07-05 2019-06-28 索尼公司 发送装置、发送方法、接收装置和接收方法
US11330311B2 (en) 2013-07-05 2022-05-10 Saturn Licensing Llc Transmission device, transmission method, receiving device, and receiving method for rendering a multi-image-arrangement distribution service
WO2022118460A1 (ja) * 2020-12-04 2022-06-09 日本電信電話株式会社 制御装置、制御方法、およびプログラム

Also Published As

Publication number Publication date
EP2744197A4 (en) 2015-02-18
CN103125123A (zh) 2013-05-29
EP2744197A1 (en) 2014-06-18
US20130235270A1 (en) 2013-09-12
JP5979499B2 (ja) 2016-08-24
JPWO2013021656A1 (ja) 2015-03-05
US8773584B2 (en) 2014-07-08
CN103125123B (zh) 2017-04-26

Similar Documents

Publication Publication Date Title
JP5979499B2 (ja) 再生装置、再生方法、集積回路、放送システム、及び放送方法
JP6229962B2 (ja) 符号化装置及び符号化方法
WO2013021643A1 (ja) 放送通信連携システム、データ生成装置及び受信装置
US20120033039A1 (en) Encoding method, display device, and decoding method
US20110181693A1 (en) Method and apparatus for generating data stream for providing 3-dimensional multimedia service, and method and apparatus for receiving the data stream
WO2013061526A1 (ja) 放送受信装置、放送受信方法およびプログラム
US20120293619A1 (en) Generating a 3d video signal
TW201234833A (en) Encoding method, display apparatus, and decoding method
US20120050476A1 (en) Video processing device
WO2012111320A1 (ja) 映像符号化装置、映像符号化方法、映像符号化プログラム、映像再生装置、映像再生方法及び映像再生プログラム
WO2013099290A1 (ja) 映像再生装置、映像再生方法、映像再生プログラム、映像送信装置、映像送信方法及び映像送信プログラム
WO2013031549A1 (ja) 送信装置、送信方法および受信装置
US9357200B2 (en) Video processing device and video processing method
WO2012169204A1 (ja) 送信装置、受信装置、送信方法及び受信方法
WO2013018490A1 (ja) 送信装置、送信方法および受信装置
JPWO2013099289A1 (ja) 再生装置、送信装置、再生方法及び送信方法
JP6008292B2 (ja) ビデオストリームの映像のデータ作成装置及び再生装置
WO2013011834A1 (ja) 送信装置、送信方法および受信装置
WO2012026342A1 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
WO2013018489A1 (ja) 送信装置、送信方法および受信装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201280003152.6

Country of ref document: CN

ENP Entry into the national phase

Ref document number: 2013505237

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 13824581

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2012821943

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2012821943

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12821943

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE