WO2015060165A1 - 表示処理装置、配信装置、および、メタデータ - Google Patents

表示処理装置、配信装置、および、メタデータ Download PDF

Info

Publication number
WO2015060165A1
WO2015060165A1 PCT/JP2014/077350 JP2014077350W WO2015060165A1 WO 2015060165 A1 WO2015060165 A1 WO 2015060165A1 JP 2014077350 W JP2014077350 W JP 2014077350W WO 2015060165 A1 WO2015060165 A1 WO 2015060165A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
partial
partial video
attribute
identifier
Prior art date
Application number
PCT/JP2014/077350
Other languages
English (en)
French (fr)
Inventor
渡部 秀一
徳毛 靖昭
琢也 岩波
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to EP14856190.5A priority Critical patent/EP3062523B1/en
Priority to US15/030,760 priority patent/US20160269759A1/en
Priority to JP2015543804A priority patent/JPWO2015060165A1/ja
Publication of WO2015060165A1 publication Critical patent/WO2015060165A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2353Processing of additional data, e.g. scrambling of additional data or processing content descriptors specifically adapted to content descriptors, e.g. coding, compressing or processing of metadata
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4858End-user interface for client configuration for modifying screen layout parameters, e.g. fonts, size of the windows
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6156Network physical structure; Signal processing specially adapted to the upstream path of the transmission network
    • H04N21/6175Network physical structure; Signal processing specially adapted to the upstream path of the transmission network involving transmission via Internet

Definitions

  • the present invention mainly relates to a display processing device and a display processing method for displaying video on a display unit, and a distribution device for distributing video.
  • MPEG-DASH defines a standard for distributing media by HTTP, and can also be used for distributing video contents (see Non-Patent Document 1).
  • the viewer's device In addition to distributing the entire high-resolution video to the viewer's device, it also generates a low-resolution partial video group by dividing the video (entire video) into a matrix, and sends it to the viewer's device. It is also assumed that the partial video selected by the viewer using the cursor from the displayed whole video is distributed to the viewer's device by communication.
  • the acquisition destination and position information of each partial video (specifically, the upper left coordinates, width, and height of the partial video in the coordinate system with the upper left coordinates of the entire video as the origin) are associated with each other.
  • a method described in MPD data can be mentioned.
  • the user's device moves the cursor to specify the acquisition destination of the partial video selected by the viewer, and the upper left coordinates and width (or height) of the partial video at the position of the cursor before the movement are specified. ) And the upper left coordinate of the partial video selected by the viewer based on the moving direction of the cursor.
  • the viewer's device cannot easily specify the acquisition source of the partial video desired by the viewer.
  • the present invention has been made in view of the above problems, and its main purpose is to enable the viewer to easily specify the acquisition source of the partial video that the viewer desires to display in a specific display area. It is to realize a display processing device.
  • a display processing device provides a display processing device adjacent to a partial video that is to be displayed in a specific display area from among a plurality of partial videos constituting the entire video.
  • Receiving means for receiving selection of the partial video metadata acquisition means for acquiring the metadata in which each partial video identifier and acquisition destination are associated with each other, and the selected adjacent video
  • the acquisition destination of the partial video is specified by referring to the identifier of the partial video indicated in the metadata, the video acquisition means for acquiring the partial video from the acquisition destination, and the partial video of the display area
  • Display update means for updating to the partial video acquired by the video acquisition means, and each identifier of the partial video is the identifier of the partial video next to the partial video without referring to other information. Which is a constant that can be identifier.
  • a display processing method provides a display processing method adjacent to a partial video that is to be displayed in a specific display area among a plurality of partial videos constituting the entire video.
  • a reception step for receiving selection of the partial video a metadata acquisition step for acquiring metadata in which each partial video identifier and acquisition source are associated with each other, and selection in the reception step
  • a distribution apparatus reads, from a storage unit, metadata indicating an identifier and acquisition destination of a partial video for each of a plurality of partial videos constituting the entire video.
  • the metadata according to one aspect of the present invention is metadata in which an identifier and an acquisition source of the partial video are indicated for each of a plurality of partial videos constituting the entire video.
  • Each of the partial video identifiers is an identifier that can identify the identifier of the partial video adjacent to the partial video without referring to other information.
  • the display processing device and the display processing method according to one aspect of the present invention have an effect that the viewer can easily specify the acquisition source of the partial video desired to be displayed in the specific display area.
  • the distribution device has an effect that the display processing device can distribute metadata that allows the partial video acquisition source to be easily specified.
  • the metadata according to one aspect of the present invention has an effect that the display processing device can easily specify the acquisition source of the partial video.
  • FIG. 2 is a diagram schematically showing an entire video that can be distributed by the distribution apparatus of FIG. 1 and a partial video group obtained by dividing the entire video into a matrix. It is the figure which illustrated the metadata which the delivery apparatus of FIG. 1 delivers. It is a flowchart which shows operation
  • FIG. 16 is a diagram schematically showing which partial video is selected as a partial video to be displayed on the display surface of the tablet terminal as time passes, with reference to the metadata in FIG. 15. It is the figure which showed the modification of the whole image. It is the figure which showed another modification of the metadata which the delivery apparatus of FIG. 1 delivers. It is the figure which showed another modification of the metadata which the delivery apparatus of FIG. 9 delivers. It is the figure which showed another modification of the metadata which the delivery apparatus of FIG. 9 delivers. It is a figure for demonstrating another modification of the metadata which the delivery apparatus of FIG. 9 delivers.
  • FIG. 26 is a diagram showing another example of MPD data when the file format of FIG. 25 is used.
  • FIG. 26 is a diagram illustrating an example of MPD data when the file formats of FIG. 23 and FIG. 25 are mixedly used.
  • FIG. 26 is a diagram showing another example of MPD data when the file formats of FIG. 23 and FIG. 25 are mixedly used.
  • FIG. 26 is a diagram showing still another example of MPD data when the file formats of FIG. 23 and FIG. 25 are mixedly used.
  • FIG. 26 is a diagram showing still another example of MPD data when the file formats of FIG. 23 and FIG. 25 are mixedly used.
  • Embodiment 1 Hereinafter, a distribution system according to an embodiment of the present invention will be described.
  • the distribution system includes a distribution device, a television, and a tablet terminal.
  • the distribution device distributes full HD program video, 4K ⁇ 2K program video, and 8K ⁇ 4K program video related to the same program by broadcasting, and the TV has its own display panel (8K ⁇ 4K).
  • a program video (8K ⁇ 4K program video) corresponding to the resolution is displayed.
  • the distribution apparatus holds a low-resolution partial video group obtained by dividing the program video into a matrix, and distributes the partial video to the television by communication in response to a request from the television.
  • the TV displays the partial video received from the distribution device on the tablet terminal.
  • FIG. 1 is a block diagram illustrating a main configuration of a distribution device and a television according to the first embodiment.
  • FIG. 2 is a diagram schematically illustrating an entire video that can be distributed by the distribution apparatus according to the first embodiment and a partial video group obtained by dividing the entire video in a matrix.
  • the distribution apparatus 100 includes a storage unit 110, a video distribution processing unit 120, a broadcast transmission unit 130, and a communication I / F unit 140.
  • the storage unit 110 stores full HD program video (overall video), 4K ⁇ 2K program video (overall video), 8K ⁇ 4K program video (overall video), and each program video It is a recording medium that holds a partial video group. As shown in FIG. 2, these entire video and partial video may be collectively referred to as “tile”.
  • Video distribution processing unit 120 The video distribution processing unit 120 (reading unit, distribution unit) distributes the full HD program video, 4K ⁇ 2K program video, and 8K ⁇ 4K program video read from the storage unit 110 through the broadcast transmission unit 130, MPD data (metadata) related to program video is distributed. In addition, the video distribution processing unit 120 distributes the program video requested by the viewer's device to the device via the communication I / F unit 140.
  • the broadcast transmission unit 130 transmits the program video and MPD data supplied from the video distribution processing unit 120 on a broadcast wave.
  • the communication I / F unit 140 sends the partial video supplied from the video distribution processing unit 120 to the network.
  • the television 200 includes a tuner unit 210, a video acquisition processing unit 220, a storage unit 230, a playback unit 240, a display unit 250, and a communication I / F (communication interface) unit 260.
  • the tuner unit 210 is a tuner that receives a broadcast signal including program video and metadata.
  • Video acquisition processing unit 220 The video acquisition processing unit 220 acquires MPD data (metadata) related to the program video distributed by the distribution apparatus 100 via the tuner unit 210 and records the acquired MPD data in the storage unit 230.
  • MPD data metadata
  • the video acquisition processing unit 220 acquires MPD data (metadata) related to the program video distributed by the distribution apparatus 100 via the tuner unit 210 and records the acquired MPD data in the storage unit 230.
  • the video acquisition processing unit 220 refers to the acquisition destination of the partial video selected by the user and is included in the MPD data, and acquires the partial video from the distribution apparatus 100 that is the acquisition destination. Then, the video acquisition processing unit 220 transmits the acquired partial video to the tablet terminal 300.
  • the storage unit 230 is a recording medium that holds MPD data.
  • the playback unit 240 plays back the 8K ⁇ 4K program video acquired from the distribution apparatus 100 based on the MPD data, and displays the 8K ⁇ 4K program video on the display unit 250.
  • Display unit 250 This is a display on which 8K ⁇ 4K program video is displayed.
  • a rectangular cursor is superimposed on the 8K ⁇ 4K program video.
  • the vertical and horizontal sizes of the cursor are the same as the vertical and horizontal widths of each 4K ⁇ 2K (or full HD) partial video that can be displayed on the tablet terminal 300. If the horizontal width of the cursor is W dots and the vertical width of the cursor is H dots, the cursor can move by W dots in the horizontal direction and H dots in the vertical direction.
  • the user can select an arbitrary partial image by moving the cursor using a remote controller (not shown) of the television 200.
  • the communication I / F unit 260 is a communication interface used for communication with the distribution apparatus 100.
  • the tablet terminal 300 (mobile terminal) is connected to the television 200 so as to be communicable.
  • the tablet terminal 300 When receiving the partial video from the television 200, the tablet terminal 300 displays the received partial video on its own display panel (specific display area). Note that, when another partial video is already being displayed, the tablet terminal 300 deletes the displayed partial video and newly displays the received partial video.
  • FIG. 3 is a diagram illustrating MPD data.
  • the description of some information (for example, the attribute value of attribute src) of MPD data is omitted from the viewpoint of simplifying the drawing. Yes.
  • MPD data has an MPD start tag described at the beginning and an MPD end tag described at the end.
  • AdaptationSet tags are described between the Period start tag and the Period end tag.
  • Role tag is described between an AdaptaionSet start tag and an AdaptaionSet end tag whose attribute value of the attribute id is “A0”, a Representation tag for full HD video, a Representation tag for 4K ⁇ 2K video, and a Representation tag for 8K ⁇ 4K video, .
  • the three videos corresponding to these three Representation tags show the same content. That is, the three videos all have the same role (Role) in the sense of “whole picture”, and only the resolution (size) is different. For this reason, in the MPD data of FIG. 3, these are described together with the Role tag (between the AdaptaionSet start tag and the AdaptaionSet end tag) in the same AdaptationSet, and the resolution (size) is set in each Representation tag as shown below. It is described.
  • Each Representation tag describes an attribute value indicating the size of the corresponding video (attribute value of attribute width and attribute height) and an attribute value indicating the acquisition destination of the corresponding video (attribute value of attribute src).
  • the attribute value of the attribute src is the packet ID of each packet constituting the corresponding video when the corresponding video is transmitted by broadcast. For example, a packet ID is described in a Representation tag of an 8K ⁇ 4K video.
  • the attribute value of the attribute src is a URL indicating the request destination of the corresponding video. For example, URLs are described in the Representation tag for full HD video and the Representation tag for 4K ⁇ 2K video.
  • a Representation tag for a full HD video a Representation tag for a 4K ⁇ 2K video
  • a Role tag Two videos corresponding to these two representation tags show the same contents. That is, both of the two videos play the same role (Role) in the sense of “partial video with an index value (0,0)” as described later, and only the resolution (size) is different. Therefore, in the MPD data of FIG. 3, these are described together with the Role tag in the same AdaptationSet (between the AdaptaionSet start tag and the AdaptaionSet end tag), and the resolution (size) is described in each Representation tag.
  • each Representation tag an attribute value indicating the size of the corresponding video and an attribute value indicating the acquisition destination of the corresponding video are described.
  • the attribute value of the attribute src is a URL indicating the acquisition destination of the corresponding video.
  • an attribute type indicating whether each video corresponding to each Representation tag described immediately after the Role tag is a whole video or a partial video is described. “Tile” indicating that each video is a partial video is described. Further, as shown in FIG. 3, the attribute i_x and the attribute i_y are described in the AdaptationSet start tag in which “tile” is described as the attribute value of the attribute type.
  • a pair of attribute value “0” of attribute i_x of role tag and attribute value “0” of attribute i_y corresponds to each Representation tag described immediately after the Role tag.
  • the pair of the attribute value “i” of the attribute i_x of the Role tag and the attribute value “j” of the attribute i_y (that is, the index value (i, j)) is described immediately after the Role tag.
  • Each partial video corresponding to each Representation tag displayed is a partial video in the (i + 1) th row (j + 1) th column in the partial video group obtained by dividing the entire video into a matrix. ing.
  • AdaptaionSet (AdaptationSet A1-0) whose attribute value of the attribute id of the AdaptaionSet start tag is “A1-0” has been described above. The same interpretation can be applied to the layer 2 element AdaptationSet (AdaptationSet A2-0 to AdaptationSetA2-15).
  • Each Subset tag includes an attribute n_x and an attribute n_y that indicate the partial image group corresponding to the attribute value of the attribute contains, which is a partial image group generated by dividing the entire video into how many vertically and horizontally. A pair is included.
  • the video acquisition processing unit 220 determines which layer element AdaptationSet of layer 1 and layer 2 is referred to based on the setting of the television 200 in order to acquire a partial video. Further, when referring to the layer 0 element AdaptationSet (AdaptationSet A0) and the layer 1 element AdaptationSet, the video acquisition processing unit 220 refers to which Representation tag of the two Representation tags included in each AdaptationSet element. This is determined based on the resolution of the display unit 250. That is, since the resolution is 8K ⁇ 4K, the video acquisition processing unit 220 acquires the entire video of 8K ⁇ 4K when referring to the layer 0 element AdaptationSet, and when referring to the layer 1 element AdaptationSet. A 4K ⁇ 2K partial image is acquired.
  • the television 200 is set so as to refer to the layer 2 adaptation set in order to acquire the partial video.
  • FIG. 4 is a flowchart showing the operation of the television 200.
  • the video acquisition processing unit 220 of the television 200 first acquires MPD data and program video as shown in FIG. 4 (step S1). Specifically, the video acquisition processing unit 220 acquires MPD data from a broadcast wave. Then, the video acquisition processing unit 220 refers to the attribute value (packet ID) of the attribute src regarding the entire 8K ⁇ 4K video included in the MPD data, and a packet group having the packet ID included in the broadcast wave (A group of packets constituting the entire 8K ⁇ 4K video) is extracted from the broadcast wave.
  • the playback unit 140 plays back the program video (8K ⁇ 4K overall video) and displays it on the display unit 250, and displays the rectangular cursors (vertical 1920 dots, horizontal 1080 dots) described above. It is displayed on the part 250 (step S2). Note that the playback unit may display, for example, a rectangular cursor at a position where the upper left corner of the entire video is the upper left corner of the cursor.
  • step S3 the video acquisition processing unit 220 specifies an index value corresponding to the current cursor position. For example, when the upper left corner of the cursor matches the upper left corner of the entire video, the video acquisition processing unit 220 specifies an index value (0, 0) corresponding to the cursor position.
  • step S ⁇ b> 3 the video acquisition processing unit 220 refers to the MPD data and specifies the acquisition destination of the partial video corresponding to the index value. For example, when the specified index value is (0,0), a Role tag in which the attribute value of the attribute i_x and the attribute value of the attribute i_y are both 0 is searched from the MPD data, and such a Role tag is found. Specify the attribute value of attribute src included in the included element AdaptationSet. Further, in step S3, the video acquisition processing unit 220 acquires a partial video from the specified acquisition destination (distribution apparatus 100).
  • step S5 If the step immediately before step S3 is step S5, (1,0), (-1,0), (0,1) or (0,1) or (0,1) or (0,1) with respect to the index value corresponding to the immediately preceding cursor position.
  • the index corresponding to the current cursor position is added by adding one of the values of -1) (for example, (0,1) if it is determined in step S5 that the cursor has moved down). The value can be determined.
  • the video acquisition processing unit 220 transmits the partial video to the tablet terminal 300 in order to display the partial video acquired in step S3 on the tablet terminal 300 (step S4).
  • step S4 the video acquisition processing unit 220 determines whether or not the cursor has moved to the next side (specifically, the upper side, the lower side, the left side or the right side) (step S5).
  • step S6 The television 200 proceeds to step S6 if it is determined in step S5 that the cursor has not moved next, and returns to step S3 if it is determined in step S5 that the cursor has moved next.
  • step S6 the video acquisition processing unit 220 determines whether or not the program being played has ended.
  • the television 200 returns to step S5 when it is determined in step S6 that the program has not ended, and ends the operation of the flowchart of FIG. 4 when it is determined that the program has ended in step S6.
  • the television 200 displays the display surface (specific image) of the 16 full HD partial videos (plural partial videos) constituting the entire video (8K ⁇ 4K program video).
  • An operation reception unit (reception unit, not shown) that receives selection of a partial video next to the partial video that is to be displayed on the display area is provided.
  • the television 200 associates each of the 16 full HD partial videos with an identifier (a pair of the attribute value of the attribute i_x and the attribute value of the attribute i_y) and an acquisition destination (the attribute value of the attribute src).
  • a video acquisition processing unit 220 (metadata acquisition means) for acquiring the MPD data (metadata) shown in FIG.
  • the video acquisition processing unit 220 (video acquisition means) specifies the acquisition destination of the selected adjacent partial video by referring to the identifier of the partial video indicated in the metadata, and acquires the acquisition destination ( The partial video is acquired from the distribution device 100). Furthermore, the video acquisition processing unit 220 (display update unit) updates the partial video on the display surface of the tablet terminal 300 to the acquired partial video.
  • Each identifier of the 16 full HD partial videos described in the MPD data can be said to be an identifier that can identify the identifier of the partial video adjacent to the partial video without referring to other information. .
  • the television 200 can specify the identifier of the partial video that the viewer desires to display on the display surface of the tablet terminal 300 without referring to other information described in the MPD data.
  • the television 200 can easily specify the acquisition destination of the partial video recorded in the MPD data in association with the identifier.
  • the MPD data is not limited to MPD data as shown in FIG.
  • the MPD data may be the MPD data illustrated in FIG. 5, FIG. 6, or FIG.
  • each video corresponding to each Representation tag described immediately after the Tile tag is a partial video in the Tile tag.
  • an attribute type indicating whether the video is an entire video may be an attribute value indicating that each video is an entire video
  • the attribute type attribute value “partial” is an attribute value indicating that each video is a partial video. May be.
  • the attribute n_x and the attribute n_y may be described as attributes of the Role tag or Tile tag instead of being described as the attributes of the Subset tag.
  • the MPD data may be the MPD data illustrated in FIG.
  • an attribute layer indicating which layer each video corresponding to each Representation tag described immediately after the Tile tag belongs may be described in the Tile tag.
  • the attribute value “0” of the attribute layer may be an attribute value indicating that each video belongs to layer 0 (that is, each video is an entire video).
  • the attribute value “1” of the attribute layer may be an attribute value indicating that each video belongs to the layer 1 (each video is a partial video of the layer 1), and the attribute value “2” of the attribute layer.
  • "" May be an attribute value indicating that each video belongs to layer 2 (each video is a partial video of layer 2).
  • Attribute n_x and attribute n_y may not be included.
  • the television 200 displays the partial video on the tablet terminal 300
  • the television 200 is not limited to such a configuration.
  • the television 200 acquires the entire video acquired from the broadcast wave on the display surface of the display unit 250 in a full screen, and acquires it by communication within a small screen (specific display area) that occupies a part of the display surface.
  • a partial video may be displayed.
  • this embodiment showed the example which acquires a whole image and a partial image
  • FIG. 23 to FIG. 23 show the format for storing data encoded by HEVC (High Efficiency Video Coding) standardized in MPEG in ISOBMFF (ISO Base Media File Format) and the corresponding MPD data. 30 will be used for explanation.
  • HEVC High Efficiency Video Coding
  • ISOBMFF ISO Base Media File Format
  • FIG. 23 is a diagram schematically showing a format when each tile is stored in a different file.
  • Each file is composed of one track, and the track includes VPS (Video Parameter Set), SPS (Sequence Parameter Set), PPS (Picture Parameter Set), SEI (Supplemental Enhancement Information), and tile codes necessary for decoding processing.
  • VPS Video Parameter Set
  • SPS Sequence Parameter Set
  • PPS Physical Parameter Set
  • SEI Supplemental Enhancement Information
  • tile codes necessary for decoding processing A plurality of slices corresponding to the digitized data are included.
  • FIG. 24 is a diagram illustrating MPD data when the file format of FIG. 23 is used. In this case, since different file names are assigned to the tiles 1 to 4, the respective file names are described in the URL indicating the tile acquisition destination.
  • FIG. 25 is a diagram schematically showing a format when each tile is stored in a different track.
  • the file is composed of a total of five tracks including a track including a parameter set (VPS, SPS, PPS, etc.) necessary for decoding processing and four tracks corresponding to encoded data of each tile.
  • a parameter set VPN, SPS, PPS, etc.
  • FIG. 26 is a diagram illustrating MPD data when the file format of FIG. 25 is used.
  • data (VPS, SPS, PPS, etc.) included in the parameter set track and data (Slice) included in the track designated by the track dimension of the URI fragment are input to the playback unit 240 and played back.
  • FIG. 27 is a diagram schematically showing a format when all tiles are stored in one track.
  • the file is composed of one track, and the track includes a parameter set necessary for decoding processing and a plurality of slices corresponding to encoded data of each tile.
  • FIG. 28 is a diagram illustrating MPD data when the file format of FIG. 27 is used.
  • the data (VPS, SPS, PPS, etc.) included in the parameter set track and the data (Slice) in the area specified by the spatial dimension of the URI fragment are input to the playback unit 240 and played back.
  • FIG. 29 is a diagram schematically showing a format when there are a plurality of tracks storing a plurality of tiles.
  • the file is composed of a total of three tracks: a track including a parameter set necessary for decoding processing and two tracks corresponding to encoded data of tiles.
  • Track 1 stores Tile 1 and Tile 2
  • Track 2 stores Tile 3 and Tile 4.
  • FIG. 30 is a diagram illustrating MPD data when the file format of FIG. 29 is used.
  • the playback unit 240 includes data (VPS, SPS, PPS, etc.) included in the parameter set track and data (Slice) in the track designated by the track dimension of the URI fragment and the area designated by the spatial dimension of the URI fragment. Is input and played.
  • the description format of the URI fragment is not limited to the above format, but may be described in another format defined by MPEG-21 or the like.
  • FIG. 31 is a diagram showing a modification of MPD data when the file format of FIG. 29 is used.
  • FIG. 32 is a diagram showing another modification example of MPD data when the file format of FIG. 29 is used.
  • the $ x $, $ y $, $ w $, and $ h $ values are derived from the i_x and i_y attribute values of the Role element and the width and height attribute values of the Representation element at the client terminal. Replaced.
  • FIG. 25 shows a format when tile data encoded by HEVC is stored in one ISOBMFF file.
  • FIGS. 27 and 29 are examples of formats in which tile data encoded by HEVC is stored in one ISOBMFF file.
  • ISOBMFF it is possible to map the storage position (reading position) of tile data and the level of the index (index) using the subsegment index box. Accordingly, MPD data describing tiles at the Sub-Representation level can be configured.
  • FIG. 33 is an example of MPD data describing tiles at the Sub-Representation level corresponding to the format of FIG.
  • the URL (BaseURL element) ⁇ attached to Representation indicates the file name of the file storing the tile data
  • the level attribute attached to Sub-Representation indicates the storage position of the tile data in the file.
  • the storage location is separately managed by BOX (subsegment index box) in ISOBMFF. Therefore, for example, the MPD data is commonly represented in FIG. 33 regardless of the format of FIG. 27 or the format of FIG.
  • FIG. 34 is an example of MPD data assuming a case where the formats of FIGS. 23 and 25 coexist. That is, one file storing all tile data (each tile is written on the MPD data at the Sub-Representation level) and multiple files storing each tile data (each tile is written on the MPD data at the AdaptationSet level) ) Are mixed.
  • the file A0.mp4 of 4K (3840 ⁇ 2160) includes tiles of 2K (1920 ⁇ 1080) size at the upper left, upper right, lower left, and lower right, and the upper left of 4K (3840 ⁇ 2160) size.
  • the upper right, lower left, and lower right tiles are stored and provided in files A0-1.mp4, A0-2.mp4, A0-3.mp4, and A0-4.mp4, respectively.
  • there are the following two problems in MPD data in which descriptions of AdaptationSet level tiles and Sub-Representation level tiles are mixed. -It is not possible to immediately know the presence or absence of a tile description (eg uniformly at the AdaptationSet level). -The same tile (for example, the above-mentioned 1/4 size upper left tile) is written in multiple places in MPD data. A method for solving these problems will be described below.
  • FIG. 35 is another example of MPD data assuming a case where the formats of FIG. 23 and FIG. 25 coexist.
  • the Role element is described in the AdaptationSet at the top (under which the Sub-Representation level tile is described), and the attribute inside is added to the Role element and other Role elements under the AdaptationSet.
  • This is different from the example of FIG. With these, it is possible to uniformly know the presence or absence of tile description at the AdaptationSet level. That is, the following conditions are used.
  • the identifier inside is an identifier of 0 or 1 indicating whether or not there is a Sub-Representation including a Role element representing a tile in the bottom of the AdaptationSet (under Representation) to which the Role element is attached. Value 1 if present, value 0 if not present.
  • the identifier inside may be written as a Period attribute instead of the top AdaptationSet.
  • whether the current AdaptationSet includes a Role element at the Sub-Representation level and whether the next AdaptationSet includes a Role element at the AdaptationSet level Inside can also be defined as a 2-bit identifier indicating
  • the identifier inside is not limited to numerical values such as 0, 1, and 2, but may be defined with the value of text. That is, the identifier inside may be information that can correctly identify whether the Role element indicating the tile is at the AdaptationSet level or the Sub-Representation level.
  • the element representing the tile is not limited to the Role element (Role tag) ⁇ , but may be the above-described Tile element (Tile tag) or other elements specified separately.
  • the value “hvt1” only indicates that tile encoding and storage processing have been added, and does not necessarily indicate that there is a Role element representing a tile under Sub-Representation. Whether or not to include a Role element representing a tile under Sub-Representation when the value “hvt1” is indicated is determined by the system / service designer. Assuming that the attribute codecs is included, the attribute codecs is an identifier for identifying the presence or absence of a tile at the Sub-Representation level, as in the case of the inside.
  • FIG. 36 is still another example of MPD data assuming a case where the formats of FIGS. 23 and 25 coexist.
  • This example is different from the example of FIG. 35 in that an attribute member is added to each Role element under AdaptationSet and Sub-Representation.
  • an attribute member is added to each Role element under AdaptationSet and Sub-Representation.
  • identification information of AdaptationSet or identification information of Sub-Representation including the same tile as the tile represented by the Role element is described.
  • the adaptation set id value (“A0-1”, “A0-2”, etc.) is used for the identification information of the adaptation set, and the identification information of the adaptation set includes the sub-representation id.
  • a value ⁇ (“A0 / 1”, “A0 / 2”, etc.) in the $ id $ / $ level $ format, which is a combination of the level value for identifying Sub-Representation, is used.
  • the attribute member “” described in the Role element under the first AdaptationSet explicitly indicates that there is no identical tile in the MPD data.
  • member “A0-1 A1 / 1 A2 / 1 A3-1” is described in the Role element under Sub-Representation (Sub-Representation identified by “A0 / 1”) that appears first in FIG.
  • the Sub-Representation itself may have an id attribute and its value may be described in member.
  • the Role element itself may have an id attribute, and the value may be described in member.
  • the element representing the tile is not limited to the Role element (Role tag) ⁇ , but may be the above-described Tile element (Tile tag) or another element separately defined.
  • FIG. 36 shows the member attribute added to FIG. 35. The identifier inside shown in FIG. 35 and the attribute member in FIG. 36 are independent information, and only the member attribute is added without including the identifier inside. MPD data can also be configured.
  • the MPD data is not limited to MPD data as shown in FIG. 3, FIG. 5, FIG. 6, or FIG.
  • MPD data in which the representation tags of these videos are described in different AdaptationSets has the following two problems. -It is impossible to immediately know (for example, uniformly at the AdaptationSet level) whether there are videos belonging to the same resolution and layer. -It is impossible to immediately know (for example, uniformly at the AdaptationSet level) whether there are videos with the same content but different resolutions (sizes).
  • the viewer's device cannot easily identify the presence or absence of the video desired by the viewer.
  • FIG. 37 shows another example of MPD data shown in FIG.
  • the Subset tag is not described between the Period start tag and the Period end tag
  • the Representation tag of the video is described in a separate AdaptationSet tag
  • the attribute level_set in the Role element under the AdaptationSet Is different from the example of FIG. 5 in that the attribute tile_set is added.
  • Add to the Role element under AdaptationSet an attribute tile_set that indicates the presence or absence of video with the same content but only different resolution.
  • Attribute level_set is an attribute indicating to which resolution and layer each video corresponding to each Role element belongs.
  • the attribute value “0” of the attribute level_set is an attribute value indicating that each video belongs to the layer 0 of the full HD video (that is, the video is the full HD full video).
  • the attribute value “1” of the attribute level_set is an attribute value indicating that each video belongs to the layer 0 of the 4K ⁇ 2K video (each video is a partial video of the layer 0 of the 4K ⁇ 2K video).
  • the attribute value “2” of the attribute level_set is an attribute value indicating that each video belongs to the layer 2 of the 8K ⁇ 4K video (each video is a partial video of the layer 2 of the 8K ⁇ 4K video).
  • attribute level_set attribute value indicates the number of partial video divisions (the partial video group is generated by dividing the entire video into how many vertically and how many horizontally)
  • attribute of the Role element , Attribute n_x and attribute n_y may not be included.
  • the attribute tile_set is an attribute indicating to which partial video group each video that differs only in resolution corresponding to each Role element belongs.
  • the attribute value “0” of the attribute tile_set is an attribute value indicating that each video belongs to the partial video group 0 (that is, each video is an entire video).
  • the attribute value “1” of the attribute tile_set may be an attribute value indicating that each video belongs to the partial video group 1
  • the attribute value “2” of the attribute tile_set is a partial video group 2 for each video. Is an attribute value indicating that it belongs to.
  • the MPD data is not limited to the example of FIG. 37, and may be MPD data shown in FIG. 38, for example.
  • the attribute i_x, the attribute i_y, the attribute n_x, and the attribute n_y may not be described in the Role element under the AdaptationSet, and the attribute x, the attribute y, the attribute W, The attribute H may be described.
  • Attribute x and attribute y are attributes indicating the upper left coordinates of each partial video in the coordinate system in which the upper left coordinates of the entire video are (0, 0).
  • Attribute W and attribute H are attributes indicating the size (width and height) of the entire video, respectively.
  • the MPD data describes the Representation tag of the video in different AdaptationSets, it belongs to the same resolution and layer and has the same content but only the resolution is different You can know the video instantly at the AdaptationSet level.
  • the MPD data is not limited to the examples of FIGS. 37 and 38, and may be MPD data shown in FIG. 39, for example.
  • FIG. 39 is another example of MPD data assuming a case where the formats of FIGS. 23 and 25 coexist.
  • one file storing all tile data (each tile is written on the MPD data at the Sub-Representation level) and multiple files storing each tile data (each tile on the MPD data at the AdaptationSet level) It shows the case where (written) is mixed.
  • the attribute level_set and the attribute tile_set are described in the Role element under the Sub-Representation, and under the Role element under the AdaptationSet and the other AdaptationSet under the head (the Sub-Representation level tile is described below)
  • the attribute inside of the Role element is deleted.
  • it is possible to know at the Sub-Representation level and the AdaptationSet level whether or not there are videos belonging to the same resolution and layer, and whether or not there are videos with the same content but only different resolutions.
  • the attribute values of both the attribute level_set and the attribute tile_set are described in each Role element.
  • the present invention is not limited to this, and only the attribute level_set is described.
  • a configuration that indicates the presence or absence of a video belonging to the video can be used.
  • a configuration in which only the attribute tile_set is described and the presence / absence of video having the same content but different resolution is also possible.
  • the rectangular cursor described above may be a cursor that can be moved vertically and horizontally by one dot.
  • the television 200 may display a partial video corresponding to the position of the cursor on the tablet terminal 300.
  • the television 200 corresponds to the cursor position in a normal case (that is, a case where the partial video corresponding to the cursor position is not the partial video itself that can be acquired from the distribution apparatus 100 as shown in FIG. 8). It is necessary to generate a partial video to be played. For this reason, the television 200 may perform the following processing.
  • the television 200 specifies acquisition destinations of a plurality of partial videos necessary for generating a partial video corresponding to the position of the cursor from the MPD data based on the upper left coordinates, width, and height of the cursor.
  • a plurality of specified partial videos may be acquired.
  • video corresponding to the position of a cursor may be produced
  • the television 200 may display the generated partial video on the tablet terminal 300.
  • the distribution system includes a distribution device and a client terminal.
  • a group of captured images (FIG. 10) obtained by camera shooting is held.
  • the captured video group held in the distribution apparatus is generated as follows.
  • nine 8K ⁇ 4K partial videos constituting the captured video are generated from the high-resolution (layer 1) captured video. Specifically, nine 8K ⁇ 4K partial videos are generated so that any two partial videos located next to each other include a common image in which the ratio of each partial video is 50%. To do. More specifically, the following nine 8K ⁇ 4K partial videos are generated.
  • 49 8K ⁇ 4K partial videos constituting the captured video are generated from the ultra-high resolution (Layer 2) captured video by the same method.
  • the above generation method is an example.
  • 16 cameras that shoot 8K ⁇ 4K partial videos may be prepared, and a combination of 16 partial videos may be used as a virtual ultra-high resolution (layer 2) captured video.
  • the remaining 33 (49-16) layer 2 partial videos are generated so as to include a common image in which the proportion of each partial video is 50%.
  • nine layers 1 are generated by temporarily generating a high-resolution (16K ⁇ 8K) video from four adjacent 8K ⁇ 4K partial videos that do not overlap vertically and horizontally, and down-sampling them to 8K ⁇ 4K. Generate a partial video.
  • a high-resolution (16K ⁇ 8K) video is once generated from the four partial videos outside the layer 1, and a layer 0 video is generated by down-sampling the video to 8K ⁇ 4K. Even in this way, the partial video group of FIG. 10 is obtained.
  • the distribution apparatus distributes the entire 8K ⁇ 4K video generated by the above method as the layer 0 video.
  • the distribution device distributes the 8K ⁇ 4K partial video group generated by the above method as the layer 1 video.
  • the distribution apparatus distributes the 8K ⁇ 4K partial video group generated by the above method as the layer 2 video.
  • FIG. 9 is a block diagram illustrating main components of the distribution apparatus and the client terminal according to the second embodiment.
  • FIG. 10 is a diagram schematically and schematically showing the video of each layer. Note that FIG. 10 reflects the overlapping ratio between the partial video and the upper adjacent (lower adjacent) partial video, but from the viewpoint of simplifying the drawing, the partial video and the right adjacent (left adjacent) It does not reflect the overlap rate with the partial video.
  • the distribution device 100A includes a storage unit 110A, a video distribution processing unit 120A, and a communication I / F unit 140.
  • the storage unit 110 ⁇ / b> A is a recording medium that holds a layer 0 video group (the above-described 8K ⁇ 4K captured video (overall video)) illustrated in FIG. 10.
  • the layer 1 video group (9 8K ⁇ 4K partial videos generated from the high-resolution captured video) and the layer 2 video group (generated from the ultra-high-resolution captured video shown in FIG. 10). 49 8K ⁇ 4K partial images) are also held.
  • Video distribution processing unit 120A The video distribution processing unit 120A distributes MPD data to the client terminal 200A through the communication I / F unit 140.
  • the video distribution processing unit 120A distributes the video requested from the client terminal 200A referring to the MPD data to the client terminal 200A.
  • the client terminal 200A includes a video acquisition processing unit 220A, a storage unit 230, a playback unit 240, a display unit 250, and a communication I / F (communication interface) unit 260.
  • a video acquisition processing unit 220A As illustrated in FIG. 9, the client terminal 200A includes a video acquisition processing unit 220A, a storage unit 230, a playback unit 240, a display unit 250, and a communication I / F (communication interface) unit 260.
  • I / F communication interface
  • Video acquisition processing unit 220A The video acquisition processing unit 220A acquires MPD data (metadata) related to the captured video distributed by the distribution apparatus 100A via the communication I / F unit 260, and records the acquired MPD data in the storage unit 230.
  • MPD data metadata
  • the video acquisition processing unit 220A acquires MPD data (metadata) related to the captured video distributed by the distribution apparatus 100A via the communication I / F unit 260, and records the acquired MPD data in the storage unit 230.
  • the video acquisition processing unit 220A refers to the acquisition destination of the captured video selected by the user and is included in the MPD data, and acquires the captured video from the distribution apparatus 100A that is the acquisition destination.
  • the playback unit 240 plays back the captured video acquired from the distribution apparatus 100A based on the MPD data, and displays the captured video on the display unit 250.
  • Display unit 250 This is a display on which a captured image is displayed in full screen.
  • a pointer is superimposed on the captured video. This pointer can be moved one dot at a time in the horizontal and vertical directions. The user can switch the partial video to be displayed to the partial video in the moving direction by moving the pointer through an operation unit (not shown).
  • FIG. 11 is a diagram illustrating MPD data.
  • the description of some information of the MPD data (for example, the attribute value of attribute src) is omitted from the viewpoint of simplifying the drawing. Yes.
  • the MPD data in FIG. 11 is the same as the MPD data in FIG. 3 except that the attribute d_r is included in the Subset tag.
  • the attribute value of the attribute d_r included in the SubSet tag whose attribute value is “A1-0 ... A1-8” is any two partial videos of layer 1 (specifically, they are adjacent to each other) The overlapping ratio of two arbitrary captured images (positioned) is shown.
  • the value of the attribute d_r included in the SubSet tag whose attribute contains “A2-0 ... A2-48” is the value of any two partial videos of layer 2 (specifically, each other The overlapping rate of two arbitrary captured images located next to each other) is shown.
  • the operation of the client terminal 200A will be described with reference to FIG.
  • the client terminal 200A is set to refer to an adaptation set of layer 2 in order to display an 8K ⁇ 4K partial video.
  • FIG. 12 is a flowchart showing the operation of the client terminal 200A.
  • the video acquisition processor 220A of the client terminal 200A first acquires MPD data and captured video as shown in FIG. 12 (step S11). Specifically, the video acquisition processing unit 220A acquires MPD data from the distribution apparatus 100A through communication. Then, the video acquisition processing unit 220A refers to the attribute value (URL) of the attribute src related to the entire 8K ⁇ 4K video included in the MPD data, and from the acquisition destination (distribution apparatus 100A) indicated by the URL Get the whole video.
  • URL attribute value
  • the reproducing unit 140 reproduces the entire video acquired in step S11 and displays it on the display unit 250 in full screen, and displays the above-described pointer in the upper left corner of the display unit 250 (step S12).
  • step S13 the video acquisition processing unit 220A specifies an index value corresponding to the current pointer position.
  • step S12 when the step immediately before step S13 is step S12, the index value (0, 0) corresponding to the position of the pointer (upper left corner of the display unit 250) is specified.
  • step S15 when the step immediately before step S13 is step S15, (1,0), (-1,0), (0,1) or (0) with respect to the index value specified in the previous step S13. , -1) can be added to specify the index value. For example, if it is determined in step S15 that the pointer has moved rightward by an amount of movement (specified value Q ⁇ (1-0.5)) dots corresponding to the attribute value “0.5” of the attribute d_r, it is identified last time.
  • the index value can be specified by adding (1,0) to the index value.
  • the attribute value of the attribute d_r is not limited to 0.5, and may be a value larger than 0.5 (for example, 0.75) or a value smaller than 0.5 (for example, 0.25).
  • the attribute value of the attribute d_r is 0.75, the movement amount according to the attribute value of the attribute d_r may be Q ⁇ (1-0.75) dots.
  • the attribute value of the attribute d_r is 0.25, the movement amount according to the attribute value of the attribute d_r may be Q ⁇ (1-0.25) dots.
  • the video acquisition processing unit 220A refers to the MPD data and specifies the acquisition destination of the partial video corresponding to the specified index value. For example, when the specified index value is (1,0), a Role tag having an attribute value of 1 for the attribute i_x and an attribute value of the attribute i_y of 0 is searched from the MPD data. Specify the attribute value of attribute src included in element AdaptationSet including Role tag. Furthermore, in step S13, the video acquisition processing unit 220A acquires a partial video from the specified acquisition destination (distribution apparatus 100A).
  • step S13 the video acquisition processing unit 220A displays the partial video acquired in step S13 on the display unit 250 in full screen (step S14).
  • step S14 the video acquisition processing unit 220A determines whether or not the pointer has moved in the horizontal direction or the vertical direction by an amount corresponding to the attribute value of the attribute d_r (step S15).
  • step S15 determines in step S15 that the pointer has moved horizontally (right or left) or vertically (up or down) by an amount corresponding to the attribute value of the attribute d_r
  • step S16 determines in step S15 that the pointer has not moved in the horizontal or vertical direction by an amount corresponding to the attribute value of the attribute d_r.
  • step S16 the video acquisition processing unit 220A determines whether or not an operation for ending the display of the captured video has been performed. When it is determined in step S16 that the operation is not performed, the client terminal 200A returns to step S15, and when it is determined in step S16 that the operation is performed, the operation according to the flowchart of FIG. Exit.
  • the MPD data is not limited to the MPD data as shown in FIG.
  • the MPD data may be the MPD data illustrated in FIG.
  • each of the attribute n_x, the attribute n_y, and the attribute d_r may be an attribute of each Role tag instead of being an attribute of each Subset tag.
  • the MPD data may be the MPD data illustrated in FIG. 20 or FIG.
  • the overlapping rate between the partial video and the upper adjacent (lower adjacent) partial video is different from the overlapping rate between the partial video and the left adjacent (right adjacent) partial video. Is preferably used.
  • a value indicating the latter (left and right) overlapping rate is described as an attribute value of the attribute d_r_x
  • a value indicating the former (upper and lower) overlapping rate is set as the attribute value of the attribute d_r_y. Described.
  • each of the attribute n_x, the attribute n_y, the attribute d_r_x, and the attribute d_r_y may be an attribute of each Subset tag as shown in FIG. 20, or may be an attribute of each Role tag as shown in FIG.
  • the following six attributes are attribute n_x, attribute n_y, attribute d_r_x, and attribute d_r_y.
  • the described MPD data may be used.
  • FIG. 22 is a diagram for explaining the MPD data.
  • the attribute value of attribute div_x is a value obtained by dividing the horizontal width of the entire video by the horizontal width of the partial video.
  • the value of div_x is 4. That is, it represents the number of divisions when there is no overlap in the partial video.
  • the attribute value of the attribute inter_x is a partial video (not a specific partial video) located at a position between two specific partial videos (two partial videos represented by solid lines in FIG. 22) adjacent to each other on the left and right.
  • This is a value indicating the number of partial images) represented by dotted lines in FIG. That is, the number of partial videos inserted between two non-overlapping partial videos (specific partial videos) is represented.
  • the specific partial image is an integral multiple of the horizontal width of the x component of the upper left coordinate and an integral multiple of the vertical component of the y component of the upper left coordinate. It refers to the partial video that is.
  • a partial video that is not a specific partial video is positioned between two adjacent specific partial videos” is, strictly speaking, “the upper left coordinates of one specific partial video and the upper left coordinates of the other specific partial video. It means that the upper left coordinate of the partial video that is not the specific partial video is located on the line segment that connects “ In the example of FIG. 22, the value of inter_x is 2.
  • the attribute value of the attribute div_y is a value that is divided by dividing the vertical width of the entire video by the vertical width of the partial video
  • the attribute value of the attribute inter_y is between two specific partial videos that are vertically adjacent to each other. This is a value indicating the number of partial videos that are not specific partial videos.
  • the attribute value of attribute num_y is a value indicating the number of partial videos per column.
  • num_x (num_y) can be calculated from div_x and inter_x (div_y, inter_y).
  • div_x and inter_x (div_y, inter_y) can be calculated from the other two. Therefore, one of num_x, div_x, and inter_x (num_y, div_y, inter_y) may not be written in the MPD data.
  • the distribution system includes a distribution device, a television set, and a tablet terminal as in the first embodiment.
  • the distribution device distributes full HD program video, 4K ⁇ 2K program video, and 8K ⁇ 4K program video related to the same program by broadcasting, and the TV has its own display panel (8K ⁇ 4K).
  • a program video (8K ⁇ 4K program video) corresponding to the resolution is displayed.
  • the distribution apparatus can generate a full HD partial video group generated from a 4K ⁇ 2K program video (overall video) by the same method as in the second embodiment, and an 8K ⁇ 4K program video by the same method as in the second embodiment.
  • the distribution device distributes the partial video to the television by communication in response to a request from the television, and the television displays the partial video received from the distribution device on the tablet terminal.
  • FIG. 14 is a block diagram illustrating a main configuration of a distribution device and a television according to the third embodiment.
  • the principal part structure of the delivery apparatus which concerns on this embodiment is the same as the delivery apparatus which concerns on Embodiment 1, description of the principal part structure of the delivery apparatus which concerns on this embodiment is abbreviate
  • the tablet terminal which concerns on Embodiment 3 is the same as the tablet terminal which concerns on Embodiment 1, description of the tablet terminal which concerns on Embodiment 3 is abbreviate
  • the television 200B includes a tuner unit 210, a video acquisition processing unit 220B, a storage unit 230, a playback unit 240, a display unit 250, and a communication I / F (communication interface) unit 260. It has.
  • Video acquisition processing unit 220B acquires MPD data (metadata) related to the program video distributed by the distribution device 100 via the tuner unit 210, and records the acquired MPD data in the storage unit 230.
  • MPD data metadata
  • the video acquisition processing unit 220B acquires MPD data (metadata) related to the program video distributed by the distribution device 100 via the tuner unit 210, and records the acquired MPD data in the storage unit 230.
  • the video acquisition processing unit 220B refers to the acquisition destination of the partial video selected by the user and is included in the MPD data, and acquires the partial video from the distribution apparatus 100 that is the acquisition destination. Then, the video acquisition processing unit 220B transmits the acquired partial video to the tablet terminal 300.
  • the video acquisition processing unit 220B refers to the acquisition destination of the partial video to be displayed on the tablet terminal 300 at a specific time, which is included in the MPD data, and causes the tablet terminal 300 to display the partial video at the specific time.
  • the partial video is acquired from the distribution apparatus 100 at a timing capable of (for example, 5 seconds before a specific time). Then, the video acquisition processing unit 220B transmits the acquired partial video to the tablet terminal 300 immediately before a specific time.
  • Display unit 250 This is a display on which 8K ⁇ 4K program video is displayed.
  • the same pointer as that of the second embodiment is superimposed on the 8K ⁇ 4K program video.
  • the user can select an arbitrary partial video by moving the pointer using a remote controller (not shown) of the television 200.
  • FIG. 15 is a diagram illustrating metadata.
  • a part of metadata information (for example, attribute value of attribute src, information on layer 0 and layer 2, etc.) is omitted from the viewpoint of simplifying the drawing.
  • the metadata in FIG. 15 includes an attribute d_r indicating the overlapping rate, similarly to the metadata in FIG. 11. Further, unlike the MPD data in FIG. 11, the metadata in FIG. 15 includes metadata including a Playlist tag. That is, the metadata in FIG. 15 includes MPD data and playlist data that designates a video to be played back at a predetermined time with reference to the AdaptationSet described in the MPD data.
  • the attribute value of the attribute time of each Play tag indicates the time (the above-mentioned specific time) at which the video of the AdaptationSet indicated by the attribute value of the attribute xlink: href of the Play tag is to be displayed.
  • Play tags are described between the Playlist start tag and the Playlist start tag, but any number (for example, only one) Play tags can be described.
  • the television 200B is set to refer to an adaptation set of layer 1 in order to display a 4K ⁇ 2K partial video.
  • FIG. 16 is a flowchart showing the operation of the television 200B.
  • the video acquisition processing unit 220B of the television 200B first acquires MPD data and program video (whole video) (step S21).
  • the metadata includes a Play tag whose attribute value is “T00s”
  • the video acquisition processing unit 220 ⁇ / b> B includes the Play tag. The corresponding partial video is acquired at this timing.
  • step S21 the playback unit 140 plays back the entire video acquired in step S21 and displays it on the display unit 250 in full screen, and coordinates (1920, 1080) in the coordinate system with the upper left corner of the display unit 250 as the origin. ) Displays the aforementioned pointer (step S22).
  • step S21 the partial video is displayed in order to display the partial video on the tablet terminal 300. It transmits to the tablet terminal 300 at timing.
  • step S23 the video acquisition processing unit 220B specifies an index value corresponding to the current pointer position.
  • step S23 when the step immediately before step S23 is step S22, the index value (0, 0) corresponding to the position of the pointer (coordinates (1920, 1080)) is specified.
  • step S23 the video acquisition processing unit 220B refers to the MPD data and specifies the acquisition destination of the partial video corresponding to the specified index value. Further, in step S23, the video acquisition processing unit 220B acquires a partial video from the specified acquisition destination (distribution apparatus 100).
  • the video acquisition processing unit 220B transmits the partial video to the tablet terminal 300 in order to display the partial video acquired in step S23 or step S26 on the tablet terminal 300 (step S24).
  • step S24 the video acquisition processing unit 220B determines whether or not the current time is a time corresponding to the attribute value of the attribute time of any Play tag (for example, 2 seconds before the time indicated by the attribute value). (Step S25).
  • step S25 If the television 200B determines in step S25 that the current time is the time corresponding to the attribute value of the attribute time of any Play tag, the television 200B proceeds to step S26.
  • step S26 the video acquisition processing unit 220B refers to the metadata and specifies the acquisition source of the partial video to be displayed on the tablet terminal 300 at the time corresponding to the attribute value of the attribute time.
  • step S26 the video acquisition processing unit 220B acquires a partial video from the specified acquisition destination (distribution apparatus 100). The television 200B returns to step S24 after step S26.
  • step S25 when the television 200B determines in step S25 that the current time is not the time corresponding to the attribute value of the attribute time of any Play tag, the television 200B proceeds to step S27.
  • step S27 and step S28 are the same steps as step S5 and step S6 of FIG. 4, respectively, description of step S27 and step S28 is omitted.
  • the television 200B that acquired the metadata of FIG. 15 in step S21 displays the partial videos in the order shown in FIG. 17 unless a pointer movement operation is accepted after the start of playback of the entire video. Display on the terminal.
  • the television 200B displays the partial video corresponding to AdaptationSet A1-0 on the tablet terminal at the start of playback of the entire video, and the partial video corresponding to AdaptationSet A1-1 is displayed on the tablet terminal 5 seconds after the start of playback of the entire video. Display. Furthermore, the television 200B displays a partial video corresponding to AdaptationSet A1-4 on the tablet terminal 10 seconds after the start of playback of the entire video, and a partial video corresponding to AdaptationSet A1-7 15 seconds after the start of playback of the entire video. To display.
  • the above-described Play tag may be described by a program video producer or distributor.
  • the television 200B can make the viewer pay attention to the part of the program video that the producer or distributor wants to pay attention to the viewer at a specific time.
  • the television 200B may transmit the metadata acquired in step S21 to the tablet terminal 300.
  • the tablet terminal 300 may perform the processes of step S25 and step S26.
  • the tablet terminal 300 refers to the metadata, and displays it at the time corresponding to the attribute value from the distribution device 100 when the current time reaches the time corresponding to the attribute value of the attribute time of any Play tag. You may specify the acquisition place of the partial video which should be. Then, the tablet terminal 300 may acquire a partial video from the specified acquisition destination (distribution apparatus 100) and display the acquired partial video on the display panel of the tablet terminal 300.
  • the partial video group of each layer constituting the entire video is set to satisfy the following two conditions.
  • the vertical width of each partial video included in the partial video group is the same as the vertical width of any other partial video included in the partial video group.
  • the horizontal width of each partial video included in the partial video group is the same as the horizontal width of any other partial video included in the partial video group.
  • the whole image does not need to be a rectangular image on a plane.
  • it may be an omnidirectional video generated by an omnidirectional camera installed at the position of the starting point of the arrow in FIG.
  • a partial image including an image of a subject located in that direction when viewed from the omnidirectional camera may be extracted from the omnidirectional video.
  • MPD data includes an index value (a pair of an attribute value of attribute i_x and an attribute value of attribute i_y) for identifying the partial video for each partial video, and information indicating the acquisition destination of the partial video (of attribute src) (Attribute value) may be described in association with each other, but the following information may be described in the MPD data.
  • MPD data includes a pair of an azimuth value d and an elevation angle value ⁇ corresponding to the partial video, and information (attribute value of attribute src) indicating the acquisition destination of the partial video. It may be described in association.
  • the client terminal 200A when the client terminal 200A receives the input of the azimuth value d and the elevation angle value ⁇ , the client terminal 200A refers to the MPD data and obtains the partial video corresponding to the pair of the azimuth value d and the elevation value ⁇ . May be specified. Then, the client terminal 200A may acquire a partial video from the specified acquisition destination and display the acquired partial video on the display unit 250 in full screen.
  • the outer periphery of the entire image may have an arbitrary shape instead of a rectangle.
  • a rectangular area circumscribing the outer periphery of the entire video may be defined, and a plurality of partial areas of A rows and B columns may be defined by dividing the rectangular area into a matrix. For each of the plurality of defined partial areas, when a part of the entire video is included in the partial area, the video in the partial area may be used as the partial video.
  • the video in the partial area is set as the partial video, and the index value (a, b) and The information indicating the acquisition destination of the partial video may be associated and recorded in the MPD data.
  • the partial area in the first row and the third column includes a part of the entire video
  • information indicating the acquisition source of the partial video in the partial area and the index value (1, 3) are included. It is recorded in association with the MPD data.
  • the index value (1, 6) is not recorded in the MPD data.
  • MPD data is created by associating an index value (a, b) corresponding to a partial area that does not include any part of the entire video and a flag (for example, a missing tag) indicating that there is no partial video in the partial area. May be recorded within.
  • the Role tag or the Tile tag in the MPD data has been described as an element tag that describes an attribute value related to the position of the partial video, but these are merely description examples for explanation. Even if an element tag other than the Role tag and the Tile tag is separately defined as the element tag and MPD data including the element tag is generated, the object of the present invention can be achieved. It goes without saying that the object of the present invention can be achieved even with metadata other than MPD data as long as the metadata has a similar configuration.
  • Control blocks (particularly, a video distribution processing unit, a video acquisition processing unit, and a playback unit) of the distribution device, the television, and the client terminal may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like. Alternatively, it may be realized by software using a CPU (Central Processing Unit).
  • a logic circuit hardware
  • IC chip integrated circuit
  • CPU Central Processing Unit
  • each device of the distribution device, the television, and the client terminal has a CPU that executes instructions of a program that is software that realizes each function, and the program and various data are recorded so as to be readable by a computer (or CPU).
  • a ROM (Read Only Memory) or a storage device (these are referred to as “recording media”), a RAM (Random Access Memory) for expanding the program, and the like are provided.
  • the objective of this invention is achieved when a computer (or CPU) reads the said program from the said recording medium and runs it.
  • a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used.
  • the program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program.
  • a transmission medium such as a communication network or a broadcast wave
  • the present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.
  • the display processing apparatus has a specific display area (a display surface of the tablet terminal 300, a small part that occupies a part of the display surface of the display unit 250) among a plurality of partial images constituting the entire image.
  • a reception unit (operation reception unit) that receives selection of a partial video next to the partial video (upper, lower, left, or right) that is to be displayed on the screen, and the plurality of portions Metadata acquisition means (video acquisition processing unit 220) for acquiring metadata (MPD data) in which an identifier (index value) and an acquisition destination (URL) of the partial video are associated with each other for each video; Video acquisition means (video acquisition processing unit 220) that specifies an acquisition destination of the adjacent partial video by referring to the identifier of the partial video indicated in the metadata and acquires the partial video from the acquisition destination
  • Display update means (video acquisition processing unit 220) for updating the partial video in the display area to the partial video acquired by the video acquisition means, and each identifier (attribute value of attribute i_x) of the plurality of partial videos Pair with attribute value of attribute i_y) is an identifier that can identify an identifier of a partial video next to the partial video without referring to other information.
  • the display processing device can specify an identifier of a partial video that the viewer desires to display in a specific display area without referring to other information.
  • the display processing device has an effect that the acquisition source of the partial video recorded in the metadata in association with the identifier can be easily specified.
  • a partial video out of the plurality of partial videos and a partial video adjacent in a certain direction viewed from the partial video are common.
  • the metadata includes a value indicating the ratio of the common image to the partial video, in addition to the identifier and acquisition source of the partial video, and the reception unit
  • the adjacent partial video is selected by detecting a movement operation corresponding to the value in the certain direction in a state where the partial video is the display target in the display area. You may come to recognize that.
  • the display processing device displays the display by a moving operation of a person who is gazing at the partial video displayed in the display area by a person other than the gazing person.
  • the metadata includes information specifying a partial video to be displayed in the display area at a specific time among the plurality of partial videos, and the display processing device (television 200B) according to aspect 3 of the present invention.
  • the display processing device television, stereo, and the display processing device (television 200B) according to aspect 3 of the present invention.
  • the display update unit video acquisition processing unit 220B
  • the partial video in the display area is replaced with the partial video acquired by the video acquisition unit.
  • the partial video specified by the information included in the metadata may be updated.
  • the said display processing apparatus does not require the operation by a viewer for the partial video
  • the display area can be displayed in the display area.
  • the distribution apparatus from which the partial video is acquired by the video acquisition unit has N partial videos (four layers of layer 1) having a certain resolution (4K ⁇ 2K resolution) as the plurality of partial videos.
  • the metadata includes a partial video included in the first video group (partial video of AdaptationSet A1-0) and a partial video having the same content as the partial video.
  • the display processing apparatus according to aspect 4 of the present invention includes the identifier (index value (0,0)) common to the partial video included in the video group 2 (partial video of AdaptationSet 2A1-0). Is any of the above-mentioned aspects 1 to 3.
  • the accepting means accepts selection of the adjacent partial video from one of the first video group and the second video group. May be.
  • the said display processing apparatus displays the partial video selected from the more suitable video group of the said 1st video group and the said 2nd video group on the said display area. It has the further effect of being able to.
  • the distribution apparatus that is the acquisition destination of the partial video by the video acquisition unit includes, as the plurality of partial videos, N (N ⁇ 2) partial videos (four partial videos of layer 1) constituting the entire video, M (M> N) partial videos (16 partial videos of layer 2) constituting the entire video can be distributed, and the display processing device according to aspect 5 of the present invention provides:
  • the accepting unit is configured to select from among a plurality of partial videos according to the setting of the own device among the M partial videos and the N partial videos. The selection of the adjacent partial video may be accepted.
  • the display processing device has an additional effect of displaying an appropriate partial video in accordance with the setting of the device itself in the display area.
  • a display processing device is the display processing device according to any one of the above aspects 1 to 5, wherein the display area is a display area of a mobile terminal (tablet terminal 300) that is communicably connected to the self apparatus. Display surface).
  • the display processing device has an additional effect that the partial video can be displayed on the mobile terminal.
  • the display processing apparatus is the display processing apparatus according to any one of the aspects 1 to 5 described above, wherein the display area is the entire area or a part of the display surface of the own apparatus (display surface of the display unit 250). It may be an area (area occupied by a small screen on the display surface of the display unit 250).
  • the display processing device has an additional effect that it can display a partial video by itself.
  • the distribution device provides metadata (identifier (index value) and acquisition destination (URL) of the partial video for each of a plurality of partial videos constituting the entire video ( A plurality of partial videos, comprising: reading means (video distribution processing section 120) for reading MPD data) from the storage section; and distribution means (video distribution processing section 120) for distributing the metadata read by the reading means.
  • reading means video distribution processing section 120
  • distribution means video distribution processing section 120
  • the distribution device has an effect that the display processing device can distribute metadata that allows the partial video acquisition source to be easily specified.
  • the display processing method is configured to accept reception of selection of a partial video next to the partial video that is to be displayed in a specific display area from among a plurality of partial videos constituting the entire video. Selected in the process (step S5), the metadata acquisition process (step S1) for acquiring the metadata in which the partial video identifier and the acquisition source are associated with each other, and the reception process.
  • the display processing method has the same effects as those of the display processing device according to aspect 1 of the present invention.
  • the metadata (MPD data) is metadata in which an identifier (index value) and an acquisition destination (URL) of the partial video are indicated for each of a plurality of partial videos constituting the entire video.
  • Each identifier of the plurality of partial videos is an identifier that can identify an identifier of a partial video adjacent to the partial video without referring to other information.
  • the metadata has an effect that the display processing device can easily specify the acquisition source of the partial video.
  • the display processing apparatus may be realized by a computer.
  • the display processing apparatus is realized by a computer by causing the computer to operate as each unit included in the display processing apparatus.
  • a program and a computer-readable recording medium on which the program is recorded also fall within the scope of the present invention.
  • the present invention can be suitably used for high-resolution televisions such as 4K2K televisions and 8K4K televisions, for example.
  • Distribution Device 120 Video Distribution Processing Unit (Reading Unit, Distribution Unit) 200 TV (display processing device) 220 Video acquisition processing unit (metadata acquisition means, video acquisition means, display update means) 240 playback unit 300 tablet terminal 200A client terminal (display processing device)

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Library & Information Science (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

 視聴者が特定の表示領域への表示を所望する部分映像の取得先を容易に特定することが可能な表示制御装置を実現する。テレビ(200)の映像取得処理部(220)は、複数の部分映像の各々について該部分映像の識別子および取得先が関連付けて示されたMPDデータ(メタデータ)を取得する。上記複数の部分映像の各々の識別子は、該部分映像に隣接する部分映像の識別子を他の情報を参照することなく特定可能な識別子である。

Description

表示処理装置、配信装置、および、メタデータ
 本発明は、主に、映像を表示部に表示する表示処理装置および表示処理方法、並びに、映像を配信する配信装置に関する。
 MPEG-DASHは、メディアをHTTPで配信するための標準規格を規定しており、映像コンテンツの配信にも使用できる(非特許文献1参照)。
"ISO/IEC 23009-1"、[online]、2012年4月1日、ISO/IEC、[2013年10月11日検索]、インターネット<URL:http://standards.iso.org/ittf/PubliclyAvailableStandards/c057623_ISO_IEC_23009-1_2012.zip>
 昨今、映像コンテンツはますます高解像度化し、数年後には、4K×2K(横3840×縦2160)の映像コンテンツ、8K×4K(横7680×縦4320)の映像コンテンツ、または、これらの映像コンテンツよりも高解像度の映像コンテンツが制作および供給されることが想定される。
 また、高解像度の映像全体を視聴者の装置に配信するだけでなく、そのような映像(全体映像)をマトリクス状に分割することで低解像度の部分映像群を生成し、視聴者の装置に表示されている全体映像の中から視聴者がカーソルを用いて選択した部分映像を通信により視聴者の装置に配信することも想定される。
 しかしながら、これまでのMPEG-DASHの規定されているMPDデータには、部分映像間の位置関係を示す情報が記述されていないため、視聴者の装置は、MPDデータを参照しても、視聴者が選択した部分映像の取得先を特定することは困難である。
 これを解決するための方法として、各部分映像の取得先および位置情報(具体的には、全体映像の左上座標を原点とする座標系における部分映像の左上座標、幅および高さ)を関連付けてMPDデータに記述する方法が挙げられる。
 しかしながら、この方法では、ユーザの装置は、視聴者がカーソルを移動させて選択した部分映像の取得先を特定するために、移動前のカーソルの位置の部分映像の左上座標および幅(または高さ)並びにカーソルの移動方向に基づき、視聴者が選択した部分映像の左上座標を特定する処理が必要である。
 このため、視聴者の装置は視聴者が所望する部分映像の取得先を容易に特定できない。
 本発明は、上記の問題に鑑みて成されたものであり、その主な目的は、視聴者が特定の表示領域への表示を所望する部分映像の取得先を容易に特定することが可能な表示処理装置を実現することにある。
 上記課題を解決するために、本発明の一態様に係る表示処理装置は、全体映像を構成する複数の部分映像の中から、特定の表示領域への表示対象となっている上記部分映像の隣の部分映像の選択を受け付ける受付手段と、上記複数の部分映像の各々について該部分映像の識別子および取得先が関連付けて示されたメタデータを取得するメタデータ取得手段と、選択された上記隣の部分映像の取得先を上記メタデータに示されている該部分映像の識別子を参照することで特定し、該取得先から該部分映像を取得する映像取得手段と、上記表示領域の部分映像を上記映像取得手段が取得した部分映像に更新する表示更新手段と、を備え、上記複数の部分映像の各々の識別子は、該部分映像の隣の部分映像の識別子を他の情報を参照することなく特定可能な識別子である。
 上記課題を解決するために、本発明の一態様に係る表示処理方法は、全体映像を構成する複数の部分映像の中から、特定の表示領域への表示対象となっている上記部分映像の隣の部分映像の選択を受け付ける受付工程と、上記複数の部分映像の各々について該部分映像の識別子および取得先が関連付けて示されたメタデータを取得するメタデータ取得工程と、上記受付工程にて選択された上記隣の部分映像の取得先を上記メタデータに示されている該部分映像の識別子を参照することで特定し、特定した取得先から該部分映像を取得する映像取得工程と、上記表示領域の部分映像を上記映像取得工程にて取得した部分映像に更新する表示更新工程と、を含み、上記複数の部分映像の各々の識別子は、該部分映像の隣の部分映像の識別子を他の情報を参照することなく特定可能な識別子である。
 上記課題を解決するために、本発明の一態様に係る配信装置は、全体映像を構成する複数の部分映像の各々について該部分映像の識別子および取得先が示されたメタデータを記憶部から読み出す読出手段と、上記読出手段が読み出した上記メタデータを配信する配信手段と、を備え、上記複数の部分映像の各々の識別子は、該部分映像の隣の部分映像の識別子を他の情報を参照することなく特定可能な識別子である。
 上記課題を解決するために、本発明の一態様に係るメタデータは、全体映像を構成する複数の部分映像の各々について該部分映像の識別子および取得先が示されたメタデータであり、上記複数の部分映像の各々の識別子は、該部分映像の隣の部分映像の識別子を他の情報を参照することなく特定可能な識別子である。
 本発明の一態様に係る表示処理装置および表示処理方法は、視聴者が特定の表示領域への表示を所望する部分映像の取得先を容易に特定することができる、という効果を奏する。
 本発明の一態様に係る配信装置は、上記表示処理装置が上記部分映像の取得先を容易に特定することを可能にするメタデータを配信できる、という効果を奏する。
 また、本発明の一態様に係るメタデータは、上記表示処理装置が上記部分映像の取得先を容易に特定することを可能にする、という効果を奏する。
本発明の実施形態1に係る配信装置およびテレビの要部構成を示すブロック図である。 図1の配信装置が配信可能な全体映像および該全体映像をマトリクス状に分割した部分映像群を模式的に示した図である。 図1の配信装置が配信するメタデータを例示した図である。 図1のテレビの動作を示すフローチャートである。 図1の配信装置が配信するメタデータの変形例を示した図である。 図1の配信装置が配信するメタデータの別の変形例を示した図である。 図1の配信装置が配信するメタデータの更に別の変形例を示した図である。 本発明の実施形態1の変形例に係る配信装置による部分映像の取得処理を説明するための図である。 本発明の実施形態2に係る配信装置およびクライアント端末の要部構成を示すブロック図である。 図9の配信装置が配信可能な全体映像および該全体映像を構成する部分映像群を模式的に示した図である。 図9の配信装置が配信するメタデータを例示した図である。 図9のクライアント端末の動作を示すフローチャートである。 図9の配信装置が配信するメタデータの別の変形例を示した図である。 本発明の実施形態3に係る配信装置およびテレビの要部構成を示すブロック図である。 図14の配信装置が配信するメタデータを例示した図である。 図14のテレビの動作を示すフローチャートである。 図15のメタデータを参照した図14のテレビが、時間の経過とともに、タブレット端末の表示面に表示する部分映像としてどの部分映像を選択するかを模式的に示した図である。 全体画像の変形例を示した図である。 図1の配信装置が配信するメタデータの更に別の変形例を示した図である。 図9の配信装置が配信するメタデータの更に別の変形例を示した図である。 図9の配信装置が配信するメタデータの更に別の変形例を示した図である。 図9の配信装置が配信するメタデータの更に別の変形例を説明するための図である。 各タイルを異なるファイルに格納する場合のフォーマットを模式的に示した図である。 図23のファイルフォーマットを用いる場合のMPDデータを例示した図である。 各タイルを異なるトラックに格納する場合のフォーマットを模式的に示した図である。 図25のファイルフォーマットを用いる場合のMPDデータを例示した図である。 すべてのタイルを1つのトラックに格納する場合のフォーマットを模式的に示した図である。 図27のファイルフォーマットを用いる場合のMPDデータを例示した図である。 複数のタイルを格納したトラックが複数ある場合のフォーマットを模式的に示した図である。 図29のファイルフォーマットを用いる場合のMPDデータを例示した図である。 図29のファイルフォーマットを用いる場合のMPDデータの変形例を示した図である。 図29のファイルフォーマットを用いる場合のMPDデータの別の変形例を示した図である。 図25のファイルフォーマットを用いる場合のMPDデータの別の例を示した図である。 図23と図25のファイルフォーマットが混在して用いられる場合のMPDデータの例を示した図である。 図23と図25のファイルフォーマットが混在して用いられる場合のMPDデータの別の例を示した図である。 図23と図25のファイルフォーマットが混在して用いられる場合のMPDデータの更に別の例を示した図である。 図1の配信装置が配信するMPDデータの更に別の例を示した図である。 図1の配信装置が配信するMPDデータの更に別の例を示した図である。 図23と図25のファイルフォーマットが混在して用いられる場合のMPDデータの更に別の例を示した図である。
 〔実施形態1〕
 以下、本発明の一実施形態に係る配信システムについて説明する。
 本実施形態に係る配信システムは、配信装置、テレビ、および、タブレット端末を含んでいる。
 配信装置は、同じ番組に関するフルHDの番組映像、4K×2Kの番組映像および8K×4Kの番組映像を放送により配信するようになっており、テレビは、自身の表示パネル(8K×4K)の解像度に応じた番組映像(8K×4Kの番組映像)を表示するようになっている。
 また、配信装置は、上記番組映像をマトリクス状に分割した低解像度の部分映像群を保持しており、テレビからのリクエストに応じて、通信により部分映像をテレビに配信するようになっている。
 テレビは、配信装置から受信した部分映像をタブレット端末に表示させるようになっている。
 以下、上記配信装置およびテレビの要部構成について図1および図2を参照しながら説明する。図1は、実施形態1に係る配信装置およびテレビの要部構成を示すブロック図である。図2は、実施形態1に係る配信装置が配信可能な全体映像および該全体映像をマトリクス状に分割した部分映像群を模式的に示した図である。
 (配信装置100)
 図1に示すように、配信装置100は、記憶部110、映像配信処理部120、放送送出部130、および、通信I/F部140を備えている。
 (記憶部110)
 記憶部110は、図2に示すような、フルHDの番組映像(全体映像)、4K×2Kの番組映像(全体映像)、8K×4Kの番組映像(全体映像)、および、各番組映像の部分映像群を保持する記録媒体である。なお、図2に示すように、これらの全体映像および部分映像はまとめて「タイル」と総称してもよい。
 (映像配信処理部120)
 映像配信処理部120(読出手段、配信手段)は、放送送出部130を通じて、記憶部110から読み出したフルHDの番組映像、4K×2Kの番組映像および8K×4Kの番組映像を配信するとともに、番組映像に関するMPDデータ(メタデータ)を配信する。また、映像配信処理部120は、通信I/F部140を通じて、視聴者の装置からリクエストされた番組映像を該装置に配信する。
 (放送送出部130)
 放送送出部130は、映像配信処理部120から供給された番組映像およびMPDデータを放送波にのせて送出する。
 (通信I/F部140)
 通信I/F部140は、映像配信処理部120から供給された部分映像をネットワークに送出する。
 次に、テレビ200の構成について説明する。
 (テレビ200)
 図1に示すように、テレビ200は、チューナ部210、映像取得処理部220、記憶部230、再生部240、表示部250、および、通信I/F(通信インタフェース)部260を備えている。
 (チューナ部210)
 チューナ部210は、番組映像およびメタデータを含む放送信号を受信するチューナである。
 (映像取得処理部220)
 映像取得処理部220は、チューナ部210を介して、配信装置100により配信される番組映像に関するMPDデータ(メタデータ)を取得し、取得したMPDデータを記憶部230に記録する。
 また、映像取得処理部220は、MPDデータに含まれている、ユーザにより選択された部分映像の取得先を参照し、取得先である配信装置100からその部分映像を取得する。そして、映像取得処理部220は、取得した部分映像をタブレット端末300に送信する。
 (記憶部230)
 記憶部230は、MPDデータを保持する記録媒体である。
 (再生部240)
 再生部240は、MPDデータに基づいて、配信装置100から取得した8K×4Kの番組映像を再生し、8K×4Kの番組映像を表示部250に表示する。
 (表示部250)
 8K×4Kの番組映像が表示されるディスプレイである。
 なお、8K×4Kの番組映像上には、矩形のカーソルが重畳表示される。このカーソルの縦幅および横幅のサイズは、タブレット端末300に表示させることが可能な4K×2K(またはフルHD)の各部分映像の縦幅および横幅と同じである。また、カーソルの横幅をWドットとし、カーソルの縦幅をHドットとすると、カーソルは、横方向にWドットずつ縦方向にHドットずつ移動できる。ユーザは、テレビ200のリモコン(図示せず)を用いてこのカーソルを移動させることにより、任意の部分映像を選択できる。
 (通信I/F部260)
 通信I/F部260は、配信装置100との間の通信に使用される通信インタフェースである。
 次に、タブレット端末300について説明する。
 (タブレット端末300)
 タブレット端末300(携帯端末)は、テレビ200と通信可能に接続されている。
 タブレット端末300は、テレビ200から部分映像を受信すると、受信した部分映像を自身の表示パネル(特定の表示領域)に表示するようになっている。なお、タブレット端末300は、既に別の部分映像を表示中の場合には、表示中の部分映像を消去して、受信した部分映像を新たに表示するようになっている。
 (MPDデータについて)
 次に、配信装置100が配信するMPDデータについて図3を参照して以下に説明する。
 図3は、MPDデータを例示した図である。なお、図3(後述の図5~図7、図19も同様)においては、図面の簡略化の観点からMPDデータの一部の情報(例えば、属性srcの属性値)の記載を省略している。
 図3に示すように、MPDデータには、MPD開始タグが冒頭に記述され、MPD終了タグが末尾に記述されている。
 また、MPDデータには、Period開始タグとPeriod終了タグとのペアが記述され、Period開始タグとPeriod終了タグとの間には、属性startと属性durationとのペアで表される期間に再生可能な映像データに関する情報が記述される。
 具体的には、図3に示すように、Period開始タグとPeriod終了タグとの間に複数のAdaptationSetタグが記述される。
 属性idの属性値が“A0”であるAdaptaionSet開始タグとAdaptaionSet終了タグとの間には、フルHDの映像のRepresentationタグと4K×2Kの映像のRepresentationタグと8K×4Kの映像のRepresentationタグと、Roleタグとが記述されている。これら3つのRepresentationタグに対応する3つの映像は同じ内容を示している。即ち、3つの映像はいずれも「全体映像」という意味で同じ役割(Role)をなすものであり、解像度(サイズ)だけが異なる。このため、図3のMPDデータでは、これらを同じAdaptationSetに(AdaptaionSet開始タグとAdaptaionSet終了タグとの間に)Roleタグと共にまとめて記載し、下記の通り、解像度(サイズ)をそれぞれのRepresentationタグに記載している。
 各Representationタグには、対応する映像のサイズを示す属性値(属性widthおよび属性heightの属性値)、および、対応する映像の取得先を示す属性値(属性srcの属性値)が記述されている。なお、属性srcの属性値は、対応する映像が放送で送られる場合、対応する映像を構成する各パケットのパケットIDである。例えば、8K×4Kの映像のRepresentationタグにはパケットIDが記載される。また、対応する映像が通信で送られる場合、属性srcの属性値は、対応する映像の要求先を示すURLである。例えば、フルHDの映像のRepresentationタグ、及び4K×2Kの映像のRepresentationタグにはURLが記載される。
 また、Roleタグには、各映像が全体映像であるか部分映像であるかを示す属性typeが記述されており、その属性値として、各映像が全体映像であることを示す“full”が記述されている。
 属性idの属性値が“A1-0”であるAdaptaionSet開始タグとAdaptaionSet終了タグとの間には、フルHDの映像のRepresentationタグと4K×2Kの映像のRepresentationタグと、Roleタグとが記述されている。これら2つのRepresentationタグに対応する2つの映像は同じ内容を示している。即ち、2つの映像はいずれも、後述の通り「インデックス値(0,0)の部分映像」という意味で同じ役割(Role)をなすものであり、解像度(サイズ)だけが異なる。このため、図3のMPDデータでは、これらを同じAdaptationSetに(AdaptaionSet開始タグとAdaptaionSet終了タグとの間に)Roleタグと共にまとめて記載し、解像度(サイズ)をそれぞれのRepresentationタグに記載する。
 各Representationタグには、対応する映像のサイズを示す属性値、および、対応する映像の取得先を示す属性値が記述されている。なお、属性srcの属性値は、対応する映像の取得先を示すURLである。
 また、Roleタグには、該Roleタグの直後に記述された各Representationタグに対応する各映像が全体映像であるか部分映像であるかを示す属性typeが記述されており、その属性値として、各映像が部分映像であることを示す“tile”が記述されている。また、図3に示すように、属性typeの属性値として“tile”が記述されたAdaptaionSet開始タグには、属性i_xおよび属性i_yが記述される。
 Roleタグの属性i_xの属性値“0”と属性i_yの属性値“0”とのペア(すなわち、インデックス値(0,0))は、該Roleタグの直後に記述された各Representationタグに対応する各部分映像が、全体映像をマトリックス状に分割した部分映像群のうちの第1行第1列目の部分映像であることを示している。より一般的に言えば、Roleタグの属性i_xの属性値“i”と属性i_yの属性値“j”とのペア(すなわち、インデックス値(i,j))は、該Roleタグの直後に記述された各Representationタグに対応する各部分映像が、全体映像をマトリックス状に分割した部分映像群のうちの第(i+1)行第(j+1)列目の部分映像であることを示している。
 以上、AdaptaionSet開始タグの属性idの属性値が“A1-0”である要素AdaptaionSet(AdaptationSet A1-0)について説明したが、レイヤ1のその他の要素AdaptationSet(AdaptationSet A1-1~AdaptationSet A1-3)およびレイヤ2の要素AdaptationSet(AdaptationSet A2-0~AdaptationSetA2-15)についても同様の解釈ができる。
 また、図3に示すように、Period開始タグとPeriod終了タグとの間にSubsetタグが記述される。各Subsetタグには、属性containsの属性値に対応する部分映像群が全体映像を縦何個横何個に分割して生成された部分画像群であるかを示す、属性n_xと属性n_yとのペアが含まれている。
 なお、映像取得処理部220は、部分映像を取得するためにレイヤ1およびレイヤ2のうちいずれのレイヤの要素AdaptationSetを参照するかを、テレビ200の設定に基づいて決定するようになっている。また、映像取得処理部220は、レイヤ0の要素AdaptationSet(AdaptationSet A0)およびレイヤ1の要素AdaptationSetを参照する場合には、各AdaptationSet要素に含まれる2つのRepresentationタグのうちどちらのRepresentationタグを参照するかを表示部250の解像度に基づいて決定するようになっている。すなわち、解像度は8K×4Kであるので、映像取得処理部220は、レイヤ0の要素AdaptationSetを参照する場合には8K×4Kの全体映像を取得し、レイヤ1の要素AdaptationSetを参照する場合には4K×2Kの部分映像を取得することになる。
 以上、MPDデータについて説明した。
 次に、テレビ200の動作について図4を参照しながら説明する。なお、前提として、テレビ200は、部分映像を取得するためにレイヤ2のAdaptationSetを参照するように設定されているものとする。
 (テレビ200の動作)
 図4は、テレビ200の動作を示すフローチャートである。
 テレビ200の映像取得処理部220は、図4に示すように、最初にMPDデータおよび番組映像を取得する(ステップS1)。具体的には、映像取得処理部220は、放送波からMPDデータを取得する。そして、映像取得処理部220は、MPDデータに含まれている8K×4Kの全体映像に関する属性srcの属性値(パケットID)を参照し、放送波に含まれている当該パケットIDを持つパケット群(8K×4Kの全体映像を構成するパケット群)を放送波から抽出する。
 ステップS1の後、再生部140は、番組映像(8K×4Kの全体映像)を再生して表示部250に表示するとともに、前述の矩形のカーソル(縦1920ドット、横1080ドットのカーソル)を表示部250に表示する(ステップS2)。なお、再生部は、例えば、矩形のカーソルを、全体映像の左上端が該カーソルの左上端となる位置に表示してもよい。
 ステップS2の後、ステップS3において、映像取得処理部220は、現在のカーソルの位置に対応するインデックス値を特定する。例えば、カーソルの左上端が全体映像の左上端と一致している場合、映像取得処理部220は、カーソルの位置に対応するインデックス値(0,0)を特定する。そして、ステップS3において、映像取得処理部220は、MPDデータを参照し、インデックス値に対応する部分映像の取得先を特定する。例えば、特定したインデックス値が(0,0)である場合、属性i_xの属性値および属性i_yの属性値がともに0であるようなRoleタグをMPDデータの中から探し出し、このようなRoleタグを含む要素AdaptationSetに含まれる属性srcの属性値を特定する。更に、ステップS3において、映像取得処理部220は、特定した取得先(配信装置100)から部分映像を取得する。
 なお、ステップS3の直前のステップがステップS5である場合、直前のカーソルの位置に対応するインデックス値に対して(1,0)、(-1,0)、(0,1)または(0,-1)のいずれかの値(例えば、ステップS5にてカーソルが下隣に移動したと判定された場合には(0,1))を加算することで、現在のカーソルの位置に対応するインデックス値を求めることができる。
 ステップS3の後、映像取得処理部220は、ステップS3にて取得した部分映像をタブレット端末300に表示させるため、該部分映像をタブレット端末300に送信する(ステップS4)。
 ステップS4の後、映像取得処理部220は、カーソルが隣(具体的には、上隣、下隣、左隣または右隣)に移動したか否かを判定する(ステップS5)。
 テレビ200は、ステップS5にてカーソルが隣に移動していないと判定した場合にはステップS6に進み、ステップS5にてカーソルが隣に移動したと判定した場合にはステップS3に戻る。
 ステップS6にて、映像取得処理部220は、再生中の番組が終了したか否かを判定する。テレビ200は、ステップS6にて番組が終了していないと判定した場合にはステップS5に戻り、ステップS6にて番組が終了したと判定した場合には図4のフローチャートの動作を終了する。
 (テレビ200の利点)
 以上のテレビ200の説明から以下のことが言える。
 すなわち、テレビ200(表示処理装置)は、全体映像(8K×4Kの番組映像)を構成する16個のフルHDの部分映像(複数の部分映像)の中からタブレット端末300の表示面(特定の表示領域)への表示対象となっている上記部分映像の隣の部分映像の選択を受け付ける操作受付部(受付手段、図示せず)を備えている。
 また、テレビ200は、16個のフルHDの部分映像の各々について該部分映像の識別子(属性i_xの属性値と属性i_yの属性値とのペア)および取得先(属性srcの属性値)が関連付けて示されたMPDデータ(メタデータ)を取得する映像取得処理部220(メタデータ取得手段)を備えている。
 この映像取得処理部220(映像取得手段)は、選択された上記隣の部分映像の取得先を上記メタデータに示されている該部分映像の識別子を参照することで特定し、該取得先(配信装置100)から該部分映像を取得する。更に、映像取得処理部220(表示更新手段)は、タブレット端末300の表示面の部分映像を、取得した部分映像に更新する。
 また、MPDデータに記述されている16個のフルHDの部分映像の各識別子は、該部分映像の隣の部分映像の識別子を、他の情報を参照することなく特定可能な識別子であると言える。
 上記の構成によれば、テレビ200は、視聴者がタブレット端末300の表示面への表示を所望する部分映像の識別子を、MPDデータに記述されている他の情報を参照することなく特定できる。
 よって、テレビ200は、MPDデータに、当該識別子に関連付けて記録されている当該部分映像の取得先も容易に特定できる。
 (実施形態1の付記事項1)
 MPDデータは、図3に示したようなMPDデータに限られない。
 例えば、MPDデータは、図5、図6または図7に例示したMPDデータであってもよい。
 すなわち、図6および図7に示すように、Roleタグの代わりにTileタグを記述し、Tileタグの中には、Tileタグの直後に記載されている各Representationタグに対応する各映像が部分映像であるか全体映像であるかを示す属性typeが記述されていてもよい。属性typeの属性値“full”は各映像が全体映像であることを示す属性値であってもよく、属性typeの属性値“partial”は各映像が部分映像であることを示す属性値であってもよい。
 また、図5および図7に示すように、属性n_xおよび属性n_yは、Subsetタグの属性として記述する代わりに、RoleタグまたはTileタグの属性として記述してもよい。
 あるいは、MPDデータは、図19に例示したMPDデータであってもよい。
 すなわち、Tileタグの中に、属性typeに代えて、Tileタグの直後に記載されている各Representationタグに対応する各映像がどのレイヤに属するかを示す属性layerを記述してもよい。また、属性layerの属性値“0”は、各映像がレイヤ0に属する(すなわち、各映像が全体映像である)ことを示す属性値であってもよい。同様に、属性layerの属性値“1”は、各映像がレイヤ1に属する(各映像がレイヤ1の部分映像である)ことを示す属性値であってもよく、属性layerの属性値“2”は、各映像がレイヤ2に属する(各映像がレイヤ2の部分映像である)ことを示す属性値であってもよい。
 また、属性layerの属性値で部分映像の分割数(部分映像群は全体映像を縦何個横何個に分割して生成されたものであるか)が判る場合には、Tileタグの属性として、属性n_xおよび属性n_yは含まれていなくともよい。
 (実施形態1の付記事項2)
 テレビ200は、部分映像をタブレット端末300に表示させたが、テレビ200はこのような構成に限定されない。例えば、テレビ200は、表示部250の表示面に放送波から取得した全体映像をフルスクリーン表示しながら、該表示面の一部を占有する小画面(特定の表示領域)内に通信によって取得した部分映像を表示してもよい。
 なお、本実施形態は、放送および通信の両方を使って全体映像および部分映像を取得する例を示したが、これに限定されず、通信のみで全体映像および部分映像を取得する構成も可能である。同じく、放送のみで全体映像および部分映像を取得する構成も可能である。
 (実施形態1の付記事項3)
 部分映像(タイル)の取得先を示すURL(Representation要素のsrc属性の値)の記述について、図2の8K×4K映像のレイヤ1の場合を例に説明する。ここで、レイヤ1における4つの4K×2Kのタイルについて、左上、右上、左下、右下のタイルをそれぞれTile1、Tile2、Tile3、Tile4とする。以下では、MPEGで標準化されているHEVC(High Efficiency Video Coding)で符号化されたデータを、ISOBMFF(ISO Base Media File Format)に格納する際のフォーマット、および対応するMPDデータについて、図23から図30を用いて説明する。
 図23は、各タイルを異なるファイルに格納する場合のフォーマットを模式的に示した図である。各ファイルは、1つのトラックから構成され、トラックには復号処理に必要なVPS(Video Parameter Set)、SPS(Sequence Parameter Set)、PPS(PictureParameter Set)、SEI(Supplemental Enhancement Information)、及びタイルの符号化データに相当する複数のSliceが含まれている。
 図24は、図23のファイルフォーマットを用いる場合のMPDデータを例示した図である。この場合、Tile1~Tile4には異なるファイル名が割り当てられるため、タイルの取得先を示すURLには、それぞれのファイル名が記述される。
 図25は、各タイルを異なるトラックに格納する場合のフォーマットを模式的に示した図である。ファイルは、復号処理に必要なパラメータセット(VPS,SPS,PPS等)を含むトラックと、各タイルの符号化データに相当する4つのトラックの計5つのトラックから構成される。
 図26は、図25のファイルフォーマットを用いる場合のMPDデータを例示した図である。この場合、タイルの取得先を示すURLには、ファイル名のみでは所望のタイルを識別できないため、trackディメンジョンのURIフラグメント(例:#track=1)を付加したURLが記述される。
 このように記述することで、ファイル中のどのトラックを抽出すれば所望のタイルを取得できるのかをMPDレベルで識別することができる。
 なお、この場合、パラメータセットトラックに含まれるデータ(VPS,SPS,PPS等)と、URIフラグメントのtrackディメンジョンで指定したトラックに含まれるデータ(Slice)が再生部240に入力され再生される。
 図27は、すべてのタイルを1つのトラックに格納する場合のフォーマットを模式的に示した図である。ファイルは、1つのトラックから構成され、トラックには復号処理に必要なパラメータセットと、各タイルの符号化データに相当する複数のSliceが含まれている。
 図28は、図27のファイルフォーマットを用いる場合のMPDデータを例示した図である。この場合、タイルの取得先を示すURLには、ファイル名のみでは所望のタイルを識別できないため、spatialディメンジョンのURIフラグメント(例:#xywh=0,0,3840,2160)を付加したURLが記述される。
 このように記述することで、ファイル中のどの領域を抽出すれば所望のタイルを取得できるのかをMPDレベルで識別することができる。
 なお、この場合、パラメータセットトラックに含まれるデータ(VPS,SPS,PPS等)と、URIフラグメントのspatialディメンジョンで指定した領域のデータ(Slice)が再生部240に入力され再生される。
 図29は、複数のタイルを格納したトラックが複数ある場合のフォーマットを模式的に示した図である。ファイルは、復号処理に必要なパラメータセットを含むトラックと、タイルの符号化データに相当する2つのトラックの計3つのトラックから構成される。なお、Track1にはTile1及びTile2が、Track2にはTile3及びTile4が格納されている。
 図30は、図29のファイルフォーマットを用いる場合のMPDデータを例示した図である。この場合、タイルの取得先を示すURLには、ファイル名のみでは所望のタイルを識別できないため、trackディメンジョン及びspatialディメンジョンのURIフラグメント(例:#track=1&xywh=0,0,3840,2160)を付加したURLが記述される。
 このように記述することで、ファイル中のどのトラックのどの領域を抽出すれば所望のタイルを取得できるのかをMPDレベルで識別することができる。
 なお、この場合、パラメータセットトラックに含まれるデータ(VPS,SPS,PPS等)と、URIフラグメントのtrackディメンジョンで指定したトラックかつURIフラグメントのspatialディメンジョンで指定した領域のデータ(Slice)が再生部240に入力され再生される。
 URIフラグメントの記述形式は、上記形式に限られるものではなく、MPEG-21等で規定される他の形式により記述してもよい。
 図31は、図29のファイルフォーマットを用いる場合のMPDデータの変形例を示した図である。ここでは、URIフラグメントがMPEG-21 Part17(FragmentIdentification of MPEG Resources)で規定される形式(例:#ffp(track_ID=1)*mp(spatial::region(rect(0,0,3840,2160))))で記述されている。
 図32は、図29のファイルフォーマットを用いる場合のMPDデータの別の変形例を示した図である。ここでは、xywhの値がテンプレート形式(例:#track=1&xywh=$x$,$y$,$w$,$h$)で記述されている。$x$、$y$、$w$、$h$の各値は、クライアント端末において、Role要素のi_x属性及びi_y属性の値、及びRepresentation要素のwidth属性及びheight属性の値などから導出され、置き換えられる。例えば、Tile3の場合以下のように導出され、xywh=0,2160,3840,2160となる。
 $x$ = Role@i_x * Representation@width = 0 * 3840 = 0
 $y$ = Role@i_y * Representation@height = 1 * 2160 = 2160
 $w$ = Representation@width= 3840
 $h$ = Representation@height= 2160
 (実施形態1の付記事項4)
 図25の例は、HEVCで符号化されたタイルのデータが1つのISOBMFFのファイルに格納された際のフォーマットを示している。同様に、図27、図29も、HEVCで符号化されたタイルのデータを1つのISOBMFFのファイルに格納したフォーマットの例である。このような場合に、ISOBMFFでは、subsegment index boxを使って、タイルデータの格納位置 (読出し位置) とインデックス (index) のレベル (level) とをマッピングすることが可能である。これにより、Sub-Representationレベルでタイルを記述したMPDデータを構成することも可能である。
 図33は、図25のフォーマットに対応する、Sub-Representationレベルでタイルを記述したMPDデータの例である。このとき、Representationに付されたURL (BaseURL要素) がタイルデータを格納したファイルのファイル名を示し、Sub-Representationに付されたlevel属性がそのファイル内のタイルデータの格納位置を示す。格納位置はISOBMFF内のBOX (subsegment index box) で別に管理される。このため、例えば図27のフォーマットでも、図29のフォーマットであっても、MPDデータについては図33のもので共通に表されることになる。
 図34は、図23と図25のフォーマットが混在する場合を想定したMPDデータの例である。即ち、タイルデータ全てを格納した1つのファイル (各タイルはMPDデータ上にSub-Representationレベルで書かれる) と、タイルデータそれぞれを格納した複数ファイル (各タイルはMPDデータ上にAdaptationSetレベルで書かれる) が混在する場合である。図34の例は、4K(3840×2160)のファイルA0.mp4が左上、右上、左下、右下の2K(1920×1080)サイズのタイルを含み、且つ、4K(3840×2160)サイズの左上、右上、左下、右下のタイルがそれぞれファイルA0-1.mp4、A0-2.mp4、A0-3.mp4、A0-4.mp4に格納されて提供される場合を示している。この図からも判るように、AdaptationSetレベルのタイルの記述とSub-Representationレベルのタイルの記述を混在させたMPDデータには、次の2つの問題がある。
・タイルの記述の有無を即座に (例えばAdaptationSetレベルで一律に) 知ることができない。
・同じタイル (例えば上記1/4サイズの左上タイル) がMPDデータ内の複数箇所に書かれてしまう。
以下に、これらを解決する方法を示す。
 図35は、図23と図25のフォーマットが混在する場合を想定したMPDデータの別の例である。この例では、先頭の (その下にSub-Representationレベルのタイルが記載された) AdaptationSetにRole要素が記述されている点と、そのRole要素及びその他のAdaptationSet下のRole要素に属性insideが加えられている点とが、図34の例と異なっている。これらによりタイル記述の有無をAdaptationSetレベルで一律に知ることを可能とする。即ち、以下を条件とする。
・タイルを扱う場合にAdaptationSet下のRole要素を必須とする。
・AdaptationSet下のRole要素に、その下にSub-Representation下のタイルを表すRole要素 (<Role type=“tile” […]>) があるか否かを示す識別子insideを加える。
 識別子insideは、そのRole要素が付されたAdaptationSet下 (のRepresentation下) に、タイルを表すRole要素を含むSub-Representationがあるか否かを示す0、1の識別子とする。存在する場合に値1、存在しない場合に値0とする。あるいは、0、1の2値の識別子のほか、Period先頭の(Periodで最初に現れる) AdaptationSetに付けるRole要素に付加するものとして、それ以降のAdaptationSetについてAdaptationSetのみにRole要素が含まれるか(値は0)、Sub-RepresentationのみにRole要素が含まれるか(値は1)、AdaptationSet、Sub-Representationの両方に任意にRole要素が含まれるか(値は2)、を示す3値の識別子を規定することもできる。この場合には、先頭のAdaptationSetのみに識別子insideを記述し一括に判定することで、記述量と判定に係る処理量とを軽減することができる。この場合、識別子insideを先頭のAdaptationSetでなくPeriodの属性として書くとしてもよい。あるいは、Role要素を含む現在のAdaptationSetとその次に現れるAdaptationSetに対して、現在のAdaptationSetがSub-RepresentationレベルのRole要素を含むか否かと、次のAdaptationSetがAdaptationSetレベルのRole要素を含むか否かとを示す2ビットの識別子としてinsideを規定することもできる。また0、1、2といった数値に限らず、テキストを値とする識別子insideを定義してもよい。即ち、識別子insideは、タイルを示すRole要素がAdaptationSetレベル、Sub-Representationレベルにあるか否かを正しく識別できる情報であればよい。
 また、Role要素のtype属性値に予約語を規定することで前記識別子に代えることもできる。即ち、“full-0”、“tile-0”、“full-1”、“tile-1”をtype属性値の予約語とし、type=“full-0”、type=“tile-0”がAdaptationSet下にSub-Representationレベルのタイルを表すRole要素が無いことを示し、type=“full-1”、type=“tile-1”がSub-Representationレベルのタイルを表すRole要素があることを示す、としてもよい。layer属性値を予約語に使うとしても同様である。なおその場合、テキストとしての予約語でなく、バイトデータとして扱い、layerの値の最上位1ビットをSub-Representation下のRole要素の有無を表す予約ビットとして扱う、といった実施も可能である。
 無論、タイルを表す要素はRole要素 (Roleタグ) に限らず、前記したTile要素 (Tileタグ)であっても、あるいは別途規定されるその他の要素であっても構わない。
 また、Representation要素あるいはAdaptationSet要素に含まれる情報からSub-Representationレベルのタイルの有無を識別可とすることも可能である。例えば、 Representation要素に含まれる符号化方式を示す属性codecsに対して、その値をcodecs=“hvc1, hvt1”と記述する。値“hvt1”はこのRepresentation (が示すMP4ファイル) にHEVCのタイル符号化、格納処理が加えられていることを示す。このため、この値をみることでSub-Representation 下のタイルを表すRole要素があることを知ることができる。なお、正確には、値“hvt1”はタイル符号化、格納処理が加えられていることを示すのみであり、Sub-Representation下のタイルを表すRole要素が必ずあることを示すものではない。値“hvt1”が示されたときSub-Representation下のタイルを表すRole要素を必ず含ませるか否かは、システム、サービスの設計者が決定するものである。必ず含むとしたとき、属性codecsは、上記insideと同等に、Sub-Representationレベルのタイルの有無を識別する識別子にあたる。
 図36は、図23と図25のフォーマットが混在する場合を想定したMPDデータの更に別の例である。この例では、AdaptationSet下、Sub-Representation下の各Role要素に属性memberが加えられている点が、図35の例と異なっている。これにより、同じタイルがMPDデータ内の複数箇所に書かれていることを明示するとともに、MPDデータ内の複数箇所に書かれた同一タイルを特定することを可能とする。
 属性memberには、そのRole要素が表すタイルと同一のタイルが含まれるAdaptationSetの識別情報あるいはSub-Representationの識別情報が記述される。図36の例では、AdaptationSetの識別情報にAdaptationSetのidの値 (“A0-1”、“A0-2”など) を用い、Sub-Representationの識別情報には、Sub-Representationを含むAdaptationSetのidとSub-Representationを識別するlevelの値とを組み合せた$id$/$level$形式の値 (“A0/1”、“A0/2”など) を用いるとした。先頭のAdaptationSet下のRole要素に記載された属性member=“”は、MPDデータ内に同一のタイルが無いことを明示的に表すものである。また、図示はしていないが、同一のタイルが複数ある場合には、それらの識別情報をmember属性に並べて記述するものとする。即ち、図36の最初に現れるSub-Representation (“A0/1”で識別されるSub-Representation) 下のRole要素にmember=“A0-1 A1/1 A2/1 A3-1”と記述されたとき、id=“A0-1”のAdaptationSet、id=“A1”のAdaptationSet下のlevel=“1”のSub-Representation、id=“A2”のAdaptationSet下のlevel=“1”のSub-Representation、id=“A3-1”のAdaptationSetの4つが、その(id=“A0”のAdaptationSet下のlevel= “1”の) Sub-Representationと同一のタイルであることを示すものとする。
 無論、Sub-Representation自身がid属性を備え、memberにその値を記述するとしてもよい。同様に、Role要素自身がid属性を備え、memberにその値を記述するとしてもよい。無論、タイルを表す要素はRole要素 (Roleタグ) に限らず、前記したTile要素 (Tileタグ)であっても、あるいは別途規定されるその他の要素であっても構わない。また、図36は図35にmember属性を追記したものであるが、図35に示した識別子insideと図36の属性memberとは独立した情報であり、識別子insideを含まずmember属性のみを加えたMPDデータも構成可能である。
 (実施形態1の付記事項5)
 MPDデータは、図3、図5、図6または図7に示したようなMPDデータに限られない。
 すなわち、例えば、図5に示すMPDデータおいて、AdaptaionSet開始タグとAdaptaionSet終了タグとの間には、フルHDの映像のRepresentationタグと4K×2Kの映像のRepresentationタグと8K×4Kの映像のRepresentationタグとが記述されており、これら3つのRepresentationタグに対応する3つの映像は解像度(サイズ)だけが異なり、同じ内容を示している。これらの映像のRepresentationタグは、必ずしもAdaptationSetに(AdaptaionSet開始タグとAdaptaionSet終了タグとの間に)まとめて記述されるわけではなく、別々のAdaptationSetに記述されていてもよい。
 しかしながら、これらの映像のRepresentationタグを、別々のAdaptationSetに記述したMPDデータには、次の2つの問題がある。
・同じ解像度とレイヤに属する映像の有無を即座に(例えばAdaptationSetレベルで一律に)知ることができない。
・同じ内容で解像度(サイズ)だけが異なる映像の有無を即座に(例えばAdaptationSetレベルで一律に)知ることができない。
 このため、視聴者の装置は視聴者が所望する映像の有無を容易に特定できない。
 以下に、これを解決する方法を示す。
 図37は、図5に示すMPDデータの別の例を示している。この例では、Period開始タグとPeriod終了タグとの間にSubsetタグが記述されていない点と、映像のRepresentationタグが別々のAdaptationSetタグに記載されている点と、AdaptationSet下のRole要素に属性level_setと属性tile_setが加えられている点とが、図5の例と異なっている。これらにより、同じ解像度とレイヤに属する映像の有無と、同じ内容で解像度だけが異なる映像の有無を、AdaptationSetレベルで一律に知ることを可能とする。即ち、以下を条件とする。
・AdaptationSet下のRole要素に、同じ解像度とレイヤに属する映像の有無を表わす属性level_setを加える。
・AdaptationSet下のRole要素に、同じ内容で解像度だけが異なる映像の有無を表わす属性tile_setを加える。
 属性level_setは、各Role要素に対応する各映像がどの解像度とレイヤに属するかを示す属性である。例えば、図37において、属性level_setの属性値“0”は、各映像がフルHDの映像のレイヤ0に属する(すなわち、映像がフルHDの全体映像である)ことを示す属性値である。同様に、属性level_setの属性値“1”は、各映像が4K×2Kの映像のレイヤ0に属する(各映像が4K×2Kの映像のレイヤ0の部分映像である)ことを示す属性値であり、属性level_setの属性値“2”は、各映像が8K×4Kの映像のレイヤ2に属する(各映像が8K×4Kの映像のレイヤ2の部分映像である)ことを示す属性値である。
 また、属性level_setの属性値で部分映像の分割数(部分映像群は全体映像を縦何個横何個に分割して生成されたものであるか)が判る場合には、Role要素の属性として、属性n_xおよび属性n_yは含まれていなくともよい。
 属性tile_setは、各Role要素に対応する解像度だけが異なる各映像がどの部分映像群に属するかを示す属性である。例えば、図37において、属性tile_setの属性値“0”は、各映像が部分映像群0に属する(すなわち、各映像が全体映像である)ことを示す属性値である。同様に、属性tile_setの属性値“1”は、各映像が部分映像群1に属することを示す属性値であってもよく、属性tile_setの属性値“2”は、各映像が部分映像群2に属することを示す属性値である。
 なお、MPDデータは図37の例に限られず、例えば、図38に示すMPDデータであってもよい。
 すなわち、図38に示すように、AdaptationSet下のRole要素に属性i_x、属性i_y、属性n_x、属性n_yが記述されていなくてもよく、AdaptationSet下のRole要素に属性x、属性y、属性W、属性Hが記述されていてもよい。これらにより、同じ解像度とレイヤに属する映像の有無と、同じ内容で解像度だけが異なる映像の有無を、AdaptationSetレベルで一律に知ることを可能とする。
 属性xと属性yは、それぞれ、全体映像の左上座標を(0,0)とする座標系における各部分映像の左上座標を示す属性である。
 また、属性Wと属性Hは、それぞれ、全体映像のサイズ(幅と高さ)を示す属性である。
 このように属性level_setと属性level_setを組み合わせて記述することで、映像のRepresentationタグを別々のAdaptationSetに記述したMPDデータであっても、同じ解像度とレイヤに属して、同じ内容で解像度だけが異なる部分映像を、AdaptationSetレベルで即座に知ることができる。
 更に、MPDデータは図37、図38の例に限られず、例えば、図39に示すMPDデータであってもよい。
 すなわち、図39は、図23と図25のフォーマットが混在する場合を想定したMPDデータの別の例である。この例では、タイルデータ全てを格納した1つのファイル(各タイルはMPDデータ上にSub-Representationレベルで書かれる)と、タイルデータそれぞれを格納した複数ファイル(各タイルはMPDデータ上にAdaptationSetレベルで書かれる)が混在する場合を示している。すなわち、Sub-Representation下のRole要素に属性level_setと属性tile_setが記述されている点と、先頭の(その下にSub-Representationレベルのタイルが記載された)AdaptationSet下のRole要素及びその他のAdaptationSet下のRole要素の属性insideが削除されている点とが、図35の例と異なっている。これらにより、同じ解像度とレイヤに属する映像の有無と、同じ内容で解像度だけが異なる映像の有無を、Sub-RepresentationレベルとAdaptationSetレベルで知ることを可能とする。
 なお、図37、図38および図39において、各Role要素に属性level_setと属性tile_setの両方の属性値が記述されているが、これに限定されず、属性level_setのみを記述し、同じ解像度とレイヤに属する映像の有無を表わす構成も可能である。同じく、属性tile_setのみを記述し、同じ内容で解像度だけが異なる映像の有無を表わす構成も可能である。
 (実施形態1の変形例)
 前述の矩形のカーソルは縦および横に1ドットずつ移動させることが可能なカーソルであってもよい。そして、テレビ200は、カーソルの位置に対応する部分映像をタブレット端末300に表示させてもよい。
 この場合、テレビ200は、通常のケース(すなわち、図8に示すような、カーソルの位置に対応する部分映像が配信装置100から取得可能な部分映像そのものではないケース)では、カーソルの位置に対応する部分映像を生成する必要がある。このため、テレビ200は、以下の処理を行ってもよい。
 すなわち、テレビ200は、カーソルの左上座標、幅および高さに基づいて、MPDデータの中から、カーソルの位置に対応する部分映像を生成するために必要な複数の部分映像の取得先を特定し、特定した複数の部分映像を取得してもよい。そして、各部分映像から不要部分を切り出す処理を行うとともに、当該処理後の複数の部分映像を結合させることで、カーソルの位置に対応する部分映像を生成してもよい。
 そして、テレビ200は、生成した部分映像をタブレット端末300に表示させてもよい。
 〔実施形態2〕
 以下、本発明の別の一実施形態に係る配信システムについて説明する。なお、説明の便宜上、前記実施形態にて説明した部材と全く同じ機能または略同じ機能を有する部材については、同じ符号を付記し、基本的にその説明を省略する。
 本実施形態に係る配信システムは、配信装置およびクライアント端末を含んでいる。
 配信装置には、カメラの撮影により得られた撮像映像群(図10)が保持されている。
 配信装置に保持される撮像映像群は、具体的には、以下のように生成される。
 まず、ある被写体を捉えているカメラにより、超高解像度(32K×16K:レイヤ2)の撮像映像(全体映像)、高解像度(16K×8K:レイヤ1)の撮像映像(全体映像)、および、中解像度(8K×4K:レイヤ0)の撮像映像が生成される。
 次に、高解像度(レイヤ1)の撮像映像から、該撮像映像を構成する9個の8K×4Kの部分映像を生成する。具体的には、互いが隣に位置する任意の2つの部分映像が、各部分映像に占める割合が50%となるような共通の像を含むように、8K×4Kの部分映像を9個生成する。より具体的には、以下の9個の8K×4Kの部分映像を生成する。
・高解像度の撮像映像の左上座標を(0,0)とする座標系における(0,0)、(7680,0)、(0,3840)、(7680,3840)の4点で囲まれた領域の部分映像
・上記座標系における(3840,0)、(11520,0)、(3840,3840)、(11520,3840)の4点で囲まれた領域の部分映像
・上記座標系における(7680,0)、(15360,0)、(7680,3840)、(15360,3840)の4点で囲まれた領域の部分映像
・上記座標系における(0,1920)、(7680,1920)、(0,5760)、(7680,5760)の4点で囲まれた領域の部分映像
・上記座標系における(3840,1920)、(11520,1920)、(3840,5760)、(11520,5760)の4点で囲まれた領域の部分映像
・上記座標系における(7680,1920)、(15360,1920)、(7680,5760)、(15360,5760)の4点で囲まれた領域の部分映像
・上記座標系における(0,3840)、(7680,3840)、(0,7680)、(3840,7680)の4点で囲まれた領域の部分映像
・上記座標系における(3840,3840)、(11520,3840)、(3840,7680)、(11520,7680)の4点で囲まれた領域の部分映像
・上記座標系における(7680,3840)、(15360,3840)、(7680,7680)、(15360,7680)の4点で囲まれた領域の部分映像
 なお、以下では、上述の割合のことを「重なり率」とも称する。
 更に、同様の方法により、超高解像度(レイヤ2)の撮像映像から、該撮像映像を構成する49個の8K×4Kの部分映像を生成する。
 無論、上記の生成方法は一例である。例えば、8K×4Kの部分映像を撮影する16台のカメラを用意し、16個の部分映像の組み合わせを仮想的な超高解像度(レイヤ2)の撮像映像としてもよい。16個の部分映像から、各部分映像に占める割合が50%となるような共通の像を含むように残り33個(49個-16個)のレイヤ2の部分映像を生成する。次に、上下左右に重ならないで隣り合う4つの8K×4Kの部分映像から高解像度(16K×8K)の映像を一旦生成し、それを8K×4Kにダウンサンプルすることで9個のレイヤ1の部分映像を生成する。更に、レイヤ1の外側4つの部分映像から高解像度(16K×8K)の映像を一旦生成し、それを8K×4Kにダウンサンプルすることでレイヤ0の映像を生成する。このようにしても図10の部分映像群は得られる。
 配信装置は、レイヤ0の映像として、上記の方法により生成された8K×4Kの全体映像を配信するようになっている。
 また、配信装置は、レイヤ1の映像として、上記の方法により生成された8K×4Kの部分映像群を配信するようになっている。
 また、配信装置は、レイヤ2の映像として、上記の方法により生成された8K×4Kの部分映像群を配信するようになっている。
 以下、上記配信装置およびクライアント端末の要部構成について図9および図10を参照しながら説明する。図9は、実施形態2に係る配信装置およびクライアント端末の要部構成を示すブロック図である。図10は、上記の各レイヤの映像を模式的、且つ、概略的に示した図である。なお、図10は、部分映像とその上隣(下隣)の部分映像との重なり率を反映したものとしているが、図面の簡略化の観点から、部分映像とその右隣(左隣)の部分映像との重なり率を反映したものとはしていない。
 (配信装置100A)
 図9に示すように、配信装置100Aは、記憶部110A、映像配信処理部120A、および、通信I/F部140を備えている。
 (記憶部110A)
 記憶部110Aは、図10に示すレイヤ0の映像群(上述の8K×4Kの撮像映像(全体映像))を保持する記録媒体である。この記録媒体には、図10に示すレイヤ1の映像群(高解像度の撮像映像から生成された9つの8K×4Kの部分映像)およびレイヤ2の映像群(超高解像度の撮像映像から生成された49個の8K×4Kの部分映像)も保持されている。
 (映像配信処理部120A)
 映像配信処理部120Aは、通信I/F部140を通じて、クライアント端末200AにMPDデータを配信する。
 また、映像配信処理部120Aは、MPDデータを参照したクライアント端末200Aからリクエストされた映像をクライアント端末200Aに配信する。
 (クライアント端末200A)
 図9に示すように、クライアント端末200Aは、映像取得処理部220A、記憶部230、再生部240、表示部250、および、通信I/F(通信インタフェース)部260を備えている。
 (映像取得処理部220A)
 映像取得処理部220Aは、通信I/F部260を介して、配信装置100Aにより配信され撮像映像に関するMPDデータ(メタデータ)を取得し、取得したMPDデータを記憶部230に記録する。
 また、映像取得処理部220Aは、MPDデータに含まれている、ユーザにより選択された撮像映像の取得先を参照し、取得先である配信装置100Aからその撮像映像を取得する。
 (再生部240)
 再生部240は、MPDデータに基づいて配信装置100Aから取得した撮像映像を再生し、該撮像映像を表示部250に表示する。
 (表示部250)
 撮像映像がフルスクリーン表示されるディスプレイである。
 なお、レイヤ1またはレイヤ2の撮像映像(部分映像)が表示部250に表示されている間、撮像映像上には、ポインタが重畳表示される。このポインタは、横方向および縦方向に1ドットずつ移動できる。ユーザは、操作部(図示せず)を通じてこのポインタを移動させることにより、表示する部分映像を移動方向の部分映像に切り替えることができる。
 (MPDデータについて)
 次に、配信装置100Aが配信するMPDデータについて図11を参照して以下に説明する。
 図11は、MPDデータを例示した図である。なお、図11(後述の図13、図20および図21も同様)においては、図面の簡略化の観点からMPDデータの一部の情報(例えば、属性srcの属性値)の記載を省略している。
 図11を見るとわかるように、図11のMPDデータは、Subsetタグに属性d_rが含まれている点を除き、図3のMPDデータと同じである。
 以下では、属性d_rについて説明する。なお、なお、実施形態1で説明したタグおよび属性については、本実施形態ではその説明は省略する。
 属性containsの属性値が“A1-0 ... A1-8”であるSubSetタグに含まれる属性d_rの属性値は、レイヤ1の任意の2つの部分映像(具体的には、互いが隣に位置する任意の2つの撮像映像)の重なり率を示している。
 同様に、属性containsの属性値が“A2-0 ... A2-48”であるSubSetタグに含まれる属性d_rの値は、レイヤ2の任意の2つの部分映像(具体的には、互いが隣に位置する任意の2つの撮像映像)の重なり率を示している。
 以上、MPDデータについて説明した。
 次に、クライアント端末200Aの動作について図12を参照しながら説明する。なお、前提として、クライアント端末200Aは、8K×4Kの部分映像を表示するためにレイヤ2のAdaptationSetを参照するように設定されているものとする。
 (クライアント端末200Aの動作)
 図12は、クライアント端末200Aの動作を示すフローチャートである。
 クライアント端末200Aの映像取得処理部220Aは、図12に示すように、最初にMPDデータおよび撮像映像を取得する(ステップS11)。具体的には、映像取得処理部220Aは、通信により配信装置100AからMPDデータを取得する。そして、映像取得処理部220Aは、MPDデータに含まれている、8K×4Kの全体映像に関する属性srcの属性値(URL)を参照し、当該URLにより示される取得先(配信装置100A)から当該全体映像を取得する。
 ステップS11の後、再生部140は、ステップS11にて取得した全体映像を再生して表示部250にフルスクリーン表示するとともに、前述のポインタを表示部250の左上隅に表示する(ステップS12)。
 ステップS12の後、ステップS13において、映像取得処理部220Aは、現在のポインタの位置に対応するインデックス値を特定する。
 具体的には、ステップS13の直前のステップがステップS12である場合、ポインタの位置(表示部250の左上隅)に対応するインデックス値(0,0)を特定する。
 また、ステップS13の直前のステップがステップS15である場合、前回のステップS13にて特定されたインデックス値に対して(1,0)、(-1,0)、(0,1)または(0,-1)を加算することでインデックス値を特定できる。例えば、ステップS15にて属性d_rの属性値 “0.5”に応じた移動量(規定値Q×(1-0.5))ドットだけポインタが右方向に移動したと判定された場合には、前回特定されたインデックス値に対して(1,0)を加算することでインデックス値を特定できる。
 なお、属性d_rの属性値は0.5に限られず、0.5より大きい値(例えば、0.75)であってもよいし、0.5より小さい値(例えば、0.25)であってもよい。属性d_rの属性値が0.75である場合には、属性d_rの属性値に応じた移動量はQ×(1-0.75)ドットであってもよい。また、属性d_rの属性値が0.25である場合には、属性d_rの属性値に応じた移動量はQ×(1-0.25)ドットであってもよい。
 そして、ステップS13において、映像取得処理部220Aは、MPDデータを参照し、特定したインデックス値に対応する部分映像の取得先を特定する。例えば、特定したインデックス値が(1,0)である場合、属性i_xの属性値が1であって属性i_yの属性値が0であるようなRoleタグをMPDデータの中から探し出し、このようなRoleタグを含む要素AdaptationSetに含まれる属性srcの属性値を特定する。更に、ステップS13において、映像取得処理部220Aは、特定した取得先(配信装置100A)から部分映像を取得する。
 ステップS13の後、映像取得処理部220Aは、ステップS13にて取得した部分映像を表示部250にフルスクリーン表示する(ステップS14)。
 ステップS14の後、映像取得処理部220Aは、ポインタが属性d_rの属性値に応じた量だけ水平方向または垂直方向に移動したか否かを判定する(ステップS15)。
 クライアント端末200Aは、ステップS15にてポインタが属性d_rの属性値に応じた量だけ水平方向(右方向もしくは左方向)または垂直方向(上方向もしくは下方向)に移動したと判定した場合にはステップS13に戻る。一方、クライアント端末200Aは、ステップS15にてポインタが属性d_rの属性値に応じた量だけ水平方向にも垂直方向にも移動していないと判定した場合には、ステップS16に進む。
 ステップS16にて、映像取得処理部220Aは、撮像映像の表示を終了するための操作が成されたか否かを判定する。クライアント端末200Aは、ステップS16にて当該操作が成されていないと判定した場合にはステップS15に戻り、ステップS16にて当該操作が成されたと判定した場合には図12のフローチャートに従った動作を終了する。
 (実施形態2の付記事項)
 MPDデータは、図11に示したようなMPDデータに限られない。
 例えば、MPDデータは、図13に例示したMPDデータであってもよい。
 すなわち、図13に示すように、属性n_x、属性n_yおよび属性d_rの各々を、各Subsetタグの属性とする代わりに、各Roleタグの属性としてもよい。
 あるいは、MPDデータは、図20または図21に例示したMPDデータであってもよい。
 図20および図21に例示したMPDデータは、部分映像とその上隣(下隣)の部分映像との重なり率が部分映像とその左隣(右隣)の部分映像との重なり率と異なる場合に好適に用いられる。
 図20および図21に例示したMPDデータには、後者(左右)の重なり率を示す値が属性d_r_xの属性値として記述され、前者(上下)の重なり率を示す値が属性d_r_yの属性値として記述される。
 なお、属性n_x、属性n_y、属性d_r_xおよび属性d_r_yの各々は、図20に示すように各Subsetタグの属性としてもよいし、図21に示すように各Roleタグの属性としてもよい。
 また、図20のMPDデータに代えて、以下に説明する6つの属性(属性div_x、属性div_y、属性inter_x、属性inter_y、属性num_xおよび属性num_y)が属性n_x、属性n_y、属性d_r_xおよび属性d_r_yの代わりに記述されたMPDデータを用いてもよい。
 当該MPDデータに記述される6つの属性について図22を参照しながら以下に説明する。図22は、当該MPDデータについて説明するための図である。
 属性div_xの属性値は、全体映像の横幅を部分映像の横幅で割ることにより得られる値である。図22の例では、全体映像の横幅が7680ドットであり、各部分映像の横幅が1920ドットであるので、div_xの値は4になる。即ち、部分映像に重なりが無いとした時の分割数を表す。
 属性inter_xの属性値は、左右に隣り合う重なりの無い2つの特定部分映像(図22で実線により表されている2つの部分映像)の間の位置に位置する、特定部分映像ではない部分映像(図22で点線により表されている部分映像)の個数を示す値である。即ち、重なりの無い2つの部分映像(特定部分映像)の間に挿入される部分映像の数を表す。ここで、特定部分映像とは、全体映像の左上座標を(0,0)とする座標系において、左上座標のx成分が横幅の整数倍であり、左上座標のy成分が縦幅の整数倍であるような部分映像のことを指す。また、「特定部分映像ではない部分映像が、隣り合う2つの特定部分映像の間に位置する」とは、厳密には、「一方の特定部分映像の左上座標と他方の特定部分映像の左上座標とを結ぶ線分上に、特定部分映像ではない部分映像の左上座標が位置する」ことを意味する。なお、図22の例では、inter_xの値は2になる。
 属性num_xの属性値は、1行あたりの部分映像の個数を示す値である。図22の例では、num_xの値は10(=4+2×(4-1))になる。
 同様に、属性div_yの属性値は、全体映像の縦幅を部分映像の縦幅で割ることにより割られる値であり、属性inter_yの属性値は、上下に隣り合う2つの特定部分映像の間にある、特定部分映像ではない部分映像の個数を示す値である。また、属性num_yの属性値は、1列あたりの部分映像の個数を示す値である。
 上記の通り、num_x(num_y)はdiv_x、inter_x(div_y、inter_y)から算出できる。同様にdiv_x、inter_x(div_y、inter_y)も他の2つから算出できる。このため、num_x、div_x、inter_x(num_y、div_y、inter_y)のいずれか1つをMPDデータに書かないとしてもよい。
 〔実施形態3〕
 以下、本発明の更に別の一実施形態に係る配信システムについて説明する。なお、説明の便宜上、前記実施形態にて説明した部材と全く同じ機能または略同じ機能を有する部材については、同じ符号を付記し、基本的にその説明を省略する。
 本実施形態に係る配信システムは、実施形態1と同様に、配信装置、テレビ、および、タブレット端末を含んでいる。
 配信装置は、同じ番組に関するフルHDの番組映像、4K×2Kの番組映像および8K×4Kの番組映像を放送により配信するようになっており、テレビは、自身の表示パネル(8K×4K)の解像度に応じた番組映像(8K×4Kの番組映像)を表示するようになっている。
 また、配信装置は、実施形態2と同様の方法により4K×2Kの番組映像(全体映像)から生成されたフルHDの部分映像群と、実施形態2と同様の方法により8K×4Kの番組映像(全体映像)から生成された4K×2Kの部分映像群と、を含んでいる。すなわち、互いが隣に位置する任意の2つの部分映像の重なり率は0.5である。配信装置は、テレビからのリクエストに応じて、通信により部分映像をテレビに配信するようになっており、テレビは、配信装置から受信した部分映像をタブレット端末に表示させるようになっている。
 以下、本実施形態に係るテレビの要部構成について図14を参照しながら説明する。図14は、実施形態3に係る配信装置およびテレビの要部構成を示すブロック図である。なお、本実施形態に係る配信装置の要部構成は実施形態1に係る配信装置と同じであるので、本実施形態に係る配信装置の要部構成の説明は省略する。また、実施形態3に係るタブレット端末も、実施形態1に係るタブレット端末と同じものであるので、実施形態3に係るタブレット端末の説明は省略する。
 (テレビ200B)
 図14に示すように、本実施形態に係るテレビ200Bは、チューナ部210、映像取得処理部220B、記憶部230、再生部240、表示部250、および、通信I/F(通信インタフェース)部260を備えている。
 (映像取得処理部220B)
 映像取得処理部220Bは、チューナ部210を介して、配信装置100により配信される番組映像に関するMPDデータ(メタデータ)を取得し、取得したMPDデータを記憶部230に記録する。
 また、映像取得処理部220Bは、MPDデータに含まれている、ユーザにより選択された部分映像の取得先を参照し、取得先である配信装置100からその部分映像を取得する。そして、映像取得処理部220Bは、取得した部分映像をタブレット端末300に送信する。
 更に、映像取得処理部220Bは、MPDデータに含まれている、特定の時刻にタブレット端末300に表示させるべき部分映像の取得先を参照し、特定の時刻にタブレット端末300に部分映像を表示させることが可能なタイミングで(例えば、特定の時刻の5秒前に)配信装置100からその部分映像を取得する。そして、映像取得処理部220Bは、特定の時刻の直前に、取得した部分映像をタブレット端末300に送信する。
 (表示部250)
 8K×4Kの番組映像が表示されるディスプレイである。
 なお、8K×4Kの番組映像上には、実施形態2と同様のポインタが重畳表示される。ユーザは、テレビ200のリモコン(図示せず)を用いてこのポインタを移動させることにより、任意の部分映像を選択できる。
 (MPDデータについて)
 次に、配信装置100が配信するメタデータについて図15を参照して以下に説明する。
 図15は、メタデータを例示した図である。なお、図15においては、図面の簡略化の観点からメタデータの一部の情報(例えば、属性srcの属性値やレイヤ0およびレイヤ2に関する情報等)の記載を省略している。
 図15を見るとわかるように、図15のメタデータは、図11のメタデータと同様に、重なり率を示す属性d_rを含んでいる。更に、図15のメタデータは、図11のMPDデータと異なり、Playlistタグを含むメタデータを含んでいる。即ち、図15のメタデータは、MPDデータと、MPDデータに記載されたAdaptationSetを参照し所定の時刻に再生する映像を指定するプレイリストのデータとで構成されている。
 以下では、Playlistタグについて説明する。なお、実施形態1または実施形態2で説明したタグおよび属性については、本実施形態ではその説明を省略する。
 図15に示すように、Playlist開始タグとPlaylist開始タグとの間には、複数のPlayタグが記述されている。各Playタグの属性timeの属性値は、当該Playタグの属性xlink:hrefの属性値が示すAdaptationSetの映像が表示されるべき時刻(上述の特定の時刻)を示している。
 なお、図15では、Playlist開始タグとPlaylist開始タグとの間に4つのPlayタグが記述されているが、任意の個数(例えば、ただ1つ)のPlayタグを記述することが可能である。
 以上、MPDデータについて説明した。
 次に、テレビ200Bの動作について図16を参照しながら説明する。なお、前提として、テレビ200Bは、4K×2Kの部分映像を表示するためにレイヤ1のAdaptationSetを参照するように設定されているものとする。
 (テレビ200Bの動作)
 図16は、テレビ200Bの動作を示すフローチャートである。
 テレビ200Bの映像取得処理部220Bは、図16に示すように、最初に、MPDデータおよび番組映像(全体映像)を取得する(ステップS21)。なお、図16のフローチャートには示していないが、属性timeの属性値が“T00s”であるようなPlayタグがメタデータに含まれている場合は、映像取得処理部220Bは、当該Playタグに対応する部分映像をこのタイミングで取得する。
 ステップS21の後、再生部140は、ステップS21にて取得した全体映像を再生して表示部250にフルスクリーン表示すると共に、表示部250の左上隅を原点とする座標系における座標(1920,1080)に前述のポインタを表示する(ステップS22)。なお、なお、図16のフローチャートには示していないが、ステップS21にてPlayタグに対応する部分映像を取得した場合には、当該部分映像をタブレット端末300に表示させるために当該部分映像をこのタイミングでタブレット端末300に送信する。
 ステップS22の後、ステップS23において、映像取得処理部220Bは、現在のポインタの位置に対応するインデックス値を特定する。
 具体的には、ステップS23の直前のステップがステップS22である場合、ポインタの位置(座標(1920,1080))に対応するインデックス値(0,0)を特定する。また、ステップS23の直前のステップがステップS27である場合、前回のステップS27にて特定されたインデックス値に対して(1,0)、(-1,0)、(0,1)または(0,-1)を加算することでインデックス値を特定できる。例えば、ステップS27にて属性d_rの属性値“0.5”に応じた移動量である1920(=3840×(1-0.5))ドットだけポインタが右方向に移動したと判定された場合には、前回特定されたインデックス値に対して(1,0)を加算することでインデックス値を特定できる。
 その後、ステップS23において、映像取得処理部220Bは、MPDデータを参照し、特定したインデックス値に対応する部分映像の取得先を特定する。更に、ステップS23において、映像取得処理部220Bは、特定した取得先(配信装置100)から部分映像を取得する。
 ステップS23の後、映像取得処理部220Bは、ステップS23またはステップS26にて取得した部分映像をタブレット端末300に表示させるため、当該部分映像をタブレット端末300に送信する(ステップS24)。
 ステップS24の後、映像取得処理部220Bは、現在時刻がいずれかのPlayタグの属性timeの属性値に対応する時刻(例えば、属性値が示す時刻の2秒前)になったか否かを判定する(ステップS25)。
 テレビ200Bは、ステップS25において現在時刻がいずれかのPlayタグの属性timeの属性値に対応する時刻になったと判定した場合には、ステップS26に進む。
 ステップS26において、映像取得処理部220Bは、メタデータを参照し、属性timeの属性値に対応する時刻にタブレット端末300に表示させるべき部分映像の取得先を特定する。そして、ステップS26において、映像取得処理部220Bは、特定した取得先(配信装置100)から部分映像を取得する。テレビ200Bは、ステップS26の後、ステップS24に戻る。
 一方、テレビ200Bは、ステップS25において現在時刻がいずれかのPlayタグの属性timeの属性値に対応する時刻になっていないと判定した場合には、ステップS27に進む。
 ステップS27およびステップS28は、それぞれ、図4のステップS5およびステップS6と同様の工程であるため、ステップS27およびステップS28の説明は省略する。
 以上説明したテレビ200Bの動作により、ステップS21にて図15のメタデータを取得したテレビ200Bは、全体映像の再生開始後にポインタの移動操作を受け付けない限り、図17に示す順序で部分映像をタブレット端末に表示させる。
 すなわち、テレビ200Bは、全体映像の再生開始時点でAdaptationSet A1-0に対応する部分映像をタブレット端末に表示させ、全体映像の再生開始5秒後にAdaptationSet A1-1に対応する部分映像をタブレット端末に表示させる。更に、テレビ200Bは、全体映像の再生開始10秒後にAdaptationSet A1-4に対応する部分映像をタブレット端末に表示させ、全体映像の再生開始15秒後にAdaptationSet A1-7に対応する部分映像をタブレット端末に表示させる。
 (テレビ200Bの利点)
 上述のPlayタグは番組映像の制作者または配信者が記述してもよい。これにより、テレビ200Bは、制作者または配信者が番組映像の中で特定の時刻に視聴者に注目させたいと思っている部分を視聴者に注目させることができる。
 (実施形態3の付記事項)
 テレビ200Bは、ステップS21にて取得したメタデータをタブレット端末300に送信してもよい。この場合、テレビ200Bではなくタブレット端末300が、ステップS25およびステップS26の処理を行ってもよい。
 すなわち、タブレット端末300は、メタデータを参照し、現在時刻がいずれかのPlayタグの属性timeの属性値に対応する時刻になった時点で、配信装置100から当該属性値に対応する時刻に表示すべき部分映像の取得先を特定してもよい。そして、タブレット端末300は、特定した取得先(配信装置100)から部分映像を取得し、取得した部分映像をタブレット端末300の表示パネルに表示してもよい。
 (その他の付記事項1)
 全体映像および部分映像のサイズに特に制限はない。また、全体映像および部分映像のアスペクト比にも特に制限はない。
 一般には、再生時の制御の容易性等を考慮し、全体映像を構成する各レイヤの部分映像群は、以下の2つの条件を満たすようにする。
・上記部分映像群に含まれる各部分映像の縦幅の長さは、当該部分映像群に含まれる他のどの部分映像の縦幅の長さとも同じである。
・上記部分映像群に含まれる各部分映像の横幅の長さは、当該部分映像群に含まれる他のどの部分映像の横幅の長さとも同じである。
 但し、Representationのそれぞれに異なる縦幅、横幅を記載することで、縦幅の長さ、横幅の長さが位置毎に異なる部分映像群であっても、論理的には隣り合う部分映像と解釈して実施することは原理的に可能である。
 (その他の付記事項2)
 全体映像は、平面上の矩形映像である必要は無い。例えば、図18の(a)の矢印の始点の位置に設置された全方位カメラによって生成された全方位映像であってもよい。この場合、様々な方向(方位角と仰角との組み合わせにより定まる方向)の各々について、全方位カメラから見て当該方向に位置する被写体の像を含む部分映像を全方位映像から抽出してもよい。
 また、MPDデータには、各部分映像について当該部分映像を識別するインデックス値(属性i_xの属性値と属性i_yの属性値とのペア)と、当該部分映像の取得先を示す情報(属性srcの属性値)と、が関連付けて記述されていてもよいが、MPDデータには、以下の情報が記述されていてもよい。
 すなわち、MPDデータには、各部分映像について、当該部分映像に対応する方位角値dと仰角値θとのペアと、当該部分映像の取得先を示す情報(属性srcの属性値)と、が関連付けて記述されていてもよい。
 この場合、クライアント端末200Aは、方位角値dおよび仰角値θの入力を受け付けると、MPDデータを参照して、当該方位角値dと当該仰角値θとのペアに対応する部分映像の取得先を特定してもよい。そして、クライアント端末200Aは、特定した取得先から部分映像を取得し、取得した部分映像を表示部250にフルスクリーン表示してもよい。
 (その他の付記事項3)
 全体映像の外周は、矩形ではなく任意の形状を呈していてもよい。この場合、全体映像の外周に外接する矩形領域を規定し、当該矩形領域をマトリックス状に区分することによりA行B列の複数の部分領域を規定してもよい。そして、規定した複数の部分領域の各々について、当該部分領域内に全体映像の一部分が含まれている場合にはその部分領域内の映像を部分映像としてもよい。より具体的には、第a行第b列目の部分領域内に全体映像の一部分が含まれている場合には、その部分領域内の映像を部分映像とし、インデックス値(a,b)と当該部分映像の取得先を示す情報とを関連付けてMPDデータ内に記録してもよい。
 例えば、全体映像の外周が図18の(b)に示すような12角形を呈している場合を考える。
 この場合、第1行第3列目の部分領域内には全体映像の一部分が含まれているので、当該部分領域内の部分映像の取得先を示す情報とインデックス値(1,3)とがMPDデータ内に関連付けて記録されることになる。一方、第1行第6列目の部分領域内には全体映像のどの部分も含まれていないので、インデックス値(1,6)はMPDデータ内に記録されないことになる。あるいは、全体映像のどの部分も含まれていない部分領域に対応するインデックス値(a,b)と、該部分領域に部分映像が無いことを示すフラグ(例えば欠落タグ)と、を関連付けてMPDデータ内に記録してもよい。
 (その他の付記事項4)
 本発明の各実施形態では、MPDデータのうち、RoleタグあるいはTileタグを部分映像の位置に係る属性値を記載する要素タグとして説明したが、これらはあくまでも説明のための記述例である。上記要素タグとしてRoleタグ、Tileタグ以外の要素タグを別途定義し、該要素タグを含むMPDデータを生成したとしても、本発明の目的を達成できる。また、MPDデータ以外のメタデータであっても、同様の構成を持つメタデータであれば本発明の目的を達成できることは言うまでもない。
 〔プログラム等〕
 配信装置、テレビおよびクライアント端末の制御ブロック(特に、映像配信処理部、映像取得処理部および再生部)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
 後者の場合、配信装置、テレビおよびクライアント端末の各装置は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
 〔まとめ〕
 本発明の態様1に係る表示処理装置は、全体映像を構成する複数の部分映像の中から、特定の表示領域(タブレット端末300の表示面、表示部250の表示面の一部を占有する小画面)への表示対象となっている上記部分映像の隣(上隣、下隣、左隣、または、右隣)の部分映像の選択を受け付ける受付手段(操作受付部)と、上記複数の部分映像の各々について該部分映像の識別子(インデックス値)および取得先(URL)が関連付けて示されたメタデータ(MPDデータ)を取得するメタデータ取得手段(映像取得処理部220)と、選択された上記隣の部分映像の取得先を上記メタデータに示されている該部分映像の識別子を参照することで特定し、該取得先から該部分映像を取得する映像取得手段(映像取得処理部220)と、上記表示領域の部分映像を上記映像取得手段が取得した部分映像に更新する表示更新手段(映像取得処理部220)と、を備え、上記複数の部分映像の各々の識別子(属性i_xの属性値と属性i_yの属性値とのペア)は、該部分映像の隣の部分映像の識別子を他の情報を参照することなく特定可能な識別子である。
 上記の構成によれば、上記表示処理装置は、視聴者が特定の表示領域への表示を所望する部分映像の識別子を、他の情報を参照することなく特定できる。
 よって、上記表示処理装置は、メタデータに当該識別子に関連付けて記録されている当該部分映像の取得先も容易に特定できる、という効果を奏する。
 本発明の態様2に係る表示処理装置(クライアント端末200A)は、上記態様1において、上記複数の部分映像のうちのある部分映像と該部分映像から見たある方向の隣の部分映像とは共通の像を含んでおり、上記メタデータには、上記ある部分映像の識別子および取得先に加えて、上記共通の像の該部分映像に占める割合を示す値が示されており、上記受付手段は、上記ある部分映像が上記表示領域への表示対象となっている状態で上記ある方向への上記値に応じた量の移動操作を検出したことを以って、該隣の部分映像が選択されたと認識するようになっていてもよい。
 上記の構成によれば、上記表示処理装置は、上記表示領域に表示されている部分映像を注視している者に対し、当該注視している者とは別の者の上記移動操作により上記表示領域に表示されている部分映像が上記ある方向の部分映像に切り替わったことを容易に把握させることができる、という更なる効果を奏する。
 上記メタデータには、上記複数の部分映像のうち特定の時刻において上記表示領域に表示させるべき部分映像を指定する情報が含まれており、本発明の態様3に係る表示処理装置(テレビ200B)は、上記態様1または上記態様2において、上記表示更新手段(映像取得処理部220B)が、上記特定の時刻になると、上記表示領域の部分映像を、上記映像取得手段により取得された部分映像であって、上記メタデータに含まれている該情報によって指定されている部分映像に更新するようになっていてもよい。
 上記の構成によれば、上記表示処理装置は、上記全体映像の配信者が上記特定の時刻に上記表示領域に表示させるべきであると考えている部分映像を、視聴者による操作を必要とせずに上記表示領域に表示させることができる、という更なる効果を奏する。
 上記映像取得手段による部分映像の取得先である配信装置(配信装置100)は、上記複数の部分映像として、ある解像度(4K×2Kの解像度)を持つN個の部分映像(レイヤ1の4つの部分映像)からなる第1の映像群と、該解像度とは異なる解像度(フルHDの解像度)を持つN個の部分映像(レイヤ1の4つの部分映像)からなる第2の映像群とを配信できるように構成されており、上記メタデータには、上記第1の映像群に含まれる部分映像(AdaptationSet A1-0の部分映像)と、当該部分映像と同じ内容の部分映像であって上記第2の映像群に含まれる部分映像(AdaptationSet A1-0の部分映像)と、で共通の上記識別子(インデックス値(0,0))が含まれており、本発明の態様4に係る表示処理装置は、上記態様1から上記態様3のいずれかの態様において、上記受付手段が、上記第1の映像群と上記第2の映像群とのうちのいずれかの映像群の中から、上記隣の部分映像の選択を受け付けるようになっていてもよい。
 上記の構成によれば、上記表示処理装置は、上記第1の映像群と上記第2の映像群とのうちのより適切な映像群の中から選択した部分映像を、上記表示領域に表示させることができる、という更なる効果を奏する。
 上記映像取得手段による部分映像の取得先である配信装置は、上記複数の部分映像として、上記全体映像を構成するN(N≧2)個の部分映像(レイヤ1の4つの部分映像)と、上記全体映像を構成するM(M>N)個の部分映像(レイヤ2の16個の部分映像)と、を配信できるように構成されており、本発明の態様5に係る表示処理装置は、上記態様1から上記態様3のいずれかの態様において、上記受付手段が、上記M個の部分映像と上記N個の部分映像とのうち自装置の設定に応じた複数の部分映像の中から、上記隣の部分映像の選択を受け付けるようになっていてもよい。
 上記の構成によれば、上記表示処理装置は、自装置の設定に応じた適切な部分映像を上記表示領域に表示させることができる、という更なる効果を奏する。
 本発明の態様6に係る表示処理装置は、上記態様1から上記態様5のいずれかの態様において、上記表示領域は自装置と通信可能に接続された携帯端末(タブレット端末300)の表示領域(表示面)であってもよい。
 上記の構成によれば、上記表示処理装置は、携帯端末に部分映像を表示させることができる、という更なる効果を奏する。
 本発明の態様7に係る表示処理装置は、上記態様1から上記態様5のいずれかの態様において、上記表示領域は自装置の表示面(表示部250の表示面)の全領域または一部の領域(表示部250の表示面において小画面が占有する領域)であってもよい。
 上記の構成によれば、上記表示処理装置は、自身で部分映像を表示することができる、という更なる効果を奏する。
 本発明の態様8に係る配信装置(配信装置100)は、全体映像を構成する複数の部分映像の各々について該部分映像の識別子(インデックス値)および取得先(URL)が示されたメタデータ(MPDデータ)を記憶部から読み出す読出手段(映像配信処理部120)と、上記読出手段が読み出した上記メタデータを配信する配信手段(映像配信処理部120)と、を備え、上記複数の部分映像の各々の識別子は、該部分映像の隣の部分映像の識別子を他の情報を参照することなく特定可能な識別子である。
 上記の構成によれば、上記配信装置は、上記表示処理装置が上記部分映像の取得先を容易に特定することを可能にするメタデータを配信できる、という効果を奏する。
 本発明の態様9に係る表示処理方法は、全体映像を構成する複数の部分映像の中から、特定の表示領域への表示対象となっている上記部分映像の隣の部分映像の選択を受け付ける受付工程(ステップS5)と、上記複数の部分映像の各々について該部分映像の識別子および取得先が関連付けて示されたメタデータを取得するメタデータ取得工程(ステップS1)と、上記受付工程にて選択された上記隣の部分映像の取得先を上記メタデータに示されている該部分映像の識別子を参照することで特定し、特定した取得先から該部分映像を取得する映像取得工程(ステップS3)と、上記表示領域の部分映像を上記映像取得工程にて取得した部分映像に更新する表示更新工程(ステップS4)と、を含み、上記複数の部分映像の各々の識別子は、該部分映像の隣の部分映像の識別子を他の情報を参照することなく特定可能な識別子である。
 上記の構成によれば、上記表示処理方法は、本発明の態様1に係る表示処理装置と同様の作用効果を奏する。
 発明の態様10に係るメタデータ(MPDデータ)は、全体映像を構成する複数の部分映像の各々について該部分映像の識別子(インデックス値)および取得先(URL)が示されたメタデータであって、上記複数の部分映像の各々の識別子は、該部分映像の隣の部分映像の識別子を他の情報を参照することなく特定可能な識別子である。
 上記の構成によれば、上記メタデータは、上記表示処理装置が上記部分映像の取得先を容易に特定することを可能にする、という効果を奏する。
 本発明の各態様に係る表示処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記表示処理装置が備える各手段として動作させることにより上記表示処理装置をコンピュータにて実現させるプログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
 本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。更に、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
 本発明は、例えば、4K2Kテレビや8K4Kテレビ等の高解像度のテレビに好適に利用することができる。
 100      配信装置
 120      映像配信処理部(読出手段、配信手段)
 200      テレビ(表示処理装置)
 220      映像取得処理部(メタデータ取得手段、映像取得手段、表示更新手段)
 240      再生部
 300      タブレット端末
 200A     クライアント端末(表示処理装置)

Claims (6)

  1.  全体映像を構成する複数の部分映像の中から、特定の表示領域への表示対象となっている上記部分映像の隣の部分映像の選択を受け付ける受付手段と、
     上記複数の部分映像の各々について該部分映像の識別子および取得先が関連付けて示されたメタデータを取得するメタデータ取得手段と、
     選択された上記隣の部分映像の取得先を上記メタデータに示されている該部分映像の識別子を参照することで特定し、該取得先から該部分映像を取得する映像取得手段と、
     上記表示領域の部分映像を上記映像取得手段が取得した部分映像に更新する表示更新手段と、を備え、
     上記複数の部分映像の各々の識別子は、該部分映像の隣の部分映像の識別子を他の情報を参照することなく特定可能な識別子である、ことを特徴とする表示処理装置。
  2.  上記複数の部分映像のうちのある部分映像と該部分映像から見たある方向の隣の部分映像とは共通の像を含んでおり、
     上記メタデータには、上記ある部分映像の識別子および取得先に加えて、上記共通の像の該部分映像に占める割合を示す値が示されており、
     上記受付手段は、上記ある部分映像が上記表示領域への表示対象となっている状態で上記ある方向への上記値に応じた量の移動操作を検出したことを以って、該隣の部分映像が選択されたと認識する、ことを特徴とする請求項1に記載の表示処理装置。
  3.  上記メタデータには、上記複数の部分映像のうち特定の時刻において上記表示領域に表示させるべき部分映像を指定する情報が含まれており、
     上記表示更新手段は、上記特定の時刻になると、上記表示領域の部分映像を、上記映像取得手段により取得された部分映像であって、上記メタデータに含まれている該情報によって指定されている部分映像に更新する、ことを特徴とする請求項1または2に記載の表示処理装置。
  4.  全体映像を構成する複数の部分映像の各々について該部分映像の識別子および取得先が示されたメタデータを記憶部から読み出す読出手段と、
     上記読出手段が読み出した上記メタデータを配信する配信手段と、を備え、
     上記複数の部分映像の各々の識別子は、該部分映像の隣の部分映像の識別子を他の情報を参照することなく特定可能な識別子である、ことを特徴とする配信装置。
  5.  全体映像を構成する複数の部分映像の各々について該部分映像の識別子および取得先が示されたメタデータであって、
     上記複数の部分映像の各々の識別子は、該部分映像の隣の部分映像の識別子を他の情報を参照することなく特定可能な識別子である、ことを特徴とするメタデータ。
  6.  上記取得先には、複数の部分映像が格納されたファイルに含まれる、特定の部分映像を指定するための情報が含まれる、ことを特徴とする請求項1または2に記載の表示処理装置。
PCT/JP2014/077350 2013-10-22 2014-10-14 表示処理装置、配信装置、および、メタデータ WO2015060165A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP14856190.5A EP3062523B1 (en) 2013-10-22 2014-10-14 Display processing device, distribution device, and metadata
US15/030,760 US20160269759A1 (en) 2013-10-22 2014-10-14 Display processing device, distribution device, and metadata
JP2015543804A JPWO2015060165A1 (ja) 2013-10-22 2014-10-14 表示処理装置、配信装置、および、メタデータ

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2013-219535 2013-10-22
JP2013219535 2013-10-22
JP2014061379 2014-03-25
JP2014-061379 2014-03-25
JP2014135752 2014-07-01
JP2014-135752 2014-07-01

Publications (1)

Publication Number Publication Date
WO2015060165A1 true WO2015060165A1 (ja) 2015-04-30

Family

ID=52992765

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/077350 WO2015060165A1 (ja) 2013-10-22 2014-10-14 表示処理装置、配信装置、および、メタデータ

Country Status (4)

Country Link
US (1) US20160269759A1 (ja)
EP (1) EP3062523B1 (ja)
JP (1) JPWO2015060165A1 (ja)
WO (1) WO2015060165A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017220703A (ja) * 2016-06-03 2017-12-14 キヤノン株式会社 通信装置、通信制御方法および通信システム
WO2018173875A1 (ja) * 2017-03-24 2018-09-27 ソニー株式会社 情報処理装置および情報処理方法、並びにプログラム
CN109565610A (zh) * 2016-05-25 2019-04-02 皇家Kpn公司 空间平铺的全向视频流播
WO2020050058A1 (ja) * 2018-09-07 2020-03-12 ソニー株式会社 コンテンツ配信システムおよびコンテンツ配信方法、並びにプログラム
US10805614B2 (en) 2016-10-12 2020-10-13 Koninklijke Kpn N.V. Processing spherical video data on the basis of a region of interest
JP2022066370A (ja) * 2016-10-10 2022-04-28 キヤノン株式会社 タイムドメディアデータのストリーミング中にレンダリング表示を改善するための方法、デバイス及びコンピュータプログラム
US11406488B2 (en) 2015-01-30 2022-08-09 Arthrex, Inc. Ligament fixation device and method
JP2023515859A (ja) * 2020-06-18 2023-04-14 中興通訊股▲ふん▼有限公司 ビデオブロック化方法、伝送方法、サーバー、アダプタ及び記憶媒体

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6748323B1 (ja) * 2020-03-30 2020-08-26 株式会社ドワンゴ 動画配信装置、動画配信方法、および、動画配信プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2160022A2 (en) * 2008-08-29 2010-03-03 Sony Corporation Video display apparatus, video display system and video display method
JP2010206380A (ja) * 2009-03-02 2010-09-16 Canon Inc 放送受信装置及びその制御方法
JP2010226471A (ja) * 2009-03-24 2010-10-07 Canon Inc 映像再生装置及びその制御方法
JP2013157906A (ja) * 2012-01-31 2013-08-15 Canon Inc 撮像装置、撮像装置の制御方法、撮像システムおよびプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012125006A2 (ko) * 2011-03-16 2012-09-20 한국전자통신연구원 레프리젠테이션을 사용하는 스트리밍 콘텐츠 제공 장치 및 방법
JP6028561B2 (ja) * 2011-12-26 2016-11-16 Jfeスチール株式会社 Cr含有電縫鋼管の製造方法
US8924582B2 (en) * 2012-07-09 2014-12-30 Futurewei Technologies, Inc. Dynamic adaptive streaming over hypertext transfer protocol client behavior framework and implementation of session management
RU2018135725A (ru) * 2013-07-19 2018-11-21 Сони Корпорейшн Устройство и способ обработки информации
WO2015013720A1 (en) * 2013-07-26 2015-01-29 Futurewei Technologies Inc. Spatial adaptation in adaptive streaming

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2160022A2 (en) * 2008-08-29 2010-03-03 Sony Corporation Video display apparatus, video display system and video display method
JP2010206380A (ja) * 2009-03-02 2010-09-16 Canon Inc 放送受信装置及びその制御方法
JP2010226471A (ja) * 2009-03-24 2010-10-07 Canon Inc 映像再生装置及びその制御方法
JP2013157906A (ja) * 2012-01-31 2013-08-15 Canon Inc 撮像装置、撮像装置の制御方法、撮像システムおよびプログラム

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11406488B2 (en) 2015-01-30 2022-08-09 Arthrex, Inc. Ligament fixation device and method
US11284124B2 (en) 2016-05-25 2022-03-22 Koninklijke Kpn N.V. Spatially tiled omnidirectional video streaming
CN109565610A (zh) * 2016-05-25 2019-04-02 皇家Kpn公司 空间平铺的全向视频流播
JP2019526178A (ja) * 2016-05-25 2019-09-12 コニンクリーケ・ケイピーエヌ・ナムローゼ・フェンノートシャップ 空間的にタイリングされた全方位ビデオのストリーミング
JP7022077B2 (ja) 2016-05-25 2022-02-17 コニンクリーケ・ケイピーエヌ・ナムローゼ・フェンノートシャップ 空間的にタイリングされた全方位ビデオのストリーミング
JP2017220703A (ja) * 2016-06-03 2017-12-14 キヤノン株式会社 通信装置、通信制御方法および通信システム
JP7263583B2 (ja) 2016-10-10 2023-04-24 キヤノン株式会社 タイムドメディアデータのストリーミング中にレンダリング表示を改善するための方法、デバイス及びコンピュータプログラム
JP2022066370A (ja) * 2016-10-10 2022-04-28 キヤノン株式会社 タイムドメディアデータのストリーミング中にレンダリング表示を改善するための方法、デバイス及びコンピュータプログラム
US10805614B2 (en) 2016-10-12 2020-10-13 Koninklijke Kpn N.V. Processing spherical video data on the basis of a region of interest
CN110476436A (zh) * 2017-03-24 2019-11-19 索尼公司 信息处理装置和信息处理方法以及程序
JPWO2018173875A1 (ja) * 2017-03-24 2020-02-20 ソニー株式会社 情報処理装置および情報処理方法、並びにプログラム
JP7243620B2 (ja) 2017-03-24 2023-03-22 ソニーグループ株式会社 情報処理装置およびプログラム
WO2018173875A1 (ja) * 2017-03-24 2018-09-27 ソニー株式会社 情報処理装置および情報処理方法、並びにプログラム
WO2020050058A1 (ja) * 2018-09-07 2020-03-12 ソニー株式会社 コンテンツ配信システムおよびコンテンツ配信方法、並びにプログラム
US11470395B2 (en) 2018-09-07 2022-10-11 Sony Corporation Content distribution system and content distribution method
JP2023515859A (ja) * 2020-06-18 2023-04-14 中興通訊股▲ふん▼有限公司 ビデオブロック化方法、伝送方法、サーバー、アダプタ及び記憶媒体
JP7338075B2 (ja) 2020-06-18 2023-09-04 中興通訊股▲ふん▼有限公司 ビデオブロック化方法、伝送方法、サーバー、アダプタ及び記憶媒体

Also Published As

Publication number Publication date
JPWO2015060165A1 (ja) 2017-03-09
EP3062523A4 (en) 2017-04-26
EP3062523A1 (en) 2016-08-31
EP3062523B1 (en) 2019-01-30
US20160269759A1 (en) 2016-09-15

Similar Documents

Publication Publication Date Title
WO2015060165A1 (ja) 表示処理装置、配信装置、および、メタデータ
JP6783889B2 (ja) 送信方法、受信方法、送信装置、受信装置、プログラム及び記憶媒体
US11805304B2 (en) Method, device, and computer program for generating timed media data
US9363542B2 (en) Techniques to provide an enhanced video replay
JP7399224B2 (ja) メディアコンテンツを送信するための方法、装置及びコンピュータプログラム
KR102087533B1 (ko) 통신 장치, 통신 제어 방법, 및 컴퓨터 프로그램
WO2017201090A1 (en) Method and apparatus for spatial enhanced adaptive bitrate live streaming for 360 degree video playback
US10542058B2 (en) Methods and systems for network based video clip processing and management
US20150302890A1 (en) Pausing and resuming media play
US10757463B2 (en) Information processing apparatus and information processing method
KR20190007036A (ko) 시간 설정형 미디어 데이터를 캡슐화하고 파싱하기 위한 방법, 디바이스, 및 컴퓨터 프로그램
US20180176650A1 (en) Information processing apparatus and information processing method
WO2015060349A1 (ja) 表示制御装置、配信装置、表示制御方法、および表示制御システム
KR20220031560A (ko) 정보 처리 장치, 정보 처리 방법, 재생 처리 장치 및 재생 처리 방법
JP7442302B2 (ja) データ処理装置およびその制御方法、プログラム
US9560103B2 (en) Custom video content
KR20200108420A (ko) 정보 처리 장치 및 방법
JP2021002811A (ja) 配信サーバ、配信方法及びプログラム
WO2016204873A1 (en) Systems and methods for embedding user interactability into a video

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14856190

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015543804

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15030760

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2014856190

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2014856190

Country of ref document: EP