WO2016199609A1 - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
WO2016199609A1
WO2016199609A1 PCT/JP2016/065867 JP2016065867W WO2016199609A1 WO 2016199609 A1 WO2016199609 A1 WO 2016199609A1 JP 2016065867 W JP2016065867 W JP 2016065867W WO 2016199609 A1 WO2016199609 A1 WO 2016199609A1
Authority
WO
WIPO (PCT)
Prior art keywords
adaptationset
image
information
file
information processing
Prior art date
Application number
PCT/JP2016/065867
Other languages
English (en)
French (fr)
Inventor
平林 光浩
山岸 靖明
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP16807316.1A priority Critical patent/EP3310062A4/en
Priority to SG11201710051QA priority patent/SG11201710051QA/en
Priority to US15/564,823 priority patent/US20180109585A1/en
Priority to CN201680032874.2A priority patent/CN107710768A/zh
Priority to AU2016274732A priority patent/AU2016274732A1/en
Priority to BR112017026175A priority patent/BR112017026175A2/pt
Priority to JP2017523586A priority patent/JPWO2016199609A1/ja
Publication of WO2016199609A1 publication Critical patent/WO2016199609A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/70Media network packetisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/65Network streaming protocols, e.g. real-time transport protocol [RTP] or real-time control protocol [RTCP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/23439Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8543Content authoring using a description language, e.g. Multimedia and Hypermedia information coding Expert Group [MHEG], eXtensible Markup Language [XML]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/02Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]

Definitions

  • the present disclosure relates to an information processing device and an information processing method, and more particularly, to an information processing device and an information processing method that can set an AdaptationSet that does not include representation.
  • MPEG-DASH Moving / Picture / Experts / Group / phase / Dynamic / Adaptive / Streaming / over / HTTP
  • OTT-V Over The Top Video
  • MPEG-DASH Moving / Picture / Experts / Group / phase / Dynamic / Adaptive / Streaming / over / HTTP
  • the distribution server prepares an encoded stream with a different bit rate for a single video content, and the playback terminal requests an encoded stream with an optimal bit rate, thereby realizing adaptive streaming distribution. Is done.
  • MPEG-DASHDSRD Spatial Relationship Description
  • SRD spatial Relationship Description
  • a bitrateationadaptation mechanism that selectively obtains an encoded stream of a desired bit rate
  • a spatial adaptation ROI Region of Interest that selectively acquires an encoded stream of an image in a desired region.
  • the image of the moving image content is a mosaic image composed of thumbnail images (divided images) of moving images such as a plurality of broadcast programs, it may be possible to indicate the position of each thumbnail image on the screen by SRD.
  • the SRD is described as the position of each thumbnail image on the screen and the position on the mosaic image corresponding to the encoded stream are the same. Accordingly, when the position of each thumbnail image on the screen is different from the position on the mosaic image corresponding to the encoded stream, the position of each thumbnail image on the screen cannot be described using the SRD.
  • each thumbnail image is described with certainty so that it can be recognized.
  • the description becomes redundant. It is rare.
  • MPEG-DASH Dynamic-Adaptive-Streaming-over-HTTP
  • URL http://mpeg.chiariglione.org/standards/mpeg-dash/media-presentation-description-and-segment-formats/text-isoiec-23009-12012-dam -1)
  • “Text of ISO / IEC 23009-1: 2014 FDAM 2 Spatial Relationship Description, Generalized URL parameters and other extensions” N15217, MPEG111, Geneva, February 2015
  • WD of ISO / IEC23009-3 2nd edition AMD 1 DASH Implementation Guidelines N14629, MPEG109, Sapporo, July 2014
  • This disclosure has been made in view of such a situation, and allows an AdaptationSet that does not include a Representation to be set.
  • the information processing apparatus includes a setting unit that sets a first AdaptationSet including a plurality of representations corresponding to an encoded stream having a predetermined bit rate and a second AdaptationSet that does not include a representation.
  • Information processing apparatus includes a setting unit that sets a first AdaptationSet including a plurality of representations corresponding to an encoded stream having a predetermined bit rate and a second AdaptationSet that does not include a representation.
  • the information processing method according to the first aspect of the present disclosure corresponds to the information processing apparatus according to the first aspect of the present disclosure.
  • a first AdaptationSet including a plurality of representations corresponding to an encoded stream of a predetermined bit rate and a second AdaptationSet not including representations are set.
  • the information processing device is based on the first adaptation set including a plurality of representations corresponding to an encoded stream having a predetermined bit rate and the second adaptation set not including the representation.
  • the information processing apparatus includes a playback unit that plays back a stream.
  • the encoded stream is reproduced based on a first AdaptationSet including a plurality of representations corresponding to an encoded stream of a predetermined bit rate and a second AdaptationSet not including a representation. Is done.
  • the information processing apparatuses according to the first and second aspects can be realized by causing a computer to execute a program.
  • a program to be executed by a computer can be provided by being transmitted via a transmission medium or by being recorded on a recording medium.
  • information can be set.
  • an AdaptationSet that does not include a representation can be set.
  • an encoded stream can be reproduced.
  • an encoded stream can be reproduced based on an AdaptationSet that does not include a representation.
  • FIG. 21 is a flowchart for describing playback processing of the streaming playback unit in FIG. 20.
  • FIG. It is a block diagram which shows the structural example of the hardware of a computer.
  • First embodiment Information processing system (FIGS. 1 to 22) 2.
  • Second Embodiment Computer (FIG. 23)
  • FIG. 1 is a block diagram illustrating a configuration example of an embodiment of an information processing system to which the present disclosure is applied.
  • the information processing system 210 in FIG. 1 is configured by connecting the Web server 12 connected to the file generation device 211 and the moving image playback terminal 14 via the Internet 13.
  • the Web server 12 distributes the encoded stream of the mosaic image as the image of the moving image content to the moving image playback terminal 14 in a method according to MPEG-DASH.
  • the file generation device 211 of the information processing system 210 encodes a mosaic image at a plurality of encoding speeds (bit rates), and generates an encoded stream.
  • the file generation device 211 converts the encoded stream of each encoding rate into a file and generates an image file for each time unit of about several seconds to about 10 seconds called a segment.
  • the file generation device 211 uploads the generated image file to the Web server 12.
  • the file generation device 211 (setting unit) generates an MPD file (management file) that manages image files and the like.
  • the file generation device 211 uploads the MPD file to the Web server 12.
  • the Web server 12 stores the image file and MPD file uploaded from the file generation device 211.
  • the web server 12 transmits the stored image file, MPD file, and the like to the video playback terminal 14 in response to a request from the video playback terminal 14.
  • the video playback terminal 14 includes streaming data control software (hereinafter referred to as control software) 21, video playback software 22, and client software (hereinafter referred to as access software) for HTTP (HyperText Transfer Protocol) access. 23) is executed.
  • control software hereinafter referred to as control software
  • video playback software video playback software 22
  • client software hereinafter referred to as access software 23
  • the control software 21 is software that controls data streamed from the Web server 12. Specifically, the control software 21 causes the video playback terminal 14 to acquire an MPD file from the Web server 12.
  • control software 21 instructs the access software 23 to transmit a coded stream to be played, which is designated by the moving picture playing software 22, based on the MPD file.
  • the moving image reproduction software 22 is software for reproducing the encoded stream acquired from the Web server 12. Specifically, the moving image playback software 22 designates the encoded stream to be played back to the control software 21. Also, the moving image playback software 22 decodes the encoded stream received by the moving image playback terminal 14 when receiving a notification of reception start from the access software 23. The moving image reproduction software 22 synthesizes the image data obtained as a result of the decoding as necessary and outputs it.
  • the access software 23 is software that controls communication with the Web server 12 via the Internet 13 using HTTP. Specifically, the access software 23 causes the moving image playback terminal 14 to transmit a transmission request for the encoded stream to be played back included in the image file in response to a command from the control software 21. In response to the transmission request, the access software 23 causes the video playback terminal 14 to start receiving the encoded stream transmitted from the Web server 12 and supplies the video playback software 22 with a reception start notification. To do.
  • FIG. 2 is a block diagram illustrating a configuration example of the file generation device 211 of FIG.
  • 2 includes an encoding processing unit 231, an image file generation unit 232, an MPD generation unit 233, and a server upload processing unit 234.
  • the encoding processing unit 231 of the file generation device 211 encodes a mosaic image as an image of moving image content at a plurality of encoding speeds, and generates an encoded stream.
  • the encoding processing unit 231 supplies the encoded stream at each encoding rate to the image file generation unit 232.
  • the image file generation unit 232 converts the encoded stream supplied from the encoding processing unit 231 into files for each segment, and generates an image file.
  • the image file generation unit 232 supplies the generated image file to the MPD generation unit 233.
  • the MPD generation unit 233 determines the URL of the Web server 12 that stores the image file supplied from the image file generation unit 232. Then, the MPD generation unit 233 generates an MPD file including the URL of the image file. The MPD generation unit 233 supplies the generated MPD file and image file to the server upload processing unit 234.
  • the server upload processing unit 234 uploads the image file and MPD file supplied from the MPD generation unit 233 to the Web server 12 of FIG.
  • FIG. 3 is a diagram illustrating an example of a mosaic image.
  • the mosaic image 250 includes a thumbnail image 251 at the upper left, a thumbnail image 252 at the upper right, a thumbnail image 252 at the lower left, and a thumbnail image 254 at the lower right.
  • the resolution of the mosaic image 250 is 2k (1920 pixels ⁇ 1080 pixels), and the resolutions of the thumbnail images 251 to 254 are all 960 pixels ⁇ 540 pixels.
  • FIG. 4 is a diagram showing an example of the segment structure of the image file of the mosaic image 250 of FIG.
  • the Initial segment is composed of an ftyp box and a moov box.
  • a stbl box and an mvex box are arranged in the moov box.
  • an sgpd box is arranged in the stbl box, and in the mvex box, a leva box is arranged in the stbl box.
  • media segment consists of sidx box, ssix box, and one or more subsegments consisting of a pair of moof and mdat.
  • sidx box position information indicating the position of each subsegment in the image file is arranged.
  • the ssix box includes position information of each level of the encoded stream arranged in the mdat box.
  • Subsegment is provided for each arbitrary length of time.
  • encoded streams are arranged together for an arbitrary time length, and management information of the encoded stream is arranged in the moof box.
  • FIG. 5 is a diagram illustrating an example of the sgpd box and the leva box in FIG.
  • Tile Region Group Entry indicating the positions of the thumbnail images 251 to 254 constituting the mosaic image 250 on the mosaic image 250 is described in order.
  • the first Tile Region Group Entry corresponds to the thumbnail image 251 and is (1,0,0,960,540).
  • the second Tile Region Group Entry corresponds to the thumbnail image 252 and is (2,960,0,960,540).
  • the third Tile Region Group Entry corresponds to the thumbnail image 253 and is (3, 0, 540, 960, 540).
  • the fourth Tile Region Group Entry corresponds to the thumbnail image 254 and is (4,960,540,960,540).
  • Tile, Region, Group, and Entry are standardized by HEVC, File, Format, HEVC, Tile, and Track.
  • the leva box describes the level information corresponding to each Tile Region Group Entry in order from the level information corresponding to the first Tile Region Group Entry.
  • the level for the thumbnail image 251 is set to 1
  • the level for the thumbnail image 252 is set to 2
  • the level for the thumbnail image 253 is set to 3
  • the level for the thumbnail image 254 is set to 4.
  • the level functions as an index when a part of the encoded stream is specified from the MPD file.
  • assignment_type indicating whether the setting target of the level is an encoded stream arranged in a plurality of tracks is described.
  • the encoded stream of the mosaic image 250 is arranged in one track. Therefore, assignment_type is 0 indicating that the level setting target is not an encoded stream arranged in a plurality of tracks.
  • the type of Tile Region Group Entry corresponding to the level is also described.
  • “trif” that is a type of Tile Region Group Entry described in the sgpd box is described as information of each level. Details of the leva box are described in, for example, ISO / IEC 14496-12 ISO base file media format format 4th edition, July 2012.
  • FIG. 6 is a diagram illustrating a first example of an MPD file corresponding to the image file of the mosaic image 250, which is generated by the file generation device 211 of FIG.
  • bit rate of the encoded stream of the mosaic image is one.
  • FIG. 7 described later.
  • the SRD of the thumbnail image 251 is set in association with the position on the mosaic image 250 of the thumbnail image 251 indicated by the Tile Region Group Entry corresponding to level “1”.
  • the SRD of the thumbnail image 252 is set in association with the position on the mosaic image 250 of the thumbnail image 252 indicated by the Tile Region Group Entry corresponding to the level “2”.
  • the SRD of the thumbnail image 254 is set in association with the position on the mosaic image 250 of the thumbnail image 254 indicated by the Tile Region Group Entry corresponding to level “4”.
  • the horizontal and vertical sizes of the mosaic image 250 indicated by the Tile Region Group Entry and the horizontal and vertical sizes of the screen indicated by the SRD are the same. Also, the horizontal and vertical coordinates on the mosaic image 250 indicated by the Tile Region Group Entry corresponding to each level and the horizontal and vertical positions on the screen indicated by the SRD corresponding to the level are the same. Therefore, when the MPD file of FIG. 6 is generated, the screen on which the thumbnail images 251 to 254 decoded based on the SRD are arranged is the same as the mosaic image 250.
  • each level “SubRepresentation” the URL of the moving image corresponding to the thumbnail images 251 to 254 of the level is also described. Specifically, the URL “http://example.com/a_service/my.mpd” corresponding to the thumbnail image 251 is described in “SubRepresentation” of level “1”. In addition, in “SubRepresentation” of level “2”, the URL “http://example.com/b_service/my.mpd” of the moving image corresponding to the thumbnail image 252 is described.
  • FIG. 7 is a diagram illustrating a second example of the MPD file corresponding to the image file of the mosaic image 250 generated by the file generation device 211 of FIG.
  • MPD file in FIG. 7 differs from the MPD in FIG. 6 only in the SRD described in “SubRepresentation” of each level.
  • the horizontal and vertical sizes of the mosaic image 250 indicated by the Tile / Region / Group / Entry, and the horizontal and vertical directions of the screen indicated by the SRD are displayed. Are the same size.
  • the horizontal and vertical coordinates on the mosaic image 250 indicated by the Tile Region Group Entry corresponding to each level and the horizontal and vertical positions on the screen indicated by the SRD corresponding to the level are different. Therefore, when the MPD file of FIG. 7 is generated, the screen on which the thumbnail images 251 to 254 decoded based on the SRD are arranged is different from the mosaic image 250.
  • FIG. 8 is a diagram showing an example of a screen on which thumbnail images 251 to 254 decoded based on the SRD described in the MPD file of FIG. 7 are arranged.
  • the thumbnail image 251 is arranged at the lower left of the screen 270.
  • the thumbnail image 252 is arranged at the lower right of the screen 270.
  • the SRD of the thumbnail image 253 has a coordinate (0, 0) on the screen 270 consisting of 1920 pixels ⁇ 1080 pixels at the upper left of the thumbnail image 253. Therefore, as shown in FIG. 8, the thumbnail image 253 is arranged at the upper left of the screen 270.
  • the SRD of the thumbnail image 254 has the coordinates (960,0) on the screen 270 at the upper left of the thumbnail image 254. Therefore, as shown in FIG. 8, the thumbnail image 254 is arranged at the upper right of the screen 270.
  • the arrangement of the thumbnail images 251 to 254 can be changed from the arrangement in the mosaic image 250 to be encoded to the arrangement on the screen 270 by the MPD file in FIG.
  • FIG. 9 is a flowchart for explaining file generation processing of the file generation apparatus 211 of FIG.
  • the encoding processing unit 231 encodes a mosaic image as an image of moving image content at a plurality of encoding speeds, and generates an encoded stream.
  • the encoding processing unit 231 supplies the encoded stream at each encoding rate to the image file generation unit 232.
  • step S192 the image file generation unit 232 converts the encoded stream supplied from the encoding processing unit 231 into files for each segment, and generates an image file.
  • the image file generation unit 232 supplies the generated image file to the MPD generation unit 233.
  • step S193 the MPD generation unit 233 generates an MPD file including the URL of the image file.
  • the MPD generation unit 233 supplies the generated MPD file and image file to the server upload processing unit 234.
  • step S194 the server upload processing unit 234 uploads the image file and the MPD file supplied from the MPD generation unit 233 to the Web server 12. Then, the process ends.
  • bit rate of the encoded stream of the mosaic image is one. However, when there are a plurality of bit rates, the bit rate of FIG. “Representation” in FIG. 8 is described. That is, in the MPD file, “Representation” in which the same SRD and moving image URL are set is described by the number of bit rates, and the description becomes redundant.
  • FIG. 10 and 11 are diagrams illustrating a third example of the MPD file corresponding to the image file of the mosaic image 250.
  • FIG. 10 and 11 are diagrams illustrating a third example of the MPD file corresponding to the image file of the mosaic image 250.
  • bit rate of the encoded stream of the mosaic image 250 is four. The same applies to FIGS. 12 to 19 described later.
  • the SRD of each thumbnail image 251 to 254 and the URL of the moving image are set as shared information shared between the encoded streams of the four bit rate mosaic images 250.
  • the MPD files in FIGS. 10 and 11 include “AdaptationSet” corresponding to the encoded streams of four bit rates and “for sharing information between the encoded streams of four bit rates”.
  • “AdaptationSet” (hereinafter referred to as "AdaptationSet” for sharing) is described.
  • this “AdaptationSet” is “AdaptationSet” corresponding to the encoded stream of the mosaic image 250 sharing information.
  • “Representation” corresponding to the encoded stream of each bit rate is described. In this “Representation”, the URL of the image file of the encoded stream of the corresponding bit rate is described.
  • the URL “stream1.mp4” of the image file of the encoded stream of the bit rate is described in “Representation” of the first bit rate.
  • URLs “stream2.mp4”, “stream3.mp4”, and “stream4.mp4” of the image file of the encoded stream of the bit rate are described in “Representation” of the second to fourth bit rates, respectively. Is done.
  • the sharing “AdaptationSet” is set for each thumbnail image.
  • AdaptationSet specifying information information for specifying “AdaptationSet” corresponding to the encoded stream in which the information described in this sharing “AdaptationSet” is shared (hereinafter referred to as AdaptationSet specifying information), that is, Information specifying “AdaptationSet” in which information described in “AdaptationSet” for sharing is a segment is described.
  • thumbnail image specifying information information indicating the level set for the thumbnail image is described as information for specifying the corresponding thumbnail image (hereinafter referred to as thumbnail image specifying information).
  • thumbnail image specifying information information for specifying the corresponding thumbnail image.
  • the first “AdaptationSet” for sharing corresponds to the thumbnail image 251.
  • the SRD of the thumbnail images 251 to 254 and the URL of the moving image are set as shared information, so that the description redundancy is eliminated.
  • the AdaptationSet specifying information is information for specifying “AdaptationSet” in which information described in “AdaptationSet” for sharing is originally set.
  • the thumbnail image specifying information is information for specifying “SubRepresentation” in which information described in “AdaptationSet” for sharing is originally set.
  • FIG. 12 and 13 are diagrams illustrating a fourth example of the MPD file corresponding to the image file of the mosaic image 250.
  • FIG. 12 and 13 are diagrams illustrating a fourth example of the MPD file corresponding to the image file of the mosaic image 250.
  • the structure of the MPD file in FIGS. 12 and 13 is mainly described in the “AdaptationSet” in which the SRDs of the thumbnail images 251 to 254 correspond to encoded streams of four bit rates, not “AdaptationSet” for sharing. This is different from the configuration of FIGS. 11 and 12.
  • the “AdaptationSet” corresponding to the encoded streams of the four bit rates is assigned to all “Representation” in the “AdaptationSet”.
  • Four “ContentComponent” describing shared information shared between corresponding encoded streams is provided.
  • Each “ContentComponent” corresponds to each level set in the thumbnail images 251 to 254.
  • the corresponding SRD is described as shared information, and thumbnail image specifying information is described.
  • the sharing “AdaptationSet” is not provided with the SRD and thumbnail image specifying information, and the information described in the sharing “AdaptationSet” is shared instead of the AdaptationSet specifying information.
  • Information for specifying “ContentComponent” of “AdaptationSet” corresponding to the encoded stream (hereinafter referred to as ContentComponent specifying information) is described.
  • the SRD of the thumbnail images 251 to 254 and the URL of the moving image are set as shared information, so that the description redundancy is eliminated.
  • the video URL is described in the sharing “Adaptationset”, so the SRD is not described, and the video URL is the same as the MPD file described in the sharing “Adaptationset”. Compatibility is maintained.
  • (5th example of MPD file) 14 and 15 are diagrams illustrating a fifth example of the MPD file corresponding to the image file of the mosaic image 250.
  • FIG. 1 (th example of MPD file) 14 and 15 are diagrams illustrating a fifth example of the MPD file corresponding to the image file of the mosaic image 250.
  • the URLs of moving images corresponding to the thumbnail images 251 to 254 mainly correspond to encoded streams of four bit rates instead of “AdaptationSet” for sharing.
  • the point described in “AdaptationSet” is different from the configuration of FIG. 12 and FIG. 13.
  • each “ContentComponent” provided in “AdaptationSet” corresponding to the encoded streams of four bit rates is stored in the corresponding video. URL is described. Also, “AdaptationSet” for sharing is not described.
  • the SRD of the thumbnail images 251 to 254 and the URL of the moving image are set as shared information, so that there is no description redundancy.
  • thumbnail image specifying information AdaptationSet specifying information
  • ContentComponent specifying information are described using EssentialProperty, but may be described as elements of “AdaptaionSet”.
  • the MPD files shown in FIGS. 10 and 11 become the MPD files shown in FIGS. That is, as shown in FIGS. 16 and 17, AdaptationSet specifying information is described as “associationID” of “Adaptationset” for sharing, and thumbnail image specifying information is described as “associationLevel” of “Adaptationset” for sharing.
  • the MPD files shown in FIGS. 12 and 13 become the MPD files shown in FIGS. 18 and 19. That is, as shown in FIG. 18 and FIG. 19, information specifying “AdaptationSet” corresponding to an encoded stream in which information described in “AdaptationSet” for sharing is included in the ContentComponent specifying information is It is described as “associationID” of “Adaptationset” for sharing. In addition, information specifying “ContentComponent” of “AdaptationSet” corresponding to the encoded stream in which information described in “AdaptationSet” for sharing is shared is described as “associationLevel” of “Adaptationset” for sharing The
  • associationType indicating the type of “Adaptationset” may be described as the element of “Adaptationset”.
  • Information representing the existence is described as associationType. For example, when “AdaptationSet” is “AdaptationSet” corresponding to the encoded stream of the mosaic image 250 sharing information, associationType is set to “subs”.
  • FIG. 20 is a block diagram illustrating a configuration example of a streaming playback unit that is realized by the video playback terminal 14 of FIG. 1 executing the control software 21, the video playback software 22, and the access software 23. .
  • the 20 includes a MPD acquisition unit 291, an MPD processing unit 292, an image file acquisition unit 293, a decoder 294, a display control unit 295, a reception unit 296, and a moving image acquisition unit 297.
  • the MPD acquisition unit 291 of the streaming playback unit 290 acquires the MPD file from the Web server 12 and supplies it to the MPD processing unit 292.
  • the MPD processing unit 292 extracts information such as the URL of the image file of the segment to be reproduced from the MPD file supplied from the MPD acquisition unit 291 and supplies the extracted information to the image file acquisition unit 293. In addition, the MPD processing unit 292 supplies the MPD file to the moving image acquisition unit 297. Further, the MPD processing unit 292 extracts the SRD of each divided image of the mosaic image of the segment to be reproduced from the MPD file and supplies the SRD to the display control unit 295.
  • the image file acquisition unit 293 requests and acquires the encoded stream of the image file specified by the URL supplied from the MPD processing unit 292 from the Web server 12.
  • the image file acquisition unit 293 supplies the acquired encoded stream to the decoder 294.
  • the decoder 294 decodes the encoded stream supplied from the image file acquisition unit 293.
  • the decoder 294 supplies the mosaic image obtained as a result of the decoding to the display control unit 295.
  • the display control unit 295 (arrangement unit) arranges the divided images of the mosaic image supplied from the decoder 294 on the screen based on the SRD supplied from the MPD processing unit 292. In addition, the display control unit 295 superimposes a cursor or the like on the screen arranged in each divided image, supplies it to a display device (not shown), and displays it.
  • the display control unit 295 responds to an instruction for enlarging a predetermined area of the screen supplied from the reception unit 296, and the partial mosaic including only thumbnail images included in the area of the screen on which the mosaic image is arranged. Increase the image size to the screen size. Then, the display control unit 295 superimposes a cursor or the like on a predetermined thumbnail image in the screen on which the enlarged partial mosaic image is arranged, and supplies it to a display device (not shown) for display.
  • the display control unit 295 supplies a moving image corresponding to one of the thumbnail images being displayed supplied from the moving image acquisition unit 297 to a display device (not shown) and displays the moving image.
  • the reception unit 296 receives an instruction from a user or the like, and supplies the instruction to the moving image acquisition unit 297 or the display control unit 295.
  • the moving image acquisition unit 297 acquires the URL of the moving image corresponding to the position from the MPD file supplied from the MPD processing unit 292 in response to the instruction of the predetermined position supplied from the reception unit 296.
  • the moving image acquisition unit 297 acquires a moving image from the Web server 12 or the like based on the acquired URL, and supplies it to the display control unit 295.
  • FIG. 21 is a diagram for explaining the outline of the reproduction processing by the streaming reproduction unit 290.
  • the display control unit 295 first superimposes the cursor 312 on a predetermined thumbnail image 311 out of 4 ⁇ 4 thumbnail images 311 constituting the mosaic image 310 arranged on the screen. And displayed on a display device (not shown).
  • the user gives an instruction to enlarge a desired area while viewing the screen of the mosaic image 310 on which the cursor 312 is superimposed.
  • the user gives an instruction to enlarge the area of 2 ⁇ 2 thumbnail images 311 at the upper right of the screen on which the mosaic image 310 is arranged.
  • the display control unit 295 enlarges the size of the partial mosaic image 313 including only the 2 ⁇ 2 thumbnail images 311 at the upper right of the screen on which the mosaic image 310 is arranged to the screen size. . Then, as shown in the center of FIG. 21, the display control unit 295 superimposes the cursor 314 on a predetermined thumbnail image 311 in the screen on which the enlarged partial mosaic image 313 is arranged, and displays it on a display device (not shown).
  • the user instructs the position of the cursor 314 by moving the cursor 314 to the desired thumbnail image 311 and performing an operation such as a double tap.
  • the user indicates the position of the upper right thumbnail image 311.
  • the moving image acquisition unit 297 is instructed from the MPD file by the URL of the moving image corresponding to the SRD indicating the position on the screen of the mosaic image 310 corresponding to the position on the specified partial mosaic image 313. As the URL of the video corresponding to the selected location. Then, the moving image acquisition unit 297 acquires the moving image 315 from the Web server 12 or the like based on the acquired URL and supplies it to the display control unit 295. Thereby, as shown on the right side of FIG. 21, the display control unit 295 displays the moving image 315 on a display device (not shown).
  • FIG. 22 is a flowchart illustrating the playback process of the streaming playback unit 290 of FIG.
  • the MPD acquisition unit 291 of the streaming playback unit 290 acquires the MPD file from the Web server 12 and supplies it to the MPD processing unit 292.
  • step S212 the MPD processing unit 292 extracts information such as the URL of the MPD file supplied from the MPD acquisition unit 291 or the image file of the segment to be played back and supplies the extracted information to the image file acquisition unit 293.
  • the MPD processing unit 292 supplies the MPD file to the moving image acquisition unit 297.
  • the MPD processing unit 292 extracts the SRD of each divided image of the mosaic image of the segment to be reproduced from the MPD file and supplies the SRD to the display control unit 295.
  • step S213 based on the URL supplied from the MPD processing unit 292, the image file acquisition unit 293 requests and acquires the encoded stream of the image file specified by the URL from the Web server 12.
  • the image file acquisition unit 293 supplies the acquired encoded stream to the decoder 294.
  • step S214 the decoder 294 decodes the encoded stream supplied from the image file acquisition unit 293.
  • the decoder 294 supplies the mosaic image obtained as a result of the decoding to the display control unit 295.
  • step S215 the display control unit 295 places the divided images of the mosaic image from the decoder 294 on the screen based on the SRD from the MPD processing unit 292, and superimposes a cursor or the like on the screen. To be displayed on a display device.
  • step S216 the reception unit 296 determines whether an instruction to enlarge a predetermined area of the screen from the user has been received. If it is determined in step S216 that an instruction for enlarging a predetermined area of the screen has not been received, the accepting unit 296 waits until an instruction for enlarging the predetermined area of the screen is received.
  • step S216 when it is determined in step S216 that an instruction to enlarge a predetermined area of the screen has been received, the accepting unit 296 supplies the enlargement instruction to the display control unit 295.
  • step S217 in response to the enlargement instruction supplied from the accepting unit 296, the display control unit 295 includes only the thumbnail image included in the area instructed to enlarge in the screen on which the mosaic image is arranged. Increase the size of the mosaic image to the screen size.
  • step S218 the display control unit 295 superimposes a cursor or the like on a predetermined thumbnail image in the screen on which the enlarged partial mosaic image is arranged, and supplies the displayed image to a display device (not shown) for display.
  • the user moves the cursor to a desired thumbnail image and performs an operation such as a double tap to instruct the position of the cursor on the screen.
  • step S219 the reception unit 296 determines whether an instruction on a position on the screen from the user has been received. If it is determined in step S219 that an instruction for a position on the screen has not been received, the reception unit 296 waits until an instruction for a position on the screen is received.
  • step S219 when it is determined in step S219 that an instruction for a position on the screen has been received, the reception unit 296 supplies the instruction to the moving image acquisition unit 297.
  • step S220 the moving image acquisition unit 297 acquires the URL of the moving image corresponding to the instructed position from the MPD file supplied from the MPD processing unit 292 in response to the instruction supplied from the reception unit 296.
  • step S221 the moving image acquisition unit 297 acquires a moving image from the Web server 12 or the like based on the acquired URL, and supplies the moving image to the display control unit 295.
  • step S222 the display control unit 295 supplies the moving image supplied from the moving image acquiring unit 297 to a display device (not shown) to be displayed. Then, the process ends.
  • the partial mosaic image is displayed after the mosaic image is displayed, and the position on the partial mosaic image is instructed by the user.
  • the partial mosaic image is not displayed and is displayed on the mosaic image. The position may be indicated directly by the user.
  • the URL of the moving image (main part) corresponding to the thumbnail image is described in association with the SRD of each thumbnail image, but is described in association with the SRD of each thumbnail image.
  • the information is not limited to this.
  • information of an image file to be superimposed when the thumbnail image is displayed in picture-in-picture may be described in association with the SRD of each thumbnail image.
  • the source_url is information for specifying an external MPD file that manages an image file to be superimposed on a thumbnail image or an AdaptationSet of the internal MPD file.
  • thumbnail image information indicating the type (meaning) of the thumbnail image may be described in association with the SRD of each thumbnail image.
  • the URL of the moving image corresponding to the thumbnail image described above information on the image file to be superimposed when the thumbnail image is displayed in picture-in-picture, and information indicating the type of thumbnail image All may be described.
  • characters and icons indicating that the thumbnail image is an image to be displayed in picture-in-picture are displayed, and a predetermined image is superimposed on each thumbnail image to display a picture-in-picture.
  • the URL of the video corresponding to the thumbnail image, the information on the image file to be superimposed when the thumbnail image is displayed in picture-in-picture, and the information indicating the type of the thumbnail image may be described in a property different from the SRD. Alternatively, it may be described in the extended SRD property as a flag.
  • ⁇ Second Embodiment> (Description of computer to which the present disclosure is applied)
  • the series of processes described above can be executed by hardware or can be executed by software.
  • a program constituting the software is installed in the computer.
  • the computer includes, for example, a general-purpose personal computer capable of executing various functions by installing various programs by installing a computer incorporated in dedicated hardware.
  • FIG. 23 is a block diagram showing an example of the hardware configuration of a computer that executes the above-described series of processing by a program.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An input / output interface 905 is further connected to the bus 904.
  • An input unit 906, an output unit 907, a storage unit 908, a communication unit 909, and a drive 910 are connected to the input / output interface 905.
  • the input unit 906 includes a keyboard, a mouse, a microphone, and the like.
  • the output unit 907 includes a display, a speaker, and the like.
  • the storage unit 908 includes a hard disk, a nonvolatile memory, and the like.
  • the communication unit 909 includes a network interface or the like.
  • the drive 910 drives a removable medium 911 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 901 loads the program stored in the storage unit 908 to the RAM 903 via the input / output interface 905 and the bus 904 and executes the program. A series of processing is performed.
  • the program executed by the computer 900 can be provided by being recorded on a removable medium 911 as a package medium, for example.
  • the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the storage unit 908 via the input / output interface 905 by attaching the removable medium 911 to the drive 910.
  • the program can be received by the communication unit 909 via a wired or wireless transmission medium and installed in the storage unit 908.
  • the program can be installed in the ROM 902 or the storage unit 908 in advance.
  • the program executed by the computer 900 may be a program that is processed in time series in the order described in this specification, or a necessary timing such as when a call is made in parallel. It may be a program in which processing is performed.
  • the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Accordingly, a plurality of devices housed in separate housings and connected via a network and a single device housing a plurality of modules in one housing are all systems. .
  • this indication can also take the following structures.
  • An information processing apparatus comprising: a setting unit configured to set a first AdaptationSet including a plurality of representations corresponding to an encoded stream having a predetermined bit rate and a second AdaptationSet not including a representation.
  • the setting unit is configured to include information indicating that the first AdaptationSet and the second AdaptationSet are related to the second AdaptationSet.
  • the setting unit is configured to set the first AdaptationSet and the second AdaptationSet to a management file that manages a file of the encoded stream. apparatus.
  • the encoded streams corresponding to a plurality of representations included in the first AdaptationSet are encoded streams of the same image with different bit rates,
  • the information processing apparatus configured to include an acquisition destination of a file corresponding to each divided image in the second AdaptationSet including a position on the screen of the divided image.
  • the setting unit is configured to include, in the second AdaptationSet, information specifying a divided image corresponding to the second AdaptationSet.
  • the setting unit is configured to include information representing the first AdaptationSet in the first AdaptationSet and include information representing the second AdaptationSet in the second AdaptationSet. ).
  • the encoded streams corresponding to a plurality of representations included in the first AdaptationSet are encoded streams of the same image with different bit rates
  • the setting unit is configured to include the position on the screen of each of the plurality of divided images constituting the image in the first AdaptationSet as Content Component information. Any one of (1) to (3) The information processing apparatus described in 1. (11) The information processing apparatus according to (10), wherein the setting unit is configured to include an acquisition destination of a file corresponding to the divided image in the first AdaptationSet as information of the Content Component.
  • Information processing device An information processing method including a setting step of setting a first AdaptationSet including a plurality of representations corresponding to an encoded stream of a predetermined bit rate and a second AdaptationSet not including a representation.
  • An information processing apparatus comprising: a reproduction unit that reproduces the encoded stream based on a first AdaptationSet including a plurality of representations corresponding to an encoded stream of a predetermined bit rate and a second AdaptationSet not including a representation.
  • Information processing device An information processing method including a reproduction step of reproducing the encoded stream based on a first AdaptationSet including a plurality of representations corresponding to an encoded stream having a predetermined bit rate and a second AdaptationSet not including the representation.

Abstract

本開示は、Representationを含まないAdaptationSetを設定することができるようにする情報処理装置および情報処理方法に関する。 ファイル生成装置は、所定のビットレートの符号化ストリームに対応するRepresentationを複数含む第1のAdaptationSetと、Representationを含まない第2のAdaptationSetとを設定する。本開示は、例えば、MPEG-DASHに準ずる方式で動画コンテンツの画像としてのモザイク画像の符号化ストリームを動画再生端末に配信する情報処理システムのファイル生成装置等に適用することができる。

Description

情報処理装置および情報処理方法
 本開示は、情報処理装置および情報処理方法に関し、特に、Representationを含まないAdaptationSetを設定することができるようにした情報処理装置および情報処理方法に関する。
  近年、インターネット上のストリーミングサービスの主流がOTT-V(Over The Top Video)となっている。この基盤技術として普及し始めているのがMPEG-DASH(Moving Picture Experts Group phase - Dynamic Adaptive Streaming over HTTP)である(例えば、非特許文献1参照)。
 MPEG-DASHでは、配信サーバが1本の動画コンテンツ用にビットレートが異なる符号化ストリームを用意し、再生端末が最適なビットレートの符号化ストリームを要求することにより、適応型のストリーミング配信が実現される。
 また、MPEG-DASH SRD(Spatial Relationship Description) extensionでは、動画コンテンツの画像を1以上の領域に分割して独立して符号化したときの各領域の画面上の位置を示すSRDが定義されている(例えば、非特許文献2および3参照)。このSRDにより、所望のビットレートの符号化ストリームを選択的に取得するbitrate adaptationの仕組みを用いて、所望の領域の画像の符号化ストリームを選択的に取得するSpatial adaptationであるROI(Region of Interest)機能を実現することができる。
 動画コンテンツの画像が、複数の放送番組などの動画のサムネイル画像(分割画像)から構成されるモザイク画像である場合、SRDにより、各サムネイル画像の画面上の位置を示すことが考えられる。
 しかしながら、SRDは、各サムネイル画像の画面上の位置と、符号化ストリームに対応するモザイク画像上の位置とが同一であるものとして記述される。従って、各サムネイル画像の画面上の位置と、符号化ストリームに対応するモザイク画像上の位置とが異なるものである場合、SRDを用いて各サムネイル画像の画面上の位置を記述することはできない。
 従って、各サムネイル画像の画面上の位置を確実に記述し、認識可能にすることが望まれている。また、複数のビットレートのモザイク画像の符号化ストリームが存在する場合に、ビットレートごと各サムネイル画像の画面上の位置が記述されると、記述が冗長になるため、それを防止することが望まれている。
MPEG-DASH(Dynamic Adaptive Streaming over HTTP)(URL:http://mpeg.chiariglione.org/standards/mpeg-dash/media-presentation-description-and-segment-formats/text-isoiec-23009-12012-dam-1) "Text of ISO/IEC 23009-1:2014 FDAM 2 Spatial Relationship Description, Generalized URL parameters and other extensions" , N15217, MPEG111, Geneva , February 2015 "WD of ISO/IEC 23009-3 2nd edition AMD 1 DASH Implementation Guidelines", N14629, MPEG109, Sapporo , July 2014
 ところで、MPD(Media Presentation Description)ファイルなどにおいて、Representationを含まないAdaptationSetを設定することは考えられていなかった。
 本開示は、このような状況に鑑みてなされたものであり、Representationを含まないAdaptationSetを設定することができるようにするものである。
 本開示の第1の側面の情報処理装置は、所定のビットレートの符号化ストリームに対応するRepresentationを複数含む第1のAdaptationSetと、Representationを含まない第2のAdaptationSetとを設定する設定部を備える情報処理装置である。
 本開示の第1の側面の情報処理方法は、本開示の第1の側面の情報処理装置に対応する。
 本開示の第1の側面においては、所定のビットレートの符号化ストリームに対応するRepresentationを複数含む第1のAdaptationSetと、Representationを含まない第2のAdaptationSetとが設定される。
 本開示の第2の側面の情報処理装置は、所定のビットレートの符号化ストリームに対応するRepresentationを複数含む第1のAdaptationSetと、Representationを含まない第2のAdaptationSetとに基づいて、前記符号化ストリームを再生する再生部を備える情報処理装置である。
 本開示の第2の側面においては、所定のビットレートの符号化ストリームに対応するRepresentationを複数含む第1のAdaptationSetと、Representationを含まない第2のAdaptationSetとに基づいて、前記符号化ストリームが再生される。
 なお、第1および第2の側面の情報処理装置は、コンピュータにプログラムを実行させることにより実現することができる。
 また、第1および第2の側面の情報処理装置を実現するために、コンピュータに実行させるプログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。
 本開示の第1の側面によれば、情報を設定することができる。本開示の第1の側面によれば、Representationを含まないAdaptationSetを設定することができる。
 また、本開示の第2の側面によれば、符号化ストリームを再生することができる。本開示の第2の側面によれば、Representationを含まないAdaptationSetに基づいて符号化ストリームを再生することができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示を適用した情報処理システムの一実施の形態の構成例を示すブロック図である。 図1のファイル生成装置の構成例を示すブロック図である。 モザイク画像の例を示す図である。 画像ファイルのセグメント構造の例を示す図である。 sgpdボックスとlevaボックスの例を示す図である。 MPDファイルの第1の例を示す図である。 MPDファイルの第2の例を示す図である。 サムネイル画像が配置された画面の例を示す図である。 図2のファイル生成装置のファイル生成処理を説明するフローチャートである。 MPDファイルの第3の例を示す図である。 MPDファイルの第3の例を示す図である。 MPDファイルの第4の例を示す図である。 MPDファイルの第4の例を示す図である。 MPDファイルの第5の例を示す図である。 MPDファイルの第5の例を示す図である。 MPDファイルの第6の例を示す図である。 MPDファイルの第6の例を示す図である。 MPDファイルの第7の例を示す図である。 MPDファイルの第7の例を示す図である。 図1の動画再生端末が実現するストリーミング再生部の構成例を示すブロック図である。 図20のストリーミング再生部による再生処理の概要を説明する図である。 図20のストリーミング再生部の再生処理を説明するフローチャートである。 コンピュータのハードウエアの構成例を示すブロック図である。
 以下、本開示を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
 1.第1実施の形態:情報処理システム(図1乃至図22)
 2.第2実施の形態:コンピュータ(図23)
 <第1実施の形態>
 (情報処理システムの一実施の形態の構成例)
 図1は、本開示を適用した情報処理システムの一実施の形態の構成例を示すブロック図である。
 図1の情報処理システム210は、ファイル生成装置211と接続されるWebサーバ12と動画再生端末14が、インターネット13を介して接続されることにより構成される。
 情報処理システム210では、MPEG-DASHに準ずる方式で、Webサーバ12が、動画コンテンツの画像としてのモザイク画像の符号化ストリームを、動画再生端末14に配信する。
 情報処理システム210のファイル生成装置211は、複数の符号化速度(ビットレート)でモザイク画像を符号化し、符号化ストリームを生成する。ファイル生成装置211は、セグメントと呼ばれる数秒から10秒程度の時間単位ごとに、各符号化速度の符号化ストリームをファイル化し、画像ファイルを生成する。ファイル生成装置211は、生成された画像ファイルをWebサーバ12にアップロードする。
 また、ファイル生成装置211(設定部)は、画像ファイル等を管理するMPDファイル(管理ファイル)を生成する。ファイル生成装置211は、MPDファイルをWebサーバ12にアップロードする。
 Webサーバ12は、ファイル生成装置211からアップロードされた画像ファイルとMPDファイルを格納する。Webサーバ12は、動画再生端末14からの要求に応じて、格納している画像ファイル、MPDファイル等を動画再生端末14に送信する。
 動画再生端末14は、ストリーミングデータの制御用ソフトウエア(以下、制御用ソフトウエアという)21、動画再生ソフトウエア22、HTTP(HyperText Transfer Protocol)アクセス用のクライアント・ソフトウエア(以下、アクセス用ソフトウエアという)23などを実行する。
 制御用ソフトウエア21は、Webサーバ12からストリーミングするデータを制御するソフトウエアである。具体的には、制御用ソフトウエア21は、動画再生端末14にWebサーバ12からMPDファイルを取得させる。
 また、制御用ソフトウエア21は、MPDファイルに基づいて、動画再生ソフトウエア22により指定される再生対象の符号化ストリームの送信要求を、アクセス用ソフトウエア23に指令する。
 動画再生ソフトウエア22は、Webサーバ12から取得された符号化ストリームを再生するソフトウエアである。具体的には、動画再生ソフトウエア22は、再生対象の符号化ストリームを制御用ソフトウエア21に指定する。また、動画再生ソフトウエア22は、アクセス用ソフトウエア23から受信開始の通知を受信したとき、動画再生端末14により受信された符号化ストリームを復号する。動画再生ソフトウエア22は、復号の結果得られる画像データを必要に応じて合成し、出力する。
 アクセス用ソフトウエア23は、HTTPを用いたインターネット13を介したWebサーバ12との通信を制御するソフトウエアである。具体的には、アクセス用ソフトウエア23は、制御用ソフトウエア21の指令に応じて、画像ファイルに含まれる再生対象の符号化ストリームの送信要求を、動画再生端末14に送信させる。また、アクセス用ソフトウエア23は、その送信要求に応じて、Webサーバ12から送信されてくる符号化ストリームの受信を動画再生端末14に開始させ、受信開始の通知を動画再生ソフトウエア22に供給する。
 (ファイル生成装置の構成例)
 図2は、図1のファイル生成装置211の構成例を示すブロック図である。
 図2のファイル生成装置211は、符号化処理部231、画像ファイル生成部232、MPD生成部233、およびサーバアップロード処理部234により構成される。
 ファイル生成装置211の符号化処理部231は、動画コンテンツの画像としてのモザイク画像を、複数の符号化速度で符号化し、符号化ストリームを生成する。符号化処理部231は、各符号化速度の符号化ストリームを画像ファイル生成部232に供給する。
 画像ファイル生成部232は、符号化処理部231から供給される各符号化速度の符号化ストリームを、セグメントごとにファイル化し、画像ファイルを生成する。画像ファイル生成部232は、生成された画像ファイルをMPD生成部233に供給する。
 MPD生成部233は、画像ファイル生成部232から供給される画像ファイルを格納するWebサーバ12のURL等を決定する。そして、MPD生成部233は、画像ファイルのURL等を含むMPDファイルを生成する。MPD生成部233は、生成されたMPDファイルと画像ファイルをサーバアップロード処理部234に供給する。
 サーバアップロード処理部234は、MPD生成部233から供給される画像ファイルとMPDファイルを、図1のWebサーバ12にアップロードする。
 (モザイク画像の例)
 図3は、モザイク画像の例を示す図である。
 図3の例では、モザイク画像250は、左上のサムネイル画像251、右上のサムネイル画像252、左下のサムネイル画像252、および右下のサムネイル画像254により構成される。モザイク画像250の解像度は、2k(1920画素×1080画素)であり、サムネイル画像251乃至254の解像度は、全て、960画素×540画素である。
 (モザイク画像の画像ファイルのセグメント構造の例)
 図4は、図3のモザイク画像250の画像ファイルのセグメント構造の例を示す図である。
 図4に示すように、モザイク画像250の画像ファイルでは、Initial segmentが、ftypボックスとmoovボックスにより構成される。moovボックスには、stblボックスとmvexボックスが配置される。stblボックスには、sgpdボックスなどが配置され、mvexボックスには、levaボックスなどが配置される。
 また、media segmentは、sidxボックス、ssixボックス、およびmoofとmdatのペアからなる1以上のsubsegmentにより構成される。sidxボックスには、各subsegmentの画像ファイル内の位置を示す位置情報が配置される。ssixボックスには、mdatボックスに配置される各レベルの符号化ストリームの位置情報が含まれる。
 subsegmentは、任意の時間長ごとに設けられる。mdatボックスには、符号化ストリームが任意の時間長分だけまとめて配置され、moofボックスには、その符号化ストリームの管理情報が配置される。
 (sgpdボックスとlevaボックスの例)
 図5は、図4のsgpdボックスとlevaボックスの例を示す図である。
 図5に示すように、sgpdボックスには、モザイク画像250を構成するサムネイル画像251乃至254それぞれのモザイク画像250上の位置を示すTile Region Group Entryが順に記述される。
 図5の例では、先頭のTile Region Group Entryは、サムネイル画像251に対応し、(1,0,0,960,540)である。2番目のTile Region Group Entryは、サムネイル画像252に対応し、(2,960,0,960,540)である。3番目のTile Region Group Entryは、サムネイル画像253に対応し、(3,0,540,960,540)である。4番目のTile Region Group Entryは、サムネイル画像254に対応し、(4,960,540,960,540)である。Tile Region Group Entryは、HEVC File FormatのHEVC Tile Trackで規格化されている。
 また、levaボックスは、各Tile Region Group Entryに対応するlevelの情報を、先頭のTile Region Group Entryに対応するlevelの情報から順に記述する。これにより、サムネイル画像251に対するlevelが1に設定され、サムネイル画像252に対するlevelが2に設定され、サムネイル画像253に対するlevelが3に設定され、サムネイル画像254に対するlevelが4に設定される。levelは、MPDファイルから、符号化ストリームの一部を指定するときにインデックスとして機能するものである。
 各levelの情報としては、そのlevelの設定対象が、複数のトラックに配置される符号化ストリームであるかどうかを示すassignment_typeが記述される。図4の例では、モザイク画像250の符号化ストリームは1つのトラックに配置される。従って、assignment_typeは、levelの設定対象が、複数のトラックに配置される符号化ストリームではないことを表す0である。
 各levelの情報としてはまた、そのlevelに対応するTile Region Group Entryのタイプが記述される。図4の例では、各levelの情報として、sgpdボックスに記述されるTile Region Group Entryのタイプである「trif」が記述される。levaボックスの詳細は、例えば、ISO/IEC 14496-12 ISO base media file format 4th edition, July 2012に記述されている。
 (MPDファイルの第1の例)
 図6は、図1のファイル生成装置211により生成される、モザイク画像250の画像ファイルに対応するMPDファイルの第1の例を示す図である。
 なお、図6の例では、モザイク画像の符号化ストリームのビットレートが1つであるものとする。このことは、後述する図7においても同様である。
 図6に示すように、MPDファイルでは、符号化ストリームごとに「AdaptationSet」が記述される。また、「AdaptationSet」には「Representation」が記述され、「Representation」には、モザイク画像250の符号化ストリームの画像ファイルのURL「stream.mp4」が記述される。また、モザイク画像250の符号化ストリームにはlevelが設定されるので、「Representation」には、levelごとに「SubRepresentation」が記述可能になっている。
 従って、level「1」の「SubRepresentation」には、サムネイル画像251のSRDである<SupplementalProperty schemeIdUri="urn:mpeg:dash:srd:2014" value=“1,0,0,960,540,1920,1080"/>が記述される。これにより、サムネイル画像251のSRDが、level「1」に対応するTile Region Group Entryが示すサムネイル画像251のモザイク画像250上の位置と対応付けて設定される。
 また、level「2」の「SubRepresentation」には、サムネイル画像252のSRDである<SupplementalProperty schemeIdUri="urn:mpeg:dash:srd:2014" value=“1,960,0,960,540,1920,1080"/>が記述される。これにより、サムネイル画像252のSRDが、level「2」に対応するTile Region Group Entryが示すサムネイル画像252のモザイク画像250上の位置と対応付けて設定される。
 さらに、level「3」の「SubRepresentation」には、サムネイル画像253のSRDである<SupplementalProperty schemeIdUri="urn:mpeg:dash:srd:2014" value=“1,0,540,960,540,1920,1080"/>が記述される。これにより、サムネイル画像253のSRDが、level「3」に対応するTile Region Group Entryが示すサムネイル画像253のモザイク画像250上の位置と対応付けて設定される。
 また、level「4」の「SubRepresentation」には、サムネイル画像254のSRDである<SupplementalProperty schemeIdUri="urn:mpeg:dash:srd:2014" value=“1,960,540,960,540,1920,1080"/>が記述される。これにより、サムネイル画像254のSRDが、level「4」に対応するTile Region Group Entryが示すサムネイル画像254のモザイク画像250上の位置と対応付けて設定される。
 以上のように、図6のMPDファイルでは、Tile Region Group Entryが示すモザイク画像250の水平方向および垂直方向のサイズと、SRDが示す画面の水平方向および垂直方向のサイズが同一である。また、各levelに対応するTile Region Group Entryが示すモザイク画像250上の水平方向および垂直方向の座標と、そのlevelに対応するSRDが示す画面上の水平方向および垂直方向の位置が同一である。従って、図6のMPDファイルが生成される場合、SRDに基づいて復号されたサムネイル画像251乃至254が配置された画面は、モザイク画像250と同一になる。
 また、各levelの「SubRepresentation」には、そのlevelのサムネイル画像251乃至254に対応する動画のURLも記述される。具体的には、level「1」の「SubRepresentation」には、サムネイル画像251に対応する動画のURL「http://example.com/a_service/my.mpd」が記述される。また、level「2」の「SubRepresentation」には、サムネイル画像252に対応する動画のURL「http://example.com/b_service/my.mpd」が記述される。
 また、level「3」の「SubRepresentation」には、サムネイル画像253に対応する動画のURL「http://example.com/c_service/my.mpd」が記述される。また、level「4」の「SubRepresentation」には、サムネイル画像254に対応する動画のURL「http://example.com/d_service/my.mpd」が記述される。
 (MPDファイルの第2の例)
 図7は、図1のファイル生成装置211により生成される、モザイク画像250の画像ファイルに対応するMPDファイルの第2の例を示す図である。
 なお、図7のMPDファイルは、各levelの「SubRepresentation」に記述されるSRDのみが図6のMPDと異なっている。
 即ち、図7のMPDファイルでは、level「3」の「SubRepresentation」には、サムネイル画像253のSRDである<SupplementalProperty schemeIdUri="urn:mpeg:dash:srd:2014" value=“1,0,0,960,540,1920,1080"/>が記述される。
 また、level「4」の「SubRepresentation」には、サムネイル画像254のSRDである<SupplementalProperty schemeIdUri="urn:mpeg:dash:srd:2014" value=“1,960, 0,960,540,1920,1080"/>が記述される。
 さらに、level「1」の「SubRepresentation」には、サムネイル画像251のSRDである<SupplementalProperty schemeIdUri="urn:mpeg:dash:srd:2014" value=“1,0,540,960,540,1920,1080"/>が記述される。
 また、level「2」の「SubRepresentation」には、サムネイル画像252のSRDである<SupplementalProperty schemeIdUri="urn:mpeg:dash:srd:2014" value=“1,960, 540,960,540,1920,1080"/>が記述される。
 以上のように、図7のMPDファイルでは、図6のMPDファイルと同様に、Tile Region Group Entryが示すモザイク画像250の水平方向および垂直方向のサイズと、SRDが示す画面の水平方向および垂直方向のサイズが同一である。
 しかしながら、各levelに対応するTile Region Group Entryが示すモザイク画像250上の水平方向および垂直方向の座標と、そのlevelに対応するSRDが示す画面上の水平方向および垂直方向の位置が異なっている。従って、図7のMPDファイルが生成される場合、SRDに基づいて復号されたサムネイル画像251乃至254が配置された画面は、モザイク画像250と異なる。
 (サムネイル画像が配置された画面の例)
 図8は、図7のMPDファイルに記述されたSRDに基づいて復号されたサムネイル画像251乃至254が配置された画面の例を示す図である。
 図7のMPDファイルに記述されたサムネイル画像251のSRDは、サムネイル画像251の左上の、1920画素×1080画素からなる画面270上の座標が(0,540)である。従って、図8に示すように、サムネイル画像251は、画面270の左下に配置される。
 また、サムネイル画像252のSRDは、サムネイル画像252の左上の画面270上の座標が(960,0)である。従って、図8に示すように、サムネイル画像252は、画面270の右下に配置される。
 さらに、サムネイル画像253のSRDは、サムネイル画像253の左上の、1920画素×1080画素からなる画面270上の座標が(0,0)である。従って、図8に示すように、サムネイル画像253は、画面270の左上に配置される。
 また、サムネイル画像254のSRDは、サムネイル画像254の左上の画面270上の座標が(960,0)である。従って、図8に示すように、サムネイル画像254は、画面270の右上に配置される。
 以上のように、図7のMPDファイルにより、表示時に、サムネイル画像251乃至254の配置を、符号化対象のモザイク画像250における配置から、画面270における配置に変更することができる。
 (ファイル生成装置の処理の説明)
 図9は、図2のファイル生成装置211のファイル生成処理を説明するフローチャートである。
 図9のステップS191において、符号化処理部231は、動画コンテンツの画像としてのモザイク画像を複数の符号化速度で符号化し、符号化ストリームを生成する。符号化処理部231は、各符号化速度の符号化ストリームを画像ファイル生成部232に供給する。
 ステップS192において、画像ファイル生成部232は、符号化処理部231から供給される各符号化速度の符号化ストリームを、セグメントごとにファイル化し、画像ファイルを生成する。画像ファイル生成部232は、生成された画像ファイルをMPD生成部233に供給する。
 ステップS193において、MPD生成部233は、画像ファイルのURL等を含むMPDファイルを生成する。MPD生成部233は、生成されたMPDファイルと画像ファイルをサーバアップロード処理部234に供給する。
 ステップS194において、サーバアップロード処理部234は、MPD生成部233から供給される画像ファイルとMPDファイルを、Webサーバ12にアップロードする。そして、処理は終了する。
 なお、上述した図7および図8のMPDファイルでは、モザイク画像の符号化ストリームのビットレートが1つであるものとされたが、ビットレートが複数である場合、ビットレートごとに、図7または図8の「Representation」が記述される。即ち、MPDファイルには、同一のSRDと動画のURL等が設定された「Representation」がビットレートの数だけ記述され、記述が冗長になる。
 (MPDファイルの第3の例)
 図10および図11は、モザイク画像250の画像ファイルに対応するMPDファイルの第3の例を示す図である。
 図10および図11の例では、モザイク画像250の符号化ストリームのビットレートが4つである。このことは、後述する図12乃至図19においても同様である。
 図10および図11のMPDファイルでは、各サムネイル画像251乃至254のSRDと動画のURLが、4つのビットレートのモザイク画像250の符号化ストリームの間で共有する共有情報として設定される。
 具体的には、図10および図11のMPDファイルには、4つのビットレートの符号化ストリームに対応する「AdaptationSet」と、4つのビットレートの符号化ストリームの間で情報を共有するための「AdaptationSet」(以下、共有用の「AdaptationSet」という)とが記述される。
 図10に示すように、4つのビットレートの符号化ストリームに対応する「AdaptationSet」には、この「AdaptationSet」が、情報を共有するモザイク画像250の符号化ストリームに対応する「AdaptationSet」であることを表す<Role schemeIdUri="urn:mpeg:dash:role:2014" value="multiple"/>が記述される。また、各ビットレートの符号化ストリームに対応する「Representation」が記述される。この「Representation」には、対応するビットレートの符号化ストリームの画像ファイルのURLが記述される。
 図10の例では、1つ目のビットレートの「Representation」に、そのビットレートの符号化ストリームの画像ファイルのURL「stream1.mp4」が記述される。同様に、2乃至4つ目のビットレートの「Representation」に、それぞれ、そのビットレートの符号化ストリームの画像ファイルのURL「stream2.mp4」、「stream3.mp4」、「stream4.mp4」が記述される。
 図10および図11に示すように、共有用の「AdaptationSet」は、サムネイル画像ごとに設定される。共有用の「AdaptationSet」には、この「AdaptationSet」が各サムネイル画像に対応する共有用の「AdaptationSet」であることを表す<Role schemeIdUri="urn:mpeg:dash:role:2014" value="multiple_element"/>が記述される。
 また、共有用の「AdaptationSet」には、この共有用の「AdaptationSet」に記述される情報が共有される符号化ストリームに対応する「AdaptationSet」を特定する情報(以下、AdaptationSet特定情報という)、即ち共有用の「AdaptationSet」に記述される情報がセグメントとされる「AdaptationSet」を特定する情報が記述される。
 図10および図11の例では、このAdaptationSet特定情報は、上述した4つのビットレートの符号化ストリームに対応する「AdaptationSet」に付与されたID「1」を表す<EssentialProperty schemeIdUri="urn:mpeg:dash:adaptaionset-index:2015" value="1"/>である。
 さらに、共有用の「AdaptationSet」には、対応するサムネイル画像を特定する情報(以下、サムネイル画像特定情報という)として、そのサムネイル画像に設定されたlevelを表す情報が記述される。また、共有用の「AdaptationSet」には、対応するサムネイル画像のSRDと動画のファイルの取得先であるURLとが記述される。
 具体的には、図10および図11の例では、先頭の共有用の「AdaptationSet」が、サムネイル画像251に対応する。
 従って、図10に示すように、先頭の共有用の「AdaptationSet」には、サムネイル画像251に設定されたlevelが1であることを表す<EssentialProperty schemeIdUri="urn:mpeg:dash:subrepresentation-index:2015" value="1"/>が記述される。また、サムネイル画像251に対応するSRDである<SupplementalProperty schemeIdUri="urn:mpeg:dash:srd:2014" value=“1,0,0,960,540,1920,1080"/>と、動画のURL「http://example.com/a_service/my.mpd」とが記述される。
 図11に示すように、2番目の共有用の「AdaptationSet」には、サムネイル画像252に設定されたlevelが2であることを表す<EssentialProperty schemeIdUri="urn:mpeg:dash:subrepresentation-index:2015" value="2"/>が記述される。また、サムネイル画像252のSRDである<SupplementalProperty schemeIdUri="urn:mpeg:dash:srd:2014" value=“1,960,0,960,540,1920,1080"/>と、サムネイル画像252に対応する動画のURL「http://example.com/b_service/my.mpd」とが記述される。
 3番目の共有用の「AdaptationSet」には、サムネイル画像253に設定されたlevelが3であることを表す<EssentialProperty schemeIdUri="urn:mpeg:dash:subrepresentation-index:2015" value="3"/>が記述される。また、サムネイル画像253のSRDである<SupplementalProperty schemeIdUri="urn:mpeg:dash:srd:2014" value=“1,0,540,960,540,1920,1080"/>と、サムネイル画像253に対応する動画のURL「http://example.com/c_service/my.mpd」とが記述される。
 4番目の共有用の「AdaptationSet」には、サムネイル画像254に設定されたlevelが4であることを表す<EssentialProperty schemeIdUri="urn:mpeg:dash:subrepresentation-index:2015" value="4"/>が記述される。また、サムネイル画像254のSRDである<SupplementalProperty schemeIdUri="urn:mpeg:dash:srd:2014" value=“1,960,540,960,540,1920,1080"/>と、サムネイル画像254に対応する動画のURL「http://example.com/d_service/my.mpd」とが記述される。
 以上のように、図10および図11のMPDファイルでは、サムネイル画像251乃至254のSRDと動画のURLが共有情報として設定されるので、記述の冗長性がなくなる。動画再生端末14は、図10および図11のMPDファイルを取得したとき、「value=multiple」により共有情報が存在することを認識し、「value=multiple」が設定された「Adaptationset」のIDが記述される共有の「Adaptationset」から共有情報を抽出する。
 なお、AdaptationSet特定情報は、共有用の「AdaptationSet」に記述される情報が本来設定される「AdaptationSet」を特定する情報である。また、サムネイル画像特定情報は、共有用の「AdaptationSet」に記述される情報が本来設定される「SubRepresentation」を特定する情報である。
 従って、共有用の「AdaptationSet」に記述される情報が本来設定される、名前がelement_name であるelementを特定する情報としてのvalueを、<EssentialProperty schemeIdUri="urn:mpeg:dash:adaptaionset-reference:2015" value="element_name,value"/>と記述するように定義し、AdaptationSet特定情報とサムネイル画像特定情報の記述方法を共通化することもできる。
 この場合、AdaptationSet特定情報は、<EssentialProperty schemeIdUri="urn:mpeg:dash:adaptaionset-reference:2015" value="AdaptationSet,id"/>と記述される。また、サムネイル画像特定情報は、<EssentialProperty schemeIdUri="urn:mpeg:dash:adaptaionset-reference:2015" value="SubRepresentation,level"/>と記述される。
 (MPDファイルの第4の例)
 図12および図13は、モザイク画像250の画像ファイルに対応するMPDファイルの第4の例を示す図である。
 図12および図13のMPDファイルの構成は、主に、各サムネイル画像251乃至254のSRDが、共有用の「AdaptationSet」ではなく、4つのビットレートの符号化ストリームに対応する「AdaptationSet」に記述される点が、図11および図12の構成と異なっている。
 具体的には、図12および図13のMPDファイルでは、図12に示すように、4つのビットレートの符号化ストリームに対応する「AdaptationSet」に、その「AdaptationSet」内の全ての「Representation」に対応する符号化ストリームの間で共有する共有情報を記述する「ContentComponent」が4つ設けられる。
 各「ContentComponent」は、サムネイル画像251乃至254に設定された各levelに対応している。各「ContentComponent」には、対応するSRDが共有情報として記述されるとともに、サムネイル画像特定情報が記述される。
 また、図13に示すように、共有用の「AdaptationSet」には、SRDとサムネイル画像特定情報が設けられず、AdaptationSet特定情報の代わりに、共有用の「AdaptationSet」に記述される情報が共有される符号化ストリームに対応する「AdaptationSet」の「ContentComponent」を特定する情報(以下、ContentComponent特定情報という)が記述される。
 図12および図13の例では、サムネイル画像251に対応する共有用の「AdaptationSet」に記述されるContentComponent特定情報は、4つのビットレートの符号化ストリームに対応する「AdaptationSet」に付与されたID「1」と、サムネイル画像251のサムネイル画像特定情報が記述される「ContentComponent」に付与されたID「srd1」を表す<EssentialProperty schemeIdUri="urn:mpeg:dash:adaptaionset-index:2015" value="1,srd1"/>である。
 また、サムネイル画像252に対応する共有用の「AdaptationSet」に記述されるContentComponent特定情報は、サムネイル画像252のサムネイル画像特定情報が記述される「ContentComponent」に付与されたID「srd2」を表す<EssentialProperty schemeIdUri="urn:mpeg:dash:adaptaionset-index:2015" value="1,srd2"/>である。
 さらに、サムネイル画像253に対応する共有用の「AdaptationSet」に記述されるContentComponent特定情報は、サムネイル画像253のサムネイル画像特定情報が記述される「ContentComponent」に付与されたID「srd3」を表す<EssentialProperty schemeIdUri="urn:mpeg:dash:adaptaionset-index:2015" value="1,srd3"/>である。
 また、サムネイル画像254に対応する共有用の「AdaptationSet」に記述されるContentComponent特定情報は、サムネイル画像254のサムネイル画像特定情報が記述される「ContentComponent」に付与されたID「srd4」を表す<EssentialProperty schemeIdUri="urn:mpeg:dash:adaptaionset-index:2015" value="1,srd4"/>である。
 以上のように、図12および図13のMPDファイルでは、サムネイル画像251乃至254のSRDと動画のURLが共有情報として設定されるので、記述の冗長性がなくなる。
 動画再生端末14は、図12および図13のMPDファイルを取得したとき、「value=multiple」により共有情報が存在することを認識し、「value=multiple」が設定された「Adaptationset」のIDが記述される共有の「Adaptationset」から共有情報を抽出する。また、「value=multiple」が設定された「Adaptationset」に記述される「ContentComponent」から共有情報を抽出する。
 図12および図13のMPDファイルでは、動画のURLが共有用の「Adaptationset」に記述されるので、SRDは記述されず、動画のURLが共有用の「Adaptationset」に記述されるMPDファイルとの互換性が保たれる。
 (MPDファイルの第5の例)
 図14および図15は、モザイク画像250の画像ファイルに対応するMPDファイルの第5の例を示す図である。
 図14および図15のMPDファイルの構成は、主に、各サムネイル画像251乃至254に対応する動画のURLが、共有用の「AdaptationSet」ではなく、4つのビットレートの符号化ストリームに対応する「AdaptationSet」に記述される点が、図12および図13の構成と異なっている。
 具体的には、図14および図15のMPDファイルでは、図14に示すように、4つのビットレートの符号化ストリームに対応する「AdaptationSet」に設けられた各「ContentComponent」に、対応する動画のURLが記述される。また、共有用の「AdaptationSet」は記述されない。
 以上のように、図14および図15のMPDファイルでは、サムネイル画像251乃至254のSRDと動画のURLが共有情報として設定されるので、記述の冗長性がなくなる。
 動画再生端末14は、図14および図15のMPDファイルを取得したとき、「value=multiple」により共有情報が存在することを認識し、「value=multiple」が設定された「Adaptationset」記述される「ContentComponent」から共有情報を抽出する。
 なお、上述した説明では、サムネイル画像特定情報、AdaptationSet特定情報、およびContentComponent特定情報が、EssentialPropertyを用いて記述されたが、「AdaptaionSet」のelementとして記述されるようにしてもよい。
 この場合、図10および図11のMPDファイルは、図16および図17のMPDファイルになる。即ち、図16および図17に示すように、AdaptationSet特定情報が、共有用の「Adaptationset」の「associationID」として記述され、サムネイル画像特定情報が、共有用の「Adaptationset」の「associationLevel」として記述される。
 また、図12および図13のMPDファイルは、図18および図19のMPDファイルになる。即ち、図18および図19に示すように、ContentComponent特定情報のうちの、共有用の「AdaptationSet」に記述される情報が共有される符号化ストリームに対応する「AdaptationSet」を特定する情報が、その共有用の「Adaptationset」の「associationID」として記述される。また、共有用の「AdaptationSet」に記述される情報が共有される符号化ストリームに対応する「AdaptationSet」の「ContentComponent」を特定する情報が、その共有用の「Adaptationset」の「associationLevel」として記述される。
 なお、「Adaptationset」の要素として、「Adaptationset」のタイプを表すassociationTypeが記述されるようにしてもよい。この場合、「AdaptationSet」が、情報を共有するモザイク画像250の符号化ストリームに対応する「AdaptationSet」であることを表す情報や、「AdaptationSet」が各サムネイル画像に対応する共有用の「AdaptationSet」であることを表す情報が、associationTypeとして記述される。例えば、「AdaptationSet」が、情報を共有するモザイク画像250の符号化ストリームに対応する「AdaptationSet」である場合、associationTypeは「subs」にされる。
 また、上述した図6、図7、および図10乃至図19のMPDファイルでは、デコードや表示などにおいて各レベル間で依存関係がないものとしたが、依存関係がある場合には、各レベル間の依存関係を示す<EssentialProperty schemeIdUri="urn:mpeg:dash:subrepresentation-dependency:2015" value="level"/>が記述されてもよい。例えば、level2がlevel1に依存する場合、図12および図13のMPDファイルにおいて、level2に対応する、ID「srd2」が付与された「ContentComponent」に、<EssentialProperty schemeIdUri="urn:mpeg:dash:subrepresentation-dependency:2015" value="1"/>が記述される。
 (動画再生端末の機能的構成例)
 図20は、図1の動画再生端末14が制御用ソフトウエア21、動画再生ソフトウエア22、およびアクセス用ソフトウエア23を実行することにより実現されるストリーミング再生部の構成例を示すブロック図である。
 図20のストリーミング再生部290は、MPD取得部291、MPD処理部292、画像ファイル取得部293、デコーダ294、表示制御部295、受付部296、および動画取得部297により構成される。
 ストリーミング再生部290のMPD取得部291は、Webサーバ12からMPDファイルを取得し、MPD処理部292に供給する。
 MPD処理部292は、MPD取得部291から供給されるMPDファイルから再生対象のセグメントの画像ファイルのURL等の情報を抽出し、画像ファイル取得部293に供給する。また、MPD処理部292は、MPDファイルを動画取得部297に供給する。さらに、MPD処理部292は、MPDファイルから再生対象のセグメントのモザイク画像の各分割画像のSRDを抽出し、表示制御部295に供給する。
 画像ファイル取得部293は、MPD処理部292から供給されるURLで特定される画像ファイルの符号化ストリームを、Webサーバ12に要求し、取得する。画像ファイル取得部293は、取得された符号化ストリームをデコーダ294に供給する。
 デコーダ294は、画像ファイル取得部293から供給される符号化ストリームを復号する。デコーダ294は、復号の結果得られるモザイク画像を表示制御部295に供給する。
 表示制御部295(配置部)は、MPD処理部292から供給されるSRDに基づいて、デコーダ294から供給されるモザイク画像の各分割画像を画面上に配置する。また、表示制御部295は、各分割画像に配置された画面にカーソル等を重畳して、図示せぬ表示装置に供給し、表示させる。
 また、表示制御部295は、受付部296から供給される画面の所定の領域の拡大指示に応じて、モザイク画像が配置された画面のうちの、その領域に含まれるサムネイル画像のみからなる部分モザイク画像のサイズを、画面サイズに拡大する。そして、表示制御部295は、拡大された部分モザイク画像が配置された画面内の所定のサムネイル画像にカーソル等を重畳し、図示せぬ表示装置に供給して、表示させる。
 また、表示制御部295は、動画取得部297から供給される、表示中のサムネイル画像の1つに対応する動画を、図示せぬ表示装置に供給し、表示させる。
 受付部296は、ユーザ等からの指示を受け付け、その指示を動画取得部297または表示制御部295に供給する。
 動画取得部297は、受付部296から供給される所定の位置の指示に応じて、MPD処理部292から供給されるMPDファイルから、その位置に対応する動画のURLを取得する。動画取得部297は、取得されたURLに基づいて、Webサーバ12等から動画を取得し、表示制御部295に供給する。
 (再生処理の概要)
 図21は、ストリーミング再生部290による再生処理の概要を説明する図である。
 図21の左側に示すように、表示制御部295は、まず、画面に配置されたモザイク画像310を構成する4×4個のサムネイル画像311のうちの、所定のサムネイル画像311にカーソル312を重畳し、図示せぬ表示装置に表示させる。
 このとき、ユーザは、カーソル312が重畳されたモザイク画像310の画面を見ながら、所望の領域の拡大指示を行う。図21の例では、ユーザは、モザイク画像310が配置された画面の右上の2×2個のサムネイル画像311の領域の拡大指示を行っている。
 表示制御部295は、この拡大指示に応じて、モザイク画像310が配置された画面のうちの右上の2×2個のサムネイル画像311のみからなる部分モザイク画像313のサイズを、画面サイズに拡大する。そして、図21の中央に示すように、表示制御部295は、拡大された部分モザイク画像313が配置された画面内の所定のサムネイル画像311にカーソル314を重畳し、図示せぬ表示装置に表示させる。
 このとき、ユーザは、カーソル314を所望のサムネイル画像311に移動させ、ダブルタップ等の操作を行うことにより、カーソル314の位置を指示する。図21の例では、ユーザは、右上のサムネイル画像311の位置を指示している。
 動画取得部297は、その指示に応じて、MPDファイルから、指示された部分モザイク画像313上の位置に対応するモザイク画像310の画面上の位置を示すSRDに対応する動画のURLを、指示された位置に対応する動画のURLとして取得する。そして、動画取得部297は、取得されたURLに基づいて、Webサーバ12等から動画315を取得し、表示制御部295に供給する。これにより、図21の右側に示すように、表示制御部295は、動画315を図示せぬ表示装置に表示させる。
 (動画再生端末の処理の説明)
 図22は、図20のストリーミング再生部290の再生処理を説明するフローチャートである。
 図22のステップS211において、ストリーミング再生部290のMPD取得部291は、Webサーバ12からMPDファイルを取得し、MPD処理部292に供給する。
 ステップS212において、MPD処理部292は、MPD取得部291から供給されるMPDファイルか再生対象のセグメントの画像ファイルのURL等の情報を抽出し、画像ファイル取得部293に供給する。また、MPD処理部292は、MPDファイルを動画取得部297に供給する。さらに、MPD処理部292は、MPDファイルから再生対象のセグメントのモザイク画像の各分割画像のSRDを抽出し、表示制御部295に供給する。
 ステップS213において、画像ファイル取得部293は、MPD処理部292から供給されるURLに基づいて、そのURLで特定される画像ファイルの符号化ストリームを、Webサーバ12に要求し、取得する。画像ファイル取得部293は、取得された符号化ストリームをデコーダ294に供給する。
 ステップS214において、デコーダ294は、画像ファイル取得部293から供給される符号化ストリームを復号する。デコーダ294は、復号の結果得られるモザイク画像を表示制御部295に供給する。
 ステップS215において、表示制御部295は、MPD処理部292からのSRDに基づいて、デコーダ294からのモザイク画像の各分割画像を画面上に配置し、その画面にカーソル等を重畳して、図示せぬ表示装置に供給し、表示させる。
 ステップS216において、受付部296は、ユーザからの画面の所定の領域の拡大指示を受け付けたかどうかを判定する。ステップS216で画面の所定の領域の拡大指示を受け付けていないと判定された場合、受付部296は、画面の所定の領域の拡大指示を受け付けるまで待機する。
 一方、ステップS216で画面の所定の領域の拡大指示を受け付けたと判定された場合、受付部296は、その拡大指示を表示制御部295に供給する。そして、ステップS217において、表示制御部295は、受付部296から供給される拡大指示に応じて、モザイク画像が配置された画面のうちの、拡大指示された領域に含まれるサムネイル画像のみからなる部分モザイク画像のサイズを、画面サイズに拡大する。
 ステップS218において、表示制御部295は、拡大された部分モザイク画像が配置された画面内の所定のサムネイル画像にカーソル等を重畳し、図示せぬ表示装置に供給して、表示させる。このとき、ユーザは、カーソルを所望のサムネイル画像に移動させ、ダブルタップ等の操作を行うことにより、画面上のカーソルの位置を指示する。
 ステップS219において、受付部296は、ユーザからの画面上の位置の指示を受け付けたかどうかを判定する。ステップS219で画面上の位置の指示を受け付けていないと判定された場合、受付部296は、画面上の位置の指示を受け付けるまで待機する。
 一方、ステップS219で画面上の位置の指示を受け付けたと判定された場合、受付部296は、その指示を動画取得部297に供給する。そして、ステップS220において、動画取得部297は、受付部296から供給される指示に応じて、MPD処理部292から供給されるMPDファイルから、指示された位置に対応する動画のURLを取得する。
 ステップS221において、動画取得部297は、取得されたURLに基づいて、Webサーバ12等から動画を取得し、表示制御部295に供給する。
 ステップS222において、表示制御部295は、動画取得部297から供給される動画を、図示せぬ表示装置に供給し、表示させる。そして、処理は終了する。
 なお、第1実施の形態では、モザイク画像の表示後に部分モザイク画像が表示され、ユーザにより部分モザイク画像上の位置が指示されるようにしたが、部分モザイク画像は表示されず、モザイク画像上の位置が直接ユーザにより指示されるようにしてもよい。
 また、上述した説明では、MPDファイルにおいて、各サムネイル画像のSRDに対応付けて、そのサムネイル画像に対応する動画(本編)のURLが記述されたが、各サムネイル画像のSRDに対応付けて記述される情報は、これに限定されない。
 例えば、各サムネイル画像のSRDに対応付けて、そのサムネイル画像をピクチャインピクチャ表示する際に重畳される画像ファイルの情報が記述されるようにしてもよい。この場合、サムネイル画像をピクチャインピクチャ表示する際に重畳される画像ファイルの情報としては、例えば、<SupplementalProperty schemeIdUri="urn:mpeg:dash:srd-composition:2014" value=“source_url"/>が記述される。source_urlは、サムネイル画像に重畳される画像ファイルを管理する外部のMPDファイルまたは内部のMPDファイルのAdaptationSetを特定するための情報である。
 また、各サムネイル画像のSRDに対応付けて、そのサムネイル画像の種類(意味)を示す情報が記述されるようにしてもよい。この場合、例えば、サムネイル画像がピクチャインピクチャ表示される画像であることを示す情報として、例えば、<SupplementalProperty schemeIdUri="urn:mpeg:dash:srd-role:2014" value=“pinp"/>が記述される。これにより、動画再生端末は、サムネイル画像がピクチャインピクチャ表示される画像であることを、文字やアイコンなどでユーザに提示することができる。
 さらに、各サムネイル画像のSRDに対応付けて、上述したサムネイル画像に対応する動画のURL、サムネイル画像をピクチャインピクチャ表示する際に重畳される画像ファイルの情報、およびサムネイル画像の種類を示す情報の全てが記述されるようにしてもよい。この場合、各サムネイル画像に対応して、そのサムネイル画像がピクチャインピクチャ表示される画像であることを示す文字やアイコンが表示されるとともに、各サムネイル画像に所定の画像が重畳されてピクチャインピクチャ表示され、ユーザによりモザイク画像上の位置が指示されると、その位置に表示されているサムネイル画像に対応する動画が再生される。
 なお、サムネイル画像に対応する動画のURL、サムネイル画像をピクチャインピクチャ表示する際に重畳される画像ファイルの情報、およびサムネイル画像の種類を示す情報は、SRDとは別のpropertyで記述されてもよいし、フラグとして、拡張されたSRDのpropertyに記述されるようにしてもよい。
 <第2実施の形態>
 (本開示を適用したコンピュータの説明)
 上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
 図23は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
 コンピュータ900において、CPU(Central Processing Unit)901,ROM(Read Only Memory)902,RAM(Random Access Memory)903は、バス904により相互に接続されている。
 バス904には、さらに、入出力インタフェース905が接続されている。入出力インタフェース905には、入力部906、出力部907、記憶部908、通信部909、及びドライブ910が接続されている。
 入力部906は、キーボード、マウス、マイクロフォンなどよりなる。出力部907は、ディスプレイ、スピーカなどよりなる。記憶部908は、ハードディスクや不揮発性のメモリなどよりなる。通信部909は、ネットワークインタフェースなどよりなる。ドライブ910は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア911を駆動する。
 以上のように構成されるコンピュータ900では、CPU901が、例えば、記憶部908に記憶されているプログラムを、入出力インタフェース905及びバス904を介して、RAM903にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ900(CPU901)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア911に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータ900では、プログラムは、リムーバブルメディア911をドライブ910に装着することにより、入出力インタフェース905を介して、記憶部908にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部909で受信し、記憶部908にインストールすることができる。その他、プログラムは、ROM902や記憶部908に、あらかじめインストールしておくことができる。
 なお、コンピュータ900が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 また、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
 なお、本開示は、以下のような構成もとることができる。
 (1)
 所定のビットレートの符号化ストリームに対応するRepresentationを複数含む第1のAdaptationSetと、Representationを含まない第2のAdaptationSetとを設定する設定部
 を備える情報処理装置。
 (2)
 前記設定部は、前記第1のAdaptationSetと前記第2のAdaptationSetとが関連することを示す情報を前記第2のAdaptationSetに含める
 ように構成された
 前記(1)に記載の情報処理装置。
 (3)
 前記設定部は、前記第1のAdaptationSetと前記第2のAdaptationSetを、前記符号化ストリームのファイルを管理する管理ファイルに設定する
 ように構成された
 前記(1)または(2)に記載の情報処理装置。
 (4)
 前記第1のAdaptationSetに含まれる複数のRepresentationに対応する符号化ストリームは、ビットレートの異なる同一の画像の符号化ストリームであり、
 前記設定部は、前記画像を構成する複数の分割画像それぞれの画面上の位置を、前記第2のAdaptationSetに含める
 ように構成された
 前記(1)乃至(3)のいずれかに記載の情報処理装置。
 (5)
 前記設定部は、各分割画像に対応するファイルの取得先を前記第2のAdaptationSetに含める
 ように構成された
 前記(4)に記載の情報処理装置。
 (6)
 前記設定部は、各分割画像の前記画面上の位置を、それぞれ異なる前記第2のAdaptationSetの情報に含める
 ように構成された
 前記(4)に記載の情報処理装置。
 (7)
 前記設定部は、各分割画像に対応するファイルの取得先を、その分割画像の画面上の位置を含む前記第2のAdaptationSetに含める
 ように構成された
 前記(6)に記載の情報処理装置。
 (8)
 前記設定部は、前記第2のAdaptationSetに、その第2のAdaptationSetに対応する分割画像を特定する情報を含める
 ように構成された
 前記(6)または(7)に記載の情報処理装置。
 (9)
 前記設定部は、前記第1のAdaptationSetに前記第1のAdaptationSetを表す情報を含め、前記第2のAdaptationSetに前記第2のAdaptationSetを表す情報を含める
 ように構成された
 前記(1)乃至(8)のいずれかに記載の情報処理装置。
 (10)
 前記第1のAdaptationSetに含まれる複数のRepresentationに対応する符号化ストリームは、ビットレートの異なる同一の画像の符号化ストリームであり、
 前記設定部は、前記画像を構成する複数の分割画像それぞれの画面上の位置を、Content Componentの情報として前記第1のAdaptationSetに含める
 ように構成された
 前記(1)乃至(3)のいずれかに記載の情報処理装置。
 (11)
 前記設定部は、前記分割画像に対応するファイルの取得先を前記Content Componentの情報として前記第1のAdaptationSetに含める
 ように構成された
 前記(10)に記載の情報処理装置。
 (12)
 情報処理装置が、
 所定のビットレートの符号化ストリームに対応するRepresentationを複数含む第1のAdaptationSetと、Representationを含まない第2のAdaptationSetとを設定する設定ステップ
 を含む情報処理方法。
 (13)
 所定のビットレートの符号化ストリームに対応するRepresentationを複数含む第1のAdaptationSetと、Representationを含まない第2のAdaptationSetとに基づいて、前記符号化ストリームを再生する再生部
 を備える情報処理装置。
 (14)
 情報処理装置が、
 所定のビットレートの符号化ストリームに対応するRepresentationを複数含む第1のAdaptationSetと、Representationを含まない第2のAdaptationSetとに基づいて、前記符号化ストリームを再生する再生ステップ
 を含む情報処理方法。
 14 動画再生端末, 211 ファイル生成装置, 250 モザイク画像, 251乃至254 サムネイル画像, 270 画面, 295 表示制御部

Claims (14)

  1.  所定のビットレートの符号化ストリームに対応するRepresentationを複数含む第1のAdaptationSetと、Representationを含まない第2のAdaptationSetとを設定する設定部
     を備える情報処理装置。
  2.  前記設定部は、前記第1のAdaptationSetと前記第2のAdaptationSetとが関連することを示す情報を前記第2のAdaptationSetに含める
     ように構成された
     請求項1に記載の情報処理装置。
  3.  前記設定部は、前記第1のAdaptationSetと前記第2のAdaptationSetを、前記符号化ストリームのファイルを管理する管理ファイルに設定する
     ように構成された
     請求項1に記載の情報処理装置。
  4.  前記第1のAdaptationSetに含まれる複数のRepresentationに対応する符号化ストリームは、ビットレートの異なる同一の画像の符号化ストリームであり、
     前記設定部は、前記画像を構成する複数の分割画像それぞれの画面上の位置を、前記第2のAdaptationSetに含める
     ように構成された
     請求項1に記載の情報処理装置。
  5.  前記設定部は、各分割画像に対応するファイルの取得先を前記第2のAdaptationSetに含める
     ように構成された
     請求項4に記載の情報処理装置。
  6.  前記設定部は、各分割画像の前記画面上の位置を、それぞれ異なる前記第2のAdaptationSetの情報に含める
     ように構成された
     請求項4に記載の情報処理装置。
  7.  前記設定部は、各分割画像に対応するファイルの取得先を、その分割画像の画面上の位置を含む前記第2のAdaptationSetに含める
     ように構成された
     請求項6に記載の情報処理装置。
  8.  前記設定部は、前記第2のAdaptationSetに、その第2のAdaptationSetに対応する分割画像を特定する情報を含める
     ように構成された
     請求項6に記載の情報処理装置。
  9.  前記設定部は、前記第1のAdaptationSetに前記第1のAdaptationSetを表す情報を含め、前記第2のAdaptationSetに前記第2のAdaptationSetを表す情報を含める
     ように構成された
     請求項1に記載の情報処理装置。
  10.  前記第1のAdaptationSetに含まれる複数のRepresentationに対応する符号化ストリームは、ビットレートの異なる同一の画像の符号化ストリームであり、
     前記設定部は、前記画像を構成する複数の分割画像それぞれの画面上の位置を、Content Componentの情報として前記第1のAdaptationSetに含める
     ように構成された
     請求項1に記載の情報処理装置。
  11.  前記設定部は、前記分割画像に対応するファイルの取得先を前記Content Componentの情報として前記第1のAdaptationSetに含める
     ように構成された
     請求項10に記載の情報処理装置。
  12.  情報処理装置が、
     所定のビットレートの符号化ストリームに対応するRepresentationを複数含む第1のAdaptationSetと、Representationを含まない第2のAdaptationSetとを設定する設定ステップ
     を含む情報処理方法。
  13.  所定のビットレートの符号化ストリームに対応するRepresentationを複数含む第1のAdaptationSetと、Representationを含まない第2のAdaptationSetとに基づいて、前記符号化ストリームを再生する再生部
     を備える情報処理装置。
  14.  情報処理装置が、
     所定のビットレートの符号化ストリームに対応するRepresentationを複数含む第1のAdaptationSetと、Representationを含まない第2のAdaptationSetとに基づいて、前記符号化ストリームを再生する再生ステップ
     を含む情報処理方法。
PCT/JP2016/065867 2015-06-12 2016-05-30 情報処理装置および情報処理方法 WO2016199609A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
EP16807316.1A EP3310062A4 (en) 2015-06-12 2016-05-30 Information processing device and information processing method
SG11201710051QA SG11201710051QA (en) 2015-06-12 2016-05-30 Information Processing Apparatus And Information Processing Method
US15/564,823 US20180109585A1 (en) 2015-06-12 2016-05-30 Information processing apparatus and information processing method
CN201680032874.2A CN107710768A (zh) 2015-06-12 2016-05-30 信息处理设备和信息处理方法
AU2016274732A AU2016274732A1 (en) 2015-06-12 2016-05-30 Information processing device and information processing method
BR112017026175A BR112017026175A2 (pt) 2015-06-12 2016-05-30 aparelho e método de processamento de informação.
JP2017523586A JPWO2016199609A1 (ja) 2015-06-12 2016-05-30 情報処理装置および情報処理方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2015-119362 2015-06-12
JP2015119362 2015-06-12
JP2015125915 2015-06-23
JP2015-125915 2015-06-23

Publications (1)

Publication Number Publication Date
WO2016199609A1 true WO2016199609A1 (ja) 2016-12-15

Family

ID=57503916

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/065867 WO2016199609A1 (ja) 2015-06-12 2016-05-30 情報処理装置および情報処理方法

Country Status (8)

Country Link
US (1) US20180109585A1 (ja)
EP (1) EP3310062A4 (ja)
JP (1) JPWO2016199609A1 (ja)
CN (1) CN107710768A (ja)
AU (1) AU2016274732A1 (ja)
BR (1) BR112017026175A2 (ja)
SG (1) SG11201710051QA (ja)
WO (1) WO2016199609A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11722751B2 (en) 2020-01-07 2023-08-08 Nokia Technologies Oy Method, an apparatus and a computer program product for video encoding and video decoding

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114071028B (zh) * 2020-07-30 2023-06-06 抖音视界有限公司 视频生成及播放方法、装置、电子设备及存储介质
WO2023049916A1 (en) * 2021-09-27 2023-03-30 Bytedance Inc. Method, device, and medium for video processing

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014012015A2 (en) * 2012-07-13 2014-01-16 Vid Scale, Inc. Operation and architecture for dash streaming clients
US9125073B2 (en) * 2012-08-03 2015-09-01 Intel Corporation Quality-aware adaptive streaming over hypertext transfer protocol using quality attributes in manifest file
GB2513140B (en) * 2013-04-16 2016-05-04 Canon Kk Methods, devices, and computer programs for streaming partitioned timed media data
US9807452B2 (en) * 2013-10-07 2017-10-31 Samsung Electronics Co., Ltd. Practical delivery of high quality video using dynamic adaptive hypertext transport protocol (HTTP) streaming (DASH) without using HTTP in a broadcast network

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"Information technology - Dynamic adaptive streaming over HTTP (DASH) - Part 1: Media presentation description and segment formats", INTERNATIONAL STANDARD ISO/IEC 23009-1, 15 May 2014 (2014-05-15), pages 32 - 33, XP055214031 *
"Qualcomm Incorporated, eDASH: Mosaic Channel in MPEG", 3GPP TSG-SA WG4#83, 17 April 2015 (2015-04-17), pages 4 - 150419, Retrieved from the Internet <URL:http://www.3gpp.org/ftp/tsg_sa/WG4_CODEC/TsGs483/Docs/S4-150419.zip(S4-150419_MOSAIC.doc> [retrieved on 20150907] *
See also references of EP3310062A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11722751B2 (en) 2020-01-07 2023-08-08 Nokia Technologies Oy Method, an apparatus and a computer program product for video encoding and video decoding

Also Published As

Publication number Publication date
BR112017026175A2 (pt) 2018-08-14
EP3310062A4 (en) 2018-12-12
AU2016274732A1 (en) 2017-11-23
SG11201710051QA (en) 2018-01-30
EP3310062A1 (en) 2018-04-18
US20180109585A1 (en) 2018-04-19
CN107710768A (zh) 2018-02-16
JPWO2016199609A1 (ja) 2018-03-29

Similar Documents

Publication Publication Date Title
US20210326378A1 (en) Information processing apparatus and information processing method
US9478256B1 (en) Video editing processor for video cloud server
JP5866125B2 (ja) ケーブルテレビシステムを使用したビデオ装置間のデジタルビデオストリーミング
JP6807032B2 (ja) 情報処理装置および情報処理方法
US20180176650A1 (en) Information processing apparatus and information processing method
JP6459006B2 (ja) 情報処理装置および情報処理方法
JP6555263B2 (ja) 情報処理装置および方法
WO2016002513A1 (ja) 情報処理装置および方法
WO2014112416A1 (ja) 映像供給装置、映像取得装置、およびプログラム
KR101821124B1 (ko) 웹브라우저 상에서 미디어 스트림을 재생하는 방법 및 장치
WO2016199609A1 (ja) 情報処理装置および情報処理方法
JP2022019932A (ja) 情報処理装置および情報処理方法
JP4325697B2 (ja) 画像処理システム、画像処理装置、画像処理方法、およびプログラム
JP2018074349A (ja) 映像処理装置、映像処理方法および映像処理プログラム
WO2020050058A1 (ja) コンテンツ配信システムおよびコンテンツ配信方法、並びにプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16807316

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15564823

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2016807316

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2017523586

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2016274732

Country of ref document: AU

Date of ref document: 20160530

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 11201710051Q

Country of ref document: SG

NENP Non-entry into the national phase

Ref country code: DE

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112017026175

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 112017026175

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20171205