WO2018186272A1 - 再生装置、生成装置、再生システム、プログラム、記録媒体及び再生方法 - Google Patents

再生装置、生成装置、再生システム、プログラム、記録媒体及び再生方法 Download PDF

Info

Publication number
WO2018186272A1
WO2018186272A1 PCT/JP2018/012999 JP2018012999W WO2018186272A1 WO 2018186272 A1 WO2018186272 A1 WO 2018186272A1 JP 2018012999 W JP2018012999 W JP 2018012999W WO 2018186272 A1 WO2018186272 A1 WO 2018186272A1
Authority
WO
WIPO (PCT)
Prior art keywords
metadata
partial video
resource position
video data
playback
Prior art date
Application number
PCT/JP2018/012999
Other languages
English (en)
French (fr)
Inventor
徳毛 靖昭
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to US16/499,648 priority Critical patent/US20200045359A1/en
Publication of WO2018186272A1 publication Critical patent/WO2018186272A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21815Source of audio or video content, e.g. local disk arrays comprising local storage units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/262Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
    • H04N21/26258Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists for generating a list of items to be played back in a given order, e.g. playlist, or scheduling item distribution according to such list
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8455Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/858Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
    • H04N21/8586Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot by using a URL
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/268Signal distribution or switching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments

Definitions

  • the present invention relates to a playback device, a generation device, a playback system, a program, a recording medium, and a generation method.
  • Such a technique includes a technique using a camera capable of photographing in all directions, or a technique of photographing with a plurality of cameras and connecting captured images of the cameras.
  • Patent Document 1 discloses a technique for converting a captured image into a viewpoint conversion image based on images captured by a plurality of cameras and position information, and generating a video viewed from a predetermined virtual viewpoint.
  • DASH Dynamic Adaptive Streaming Over HTTP
  • MPEG Motion Picture Experts Group
  • MPD Media Presentation Description
  • JP 2013-106324 A (published on May 30, 2013)
  • the present invention is based on the above-described problems, and an object of the present invention is to realize a technique for generating and transmitting metadata relating to the omnidirectional video and reproducing the omnidirectional video based on the metadata.
  • a playback device that plays back content data that is time-divided into a plurality of time-sharing data, and the plurality of time-sharing data includes: Of the partial video data constituting the omnidirectional video, one or a plurality of partial video data groups each including partial video data in at least one of the viewpoint and the line-of-sight direction are included.
  • a first acquisition unit that acquires metadata including a plurality of resource position specifier groups configured from resource position specifiers that specify the location of each partial video data included in the plurality of partial video data groups;
  • a second acquisition unit that acquires each partial video data from a location indicated by the data, and a reproduction unit that reproduces a partial video indicated by each partial video data acquired by the second acquisition unit.
  • a generation device generates a metadata that is referred to by a playback device that plays back content data that is time-divided into a plurality of time-sharing data.
  • the plurality of time-sharing data includes one or a plurality of partial video data groups composed of partial video data for each of at least one of the viewpoint and the line-of-sight direction among the partial video data constituting the omnidirectional video.
  • the generation apparatus generates metadata including a plurality of resource position specifier groups each including a resource position specifier that specifies the location of each partial video data included in the one or more partial video data groups.
  • a metadata generation unit is provided.
  • a playback system is a playback system that plays back content data that is time-divided into a plurality of time-sharing data, and the plurality of time-sharing data. Includes one or more partial video data groups composed of partial video data for each of at least one of the viewpoint and the line-of-sight direction among the partial video data constituting the omnidirectional video, A metadata generation unit that generates metadata including a plurality of resource position specifier groups that specify a resource position specifier that is a location of each partial video data included in the partial video data group, and the one or more partial video data A first acquisition unit that acquires metadata including a plurality of resource position specifier groups configured of resource position specifiers that specify the location of each partial video data included in the group; A second acquisition unit that acquires the partial image data from the location indicated by the data, and a reproducing unit for reproducing the partial image shown by the respective partial image data which the second acquisition unit has acquired.
  • a playback method provides a playback method for playing back content data that is time-divided into a plurality of time-sharing data, and the plurality of time-sharing data includes: Among the partial video data constituting the omnidirectional video, one or a plurality of partial video data groups each including partial video data in at least one of the viewpoint and the line-of-sight direction are included.
  • FIG. 1 is a diagram illustrating a playback system 1 according to the present embodiment
  • FIG. 2 is a diagram illustrating an overall configuration of the playback system 1 according to the present embodiment.
  • the playback system 1 is a system including a playback device 100, a generation device 300, and a network storage server (NAS) 400. Further, the playback device 100 and the generation device 300 are connected to the Internet NW.
  • NAS network storage server
  • the playback device 100 the generation device 300, and the NAS 400 will be described.
  • the playback device 100 plays back content data that is time-divided into a plurality of time-sharing data.
  • the playback device 100 configures the omnidirectional video and plays back each partial video indicated by the partial video data included in the time division data for a predetermined period.
  • the playback apparatus 100 includes a control unit 110, a playback unit 120, a storage unit 130, a network I / F 140, a display unit 150, and an operation unit 160.
  • the playback device 100 may include a display unit that displays a partial video played back by the playback unit 120 described later.
  • the head mounted display can include the playback device 100 and the played back partial video can be presented to the user via the display unit 150.
  • the playback unit 120 may supply the partial video data to be played back to the display unit 150 provided separately from the playback device 100.
  • the head-mounted display can include the display unit 150, and the reproduced partial video can be presented to the user via the display unit 150.
  • Control unit 110 When receiving a partial video playback instruction from the user via the operation unit 160, the control unit 110 receives metadata related to the partial video to be played back from the generation device 300. The control unit 110 refers to the metadata and specifies a resource position specifier for reproducing the partial video. The control unit 110 causes the playback unit 120 to play back the partial video by referring to the playback period and the resource position specifier.
  • control unit 110 can reproduce the omnidirectional video based on the metadata regarding the omnidirectional video.
  • examples of the partial video include a media segment defined by DASH (Dynamic Adaptive Streaming over HTTP).
  • DASH-defined MPD Media ⁇ ⁇ ⁇ PresentationDescription
  • the resource location specifier can include a URL of a media segment.
  • Each resource location specifier group can include each Adaptation Set defined by DASH.
  • control unit 110 functions as a first acquisition unit 1100 and a second acquisition unit 1110.
  • the first acquisition unit 1100 acquires metadata including a plurality of resource position specifier groups configured from resource position specifiers that specify the location of each partial video data.
  • the first acquisition unit 1100 will be described more specifically with reference to FIG.
  • FIG. 3 is a diagram illustrating an example of metadata included in content data to be played back by the playback system 1 according to the first embodiment of the present invention.
  • the MPD data 5 includes at least time-division data period 5a from time t1 to t2, and time-division data period 5b from time t2 to t3.
  • Period 5a and Period 5b include partial video data groups for each viewpoint and line-of-sight direction among the partial video data.
  • the partial video data group includes a plurality of AdaptationSets (resource location specifier groups) 50a, 51a, 50b, 51b, 55b, and 59b, each of which includes a resource location designator (URL) that designates the location of each partial video data. include.
  • the line-of-sight directions of the segment data indicated by the URL (resource location specifier) of the Segment included in the AdaptationSets 50a and 51a are different from each other in the Period 5a.
  • Period 5b at least one of the viewpoint and the line-of-sight direction of the segment data indicated by the URL (resource location specifier) of the Segment included in AdaptationSet 50b, 51b, 55b, and 59b is different from each other.
  • any resource position specifier group corresponds to the same viewpoint or the same line-of-sight direction as the resource position specifiers of other resource position specifier groups. Does not contain a position specifier.
  • the playback device 100 of the playback system 1 plays back the partial video in the free viewing mode (first playback mode) in which the user freely switches the viewpoint or line of sight while moving. Can do.
  • the second acquisition unit 1110 acquires each partial video data from the location indicated by the metadata.
  • the second acquisition unit 1110 first detects the position and line-of-sight direction of the user in the virtual space coordinate system.
  • the position of the user can be detected by known position information acquisition means such as various sensors and GPS.
  • the second acquisition unit 1110 identifies a viewpoint determined by the position of the user.
  • the user's line-of-sight direction can be detected by a post-acceleration sensor or the like provided in the head mounted display.
  • the second acquisition unit 1110 selects a resource position specifier group corresponding to the user's viewpoint and line-of-sight direction from one or a plurality of resource position specifier groups.
  • the second acquisition unit 1110 sequentially acquires resource position specifiers (URLs) including information on viewpoints and line-of-sight directions corresponding to the user's position and line-of-sight direction by referring to the resource position specifier group. be able to.
  • the second acquisition unit 1110 can acquire partial video data based on the viewpoint and line-of-sight direction corresponding to the user's position and line-of-sight direction with reference to the URL.
  • the reproduction unit 120 reproduces a partial video indicated by each partial video data acquired by the second acquisition unit 1110.
  • the playback unit 120 plays back the partial video indicated by the partial video data 5000a, 5000n, 5100a, 5100n, etc. from time t1 to t2.
  • the partial video data from t1 to t2 is segment data of the first to kth segments in the viewpoint P1 line-of-sight direction D0 of the 360 video V1, and the viewpoint P1 line-of-sight direction Dn. is there.
  • 360 video means a celestial sphere image viewed from a certain viewpoint in a virtual space.
  • the playback unit 120 plays the 360 video V1 when viewing the line-of-sight directions D0 to Dn from the viewpoint P1 in the virtual space at time t1 to t2.
  • the playback unit 120 plays back the partial video in the free viewing mode.
  • each adaptation set at times t1 to t2 is assigned to partial video data with different line-of-sight directions (D0 to Dn) at the viewpoint P1.
  • partial video data having different viewpoints (P1_1 to P1_9) or line-of-sight directions (D0 to Dn) are assigned to the respective AdaptationSets at times t2 to t3.
  • the playback unit 120 plays the 360 video V1 when viewing the different gaze direction from the viewpoint P1, so as to respond to the change in the gaze direction of the user. Reproduce.
  • the playback unit 120 can cause the user to view a video looking around 360 ° from the viewpoint P1.
  • the reproducing unit 120 reproduces the partial video indicated by the partial video data 5000b, 5100b, 5500b, 5900b, etc. from time t2 to t3.
  • the partial video data in t2 to t3 are the viewpoint 3601 viewing direction D0 of extended 360 video,... Viewing point P1_1 viewing direction Dn,... Viewing point P1_5 viewing direction D0,.
  • the segment data of the first to kth segments in the viewpoint P1_9 line-of-sight direction Dn.
  • the extended 360 video means a celestial sphere image that is viewed from a viewpoint within a predetermined range based on one point in the virtual space.
  • the playback unit 120 plays back the extended 360 video V1 when viewing the line-of-sight directions D0 to Dn from the viewpoints P1_1 to P1_9 within a predetermined range with respect to the viewpoint P1 at the times t2 to t3. To do.
  • the playback unit 120 can cause the user to view a video looking around 360 ° from the viewpoints P1_1 to P1_9.
  • the playback unit 120 can play back a slight change in the viewpoint of the user by reflecting the change in the partial video. Therefore, the playback system 1 can improve the reality when the user views the extended 360 video V1 while wearing the head mounted display.
  • the playback unit 120 can provide partial videos from various angles to the user who views the extended 360 video V1. Details of the viewpoint and the line-of-sight direction will be described later.
  • the storage unit 130 buffers partial video data (segment data) indicated by each resource position specifier that specifies the location of the partial video data to be played back, and stores metadata related to the partial video data to be played back. It is a medium.
  • Network I / F 140 The network I / F 140 transmits / receives data to / from the generation apparatus 300.
  • the display unit 150 is a display that displays a partial video to be reproduced.
  • the operation unit 160 is an operation panel for the user to give instructions to the playback device 100.
  • the generation apparatus 300 generates metadata that is referred to by the reproduction apparatus 100 that reproduces content data that is time-divided into a plurality of time-division data and distributes the metadata to the reproduction apparatus 100.
  • the generation device 300 includes a distribution unit 310, a metadata generation unit 320, and a parameter generation unit 330.
  • Distribution unit 310 Upon receiving a metadata request from the playback device 100, the distribution unit 310 distributes the latest metadata recorded in the NAS 400 to the playback device 100 at that time.
  • the distribution unit 310 can transmit metadata regarding the omnidirectional video.
  • the metadata generation unit 320 generates metadata including a plurality of resource position specifier groups configured from resource position specifiers that specify the location of each partial video data.
  • the metadata generation unit 320 generates MPD data 5 including a plurality of AdaptationSets 50a, 51a, 50b, 51b, 55b, and 59b in FIG.
  • the metadata generation unit 320 can generate metadata regarding the omnidirectional video.
  • the metadata generation unit 320 generates metadata indicating which partial video of the 360 video and the extended 360 video V1.
  • the metadata generation unit 320 distributes metadata generated using these to the playback device 100. By receiving and referring to the metadata, the playback device 100 can play back while switching the viewpoint and line-of-sight direction of 360 video or extended 360 video for each period. For example, as illustrated in FIG. 3, the metadata generation unit 320 can generate time-division data Period 5a related to 360 video and time-division data Period 5b related to extended 360 video.
  • the metadata generation unit 320 views the metadata in the free viewing mode in which the user freely switches the viewpoint or line-of-sight direction while moving, or the video of the viewpoint recommended by the content creator without moving. Generate metadata for the recommended viewing mode.
  • the metadata generation unit 320 uses a resource position specifier (URL) indicating the parameter group regarding the free viewpoint and the free line-of-sight direction generated by the parameter generation unit 330 and the partial video data.
  • URL resource position specifier
  • the metadata generation unit 320 includes a resource group designator (URL) indicating the parameter group regarding the recommended viewpoint and the recommended line-of-sight direction generated by the parameter generation unit 330, and the partial video data.
  • the parameter generation unit 330 generates various parameters referred to by the metadata generation unit 320 to generate metadata.
  • the parameter generation unit 330 generates a parameter group related to the viewpoint and the line-of-sight direction for each AdaptationSet shown in FIG. Thereby, as shown in FIG. 3, the metadata generation unit 320 can add parameters regarding the viewpoint and line-of-sight direction generated by the parameter generation unit 330 to the metadata (MPD data).
  • the NAS 400 is a network storage that holds metadata and each partial video data.
  • the playback system 1 when the free viewing mode is always set, the playback system 1 generates and transmits metadata regarding the omnidirectional video, and reproduces the omnidirectional video based on the metadata.
  • the present embodiment is not limited to this. Even when the playback system 1 is always in the recommended viewing mode (second playback mode), it is possible to generate and transmit metadata related to the omnidirectional video and reproduce the omnidirectional video based on the metadata. .
  • the recommended viewing mode is a viewing mode in which the user views the video of the viewpoint recommended by the content creator without moving, and among a plurality of resource position specifier groups, there is a certain resource position specifier group.
  • the resource position specifiers corresponding to the same viewpoint or the same line-of-sight direction as the resource position specifiers included in the other resource position specifier groups are included.
  • FIG. 4 is a diagram illustrating an example of metadata included in content data to be played back by the playback system 1 according to the first embodiment of the present invention.
  • Segment 500a in AdaptationSet 50a and Segment 510a in AdaptationSet 51a are both associated with partial video data (segment data) 5000a that is the first segment in viewpoint P1 line-of-sight direction D0.
  • the Segment 500n in the AdaptationSet 50a and the Segment 510n in the AdaptationSet 51a are both associated with the partial video data (segment data) 5000n that is the k-th segment in the viewpoint P1 line-of-sight direction D0.
  • Segment 500b in AdaptationSet 50b, Segment 510b in AdaptationSet 51b, Segment 550b in AdaptationSet 55b, and Segment 590b in AdaptationSet 59b all correspond to partial video data (segment data) 5500b that is the first segment in viewpoint P1_5 line-of-sight direction D0. It is attached.
  • the Segment and the partial video data are associated with each other in a many-to-one relationship.
  • the viewpoint and line-of-sight direction recommended by the content creator can be obtained by using the metadata as described above.
  • the user can view the video. Even if the user does not move, the playback device 100 of the playback system 1 can allow the user to view the video from the viewpoint and the line-of-sight direction recommended by the content creator.
  • Supplementary Descriptors 501a and 551b are added to the AdaptationSets 50a and 55b in FIG.
  • SupplementalDescriptor 501a and 551b include a group of parameters related to the viewpoint P1 line-of-sight direction D0 and viewpoint P1_5 line-of-sight direction D0, which are the recommended viewpoint and line-of-sight direction, respectively.
  • the SupplementalDescriptor included in the AdaptationSet includes a parameter group related to the recommended viewpoint and line-of-sight direction.
  • EssentialDescriptors 511a, 501b, 511b and 591b are added to the AdaptationSets 51a, 50b, 51b and 59b in FIG.
  • the EssentialDescriptors 511a, 501b, 511b, and 591b include parameter groups related to the viewpoint P1 line-of-sight direction Dn, the viewpoint P1_1 line-of-sight direction D0, the viewpoint P1_1 line-of-sight direction Dn, and the viewpoint P1_9 line-of-sight direction Dn, respectively.
  • the EssentialDescriptor included in the AdaptationSet includes, for example, a parameter group related to other than the recommended viewpoint and line-of-sight direction.
  • Such SupplementalDescriptor and EssentialDescriptor are generated by the parameter generation unit 330 of the generation device 300.
  • the metadata generation unit 320 adds SupplementalDescriptor and EssentialDescriptor data to the generated metadata. For example, as illustrated in FIG. 4, the metadata generation unit 320 distributes metadata to which the Supplemental Descriptor or Essential Descriptor information is assigned to the playback apparatus 100 for each AdaptationSet.
  • the first acquisition unit 1100 of the playback apparatus 100 acquires a parameter group related to the recommended viewpoint and line-of-sight direction and a resource location specifier (URL) indicating partial video data from the SupplementDescriptors 501a and 551b. Also, the first acquisition unit 1100 acquires a parameter group related to viewpoints and line-of-sight directions other than the recommended viewpoint and line-of-sight direction, and a resource position specifier (URL) indicating partial video data from the EssentialDescriptors 511a, 501b, 511b, and 591b. To do.
  • each partial video data acquired by the second acquisition unit 1110 is as shown in FIG. That is, with respect to Period 5a, partial video data 5000a to 5000n that are the k-th segment from the first segment in the viewpoint P1 line-of-sight direction D0 are obtained.
  • Period 5b partial video data after partial video data 5500b, which is the first segment in the viewpoint P1_5 line-of-sight direction D0, is obtained.
  • the AdaptationSet to which the above-described SupplementalDescriptor is added can be used even in a device that does not support 360 video and a device that does not support extended 360 video. That is, by referring to the AdaptationSet to which the SupplementalDescriptor is added, even in a device that does not support 360 video or extended 360 video, etc., a parameter group relating to the recommended viewpoint and line-of-sight direction, and a resource location specifier (URL) indicating partial video data are set. Can be acquired. As a result, even a 360 video incompatible device or the like can suitably reproduce the video in the viewpoint and line-of-sight direction recommended by the content creator.
  • the metadata relating to the viewpoint and line-of-sight direction used when the recommended viewing mode is selected is not limited to the above-described SupplementalDescriptor and EssentialDescriptor. As long as the recommended viewing mode as described above can be realized, the playback system 1 can use metadata regarding an arbitrary viewpoint and line-of-sight direction.
  • FIG. 5 is a diagram for explaining an example of partial video playback using MPD data in the recommended viewing mode of the playback system 1.
  • FIG. 5 is a diagram for explaining a partial video that is played back when the playback system 1 refers to the MPD data 6 shown in FIG.
  • the partial video data 5000a to 5000n in the viewpoint P1 line-of-sight direction D0 are recommended, and this is schematically shown as (a) in FIG. become.
  • the playback unit 120 of the playback device 100 plays back a partial video from the viewpoint P1 to the line-of-sight direction D0 in the 360 video V1. This means that even if the user changes the line-of-sight direction with the head-mounted display attached, the partial video image from the viewpoint P1 to the line-of-sight direction D0 is viewed in all the line-of-sight directions.
  • the partial video in the viewpoint P1_5 line-of-sight direction D0 is recommended. This means that even if the user changes the line-of-sight direction while wearing the head-mounted display, the partial video in the line-of-sight direction D0 is viewed from the viewpoint P1_5 in all the line-of-sight directions.
  • the playback system 1 uses the MPD data in the recommended viewing mode, so that the playback system 1 can use the specific viewing direction recommended by the content creator regardless of the movement of the user (change in viewpoint and viewing direction). Can be viewed by the user.
  • At least one of the viewpoint and line-of-sight direction recommended by the playback system 1 may change at time t2. Even in this case, the playback system 1 can allow the user to view the partial video recommended by the content creator without moving the user.
  • FIG. 6 is a flowchart showing a flow of generation processing in the generation apparatus 300 of the reproduction system 1 according to the present embodiment.
  • Step S101 As shown in FIG. 6, the metadata generation unit 320 of the generation device 300 first determines whether the viewing mode is the free viewing mode or the recommended viewing mode. When the free viewing mode is selected (YES in step S101), the process proceeds to step S102. When the recommended viewing mode is selected (NO in step S101), the process proceeds to step S103.
  • Step S102 When the free viewing mode is selected, the metadata generation unit 320 of the generation device 300 generates free viewing mode metadata. That is, the metadata generation unit 320 of the generation device 300 generates MPD data 5 as shown in FIG. 3, for example. The metadata generation unit 320 of the generation device 300 ends the generation process after generating the metadata in the free viewing mode.
  • Step S103 When the recommended viewing mode is selected, the metadata generation unit 320 of the generation device 300 generates metadata of the recommended viewing mode. That is, the metadata generation unit 320 of the generation device 300 generates MPD data 6 as shown in FIG. 4, for example. The metadata generation unit 320 of the generation device 300 ends the generation process after generating the metadata of the recommended viewing mode.
  • FIG. 7 is a flowchart showing the flow of playback processing in the playback device 100 of the playback system 1 according to the present embodiment.
  • Step S111 As shown in FIG. 7, the control unit 110 of the playback device 100 first determines whether the viewing mode is the free viewing mode or the recommended viewing mode. When the free viewing mode is selected (YES in step S111), the process proceeds to step S112. When the recommended viewing mode is selected (NO in step S111), the process proceeds to step S113.
  • Step S112 When the free viewing mode is selected, the first acquisition unit 1100 in the control unit 110 of the playback device 100 requests metadata of the free viewing mode from the generation device 300. Subsequently, the first acquisition unit 1100 of the playback device 100 acquires metadata of a free viewing mode including a plurality of resource position specifier groups from the generation device 300 (first acquisition step).
  • Step S113 When the recommended viewing mode is selected, the first acquisition unit 1100 in the control unit 110 of the playback device 100 requests metadata of the recommended viewing mode from the generation device 300. Subsequently, the first acquisition unit 1100 of the playback device 100 acquires metadata of a recommended viewing mode including a plurality of resource position specifier groups from the generation device 300 (first acquisition step).
  • Step S114 The second acquisition unit 1110 of the playback device 100 first detects the user's position and line-of-sight direction. The user's position and line-of-sight direction can be detected by known position information acquisition means such as GPS and various sensors.
  • Step S115 Next, the second acquisition unit 1110 of the playback device 100 selects a resource position specifier group corresponding to the position and line-of-sight direction of the user from one or a plurality of resource position specifier groups.
  • Step S116 The second acquisition unit 1110 of the playback device 100 acquires partial video data by sequentially referring to the resource position specifier from the selected resource position specifier group (second acquisition step).
  • the first acquisition unit 1100 has acquired time-division data Period 5 a in the free viewing mode from time t 1 to t 2 in the MPD data 5.
  • the second acquisition unit 1110 refers to the Segments 500a,... 500n in order from the AdaptationSet 50a, and requests partial video data.
  • the 2nd acquisition part 1110 acquires partial video data 5000a ?? 5000n sequentially from the said Segment.
  • the control unit 110 of the playback apparatus 100 may display a message such as “extended 360 video” on the display unit 150. Thereby, the control part 110 of the reproducing
  • Step S117 The playback unit 120 of the playback device 100 plays back the partial video data acquired by the second acquisition unit 1110 (playback process).
  • the reproduction unit 120 of the reproduction apparatus 100 ends the reproduction process.
  • the playback device 100 executes the above steps S114 to S117 in predetermined time units.
  • the reproducing device 100 executes steps S114 to S117 for each period 5a and 5b shown in FIGS.
  • the playback device 100 of the playback system 1 always plays back the partial video in the free viewing mode or the recommended viewing mode.
  • the playback device may play back the partial video by switching between the free viewing mode and the recommended viewing mode.
  • Embodiment 2 will be described with reference to FIGS.
  • members having the same functions as those described in the first embodiment are denoted by the same reference numerals and description thereof is omitted.
  • FIG. 8 is a block diagram showing a main configuration of the playback system 2 according to the present embodiment.
  • the control unit 610 of the playback device 600 of the playback system 2 according to the present embodiment also functions as a switching unit 1120 in addition to the members of the control unit 110. Except for this point, the playback device 600 has the same configuration as the playback device 100.
  • the playback device 600 includes a control unit 610.
  • the control unit 610 functions as the switching unit 1120.
  • the switching unit 1120 switches between the free viewing mode and the recommended viewing mode. In this case, the switching unit 1120 may switch from the free viewing mode to the recommended viewing mode, or may switch from the recommended viewing mode to the free viewing mode.
  • the playback device 600 includes the switching unit 1120, so that the viewing mode can be switched independently of which of 360 video and extended 360 video is played. As a result, the playback device 600 can play 360 videos or extended 360 videos in a viewing mode suitable for each time.
  • FIG. 9 is a diagram illustrating an example of metadata regarding switching of viewing modes included in metadata referred to by the switching unit 1120 of the playback device 600.
  • EventStream 60 is added to FIG. That is, the playback device 600 that has received the metadata of FIG. 9A can play 360 videos in the recommended viewing mode.
  • FIG. 9A some elements of FIG. 3 such as AdaptationSet 51a and Period 5b are omitted.
  • (B) of FIG. 9 is a diagram showing a specific example of EventStream60.
  • EventStream 60 events such as a 360 video distribution start event and an extended 360 video distribution start event can be described.
  • the type of event described in the EventStream 60 is identified by the value of the value attribute of the EventStream element.
  • the meaning of each value described in the value attribute is defined by the URI indicated by the scheme_id_uri attribute of the EventStream element.
  • the switching unit 1120 can switch not only the viewing mode but also the video type.
  • the presentation Time attribute of the Event element indicates the delivery start time of 360 video / extended 360 video.
  • the duration attribute of the Event element indicates the delivery period of 360 videos / extended 360 videos.
  • the num Of View attribute of the Event element indicates the number of viewpoints in the extended 360 video.
  • the playback device 600 acquires MPD data in the free viewing mode from the generation device 300 at an appropriate timing based on the EventStream 60 when the partial video is played back in the free viewing mode of the extended 360 video starting from the time t2. Thereby, it is possible to switch from the recommended viewing mode to the free viewing mode.
  • EventStream 60 is added when MPD data in the recommended viewing mode is first acquired.
  • a DASH MPD update mechanism may be used, for example, MPD data with EventStream 60 added may be acquired at the timing of MPD update immediately before time t2.
  • the switching unit 1120 switches the viewing mode with reference to the EventStream 60, but the present embodiment is not limited to this.
  • the switching unit 1120 may acquire metadata regarding switching of the viewing mode from the Inband Event 70 included in the partial video data, and may switch the viewing mode with reference to the acquired metadata.
  • Inband® Event 70 refers to an event message box specified by DASH.
  • FIG. 10B is a diagram showing the configuration of the event message box. Inband Event 70 is described in fields of scheme_id_uri, value, time_scale, presentation_time_delta, event_duration, id, and message_data [].
  • scheme_id_uri "urn: mpeg: dash: vr: event: 2017”
  • the switching unit 1120 can switch not only the viewing mode but also the video type, similarly to the EventStream 60, by changing the value described in the value attribute of the Inband event 70.
  • Time_scale means the time scale of the value of the time-related field.
  • presentation_time_delta the difference value between the start time of the segment data to which Inband Event 70 is added and the 360 video or extended 360 video distribution start time is described in the above-described time scale.
  • event_duration the delivery period of 360 video or extended 360 video is described in the above time scale.
  • id means an event identifier.
  • the message_data [] describes information indicating the ID of the AdaptationSet corresponding to the current viewpoint and line-of-sight direction. In the case of the extended 360 video, message_data [] may further describe the number of viewpoints and the viewpoint range.
  • FIG. 10 is a diagram illustrating an example of metadata referred to by the playback system 2, partial video data, and metadata related to switching of a viewing mode included in the partial video data.
  • FIG. 10 is different in that an inband event 70 is added to the partial video data 5000n of FIG. That is, the playback device 600 that has received the metadata in FIG. 10A can play 360 videos in the recommended viewing mode.
  • FIG. 10A some elements of FIG. 3 such as AdaptationSet 51a and Period 5b are omitted.
  • an Inband Event 70 indicating that the extended 360 video with the number of viewpoints 9 is distributed to the partial video data 5000n indicated by the Segment 500n during the period from time t2 to t3, as in the case of EventStream60. It is included.
  • the playback device 600 When the playback device 600 plays back the extended 360 video started at time t2 in the free viewing mode, the playback device 600 acquires MPD data in the free viewing mode from the generation device 300 at an appropriate timing based on the Inband Event 70. Accordingly, the switching unit 1120 of the playback device 600 can switch from the recommended viewing mode to the free viewing mode at an appropriate timing.
  • the Inband® Event 70 is configured to multiplex metadata related to switching of viewing modes into partial video data. Therefore, in live distribution or the like, the switching unit 1120 of the playback device 600 can acquire the Inband Event 70 at an appropriate timing even if the type of video to be distributed is not known until immediately before the start of distribution. Thereby, the switching unit 1120 of the playback device 600 can switch the viewing mode at an appropriate timing.
  • the switching unit 1120 may acquire metadata regarding switching of the viewing mode from SEI (Supplemental Enhanced Information) included in the partial video data.
  • SEI Supplemental Enhanced Information
  • the switching unit 1120 may switch the viewing mode with reference to the metadata.
  • FIG. 11 is a diagram illustrating an example of metadata relating to switching of viewing modes included in metadata referred to by the playback system 2, and is also a diagram illustrating segment data having a NAL structure.
  • the NAL is a layer provided for abstracting communication between a VCL (Video Coding Layer) that is a layer that performs a moving image encoding process and a lower system that transmits and stores encoded data. is there.
  • VCL Video Coding Layer
  • AUD means access unit delimiter. AUD indicates the start of one frame such as Frame 50000a.
  • VPS refers to the video parameter set.
  • VPS is a parameter set for defining parameters common to a plurality of frames.
  • VPS defines a set of coding parameters common to a plurality of partial videos, a plurality of layers included in the partial video, and a set of coding parameters related to individual layers in a partial video composed of a plurality of layers. Has been.
  • SPS refers to the sequence parameter set.
  • SPS defines a set of encoding parameters for decoding Frame 50000a. For example, the width and height of the picture are defined.
  • PPS refers to the picture parameter set. PPS defines a set of encoding parameters for decoding each picture in Frame 50000a.
  • SLICE refers to a slice layer.
  • SLICE a set of data for decoding a slice to be processed is defined.
  • the switching unit 1120 can acquire the metadata related to the viewing mode switching from the SEI in the Frame 50000n of the segment data 5000n as shown in FIG.
  • the playback device 600 When the playback device 600 plays back the extended 360 video started at time t2 in the free viewing mode, the playback device 600 acquires the MPD data in the free viewing mode from the generation device 300 at an appropriate timing based on the SEI described above. To do. Accordingly, the switching unit 1120 of the playback device 600 can switch from the recommended viewing mode to the free viewing mode at an appropriate timing.
  • the switching unit 1120 can switch not only the viewing mode but also the video type by SEI.
  • FIG. 12 is a flowchart showing a flow of generation processing relating to video type switching in the generation apparatus 300 of the reproduction system 2 according to the present embodiment.
  • Step S211 As shown in FIG. 12, when the metadata generation unit 320 of the generation device 300 switches the video type (YES in Step S211), the process proceeds to Step S212. If the metadata generation unit 320 of the generation device 300 does not switch the video type (NO in step S211), the metadata generation processing regarding viewing mode switching ends.
  • Step S212 The metadata generation unit 320 of the generation device 300 generates metadata for switching the video type.
  • the metadata generation unit 320 of the generation device 300 generates metadata such as EventStream 60, Inband Event 70, and SEI.
  • Step S213 When the EventStream 60 is used as metadata for switching the video type, the metadata generation unit 320 of the generation device 300 attaches the EventStream 60 to metadata such as MPD data generated separately from the metadata. Subsequently, the distribution unit 310 of the generation device 300 distributes metadata such as MPD data to which the EventStream 60 is assigned to the playback device 600.
  • the metadata generation unit 320 of the generation device 300 assigns the metadata for switching the video type in a form of multiplexing the segment data. Subsequently, the distribution unit 310 of the generation apparatus 300 distributes the segment data to which the Inband Event 70 is assigned to the reproduction apparatus 600.
  • the metadata generation unit 320 of the generation device 300 assigns metadata for switching the video type in a form that is multiplexed with SEI in the segment data. Subsequently, the distribution unit 310 of the generation apparatus 300 distributes the segment data to which the SEI is assigned to the reproduction apparatus 600.
  • the generation apparatus 300 ends the metadata generation processing related to switching of the viewing mode after distributing metadata such as MPD data to which metadata for switching video types is added or segment data.
  • the metadata generation unit 320 of the generation apparatus 300 executes the above steps S211 to S213 for each segment data distribution unit.
  • FIG. 13 is a flowchart showing the flow of playback processing in the playback device 600 of the playback system 2 according to this embodiment.
  • steps S221 to S227 in FIG. 13 are the same as steps S111 to S117 in FIG. 7, the description thereof is omitted here.
  • Step S228 When the second acquisition unit 1110 of the playback device 600 sequentially acquires resource position specifiers from the resource position specifier group, the switching unit 1120 of the playback device 600 views from within MPD data or segment data. Search for metadata about mode switching. When the switching unit 1120 of the playback device 600 detects metadata related to switching from within MPD data or segment data (YES in step S228), the process proceeds to step S229. When the switching unit 1120 of the playback device 600 does not detect metadata related to switching from within MPD data or segment data (NO in step S228), the process returns to step S226.
  • the second acquisition unit 1110 of the playback device 600 detects the EventStream 60 from within the Period 5a as shown in FIG. Further, as shown in FIGS. 10 and 11, the second acquisition unit 1110 of the playback device 600 detects Inband Event 70 or SEI from the segment data 5000n.
  • Step S229 When the switching unit 1120 of the playback device 600 selects to switch the viewing mode (YES in Step S229), the generation process ends. In this case, the switching unit 1120 of the playback device 600 generates MPD data of another viewing mode in the generation device 300 so that time division data obtained by switching from the current viewing mode to another viewing mode can be acquired from the next time. To request. When the switching unit 1120 selects not to switch the viewing mode (NO in step S229), the process returns to step S226.
  • the second acquisition unit 1110 of the playback device 600 can allow the user to view the partial video in the viewing mode.
  • the playback device 600 executes the above steps S224 to S229 in predetermined time units. For example, the playback device 600 executes steps S224 to S229 for each period 5a and 5b shown in FIG.
  • 360 video or extended 360 video shot by one camera is selected and played from a single viewpoint (single view), but the present invention is not limited to this.
  • the playback system may play 360 videos or extended 360 videos reflecting partial videos taken from a plurality of viewpoints (multiviews), like the playback system 3 of the present embodiment.
  • Embodiment 3 will be described with reference to FIGS.
  • members having the same functions as those described in the first and second embodiments are denoted by the same reference numerals and description thereof is omitted.
  • FIG. 14 is a block diagram showing a main configuration of the playback system 3 according to the present embodiment.
  • the playback system 3 includes a playback device 600 and a generation device 900.
  • the generation device 900 of the reproduction system 3 includes a metadata generation unit 920 and a parameter generation unit 930 instead of the metadata generation unit 320 and the parameter generation unit 330. Except for this point, the generation device 900 has the same configuration as the generation device 300.
  • the metadata generation unit 920 of the generation device 900 includes a plurality of resource positions configured from resource position specifiers that specify the location of each partial video data included in each partial video data group captured from the viewpoint P0 and the viewpoint P1. Generate metadata including specifiers.
  • the metadata generation unit 920 causes the parameter generation unit 930 to further generate global position information such as GPS information including the viewpoint P0 and the viewpoint P1, and assigns it to metadata such as MPD data.
  • the metadata generation unit 920 can clarify the relative positional relationship between the viewpoint P0 and the viewpoint P1, and can distinguish the position of the viewpoint.
  • the metadata generation unit 920 includes a resource position specifier group indicating the location of the partial video data captured from the viewpoint P0, and a resource location specifier group indicating the location of the data of the partial video captured from the viewpoint P1. Metadata can be created with distinction.
  • the second acquisition unit 1110 of the playback device 600 acquires the partial video data from P0 and the partial video data from P1 without confusion even when referring to the resource position specifier group of the metadata. can do. Thereby, even if the playback unit 120 of the playback device 600 captures images with a plurality of cameras, the playback device 120 can accurately reproduce the partial images captured by each of the user viewpoints and line-of-sight directions.
  • the playback system 3 switches the camera at the viewpoint P1 from the 360 video V1 to the extended 360 video V1 from time t2 to t3.
  • the metadata generation unit 920 can generate metadata in the same manner as in the above-described embodiment except that global position information is added to the metadata.
  • the metadata generation unit 920 of the playback system 3 distributes global position information including the viewpoints P0 and P1 to the playback device 600 as timed metadata. Further, the metadata generation unit 920 of the reproduction system 3 causes the parameter generation unit 330 to generate an identifier for identifying timed metadata to be referred to by the resource position specifier group (AdaptationSet) in each viewpoint and line-of-sight direction.
  • AdaptationSet resource position specifier group
  • the metadata generation unit 920 of the reproduction system 3 even when the camera moves, the metadata can be created by distinguishing the resource position specifier groups of the plurality of cameras.
  • control blocks (particularly the control units 110 and 610 and the metadata generation units 320 and 920) of the playback devices 100 and 600 and the generation devices 300 and 900 are formed by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like. It may be realized or may be realized by software using a CPU (Central Processing Unit).
  • a logic circuit hardware
  • IC chip integrated circuit
  • CPU Central Processing Unit
  • the playback devices 100 and 600 and the generation devices 300 and 900 have a CPU that executes instructions of a program that is software that realizes each function, and the program and various data are recorded so as to be readable by a computer (or CPU).
  • ROM Read Only Memory
  • storage device these are referred to as “recording media”
  • RAM Random Access Memory
  • the objective of this invention is achieved when a computer (or CPU) reads the said program from the said recording medium and runs it.
  • a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used.
  • the program may be supplied to the computer via any transmission medium (such as a communication network or a broadcast wave) that can transmit the program.
  • any transmission medium such as a communication network or a broadcast wave
  • one embodiment of the present invention can also be realized in the form of a data signal embedded in a carrier wave, in which the program is embodied by electronic transmission.
  • the playback device (100, 600) is the playback device (100, 600) that plays back content data that is time-divided into a plurality of time-sharing data (Periods 5a, 5b).
  • the time-sharing data (Period 5a, 5b) of each of the partial video data (5000a, 5000n, 5100a, 5100n, 5000b, 5100b, 5500b, 5900b) constituting the omnidirectional video is at least one of the viewpoint and the line-of-sight direction.
  • the playback device (100, 600) includes each partial video data (5000a, 5000n, 5100a, 5100n, 5000b, 5100b, 5500b, 5900b) Metadata including a plurality of resource position specifier groups (AdaptationSet 50a, 51a, 50b, 51b, 55b, 59b) composed of resource position specifiers (Segment 500a, 500n, 510a, 510n, 500b, 510b, 550b, 590b) From the location indicated by the first acquisition unit (1100) for acquiring (MPD data 5, 6) and the metadata (MPD data 5, 6), each partial video data (5000a, 5000n, 5100a, 5100n, 5000b, 5100b) 5500b, 5900b) and the partial image data (5000a, 5000n, 5100a, 5100n, 5000b, 5100b, 5500b, 5900b) acquired by the second acquisition unit (1110). ) That
  • the playback device (100, 600) includes the first acquisition unit (1100), the second acquisition unit (1110), and the playback unit (120), so that A celestial sphere image can be reproduced based on the metadata about the image.
  • any resource location designation from the plurality of resource location specifier groups (AdaptationSets 50a, 51a, 50b, 51b, 55b, 59b)
  • the child position (AdaptationSet 50a, 51a, 50b, 51b, 55b, 59b) is also the resource position specifier (Segment 500a, 500n, 510a) included in the other resource position specifier group (AdaptationSet 50a, 51a, 50b, 51b, 55b, 59b).
  • 510n, 500b, 510b, 550n, 590b may not include resource position specifiers (Segment 500a, 500n, 510a, 510n, 500b, 510b, 550n, 590b) corresponding to the same viewpoint or the same line-of-sight direction. .
  • the playback device (100, 600) can play back the partial video in the first playback mode (free viewing mode).
  • any resource location designation among the plurality of resource location specifier groups (AdaptationSets 50a, 51a, 50b, 51b, 55b, 59b)
  • any resource position specifier group (AdaptationSet 50a, 51a, 50b, 51b, 55b, 59b) include any resource location specifier group (AdaptationSet 50a, 51a, 50b) of the other resource location specifier groups (AdaptationSet 50a, 51a, 50b, 51b, 55b, 59b).
  • resource location specifiers may include resource position specifiers (Segment 500a, 500n, 510a, 510n, 500b, 510b, 550n, 590b) corresponding to the same viewpoint or the same line-of-sight direction.
  • the playback device (100, 600) can play back the partial video in the second playback mode (recommended viewing mode).
  • each partial video included in the time-division data is DASH (Dynamic / Adaptive / Streaming / over / HTTP).
  • the specified media segment, the metadata (MPD data 5, 6) is DASH-specified MPD data related to the content data
  • the resource location specifiers (Segment 500a, 500n, 510a, 510n, 500b, 510b, 550n, 590b) is the URL of the media segment
  • each of the resource location specifier groups (AdaptationSets 50a, 51a, 50b, 51b, 55b, 59b) may be each DASH-defined AdaptationSet.
  • Each partial video included in the time division data can be suitably used as a media segment defined by DASH (Dynamic Adaptive Streaming over HTTP).
  • the metadata (MPD data 5 and 6) can be preferably used as MPD data defined by DASH for content data.
  • the resource location specifier (Segment 500a, 500n, 510a, 510n, 500b, 510b, 550n, 590b) can be suitably used as the URL of the media segment.
  • Each of the resource location specifier groups (AdaptationSets 50a, 51a, 50b, 51b, 55b, 59b) can be suitably used as each DASH-defined AdaptationSet.
  • the first acquisition unit (1100) uses the viewpoint and line of sight of each partial video from the Supplemental Descriptor or the Essential Descriptor included in each AdaptationSet.
  • a parameter group including the direction may be acquired.
  • the first acquisition unit (1100) can preferably acquire a parameter group including the viewpoint and line-of-sight direction of each partial video from the SupplementalDescriptor or EssentialDescriptor included in each AdaptationSet.
  • the first acquisition unit (1100) may acquire a parameter group related to a recommended viewpoint and line-of-sight direction from the SupplementaryDescriptor. .
  • 1st acquisition part (1100) can acquire suitably the parameter group regarding a recommended viewpoint and a gaze direction from SupplementalDescriptor.
  • any resource position in the plurality of resource position specifier groups (AdaptationSet 50a, 51a, 50b, 51b, 55b, 59b)
  • the specifier group (AdaptationSet 50a, 51a, 50b, 51b, 55b, 59b) is also a resource location specifier (Segment 500a, 500n, 500b, 59b) included in another resource position specifier group (AdaptationSet 50a, 51a, 50b, 51b, 55b, 59b) 510a, 510n, 500b, 510b, 550n, 590b)
  • Among a plurality of resource location specifier groups (AdaptationSet 50a, 51a, 50b, 51b
  • Resources corresponding to the same viewpoint or the same line-of-sight direction as the resource position specifiers (Segment 500a, 500n, 510a, 510n, 500b, 510b, 550n, 590b) included in the child group (AdaptationSet 50a, 51a, 50b, 51b, 55b, 59b) Switching to switch between the second playback mode (recommended viewing mode) referring to the metadata (MPD data 6) including the position specifier (Segment 500a, 500n, 510a, 510n, 500b, 510b, 550n, 590b) A portion (1120) may be further provided.
  • the playback device (600) includes the switching unit (1120), so that the playback mode can be switched independently of which of 360 videos and extended 360 videos is played back. it can. Accordingly, the playback device (600) can play back a partial video of 360 video or extended 360 video in a playback mode suitable for the time.
  • the switching unit (1120) acquires metadata relating to switching of the playback mode from the EventStream (60) included in the MPD data, and acquires the acquired meta
  • the playback mode may be switched by referring to the data.
  • the switching unit (1120) of the playback device (600) can suitably use the EventStream (60) for switching the playback mode.
  • the switching unit (1120) is included in the partial video data (5000a, 5000n, 5100a, 5100n, 5000b, 5100b, 5500b, 5900b).
  • the metadata related to the switching of the playback mode may be acquired from the Inband event (70), and the playback mode may be switched with reference to the acquired metadata.
  • the switching unit (1120) of the playback device (600) can suitably use the Inband Event (70) for switching the playback mode.
  • the switching unit (1120) is included in the partial video data (5000a, 5000n, 5100a, 5100n, 5000b, 5100b, 5500b, 5900b). Metadata regarding switching of the playback mode may be acquired from SEI (Supplemental Enhanced Information), and the playback mode may be switched with reference to the acquired metadata.
  • SEI Supplemental Enhanced Information
  • the switching unit (1120) of the playback device (600) can suitably use SEI for switching the playback mode.
  • the generation device (300, 900) refers to a meta that is referenced by the playback device (100, 600) that plays back the content data that is time-divided into a plurality of time-sharing data (Period 5a, 5b)
  • the plurality of time-sharing data (Period 5a, 5b) are partial video data (5000a, 5000n, 5100a, 1 or a plurality of partial video data (5000a, 5000n, 5100a, 5100n, 5000b, 5100b, 5500b, 5900b) for at least one of the viewpoint and the line-of-sight direction among 5100n, 5000b, 5100b, 500b, 5900b)
  • the generation device (300, 9 0) is a resource location specifier (Segment 500a, 500n) that specifies the location of each partial video data (5000
  • the metadata generation unit (320, 920) that performs the processing is provided.
  • the generation device (300, 900) since the generation device (300, 900) includes the metadata generation unit (320, 920), it is possible to generate metadata regarding the omnidirectional video.
  • the metadata generation unit (320, 920) includes the plurality of resource location specifier groups (AdaptationSets 50a, 51a, 50b, 51b, 55b, 59b), any resource location specifier group (AdaptationSet 50a, 51a, 50b, 51b, 55b, 59b) is assigned to another resource location specifier group (AdaptationSet 50a, 51a, 50b, 51b, 55b, 59b).
  • Resource position specifiers (Segment 500a, 500n, 510a, 510n, 500b, 510b) corresponding to the same viewpoint or the same line-of-sight direction as the included resource position specifiers (Segment 500a, 500n, 510a, 510n, 500b, 510b, 550n, 590b) 550n, 590b) metadata not included (MPD data 5) Generation may be.
  • the generation device (300, 900) can generate metadata (MPD data 5) for reproducing a partial video in the first reproduction mode (free viewing mode).
  • the metadata generation unit (320, 920) includes the plurality of resource location specifier groups (AdaptationSets 50a, 51a, 50b, 51b, 55b, 59b), a certain resource location specifier group (AdaptationSet 50a, 51a, 50b, 51b, 55b, 59b) is assigned to another resource location specifier group (AdaptationSet 50a, 51a, 50b, 51b, 55b, 59b).
  • Resource position specifiers (Segment 500a, 500n, 510a, 510n, 500b, 510b) corresponding to the same viewpoint or the same line-of-sight direction as the included resource position specifiers (Segment 500a, 500n, 510a, 510n, 500b, 510b, 550n, 590b) 550n, 590b) included metadata (MPD data 6) Generation may be.
  • the generation device (300, 900) can generate metadata (MPD data 6) for reproducing a partial video in the second reproduction mode (recommended viewing mode).
  • the reproduction system (1, 2, 3) reproduces content data distributed in a time-division manner into a plurality of time-division data (Period 5a, 5b).
  • the plurality of time-sharing data (Period 5a, 5b) are the viewpoint and line-of-sight among the partial video data (5000a, 5000n, 5100a, 5100n, 5000b, 5100b, 5500b, 5900b) constituting the omnidirectional video.
  • Including one or a plurality of partial video data groups composed of partial video data (5000a, 5000n, 5100a, 5100n, 5000b, 5100b, 5500b, 5900b) for each direction.
  • Resource position specifier group Adapt a first acquisition unit (1100) for
  • the playback system (1, 2, 3) includes the playback device (100, 600) and the generation device (300, 900), thereby generating metadata about the omnidirectional video,
  • the omnidirectional video can be reproduced based on the metadata.
  • a program according to aspect 15 of the present invention is a program that causes a computer to function as the playback device (100, 600) according to any one of the above aspects 1 to 10, and that causes the computer to function as each of the above-described units. is there.
  • the program can be preferably used to function as the above-described units of the playback device (100, 600).
  • a program according to the sixteenth aspect of the present invention is a program that causes a computer to function as the generating device (300, 900) according to any one of the above eleventh to thirteenth aspects, and that causes the computer to function as each of the above-described units. is there.
  • the program can be suitably used to function as the above-described units of the generation device (300, 900).
  • a recording medium according to aspect 17 of the present invention is a computer-readable recording medium in which the program according to aspect 15 or 16 is recorded.
  • the computer-readable recording medium can be suitably used for the program described in the above aspect 15 and the program described in the above aspect 16.
  • the reproduction method according to aspect 18 of the present invention is a reproduction method for reproducing content data that is time-divided into a plurality of time-division data (Period 5a, 5b).
  • the partial video data (5000a, 5000n, 5100a, 5100n, 5000b, 5100b, 5500b, 5900b) constituting the omnidirectional video
  • partial video data (5000a, 5000n, 5100a) for at least one of the viewpoint and the line-of-sight direction.
  • 5100n, 5000b, 5100b, 500b, 5900b including one or a plurality of partial video data groups
  • the reproduction method includes each partial video data ( 5000a, 5000n, 5100a, 5100n, 5000b, 5 00b, 5500b, 5900b), a plurality of resource location specifier groups (AdaptationSets 50a, 51a, 50b) configured from resource location designators (Segment 500a, 500n, 510a, 550n, 500b, 510b, 510n, 590b) 51b, 55b, 59b) including the first acquisition step of acquiring metadata (MPD data 5, 6) and the location indicated by the metadata (MPD data 5, 6), each partial video data (5000a, 5000n, 5100a, 5100n, 5000b, 5100b, 5500b, 5900b), and the partial video data (5000a, 5000n, 5100a, 5100n, 5000b, 5100b, 5500b) acquired in the second acquisition step.
  • the reproduction method includes the first acquisition step, the second acquisition step, and the reproduction step, thereby reproducing the omnidirectional video based on the metadata regarding the omnidirectional video. Can do.
  • Playback system 5 6 MPD data (metadata) 5a, 5b Period (time division data) 50a, 51a, 50b, 51b, 55b, 59b AdaptationSet (resource location specifier group) 60 EventStream 70 Inband Event 500a, 500n, 510a, 510n, 500b, 510b, 550b, 590b Segment (resource location specifier) 5000a, 5000n, 5100a, 5100n, 5000b, 5100b, 5500b, 5900b Partial video data 501a, 551b SupplementalDescriptor 511a, 501b, 511b, 591b EssentialDescriptor 100, 600 Playback device 300, 900 Generation device 320, 920 Metadata generation unit 1100 First acquisition unit 1110 Second acquisition unit 1120 Switching unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

再生装置(100)は、複数の資源位置指定子群を含むメタデータを取得する第1の取得部(1100)と、メタデータが示す所在から各部分映像データを取得する第2の取得部(1110)と、第2の取得部(1110)が取得した各部分映像データの示す部分映像を再生する再生部(120)とを備えている。

Description

再生装置、生成装置、再生システム、プログラム、記録媒体及び再生方法
 本発明は、再生装置、生成装置、再生システム、プログラム、記録媒体及び生成方法に関する。
 近年、仮想空間中のある視点から全周を見渡して視聴することができる全天球映像を再生する技術が着目されている。このような技術には、全方位を撮影可能なカメラを使った技術、又は、複数台のカメラで撮影し、各カメラの撮影映像を繋ぎ合わせる技術がある。
 例えば、特許文献1には、複数のカメラによる撮像画像と位置情報とに基づき、撮像画像を視点変換画像に変換し、所定の仮想視点から眺めた映像を生成する技術が開示されている。
 また、近年、動画等のコンテンツを配信するための様々な技術が開発されている。コンテンツを配信するための技術としては、MPEG(Moving Picture Experts Group)にて現在標準化作業が進められているDASH(Dynamic Adaptive Streaming over HTTP)が挙げられる。DASHでは、MPD(Media Presentation Description)データ等のメタデータのフォーマットが規定されている。
日本国公開特許公報「特開2013-106324号公報(2013年5月30日公開)」
 このような背景から、全天球映像に関するメタデータを生成、伝送し、当該メタデータに基づき全天球映像を再生することができる技術が求められている。
 しかしながら、全天球映像の撮像に関する技術は開示されていても、全天球映像に関するメタデータをどのように生成、伝送し、当該メタデータに基づき全天球映像をどのように再生するのかについての技術は知られていない。
 本発明は、上記課題を踏まえたものであり、その目的は、全天球映像に関するメタデータを生成、伝送し、当該メタデータに基づき全天球映像を再生する技術を実現することにある。
 上記の課題を解決するために、本発明の一態様に係る再生装置は、複数の時分割データに時分割されて配信されるコンテンツデータを再生する再生装置において、上記複数の時分割データは、全天球映像を構成する部分映像データのうち、視点及び視線方向の少なくとも何れか毎の部分映像データから構成される1又は複数の部分映像データ群を含んでおり、当該再生装置は、上記1又は複数の部分映像データ群に含まれる各部分映像データの所在を指定する資源位置指定子から構成される複数の資源位置指定子群を含むメタデータを取得する第1の取得部と、上記メタデータが示す所在から各部分映像データを取得する第2の取得部と、上記第2の取得部が取得した各部分映像データの示す部分映像を再生する再生部とを備えている。
 上記の課題を解決するために、本発明の一態様に係る生成装置は、複数の時分割データに時分割されて配信されるコンテンツデータを再生する再生装置が参照するメタデータを生成する生成装置において、上記複数の時分割データは、全天球映像を構成する部分映像データのうち、視点及び視線方向の少なくとも何れか毎の部分映像データから構成される1又は複数の部分映像データ群を含んでおり、当該生成装置は、上記1又は複数の部分映像データ群に含まれる各部分映像データの所在を指定する資源位置指定子から構成される複数の資源位置指定子群を含むメタデータを生成するメタデータ生成部を備えている。
 上記の課題を解決するために、本発明の一態様に係る再生システムは、複数の時分割データに時分割されて配信されるコンテンツデータを再生する再生システムであって、上記複数の時分割データは、全天球映像を構成する部分映像データのうち、視点及び視線方向の少なくとも何れか毎の部分映像データから構成される1又は複数の部分映像データ群を含んでおり、上記1又は複数の部分映像データ群に含まれる各部分映像データの所在である資源位置指定子を指定する複数の資源位置指定子群を含むメタデータを生成するメタデータ生成部と、上記1又は複数の部分映像データ群に含まれる各部分映像データの所在を指定する資源位置指定子から構成される複数の資源位置指定子群を含むメタデータを取得する第1の取得部と、上記メタデータが示す所在から各部分映像データを取得する第2の取得部と、上記第2の取得部が取得した各部分映像データの示す部分映像を再生する再生部とを備えている。
 上記の課題を解決するために、本発明の一態様に係る再生方法は、複数の時分割データに時分割されて配信されるコンテンツデータを再生する再生方法において、上記複数の時分割データは、全天球映像を構成する部分映像データのうち、視点及び視線方向の少なくとも何れか毎の部分映像データから構成される1又は複数の部分映像データ群を含んでおり、当該再生方法は、上記1又は複数の部分映像データ群に含まれる各部分映像データの所在を指定する資源位置指定子から構成される複数の資源位置指定子群を含むメタデータを取得する第1の取得工程と、上記メタデータが示す所在から各部分映像データを取得する第2の取得工程と、上記第2の取得工程において取得した各部分映像データの示す部分映像を再生する再生工程とを含んでいる。
 本発明の一態様によれば、全天球映像に関するメタデータを生成、伝送し、当該メタデータに基づき全天球映像を再生する技術を実現することができる。
本発明の実施形態1に係る再生システムの要部構成を示すブロック図である。 本発明の実施形態1に係る再生システムの全体構成を示した図である。 本発明の実施形態1に係る再生システムが再生するためのコンテンツデータに含まれるメタデータの一例を示す図である。 本発明の実施形態1に係る再生システムが再生するためのコンテンツデータに含まれるメタデータの一例を示す図である。 本発明の実施形態1に係る再生システムの推奨視聴モードによる部分映像の再生例について説明するための図である。 本発明の実施形態1に係る再生システムにおける生成装置の生成処理の流れを示すフローチャートである。 本発明の実施形態1に係る再生システムにおける再生装置の再生処理の流れを示すフローチャートである。 本発明の実施形態2に係る再生システムの要部構成を示すブロック図である。 本発明の実施形態2に係る再生システムが参照するメタデータに含まれる視聴モードの切り替えに関するメタデータの一例を示す図である。 本発明の実施形態2に係る再生システムが参照するメタデータに含まれる視聴モードの切り替えに関するメタデータの一例を示す図である。 本発明の実施形態2に係る再生システムが参照するメタデータに含まれる視聴モードの切り替えに関するメタデータの一例を示す図である。 本発明の実施形態2に係る再生システムにおける再生装置の再生処理の流れを示すフローチャートである。 本発明の実施形態2に係る再生システムにおける再生装置の切り替え処理の流れを示すフローチャートである。 本発明の実施形態3に係る再生システムの要部構成を示すブロック図である。 本発明の実施形態3に係る再生システムにより再生される、全天球映像を構成する部分映像について説明するための図である。
 <実施形態1>
 本実施形態に係る再生システム1について図1~図8を参照しながら説明する。
 〔再生システム1〕
 図1は、本実施形態に係る再生システム1を示した図であり、図2は、本実施形態に係る再生システム1の全体構成を示した図である。
 図2に示すように、再生システム1は、再生装置100と生成装置300とネットワークストレージサーバ(NAS)400とを含むシステムである。また、再生装置100及び生成装置300は、インターネットNWに接続している。
 以下、再生装置100、生成装置300、及びNAS400について説明する。
 〔再生装置100〕
 再生装置100は、複数の時分割データに時分割されて配信されるコンテンツデータを再生する。換言すれば、再生装置100は、全天球映像を構成し、時分割データに含まれる部分映像データの示す各部分映像を所定の期間再生する。
 図1に示すように、再生装置100は、制御部110、再生部120、記憶部130、ネットワークI/F140、表示部150、及び操作部160を備えている。
 なお、再生装置100は、後述する再生部120が再生した部分映像を表示する表示部を備える構成としてもよい。このような構成では、ヘッドマウントディスプレイが再生装置100を備え、再生された部分映像を、表示部150を介してユーザに提示する構成とすることができる。
 他の例として、再生部120は、再生対象の部分映像データを、再生装置100とは別体で設けられた表示部150に供給する構成としてもよい。このような構成では、ヘッドマウントディスプレイが当該表示部150を備え、再生された部分映像を、当該表示部150を介してユーザに提示する構成とすることができる。
 [制御部110]
 制御部110は、操作部160を介して部分映像の再生指示をユーザから受け付けると、再生対象の部分映像に関するメタデータを生成装置300から受信する。制御部110は、メタデータを参照し、部分映像を再生するための資源位置指定子を特定する。制御部110は、再生部120に、再生対象の部分映像を再生する期間及び資源位置指定子を参照させ、部分映像を再生させる。
 これにより、制御部110は、全天球映像に関するメタデータに基づき全天球映像を再生することができる。
 ここで、上述の部分映像としては、例えば、DASH(Dynamic Adaptive Streaming over HTTP)規定のメディアセグメントを挙げることができる。上述のメタデータとしては、例えば、上述のコンテンツデータに関するDASH規定のMPD(Media PresentationDescription)データを挙げることができる。資源位置指定子としては、メディアセグメントのURLを挙げることができる。資源位置指定子群の各々は、DASH規定の各AdaptationSetを挙げることができる。
 図1に示すように、制御部110は、第1の取得部1100及び第2の取得部1110として機能する。
 (第1の取得部1100)
 第1の取得部1100は、各部分映像データの所在を指定する資源位置指定子から構成される複数の資源位置指定子群を含むメタデータを取得する。
 以下、図3を用いて、第1の取得部1100についてより具体的に説明する。
 図3は、本発明の実施形態1に係る再生システム1が再生するためのコンテンツデータに含まれるメタデータの一例を示す図である。
 図3に示す例では、MPDデータ5は、時刻t1~t2の時分割データPeriod5aと、時刻t2~t3の時分割データPeriod5bとを少なくとも含んでいる。また、Period5a及びPeriod5bは、部分映像データのうち、視点及び視線方向毎の部分映像データ群を含んでいる。部分映像データ群には、各部分映像データの所在を指定する資源位置指定子(URL)から構成される、複数のAdaptationSet(資源位置指定子群)50a、51a、50b、51b、55b及び59bが含まれている。
 ここで、図3に示す例では、Period5aにおいて、AdaptationSet50aと51aとに含まれるSegmentのURL(資源位置指定子)の指し示すセグメントデータの視線方向は、互いに異なる。同様に、Period5bにおいて、AdaptationSet50bと、51bと、55bと、59bとに含まれるSegmentのURL(資源位置指定子)の指し示すセグメントデータの視点及び視線方向の少なくとも一方は、互いに異なる。
 このように、図3では、少なくとも所定の期間に関する時分割データにおいて、何れの資源位置指定子群も、他の資源位置指定子群の資源位置指定子と同じ視点又は同じ視線方向に対応する資源位置指定子を含んでいない。このような構成によれば、再生システム1の再生装置100は、ユーザが移動しながら自由に視点又は視線方向を切り替えて視聴する自由視聴モード(第1の再生モード)で部分映像を再生することができる。
 以下、再生システム1が常に自由視聴モードである場合における各部材の機能について説明する。
 (第2の取得部1110)
 第2の取得部1110は、メタデータが示す所在から各部分映像データを取得する。
 第2の取得部1110は、まず仮想空間座標系におけるユーザの位置及び視線方向を検出する。ユーザの位置は、例えば、各種センサ及びGPS等、公知の位置情報取得手段によって、検出することができる。第2の取得部1110は、ユーザの位置によって定まる視点を特定する。また、ユーザの視線方向は、ヘッドマウントディスプレイが備える加速後センサ等によって検出することができる。
 第2の取得部1110は、1又は複数の資源位置指定子群のうち、ユーザの視点及び視線方向に応じた資源位置指定子群を選択する。
 これにより、第2の取得部1110は、資源位置指定子群を参照することで、ユーザの位置及び視線方向に対応する視点及び視線方向に関する情報を含む資源位置指定子(URL)を順次取得することができる。第2の取得部1110は、当該URLを参照し、ユーザの位置及び視線方向に対応する視点及び視線方向による部分映像のデータを取得することができる。
 [再生部120]
 再生部120は、第2の取得部1110が取得した各部分映像データの示す部分映像を再生する。
 例えば、再生部120は、図3のように、時刻t1~t2において、部分映像データ5000a、5000n、5100a及び5100n等が示す部分映像を再生する。ここで、図3に示すように、t1~t2における部分映像データは、360ビデオV1の視点P1視線方向D0、・・・視点P1視線方向Dnの1番目からk番目のセグメントの各セグメントデータである。
 ここで、360ビデオとは、仮想空間における、ある視点から周囲を見渡して視聴する全天球映像のことを意味する。
 すなわち、上述の例では、再生部120は、時刻t1~t2において、仮想空間における視点P1から視線方向D0~Dnを眺めた場合の360ビデオV1を再生する。
 ここで、上述したように、本実施形態では、再生部120は、自由視聴モードの部分映像を再生する。例えば、図3では、時刻t1~t2のそれぞれのAdaptationSetには、視点P1における視線方向(D0~Dn)が異なる部分映像データに割り当てられている。同様に、時刻t2~t3のそれぞれのAdaptationSetには、視点(P1_1~P1_9)又は視線方向(D0~Dn)が異なる部分映像データが割り当てられている。
 これにより、ユーザがヘッドマウントディスプレイを装着して、周囲を見渡した場合、ユーザの視線方向の変化に応じるように、再生部120は、視点P1から異なる視線方向を眺めた場合の360ビデオV1を再生する。その結果、再生部120は、ユーザが周囲を見渡した場合、視点P1から360°見渡した映像をユーザに視聴させることができる。
 また、再生部120は、図3のように、時刻t2~t3において、部分映像データ5000b、5100b、5500b及び5900b等が示す部分映像を再生する。ここで、図3に示すように、t2~t3における部分映像データは、拡張360ビデオの視点P1_1視線方向D0、・・・視点P1_1視線方向Dn、・・・視点P1_5視線方向D0、・・・及び、視点P1_9視線方向Dnの1番目からk番目のSegmentの各セグメントデータである。
 ここで、拡張360ビデオとは、仮想空間における1点を基準とした所定の範囲内の視点から周囲を見渡して視聴する全天球映像のことを意味する。
 すなわち、上述の例では、再生部120は、時刻t2~t3において、視点P1を基準とした所定の範囲内の視点P1_1~P1_9から視線方向D0~Dnを眺めた場合の拡張360ビデオV1を再生する。すなわち、再生部120は、ユーザが周囲を見渡した場合、視点P1_1~P1_9から360°見渡した映像をユーザに視聴させることができる。
 ここで、視点P1から所定の距離にある視点P1_1~P1_9が、視点P1からわずかな距離しか離れていないとする。この場合、再生部120は、わずかなユーザの視点の変化も部分映像に反映して再生することができる。そのため、再生システム1は、ユーザがヘッドマウントディスプレイを装着して拡張360ビデオV1を視聴した場合のリアリティを向上させることができる。また、視点P1_1~P1_9が、視点P1から大きく離れている場合には、再生部120は、拡張360ビデオV1を視聴するユーザに様々な角度からの部分映像を提供することができる。視点及び視線方向の詳細については、後述する。
 [記憶部130]
 記憶部130は、再生対象の部分映像データの所在を指定する各資源位置指定子が指し示す部分映像データ(セグメントデータ)をバッファリングし、再生対象の部分映像データに関するメタデータを記憶するための記憶媒体である。
 [ネットワークI/F140]
 ネットワークI/F140は、生成装置300との間でデータの送受信を行う。
 [表示部150]
 表示部150は、再生対象の部分映像を表示するディスプレイである。
 [操作部160]
 操作部160は、再生装置100に対する指示をユーザが行うための操作パネルである。
 〔生成装置300〕
 続いて、本実施形態に係る生成装置300について説明する。生成装置300は、複数の時分割データに時分割されて配信されるコンテンツデータを再生する再生装置100が参照するメタデータを生成し、再生装置100に配信する。
 図1に示すように、生成装置300は、配信部310と、メタデータ生成部320と、パラメータ生成部330と、を備えている。
 [配信部310]
 配信部310は、再生装置100からメタデータの要求を受けると、NAS400に記録されている、その時点で最新のメタデータを再生装置100に配信する。
 これにより、配信部310は、全天球映像に関するメタデータを伝送することができる。
 [メタデータ生成部320]
 メタデータ生成部320は、各部分映像データの所在を指定する資源位置指定子から構成される複数の資源位置指定子群を含むメタデータを生成する。
 具体的には、メタデータ生成部320は、図3の複数のAdaptationSet50a、51a、50b、51b、55b及び59b等を含むMPDデータ5を生成する。
 これにより、メタデータ生成部320は、全天球映像に関するメタデータを生成することができる。
 ここで、メタデータ生成部320は、図3に示すように、360ビデオ及び拡張360ビデオV1のうち、何れの部分映像であるかを示すメタデータを生成する。
 メタデータ生成部320は、これらを利用して生成したメタデータを再生装置100に配信する。再生装置100は、当該メタデータを受信し、参照することで、Period毎に360ビデオ、又は拡張360ビデオの視点及び視線方向を切り替えながら再生することができる。例えば、図3に示すように、メタデータ生成部320は、360ビデオに関する時分割データPeriod5a、及び、拡張360ビデオに関する時分割データPeriod5bを生成することができる。
 また、メタデータ生成部320は、ユーザが移動しながら自由に視点又は視線方向を切り替えて視聴する自由視聴モードのメタデータ又はユーザは移動せずにコンテンツ制作者の推奨する視点の映像を視聴する推奨視聴モードのメタデータを生成する。自由視聴モードのメタデータを生成する場合、メタデータ生成部320は、パラメータ生成部330によって生成された自由視点及び自由視線方向に関するパラメータ群、並びに部分映像データを示す資源位置指定子(URL)をメタデータに付与する。また、推奨視聴モードのメタデータを生成する場合、メタデータ生成部320は、パラメータ生成部330によって生成された推奨視点及び推奨視線方向に関するパラメータ群、並びに部分映像データを示す資源位置指定子(URL)をメタデータに付与する。
 [パラメータ生成部330]
 パラメータ生成部330は、メタデータ生成部320がメタデータを生成するために参照する各種パラメータを生成する。
 例えば、パラメータ生成部330は、図3に示す各AdaptationSet毎に、視点及び視線方向に関するパラメータ群を生成する。これにより、メタデータ生成部320は、図3に示すように、メタデータ(MPDデータ)に、パラメータ生成部330によって生成された視点及び視線方向に関するパラメータを付与することができる。
 〔NAS400〕
 NAS400は、メタデータ及び各部分映像データを保持するネットワークストレージである。
 <実施形態1の変形例>
 上述の例では、常に自由視聴モードである場合において、再生システム1が、全天球映像に関するメタデータを生成、伝送し、当該メタデータに基づき全天球映像を再生している。ただし、本実施形態ではこれに限定されない。再生システム1は、常に推奨視聴モード(第2の再生モード)である場合においても、全天球映像に関するメタデータを生成、伝送し、当該メタデータに基づき全天球映像を再生することができる。
 ここで、推奨視聴モードとは、ユーザは移動せずにコンテンツ制作者の推奨する視点の映像を視聴する視聴モードであり、複数の資源位置指定子群のうち、ある資源位置指定子群には、他の資源位置指定子群に含まれる資源位置指定子と同じ視点又は同じ視線方向に対応する資源位置指定子が含まれている。
 次に、推奨視聴モードのメタデータについて、図4を用いて具体的に説明する。図4は、本発明の実施形態1に係る再生システム1が再生するためのコンテンツデータに含まれるメタデータの一例を示す図である。
 図4に示すように、時刻t1~t2において、AdaptationSet50aにおけるSegment500aとAdaptationSet51aにおけるSegment510aとは、ともに視点P1視線方向D0の1番目のセグメントである部分映像データ(セグメントデータ)5000aに対応付けられている。同様に、AdaptationSet50aにおけるSegment500nとAdaptationSet51aにおけるSegment510nとは、ともに視点P1視線方向D0のk番目のセグメントである部分映像データ(セグメントデータ)5000nに対応付けられている。また、時刻t2~t3において、AdaptationSet50bにおけるSegment500b、AdaptationSet51bにおけるSegment510b、AdaptationSet55bにおけるSegment550b、及びAdaptationSet59bにおけるSegment590bは、いずれも視点P1_5視線方向D0の1番目のセグメントである部分映像データ(セグメントデータ)5500bに対応付けられている。
 このように、推奨視聴モードでは、Segmentと部分映像データとが、多対一の関係で対応付けられている。
 これにより、360ビデオ及び拡張360ビデオ等の複数の種類の映像を含むコンテンツを再生する場合であっても、上述のようなメタデータを使用することによって、コンテンツ制作者の推奨する視点及び視線方向でユーザに映像を視聴させることができる。また、ユーザが移動しなくても、再生システム1の再生装置100は、コンテンツ制作者の推奨する視点及び視線方向でユーザに映像を視聴させることができる。
 (視点及び視線方向に関するメタデータ)
 次に、推奨視聴モードを選択する場合に使用する視点及び視線方向に関するメタデータについて、図4を用いて具体的に説明する。
 図4のAdaptationSet50a及び55bには、それぞれSupplementalDescriptor501a及び551bが付加されている。SupplementalDescriptor501a及び551bは、それぞれ推奨の視点及び視線方向である視点P1視線方向D0及び視点P1_5視線方向D0に関するパラメータ群を含んでいる。このように、AdaptationSetに含まれるSupplementalDescriptorは、推奨の視点及び視線方向に関するパラメータ群を含んでいる。
 また、図4のAdaptationSet51a、50b、51b及び59bには、それぞれEssentialDescriptor511a、501b、511b及び591bが付加されている。EssentialDescriptor511a、501b、511b、591bは、それぞれ視点P1視線方向Dn、視点P1_1視線方向D0、視点P1_1視線方向Dn、及び視点P1_9視線方向Dnに関するパラメータ群を含んでいる。このように、AdaptationSetに含まれるEssentialDescriptorは、例えば、推奨の視点及び視線方向以外に関するパラメータ群を含んでいる。
 このようなSupplementalDescriptor及びEssentialDescriptorは、生成装置300のパラメータ生成部330によって生成される。メタデータ生成部320は、生成したメタデータにSupplementalDescriptor及びEssentialDescriptorのデータを付与する。メタデータ生成部320は、例えば、図4のように、AdaptationSet毎に、SupplementalDescriptor又はEssentialDescriptorの情報が付与されたメタデータを、再生装置100に配信する。
 再生装置100の第1の取得部1100は、SupplementDescriptor501a及び551bから推奨の視点及び視線方向に関するパラメータ群、並びに部分映像データを示す資源位置指定子(URL)を取得する。また、第1の取得部1100は、EssentialDescriptor511a、501b、511b、及び591bから推奨の視点及び視線方向以外の視点及び視線方向に関するパラメータ群、並びに部分映像データを示す資源位置指定子(URL)を取得する。
 これにより、第2の取得部1110が取得する各部分映像データは、図4のようになる。すなわち、Period5aについては、視点P1視線方向D0の1番目のセグメントからk番目のセグメントである部分映像データ5000a~5000nが得られる。Period5bについては、視点P1_5視線方向D0の1番目のセグメントである部分映像データ5500b以降の部分映像データが得られる。
 ここで、上述のSupplementalDescriptorが付加されたAdaptationSetは、360ビデオ非対応デバイス及び拡張360ビデオ非対応デバイスでも利用することができる。すなわち、SupplementalDescriptorが付加されたAdaptationSetを参照することで、360ビデオ又は拡張360ビデオ非対応デバイス等でも、推奨の視点及び視線方向に関するパラメータ群、並びに部分映像データを示す資源位置指定子(URL)を取得することができる。その結果、360ビデオ非対応デバイス等でも、コンテンツ制作者の推奨する視点及び視線方向の映像を好適に再生することができる。
 なお、推奨視聴モードを選択する場合に使用する視点及び視線方向に関するメタデータは、上述のSupplementalDescriptor及びEssentialDescriptorに限定されない。上述のような推奨視聴モードを実現できる範囲で、再生システム1は、任意の視点及び視線方向に関するメタデータを使用することができる。
 (推奨視聴モードによる部分映像の再生例)
 次に、再生システム1の推奨視聴モードのMPDデータによる部分映像の再生例について、図5を用いて説明する。
 図5は、再生システム1の推奨視聴モードのMPDデータによる部分映像の再生例について説明するための図である。換言すれば、図5は、図4に示すMPDデータ6を再生システム1が参照した場合に再生される部分映像を説明するための図である。
 図4に示すように、時刻t1~t2(Period5a)においては、視点P1視線方向D0の部分映像データ5000a~5000nが推奨されており、これを模式的に示すと図5の(a)のようになる。図5の(a)のように、時刻t1~t2において、再生装置100の再生部120は、360ビデオV1における、視点P1から視線方向D0の部分映像を再生している。これは、ユーザがヘッドマウントディスプレイを装着した状態で視線方向を変えたとしても、全ての視線方向において、視点P1から視線方向D0の部分映像を視聴することを意味する。
 また、図4に示すように、時刻t2~t3(Period5b)においては、視点P1_5視線方向D0の部分映像が推奨されている。これは、ユーザがヘッドマウントディスプレイを装着した状態で視線方向を変えたとしても、全ての視線方向において、視点P1_5から視線方向D0の部分映像を視聴することを意味する。
 このように、再生システム1が推奨視聴モードのMPDデータを利用することにより、ユーザの移動(視点及び視線方向の変更)に関わらず、再生システム1は、コンテンツ制作者の推奨する特定の視線方向からの部分映像をユーザに視聴させることができる。
 また、図5の(a)及び(b)に示すように、時刻t2を境に再生システム1の推奨する視点及び視線方向の少なくとも1つが変化する場合がある。この場合においても、再生システム1は、ユーザに移動させることなく、コンテンツ制作者が推奨する部分映像を視聴させることができる。
 〔生成処理〕
 次に、本実施形態に係る再生システム1の生成装置300における生成処理について、図6を参照して説明する。図6は、本実施形態に係る再生システム1の生成装置300における生成処理の流れを示すフローチャートである。
 ステップS101:図6に示すように、生成装置300のメタデータ生成部320は、まず、視聴モードを自由視聴モードにするか、推奨視聴モードにするかを決定する。自由視聴モードを選択する場合(ステップS101のYES)、ステップS102に進む。推奨視聴モードを選択する場合(ステップS101のNO)、ステップS103に進む。
 ステップS102:自由視聴モードを選択する場合、生成装置300のメタデータ生成部320は、自由視聴モードのメタデータを生成する。すなわち、生成装置300のメタデータ生成部320は、例えば、図3に示すようなMPDデータ5を生成する。生成装置300のメタデータ生成部320は、自由視聴モードのメタデータ生成後、生成処理を終了する。
 ステップS103:推奨視聴モードを選択する場合、生成装置300のメタデータ生成部320は、推奨視聴モードのメタデータを生成する。すなわち、生成装置300のメタデータ生成部320は、例えば、図4に示すようなMPDデータ6を生成する。生成装置300のメタデータ生成部320は、推奨視聴モードのメタデータ生成後、生成処理を終了する。
 〔再生処理〕
 次に、本実施形態に係る再生システム1の再生装置100における再生処理(再生方法)について、図7を参照して説明する。図7は、本実施形態に係る再生システム1の再生装置100における再生処理の流れを示すフローチャートである。
 ステップS111:図7に示すように、再生装置100の制御部110は、まず、視聴モードを自由視聴モードにするか、推奨視聴モードにするかを決定する。自由視聴モードを選択する場合(ステップS111のYES)、ステップS112に進む。推奨視聴モードを選択する場合(ステップS111のNO)、ステップS113に進む。
 ステップS112:自由視聴モードを選択する場合、再生装置100の制御部110における第1の取得部1100は、生成装置300に自由視聴モードのメタデータを要求する。続いて、再生装置100の第1の取得部1100は、生成装置300から複数の資源位置指定子群を含む自由視聴モードのメタデータを取得する(第1の取得工程)。
 ステップS113:推奨視聴モードを選択する場合、再生装置100の制御部110における第1の取得部1100は、生成装置300に推奨視聴モードのメタデータを要求する。続いて、再生装置100の第1の取得部1100は、生成装置300から複数の資源位置指定子群を含む推奨視聴モードのメタデータを取得する(第1の取得工程)。
 ステップS114:再生装置100の第2の取得部1110は、まず、ユーザの位置及び視線方向を検出する。ユーザの位置及び視線方向は、例えば、GPS及び各種センサ等、公知の位置情報取得手段によって、検出することができる。
 ステップS115:次に、再生装置100の第2の取得部1110は、1又は複数の資源位置指定子群の中から、ユーザの位置及び視線方向に応じた資源位置指定子群を選択する。
 ステップS116:再生装置100の第2の取得部1110は、選択した資源位置指定子群から順次、資源位置指定子を参照し、部分映像データを取得する(第2の取得工程)。
 例えば、図3のように、第1の取得部1100が、MPDデータ5のうち、時刻t1~t2の自由視聴モードの時分割データPeriod5aを取得したとする。この場合、第2の取得部1110は、AdaptationSet50aから順に、Segment500a、・・・500nを参照し、部分映像データを要求する。これにより、第2の取得部1110は、当該Segmentから、部分映像データ5000a、・・・5000nを順次取得する。
 ここで、図3に示すように、第2の取得部1110が、時刻t1~t2において360ビデオに関する部分映像データを取得していたとする。また、時刻t2となり、生成装置300から、拡張360ビデオに関するPeriod5bが配信されるとする。この場合、再生装置100の制御部110は、表示部150に、「拡張360ビデオ」あり等のメッセージを表示させてもよい。これにより、再生装置100の制御部110は、映像種別の変化をユーザに知らせることができる。その結果、再生装置100は、ユーザに全天球映像をより好適に視聴させることができる。
 ステップS117:再生装置100の再生部120は、第2の取得部1110が取得した部分映像データを再生する(再生工程)。再生後、所定の時刻を経過したら、再生装置100の再生部120は、再生処理を終了する。
 再生装置100は、上述のステップS114~S117を所定の時間単位で実行する。例えば、再生装置100は、ステップS114~S117を、図3及び図4に示す各period5a、5b単位で実行する。
 <実施形態2>
 実施形態1では、再生システム1の再生装置100は、常に自由視聴モード又は常に推奨視聴モードで部分映像を再生している。ただし、実施形態2に係る再生システム2の再生装置600のように、再生装置は、自由視聴モードと、推奨視聴モードとを切り替えて部分映像を再生してもよい。
 実施形態2について、図8~13を参照して説明する。なお、説明の便宜上、実施形態1にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
 〔再生システム2〕
 図8は、本実施形態に係る再生システム2の要部構成を示すブロック図である。図8に示すように、本実施形態に係る再生システム2の再生装置600の制御部610は、制御部110の各部材に加え、更に、切替部1120としても機能する。この点以外は、再生装置600は、再生装置100と同様の構成である。
 〔再生装置600〕
 図8に示すように、再生装置600は、制御部610を備えている。
 制御部610は、切替部1120として機能する。切替部1120は、自由視聴モードと推奨視聴モードとを切り替える。この場合、切替部1120は、自由視聴モードから推奨視聴モードに切り替えてもよいし、推奨視聴モードから自由視聴モードに切り替えてもよい。
 再生装置600は、切替部1120を備えていることで、360ビデオ及び拡張360ビデオのうち何れを再生するかとは独立して、視聴モードを切り替えることができる。これにより、再生装置600は、360ビデオ又は拡張360ビデオを、その時々に適した視聴モードで再生することができる。
 以下、図9~11を用いて、切替部1120による視聴モードの切り替えについて、より具体的に説明する。
 (切替部1120による視聴モードの切り替えの具体例1)
 まず、図9を用いて、切替部1120による視聴モードの切り替えの具体例を説明する。
 図9は、再生装置600の切替部1120が参照するメタデータに含まれる視聴モードの切り替えに関するメタデータの一例を示す図である。
 図9の(a)のメタデータは、図3に対してEventStream60が追加されている点が異なる。すなわち、図9の(a)のメタデータを受信した再生装置600は、360ビデオを推奨視聴モードで再生することができる。ただし、図9の(a)では、AdaptationSet51a、Period5b等、図3の一部の要素については省略している。
 図9の(b)は、EventStream60の具体例を示した図である。EventStream60には、360ビデオ配信開始イベント及び拡張360ビデオ配信開始イベント等のイベントを記述することができる。EventStream60に記述されるイベントの種類はEventStream要素のvalue属性の値によって識別される。value属性に記述される各値の意味は、EventStream要素のscheme_id_uri属性で示されるURIによって規定される。
 例えば、図9の(b)に示すscheme_id_uri="urn:mpeg:dash:vr:event:2017"の場合、value="1"が360ビデオ配信開始イベント、value="2"が拡張360ビデオ配信開始イベントを意味する。
 このEventStream60のvalue属性に記述される値を変えることによって、切替部1120は、視聴モードだけでなく、映像種別も切り替えることができる。
 360ビデオ配信開始イベント、及び拡張360ビデオ配信開始イベントの詳細は、EventStream要素内のEvent要素によって記述される。Event要素のpresentation Time属性は、360ビデオ/拡張360ビデオの配信開始時刻を示す。Event要素のduration属性は、360ビデオ/拡張360ビデオの配信期間を示す。Event要素のnum Of View属性は、拡張360ビデオにおける視点数を示す。図示はしていないが、拡張360ビデオにおける視点範囲(例えば、移動可能な視点範囲が周囲1mなど)を示すview Range属性を記述してもよい。なお、360ビデオ配信開始イベントの場合(value="1"の場合)、num Of View属性及びview Range属性は省略してもよい。
 図9の(b)の例では、時刻t2からt3の期間、視点数9の拡張360ビデオが配信されることを示している。
 再生装置600は、時刻t2から始まる拡張360ビデオを自由視聴モードで部分映像を再生する場合、EventStream60に基づき適切なタイミングで自由視聴モードのMPDデータを生成装置300から取得する。これにより、推奨視聴モードから自由視聴モードに切り替えることができる。
 なお、上述の例では、最初に推奨視聴モードのMPDデータを取得した時点でEventStream60が付加されている。ただし、ライブ配信等においては、DASHのMPD更新の仕組みを用い、例えば、時刻t2の直前のMPD更新のタイミングでEventStream60が付加されたMPDデータを取得するようにしてもよい。
 (切替部1120による視聴モードの切り替えの具体例2)
 上述の例では、切替部1120は、EventStream60を参照して、視聴モードの切り替えを行っているが、本実施形態ではこれに限定されない。本実施形態では、切替部1120は、部分映像データに含まれるInband Event70から視聴モードの切り替えに関するメタデータを取得し、取得したメタデータを参照して視聴モードを切り替えてもよい。
 Inband Event70とは、DASH規定のイベントメッセージボックスのことを指す。図10の(b)は、イベントメッセージボックスの構成を示した図である。Inband Event70は、scheme_id_uri、value、time_scale、presentation_time_delta、event_duration、id及びmessage_data[]のフィールドで記述される。
 ここで、scheme_id_uri、及びvalueの定義は、EventStream60の場合と同様である。scheme_id_uri="urn:mpeg:dash:vr:event:2017"の場合、value="1"は、360ビデオ配信開始イベントを意味する。value="2"は、拡張360ビデオ配信開始イベントを意味する。
 すなわち、切替部1120は、Inband Event70のvalue属性に記述される値を変えることによっても、EventStream60と同様に、視聴モードだけでなく、映像種別も切り替えることができる。
 time_scaleは、時間関連フィールドの値のタイムスケールを意味する。presentation_time_deltaには、Inband Event70を付与するセグメントデータの開始時刻と、360ビデオ又は拡張360ビデオ配信開始時刻との差分値が上述のタイムスケールで記述されている。event_durationには、360ビデオ又は拡張360ビデオの配信期間が上述のタイムスケールで記述されている。idは、イベント識別子を意味する。message_data[]は、現在の視点及び視線方向に対応するAdaptationSetのID等を示す情報が記述されている。拡張360ビデオの場合、message_data[]は、視点数及び視点範囲が更に記述されていてもよい。
 以下、図10を用いて、Inband Event70から視聴モードの切り替えに関するメタデータを取得した場合の切替部1120による視聴モードの切り替えについて具体的に説明する。
 図10の(a)は、再生システム2が参照するメタデータ、部分映像データ、及び部分映像データに含まれる視聴モードの切り替えに関するメタデータの一例を示す図である。
 図10の(a)は、図3の部分映像データ5000nに対してInband Event70が追加されている点が異なる。すなわち、図10の(a)のメタデータを受信した再生装置600は、360ビデオを推奨視聴モードで再生することができる。なお、図10の(a)では、AdaptationSet51a及びPeriod5b等、図3の一部の要素については省略している。
 図10の(a)の例では、Segment500nの示す部分映像データ5000nに、EventStream60の場合と同様に、時刻t2からt3の期間、視点数9の拡張360ビデオが配信されることを示したInband Event70が含まれている。
 再生装置600は、時刻t2から開始される拡張360ビデオを自由視聴モードで再生する場合、Inband Event70に基づき、適切なタイミングで自由視聴モードのMPDデータを生成装置300から取得する。これにより、再生装置600の切替部1120は、適切なタイミングで推奨視聴モードから自由視聴モードに切り替えることができる。
 また、Inband Event70は、視聴モードの切り替えに関するメタデータを部分映像データに多重化する構成となっている。そのため、ライブ配信等において、配信する映像の種別が配信開始直前にならないと分からない場合であっても、再生装置600の切替部1120は、適切なタイミングでInband Event70を取得することができる。これにより、再生装置600の切替部1120は、適切なタイミングで視聴モードを切り替えることができる。
 (切替部1120による視聴モードの切り替えの具体例3)
 切替部1120は、部分映像データに含まれるSEI(Supplemental Enhanced Information)から視聴モードの切り替えに関するメタデータを取得してもよい。切替部1120は、当該メタデータを参照し、視聴モードを切り替えてもよい。
 以下、図11を用いて、SEIから視聴モードの切り替えに関するメタデータを取得した場合の切替部1120による視聴モードの切り替えについて具体的に説明する。
 図11は、再生システム2が参照するメタデータに含まれる視聴モードの切り替えに関するメタデータの一例を示す図であり、NAL構造のセグメントデータを示す図でもある。
 ここで、NALとは、動画像符号化処理を行う層であるVCL(Video Coding Layer)と、符号化データを伝送及び蓄積する下位システムとの間における通信を抽象化するために設けられる層である。
 AUDは、アクセスユニットデリミタを意味する。AUDは、Frame50000a等、1つのFrameの開始を示すものである。
 VPSは、ビデオパラメータセットのことを指す。VPSは、複数のFrameに共通するパラメータを規定するためのパラメータセットである。VPSは、複数のレイヤから構成されている部分映像において、複数の部分映像に共通する符号化パラメータの集合及び部分映像に含まれる複数のレイヤ並びに個々のレイヤに関連する符号化パラメータの集合が規定されている。
 SPSは、シーケンスパラメータセットのことを指す。SPSには、Frame50000aを復号するための符号化パラメータの集合が規定されている。例えば、ピクチャの幅及び高さが規定されている。
 PPSは、ピクチャパラメータセットのことを指す。PPSには、Frame50000a内の各ピクチャを復号するための符号化パラメータの集合が規定されている。
 SLICEは、スライスレイヤのことを指す。SLICEは、処理対象のスライスを復号するためのデータの集合が規定されている。
 本実施形態では、図11のSEIに上述のEventStream60及びInband Event70と同等のメタデータが記述されている。図11から明らかなように、SEIは、セグメントデータ5000nを構成する各Frameのうちの1つのFrame50000nに含まれている。そのため、切替部1120は、図11に示すようなセグメントデータ5000nのFrame50000nにおけるSEIから、Inband Event70よりも更に細かく調整されたタイミングで、視聴モード切り替えに関するメタデータを取得できる。
 再生装置600が、時刻t2から開始される拡張360ビデオを自由視聴モードで再生する場合、再生装置600は、上述のSEIに基づき、適切なタイミングで自由視聴モードのMPDデータを生成装置300から取得する。これにより、再生装置600の切替部1120は、適切なタイミングで推奨視聴モードから自由視聴モードに切り替えることができる。
 なお、切替部1120は、SEIによっても、視聴モードだけでなく、映像種別も切り替えることができる。
 〔映像種別の切り替えに関するメタデータの生成処理〕
 次に、本実施形態に係る再生システム2の生成装置300における生成処理について、図12を参照して説明する。図12は、本実施形態に係る再生システム2の生成装置300における映像種別の切り替えに関する生成処理の流れを示すフローチャートである。
 以下では、再生システム2が、EventStream60、Inband Event70又はSEI等のメタデータを利用する場合の映像種別の切り替えに関する生成処理について説明する。
 ステップS211:図12に示すように、生成装置300のメタデータ生成部320が映像種別を切り替える場合(ステップS211のYES)、ステップS212に進む。生成装置300のメタデータ生成部320が映像種別を切り替えない場合(ステップS211のNO)、視聴モード切替に関するメタデータの生成処理を終了する。
 ステップS212:生成装置300のメタデータ生成部320は、映像種別を切り替えるメタデータを生成する。
 例えば、生成装置300のメタデータ生成部320は、EventStream60、Inband Event70及びSEI等のメタデータを生成する。
 ステップS213:映像種別を切り替えるメタデータとしてEventStream60を利用する場合、生成装置300のメタデータ生成部320は、EventStream60を、当該メタデータとは別に生成したMPDデータ等のメタデータに付与する。続いて、生成装置300の配信部310は、EventStream60が付与されたMPDデータ等のメタデータを再生装置600に配信する。
 映像種別を切り替えるメタデータとしてInband Event70を利用する場合、生成装置300のメタデータ生成部320は、映像種別を切り替えるメタデータをセグメントデータに多重化する形で付与する。続いて、生成装置300の配信部310は、Inband Event70が付与されたセグメントデータを再生装置600に配信する。
 映像種別を切り替えるメタデータとしてSEIを利用する場合、生成装置300のメタデータ生成部320は、映像種別を切り替えるメタデータをセグメントデータ内のSEIに多重化する形で付与する。続いて、生成装置300の配信部310は、SEIが付与されたセグメントデータを再生装置600に配信する。
 生成装置300は、映像種別を切り替えるメタデータを付与したMPDデータ等のメタデータ、又はセグメントデータの配信後、視聴モードの切り替えに関するメタデータの生成処理を終了する。
 生成装置300のメタデータ生成部320は、上述のステップS211~S213までの各ステップを、セグメントデータの配信単位ごとに実行する。
 〔再生処理〕
 次に、本実施形態に係る再生システム2の再生装置600における再生処理(再生方法)について、図13を参照して説明する。図13は、本実施形態に係る再生システム2の再生装置600における再生処理の流れを示すフローチャートである。
 図13におけるステップS221~S227は、図7におけるステップS111~S117と同様であるため、ここではその説明を省略する。
 ステップS228:再生装置600の第2の取得部1110が、資源位置指定子群から順次資源位置指定子を取得している場合、再生装置600の切替部1120は、MPDデータ又はセグメントデータ内から視聴モードの切り替えに関するメタデータを検索する。再生装置600の切替部1120が、MPDデータ又はセグメントデータ内から切り替えに関するメタデータを検出した場合(ステップS228のYES)、ステップS229に進む。再生装置600の切替部1120が、MPDデータ又はセグメントデータ内から切り替えに関するメタデータを検出しなかった場合(ステップS228のNO)、ステップS226に戻る。
 例えば、再生装置600の第2の取得部1110は、図9のように、Period5a内からEventStream60を検出する。また、再生装置600の第2の取得部1110は、図10及び11のように、セグメントデータ5000n内からInband Event70又はSEIを検出する。
 ステップS229:再生装置600の切替部1120が、視聴モードを切り替えることを選択する場合(ステップS229のYES)、生成処理を終了する。この場合、再生装置600の切替部1120は、次回以降、現在の視聴モードから別の視聴モードに切り替えた時分割データを取得できるように、生成装置300に別の視聴モードのMPDデータを生成するように要求する。切替部1120が、視聴モードを切り替えないことを選択する場合(ステップS229のNO)、ステップS226に戻る。
 これにより、再生装置600の第2の取得部1110は、ユーザに切り替えられた視聴モードの部分映像を視聴させることができる。
 再生装置600は、上述のステップS224~S229を所定の時間単位で実行する。例えば、再生装置600は、ステップS224~S229を、図4に示す各period5a、5b単位で実行する。
 <実施形態3>
 実施形態1及び2の再生システム1及び2は、単一視点(単一ビュー)から1つのカメラにより撮影した360ビデオ又は拡張360ビデオを選択して再生していたが、これに限定されない。再生システムは、本実施形態の再生システム3のように、複数の視点(マルチビュー)から撮影した部分映像を反映した360ビデオ又は拡張360ビデオを再生してもよい。
 実施形態3について、図14及び15を参照して説明する。なお、説明の便宜上、実施形態1及び2にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
 〔再生システム3〕
 図14は、本実施形態に係る再生システム3の要部構成を示すブロック図である。再生システム3は、再生装置600及び生成装置900を備えている。
 図14に示すように、本実施形態に係る再生システム3の生成装置900は、メタデータ生成部320及びパラメータ生成部330の代わりに、メタデータ生成部920及びパラメータ生成部930を備えている。この点以外は、生成装置900は、生成装置300と同様の構成である。
 以下、具体例を用いながら、再生システム3の機能を説明する。
 (カメラが固定されている場合における再生システム3の機能)
 まず、図15を用いて、視点P1におけるカメラと、視点P0におけるカメラとが固定されている場合について説明する。
 生成装置900のメタデータ生成部920は、視点P0及び視点P1から撮影された各部分映像データ群に含まれる、各部分映像データの所在を指定する資源位置指定子から構成される複数の資源位置指定子群を含むメタデータを生成する。
 ここで、メタデータ生成部920は、パラメータ生成部930に、視点P0と視点P1とを含むGPS情報等のグローバルな位置情報を更に生成させ、MPDデータ等のメタデータに付与する。これにより、メタデータ生成部920は、視点P0と、視点P1との相対位置関係が明らかになり、当該視点の位置を区別することができる。これにより、メタデータ生成部920は、視点P0から撮影された部分映像データの所在を示す資源位置指定子群と、視点P1から撮影された部分映像のデータの所在を示す資源位置指定子群とを区別してメタデータを作成できる。
 また、再生装置600の第2の取得部1110は、当該メタデータの資源位置指定子群を参照しても、P0からの部分映像データと、P1からの部分映像データとを混同せずに取得することができる。これにより、再生装置600の再生部120は、複数のカメラで撮影した場合であっても、これらにより撮影された部分映像を、ユーザの視点及び視線方向毎に正確に再生することができる。
 また、図15の(b)のように、時刻t2~t3において、再生システム3が、視点P1におけるカメラが360ビデオV1から拡張360ビデオV1に切り替えたとする。この場合も、メタデータ生成部920は、グローバルな位置情報をメタデータに付与する以外は、上述の実施形態と同様にメタデータを生成することができる。
 (カメラが移動する場合における再生システム3の機能)
 また、カメラが移動する場合、再生システム3のメタデータ生成部920は、再生装置600に視点P0と視点P1とを含むグローバルな位置情報をタイムドメタデータとして配信する。また、再生システム3のメタデータ生成部920は、各視点及び視線方向の資源位置指定子群(AdaptationSet)が参照すべきタイムドメタデータを識別するための識別子をパラメータ生成部330に生成させる。
 このように、再生システム3のメタデータ生成部920によれば、カメラが移動する場合であっても、複数のカメラによる資源位置指定子群を区別してメタデータを作成できる。
 〔ソフトウェアによる実現例〕
 再生装置100、600及び生成装置300、900の制御ブロック(特に制御部110、610及びメタデータ生成部320、920)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
 後者の場合、再生装置100、600及び生成装置300、900は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラム及び各種データがコンピュータ(又はCPU)で読み取り可能に記録されたROM(Read Only Memory)又は記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)等を備えている。そして、コンピュータ(又はCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ及びプログラマブルな論理回路等を用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワーク又は放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
 〔まとめ〕
 本発明の態様1に係る再生装置(100、600)は、複数の時分割データ(Period5a、5b)に時分割されて配信されるコンテンツデータを再生する再生装置(100、600)において、上記複数の時分割データ(Period5a、5b)は、全天球映像を構成する部分映像データ(5000a、5000n、5100a、5100n、5000b、5100b、5500b、5900b)のうち、視点及び視線方向の少なくとも何れか毎の部分映像データから構成される1又は複数の部分映像データ群を含んでおり、当該再生装置(100、600)は、上記1又は複数の部分映像データ群に含まれる各部分映像データ(5000a、5000n、5100a、5100n、5000b、5100b、5500b、5900b)の所在を指定する資源位置指定子(Segment500a、500n、510a、510n、500b、510b、550b、590b)から構成される複数の資源位置指定子群(AdaptationSet50a、51a、50b、51b、55b、59b)を含むメタデータ(MPDデータ5、6)を取得する第1の取得部(1100)と、上記メタデータ(MPDデータ5、6)が示す所在から各部分映像データ(5000a、5000n、5100a、5100n、5000b、5100b、5500b、5900b)を取得する第2の取得部(1110)と、上記第2の取得部(1110)が取得した各部分映像データ(5000a、5000n、5100a、5100n、5000b、5100b、5500b、5900b)の示す部分映像を再生する再生部(120)とを備えている。
 上記の構成によれば、再生装置(100、600)が、第1の取得部(1100)と第2の取得部(1110)と再生部(120)とを備えていることで、全天球映像に関するメタデータに基づき全天球映像を再生することができる。
 本発明の態様2に係る再生装置(100、600)では、上記態様1において、上記複数の資源位置指定子群(AdaptationSet50a、51a、50b、51b、55b、59b)のうちの何れの資源位置指定子群(AdaptationSet50a、51a、50b、51b、55b、59b)も、他の資源位置指定子群(AdaptationSet50a、51a、50b、51b、55b、59b)に含まれる資源位置指定子(Segment500a、500n、510a、510n、500b、510b、550n、590b)と同じ視点又は同じ視線方向に対応する資源位置指定子(Segment500a、500n、510a、510n、500b、510b、550n、590b)を含んでいなくてもよい。
 上記の構成によれば、再生装置(100、600)は、第1の再生モード(自由視聴モード)で部分映像を再生することができる。
 本発明の態様3に係る再生装置(100、600)では、上記態様1において、上記複数の資源位置指定子群(AdaptationSet50a、51a、50b、51b、55b、59b)のうちの何れの資源位置指定子群(AdaptationSet50a、51a、50b、51b、55b、59b)のうち、ある資源位置指定子群(AdaptationSet50a、51a、50b、51b、55b、59b)のうちの何れの資源位置指定子群(AdaptationSet50a、51a、50b、51b、55b、59b)には、他の資源位置指定子群(AdaptationSet50a、51a、50b、51b、55b、59b)のうちの何れの資源位置指定子群(AdaptationSet50a、51a、50b、51b、55b、59b)に含まれる資源位置指定子(Segment500a、500n、510a、510n、500b、510b、550n、590b)と同じ視点又は同じ視線方向に対応する資源位置指定子(Segment500a、500n、510a、510n、500b、510b、550n、590b)が含まれていてもよい。
 上記の構成によれば、再生装置(100、600)は、第2の再生モード(推奨視聴モード)で部分映像を再生することができる。
 本発明の態様4に係る再生装置(100、600)では、上記態様1~3の何れかにおいて、上記時分割データ(Period5a、5b)に含まれる各部分映像はDASH(Dynamic Adaptive Streaming over HTTP)規定のメディアセグメントであり、上記メタデータ(MPDデータ5、6)は上記コンテンツデータに関するDASH規定のMPDデータであり、上記資源位置指定子(Segment500a、500n、510a、510n、500b、510b、550n、590b)は上記メディアセグメントのURLであり、上記資源位置指定子群(AdaptationSet50a、51a、50b、51b、55b、59b)の各々は、DASH規定の各AdaptationSetであってもよい。
 時分割データ(Period5a、5b)に含まれる各部分映像はDASH(Dynamic Adaptive Streaming over HTTP)規定のメディアセグメントとして好適に利用することができる。メタデータ(MPDデータ5、6)はコンテンツデータに関するDASH規定のMPDデータとして好適に利用することができる。資源位置指定子(Segment500a、500n、510a、510n、500b、510b、550n、590b)はメディアセグメントのURLとして好適に利用することができる。資源位置指定子群(AdaptationSet50a、51a、50b、51b、55b、59b)の各々は、DASH規定の各AdaptationSetとして好適に利用することができる。
 本発明の態様5に係る再生装置(100、600)では、上記態様4において、上記第1の取得部(1100)は、上記各AdaptationSetに含まれるSupplementalDescriptor 又はEssentialDescriptorから、各部分映像の視点及び視線方向を含むパラメータ群を取得してもよい。
 第1の取得部(1100)は、各AdaptationSetに含まれるSupplementalDescriptor又はEssentialDescriptorから、各部分映像の視点及び視線方向を含むパラメータ群を好適に取得することができる。
 本発明の態様6に係る再生装置(100、600)では、上記態様5において、上記第1の取得部(1100)は、推奨の視点及び視線方向に関するパラメータ群を上記SupplementalDescriptorから取得してもよい。
 第1の取得部(1100)は、推奨の視点及び視線方向に関するパラメータ群をSupplementalDescriptorから好適に取得することができる。
 本発明の態様7に係る(600)では、上記態様4~6の何れかにおいて、上記複数の資源位置指定子群(AdaptationSet50a、51a、50b、51b、55b、59b)のうちの何れの資源位置指定子群(AdaptationSet50a、51a、50b、51b、55b、59b)も、他の資源位置指定子群(AdaptationSet50a、51a、50b、51b、55b、59b)に含まれる資源位置指定子(Segment500a、500n、510a、510n、500b、510b、550n、590b)と同じ視点又は同じ視線方向に対応する資源位置指定子(Segment500a、500n、510a、510n、500b、510b、550n、590b)を含んでいない上記メタデータ(MPDデータ5)を参照する第1の再生モード(自由視聴モード)と上記複数の資源位置指定子群(AdaptationSet50a、51a、50b、51b、55b、59b)のうち、ある資源位置指定子群(AdaptationSet50a、51a、50b、51b、55b、59b)に、他の資源位置指定子群(AdaptationSet50a、51a、50b、51b、55b、59b)に含まれる資源位置指定子(Segment500a、500n、510a、510n、500b、510b、550n、590b)と同じ視点又は同じ視線方向に対応する資源位置指定子(Segment500a、500n、510a、510n、500b、510b、550n、590b)が含まれている上記メタデータ(MPDデータ6)を参照する第2の再生モード(推奨視聴モード)とを切り替える切替部(1120)を更に備えていてもよい。
 上記の構成によれば、再生装置(600)は、切替部(1120)を備えていることで、360ビデオ及び拡張360ビデオのうち何れを再生するかとは独立して、再生モードを切り替えることができる。これにより、再生装置(600)は、360ビデオ又は拡張360ビデオの部分映像を、その時々に適した再生モードで再生することができる。
 本発明の態様8に係る(600)では、上記態様7において、上記切替部(1120)は、上記MPDデータに含まれるEventStream(60)から再生モードの切り替えに関するメタデータを取得し、取得したメタデータを参照して再生モードを切り替えてもよい。
 再生装置(600)の切替部(1120)は、再生モードの切り替えに、EventStream(60)を好適に利用することができる。
 本発明の態様9に係る再生装置(600)では、上記態様7において、上記切替部(1120)は、上記部分映像データ(5000a、5000n、5100a、5100n、5000b、5100b、5500b、5900b)に含まれるInband Event(70)から再生モードの切り替えに関するメタデータを取得し、取得したメタデータを参照して再生モードを切り替えてもよい。
 再生装置(600)の切替部(1120)は、再生モードの切り替えに、Inband Event(70)を好適に利用することができる。
 本発明の態様10に係る再生装置(600)では、上記態様7において、上記切替部(1120)は、上記部分映像データ(5000a、5000n、5100a、5100n、5000b、5100b、5500b、5900b)に含まれるSEI(SupplementalEnhanced Information)から再生モードの切り替えに関するメタデータを取得し、取得
したメタデータを参照して再生モードを切り替えてもよい。
 再生装置(600)の切替部(1120)は、再生モードの切り替えに、SEIを好適に利用することができる。
 本発明の態様11に係る生成装置(300、900)は、複数の時分割データ(Period5a、5b)に時分割されて配信されるコンテンツデータを再生する再生装置(100、600)が参照するメタデータ(MPDデータ5、6)を生成する生成装置(300、900)において、上記複数の時分割データ(Period5a、5b)は、全天球映像を構成する部分映像データ(5000a、5000n、5100a、5100n、5000b、5100b、500b、5900b)のうち、視点及び視線方向の少なくとも何れか毎の部分映像データ(5000a、5000n、5100a、5100n、5000b、5100b、5500b、5900b)から構成される1又は複数の部分映像データ群を含んでおり、当該生成装置(300、900)は、上記1又は複数の部分映像データ群に含まれる各部分映像データ(5000a、5000n、5100a、5100n、5000b、5100b、5500b、5900b)の所在を指定する資源位置指定子(Segment500a、500n、510a、510n、500b、510b、550n、590b)から構成される複数の資源位置指定子群(AdaptationSet50a、51a、50b、51b、55b、59b)を含むメタデータ(MPDデータ5、6)を生成するメタデータ生成部(320、920)を備えている。
 上記の構成によれば、生成装置(300、900)が、メタデータ生成部(320、920)を備えていることで、全天球映像に関するメタデータを生成することができる。
 本発明の態様12に係る生成装置(300、900)では、上記態様11において、上記メタデータ生成部(320、920)は、上記複数の資源位置指定子群(AdaptationSet50a、51a、50b、51b、55b、59b)のうちの何れの資源位置指定子群(AdaptationSet50a、51a、50b、51b、55b、59b)も、他の資源位置指定子群(AdaptationSet50a、51a、50b、51b、55b、59b)に含まれる資源位置指定子(Segment500a、500n、510a、510n、500b、510b、550n、590b)と同じ視点又は同じ視線方向に対応する資源位置指定子(Segment500a、500n、510a、510n、500b、510b、550n、590b)を含んでいないメタデータ(MPDデータ5)を生成してもよい。
 上記の構成によれば、生成装置(300、900)は、第1の再生モード(自由視聴モード)で部分映像を再生するためのメタデータ(MPDデータ5)を生成することができる。
 本発明の態様13に係る生成装置(300、900)では、上記態様11において、上記メタデータ生成部(320、920)は、上記複数の資源位置指定子群(AdaptationSet50a、51a、50b、51b、55b、59b)のうちのある資源位置指定子群(AdaptationSet50a、51a、50b、51b、55b、59b)には、他の資源位置指定子群(AdaptationSet50a、51a、50b、51b、55b、59b)に含まれる資源位置指定子(Segment500a、500n、510a、510n、500b、510b、550n、590b)と同じ視点又は同じ視線方向に対応する資源位置指定子(Segment500a、500n、510a、510n、500b、510b、550n、590b)が含まれているメタデータ(MPDデータ6)を生成してもよい。
 上記の構成によれば、生成装置(300、900)は、第2の再生モード(推奨視聴モード)で部分映像を再生するためのメタデータ(MPDデータ6)を生成することができる。
 本発明の態様14に係る再生システム(1、2、3)は、複数の時分割データ(Period5a、5b)に時分割されて配信されるコンテンツデータを再生する再生システム(1、2、3)であって、上記複数の時分割データ(Period5a、5b)は、全天球映像を構成する部分映像データ(5000a、5000n、5100a、5100n、5000b、5100b、5500b、5900b)のうち、視点及び視線方向の少なくとも何れか毎の部分映像データ(5000a、5000n、5100a、5100n、5000b、5100b、5500b、5900b)から構成される1又は複数の部分映像データ群を含んでおり、上記1又は複数の部分映像データ群に含まれる各部分映像データ(5000a、5000n、5100a、5100n、5000b、5100b、5500b、5900b)の所在を指定する資源位置指定子(Segment500a、500n、510a、510n、500b、510b、550n、590b)から構成される複数の資源位置指定子群(AdaptationSet50a、51a、50b、51b、55b、59b)を含むメタデータ(MPDデータ5、6)を生成するメタデータ生成部(320、920)と、上記1又は複数の部分映像データ群に含まれる各部分映像データ(5000a、5000n、5100a、5100n、5000b、5100b、5500b、5900b)の所在を指定する資源位置指定子(Segment500a、500n、510a、510n、500b、510b、550b、590b)から構成される複数の資源位置指定子群(AdaptationSet50a、51a、50b、51b、55b、59b)を含むメタデータ(MPDデータ5、6)を取得する第1の取得部(1100)と、上記メタデータ(MPDデータ5、6)が示す所在から各部分映像データ(5000a、5000n、5100a、5100n、5000b、5100b、5500b、5900b)を取得する第2の取得部(1110)と、上記第2の取得部(1110)が取得した各部分映像データ(5000a、5000n、5100a、5100n、5000b、5100b、5500b、5900b)の示す部分映像を再生する再生部(120)とを備えている。
 上記の構成によれば、再生システム(1、2、3)は、再生装置(100、600)及び生成装置(300、900)を備えていることで、全天球映像に関するメタデータを生成、伝送し、当該メタデータに基づき全天球映像を再生することができる。
 本発明の態様15に係るプログラムは、上記態様1~10の何れかに記載の再生装置(100、600)としてコンピュータを機能させるプログラムであって、当該コンピュータを上記各部として機能させるためのプログラムである。
 プログラムは、再生装置(100、600)の上記各部として機能させるために好適に利用することができる。
 本発明の態様16に係るプログラムは、上記態様11~13の何れかに記載の生成装置(300、900)としてコンピュータを機能させるプログラムであって、当該コンピュータを上記各部として機能させるためのプログラムである。
 プログラムは、生成装置(300、900)の上記各部として機能させるために好適に利用することができる。
 本発明の態様17に係る記録媒体は、上記態様15又は16に記載のプログラムが記録されているコンピュータ読み取り可能な記録媒体である。
 コンピュータ読み取り可能な記録媒体は、上記態様15に記載のプログラム及び上記態様16に記載のプログラムに好適に利用することができる。
 本発明の態様18に係る再生方法は、複数の時分割データ(Period5a、5b)に時分割されて配信されるコンテンツデータを再生する再生方法において、上記複数の時分割データ(Period5a、5b)は、全天球映像を構成する部分映像データ(5000a、5000n、5100a、5100n、5000b、5100b、5500b、5900b)のうち、視点及び視線方向の少なくとも何れか毎の部分映像データ(5000a、5000n、5100a、5100n、5000b、5100b、500b、5900b)から構成される1又は複数の部分映像データ群を含んでおり、当該再生方法は、上記1又は複数の部分映像データ群に含まれる各部分映像データ(5000a、5000n、5100a、5100n、5000b、5100b、5500b、5900b)の所在を指定する資源位置指定子(Segment500a、500n、510a、550n、500b、510b、510n、590b)から構成される複数の資源位置指定子群(AdaptationSet50a、51a、50b、51b、55b、59b)を含むメタデータ(MPDデータ5、6)を取得する第1の取得工程と、上記メタデータ(MPDデータ5、6)が示す所在から各部分映像データ(5000a、5000n、5100a、5100n、5000b、5100b、5500b、5900b)を取得する第2の取得工程と、上記第2の取得工程において取得した各部分映像データ(5000a、5000n、5100a、5100n、5000b、5100b、5500b、5900b)の示す部分映像を再生する再生工程とを含んでいる。
 上記の構成によれば、再生方法が、第1の取得工程と第2の取得工程と再生工程とを備えていることで、全天球映像に関するメタデータに基づき全天球映像を再生することができる。
 本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。更に、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
 (関連出願の相互参照)
 本出願は、2017年4月4日に出願された日本国特許出願:特願2017-074534に対して優先権の利益を主張するものであり、それを参照することにより、その内容の全てが本書に含まれる。
 1~3 再生システム
 5、6 MPDデータ(メタデータ)
 5a、5b Period(時分割データ)
 50a、51a、50b、51b、55b、59b AdaptationSet(資源位置指定子群)
 60 EventStream
 70 Inband Event
 500a、500n、510a、510n、500b、510b、550b、590b
 Segment(資源位置指定子)
 5000a、5000n、5100a、5100n、5000b、5100b、5500b、5900b 部分映像データ
 501a、551b SupplementalDescriptor
 511a、501b、511b、591b EssentialDescriptor
 100、600 再生装置
 300、900 生成装置
 320、920 メタデータ生成部
 1100 第1の取得部
 1110 第2の取得部
 1120 切替部

Claims (18)

  1.  複数の時分割データに時分割されて配信されるコンテンツデータを再生する再生装置において、
     上記複数の時分割データは、全天球映像を構成する部分映像データのうち、視点及び視線方向の少なくとも何れか毎の部分映像データから構成される1又は複数の部分映像データ群を含んでおり、
     当該再生装置は、
     上記1又は複数の部分映像データ群に含まれる各部分映像データの所在を指定する資源位置指定子から構成される複数の資源位置指定子群を含むメタデータを取得する第1の取得部と、
     上記メタデータが示す所在から各部分映像データを取得する第2の取得部と、
     上記第2の取得部が取得した各部分映像データの示す部分映像を再生する再生部と
    を備えている
    ことを特徴とする再生装置。
  2.  上記複数の資源位置指定子群のうちの何れの資源位置指定子群も、他の資源位置指定子群に含まれる資源位置指定子と同じ視点又は同じ視線方向に対応する資源位置指定子を含んでいない
    ことを特徴とする請求項1に記載の再生装置。
  3.  上記複数の資源位置指定子群のうち、ある資源位置指定子群には、他の資源位置指定子群に含まれる資源位置指定子と同じ視点又は同じ視線方向に対応する資源位置指定子が含まれている
    ことを特徴とする請求項1に記載の再生装置。
  4.  上記時分割データに含まれる各部分映像はDASH(Dynamic Adaptive Streaming over HTTP)規定のメディアセグメントであり、
     上記メタデータは上記コンテンツデータに関するDASH規定のMPDデータであり、
     上記資源位置指定子は上記メディアセグメントのURLであり
     上記資源位置指定子群の各々は、DASH規定の各AdaptationSetである
    ことを特徴とする請求項1から3の何れか1項に記載の再生装置。
  5.  上記第1の取得部は、上記各AdaptationSetに含まれるSupplementalDescriptor 又はEssentialDescriptorから、各部分映像の視点及び視線方向を含むパラメータ群を取得することを特徴とする請求項4に記載の再生装置。
  6.  上記第1の取得部は、推奨の視点及び視線方向に関するパラメータ群を上記SupplementalDescriptorから取得する
    ことを特徴とする請求項5に記載の再生装置。
  7.  上記複数の資源位置指定子群のうちの何れの資源位置指定子群も、他の資源位置指定子群に含まれる資源位置指定子と同じ視点又は同じ視線方向に対応する資源位置指定子を含んでいない上記メタデータを参照する第1の再生モードと
     上記複数の資源位置指定子群のうち、ある資源位置指定子群に、他の資源位置指定子群に含まれる資源位置指定子と同じ視点又は同じ視線方向に対応する資源位置指定子が含まれている上記メタデータを参照する第2の再生モードとを切り替える切替部を更に備えていることを特徴とする請求項4から6の何れか1項に記載の再生装置。
  8.  上記切替部は、上記MPDデータに含まれるEventStreamから再生モードの切り替えに関するメタデータを取得し、取得したメタデータを参照して再生モードを切り替えることを特徴とする請求項7に記載の再生装置。
  9.  上記切替部は、上記部分映像データに含まれるInband Eventから再生モードの切り替えに関するメタデータを取得し、取得したメタデータを参照して再生モードを切り替えることを特徴とする請求項7に記載の再生装置。
  10.  上記切替部は、上記部分映像データに含まれるSEI(Supplemental Enhanced Information)から再生モードの切り替えに関するメタデータを取得し、取得したメタデータを参照して再生モードを切り替えることを特徴とする請求項7に記載の再生装置。
  11.  複数の時分割データに時分割されて配信されるコンテンツデータを再生する再生装置が参照するメタデータを生成する生成装置において、
     上記複数の時分割データは、全天球映像を構成する部分映像データのうち、視点及び視線方向の少なくとも何れか毎の部分映像データから構成される1又は複数の部分映像データ群を含んでおり、
     当該生成装置は、
     上記1又は複数の部分映像データ群に含まれる各部分映像データの所在を指定する資源位置指定子から構成される複数の資源位置指定子群を含むメタデータを生成するメタデータ生成部
    を備えている
    ことを特徴とする生成装置。
  12.  上記メタデータ生成部は、上記複数の資源位置指定子群のうちの何れの資源位置指定子群も、他の資源位置指定子群に含まれる資源位置指定子と同じ視点又は同じ視線方向に対応する資源位置指定子を含んでいないメタデータを生成する
    ことを特徴とする請求項11に記載の生成装置。
  13.  上記メタデータ生成部は、上記複数の資源位置指定子群のうちのある資源位置指定子群には、他の資源位置指定子群に含まれる資源位置指定子と同じ視点又は同じ視線方向に対応する資源位置指定子が含まれているメタデータを生成する
    ことを特徴とする請求項11に記載の生成装置。
  14.  複数の時分割データに時分割されて配信されるコンテンツデータを再生する再生システムであって、
     上記複数の時分割データは、全天球映像を構成する部分映像データのうち、視点及び視線方向の少なくとも何れか毎の部分映像データから構成される1又は複数の部分映像データ群を含んでおり、
     上記1又は複数の部分映像データ群に含まれる各部分映像データの所在を指定する資源位置指定子から構成される複数の資源位置指定子群を含むメタデータを生成するメタデータ生成部と、
     上記1又は複数の部分映像データ群に含まれる各部分映像データの所在を指定する資源位置指定子から構成される複数の資源位置指定子群を含むメタデータを取得する第1の取得部と、
     上記メタデータが示す所在から各部分映像データを取得する第2の取得部と、
     上記第2の取得部が取得した各部分映像データの示す部分映像を再生する再生部と
    を備えていることを特徴とする再生システム。
  15.  請求項1~10の何れか1項に記載の再生装置としてコンピュータを機能させるプログラムであって、当該コンピュータを上記各部として機能させるためのプログラム。
  16.  請求項11~13の何れか1項に記載の生成装置としてコンピュータを機能させるプログラムであって、当該コンピュータを上記各部として機能させるためのプログラム。
  17.  請求項15又は16に記載のプログラムが記録されているコンピュータ読み取り可能な記録媒体。
  18.  複数の時分割データに時分割されて配信されるコンテンツデータを再生する再生方法において、
     上記複数の時分割データは、全天球映像を構成する部分映像データのうち、視点及び視線方向の少なくとも何れか毎の部分映像データから構成される1又は複数の部分映像データ群を含んでおり、
     当該再生方法は、
     上記1又は複数の部分映像データ群に含まれる各部分映像データの所在を指定する資源位置指定子から構成される複数の資源位置指定子群を含むメタデータを取得する第1の取得工程と、
     上記メタデータが示す所在から各部分映像データを取得する第2の取得工程と、
     上記第2の取得工程において取得した各部分映像データの示す部分映像を再生する再生工程と
    を含んでいる
    ことを特徴とする再生方法。
PCT/JP2018/012999 2017-04-04 2018-03-28 再生装置、生成装置、再生システム、プログラム、記録媒体及び再生方法 WO2018186272A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/499,648 US20200045359A1 (en) 2017-04-04 2018-03-28 Reproduction device, generation device, reproduction system, program, recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-074534 2017-04-04
JP2017074534 2017-04-04

Publications (1)

Publication Number Publication Date
WO2018186272A1 true WO2018186272A1 (ja) 2018-10-11

Family

ID=63712128

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/012999 WO2018186272A1 (ja) 2017-04-04 2018-03-28 再生装置、生成装置、再生システム、プログラム、記録媒体及び再生方法

Country Status (2)

Country Link
US (1) US20200045359A1 (ja)
WO (1) WO2018186272A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017036953A1 (en) * 2015-09-02 2017-03-09 Thomson Licensing Method, apparatus and system for facilitating navigation in an extended scene
GB2570298A (en) * 2018-01-17 2019-07-24 Nokia Technologies Oy Providing virtual content based on user context

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016199607A1 (ja) * 2015-06-12 2016-12-15 ソニー株式会社 情報処理装置および情報処理方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016199607A1 (ja) * 2015-06-12 2016-12-15 ソニー株式会社 情報処理装置および情報処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"Information technology-Dynamic adaptive streaming over HTTP(DASH)-Part 1: Media presentation description and segment formats AMENDMENT 1: Support for event messages and extended audio channel configuration", DRAFT AMENDMENT ISO/IEC 23009-1:2012/DAM 1, 15 February 2013 (2013-02-15), pages 17 - 23 *

Also Published As

Publication number Publication date
US20200045359A1 (en) 2020-02-06

Similar Documents

Publication Publication Date Title
KR102246002B1 (ko) 가상 현실 미디어 콘텐트의 스트리밍을 개선하는 방법, 디바이스, 및 컴퓨터 프로그램
US20200236278A1 (en) Panoramic virtual reality framework providing a dynamic user experience
JP7072649B2 (ja) 高品質のエクスペリエンスのためのオーディオメッセージの効率的な配信および使用のための方法および装置
KR102258448B1 (ko) 핫스팟 및 roi 관련 메타데이터를 이용한 360도 비디오를 송수신하는 방법 및 그 장치
US11483629B2 (en) Providing virtual content based on user context
US20220256231A1 (en) Systems and methods for synchronizing data streams
CN111837383A (zh) 发送和接收关于动态视点的坐标系的元数据的方法和装置
US11050991B2 (en) Image processing using a plurality of images for a three dimension scene, having a different viewing positions and/or directions
WO2019202207A1 (en) Processing video patches for three-dimensional content
KR20190008325A (ko) 가상 현실 미디어 콘텐트의 적응적 스트리밍을 위한 방법, 디바이스, 및 컴퓨터 프로그램
EP3681170A1 (en) A method, an apparatus and a computer program product for virtual reality
CN107851425B (zh) 信息处理设备、信息处理方法和程序
US10743003B1 (en) Scalable video coding techniques
KR20090065735A (ko) 스테레오스코픽 콘텐츠 장면 재생 방법 및 그 장치
US11228773B1 (en) Scalable video coding techniques
KR20190065838A (ko) 타임 슬라이스 영상을 생성하는 서버, 방법 및 사용자 단말
WO2018186272A1 (ja) 再生装置、生成装置、再生システム、プログラム、記録媒体及び再生方法
KR20210019017A (ko) 컨텐츠의 처리 방법 및 장치
CN116233493A (zh) 沉浸媒体的数据处理方法、装置、设备及可读存储介质
US10553029B1 (en) Using reference-only decoding of non-viewed sections of a projected video
CN114223211A (zh) 信息处理装置和信息处理方法
CN113574899A (zh) 信息处理装置、信息处理方法、再现处理装置和再现处理方法
KR102243666B1 (ko) 360도 비디오를 전송하는 방법, 360도 비디오를 수신하는 방법, 360도 비디오 전송 장치, 360도 비디오 수신 장치
WO2019031306A1 (ja) 生成装置、再生装置、生成方法、再生方法、制御プログラム、記録媒体
WO2022014369A1 (ja) 画像処理装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18780684

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18780684

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP