WO2022230186A1 - 配信制御システム、配信制御装置、配信制御方法、及びプログラム - Google Patents

配信制御システム、配信制御装置、配信制御方法、及びプログラム Download PDF

Info

Publication number
WO2022230186A1
WO2022230186A1 PCT/JP2021/017244 JP2021017244W WO2022230186A1 WO 2022230186 A1 WO2022230186 A1 WO 2022230186A1 JP 2021017244 W JP2021017244 W JP 2021017244W WO 2022230186 A1 WO2022230186 A1 WO 2022230186A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
virtual
virtual viewpoint
distribution control
user
Prior art date
Application number
PCT/JP2021/017244
Other languages
English (en)
French (fr)
Inventor
笑添 趙
隆文 奥山
裕之 北田
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to PCT/JP2021/017244 priority Critical patent/WO2022230186A1/ja
Priority to US18/557,268 priority patent/US20240144602A1/en
Priority to JP2023517012A priority patent/JPWO2022230186A1/ja
Publication of WO2022230186A1 publication Critical patent/WO2022230186A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • G06T17/205Re-meshing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234345Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements the reformatting operation being performed only on part of the stream, e.g. a region of the image or a time segment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/08Bandwidth reduction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/36Level of detail

Definitions

  • the present invention relates to a distribution control system, a distribution control device, a distribution control method, and a program.
  • Stereoscopic video content with six degrees of freedom (6DoF), typified by volumetric videos and holograms, is known.
  • 6DoF six degrees of freedom
  • Volumetric video is animation data composed of polygon meshes (hereinafter also simply referred to as "mesh”) and textures, and is displayed on the display by rendering together with the virtual environment on the client side. can.
  • Non-Patent Document 1 proposes a method of rendering a volumetric video on the server side based on the movement of the user's head detected by an AR/VR device, which is a client, and transmitting it to the client as 2D data.
  • Non-Patent Document 2 proposes a method of distributing a volumetric video generated in real time to a client and rendering it on the client side.
  • Non-Patent Document 3 proposes a method of reducing the amount of data required for playback by dynamically changing the Level Of Detail of volumetric video according to the bandwidth of the communication network.
  • volumetric video has a large amount of data, and the communication network bandwidth required for its distribution is large, so an efficient distribution method is required.
  • Non-Patent Document 1 rendering for each user needs to be performed on the server side, which imposes a heavy load on the server. Also, when the number of users increases, the division of server resources may cause deterioration in the quality of video viewed by each user. Furthermore, it is necessary to send location information from the client to the server with high frequency and low delay. is large.
  • Non-Patent Document 2 requires a communication band of 4 Gbps, but it is difficult for users to always secure a stable 4 Gbps communication band.
  • the load on the communication network is heavy, the usable bandwidth of other users using the same communication network is narrowed, and the quality of experience of the other users is lowered.
  • Non-Patent Document 3 when the usable bandwidth of the communication network is narrow, the 3D data within the range visible to the user in the volumetric video being viewed (that is, the 3D data corresponding to the front for the user) Since the image quality and Level of Detail, including the 3D data that is displayed, are degraded, the quality of experience is significantly degraded.
  • An embodiment of the present invention has been made in view of the above points, and aims to reduce the amount of data required for distributing stereoscopic video content while maintaining the user's experience quality.
  • a distribution system includes an arrangement unit that arranges a plurality of virtual viewpoints centering on an object represented by stereoscopic data that constitutes stereoscopic video content; a first creation unit for creating, for each of the virtual viewpoints, one-sided stereoscopic data in which a data amount of a portion of the object that cannot be visually recognized from the virtual viewpoint is reduced; a distribution unit that distributes single-panel stereoscopic data of one virtual viewpoint among the single-panel stereoscopic data for each virtual viewpoint to the terminal of the user according to a position and a field of view.
  • FIG. 6 is a flowchart showing an example of one-surface 3D data creation processing according to the present embodiment
  • FIG. 4 is a diagram showing an example of arrangement of virtual viewpoints
  • 6 is a flowchart showing an example of correspondence table creation processing according to the present embodiment
  • FIG. 10 is a diagram showing an example of a viewing angle range
  • FIG. 10 is a diagram showing an example of a viewing angle range correspondence table
  • 6 is a flowchart showing an example of distribution processing according to the embodiment
  • FIG. 4 is a diagram showing an example of specifying a virtual viewpoint
  • the volumetric video is animation data composed of 3D data (also called three-dimensional data or stereoscopic data) represented by meshes and textures. That is, for example, if the 3D data of the frame at time t is d t , the volumetric video is expressed as ⁇ d t
  • t s is the start time of the volumetric video and t e is the end time.
  • volumetric video and can be similarly applied to, for example, stereoscopic video content having six degrees of freedom such as a hologram.
  • FIG. 1 is a diagram showing an example of the overall configuration of a distribution control system 1 according to this embodiment.
  • the distribution control system 1 includes a distribution control server 10, a content server 20, a client 30, and a service site server 40. Also, the distribution control server 10 and the client 30 are communicably connected via a communication network N such as the Internet. Similarly, client 30 and service site server 40 are communicably connected via communication network N.
  • FIG. 1 the distribution control server 10 and the client 30 are communicably connected via a communication network N such as the Internet.
  • client 30 and service site server 40 are communicably connected via communication network N.
  • distribution control server 10 and the content server 20 exist within the same local network and are communicably connected within the local network. It may be communicatively connected.
  • the distribution control server 10 creates a plurality of one-plane 3D data from the 3D data that constitutes the given volumetric video, and stores the plurality of one-plane 3D data in the content server 20 .
  • the one-plane 3D data is three-dimensional data when an object represented by the 3D data that constitutes the volumetric video is viewed from a certain point of view. It has a smaller amount of data than
  • the object is the subject of the volumetric video, and means any object that can be represented by meshes and textures, such as people, animals and plants, structures, buildings, machines, celestial bodies, natural phenomena, etc. do.
  • the distribution control server 10 determines appropriate one-plane 3D data from the user's viewpoint, spatial position, field of view (line-of-sight direction and viewing range), etc., and sends this one-plane 3D data to the client. Deliver to 30.
  • the user's viewpoint and spatial position refer to the user's position in the virtual space in which the target object is arranged.
  • the content server 20 stores a plurality of one-sided 3D data. Also, in response to a data request from the distribution control server 10, the content server 20 sends back to the distribution control server 10 single-sided 3D data corresponding to this data request.
  • the clients 30 are various terminals (eg, XR (VR/AR/MR/SR, etc.) devices, etc.) used by users who watch the volumetric video, and render the one-sided 3D data distributed from the distribution control server 10. , to play a volumetric video.
  • XR devices include smart phones, tablet terminals, wearable devices, etc., which are equipped with application programs that function as XR devices.
  • a user views a volumetric video
  • the following procedure is performed.
  • the user accesses the service site server 40 with the client 30 and acquires a list of contents (volumetric videos) that the user can view.
  • the user selects the volumetric video they wish to view from this list and obtains a link to the selected volumetric video.
  • the client 30 accesses the link, a viewing request is transmitted to the distribution control server 10, and full 3D data is returned in response to this request, thereby starting playback of the volumetric video.
  • the client 30 appropriately transmits information such as the user's viewpoint, spatial position, field of view (hereinafter, information representing the user's viewpoint or spatial position and field of view is also referred to as "user viewpoint information") to the distribution control server 10.
  • information such as the user's viewpoint, spatial position, field of view (hereinafter, information representing the user's viewpoint or spatial position and field of view is also referred to as "user viewpoint information")
  • user viewpoint information information representing the user's viewpoint or spatial position and field of view
  • one-sided 3D data corresponding to the user's viewpoint, spatial position, field of view, etc. is returned from the distribution control server 10 and reproduced by the client 30 .
  • the service site server 40 presents a list of content (volumetric video) that the user can view, and provides the client 30 with a link to content selected from this list.
  • the distribution control server 10 has a full 3D data creation unit 101, a correspondence table creation unit 102, a delivery control unit 103, and a delivery unit 104. These units are implemented by, for example, one or more programs installed in the distribution control server 10 causing a processor such as a CPU (Central Processing Unit) to execute processing.
  • a processor such as a CPU (Central Processing Unit) to execute processing.
  • the distribution control server 10 has a correspondence table storage unit 105 .
  • the correspondence table storage unit 105 is implemented by, for example, an auxiliary storage device such as a HDD (Hard Disk Drive) or an SSD (Solid State Drive).
  • the one-plane 3D data creation unit 101 creates a plurality of one-plane 3D data from the 3D data that constitutes the volumetric video given to the distribution control server 10 . More specifically, the one-view 3D data creation unit 101 arranges a plurality of virtual viewpoints at equal intervals (or irregular intervals) around the object represented by the 3D data that constitutes the volumetric video, and then creates the virtual viewpoints. Each time, when the object is viewed from the virtual viewpoint, geometry simplification (Level Of Detail lowering processing) is performed on the mesh corresponding to the back surface of the object to create full 3D data. In this way, for each virtual viewpoint, by simplifying the geometry of the mesh behind the object represented by the 3D data (that is, the part that cannot be seen from the virtual viewpoint), one-plane 3D data for each virtual viewpoint is created. do.
  • geometry simplification Level Of Detail lowering processing
  • the one-plane 3D data creation unit 101 saves the created plurality of one-plane 3D data in the content server 20 .
  • the correspondence table creation unit 102 creates a correspondence table (hereinafter also referred to as a "viewing angle range correspondence table") that associates each virtual viewpoint arranged when creating a plurality of one-plane 3D data with the viewing angle range of the virtual viewpoint. ) is created.
  • the viewing angle range is a range in which the same quality of experience can be obtained when viewing an object as when viewing the object from the virtual viewpoint. In other words, it is the range in which the back surface of the geometrically simplified object cannot be seen, similar to the virtual viewpoint.
  • the distribution control unit 103 Upon receiving the user viewpoint information from the client 30, the distribution control unit 103 refers to the viewing angle range correspondence table and determines appropriate one-plane 3D data from this user viewpoint information. More specifically, when at least a part of the target object is captured within the field of view at the viewpoint or the spatial position included in the user viewpoint information, the distribution control unit 103 sets the viewing angle including the viewpoint or the spatial position. A virtual viewpoint corresponding to the range is specified, and one-plane 3D data corresponding to the specified virtual viewpoint is determined as appropriate.
  • the distribution unit 104 transmits the single-sided 3D data determined by the distribution control unit 103 to the client 30 .
  • the correspondence table storage unit 105 stores the viewing angle range correspondence table created by the correspondence table creating unit 102 .
  • the content server 20 has a one-sided 3D data storage unit 201 .
  • the one-sided 3D data storage unit 201 is implemented by, for example, an auxiliary storage device such as an HDD or SSD.
  • the one-side 3D data storage unit 201 stores each one-side 3D data created by the one-side 3D data creating unit 101 .
  • the configuration of the distribution control system 1 shown in FIG. 1 is an example, and other configurations may be used.
  • the distribution control server 10 and content server 20 may be configured as an integrated server.
  • FIG. 2 is a flow chart showing an example of one-plane 3D data creation processing according to the present embodiment. In the following, it is assumed that the volumetric video is provided to the distribution control server 10.
  • FIG. 2 is a flow chart showing an example of one-plane 3D data creation processing according to the present embodiment. In the following, it is assumed that the volumetric video is provided to the distribution control server 10.
  • the full-screen 3D data creation unit 101 acquires 3D data for one frame from the 3D data forming the volumetric video (step S101).
  • the single-sided 3D data creation unit 101 acquires the 3D data dt of the frame at time t .
  • the 3D data is composed of meshes and textures, since the textures are not particularly processed below, only the meshes of the 3D data may be obtained in step S101 above.
  • the one-plane 3D data creation unit 101 arranges N virtual viewpoints around the object represented by the 3D data dt acquired in step S102 (step S102).
  • the line-of-sight direction of each virtual viewpoint is the object.
  • the single-surface 3D data creation unit 101 creates N images with the object in the line-of-sight direction at regular intervals (or non-uniform intervals) on the circumference of a circle with a predetermined radius centered on the object.
  • N is a predetermined integer of 2 or more.
  • virtual viewpoints V 1 to V 8 with the object O as the line-of-sight direction are arranged at regular intervals on the circumference of a circle with a radius R centered on the object O.
  • Arranging the virtual viewpoints on the circumference of the circle is an example, and the present invention is not limited to this.
  • the virtual viewpoints may be arranged on the sides or vertices of a polygon centered on the object.
  • the virtual viewpoints V 1 to V 8 are arranged on the xy plane of the xyz space with the center of the object O as the origin.
  • a virtual viewpoint may be placed on a sphere (or a polyhedron) centered at .
  • the one-plane 3D data creation unit 101 selects one virtual viewpoint from the N virtual viewpoints arranged in step S102 (step S103).
  • the one-sided 3D data creation unit 101 performs geometry simplification (Level Of Detail reduction) on the mesh corresponding to the back surface of the object when the object is viewed from the virtual viewpoint selected in step S103. processing) is performed (step S104).
  • the single-sided 3D data creation unit 101 performs geometry simplification processing on meshes that are invisible (invisible) from the virtual viewpoint among the meshes that make up the object.
  • the quality of experience equivalent to that of the original 3D data dt is obtained, and one-sided 3D data with a data amount reduced from that of the original 3D data dt is obtained. created.
  • the one-plane 3D data creation unit 101 determines whether or not all N virtual viewpoints have been selected (step S105).
  • step S105 If it is determined in step S105 that there is a virtual viewpoint that has not yet been selected, the one-sided 3D data creation unit 101 returns to step S103 and selects one virtual viewpoint from the virtual viewpoints that have not yet been selected. is selected, and the processing from step S104 onwards is executed.
  • step S105 determines whether or not there is a next frame in the given volumetric video.
  • step S106 If it is determined in step S106 that there is a next frame, the single-sided 3D data creation unit 101 returns to step S101, acquires the 3D data of the next frame, and executes the processes from step S102 onward. That is, in this case, the one-surface 3D data creation unit 101 sets t ⁇ t+1, returns to the above step S101, and acquires the 3D data dt of the frame at the next time t .
  • the data is saved in the one-sided 3D data storage unit 201 of the content server 20 (step S107).
  • d ti is the one-plane 3D data corresponding to the viewpoint V i (where i ⁇ [1, N]) at time t
  • t ⁇ [t s , t e ], i ⁇ [1, N] ⁇ are stored in the one-sided 3D data storage unit 201 .
  • the number N of virtual viewpoints arranged is common to all frames, but may be different for each frame. Further, in the present embodiment, the above steps S102 to S105 are repeatedly executed for each frame. When the data dt are the same, the above steps S102 to S105 may be executed only for the 3D data dt of one frame included in the time width.
  • FIG. 4 is a flowchart showing an example of correspondence table creation processing according to the present embodiment.
  • the correspondence table creation unit 102 arranges N virtual viewpoints around the object represented by the 3D data d (step S201), as in step S102 of FIG. Note that the number of virtual viewpoints to be arranged and the method of arrangement (equally spaced or non-equally spaced, arranged on a circle, arranged on a polygon, etc.) are the same as in step S102 in FIG.
  • the correspondence table creation unit 102 selects one virtual viewpoint from the N virtual viewpoints arranged in step S201 (step S202).
  • the correspondence table creation unit 102 calculates the boundary angle between the virtual viewpoint selected in step S202 and the virtual viewpoint adjacent thereto (hereinafter referred to as "adjacent virtual viewpoint") (step S203).
  • the boundary angle is the angle between the line of sight of the virtual viewpoint and the boundary between the virtual viewpoint and the adjacent virtual viewpoint.
  • the adjacent virtual viewpoints of the virtual viewpoint V2 are V1 and V3
  • the angle between the line of sight of the virtual viewpoint V2 and the line of sight of the adjacent virtual viewpoint V1 is ⁇
  • ⁇ 22 be the angle between the line of sight of the adjacent virtual viewpoint V3 .
  • the line that bisects the angle ⁇ 21 is the boundary with the adjacent virtual viewpoint V1
  • the line that bisects the angle ⁇ 22 is the boundary with the adjacent virtual viewpoint V3, and the angle to these boundaries is defined as the boundary angle. .
  • the correspondence table creation unit 102 determines whether or not all N virtual viewpoints have been selected (step S204).
  • step S204 If it is determined in step S204 above that there is a virtual viewpoint that has not yet been selected, the correspondence table creation unit 102 returns to step S202 above, and selects one virtual viewpoint from the virtual viewpoints that have not yet been selected. Then, the processing after step S203 is executed.
  • the correspondence table creation unit 102 calculates the viewing angle range of each virtual viewpoint from the boundary angle calculated in step S203 above.
  • a viewing angle range correspondence table is created, and the created viewing angle range correspondence table is stored in the correspondence table storage unit 105 (step S205).
  • a virtual viewpoint V i (where i ⁇ [1, N]) is positioned at an angle ⁇ i with respect to the object . is calculated as follows: ⁇ i - ⁇ i1 ⁇ ⁇ i ⁇ i + ⁇ i2 .
  • a viewing angle range correspondence table is created by associating the virtual viewpoint V i with the viewing angle range ⁇ i ⁇ i1 ⁇ i ⁇ i + ⁇ i2 .
  • An example of the viewing angle range correspondence table created in this way is shown in FIG.
  • a common viewing angle range correspondence table was created for the 3D data d t at time t ⁇ [t s , t e ].
  • a viewing angle range correspondence table may be created for each number of arranged virtual viewpoints.
  • FIG. 7 is a flowchart showing an example of distribution processing according to this embodiment. Steps S301 to S303 below are executed each time user viewpoint information is received, and steps S304 to S305 are executed at each frame interval. However, hereinafter, it is assumed that at least a part of the target object is included in the field of view of the user.
  • the distribution control unit 103 uses the viewpoint or spatial position included in the user viewpoint information received from the client 30 to calculate the user position with respect to the object (step S301).
  • the user position is the angle of the viewpoint or spatial position with respect to the object. Note that the reference of the angle is the same as when the position of the virtual viewpoint with respect to the object is determined in step S203 of FIG.
  • the distribution control unit 103 refers to the viewing angle range correspondence table stored in the correspondence table storage unit 105, and specifies a virtual viewpoint from the user position calculated in step S301 (step S302). That is, the distribution control unit 103 identifies, among the virtual viewpoints, a virtual viewpoint corresponding to the viewing angle range including the user position.
  • the virtual viewpoint V2 is identified in step S302 above.
  • FIG. 8 assume that ⁇ 3 ⁇ 31 ⁇ B ⁇ 3 + ⁇ 32 where ⁇ B is the user position of a certain user B.
  • FIG. 8 the virtual viewpoint V3 is identified in step S302 above.
  • the object O exists in the line-of-sight direction of the user A, and the object O does not exist in the line-of-sight direction of the user B, but at least a part of the object O is within the field of view. is a case containing
  • the distribution control unit 103 determines the one-view 3D data corresponding to the virtual viewpoint identified in step S302 as a distribution target (step S303). That is, for example, when the virtual viewpoint specified in step S302 is V i , the distribution control unit 103 determines the one-sided 3D data ⁇ d ti ⁇ to be distributed.
  • the distribution unit 104 acquires, from the content server 20, the one-surface 3D data of the frame at the relevant time, among the one-surface 3D data to be distributed determined in step S303 above (step S304).
  • the distribution unit 104 distributes the single-sided 3D data acquired in step S304 to the client 30 (step S305).
  • the client 30 side renders the one-sided 3D data and displays the object on the display.
  • the distribution control server 10 and the content server 20 according to this embodiment are implemented by, for example, the hardware configuration of a computer 500 shown in FIG. Note that the client 30 and the service site server 40 may also be realized with the same hardware configuration.
  • a computer 500 shown in FIG. 9 has an input device 501, a display device 502, an external I/F 503, a communication I/F 504, a processor 505, and a memory device 506. Each of these pieces of hardware is communicably connected via a bus 507 .
  • the input device 501 is, for example, a keyboard, mouse, touch panel, or the like.
  • the display device 502 is, for example, a display. Note that the computer 500 may not have at least one of the input device 501 and the display device 502 .
  • the external I/F 503 is an interface with an external device such as a recording medium 503a.
  • Examples of the recording medium 503a include CD (Compact Disc), DVD (Digital Versatile Disk), SD memory card (Secure Digital memory card), USB (Universal Serial Bus) memory card, and the like.
  • a communication I/F 504 is an interface for performing data communication with other devices, devices, systems, and the like.
  • the processor 505 is, for example, various arithmetic units such as a CPU.
  • the memory device 506 is, for example, various storage devices such as HDD, SSD, RAM (Random Access Memory), ROM (Read Only Memory), and flash memory.
  • the distribution control server 10 and the content server 20 have the hardware configuration of the computer 500 shown in FIG. 9, so that the various processes described above can be realized.
  • the hardware configuration of the computer 500 shown in FIG. 9 is an example, and the computer 500 may have other hardware configurations.
  • computer 500 may have multiple processors 505 and may have multiple memory devices 506 .
  • the distribution control system 1 arranges a plurality of virtual viewpoints with respect to the target object represented by the 3D data that constitutes the stereoscopic video content. Simplify the geometry of polygon meshes that are not visible from the viewpoint. As a result, one-plane 3D data with a reduced data amount compared to the original 3D data is created for each virtual viewpoint.
  • Distribution Control System 10 Distribution Control Server 20 Content Server 30 Client 40 Service Site Server 50 Communication Network 101 One-sided 3D Data Creation Section 102 Correspondence Table Creation Section 103 Distribution Control Section 104 Distribution Section 105 Correspondence Table Storage Section 201 One-sided 3D Data Storage Section 500 Computer 501 Input device 502 Display device 503 External I/F 503a recording medium 504 communication I/F 505 processor 506 memory device 507 bus

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

一実施形態に係る配信システムは、立体映像コンテンツを構成する立体データが表す対象物に対して、前記対象物を中心とする複数の仮想視点を配置する配置部と、前記仮想視点毎に、前記対象物に関して前記仮想視点からは視認できない部分のデータ量を削減した一面立体データを作成する第1の作成部と、前記対象物が配置される仮想空間上におけるユーザの位置と視界に応じて、前記仮想視点毎の一面立体データのうちの1つの仮想視点の一面立体データを前記ユーザの端末に配信する配信部と、を有する。

Description

配信制御システム、配信制御装置、配信制御方法、及びプログラム
 本発明は、配信制御システム、配信制御装置、配信制御方法、及びプログラムに関する。
 ボリュメトリックビデオやホログラム等に代表される6自由度(6DoF:six degrees of freedom)を持つ立体映像コンテンツが知られている。このようなコンテンツを通信ネットワークにより高品質に配信するためには、高いデータ圧縮技術や通信ネットワーク/システムの負荷分散技術等の利用といったこと以外に、コンテンツ自体の配信を制御する仕組みが必要である。特に、クライアントとなるXR(VR/AR/MR/SR等)デバイスの視界情報や仮想空間におけるユーザの位置情報等に応じて、コンテンツの配信を動的に制御する仕組みが重要である。
 ボリュメトリックビデオはポリゴンメッシュ(以下、単に「メッシュ」ともいう。)とテクスチャとで構成されたアニメーションデータであり、クライアント側で仮想環境と合わせてレンダリングすることで、ディスプレイ上に表示され、視聴ができる。
 ボリュメトリックビデオ配信技術として、非特許文献1~3に記載されている技術が知られている。非特許文献1では、クライアントであるAR/VRデバイスで検出されたユーザの頭の動きに基づいて、ボリュメトリックビデオのレンダリングをサーバ側で行い、2Dデータとして当該クライアントに送信する手法が提案されている。また、非特許文献2では、リアルタイムで生成されたボリュメトリックビデオをクライアントに配信し、クライアント側でレンダリングする手法が提案されている。更に、非特許文献3では、通信ネットワークの帯域に応じてボリュメトリックビデオのLevel Of Detailを動的に変更させることで、再生に必要なデータ量を削減する手法が提案されている。
Serhan Gul, Dimitri Podborski, Thomas Buchholz, Thomas Schierl and Cornelius Hellge, "Low-latency cloud-based volumetric video streaming using head motion prediction", NOSSDAV '20: Proceedings of the 30th ACM Workshop on Network and Operating Systems Support for Digital Audio and Video, June 2020, Pages 27-33 Sergio Orts-Escolano, Christoph Rhemann, Sean Fanello, Wayne Chang, Adarsh Kowdle, Yury Degtyarev, et al. "Holoportation: Virtual 3D teleportation in real-time", UIST '16: Proceedings of the 29th Annual Symposium on User Interface Software and Technology, October 2016, Pages 741-754 Holostream/Arctrus, インターネット<URL:https://arcturus.studio/holostream>
 ところで、ボリュメトリックビデオはデータ量が大きく、その配信に必要な通信ネットワークの帯域が大きいため、効率的に配信する手法が求められている。
 しかしながら、上記の非特許文献1で提案されている手法では、各ユーザのレンダリングをサーバ側で行う必要があるため、サーバの負荷が大きい。また、ユーザ数が増えた場合にはサーバリソースの分割によって、各ユーザが視聴する映像品質の劣化が発生し得る。更に、クライアントからサーバに対して位置情報を高頻度に低遅延で送信する必要があり、例えば、VR酔いが発生し始めるMotion to Photon遅延を20ms以下に抑えることは通信ネットワークとサーバの両方で負担が大きい。
 一方で、上記の非特許文献2で提案されている手法では、通信帯域に4Gbps必要であるが、4Gbpsの通信帯域をユーザが常に安定して確保することは難しい。また、通信ネットワークの負荷が大きいため、同一の通信ネットワークを使用する他のユーザの使用可能帯域が狭まり、他のユーザの体感品質を落としてしまう。
 更に、上記の非特許文献3で提案されている手法では、通信ネットワークの使用可能帯域が狭いときには、視聴中のボリュメトリックビデオでユーザから見える範囲の3Dデータ(つまり、ユーザに対して前面に相当する3Dデータ)も含めて画質とLevel Of Detailを落としてしまうため、大幅な体感品質の低下をもたらす。
 本発明の一実施形態は、上記の点に鑑みてなされたもので、ユーザの体感品質を維持しつつ、立体映像コンテンツの配信に要するデータ量を削減することを目的とする。
 上記目的を達成するため、一実施形態に係る配信システムは、立体映像コンテンツを構成する立体データが表す対象物に対して、前記対象物を中心とする複数の仮想視点を配置する配置部と、前記仮想視点毎に、前記対象物に関して前記仮想視点からは視認できない部分のデータ量を削減した一面立体データを作成する第1の作成部と、前記対象物が配置される仮想空間上におけるユーザの位置と視界に応じて、前記仮想視点毎の一面立体データのうちの1つの仮想視点の一面立体データを前記ユーザの端末に配信する配信部と、を有する。
 ユーザの体感品質を維持しつつ、立体映像コンテンツの配信に要するデータ量を削減することができる。
本実施形態に係る配信制御システムの全体構成の一例を示す図である。 本実施形態に係る一面3Dデータ作成処理の一例を示すフローチャートである。 仮想視点の配置例を示す図である。 本実施形態に係る対応表作成処理の一例を示すフローチャートである。 視聴角度範囲の一例を示す図である。 視聴角度範囲対応表の一例を示す図である。 本実施形態に係る配信処理の一例を示すフローチャートである。 仮想視点の特定例を示す図である。 コンピュータのハードウェア構成の一例を示す図である。
 以下、本発明の一実施形態について説明する。本実施形態では、立体映像コンテンツの一例としてボリュメトリックビデオを対象に、ユーザの体感品質を維持しつつ、その配信に要するデータ量を削減することができる配信制御システム1について説明する。ここで、ボリュメトリックビデオとは、メッシュとテクスチャとで表される3Dデータ(3次元データ又は立体データともいう。)で構成されたアニメーションデータのことである。すなわち、例えば、時刻tのフレームの3Dデータをdとすれば、ボリュメトリックビデオは{d|t∈[t,t]}と表される。tはボリュメトリックビデオの開始時刻、tは終了時刻である。
 なお、以下で説明する実施形態は、ボリュメトリックビデオに限られず、例えば、ホログラム等といった6自由度を持つ立体映像コンテンツに対しても同様に適用することができる。
 <全体構成>
 まず、本実施形態に係る配信制御システム1の全体構成について、図1を参照しながら説明する。図1は、本実施形態に係る配信制御システム1の全体構成の一例を示す図である。
 図1に示すように、本実施形態に係る配信制御システム1には、配信制御サーバ10と、コンテンツサーバ20と、クライアント30と、サービスサイトサーバ40とが含まれる。また、配信制御サーバ10とクライアント30は、インターネット等の通信ネットワークNを介して通信可能に接続される。同様に、クライアント30とサービスサイトサーバ40は、通信ネットワークNを介して通信可能に接続される。
 なお、配信制御サーバ10とコンテンツサーバ20は同一のローカルネットワーク内に存在し、当該ローカルネットワーク内で通信可能に接続されているものとするが、これに限られず、例えば、通信ネットワークNを介して通信可能に接続されてもよい。
 配信制御サーバ10は、与えられたボリュメトリックビデオを構成する3Dデータから複数の一面3Dデータを作成し、これら複数の一面3Dデータをコンテンツサーバ20に保存する。ここで、一面3Dデータとは、ボリュメトリックビデオを構成する3Dデータが表す対象物を或る1つの視点から見たときの3次元データであり、ユーザの体感品質を維持しつつ元の3Dデータよりもデータ量を削減したものである。なお、対象物とは、ボリュメトリックビデオの被写体のことであり、例えば、人、動植物、構造物、建物、機械、天体、自然現象等といったメッシュとテクスチャで表現可能な任意の対象のことを意味する。
 また、配信制御サーバ10は、クライアント30からの視聴要求に応じて、ユーザの視点や空間位置、視界(視線方向及び視野範囲)等から適切な一面3Dデータを決定し、この一面3Dデータをクライアント30に配信する。なお、ユーザの視点、空間位置とは、対象物が配置されている仮想空間内におけるユーザの位置のことである。
 コンテンツサーバ20は、複数の一面3Dデータを保存する。また、コンテンツサーバ20は、配信制御サーバ10からのデータ要求に応じて、このデータ要求に対応する一面3Dデータを配信制御サーバ10に返信する。
 クライアント30は、ボリュメトリックビデオを視聴するユーザが利用する各種端末(例えば、XR(VR/AR/MR/SR等)デバイス等)であり、配信制御サーバ10から配信された一面3Dデータをレンダリングし、ボリュメトリックビデオを再生する。なお、XRデバイスには、HMD(Head Mount Display)の他、XRデバイスとして機能するアプリケーションプログラムが搭載されたスマーフォンやタブレット端末、ウェアラブルデバイス等が含まれる。
 ユーザがボリュメトリックビデオを視聴する際には、例えば、以下のような手順が行われる。まず、ユーザは、クライアント30でサービスサイトサーバ40にアクセスし、当該ユーザが視聴可能なコンテンツ(ボリュメトリックビデオ)の一覧を取得する。次に、ユーザは、この一覧の中から自身が視聴を所望するボリュメトリックビデオを選択し、選択したボリュメトリックビデオへのリンクを得る。そして、クライアント30が当該リンクにアクセスすることで、視聴要求が配信制御サーバ10に送信され、この要求に対して一面3Dデータが返信されることでボリュメトリックビデオの再生が開始される。
 また、クライアント30は、適宜、ユーザの視点や空間位置、視界等といった情報(以下、ユーザの視点又は空間位置と視界とを表す情報を「ユーザ視点情報」ともいう。)を配信制御サーバ10に送信する。これにより、ユーザの視点や空間位置、視界等に応じた一面3Dデータが配信制御サーバ10から返信され、クライアント30で再生されることになる。
 サービスサイトサーバ40は、ユーザが視聴可能なコンテンツ(ボリュメトリックビデオ)の一覧を提示し、この一覧の中から選択されたコンテンツへのリンクをクライアント30に提供する。
 ここで、本実施形態に係る配信制御サーバ10は、一面3Dデータ作成部101と、対応表作成部102と、配信制御部103と、配信部104とを有する。これら各部は、例えば、配信制御サーバ10にインストールされた1以上のプログラムが、CPU(Central Processing Unit)等のプロセッサに実行させる処理により実現される。
 また、本実施形態に係る配信制御サーバ10は、対応表記憶部105を有する。対応表記憶部105は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の補助記憶装置により実現される。
 一面3Dデータ作成部101は、配信制御サーバ10に与えられたボリュメトリックビデオを構成する3Dデータから複数の一面3Dデータを作成する。より具体的には、一面3Dデータ作成部101は、ボリュメトリックビデオを構成する3Dデータが表す対象物を中心に複数の仮想視点を等間隔(又は非等間隔)に配置した上で、仮想視点毎に、当該仮想視点から当該対象物を見たときに、当該対象物の背面に相当するメッシュに対してジオメトリー簡素化(Level Of Detail低下処理)を行うことで、一面3Dデータを作成する。このように、仮想視点毎に、3Dデータが表す対象物の背面(つまり、その仮想視点から見えない部分)のメッシュに対してジオメトリー簡素化を行うことで、仮想視点毎の一面3Dデータを作成する。
 そして、一面3Dデータ作成部101は、作成した複数の一面3Dデータをコンテンツサーバ20に保存する。
 対応表作成部102は、複数の一面3Dデータを作成する際に配置された各仮想視点と、その仮想視点の視聴角度範囲とを対応付けた対応表(以下、「視聴角度範囲対応表」ともいう。)を作成する。視聴角度範囲とは、対象物を見た際に、当該仮想視点で対象物を見た場合と同一の体感品質を得られる範囲のことである。言い換えれば、当該仮想視点と同様に、ジオメトリー簡素化された対象物の背面が見えない範囲のことである。
 配信制御部103は、クライアント30からユーザ視点情報を受信すると、視聴角度範囲対応表を参照して、このユーザ視点情報から適切な一面3Dデータを決定する。より具体的には、配信制御部103は、ユーザ視点情報に含まれる視点又は空間位置で視界内に対象物の少なくとも一部の部分を捉えた場合に、当該視点又は空間位置が含まれる視聴角度範囲に対応する仮想視点を特定し、特定した仮想視点に対応する一面3Dデータを適切なものとして決定する。
 配信部104は、配信制御部103によって決定された一面3Dデータをクライアント30に送信する。
 対応表記憶部105は、対応表作成部102によって作成された視聴角度範囲対応表を記憶する。
 また、本実施形態に係るコンテンツサーバ20は、一面3Dデータ記憶部201を有する。一面3Dデータ記憶部201は、例えば、HDDやSSD等の補助記憶装置により実現される。
 一面3Dデータ記憶部201は、一面3Dデータ作成部101によって作成された各一面3Dデータを記憶する。
 なお、図1に示す配信制御システム1の構成は一例であって、他の構成であってもよい。例えば、配信制御サーバ10とコンテンツサーバ20が一体のサーバで構成されていてもよい。
 <各種処理の詳細>
 以下、複数の一面3Dデータを作成するための一面3Dデータ作成処理と、視聴角度範囲対応表を作成するための対応表作成処理と、適切な一面3Dデータをクライアント30に配信するための配信処理との各処理について説明する。なお、一面3Dデータ作成処理と対応表作成処理は、配信処理よりも前に実行される事前処理である。
  ≪一面3Dデータ作成処理≫
 まず、一面3Dデータ作成処理について、図2を参照しながら説明する。図2は、本実施形態に係る一面3Dデータ作成処理の一例を示すフローチャートである。なお、以下では、ボリュメトリックビデオが配信制御サーバ10に与えられているものとする。
 一面3Dデータ作成部101は、ボリュメトリックビデオを構成する3Dデータの中から1フレーム分の3Dデータを取得する(ステップS101)。以下では、一面3Dデータ作成部101は、時刻tのフレームの3Dデータdを取得したものとする。なお、tの初期値はt=tとすればよい。
 なお、3Dデータはメッシュとテクスチャとで構成されるが、以下ではテクスチャに対しては特に処理を行わないため、上記のステップS101では、3Dデータのメッシュのみを取得してもよい。
 次に、一面3Dデータ作成部101は、上記のステップS102で取得した3Dデータdが表す対象物を中心にN個の仮想視点を配置する(ステップS102)。ただし、各仮想視点の視線方向は対象物であるものとする。例えば、一面3Dデータ作成部101は、当該対象物を中心とする所定の半径の円の円周上に、等間隔(又は非等間隔でもよい。)に当該対象物を視線方向とするN個の仮想視点を配置する。なお、Nは予め決められた2以上の整数である。
 ここで、N=8である場合における仮想視点の配置例を図3に示す。図3に示す例では、対象物Oを中心として、半径Rの円の円周上に等間隔で、対象物Oを視線方向とする仮想視点V~Vが配置されている。
 なお、円の円周上に仮想視点を配置することは一例であって、これに限られず、例えば、対象物を中心とする多角形の辺上や頂点上に仮想視点を配置してもよい。また、図3に示す例では、簡単のため、対象物Oの中心を原点とするxyz空間のxy平面上に仮想視点V~Vを配置したが、これに限られず、例えば、当該原点を中心とする球面上(又は多面体上)に仮想視点を配置してもよい。
 次に、一面3Dデータ作成部101は、上記のステップS102で配置したN個の仮想視点の中から1つの仮想視点を選択する(ステップS103)。
 次に、一面3Dデータ作成部101は、上記のステップS103で選択した仮想視点から当該対象物を見たときに、当該対象物の背面に相当するメッシュに対してジオメトリー簡素化(Level Of Detail低下処理)を行う(ステップS104)。言い換えれば、一面3Dデータ作成部101は、当該対象物を構成する各メッシュの中で、当該仮想視点からは視認できない(見えない)部分のメッシュに対してジオメトリー簡素化処理を行う。これにより、当該仮想視点から対象物を見た場合には元の3Dデータdと同等の体感品質が得られ、かつ、元の3Dデータdよりもデータ量が削減された一面3Dデータが作成される。
 次に、一面3Dデータ作成部101は、N個すべての仮想視点を選択したか否かを判定する(ステップS105)。
 上記のステップS105で未だ選択していない仮想視点があると判定された場合、一面3Dデータ作成部101は、上記のステップS103に戻り、未だ選択していない仮想視点の中から1つの仮想視点を選択し、ステップS104以降の処理を実行する。
 一方で、上記のステップS105でN個すべての仮想視点を選択したと判定された場合、一面3Dデータ作成部101は、与えられたボリュメトリックビデオに次のフレームがあるか否かを判定する(ステップS106)。
 上記のステップS106で次のフレームがあると判定された場合、一面3Dデータ作成部101は、上記のステップS101に戻り、次のフレームの3Dデータを取得し、ステップS102以降の処理を実行する。すなわち、この場合、一面3Dデータ作成部101は、t←t+1として、上記のステップS101に戻り、次の時刻tのフレームの3Dデータdを取得する。
 一方で、上記のステップS106で次のフレームがないと判定された場合(つまり、時刻t=tである場合)、一面3Dデータ作成部101は、上記のステップS104で作成された各一面3Dデータを、コンテンツサーバ20の一面3Dデータ記憶部201に保存する(ステップS107)。これにより、例えば、時刻tにおける視点V(ただし、i∈[1,N])に対応する一面3Dデータをdtiとすれば、一面3Dデータの集合{dti|t∈[t,t],i∈[1,N]}が一面3Dデータ記憶部201に保存されることになる。
 なお、本実施形態では、仮想視点の配置数Nは全フレームで共通としたが、フレーム毎に異なっていてもよい。また、本実施形態では、上記のステップS102~ステップS105をフレーム毎に繰り返し実行したが、例えば、或る時間幅(時間幅がt-tである場合も含む)において、フレーム間で3Dデータdが同一である場合は、当該時間幅に含まれる1つのフレームの3Dデータdに関してのみ上記のステップS102~ステップS105を実行してもよい。
  ≪対応表作成処理≫
 次に、対応表作成処理について、図4を参照しながら説明する。図4は、本実施形態に係る対応表作成処理の一例を示すフローチャートである。以下では、3Dデータd(ただし、t∈[t,t])に関する視聴角度範囲対応表を作成する場合について説明する。なお、以下では、d=dと表す。
 対応表作成部102は、図2のステップS102と同様に、3Dデータdが表す対象物を中心にN個の仮想視点を配置する(ステップS201)。なお、仮想視点の配置数、配置方法(等間隔又は非等間隔、円周上に配置又は多角形上に配置等)は図2のステップS102と同様とする。
 次に、対応表作成部102は、上記のステップS201で配置したN個の仮想視点の中から1つの仮想視点を選択する(ステップS202)。
 次に、対応表作成部102は、上記のステップS202で選択した仮想視点と、それに隣接する仮想視点(以下、「隣接仮想視点」という。)との境界角度を算出する(ステップS203)。境界角度とは、当該仮想視点の視線と、当該仮想視点と隣接仮想視点の境界との間の角度のことである。
 ここで、一例として、図3に示す仮想視点の配置に対して、仮想視点Vの境界角度を算出する場合について説明する。図5に示すように、仮想視点Vは、対象物Oに対して角度θの位置にあるものとする。なお、図5に示す例では、対象物Oの中心を原点とするxy平面上におけるx軸の正の方向を角度の基準としている。
 このとき、仮想視点Vの隣接仮想視点はVとVであり、仮想視点Vの視線と隣接仮想視点Vの視線との間の角度をφ21、仮想視点Vの視線と隣接仮想視点Vの視線との間の角度をφ22とする。そして、角度φ21を2分する線を隣接仮想視点Vとの境界、角度φ22を2分する線を隣接仮想視点Vとの境界として、これらの境界までの角度を境界角度とする。
 すなわち、隣接仮想視点Vとの境界角度をθ21、隣接仮想視点Vとの境界角度をθ22とすれば、θ21=φ21/2、θ22=φ22/2となる。
 なお、他の仮想視点V(i=1,3,・・・,8)の境界角度θi1及びθi2に関しても同様に算出することができる。
 次に、対応表作成部102は、N個すべての仮想視点を選択したか否かを判定する(ステップS204)。
 上記のステップS204で未だ選択していない仮想視点があると判定された場合、対応表作成部102は、上記のステップS202に戻り、未だ選択していない仮想視点の中から1つの仮想視点を選択し、ステップS203以降の処理を実行する。
 一方で、上記のステップS204でN個すべての仮想視点を選択したと判定された場合、対応表作成部102は、上記のステップS203で算出した境界角度から各仮想視点の視聴角度範囲を算出することで視聴角度範囲対応表を作成し、作成した視聴角度範囲対応表を対応表記憶部105に保存する(ステップS205)。仮想視点V(ただし、i∈[1,N])は対象物に対して角度θの位置にあり、仮想視点Vの境界角度をθi1,θi2とすれば、仮想視点Vの視聴角度範囲はθ-θi1≦θ<θ+θi2と算出される。これにより、仮想視点Vと視聴角度範囲θ-θi1≦θ<θ+θi2とを対応付けることで視聴角度範囲対応表が作成される。このように作成された視聴角度範囲対応表の一例を図6に示す。
 なお、本実施形態では、時刻t∈[t,t]の3Dデータdで共通の視聴角度範囲対応表を作成したが、例えば、フレームによって仮想視点の配置数が異なる場合等には、仮想視点の配置数毎に視聴角度範囲対応表を作成してもよい。
  ≪配信処理≫
 次に、配信処理について、図7を参照しながら説明する。図7は、本実施形態に係る配信処理の一例を示すフローチャートである。以下のステップS301~ステップS303はユーザ視点情報を受信する毎に実行され、ステップS304~ステップS305はフレーム間隔毎に実行される。ただし、以下では、ユーザの視界内に対象物の少なくとも一部の部分が含まれているものとする。
 配信制御部103は、クライアント30から受信したユーザ視点情報に含まれる視点又は空間位置を用いて、対象物に対するユーザ位置を算出する(ステップS301)。ここで、ユーザ位置は、対象物に対する視点又は空間位置の角度である。なお、角度の基準は、図4のステップS203で対象物に対する仮想視点の位置を決定したときと同様とする。
 次に、配信制御部103は、対応表記憶部105に記憶されている視聴角度範囲対応表を参照して、上記のステップS301で算出したユーザ位置から仮想視点を特定する(ステップS302)。すなわち、配信制御部103は、各仮想視点のうち、ユーザ位置が含まれる視聴角度範囲に対応する仮想視点を特定する。
 例えば、図8に示すように、或るユーザAのユーザ位置をθとして、θ-θ21≦θ<θ+θ22であったとする。この場合、上記のステップS302では仮想視点Vが特定される。
 また、例えば、図8に示すように、或るユーザBのユーザ位置をθとして、θ-θ31≦θ<θ+θ32であったとする。この場合、上記のステップS302では仮想視点Vが特定される。
 なお、図8に示す例のユーザAは視線方向に対象物Oが存在するケースであり、ユーザBは視線方向には対象物Oは存在しないものの視界内に対象物Oの少なくとも一部の部分が含まれているケースである。
 次に、配信制御部103は、上記のステップS302で特定した仮想視点に対応する一面3Dデータを配信対象に決定する(ステップS303)。すなわち、例えば、上記のステップS302で特定した仮想視点がVである場合、配信制御部103は、一面3Dデータ{dti}を配信対象に決定する。
 配信部104は、上記のステップS303で決定した配信対象の一面3Dデータのうち、該当の時刻のフレームの一面3Dデータをコンテンツサーバ20から取得する(ステップS304)。
 そして、配信部104は、上記のステップS304で取得した一面3Dデータをクライアント30に配信する(ステップS305)。これにより、クライアント30側で当該一面3Dデータがレンダリングされ、ディスプレイ上に対象物が表示される。
 <ハードウェア構成>
 最後に、本実施形態に係る配信制御サーバ10及びコンテンツサーバ20のハードウェア構成について説明する。本実施形態に係る配信制御サーバ10及びコンテンツサーバ20は、例えば、図9に示すコンピュータ500のハードウェア構成により実現される。なお、クライアント30及びサービスサイトサーバ40も同様のハードウェア構成で実現されていてもよい。
 図9に示すコンピュータ500は、入力装置501と、表示装置502と、外部I/F503と、通信I/F504と、プロセッサ505と、メモリ装置506とを有する。これらの各ハードウェアは、それぞれがバス507により通信可能に接続される。
 入力装置501は、例えば、キーボードやマウス、タッチパネル等である。表示装置502は、例えば、ディスプレイ等である。なお、コンピュータ500は、入力装置501及び表示装置502のうちの少なくとも一方を有していなくてもよい。
 外部I/F503は、記録媒体503a等の外部装置とのインタフェースである。なお、記録媒体503aとしては、例えば、CD(Compact Disc)、DVD(Digital Versatile Disk)、SDメモリカード(Secure Digital memory card)、USB(Universal Serial Bus)メモリカード等が挙げられる。
 通信I/F504は、他の装置や機器、システム等との間でデータ通信を行うためのインタフェースである。プロセッサ505は、例えば、CPU等の各種演算装置である。メモリ装置506は、例えば、HDDやSSD、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ等の各種記憶装置である。
 本実施形態に係る配信制御サーバ10及びコンテンツサーバ20は、図9に示すコンピュータ500のハードウェア構成を有することにより、上述した各種処理を実現することができる。なお、図9に示すコンピュータ500のハードウェア構成は一例であって、コンピュータ500は、他のハードウェア構成を有していてもよい。例えば、コンピュータ500は、複数のプロセッサ505を有していてもよいし、複数のメモリ装置506を有していてもよい。
 <まとめ>
 以上のように、本実施形態に係る配信制御システム1は、立体映像コンテンツを構成する3Dデータが表す対象物に対して複数の仮想視点を配置した上で、これらの仮想視点毎に、当該仮想視点から視認できない部分のポリゴンメッシュのジオメトリーを簡素化する。これにより、仮想視点毎に、元の3Dデータよりもデータ量を削減した一面3Dデータが作成される。
 したがって、クライアント30におけるユーザの位置や視界に応じて、適切な一面3Dデータを配信することで、ユーザの体感品質は維持したまま立体映像コンテンツの配信に要するデータ量を削減することが可能となる。また、これに加えて、クライアント30側のレンダリング負荷も削減されるため、クライアント30側の処理負荷の軽減も実現することが可能となる。
 本発明は、具体的に開示された上記の実施形態に限定されるものではなく、請求の範囲の記載から逸脱することなく、種々の変形や変更、既知の技術との組み合わせ等が可能である。
 1    配信制御システム
 10   配信制御サーバ
 20   コンテンツサーバ
 30   クライアント
 40   サービスサイトサーバ
 50   通信ネットワーク
 101  一面3Dデータ作成部
 102  対応表作成部
 103  配信制御部
 104  配信部
 105  対応表記憶部
 201  一面3Dデータ記憶部
 500  コンピュータ
 501  入力装置
 502  表示装置
 503  外部I/F
 503a 記録媒体
 504  通信I/F
 505  プロセッサ
 506  メモリ装置
 507  バス

Claims (7)

  1.  立体映像コンテンツを構成する立体データが表す対象物に対して、前記対象物を中心とする複数の仮想視点を配置する配置部と、
     前記仮想視点毎に、前記対象物に関して前記仮想視点からは視認できない部分のデータ量を削減した一面立体データを作成する第1の作成部と、
     前記対象物が配置される仮想空間上におけるユーザの位置と視界に応じて、前記仮想視点毎の一面立体データのうちの1つの仮想視点の一面立体データを前記ユーザの端末に配信する配信部と、
     を有する配信制御システム。
  2.  前記第1の作成部は、
     前記仮想視点からは視認できない部分を表すポリゴンメッシュに対してジオメトリー簡素化処理を行うことで、前記部分のデータ量を削減した一面立体データを作成する、請求項1に記載の配信制御システム。
  3.  前記仮想視点からは視認できない部分は、前記仮想視点から前記対象物を見たときに、前記対象物の背面に相当する部分である、請求項1又は2に記載の配信制御システム。
  4.  前記仮想視点と、前記仮想視点から前記対象物を見たときに同一の体感品質を得られる範囲とを対応付けた対応表を作成する第2の作成部を有し、
     前記配信部は、
     前記視界の中に前記対象物の少なくとも一部の部分が含まれる場合に、前記対応表を参照して、前記位置が含まれる範囲に対応する仮想視点の一面立体データを特定し、
     特定した一面立体データを前記端末に配信する、請求項1乃至3の何れか一項に記載の配信制御システム。
  5.  立体映像コンテンツを構成する立体データが表す対象物に対して、前記対象物を中心とする複数の仮想視点を配置する配置部と、
     前記仮想視点毎に、前記対象物に関して前記仮想視点からは視認できない部分のデータ量を削減した一面立体データを作成する第1の作成部と、
     前記対象物が配置される仮想空間上におけるユーザの位置と視界に応じて、前記仮想視点毎の一面立体データのうちの1つの仮想視点の一面立体データを前記ユーザの端末に配信する配信部と、
     を有する配信制御装置。
  6.  立体映像コンテンツを構成する立体データが表す対象物に対して、前記対象物を中心とする複数の仮想視点を配置する配置手順と、
     前記仮想視点毎に、前記対象物に関して前記仮想視点からは視認できない部分のデータ量を削減した一面立体データを作成する第1の作成手順と、
     前記対象物が配置される仮想空間上におけるユーザの位置と視界に応じて、前記仮想視点毎の一面立体データのうちの1つの仮想視点の一面立体データを前記ユーザの端末に配信する配信手順と、
     をコンピュータが実行する配信制御方法。
  7.  コンピュータを、請求項1乃至4の何れか一項に記載の配信制御システムとして機能させるプログラム。
PCT/JP2021/017244 2021-04-30 2021-04-30 配信制御システム、配信制御装置、配信制御方法、及びプログラム WO2022230186A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2021/017244 WO2022230186A1 (ja) 2021-04-30 2021-04-30 配信制御システム、配信制御装置、配信制御方法、及びプログラム
US18/557,268 US20240144602A1 (en) 2021-04-30 2021-04-30 Distribution control system, distribution control apparatus, distribution control method, and program
JP2023517012A JPWO2022230186A1 (ja) 2021-04-30 2021-04-30

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/017244 WO2022230186A1 (ja) 2021-04-30 2021-04-30 配信制御システム、配信制御装置、配信制御方法、及びプログラム

Publications (1)

Publication Number Publication Date
WO2022230186A1 true WO2022230186A1 (ja) 2022-11-03

Family

ID=83848244

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/017244 WO2022230186A1 (ja) 2021-04-30 2021-04-30 配信制御システム、配信制御装置、配信制御方法、及びプログラム

Country Status (3)

Country Link
US (1) US20240144602A1 (ja)
JP (1) JPWO2022230186A1 (ja)
WO (1) WO2022230186A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020116154A1 (ja) * 2018-12-03 2020-06-11 ソニー株式会社 情報処理装置および方法
WO2020137876A1 (ja) * 2018-12-26 2020-07-02 シャープ株式会社 生成装置、3次元データ送信装置、及び3次元データ再生装置
JP2020136882A (ja) * 2019-02-19 2020-08-31 株式会社メディア工房 点群データ通信システム、点群データ送信装置および点群データ送信方法
WO2020195767A1 (ja) * 2019-03-25 2020-10-01 シャープ株式会社 3dモデル送信装置、及び、3dモデル受信装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020116154A1 (ja) * 2018-12-03 2020-06-11 ソニー株式会社 情報処理装置および方法
WO2020137876A1 (ja) * 2018-12-26 2020-07-02 シャープ株式会社 生成装置、3次元データ送信装置、及び3次元データ再生装置
JP2020136882A (ja) * 2019-02-19 2020-08-31 株式会社メディア工房 点群データ通信システム、点群データ送信装置および点群データ送信方法
WO2020195767A1 (ja) * 2019-03-25 2020-10-01 シャープ株式会社 3dモデル送信装置、及び、3dモデル受信装置

Also Published As

Publication number Publication date
JPWO2022230186A1 (ja) 2022-11-03
US20240144602A1 (en) 2024-05-02

Similar Documents

Publication Publication Date Title
US9420229B2 (en) System and method for managing multimedia data
US11082490B2 (en) Method and apparatus for execution of applications in a cloud system
US7884823B2 (en) Three dimensional rendering of display information using viewer eye coordinates
CA2814809C (en) Composite video streaming using stateless compression
US20180189980A1 (en) Method and System for Providing Virtual Reality (VR) Video Transcoding and Broadcasting
US7656403B2 (en) Image processing and display
US20050033817A1 (en) Sharing OpenGL applications using application based screen sampling
US20170186243A1 (en) Video Image Processing Method and Electronic Device Based on the Virtual Reality
CN108762934B (zh) 远程图形传输系统、方法及云服务器
JP7411791B2 (ja) リモート端末の没入型遠隔会議及びテレプレセンスのためのオーバーレイ処理のパラメータ
Pazzi et al. Propane: A progressive panorama streaming protocol to support interactive 3d virtual environment exploration on graphics-constrained devices
Zhu et al. Towards peer-assisted rendering in networked virtual environments
CN113608613A (zh) 虚拟现实互动方法、装置、电子设备及计算机可读介质
WO2022230186A1 (ja) 配信制御システム、配信制御装置、配信制御方法、及びプログラム
WO2024089875A1 (ja) 配信制御システム、配信制御装置、配信制御方法、及びプログラム
US11677979B2 (en) Freeview video coding
WO2023187936A1 (ja) 配信制御装置、端末、配信制御システム、配信制御方法、及びプログラム
CN104618733A (zh) 图像远程投射方法和相关装置
EP3948790B1 (en) Depth-compressed representation for 3d virtual scene
CN114092362A (zh) 一种全景图片加载方法和装置
JP7419529B2 (ja) 遠隔端末のための没入型テレカンファレンス及びテレプレゼンスのインタラクティブオーバーレイ処理
WO2023084789A1 (ja) 配信装置、配信方法及びプログラム
AU2015203292B2 (en) Composite video streaming using stateless compression
CN117676110A (zh) 视频处理方法、装置及服务器
CN116868107A (zh) 使用边缘-云架构和对等网络流式传输的光场/沉浸式媒体的拆分渲染

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21939343

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023517012

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 18557268

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21939343

Country of ref document: EP

Kind code of ref document: A1