WO2019013415A1 - Method and system for live-streaming vr content - Google Patents

Method and system for live-streaming vr content Download PDF

Info

Publication number
WO2019013415A1
WO2019013415A1 PCT/KR2017/015062 KR2017015062W WO2019013415A1 WO 2019013415 A1 WO2019013415 A1 WO 2019013415A1 KR 2017015062 W KR2017015062 W KR 2017015062W WO 2019013415 A1 WO2019013415 A1 WO 2019013415A1
Authority
WO
WIPO (PCT)
Prior art keywords
broadcast
content
image
panorama image
streamer
Prior art date
Application number
PCT/KR2017/015062
Other languages
French (fr)
Korean (ko)
Inventor
양승준
Original Assignee
주식회사 볼트홀
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020170088590A external-priority patent/KR101922968B1/en
Priority claimed from KR1020170088591A external-priority patent/KR101922970B1/en
Priority claimed from KR1020170088589A external-priority patent/KR101915065B1/en
Application filed by 주식회사 볼트홀 filed Critical 주식회사 볼트홀
Publication of WO2019013415A1 publication Critical patent/WO2019013415A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2381Adapting the multiplex stream to a specific network, e.g. an Internet Protocol [IP] network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof

Definitions

  • the present invention relates to a live streaming method for VR content and a system for performing the method. More specifically, the present invention relates to a method of efficiently streaming a 360-degree panorama image to broadcast VR content in order to provide seamless live streaming service for broadcast VR content, a method of streaming live streaming And a system for performing the methods.
  • VR virtual reality
  • VR refers to a specific environment or situation, or technology itself, that is similar to the reality created by artificial technology using computers, but not actual. At this time, the created virtual environment or situation stimulates the user's five senses and makes the user experience the spatial and temporal experiences similar to reality, thereby freely bringing the boundary between reality and imagination free. In addition to being immersed in virtual reality, users can also interact with things implemented in virtual reality, such as manipulating or commanding them using real devices. VR is distinguished from a one-sided simulation in that it can interact with users and create user experience.
  • a streamer wearing a VR device such as an HMD (head mounted device) is going to broadcast Internet for a VR game content through an established Internet broadcasting platform
  • a broadcasting client installed in the streamer terminal The game screen is captured and streamed to the viewer terminal as it is.
  • the viewing client installed on the viewer terminal displays the captured screen image on the viewer terminal as it is, even the viewer wearing the HMD can not experience the sense of realism and immersion of the original VR game content.
  • the viewpoint of the game image displayed on the viewer terminal is not changed, which also deteriorates the sense of reality and immersion of the VR content.
  • Another technical problem to be solved by the present invention is to provide a method for efficiently streaming a 360 degree panorama image and a system for performing the method in order to provide seamless live streaming service to viewers.
  • a live streaming system for a VR content comprising: a VR server for executing a VR game content for a second broadcast identical to a first broadcast VR game content executed in a streamer terminal, Synchronizes the second broadcast VR game content with the first broadcast VR game content in response to receipt of the game progress information for the first broadcast VR game content from the streamer terminal in real time, A rendering server for rendering a 360 degree panorama image based on the game content, and a broadcast management server for allowing the rendered 360 degree panorama image to be streamed to a viewer terminal.
  • the rendering server renders the 360-degree panoramic image using an image photographed by a virtual camera positioned adjacent to a virtual object in a virtual space built on the second broadcast VR game content ,
  • the virtual object is a virtual object controlled according to input of the streamer, and the virtual camera can be moved together with the virtual object in the virtual space.
  • the rendering server in response to receipt of viewpoint information and viewing angle information of the viewer from the viewer terminal, the rendering server generates a first partial panorama image corresponding to the viewpoint information and the viewing angle information from the rendered 360 degree panorama image To the broadcast management server.
  • the rendered 360-degree panorama image is a first 360-degree panorama image
  • the streamer terminal displays a second 360-degree panorama image rendered based on a capture screen for the first broadcast VR game content
  • One of the first 360 degree panorama image and the second 360 degree panorama image may be streamed to the viewer terminal.
  • the broadcast web server includes: a member information management module for managing information on a streamer member; an authentication module for performing authentication on the streamer using information about the streamer member; And a billing module for performing a billing process in response to the request for purchase of the broadcast right in response to a request for purchase of a license ticket of the trimmer terminal.
  • a member information management module for managing information on a streamer member
  • an authentication module for performing authentication on the streamer using information about the streamer member
  • a billing module for performing a billing process in response to the request for purchase of the broadcast right in response to a request for purchase of a license ticket of the trimmer terminal.
  • a live streaming system for a VR content comprising: a streamer terminal for providing a web page service to a streamer for streaming broadcast virtual reality (VR) content; And a broadcasting management server for broadcasting a 360-degree panorama image of the VR content for broadcasting to a viewer terminal using a pre-built Internet broadcasting platform in response to a streaming request of the streaming terminal have.
  • VR virtual reality
  • a live streaming system for VR content comprising: a first virtual camera disposed in a virtual space constructed on broadcast VR content; A second virtual camera disposed at a position spaced apart by a predetermined interval, rendering a left eye panorama image based on the image photographed by the first virtual camera, and projecting, on the basis of the image photographed by the second virtual camera, Rendering a panoramic image, wherein the left panoramic image and the right panoramic image are 360-degree panoramic images; And a broadcast management server for allowing each of the left panoramic image and the right panoramic image to be streamed to a viewer terminal.
  • a live streaming method for VR content for broadcasting which is performed by a live streaming system, comprising the steps of: Receiving a streaming request for the broadcast VR content from a streamer terminal that is broadcasting; And a step of, in response to the streaming request, streaming the 360-degree panorama image for the broadcast VR content to the viewer terminal using the pre-built Internet broadcast platform.
  • a computer program for causing a computer to execute the steps of: receiving a streaming request for a broadcast VR content from a streamer terminal for streaming broadcast VR content; And in response to the streaming request, streaming the 360 degree panorama image for the broadcast VR content to the viewer terminal using the pre-built Internet broadcast platform, the stream may be recorded on a computer readable recording medium .
  • a live streaming method for VR content for broadcasting performed by a live streaming system, comprising the steps of: Receiving, in real time, game progress information on a first broadcast VR game content, in response to receipt of the game progress information in real time, using the game progress information to transmit the second broadcast VR game content to the first broadcast VR Synchronizing with the game content, rendering a 360 degree panorama image based on the synchronized second broadcast VR game content, and streaming the rendered 360 degree panorama image to a viewer terminal.
  • a computer program product for causing a computer to execute the steps of: receiving game progress information for a first broadcast VR game content executed in a streamer terminal in real time, Synchronizing the second broadcast VR game content with the first broadcast VR game content using the game progress information in response to the game progress information being received in real time, And a step of streaming the rendered 360 degree panorama image to a viewer terminal.
  • a method for live streaming VR content comprising: placing a first virtual camera in a virtual space established on the VR content for broadcasting; The method comprising the steps of: arranging a second virtual camera at a position spaced apart from the first virtual camera by a predetermined interval; rendering a left panoramic image based on the image photographed by the first virtual camera; Rendering the left eye panorama image and the right eye panorama image to a viewer terminal, and rendering the left eye panorama image and the right eye panorama image to a viewer terminal.
  • a computer program product including a computer-readable recording medium having a computer-readable recording medium storing a program for causing a computer to execute the steps of: arranging a first virtual camera in a virtual space built on a broadcast- The method comprising the steps of: arranging a second virtual camera at a position spaced apart from the first virtual camera by a predetermined interval; rendering a left panoramic image based on the image photographed by the first virtual camera; Rendering the left eye panorama image and the right eye panorama image to a viewer terminal, and reproducing the left eye panorama image and the right eye panorama image, respectively, on a computer readable recording medium.
  • synchronization is performed between the first broadcast VR content running in the streamer terminal and the second broadcast VR content running in the rendering server, and the rendering server transmits the second broadcast VR content
  • the 360 degree panorama image is rendered based on the rendered 360 degree panorama image, and the rendered 360 degree panorama image can be streamed to the viewer terminal. Accordingly, the experience of the broadcast VR content can be shared between the viewer and the streamer watching the streaming broadcast.
  • the streamer terminal does not perform the rendering of the 360-degree panorama image, so that the performance requirements for live streaming are alleviated, which may have the effect of inducing streamer participation.
  • the 360 degree panorama image is rendered using the virtual camera disposed near the virtual object controlled by the streamer.
  • the sense of immersion of the viewer in the streaming broadcast can be maximized.
  • the viewpoint of the viewer is not completely dependent on the viewpoint of the streamer, so that the viewer's sense of reality and immersion of the VR content can be maximized.
  • a streaming broadcasting service for VR contents can be provided using a pre-established Internet broadcasting platform, and the system construction cost can be greatly reduced.
  • the entire 360-degree panorama image may not be streamed but the partial panorama image corresponding to the view field of the viewer may be streamed.
  • the bandwidth of the network is saved, and a seamless live streaming service can be provided.
  • an image outside the visible region of the viewer can be encoded and streamed in a low quality.
  • the bandwidth of the network is further saved, and a seamless live streaming service can be provided.
  • a separate 360 degree panorama image rendered at the streamer terminal can be streamed. Accordingly, the feeling of immersion of the viewer can be maintained, and a seamless live streaming service can be provided.
  • streaming broadcasting is permitted only for streamers purchased through a billing process, whereby a new profit structure can be formed for a provider of a live streaming system and / or an Internet broadcasting platform, and the effect of mass- have.
  • the left eye panorama image and the right eye panorama image can be provided by using a plurality of virtual cameras arranged at a distance apart from each other. Accordingly, the viewer can appreciate the stereoscopic panoramic image according to the binocular parallax, and the immersion feeling of the viewer for the broadcast VR content can be further improved.
  • the viewpoint of the virtual camera can be automatically adjusted according to the distance between the first virtual object controlled by the streamer and the second virtual object not controlled on the broadcast VR content. For example, as the second virtual object approaches the first virtual object, the viewpoint of the virtual camera may be adjusted so that a convergence angle formed by the viewpoint of the virtual camera becomes larger. Accordingly, since the panorama image rendered based on the second virtual object approaching the first virtual object can be provided to the viewer, the immersion feeling of the viewer for the broadcast VR content can be further improved.
  • FIG. 1 is a configuration diagram of a live streaming system for VR contents according to a first embodiment of the present invention.
  • FIGS. 2 to 5 are exemplary views of a screen that can be displayed as the game client module is executed in the streamer terminal.
  • FIG. 6 is a block diagram illustrating a rendering server that is a component of a live streaming system according to an embodiment of the present invention.
  • FIGS. 7 and 8 are views for explaining a 360-degree panoramic image rendering method that may be referred to in some embodiments of the present invention.
  • FIG. 9 is a block diagram illustrating a broadcast management server, which is a component of a live streaming system according to an embodiment of the present invention.
  • FIG. 10 is a configuration diagram of a live streaming system for VR contents according to the second embodiment of the present invention.
  • 11-13 illustrate a second 360 degree panoramic image rendering method that may be referenced in some embodiments of the present invention.
  • FIG. 14 is a configuration diagram of a live streaming system according to the third embodiment of the present invention.
  • 15 is a block diagram illustrating a relay server that is a component of a live streaming system according to an embodiment of the present invention.
  • 16 is a block diagram illustrating a broadcast web server that is a component of a live streaming system according to an embodiment of the present invention.
  • 17 is a flowchart showing the operation of the live streaming system according to the third embodiment.
  • FIG. 18 is a flowchart illustrating a live streaming method for VR content according to an embodiment of the present invention.
  • 19 to 23 are diagrams for explaining a live streaming method considering network conditions according to the first to third embodiments of the present invention.
  • 24 and 25 are views for explaining a process of rendering left and right panoramic images in the live streaming method according to the fourth embodiment of the present invention.
  • 26 to 30 are views for explaining a process of automatically adjusting a viewpoint of a virtual camera based on a virtual object in the live streaming method according to the fourth embodiment of the present invention.
  • FIG. 31 is a flowchart illustrating a process of streaming left and right panoramic images in a live streaming method according to a fourth embodiment of the present invention.
  • FIG. 32 is a hardware block diagram of an exemplary computing device capable of implementing various devices that constitute a live streaming system for VR content in accordance with some embodiments of the present invention.
  • an Internet broadcasting platform means a platform for providing a streaming broadcasting service using the Internet.
  • the Internet broadcasting platform may be, but is not limited to, an African TV, a YouTube, a Twot, and a Cacao TV.
  • a streamer means a person who performs Internet broadcasting through an Internet broadcasting platform.
  • the streamer is named as BJ (broadcasting jockey) in African TV, PD (play director) in Cacao TV, streamer in twin TV and creator in YouTube, and various other terms such as broadcaster
  • BJ broadcasting jockey
  • PD play director
  • Cacao TV streamer in twin TV
  • YouTube creator
  • various other terms such as broadcaster
  • it is referred to as a streamer for convenience.
  • VR virtual reality
  • VR refers to a specific environment or situation, or technology itself, that is similar to the reality produced by an artificial technique using a computer or the like, but is not actual.
  • VR can be used in various technical terms such as artificial reality, cyberspace, virtual worlds, virtual environment, synthetic environment, artificial environment, It should be noted that they may be used interchangeably but may refer to the same object.
  • an instruction is a set of instructions, which are grouped by function, indicating that they are executed by a processor and a component of a computer program.
  • FIG. 1 is a configuration diagram of a live streaming system for VR contents according to a first embodiment of the present invention.
  • a live streaming system includes a streamer terminal 100, a rendering server 300, a broadcasting management server 500, at least one Internet broadcasting platform 700, And may include one viewer terminal 900.
  • a live streaming system includes a streamer terminal 100, a rendering server 300, a broadcasting management server 500, at least one Internet broadcasting platform 700, And may include one viewer terminal 900.
  • the present invention is not limited to the above-described embodiments, and that various changes and modifications may be made without departing from the scope of the present invention.
  • each component of the live streaming system shown in FIG. 1 shows functional elements that are functionally distinct, and that at least one component may be implemented in a form that is integrated with one another in an actual physical environment.
  • the rendering server 300 and the broadcast management server 500 may be implemented as a single integrated server device.
  • the components of the live streaming system according to the first embodiment will be described.
  • the streamer terminal 100 is a computing device used by the streamer 1 to proceed with live streaming broadcasting.
  • the computing device may be a notebook, a desktop, a laptop, a smart phone, and the like, but it is not limited thereto and may include any type of device having a computing function and a communication function can do.
  • the streamer terminal 100 can execute live broadcast for VR content for broadcasting through the streaming platform (e.g., the rendering server 300, the broadcast management server 500, the Internet broadcast platform 700, etc.).
  • the type of the VR content for broadcasting is the VR game content.
  • this is for the purpose of illustrating some embodiments of the present invention, and the scope of the present invention is not limited to the above examples.
  • the streamer terminal 100 can execute the broadcast VR game contents through the pre-installed game client module and proceed with live streaming broadcasting.
  • the game client module may be understood as a software module in which a broadcasting function is additionally implemented in the VR game contents.
  • the game client module is executed when the VR game content for broadcasting is an FPS (first-person shooter) game will be briefly described.
  • the main interface 5 for the broadcast VR game content can be displayed.
  • the broadcast interface 7 related to live streaming broadcast can be displayed as shown in FIG.
  • the broadcast interface 7 may be displayed.
  • a button disabled (e.g., YouTube) in FIG. 3 indicates an Internet broadcasting platform that is currently unavailable for some reason.
  • the broadcast interface 7 may include, for example, a selection interface for an Internet broadcast platform on which live broadcasting is to be performed, a broadcast start / end interface, and the like. Therefore, the streamer 1 can start live streaming broadcasting at a desired time while playing the VR game contents for broadcasting.
  • an indicator 9a indicating " broadcasting " can be displayed on the screen of the streamer terminal 1 as shown in Fig. If the broadcast is impossible due to a network problem or the like, an indicator 9b indicating " no broadcast " may be displayed.
  • the streamer 1 may be a broadcast host who wears a VR device such as an HMD (head mounted device) and plays VR game contents for broadcasting.
  • a VR device such as an HMD (head mounted device)
  • the game image of the broadcast VR game content played by the streamer 1 can be streamed to the viewer terminal 900.
  • a 360 degree panorama image for the broadcast VR game content may be streamed to the viewer terminal 900 through at least one Internet broadcast platform 700 selected by the streamer 1.
  • the 360 degree panorama image may be rendered based on the broadcast VR game content running on the streamer terminal 100.
  • a separate rendering server 300 need not be provided, a live streaming system can be constructed at a low cost. However, since high-performance computing power is generally required to execute VR game contents, it is preferable that a separate rendering server 300 is installed to provide seamless live streaming service.
  • the streamed 360 degree panorama images may all be rendered by the rendering server 300. According to the present embodiment, the burden on the streamer terminal 100 can be alleviated.
  • the 360 degree panorama image is rendered in the rendering server 300, and the description will be continued. However, the scope of the present invention is not limited thereto.
  • the rendering server 300 renders the 360-degree panorama image 3 based on the VR game content for broadcasting.
  • the rendering server 300 generates the VR game content for broadcasting (hereinafter referred to as "first broadcast VR game content ”) executed by the streamer terminal 100 in order to render the 360- (Hereinafter, referred to as “second broadcast VR game content ”) that is the same as the broadcast VR game content.
  • the rendering server 300 synchronizes the second broadcast VR game content with the first broadcast VR game content using the game progress information received in real time from the streamer terminal 100 during the streaming broadcast, 2 < / RTI > VR game content.
  • the game progress information includes all information required for synchronization of two VR game contents.
  • the game progress information includes a virtual object controlled by the streamer 1, a state of the virtual object, But it is not limited to the above-listed examples. A more detailed description of this embodiment will be given later with reference to Figs. 6 and 11.
  • the broadcast management server 500 includes a module (or or) 602 for allowing the 360-degree panorama image 3 rendered by the rendering server 300 to be streamed through the Internet broadcast platform 700 Device).
  • the broadcast management server 500 may include at least one broadcast client module operatively associated with the Internet broadcast platform 700.
  • the broadcast client module is a module for transmitting a streaming object image to a streaming server of an Internet broadcasting platform, for example, a software module provided by the Internet broadcasting platform. More specifically, for example, when the Internet broadcasting platform is " Africa TV ", the broadcasting client module may indicate a software module installed in a terminal of the BJ which broadcasts via Africa TV.
  • the broadcast management server 500 may indicate a software module installed in a terminal of the BJ which broadcasts via Africa TV.
  • the Internet broadcasting platform 700 means a platform for providing a live broadcasting streaming service over the Internet.
  • a pre-established Internet broadcasting platform such as Africa TV, Twot Site, YouTube, etc. can be used as the Internet broadcasting platform 700. That is, according to the present embodiment, a separate streaming server is not constructed to stream real-time VR game contents, but a legacy system used by existing viewers can be utilized. Accordingly, the system construction cost is greatly reduced, and existing viewers using the Internet broadcasting platform can be secured as potential viewers of VR contents broadcasting.
  • the viewer terminal 900 means a terminal used by a viewer to view a live streaming broadcast.
  • the viewer terminal 900 may be, for example, a computing device equipped with a viewing client module linked with the Internet broadcasting platform 700.
  • the computing device may be implemented as an arbitrary device such as a notebook, a desktop, a laptop, a smart phone, or an HMD.
  • the viewing client module may be, for example, a software module installed to use a live streaming broadcasting service provided by an Internet broadcasting platform.
  • Each component that constitutes a live streaming system may communicate over a network.
  • the network may be any kind of wired / wireless network such as a local area network (LAN), a wide area network (WAN), a mobile radio communication network, a wibro Can be implemented.
  • LAN local area network
  • WAN wide area network
  • a mobile radio communication network a wibro Can be implemented.
  • FIG. 6 the components of the live streaming system will be described in more detail with reference to FIGS. 6 to 9.
  • FIG. 6 the components of the live streaming system will be described in more detail with reference to FIGS. 6 to 9.
  • FIG. 6 is a block diagram illustrating a rendering server 300 that is a component of a live streaming system for VR content according to the first embodiment of the present invention.
  • the rendering server 300 includes a content execution module 6100, a content synchronization module 330, a panorama image rendering module 350, an encoding module 370, and a panorama image transmission module 390 Lt; / RTI >
  • a content execution module 6100 the rendering server 300 includes a content execution module 6100, a content synchronization module 330, a panorama image rendering module 350, an encoding module 370, and a panorama image transmission module 390 Lt; / RTI >
  • a content execution module 6100 includes a content execution module 6100, a content synchronization module 330, a panorama image rendering module 350, an encoding module 370, and a panorama image transmission module 390 Lt; / RTI >
  • FIG. 6 the rendering server 300 includes a content execution module 6100, a content synchronization module 330, a panorama image rendering module 350, an encoding module 370, and a panorama image transmission module 390 Lt; / RTI
  • the content execution module 6100 is a module for executing the second broadcast VR game content.
  • the second broadcast VR game content is the same VR game content as the first broadcast VR game content executed in the streamer terminal 100 as described above.
  • the content execution module 6100 receives information (e.g., name, identifier, etc.) of the first broadcast VR game content from the streamer terminal 100,
  • the second broadcast VR game content identical to the VR game content can be executed.
  • the content synchronization module 330 synchronizes the second broadcast VR game content and the first broadcast VR game content using the content progress information of the first broadcast VR game content.
  • the content progress information may be received from the streamer terminal 100 in real time.
  • the panorama image rendering module 350 is a module for rendering a 360-degree panorama image streamed to the viewer terminal 900 based on the second broadcast VR game content.
  • a method of rendering a 360-degree panoramic image according to an embodiment of the present invention will be described in detail with reference to FIGS. 7 and 8.
  • FIG. 7 a method of rendering a 360-degree panoramic image according to an embodiment of the present invention will be described in detail with reference to FIGS. 7 and 8.
  • FIG. 7 illustrates an exemplary virtual space constructed on the second broadcast VR game content. 7 shows a case where the first virtual object 10 and the second virtual object 20 exist in the virtual space and the second virtual object 20 is a virtual object played by the streamer 1 As shown in FIG.
  • the game image is photographed by the virtual camera 30 disposed adjacent to the second virtual object 20 in the virtual space. Then, the panorama image rendering module 350 renders the 360-degree panorama image using the captured game image.
  • the virtual camera 30 rotates 360 degrees around the second virtual object 20, captures the game image 40, and the panorama image rendering module 350 displays the game image 40
  • the panoramic panoramic image can be rendered using the panoramic panoramic image 40.
  • the method of rendering the 360 degree panorama image by the panorama image rendering module 350 is not limited to this, and it may be rendered in any way.
  • the virtual camera 30 when the second virtual object 20 moves in the virtual space according to the input of the streamer 1, the virtual camera 30 can also be moved along the second virtual object 20. [ According to the present embodiment, since the virtual camera 30 moves along the play object 20 and shoots the game video image, viewers watching the broadcast VR game content can receive the feeling of playing the VR game content directly. Therefore, the immersion feeling for the live streaming broadcast can be maximized.
  • the viewer's view may not be completely dependent on the field of view of the streamer 1.
  • the view direction of the viewer changes from the first viewpoint to the second viewpoint
  • an image corresponding to the second viewpoint among the 360 degree panorama images is displayed on the viewer terminal 900, regardless of the viewpoint of the streamer 1 . Therefore, the field of view of the viewer is not completely dependent on the field of view of the streamer 1.
  • the viewer who watches the broadcast VR content can experience the same sense of reality and immersion as the streamer 1 without installing the high-volume VR game content on the viewer terminal 900.
  • the encoding module 370 is a module for encoding the rendered 360 degree panorama image.
  • the encoding module 370 may adaptively encode the network state between the Internet broadcast platform 700 and the viewer terminal 900.
  • the encoding module 370 may encode the 360 degree panorama image with a lower quality image than the preset reference quality .
  • the encoding module 370 may encode the 360 degree panorama image with a predetermined reference image quality or a higher image quality.
  • the encoding module 370 may perform encoding taking into account the computing capabilities of the viewer terminal 900.
  • the encoding module 370 may perform encoding with a picture quality lower than a predetermined reference picture quality.
  • the encoding module 370 may encode a 360 degree panorama image using a scalable video coding (SVC) technique to selectively select an image quality.
  • SVC scalable video coding
  • the image quality of the 360-degree panoramic image can be adjusted based on at least one of conditions of the computing ability and the network state of the viewer terminal 900.
  • the adjustment of the image quality may be performed by any one of the components of the panorama image transmission module 390, the broadcasting management server 500, or the Internet broadcasting platform 700.
  • the encoding module 370 can encode and provide one panorama image with a plurality of image qualities.
  • the description of this embodiment will be given later with reference to Figs. 21 to 23. Fig.
  • the panorama image transmission module 390 transmits the encoded 360 degree panorama image to the broadcasting management server 500.
  • the transmitted 360-degree panoramic image can be streamed to the viewer terminal 900 by the broadcast management server 500.
  • the panorama image transmission module 390 receives viewer's viewpoint information and viewing angle information from the viewer terminal 900, and in response thereto, Only the panoramic image can be transmitted to the viewer terminal 900. According to the present embodiment, network bandwidth is saved and seamless live streaming service can be provided. A detailed description of this embodiment will be given later with reference to Figs. 19 and 20. Fig.
  • FIG. 9 is a block diagram illustrating a broadcast management server 500, which is a component of a live streaming system for VR content according to the first embodiment of the present invention.
  • the broadcast management server 500 may include a panorama image receiving module 510 and a broadcast client managing module 530.
  • a panorama image receiving module 510 may be included in the broadcast management server 500.
  • the broadcast management server 500 may include a panorama image receiving module 510 and a broadcast client managing module 530.
  • Fig. only components that are related to the embodiment of the present invention are shown in Fig. Therefore, it will be understood by those skilled in the art that other general-purpose components other than the components shown in FIG. 9 may be further included.
  • the panorama image receiving module 510 receives the 360-degree panorama image rendered by the rendering server 300.
  • the 360-degree panorama image may be a properly encoded 360-degree panorama image.
  • the broadcast client management module 500 is a module for managing at least one broadcast client module 531 to 535 linked with the Internet broadcast platform 700 that has been constructed.
  • the broadcast client management module 530 may be configured to broadcast the broadcast client information to the corresponding broadcast client based on broadcast information of the stored streamer member and / or selection information of the Internet broadcast platform selected by the streamer member through the broadcast interface, You can run the module. Also, the broadcast client management module 530 may stream the 360 degree panorama image to the viewer terminal 900 using the broadcast client module executed.
  • Each of the components shown in FIGS. 6 and 9 or the components shown in FIGS. 15 and 16 to be described later may be implemented by software, a field programmable gate array (FPGA), an application-specific integrated circuit (ASIC) And the like.
  • the components are not limited to software or hardware, and may be configured to be addressable storage media, and configured to execute one or more processors.
  • the functions provided in the components may be implemented by a more detailed component, or may be implemented by a single component that performs a specific function by combining a plurality of components.
  • a live streaming system for VR contents according to the first embodiment of the present invention has been described.
  • the 360-degree panorama image for the broadcast VR game content is rendered in the rendering server 300, and the rendered 360-degree panorama image is streamed to the viewer terminal 900.
  • FIG. Therefore, the experience of the broadcast VR game contents can be shared between the viewer and the streamer watching the streaming broadcast.
  • FIG. 10 a live streaming system for VR contents according to a second embodiment of the present invention will be described with reference to FIGS. 10 and 13.
  • FIG. 10 a live streaming system for VR contents according to a second embodiment of the present invention
  • FIG. 10 is a configuration diagram of a live streaming system for VR contents according to the second embodiment.
  • the configuration of the live streaming system according to the second embodiment is the same as the system according to the above-described first embodiment.
  • the live streaming system according to the second embodiment differs from the system according to the first embodiment in that streaming service is provided using two kinds of 360 degree panorama images. To avoid redundant explanations, let's go on to explain the difference.
  • the live streaming system provides a live streaming service using the first 360 degree panorama image 18 and the second 360 degree panorama image 19.
  • the first 360 degree panorama image 18 may be an image rendered by the rendering server 300 and the second 360 degree panorama image 19 may be an image rendered by the streamer terminal 100.
  • the second 360 degree panorama image 19 can be streamed to the viewer terminal 900 when the streamer 1 does not have the first broadcast VR game content in progress. That is, when the streamer 1 is playing the first broadcast VR game contents, the first 360-degree panorama image 18 is streamed. Otherwise, the second 360-degree panorama image 19 is streamed .
  • Figs. 11 and 12 are diagrams for explaining a method of rendering the second 360 degree panorama image 19.
  • FIG. 11 shows a first image 21a generated by capturing a first broadcast VR game content displayed on the screen of the streamer terminal 100.
  • FIG. 11 the case where the size of the first image 21a is " 1920x1080 " is shown as an example.
  • the streamer terminal 100 converts the size of the first image 21a into a predetermined size to render the second 360 degrees panorama image 20, and generates the second image 21b do.
  • the predetermined size is exemplified as “ 640x360 ", but it may vary as much as possible.
  • the streamer terminal 100 arranges the second image 21b at the center of the 360 degree panorama image 20 and sets the region 23 excluding the second image 21b in the 360 degree panorama image to a predetermined color for example, black) to render a 360 degree panoramic image 20.
  • the rendered 360 degree panorama image 20 may be as shown in FIG. 13, for example. Specifically, when the 360-degree panoramic image 20 is streamed, when the viewer 30 looks at the front, the second image 21b is seen. When the viewpoint is changed, a space painted with a predetermined color is seen.
  • FIG. 14 a live streaming system for VR contents according to the second embodiment of the present invention has been described with reference to FIGS. 10 to 13.
  • FIG. 14 a live streaming system for VR content according to the third embodiment of the present invention will be described with reference to FIG. 14 to FIG.
  • FIG. 14 is a configuration diagram of a live streaming system for VR content according to the third embodiment of the present invention.
  • the live streaming system may further include a relay server 200 and a broadcast web server 400.
  • a relay server 200 may further include a broadcast web server 400.
  • the present invention is not limited to the above-described embodiments, and that various changes and modifications may be made without departing from the scope of the present invention.
  • each component of the live streaming system shown in FIG. 14 shows functional elements that are functionally separated, and that at least one component may be implemented in a form that is integrated with each other in an actual physical environment.
  • the relay server 200 generates a broadcast channel to provide an independent broadcast environment to the streamer 1, and receives live streaming data from the streamer terminal 100 during live streaming And relays the game progress information to the rendering server 300.
  • the relay server 200 in response to a request from a streamer terminal 100 (eg, an authenticated streamer or a streamer that has purchased a broadcast license) in which live streaming broadcasting is permitted, the relay server 200 generates and provides a broadcast channel for each streamer do.
  • the broadcasting room may refer to an online space shared by viewers watching live streaming broadcasting of the streamer and the streamer.
  • the relay server 200 can further provide various functions necessary for smooth broadcast progress such as supporting a chat function for each broadcast. Since the broadcasting room is a well-known concept in the related art, a detailed description thereof will be omitted.
  • the relay server 200 may be implemented as a photon server or the like, but the scope of the present invention is not limited thereto. A more detailed description of the relay server 200 will be given later with reference to FIG.
  • the broadcast web server 400 provides a web page service to the user.
  • the broadcasting web server 400 provides a web page in response to a request from the streamer terminal 100, and transmits the web page via the web page to the broadcasting web server 400, such as membership registration, login, member information management, Function can be provided.
  • membership registration, login, member information management, Function can be provided.
  • FIG. 15 is a block diagram illustrating a relay server 200 that is a component of a live streaming system for VR content according to the third embodiment of the present invention.
  • the relay server 200 may include a content information receiving module 210, a content advance relay module 230, and a broadcast management module 250.
  • Fig. 15 shows only the components related to the embodiment of the present invention. Accordingly, those skilled in the art will recognize that other general-purpose components other than those shown in FIG. 15 may be further included.
  • the content information receiving module 210 receives information (e.g., game progress information) about the first broadcast VR game content from the streamer terminal 100, and the content information relay module 230 And transmits information on the first broadcast VR game contents to the rendering server 300.
  • information e.g., game progress information
  • the content information receiving module 210 receives game progress information for the first broadcast VR game content in real time from the streamer terminal 100, and the content information relay module 230 receives the game progress information To the rendering server 300.
  • the rendering server 300 may synchronize the second broadcast VR game content with the first broadcast VR game content using the game progress information, and may render the 360-degree panorama image (or the first 360-degree panorama image) have.
  • the broadcasting management module 250 generates a broadcasting room indicating an online space in which the streamer is broadcast in response to a broadcasting start request of the streamer terminal 100 to which the streaming broadcasting is permitted. In addition, the broadcasting management module 250 may terminate the corresponding broadcasting channel in response to a broadcasting end request from the streamer terminal 100.
  • the streamer in which the streaming broadcast is permitted may be a streamer that has been successfully authenticated and purchased a broadcast right.
  • the broadcast start request of the streamer in which the streaming broadcast is not permitted may be blocked in this embodiment.
  • 16 is a block diagram illustrating a broadcast web server 400 that is a component of a live streaming system for VR content according to the third embodiment of the present invention.
  • the broadcast web server 400 may include a member information management module 410, an authentication module 430, a broadcast information management module 450, and a billing module 470.
  • a member information management module 410 may include a member information management module 410, an authentication module 430, a broadcast information management module 450, and a billing module 470.
  • a billing module 470 may include a billing module 470.
  • the components related to the embodiment of the present invention are shown in Fig. Therefore, it will be understood by those skilled in the art that other general-purpose components other than the components shown in FIG. 16 may be further included.
  • the membership information management module 410 is a module for managing information on streamer members.
  • the member information management module 410 may manage the streamer member information by DB.
  • the information about the streamer member may include authentication information such as a member ID and a password.
  • the authentication module 430 is a module that performs authentication for a streamer member.
  • the authentication may be performed, for example, on an ID / password basis, but may be performed in any other manner.
  • the broadcast information management module 450 is a module for managing broadcast information on a streamer member.
  • the broadcast information management module 450 can organize the broadcast information into a DB.
  • the broadcast information may include, for example, setting information for an Internet broadcasting platform, information on VR content for broadcasting, information on broadcasting rights, and the like.
  • the billing processing module 470 is a module for performing a billing process in accordance with the purchase of a broadcasting right in response to a streaming member purchase request of a streaming member.
  • the method of performing the billing process may be performed by any method such as point, account transfer, card settlement, and the like.
  • a live broadcast request of a streamer that has not purchased a broadcast right can be blocked.
  • streaming broadcasting is allowed only for a streamer purchased through a billing process, so that a new profit structure can be provided to a provider of a live streaming system and / or an Internet broadcasting platform.
  • streamer's indiscreet penetration of broadcasting is blocked, and high-quality Internet broadcasting can be mass-produced.
  • FIG. 17 is a flowchart showing the operation of the live streaming system according to the third embodiment. However, it should be understood that the present invention is not limited thereto and that some steps may be added or deleted as needed.
  • FIG. 17 illustrates an example in which the rendering server 300 and the broadcasting management server 500 are implemented as a single server device.
  • a game client module is executed in the streamer terminal 100 as a first step for performing live broadcasting on broadcast VR game contents (S10).
  • the game client module includes the first VR game content for broadcasting, and the first VR game content for the broadcasting is also executed in step S10.
  • an authentication procedure may be performed between the streamer terminal 100 and the broadcast web server 400 (S20). That is, through the authentication procedure, it is determined whether or not the streamer is a registered member, and live broadcasting can be permitted only for the registered member.
  • broadcast information about the streamer authenticated by the broadcast web server 400 is searched (S30), and the broadcast client module is executed in the broadcast management server 500 based on the searched broadcast information (S50) .
  • the broadcast client module for the Internet broadcast platform selected by the streamer may be executed (see FIG. 3).
  • a plurality of broadcast client modules may be executed.
  • live streaming broadcasting can be performed through a plurality of Internet broadcasting platforms 700.
  • a broadcast generation request is transmitted to the relay server 200, and the relay server 200 generates a broadcast stream for the streamer in response to the broadcast generation request (S70).
  • the relay server 200 may connect the broadcasting client module and the game client module to the broadcasting room so that the game progress information may be shared between the two modules (S80, S90).
  • the game progress information is transmitted to the rendering server 300 through the relay server 200 in real time (S100 , S110, S120).
  • the rendering server 300 In response to receiving the game progress information, the rendering server 300 synchronizes the second broadcast VR game content with the first broadcast VR game content (S130), and the 360-degree panorama An image is generated (S140).
  • the generated 360 degree panorama image is streamed to the viewer terminal 900 through the internet broadcasting platform 700 (S150, S160).
  • the configuration of the live streaming system for VR contents according to the fourth embodiment of the present invention may be the same as or similar to the live streaming system according to the first to third embodiments described above.
  • the rendering server 300 may be configured so that the panorama image rendering module 350 accurately displays the left panorama image 350 using a plurality of virtual cameras arranged at predetermined intervals, And a right-eye panoramic image, respectively.
  • the panorama image rendering module 350 not the one 360 degree panorama image but the left eye panorama image and the right eye panorama image are provided to the viewer terminal 900, so that the viewer can appreciate the stereoscopic panorama image through the binocular parallax. Accordingly, the immersion, realism, realism, and the like that the viewer feels about the VR content for broadcasting can be greatly improved.
  • FIG. 24 to 30 A detailed description of how the panoramic image rendering module 350 renders the left and right panoramic images will be described in detail with reference to FIGS. 24 to 30.
  • the rendering server 300 accurately determines whether the panoramic image transmission module 390 merges the left panoramic image and the right panoramic image according to the type of the viewer terminal 900 Or may transmit them, respectively. A detailed description of this embodiment will be given later with reference to Fig.
  • Each step of the live streaming method according to an embodiment of the present invention to be described below may be performed by a system composed of a single computing device and / or a plurality of computing devices.
  • the system may be a live streaming system according to some embodiments of the present invention.
  • description of the operation subject of each step included in the live streaming method may be omitted.
  • each step of the live streaming method may be implemented as an operation of a computer program executed by a processor.
  • FIG. 18 is a flowchart of a live streaming method for VR content according to an embodiment of the present invention.
  • the present invention is not limited to the above-described embodiments, and that various changes and modifications may be made without departing from the scope of the present invention.
  • game progress information on the first broadcast VR game content executed in the streamer terminal 100 is received in real time (S200).
  • the rendering server 300 may receive game progress information for the first broadcast VR game content in real time.
  • the second broadcast VR game content and the first broadcast VR game content are synchronized using the game progress information (S220).
  • the rendering server 300 may perform the synchronization using the game progress information.
  • a 360-degree panorama image is rendered based on the synchronized second broadcast VR game content (S240).
  • the rendering server 300 may render a 360-degree panorama image based on the synchronized second broadcast VR game content.
  • the method of rendering the 360-degree panoramic image is as described above, and a description thereof will be omitted.
  • the rendering server 300 can render the left eye panorama image and the right eye panorama image based on the synchronized second broadcasting VR game contents. A detailed description of this embodiment will be given later with reference to FIG. 24 to FIG.
  • the reason why the rendering server 300 renders the 360-degree panorama image is because the execution of the high-capacity VR content itself is a large burden on the streamer terminal 100 itself.
  • a load imposed on the streamer terminal 100 can be minimized and a smooth live streaming service can be provided.
  • the streamer participation of the streamer can be induced.
  • the rendered 360 degree panorama image is streamed to the viewer terminal 900 (S260).
  • the broadcast management server 500 may stream the rendered 360-degree panorama image to the viewer terminal 900 using the pre-built Internet broadcast platform.
  • the left eye panorama image and the right eye panorama image when the left eye panorama image and the right eye panorama image are rendered, the left eye panorama image and the right eye panorama image may be respectively transmitted or combined based on the viewer terminal type.
  • a detailed description of this embodiment will be given later with reference to Fig.
  • a live streaming method for VR content according to an embodiment of the present invention has been described with reference to FIG.
  • synchronization is performed between the first broadcast VR content being executed in the streamer terminal 100 and the second broadcast VR content being executed in the rendering server 300.
  • the 360-degree panorama image is rendered on the basis of the second broadcast VR content in the rendering server 300, and the rendered 360-degree panorama image can be streamed to the viewer terminal 900. Accordingly, the experience of the streamer with respect to the VR content can be shared with the viewer.
  • FIG. 19 a live streaming method according to some embodiments of the present invention for providing a seamless live streaming service will be described with reference to FIGS. 19 to 23.
  • FIG. 19 a live streaming method according to some embodiments of the present invention for providing a seamless live streaming service
  • VR content provides all of the 360 degree panoramic images to support the Omni View, it has a very large capacity and requires significant network bandwidth compared to general video content. Therefore, if the network state is unstable, a problem of frequent interruption may occur in the viewer terminal 900, which may be an important factor that deteriorates the immersion feeling and interest of viewers. It is to be understood that some embodiments to be described below are for solving such a problem.
  • 19 and 20 are diagrams for explaining a live streaming method according to the first embodiment of the present invention.
  • FIG. 19 shows a viewer wearing an HMD and watching a 360-degree panorama image for broadcast VR content.
  • the entire area of the 360 degree panorama image is not displayed on the screen of the viewer terminal 900, but only the partial panorama image 40 corresponding to the field of view 111 of the viewer is displayed Can be confirmed.
  • the rendering server 300 receives the viewer's current viewpoint information (gaze direction) and viewing angle information from the viewer terminal 900, the rendering server 300 extracts the partial panorama image using the current viewpoint information and the viewing angle information , And the extracted partial panorama image may be streamed to the viewer terminal 900.
  • the above-described functions may be performed by the broadcast management server 500 or a separate server, which may vary depending on the embodiment.
  • FIG. 20 shows an example in which the partial panoramic images 121 to 125 are streamed to each viewer terminal based on the current viewpoint information and the viewing angle information of the viewer according to the first embodiment.
  • a partial panorama image accurately corresponding to a viewing angle of a viewer is extracted and streamed.
  • a partial panorama image having a wider area than a viewer's viewing angle may be streamed considering a viewpoint change of the viewer. A detailed description thereof will be given later with reference to FIG.
  • FIG. 19 a live streaming method according to the first embodiment of the present invention has been described with reference to FIGS. 19 and 20.
  • FIG. 21 a live streaming method according to the second embodiment of the present invention will be described with reference to FIGS. 21 and 22.
  • FIG. 21 a live streaming method according to the second embodiment of the present invention will be described with reference to FIGS. 21 and 22.
  • partial panorama images encoded with different image qualities can be streamed to the viewer terminal 900.
  • an image of the first region 64 corresponding to the front view point of the viewer among the entire region of the partial panorama image 60 is encoded with the first image quality, and the first region 64
  • the images of the second regions 61 and 65 may be encoded with the second image quality.
  • the first image quality may be higher quality than the second image quality.
  • the first image quality and the second image quality can be variably adjusted according to the state of the network between the Internet broadcasting platform 700 and the viewer terminal 900.
  • the available bandwidth of the network is greater than or equal to a predetermined threshold value
  • at least one of the first image quality and the second image quality may be encoded with a higher image quality.
  • the available bandwidth is less than a preset threshold value
  • the image quality of at least one of the first image quality and the second image quality can be encoded with a lower quality.
  • the proportion occupied can be adjusted variably. For example, when the available bandwidth of the network is greater than a predetermined threshold value, the ratio of the first area 63 in the partial panorama image 60 is increased and the ratio of the second area 61 and 65 is decreased . That is, as the available bandwidth increases, the size of the first area 63 increases and the size of the second area 61 and 65 decreases relatively.
  • FIG. 22 shows a case where the current time of the viewer is changed to the left as the viewer turns his / her head to the left side as shown in FIG.
  • the partial panorama image 70 corresponding to the changed point in the 360-degree panorama image may be streamed as the current point of view of the viewer changes from left to right.
  • the region 73a encoded in the second image quality in the previous image is changed to the first image quality
  • the region 75 encoded in the first image quality no longer corresponds to the front viewpoint of the viewer, . ≪ / RTI >
  • the first partial panorama image corresponding to the viewing angle of the viewer and the second partial panorama image positioned in the invisible region outside the viewing angle and located adjacent to the first partial panorama image can be streamed together. That is, even if the viewer's viewpoint is changed, the predicted partial panorama image can be transmitted so that continuous streaming can be performed.
  • the partial panorama image 80 includes the first partial panorama images 83 to 87 corresponding to the viewing angle of the viewer and the first partial panorama images 83 to 87 located in the non- And two-part panoramic images 81 and 89.
  • the second partial panorama images 81 and 89 are adjacent to the left and right sides of the first partial panorama images 83 to 87.
  • the second partial panorama image may be located above and / Or may be an image located at the lower side.
  • the second partial panorama images 81 and 89 may be images encoded with the same or lower image quality than the first partial panorama images 83 to 87.
  • the first area 85 of the first partial panorama image is encoded with the first image quality
  • the second area 83, 87 is encoded with the second image quality lower than the first image quality
  • the second partial panorama images 81 and 89 may be the second image quality or the image encoded with the third image quality lower than the second image quality.
  • the size and image quality of the second partial panorama image can be variably adjusted according to the state of the network between the Internet broadcasting platform 700 and the viewer terminal 900. For example, if the available bandwidth of the network is greater than or equal to a predetermined threshold value, the size of the second partial panorama images 81 and 89 may be larger. Alternatively, if the available bandwidth of the network is greater than or equal to a predetermined threshold value, the second partial panorama image 81, 89 may be encoded with higher image quality.
  • FIG. According to the above-described method, only some of the panoramic images are streamed or the image quality is adjusted, thereby saving bandwidth of the network and providing seamless live streaming service.
  • the live streaming method according to the fourth embodiment provides a live streaming service based on a left eye panorama image and a right eye panorama image.
  • a live streaming service based on a left eye panorama image and a right eye panorama image.
  • 24 is a flowchart illustrating a process of rendering left and right panoramic images in the live streaming method according to the fourth embodiment.
  • the rendering server 300 disposes the first virtual camera and the second virtual camera in a virtual space constructed on the second broadcast VR game content by a predetermined interval (S242, S244) .
  • the predetermined interval may be an appropriately set value so that the binocular disparity can be generated.
  • the rendering server 300 renders the left eye panorama image based on the image photographed by the first virtual camera, and renders the right eye panorama image based on the image photographed by the second virtual camera (S246 , S248).
  • the rendered left eye panorama image and the right eye panorama image can be respectively streamed to the viewer terminal 900.
  • the left panoramic image 97 and the right panoramic image 95 generated based on the two virtual cameras 91 and 93 placed on the virtual space are streamed
  • the left panoramic image 97 and the right panoramic image 95 are output to the left and right displays of the HMD of the viewer, respectively. Accordingly, the viewer can appreciate the three-dimensional game image, so that the feeling of immersion and realism of the streaming broadcast can be greatly improved.
  • the first and second virtual cameras 103a and 103b which respectively photograph the left eye panorama image and the right eye panorama image, are adjacent to the virtual object 101 controlled by the streamer 1 as described above .
  • the point at which the viewpoints of the first and second virtual cameras 103a and 103b meet becomes a convergence point and the angle formed by the viewpoints of the first and second virtual cameras 103a and 103b is convergence angle.
  • the convergence point may basically coincide with the timing of the streamer 1. Accordingly, the viewer who watches the VR game content for broadcasting can enjoy the panorama image rendered at the viewpoint of the streamer 1, and thus can experience the same experience as playing the game directly.
  • the second virtual object 115 may be, but is not limited to, a virtual object that is not controlled by the streamer 1, such as a non-player character (NPC).
  • NPC non-player character
  • the second virtual object 115 is a convergence point, and the first and second virtual objects 111
  • the viewpoints of the second virtual cameras 113a and 113b can be adjusted. For example, as shown in FIG. 28, if the convergence angle of the first and second virtual cameras is originally the " convergence angle A ", the second virtual object 115 is used as a convergence point, The viewpoints of the cameras 113a and 113b are adjusted so that the convergence angle can be changed to the " convergence angle B ".
  • the viewpoints of the first and second virtual cameras 113a and 113b can be adjusted based on the distance between the first virtual object 111 and the second virtual object 115. [ 29, when the distance between the first virtual object 111 and the second virtual object 115 approaches from "distance B" to "distance C", the first and second virtual objects 111, The convergence angle formed by the cameras 113a and 113b can be made larger to the " convergence angle C ".
  • the panorama rendered automatically centering on the second virtual object Since the video can be provided to the viewer, the immersion feeling of the viewer watching the broadcast VR content can be further improved.
  • FIG. 30 shows a case where a plurality of virtual objects 123 and 125 appear within a predetermined distance from the first virtual object 121.
  • FIG. 30 shows an example in which a second virtual object 123 and a third virtual object 125, which are two virtual objects, are shown for convenience of explanation.
  • the viewpoints of the first and second virtual cameras can be adjusted using a virtual object of either the second virtual object 123 or the third virtual object 125 as a convergence point. For example, based on the distance between the first virtual object 121 and each of the virtual objects 123, 125, the virtual object 125 located at a closer distance may be the convergence point of the first and second virtual cameras 125, The viewpoint can be adjusted. In another example, based on the relative importance of two virtual objects on the broadcast VR game content, any one virtual object can be determined as the convergence point. For example, if the second virtual object 123 is a generic virtual object and the third virtual object 125 is an important virtual object (eg, a boss, an important NPC on a scenario, etc.) The viewpoints of the first and second virtual cameras can be adjusted.
  • the second virtual object 123 is a generic virtual object and the third virtual object 125 is an important virtual object (eg, a boss, an important NPC on a scenario, etc.)
  • the viewpoints of the first and second virtual cameras can be
  • the viewpoints of the first and second virtual cameras may be adjusted using the average coordinates of the position coordinates of the second virtual object 123 and the position coordinates of the third virtual object 125 as convergence points.
  • the panorama image including both the second and third virtual objects 123 and 125 can be rendered and provided to the viewer.
  • the viewpoints of the first and second virtual cameras may be adjusted in response to only some virtual objects of all the virtual objects appearing in the VR game content for broadcasting.
  • the viewpoints of the first and second virtual cameras are adjusted so that only when a virtual object (eg, a boss, a virtual object having a high level of importance such as an important NPC in a scenario) appears in the VR game content for broadcasting It is possible.
  • a virtual object eg, a boss, a virtual object having a high level of importance such as an important NPC in a scenario
  • 31 is a flowchart illustrating a process of streaming left and right panoramic images in the live streaming method according to the fourth embodiment.
  • the left panoramic image and the right panoramic image are merged, and the merged panoramic image can be streamed (S262, S264, S268).
  • the viewer terminal 900 is a terminal that does not have a module for displaying left and right panorama images
  • the merged panorama image can be streamed.
  • the merging of the two panoramic images may be performed right and left, up and down, or merged in any manner.
  • the left panoramic image and the right panoramic image may be streamed (S266).
  • an exemplary computing device 600 capable of implementing various devices (e.g., rendering server 300, broadcasting management server 500, and the like) constituting a live streaming system for VR content will be described.
  • 32 is a hardware block diagram of the exemplary computing device 600 of FIG.
  • a computing device 600 includes one or more processors 610, a bus 650, a network interface 670, a memory 630 that loads a computer program 691 performed by the processor 610, And a storage 690 for storing a computer program 691 and a computer program 691.
  • processors 610 a bus 650, a network interface 670, a memory 630 that loads a computer program 691 performed by the processor 610, And a storage 690 for storing a computer program 691 and a computer program 691.
  • the processor 610 controls the overall operation of each configuration of the computing device 600.
  • the processor 610 may comprise a central processing unit (CPU), a microprocessor unit (MPU), a microcontroller unit (MCU), a graphics processing unit (GPU), or any type of processor well known in the art .
  • the processor 610 may also perform operations on at least one application or program to perform the method according to embodiments of the present invention.
  • the computing device 600 may include one or more processors.
  • the memory 630 stores various data, commands, and / or information.
  • the memory 630 may load one or more programs 691 from the storage 690 to perform the method according to some embodiments of the invention.
  • the RAM is shown as an example of the memory 630 in Fig.
  • the bus 650 provides communication functionality between components of the computing device 600.
  • the bus 650 may be implemented as various types of buses such as an address bus, a data bus, and a control bus.
  • the network interface 670 supports wired and wireless Internet communication of the computing device 600.
  • the network interface 670 may support various communication methods other than Internet communication.
  • the network interface 670 may comprise a communication module well known in the art.
  • the storage 690 may store the one or more programs 691 non-temporarily.
  • the storage 690 may be a nonvolatile memory such as a ROM (Read Only Memory), an Erasable Programmable ROM (EPROM), an Electrically Erasable Programmable ROM (EEPROM), a flash memory or the like, a hard disk, a removable disk, And any form of computer-readable recording medium known in the art.
  • ROM Read Only Memory
  • EPROM Erasable Programmable ROM
  • EEPROM Electrically Erasable Programmable ROM
  • flash memory or the like
  • hard disk a removable disk
  • any form of computer-readable recording medium known in the art any form of computer-readable recording medium known in the art.
  • the computer program 691 may be loaded into the memory 630 and include instructions to cause the processor 610 to execute a method in accordance with some embodiments of the present invention.
  • the computer program 691 may include an instruction to receive game progress information for the first broadcast VR game content executed in the streamer terminal in real time, an instruction to play the game progress information in response to the game progress information being received in real- Instructions for synchronizing a second broadcast VR game content with the first broadcast VR game content, instructions for rendering a 360 degree panorama image based on the synchronized second broadcast VR game content, and instructions for rendering the rendered 360 degree panorama image To the viewer terminal.
  • the computer program 691 may include instructions for placing a first virtual camera in a virtual space built on broadcast VR content, instructions for placing a second virtual camera at a location spaced a predetermined distance from the first virtual camera in the virtual space, An instruction to render a left eye panorama image based on the image photographed by the first virtual camera; an instruction to render the right eye panorama image on the basis of the image photographed by the second virtual camera; And an instruction to stream each of the left eye panorama image and the right eye panorama image to the viewer terminal.
  • the computer program 691 may include an instruction to receive a streaming request for the VR content for broadcasting from a streamer terminal for streaming broadcasting for the VR content for broadcasting, And an instruction to stream 360-degree panoramic images of the VR content for broadcasting to a viewer terminal using the broadcasting platform.
  • the concepts of the invention described above with reference to Figures 1 to 32 can be implemented in computer readable code on a computer readable medium.
  • the computer readable recording medium may be, for example, a removable recording medium (CD, DVD, Blu-ray disk, USB storage device, removable hard disk) .
  • the computer program recorded on the computer-readable recording medium may be transmitted to another computing device via a network such as the Internet and installed in the other computing device, thereby being used in the other computing device.

Abstract

A system for providing a live streaming service for a VR content is provided. A system for live-streaming a VR content according to an embodiment of the present invention may comprise: a rendering server for executing a second broadcasting VR game content identical to a first broadcasting VR game content executed by a streamer terminal, synchronizing the second broadcasting VR game content with the first broadcasting VR game content by using game progress information relating to the first broadcasting VR game content, which is provided from the streamer terminal, and rendering a 360-degree panoramic image on the basis of the synchronized second broadcasting VR game content; and a broadcasting management server for allowing the rendered 360-degree panoramic image to be streamed to a viewer terminal.

Description

VR 콘텐츠에 대한 라이브 스트리밍 방법 및 시스템Live streaming method and system for VR content
본 발명은 VR 콘텐츠에 대한 라이브 스트리밍 방법 및 그 방법을 수행하는 시스템에 관한 것이다. 보다 자세하게는, 방송용 VR 콘텐츠에 대하여 끊김 없는 라이브 스트리밍 서비스를 제공하기 위해 방송용 VR 콘텐츠에 대한 360도 파노라마 영상을 효율적으로 스트리밍하는 방법, 방송용 VR 콘텐츠에 대한 시청자의 현실감 및 몰입감을 향상시키기 위한 라이브 스트리밍 방법 및 상기 방법들을 수행하는 시스템에 관한 것이다.The present invention relates to a live streaming method for VR content and a system for performing the method. More specifically, the present invention relates to a method of efficiently streaming a 360-degree panorama image to broadcast VR content in order to provide seamless live streaming service for broadcast VR content, a method of streaming live streaming And a system for performing the methods.
최근 전 세계로부터 많은 관심을 받고 있는 분야는 바로 가상 현실(virtual reality, 이하 "VR"로 약칭함) 분야이다. 일각에서는 2020년 VR 콘텐츠 시장이 하드웨어 시장의 수배에 이를 것이라고 보고 있다.Recently, a field of great interest from around the world is the field of virtual reality (hereinafter abbreviated as "VR"). Some believe that the 2020 VR content market will come in the wake of the hardware market.
VR은 컴퓨터 등을 사용한 인공적인 기술로 만들어낸 실제와 유사하지만 실제가 아닌 어떤 특정한 환경이나 상황 혹은 그 기술 자체를 의미한다. 이때, 만들어진 가상의 환경이나 상황 등은 사용자의 오감을 자극하며 실제와 유사한 공간적, 시간적 체험을 하게 함으로써 현실과 상상의 경계를 자유롭게 드나들게 한다. 또한, 사용자는 가상 현실에 단순히 몰입할 뿐만 아니라 실재하는 디바이스를 이용해 조작이나 명령을 가하는 등 가상 현실 속에 구현된 것들과 상호작용이 가능하다. VR은 사용자와 상호작용이 가능하고 사용자의 경험을 창출한다는 점에서 일방적으로 구현된 시뮬레이션과는 구분된다.VR refers to a specific environment or situation, or technology itself, that is similar to the reality created by artificial technology using computers, but not actual. At this time, the created virtual environment or situation stimulates the user's five senses and makes the user experience the spatial and temporal experiences similar to reality, thereby freely bringing the boundary between reality and imagination free. In addition to being immersed in virtual reality, users can also interact with things implemented in virtual reality, such as manipulating or commanding them using real devices. VR is distinguished from a one-sided simulation in that it can interact with users and create user experience.
한편, 아프리카 TV, 트위치, 유튜브 등의 인터넷 방송 플랫폼이 구축됨에 따라, 다양한 콘텐츠를 주제로 개인 인터넷 방송을 하는 스트리머(streamer)들이 나날이 증가하고 있다. 최근에는, 광고 스폰서(회사의 배너 광고 등)나 유튜브 스트리밍 수익 등 스트리머의 수익 경로가 다양해짐에 따라, 개인적인 취미로만 방송을 하는 것이 아니라 전업으로 개인 인터넷 방송을 하는 스트리머들 또한 증가하는 추세이다.On the other hand, as Internet broadcasting platforms such as Africa TV, Twot, and YouTube are established, streamers that broadcast personal internet over various contents are increasing day by day. In recent years, streamers have become more diverse, including advertising sponsors (such as banner ads from companies) and YouTube streaming revenues. As a result, not only personal hobby broadcasting but also streamers for personal internet broadcasting to be.
그러나, VR 콘텐츠가 전세계적으로 큰 화두임에도 불구하고, VR 콘텐츠의 현실감과 몰입감이 기 구축된 인터넷 방송 플랫폼을 통해 시청자에게 전달되기 어렵기 때문에, VR 콘텐츠를 대상으로 하는 개인 인터넷 방송은 거의 없는 실정이다.However, despite the fact that VR content is a big issue all over the world, it is difficult for VR contents to be transmitted to viewers through the pre-established Internet broadcasting platform. to be.
예컨대, HMD(head mounted device) 등의 VR 기기를 착용한 스트리머가 기 구축된 인터넷 방송 플랫폼을 통해 VR 게임 콘텐츠에 대한 인터넷 방송을 진행한다고 가정하면, 스트리머 단말에 설치된 방송 클라이언트는 스트리머 단말의 게임 화면을 캡처하여 그대로 시청자 단말로 스트리밍하게 된다. 또한, 시청자 단말에 설치된 시청 클라이언트는 캡처된 화면 영상을 시청자 단말에 그대로 디스플레이하기 때문에, HMD를 착용한 시청자라 하더라도, 본래 VR 게임 콘텐츠의 현실감과 몰입감을 체험할 수는 없다.For example, assuming that a streamer wearing a VR device such as an HMD (head mounted device) is going to broadcast Internet for a VR game content through an established Internet broadcasting platform, a broadcasting client installed in the streamer terminal The game screen is captured and streamed to the viewer terminal as it is. In addition, since the viewing client installed on the viewer terminal displays the captured screen image on the viewer terminal as it is, even the viewer wearing the HMD can not experience the sense of realism and immersion of the original VR game content.
아울러, VR 기기를 착용한 시청자가 고개를 좌우로 돌려 시점을 변경하더라도, 시청자 단말에 디스플레이되는 게임 영상의 시점이 변경되지 않기 때문에 이 또한 VR 콘텐츠의 현실감 및 몰입감을 떨어뜨리는 요인이 된다.In addition, even if the viewer wearing the VR device turns the viewpoint by turning his or her head to the left or right, the viewpoint of the game image displayed on the viewer terminal is not changed, which also deteriorates the sense of reality and immersion of the VR content.
따라서, 스트리머와 시청자가 VR 콘텐츠에 대한 체험을 공유할 수 있고, 시청자의 현실감 및 몰입감을 향상시킬 수 있는 라이브 스트리밍 방법 및 시스템이 요구된다.Therefore, there is a demand for a live streaming method and system that can share experiences with streamers and viewers with VR content, and improve the sense of reality and immersion of viewers.
본 발명이 해결하고자 하는 기술적 과제는, VR 콘텐츠에 대한 라이브 스트리밍 시스템을 제공하는 것이다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a live streaming system for VR content.
본 발명이 해결하고자 하는 다른 기술적 과제는, 시청자에게 끊김 없는 라이브 스트리밍 서비스를 제공하기 위해, 효율적으로 360도 파노라마 영상을 스트리밍하는 방법 및 그 방법을 수행하는 시스템을 제공하는 것이다.Another technical problem to be solved by the present invention is to provide a method for efficiently streaming a 360 degree panorama image and a system for performing the method in order to provide seamless live streaming service to viewers.
본 발명이 해결하고자 하는 기술적 과제는, 스트리머와 시청자가 VR 콘텐츠에 대한 체험을 공유할 수 있도록 고안된 라이브 스트리밍 시스템을 제공하는 것이다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a live streaming system designed to allow streamers and viewers to share experiences on VR content.
본 발명이 해결하고자 하는 다른 기술적 과제는, 방송용 VR 콘텐츠에 대한 스트리밍 방송을 시청하는 시청자의 몰입감을 향상시킬 수 있도록 고안된 라이브 스트리밍 방법 및 그 방법을 수행하는 시스템을 제공하는 것이다.It is another object of the present invention to provide a live streaming method designed to improve the immersion feeling of viewers watching streaming broadcasts for broadcast VR content and a system for performing the method.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명의 기술분야에서의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The technical objects of the present invention are not limited to the above-mentioned technical problems, and other technical subjects not mentioned can be clearly understood by those skilled in the art from the following description.
상기 기술적 과제를 해결하기 위한, 본 발명의 일 실시예에 따른 VR 콘텐츠에 대한 라이브 스트리밍 시스템은, 스트리머 단말에서 실행되는 제1 방송용 VR 게임 콘텐츠와 동일한 제2 방송용 VR 게임 콘텐츠를 실행하고, 상기 스트리머 단말로부터 상기 제1 방송용 VR 게임 콘텐츠에 대한 게임 진행 정보가 실시간으로 수신됨에 응답하여, 상기 제2 방송용 VR 게임 콘텐츠를 상기 제1 방송용 VR 게임 콘텐츠와 동기화하며, 상기 동기화된 제2 방송용 VR 게임 콘텐츠를 기초로 360도 파노라마 영상을 렌더링하는 렌더링 서버 및 상기 렌더링된 360도 파노라마 영상이 시청자 단말로 스트리밍되도록 하는 방송 관리 서버를 포함할 수 있다.According to an aspect of the present invention, there is provided a live streaming system for a VR content, the system comprising: a VR server for executing a VR game content for a second broadcast identical to a first broadcast VR game content executed in a streamer terminal, Synchronizes the second broadcast VR game content with the first broadcast VR game content in response to receipt of the game progress information for the first broadcast VR game content from the streamer terminal in real time, A rendering server for rendering a 360 degree panorama image based on the game content, and a broadcast management server for allowing the rendered 360 degree panorama image to be streamed to a viewer terminal.
일 실시예에서, 상기 렌더링 서버는, 상기 제2 방송용 VR 게임 콘텐츠 상에 구축된 가상 공간에서, 가상 객체에 인접하여 위치한 가상 카메라에 의해 촬영된 영상을 이용하여, 상기 360도 파노라마 영상을 렌더링하되, 상기 가상 객체는, 상기 스트리머의 입력에 따라 제어되는 가상 객체이고, 상기 가상 카메라는, 상기 가상 공간에서 상기 가상 객체와 함께 이동될 수 있다.In one embodiment, the rendering server renders the 360-degree panoramic image using an image photographed by a virtual camera positioned adjacent to a virtual object in a virtual space built on the second broadcast VR game content , The virtual object is a virtual object controlled according to input of the streamer, and the virtual camera can be moved together with the virtual object in the virtual space.
일 실시예에서, 상기 렌더링 서버는, 상기 시청자 단말로부터 시청자의 시점 정보 및 시야각 정보가 수신됨에 응답하여, 상기 렌더링된 360도 파노라마 영상 중에서 상기 시점 정보 및 상기 시야각 정보에 대응되는 제1 부분 파노라마 영상을 상기 방송 관리 서버로 전송할 수 있다.In one embodiment, in response to receipt of viewpoint information and viewing angle information of the viewer from the viewer terminal, the rendering server generates a first partial panorama image corresponding to the viewpoint information and the viewing angle information from the rendered 360 degree panorama image To the broadcast management server.
일 실시예에서, 상기 렌더링된 360도 파노라마 영상은 제1 360도 파노라마 영상이고, 상기 스트리머 단말은, 상기 제1 방송용 VR 게임 콘텐츠에 대한 캡처 화면을 기초로 렌더링된 제2 360도 파노라마 영상을 생성하되, 상기 제1 360도 파노라마 영상 및 상기 제2 360도 파노라마 영상 중 어느 하나의 파노라마 영상이 상기 시청자 단말로 스트리밍될 수 있다.In one embodiment, the rendered 360-degree panorama image is a first 360-degree panorama image, and the streamer terminal displays a second 360-degree panorama image rendered based on a capture screen for the first broadcast VR game content One of the first 360 degree panorama image and the second 360 degree panorama image may be streamed to the viewer terminal.
일 실시예에서, 상기 방송 웹 서버는, 스트리머 회원에 대한 정보를 관리하는 회원 정보 관리 모듈, 상기 스트리머 회원에 대한 정보를 이용하여, 상기 스트리머에 대한 인증을 수행하는 인증 모듈 및 상기 스트리머 단말의 방송권 구매 요청에 응답하여, 상기 방송권 구매 요청에 따른 과금 처리를 수행하는 과금 처리 모듈을 포함할 수 있다. 이때, 상기 방송권을 구매하지 않은 스트리머 단말의 스트리밍 요청은 차단될 수 있다.In one embodiment, the broadcast web server includes: a member information management module for managing information on a streamer member; an authentication module for performing authentication on the streamer using information about the streamer member; And a billing module for performing a billing process in response to the request for purchase of the broadcast right in response to a request for purchase of a license ticket of the trimmer terminal. At this time, the streaming request of the streamer terminal that has not purchased the broadcasting right can be blocked.
상기 기술적 과제를 해결하기 위한, 본 발명의 다른 실시예에 따른 VR 콘텐츠에 대한 라이브 스트리밍 시스템은 스트리머 단말에서 방송용 VR(virtual reality) 콘텐츠에 대한 스트리밍 방송을 진행하는 스트리머에게 웹 페이지 서비스를 제공하는 방송 웹 서버 및 상기 스트리머 단말의 스트리밍 요청에 응답하여, 기 구축된 인터넷 방송 플랫폼을 이용하여, 상기 방송용 VR 콘텐츠에 대한 360도 파노라마 영상이 시청자 단말로 스트리밍되도록 하는 방송 관리 서버를 포함할 수 있다.According to another aspect of the present invention, there is provided a live streaming system for a VR content, the system comprising: a streamer terminal for providing a web page service to a streamer for streaming broadcast virtual reality (VR) content; And a broadcasting management server for broadcasting a 360-degree panorama image of the VR content for broadcasting to a viewer terminal using a pre-built Internet broadcasting platform in response to a streaming request of the streaming terminal have.
상기 기술적 과제를 해결하기 위한, 본 발명의 또 다른 실시예에 따른 VR 콘텐츠에 대한 라이브 스트리밍 시스템은, 방송용 VR 콘텐츠 상에 구축된 가상 공간에 제1 가상 카메라를 배치하고, 상기 제1 가상 카메라로부터 기 설정된 간격만큼 이격된 위치에 제2 가상 카메라를 배치하며, 상기 제1 가상 카메라에 의해 촬영된 영상을 기초로 좌안 파노라마 영상을 렌더링하고, 상기 제2 가상 카메라에 의해 촬영된 영상을 기초로 우안 파노라마 영상에 렌더링하되, 상기 좌안 파노라마 영상 및 상기 우안 파노라마 영상은 360도 파노라마 영상인 것인, 렌더링 서버; 및 상기 좌안 파노라마 영상 및 상기 우안 파노라마 영상 각각이 시청자 단말로 스트리밍되도록 하는 방송 관리 서버를 포함할 수 있다.According to another aspect of the present invention, there is provided a live streaming system for VR content, comprising: a first virtual camera disposed in a virtual space constructed on broadcast VR content; A second virtual camera disposed at a position spaced apart by a predetermined interval, rendering a left eye panorama image based on the image photographed by the first virtual camera, and projecting, on the basis of the image photographed by the second virtual camera, Rendering a panoramic image, wherein the left panoramic image and the right panoramic image are 360-degree panoramic images; And a broadcast management server for allowing each of the left panoramic image and the right panoramic image to be streamed to a viewer terminal.
상기 기술적 과제를 해결하기 위한, 본 발명의 또 다른 실시예에 따른 VR 콘텐츠에 대한 라이브 스트리밍 방법은, 라이브 스트리밍 시스템에 의해서 수행되는 방송용 VR 콘텐츠에 대한 라이브 스트리밍 방법에 있어서, 방송용 VR 콘텐츠에 대한 스트리밍 방송을 진행하는 스트리머 단말로부터 상기 방송용 VR 콘텐츠에 대한 스트리밍 요청을 수신하는 단계; 및 상기 스트리밍 요청에 응답하여, 기 구축된 인터넷 방송 플랫폼을 이용하여, 상기 방송용 VR 콘텐츠에 대한 360도 파노라마 영상을 시청자 단말로 스트리밍하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a live streaming method for VR content for broadcasting, which is performed by a live streaming system, comprising the steps of: Receiving a streaming request for the broadcast VR content from a streamer terminal that is broadcasting; And a step of, in response to the streaming request, streaming the 360-degree panorama image for the broadcast VR content to the viewer terminal using the pre-built Internet broadcast platform.
상기 기술적 과제를 해결하기 위한, 본 발명의 또 다른 실시예에 따른 컴퓨터 프로그램은, 방송용 VR 콘텐츠에 대한 스트리밍 방송을 진행하는 스트리머 단말로부터 상기 방송용 VR 콘텐츠에 대한 스트리밍 요청을 수신하는 단계; 및 상기 스트리밍 요청에 응답하여, 기 구축된 인터넷 방송 플랫폼을 이용하여, 상기 방송용 VR 콘텐츠에 대한 360도 파노라마 영상을 시청자 단말로 스트리밍하는 단계를 실행시키기 위하여 컴퓨터로 판독가능한 기록매체에 기록될 수 있다.According to another aspect of the present invention, there is provided a computer program for causing a computer to execute the steps of: receiving a streaming request for a broadcast VR content from a streamer terminal for streaming broadcast VR content; And in response to the streaming request, streaming the 360 degree panorama image for the broadcast VR content to the viewer terminal using the pre-built Internet broadcast platform, the stream may be recorded on a computer readable recording medium .
상기 기술적 과제를 해결하기 위한, 본 발명의 또 다른 실시예에 따른 VR 콘텐츠에 대한 라이브 스트리밍 방법은, 라이브 스트리밍 시스템에 의해 수행되는 방송용 VR 게임 콘텐츠에 대한 라이브 스트리밍 방법에 있어서, 스트리머 단말에서 실행되는 제1 방송용 VR 게임 콘텐츠에 대한 게임 진행 정보를 실시간으로 수신하는 단계, 상기 게임 진행 정보가 실시간으로 수신됨에 응답하여, 상기 게임 진행 정보를 이용하여 제2 방송용 VR 게임 콘텐츠를 상기 제1 방송용 VR 게임 콘텐츠와 동기화하는 단계, 상기 동기화된 제2 방송용 VR 게임 콘텐츠를 기초로 360도 파노라마 영상을 렌더링하는 단계 및 상기 렌더링된 360도 파노라마 영상을 시청자 단말로 스트리밍하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a live streaming method for VR content for broadcasting performed by a live streaming system, comprising the steps of: Receiving, in real time, game progress information on a first broadcast VR game content, in response to receipt of the game progress information in real time, using the game progress information to transmit the second broadcast VR game content to the first broadcast VR Synchronizing with the game content, rendering a 360 degree panorama image based on the synchronized second broadcast VR game content, and streaming the rendered 360 degree panorama image to a viewer terminal.
상기 기술적 과제를 해결하기 위한, 본 발명의 또 다른 실시예에 따른 컴퓨터 프로그램은, 컴퓨팅 장치와 결합되어, 스트리머 단말에서 실행되는 제1 방송용 VR 게임 콘텐츠에 대한 게임 진행 정보를 실시간으로 수신하는 단계, 상기 게임 진행 정보가 실시간으로 수신됨에 응답하여, 상기 게임 진행 정보를 이용하여 제2 방송용 VR 게임 콘텐츠를 상기 제1 방송용 VR 게임 콘텐츠와 동기화하는 단계, 상기 동기화된 제2 방송용 VR 게임 콘텐츠를 기초로 360도 파노라마 영상을 렌더링하는 단계 및 상기 렌더링된 360도 파노라마 영상을 시청자 단말로 스트리밍하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a computer program product for causing a computer to execute the steps of: receiving game progress information for a first broadcast VR game content executed in a streamer terminal in real time, Synchronizing the second broadcast VR game content with the first broadcast VR game content using the game progress information in response to the game progress information being received in real time, And a step of streaming the rendered 360 degree panorama image to a viewer terminal.
상기 기술적 과제를 해결하기 위한, 본 발명의 또 다른 실시예에 따른 VR 콘텐츠에 대한 라이브 스트리밍 방법은, 상기 방송용 VR 콘텐츠 상에 구축된 가상 공간에 제1 가상 카메라를 배치하는 단계, 상기 가상 공간에서 상기 제1 가상 카메라로부터 기 설정된 간격만큼 이격된 위치에 제2 가상 카메라를 배치하는 단계, 상기 제1 가상 카메라에 의해 촬영된 영상을 기초로 좌안 파노라마 영상을 렌더링하는 단계, 상기 제2 가상 카메라에 의해 촬영된 영상을 기초로 우안 파노라마 영상에 렌더링하는 단계 및 상기 좌안 파노라마 영상 및 상기 우안 파노라마 영상 각각을 시청자 단말로 스트리밍하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a method for live streaming VR content, the method comprising: placing a first virtual camera in a virtual space established on the VR content for broadcasting; The method comprising the steps of: arranging a second virtual camera at a position spaced apart from the first virtual camera by a predetermined interval; rendering a left panoramic image based on the image photographed by the first virtual camera; Rendering the left eye panorama image and the right eye panorama image to a viewer terminal, and rendering the left eye panorama image and the right eye panorama image to a viewer terminal.
상기 기술적 과제를 해결하기 위한, 본 발명의 또 다른 실시예에 따른 컴퓨터 프로그램은, 컴퓨팅 장치와 결합되어, 상기 방송용 VR 콘텐츠 상에 구축된 가상 공간에 제1 가상 카메라를 배치하는 단계, 상기 가상 공간에서 상기 제1 가상 카메라로부터 기 설정된 간격만큼 이격된 위치에 제2 가상 카메라를 배치하는 단계, 상기 제1 가상 카메라에 의해 촬영된 영상을 기초로 좌안 파노라마 영상을 렌더링하는 단계, 상기 제2 가상 카메라에 의해 촬영된 영상을 기초로 우안 파노라마 영상에 렌더링하는 단계 및 상기 좌안 파노라마 영상 및 상기 우안 파노라마 영상 각각을 시청자 단말로 스트리밍하는 단계를 실행시키기 위하여 컴퓨터로 판독가능한 기록매체에 기록될 수 있다.According to another aspect of the present invention, there is provided a computer program product including a computer-readable recording medium having a computer-readable recording medium storing a program for causing a computer to execute the steps of: arranging a first virtual camera in a virtual space built on a broadcast- The method comprising the steps of: arranging a second virtual camera at a position spaced apart from the first virtual camera by a predetermined interval; rendering a left panoramic image based on the image photographed by the first virtual camera; Rendering the left eye panorama image and the right eye panorama image to a viewer terminal, and reproducing the left eye panorama image and the right eye panorama image, respectively, on a computer readable recording medium.
상술한 본 발명의 실시예들에 따르면, 스트리머 단말에서 실행 중인 제1 방송용 VR 콘텐츠와 렌더링 서버에서 실행 중인 제2 방송용 VR 콘텐츠 사이에 동기화가 수행되고, 렌더링 서버에서 상기 제2 방송용 VR 콘텐츠를 기초로 360도 파노라마 영상이 렌더링되며, 상기 렌더링된 360도 파노라마 영상이 시청자 단말로 스트리밍될 수 있다. 이에 따라, 스트리밍 방송을 시청하는 시청자와 스트리머 사이에 방송용 VR 콘텐츠의 체험이 공유될 수 있다. 또한, 스트리머 단말에서는 360도 파노라마 영상에 대한 렌더링이 수행되지 않으므로, 라이브 스트리밍에 대한 성능 요구사항이 완화되며, 이에 따라 스트리머의 방송 참여를 유도하는 효과가 있을 수 있다.According to the above-described embodiments of the present invention, synchronization is performed between the first broadcast VR content running in the streamer terminal and the second broadcast VR content running in the rendering server, and the rendering server transmits the second broadcast VR content The 360 degree panorama image is rendered based on the rendered 360 degree panorama image, and the rendered 360 degree panorama image can be streamed to the viewer terminal. Accordingly, the experience of the broadcast VR content can be shared between the viewer and the streamer watching the streaming broadcast. In addition, the streamer terminal does not perform the rendering of the 360-degree panorama image, so that the performance requirements for live streaming are alleviated, which may have the effect of inducing streamer participation.
또한, VR 게임 콘텐츠에 대한 스트리밍 방송을 진행하는 경우, 스트리머에 의해 제어되는 가상 객체 인근에 배치된 가상 카메라를 이용하여 360도 파노라마 영상이 렌더링된다. 이에 따라, 스트리밍 방송에 대한 시청자의 몰입감이 극대화될 수 있다.In addition, when the streaming broadcast is performed for the VR game contents, the 360 degree panorama image is rendered using the virtual camera disposed near the virtual object controlled by the streamer. Thus, the sense of immersion of the viewer in the streaming broadcast can be maximized.
또한, 360도 파노라마 영상이 제공됨에 따라, 시청자의 시점이 스트리머의 시점에 완전히 종속되지도 않으므로, VR 콘텐츠에 대한 시청자의 현실감 및 몰입감이 극대화될 수 있다.Also, since the 360-degree panoramic image is provided, the viewpoint of the viewer is not completely dependent on the viewpoint of the streamer, so that the viewer's sense of reality and immersion of the VR content can be maximized.
또한, 기 구축된 인터넷 방송 플랫폼을 이용하여 VR 콘텐츠에 대한 스트리밍 방송 서비스가 제공될 수 있는 바, 시스템 구축 비용이 크게 절감될 수 있다.In addition, a streaming broadcasting service for VR contents can be provided using a pre-established Internet broadcasting platform, and the system construction cost can be greatly reduced.
또한, VR 콘텐츠라는 새로운 주제로 스트리밍 방송이 진행될 수 있는 바, 개인 인터넷 방송이 보다 활성화되는 효과가 있다.In addition, since streaming broadcasting can be performed on a new topic called VR content, personal internet broadcasting is more active.
또한, 360도 파노라마 영상 전체가 스트리밍되는 것이 아니라 시청자의 시야 영역에 대응되는 부분 파노라마 영상이 스트리밍될 수 있다. 이에 따라, 네트워크의 대역폭이 절약되고, 끊김 없는 라이브 스트리밍 서비스가 제공될 수 있다.In addition, the entire 360-degree panorama image may not be streamed but the partial panorama image corresponding to the view field of the viewer may be streamed. Thus, the bandwidth of the network is saved, and a seamless live streaming service can be provided.
또한, 부분 파노라마 영상 중 시청자의 가시영역 외부의 영상은 저화질로 인코딩되어 스트리밍될 수 있다. 이에 따라, 네트워크의 대역폭이 더욱 절약되고, 끊김 없는 라이브 스트리밍 서비스가 제공될 수 있다.Also, among the partial panorama images, an image outside the visible region of the viewer can be encoded and streamed in a low quality. Thus, the bandwidth of the network is further saved, and a seamless live streaming service can be provided.
또한, 스트리머에 의해 게임이 진행 중이지 않은 경우에는 스트리머 단말에서 렌더링된 별도의 360도 파노라마 영상이 스트리밍될 수 있다. 이에 따라, 시청자의 몰입감이 계속 유지될 수 있고, 끊김 없는 라이브 스트리밍 서비스가 제공될 수 있다.In addition, if the game is not in progress by the streamer, a separate 360 degree panorama image rendered at the streamer terminal can be streamed. Accordingly, the feeling of immersion of the viewer can be maintained, and a seamless live streaming service can be provided.
또한, 과금 처리를 통해 방송권을 구매한 스트리머에 한하여 스트리밍 방송을 허가함으로써, 라이브 스트리밍 시스템 및/또는 인터넷 방송 플랫폼의 사업자에게 새로운 수익 구조가 형성될 수 있고, 양질의 인터넷 방송이 양산되는 효과가 있다.In addition, streaming broadcasting is permitted only for streamers purchased through a billing process, whereby a new profit structure can be formed for a provider of a live streaming system and / or an Internet broadcasting platform, and the effect of mass- have.
또한, 이격된 거리에 배치된 복수의 가상 카메라를 이용하여, 좌안 파노라마 영상과 우안 파노라마 영상이 각각 제공될 수 있다. 이에 따라, 시청자는 양안 시차에 따라 입체감 있는 파노라마 영상을 감상할 수 있는 바, 방송용 VR 콘텐츠에 대한 시청자의 몰입감이 더욱 향상될 수 있다.Further, the left eye panorama image and the right eye panorama image can be provided by using a plurality of virtual cameras arranged at a distance apart from each other. Accordingly, the viewer can appreciate the stereoscopic panoramic image according to the binocular parallax, and the immersion feeling of the viewer for the broadcast VR content can be further improved.
또한, 가상 카메라의 시점은 방송용 VR 콘텐츠 상에서 스트리머에 의해 제어되는 제1 가상 객체와 제어되지 않는 제2 가상 객체와의 거리에 따라 자동으로 조정될 수 있다. 예를 들어, 상기 제2 가상 객체가 상기 제1 가상 객체에 접근할수록, 상기 가상 카메라의 시점이 이루는 수렴각이 커지도록 상기 가상 카메라의 시점이 조정될 수 있다. 이에 따라, 상기 제1 가상 객체에 접근하는 제2 가상 객체를 중심으로 렌더링된 파노라마 영상이 시청자에게 제공될 수 있는 바, 방송용 VR 콘텐츠에 대한 시청자의 몰입감이 더욱 향상될 수 있다.Further, the viewpoint of the virtual camera can be automatically adjusted according to the distance between the first virtual object controlled by the streamer and the second virtual object not controlled on the broadcast VR content. For example, as the second virtual object approaches the first virtual object, the viewpoint of the virtual camera may be adjusted so that a convergence angle formed by the viewpoint of the virtual camera becomes larger. Accordingly, since the panorama image rendered based on the second virtual object approaching the first virtual object can be provided to the viewer, the immersion feeling of the viewer for the broadcast VR content can be further improved.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood to those of ordinary skill in the art from the following description.
도 1은 본 발명의 제1 실시예에 따른 VR 콘텐츠에 대한 라이브 스트리밍 시스템의 구성도이다.1 is a configuration diagram of a live streaming system for VR contents according to a first embodiment of the present invention.
도 2 내지 도 5는 스트리머 단말에서 게임 클라이언트 모듈을 실행함에 따라 디스플레이될 수 있는 화면의 예시도이다.FIGS. 2 to 5 are exemplary views of a screen that can be displayed as the game client module is executed in the streamer terminal.
도 6은 본 발명의 실시예에 따른 라이브 스트리밍 시스템을 구성하는 일 구성 요소인 렌더링 서버를 나타내는 블록도이다.6 is a block diagram illustrating a rendering server that is a component of a live streaming system according to an embodiment of the present invention.
도 7 및 도 8은 본 발명의 몇몇 실시예에서 참조될 수 있는 360도 파노라마 영상 렌더링 방법을 설명하기 위한 도면이다.FIGS. 7 and 8 are views for explaining a 360-degree panoramic image rendering method that may be referred to in some embodiments of the present invention.
도 9는 본 발명의 실시예에 따른 라이브 스트리밍 시스템의 일 구성 요소인 방송 관리 서버를 나타내는 블록도이다.9 is a block diagram illustrating a broadcast management server, which is a component of a live streaming system according to an embodiment of the present invention.
도 10은 본 발명의 제2 실시예에 따른 VR 콘텐츠에 대한 라이브 스트리밍 시스템의 구성도이다.10 is a configuration diagram of a live streaming system for VR contents according to the second embodiment of the present invention.
도 11 내지 도 13는 본 발명의 몇몇 실시예에서 참조될 수 있는 제2 360도 파노라마 영상 렌더링 방법을 설명하기 위한 도면이다.11-13 illustrate a second 360 degree panoramic image rendering method that may be referenced in some embodiments of the present invention.
도 14는 본 발명의 제3 실시예에 따른 라이브 스트리밍 시스템의 구성도이다.14 is a configuration diagram of a live streaming system according to the third embodiment of the present invention.
도 15는 본 발명의 실시예에 따른 라이브 스트리밍 시스템의 일 구성 요소인 중계 서버를 나타내는 블록도이다.15 is a block diagram illustrating a relay server that is a component of a live streaming system according to an embodiment of the present invention.
도 16은 본 발명의 실시예에 따른 라이브 스트리밍 시스템의 일 구성 요소인 방송 웹 서버를 나타내는 블록도이다.16 is a block diagram illustrating a broadcast web server that is a component of a live streaming system according to an embodiment of the present invention.
도 17은 상기 제3 실시예에 따른 라이브 스트리밍 시스템의 동작을 나타내는 흐름도이다.17 is a flowchart showing the operation of the live streaming system according to the third embodiment.
도 18은 본 발명의 일 실시예에 따른 VR 콘텐츠에 대한 라이브 스트리밍 방법을 나타내는 흐름도이다.18 is a flowchart illustrating a live streaming method for VR content according to an embodiment of the present invention.
도 19 내지 도 23은 본 발명의 제1 내지 제3 실시예에 따라 네트워크 상태를 고려한 라이브 스트리밍 방법을 설명하기 위한 도면이다.19 to 23 are diagrams for explaining a live streaming method considering network conditions according to the first to third embodiments of the present invention.
도 24 및 도 25는 본 발명의 제4 실시예에 따른 라이브 스트리밍 방법에서 좌안 및 우안 파노라마 영상을 렌더링하는 과정을 설명하기 위한 도면이다.24 and 25 are views for explaining a process of rendering left and right panoramic images in the live streaming method according to the fourth embodiment of the present invention.
도 26 내지 도 30은 본 발명의 제4 실시예에 따른 라이브 스트리밍 방법에서 가상 객체를 기준으로 가상 카메라의 시점을 자동 조정하는 과정을 설명하기 위한 도면이다.26 to 30 are views for explaining a process of automatically adjusting a viewpoint of a virtual camera based on a virtual object in the live streaming method according to the fourth embodiment of the present invention.
도 31은 본 발명의 제4 실시예에 따른 라이브 스트리밍 방법에서 좌안 및 우안 파노라마 영상을 스트리밍하는 과정을 설명하기 위한 흐름도이다.31 is a flowchart illustrating a process of streaming left and right panoramic images in a live streaming method according to a fourth embodiment of the present invention.
도 32는 본 발명의 몇몇 실시예들에 따른 VR 콘텐츠에 대한 라이브 스트리밍 시스템을 구성하는 각종 장치들을 구현할 수 있는 예시적인 컴퓨팅 장치의 하드웨어 구성도이다.32 is a hardware block diagram of an exemplary computing device capable of implementing various devices that constitute a live streaming system for VR content in accordance with some embodiments of the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense commonly understood by one of ordinary skill in the art to which this invention belongs. Also, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise. The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification.
명세서에서 사용되는 "포함한다 (comprises)" 및/또는 "포함하는 (comprising)"은 언급된 구성 요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성 요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.It is noted that the terms "comprises" and / or "comprising" used in the specification are intended to be inclusive in a manner similar to the components, steps, operations, and / Or additions.
본 명세서에 대한 설명에 앞서, 본 명세서에서 사용되는 몇몇 용어들에 대하여 명확하게 하기로 한다.Prior to the description of the present specification, some terms used in this specification will be clarified.
본 명세서에서, 인터넷 방송 플랫폼이란, 인터넷을 이용한 스트리밍 방송 서비스를 제공하는 플랫폼을 의미한다. 예를 들어, 상기 인터넷 방송 플랫폼은 아프리카 TV, 유튜브, 트위치, 카카오 TV 등이 될 수 있으나, 이에 국한 되는 것은 아니다.In this specification, an Internet broadcasting platform means a platform for providing a streaming broadcasting service using the Internet. For example, the Internet broadcasting platform may be, but is not limited to, an African TV, a YouTube, a Twot, and a Cacao TV.
본 명세서에서, 스트리머(streamer)란, 인터넷 방송 플랫폼을 통해 인터넷 방송을 진행하는 사람을 의미한다. 상기 스트리머는 아프리카 TV에서는 BJ(broadcasting jockey), 카카오 TV에서는 PD(play director), 트위치 TV에서는 스트리머, 유튜브에서는 크리에이터(creator)로 명명되고, 이외에도 브로드캐스터(broadcaster) 등 다양한 용어로 명명될 수 있으나, 본 명세서에서는 편의상 스트리머로 통칭하기로 한다.In this specification, a streamer means a person who performs Internet broadcasting through an Internet broadcasting platform. The streamer is named as BJ (broadcasting jockey) in African TV, PD (play director) in Cacao TV, streamer in twin TV and creator in YouTube, and various other terms such as broadcaster However, in the present specification, it is referred to as a streamer for convenience.
본 명세서에서, VR(virtual reality)이란, 컴퓨터 등을 사용한 인공적인 기술로 만들어낸 실제와 유사하지만 실제가 아닌 어떤 특정한 환경이나 상황 혹은 그 기술 자체를 의미한다. VR은 인공현실(artificial reality), 사이버 공간(cyberspace), 가상 세계(virtual worlds), 가상 환경(virtual environment), 합성 환경(synthetic environment), 인공 환경(artificial environment) 등 당해 기술 분야에서 다양한 용어와 혼용되어 사용될 수 있으나 동일한 대상을 지칭할 수 있음에 유의한다.In this specification, virtual reality (VR) refers to a specific environment or situation, or technology itself, that is similar to the reality produced by an artificial technique using a computer or the like, but is not actual. VR can be used in various technical terms such as artificial reality, cyberspace, virtual worlds, virtual environment, synthetic environment, artificial environment, It should be noted that they may be used interchangeably but may refer to the same object.
본 명세서에서, 인스트럭션(instruction)은 기능을 기준으로 묶인 일련의 명령어들로서 컴퓨터 프로그램의 구성 요소이자 프로세서에 의해 실행되는 것을 가리킨다.In this specification, an instruction is a set of instructions, which are grouped by function, indicating that they are executed by a processor and a component of a computer program.
이하, 본 발명의 몇몇 실시예들에 대하여 첨부된 도면에 따라 상세하게 설명한다.Hereinafter, some embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 제1 실시예에 따른 VR 콘텐츠에 대한 라이브 스트리밍 시스템의 구성도이다.1 is a configuration diagram of a live streaming system for VR contents according to a first embodiment of the present invention.
도 1을 참조하면, 본 발명의 제1 실시예에 따른 라이브 스트리밍 시스템은 스트리머 단말(100), 렌더링 서버(300), 방송 관리 서버(500), 적어도 하나의 인터넷 방송 플랫폼(700) 및 적어도 하나의 시청자 단말(900)을 포함하도록 구성될 수 있다. 단, 이는 본 발명의 목적을 달성하기 위한 바람직한 실시예일뿐이며, 필요에 따라 일부 구성 요소가 추가되거나 삭제될 수 있음은 물론이다. 또한, 도 1에 도시된 라이브 스트리밍 시스템의 각각의 구성 요소들은 기능적으로 구분되는 기능 요소들을 나타낸 것으로서, 적어도 하나의 구성 요소가 실제 물리적 환경에서는 서로 통합되는 형태로 구현될 수도 있음에 유의한다. 예를 들어, 렌더링 서버(300)와 방송 관리 서버(500)는 통합된 하나의 서버 장치로 구현될 수도 있다. 이하, 상기 제1 실시예에 따른 라이브 스트리밍 시스템의 구성 요소에 대하여 설명하도록 한다.1, a live streaming system according to a first embodiment of the present invention includes a streamer terminal 100, a rendering server 300, a broadcasting management server 500, at least one Internet broadcasting platform 700, And may include one viewer terminal 900. However, it should be understood that the present invention is not limited to the above-described embodiments, and that various changes and modifications may be made without departing from the scope of the present invention. It should be noted that each component of the live streaming system shown in FIG. 1 shows functional elements that are functionally distinct, and that at least one component may be implemented in a form that is integrated with one another in an actual physical environment. For example, the rendering server 300 and the broadcast management server 500 may be implemented as a single integrated server device. Hereinafter, the components of the live streaming system according to the first embodiment will be described.
상기 제1 실시예에 따른 라이브 스트리밍 시스템에서, 스트리머 단말(100)은 라이브 스트리밍 방송을 진행하기 위해 스트리머(1)가 이용하는 컴퓨팅 장치이다. 여기서, 상기 컴퓨팅 장치는, 노트북, 데스크톱(desktop), 랩탑(laptop), 스마트폰(Smart Phone) 등이 될 수 있으나, 이에 국한되는 것은 아니며 컴퓨팅 기능 및 통신 기능이 구비된 모든 종류의 장치를 포함할 수 있다.In the live streaming system according to the first embodiment, the streamer terminal 100 is a computing device used by the streamer 1 to proceed with live streaming broadcasting. Here, the computing device may be a notebook, a desktop, a laptop, a smart phone, and the like, but it is not limited thereto and may include any type of device having a computing function and a communication function can do.
스트리머 단말(100)은 방송용 VR 콘텐츠를 실행하고, 스트리밍 플랫폼(e.g. 렌더링 서버 300, 방송 관리 서버 500, 인터넷 방송 플랫폼 700 등)을 통해 방송용 VR 콘텐츠에 대한 라이브 방송을 진행할 수 있다. 이하에서는, 상기 방송용 VR 콘텐츠의 종류가 VR 게임 콘텐츠인 것을 예로 들어서 설명하도록 한다. 단, 이는 본 발명의 일부 실시예를 설명하기 위한 것으로, 본 발명의 범위가 상기 예시에 한정되는 것은 아니다.The streamer terminal 100 can execute live broadcast for VR content for broadcasting through the streaming platform (e.g., the rendering server 300, the broadcast management server 500, the Internet broadcast platform 700, etc.). In the following description, it is assumed that the type of the VR content for broadcasting is the VR game content. However, this is for the purpose of illustrating some embodiments of the present invention, and the scope of the present invention is not limited to the above examples.
스트리머 단말(100)은 기 설치된 게임 클라이언트 모듈을 통해 방송용 VR 게임 콘텐츠를 실행하고, 라이브 스트리밍 방송을 진행할 수 있다. 여기서, 상기 게임 클라이언트 모듈은 VR 게임 콘텐츠에 방송 기능이 추가적으로 구현된 소프트웨어 모듈로 이해될 수 있다. 보다 이해의 편의를 제공하기 위해, 방송용 VR 게임 콘텐츠가 FPS(first-person shooter) 게임인 경우, 게임 클라이언트 모듈이 실행된 예에 대하여 간략하게 살펴보도록 한다.The streamer terminal 100 can execute the broadcast VR game contents through the pre-installed game client module and proceed with live streaming broadcasting. Here, the game client module may be understood as a software module in which a broadcasting function is additionally implemented in the VR game contents. In order to provide more convenience of understanding, an example in which the game client module is executed when the VR game content for broadcasting is an FPS (first-person shooter) game will be briefly described.
도 2에 도시된 바와 같이, 게임 클라이언트 모듈에 의해 방송용 VR 게임 콘텐츠가 실행되면, 방송용 VR 게임 콘텐츠에 대한 메인 인터페이스(5)가 표시될 수 있다. 또한, 방송 스트리머(1)의 입력에 따라 특정 방향(e.g. 우측)으로 시야가 변경되면, 도 3에 도시된 바와 같이 라이브 스트리밍 방송에 관한 방송 인터페이스(7)가 표시될 수 있다. 또는, 도 4에 도시된 바와 같이 스트리머(1)의 입력에 따라 현재 시점이 3인칭 시점으로 변경되면, 방송 인터페이스(7)가 표시되도록 구현될 수도 있다. 참고로, 도 3에서 비활성화 된 버튼(e.g. 유튜브)은 모종의 이유로 현재 이용이 불가능한 인터넷 방송 플랫폼을 가리킨다.As shown in FIG. 2, when the broadcast VR game content is executed by the game client module, the main interface 5 for the broadcast VR game content can be displayed. Also, if the field of view is changed to a specific direction (e.g., right side) according to the input of the broadcast streamer 1, the broadcast interface 7 related to live streaming broadcast can be displayed as shown in FIG. Alternatively, if the current time is changed to the third person view according to the input of the streamer 1 as shown in FIG. 4, the broadcast interface 7 may be displayed. For reference, a button disabled (e.g., YouTube) in FIG. 3 indicates an Internet broadcasting platform that is currently unavailable for some reason.
방송 인터페이스(7)는 예를 들어 라이브 방송이 진행될 인터넷 방송 플랫폼에 대한 선택 인터페이스, 방송 시작/종료 인터페이스 등을 포함할 수 있다. 따라서, 스트리머(1)는 방송용 VR 게임 콘텐츠를 플레이하다가 원하는 시점에 라이브 스트리밍 방송을 시작할 수 있다.The broadcast interface 7 may include, for example, a selection interface for an Internet broadcast platform on which live broadcasting is to be performed, a broadcast start / end interface, and the like. Therefore, the streamer 1 can start live streaming broadcasting at a desired time while playing the VR game contents for broadcasting.
라이브 방송이 시작되면, 도 5에 도시된 바와 같이 스트리머 단말(1)의 화면에 "방송 중"을 가리키는 인디케이터(indicator, 9a)가 표시될 수 있다. 네트워크 문제 등의 이유로 방송이 불가한 경우에는 "방송 불가"를 가리키는 인디케이터(9b)가 표시될 수도 있다.When the live broadcast starts, an indicator 9a indicating " broadcasting " can be displayed on the screen of the streamer terminal 1 as shown in Fig. If the broadcast is impossible due to a network problem or the like, an indicator 9b indicating " no broadcast " may be displayed.
다시 도 1을 참조하면, 스트리머(1)는 예를 들어 HMD(head mounted device) 등의 VR 기기를 착용하고 방송용 VR 게임 콘텐츠를 플레이하는 방송 진행자일 수 있다. 라이브 스트리밍 방송이 시작되면, 스트리머(1)가 플레이하는 방송용 VR 게임 콘텐츠의 게임 영상이 시청자 단말(900)로 스트리밍될 수 있다. 보다 자세하게는, 상기 방송용 VR 게임 콘텐츠에 대한 360도 파노라마 영상이 스트리머(1)에 의해 선택된 적어도 하나의 인터넷 방송 플랫폼(700)을 통해 시청자 단말(900)로 스트리밍될 수 있다.Referring again to FIG. 1, the streamer 1 may be a broadcast host who wears a VR device such as an HMD (head mounted device) and plays VR game contents for broadcasting. When the live streaming broadcast starts, the game image of the broadcast VR game content played by the streamer 1 can be streamed to the viewer terminal 900. [ More specifically, a 360 degree panorama image for the broadcast VR game content may be streamed to the viewer terminal 900 through at least one Internet broadcast platform 700 selected by the streamer 1. [
일 실시예에서, 상기 360도 파노라마 영상은 스트리머 단말(100)에서 실행 중인 방송용 VR 게임 콘텐츠를 기초로 렌더링될 수 있다. 본 실시예에 따르면, 별도의 렌더링 서버(300)가 제공될 필요가 없기 때문에, 저렴한 비용으로 라이브 스트리밍 시스템이 구축될 수 있다. 다만, VR 게임 콘텐츠를 실행하기 위해서는 일반적으로 고성능의 컴퓨팅 파워가 요구되기 때문에, 끊김 없는 라이브 스트리밍 서비스를 제공하기 위해서는 별도의 렌더링 서버(300)가 구축되는 것이 바람직할 수 있다.In one embodiment, the 360 degree panorama image may be rendered based on the broadcast VR game content running on the streamer terminal 100. According to the present embodiment, since a separate rendering server 300 need not be provided, a live streaming system can be constructed at a low cost. However, since high-performance computing power is generally required to execute VR game contents, it is preferable that a separate rendering server 300 is installed to provide seamless live streaming service.
다른 일 실시예에서, 스트리머 단말(100)의 성능을 기초로 360도 파노라마 영상이 스트리머 단말(100)에서 렌더링 될지 여부가 결정될 수 있다. 예를 들어, 스트리머 단말(100)이 기 설정된 성능 조건을 만족하는 고성능의 컴퓨팅 장치인 경우, 상기 360도 파노라마 영상은 스트리머 단말(100)에서 수행될 수 있다. 이와 반대의 경우라면, 렌더링 서버(300)에서 상기 360도 파노라마 영상이 렌더링 될 수 있다. 이와 같은 실시예에 따르면, 컴퓨팅 능력이 부족한 일부 스트리머 단말에 한하여 렌더링 서버(300)의 컴퓨팅 능력이 제공된다. 따라서, 렌더링 서버(300)의 부담이 경감될 수 있다.In another embodiment, it may be determined based on the performance of the streamer terminal 100 whether a 360 degree panorama image is to be rendered in the streamer terminal 100. For example, if the streamer terminal 100 is a high-performance computing device satisfying predetermined performance conditions, the 360-degree panoramic image can be performed in the streamer terminal 100. In the opposite case, the 360-degree panorama image may be rendered in the rendering server 300. According to this embodiment, the computing capability of the rendering server 300 is provided to only some streamer terminals that lack computing capability. Therefore, the burden on the rendering server 300 can be reduced.
또 다른 일 실시예에서, 스트리밍되는 360도 파노라마 영상은 모두 렌더링 서버(300)에 의해 렌더링될 수 있다. 본 실시예에 따르면, 스트리머 단말(100)의 부담이 경감될 수 있다. 이하에서는, 보다 이해의 편의를 제공하기 위해, 360도 파노라마 영상은 렌더링 서버(300)에서 렌더링 되는 것을 가정하여 설명을 이어가도록 한다. 다만, 본 발명의 범위가 이에 한정되는 것은 아니다.In yet another embodiment, the streamed 360 degree panorama images may all be rendered by the rendering server 300. According to the present embodiment, the burden on the streamer terminal 100 can be alleviated. Hereinafter, in order to facilitate understanding, it is assumed that the 360 degree panorama image is rendered in the rendering server 300, and the description will be continued. However, the scope of the present invention is not limited thereto.
상기 제1 실시예에 따른 라이브 스트리밍 시스템에서, 렌더링 서버(300)는 방송용 VR 게임 콘텐츠를 기초로 360도 파노라마 영상(3)을 렌더링한다.In the live streaming system according to the first embodiment, the rendering server 300 renders the 360-degree panorama image 3 based on the VR game content for broadcasting.
본 발명의 실시예에 따르면, 렌더링 서버(300)는 360도 파노라마 영상(3)을 렌더링 하기 위해 스트리머 단말(100)에서 실행되는 방송용 VR 게임 콘텐츠(이하, "제1 방송용 VR 게임 콘텐츠"로 칭하기로 함)와 동일한 방송용 VR 게임 콘텐츠(이하, "제2 방송용 VR 게임 콘텐츠"로 칭하기로 함)를 실행시킨다. 또한, 렌더링 서버(300)는 스트리밍 방송 도중에 스트리머 단말(100)로부터 실시간으로 수신되는 게임 진행 정보를 이용하여 상기 제2 방송용 VR 게임 콘텐츠를 상기 제1 방송용 VR 게임 콘텐츠와 동기화시키고, 동기화된 제2 방송용 VR 게임 콘텐츠를 기초로 360도 파노라마 영상(3)을 렌더링한다. 본 실시예에서, 상기 게임 진행 정보는 두 VR 게임 콘텐츠의 동기화에 요구되는 모든 정보를 포괄하는 것으로, 예를 들어, 스트리머(1)에 의해 제어되는 가상 객체, 상기 가상 객체의 상태, 위치 등의 정보를 포함할 수 있으나, 상기 열거된 예시에 한정되는 것은 아니다. 본 실시예에 대한 보다 자세한 설명은 도 6 및 도 11을 참조하여 후술하도록 한다.According to the embodiment of the present invention, the rendering server 300 generates the VR game content for broadcasting (hereinafter referred to as " first broadcast VR game content ") executed by the streamer terminal 100 in order to render the 360- (Hereinafter, referred to as " second broadcast VR game content ") that is the same as the broadcast VR game content. The rendering server 300 synchronizes the second broadcast VR game content with the first broadcast VR game content using the game progress information received in real time from the streamer terminal 100 during the streaming broadcast, 2 < / RTI > VR game content. In the present embodiment, the game progress information includes all information required for synchronization of two VR game contents. For example, the game progress information includes a virtual object controlled by the streamer 1, a state of the virtual object, But it is not limited to the above-listed examples. A more detailed description of this embodiment will be given later with reference to Figs. 6 and 11. Fig.
상기 제1 실시예에 따른 라이브 스트리밍 시스템에서, 방송 관리 서버(500)는 렌더링 서버(300)에 의해 렌더링 된 360도 파노라마 영상(3)이 인터넷 방송 플랫폼(700)을 통해 스트리밍 되도록 하는 모듈(or 장치)이다.In the live streaming system according to the first embodiment, the broadcast management server 500 includes a module (or or) 602 for allowing the 360-degree panorama image 3 rendered by the rendering server 300 to be streamed through the Internet broadcast platform 700 Device).
본 발명의 실시예에 따르면, 방송 관리 서버(500)는 기 구축된 인터넷 방송 플랫폼(700)과 연동되는 적어도 하나의 방송 클라이언트 모듈을 포함할 수 있다. 여기서, 상기 방송 클라이언트 모듈은 인터넷 방송 플랫폼의 스트리밍 서버로 스트리밍 대상 영상을 송출하는 모듈로, 예를 들어 상기 인터넷 방송 플랫폼에 의해 제공되는 소프트웨어 모듈을 가리키는 것일 수 있다. 보다 구체적인 예를 들어, 상기 인터넷 방송 플랫폼이 "아프리카 TV"인 경우, 상기 방송 클라이언트 모듈은 아프리카 TV를 통해 방송을 진행하는 BJ의 단말에 설치된 소프트웨어 모듈을 가리키는 것일 수 있다. 방송 관리 서버(500)의 구성 및 동작에 대한 보다 자세한 설명은 도 9를 참조하여 후술하도록 한다.According to an exemplary embodiment of the present invention, the broadcast management server 500 may include at least one broadcast client module operatively associated with the Internet broadcast platform 700. Here, the broadcast client module is a module for transmitting a streaming object image to a streaming server of an Internet broadcasting platform, for example, a software module provided by the Internet broadcasting platform. More specifically, for example, when the Internet broadcasting platform is " Africa TV ", the broadcasting client module may indicate a software module installed in a terminal of the BJ which broadcasts via Africa TV. A more detailed description of the configuration and operation of the broadcast management server 500 will be given later with reference to FIG.
상기 제1 실시예에 따른 라이브 스트리밍 시스템에서, 인터넷 방송 플랫폼(700)은 인터넷을 통해 라이브 방송 스트리밍 서비스를 제공하는 플랫폼을 의미한다.In the live streaming system according to the first embodiment, the Internet broadcasting platform 700 means a platform for providing a live broadcasting streaming service over the Internet.
본 발명의 실시예에 따르면, 아프리카 TV, 트위치, 유튜브 등과 같이 기 구축된 인터넷 방송 플랫폼이 인터넷 방송 플랫폼(700)으로 이용될 수 있다. 즉, 본 실시예에 따르면, 방송용 VR 게임 콘텐츠를 실시간으로 스트리밍하기 위해 별도의 스트리밍 서버가 구축되는 것이 아니라 기존의 시청자가 이용하고 있는 레거시(legacy) 시스템이 활용될 수 있다. 이에 따라, 시스템 구축 비용이 크게 절감되는 효과가 있으며, 인터넷 방송 플랫폼을 이용하는 기존의 시청자들이 VR 콘텐츠 방송의 잠재적 시청자로 확보될 수 있다.According to the embodiment of the present invention, a pre-established Internet broadcasting platform such as Africa TV, Twot Site, YouTube, etc. can be used as the Internet broadcasting platform 700. That is, according to the present embodiment, a separate streaming server is not constructed to stream real-time VR game contents, but a legacy system used by existing viewers can be utilized. Accordingly, the system construction cost is greatly reduced, and existing viewers using the Internet broadcasting platform can be secured as potential viewers of VR contents broadcasting.
상기 제1 실시예에 따른 라이브 스트리밍 시스템에서, 시청자 단말(900)은 라이브 스트리밍 방송을 시청하기 위해 시청자가 이용하는 단말을 의미한다. 시청자 단말(900)은 예를 들어 기 구축된 인터넷 방송 플랫폼(700)과 연동되는 시청 클라이언트 모듈이 탑재된 컴퓨팅 장치를 의미할 수 있다. 이때, 상기 컴퓨팅 장치는 노트북, 데스크톱(desktop), 랩탑(laptop), 스마트폰(Smart Phone), HMD 등으로 임의의 장치로 구현될 수 있다.In the live streaming system according to the first embodiment, the viewer terminal 900 means a terminal used by a viewer to view a live streaming broadcast. The viewer terminal 900 may be, for example, a computing device equipped with a viewing client module linked with the Internet broadcasting platform 700. At this time, the computing device may be implemented as an arbitrary device such as a notebook, a desktop, a laptop, a smart phone, or an HMD.
상기 시청 클라이언트 모듈은 예를 들어 인터넷 방송 플랫폼이 제공하는 라이브 스트리밍 방송 서비스를 이용하기 위해 설치되는 소프트웨어 모듈을 가리키는 것일 수 있다.The viewing client module may be, for example, a software module installed to use a live streaming broadcasting service provided by an Internet broadcasting platform.
본 발명의 몇몇 실시예에 따른 라이브 스트리밍 시스템을 구성하는 각 구성 요소들은 네트워크를 통해 통신할 수 있다. 여기서, 상기 네트워크는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 이동 통신망(mobile radio communication network), Wibro(Wireless Broadband Internet) 등과 같은 모든 종류의 유/무선 네트워크로 구현될 수 있다.Each component that constitutes a live streaming system according to some embodiments of the present invention may communicate over a network. Here, the network may be any kind of wired / wireless network such as a local area network (LAN), a wide area network (WAN), a mobile radio communication network, a wibro Can be implemented.
이하에서는, 도 6 내지 도 9를 참조하여 상기 라이브 스트리밍 시스템의 구성 요소에 대하여 보다 상세하게 설명하도록 한다.Hereinafter, the components of the live streaming system will be described in more detail with reference to FIGS. 6 to 9. FIG.
도 6은 본 발명의 제1 실시예에 따른 VR 콘텐츠에 대한 라이브 스트리밍 시스템의 일 구성 요소인 렌더링 서버(300)를 나타내는 블록도이다.6 is a block diagram illustrating a rendering server 300 that is a component of a live streaming system for VR content according to the first embodiment of the present invention.
도 6을 참조하면, 렌더링 서버(300)는 콘텐츠 실행 모듈(6100), 콘텐츠 동기화 모듈(330), 파노라마 영상 렌더링 모듈(350), 인코딩 모듈(370) 및 파노라마 영상 전송 모듈(390)를 포함하도록 구성될 수 있다. 다만, 도 6에는 본 발명의 실시예와 관련 있는 구성요소들만이 도시되어 있다. 따라서, 본 발명이 속한 기술분야의 통상의 기술자라면 도 6에 도시된 구성요소들 외에 다른 범용적인 구성 요소들이 더 포함될 수 있음을 알 수 있다. 이하, 렌더링 서버(300)의 각 구성 요소에 대하여 설명한다.6, the rendering server 300 includes a content execution module 6100, a content synchronization module 330, a panorama image rendering module 350, an encoding module 370, and a panorama image transmission module 390 Lt; / RTI > However, only the components related to the embodiment of the present invention are shown in Fig. Therefore, it will be understood by those skilled in the art that other general-purpose components other than those shown in FIG. 6 may be further included. Hereinafter, each component of the rendering server 300 will be described.
콘텐츠 실행 모듈(6100)은 제2 방송용 VR 게임 콘텐츠를 실행하는 모듈이다. 상기 제2 방송용 VR 게임 콘텐츠는 전술한 바와 같이 스트리머 단말(100)에서 실행되는 제1 방송용 VR 게임 콘텐츠와 동일한 VR 게임 콘텐츠이다.The content execution module 6100 is a module for executing the second broadcast VR game content. The second broadcast VR game content is the same VR game content as the first broadcast VR game content executed in the streamer terminal 100 as described above.
예컨대, 콘텐츠 실행 모듈(6100)은 스트리머 단말(100)로부터 제1 방송용 VR 게임 콘텐츠에 대한 정보(e.g. VR 게임 콘텐츠의 이름, 식별자 등)를 수신하고, 수신된 정보를 이용하여 상기 제1 방송용 VR 게임 콘텐츠와 동일한 제2 방송용 VR 게임 콘텐츠를 실행할 수 있다.For example, the content execution module 6100 receives information (e.g., name, identifier, etc.) of the first broadcast VR game content from the streamer terminal 100, The second broadcast VR game content identical to the VR game content can be executed.
다음으로, 콘텐츠 동기화 모듈(330)은 제1 방송용 VR 게임 콘텐츠의 콘텐츠 진행 정보를 이용하여 제2 방송용 VR 게임 콘텐츠와 상기 제1 방송용 VR 게임 콘텐츠를 동기화하는 모듈이다. 여기서, 상기 콘텐츠 진행 정보는 스트리머 단말(100)로부터 실시간으로 수신될 수 있다.Next, the content synchronization module 330 synchronizes the second broadcast VR game content and the first broadcast VR game content using the content progress information of the first broadcast VR game content. Here, the content progress information may be received from the streamer terminal 100 in real time.
다음으로, 파노라마 영상 렌더링 모듈(350)은 제2 방송용 VR 게임 콘텐츠에 기초하여 시청자 단말(900)로 스트리밍되는 360도 파노라마 영상을 렌더링하는 모듈이다. 이하, 도 7 및 도 8을 참조하여 본 발명의 실시예에 따른 360도 파노라마 영상을 렌더링하는 방법에 대하여 부연 설명하도록 한다.Next, the panorama image rendering module 350 is a module for rendering a 360-degree panorama image streamed to the viewer terminal 900 based on the second broadcast VR game content. Hereinafter, a method of rendering a 360-degree panoramic image according to an embodiment of the present invention will be described in detail with reference to FIGS. 7 and 8. FIG.
도 7는 제2 방송용 VR 게임 콘텐츠 상에 구축되는 예시적인 가상 공간을 예시한다. 특히, 도 7은 제1 가상 객체(10)와 제2 가상 객체(20)가 가상 공간에 존재하고, 제2 가상 객체(20)가 스트리머(1)에 의해 플레이되는 가상 객체인 경우를 예로써 도시하고 있다.FIG. 7 illustrates an exemplary virtual space constructed on the second broadcast VR game content. 7 shows a case where the first virtual object 10 and the second virtual object 20 exist in the virtual space and the second virtual object 20 is a virtual object played by the streamer 1 As shown in FIG.
도 7에 도시된 바와 같이, 상기 가상 공간 상에서 제2 가상 객체(20)에 인접하여 배치된 가상 카메라(30)에 의해 게임 영상이 촬영된다. 그러면, 파노라마 영상 렌더링 모듈(350)은 촬영된 게임 영상을 이용하여 360도 파노라마 영상을 렌더링한다.As shown in FIG. 7, the game image is photographed by the virtual camera 30 disposed adjacent to the second virtual object 20 in the virtual space. Then, the panorama image rendering module 350 renders the 360-degree panorama image using the captured game image.
예를 들어, 도 8에 도시된 바와 같이, 가상 카메라(30)는 제2 가상 객체(20) 주변을 360도 회전하며 게임 영상(40)을 촬영하고, 파노라마 영상 렌더링 모듈(350)은 게임 영상(40)을 이용하여 360도 파노라마 영상을 렌더링할 수 있다. 단, 파노라마 영상 렌더링 모듈(350)이 360도 파노라마 영상을 렌더링하는 방법이 이에 한정되는 것은 아니며, 어떠한 방식으로 렌더링 되더라도 무방한다.8, the virtual camera 30 rotates 360 degrees around the second virtual object 20, captures the game image 40, and the panorama image rendering module 350 displays the game image 40 The panoramic panoramic image can be rendered using the panoramic panoramic image 40. However, the method of rendering the 360 degree panorama image by the panorama image rendering module 350 is not limited to this, and it may be rendered in any way.
본 실시예에서, 스트리머(1)의 입력에 따라 제2 가상 객체(20)가 가상 공간 상에서 이동하면, 가상 카메라(30)도 제2 가상 객체(20)를 따라 이동될 수 있다. 본 실시예에 따르면, 가상 카메라(30)가 플레이 대상 객체(20)를 따라 이동하며 게임 영상을 촬영하므로, 방송용 VR 게임 콘텐츠를 감상하는 시청자들은 직접 VR 게임 콘텐츠를 플레이하는 느낌을 받을 수 있다. 따라서, 라이브 스트리밍 방송에 대한 몰입감이 극대화될 수 있다.In this embodiment, when the second virtual object 20 moves in the virtual space according to the input of the streamer 1, the virtual camera 30 can also be moved along the second virtual object 20. [ According to the present embodiment, since the virtual camera 30 moves along the play object 20 and shoots the game video image, viewers watching the broadcast VR game content can receive the feeling of playing the VR game content directly. Therefore, the immersion feeling for the live streaming broadcast can be maximized.
또한, 본 실시예에서, 시청자에게 360도 파노라마 영상이 제공되기 때문에, 시청자의 시야가 스트리머(1)의 시야에 완전히 종속되지 않을 수 있다. 예컨대, 시청자의 시선 방향이 제1 시점에서 제2 시점으로 변경되면, 스트리머(1)의 시점과 관계 없이 상기 360도 파노라마 영상 중에서 상기 제2 시점에 대응되는 영상이 시청자 단말(900)에 디스플레이될 수 있다. 따라서, 시청자의 시야가 스트리머(1)의 시야에 완전히 종속되는 것은 아니다. 본 실시예에 따르면. 방송용 VR 콘텐츠를 시청하는 시청자는 고용량의 VR 게임 콘텐츠를 시청자 단말(900)에 설치하지 않고도 스트리머(1)와 동일한 현실감 및 몰입감을 체험할 수 있게 된다.In addition, in the present embodiment, since the 360-degree panoramic image is provided to the viewer, the viewer's view may not be completely dependent on the field of view of the streamer 1. For example, if the view direction of the viewer changes from the first viewpoint to the second viewpoint, an image corresponding to the second viewpoint among the 360 degree panorama images is displayed on the viewer terminal 900, regardless of the viewpoint of the streamer 1 . Therefore, the field of view of the viewer is not completely dependent on the field of view of the streamer 1. According to this embodiment. The viewer who watches the broadcast VR content can experience the same sense of reality and immersion as the streamer 1 without installing the high-volume VR game content on the viewer terminal 900. [
다시 도 6을 참조하여 설명을 이어가도록 한다.Referring back to FIG. 6, description will be continued.
인코딩 모듈(370)은 렌더링된 360도 파노라마 영상을 인코딩하는 모듈이다.The encoding module 370 is a module for encoding the rendered 360 degree panorama image.
일 실시예에서, 인코딩 모듈(370)은 인터넷 방송 플랫폼(700)과 시청자 단말(900) 간의 네트워크 상태에 적응적으로 인코딩을 수행할 수 있다. 예를 들어, 상기 네트워크 상태가 불안정하거나(e.g. 무선 네트워크 구간이 존재하는 경우) 가용 대역폭이 충분하지 않은 경우, 인코딩 모듈(370)은 기 설정된 기준 화질보다 낮은 화질로 상기 360도 파노라마 영상을 인코딩할 수 있다. 이와 반대의 경우, 인코딩 모듈(370)은 기 설정된 기준 화질 또는 보다 높은 화질로 상기 360도 파노라마 영상을 인코딩할 수도 있다.In one embodiment, the encoding module 370 may adaptively encode the network state between the Internet broadcast platform 700 and the viewer terminal 900. [ For example, if the network condition is unstable (e.g., if there is a wireless network section) and the available bandwidth is not sufficient, the encoding module 370 may encode the 360 degree panorama image with a lower quality image than the preset reference quality . In the opposite case, the encoding module 370 may encode the 360 degree panorama image with a predetermined reference image quality or a higher image quality.
일 실시예에서, 인코딩 모듈(370)은 시청자 단말(900)의 컴퓨팅 능력을 더 고려하여 인코딩을 수행할 수 있다. 예를 들어, 시청자 단말(900)이 모바일 단말과 같이 컴퓨팅 능력이 떨어지는 장치인 경우, 인코딩 모듈(370)은 기 설정된 기준 화질보다 낮은 화질로 인코딩을 수행할 수 있다.In one embodiment, the encoding module 370 may perform encoding taking into account the computing capabilities of the viewer terminal 900. [ For example, if the viewer terminal 900 is a device with a poor computing capability, such as a mobile terminal, the encoding module 370 may perform encoding with a picture quality lower than a predetermined reference picture quality.
일 실시예에서, 인코딩 모듈(370)은 선택적으로 화질을 선택할 수 있도록 SVC(scalable video coding) 기법을 이용하여 360도 파노라마 영상을 인코딩할 수 있다. 이와 같은 경우, 시청자 단말(900)의 컴퓨팅 능력 및 네트워크 상태 중 적어도 하나의 조건에 기초하여 상기 360도 파노라마 영상의 화질이 조정될 수 있다. 이때, 상기 화질의 조정은, 파노라마 영상 전송 모듈(390), 방송 관리 서버(500) 또는 인터넷 방송 플랫폼(700) 중 어느 하나의 구성 요소에서 수행될 수도 있다.In one embodiment, the encoding module 370 may encode a 360 degree panorama image using a scalable video coding (SVC) technique to selectively select an image quality. In this case, the image quality of the 360-degree panoramic image can be adjusted based on at least one of conditions of the computing ability and the network state of the viewer terminal 900. At this time, the adjustment of the image quality may be performed by any one of the components of the panorama image transmission module 390, the broadcasting management server 500, or the Internet broadcasting platform 700.
이외에도, 본 발명의 실시예에 따르면 인코딩 모듈(370)은 하나의 파노라마 영상을 복수의 화질로 인코딩하여 제공할 수 있다. 본 실시예에 대한 설명은 도 21 내지 도 23을 참조하여 후술하도록 한다.In addition, according to the embodiment of the present invention, the encoding module 370 can encode and provide one panorama image with a plurality of image qualities. The description of this embodiment will be given later with reference to Figs. 21 to 23. Fig.
다음으로, 파노라마 영상 전송 모듈(390)은 인코딩된 360도 파노라마 영상을 방송 관리 서버(500)로 전송하는 모듈이다. 전송된 360도 파노라마 영상은 방송 관리 서버(500)에 의해 시청자 단말(900)로 스트리밍될 수 있다.Next, the panorama image transmission module 390 transmits the encoded 360 degree panorama image to the broadcasting management server 500. The transmitted 360-degree panoramic image can be streamed to the viewer terminal 900 by the broadcast management server 500.
본 발명의 실시예에 따르면, 파노라마 영상 전송 모듈(390)은 시청자 단말(900)로부터 시청자의 시점 정보 및 시야각 정보를 수신하고, 이에 응답하여 전체 파노라마 영상 중에서 상기 시점 정보 및 시야각 정보에 대응되는 부분 파노라마 영상만을 시청자 단말(900)로 전송할 수 있다. 본 실시예에 따르면, 네트워크 대역폭이 절약되고 끊김 없는 라이브 스트리밍 서비스가 제공될 수 있다. 본 실시예에 대한 자세한 설명은 도 19 및 도 20을 참조하여 후술하도록 한다.In accordance with an embodiment of the present invention, the panorama image transmission module 390 receives viewer's viewpoint information and viewing angle information from the viewer terminal 900, and in response thereto, Only the panoramic image can be transmitted to the viewer terminal 900. According to the present embodiment, network bandwidth is saved and seamless live streaming service can be provided. A detailed description of this embodiment will be given later with reference to Figs. 19 and 20. Fig.
도 9는 본 발명의 제1 실시예에 따른 VR 콘텐츠에 대한 라이브 스트리밍 시스템의 일 구성 요소인 방송 관리 서버(500)를 나타내는 블록도이다.FIG. 9 is a block diagram illustrating a broadcast management server 500, which is a component of a live streaming system for VR content according to the first embodiment of the present invention.
도 9를 참조하면, 방송 관리 서버(500)는 파노라마 영상 수신 모듈(510) 및 방송 클라이언트 관리 모듈(530)을 포함하도록 구성될 수 있다. 다만, 도 9에는 본 발명의 실시예와 관련 있는 구성요소들만이 도시되어 있다. 따라서, 본 발명이 속한 기술분야의 통상의 기술자라면 도 9에 도시된 구성요소들 외에 다른 범용적인 구성 요소들이 더 포함될 수 있음을 알 수 있다.Referring to FIG. 9, the broadcast management server 500 may include a panorama image receiving module 510 and a broadcast client managing module 530. However, only components that are related to the embodiment of the present invention are shown in Fig. Therefore, it will be understood by those skilled in the art that other general-purpose components other than the components shown in FIG. 9 may be further included.
각 구성 요소를 살펴보면, 파노라마 영상 수신 모듈(510)은 렌더링 서버(300)에 의해 렌더링 된 360도 파노라마 영상을 수신하는 모듈이다. 여기서, 상기 360도 파노라마 영상은 적절하게 인코딩된 360도 파노라마 영상을 의미하는 것일 수 있다.Referring to the respective components, the panorama image receiving module 510 receives the 360-degree panorama image rendered by the rendering server 300. Here, the 360-degree panorama image may be a properly encoded 360-degree panorama image.
방송 클라이언트 관리 모듈(500)은 기 구축된 인터넷 방송 플랫폼(700)과 연동되는 적어도 하나의 방송 클라이언트 모듈(531 내지 535)을 관리하는 모듈이다.The broadcast client management module 500 is a module for managing at least one broadcast client module 531 to 535 linked with the Internet broadcast platform 700 that has been constructed.
본 발명의 실시예에 따르면, 방송 클라이언트 관리 모듈(530)은 기 저장된 스트리머 회원의 방송 정보 및/또는 스트리머 회원이 방송 인터페이스를 통해 선택한 인터넷 방송 플랫폼의 선택 정보 등을 기초로 해당되는 방송 클라이언트 모듈을 실행할 수 있다. 또한, 방송 클라이언트 관리 모듈(530)은 실행된 방송 클라이언트 모듈을 이용하여 360도 파노라마 영상이 시청자 단말(900)로 스트리밍 되도록 할 수 있다.According to an embodiment of the present invention, the broadcast client management module 530 may be configured to broadcast the broadcast client information to the corresponding broadcast client based on broadcast information of the stored streamer member and / or selection information of the Internet broadcast platform selected by the streamer member through the broadcast interface, You can run the module. Also, the broadcast client management module 530 may stream the 360 degree panorama image to the viewer terminal 900 using the broadcast client module executed.
지금까지 설명한 도 6 및 도 9에 도시된 각 구성 요소 또는 후술할 도 15 및 도 16에 도시된 구성 요소는 소프트웨어(Software) 또는, FPGA(Field Programmable Gate Array)나 ASIC(Application-Specific Integrated Circuit)과 같은 하드웨어(Hardware)를 의미할 수 있다. 그렇지만, 상기 구성 요소들은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 어드레싱(Addressing)할 수 있는 저장 매체에 있도록 구성될 수도 있고, 하나 또는 그 이상의 프로세서들을 실행시키도록 구성될 수도 있다. 상기 구성 요소들 안에서 제공되는 기능은 더 세분화된 구성 요소에 의하여 구현될 수 있으며, 복수의 구성 요소들을 합하여 특정한 기능을 수행하는 하나의 구성 요소로 구현될 수도 있다.Each of the components shown in FIGS. 6 and 9 or the components shown in FIGS. 15 and 16 to be described later may be implemented by software, a field programmable gate array (FPGA), an application-specific integrated circuit (ASIC) And the like. However, the components are not limited to software or hardware, and may be configured to be addressable storage media, and configured to execute one or more processors. The functions provided in the components may be implemented by a more detailed component, or may be implemented by a single component that performs a specific function by combining a plurality of components.
지금까지, 도 1 내지 도 9를 참조하여 본 발명의 제1 실시예에 따른 VR 콘텐츠에 대한 라이브 스트리밍 시스템에 대하여 설명하였다. 상술한 바에 따르면, 렌더링 서버(300)에서 방송용 VR 게임 콘텐츠에 대한 360도 파노라마 영상이 렌더링되고, 상기 렌더링된 360도 파노라마 영상이 시청자 단말(900)로 스트리밍된다. 따라서, 스트리밍 방송을 시청하는 시청자와 스트리머 간에 상기 방송용 VR 게임 콘텐츠의 체험이 공유될 수 있다.1 to 9, a live streaming system for VR contents according to the first embodiment of the present invention has been described. The 360-degree panorama image for the broadcast VR game content is rendered in the rendering server 300, and the rendered 360-degree panorama image is streamed to the viewer terminal 900. FIG. Therefore, the experience of the broadcast VR game contents can be shared between the viewer and the streamer watching the streaming broadcast.
다음으로, 도 10 및 도 13을 참조하여 본 발명의 제2 실시예에 따른 VR 콘텐츠에 대한 라이브 스트리밍 시스템에 대하여 설명하도록 한다.Next, a live streaming system for VR contents according to a second embodiment of the present invention will be described with reference to FIGS. 10 and 13. FIG.
도 10은 상기 제2 실시예에 따른 VR 콘텐츠에 대한 라이브 스트리밍 시스템의 구성도이다.10 is a configuration diagram of a live streaming system for VR contents according to the second embodiment.
도 10에 도시된 바와 같이, 상기 제2 실시예에 따른 라이브 스트리밍 시스템의 구성은 전술한 제1 실시예에 따른 시스템과 동일하다. 다만, 상기 제2 실시예에 따른 라이브 스트리밍 시스템은 2가지 종류의 360도 파노라마 영상을 이용하여 스트리밍 서비스를 제공한다는 점에서 전술한 제1 실시예에 따른 시스템과 차이가 있다. 중복된 설명을 배제하기 위해, 차이점에 대한 부분을 중심으로 설명을 이어가도록 한다.As shown in FIG. 10, the configuration of the live streaming system according to the second embodiment is the same as the system according to the above-described first embodiment. However, the live streaming system according to the second embodiment differs from the system according to the first embodiment in that streaming service is provided using two kinds of 360 degree panorama images. To avoid redundant explanations, let's go on to explain the difference.
상기 제2 실시예에 따른 라이브 스트리밍 시스템은 제1 360도 파노라마 영상(18)과 제2 360도 파노라마 영상(19)을 이용하여 라이브 스트리밍 서비스를 제공한다. 이때, 제1 360도 파노라마 영상(18)은 렌더링 서버(300)에 의해 렌더링되는 영상이고, 제2 360도 파노라마 영상(19)은 스트리머 단말(100)에 의해 렌더링되는 영상일 수 있다.The live streaming system according to the second embodiment provides a live streaming service using the first 360 degree panorama image 18 and the second 360 degree panorama image 19. [ The first 360 degree panorama image 18 may be an image rendered by the rendering server 300 and the second 360 degree panorama image 19 may be an image rendered by the streamer terminal 100. [
본 발명의 실시예에 따르면, 제2 360도 파노라마 영상(19)은 스트리머(1)에 의해 제1 방송용 VR 게임 콘텐츠가 진행 중이지 않은 경우, 시청자 단말(900)로 스트리밍될 수 있다. 즉, 스트리머(1)가 상기 제1 방송용 VR 게임 콘텐츠를 플레이하고 있는 경우에는 제1 360도 파노라마 영상(18)이 스트리밍되고, 그렇지 않은 경우에는 제2 360도 파노라마 영상(19)이 스트리밍될 수 있다.According to the embodiment of the present invention, the second 360 degree panorama image 19 can be streamed to the viewer terminal 900 when the streamer 1 does not have the first broadcast VR game content in progress. That is, when the streamer 1 is playing the first broadcast VR game contents, the first 360-degree panorama image 18 is streamed. Otherwise, the second 360-degree panorama image 19 is streamed .
여기서, 상기 제1 방송용 VR 게임 콘텐츠가 진행 중이지 않은 경우는 특정 콘텐츠를 로딩하는 경우 등을 예로 들 수 있다. 특정 콘텐츠가 로딩되는 경우에는, 렌더링 서버(300)가 360도 파노라마 영상을 렌더링할 수 없기 때문에, 시청자는 스트리밍 방송이 끊긴다고 느낄 수 있다. 로딩 화면이 그대로 스트리밍 된다고 가정하면, 시청자는 스트리밍 방송이 끊긴다고 느끼지는 않을 것이나, 로딩 화면으로 인해 방송용 VR 콘텐츠에 대한 몰입감이 저해될 수 있다. 따라서, 이와 같은 경우, 제2 360도 파노라마 영상(19)을 스트리밍함으로써, 시청자의 몰입감이 계속 유지되도록 할 수 있다.Here, when the first broadcast VR game content is not in progress, a case of loading a specific content is exemplified. When the specific content is loaded, the viewer can feel that the streaming broadcast is cut off because the rendering server 300 can not render the 360 degree panorama image. Assuming that the loading screen is streamed as it is, the viewer will not feel that the streaming broadcast is cut off, but the feeling of immersion in the VR content for broadcasting may be hindered by the loading screen. Therefore, in such a case, by streaming the second 360 degrees panorama image 19, the immersion feeling of the viewer can be maintained.
이하에서는, 제2 360도 파노라마 영상(19)을 렌더링하는 방법에 대하여 도 11 내지 도 13을 참조하여 설명하도록 한다. 제1 360도 파노라마 영상(18)을 렌더링 하는 방법은 도 7 및 도 8의 설명 내용을 참조하도록 한다.Hereinafter, a method of rendering the second 360 degree panorama image 19 will be described with reference to Figs. 11 to 13. Fig. The method of rendering the first 360 degree panorama image 18 will be described with reference to the description of FIG. 7 and FIG.
도 11 및 도 12는 제2 360도 파노라마 영상(19)을 렌더링하는 방법을 설명하기 위한 도면이다.Figs. 11 and 12 are diagrams for explaining a method of rendering the second 360 degree panorama image 19. Fig.
도 11은 스트리머 단말(100)의 화면 상에 디스플레이되는 제1 방송용 VR 게임 콘텐츠를 캡처하여 생성되는 제1 영상(21a)을 도시한다. 도 11에는 제1 영상(21a)의 사이즈가 "1920x1080"인 경우가 예로써 도시되었다.FIG. 11 shows a first image 21a generated by capturing a first broadcast VR game content displayed on the screen of the streamer terminal 100. FIG. 11, the case where the size of the first image 21a is " 1920x1080 " is shown as an example.
도 12를 참조하면, 스트리머 단말(100)은 제2 360도 파노라마 영상(20)을 렌더링하기 위해, 제1 영상(21a)의 사이즈를 기 설정된 사이즈로 변환하여 제2 영상(21b)을 생성한다. 도 12에서 상기 기 설정된 사이즈는 "640x360"인 것으로 예시되었으나, 이는 얼마든지 달라질 수 있다.12, the streamer terminal 100 converts the size of the first image 21a into a predetermined size to render the second 360 degrees panorama image 20, and generates the second image 21b do. In FIG. 12, the predetermined size is exemplified as " 640x360 ", but it may vary as much as possible.
스트리머 단말(100)은 제2 영상(21b)을 360도 파노라마 영상(20)의 중앙에 배치하고, 상기 360도 파노라마 영상에서 제2 영상(21b)을 제외한 영역(23)을 기 설정된 색(e.g. 검정색)으로 처리하여 360도 파노라마 영상(20)을 렌더링한다.The streamer terminal 100 arranges the second image 21b at the center of the 360 degree panorama image 20 and sets the region 23 excluding the second image 21b in the 360 degree panorama image to a predetermined color for example, black) to render a 360 degree panoramic image 20.
렌더링된 360도 파노라마 영상(20)은 예를 들어 도 13에 도시된 바와 같을 수 있다. 구체적으로, 360도 파노라마 영상(20)이 스트리밍되면, 시청자(30)가 정면을 바라볼 때, 제2 영상(21b)이 보이게 되고, 시점을 변경하면 기 설정된 색으로 칠해진 공간이 보이게 된다.The rendered 360 degree panorama image 20 may be as shown in FIG. 13, for example. Specifically, when the 360-degree panoramic image 20 is streamed, when the viewer 30 looks at the front, the second image 21b is seen. When the viewpoint is changed, a space painted with a predetermined color is seen.
지금까지, 도 10 내지 도 13을 참조하여 본 발명의 제2 실시예에 따른 VR 콘텐츠에 대한 라이브 스트리밍 시스템에 대하여 설명하였다. 다음으로, 도 14 내지 도 17을 참조하여 본 발명의 제3 실시예에 따른 VR 콘텐츠에 대한 라이브 스트리밍 시스템에 대하여 설명하도록 한다.Up to now, a live streaming system for VR contents according to the second embodiment of the present invention has been described with reference to FIGS. 10 to 13. FIG. Next, a live streaming system for VR content according to the third embodiment of the present invention will be described with reference to FIG. 14 to FIG.
도 14는 본 발명의 제3 실시예에 따른 VR 콘텐츠에 대한 라이브 스트리밍 시스템의 구성도이다.14 is a configuration diagram of a live streaming system for VR content according to the third embodiment of the present invention.
도 14를 참조하면, 본 발명의 제3 실시예에 따른 라이브 스트리밍 시스템은 중계 서버(200) 및 방송 웹 서버(400)를 더 포함하도록 구성될 수 있다. 단, 이는 본 발명의 목적을 달성하기 위한 바람직한 실시예일뿐이며, 필요에 따라 일부 구성 요소가 추가되거나 삭제될 수 있음은 물론이다. 또한, 도 14에 도시된 라이브 스트리밍 시스템의 각각의 구성 요소들은 기능적으로 구분되는 기능 요소들을 나타낸 것으로서, 적어도 하나의 구성 요소가 실제 물리적 환경에서는 서로 통합되는 형태로 구현될 수도 있음에 유의한다.Referring to FIG. 14, the live streaming system according to the third embodiment of the present invention may further include a relay server 200 and a broadcast web server 400. However, it should be understood that the present invention is not limited to the above-described embodiments, and that various changes and modifications may be made without departing from the scope of the present invention. It should be noted that each component of the live streaming system shown in FIG. 14 shows functional elements that are functionally separated, and that at least one component may be implemented in a form that is integrated with each other in an actual physical environment.
상기 제3 실시예에 따른 라이브 스트리밍 시스템에서, 중계 서버(200)는 방송방을 생성하여 스트리머(1)에게 독립적인 방송 환경을 제공하고, 라이브 스트리밍 도중에 스트리머 단말(100)로부터 실시간으로 수신되는 게임 진행 정보를 렌더링 서버(300)로 중계한다. 예를 들어, 중계 서버(200)는 라이브 스트리밍 방송이 허가된 스트리머 단말(100, e.g. 인증된 스트리머, 방송권을 구매한 스트리머)의 요청에 응답하여, 스트리머 각각에게 방송방을 생성하여 제공한다. 여기서, 상기 방송방은 스트리머와 상기 스트리머의 라이브 스트리밍 방송을 시청하는 시청자들이 공유하는 온라인 공간을 의미할 수 있다.In the live streaming system according to the third embodiment, the relay server 200 generates a broadcast channel to provide an independent broadcast environment to the streamer 1, and receives live streaming data from the streamer terminal 100 during live streaming And relays the game progress information to the rendering server 300. For example, in response to a request from a streamer terminal 100 (eg, an authenticated streamer or a streamer that has purchased a broadcast license) in which live streaming broadcasting is permitted, the relay server 200 generates and provides a broadcast channel for each streamer do. Here, the broadcasting room may refer to an online space shared by viewers watching live streaming broadcasting of the streamer and the streamer.
중계 서버(200)는 방송방 별로 채팅 기능을 지원하는 등 원활한 방송 진행에 필요한 제반 기능을 더 제공할 수 있다. 상기 방송방은 당해 기술 분야에서 이미 널리 알려진 개념인 바 이에 대한 자세한 설명은 생략하도록 한다.The relay server 200 can further provide various functions necessary for smooth broadcast progress such as supporting a chat function for each broadcast. Since the broadcasting room is a well-known concept in the related art, a detailed description thereof will be omitted.
참고로, 중계 서버(200)는 포톤(photon) 서버 등으로 구현될 수 있으나, 본 발명의 범위가 이에 국한되는 것은 아니다. 중계 서버(200)에 대한 보다 자세한 설명은 도 15를 참조하여 후술하도록 한다.For reference, the relay server 200 may be implemented as a photon server or the like, but the scope of the present invention is not limited thereto. A more detailed description of the relay server 200 will be given later with reference to FIG.
상기 제3 실시예에 따른 라이브 스트리밍 시스템에서, 방송 웹 서버(400)는 사용자에게 웹 페이지 서비스를 제공한다. 예를 들어, 방송 웹 서버(400)는 스트리머 단말(100)의 요청에 응답하여 웹 페이지를 제공하고, 상기 웹 페이지를 통해 회원 가입, 로그인, 회원 정보 관리, 방송 정보 관리, 과금 처리 등의 기능을 제공할 수 있다. 방송 웹 서버(400)에 대한 보다 자세한 설명은 도 16을 참조하여 후술하도록 한다.In the live streaming system according to the third embodiment, the broadcast web server 400 provides a web page service to the user. For example, the broadcasting web server 400 provides a web page in response to a request from the streamer terminal 100, and transmits the web page via the web page to the broadcasting web server 400, such as membership registration, login, member information management, Function can be provided. A more detailed description of the broadcast web server 400 will be given later with reference to FIG.
이하에서는, 도 15 및 도 16을 참조하여, 중계 서버(200) 및 방송 웹 서버(400)에 대하여 부연 설명하도록 한다.Hereinafter, the relay server 200 and the broadcast web server 400 will be described in detail with reference to FIG. 15 and FIG.
도 15는 본 발명의 제3 실시예에 따른 VR 콘텐츠에 대한 라이브 스트리밍 시스템의 일 구성 요소인 중계 서버(200)를 나타내는 블록도이다.FIG. 15 is a block diagram illustrating a relay server 200 that is a component of a live streaming system for VR content according to the third embodiment of the present invention.
도 15를 참조하면, 중계 서버(200)는 콘텐츠 정보 수신 모듈(210), 콘텐츠 진행 중계 모듈(230) 및 방송방 관리 모듈(250)을 포함하도록 구성될 수 있다. 다만, 도 15에는 본 발명의 실시예와 관련 있는 구성요소들만이 도시되어 있다. 따라서, 본 발명이 속한 기술분야의 통상의 기술자라면 도 15에 도시된 구성요소들 외에 다른 범용적인 구성 요소들이 더 포함될 수 있음을 알 수 있다.Referring to FIG. 15, the relay server 200 may include a content information receiving module 210, a content advance relay module 230, and a broadcast management module 250. Fig. 15 shows only the components related to the embodiment of the present invention. Accordingly, those skilled in the art will recognize that other general-purpose components other than those shown in FIG. 15 may be further included.
각 구성 요소를 살펴보면, 콘텐츠 정보 수신 모듈(210)은 스트리머 단말(100)로부터 제1 방송용 VR 게임 콘텐츠에 관한 정보(e.g. 게임 진행 정보)를 수신하는 모듈이고, 콘텐츠 정보 중계 모듈(230)은 상기 제1 방송용 VR 게임 콘텐츠에 관한 정보를 렌더링 서버(300)로 전달하는 모듈이다.The content information receiving module 210 receives information (e.g., game progress information) about the first broadcast VR game content from the streamer terminal 100, and the content information relay module 230 And transmits information on the first broadcast VR game contents to the rendering server 300.
예를 들어, 콘텐츠 정보 수신 모듈(210)은 스트리머 단말(100)로부터 상기 제1 방송용 VR 게임 콘텐츠에 대한 게임 진행 정보를 실시간으로 수신하고, 콘텐츠 정보 중계 모듈(230)은 상기 게임 진행 정보를 렌더링 서버(300)로 전달할 수 있다. 이때, 렌더링 서버(300)는 상기 게임 진행 정보를 이용하여 제2 방송용 VR 게임 콘텐츠를 상기 제1 방송용 VR 게임 콘텐츠와 동기화하고, 360도 파노라마 영상(또는 제1 360도 파노라마 영상)을 렌더링할 수 있다.For example, the content information receiving module 210 receives game progress information for the first broadcast VR game content in real time from the streamer terminal 100, and the content information relay module 230 receives the game progress information To the rendering server 300. At this time, the rendering server 300 may synchronize the second broadcast VR game content with the first broadcast VR game content using the game progress information, and may render the 360-degree panorama image (or the first 360-degree panorama image) have.
다음으로, 방송방 관리 모듈(250)은 스트리밍 방송이 허가된 스트리머 단말(100)의 방송 시작 요청에 응답하여 스트리머의 방송이 수행되는 온라인 공간을 가리키는 방송방을 생성한다. 또한, 방송방 관리 모듈(250)은 스트리머 단말(100)의 방송 종료 요청 등에 응답하여 해당 방송방을 소멸시킬 수도 있다.Next, the broadcasting management module 250 generates a broadcasting room indicating an online space in which the streamer is broadcast in response to a broadcasting start request of the streamer terminal 100 to which the streaming broadcasting is permitted. In addition, the broadcasting management module 250 may terminate the corresponding broadcasting channel in response to a broadcasting end request from the streamer terminal 100. [
본 발명의 실시예에 따르면, 상기 스트리밍 방송이 허가된 스트리머는 성공적으로 인증이 수행되고, 방송권을 구매한 스트리머를 지칭하는 것일 수 있다. 본 실시예에서 스트리밍 방송이 허가되지 않은 스트리머의 방송 시작 요청은 차단될 수 있다.According to the embodiment of the present invention, the streamer in which the streaming broadcast is permitted may be a streamer that has been successfully authenticated and purchased a broadcast right. The broadcast start request of the streamer in which the streaming broadcast is not permitted may be blocked in this embodiment.
도 16은 본 발명의 제3 실시예에 따른 VR 콘텐츠에 대한 라이브 스트리밍 시스템의 일 구성 요소인 방송 웹 서버(400)를 나타내는 블록도이다.16 is a block diagram illustrating a broadcast web server 400 that is a component of a live streaming system for VR content according to the third embodiment of the present invention.
도 16을 참조하면, 방송 웹 서버(400)는 회원 정보 관리 모듈(410), 인증 모듈(430), 방송 정보 관리 모듈(450) 및 과금 처리 모듈(470)을 포함하도록 구성될 수 있다. 다만, 도 16에는 본 발명의 실시예와 관련 있는 구성요소들만이 도시되어 있다. 따라서, 본 발명이 속한 기술분야의 통상의 기술자라면 도 16에 도시된 구성요소들 외에 다른 범용적인 구성 요소들이 더 포함될 수 있음을 알 수 있다.Referring to FIG. 16, the broadcast web server 400 may include a member information management module 410, an authentication module 430, a broadcast information management module 450, and a billing module 470. However, only the components related to the embodiment of the present invention are shown in Fig. Therefore, it will be understood by those skilled in the art that other general-purpose components other than the components shown in FIG. 16 may be further included.
각 구성 요소를 살펴보면, 회원 정보 관리 모듈(410)은 스트리머 회원에 대한 정보를 관리하는 모듈이다. 예를 들어, 회원 정보 관리 모듈(410)은 상기 스트리머 회원에 대한 정보를 DB화하여 관리할 수 있다. 여기서, 상기 스트리머 회원에 대한 정보는 예를 들어 회원 ID, 패스워드 등의 인증 정보를 포함할 수 있다.Referring to the respective components, the membership information management module 410 is a module for managing information on streamer members. For example, the member information management module 410 may manage the streamer member information by DB. Here, the information about the streamer member may include authentication information such as a member ID and a password.
인증 모듈(430)은 스트리머 회원에 대한 인증을 수행하는 모듈이다. 상기 인증은 예를 들어 ID/패스워드 기반으로 수행될 수 있으나, 얼마든지 다른 방식으로 수행되더라도 무방한다.The authentication module 430 is a module that performs authentication for a streamer member. The authentication may be performed, for example, on an ID / password basis, but may be performed in any other manner.
방송 정보 관리 모듈(450)은 스트리머 회원에 대한 방송 정보를 관리하는 모듈이다. 방송 정보 관리 모듈(450)은 상기 방송 정보를 DB화하여 관리할 수 있다. 여기서, 상기 방송 정보는 예를 들어 인터넷 방송 플랫폼에 대한 설정 정보, 방송용 VR 콘텐츠에 대한 정보, 방송권에 대한 정보 등을 포함할 수 있다.The broadcast information management module 450 is a module for managing broadcast information on a streamer member. The broadcast information management module 450 can organize the broadcast information into a DB. Here, the broadcast information may include, for example, setting information for an Internet broadcasting platform, information on VR content for broadcasting, information on broadcasting rights, and the like.
과금 처리 모듈(470)은 스트리머 회원의 방송권 구매 요청에 응답하여 방송권 구매에 따른 과금 처리를 수행하는 모듈이다. 과금 처리를 수행하는 방식은 포인트, 계좌 이체, 카드 결제 등 어떠한 방식으로 수행되더라도 무방하다.The billing processing module 470 is a module for performing a billing process in accordance with the purchase of a broadcasting right in response to a streaming member purchase request of a streaming member. The method of performing the billing process may be performed by any method such as point, account transfer, card settlement, and the like.
본 발명의 실시예에 따르면, 방송권을 구매하지 않은 스트리머의 라이브 방송 요청은 차단될 수 있다. 본 실시예에 따르면, 과금 처리를 통해 방송권을 구매한 스트리머에 한하여 스트리밍 방송을 허가함으로써, 라이브 스트리밍 시스템 및/또는 인터넷 방송 플랫폼의 사업자에게 새로운 수익 구조가 제공될 수 있다. 또한, 스트리머의 무분별한 방송 진입이 차단됨으로써, 양질의 인터넷 방송이 양산될 수 있다.According to the embodiment of the present invention, a live broadcast request of a streamer that has not purchased a broadcast right can be blocked. According to the present embodiment, streaming broadcasting is allowed only for a streamer purchased through a billing process, so that a new profit structure can be provided to a provider of a live streaming system and / or an Internet broadcasting platform. In addition, streamer's indiscreet penetration of broadcasting is blocked, and high-quality Internet broadcasting can be mass-produced.
다음으로, 보다 이해의 편의를 제공하기 위해, 상기 제3 실시예에 따른 라이브 스트리밍 시스템의 동작 방법에 대하여 설명하도록 한다.Next, for better understanding, an operation method of the live streaming system according to the third embodiment will be described.
도 17은 상기 제3 실시예에 따른 라이브 스트리밍 시스템의 동작을 나타내는 흐름도이다. 단, 이는 본 발명의 목적을 달성하기 위한 바람직한 실시예일뿐이며, 필요에 따라 일부 단계가 추가되거나 삭제될 수 있음은 물론이다. 특히, 도 17은 렌더링 서버(300)와 방송 관리 서버(500)가 하나의 서버 장치로 구현된 것을 예로써 도시하고 있다.17 is a flowchart showing the operation of the live streaming system according to the third embodiment. However, it should be understood that the present invention is not limited thereto and that some steps may be added or deleted as needed. In particular, FIG. 17 illustrates an example in which the rendering server 300 and the broadcasting management server 500 are implemented as a single server device.
도 17을 참조하면, 방송용 VR 게임 콘텐츠에 대한 라이브 방송을 하기 위한 첫 단계로 스트리머 단말(100)에서 게임 클라이언트 모듈이 실행된다(S10). 상기 게임 클라이언트 모듈은 제1 방송용 VR 게임 콘텐츠를 포함하고 있는 바, 단계(S10)에서 상기 제1 방송용 VR 게임 콘텐츠 또한 실행된다.Referring to FIG. 17, a game client module is executed in the streamer terminal 100 as a first step for performing live broadcasting on broadcast VR game contents (S10). The game client module includes the first VR game content for broadcasting, and the first VR game content for the broadcasting is also executed in step S10.
다음으로, 스트리머 단말(100)과 방송 웹 서버(400) 간에 인증 절차가 수행될 수 있다(S20). 즉, 인증 절차를 통해, 해당 스트리머가 등록된 회원인지 여부가 판정되고, 등록된 회원에 한해서 라이브 방송이 허용될 수 있다.Next, an authentication procedure may be performed between the streamer terminal 100 and the broadcast web server 400 (S20). That is, through the authentication procedure, it is determined whether or not the streamer is a registered member, and live broadcasting can be permitted only for the registered member.
다음으로, 방송 웹 서버(400)에서 인증된 스트리머에 대한 방송 정보가 조회되고(S30), 상기 조회된 방송 정보를 기초로 방송 관리 서버(500)에서 해당 방송 클라이언트 모듈이 실행된다(S50). 또는, 실시예에 따라, 스트리머에 의해 선택된 인터넷 방송 플랫폼에 대한 방송 클라이언트 모듈이 실행될 수도 있다(도 3 참조).Next, broadcast information about the streamer authenticated by the broadcast web server 400 is searched (S30), and the broadcast client module is executed in the broadcast management server 500 based on the searched broadcast information (S50) . Alternatively, depending on the embodiment, the broadcast client module for the Internet broadcast platform selected by the streamer may be executed (see FIG. 3).
참고로, 단계(S50)에서, 복수의 방송 클라이언트 모듈이 실행될 수도 있다. 이와 같은 경우, 복수의 인터넷 방송 플랫폼(700)을 통해 라이브 스트리밍 방송이 진행될 수 있다.For reference, in step S50, a plurality of broadcast client modules may be executed. In this case, live streaming broadcasting can be performed through a plurality of Internet broadcasting platforms 700. [
방송 클라이언트 모듈이 실행되면, 중계 서버(200)로 방송방 생성 요청이 전달되고, 중계 서버(200)가 상기 방송방 생성 요청에 응답하여 스트리머에 대한 방송방을 생성한다(S70). 또한, 중계 서버(200)는 상기 방송방으로 방송 클라이언트 모듈 및 게임 클라이언트 모듈이 접속되게 함으로써 게임 진행 정보가 두 모듈 간에 공유되도록 할 수 있다(S80, S90).When the broadcast client module is executed, a broadcast generation request is transmitted to the relay server 200, and the relay server 200 generates a broadcast stream for the streamer in response to the broadcast generation request (S70). In addition, the relay server 200 may connect the broadcasting client module and the game client module to the broadcasting room so that the game progress information may be shared between the two modules (S80, S90).
다음으로, 스트리머에 의해 스트리머 단말(100)에서 제1 방송용 VR 게임 콘텐츠에 대한 플레이가 진행되면, 게임 진행 정보가 실시간으로 중계 서버(200)를 통해 렌더링 서버(300)로 전달된다(S100, S110, S120).Next, when the streamer terminal 100 plays the first broadcast VR game content by the streamer, the game progress information is transmitted to the rendering server 300 through the relay server 200 in real time (S100 , S110, S120).
상기 게임 진행 정보의 수신에 응답하여, 렌더링 서버(300)는 제2 방송용 VR 게임 콘텐츠를 상기 제1 방송용 VR 게임 콘텐츠와 동기화하고(S130), 상기 제2 방송용 VR 게임 콘텐츠를 기초로 360도 파노라마 영상을 생성한다(S140).In response to receiving the game progress information, the rendering server 300 synchronizes the second broadcast VR game content with the first broadcast VR game content (S130), and the 360-degree panorama An image is generated (S140).
마지막으로, 상기 생성된 360도 파노라마 영상은 인터넷 방송 플랫폼(700)을 통해 시청자 단말(900)로 스트리밍된다(S150, S160).Finally, the generated 360 degree panorama image is streamed to the viewer terminal 900 through the internet broadcasting platform 700 (S150, S160).
지금까지, 도 14 내지 도 17을 참조하여 본 발명의 제3 실시예에 따른 VR 콘텐츠에 대한 라이브 스트리밍 시스템 및 그 시스템의 동작 방법에 대하여 설명하였다. 이하에서는, 본 발명의 제4 실시예에 따른 VR 콘텐츠에 대한 라이브 스트리밍 시스템에 대하여 설명하도록 한다.Up to now, a live streaming system for VR contents according to the third embodiment of the present invention and a method of operating the system have been described with reference to FIG. 14 to FIG. Hereinafter, a live streaming system for VR content according to a fourth embodiment of the present invention will be described.
본 발명의 제4 실시예에 따른 VR 콘텐츠에 대한 라이브 스트리밍 시스템의 구성은 전술한 제1 내지 제3 실시예에 따른 라이브 스트리밍 시스템과 동일 또는 유사할 수 있다.The configuration of the live streaming system for VR contents according to the fourth embodiment of the present invention may be the same as or similar to the live streaming system according to the first to third embodiments described above.
다만, 상기 제4 실시예에 따른 라이브 스트리밍 시스템에서, 렌더링 서버(300)가, 정확하게는 파노라마 영상 렌더링 모듈(350)이, 기 설정된 간격만큼 이격되어 배치된 복수의 가상 카메라를 이용하여 좌안 파노라마 영상 및 우안 파노라마 영상을 각각 렌더링하도록 동작한다. 본 실시예에 따르면, 하나의 360도 파노라마 영상이 아니라, 좌안 파노라마 영상 및 우안 파노라마 영상이 시청자 단말(900)로 제공되기 때문에, 시청자는 양안 시차를 통해 입체감 있는 파노라마 영상을 감상할 수 있게 된다. 따라서, 방송용 VR 콘텐츠에 대하여 시청자가 느끼는 몰입감, 현실감 및 사실감 등이 크게 향상될 수 있다. 파노라마 영상 렌더링 모듈(350)이 좌안 및 우안 파노라마 영상을 렌더링하는 방법에 대한 자세한 설명은 도 24 내지 도 30을 참조하여 상세하게 설명하도록 한다.However, in the live streaming system according to the fourth embodiment, the rendering server 300 may be configured so that the panorama image rendering module 350 accurately displays the left panorama image 350 using a plurality of virtual cameras arranged at predetermined intervals, And a right-eye panoramic image, respectively. According to the present embodiment, not the one 360 degree panorama image but the left eye panorama image and the right eye panorama image are provided to the viewer terminal 900, so that the viewer can appreciate the stereoscopic panorama image through the binocular parallax. Accordingly, the immersion, realism, realism, and the like that the viewer feels about the VR content for broadcasting can be greatly improved. A detailed description of how the panoramic image rendering module 350 renders the left and right panoramic images will be described in detail with reference to FIGS. 24 to 30. FIG.
또한, 상기 제4 실시예에 따른 라이브 스트리밍 시스템에서, 렌더링 서버(300)는, 정확하게는 파노라마 영상 전송 모듈(390)은, 시청자 단말(900)의 타입에 따라 좌안 파노라마 영상과 우안 파노라마 영상을 병합하여 전송하거나, 각각 전송할 수 있다. 본 실시예에 대한 자세한 설명은 도 31을 참조하여 후술하도록 한다.In the live streaming system according to the fourth embodiment, the rendering server 300 accurately determines whether the panoramic image transmission module 390 merges the left panoramic image and the right panoramic image according to the type of the viewer terminal 900 Or may transmit them, respectively. A detailed description of this embodiment will be given later with reference to Fig.
지금까지, 본 발명의 제4 실시예에 따른 VR 콘텐츠에 대한 라이브 스트리밍 시스템에 대하여 설명하였다. 이하에서는, 도 18을 참조하여 본 발명의 일 실시예에 따른 VR 콘텐츠에 대한 라이브 스트리밍 방법에 대하여 상세하게 설명한다.Up to now, a live streaming system for VR content according to the fourth embodiment of the present invention has been described. Hereinafter, a live streaming method for VR content according to an embodiment of the present invention will be described in detail with reference to FIG.
이하에서 후술될 본 발명의 실시예에 따른 라이브 스트리밍 방법의 각 단계는, 단일 컴퓨팅 장치 및/또는 복수의 컴퓨팅 장치로 구성된 시스템에 의해 수행될 수 있다. 예를 들어, 상기 시스템은 본 발명의 몇몇 실시예에 따른 라이브 스트리밍 시스템일 수 있다. 다만, 설명의 편의를 위해, 상기 라이브 스트리밍 방법에 포함되는 각 단계의 동작 주체는 그 기재가 생략될 수도 있다. 또한, 라이브 스트리밍 방법의 각 단계는 프로세서에 의해 실행되는 컴퓨터 프로그램의 오퍼레이션으로 구현될 수 있다.Each step of the live streaming method according to an embodiment of the present invention to be described below may be performed by a system composed of a single computing device and / or a plurality of computing devices. For example, the system may be a live streaming system according to some embodiments of the present invention. However, for the sake of convenience of description, description of the operation subject of each step included in the live streaming method may be omitted. In addition, each step of the live streaming method may be implemented as an operation of a computer program executed by a processor.
도 18은 본 발명의 일 실시예에 따른 VR 콘텐츠에 대한 라이브 스트리밍 방법의 흐름도다. 단, 이는 본 발명의 목적을 달성하기 위한 바람직한 실시예일뿐이며, 필요에 따라 일부 단계가 추가되거나 삭제될 수 있음은 물론이다18 is a flowchart of a live streaming method for VR content according to an embodiment of the present invention. However, it should be understood that the present invention is not limited to the above-described embodiments, and that various changes and modifications may be made without departing from the scope of the present invention.
도 18를 참조하면, 스트리머 단말(100)에서 실행되는 제1 방송용 VR 게임 콘텐츠에 대한 게임 진행 정보가 실시간으로 수신된다(S200). 예를 들어, 렌더링 서버(300)가 상기 제1 방송용 VR 게임 콘텐츠에 대한 게임 진행 정보를 실시간으로 수신할 수 있다.Referring to FIG. 18, game progress information on the first broadcast VR game content executed in the streamer terminal 100 is received in real time (S200). For example, the rendering server 300 may receive game progress information for the first broadcast VR game content in real time.
다음으로, 상기 게임 진행 정보의 수신에 응답하여, 상기 게임 진행 정보를 이용하여 제2 방송용 VR 게임 콘텐츠와 제1 방송용 VR 게임 콘텐츠가 동기화된다(S220). 예를 들어, 렌더링 서버(300)가 상기 게임 진행 정보를 이용하여 상기 동기화를 수행할 수 있다.Next, in response to receiving the game progress information, the second broadcast VR game content and the first broadcast VR game content are synchronized using the game progress information (S220). For example, the rendering server 300 may perform the synchronization using the game progress information.
다음으로, 동기화된 제2 방송용 VR 게임 콘텐츠를 기초로 360도 파노라마 영상이 렌더링 된다(S240). 예를 들어, 렌더링 서버(300)가 상기 동기화된 제2 방송용 VR 게임 콘텐츠를 기초로 360도 파노라마 영상을 렌더링할 수 있다. 상기 360도 파노라마 영상을 렌더링하는 방법은 전술한 바 이에 대한 설명은 생략하도록 한다.Next, a 360-degree panorama image is rendered based on the synchronized second broadcast VR game content (S240). For example, the rendering server 300 may render a 360-degree panorama image based on the synchronized second broadcast VR game content. The method of rendering the 360-degree panoramic image is as described above, and a description thereof will be omitted.
본 발명의 실시예에 따르면, 렌더링 서버(300)는 동기화된 제2 방송용 VR 게임 콘텐츠를 기초로 좌안 파노라마 영상 및 우안 파노라마 영상을 렌더링할 수 있다. 본 실시예에 대한 자세한 설명은 도 24 내지 도 30을 참조하여 후술하도록 한다.According to the embodiment of the present invention, the rendering server 300 can render the left eye panorama image and the right eye panorama image based on the synchronized second broadcasting VR game contents. A detailed description of this embodiment will be given later with reference to FIG. 24 to FIG.
참고로, 별도의 렌더링 서버(300)에서 360도 파노라마 영상을 렌더링하는 이유는 고용량의 VR 콘텐츠를 실행하는 것 자체가 이미 스트리머 단말(100)에 큰 부담이 되기 때문이다. 다시 말하면, 렌더링 서버(300)를 이용하여 별도의 컴퓨팅 장치에서 360도 파노라마 영상을 렌더링함으로써, 스트리머 단말(100)에 가중되는 부하를 최소화되고 원활한 라이브 스트리밍 서비스가 제공될 수 있다. 또한, 스트리머 단말(100)의 성능 요구사항을 완화되기 때문에, 스트리머의 방송 참여가 유도될 수 있다.For reference, the reason why the rendering server 300 renders the 360-degree panorama image is because the execution of the high-capacity VR content itself is a large burden on the streamer terminal 100 itself. In other words, by rendering a 360-degree panorama image on a separate computing device using the rendering server 300, a load imposed on the streamer terminal 100 can be minimized and a smooth live streaming service can be provided. In addition, because the performance requirements of the streamer terminal 100 are relaxed, the streamer participation of the streamer can be induced.
다음으로, 렌더링 된 360도 파노라마 영상이 시청자 단말(900)로 스트리밍된다(S260). 예를 들어, 방송 관리 서버(500)가 기 구축된 인터넷 방송 플랫폼을 이용하여 상기 렌더링 된 360도 파노라마 영상을 시청자 단말(900)로 스트리밍할 수 있다.Next, the rendered 360 degree panorama image is streamed to the viewer terminal 900 (S260). For example, the broadcast management server 500 may stream the rendered 360-degree panorama image to the viewer terminal 900 using the pre-built Internet broadcast platform.
본 발명의 실시예에 따르면, 좌안 파노라마 영상 및 우안 파노라마 영상이 렌더링되는 경우, 시청자 단말의 타입에 기초하여 좌안 파노라마 영상 및 우안 파노라마 영상이 각각 전송되거나, 병합되어 전송될 수 있다. 본 실시예에 대한 자세한 설명은 도 31을 참조하여 후술하도록 한다.According to the embodiment of the present invention, when the left eye panorama image and the right eye panorama image are rendered, the left eye panorama image and the right eye panorama image may be respectively transmitted or combined based on the viewer terminal type. A detailed description of this embodiment will be given later with reference to Fig.
지금까지, 도 18을 참조하여 본 발명의 실시예에 따른 VR 콘텐츠에 대한 라이브 스트리밍 방법에 대하여 설명하였다. 상술한 방법에 따르면, 스트리머 단말(100)에서 실행 중인 제1 방송용 VR 콘텐츠와 렌더링 서버(300)에서 실행 중인 제2 방송용 VR 콘텐츠 사이에 동기화가 수행된다. 또한, 렌더링 서버(300)에서 상기 제2 방송용 VR 콘텐츠를 기초로 360도 파노라마 영상이 렌더링 되며, 렌더링 된 360도 파노라마 영상이 시청자 단말(900)로 스트리밍될 수 있다. 이에 따라, VR 콘텐츠에 대한 스트리머의 체험이 시청자와 공유될 수 있다.Up to now, a live streaming method for VR content according to an embodiment of the present invention has been described with reference to FIG. According to the above-described method, synchronization is performed between the first broadcast VR content being executed in the streamer terminal 100 and the second broadcast VR content being executed in the rendering server 300. In addition, the 360-degree panorama image is rendered on the basis of the second broadcast VR content in the rendering server 300, and the rendered 360-degree panorama image can be streamed to the viewer terminal 900. Accordingly, the experience of the streamer with respect to the VR content can be shared with the viewer.
이하에서는, 도 19 내지 도 23을 참조하여, 끊김 없는 라이브 스트리밍 서비스를 제공하기 위한 본 발명의 몇몇 실시예에 따른 라이브 스트리밍 방법에 대하여 설명하도록 한다.Hereinafter, a live streaming method according to some embodiments of the present invention for providing a seamless live streaming service will be described with reference to FIGS. 19 to 23. FIG.
VR 콘텐츠는 옴니 뷰(Omni View)를 지원하기 위해 360도 파노라마 영상을 모두 제공하기 때문에, 일반 영상 콘텐츠에 비해 용량이 매우 크고, 상당한 네트워크 대역폭을 요구한다. 따라서, 네트워크 상태가 불안정한 경우 시청자 단말(900)에서 빈번하게 끊김 문제가 발생될 수 있고, 이는 시청자의 몰입감과 흥미를 떨어뜨리는 중요한 요인이 될 수 있다. 이하에서 후술될 몇몇 실시예들은 이와 같은 문제를 해결하기 위한 것으로 이해될 수 있다.Because VR content provides all of the 360 degree panoramic images to support the Omni View, it has a very large capacity and requires significant network bandwidth compared to general video content. Therefore, if the network state is unstable, a problem of frequent interruption may occur in the viewer terminal 900, which may be an important factor that deteriorates the immersion feeling and interest of viewers. It is to be understood that some embodiments to be described below are for solving such a problem.
먼저, 도 19 및 도 20은 본 발명의 제1 실시예에 따른 라이브 스트리밍 방법을 설명하기 위한 도면이다.19 and 20 are diagrams for explaining a live streaming method according to the first embodiment of the present invention.
도 19는 HMD를 착용하고 방송용 VR 콘텐츠에 대한 360도 파노라마 영상을 시청하는 시청자를 도시한다.FIG. 19 shows a viewer wearing an HMD and watching a 360-degree panorama image for broadcast VR content.
도 19를 참조하면, 360도 파노라마 영상의 전체 영역이 시청자 단말(900)의 화면에 디스플레이되는 것이 아니라, 시청자의 시야각(field of view, 111)에 대응되는 부분 파노라마 영상(40)만이 디스플레이되는 것을 확인할 수 있다.19, the entire area of the 360 degree panorama image is not displayed on the screen of the viewer terminal 900, but only the partial panorama image 40 corresponding to the field of view 111 of the viewer is displayed Can be confirmed.
따라서, 상기 제1 실시예에 따르면, 360도 파노라마 영상 전체가 시청자 단말(900)로 스트리밍 되지 않고, 시청자의 시야각에 대응되는 부분 파노라마 영상만이 각 시청자 단말(900)로 스트리밍 된다. 예를 들어, 렌더링 서버(300)가 시청자 단말(900)로부터 시청자의 현재 시점 정보(e.g. 시선 방향) 및 시야각 정보를 수신하면, 상기 현재 시점 정보 및 상기 시야각 정보를 이용하여 부분 파노라마 영상을 추출하고, 상기 추출된 부분 파노라마 영상이 시청자 단말(900)로 스트리밍 되도록 할 수 있다. 또는, 상기와 같은 기능을 방송 관리 서버(500) 또는 별도의 서버가 수행할 수도 있으며, 이는 실시예에 따라 얼마든지 달라질 수 있다.Therefore, according to the first embodiment, only the partial panorama image corresponding to the viewing angle of the viewer is streamed to each viewer terminal 900 without the entire 360-degree panorama image being streamed to the viewer terminal 900. [ For example, when the rendering server 300 receives the viewer's current viewpoint information (gaze direction) and viewing angle information from the viewer terminal 900, the rendering server 300 extracts the partial panorama image using the current viewpoint information and the viewing angle information , And the extracted partial panorama image may be streamed to the viewer terminal 900. Alternatively, the above-described functions may be performed by the broadcast management server 500 or a separate server, which may vary depending on the embodiment.
도 20은 상기 제1 실시예에 따라 시청자의 현재 시점 정보 및 시야각 정보를 토대로 부분 파노라마 영상(121 내지 125)이 각 시청자 단말로 스트리밍 되는 예를 도시하고 있다. 도 20에서는 시청자의 시야각에 정확하게 대응되는 부분 파노라마 영상이 추출되고 스트리밍 되는 것으로 도시되어 있으나, 시청자의 시점 변경을 고려하여 시청자의 시야각보다 더 넓은 영역의 부분 파노라마 영상이 스트리밍될 수도 있다. 이에 대한 자세한 설명은 도 23을 참조하여 후술하도록 한다.20 shows an example in which the partial panoramic images 121 to 125 are streamed to each viewer terminal based on the current viewpoint information and the viewing angle information of the viewer according to the first embodiment. In FIG. 20, a partial panorama image accurately corresponding to a viewing angle of a viewer is extracted and streamed. However, a partial panorama image having a wider area than a viewer's viewing angle may be streamed considering a viewpoint change of the viewer. A detailed description thereof will be given later with reference to FIG.
지금까지, 도 19 및 도 20을 참조하여 본 발명의 제1 실시예에 따른 라이브 스트리밍 방법에 대하여 설명하였다. 다음으로, 도 21 및 도 22를 참조하여 본 발명의 제2 실시예에 따른 라이브 스트리밍 방법에 대하여 설명하도록 한다.Up to now, a live streaming method according to the first embodiment of the present invention has been described with reference to FIGS. 19 and 20. FIG. Next, a live streaming method according to the second embodiment of the present invention will be described with reference to FIGS. 21 and 22. FIG.
상기 제2 실시예에 따르면, 서로 다른 화질로 인코딩된 부분 파노라마 영상이 시청자 단말(900)로 스트리밍될 수 있다.According to the second embodiment, partial panorama images encoded with different image qualities can be streamed to the viewer terminal 900.
도 21에 도시된 예를 참조하면, 부분 파노라마 영상(60)의 전체 영역 중에서 시청자의 정면 시점에 대응되는 제1 영역(64)의 영상은 제1 화질로 인코딩 되고, 제1 영역(64)이 아닌 제2 영역(61, 65)의 영상은 제2 화질로 인코딩될 수 있다. 이때, 상기 제1 화질은 상기 제2 화질보다 고화질일 수 있다.21, an image of the first region 64 corresponding to the front view point of the viewer among the entire region of the partial panorama image 60 is encoded with the first image quality, and the first region 64 The images of the second regions 61 and 65 may be encoded with the second image quality. At this time, the first image quality may be higher quality than the second image quality.
본 발명의 실시예에 따르면, 인터넷 방송 플랫폼(700)과 시청자 단말(900) 간의 네트워크의 상태에 따라 상기 제1 화질 및 상기 제2 화질은 가변적으로 조정될 수 있다. 예를 들어, 상기 네트워크의 가용 대역폭이 기 설정된 임계 값 이상인 경우 상기 제1 화질 및 상기 제2 화질 중 적어도 하나의 화질은 더 고화질로 인코딩될 수 있다. 이와 반대로, 상기 가용 대역폭이 기 설정된 임계 값 미만인 경우, 상기 제1 화질 및 상기 제2 화질 중 적어도 하나의 화질은 더 저화질로 인코딩될 수 있다.According to the embodiment of the present invention, the first image quality and the second image quality can be variably adjusted according to the state of the network between the Internet broadcasting platform 700 and the viewer terminal 900. [ For example, if the available bandwidth of the network is greater than or equal to a predetermined threshold value, at least one of the first image quality and the second image quality may be encoded with a higher image quality. On the other hand, if the available bandwidth is less than a preset threshold value, the image quality of at least one of the first image quality and the second image quality can be encoded with a lower quality.
본 발명의 실시예에 따르면, 인터넷 방송 플랫폼(700)과 시청자 단말(900) 간의 네트워크의 상태에 따라 고화질로 인코딩 되는 제1 영역(63)과 저화질로 인코딩 되는 제2 영역(61, 65)이 차지하는 비율은 가변적으로 조정될 수 있다. 예를 들어, 상기 네트워크의 가용 대역폭이 기 설정된 임계 값 이상인 경우, 부분 파노라마 영상(60)에서 제1 영역(63)이 차지하는 비율은 증가되고, 제2 영역(61, 65)이 차지하는 비율은 감소될 수 있다. 즉, 가용 대역폭이 증가될수록 제1 영역(63)의 크기가 증가되고, 상대적으로 제2 영역(61, 65)의 크기는 감소될 수 있다.According to an embodiment of the present invention, a first region 63 encoded in high picture quality and a second region 61 and 65 encoded in a low picture quality according to the state of the network between the Internet broadcasting platform 700 and the viewer terminal 900 The proportion occupied can be adjusted variably. For example, when the available bandwidth of the network is greater than a predetermined threshold value, the ratio of the first area 63 in the partial panorama image 60 is increased and the ratio of the second area 61 and 65 is decreased . That is, as the available bandwidth increases, the size of the first area 63 increases and the size of the second area 61 and 65 decreases relatively.
도 22는 도 21에 도시된 시청자가 좌측으로 고개를 회전함에 따라 시청자의 현재 시점이 좌측으로 변경된 경우를 도시하고 있다.FIG. 22 shows a case where the current time of the viewer is changed to the left as the viewer turns his / her head to the left side as shown in FIG.
도 22를 참조하면, 시청자의 현재 시점이 이전 보다 좌측으로 변경됨에 따라, 360도 파노라마 영상 중에서 변경된 시점에 대응되는 부분 파노라마 영상(70)이 스트리밍될 수 있다. 또한, 이전 영상에서 제2 화질로 인코딩된 영역(73a)은 제1 화질로 인코딩이 변경되고, 제1 화질로 인코딩된 영역(75)은 더 이상 시청자의 정면 시점에 대응되지 않는 바 제2 화질로 변경될 수 있다.Referring to FIG. 22, the partial panorama image 70 corresponding to the changed point in the 360-degree panorama image may be streamed as the current point of view of the viewer changes from left to right. In addition, the region 73a encoded in the second image quality in the previous image is changed to the first image quality, the region 75 encoded in the first image quality no longer corresponds to the front viewpoint of the viewer, . ≪ / RTI >
지금까지, 도 21 및 도 22를 참조하여 본 발명의 제2 실시예에 따른 라이브 스트리밍 방법에 대하여 설명하였다. 다음으로, 도 23을 참조하여 본 발명의 제3 실시예에 따른 라이브 스트리밍 방법에 대하여 설명하도록 한다.Up to now, the live streaming method according to the second embodiment of the present invention has been described with reference to FIG. 21 and FIG. Next, a live streaming method according to the third embodiment of the present invention will be described with reference to FIG.
상기 제3 실시예에 따르면, 시청자의 시야각에 대응되는 제1 부분 파노라마 영상과 시야각의 외부인 비가시영역에 위치하고 상기 제1 부분 파노라마 영상과 인접한 곳에 위치한 제2 부분 파노라마 영상이 함께 스트리밍될 수 있다. 즉, 시청자의 시점이 변경되더라도 끊김 없는 스트리밍이 이루질 수 있도록 미리 예측된 부분 파노라마 영상이 전송될 수 있다.According to the third embodiment, the first partial panorama image corresponding to the viewing angle of the viewer and the second partial panorama image positioned in the invisible region outside the viewing angle and located adjacent to the first partial panorama image can be streamed together. That is, even if the viewer's viewpoint is changed, the predicted partial panorama image can be transmitted so that continuous streaming can be performed.
도 23에 도시된 예를 참조하여 부연 설명하면, 상기 제3 실시예에 따른 부분 파노라마 영상(80)은 시청자의 시야각에 대응되는 제1 부분 파노라마 영상(83 내지 87)과 비가시영역에 위치한 제2 부분 파노라마 영상(81, 89)을 포함할 수 있다. 도 23에서, 제2 부분 파노라마 영상(81, 89)이 제1 부분 파노라마 영상(83 내지 87)의 좌측 및 우측에 인접한 것으로 예시되었으나, 제2 부분 파노라마 영상은 제1 부분 파노라마 영상의 위쪽 및/또는 아래쪽에 위치한 영상일 수도 있음은 물론이다.23, the partial panorama image 80 according to the third embodiment includes the first partial panorama images 83 to 87 corresponding to the viewing angle of the viewer and the first partial panorama images 83 to 87 located in the non- And two-part panoramic images 81 and 89. [ 23, it is exemplified that the second partial panorama images 81 and 89 are adjacent to the left and right sides of the first partial panorama images 83 to 87. However, the second partial panorama image may be located above and / Or may be an image located at the lower side.
본 발명의 실시예에 따르면, 제2 부분 파노라마 영상(81, 89)은 제1 부분 파노라마 영상(83 내지 87)보다 같거나 낮은 화질로 인코딩된 영상일 수 있다. 예를 들어, 도 23에 도시된 바와 같이, 제1 부분 파노라마 영상 중 제1 영역(85)은 제1 화질로 인코딩 되고, 제2 영역(83, 87)은 상기 제1 화질보다 낮은 제2 화질로 인코딩된 경우, 제2 부분 파노라마 영상(81, 89)은 상기 제2 화질 또는 상기 제2 화질보다 낮은 제3 화질로 인코딩된 영상일 수 있다.According to the embodiment of the present invention, the second partial panorama images 81 and 89 may be images encoded with the same or lower image quality than the first partial panorama images 83 to 87. 23, the first area 85 of the first partial panorama image is encoded with the first image quality, and the second area 83, 87 is encoded with the second image quality lower than the first image quality, for example, The second partial panorama images 81 and 89 may be the second image quality or the image encoded with the third image quality lower than the second image quality.
본 발명의 실시예에 따르면, 인터넷 방송 플랫폼(700)과 시청자 단말(900) 간의 네트워크의 상태에 따라 제2 부분 파노라마 영상의 크기 및 화질은 가변적으로 조정될 수 있다. 예를 들어, 상기 네트워크의 가용 대역폭이 기 설정된 임계 값 이상인 경우, 제2 부분 파노라마 영상(81, 89)의 크기는 더 커질 수 있다. 또는, 상기 네트워크의 가용 대역폭이 기 설정된 임계 값 이상인 경우, 제2 부분 파노라마 영상(81, 89)은 더 고화질로 인코딩될 수 있다.According to the embodiment of the present invention, the size and image quality of the second partial panorama image can be variably adjusted according to the state of the network between the Internet broadcasting platform 700 and the viewer terminal 900. For example, if the available bandwidth of the network is greater than or equal to a predetermined threshold value, the size of the second partial panorama images 81 and 89 may be larger. Alternatively, if the available bandwidth of the network is greater than or equal to a predetermined threshold value, the second partial panorama image 81, 89 may be encoded with higher image quality.
지금까지, 도 19 내지 도 23을 참조하여 본 발명의 제1 내지 제3 실시예에 따른 라이브 스트리밍 방법에 대하여 설명하였다. 상술한 방법에 따르면, 일부 파노라마 영상만이 스트리밍 되거나 화질이 조정됨으로써, 네트워크의 대역폭이 절약되고 끊김 없는 라이브 스트리밍 서비스가 제공될 수 있다.Up to now, a live streaming method according to the first to third embodiments of the present invention has been described with reference to FIGS. 19 to 23. FIG. According to the above-described method, only some of the panoramic images are streamed or the image quality is adjusted, thereby saving bandwidth of the network and providing seamless live streaming service.
이하에서는, 도 24 내지 도 610을 참조하여 본 발명의 제4 실시예에 따른 라이브 스트리밍 방법에 대하여 설명하도록 한다.Hereinafter, a live streaming method according to a fourth embodiment of the present invention will be described with reference to FIG. 24 to FIG.
상기 제4 실시예에 따른 라이브 스트리밍 방법은 좌안 파노라마 영상 및 우안 파노라마 영상 기반의 라이브 스트리밍 서비스를 제공한다. 먼저, 상기 제4 실시예에 따른 라이브 스트리밍 방법에서, 좌안 및 우안 파노라마 영상을 렌더링 하는 과정에 대하여 도 24 및 도 25를 참조하여 설명하도록 한다.The live streaming method according to the fourth embodiment provides a live streaming service based on a left eye panorama image and a right eye panorama image. First, the process of rendering the left and right panoramic images in the live streaming method according to the fourth embodiment will be described with reference to FIGS. 24 and 25. FIG.
도 24는 상기 제4 실시예에 따른 라이브 스트리밍 방법에서 좌안 및 우안 파노라마 영상을 렌더링하는 과정을 나타내는 흐름도이다.24 is a flowchart illustrating a process of rendering left and right panoramic images in the live streaming method according to the fourth embodiment.
도 24을 참조하면, 렌더링 서버(300)는 실행 중인 제2 방송용 VR 게임 콘텐츠 상에 구축된 가상 공간에 기 설정된 간격만큼 이격하여 제1 가상 카메라 및 제2 가상 카메라를 배치한다(S242, S244). 여기서, 상기 기 설정된 간격은 양안 시차가 발생될 수 있도록 적절하게 설정된 값일 수 있다.Referring to FIG. 24, the rendering server 300 disposes the first virtual camera and the second virtual camera in a virtual space constructed on the second broadcast VR game content by a predetermined interval (S242, S244) . Here, the predetermined interval may be an appropriately set value so that the binocular disparity can be generated.
다음으로, 렌더링 서버(300)는 상기 제1 가상 카메라에 의해 촬영된 영상을 기초로 좌안 파노라마 영상을 렌더링하고, 상기 제2 가상 카메라에 의해 촬영된 영상을 기초로 우안 파노라마 영상을 렌더링한다(S246, S248).Next, the rendering server 300 renders the left eye panorama image based on the image photographed by the first virtual camera, and renders the right eye panorama image based on the image photographed by the second virtual camera (S246 , S248).
렌더링 된 좌안 파노라마 영상 및 우안 파노라마 영상은 시청자 단말(900)로 각각 스트리밍될 수 있다. 예를 들어, 도 25에 도시된 바와 같이, 가상 공간 상에 이격되어 배치된 2개의 가상 카메라(91, 93)를 기초로 생성된 좌안 파노라마 영상(97) 및 우안 파노라마 영상(95)이 스트리밍 되면, 좌안 파노라마 영상(97) 및 우안 파노라마 영상(95)이 시청자의 HMD의 좌우 디스플레이에 각각 출력되게 된다. 이에 따라, 시청자는 입체감 있는 게임 영상을 감상할 수 있게 되기 때문에, 스트리밍 방송에 대한 몰입감 및 현실감이 크게 향상될 수 있다.The rendered left eye panorama image and the right eye panorama image can be respectively streamed to the viewer terminal 900. For example, as shown in Fig. 25, when the left panoramic image 97 and the right panoramic image 95 generated based on the two virtual cameras 91 and 93 placed on the virtual space are streamed The left panoramic image 97 and the right panoramic image 95 are output to the left and right displays of the HMD of the viewer, respectively. Accordingly, the viewer can appreciate the three-dimensional game image, so that the feeling of immersion and realism of the streaming broadcast can be greatly improved.
이하에서는, 도 26 내지 도 29를 참조하여 본 발명의 몇몇 실시예에서 시청자의 몰입감을 보다 향상시키기 위해 가상 카메라의 시점을 조정하는 방법에 대하여 설명하도록 한다.Hereinafter, with reference to FIGS. 26 to 29, a method of adjusting the viewpoint of the virtual camera to improve the immersion feeling of the viewer in some embodiments of the present invention will be described.
도 26을 참조하면, 좌안 파노라마 영상과 우안 파노라마 영상을 각각 촬영하는 제1 및 제2 가상 카메라(103a, 103b)는 전술한 바와 같이 스트리머(1)에 의해 제어되는 가상 객체(101)에 인접하여 배치될 수 있다. 여기서, 제1 및 제2 가상 카메라(103a, 103b)의 시점이 만나는 점이 수렴점(convergence point)이 되고, 제1 및 제2 가상 카메라(103a, 103b)의 시점이 이루는 각도가 수렴각(convergence angle)이 된다.Referring to FIG. 26, the first and second virtual cameras 103a and 103b, which respectively photograph the left eye panorama image and the right eye panorama image, are adjacent to the virtual object 101 controlled by the streamer 1 as described above . The point at which the viewpoints of the first and second virtual cameras 103a and 103b meet becomes a convergence point and the angle formed by the viewpoints of the first and second virtual cameras 103a and 103b is convergence angle.
본 발명의 실시예에 따르면, 상기 수렴점은 기본적으로 스트리머(1)의 시점과 일치할 수 있다. 이에 따라, 방송용 VR 게임 콘텐츠를 시청하는 시청자는 스트리머(1)의 시점으로 렌더링 된 파노라마 영상을 감상할 수 있게 되기 때문에, 직접 게임을 플레이하는 것과 같은 체험을 할 수 있는 것이다.According to the embodiment of the present invention, the convergence point may basically coincide with the timing of the streamer 1. Accordingly, the viewer who watches the VR game content for broadcasting can enjoy the panorama image rendered at the viewpoint of the streamer 1, and thus can experience the same experience as playing the game directly.
한편, 도 27에 도시된 바와 같이, 스트리머(1)가 방송용 VR 게임 콘텐츠를 진행하는 도중에 스트리머(1)에 의해 제어되는 제1 가상 객체(111)로부터 기 설정된 거리 이내에 제2 가상 객체(115)가 나타나는 경우가 빈번하게 발생할 수 있다. 제2 가상 객체(115)는 예를 들어 NPC(non-player character)와 같이 스트리머(1)에 의해 제어되지 않는 가상 객체일 수 있으나, 이에 한정되는 것은 아니다.On the other hand, as shown in FIG. 27, when the streamer 1 is within the predetermined distance from the first virtual object 111 controlled by the streamer 1 during the progress of the broadcast VR game contents, 115) may appear frequently. The second virtual object 115 may be, but is not limited to, a virtual object that is not controlled by the streamer 1, such as a non-player character (NPC).
본 발명의 실시예에 따르면, 도 27에 도시된 바와 같이 제2 가상 객체 나타난 경우, 제2 가상 객체(115)를 수렴점으로 하여, 제1 가상 객체(111)에 인접하여 배치된 제1 및 제2 가상 카메라(113a, 113b)의 시점이 조정될 수 있다. 예를 들어, 도 28에 도시된 바와 같이, 본래 제1 및 제2 가상 카메라가 이루는 수렴각이 "수렴각 A"였다면, 제2 가상 객체(115)를 수렴점으로 하여 제1 및 제2 가상 카메라(113a, 113b)의 시점이 조정되어 수렴각이 "수렴각 B"로 변경될 수 있다.According to the embodiment of the present invention, when a second virtual object is displayed as shown in FIG. 27, the second virtual object 115 is a convergence point, and the first and second virtual objects 111, The viewpoints of the second virtual cameras 113a and 113b can be adjusted. For example, as shown in FIG. 28, if the convergence angle of the first and second virtual cameras is originally the " convergence angle A ", the second virtual object 115 is used as a convergence point, The viewpoints of the cameras 113a and 113b are adjusted so that the convergence angle can be changed to the " convergence angle B ".
본 발명의 실시예에 따르면, 제1 및 제2 가상 카메라(113a, 113b)의 시점은 제1 가상 객체(111)와 제2 가상 객체(115) 사이의 거리에 기초하여 조정될 수 있다. 예를 들어, 도 29에 도시된 바와 같이, 제1 가상 객체(111)와 제2 가상 객체(115) 사이의 거리가 "거리 B"에서 "거리 C"로 가까워진 경우, 제1 및 제2 가상 카메라(113a, 113b)가 이루는 수렴각은 "수렴각 C"로 더 커질 수 있다.According to the embodiment of the present invention, the viewpoints of the first and second virtual cameras 113a and 113b can be adjusted based on the distance between the first virtual object 111 and the second virtual object 115. [ 29, when the distance between the first virtual object 111 and the second virtual object 115 approaches from "distance B" to "distance C", the first and second virtual objects 111, The convergence angle formed by the cameras 113a and 113b can be made larger to the " convergence angle C ".
상술한 실시예에 따르면, 방송용 VR 게임 콘텐츠 플레이 도중에 스트리머(1)에 의해 제어되는 제1 가상 객체에 접근하는 제2 가상 객체가 나타나는 경우, 자동으로 상기 제2 가상 객체를 중심으로 렌더링 된 파노라마 영상이 시청자에게 제공될 수 있기 때문에, 방송용 VR 콘텐츠를 시청하는 시청자의 몰입감이 더욱 향상될 수 있다.According to the embodiment described above, when a second virtual object approaching the first virtual object controlled by the streamer 1 appears during the reproduction of the broadcast VR game content, the panorama rendered automatically centering on the second virtual object Since the video can be provided to the viewer, the immersion feeling of the viewer watching the broadcast VR content can be further improved.
도 30은 제1 가상 객체(121)로부터 기 설정된 거리 이내에 복수의 가상 객체(123, 125)가 나타난 경우를 도시하고 있다. 특히, 도 30에는 설명의 편의를 위해 2명의 가상 객체인 제2 가상 객체(123) 및 제3 가상 객체(125)가 나타난 경우가 예로써 도시되었다.FIG. 30 shows a case where a plurality of virtual objects 123 and 125 appear within a predetermined distance from the first virtual object 121. FIG. In particular, FIG. 30 shows an example in which a second virtual object 123 and a third virtual object 125, which are two virtual objects, are shown for convenience of explanation.
일 실시예에서, 제2 가상 객체(123) 및 제3 가상 객체(125) 중 어느 하나의 가상 객체를 수렴점으로 이용하여 제1 및 제2 가상 카메라의 시점이 조정될 수 있다. 예를 들어, 제1 가상 객체(121)와 각각의 가상 객체(123, 125) 사이의 거리에 기초하여, 보다 가까운 거리에 위치한 가상 객체(125)가 수렴점이 되도록 제1 및 제2 가상 카메라의 시점이 조정될 수 있다. 다른 예를 들어, 방송용 VR 게임 콘텐츠 상에서의 두 가상 객체의 상대적 중요도에 기초하여, 어느 하나의 가상 객체가 수렴점으로 결정될 수 있다. 보다 자세한 예를 들면, 제2 가상 객체(123)는 일반 가상 객체이고, 제3 가상 객체(125)는 중요 가상 객체(e.g. 보스, 시나리오 상의 중요 NPC 등)인 경우, 제3 가상 객체(125)를 수렴점으로 하여 제1 및 제2 가상 카메라의 시점이 조정될 수 있다.In one embodiment, the viewpoints of the first and second virtual cameras can be adjusted using a virtual object of either the second virtual object 123 or the third virtual object 125 as a convergence point. For example, based on the distance between the first virtual object 121 and each of the virtual objects 123, 125, the virtual object 125 located at a closer distance may be the convergence point of the first and second virtual cameras 125, The viewpoint can be adjusted. In another example, based on the relative importance of two virtual objects on the broadcast VR game content, any one virtual object can be determined as the convergence point. For example, if the second virtual object 123 is a generic virtual object and the third virtual object 125 is an important virtual object (eg, a boss, an important NPC on a scenario, etc.) The viewpoints of the first and second virtual cameras can be adjusted.
일 실시예에서, 제2 가상 객체(123)의 위치 좌표와 제3 가상 객체(125)의 위치 좌표의 평균 좌표를 수렴점으로 이용하여 제1 및 제2 가상 카메라의 시점이 조정될 수 있다. 본 실시예에 따르면, 제2 및 제3 가상 객체(123, 125)가 모두 포함된 파노라마 영상이 렌더링 되어 시청자에게 제공될 수 있다.In one embodiment, the viewpoints of the first and second virtual cameras may be adjusted using the average coordinates of the position coordinates of the second virtual object 123 and the position coordinates of the third virtual object 125 as convergence points. According to the present embodiment, the panorama image including both the second and third virtual objects 123 and 125 can be rendered and provided to the viewer.
한편, 본 발명의 실시예에 따르면, 방송용 VR 게임 콘텐츠에 등장하는 전체 가상 객체 중 일부의 가상 객체에만 반응하여 제1 및 제2 가상 카메라의 시점이 조정될 수도 있다. 예를 들어, 상기 방송용 VR 게임 콘텐츠 상에서 기 지정된 가상 객체(e.g. 보스, 시나리오 상의 중요 NPC와 같이 중요도가 높은 가상 객체)가 등장한 경우에 한하여, 제1 및 제2 가상 카메라의 시점이 조정되도록 구현될 수도 있다.Meanwhile, according to the embodiment of the present invention, the viewpoints of the first and second virtual cameras may be adjusted in response to only some virtual objects of all the virtual objects appearing in the VR game content for broadcasting. For example, the viewpoints of the first and second virtual cameras are adjusted so that only when a virtual object (eg, a boss, a virtual object having a high level of importance such as an important NPC in a scenario) appears in the VR game content for broadcasting It is possible.
지금까지, 도 26 내지 도 30을 참조하여 본 발명의 실시예에 따른 가상 카메라의 시점 조정 방법에 대하여 설명하였다. 상술한 방법에 따르면, 시청자의 몰입감을 더욱 향상될 수 있다.Up to now, a method of adjusting a viewpoint of a virtual camera according to an embodiment of the present invention has been described with reference to FIG. 26 to FIG. According to the above-described method, the immersion feeling of the viewer can be further improved.
이하에서는, 도 31을 참조하여 좌안 및 우안 파노라마 영상의 스트리밍 되는 과정에 대하여 설명하도록 한다.Hereinafter, the process of streaming the left and right panoramic images will be described with reference to FIG.
도 31은 상기 제4 실시예에 따른 라이브 스트리밍 방법에서 좌안 및 우안 파노라마 영상을 스트리밍하는 과정을 설명하기 위한 흐름도이다.31 is a flowchart illustrating a process of streaming left and right panoramic images in the live streaming method according to the fourth embodiment.
도 31을 참조하면, 시청자 단말(900)이 기 설정된 타입에 해당되지 않는 경우, 좌안 파노라마 영상과 우안 파노라마 영상을 병합하고, 병합된 파노라마 영상이 스트리밍될 수 있다(S262, S264, S268). 예를 들어, 시청자 단말(900)이 좌우 파노라마 영상을 각각 디스플레이 하는 모듈이 탑재되지 않은 단말인 경우, 병합된 파노라마 영상이 스트리밍될 수 있다. 여기서, 두 파노라마 영상의 병합은 좌우로 수행될 수도 있고, 위아래 수행될 수도 있으며, 어떠한 방식으로 병합되더라도 무방하다.Referring to FIG. 31, when the viewer terminal 900 does not correspond to a preset type, the left panoramic image and the right panoramic image are merged, and the merged panoramic image can be streamed (S262, S264, S268). For example, if the viewer terminal 900 is a terminal that does not have a module for displaying left and right panorama images, the merged panorama image can be streamed. Here, the merging of the two panoramic images may be performed right and left, up and down, or merged in any manner.
이와 반대로, 시청자 단말(900)이 기 설정된 타입에 해당하는 경우, 좌안 파노라마 영상과 우안 파노라마 영상이 각각 스트리밍될 수 있다(S266).On the other hand, if the viewer terminal 900 corresponds to a preset type, the left panoramic image and the right panoramic image may be streamed (S266).
지금까지, 도 24 내지 도 31을 참조하여 본 발명의 제4 실시예에 따른 라이브 스트리밍 방법에 대하여 설명하였다. 이하에서는, VR 콘텐츠에 대한 라이브 스트리밍 시스템을 구성하는 각종 장치(e.g. 렌더링 서버 300, 방송 관리 서버 500 등)를 구현할 수 있는 예시적인 컴퓨팅 장치(600)에 대하여 설명하도록 한다.Up to now, a live streaming method according to the fourth embodiment of the present invention has been described with reference to FIGS. Hereinafter, an exemplary computing device 600 capable of implementing various devices (e.g., rendering server 300, broadcasting management server 500, and the like) constituting a live streaming system for VR content will be described.
도 32는 상기 예시적인 컴퓨팅 장치(600)의 하드웨어 구성도이다.32 is a hardware block diagram of the exemplary computing device 600 of FIG.
도 32를 참조하면, 컴퓨팅 장치(600)는 하나 이상의 프로세서(610), 버스(650), 네트워크 인터페이스(670), 프로세서(610)에 의하여 수행되는 컴퓨터 프로그램(691)을 로드(load)하는 메모리(630)와 컴퓨터 프로그램(691)을 저장하는 스토리지(690)를 포함할 수 있다. 다만, 도 32에는 본 발명의 실시예와 관련 있는 구성요소들만이 도시되어 있다. 따라서, 본 발명이 속한 기술분야의 통상의 기술자라면 도 32에 도시된 구성요소들 외에 다른 범용적인 구성 요소들이 더 포함될 수 있음을 알 수 있다.32, a computing device 600 includes one or more processors 610, a bus 650, a network interface 670, a memory 630 that loads a computer program 691 performed by the processor 610, And a storage 690 for storing a computer program 691 and a computer program 691. However, only the components related to the embodiment of the present invention are shown in Fig. Therefore, it will be understood by those skilled in the art that other general-purpose components other than the components shown in FIG. 32 may be further included.
프로세서(610)는 컴퓨팅 장치(600)의 각 구성의 전반적인 동작을 제어한다. 프로세서(610)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), GPU(Graphic Processing Unit) 또는 본 발명의 기술 분야에 잘 알려진 임의의 형태의 프로세서를 포함하여 구성될 수 있다. 또한, 프로세서(610)는 본 발명의 실시예들에 따른 방법을 실행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있다. 컴퓨팅 장치(600)는 하나 이상의 프로세서를 구비할 수 있다.The processor 610 controls the overall operation of each configuration of the computing device 600. The processor 610 may comprise a central processing unit (CPU), a microprocessor unit (MPU), a microcontroller unit (MCU), a graphics processing unit (GPU), or any type of processor well known in the art . The processor 610 may also perform operations on at least one application or program to perform the method according to embodiments of the present invention. The computing device 600 may include one or more processors.
메모리(630)는 각종 데이터, 명령 및/또는 정보를 저장한다. 메모리(630)는 본 발명의 몇몇 실시예들에 따른 방법을 실행하기 위하여 스토리지(690)로부터 하나 이상의 프로그램(691)을 로드할 수 있다. 도 32에서 메모리(630)의 예시로 RAM이 도시되었다.The memory 630 stores various data, commands, and / or information. The memory 630 may load one or more programs 691 from the storage 690 to perform the method according to some embodiments of the invention. The RAM is shown as an example of the memory 630 in Fig.
버스(650)는 컴퓨팅 장치(600)의 구성 요소 간 통신 기능을 제공한다. 버스(650)는 주소 버스(Address Bus), 데이터 버스(Data Bus) 및 제어 버스(Control Bus) 등 다양한 형태의 버스로 구현될 수 있다.The bus 650 provides communication functionality between components of the computing device 600. The bus 650 may be implemented as various types of buses such as an address bus, a data bus, and a control bus.
네트워크 인터페이스(670)는 컴퓨팅 장치(600)의 유무선 인터넷 통신을 지원한다. 또한, 네트워크 인터페이스(670)는 인터넷 통신 외의 다양한 통신 방식을 지원할 수도 있다. 이를 위해, 네트워크 인터페이스(670)는 본 발명의 기술 분야에 잘 알려진 통신 모듈을 포함하여 구성될 수 있다.The network interface 670 supports wired and wireless Internet communication of the computing device 600. In addition, the network interface 670 may support various communication methods other than Internet communication. To this end, the network interface 670 may comprise a communication module well known in the art.
스토리지(690)는 상기 하나 이상의 프로그램(691)을 비임시적으로 저장할 수 있다.The storage 690 may store the one or more programs 691 non-temporarily.
스토리지(690)는 ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리 등과 같은 비휘발성 메모리, 하드 디스크, 착탈형 디스크, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체를 포함하여 구성될 수 있다.The storage 690 may be a nonvolatile memory such as a ROM (Read Only Memory), an Erasable Programmable ROM (EPROM), an Electrically Erasable Programmable ROM (EEPROM), a flash memory or the like, a hard disk, a removable disk, And any form of computer-readable recording medium known in the art.
컴퓨터 프로그램(691)은 메모리(630)에 로드되어 프로세서(610)로 하여금 본 발명의 몇몇 실시예들에 따른 방법을 실행하도록 하는 인스트럭션들을 포함할 수 있다.The computer program 691 may be loaded into the memory 630 and include instructions to cause the processor 610 to execute a method in accordance with some embodiments of the present invention.
예를 들어, 컴퓨터 프로그램(691)은 스트리머 단말에서 실행되는 제1 방송용 VR 게임 콘텐츠에 대한 게임 진행 정보를 실시간으로 수신하는 인스트럭션, 상기 게임 진행 정보가 실시간으로 수신됨에 응답하여, 상기 게임 진행 정보를 이용하여 제2 방송용 VR 게임 콘텐츠를 상기 제1 방송용 VR 게임 콘텐츠와 동기화하는 인스트럭션, 상기 동기화된 제2 방송용 VR 게임 콘텐츠를 기초로 360도 파노라마 영상을 렌더링하는 인스트럭션 및 상기 렌더링된 360도 파노라마 영상을 시청자 단말로 스트리밍하는 인스트럭션을 포함할 수 있다.For example, the computer program 691 may include an instruction to receive game progress information for the first broadcast VR game content executed in the streamer terminal in real time, an instruction to play the game progress information in response to the game progress information being received in real- Instructions for synchronizing a second broadcast VR game content with the first broadcast VR game content, instructions for rendering a 360 degree panorama image based on the synchronized second broadcast VR game content, and instructions for rendering the rendered 360 degree panorama image To the viewer terminal.
다른 예를 들어, 컴퓨터 프로그램(691)은 방송용 VR 콘텐츠 상에 구축된 가상 공간에 제1 가상 카메라를 배치하는 인스트럭션, 상기 가상 공간에서 상기 제1 가상 카메라로부터 기 설정된 간격만큼 이격된 위치에 제2 가상 카메라를 배치하는 인스트럭션, 상기 제1 가상 카메라에 의해 촬영된 영상을 기초로 좌안 파노라마 영상을 렌더링하는 인스트럭션, 상기 제2 가상 카메라에 의해 촬영된 영상을 기초로 우안 파노라마 영상에 렌더링하는 인스트럭션 및 상기 좌안 파노라마 영상 및 상기 우안 파노라마 영상 각각을 시청자 단말로 스트리밍하는 인스트럭션을 포함할 수 있다.In another example, the computer program 691 may include instructions for placing a first virtual camera in a virtual space built on broadcast VR content, instructions for placing a second virtual camera at a location spaced a predetermined distance from the first virtual camera in the virtual space, An instruction to render a left eye panorama image based on the image photographed by the first virtual camera; an instruction to render the right eye panorama image on the basis of the image photographed by the second virtual camera; And an instruction to stream each of the left eye panorama image and the right eye panorama image to the viewer terminal.
또 다른 예를 들어, 컴퓨터 프로그램(691)은 방송용 VR 콘텐츠에 대한 스트리밍 방송을 진행하는 스트리머 단말로부터 상기 방송용 VR 콘텐츠에 대한 스트리밍 요청을 수신하는 인스트럭션 및 상기 스트리밍 요청에 응답하여, 기 구축된 인터넷 방송 플랫폼을 이용하여, 상기 방송용 VR 콘텐츠에 대한 360도 파노라마 영상을 시청자 단말로 스트리밍하는 인스트럭션을 포함할 수 있다.In another example, the computer program 691 may include an instruction to receive a streaming request for the VR content for broadcasting from a streamer terminal for streaming broadcasting for the VR content for broadcasting, And an instruction to stream 360-degree panoramic images of the VR content for broadcasting to a viewer terminal using the broadcasting platform.
지금까지 도 1 내지 도 32를 참조하여 설명된 본 발명의 개념은 컴퓨터가 읽을 수 있는 매체 상에 컴퓨터가 읽을 수 있는 코드로 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체는, 예를 들어 이동형 기록 매체(CD, DVD, 블루레이 디스크, USB 저장 장치, 이동식 하드 디스크)이거나, 고정식 기록 매체(ROM, RAM, 컴퓨터 구비 형 하드 디스크)일 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체에 기록된 상기 컴퓨터 프로그램은 인터넷 등의 네트워크를 통하여 다른 컴퓨팅 장치에 전송되어 상기 다른 컴퓨팅 장치에 설치될 수 있고, 이로써 상기 다른 컴퓨팅 장치에서 사용될 수 있다.The concepts of the invention described above with reference to Figures 1 to 32 can be implemented in computer readable code on a computer readable medium. The computer readable recording medium may be, for example, a removable recording medium (CD, DVD, Blu-ray disk, USB storage device, removable hard disk) . The computer program recorded on the computer-readable recording medium may be transmitted to another computing device via a network such as the Internet and installed in the other computing device, thereby being used in the other computing device.
도면에서 동작들이 특정한 순서로 도시되어 있지만, 반드시 동작들이 도시된 특정한 순서로 또는 순차적 순서로 실행되어야만 하거나 또는 모든 도시 된 동작들이 실행되어야만 원하는 결과를 얻을 수 있는 것으로 이해되어서는 안 된다. 특정 상황에서는, 멀티태스킹 및 병렬 처리가 유리할 수도 있다. 더욱이, 위에 설명한 실시예들에서 다양한 구성들의 분리는 그러한 분리가 반드시 필요한 것으로 이해되어서는 안 되고, 설명된 프로그램 컴포넌트들 및 시스템들은 일반적으로 단일 소프트웨어 제품으로 함께 통합되거나 다수의 소프트웨어 제품으로 패키지 될 수 있음을 이해하여야 한다.Although the operations are shown in the specific order in the figures, it should be understood that the operations need not necessarily be performed in the particular order shown or in a sequential order, or that all of the illustrated operations must be performed to achieve the desired result. In certain situations, multitasking and parallel processing may be advantageous. Moreover, the separation of the various configurations in the above-described embodiments should not be understood as such a separation being necessary, and the described program components and systems may generally be integrated together into a single software product or packaged into multiple software products .
이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, I can understand that. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

Claims (20)

  1. 스트리머 단말에서 실행되는 제1 방송용 VR 게임 콘텐츠와 동일한 제2 방송용 VR 게임 콘텐츠를 실행하고, 상기 스트리머 단말로부터 제공되는 상기 제1 방송용 VR 게임 콘텐츠에 대한 게임 진행 정보를 이용하여, 상기 제2 방송용 VR 게임 콘텐츠를 상기 제1 방송용 VR 게임 콘텐츠와 동기화하며, 상기 동기화된 제2 방송용 VR 게임 콘텐츠를 기초로 360도 파노라마 영상을 렌더링하는 렌더링 서버; 및A second broadcast VR game content that is the same as the first broadcast VR game content executed in the streamer terminal, and that uses the game progress information on the first broadcast VR game content provided from the streamer terminal, A rendering server for synchronizing the broadcast VR game content with the first broadcast VR game content and rendering a 360 degree panorama image based on the synchronized second broadcast VR game content; And
    상기 렌더링된 360도 파노라마 영상이 시청자 단말로 스트리밍되도록 하는 방송 관리 서버를 포함하는 것을 특징으로 하는,And a broadcast management server for allowing the rendered 360 degree panorama image to be streamed to a viewer terminal.
    VR 콘텐츠에 대한 라이브 스트리밍 시스템.Live streaming system for VR content.
  2. 제1 항에 있어서,The method according to claim 1,
    상기 렌더링 서버는,The rendering server,
    상기 제2 방송용 VR 게임 콘텐츠 상에 구축된 가상 공간에서, 가상 객체에 인접하여 위치한 가상 카메라에 의해 촬영된 영상을 이용하여, 상기 360도 파노라마 영상을 렌더링하되,Rendering the 360-degree panoramic image using an image photographed by a virtual camera positioned adjacent to a virtual object in a virtual space built on the second broadcast VR game content,
    상기 가상 객체는,The virtual object includes:
    상기 스트리머의 입력에 따라 제어되는 가상 객체이고,A virtual object controlled according to an input of the streamer,
    상기 가상 카메라는,The virtual camera includes:
    상기 가상 공간에서 상기 가상 객체와 함께 이동되는 것을 특징으로 하는,Wherein the virtual object is moved along with the virtual object in the virtual space.
    VR 콘텐츠에 대한 라이브 스트리밍 시스템.Live streaming system for VR content.
  3. 제1 항에 있어서,The method according to claim 1,
    상기 렌더링 서버는,The rendering server,
    상기 시청자 단말로부터 시청자의 시점 정보 및 시야각 정보가 수신됨에 응답하여, 상기 렌더링된 360도 파노라마 영상 중에서 상기 시점 정보 및 상기 시야각 정보에 대응되는 제1 부분 파노라마 영상을 상기 방송 관리 서버로 전송하는 것을 특징으로 하는,And transmitting a first partial panorama image corresponding to the viewpoint information and the viewing angle information from the rendered 360 degree panorama image to the broadcast management server in response to receipt of viewpoint information and viewing angle information of the viewer from the viewer terminal As a result,
    VR 콘텐츠에 대한 라이브 스트리밍 시스템.Live streaming system for VR content.
  4. 제3 항에 있어서,The method of claim 3,
    상기 렌더링 서버는,The rendering server,
    상기 시청자 단말로부터 상기 시청자의 변경된 시점 정보가 수신됨에 응답하여, 상기 렌더링된 360도 파노라마 영상 중에서 상기 변경된 시점 정보에 대응되는 상기 제1 부분 파노라마 영상을 상기 방송 관리 서버로 전송하는 것을 특징으로 하는,And transmits the first partial panorama image corresponding to the changed viewpoint information among the rendered 360 degree panorama images to the broadcast management server in response to reception of the changed viewpoint information of the viewer from the viewer terminal.
    게임 콘텐츠 스트리밍 시스템.Game content streaming system.
  5. 제3 항에 있어서,The method of claim 3,
    상기 렌더링 서버는,The rendering server,
    상기 제1 부분 파노라마 영상 중 상기 시청자의 정면 시점에 대응되는 제1 영역을 제1 화질로 인코딩하고, 상기 제1 영역이 아닌 제2 영역을 제2 화질로 인코딩하되,A first partial panorama image encoding unit that encodes a first region corresponding to a front view point of the viewer with a first image quality and a second region that is not the first region with a second image quality,
    상기 제1 화질은 상기 제2 화질보다 고화질인 것을 특징으로 하는,Wherein the first image quality is higher quality than the second image quality.
    VR 콘텐츠에 대한 라이브 스트리밍 시스템.Live streaming system for VR content.
  6. 제3 항에 있어서,The method of claim 3,
    상기 렌더링 서버는,The rendering server,
    상기 렌더링된 360도 파노라마 영상에서 상기 제1 부분 파노라마 영상에 인접하고 비가시영역에 위치한 기 설정된 크기의 제2 부분 파노라마 영상을 더 전송하되,Further transmitting a second partial panorama image of a preset size adjacent to the first partial panorama image and located in an invisible region in the rendered 360 degree panorama image,
    상기 제1 부분 파노라마 영상은 제1 화질로 인코딩된 영상이고, 상기 제2 부분 파노라마 영상은 제2 화질로 인코딩된 영상이고,Wherein the first partial panorama image is an image encoded with a first image quality, the second partial panorama image is an image encoded with a second image quality,
    상기 제1 화질은 상기 제2 화질보다 고화질인 것을 특징으로 하는,Wherein the first image quality is higher quality than the second image quality.
    VR 콘텐츠에 대한 라이브 스트리밍 시스템.Live streaming system for VR content.
  7. 제1 항에 있어서,The method according to claim 1,
    상기 렌더링된 360도 파노라마 영상은 제1 360도 파노라마 영상이고,The rendered 360 degree panorama image is a first 360 degree panorama image,
    상기 스트리머 단말은,The streamer terminal,
    상기 제1 방송용 VR 게임 콘텐츠에 대한 캡처 화면을 기초로 렌더링된 제2 360도 파노라마 영상을 생성하되,Generating a second 360 degree panorama image rendered based on a capture screen for the first broadcast VR game content,
    상기 제1 360도 파노라마 영상 및 상기 제2 360도 파노라마 영상 중 어느 하나의 파노라마 영상이 상기 시청자 단말로 스트리밍되는 것을 특징으로 하는,And the panorama image of any one of the first 360 degree panorama image and the second 360 degree panorama image is streamed to the viewer terminal.
    VR 콘텐츠에 대한 라이브 스트리밍 시스템.Live streaming system for VR content.
  8. 제7 항에 있어서,8. The method of claim 7,
    상기 제2 360도 파노라마 영상은,The second 360 degree panorama image is a panorama image,
    상기 제1 방송용 VR 게임 콘텐츠가 상기 스트리머의 입력에 따라 진행 중이지 않은 경우, 상기 시청자 단말로 스트리밍되는 것을 특징으로 하는,When the first broadcast VR game content is not in progress according to an input of the streamer, the stream is streamed to the viewer terminal.
    VR 콘텐츠에 대한 라이브 스트리밍 시스템.Live streaming system for VR content.
  9. 제7 항에 있어서,8. The method of claim 7,
    상기 스트리머 단말은,The streamer terminal,
    상기 캡처 화면의 사이즈를 기 설정된 사이즈로 변환하고, 상기 변환된 캡처 화면을 360도 영상 영역의 중앙에 대응되는 제1 영역에 배치하며, 상기 360도 영상 영역에서 상기 제1 영역이 아닌 제2 영역을 기 설정된 색으로 처리하여 상기 제2 360도 파노라마 영상을 생성하는 것을 특징으로 하는,Wherein the converted capture screen is arranged in a first area corresponding to the center of a 360 degree image area and a second area in the 360 degree image area, which is not the first area, And the second 360 degree panorama image is generated by processing the first 360 degree panorama image with a predetermined color.
    VR 콘텐츠에 대한 라이브 스트리밍 시스템.Live streaming system for VR content.
  10. 스트리머 단말에서 방송용 VR(virtual reality) 콘텐츠에 대한 스트리밍 방송을 진행하는 스트리머에게 웹 페이지 서비스를 제공하는 방송 웹 서버; 및A broadcast web server for providing a web page service to a streamer for streaming broadcast virtual reality (VR) contents at a streamer terminal; And
    상기 스트리머 단말의 스트리밍 요청에 응답하여, 기 구축된 인터넷 방송 플랫폼을 이용하여, 상기 방송용 VR 콘텐츠에 대한 360도 파노라마 영상이 시청자 단말로 스트리밍되도록 하는 방송 관리 서버를 포함하는 것을 특징으로 하는,And a broadcasting management server for broadcasting the 360-degree panoramic image of the VR content for broadcasting to the viewer terminal using the pre-built Internet broadcasting platform in response to the streaming request of the streamer terminal.
    VR 콘텐츠에 대한 라이브 스트리밍 시스템.Live streaming system for VR content.
  11. 제10 항에 있어서,11. The method of claim 10,
    상기 방송용 VR 콘텐츠는 상기 스트리머 단말에서 실행 중인 제1 방송용 VR 게임 콘텐츠이고,Wherein the broadcast VR content is a first broadcast VR game content being executed by the streamer terminal,
    상기 360도 파노라마 영상을 렌더링하는 렌더링 서버를 더 포함하되,And a rendering server for rendering the 360-degree panoramic image,
    상기 렌더링 서버는,The rendering server,
    상기 스트리머 단말로부터 게임 진행 정보가 수신됨에 응답하여, 상기 제1 방송용 VR 게임 콘텐츠와 동일하고 상기 렌더링 서버에서 실행 중인 제2 방송용 VR 게임 콘텐츠를 상기 제1 방송용 VR 게임 콘텐츠와 동기화하는 콘텐츠 동기화 모듈,A content synchronization module for synchronizing a second broadcast VR game content identical to the first broadcast VR game content and being executed in the rendering server with the first broadcast VR game content in response to receiving game progress information from the streamer terminal, ,
    상기 제2 방송용 VR 게임 콘텐츠를 기초로 상기 360도 파노라마 영상을 렌더링하는 파노라마 영상 렌더링 모듈을 포함하는 것을 특징으로 하는,And a panorama image rendering module for rendering the 360-degree panorama image based on the second broadcasting VR game content.
    VR 콘텐츠에 대한 라이브 스트리밍 시스템.Live streaming system for VR content.
  12. 제11 항에 있어서,12. The method of claim 11,
    상기 파노라마 영상 렌더링 모듈은,Wherein the panorama image rendering module comprises:
    상기 제2 방송용 VR 게임 콘텐츠 상에 구축된 가상 공간에서, 가상 객체에 인접하여 배치된 가상 카메라에 의해 촬영된 영상을 이용하여, 상기 360도 파노라마 영상을 렌더링하되,Rendering the 360-degree panoramic image using an image captured by a virtual camera disposed adjacent to a virtual object in a virtual space constructed on the second broadcast VR game content,
    상기 가상 객체는,The virtual object includes:
    상기 스트리머의 입력에 따라 제어되는 가상 객체이고,A virtual object controlled according to an input of the streamer,
    상기 가상 카메라는,The virtual camera includes:
    상기 가상 공간에서 상기 가상 객체와 함께 이동되는 것을 특징으로 하는,Wherein the virtual object is moved along with the virtual object in the virtual space.
    VR 콘텐츠에 대한 라이브 스트리밍 시스템.Live streaming system for VR content.
  13. 제10 항에 있어서,11. The method of claim 10,
    상기 방송 웹 서버는,The broadcast web server includes:
    스트리머 회원에 대한 정보를 관리하는 회원 정보 관리 모듈;A member information management module for managing information on a streamer member;
    상기 스트리머 회원에 대한 정보를 이용하여, 상기 스트리머에 대한 인증을 수행하는 인증 모듈; 및An authentication module for authenticating the streamer using information about the streamer member; And
    상기 스트리머 단말의 방송권 구매 요청에 응답하여, 상기 방송권 구매 요청에 따른 과금 처리를 수행하는 과금 처리 모듈을 포함하되,And a billing module for performing a billing process in response to the request to purchase a broadcast right in response to a request for purchase of a broadcast right of the streamer terminal,
    상기 방송권을 구매하지 않은 스트리머 단말의 스트리밍 요청은 차단되는 것을 특징으로 하는,And the streaming request of the streamer terminal that has not purchased the broadcasting right is blocked.
    VR 콘텐츠에 대한 라이브 스트리밍 시스템.Live streaming system for VR content.
  14. 제10 항에 있어서,11. The method of claim 10,
    상기 스트리머 단말은,The streamer terminal,
    상기 기 구축된 인터넷 방송 플랫폼 중에서 상기 방송용 VR 콘텐츠에 대한 스트리밍 방송을 진행할 적어도 하나의 스트리밍용 인터넷 방송 플랫폼에 대한 선택 입력을 수신하되,Receiving a selection input for at least one streaming Internet broadcasting platform for streaming broadcasting for the broadcasting VR content among the established Internet broadcasting platforms,
    상기 방송 관리 서버는,The broadcast management server includes:
    상기 기 구축된 인터넷 방송 플랫폼과 연동되는 복수의 방송 클라이언트 모듈을 포함하고,And a plurality of broadcast client modules linked with the pre-established Internet broadcast platform,
    상기 선택 입력에 기초하여, 상기 복수의 방송 클라이언트 모듈 중 상기 적어도 하나의 스트리밍용 인터넷 방송 플랫폼과 연동되는 적어도 하나의 방송 클라이언트 모듈을 선정하며,Selecting at least one broadcast client module operable with the at least one internet broadcasting platform for streaming among the plurality of broadcast client modules based on the selection input,
    상기 선정된 적어도 하나의 방송 클라이언트 모듈을 이용하여, 상기 360도 파노라마 영상을 스트리밍되도록 하는 것을 특징으로 하는,And the 360 degree panorama image is streamed using the selected at least one broadcast client module.
    VR 콘텐츠에 대한 라이브 스트리밍 시스템.Live streaming system for VR content.
  15. 방송용 VR 콘텐츠 상에 구축된 가상 공간에 제1 가상 카메라를 배치하고, 상기 제1 가상 카메라로부터 기 설정된 간격만큼 이격된 위치에 제2 가상 카메라를 배치하며, 상기 제1 가상 카메라에 의해 촬영된 영상을 기초로 좌안 파노라마 영상을 렌더링하고, 상기 제2 가상 카메라에 의해 촬영된 영상을 기초로 우안 파노라마 영상에 렌더링하되, 상기 좌안 파노라마 영상 및 상기 우안 파노라마 영상은 360도 파노라마 영상인 것인, 렌더링 서버; 및A first virtual camera is disposed in a virtual space constructed on a broadcast VR content, a second virtual camera is disposed at a position spaced apart from the first virtual camera by a predetermined interval, and a video captured by the first virtual camera Wherein the left panoramic image and the right panoramic image are rendered on a right eye panorama image based on an image photographed by the second virtual camera, wherein the left panoramic image and the right eye panorama image are 360-degree panoramic images, ; And
    상기 좌안 파노라마 영상 및 상기 우안 파노라마 영상 각각이 시청자 단말로 스트리밍되도록 하는 방송 관리 서버를 포함하는 것을 특징으로 하는,And a broadcast management server for allowing each of the left eye panorama image and the right eye panorama image to be streamed to a viewer terminal.
    VR 콘텐츠에 대한 라이브 스트리밍 시스템.Live streaming system for VR content.
  16. 제15 항에 있어서,16. The method of claim 15,
    상기 제1 가상 카메라 및 상기 제2 가상 카메라는,Wherein the first virtual camera and the second virtual camera,
    상기 가상 공간에 존재하는 제1 가상 객체에 인접하여 배치되되,Wherein the first virtual object is located adjacent to the first virtual object existing in the virtual space,
    상기 제1 가상 객체는,Wherein the first virtual object comprises:
    스트리머의 입력에 따라 제어되는 가상 객체이고,It is a virtual object that is controlled according to streamer input.
    상기 제1 가상 카메라 및 상기 제2 가상 카메라는,Wherein the first virtual camera and the second virtual camera,
    상기 가상 공간에서 상기 제1 가상 객체와 함께 이동되는 것을 특징으로 하는,Wherein the first virtual object is moved along with the first virtual object in the virtual space.
    VR 콘텐츠에 대한 라이브 스트리밍 시스템.Live streaming system for VR content.
  17. 제16 항에 있어서,17. The method of claim 16,
    상기 가상 공간에서 상기 제1 가상 객체를 기준으로 기 설정된 거리 이내에 제2 가상 객체가 존재한다는 판정에 응답하여, 상기 제2 가상 객체를 수렴점으로 하여, 상기 제1 가상 카메라 및 상기 제2 가상 카메라의 시점이 조정되되,In response to a determination that a second virtual object exists within a predetermined distance based on the first virtual object in the virtual space, the second virtual object is set as a convergence point, and the first virtual camera and the second virtual camera Is adjusted,
    상기 제1 가상 객체와 상기 제2 가상 객체 사이의 거리가 가까워질수록 상기 제1 가상 카메라 및 상기 제2 가상 카메라의 시점이 이루는 수렴각이 커지는 것을 특징으로 하는,Wherein a convergence angle between the first virtual camera and the second virtual camera increases as the distance between the first virtual object and the second virtual object becomes closer.
    VR 콘텐츠에 대한 라이브 스트리밍 시스템.Live streaming system for VR content.
  18. 제17 항에 있어서,18. The method of claim 17,
    상기 가상 공간에서 상기 제1 가상 객체를 기준으로 기 설정된 거리 이내에 제2 가상 객체 및 제3 가상 객체가 존재하는 경우,When a second virtual object and a third virtual object exist within a predetermined distance based on the first virtual object in the virtual space,
    상기 제2 가상 객체의 위치 좌표와 상기 제3 가상 객체의 위치 좌표의 평균 좌표를 수렴점으로 하여, 상기 제1 가상 카메라 및 상기 제2 가상 카메라의 시점이 조정되는 것을 특징으로 하는,Wherein the viewpoints of the first virtual camera and the second virtual camera are adjusted by using the average coordinates of the position coordinates of the second virtual object and the position coordinates of the third virtual object as convergence points.
    VR 콘텐츠에 대한 라이브 스트리밍 시스템.Live streaming system for VR content.
  19. 제15 항에 있어서,16. The method of claim 15,
    상기 시청자 단말이 기 지정된 타입에 해당하지 않는 경우,If the viewer terminal does not correspond to the pre-designated type,
    상기 렌더링 서버는,The rendering server,
    상기 좌안 파노라마 영상 및 상기 우안 파노라마 영상이 병합된 360도 파노라마 영상을 생성하고,The panorama image, the left panorama image, and the right panorama image,
    상기 방송 관리 서버는,The broadcast management server includes:
    상기 병합된 360도 파노라마 영상이 스트리밍되도록 하는 것을 특징으로 하는,So that the merged 360 degree panorama image is streamed.
    VR 콘텐츠에 대한 라이브 스트리밍 시스템.Live streaming system for VR content.
  20. 제15 항에 있어서,16. The method of claim 15,
    상기 렌더링 서버는,The rendering server,
    상기 시청자 단말로부터 시청자의 시점 정보 및 시야각 정보가 수신됨에 응답하여, 상기 좌안 파노라마 영상 중에서 상기 시점 정보 및 상기 시야각 정보에 대응되는 제1 부분 파노라마 영상을 추출하고, 상기 우안 파노라마 영상 중에서 상기 시점 정보 및 상기 시야각 정보에 대응되는 제2 부분 파노라마 영상을 추출하며,Extracting a first partial panorama image corresponding to the viewpoint information and the viewing angle information from the left panorama image in response to receipt of viewpoint information and viewing angle information of the viewer from the viewer terminal, Extracting a second partial panorama image corresponding to the viewing angle information,
    상기 방송 관리 서버는,The broadcast management server includes:
    상기 제1 부분 파노라마 영상 및 상기 제2 부분 파노라마 영상이 상기 시청자 단말로 스트리밍되도록 하는 것을 특징으로 하는,The first partial panorama image and the second partial panorama image are streamed to the viewer terminal.
    VR 콘텐츠에 대한 라이브 스트리밍 시스템.Live streaming system for VR content.
PCT/KR2017/015062 2017-07-12 2017-12-20 Method and system for live-streaming vr content WO2019013415A1 (en)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR10-2017-0088590 2017-07-12
KR1020170088590A KR101922968B1 (en) 2017-07-12 2017-07-12 Live streaming method for virtual reality contents and system thereof
KR10-2017-0088589 2017-07-12
KR10-2017-0088591 2017-07-12
KR1020170088591A KR101922970B1 (en) 2017-07-12 2017-07-12 Live streaming method for virtual reality contents and system thereof
KR1020170088589A KR101915065B1 (en) 2017-07-12 2017-07-12 Live streaming system for virtual reality contents and operating method thereof

Publications (1)

Publication Number Publication Date
WO2019013415A1 true WO2019013415A1 (en) 2019-01-17

Family

ID=65001995

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/015062 WO2019013415A1 (en) 2017-07-12 2017-12-20 Method and system for live-streaming vr content

Country Status (1)

Country Link
WO (1) WO2019013415A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113440840A (en) * 2021-07-14 2021-09-28 腾讯科技(深圳)有限公司 Interaction method and related device
CN114363652A (en) * 2022-01-04 2022-04-15 阿里巴巴(中国)有限公司 Video live broadcast method, system and computer storage medium
CN114928767A (en) * 2022-05-19 2022-08-19 湖南快乐阳光互动娱乐传媒有限公司 Method for rendering virtual reality VR (virtual reality) glasses visualization and related equipment
CN115103175A (en) * 2022-07-11 2022-09-23 北京字跳网络技术有限公司 Image transmission method, device, equipment and medium
WO2023045973A1 (en) * 2021-09-27 2023-03-30 北京字跳网络技术有限公司 Method and apparatus for performing cloud rendering on live streaming gift, and electronic device and storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005056295A (en) * 2003-08-07 2005-03-03 Iwane Kenkyusho:Kk 360-degree image conversion processing apparatus
KR100970780B1 (en) * 2008-08-25 2010-07-16 주식회사 엑스쿨 System and method for providing moving picture
JP2012230717A (en) * 2010-11-05 2012-11-22 Kunio Goto Image generation method, image generation program, and image projection device
KR101697713B1 (en) * 2016-06-28 2017-01-19 (주)인트라테크 Method and apparatus for generating intelligence panorama VR(virtual reality) contents
JP2017021824A (en) * 2016-09-01 2017-01-26 株式会社コロプラ Head-mounted display control method and head-mounted display control program
JP2017056193A (en) * 2015-09-15 2017-03-23 株式会社スクウェア・エニックス・ホールディングス Remote rendering server comprising broadcaster

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005056295A (en) * 2003-08-07 2005-03-03 Iwane Kenkyusho:Kk 360-degree image conversion processing apparatus
KR100970780B1 (en) * 2008-08-25 2010-07-16 주식회사 엑스쿨 System and method for providing moving picture
JP2012230717A (en) * 2010-11-05 2012-11-22 Kunio Goto Image generation method, image generation program, and image projection device
JP2017056193A (en) * 2015-09-15 2017-03-23 株式会社スクウェア・エニックス・ホールディングス Remote rendering server comprising broadcaster
KR101697713B1 (en) * 2016-06-28 2017-01-19 (주)인트라테크 Method and apparatus for generating intelligence panorama VR(virtual reality) contents
JP2017021824A (en) * 2016-09-01 2017-01-26 株式会社コロプラ Head-mounted display control method and head-mounted display control program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113440840A (en) * 2021-07-14 2021-09-28 腾讯科技(深圳)有限公司 Interaction method and related device
CN113440840B (en) * 2021-07-14 2022-11-11 腾讯科技(深圳)有限公司 Interaction method and related device
WO2023045973A1 (en) * 2021-09-27 2023-03-30 北京字跳网络技术有限公司 Method and apparatus for performing cloud rendering on live streaming gift, and electronic device and storage medium
CN114363652A (en) * 2022-01-04 2022-04-15 阿里巴巴(中国)有限公司 Video live broadcast method, system and computer storage medium
CN114928767A (en) * 2022-05-19 2022-08-19 湖南快乐阳光互动娱乐传媒有限公司 Method for rendering virtual reality VR (virtual reality) glasses visualization and related equipment
CN115103175A (en) * 2022-07-11 2022-09-23 北京字跳网络技术有限公司 Image transmission method, device, equipment and medium
CN115103175B (en) * 2022-07-11 2024-03-01 北京字跳网络技术有限公司 Image transmission method, device, equipment and medium

Similar Documents

Publication Publication Date Title
WO2019013415A1 (en) Method and system for live-streaming vr content
WO2016171363A1 (en) Server, user terminal device, and control method therefor
WO2018052251A1 (en) Method, apparatus, and system for sharing virtual reality viewport
WO2018004239A1 (en) Image decoding method, image encoding method, image decoding device, and image encoding device
WO2018048286A1 (en) Method and apparatus for transmitting and reproducing content in virtual reality system
WO2016114442A1 (en) Method for automatically connecting a short-range communication between two devices and apparatus for the same
WO2017007206A1 (en) Apparatus and method for manufacturing viewer-relation type video
WO2019117569A1 (en) Method and apparatus for managing immersive data
WO2016114607A1 (en) User terminal apparatus, system, and control method thereof
WO2022019719A1 (en) Generation and distribution of immersive media content from streams captured via distributed mobile devices
CN109195003B (en) Interaction method, system, terminal and device for playing game based on live broadcast
WO2021101275A1 (en) Method, system and device for sharing contents
WO2015012632A1 (en) Multi-view video streaming system and method for providing same
WO2015182844A1 (en) Display device, user terminal device, server, and method for controlling same
EP3061254A1 (en) System and method for providing cloud based user interfaces
KR101922968B1 (en) Live streaming method for virtual reality contents and system thereof
KR101915065B1 (en) Live streaming system for virtual reality contents and operating method thereof
WO2022211465A1 (en) Apparatus and method for providing media streaming
EP3036908A1 (en) System and method for providing cloud based user interfaces
WO2016099183A1 (en) Hybrid transmission protocol
WO2023163566A1 (en) Method of transmitting ui display information to proximal clients by local server
WO2022119119A1 (en) Multi-channel media transmission/reception method and system
WO2023149680A1 (en) Electronic device and operation method thereof
WO2023163569A1 (en) Method of transceiving ui display between user devices
WO2017150926A1 (en) Moving image regeneration service method and server

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17917517

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17917517

Country of ref document: EP

Kind code of ref document: A1

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 23/06/2020)

122 Ep: pct application non-entry in european phase

Ref document number: 17917517

Country of ref document: EP

Kind code of ref document: A1