WO2020032434A1 - Method for providing three-dimensional image contents and program - Google Patents

Method for providing three-dimensional image contents and program Download PDF

Info

Publication number
WO2020032434A1
WO2020032434A1 PCT/KR2019/009142 KR2019009142W WO2020032434A1 WO 2020032434 A1 WO2020032434 A1 WO 2020032434A1 KR 2019009142 W KR2019009142 W KR 2019009142W WO 2020032434 A1 WO2020032434 A1 WO 2020032434A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
layers
client
layer
overlay
Prior art date
Application number
PCT/KR2019/009142
Other languages
French (fr)
Korean (ko)
Inventor
김태욱
이하람
정덕영
Original Assignee
클릭트 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 클릭트 주식회사 filed Critical 클릭트 주식회사
Publication of WO2020032434A1 publication Critical patent/WO2020032434A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234327Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into layers, e.g. base layer and one or more enhancement layers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/631Multimode Transmission, e.g. transmitting basic layers and enhancement layers of the content over different transmission paths or transmitting with different error corrections, different keys or with different transmission protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Definitions

  • the present invention relates to a method and a program for providing three-dimensional image content.
  • Contents such as virtual reality, augmented reality, mixed reality, and the like generally provide a user with a three-dimensional virtual world similar to the real world created by a computer, and can be freely manipulated with the virtual world in real time. It is a technology that enables artificial experiences and experiences by providing a means of sensory feedback that provides actual senses in response.
  • a method of coupling a mobile terminal to a device for providing 3D image content, and performing a processing of information for generating a VR image by the mobile terminal, and then delivering the same to a VR device.
  • a device eg, a VR device
  • the mobile terminal which is a computer that performs information processing, and the VR device to be played back are connected by wire, but the mobile terminal can be coupled to the VR device, thereby solving the problem caused by the cable.
  • the mobile terminal has a problem that it is difficult to drive a high-end program compared to a PC, it is difficult to drive a high-end VR game or play a high-resolution VR video.
  • the method of coupling the mobile terminal to the VR device there is a problem that it is difficult to drive a VR program of high specification and high resolution as compared to a PC even in a stand-alone VR device.
  • the problem to be solved by the present invention is to provide a method and program for providing three-dimensional image content.
  • a method of providing 3D image content by a server includes: dividing 3D image data into a plurality of overlay items, and assigning each of the plurality of overlay items to each of the plurality of layers. Generating layer data for each of the layers, and transmitting each layer data to the client through each channel.
  • the dividing into the plurality of overlay items may include dividing the at least one object into the plurality of overlay items based on characteristics of at least one object included in the 3D image data. can do.
  • generating layer data for each of the plurality of layers may include configuring metadata for each of the plurality of overlay items and each layer data including the metadata. It may include the step of generating.
  • the metadata includes location information for each of the plurality of overlay items, the location information, the location where each of the plurality of overlay items should be displayed on the screen of the client Information.
  • the metadata further includes additional information according to the characteristics of at least one object included in each of the plurality of overlay items, the additional information, normal for displaying a control object It may include at least one of a vector, a compression method, a correction state, direction information of the 3D image data, information for representing a 3D object, and information on a specific object that needs to be dynamically synthesized.
  • a method for providing 3D image content by a client includes receiving a plurality of layer data from a server through a plurality of channels, and assigning each of the plurality of layer data to each of the plurality of layers. And generating three-dimensional image data by synthesizing the plurality of layers.
  • the assigning to each of the plurality of layers may include assigning each of the plurality of overlay items included in each of the plurality of layer data to each of the plurality of layers.
  • the generating of the 3D image data may include extracting metadata from the plurality of layer data, and extracting each of the plurality of overlay items from the client based on the metadata. And synthesizing the plurality of layers by allocating the positions to be displayed on the screen.
  • the generating of the 3D image data may further include additional information according to characteristics of at least one object included in each of the plurality of overlay items.
  • the method may further include processing the overlay item based on the additional information included in the metadata.
  • the client when the client generates at least one object included in the 3D image data, generating the at least one object and assigning it to a separate layer, and the separate layer And synthesizing with the plurality of layers to finally generate the 3D image data.
  • a computer program according to an embodiment of the present invention is combined with a computer, which is hardware, and stored in a computer-readable recording medium for executing a method for providing 3D image content performed by the server and the client.
  • the objects constituting the 3D image data may be divided into a plurality of overlay items according to characteristics and transmitted individually through each channel, all layers or all data constituting the 3D image data. There is no need to send all at once. Accordingly, the network load and the video delay can be reduced, thereby providing higher quality 3D video content to the user.
  • the three-dimensional image data is processed into a plurality of layers according to the characteristics of the objects, it is possible to perform the operation by extracting only the layers that need correction or need an immediate response, so that the entire image There is no need to deal with. Therefore, the 3D image data can be effectively processed even by a client having a lower performance than the server.
  • FIG. 1 is a block diagram of a system for transmitting and receiving 3D image content according to an embodiment of the present invention.
  • FIG. 2 is a flowchart illustrating a method of providing 3D image content by the server 100 according to an embodiment of the present invention.
  • FIG. 3 is a diagram illustrating an example of dividing 3D image data into a plurality of overlay items and allocating the corresponding 3D image data to corresponding layers according to an embodiment of the present invention.
  • FIG. 4 is a diagram illustrating an example in which a first overlay item allocated to a first layer is displayed on a screen of a client 200 according to an embodiment of the present invention.
  • FIG. 5 is a flowchart illustrating a method for providing 3D image content by the client 200 according to an exemplary embodiment of the present invention.
  • FIG. 1 is a block diagram of a system for transmitting and receiving 3D image content according to an embodiment of the present invention.
  • a 3D image content transmission and reception system may include a server 100 and a client 200.
  • the server 100 may be a computer device that generates 3D image content.
  • 3D image content may be content that can provide various services using images in a 3D space, for example, virtual reality (VR), augmented reality (AR), mixed reality (Mixed Reality) ; MR) or the like.
  • VR virtual reality
  • AR augmented reality
  • Mixed Reality mixed reality
  • MR mixed reality
  • the server 100 performs information processing therein to generate 3D image content to be provided to the client 200.
  • the server 100 may drive a game program to generate appropriate image data and transmit it to the client 200 through wireless communication.
  • the server 100 generates image data (hereinafter, referred to as 3D image data) corresponding to 3D image content, divides the image data into a plurality of overlay items, and assigns each of the divided overlay items to each layer to make a layer for each layer. You can generate data.
  • the server 100 may transmit layer data for each layer to the client 200 through each channel using wired or wireless communication. A detailed operation process thereof will be described later.
  • the client 200 may be a device that receives and reproduces image data corresponding to 3D image content. That is, the client 200 plays a function of reproducing 3D image data received from the server 100 and providing the same to the user.
  • the client 200 may be a device for playing 3D image content, for example, a VR device, an AR device, or an MR device itself, or a mobile terminal may be coupled to the device.
  • the mobile terminal receives the 3D image data generated from the server 100, and the VR device through a wired cable or short-range wireless communication connected thereto. Can be displayed on the screen.
  • the client 200 may be configured in various forms and reproduce and display 3D image data on a screen.
  • the client 200 may display image data including each image suitable for both eyes on one display unit, and generate the 3D image by the fisheye lens in each eye direction.
  • the client 200 may include two display units that provide an image corresponding to each eye.
  • the client 200 receives a plurality of layer data from the server 100 through a plurality of channels, and allocates each received layer data to each layer.
  • the client 200 may generate three-dimensional image data by synthesizing each layer. A detailed operation process thereof will be described later.
  • the server 100 and the client 200 may be connected through wired or wireless communication.
  • the Wi-Fi method, cellular communication, etc. may be utilized as the wireless communication method.
  • the server 100 is a computer located in a specific space (eg, home, virtual reality experience space, etc.) where the user is located
  • the client 200 may be connected through a wireless AP (eg, Wi-Fi AP). Communication between the server and the server 100 may be performed.
  • the remote server 100 may transmit 3D image data to the client 200 through cellular communication or LAN communication.
  • the client 200 may receive 3D image data from a base station through cellular communication or receive 3D image data from a wireless AP through a WLAN. Through this, if the user possesses the client 200 capable of wireless communication, the user may receive and use 3D image data provided from the server 100 even if the user does not have a location close to the server 100.
  • the image data corresponding to the 3D image content may be composed of a plurality of layers and displayed on the display screen.
  • each layer may be logically configured according to a specific function and vertically overlapped.
  • FIG. 2 is a flowchart illustrating a method of providing 3D image content by the server 100 according to an embodiment of the present invention.
  • the server 100 may divide 3D image data into a plurality of overlay items (S100).
  • the server 100 may divide the 3D image data into a plurality of overlay items based on the characteristics of at least one object included in the 3D image data.
  • the plurality of overlay items may be composed of objects having logically specific functions in the 3D image data, respectively.
  • the server 100 extracts an object (eg, a background image) that is displayed statically from 3D image data, sets it as a first overlay item, and dynamically displays an object (eg, an image in which movement occurs). May be extracted and set as the second overlay item.
  • the server 100 extracts an object (eg, a user interface) that displays graphic or text-based information, sets it as a third overlay item, and displays an object (eg, a crosshair displayed according to the operation of the controller) that displays control information. , Pointer) may be extracted and set as the fourth overlay item.
  • the server 100 dynamically obtains information from the 3D image data, extracts a specific object (eg, a billboard for displaying an advertisement, etc.) to reflect the information on a specific area, and sets the fifth overlay item.
  • a specific object eg, a billboard for displaying an advertisement, etc.
  • the object displayed as the dimensional image may be extracted and set as the sixth overlay item.
  • the server 100 may allocate each of the plurality of overlay items to each of the plurality of layers, and generate layer data for each of the plurality of layers (S110).
  • the server 100 assigns the first to nth overlay items divided according to the characteristics of the objects included in the 3D image data to the first to nth layers corresponding to the first to nth layers, respectively.
  • a first overlay item including an object that is statically displayed in 3D image data may be allocated to the first layer and configured as first layer data.
  • 3 is a diagram illustrating an example of dividing 3D image data into a plurality of overlay items and allocating the corresponding 3D image data to corresponding layers according to an embodiment of the present invention.
  • the server 100 may configure metadata for each of a plurality of overlay items, and generate each layer data including each metadata. That is, the server 100 may configure information necessary for playing on the client 200 side as metadata according to the characteristics of each object included in the first to nth overlay items, and include it in the layer data.
  • the metadata may include location information about each of the plurality of overlay items, and the location information may be location information where each of the plurality of overlay items is to be displayed on the screen of the client 200.
  • FIG. 4 is a diagram illustrating an example in which a first overlay item allocated to a first layer is displayed on a screen of a client 200 according to an embodiment of the present invention.
  • the server 100 may allocate a first overlay item to a first layer, and the first overlay item may include at least one object having a specific function in 3D image data.
  • the first overlay item includes objects corresponding to the user interface (eg, 1-1, 1-2, 1-3, 1-4 objects)
  • each object eg, 1-1) , 1-2, 1-3, 1-4 objects
  • each object may be displayed at a specific position on the screen of the client 200.
  • the server 100 may display each object ( For example, 1-1, 1-2, 1-3, 1-4 objects may configure location information to be displayed on the screen of the client 200 as metadata about a corresponding overlay item (ie, a corresponding layer). .
  • the location information may be displayed as coordinate information.
  • the location information may be displayed as (x, y) coordinates to be positioned on the screen of the client 200.
  • each object may further include z-order information.
  • the metadata may further include additional information according to at least one object property included in the plurality of overlay items.
  • the additional information may include normal vector information for displaying a control object including control information, information for representing an object including a three-dimensional image, a compression method for each overlay item (ie, each layer), a correction method, It may include direction information of the 3D image data, information for representing a specific object that needs to be dynamically synthesized, and the like.
  • the server 100 may allocate the first overlay item to the first layer and display the control object on the screen of the client 200.
  • Layer data for the first layer may be generated by configuring metadata including the normal vector information.
  • the server 100 receives the operation information (including the position information of the controller and the direction indicated by the controller) of the controller controlling the control object from the client 200, and based on the received operation information It may determine a specific point in the 3D image data indicated by and the normal vector for the object present at the specific point. Thereafter, the server 100 may configure the determined specific point and normal vector information as metadata.
  • the server 100 may allocate the second overlay item to the second layer and display the 3D image on the screen of the client 200.
  • the layer data for the second layer may be generated by configuring information, for example, texture information, polygon mesh information, and the like, for improving the three-dimensional effect of the object.
  • the server 100 may allocate the third overlay item to the third layer and display the specific object on the screen of the client 200.
  • the information may be configured as metadata to generate layer data for the third layer.
  • the method includes an object that dynamically obtains information from the 3D image data and reflects the information on a specific area, and includes an object such as a billboard that displays an advertisement in the 3D image data. This may be the case.
  • Such an advertisement board object may generate layer data by including advertisement information in advance in the server 100, but separate from an external device such as an advertisement server in real time when the client 200 receives and plays 3D image data. You can also receive information and dynamically synthesize the object. Therefore, the server 100 may additionally generate location information, a normal vector of the object, information about an external device, and the like, for the overlay item including the object such as an advertisement board and configure the metadata.
  • the server 100 may set different compression methods for a plurality of overlay items, and in this case, the server 100 may generate each layer data by configuring the compression method set for each overlay item as metadata.
  • the server 100 may divide a background object that is statically displayed in the 3D image data and a dynamic object that is dynamically displayed, set each overlay item, allocate the same to each layer, and compress the same by using different compression methods. . Thereafter, the compression method performed on each layer may be configured as metadata to generate layer data for each layer.
  • the server 100 may set different correction methods for a plurality of overlay items, and in this case, the server 100 may generate each layer data by configuring the correction method set for each overlay item as metadata.
  • the server 100 classifies the overlay items that need to be delayed like the background object from the 3D image data and the overlay items that need to be immediately reacted to by the user's movement.
  • Metadata may be configured including information necessary for correction.
  • the server 100 may transmit layer data for each layer to the client 200 through each channel (S120).
  • the server 100 may transmit layer data to the client 200 through wired or wireless communication.
  • the server 100 may transmit first layer data through a wired or wireless communication through a first channel and second layer data through a second channel.
  • FIG. 5 is a flowchart illustrating a method for providing 3D image content by the client 200 according to an exemplary embodiment of the present invention.
  • the client 200 may receive a plurality of layer data from the server 100 through a plurality of channels (S200).
  • the client 200 receives a plurality of layer data from the server 100 through wired or wireless communication, receives first layer data through a first channel, and second layer data through a second channel. Can be received.
  • the client 200 may allocate each of the plurality of layer data to each of the plurality of layers (S210).
  • the client 200 may allocate each of the plurality of overlay items included in each of the plurality of layer data to each of the plurality of layers.
  • the first layer data may be allocated to the first layer, and the first layer item is allocated to the first layer including at least one object having a specific function (that is, the same or similar characteristics).
  • the client 200 may generate 3D image data by synthesizing the plurality of layers (S220).
  • the client 200 extracts metadata from the plurality of layer data, and allocates each of the plurality of overlay items to a position to be displayed on the screen of the client 200 based on the extracted metadata, and then each layer. Can be synthesized.
  • the metadata may include location information about each of the plurality of overlay items.
  • the client 200 obtains location information of at least one object included in the first overlay item from metadata, and allocates at least one object on the first layer based on the obtained location information.
  • the 3D image data may be finally generated by synthesizing the same. Since a detailed process thereof has been described with reference to FIG. 4, the detailed description thereof will be omitted.
  • the metadata may further include additional information according to at least one object property included in the plurality of overlay items.
  • the metadata may include normal vector information for displaying a control object including control information, information for representing an object including a three-dimensional image, a compression scheme for each overlay item (ie, each layer), and correction.
  • the client 200 may generate at least one object included in the 3D image data. For example, this may correspond to a case where the client 200 configures a layer itself without receiving layer data (ie, information on at least one layer) from the server 100.
  • layer data ie, information on at least one layer
  • the client 200 may generate at least one object and assign it to a separate layer, and synthesize the separate layer with the layer information received from the server 100 to finally generate 3D image data.
  • the client 200 may generate at least one object and assign it to a separate layer, and synthesize the separate layer with the layer information received from the server 100 to finally generate 3D image data.
  • it includes an object that needs to react immediately as a user moves (eg, a control object including control information displayed as the user performs an operation through a controller)
  • the client 200 Generates a separate layer displaying control information of the controller and determines a specific point in the 3D image data indicated by the control object and a normal vector of an object present at the specific point based on the controller's motion information. It can be displayed on a separate layer.
  • the client 200 may finally combine 3D image data with another layer and another layer received from the server 100.
  • the client 200 receives only the corresponding overlay item including the changed location information for the specific object from the server 100 to update the 3D image data. It may be.
  • the client 200 may update the 3D image data by receiving only information on the specific layer that needs correction from the server 100.
  • the objects constituting the 3D image data can be divided into a plurality of overlay items according to characteristics and transmitted individually through respective channels, There is no need to transfer a layer or all of the data all at once. Accordingly, the network load and the video delay can be reduced, thereby providing higher quality 3D video content to the user.
  • the three-dimensional image data is processed by separating into a plurality of layers according to the characteristics of the object, only the layer that needs to be corrected or immediately reacts to perform the operation You do not need to process the entire image. Therefore, the 3D image data can be effectively processed even by a client having a lower performance than the server.
  • the steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, in a software module executed by hardware, or by a combination thereof.
  • the software module may be a random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

A method for providing three-dimensional image contents is provided. The method comprises the steps, performed by a server, of: dividing three-dimensional image data into a plurality of overlay items; assigning each of the plurality of overlay items to each of a plurality of layers so as to generate layer data for each of the plurality of layers; and transmitting each piece of layer data to a client through respective channels.

Description

3차원 영상 콘텐츠를 제공하는 방법 및 프로그램Method and program for providing 3D image contents
본 발명은 3차원 영상 콘텐츠를 제공하는 방법 및 프로그램에 관한 것이다.The present invention relates to a method and a program for providing three-dimensional image content.
가상현실(Virtual Reality; VR), 증강현실(Augmented Reality; AR), 혼합현실(Mixed Reality; MR) 등과 같은 3차원 공간상에서 영상을 이용한 다양한 서비스를 제공할 수 있는 콘텐츠가 증가하고 있다.Increasingly, contents that can provide various services using images in a three-dimensional space such as virtual reality (VR), augmented reality (AR), mixed reality (MR), and the like, are increasing.
이러한 가상현실, 증강현실, 혼합현실 등과 같은 콘텐츠는 일반적으로 컴퓨터가 만들어낸 실세계와 유사한 3차원 가상세계를 사용자에게 제공하고, 그 가상세계와 실시간으로 자유롭게 조작할 수 있는 입력수단과 사용자의 조작에 대응하여 실제적인 감각을 제공하는 감각궤환(Sensory feedback) 수단을 제공함로써 인공적인 체험과 경험을 할 수 있도록 해주는 기술이라 할 수 있다.Contents such as virtual reality, augmented reality, mixed reality, and the like generally provide a user with a three-dimensional virtual world similar to the real world created by a computer, and can be freely manipulated with the virtual world in real time. It is a technology that enables artificial experiences and experiences by providing a means of sensory feedback that provides actual senses in response.
한편, 최근에는 이동단말기를 3차원 영상 콘텐츠를 제공하는 장치(예컨대, VR장치)에 결합하고, 이동단말기가 VR 영상을 생성하기 위한 정보처리를 수행한 후 VR장치로 전달하는 방식이 등장하고 있다. 이는 정보처리를 수행하는 컴퓨터인 이동단말기와 재생하는 VR장치가 유선으로 연결되지만, 이동단말기가 VR장치에 결합될 수 있어서 케이블에 의해 발생하는 문제점은 해결될 수 있다. 그러나 이동단말기는 PC에 비해 고사양의 프로그램을 구동하기 어려워서, 고사양의 VR게임을 구동하거나 높은 해상도의 VR영상을 재생하기 어려운 문제가 있다. 또한, 이동단말기를 VR장치에 결합하는 방식뿐만 아니라, 일체형(standarlone) VR장치에서도 PC에 비해서 고사양 및 높은 해상도의 VR 프로그램을 구동하기 어려운 문제점이 있다.Recently, a method of coupling a mobile terminal to a device (eg, a VR device) for providing 3D image content, and performing a processing of information for generating a VR image by the mobile terminal, and then delivering the same to a VR device has emerged. . This is because the mobile terminal, which is a computer that performs information processing, and the VR device to be played back are connected by wire, but the mobile terminal can be coupled to the VR device, thereby solving the problem caused by the cable. However, the mobile terminal has a problem that it is difficult to drive a high-end program compared to a PC, it is difficult to drive a high-end VR game or play a high-resolution VR video. In addition, as well as the method of coupling the mobile terminal to the VR device, there is a problem that it is difficult to drive a VR program of high specification and high resolution as compared to a PC even in a stand-alone VR device.
본 발명이 해결하고자 하는 과제는 3차원 영상 콘텐츠를 제공하는 방법 및 프로그램을 제공하는 것이다.The problem to be solved by the present invention is to provide a method and program for providing three-dimensional image content.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Problems to be solved by the present invention are not limited to the above-mentioned problems, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.
본 발명의 일 실시예에 따른 서버가 3차원 영상 콘텐츠를 제공하는 방법은, 3차원 영상데이터를 복수의 오버레이 항목으로 분할하는 단계, 상기 복수의 오버레이 항목 각각을 복수의 레이어 각각에 할당하여 상기 복수의 레이어 각각에 대한 레이어데이터를 생성하는 단계, 및 상기 각 레이어데이터를 각각의 채널을 통해 클라이언트로 전송하는 단계를 포함한다.According to an embodiment of the present disclosure, a method of providing 3D image content by a server includes: dividing 3D image data into a plurality of overlay items, and assigning each of the plurality of overlay items to each of the plurality of layers. Generating layer data for each of the layers, and transmitting each layer data to the client through each channel.
본 발명의 일 실시예에 있어서, 상기 복수의 오버레이 항목으로 분할하는 단계는, 상기 3차원 영상데이터에 포함된 적어도 하나의 오브젝트의 특성에 기초하여 상기 적어도 하나의 오브젝트를 상기 복수의 오버레이 항목으로 분할할 수 있다.In an embodiment of the present disclosure, the dividing into the plurality of overlay items may include dividing the at least one object into the plurality of overlay items based on characteristics of at least one object included in the 3D image data. can do.
본 발명의 일 실시예에 있어서, 상기 복수의 레이어 각각에 대한 레이어데이터를 생성하는 단계는, 상기 복수의 오버레이 항목 각각에 대한 메타데이터를 구성하는 단계 및 상기 각 메타데이터를 포함하여 상기 각 레이어데이터를 생성하는 단계를 포함할 수 있다.In an embodiment of the present disclosure, generating layer data for each of the plurality of layers may include configuring metadata for each of the plurality of overlay items and each layer data including the metadata. It may include the step of generating.
본 발명의 일 실시예에 있어서, 상기 메타데이터는, 상기 복수의 오버레이 항목 각각에 대한 위치 정보를 포함하며, 상기 위치 정보는, 상기 복수의 오버레이 항목 각각이 상기 클라이언트의 화면상에 표시되어야 하는 위치 정보일 수 있다.In one embodiment of the present invention, the metadata includes location information for each of the plurality of overlay items, the location information, the location where each of the plurality of overlay items should be displayed on the screen of the client Information.
본 발명의 일 실시예에 있어서, 상기 메타데이터는, 상기 복수의 오버레이 항목 각각에 포함된 적어도 하나의 오브젝트의 특성에 따라 추가 정보를 더 포함하되, 상기 추가 정보는, 제어 오브젝트를 표시하기 위한 법선 벡터, 압축 방식, 보정 여부, 상기 3차원 영상데이터의 방향 정보, 3차원 오브젝트를 표현하기 위한 정보, 및 동적으로 합성이 필요한 특정 오브젝트에 대한 정보 중 적어도 하나를 포함할 수 있다.In one embodiment of the present invention, the metadata further includes additional information according to the characteristics of at least one object included in each of the plurality of overlay items, the additional information, normal for displaying a control object It may include at least one of a vector, a compression method, a correction state, direction information of the 3D image data, information for representing a 3D object, and information on a specific object that needs to be dynamically synthesized.
본 발명의 일 실시예에 따른 클라이언트가 3차원 영상 콘텐츠를 제공하는 방법은, 서버로부터 복수의 채널을 통해 복수의 레이어데이터를 수신하는 단계, 상기 복수의 레이어데이터 각각을 복수의 레이어 각각에 할당하는 단계, 및 상기 복수의 레이어를 합성하여 3차원 영상데이터를 생성하는 단계를 포함한다.A method for providing 3D image content by a client according to an embodiment of the present invention includes receiving a plurality of layer data from a server through a plurality of channels, and assigning each of the plurality of layer data to each of the plurality of layers. And generating three-dimensional image data by synthesizing the plurality of layers.
본 발명의 일 실시예에 있어서, 상기 복수의 레이어 각각에 할당하는 단계는, 상기 복수의 레이어데이터 각각에 포함된 복수의 오버레이 항목 각각을 상기 복수의 레이어 각각에 할당할 수 있다.In an embodiment of the present disclosure, the assigning to each of the plurality of layers may include assigning each of the plurality of overlay items included in each of the plurality of layer data to each of the plurality of layers.
본 발명의 일 실시예에 있어서, 상기 3차원 영상데이터를 생성하는 단계는, 상기 복수의 레이어데이터로부터 메타데이터를 추출하는 단계, 및 상기 메타데이터에 기초하여 상기 복수의 오버레이 항목 각각을 상기 클라이언트의 화면상에 표시되어야 하는 위치에 할당하여 상기 복수의 레이어를 합성하는 단계를 포함할 수 있다.The generating of the 3D image data may include extracting metadata from the plurality of layer data, and extracting each of the plurality of overlay items from the client based on the metadata. And synthesizing the plurality of layers by allocating the positions to be displayed on the screen.
본 발명의 일 실시예에 있어서, 상기 3차원 영상데이터를 생성하는 단계는, 상기 메타데이터가 상기 복수의 오버레이 항목 각각에 포함된 적어도 하나의 오브젝트의 특성에 따라 추가 정보를 더 포함하는 경우, 상기 메타데이터에 포함된 추가 정보에 기초하여 해당 오버레이 항목을 처리하는 단계를 더 포함할 수 있다.In an embodiment of the present disclosure, the generating of the 3D image data may further include additional information according to characteristics of at least one object included in each of the plurality of overlay items. The method may further include processing the overlay item based on the additional information included in the metadata.
본 발명의 일 실시예에 있어서, 상기 클라이언트가 상기 3차원 영상데이터에 포함된 적어도 하나의 오브젝트를 생성하는 경우, 상기 적어도 하나의 오브젝트를 생성하여 별도의 레이어에 할당하는 단계, 및 상기 별도의 레이어를 상기 복수의 레이어와 합성하여 상기 3차원 영상데이터를 최종적으로 생성하는 단계를 더 포함할 수 있다.In one embodiment of the present invention, when the client generates at least one object included in the 3D image data, generating the at least one object and assigning it to a separate layer, and the separate layer And synthesizing with the plurality of layers to finally generate the 3D image data.
본 발명의 일 실시예에 따른 컴퓨터프로그램은 하드웨어인 컴퓨터와 결합되어, 상기 서버 및 클라이언트에서 수행되는 3차원 영상 콘텐츠를 제공하는 방법을 실행시키기 위하여 컴퓨터 판독 가능한 기록매체에 저장된다.A computer program according to an embodiment of the present invention is combined with a computer, which is hardware, and stored in a computer-readable recording medium for executing a method for providing 3D image content performed by the server and the client.
본 발명의 실시예에 따르면, 3차원 영상데이터를 구성하는 오브젝트들을 특성에 따라 다수의 오버레이 항목으로 분할하여 각각의 채널을 통해 개별적으로 전송할 수 있으므로, 3차원 영상데이터를 구성하는 모든 레이어 혹은 모든 데이터를 한번에 모두 전송할 필요가 없다. 이에 따라 네트워크 부하를 감소시키고 또한 영상 딜레이를 감소시킬 수 있으므로 사용자에게 보다 고품질의 3차원 영상 콘텐츠를 제공할 수 있다.According to an embodiment of the present invention, since the objects constituting the 3D image data may be divided into a plurality of overlay items according to characteristics and transmitted individually through each channel, all layers or all data constituting the 3D image data. There is no need to send all at once. Accordingly, the network load and the video delay can be reduced, thereby providing higher quality 3D video content to the user.
본 발명의 실시예에 따르면, 3차원 영상데이터를 생성함에 있어서 다양한 메타데이터를 제공할 수 있기 때문에, 각 오버레이 항목에 적합한 레이어를 구성하기 용이하고 각 레이어별로 다양한 방식으로 데이터를 처리할 수 있다.According to an embodiment of the present invention, since various metadata may be provided in generating 3D image data, it is easy to configure a layer suitable for each overlay item, and the data may be processed in various ways for each layer.
본 발명의 실시예에 따르면, 3차원 영상데이터를 오브젝트들의 특성에 따라 복수의 레이어로 분리하여 처리하기 때문에, 보정이 필요하거나 즉각적으로 반응이 필요한 레이어만 추출하여 해당 작업을 수행할 수 있어서 전체 영상에 대해 처리할 필요가 없다. 따라서, 서버에 비해 성능이 낮은 클라이언트에서도 효과적으로 3차원 영상데이터를 처리할 수 있다.According to an embodiment of the present invention, since the three-dimensional image data is processed into a plurality of layers according to the characteristics of the objects, it is possible to perform the operation by extracting only the layers that need correction or need an immediate response, so that the entire image There is no need to deal with. Therefore, the 3D image data can be effectively processed even by a client having a lower performance than the server.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.
도 1은 본 발명의 일 실시예에 따른 3차원 영상 콘텐츠를 송수신하기 위한 시스템의 구성도이다.1 is a block diagram of a system for transmitting and receiving 3D image content according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따른 서버(100)가 3차원 영상 콘텐츠를 제공하는 방법을 설명하기 위한 순서도이다.2 is a flowchart illustrating a method of providing 3D image content by the server 100 according to an embodiment of the present invention.
도 3은 본 발명의 일 실시예에 따라 3차원 영상데이터를 복수의 오버레이 항목으로 분할하여 각각 대응하는 레이어에 할당한 예시를 나타낸 도면이다.3 is a diagram illustrating an example of dividing 3D image data into a plurality of overlay items and allocating the corresponding 3D image data to corresponding layers according to an embodiment of the present invention.
도 4는 본 발명의 일 실시예에 따라 제1 레이어에 할당한 제1 오버레이 항목이 클라이언트(200) 화면상에 표시되는 예시를 나타낸 도면이다.4 is a diagram illustrating an example in which a first overlay item allocated to a first layer is displayed on a screen of a client 200 according to an embodiment of the present invention.
도 5는 본 발명의 일 실시예에 따른 클라이언트(200)가 3차원 영상 콘텐츠를 제공하는 방법을 설명하기 위한 순서도이다.5 is a flowchart illustrating a method for providing 3D image content by the client 200 according to an exemplary embodiment of the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention, and methods for achieving them will be apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below but may be embodied in various different forms, only the present embodiments are intended to complete the disclosure of the present invention, and those of ordinary skill in the art to which the present invention pertains. It is provided to fully inform the skilled person of the scope of the invention, which is defined only by the scope of the claims.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, “comprises” and / or “comprising” does not exclude the presence or addition of one or more other components in addition to the mentioned components. Like reference numerals refer to like elements throughout, and "and / or" includes each and all combinations of one or more of the mentioned components. Although "first", "second", etc. are used to describe various components, these components are of course not limited by these terms. These terms are only used to distinguish one component from another. Therefore, of course, the first component mentioned below may be the second component within the technical spirit of the present invention.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms used in the present specification (including technical and scientific terms) may be used in a sense that can be commonly understood by those skilled in the art. In addition, terms that are defined in a commonly used dictionary are not ideally or excessively interpreted unless they are specifically defined clearly.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, with reference to the accompanying drawings will be described an embodiment of the present invention;
도 1은 본 발명의 일 실시예에 따른 3차원 영상 콘텐츠를 송수신하기 위한 시스템의 구성도이다.1 is a block diagram of a system for transmitting and receiving 3D image content according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시예에 따른 3차원 영상 콘텐츠 송수신 시스템은 서버(100) 및 클라이언트(200)를 포함할 수 있다.Referring to FIG. 1, a 3D image content transmission and reception system according to an embodiment of the present invention may include a server 100 and a client 200.
서버(100)는 3차원 영상 콘텐츠를 생성하는 컴퓨터 장치일 수 있다. 3차원 영상 콘텐츠는 3차원 공간상에서 영상을 이용한 다양한 서비스를 제공할 수 있는 콘텐츠일 수 있으며, 예를 들어 가상현실(Virtual Reality; VR), 증강현실(Augmented Reality; AR), 혼합현실(Mixed Reality; MR) 등의 콘텐츠일 수 있다.The server 100 may be a computer device that generates 3D image content. 3D image content may be content that can provide various services using images in a 3D space, for example, virtual reality (VR), augmented reality (AR), mixed reality (Mixed Reality) ; MR) or the like.
서버(100)는 내부에서 정보처리를 수행하여 클라이언트(200)에게 제공할 3차원 영상 콘텐츠를 생성하는 기능을 수행한다. 예를 들어, 3차원 영상 콘텐츠가 특정한 게임 구동에 따른 VR 영상인 경우, 서버(100)는 게임프로그램을 구동하여 적절한 영상데이터를 생성하여 무선통신을 통해 클라이언트(200)로 전송할 수 있다.The server 100 performs information processing therein to generate 3D image content to be provided to the client 200. For example, when the 3D image content is a VR image according to a specific game driving, the server 100 may drive a game program to generate appropriate image data and transmit it to the client 200 through wireless communication.
서버(100)는 3차원 영상 콘텐츠에 해당하는 영상데이터(이하, 3차원 영상데이터)를 생성하여 이를 복수의 오버레이 항목으로 분할하고, 분할된 각 오버레이 항목을 각 레이어에 할당하여 각 레이어에 대한 레이어데이터를 생성할 수 있다. 또한 서버(100)는 각 레이어에 대한 레이어데이터를 유선 또는 무선통신을 이용하여 각각의 채널을 통해 클라이언트(200)로 전송할 수 있다. 이에 대한 구체적인 동작 과정은 후술하도록 한다.The server 100 generates image data (hereinafter, referred to as 3D image data) corresponding to 3D image content, divides the image data into a plurality of overlay items, and assigns each of the divided overlay items to each layer to make a layer for each layer. You can generate data. In addition, the server 100 may transmit layer data for each layer to the client 200 through each channel using wired or wireless communication. A detailed operation process thereof will be described later.
클라이언트(200)는 3차원 영상 콘텐츠에 해당하는 영상데이터를 수신하여 재생하는 장치일 수 있다. 즉, 클라이언트(200)는 서버(100)로부터 수신한 3차원 영상데이터를 재생하여 사용자에게 제공하는 기능을 수행한다. 예를 들어, 클라이언트(200)는 3차원 영상 콘텐츠를 재생하는 장치로, 예컨대 VR 장치, AR 장치, MR 장치 자체일 수도 있고, 이러한 장치에 이동단말기가 결합된 형태일 수도 있다. 일례로, VR 장치와 이동단말기가 결합되어 클라이언트(200)를 구성하는 경우, 이동단말기가 서버(100)로부터 생성된 3차원 영상데이터를 수신하고, 이를 연결된 유선케이블 또는 근거리 무선통신을 통해 VR 장치로 전달하여 화면에 표시할 수 있다.The client 200 may be a device that receives and reproduces image data corresponding to 3D image content. That is, the client 200 plays a function of reproducing 3D image data received from the server 100 and providing the same to the user. For example, the client 200 may be a device for playing 3D image content, for example, a VR device, an AR device, or an MR device itself, or a mobile terminal may be coupled to the device. For example, when the VR device and the mobile terminal are combined to configure the client 200, the mobile terminal receives the 3D image data generated from the server 100, and the VR device through a wired cable or short-range wireless communication connected thereto. Can be displayed on the screen.
클라이언트(200)는 다양한 형태로 구성되어 3차원 영상데이터를 재생하여 화면에 표시할 수 있다. 일례로, 클라이언트(200)는 양안에 적합한 각각의 영상을 포함한 영상데이터를 하나의 디스플레이부에 표시하고, 각 안구방향의 어안렌즈에 의해 3차원 영상으로 생성할 수 있다. 다른 예로, 클라이언트(200)는 각각의 안구에 부합하는 영상을 제공하는 2개의 디스플레이부를 구비할 수도 있다.The client 200 may be configured in various forms and reproduce and display 3D image data on a screen. For example, the client 200 may display image data including each image suitable for both eyes on one display unit, and generate the 3D image by the fisheye lens in each eye direction. As another example, the client 200 may include two display units that provide an image corresponding to each eye.
클라이언트(200)는 서버(100)로부터 복수의 채널을 통해 복수의 레이어데이터를 수신하고, 수신한 각 레이어데이터를 각 레이어에 할당한다. 그리고 클라이언트(200)는 각 레이어를 합성하여 3차원 영상데이터를 생성할 수 있다. 이에 대한 구체적인 동작 과정은 후술하도록 한다.The client 200 receives a plurality of layer data from the server 100 through a plurality of channels, and allocates each received layer data to each layer. The client 200 may generate three-dimensional image data by synthesizing each layer. A detailed operation process thereof will be described later.
서버(100)와 클라이언트(200)는 유선 또는 무선통신을 통해 연결될 수 있다. 여기서, 무선통신방식으로는 Wi-Fi 방식, 셀룰러통신 등이 활용될 수 있다. 예를 들어, 서버(100)가 사용자가 위치한 특정한 공간 내(예: 집 내부, 가상현실 체험공간 등)에 배치된 컴퓨터인 경우, 무선 AP(예: Wi-Fi AP)를 통해 클라이언트(200)와 서버(100) 사이의 통신이 수행될 수 있다. 또한, 서버(100)가 외부의 원거리에 배치된 컴퓨터인 경우, 원거리의 서버(100)가 셀룰러 통신 또는 LAN 통신 등을 통해 클라이언트(200)로 3차원 영상데이터를 전송할 수 있다. 클라이언트(200)는 셀룰러통신을 통해 기지국으로부터 3차원 영상데이터를 수신하거나 무선 AP로부터 WLAN을 통해 3차원 영상데이터를 수신할 수 있다. 이를 통해, 사용자는 무선통신이 가능한 클라이언트(200)를 소지하고 있으면, 서버(100)와 가까운 위치에 있지 않아도 서버(100)로부터 제공되는 3차원 영상데이터를 수신하여 이용할 수 있다.The server 100 and the client 200 may be connected through wired or wireless communication. Here, the Wi-Fi method, cellular communication, etc. may be utilized as the wireless communication method. For example, if the server 100 is a computer located in a specific space (eg, home, virtual reality experience space, etc.) where the user is located, the client 200 may be connected through a wireless AP (eg, Wi-Fi AP). Communication between the server and the server 100 may be performed. In addition, when the server 100 is a computer located at an external remote location, the remote server 100 may transmit 3D image data to the client 200 through cellular communication or LAN communication. The client 200 may receive 3D image data from a base station through cellular communication or receive 3D image data from a wireless AP through a WLAN. Through this, if the user possesses the client 200 capable of wireless communication, the user may receive and use 3D image data provided from the server 100 even if the user does not have a location close to the server 100.
이하, 도면을 참조하여 본 발명의 실시예에 따른 서버(100) 및 클라이언트(200)에서 3차원 영상 콘텐츠를 제공하는 방법에 대해 설명하도록 한다.Hereinafter, a method of providing 3D image content in the server 100 and the client 200 according to an exemplary embodiment of the present invention will be described with reference to the accompanying drawings.
한편, 본 발명의 실시예에 따른 3차원 영상 콘텐츠에 해당하는 영상데이터, 즉 3차원 영상데이터는 복수의 레이어들로 구성되어 디스플레이 화면상에 표시될 수 있다. 이때, 각 레이어들은 논리적으로 특정한 기능에 따라 구성되어 수직적으로 겹쳐져(overlay) 표시될 수 있다.Meanwhile, the image data corresponding to the 3D image content, that is, the 3D image data according to the exemplary embodiment of the present invention may be composed of a plurality of layers and displayed on the display screen. In this case, each layer may be logically configured according to a specific function and vertically overlapped.
도 2는 본 발명의 일 실시예에 따른 서버(100)가 3차원 영상 콘텐츠를 제공하는 방법을 설명하기 위한 순서도이다.2 is a flowchart illustrating a method of providing 3D image content by the server 100 according to an embodiment of the present invention.
도 2를 참조하면, 서버(100)는 3차원 영상데이터를 복수의 오버레이 항목으로 분할할 수 있다(S100).Referring to FIG. 2, the server 100 may divide 3D image data into a plurality of overlay items (S100).
일 실시예에 있어서, 서버(100)는 3차원 영상데이터에 포함된 적어도 하나의 오브젝트의 특성에 기초하여 3차원 영상데이터를 복수의 오버레이 항목으로 분할할 수 있다.In an embodiment, the server 100 may divide the 3D image data into a plurality of overlay items based on the characteristics of at least one object included in the 3D image data.
복수의 오버레이 항목은 각각 3차원 영상데이터에서 논리적으로 특정한 기능을 가지는 오브젝트들로 구성될 수 있다. 예를 들어, 서버(100)는 3차원 영상데이터에서 정적으로 표시되는 오브젝트(예: 배경 이미지)를 추출하여 제1 오버레이 항목으로 설정하고, 동적으로 표시되는 오브젝트(예: 움직임이 발생하는 이미지)를 추출하여 제2 오버레이 항목으로 설정할 수 있다. 또는 서버(100)는 그래픽이나 텍스트 기반의 정보를 표시하는 오브젝트(예: 사용자 인터페이스)를 추출하여 제3 오버레이 항목으로 설정하고, 제어 정보를 표시하는 오브젝트(예: 컨트롤러의 동작에 따라 표시되는 십자선, 포인터)를 추출하여 제4 오버레이 항목으로 설정할 수도 있다. 또는 서버(100)는 3차원 영상데이터에서 동적으로 정보를 획득하여 특정 영역상에 반영하여 표시하는 특정 오브젝트(예: 광고를 표시하기 위한 광고판 등)를 추출하여 제5 오버레이 항목으로 설정하고, 3차원 이미지로 표시되는 오브젝트를 추출하여 제6 오버레이 항목으로 설정할 수 있다.The plurality of overlay items may be composed of objects having logically specific functions in the 3D image data, respectively. For example, the server 100 extracts an object (eg, a background image) that is displayed statically from 3D image data, sets it as a first overlay item, and dynamically displays an object (eg, an image in which movement occurs). May be extracted and set as the second overlay item. Alternatively, the server 100 extracts an object (eg, a user interface) that displays graphic or text-based information, sets it as a third overlay item, and displays an object (eg, a crosshair displayed according to the operation of the controller) that displays control information. , Pointer) may be extracted and set as the fourth overlay item. Alternatively, the server 100 dynamically obtains information from the 3D image data, extracts a specific object (eg, a billboard for displaying an advertisement, etc.) to reflect the information on a specific area, and sets the fifth overlay item. The object displayed as the dimensional image may be extracted and set as the sixth overlay item.
서버(100)는 복수의 오버레이 항목 각각을 복수의 레이어 각각에 할당하고, 복수의 레이어 각각에 대한 레이어데이터를 생성할 수 있다(S110).The server 100 may allocate each of the plurality of overlay items to each of the plurality of layers, and generate layer data for each of the plurality of layers (S110).
즉, 서버(100)는 3차원 영상데이터에 포함된 오브젝트들의 특성에 따라 분할된 제1 내지 제n 오버레이 항목을 각각 이와 대응하는 제1 내지 제n 레이어에 할당하고, 제1 내지 제n 레이어 각각에 대한 레이어데이터를 생성할 수 있다. 예컨대, 3차원 영상데이터에서 정적으로 표시되는 오브젝트를 포함하는 제1 오버레이 항목은 제1 레이어에 할당되어 제1 레이어데이터로 구성될 수 있다. 도 3은 본 발명의 일 실시예에 따라 3차원 영상데이터를 복수의 오버레이 항목으로 분할하여 각각 대응하는 레이어에 할당한 예시를 나타낸 도면이다.That is, the server 100 assigns the first to nth overlay items divided according to the characteristics of the objects included in the 3D image data to the first to nth layers corresponding to the first to nth layers, respectively. You can create layer data for. For example, a first overlay item including an object that is statically displayed in 3D image data may be allocated to the first layer and configured as first layer data. 3 is a diagram illustrating an example of dividing 3D image data into a plurality of overlay items and allocating the corresponding 3D image data to corresponding layers according to an embodiment of the present invention.
일 실시예로, 서버(100)는 복수의 오버레이 항목 각각에 대한 메타데이터를 구성하고, 각 메타데이터를 포함하여 각 레이어데이터를 생성할 수 있다. 즉, 서버(100)는 제1 내지 제n 오버레이 항목에 포함된 각 오브젝트들의 특성에 따라 클라이언트(200) 측에서 재생하기 위해 필요한 정보를 메타데이터로 구성하여 레이어데이터에 포함할 수 있다.In an embodiment, the server 100 may configure metadata for each of a plurality of overlay items, and generate each layer data including each metadata. That is, the server 100 may configure information necessary for playing on the client 200 side as metadata according to the characteristics of each object included in the first to nth overlay items, and include it in the layer data.
예를 들어, 메타데이터는 복수의 오버레이 항목 각각에 대한 위치 정보를 포함할 수 있으며, 여기서 위치 정보는 복수의 오버레이 항목 각각이 클라이언트(200)의 화면상에 표시되어야 하는 위치 정보일 수 있다.For example, the metadata may include location information about each of the plurality of overlay items, and the location information may be location information where each of the plurality of overlay items is to be displayed on the screen of the client 200.
도 4는 본 발명의 일 실시예에 따라 제1 레이어에 할당한 제1 오버레이 항목이 클라이언트(200) 화면상에 표시되는 예시를 나타낸 도면이다.4 is a diagram illustrating an example in which a first overlay item allocated to a first layer is displayed on a screen of a client 200 according to an embodiment of the present invention.
도 4를 참조하면, 서버(100)는 제1 레이어에 제1 오버레이 항목을 할당할 수 있으며, 이때 제1 오버레이 항목은 3차원 영상데이터에서 특정한 기능을 가지는 적어도 하나의 오브젝트들을 포함할 수 있다. 예를 들어, 제1 오버레이 항목이 사용자 인터페이스에 해당하는 오브젝트들(예: 1-1, 1-2, 1-3, 1-4 오브젝트)을 포함하는 경우, 각 오브젝트들(예: 1-1, 1-2, 1-3, 1-4 오브젝트)은 동일한 레이어에 할당되어 클라이언트(200)로 전송될 수 있다. 이때, 각 오브젝트(예: 1-1, 1-2, 1-3, 1-4 오브젝트)는 클라이언트(200) 화면상에서 특정 위치에 표시될 수 있는데, 이와 같은 경우 서버(100)는 각 오브젝트(예: 1-1, 1-2, 1-3, 1-4 오브젝트)가 클라이언트(200) 화면상에서 표시되어야할 위치 정보를 해당 오버레이 항목(즉, 해당 레이어)에 대한 메타데이터로 구성할 수 있다. 위치 정보는 좌표 정보로 표시될 수 있으며, 예컨대 클라이언트(200) 화면상에 위치할 (x, y) 좌표로 표시될 수 있다. 또한 각 오브젝트가 깊이에 대한 정보를 가지고 있으면 z-order 정보를 더 포함할 수도 있다.Referring to FIG. 4, the server 100 may allocate a first overlay item to a first layer, and the first overlay item may include at least one object having a specific function in 3D image data. For example, if the first overlay item includes objects corresponding to the user interface (eg, 1-1, 1-2, 1-3, 1-4 objects), each object (eg, 1-1) , 1-2, 1-3, 1-4 objects) may be allocated to the same layer and transmitted to the client 200. In this case, each object (eg, 1-1, 1-2, 1-3, 1-4 object) may be displayed at a specific position on the screen of the client 200. In this case, the server 100 may display each object ( For example, 1-1, 1-2, 1-3, 1-4 objects may configure location information to be displayed on the screen of the client 200 as metadata about a corresponding overlay item (ie, a corresponding layer). . The location information may be displayed as coordinate information. For example, the location information may be displayed as (x, y) coordinates to be positioned on the screen of the client 200. Also, if each object has depth information, it may further include z-order information.
또한, 메타데이터는 상술한 위치 정보 이외에도 복수의 오버레이 항목에 포함된 적어도 하나의 오브젝트 특성에 따라 추가 정보를 더 포함할 수 있다. 추가 정보로는, 제어 정보를 포함하는 제어 오브젝트를 표시하기 위한 법선 벡터 정보, 3차원 이미지를 포함하는 오브젝트를 표현하기 위한 정보, 각 오버레이 항목(즉, 각 레이어)에 대한 압축 방식, 보정 방식, 3차원 영상데이터의 방향 정보, 동적으로 합성이 필요한 특정 오브젝트를 표현하기 위한 정보 등을 포함할 수 있다.In addition to the location information described above, the metadata may further include additional information according to at least one object property included in the plurality of overlay items. The additional information may include normal vector information for displaying a control object including control information, information for representing an object including a three-dimensional image, a compression method for each overlay item (ie, each layer), a correction method, It may include direction information of the 3D image data, information for representing a specific object that needs to be dynamically synthesized, and the like.
예를 들어, 제1 오버레이 항목에 제어 정보를 포함하는 제어 오브젝트를 포함하는 경우, 서버(100)는 제1 오버레이 항목을 제1 레이어에 할당하고, 클라이언트(200) 화면상에서 제어 오브젝트를 표시하기 위한 법선 벡터 정보를 포함하는 메타데이터를 구성하여 제1 레이어에 대한 레이어데이터를 생성할 수 있다. 일 실시예로, 서버(100)는 클라이언트(200)로부터 제어 오브젝트를 제어하는 컨트롤러의 동작 정보(컨트롤러의 위치 정보 및 컨트롤러가 가리키는 방향을 포함)를 수신하고, 수신한 동작 정보를 기초로 제어 오브젝트가 지시하는 3차원 영상데이터 내 특정 지점과 상기 특정 지점에 존재하는 오브젝트에 대한 법선 벡터를 결정할 수 있다. 이후, 서버(100)는 결정된 특정 지점 및 법선 벡터 정보를 메타데이터로 구성할 수 있다.For example, if the first overlay item includes a control object including control information, the server 100 may allocate the first overlay item to the first layer and display the control object on the screen of the client 200. Layer data for the first layer may be generated by configuring metadata including the normal vector information. In one embodiment, the server 100 receives the operation information (including the position information of the controller and the direction indicated by the controller) of the controller controlling the control object from the client 200, and based on the received operation information It may determine a specific point in the 3D image data indicated by and the normal vector for the object present at the specific point. Thereafter, the server 100 may configure the determined specific point and normal vector information as metadata.
다른 예로, 제2 오버레이 항목에 3차원 이미지를 포함하는 오브젝트를 포함하는 경우, 서버(100)는 제2 오버레이 항목을 제2 레이어에 할당하고, 클라이언트(200) 화면상에서 3차원 이미지를 표시하기 위한 정보, 예컨대 해당 오브젝트의 입체감을 향상시키기 위한 텍스처 정보, 폴리건 메쉬 정보 등을 메타데이터로 구성하여 제2 레이어에 대한 레이어데이터를 생성할 수 있다.As another example, when the second overlay item includes an object including a 3D image, the server 100 may allocate the second overlay item to the second layer and display the 3D image on the screen of the client 200. The layer data for the second layer may be generated by configuring information, for example, texture information, polygon mesh information, and the like, for improving the three-dimensional effect of the object.
또 다른 예로, 제3 오버레이 항목에 동적으로 합성이 필요한 특정 오브젝트를 포함하는 경우, 서버(100)는 제3 오버레이 항목을 제3 레이어에 할당하고, 클라이언트(200) 화면상에서 특정 오브젝트를 표시하기 위한 정보를 메타데이터로 구성하여 제3 레이어에 대한 레이어데이터를 생성할 수 있다. 일 실시예로, 3차원 영상데이터에서 동적으로 정보를 획득하여 특정 영역상에 반영하여 표시해야 하는 오브젝트를 포함하고 있는 경우로서, 예컨대 3차원 영상데이터에서 광고를 표시하는 광고판과 같은 오브젝트를 포함하는 경우에 해당할 수 있다. 이와 같은 광고판 오브젝트는 서버(100)에서 미리 광고 정보를 포함시켜 레이어데이터를 생성할 수도 있으나, 클라이언트(200)에서 3차원 영상데이터를 수신하여 재생시킬 때에 실시간으로 광고 서버와 같은 외부 장치에서 별도의 정보를 수신하여 동적으로 해당 오브젝트를 합성시킬 수도 있다. 따라서, 서버(100)는 광고판과 같은 오브젝트를 포함하는 오버레이 항목에 대해서 해당 오브젝트가 위치할 위치 정보, 해당 오브젝트의 법선 벡터, 외부 장치에 관한 정보 등을 추가적으로 생성하여 메타데이터로 구성할 수 있다.As another example, when the third overlay item includes a specific object that needs to be dynamically synthesized, the server 100 may allocate the third overlay item to the third layer and display the specific object on the screen of the client 200. The information may be configured as metadata to generate layer data for the third layer. In one embodiment, the method includes an object that dynamically obtains information from the 3D image data and reflects the information on a specific area, and includes an object such as a billboard that displays an advertisement in the 3D image data. This may be the case. Such an advertisement board object may generate layer data by including advertisement information in advance in the server 100, but separate from an external device such as an advertisement server in real time when the client 200 receives and plays 3D image data. You can also receive information and dynamically synthesize the object. Therefore, the server 100 may additionally generate location information, a normal vector of the object, information about an external device, and the like, for the overlay item including the object such as an advertisement board and configure the metadata.
또 다른 예로, 서버(100)는 복수의 오버레이 항목에 대해 서로 다른 압축 방식을 설정할 수 있으며, 이 경우 서버(100)는 각 오버레이 항목에 설정된 압축 방식을 메타데이터로 구성하여 각 레이어데이터를 생성할 수 있다. 예컨대 서버(100)는 3차원 영상데이터에서 정적으로 표시되는 배경 오브젝트와 동적으로 표시되는 동적 오브젝트를 분할하여 각 오버레이 항목으로 설정하고, 이를 각 레이어에 할당한 후 서로 다른 압축 방식으로 압축할 수 있다. 이후, 각 레이어에 대해 수행된 압축 방식을 메타데이터로 구성하여 각 레이어에 대한 레이어데이터를 생성할 수 있다.As another example, the server 100 may set different compression methods for a plurality of overlay items, and in this case, the server 100 may generate each layer data by configuring the compression method set for each overlay item as metadata. Can be. For example, the server 100 may divide a background object that is statically displayed in the 3D image data and a dynamic object that is dynamically displayed, set each overlay item, allocate the same to each layer, and compress the same by using different compression methods. . Thereafter, the compression method performed on each layer may be configured as metadata to generate layer data for each layer.
또 다른 예로, 서버(100)는 복수의 오버레이 항목에 대해 서로 다른 보정 방식을 설정할 수 있으며, 이 경우 서버(100)는 각 오버레이 항목에 설정된 보정 방식을 메타데이터로 구성하여 각 레이어데이터를 생성할 수 있다. 예컨대 서버(100)는 3차원 영상데이터에서 배경 오브젝트와 같이 지연 보정이 필요한 오버레이 항목과 사용자의 움직임에 즉각적으로 반응하여야 하는 오버레이 항목을 구분하여 각 레이어에 할당하고, 각 레이어에 지연 보정이 필요한지 여부와, 보정 시에 필요한 정보를 포함하여 메타데이터를 구성할 수 있다.As another example, the server 100 may set different correction methods for a plurality of overlay items, and in this case, the server 100 may generate each layer data by configuring the correction method set for each overlay item as metadata. Can be. For example, the server 100 classifies the overlay items that need to be delayed like the background object from the 3D image data and the overlay items that need to be immediately reacted to by the user's movement. Metadata may be configured including information necessary for correction.
서버(100)는 각 레이어에 대한 레이어데이터를 각각의 채널을 통해 클라이언트(200)로 전송할 수 있다(S120).The server 100 may transmit layer data for each layer to the client 200 through each channel (S120).
상술한 바와 같이, 서버(100)는 유선 또는 무선통신을 통해 클라이언트(200)로 레이어데이터를 전송할 수 있다. 예컨대, 서버(100)는 유선 또는 무선통신을 통해 제1 채널로 제1 레이어데이터를 전송하고, 제2 채널로 제2 레이어데이터를 전송할 수 있다.As described above, the server 100 may transmit layer data to the client 200 through wired or wireless communication. For example, the server 100 may transmit first layer data through a wired or wireless communication through a first channel and second layer data through a second channel.
도 5는 본 발명의 일 실시예에 따른 클라이언트(200)가 3차원 영상 콘텐츠를 제공하는 방법을 설명하기 위한 순서도이다.5 is a flowchart illustrating a method for providing 3D image content by the client 200 according to an exemplary embodiment of the present invention.
도 5를 참조하면, 클라이언트(200)는 서버(100)로부터 복수의 채널을 통해 복수의 레이어데이터를 수신할 수 있다(S200).Referring to FIG. 5, the client 200 may receive a plurality of layer data from the server 100 through a plurality of channels (S200).
일 실시예로, 클라이언트(200)는 유선 또는 무선통신을 통해 서버(100)로부터 복수의 레이어데이터를 수신하되, 제1 채널을 통해 제1 레이어데이터를 수신하고 제2 채널을 통해 제2 레이어데이터를 수신할 수 있다.In an embodiment, the client 200 receives a plurality of layer data from the server 100 through wired or wireless communication, receives first layer data through a first channel, and second layer data through a second channel. Can be received.
클라이언트(200)는 복수의 레이어데이터 각각을 복수의 레이어 각각에 할당할 수 있다(S210).The client 200 may allocate each of the plurality of layer data to each of the plurality of layers (S210).
즉, 클라이언트(200)는 복수의 레이어데이터 각각에 포함된 복수의 오버레이 항목 각각을 복수의 레이어 각각에 할당할 수 있다. 예를 들어, 제1 레이어데이터는 제1 레이어에 할당할 수 있으며, 이때 제1 레이어에는 특정한 기능(즉, 동일하거나 유사한 특성)을 가지는 적어도 하나의 오브젝트들을 포함하는 제1 오버레이 항목이 할당된다.That is, the client 200 may allocate each of the plurality of overlay items included in each of the plurality of layer data to each of the plurality of layers. For example, the first layer data may be allocated to the first layer, and the first layer item is allocated to the first layer including at least one object having a specific function (that is, the same or similar characteristics).
클라이언트(200)는 복수의 레이어를 합성하여 3차원 영상데이터를 생성할 수 있다(S220).The client 200 may generate 3D image data by synthesizing the plurality of layers (S220).
일 실시예로, 클라이언트(200)는 복수의 레이어데이터로부터 메타데이터를 추출하고, 추출한 메타데이터에 기초하여 복수의 오버레이 항목 각각을 클라이언트(200) 화면상에 표시되어야 하는 위치에 할당한 다음 각 레이어를 합성할 수 있다.In one embodiment, the client 200 extracts metadata from the plurality of layer data, and allocates each of the plurality of overlay items to a position to be displayed on the screen of the client 200 based on the extracted metadata, and then each layer. Can be synthesized.
상술한 바와 같이, 메타데이터는 복수의 오버레이 항목 각각에 대한 위치 정보를 포함할 수 있다. 예를 들어, 클라이언트(200)는 제1 오버레이 항목에 포함된 적어도 하나의 오브젝트에 대한 위치 정보를 메타데이터로부터 획득하고, 획득된 위치 정보를 기초로 제1 레이어 상에 적어도 하나의 오브젝트를 할당한 다음 이를 합성하여 3차원 영상데이터를 최종적으로 생성할 수 있다. 이에 대한 상세한 과정은 도 4를 참조하여 설명한바 있으므로, 본 실시예에서는 상세한 설명을 생략하도록 한다.As described above, the metadata may include location information about each of the plurality of overlay items. For example, the client 200 obtains location information of at least one object included in the first overlay item from metadata, and allocates at least one object on the first layer based on the obtained location information. Next, the 3D image data may be finally generated by synthesizing the same. Since a detailed process thereof has been described with reference to FIG. 4, the detailed description thereof will be omitted.
또한, 메타데이터는 위치 정보 이외에도 복수의 오버레이 항목에 포함된 적어도 하나의 오브젝트 특성에 따라 추가 정보를 더 포함할 수 있다. 예를 들어, 메타데이터는 제어 정보를 포함하는 제어 오브젝트를 표시하기 위한 법선 벡터 정보, 3차원 이미지를 포함하는 오브젝트를 표현하기 위한 정보, 각 오버레이 항목(즉, 각 레이어)에 대한 압축 방식, 보정 방식, 3차원 영상데이터의 방향 정보, 동적으로 합성이 필요한 특정 오브젝트를 표현하기 위한 정보 등을 포함할 수 있다. 즉, 클라이언트(200)는 각 레이어에 할당된 해당 오버레이 항목을 화면상에 표시하기 위해 필요한 정보(즉, 상술한 추가 정보)를 메타데이터로부터 획득할 수 있으며, 획득된 추가 정보를 바탕으로 각 레이어 상에 해당 오버레이 항목을 표시하여 각 레이어를 결합시킬 수 있다.In addition to the location information, the metadata may further include additional information according to at least one object property included in the plurality of overlay items. For example, the metadata may include normal vector information for displaying a control object including control information, information for representing an object including a three-dimensional image, a compression scheme for each overlay item (ie, each layer), and correction. A method, direction information of the 3D image data, and information for expressing a specific object that needs to be dynamically synthesized. That is, the client 200 may obtain information (ie, the above-described additional information) necessary for displaying the corresponding overlay item assigned to each layer on the screen from the metadata, and based on the obtained additional information, each layer Each layer can be combined by displaying the corresponding overlay item on the screen.
실시예에 따라, 클라이언트(200)가 3차원 영상데이터에 포함된 적어도 하나의 오브젝트를 생성할 수 있다. 예컨대 서버(100)로부터 레이어데이터(즉, 적어도 하나의 레이어에 대한 정보)를 수신하지 않고 클라이언트(200)가 자체적으로 레이어를 구성하는 경우에 해당할 수 있다.According to an embodiment, the client 200 may generate at least one object included in the 3D image data. For example, this may correspond to a case where the client 200 configures a layer itself without receiving layer data (ie, information on at least one layer) from the server 100.
이 경우, 클라이언트(200)는 적어도 하나의 오브젝트를 생성하여 별도의 레이어에 할당할 수 있고, 별도의 레이어를 서버(100)로부터 수신한 레이어 정보와 합성하여 최종적으로 3차원 영상데이터를 생성할 수 있다. 예를 들어, 사용자의 움직임에 따라 즉각적으로 반응을 해야할 필요가 있는 오브젝트를 포함하는 경우(예: 사용자가 컨트롤러를 통해 동작을 수행함에 따라 표시되는 제어 정보를 포함하는 제어 오브젝트), 클라이언트(200)는 컨트롤러의 제어 정보를 표시하는 별도의 레이어를 생성하고, 컨트롤러의 동작 정보에 기초하여 제어 오브젝트가 지시하는 3차원 영상데이터 내 특정 지점과 상기 특정 지점에 존재하는 오브젝트에 대한 법선 벡터를 결정하여 이를 별도의 레이어 상에 표시할 수 있다. 이후, 클라이언트(200)는 별도의 레이어와 서버(100)로부터 수신한 다른 레이어와 결합하여 최종적으로 3차원 영상데이터를 구성할 수 있다.In this case, the client 200 may generate at least one object and assign it to a separate layer, and synthesize the separate layer with the layer information received from the server 100 to finally generate 3D image data. have. For example, if it includes an object that needs to react immediately as a user moves (eg, a control object including control information displayed as the user performs an operation through a controller), the client 200 Generates a separate layer displaying control information of the controller and determines a specific point in the 3D image data indicated by the control object and a normal vector of an object present at the specific point based on the controller's motion information. It can be displayed on a separate layer. Thereafter, the client 200 may finally combine 3D image data with another layer and another layer received from the server 100.
또한, 3차원 영상데이터 내의 특정 오브젝트에 한해서 위치가 변경되는 경우, 클라이언트(200)는 특정 오브젝트에 대해 변경된 위치 정보를 포함하는 해당 오버레이 항목만 서버(100)로부터 수신하여 3차원 영상데이터를 갱신할 수도 있다. 또한, 3차원 영상데이터 내의 특정 레이어에 한해서 보정이 필요한 경우, 클라이언트(200)는 보정이 필요한 특정 레이어에 대한 정보만 서버(100)로부터 수신하여 3차원 영상데이터를 갱신할 수도 있다.In addition, when the location is changed only for a specific object in the 3D image data, the client 200 receives only the corresponding overlay item including the changed location information for the specific object from the server 100 to update the 3D image data. It may be. In addition, when correction is required only for a specific layer in the 3D image data, the client 200 may update the 3D image data by receiving only information on the specific layer that needs correction from the server 100.
상술한 바와 같은 본 발명의 실시예에 따르면, 3차원 영상데이터를 구성하는 오브젝트들을 특성에 따라 다수의 오버레이 항목으로 분할하여 각각의 채널을 통해 개별적으로 전송할 수 있으므로, 3차원 영상데이터를 구성하는 모든 레이어 혹은 모든 데이터를 한번에 모두 전송할 필요가 없다. 이에 따라 네트워크 부하를 감소시키고 또한 영상 딜레이를 감소시킬 수 있으므로 사용자에게 보다 고품질의 3차원 영상 콘텐츠를 제공할 수 있다.According to the embodiment of the present invention as described above, since the objects constituting the 3D image data can be divided into a plurality of overlay items according to characteristics and transmitted individually through respective channels, There is no need to transfer a layer or all of the data all at once. Accordingly, the network load and the video delay can be reduced, thereby providing higher quality 3D video content to the user.
또한 상술한 바와 같은 본 발명의 실시예에 따르면, 3차원 영상데이터를 생성함에 있어서 다양한 메타데이터를 제공할 수 있기 때문에, 각 오버레이 항목에 적합한 레이어를 구성하기 용이하고 각 레이어별로 다양한 방식으로 데이터를 처리할 수 있다.In addition, according to the embodiment of the present invention as described above, since it is possible to provide a variety of metadata in generating the three-dimensional image data, it is easy to configure a layer suitable for each overlay item and the data in various ways for each layer Can be processed.
또한 상술한 바와 같은 본 발명의 실시예에 따르면, 3차원 영상데이터를 오브젝트들의 특성에 따라 복수의 레이어로 분리하여 처리하기 때문에, 보정이 필요하거나 즉각적으로 반응이 필요한 레이어만 추출하여 해당 작업을 수행할 수 있어서 전체 영상에 대해 처리할 필요가 없다. 따라서, 서버에 비해 성능이 낮은 클라이언트에서도 효과적으로 3차원 영상데이터를 처리할 수 있다.In addition, according to the embodiment of the present invention as described above, since the three-dimensional image data is processed by separating into a plurality of layers according to the characteristics of the object, only the layer that needs to be corrected or immediately reacts to perform the operation You do not need to process the entire image. Therefore, the 3D image data can be effectively processed even by a client having a lower performance than the server.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, in a software module executed by hardware, or by a combination thereof. The software module may be a random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.In the above, embodiments of the present invention have been described with reference to the accompanying drawings, but those skilled in the art to which the present invention pertains may realize the present invention in other specific forms without changing the technical spirit or essential features thereof. I can understand that. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive.

Claims (11)

  1. 서버가 3차원 영상 콘텐츠를 제공하는 방법에 있어서,In the method for providing three-dimensional image content by the server,
    3차원 영상데이터를 복수의 오버레이 항목으로 분할하는 단계;Dividing the 3D image data into a plurality of overlay items;
    상기 복수의 오버레이 항목 각각을 복수의 레이어 각각에 할당하여 상기 복수의 레이어 각각에 대한 레이어데이터를 생성하는 단계; 및Assigning each of the plurality of overlay items to each of a plurality of layers to generate layer data for each of the plurality of layers; And
    상기 각 레이어데이터를 각각의 채널을 통해 클라이언트로 전송하는 단계를 포함하는 것을 특징으로 하는 3차원 영상 콘텐츠를 제공하는 방법.And transmitting the respective layer data to a client through a respective channel.
  2. 제1항에 있어서,The method of claim 1,
    상기 복수의 오버레이 항목으로 분할하는 단계는,The dividing into the plurality of overlay items may include:
    상기 3차원 영상데이터에 포함된 적어도 하나의 오브젝트의 특성에 기초하여 상기 적어도 하나의 오브젝트를 상기 복수의 오버레이 항목으로 분할하는 것을 특징으로 하는 3차원 영상 콘텐츠를 제공하는 방법.And dividing the at least one object into the plurality of overlay items based on characteristics of at least one object included in the 3D image data.
  3. 제1항에 있어서,The method of claim 1,
    상기 복수의 레이어 각각에 대한 레이어데이터를 생성하는 단계는,Generating layer data for each of the plurality of layers may include:
    상기 복수의 오버레이 항목 각각에 대한 메타데이터를 구성하는 단계; 및Constructing metadata for each of the plurality of overlay items; And
    상기 각 메타데이터를 포함하여 상기 각 레이어데이터를 생성하는 단계를 포함하는 것을 특징으로 하는 3차원 영상 콘텐츠를 제공하는 방법.And generating the layer data by including the metadata.
  4. 제3항에 있어서,The method of claim 3,
    상기 메타데이터는, 상기 복수의 오버레이 항목 각각에 대한 위치 정보를 포함하며,The metadata includes location information for each of the plurality of overlay items.
    상기 위치 정보는, 상기 복수의 오버레이 항목 각각이 상기 클라이언트의 화면상에 표시되어야 하는 위치 정보인 것을 특징으로 하는 3차원 영상 콘텐츠를 제공하는 방법.The location information is a method of providing three-dimensional image content, characterized in that each of the plurality of overlay items are location information that should be displayed on the screen of the client.
  5. 제4항에 있어서,The method of claim 4, wherein
    상기 메타데이터는, 상기 복수의 오버레이 항목 각각에 포함된 적어도 하나의 오브젝트의 특성에 따라 추가 정보를 더 포함하되,The metadata may further include additional information according to characteristics of at least one object included in each of the plurality of overlay items.
    상기 추가 정보는, 제어 오브젝트를 표시하기 위한 법선 벡터, 압축 방식, 보정 여부, 상기 3차원 영상데이터의 방향 정보, 3차원 오브젝트를 표현하기 위한 정보, 및 동적으로 합성이 필요한 특정 오브젝트에 대한 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 3차원 영상 콘텐츠를 제공하는 방법.The additional information may include a normal vector for displaying a control object, a compression scheme, whether to correct the correction information, direction information of the 3D image data, information for representing a 3D object, and information about a specific object that needs to be dynamically synthesized. Method for providing three-dimensional image content, characterized in that it comprises at least one.
  6. 클라이언트가 3차원 영상 콘텐츠를 제공하는 방법에 있어서,In the method for the client to provide three-dimensional image content,
    서버로부터 복수의 채널을 통해 복수의 레이어데이터를 수신하는 단계;Receiving a plurality of layer data through a plurality of channels from a server;
    상기 복수의 레이어데이터 각각을 복수의 레이어 각각에 할당하는 단계; 및Allocating each of the plurality of layer data to each of the plurality of layers; And
    상기 복수의 레이어를 합성하여 3차원 영상데이터를 생성하는 단계를 포함하는 것을 특징으로 하는 3차원 영상 콘텐츠를 제공하는 방법.And synthesizing the plurality of layers to generate three-dimensional image data.
  7. 제6항에 있어서,The method of claim 6,
    상기 복수의 레이어 각각에 할당하는 단계는,Assigning to each of the plurality of layers,
    상기 복수의 레이어데이터 각각에 포함된 복수의 오버레이 항목 각각을 상기 복수의 레이어 각각에 할당하는 것을 특징으로 하는 3차원 영상 콘텐츠를 제공하는 방법.And assigning each of a plurality of overlay items included in each of the plurality of layer data to each of the plurality of layers.
  8. 제7항에 있어서,The method of claim 7, wherein
    상기 3차원 영상데이터를 생성하는 단계는,Generating the 3D image data,
    상기 복수의 레이어데이터로부터 메타데이터를 추출하는 단계; 및Extracting metadata from the plurality of layer data; And
    상기 메타데이터에 기초하여 상기 복수의 오버레이 항목 각각을 상기 클라이언트의 화면상에 표시되어야 하는 위치에 할당하여 상기 복수의 레이어를 합성하는 단계를 포함하는 것을 특징으로 하는 3차원 영상 콘텐츠를 제공하는 방법.And synthesizing the plurality of layers by assigning each of the plurality of overlay items to a position that should be displayed on the screen of the client based on the metadata.
  9. 제8항에 있어서,The method of claim 8,
    상기 3차원 영상데이터를 생성하는 단계는,Generating the 3D image data,
    상기 메타데이터가 상기 복수의 오버레이 항목 각각에 포함된 적어도 하나의 오브젝트의 특성에 따라 추가 정보를 더 포함하는 경우,When the metadata further includes additional information according to the characteristics of at least one object included in each of the plurality of overlay items,
    상기 메타데이터에 포함된 추가 정보에 기초하여 해당 오버레이 항목을 처리하는 단계를 더 포함하는 것을 특징으로 하는 3차원 영상 콘텐츠를 제공하는 방법.And processing a corresponding overlay item based on the additional information included in the metadata.
  10. 제6항에 있어서,The method of claim 6,
    상기 클라이언트가 상기 3차원 영상데이터에 포함된 적어도 하나의 오브젝트를 생성하는 경우,When the client generates at least one object included in the 3D image data,
    상기 적어도 하나의 오브젝트를 생성하여 별도의 레이어에 할당하는 단계; 및Generating the at least one object and assigning the at least one object to a separate layer; And
    상기 별도의 레이어를 상기 복수의 레이어와 합성하여 상기 3차원 영상데이터를 최종적으로 생성하는 단계를 더 포함하는 것을 특징으로 하는 3차원 영상 콘텐츠를 제공하는 방법.And synthesizing the separate layers with the plurality of layers to finally generate the 3D image data.
  11. 하드웨어인 컴퓨터와 결합되어, 제1항 내지 제10항 중 어느 한 항의 방법을 실행시키기 위하여 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터프로그램.A computer program, coupled with a computer in hardware, stored on a computer readable recording medium for carrying out the method of any one of claims 1 to 10.
PCT/KR2019/009142 2018-08-07 2019-07-24 Method for providing three-dimensional image contents and program WO2020032434A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0092008 2018-08-07
KR1020180092008A KR102090009B1 (en) 2018-08-07 2018-08-07 Method and program for providing 3d image content

Publications (1)

Publication Number Publication Date
WO2020032434A1 true WO2020032434A1 (en) 2020-02-13

Family

ID=69413771

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/009142 WO2020032434A1 (en) 2018-08-07 2019-07-24 Method for providing three-dimensional image contents and program

Country Status (3)

Country Link
KR (1) KR102090009B1 (en)
TW (1) TW202008312A (en)
WO (1) WO2020032434A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040194127A1 (en) * 2003-03-28 2004-09-30 Eastman Kodak Company Method and system for modifying digital cinema frame content
KR20150073423A (en) * 2013-12-23 2015-07-01 휴텍 주식회사 Web-view based method providing interactive contents, and computer-readable recording medium for the same
KR20170116685A (en) * 2016-04-12 2017-10-20 (주)지니트 system and method for chroma-key composing using multi-layers
KR20180028046A (en) * 2016-09-07 2018-03-15 이철우 Device, method and program for making multi-dimensional reactive video, and method and program for playing multi-dimensional reactive video
KR101874111B1 (en) * 2017-03-03 2018-07-03 클릭트 주식회사 Method and program for playing virtual reality image

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040194127A1 (en) * 2003-03-28 2004-09-30 Eastman Kodak Company Method and system for modifying digital cinema frame content
KR20150073423A (en) * 2013-12-23 2015-07-01 휴텍 주식회사 Web-view based method providing interactive contents, and computer-readable recording medium for the same
KR20170116685A (en) * 2016-04-12 2017-10-20 (주)지니트 system and method for chroma-key composing using multi-layers
KR20180028046A (en) * 2016-09-07 2018-03-15 이철우 Device, method and program for making multi-dimensional reactive video, and method and program for playing multi-dimensional reactive video
KR101874111B1 (en) * 2017-03-03 2018-07-03 클릭트 주식회사 Method and program for playing virtual reality image

Also Published As

Publication number Publication date
KR20200016657A (en) 2020-02-17
KR102090009B1 (en) 2020-03-17
TW202008312A (en) 2020-02-16

Similar Documents

Publication Publication Date Title
WO2014014185A1 (en) Method of controlling display of display device by mobile terminal and mobile terminal for the same
CN104583982B (en) Medical assistance system and method for same
EP2371139A2 (en) Image processing method and apparatus therefor
US10493360B2 (en) Image display device and image display system
WO2017043795A1 (en) Virtual reality image transmission method, image reproduction method, and program using same
CN102724433A (en) Method and device for realizing multi-video signal image composition
WO2019212129A1 (en) Virtual exhibition space providing method for efficient data management
WO2011108837A2 (en) Apparatus and method for producing user-defined golf course, server for producing user-defined golf course and virtual golf simulation method using the golf course
WO2020004967A1 (en) Virtual reality image reproduction device for reproducing plurality of virtual reality images to improve image quality of specific region, and method for generating virtual reality image
CN114570020A (en) Data processing method and system
WO2021167231A1 (en) Electronic device and control method therefor
WO2011099731A2 (en) Method for synchronising character information according to data-type classification
WO2012173411A2 (en) Apparatus for displaying a three-dimensional spherical image of the environment of the earth
WO2019045128A1 (en) Image quality enhancement of video call
WO2020032434A1 (en) Method for providing three-dimensional image contents and program
US11611738B2 (en) User interface module for converting a standard 2D display device into an interactive 3D display device
WO2013183877A1 (en) System for providing three-dimensional digital animation viewer and method thereof
WO2018230971A1 (en) Method and apparatus for processing omni-directional image
WO2020231215A1 (en) Method, system, and non-transitory computer-readable recording medium for providing content comprising augmented reality object by using plurality of devices
WO2011087279A2 (en) Stereoscopic image conversion method and stereoscopic image conversion device
WO2022131720A1 (en) Device and method for generating building image
CN109934734A (en) A kind of tourist attractions experiential method and system based on augmented reality
WO2018199724A1 (en) Virtual reality system enabling bi-directional communication
WO2019066591A1 (en) Method for providing virtual reality image and program using same
CN116503498A (en) Picture rendering method and related device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19847164

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 08.07.2021)

122 Ep: pct application non-entry in european phase

Ref document number: 19847164

Country of ref document: EP

Kind code of ref document: A1