WO2018186646A1 - Device and method for processing high-definition 360-degree vr image - Google Patents

Device and method for processing high-definition 360-degree vr image Download PDF

Info

Publication number
WO2018186646A1
WO2018186646A1 PCT/KR2018/003882 KR2018003882W WO2018186646A1 WO 2018186646 A1 WO2018186646 A1 WO 2018186646A1 KR 2018003882 W KR2018003882 W KR 2018003882W WO 2018186646 A1 WO2018186646 A1 WO 2018186646A1
Authority
WO
WIPO (PCT)
Prior art keywords
degree
information
image
resolution
user
Prior art date
Application number
PCT/KR2018/003882
Other languages
French (fr)
Korean (ko)
Inventor
윤국진
정준영
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US16/492,289 priority Critical patent/US10848837B2/en
Publication of WO2018186646A1 publication Critical patent/WO2018186646A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/65Arrangements characterised by transmission systems for broadcast
    • H04H20/71Wireless systems
    • H04H20/72Wireless systems of terrestrial networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/65Arrangements characterised by transmission systems for broadcast
    • H04H20/76Wired systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/162User input
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234363Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the spatial resolution, e.g. for clients with a lower screen resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/23439Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2362Generation or processing of Service Information [SI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks

Definitions

  • the present disclosure relates to a high-definition 360-degree VR image processing apparatus and method. More specifically, the present disclosure relates to an apparatus and method for providing signaling information regarding a high definition 360 degree VR broadcast service and also providing a high quality 360 degree VR image to a region of interest of a user.
  • 360-degree virtual reality (VR) media is a media that can select and view the desired view by providing viewers with a 360-degree image
  • the recent efforts to service 360-degree VR media through the integration of the broadcasting network has been accelerated .
  • Currently applied 360-degree VR media can provide full 4K or FHD-level VR media at the same time, which can provide viewers with the desired view or region of interest (RoI) without delay.
  • RoI region of interest
  • the 360-degree VR service streaming to the corresponding area based on the viewer's movement or the view information selected by the viewer may provide a relatively high quality view, but in response to the user's movement, There is a problem in that a delay time (Motion to Photon, MTP) for playing an image is long.
  • MTP Motion to Photon
  • a technology related to 360-degree VR media a technology that provides a panorama video broadcasting service recognition and signaling to indicate related video characteristics, and first transmits a thumbnail image, and a receiver transmits data of a specific region requested based on the thumbnail.
  • Techniques such as technology to classify panorama video into tiles of a certain area and transmit only data of tiles for the area selected by the user.
  • These existing technologies have proposed signaling, tiling transmission and synchronization methods for providing a panoramic broadcasting service, but the 360-degree VR broadcasting service based on the user's movement or the user's selection in a broadcasting network environment for a high-definition 360-degree VR image is proposed. There is a problem that it is difficult to provide.
  • An object of the present disclosure is to provide a high-definition 360-degree VR image processing apparatus and method.
  • Another technical problem of the present disclosure is to provide an encoding apparatus and method for providing signaling information regarding a high definition 360 degree VR broadcast service.
  • Another technical problem of the present disclosure is to provide a decoding apparatus and method for receiving signaling information regarding a high definition 360 degree VR broadcast service.
  • Another technical problem of the present disclosure is to provide an encoding apparatus and method for providing a high-definition 360-degree VR image for a region of interest of a user.
  • Another technical problem of the present disclosure is to provide a decoding apparatus and method for providing a high-definition 360-degree VR image for the user's region of interest.
  • a high quality 360 degree VR image processing apparatus and method may be provided.
  • an apparatus and method for providing signaling information for a high definition 360 degree VR broadcast service may be provided.
  • an apparatus and method for providing a high-definition 360-degree VR image for the ROI of a user may be provided.
  • FIG. 1 is a view for explaining a scenario of serving a high-definition 360-degree VR media through a broadcasting network according to an embodiment of the present disclosure.
  • FIG. 2 is a view for explaining the structure of a 360-degree VR video stream transmitted through a broadcasting network according to an embodiment of the present disclosure.
  • FIG. 3 is a diagram for describing a signaling structure regarding a 360 degree VR broadcast service according to one embodiment of the present disclosure.
  • FIG. 4 is a diagram illustrating a configuration of a high-definition 360-degree VR image processing apparatus according to an embodiment of the present disclosure.
  • FIG. 5 is a diagram for describing a process of providing a high-definition 360-degree image of a region of interest (RoI) according to an exemplary embodiment.
  • FIG. 6 is a diagram for describing a process of providing a high-definition 360 degree image of a region of interest (RoI) according to another exemplary embodiment of the present disclosure.
  • FIG. 7 is a diagram for describing a process of providing a high-definition 360-degree VR image to a region of interest of a user in a low-degree 360-degree VR image according to an embodiment of the present disclosure.
  • the method includes: receiving a bitstream including 360 degree VR (Virtual Reality) image information; Decoding information associated with a 360 degree VR service from the bitstream; Detecting a region of interest based on information associated with the 360 degree VR service; And providing the 360 degree VR image to the user for the ROI.
  • 360 degree VR Virtual Reality
  • a bitstream including 360-degree VR image information is received, information about a 360-degree VR service is decoded from the bitstream, and a region of interest is based on information associated with the 360-degree VR service. And detecting and providing the 360-degree VR image to the user with respect to the ROI.
  • An image encoding method may be provided.
  • receiving 360-degree VR image information recognizing a region of interest of a user, encoding information associated with a 360-degree VR service, information associated with a 360-degree VR service is the 360-degree VR image
  • a 360 degree image encoding apparatus may include at least one of segmentation information and the ROI information.
  • first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
  • the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
  • any component of the invention When any component of the invention is said to be “connected” or “connected” to another component, it may be directly connected to or connected to that other component, but other components may be present in between. It should be understood that it may. On the other hand, when a component is referred to as being “directly connected” or “directly connected” to another component, it should be understood that there is no other component in between.
  • each component shown in the embodiments of the present invention are shown independently to represent different characteristic functions, and do not mean that each component is made of separate hardware or one software component unit.
  • each component is included in each component for convenience of description, and at least two of the components may be combined into one component, or one component may be divided into a plurality of components to perform a function.
  • Integrated and separate embodiments of the components are also included within the scope of the present invention without departing from the spirit of the invention.
  • Some components of the present invention are not essential components for performing essential functions in the present invention but may be optional components for improving performance.
  • the present invention can be implemented including only the components essential for implementing the essentials of the present invention except for the components used for improving performance, and the structure including only the essential components except for the optional components used for improving performance. Also included in the scope of the present invention.
  • FIG. 1 is a view for explaining a scenario of serving a high-definition 360-degree VR media through a broadcasting network according to an embodiment of the present disclosure.
  • the first scenario is a scenario of simultaneously serving a 360-degree VR image of low quality and high quality based on an image acquired by a 360-degree VR camera.
  • the term “high definition” may mean a basic resolution of media acquired from a 360-degree VR acquisition device.
  • the low quality 360 degree VR image 110 may refer to an image which is down-converted to have a predetermined size with respect to a high quality 360 degree VR image obtained by a 360 degree VR camera. For example, if the high definition 360 degree VR image has a resolution of 16Kx8K, the low quality 360 degree VR image 110 may have a resolution of 4Kx2K.
  • the resolution of 4Kx2K is based on the resolution of the current commercial UHD TV and head mounted display (HMD), and the resolution of the low-quality 360-degree VR image 110 is not limited thereto and may be arbitrarily changed. Meanwhile, the low definition 360 degree VR image 110 may be provided for compatibility with an existing receiver in a broadcast environment, and may be used to minimize MTP time according to a user's movement or a user's selection.
  • the high-definition 360-degree VR image 120 of the present disclosure may refer to a high-definition image provided for a region of interest (RoI).
  • the region of interest may be recognized according to the movement of the user or the selection of the user.
  • the selection of the user may mean a user input through an external device, but is not limited thereto and may include a predetermined operation of the user for determining the ROI.
  • the high-definition 360-degree VR image 120 may be divided into areas of any size, and each divided area may be encoded independently. Referring to FIG. 1, the high quality 360 degree VR image 120 may be divided into tiled based regions.
  • a user may watch a 360-degree VR image of a low quality, and a high-definition 360-degree VR image is provided for a region of interest of the user, so that the user may watch a 360-degree VR image that is more sharp and improved in a region of interest.
  • a 360-degree VR image of a low quality may watch a 360-degree VR image of a low quality
  • a high-definition 360-degree VR image is provided for a region of interest of the user, so that the user may watch a 360-degree VR image that is more sharp and improved in a region of interest.
  • the second scenario is a scenario in which the high-definition VR image 130 is serviced under a broadcast environment based on the high-definition 360-degree VR image 130 divided into regions having a predetermined size without a low-degree 360-degree VR image.
  • the receiver may display an initial view region 132 to be reproduced among the divided regions through signaling and reproduce the corresponding region determined in response to the movement of the user or the selection of the user.
  • the size of a predetermined partition may be determined such that the partition has a constant resolution such as FHD or 4K, and may also vary according to a resolution supported by a mobile device such as a TV or an HMD.
  • FIG. 2 is a view for explaining the structure of a 360-degree VR video stream transmitted through a broadcasting network according to an embodiment of the present disclosure.
  • the low-quality 360-degree VR image 210 may be encoded by the HEVC encoder 212 and may be transmitted by being divided into one Elementary Stream (ID) _ID, Asset_ID, or AdaptationSet ID, or may also be transmitted as unique identification information of a separately encoded stream. It may be sent 214.
  • the stream may mean a bitstream.
  • ES_ID, Asset_ID and AdaptationSet_ID may be used as encoding stream unique identification information for distinguishing encoding streams in MPEG-2 Systems, MPEG-MMT and MPEG-DASH standards, respectively.
  • the low-definition 360-degree VR image 210 may have a resolution of 4Kx2K, but is not limited thereto and may vary depending on a terminal providing an image.
  • the high quality 360 degree VR image 220 may be divided into regions having a constant size. Each of the divided regions may be encoded by the HEVC encoder 222 and may be transmitted by being divided into one ES ID, Asset ID, or Adaptation_set ID for each region (224).
  • the number of streams of the high-definition 360-degree VR image 220 may vary depending on the number of divided regions.
  • the stream of the high-definition 360-degree VR image 220 may have a resolution of 4Kx2K, but is not limited thereto, and may vary depending on a terminal providing an image.
  • the low-quality 360-degree VR video stream may be transmitted in the same channel as the partition stream of the high-definition 360-degree VR video 220, or may be transmitted in a separate channel to maintain compatibility with the conventional receiver (216).
  • a separate channel may be a separate channel in an IP network or a broadcasting network.
  • the partition stream of the high-definition 360-degree VR image 220 may be transmitted through one channel or through an IP network by using channel combining (226).
  • FIG. 3 is a diagram for describing a signaling structure regarding a 360 degree VR broadcast service according to one embodiment of the present disclosure.
  • the signaling structure for the 360-degree VR broadcast service may include signaling information additionally required for the classification or broadcast service of the 360-degree VR video stream of low quality and high quality.
  • the first signaling structure 310 is a signaling structure for distinguishing a high-definition 360-degree VR broadcast service and may indicate information applied to a program or service level and signaled.
  • VR_contents_ID may mean an identifier for distinguishing various VR images transmitted from a program or a channel.
  • the VR_contents_ID may be utilized as unique identification information for distinguishing variously transmitted VR contents.
  • it can be used as information representing the actual VR content configuration.
  • the actual VR content configuration may mean 2D or 3D.
  • VR_projectionType may mean various VR projection types.
  • the VR_projectionType may be used to remap or reproduce the image received at the receiver to a 360 degree VR image.
  • Total_width and Total_height may mean the total horizontal and vertical size of the high-definition 360-degree VR image, respectively.
  • Number_ROI may mean the total number of partitions.
  • the second signaling structure 320 may include an identifier for distinguishing a low-quality 360-degree VR image and information signaled by being applied to a coding stream level of each region of the high-definition 360-degree VR video stream divided into a specific size. Can mean.
  • the VR_totalview_present may be used to determine the presence or absence of a low quality 360 degree VR video stream.
  • Viewport_ID may mean an identifier for identifying each partition. For example, the Viewport_ID may be used to decode or play the corresponding area according to the user's movement or the user's selection.
  • Initial_viewport_flag may be used to identify a region to be reproduced first in a terminal such as a TV or an HMD when a service is provided based on a divided region without a low quality 360 degree VR image as in the second scenario described with reference to FIG. 1.
  • RoI_x_strartposition and RoI_x_endposition may mean horizontal start coordinates and horizontal end coordinates for the split image, respectively.
  • RoI_y_strartposition and RoI_y_endposition may mean a vertical start coordinate and a vertical end coordinate for the split image, respectively. Based on the horizontal / vertical start coordinates and the horizontal / vertical end coordinates, the position of the divided region within the entire VR image may be known.
  • the signaling information constituting the first signaling structure 310 and / or the second signaling structure 320 may be converted into various forms such as various metadata or XML as well as the above structure and used.
  • FIG. 4 is a diagram illustrating a configuration of a high-definition 360-degree VR image processing apparatus according to an embodiment of the present disclosure.
  • the high definition 360 degree VR image processing apparatus may include an encoding apparatus and / or a decoding apparatus of a 360 degree VR image.
  • the 360-degree VR image may be transmitted through a heterogeneous network including a broadcasting network or a broadcasting network and an IP network.
  • the high definition 360 degree image processing apparatus 400 may include a receiving module 410, a buffer module 420, a viewport control module 430, a decoder module 440, a RoI mapping module 450, and / or 360 VR mapping module 460 may be included.
  • a receiving module 410 may include a receiving module 410, a buffer module 420, a viewport control module 430, a decoder module 440, a RoI mapping module 450, and / or 360 VR mapping module 460 may be included.
  • the receiving module 410 may receive a transport stream based on various standard standards and analyze the signaling information and other control information related to providing the 360-degree VR service described with reference to FIG. 3. In addition, the receiving module 410 may perform a function of separately separating the 360-degree VR stream based on the low quality and / or the divided region and delivering the 360-degree VR stream to the corresponding buffer.
  • the buffer module 420 may buffer the stream transmitted from the receiving module 410. In addition, the buffer module 420 may perform synchronization based on a decoding time stamp (DTS) or a presentation time stamp (PTS) of each stream.
  • DTS decoding time stamp
  • PTS presentation time stamp
  • the buffer module 420 may perform frame-by-frame synchronization based on the DTS or the PTS.
  • the low quality 360 degree VR stream may be transmitted to the corresponding device as an IP stream in an IP environment in order to provide compatibility with a terminal such as an existing HMD.
  • the viewport control module 430 may extract a corresponding stream according to a user's movement or a user's selection based on a terminal such as a TV or an HMD. In addition, the viewport control module 430 may transmit the extracted stream to the decoder module 440. For example, the viewport control module 430 may transmit the low quality 360 degree VR video stream and the partition stream extracted by the viewport control module 430 to the decoder module 440. In this case, the user's motion information, the user's selection information, or the user's motion or area information according to the user's selection may be received in the IP environment.
  • the partition stream may be mapped based on a low quality 360-degree VR stream, and may be used to provide a high quality image to an area viewed by a user later.
  • the buffer module 420 may also perform frame synchronization based on the DTS and / or the PTS even in the partition streams not extracted by the viewport control module 430.
  • the buffer module 420 may continuously drop the packet through synchronization.
  • the decoding of the low quality 360 degree VR video stream is continuously performed, while the decoding of the partition stream may vary according to the region of interest of the user.
  • the high-definition 360-degree VR image processing apparatus Since the synchronization process for the entire stream is performed from the buffer module 420, the high-definition 360-degree VR image processing apparatus through the terminal such as the actual HMD, minimizing the MTP generated in response to the user's movement, the region of interest of high definition Can be provided. That is, even if the region of interest moves, the high-definition 360-degree VR image processing apparatus may play back based on a low-definition 360-degree VR image stream when moving, and if the region of interest is selected, immediately decode the corresponding divided region stream.
  • the RoI mapping module 450 may readjust the stream to be suitable for the resolution supported by the terminal such as the HMD with respect to the partition stream extracted by the viewport control module 430.
  • the 360 VR mapping module 460 may map the segmented video stream to the ROI based on the user's movement or the user's selection in the low quality 360 degree VR video stream.
  • the 360 VR mapping module 460 may transmit the mapped result to a terminal such as a TV or an HMD (470).
  • FIG. 5 is a diagram for describing a process of providing a high-definition 360-degree image of a region of interest (RoI) according to an exemplary embodiment.
  • the high-definition 360-degree VR image processing apparatus of the present disclosure may decode the partition stream included in the region of interest 512 with respect to the region of interest 512 and transmit the decoded region stream to the 360 VR mapping module.
  • the region of interest 512 may be detected by user movement or user selection.
  • the resolution of the extracted partition stream may have a horizontal resolution of 4K.
  • the resolution of the extracted partition stream is the same as the resolution supported for the region of interest in the terminal such as the HMD. May directly transfer the extracted partition stream to the 360 VR mapping module of FIG. 4 without additional processing.
  • FIG. 6 is a diagram for describing a process of providing a high-definition 360 degree image of a region of interest (RoI) according to another exemplary embodiment of the present disclosure.
  • the high-definition 360-degree VR image processing apparatus may decode the partition stream included in the region of interest 612 with respect to the region of interest 612 and transmit the decoded region stream to the 360 VR mapping module.
  • the region of interest 612 may be determined by user movement or user selection.
  • a terminal such as an HMD supports 4K horizontal resolution for a region of interest.
  • the region of interest 612 is located on a total of nine partition streams, that is, partition streams having a horizontal resolution of 4K or more. For example, if the region of interest 612 is selected as shown in FIG.
  • the high-definition 360-degree VR image processing apparatus may continuously decode a total of nine partition region streams in which the region of interest 610 is located. Also, the high-definition 360-degree VR image processing apparatus may detect a region of interest from the decoded partial image 620 based on the center of the region corresponding to the region of interest 622.
  • the high-definition 360-degree VR image processing apparatus sets the center coordinates 624 of the region corresponding to the region of interest 622 in the decoded partial image 620 to (0,0), and uses the center coordinates to determine left 2K. , The area corresponding to the right 2K, the upper 1K and the lower 1K, a total of 4K can be extracted.
  • the high definition 360 degree VR image processing apparatus may transmit the final extracted ROI 630 to the 360 VR mapping module.
  • the high-definition 360-degree VR image processing apparatus extracts the region of interest through the process of readjusting the region in the nine decoded images.
  • FIG. 7 is a diagram for describing a process of providing a high-definition 360-degree VR image to a region of interest of a user in a low-degree 360-degree VR image according to an embodiment of the present disclosure.
  • a user may watch a low-definition 360-degree VR image 710, and the ROI 712 may be determined according to a user's movement or a user's selection.
  • the high-definition 360-degree VR image processing apparatus may map the reconstructed region of interest 712 on the determined region of interest 712 and the high-definition region stream. Meanwhile, the processing described above with reference to FIG. 5 or 6 may be performed according to the relationship between the ROI 712 and the divided region of the high quality image.
  • the high-definition 360-degree VR image processing apparatus may transmit a result image of the high-quality readjusted ROI 722 to a terminal such as a TV or an HMD.
  • a high-definition 360-degree VR image processing apparatus capable of minimizing MTP through a mobile device such as a TV or HMD while providing 4K or more image quality for viewers' movements or views desired by a broadcast service environment. May be provided.
  • a receiving apparatus and method based on a user interest area for providing signaling information for a 360 degree VR broadcast service may be provided.
  • an apparatus and method for minimizing MTP while providing a region of interest of high definition according to a user's movement or a user's selection in a broadcasting network environment for a high definition 360 degree VR media may be provided.
  • an apparatus and method for providing a high-definition 360-degree VR broadcast service to viewers through various broadcasting networks such as terrestrial waves and cables may be provided.
  • the above embodiments may be performed in the same manner in the high definition 360 degree VR video encoding apparatus and the high quality 360 degree VR video decoding apparatus.
  • the order of applying the embodiment may be different in the high definition 360 degree VR video encoding apparatus and the high definition 360 degree VR video decoding apparatus, and the order of applying the embodiment is the high definition 360 degree VR video encoding apparatus and the high definition 360 degree VR video. It may be the same in the decoding apparatus.
  • the above embodiments may be performed in the same manner in the high definition 360 degree VR video encoding apparatus and the high quality 360 degree VR video decoding apparatus.
  • the above embodiment may be performed with respect to each of the luminance and chrominance signals, and the same embodiment may be performed with respect to the luminance and the chrominance signals.
  • the methods are described based on a flowchart as a series of steps or units, but the present invention is not limited to the order of steps, and certain steps may occur in a different order or simultaneously from other steps as described above. Can be. Also, one of ordinary skill in the art appreciates that the steps shown in the flowcharts are not exclusive, that other steps may be included, or that one or more steps in the flowcharts may be deleted without affecting the scope of the present invention. I can understand.
  • Embodiments according to the present invention described above may be implemented in the form of program instructions that may be executed by various computer components, and may be recorded in a computer-readable recording medium.
  • the computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination.
  • Program instructions recorded on the computer-readable recording medium may be those specially designed and configured for the present invention, or may be known and available to those skilled in the computer software arts.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs, DVDs, and magneto-optical media such as floptical disks. media), and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.
  • Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
  • the hardware device may be configured to operate as one or more software modules to perform the process according to the invention, and vice versa.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

Provided are a device and a method for providing a high-definition 360-degree virtual reality (VR) image. A 360-degree VR image decoding method, according to the present disclosure, comprises the steps of: receiving a bitstream including 360-degree VR image information; decoding, from the bitstream, information associated with a 360-degree VR service; detecting a region of interest on the basis of the information associated with the 360-degree VR service; and providing, to a user, a 360-degree VR image for the region of interest.

Description

고화질 360도 VR 영상 처리 장치 및 방법 High definition 360 degree VR image processing device and method
본 개시는 고화질 360도 VR 영상 처리 장치 및 방법에 관한 것이다. 보다 구체적으로, 본 개시는 고화질 360도 VR 방송 서비스에 관한 시그널링 정보를 제공하고, 또한 사용자의 관심 영역에 대해 고화질 360도 VR 영상을 제공하는 장치 및 방법에 관한 것이다.The present disclosure relates to a high-definition 360-degree VR image processing apparatus and method. More specifically, the present disclosure relates to an apparatus and method for providing signaling information regarding a high definition 360 degree VR broadcast service and also providing a high quality 360 degree VR image to a region of interest of a user.
디지털 방송의 출현은 방송국에서 일방적으로 송출한 신호를 시청하던 전통적 방송 방식을 사용자가 원하는 시간에 원하는 콘텐츠만을 선택적으로 시청할 수 있는 형태로 변화시켰다. 또한 광대역 전송 기술의 발전은 대역폭 한계를 극복하면서 시청자에게 4K 이상의 고화질 실감 미디어(예를 들어, UHDTV, 3DTV 등)를 제공할 수 있는 실감형 방송서비스를 제공할 수 있게 되었다 The advent of digital broadcasting has changed the traditional broadcasting method of watching a signal unilaterally transmitted from a broadcasting station into a form in which a user can selectively watch only desired content at a desired time. In addition, the development of broadband transmission technology has been able to provide realistic broadcast services that can provide viewers with 4K or higher quality immersive media (eg, UHDTV, 3DTV, etc.) while overcoming bandwidth limitations.
360도 가상현실(virtual reality, VR) 미디어는 시청자에게 전방위 영상을 제공함으로써 원하는 뷰(view)를 선택하여 볼 수 있는 미디어로서, 최근 방송망 접목을 통해 360도 VR 미디어를 서비스하려는 노력이 가속화되고 있다. 현재 일반적으로 적용되고 있는 360도 VR 미디어의 경우 전체 4K 또는 FHD급 VR 미디어를 동시에 제공할 수 있는데, 시청자에게 시청자가 원하는 뷰 또는 관심 영역(Region of Interest, RoI)을 지연 없이 제공할 수 있는 장점이 있으나, 실제 시청자의 움직임에 따라 재생되는 뷰의 화질이 열화되는 문제가 있다. 또한, 다른 형태로써, 시청자의 움직임 또는 시청자가 선택한 뷰의 정보에 기초하여 해당 영역에 대해 스트리밍하는 360도 VR 서비스는, 상대적으로 고화질의 뷰를 제공할 수 있으나 사용자 움직임에 따라 그에 응답하여 고화질의 영상을 재생하기 위한 지연시간(Motion to Photon, MTP)이 길어지는 문제가 있다.360-degree virtual reality (VR) media is a media that can select and view the desired view by providing viewers with a 360-degree image, the recent efforts to service 360-degree VR media through the integration of the broadcasting network has been accelerated . Currently applied 360-degree VR media can provide full 4K or FHD-level VR media at the same time, which can provide viewers with the desired view or region of interest (RoI) without delay. However, there is a problem in that the image quality of the reproduced view is deteriorated according to the movement of the actual viewer. In addition, in another form, the 360-degree VR service streaming to the corresponding area based on the viewer's movement or the view information selected by the viewer may provide a relatively high quality view, but in response to the user's movement, There is a problem in that a delay time (Motion to Photon, MTP) for playing an image is long.
360도 VR 미디어 관련 기술로서 파노라마 비디오 방송서비스 인식 및 관련 비디오 특성을 나타내기 위한 시그널링을 제공하는 기술, 썸네일(thumbnail) 영상을 우선 전송하고 수신기에서는 썸네일에 기초하여 요청된 특정 영역의 데이터를 전송하는 기술 또는 파노라마 비디오를 일정 영역의 타일로 분류하고 사용자가 선택한 영역에 대한 타일의 데이터만을 전송하는 기술 등이 있다. 이러한 기존의 기술들은 파노라마 방송서비스를 제공하기 위한 시그널링, 타일링 전송 및 동기화 방법 등을 제안하고 있으나, 고화질 360도 VR 영상에 대하여 방송망 환경 하에서 사용자의 움직임 또는 사용자의 선택에 기반한 360도 VR 방송서비스를 제공하기 어렵다는 문제가 있다.As a technology related to 360-degree VR media, a technology that provides a panorama video broadcasting service recognition and signaling to indicate related video characteristics, and first transmits a thumbnail image, and a receiver transmits data of a specific region requested based on the thumbnail. Techniques such as technology to classify panorama video into tiles of a certain area and transmit only data of tiles for the area selected by the user. These existing technologies have proposed signaling, tiling transmission and synchronization methods for providing a panoramic broadcasting service, but the 360-degree VR broadcasting service based on the user's movement or the user's selection in a broadcasting network environment for a high-definition 360-degree VR image is proposed. There is a problem that it is difficult to provide.
본 개시의 기술적 과제는, 고화질의 360도 VR 영상 처리 장치 및 방법을 제공하는 것이다.An object of the present disclosure is to provide a high-definition 360-degree VR image processing apparatus and method.
본 개시의 다른 기술적 과제는, 고화질 360도 VR 방송 서비스에 관한 시그널링 정보를 제공하는 부호화 장치 및 방법을 제공하는 것이다.Another technical problem of the present disclosure is to provide an encoding apparatus and method for providing signaling information regarding a high definition 360 degree VR broadcast service.
본 개시의 다른 기술적 과제는, 고화질 360도 VR 방송 서비스에 관한 시그널링 정보를 수신하는 복호화 장치 및 방법을 제공하는 것이다.Another technical problem of the present disclosure is to provide a decoding apparatus and method for receiving signaling information regarding a high definition 360 degree VR broadcast service.
본 개시의 다른 기술적 과제는, 사용자의 관심 영역에 대해 고화질 360도 VR 영상을 제공하는 부호화 장치 및 방법을 제공하는 것이다.Another technical problem of the present disclosure is to provide an encoding apparatus and method for providing a high-definition 360-degree VR image for a region of interest of a user.
본 개시의 다른 기술적 과제는, 사용자의 관심 영역에 대해 고화질 360도 VR 영상을 제공하는 복호화 장치 및 방법을 제공하는 것이다.Another technical problem of the present disclosure is to provide a decoding apparatus and method for providing a high-definition 360-degree VR image for the user's region of interest.
본 개시에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Technical problems to be achieved in the present disclosure are not limited to the above-mentioned technical problems, and other technical problems not mentioned above will be clearly understood by those skilled in the art from the following description. Could be.
본 개시에 따르면, 고화질 360도 VR 영상 처리 장치 및 방법이 제공될 수 있다.According to the present disclosure, a high quality 360 degree VR image processing apparatus and method may be provided.
또한, 본 개시에 따르면, 고화질 360도 VR 방송 서비스를 위한 시그널링 정보를 제공하는 장치 및 방법이 제공될 수 있다.In addition, according to the present disclosure, an apparatus and method for providing signaling information for a high definition 360 degree VR broadcast service may be provided.
또한, 본 개시에 따르면, 사용자의 관심 영역에 대해 고화질 360도 VR 영상을 제공하는 장치 및 방법이 제공될 수 있다.In addition, according to the present disclosure, an apparatus and method for providing a high-definition 360-degree VR image for the ROI of a user may be provided.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present disclosure are not limited to the above-mentioned effects, and other effects not mentioned above may be clearly understood by those skilled in the art from the following description. will be.
도 1은 본 개시의 일 실시 예에 따른 방송망을 통해 고화질 360도 VR 미디어를 서비스하는 시나리오를 설명하기 위한 도면이다.1 is a view for explaining a scenario of serving a high-definition 360-degree VR media through a broadcasting network according to an embodiment of the present disclosure.
도 2는 본 개시의 일 실시 예에 따른 방송망을 통해 전송되는 360도 VR 영상 스트림의 구조를 설명하기 위한 도면이다.2 is a view for explaining the structure of a 360-degree VR video stream transmitted through a broadcasting network according to an embodiment of the present disclosure.
도 3은 본 개시의 일 실시 예에 따른 360도 VR 방송 서비스에 관한 시그널링 구조를 설명하기 위한 도면이다.3 is a diagram for describing a signaling structure regarding a 360 degree VR broadcast service according to one embodiment of the present disclosure.
도 4는 본 개시의 일 실시 예에 따른 고화질 360도 VR 영상 처리 장치의 구성을 설명하기 위한 도면이다.4 is a diagram illustrating a configuration of a high-definition 360-degree VR image processing apparatus according to an embodiment of the present disclosure.
도 5는 본 개시의 일 실시 예에 따른 관심 영역(RoI)에 대한 고화질 360도 영상을 제공하는 과정을 설명하기 위한 도면이다.FIG. 5 is a diagram for describing a process of providing a high-definition 360-degree image of a region of interest (RoI) according to an exemplary embodiment.
도 6은 본 개시의 다른 실시 예에 따른 관심 영역(RoI)에 대한 고화질 360도 영상을 제공하는 과정을 설명하기 위한 도면이다.6 is a diagram for describing a process of providing a high-definition 360 degree image of a region of interest (RoI) according to another exemplary embodiment of the present disclosure.
도 7은 본 개시의 일 실시 예에 따른 저화질의 360도 VR 영상에서 사용자의 관심 영역에 대해 고화질의 360도 VR 영상을 제공하는 과정을 설명하기 위한 도면이다.FIG. 7 is a diagram for describing a process of providing a high-definition 360-degree VR image to a region of interest of a user in a low-degree 360-degree VR image according to an embodiment of the present disclosure.
본 개시의 일 양상에 따르면, 360도 VR(Virtual Reality) 영상 정보를 포함하는 비트스트림을 수신하는 단계; 상기 비트스트림으로부터 360도 VR 서비스와 관련된 정보를 복호화하는 단계; 상기 360도 VR 서비스와 관련된 정보에 기초하여 관심 영역을 검출하는 단계; 및 상기 관심 영역에 대해 상기 360도 VR 영상을 사용자에게 제공하는 단계를 포함하는, 360도 영상 복호화 방법이 제공될 수 있다.According to an aspect of the present disclosure, the method includes: receiving a bitstream including 360 degree VR (Virtual Reality) image information; Decoding information associated with a 360 degree VR service from the bitstream; Detecting a region of interest based on information associated with the 360 degree VR service; And providing the 360 degree VR image to the user for the ROI.
본 개시의 다른 양상에 따르면, 360도 VR 영상 정보를 포함하는 비트스트림을 수신하고, 상기 비트스트림으로부터 360도 VR 서비스와 관련된 정보를 복호화하고, 상기 360도 VR 서비스와 관련된 정보에 기초하여 관심 영역을 검출하고, 상기 관심 영역에 대해 상기 360도 VR 영상을 사용자에게 제공하는 것을 특징으로 하는, 360도 영상 복호화 장치가 제공될 수 있다.According to another aspect of the present disclosure, a bitstream including 360-degree VR image information is received, information about a 360-degree VR service is decoded from the bitstream, and a region of interest is based on information associated with the 360-degree VR service. And detecting and providing the 360-degree VR image to the user with respect to the ROI.
본 개시의 다른 양상에 따르면, 360도 VR 영상 정보를 수신하는 단계; 사용자의 관심 영역을 인지하는 단계; 및 360도 VR 서비스와 관련된 정보를 부호화하는 단계를 포함하고, 상기 360도 VR 서비스와 관련된 정보는 상기 360도 VR 영상의 분할 정보 및 상기 관심 영역 정보 중 적어도 하나를 포함하는 것을 특징으로 하는, 360도 영상 부호화 방법이 제공될 수 있다.According to another aspect of the present disclosure, a method of receiving 360-degree VR image information; Recognizing a region of interest of the user; And encoding information related to a 360 degree VR service, wherein the information related to the 360 degree VR service includes at least one of segmentation information of the 360 degree VR image and the ROI information. An image encoding method may be provided.
본 개시의 다른 양상에 따르면, 360도 VR 영상 정보를 수신하고, 사용자의 관심 영역을 인지하고, 360도 VR 서비스와 관련된 정보를 부호화하고, 기 360도 VR 서비스와 관련된 정보는 상기 360도 VR 영상의 분할 정보 및 상기 관심 영역 정보 중 적어도 하나를 포함하는 것을 특징으로 하는, 360도 영상 부호화 장치가 제공될 수 있다.According to another aspect of the present disclosure, receiving 360-degree VR image information, recognizing a region of interest of a user, encoding information associated with a 360-degree VR service, information associated with a 360-degree VR service is the 360-degree VR image A 360 degree image encoding apparatus may include at least one of segmentation information and the ROI information.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다. 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다. 후술하는 예시적 실시예들에 대한 상세한 설명은, 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 실시예를 실시할 수 있기에 충분하도록 상세히 설명된다. 다양한 실시예들은 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 실시예의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 예시적 실시예들의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다.As the invention allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. Like reference numerals in the drawings refer to the same or similar functions throughout the several aspects. Shape and size of the elements in the drawings may be exaggerated for clarity. DETAILED DESCRIPTION For the following detailed description of exemplary embodiments, reference is made to the accompanying drawings that show, by way of illustration, specific embodiments. These embodiments are described in sufficient detail to enable those skilled in the art to practice the embodiments. It should be understood that the various embodiments are different but need not be mutually exclusive. For example, certain shapes, structures, and characteristics described herein may be embodied in other embodiments without departing from the spirit and scope of the invention with respect to one embodiment. In addition, it is to be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the embodiments. The following detailed description, therefore, is not to be taken in a limiting sense, and the scope of the exemplary embodiments, if properly described, is defined only by the appended claims, along with the full scope of equivalents to which such claims are entitled.
본 발명에서 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.In the present invention, terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component. The term and / or includes a combination of a plurality of related items or any item of a plurality of related items.
본 발명의 어떤 구성 요소가 다른 구성 요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있으나, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다거나 "직접 접속되어"있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When any component of the invention is said to be “connected” or “connected” to another component, it may be directly connected to or connected to that other component, but other components may be present in between. It should be understood that it may. On the other hand, when a component is referred to as being "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between.
본 발명의 실시예에 나타나는 구성부들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 포함한 것으로 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있고 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.The components shown in the embodiments of the present invention are shown independently to represent different characteristic functions, and do not mean that each component is made of separate hardware or one software component unit. In other words, each component is included in each component for convenience of description, and at least two of the components may be combined into one component, or one component may be divided into a plurality of components to perform a function. Integrated and separate embodiments of the components are also included within the scope of the present invention without departing from the spirit of the invention.
본 발명에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 발명에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 즉, 본 발명에서 특정 구성을 “포함”한다고 기술하는 내용은 해당 구성 이외의 구성을 배제하는 것이 아니며, 추가적인 구성이 본 발명의 실시 또는 본 발명의 기술적 사상의 범위에 포함될 수 있음을 의미한다. The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present invention, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof. In other words, the description "include" a specific configuration in the present invention does not exclude a configuration other than the configuration, it means that additional configuration may be included in the scope of the technical spirit of the present invention or the present invention.
본 발명의 일부의 구성 요소는 본 발명에서 본질적인 기능을 수행하는 필수적인 구성 요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성 요소일 수 있다. 본 발명은 단지 성능 향상을 위해 사용되는 구성 요소를 제외한 본 발명의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 단지 성능 향상을 위해 사용되는 선택적 구성 요소를 제외한 필수 구성 요소만을 포함한 구조도 본 발명의 권리범위에 포함된다.Some components of the present invention are not essential components for performing essential functions in the present invention but may be optional components for improving performance. The present invention can be implemented including only the components essential for implementing the essentials of the present invention except for the components used for improving performance, and the structure including only the essential components except for the optional components used for improving performance. Also included in the scope of the present invention.
이하, 도면을 참조하여 본 발명의 실시 형태에 대하여 구체적으로 설명한다. 본 명세서의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략하고, 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.EMBODIMENT OF THE INVENTION Hereinafter, embodiment of this invention is described concretely with reference to drawings. In describing the embodiments of the present specification, when it is determined that a detailed description of a related well-known configuration or function may obscure the gist of the present specification, the detailed description is omitted and the same reference numerals are used for the same elements in the drawings. Duplicate descriptions of the same components are omitted.
도 1은 본 개시의 일 실시 예에 따른 방송망을 통해 고화질 360도 VR 미디어를 서비스하는 시나리오를 설명하기 위한 도면이다.1 is a view for explaining a scenario of serving a high-definition 360-degree VR media through a broadcasting network according to an embodiment of the present disclosure.
제1 시나리오는 360도 VR 카메라로 획득한 영상에 기초하여 저화질과 고화질의 360도 VR 영상을 동시에 서비스하는 시나리오이다. 여기서, ‘고화질’은 360도 VR 획득 장치로부터 획득된 미디어의 기본적인 해상도를 의미할 수 있다. 저화질 360도 VR 영상(110)은 360도 VR 카메라로 획득된 고화질의 360도 VR 영상에 대해 소정의 크기를 가지도록 다운(down) 변환한 영상을 의미할 수 있다. 예컨대, 고화질 360도 VR 영상이 16Kx8K의 해상도를 가진다면 저화질 360도 VR 영상(110)은 4Kx2K의 해상도를 가질 수 있다. 4Kx2K의 해상도는 현재 상용 UHD TV 및 HMD(Head Mounted Display)의 해상도를 기준으로 예를 든 것으로서, 저화질 360도 VR 영상(110)의 해상도는 이에 제한되지 않으며, 임의적으로 달라질 수 있다. 한편, 저화질 360도 VR 영상(110)은 방송 환경에서 기존 수신기와의 호환성을 위해 제공될 수 있으며, 또한 사용자의 움직임 또는 사용자의 선택에 따른 MTP 시간을 최소화 하는데 이용될 수 있다.The first scenario is a scenario of simultaneously serving a 360-degree VR image of low quality and high quality based on an image acquired by a 360-degree VR camera. Here, the term “high definition” may mean a basic resolution of media acquired from a 360-degree VR acquisition device. The low quality 360 degree VR image 110 may refer to an image which is down-converted to have a predetermined size with respect to a high quality 360 degree VR image obtained by a 360 degree VR camera. For example, if the high definition 360 degree VR image has a resolution of 16Kx8K, the low quality 360 degree VR image 110 may have a resolution of 4Kx2K. The resolution of 4Kx2K is based on the resolution of the current commercial UHD TV and head mounted display (HMD), and the resolution of the low-quality 360-degree VR image 110 is not limited thereto and may be arbitrarily changed. Meanwhile, the low definition 360 degree VR image 110 may be provided for compatibility with an existing receiver in a broadcast environment, and may be used to minimize MTP time according to a user's movement or a user's selection.
본 개시의 고화질 360도 VR 영상(120)은 관심 영역(Region of Interest, RoI)에 대해 제공되는 고화질의 영상을 의미할 수 있다. 관심 영역은 사용자의 움직임 또는 사용자의 선택에 따라 인지될 수 있다. 예컨대, 사용자의 선택은 외부 기기를 통한 사용자 입력을 의미할 수 있으나, 이에 제한되지 않으며, 관심 영역을 결정하기 위한 사용자의 소정의 동작을 포함할 수 있다. 고화질 360도 VR 영상(120)은 임의의 크기의 영역으로 분할될 수 있으며, 각 분할 영역은 독립적으로 인코딩될 수 있다. 도 1을 참조하면, 고화질 360도 VR 영상(120)은 타일드(tiled) 기반의 영역들로 분할될 수 있다. 예컨대, 사용자는 저화질의 360도 VR 영상을 시청할 수 있으며, 사용자의 관심 영역에 대해서는 고화질의 360도 VR 영상이 제공됨으로써, 사용자는 관심 있는 영역에 대해 보다 선명하고 화질이 향상된 360도 VR 영상을 시청할 수 있다.The high-definition 360-degree VR image 120 of the present disclosure may refer to a high-definition image provided for a region of interest (RoI). The region of interest may be recognized according to the movement of the user or the selection of the user. For example, the selection of the user may mean a user input through an external device, but is not limited thereto and may include a predetermined operation of the user for determining the ROI. The high-definition 360-degree VR image 120 may be divided into areas of any size, and each divided area may be encoded independently. Referring to FIG. 1, the high quality 360 degree VR image 120 may be divided into tiled based regions. For example, a user may watch a 360-degree VR image of a low quality, and a high-definition 360-degree VR image is provided for a region of interest of the user, so that the user may watch a 360-degree VR image that is more sharp and improved in a region of interest. Can be.
제2 시나리오는 저화질의 360도 VR 영상 없이 소정의 크기의 영역으로 분할된 고화질 360도 VR 영상(130)에 기초하여, 방송환경 하에서 상기 고화질 VR 영상(130)을 서비스하는 시나리오이다. 예컨대, 수신기는 시그널링을 통하여 분할된 영역 중 재생되는 초기 영역(initial view region, 132)을 보여주고 사용자의 움직임 또는 사용자의 선택에 따라 그에 응답하여 결정된 해당 영역을 재생할 수 있다. 예컨대, 소정의 분할 영역의 크기는 분할 영역이 FHD 또는 4K 등의 해상도를 일정하게 가지도록 결정될 수 있으며, 또한 TV나 HMD 등의 모바일 기기가 지원하는 해상도에 따라 달라질 수 있다.The second scenario is a scenario in which the high-definition VR image 130 is serviced under a broadcast environment based on the high-definition 360-degree VR image 130 divided into regions having a predetermined size without a low-degree 360-degree VR image. For example, the receiver may display an initial view region 132 to be reproduced among the divided regions through signaling and reproduce the corresponding region determined in response to the movement of the user or the selection of the user. For example, the size of a predetermined partition may be determined such that the partition has a constant resolution such as FHD or 4K, and may also vary according to a resolution supported by a mobile device such as a TV or an HMD.
도 2는 본 개시의 일 실시 예에 따른 방송망을 통해 전송되는 360도 VR 영상 스트림의 구조를 설명하기 위한 도면이다.2 is a view for explaining the structure of a 360-degree VR video stream transmitted through a broadcasting network according to an embodiment of the present disclosure.
저화질 360도 VR 영상(210)은 HEVC 부호화기(212)에 의해 인코딩되어 하나의 ES(Elementary Stream)_ID, Asset_ID 또는 AdaptationSet ID로 구분되어 전송될 수 있으며, 또는 별도로 인코딩된 스트림의 고유 식별정보로도 전송될 수 있다(214). 스트림은 비트스트림을 의미할 수 있다. ES_ID, Asset_ID 및 AdaptationSet_ID는 각각 MPEG-2 Systems, MPEG-MMT 및 MPEG-DASH 규격에서 부호화 스트림을 구분하기 위한 부호화 스트림 고유 식별정보로 활용될 수 있다. 예컨대, 저화질 360도 VR 영상(210)은 4Kx2K의 해상도를 가질 수 있으며, 이에 제한되지 않으며, 영상을 제공하는 단말 등에 따라 달라질 수 있다.The low-quality 360-degree VR image 210 may be encoded by the HEVC encoder 212 and may be transmitted by being divided into one Elementary Stream (ID) _ID, Asset_ID, or AdaptationSet ID, or may also be transmitted as unique identification information of a separately encoded stream. It may be sent 214. The stream may mean a bitstream. ES_ID, Asset_ID and AdaptationSet_ID may be used as encoding stream unique identification information for distinguishing encoding streams in MPEG-2 Systems, MPEG-MMT and MPEG-DASH standards, respectively. For example, the low-definition 360-degree VR image 210 may have a resolution of 4Kx2K, but is not limited thereto and may vary depending on a terminal providing an image.
한편, 고화질 360도 VR 영상(220)은 일정한 크기를 가지는 영역들로 분할될 수 있다. 분할된 영역들은 각각 HEVC 부호화기(222)에 의해 인코딩되어 영역별로 하나의 ES ID, Asset ID 또는 Adaptation_set ID로 구분되어 전송될 수 있다(224). 이때 고화질 360도 VR 영상(220)의 스트림의 개수는 분할된 영역의 개수에 따라 달라질 수 있다. 예컨대, 고화질 360도 VR 영상(220)의 스트림은 4Kx2K의 해상도를 가질 수 있으며, 이에 제한되지 않으며, 영상을 제공하는 단말 등에 따라 달라질 수 있다. 또한, 저화질 360도 VR 영상 스트림은 고화질 360도 VR 영상(220)의 분할 영역 스트림과 같은 채널에 전송되거나, 또는 종래 수신기와의 호환성을 유지하기 위해 별도로 독립된 채널로 전송될 수 있다(216). 예컨대, 별도로 독립된 채널은 IP망 또는 방송망에서의 별도 채널일 수 있다. 또한, 고화질 360도 VR 영상(220)의 분할 영역 스트림은 채널 결합을 이용하여 하나의 방송 채널로 전송되거나 또는 IP망을 통하여 전송될 수 있다(226). Meanwhile, the high quality 360 degree VR image 220 may be divided into regions having a constant size. Each of the divided regions may be encoded by the HEVC encoder 222 and may be transmitted by being divided into one ES ID, Asset ID, or Adaptation_set ID for each region (224). In this case, the number of streams of the high-definition 360-degree VR image 220 may vary depending on the number of divided regions. For example, the stream of the high-definition 360-degree VR image 220 may have a resolution of 4Kx2K, but is not limited thereto, and may vary depending on a terminal providing an image. In addition, the low-quality 360-degree VR video stream may be transmitted in the same channel as the partition stream of the high-definition 360-degree VR video 220, or may be transmitted in a separate channel to maintain compatibility with the conventional receiver (216). For example, a separate channel may be a separate channel in an IP network or a broadcasting network. In addition, the partition stream of the high-definition 360-degree VR image 220 may be transmitted through one channel or through an IP network by using channel combining (226).
도 3은 본 개시의 일 실시 예에 따른 360도 VR 방송 서비스에 관한 시그널링 구조를 설명하기 위한 도면이다.3 is a diagram for describing a signaling structure regarding a 360 degree VR broadcast service according to one embodiment of the present disclosure.
도 3을 참조하면, 360도 VR 방송 서비스에 관한 시그널링 구조는 저화질 및 고화질의 360도 VR 영상 스트림의 구분 또는 방송 서비스를 위해 부가적으로 필요한 시그널링 정보를 포함할 수 있다.Referring to FIG. 3, the signaling structure for the 360-degree VR broadcast service may include signaling information additionally required for the classification or broadcast service of the 360-degree VR video stream of low quality and high quality.
일 실시 예에 따른, 제1 시그널링 구조(310)는 고화질 360도 VR 방송 서비스를 구분하기 위한 시그널링 구조로서, 프로그램 또는 서비스 레벨에 적용되어 시그널링되는 정보를 나타낼 수 있다.According to an embodiment, the first signaling structure 310 is a signaling structure for distinguishing a high-definition 360-degree VR broadcast service and may indicate information applied to a program or service level and signaled.
VR_contents_ID는 프로그램 또는 채널에서 전송되는 다양한 VR 영상을 구분하기 위한 식별자를 의미할 수 있다. 또한, VR_contents_ID는 다양하게 전송되는 VR 콘텐츠를 구분하기 위한 고유 식별 정보로 활용될 수 있다. 또한, 실제 VR 콘텐츠 구성을 나타내는 정보로 활용될 수 있다. 예컨대, 실제 VR 콘텐츠 구성은 2D 또는 3D를 의미할 수 있다. VR_projectionType은 다양한 VR 프로젝션 타입을 의미할 수 있다. 또한, VR_projectionType은 수신기에서 수신된 영상을 360도 VR 영상으로 다시 매핑하거나 재현하기 위해 이용될 수 있다. Total_width 및 Total_height는 각각 고화질 360도 VR 영상의 전체 가로 및 세로 크기를 의미할 수 있다. Number_ROI는 분할 영역의 총 개수를 의미할 수 있다.VR_contents_ID may mean an identifier for distinguishing various VR images transmitted from a program or a channel. In addition, the VR_contents_ID may be utilized as unique identification information for distinguishing variously transmitted VR contents. In addition, it can be used as information representing the actual VR content configuration. For example, the actual VR content configuration may mean 2D or 3D. VR_projectionType may mean various VR projection types. In addition, the VR_projectionType may be used to remap or reproduce the image received at the receiver to a 360 degree VR image. Total_width and Total_height may mean the total horizontal and vertical size of the high-definition 360-degree VR image, respectively. Number_ROI may mean the total number of partitions.
또한, 일 실시 예에 따른 제2 시그널링 구조(320)는 저화질 360도 VR 영상을 구분하는 식별자 및 특정 크기로 분할된 고화질 360도 VR 영상 스트림의 각 영역의 부호화 스트림 레벨에 적용되어 시그널링 되는 정보를 의미할 수 있다. In addition, the second signaling structure 320 according to an embodiment may include an identifier for distinguishing a low-quality 360-degree VR image and information signaled by being applied to a coding stream level of each region of the high-definition 360-degree VR video stream divided into a specific size. Can mean.
VR_totalview_present는 저화질 360도 VR 영상 스트림의 해당 유무를 판단하는데 이용될 수 있다. Viewport_ID는 분할 영역을 각각 구분하기 위한 식별자를 의미할 수 있다. 예컨대, Viewport_ID는 사용자의 움직임 또는 사용자의 선택에 따른 해당 영역을 디코딩하거나 재생하기 위해 사용될 수 있다. Initial_viewport_flag는 도 1에서 설명하였던 제2 시나리오와 같이 저화질 360도 VR 영상 없이 분할 영역을 기반으로 서비스되는 경우, TV 또는 HMD등의 단말에 가장 먼저 재생될 영역을 식별하기 위해 이용될 수 있다. RoI_x_strartposition 및 RoI_x_endposition은 각각 분할 영상에 대한 가로 시작 좌표 및 가로 종료 좌표를 의미할 수 있다. RoI_y_strartposition 및 RoI_y_endposition은 각각 분할 영상에 대한 세로 시작 좌표 및 세로 종료 좌표를 의미할 수 있다. 상기 가로/세로 시작 좌표 및 가로/세로 종료 좌표에 기초하여 전체 VR 영상 내에서 분할 영역의 위치를 알 수 있다.The VR_totalview_present may be used to determine the presence or absence of a low quality 360 degree VR video stream. Viewport_ID may mean an identifier for identifying each partition. For example, the Viewport_ID may be used to decode or play the corresponding area according to the user's movement or the user's selection. Initial_viewport_flag may be used to identify a region to be reproduced first in a terminal such as a TV or an HMD when a service is provided based on a divided region without a low quality 360 degree VR image as in the second scenario described with reference to FIG. 1. RoI_x_strartposition and RoI_x_endposition may mean horizontal start coordinates and horizontal end coordinates for the split image, respectively. RoI_y_strartposition and RoI_y_endposition may mean a vertical start coordinate and a vertical end coordinate for the split image, respectively. Based on the horizontal / vertical start coordinates and the horizontal / vertical end coordinates, the position of the divided region within the entire VR image may be known.
한편, 제1 시그널링 구조(310) 및/또는 제2 시그널링 구조(320)를 구성하는 시그널링 정보들은 상기 구조뿐만 아니라 다양한 메타데이터 또는 XML 등 다양한 형태로 변환되어 활용될 수 있다.Meanwhile, the signaling information constituting the first signaling structure 310 and / or the second signaling structure 320 may be converted into various forms such as various metadata or XML as well as the above structure and used.
도 4는 본 개시의 일 실시 예에 따른 고화질 360도 VR 영상 처리 장치의 구성을 설명하기 위한 도면이다.4 is a diagram illustrating a configuration of a high-definition 360-degree VR image processing apparatus according to an embodiment of the present disclosure.
고화질 360도 VR 영상 처리 장치는 360도 VR 영상의 인코딩 장치 및/또는 디코딩 장치를 포함할 수 있다. 또한, 360도 VR 영상은 방송망 또는 방송망과 IP망을 포함하는 이종망을 통해 전송될 수 있다.The high definition 360 degree VR image processing apparatus may include an encoding apparatus and / or a decoding apparatus of a 360 degree VR image. In addition, the 360-degree VR image may be transmitted through a heterogeneous network including a broadcasting network or a broadcasting network and an IP network.
도 4를 참조하면, 고화질 360도 영상 처리 장치(400)는 수신 모듈(410), 버퍼 모듈(420), Viewport 제어 모듈(430), 디코더 모듈(440), RoI 매핑 모듈(450) 및/또는 360 VR 매핑 모듈(460)을 포함할 수 있다. 다만, 이는 본 실시예를 설명하기 위해 필요한 일부 구성요소만을 도시한 것일 뿐, 고화질 360도 영상 처리 장치(400)에 포함된 구성요소가 전술한 예에 한정되는 것은 아니다.Referring to FIG. 4, the high definition 360 degree image processing apparatus 400 may include a receiving module 410, a buffer module 420, a viewport control module 430, a decoder module 440, a RoI mapping module 450, and / or 360 VR mapping module 460 may be included. However, this is only a part of the components necessary to describe the present embodiment, the components included in the high-definition 360-degree image processing apparatus 400 is not limited to the above-described example.
수신 모듈(410)은 다양한 표준 규격을 토대로 전송 스트림을 수신하고 도 3에서 설명하였던 시그널링 정보 및 360도 VR 서비스 제공과 관련된 기타 제어 정보에 대한 분석을 수행할 수 있다. 또한, 수신 모듈(410)은 저화질 및/또는 분할 영역에 기초한 360도 VR 스트림을 별도로 분리하여 해당 버퍼에 전달하는 역할을 수행할 수 있다. 버퍼 모듈(420)은 수신 모듈(410)로부터 전송된 스트림을 버퍼링할 수 있다. 또한, 버퍼 모듈(420)은 각 스트림의 디코딩 시간(Decoding Time Stamp, DTS) 또는 재생 시간(Presentation Time Stamp, PTS)에 기초하여 동기화를 수행할 수 있다. 에컨대, 360도 VR 서비스의 경우 사용자의 움직임에 따라 동기화된 장면을 재생하는 것이 요구되기 때문에, 버퍼 모듈(420)은 DTS 또는 PTS에 기초하여 프레임 별 동기화를 수행할 수 있다. 이때 저화질 360도 VR 스트림은 기존의 HMD 등의 단말과의 호환성을 제공하기 위해 IP 환경에서 IP 스트림으로 해당 기기에 전송될 수 있다.The receiving module 410 may receive a transport stream based on various standard standards and analyze the signaling information and other control information related to providing the 360-degree VR service described with reference to FIG. 3. In addition, the receiving module 410 may perform a function of separately separating the 360-degree VR stream based on the low quality and / or the divided region and delivering the 360-degree VR stream to the corresponding buffer. The buffer module 420 may buffer the stream transmitted from the receiving module 410. In addition, the buffer module 420 may perform synchronization based on a decoding time stamp (DTS) or a presentation time stamp (PTS) of each stream. For example, in the case of the 360-degree VR service, since it is required to reproduce the synchronized scene according to the user's movement, the buffer module 420 may perform frame-by-frame synchronization based on the DTS or the PTS. In this case, the low quality 360 degree VR stream may be transmitted to the corresponding device as an IP stream in an IP environment in order to provide compatibility with a terminal such as an existing HMD.
Viewport 제어 모듈(430)은 TV 또는 HMD 등의 단말을 기반으로 사용자의 움직임 또는 사용자의 선택에 따라 해당 스트림을 추출할 수 있다. 또한, Viewport 제어 모듈(430)은 추출된 스트림을 디코더 모듈(440)에 전송할 수 있다. 예컨대, Viewport 제어 모듈(430)은 저화질 360도 VR 영상 스트림 및 Viewport 제어 모듈(430)에 의해 추출된 분할영역 스트림을 디코더 모듈(440)로 전송할 수 있다. 이때, 사용자의 움직임 정보, 사용자의 선택 정보 또는 사용자의 움직임 또는 선택에 따른 영역 정보 등은 IP 환경에서도 받을 수 있다. 분할 영역 스트림은 저화질 360도 VR 스트림을 기초로 매핑될 수 있으며, 추후 사용자가 시청하는 영역에 대하여 고화질의 영상을 제공하는데 이용될 수 있다. 한편, 버퍼 모듈(420)은 Viewport 제어 모듈(430)에 의해 추출되지 않은 분할 영역 스트림들도 DTS 및/또는 PTS에 기초하여 프레임 동기화를 수행할 수 있다. 또한, 버퍼 모듈(420)은 동기화를 통하여 해당 패킷을 지속적으로 버릴 수 있다(dropping). 저화질 360도 VR 영상 스트림의 디코딩은 지속적으로 수행되는 반면, 분할 영역 스트림의 디코딩은 사용자의 관심 영역에 따라 달라질 수 있다. 버퍼 모듈(420)로부터 전체 스트림에 대한 동기화 과정이 진행되기 때문에, 고화질 360도 VR 영상 처리 장치는 실제 HMD 등의 단말을 통해, 사용자 움직임에 따라 그에 응답하여 발생하는 MTP를 최소화하면 고화질의 관심 영역을 제공할 수 있다. 즉, 고화질 360도 VR 영상 처리 장치는 관심 영역이 이동하더라도 이동 시에는 저화질 360도 VR 영상 스트림을 토대로 재생하고, 관심 영역이 선택된 경우 해당 분할 영역 스트림의 디코딩을 바로 수행할 수 있다.The viewport control module 430 may extract a corresponding stream according to a user's movement or a user's selection based on a terminal such as a TV or an HMD. In addition, the viewport control module 430 may transmit the extracted stream to the decoder module 440. For example, the viewport control module 430 may transmit the low quality 360 degree VR video stream and the partition stream extracted by the viewport control module 430 to the decoder module 440. In this case, the user's motion information, the user's selection information, or the user's motion or area information according to the user's selection may be received in the IP environment. The partition stream may be mapped based on a low quality 360-degree VR stream, and may be used to provide a high quality image to an area viewed by a user later. Meanwhile, the buffer module 420 may also perform frame synchronization based on the DTS and / or the PTS even in the partition streams not extracted by the viewport control module 430. In addition, the buffer module 420 may continuously drop the packet through synchronization. The decoding of the low quality 360 degree VR video stream is continuously performed, while the decoding of the partition stream may vary according to the region of interest of the user. Since the synchronization process for the entire stream is performed from the buffer module 420, the high-definition 360-degree VR image processing apparatus through the terminal such as the actual HMD, minimizing the MTP generated in response to the user's movement, the region of interest of high definition Can be provided. That is, even if the region of interest moves, the high-definition 360-degree VR image processing apparatus may play back based on a low-definition 360-degree VR image stream when moving, and if the region of interest is selected, immediately decode the corresponding divided region stream.
RoI 매핑 모듈(450)은 Viewport 제어 모듈(430)에 의해 추출된 분할 영역 스트림에 대해 HMD 등의 단말에서 지원하는 해상도에 적합하도록 스트림을 재조정할 수 있다. 360 VR 매핑 모듈(460)은 저화질 360도 VR 영상 스트림에서 사용자의 움직임 또는 사용자의 선택에 기초한 관심 영역에 대해 분할 영상 스트림을 매핑할 수 있다. 또한, 360 VR 매핑 모듈(460)은 매핑된 결과를 TV 또는 HMD 등의 단말로 전송할 수 있다(470).The RoI mapping module 450 may readjust the stream to be suitable for the resolution supported by the terminal such as the HMD with respect to the partition stream extracted by the viewport control module 430. The 360 VR mapping module 460 may map the segmented video stream to the ROI based on the user's movement or the user's selection in the low quality 360 degree VR video stream. In addition, the 360 VR mapping module 460 may transmit the mapped result to a terminal such as a TV or an HMD (470).
도 5는 본 개시의 일 실시 예에 따른 관심 영역(RoI)에 대한 고화질 360도 영상을 제공하는 과정을 설명하기 위한 도면이다.FIG. 5 is a diagram for describing a process of providing a high-definition 360-degree image of a region of interest (RoI) according to an exemplary embodiment.
본 개시의 고화질 360도 VR 영상 처리 장치는 관심 영역(512)에 대해 관심 영역(512)에 포함된 분할 영역 스트림을 디코딩하고 360 VR 매핑 모듈로 전달할 수 있다. 관심 영역(512)은 사용자의 움직임 또는 사용자의 선택에 의해 검출될 수 있다. 도 5를 참조하면, 추출되는 분할 영역 스트림의 해상도는 4K의 가로 해상도를 가질 수 있다. 예컨대, HMD 등의 단말에서 관심 영역에 대해 4K의 가로 해상도를 지원하면, 추출되는 분할 영역 스트림의 해상도가 HMD 등의 단말에서 관심 영역에 대해 지원하는 해상도와 같기 때문에, 고화질 360도 VR 영상 처리 장치는 별도의 처리 없이 추출된 분할 영역 스트림을 바로 도 4의 360 VR 매핑 모듈로 전달할 수 있다.The high-definition 360-degree VR image processing apparatus of the present disclosure may decode the partition stream included in the region of interest 512 with respect to the region of interest 512 and transmit the decoded region stream to the 360 VR mapping module. The region of interest 512 may be detected by user movement or user selection. Referring to FIG. 5, the resolution of the extracted partition stream may have a horizontal resolution of 4K. For example, if the terminal such as the HMD supports 4K horizontal resolution for the region of interest, the resolution of the extracted partition stream is the same as the resolution supported for the region of interest in the terminal such as the HMD. May directly transfer the extracted partition stream to the 360 VR mapping module of FIG. 4 without additional processing.
도 6은 본 개시의 다른 실시 예에 따른 관심 영역(RoI)에 대한 고화질 360도 영상을 제공하는 과정을 설명하기 위한 도면이다.6 is a diagram for describing a process of providing a high-definition 360 degree image of a region of interest (RoI) according to another exemplary embodiment of the present disclosure.
고화질 360도 VR 영상 처리 장치는 관심 영역(612)에 대해 관심 영역(612)에 포함된 분할 영역 스트림을 디코딩하고 360 VR 매핑 모듈로 전달할 수 있다. 관심 영역(612)은 사용자의 움직임 또는 사용자의 선택에 의해 결정될 수 있다. 도 6에서도 도 5와 같이 HMD 등의 단말에서 관심 영역에 대해 4K의 가로 해상도를 지원한다고 하자. 도 6을 참조하면, 도 5와 달리 관심 영역(612)이 총 9개의 분할 영역 스트림, 즉, 가로 해상도가 4K 이상인 분할 영역 스트림 상에 위치하고 있기 때문에 영역을 재조정 하는 과정이 필요하다. 예컨대, 도 6에서와 같이 관심 영역(612)이 선택되면 관심 영역(612)에 포함된 총 9개의 분할영역 스트림들은 모두 디코딩될 수 있지만, 실제 HMD 등의 단말에서 재생되기 위해 디코딩된 영역의 크기가 재조정될 필요가 있다. 즉, 고화질 360도 VR 영상 처리 장치는 관심 영역(610)이 위치하는 총 9개의 분할 영역 스트림들에 대해 지속적으로 디코딩을 수행할 수 있다. 또한, 고화질 360도 VR 영상 처리 장치는 디코딩된 부분 영상(620)에서 관심 영역(622)에 해당하는 영역의 중심을 기준으로 하여 관심 영역을 검출할 수 있다. 예컨대, 고화질 360도 VR 영상 처리 장치는 디코딩된 부분 영상(620)에서 관심 영역(622)에 해당하는 영역의 중심 좌표(624)를 (0,0)으로 설정하고, 중심 좌표를 이용하여 좌측 2K, 우측 2K, 상측 1K 및 하측 1K, 총 4K에 해당하는 영역을 추출할 수 있다. 고화질 360도 VR 영상 처리 장치는 최종 추출된 관심 영역(630)을 360 VR 매핑 모듈로 전송할 수 있다. 한편, 사용자의 움직임이 디코딩된 9개의 분할 영역 내에서 진행되는 경우, 고화질 360도 VR 영상 처리 장치는 이미 9개의 디코딩된 영상 내에서 상기 영역을 재조정하는 과정을 통해 관심 영역을 추출하게 된다.The high-definition 360-degree VR image processing apparatus may decode the partition stream included in the region of interest 612 with respect to the region of interest 612 and transmit the decoded region stream to the 360 VR mapping module. The region of interest 612 may be determined by user movement or user selection. In FIG. 6, as shown in FIG. 5, a terminal such as an HMD supports 4K horizontal resolution for a region of interest. Referring to FIG. 6, unlike FIG. 5, the region of interest 612 is located on a total of nine partition streams, that is, partition streams having a horizontal resolution of 4K or more. For example, if the region of interest 612 is selected as shown in FIG. 6, all nine partition streams included in the region of interest 612 may be decoded, but the size of the region decoded for reproduction in a terminal such as an actual HMD may be decoded. Needs to be readjusted. That is, the high-definition 360-degree VR image processing apparatus may continuously decode a total of nine partition region streams in which the region of interest 610 is located. Also, the high-definition 360-degree VR image processing apparatus may detect a region of interest from the decoded partial image 620 based on the center of the region corresponding to the region of interest 622. For example, the high-definition 360-degree VR image processing apparatus sets the center coordinates 624 of the region corresponding to the region of interest 622 in the decoded partial image 620 to (0,0), and uses the center coordinates to determine left 2K. , The area corresponding to the right 2K, the upper 1K and the lower 1K, a total of 4K can be extracted. The high definition 360 degree VR image processing apparatus may transmit the final extracted ROI 630 to the 360 VR mapping module. On the other hand, when the user's movement is performed in the nine decoded regions, the high-definition 360-degree VR image processing apparatus extracts the region of interest through the process of readjusting the region in the nine decoded images.
도 7은 본 개시의 일 실시 예에 따른 저화질의 360도 VR 영상에서 사용자의 관심 영역에 대해 고화질의 360도 VR 영상을 제공하는 과정을 설명하기 위한 도면이다.FIG. 7 is a diagram for describing a process of providing a high-definition 360-degree VR image to a region of interest of a user in a low-degree 360-degree VR image according to an embodiment of the present disclosure.
도 7을 참조하면, 사용자는 저화질 360도 VR 영상(710)을 시청할 수 있으며, 사용자의 움직임 또는 사용자의 선택에 따라 관심 영역(712)이 결정될 수 있다. 고화질 360도 VR 영상 처리 장치는 결정된 관심 영역(712)과 고화질의 분할 영역 스트림 상에서 재조정된 관심 영역(722)을 매핑할 수 있다. 한편, 관심 영역(712)과 고화질 영상의 분할 영역간의 관계에 따라 각각 도 5 또는 도 6에서 설명하였던 처리 과정이 진행될 수 있다. 또한, 고화질 360도 VR 영상 처리 장치는 고화질의 재조정된 관심 영역(722)이 매핑된 결과 영상을 TV 또는 HMD 등의 단말로 전송할 수 있다.Referring to FIG. 7, a user may watch a low-definition 360-degree VR image 710, and the ROI 712 may be determined according to a user's movement or a user's selection. The high-definition 360-degree VR image processing apparatus may map the reconstructed region of interest 712 on the determined region of interest 712 and the high-definition region stream. Meanwhile, the processing described above with reference to FIG. 5 or 6 may be performed according to the relationship between the ROI 712 and the divided region of the high quality image. In addition, the high-definition 360-degree VR image processing apparatus may transmit a result image of the high-quality readjusted ROI 722 to a terminal such as a TV or an HMD.
본 개시에 따르면, 방송서비스 환경에서 시청자의 움직임 또는 시청자가 원하는 뷰에 대하여 4K 이상의 화질을 제공함과 동시에 댁내에서 TV 또는 HMD 등의 모바일 기기를 통하여 MTP를 최소화할 수 있는 고화질 360도 VR 영상 처리 장치가 제공될 수 있다.According to the present disclosure, a high-definition 360-degree VR image processing apparatus capable of minimizing MTP through a mobile device such as a TV or HMD while providing 4K or more image quality for viewers' movements or views desired by a broadcast service environment. May be provided.
또한, 본 개시에 따르면, 360도 VR 방송 서비스를 위한 시그널링 정보를 제공하는 사용자 관심 영역 기반의 수신 장치 및 방법이 제공될 수 있다.In addition, according to the present disclosure, there may be provided a receiving apparatus and method based on a user interest area for providing signaling information for a 360 degree VR broadcast service.
또한, 본 개시에 따르면, 고화질 360도 VR 미디어에 대하여 방송망 환경 하에서 사용자의 움직임 또는 사용자의 선택에 따른 고화질의 관심 영역을 제공하면서 MTP를 최소화하는 장치 및 방법이 제공될 수 있다.In addition, according to the present disclosure, an apparatus and method for minimizing MTP while providing a region of interest of high definition according to a user's movement or a user's selection in a broadcasting network environment for a high definition 360 degree VR media may be provided.
또한, 본 개시에 따르면, 지상파, 케이블 등 다양한 방송망을 통해 시청자에게 고화질의 360도 VR 방송 서비스를 제공하는 장치 및 방법이 제공될 수 있다.In addition, according to the present disclosure, an apparatus and method for providing a high-definition 360-degree VR broadcast service to viewers through various broadcasting networks such as terrestrial waves and cables may be provided.
상기의 실시예들은 고화질 360도 VR 영상 부호화 장치 및 고화질 360도 VR 영상 복호화 장치에서 같은 방법으로 수행될 수 있다.The above embodiments may be performed in the same manner in the high definition 360 degree VR video encoding apparatus and the high quality 360 degree VR video decoding apparatus.
상기 실시예를 적용하는 순서는 고화질 360도 VR 영상 부호화 장치와 고화질 360도 VR 영상 복호화 장치에서 상이할 수 있고, 상기 실시예를 적용하는 순서는 고화질 360도 VR 영상 부호화 장치와 고화질 360도 VR 영상 복호화 장치에서 동일할 수 있다.The order of applying the embodiment may be different in the high definition 360 degree VR video encoding apparatus and the high definition 360 degree VR video decoding apparatus, and the order of applying the embodiment is the high definition 360 degree VR video encoding apparatus and the high definition 360 degree VR video. It may be the same in the decoding apparatus.
상기의 실시예들은 고화질 360도 VR 영상 부호화 장치 및 고화질 360도 VR 영상 복호화 장치에서 같은 방법으로 수행될 수 있다.The above embodiments may be performed in the same manner in the high definition 360 degree VR video encoding apparatus and the high quality 360 degree VR video decoding apparatus.
휘도 및 색차 신호 각각에 대하여 상기 실시예를 수행할 수 있고, 휘도 및 색차 신호에 대한 상기 실시예를 동일하게 수행할 수 있다.The above embodiment may be performed with respect to each of the luminance and chrominance signals, and the same embodiment may be performed with respect to the luminance and the chrominance signals.
상술한 실시예들에서, 방법들은 일련의 단계 또는 유닛으로서 순서도를 기초로 설명되고 있으나, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 당해 기술 분야에서 통상의 지식을 가진 자라면 순서도에 나타난 단계들이 배타적이지 않고, 다른 단계가 포함되거나, 순서도의 하나 또는 그 이상의 단계가 본 발명의 범위에 영향을 미치지 않고 삭제될 수 있음을 이해할 수 있을 것이다. In the above-described embodiments, the methods are described based on a flowchart as a series of steps or units, but the present invention is not limited to the order of steps, and certain steps may occur in a different order or simultaneously from other steps as described above. Can be. Also, one of ordinary skill in the art appreciates that the steps shown in the flowcharts are not exclusive, that other steps may be included, or that one or more steps in the flowcharts may be deleted without affecting the scope of the present invention. I can understand.
상술한 실시예는 다양한 양태의 예시들을 포함한다. 다양한 양태들을 나타내기 위한 모든 가능한 조합을 기술할 수는 없지만, 해당 기술 분야의 통상의 지식을 가진 자는 다른 조합이 가능함을 인식할 수 있을 것이다. 따라서, 본 발명은 이하의 특허청구범위 내에 속하는 모든 다른 교체, 수정 및 변경을 포함한다고 할 것이다.The above-described embodiments include examples of various aspects. While not all possible combinations may be described to represent the various aspects, one of ordinary skill in the art will recognize that other combinations are possible. Accordingly, the invention is intended to embrace all other replacements, modifications and variations that fall within the scope of the following claims.
이상 설명된 본 발명에 따른 실시예들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Embodiments according to the present invention described above may be implemented in the form of program instructions that may be executed by various computer components, and may be recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the computer-readable recording medium may be those specially designed and configured for the present invention, or may be known and available to those skilled in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs, DVDs, and magneto-optical media such as floptical disks. media), and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform the process according to the invention, and vice versa.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.Although the present invention has been described by specific embodiments such as specific components and the like, but the embodiments and the drawings are provided to assist in a more general understanding of the present invention, the present invention is not limited to the above embodiments. For those skilled in the art, various modifications and variations can be made from these descriptions.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.Accordingly, the spirit of the present invention should not be limited to the above-described embodiments, and all of the equivalents or equivalents of the claims, as well as the appended claims, fall within the scope of the spirit of the present invention. I will say.

Claims (20)

  1. 360도 VR(Virtual Reality) 영상 정보를 포함하는 비트스트림을 수신하는 단계;Receiving a bitstream including 360 degree VR (Virtual Reality) image information;
    상기 비트스트림으로부터 360도 VR 서비스와 관련된 정보를 복호화하는 단계;Decoding information associated with a 360 degree VR service from the bitstream;
    상기 360도 VR 서비스와 관련된 정보에 기초하여 관심 영역을 검출하는 단계; 및Detecting a region of interest based on information associated with the 360 degree VR service; And
    상기 관심 영역에 대해 상기 360도 VR 영상을 사용자에게 제공하는 단계를 포함하는, 360도 영상 복호화 방법.And providing the user with the 360 degree VR image for the ROI.
  2. 제1항에 있어서,The method of claim 1,
    상기 360도 VR 영상 정보는, 복수의 해상도를 가지는 동일한 영상 프레임에 관한 정보를 포함하는 것인, 360도 영상 복호화 방법.The 360-degree VR image information includes information about the same image frame having a plurality of resolutions, 360-degree image decoding method.
  3. 제1항에 있어서,The method of claim 1,
    상기 관심 영역은, 상기 사용자의 움직임 정보 및 상기 사용자의 입력에 의해 획득되는 것인, 360도 영상 복호화 방법.The region of interest is obtained by motion information of the user and the user's input.
  4. 제1항에 있어서,The method of claim 1,
    상기 360도 VR 영상 정보는, 제1 해상도를 가지는 영상 프레임에 관한 정보 및 상기 제1 해상도보다 높은 해상도인 제2 해상도를 가지는 상기 영상 프레임에 관한 정보 중 적어도 하나를 포함하고,The 360-degree VR image information includes at least one of information about an image frame having a first resolution and information about the image frame having a second resolution that is higher than the first resolution.
    상기 제2 해상도를 가지는 영상 프레임은, 상기 360도 VR 서비스와 관련된 정보에 기초하여 복원되는 것인, 360도 영상 복호화 방법.And a video frame having the second resolution is reconstructed based on the information related to the 360-degree VR service.
  5. 제4항에 있어서,The method of claim 4, wherein
    상기 관심 영역을 검출하는 단계는,Detecting the region of interest,
    상기 360도 VR 서비스와 관련된 정보로부터 상기 제2 해상도를 가지는 영상 프레임의 분할 정보를 복호화하는 단계; 및Decoding segmentation information of an image frame having the second resolution from information associated with the 360 degree VR service; And
    상기 분할 정보에 기초하여 상기 관심 영역을 검출하는 단계를 포함하는, 360도 영상 복호화 방법.Detecting the region of interest based on the segmentation information.
  6. 제5항에 있어서,The method of claim 5,
    상기 360도 VR 영상을 제공하는 단계는,Providing the 360-degree VR image,
    상기 제1 해상도를 가지는 영상 프레임에서 상기 검출된 관심 영역에 대해 상기 제2 해상도를 가지는 영상 프레임을 매핑하는 단계; 및Mapping an image frame having the second resolution to the detected region of interest in the image frame having the first resolution; And
    상기 매핑된 결과 영상을 상기 사용자에게 제공하는 단계를 포함하는, 360도 영상 복호화 방법.And providing the mapped result image to the user.
  7. 제1항에 있어서,The method of claim 1,
    상기 360도 VR 서비스와 관련된 정보는,The information related to the 360-degree VR service,
    상기 360도 VR 영상의 차원 정보, 프로젝션 타입 정보, 크기 정보, 해상도 정보 및 분할 정보 중 적어도 하나를 포함하는 것인, 360도 영상 복호화 방법.And at least one of dimension information, projection type information, size information, resolution information, and segmentation information of the 360 degree VR image.
  8. 360도 영상 복호화 장치에 있어서,In the 360 degree video decoding apparatus,
    상기 장치는,The device,
    360도 VR(Virtual Reality) 영상 정보를 포함하는 비트스트림을 수신하고, 상기 비트스트림으로부터 360도 VR 서비스와 관련된 정보를 복호화하고, 상기 360도 VR 서비스와 관련된 정보에 기초하여 관심 영역을 검출하고, 상기 관심 영역에 대해 상기 360도 VR 영상을 사용자에게 제공하는 것을 특징으로 하는, 360도 영상 복호화 장치.Receiving a bitstream including 360 degree VR (Virtual Reality) image information, decoding information related to a 360 degree VR service from the bitstream, detecting a region of interest based on the information related to the 360 degree VR service, And providing the 360 degree VR image to the user for the ROI.
  9. 제8항에 있어서,The method of claim 8,
    상기 360도 VR 영상 정보는, 복수의 해상도를 가지는 동일한 영상 프레임에 관한 정보를 포함하는 것인, 360도 영상 복호화 장치.The 360-degree VR image information includes information about the same image frame having a plurality of resolutions.
  10. 제8항에 있어서,The method of claim 8,
    상기 관심 영역은, 상기 사용자의 움직임 정보 및 상기 사용자의 입력에 의해 획득되는 것인, 360도 영상 복호화 장치.The region of interest is obtained by the motion information of the user and the user's input.
  11. 제8항에 있어서,The method of claim 8,
    상기 360도 VR 영상 정보는, 제1 해상도를 가지는 영상 프레임에 관한 정보 및 상기 제1 해상도보다 높은 해상도인 제2 해상도를 가지는 상기 영상 프레임에 관한 정보 중 적어도 하나를 포함하고,The 360-degree VR image information includes at least one of information about an image frame having a first resolution and information about the image frame having a second resolution that is higher than the first resolution.
    상기 제2 해상도를 가지는 영상 프레임은, 상기 360도 VR 서비스와 관련된 정보에 기초하여 복원되는 것인, 360도 영상 복호화 장치.And a video frame having the second resolution is reconstructed based on information associated with the 360-degree VR service.
  12. 제11항에 있어서,The method of claim 11,
    상기 장치는,The device,
    상기 360도 VR 서비스와 관련된 정보로부터 상기 제2 해상도를 가지는 영상 프레임의 분할 정보를 복호화하고, 상기 분할 정보에 기초하여 상기 관심 영역을 검출하는 것인, 360도 영상 복호화 장치.And decoding the segmentation information of the image frame having the second resolution from the information related to the 360-degree VR service and detecting the ROI based on the segmentation information.
  13. 제12항에 있어서,The method of claim 12,
    상기 장치는, The device,
    상기 제1 해상도를 가지는 영상 프레임에서 상기 검출된 관심 영역에 대해 상기 제2 해상도를 가지는 영상 프레임을 매핑하고, 상기 매핑된 결과 영상을 상기 사용자에게 제공하는 것인, 360도 영상 복호화 장치.And mapping the image frame having the second resolution to the detected ROI in the image frame having the first resolution, and providing the mapped result image to the user.
  14. 제8항에 있어서,The method of claim 8,
    상기 360도 VR 서비스와 관련된 정보는,The information related to the 360-degree VR service,
    상기 360도 VR 영상의 차원 정보, 프로젝션 타입 정보, 크기 정보, 해상도 정보 및 분할 정보 중 적어도 하나를 포함하는 것인, 360도 영상 복호화 장치.And at least one of dimension information, projection type information, size information, resolution information, and segmentation information of the 360 degree VR image.
  15. 360도 VR(Virtual Reality) 영상 정보를 수신하는 단계;Receiving 360 degree VR (Virtual Reality) image information;
    사용자의 관심 영역을 인지하는 단계; 및Recognizing a region of interest of the user; And
    360도 VR 서비스와 관련된 정보를 부호화하는 단계를 포함하고,Encoding information associated with a 360 degree VR service,
    상기 360도 VR 서비스와 관련된 정보는 상기 360도 VR 영상의 분할 정보 및 상기 관심 영역 정보 중 적어도 하나를 포함하는 것을 특징으로 하는, 360도 영상 부호화 방법.The information related to the 360-degree VR service includes at least one of segmentation information of the 360-degree VR image and the ROI information.
  16. 제15항에 있어서,The method of claim 15,
    상기 360도 VR 영상 정보는, 제1 해상도를 가지는 영상 프레임에 관한 정보 및 상기 제1 해상도보다 높은 해상도인 제2 해상도를 가지는 상기 영상 프레임에 관한 정보 중 적어도 하나를 포함하고,The 360-degree VR image information includes at least one of information about an image frame having a first resolution and information about the image frame having a second resolution that is higher than the first resolution.
    상기 분할 정보는, 상기 제2 해상도를 가지는 영상 프레임을 소정의 크기를 가지도록 분할된 영역들에 관한 정보인 것인, 360도 영상 부호화 방법.The segmentation information is information about regions that are divided so that the image frame having the second resolution has a predetermined size.
  17. 제15항에 있어서,The method of claim 15,
    상기 관심 영역은, 상기 사용자의 움직임 정보 및 상기 사용자의 입력에 의해 획득되는 것인, 360도 영상 부호화 방법.The region of interest is obtained by motion information of the user and the user's input.
  18. 360도 영상 부호화 장치에 있어서,In the 360 degree video encoding apparatus,
    상기 장치는,The device,
    360도 VR(Virtual Reality) 영상 정보를 수신하고, 사용자의 관심 영역을 인지하고, 360도 VR 서비스와 관련된 정보를 부호화하고,Receive 360-degree VR (Virtual Reality) image information, recognize the user's region of interest, encode information related to the 360-degree VR service,
    상기 360도 VR 서비스와 관련된 정보는 상기 360도 VR 영상의 분할 정보 및 상기 관심 영역 정보 중 적어도 하나를 포함하는 것을 특징으로 하는, 360도 영상 부호화 장치.And the information related to the 360-degree VR service includes at least one of segmentation information of the 360-degree VR image and the ROI information.
  19. 제18항에 있어서,The method of claim 18,
    상기 360도 VR 영상 정보는, 제1 해상도를 가지는 영상 프레임에 관한 정보 및 상기 제1 해상도보다 높은 해상도인 제2 해상도를 가지는 상기 영상 프레임에 관한 정보 중 적어도 하나를 포함하고,The 360-degree VR image information includes at least one of information about an image frame having a first resolution and information about the image frame having a second resolution that is higher than the first resolution.
    상기 분할 정보는, 상기 제2 해상도를 가지는 영상 프레임을 소정의 크기를 가지도록 분할된 영역들에 관한 정보인 것인, 360도 영상 부호화 장치.The splitting information is information about regions segmented so that the image frame having the second resolution has a predetermined size.
  20. 제18항에 있어서,The method of claim 18,
    상기 관심 영역은, 상기 사용자의 움직임 정보 및 상기 사용자의 입력에 의해 획득되는 것인, 360도 영상 부호화 장치.The ROI is obtained by the motion information of the user and the user's input.
PCT/KR2018/003882 2017-04-03 2018-04-03 Device and method for processing high-definition 360-degree vr image WO2018186646A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/492,289 US10848837B2 (en) 2017-04-03 2018-04-03 Device and method for processing high-definition 360-degree VR image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2017-0043014 2017-04-03
KR20170043014 2017-04-03

Publications (1)

Publication Number Publication Date
WO2018186646A1 true WO2018186646A1 (en) 2018-10-11

Family

ID=63713147

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/003882 WO2018186646A1 (en) 2017-04-03 2018-04-03 Device and method for processing high-definition 360-degree vr image

Country Status (3)

Country Link
US (1) US10848837B2 (en)
KR (1) KR20180112708A (en)
WO (1) WO2018186646A1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11057605B2 (en) * 2018-11-05 2021-07-06 Korea Electronics Technology Institute 360-degree VR video segmentation transmission system and method
KR102251576B1 (en) 2019-04-04 2021-05-14 한국전자기술연구원 VR video receiving device and method based on ROI
KR102640664B1 (en) * 2019-08-16 2024-02-26 엘지전자 주식회사 A method for controlling VR device and a VR device
US11481026B2 (en) * 2019-08-22 2022-10-25 Samsung Electronics Co., Ltd. Immersive device and method for streaming of immersive media
CN114760418A (en) * 2022-04-24 2022-07-15 蒂姆维澳(上海)网络技术有限公司 360-degree full-view-angle AR monitoring method and system and AR glasses

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140079126A1 (en) * 2012-09-18 2014-03-20 Vid Scale, Inc. Method and Apparatus for Region of Interest Video Coding Using Tiles and Tile Groups
KR20160125708A (en) * 2015-04-22 2016-11-01 삼성전자주식회사 Method and apparatus for transmitting and receiving image data for virtual reality streaming service
KR20170018352A (en) * 2014-06-27 2017-02-17 코닌클리즈케 케이피엔 엔.브이. Determining a region of interest on the basis of a hevc-tiled video stream

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100443552B1 (en) 2002-11-18 2004-08-09 한국전자통신연구원 System and method for embodying virtual reality
US9232257B2 (en) 2010-09-22 2016-01-05 Thomson Licensing Method for navigation in a panoramic scene
KR101282955B1 (en) 2011-08-31 2013-07-17 한국과학기술연구원 Real-time Panorama Streaming System for High Resolution Panorama Videos and/or Images
KR20140106927A (en) 2013-02-27 2014-09-04 한국전자통신연구원 Apparatus and method for making panorama
KR101528863B1 (en) 2013-09-10 2015-06-16 (주)포스트미디어 Method of synchronizing tiled image in a streaming service providing system of panoramic image
KR20150047225A (en) 2013-10-24 2015-05-04 엘지전자 주식회사 Method and apparatus for processing a broadcast signal for panorama video service
KR101713492B1 (en) 2016-06-27 2017-03-07 가천대학교 산학협력단 Method for image decoding, method for image encoding, apparatus for image decoding, apparatus for image encoding
US20180213202A1 (en) * 2017-01-23 2018-07-26 Jaunt Inc. Generating a Video Stream from a 360-Degree Video

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140079126A1 (en) * 2012-09-18 2014-03-20 Vid Scale, Inc. Method and Apparatus for Region of Interest Video Coding Using Tiles and Tile Groups
KR20170018352A (en) * 2014-06-27 2017-02-17 코닌클리즈케 케이피엔 엔.브이. Determining a region of interest on the basis of a hevc-tiled video stream
KR20160125708A (en) * 2015-04-22 2016-11-01 삼성전자주식회사 Method and apparatus for transmitting and receiving image data for virtual reality streaming service

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
EL-GANAINY, TAREK ET AL.: "Streaming Virtual Reality Content", ARXIV, 26 December 2016 (2016-12-26), pages 1 - 8, XP055560664, Retrieved from the Internet <URL:https://arxiv.org/abs/1612.08350v1> *
SON, JANG-WOO ET AL.: "SHVC-based ROI Tile Parallel Processing for Mobile Virtual Reality", DBPIA. KOREA INFORMATION SCIENCE SOCIETY, 2016, pages 1715 - 1717, XP055560671, Retrieved from the Internet <URL:http://www.dbpia.co.kr/Journal/ArticleDetail/NODE07116339> *

Also Published As

Publication number Publication date
KR20180112708A (en) 2018-10-12
US20200084516A1 (en) 2020-03-12
US10848837B2 (en) 2020-11-24

Similar Documents

Publication Publication Date Title
WO2018186646A1 (en) Device and method for processing high-definition 360-degree vr image
WO2011108903A2 (en) Method and apparatus for transmission and reception in the provision of a plurality of transport interactive 3dtv broadcasting services
US8045588B2 (en) Method and apparatus for providing and receiving three-dimensional digital contents
WO2020189817A1 (en) Method and system for distributed decoding of split image for tile-based streaming
US11330310B2 (en) Encoding device and method, reproduction device and method, and program
US8289998B2 (en) Method and apparatus for generating three (3)-dimensional image data stream, and method and apparatus for receiving three (3)-dimensional image data stream
EP2744197A1 (en) Playback device, playback method, integrated circuit, broadcasting system, and broadcasting method
WO2010053246A2 (en) Apparatus and method for synchronizing stereoscopic image, and apparatus and method for providing stereoscopic image based on the same
US20110037833A1 (en) Method and apparatus for processing signal for three-dimensional reproduction of additional data
US9288467B2 (en) Method for providing and recognizing transmission mode in digital broadcasting
JP2013179664A (en) Broadcast data transmission method and apparatus therefor
WO2020013567A1 (en) Method and device for processing content
WO2016017961A1 (en) Method and device for transmitting and receiving broadcast signal
KR101965385B1 (en) Content providing apparatus and method, and content reproduction apparatus and method for accessing content stream in the hybrid 3dtv broadcast
US9204124B2 (en) Method for service compatibility-type transmitting in digital broadcast
WO2017171391A1 (en) Method and apparatus for transmitting and receiving broadcast signals
EP3751563A1 (en) Transmission device, transmission method, processing device, and processing method
KR20120024385A (en) Method and apparatus for transmitting/receiving multi-view program in digital broadcasting system
WO2020204253A1 (en) Region-of-interest-based vr image receiving apparatus and method
WO2016204502A1 (en) Mmt apparatus and mmt method for processing stereoscopic video data
WO2013055032A1 (en) Device and method for providing content by accessing content stream in hybrid 3d tv, and device and method for reproducing content
WO2018016879A1 (en) Method and device for providing 360-degree virtual reality broadcasting service
WO2018016694A1 (en) Broadcast transmitter and receiver capable of high-speed acquisition of decoded information and method therefor
WO2017007208A1 (en) Device and method for extracting image from high-resolution image
WO2020138536A1 (en) System and method for transmitting image on basis of hybrid network

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18780407

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18780407

Country of ref document: EP

Kind code of ref document: A1