KR102603220B1 - The method and apparatus for playing tile based multiview video - Google Patents

The method and apparatus for playing tile based multiview video Download PDF

Info

Publication number
KR102603220B1
KR102603220B1 KR1020210170029A KR20210170029A KR102603220B1 KR 102603220 B1 KR102603220 B1 KR 102603220B1 KR 1020210170029 A KR1020210170029 A KR 1020210170029A KR 20210170029 A KR20210170029 A KR 20210170029A KR 102603220 B1 KR102603220 B1 KR 102603220B1
Authority
KR
South Korea
Prior art keywords
image
images
size
view
video
Prior art date
Application number
KR1020210170029A
Other languages
Korean (ko)
Other versions
KR20230082271A (en
Inventor
최현석
김혁규
Original Assignee
주식회사 엘지유플러스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엘지유플러스 filed Critical 주식회사 엘지유플러스
Priority to KR1020210170029A priority Critical patent/KR102603220B1/en
Publication of KR20230082271A publication Critical patent/KR20230082271A/en
Application granted granted Critical
Publication of KR102603220B1 publication Critical patent/KR102603220B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4782Web browsing, e.g. WebTV
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8166Monomedia components thereof involving executable data, e.g. software
    • H04N21/8173End-user applications, e.g. Web browser, game
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8543Content authoring using a description language, e.g. Multimedia and Hypermedia information coding Expert Group [MHEG], eXtensible Markup Language [XML]

Abstract

본 발명은, 단말이 멀티뷰 영상을 재생하는 방법을 개시한다. 특히, 상기 방법은, 영상 관리 장치로부터 멀티뷰 영상을 수신하고, 상기 멀티뷰 영상을 복수의 영상들로 분할하고, 상기 복수의 영상들의 위치를 변경하기 위한 요청 메시지를 수신하고, 상기 요청 메시지에 따라 상기 복수의 영상들의 위치를 변경하는 것을 특징으로 한다.The present invention discloses a method for a terminal to play a multi-view video. In particular, the method includes receiving a multi-view image from a video management device, dividing the multi-view image into a plurality of images, receiving a request message for changing the location of the plurality of images, and responding to the request message. The method is characterized in that the positions of the plurality of images are changed accordingly.

Description

타일 기반 멀티뷰 영상을 재생하는 방법 및 이를 위한 장치 {THE METHOD AND APPARATUS FOR PLAYING TILE BASED MULTIVIEW VIDEO}Method for playing tile-based multi-view video and device therefor {THE METHOD AND APPARATUS FOR PLAYING TILE BASED MULTIVIEW VIDEO}

본 발명은, 타일 기반 멀티뷰 영상을 재생하는 방법 및 이를 위한 장치에 관한 것으로서, 더욱 상세하게는, 단말의 디코딩 성능에 영향을 받지 않고도, 멀티뷰 영상에 포함된 복수의 영상들의 배치를 자유롭게 변경하여 재생하는 방법 및 이를 위한 장치에 관한 것이다.The present invention relates to a method and device for playing a tile-based multi-view video, and more specifically, to freely change the arrangement of a plurality of images included in a multi-view video without being affected by the decoding performance of the terminal. It relates to a method of reproducing and a device for this.

종래에는 단말에 멀티뷰 영상을 제공하기 위해서는, 촬영 현장에서 프로덕션 장비(예를 들어, 중계차)를 이용하여 멀티뷰 영상이 합성된 화면을 제공하거나, 단말이 복수의 영상들을 수신하여, 단말 자체에서 멀티뷰 재생처리를 하였다. Conventionally, in order to provide a multi-view video to a terminal, a screen in which the multi-view video is synthesized is provided using production equipment (e.g., a broadcasting car) at the filming site, or the terminal receives a plurality of images and the terminal itself Multi-view playback was performed.

하지만, 이러한 종래의 방법은, 아래와 같은 문제점이 있다.However, this conventional method has the following problems.

첫번째로, 현장에서 프로덕션 장비를 이용하여 단말에게 멀티뷰 영상을 제공하는 경우, 고객이 원하는 영상을 멀티뷰 화면에서 상대적으로 큰 화면을 볼 수 없었다. 즉, 복수의 영상들을 프로덕션 장비가 하나의 영상으로 합성하여 단말에게 제공하므로, 프로덕션 장비가 지정한 영상을 멀티뷰 화면에서 다른 영상에 비해 크게 시청할 수 있었을 뿐이다. First, when providing multi-view video to a terminal using production equipment in the field, the customer could not view the desired video on a relatively large multi-view screen. In other words, since the production equipment synthesizes multiple videos into one video and provides it to the terminal, the video designated by the production equipment can only be viewed larger than other videos on the multi-view screen.

따라서, 프로덕션 장비가 지정한 영상을 크게 보는 것을 단말이 사용하는 사용자가 원하지 않더라도, 사용자는 지정 영상을 크게 볼 수 밖에 없어, 사용자의 요구를 만족시킬 수 없었다. Therefore, even if the user using the terminal does not want to view the video designated by the production equipment in large size, the user has no choice but to view the designated video in large size, and the user's request cannot be satisfied.

두번째로, 단말에서 자체적으로 복수의 영상을 하나의 멀티뷰 화면을 합성하는 경우, 단말 별 디코딩 성능에 따라 멀티뷰 화면에 포함시킬 수 있는 영상의 개수가 제한될 수 있다. 예를 들어, 특정 단말의 디코딩 성능이 최대 4개의 화면을 멀티뷰 화면에 포함시킬 수 있다면, 사용자가 8개의 화면을 멀티뷰 화면을 통해 시청하고 싶더라도, 이러한 요구를 만족시킬 수 없는 문제점이 발생할 수 있다. Second, when the terminal itself combines multiple images into one multi-view screen, the number of images that can be included in the multi-view screen may be limited depending on the decoding performance of each terminal. For example, if the decoding performance of a specific terminal allows up to 4 screens to be included in the multi-view screen, even if the user wants to watch 8 screens through the multi-view screen, a problem may arise that cannot satisfy this demand. You can.

또한, 단말에서 자체적으로 복수의 영상들에 대한 동기를 맞추기 위해서는 동기화를 위한 별도 플레이어가 탑재되어 있어야 하므로, 단말을 생산하기 위한 비용이 증가하는 문제점이 발생할 수 있다.In addition, in order for the terminal to synchronize multiple videos on its own, a separate player for synchronization must be installed, which may lead to an increase in the cost of producing the terminal.

구체적으로, 기존에는 멀티뷰 영상에 포함된 복수의 영상들을 재생하기 위하여 단말은 복수의 스트림들을 다운로드하고, 각각의 PTS (Presentation Time Stamp)나 UTC (Coordinate Universal Time) 기반으로 동기를 맞추어 멀티뷰 영상을 재생하였다.Specifically, in order to play multiple videos included in a multi-view video, the terminal downloads multiple streams and synchronizes them based on PTS (Presentation Time Stamp) or UTC (Coordinate Universal Time) to play the multi-view video. was played.

다만, 상술한 방법은 단말의 디코딩 성능에 따라서 최대 영상 재생 개수가 제한적으로 정해지고, 각각의 영상의 동기를 맞추는 연산이 지속적으로 수행되면서 단말 성능에 따라 멀티뷰 제공 개수가 제한되는 실정이다.However, in the above-described method, the maximum number of video playbacks is limited depending on the decoding performance of the terminal, and the operation to synchronize each video is continuously performed, so the number of multi-views provided is limited depending on the terminal performance.

따라서, 단말의 디코딩 성능에 관계 없이 다수의 영상이 포함된 멀티뷰 영상을 제공할 수 있는 방법이 필요한 실정이다.Therefore, there is a need for a method that can provide a multi-view video containing multiple images regardless of the terminal's decoding performance.

한국공개특허 제10-2017-0029725호 (명칭: 영상 합성을 이용한 강의 영상 생성 방법 및 그 장치, 2017.03.16)Korean Patent Publication No. 10-2017-0029725 (Name: Method and device for generating lecture images using image synthesis, 2017.03.16)

본 발명은, 타일 기반 멀티뷰 영상을 합성하는 방법 및 이를 위한 장치를 제공하고자 한다.The present invention seeks to provide a method and device for synthesizing tile-based multi-view images.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below. You will be able to.

본 발명의 실시 예에 따른 단말이 멀티뷰 영상을 재생하는 방법에 있어서, 영상 관리 장치로부터 멀티뷰 영상을 수신하고, 상기 멀티뷰 영상을 복수의 영상들로 분할하고, 상기 복수의 영상들의 위치를 변경하기 위한 요청 메시지를 수신하고, 상기 요청 메시지에 따라 상기 복수의 영상들의 위치를 변경하는 것을 특징으로 할 수 있다.In a method for a terminal to play a multi-view video according to an embodiment of the present invention, a multi-view video is received from a video management device, the multi-view video is divided into a plurality of images, and the positions of the plurality of images are determined. It may be characterized by receiving a request message for change and changing the positions of the plurality of images according to the request message.

이 때, 상기 멀티뷰 영상 내에서의 상기 복수의 영상들 중, 제 1 영상은, 제 1 크기를 가지고, 제 2 영상 및 제 3 영상은 제 2 크기를 가지며, 제 1크기는 제 2 크기보다 클 수 있다.At this time, among the plurality of images in the multi-view image, the first image has a first size, the second image and the third image have a second size, and the first size is larger than the second size. It can be big.

또한, 상기 요청 메시지가 상기 제 2 영상과 상기 제 3 영상의 위치를 변경하는 것을 포함하는 경우, 상기 단말은 상기 제 2 영상과 상기 제 3 영상의 위치를 변경할 수 있다.Additionally, if the request message includes changing the positions of the second video and the third video, the terminal may change the positions of the second video and the third video.

또한, 상기 요청 메시지가 상기 제 1 영상과 상기 제 2 영상의 위치를 변경하는 것을 포함하는 경우, 상기 단말은 상기 제 1 영상을 상기 제 2 크기로 줄여, 상기 제 2 영상의 위치로 변경할 수 있다.Additionally, if the request message includes changing the positions of the first video and the second video, the terminal may reduce the first video to the second size and change the position to the second video. .

또한, 상기 단말은 상기 제 1 크기에 대응하는 상기 제 2 영상을 상기 영상 관리 장치로부터 수신하고, 상기 제 1 크기에 대응하는 상기 제 2 영상을, 상기 제 1 영상의 위치에 합성할 수 있다.Additionally, the terminal may receive the second image corresponding to the first size from the image management device, and synthesize the second image corresponding to the first size at the position of the first image.

또한, 상기 멀티뷰 영상은 상기 복수의 영상들이 타일 기반 형태로 배치된 것일 수 있다.Additionally, the multi-view image may be one in which the plurality of images are arranged in a tile-based format.

또한, 상기 복수의 영상들로 분할하는 것은, 상기 타일 단위로 상기 복수의 영상들을 분할 하는 것일 수 있다.Additionally, dividing the plurality of images into the plurality of images may mean dividing the plurality of images in units of the tiles.

또한, 상기 영상 관리 장치로부터 상기 복수의 영상들 각각에 대응하는 타일의 크기 정보 및 위치 정보를 수신하는 것을 포함할 수 있다.Additionally, it may include receiving size information and location information of tiles corresponding to each of the plurality of images from the image management device.

또한, 상기 복수의 영상들은 상기 복수의 영상들 각각을 위한 캔버스(Canvas)에 프레임 단위로 삽입될 수 있다.Additionally, the plurality of images may be inserted frame by frame into a canvas for each of the plurality of images.

또한, 상기 복수의 영상들 각각을 위한 캔버스에, 상기 복수의 영상들 각각이 갱신되는 빈도는, 상기 초당 프레임 수(Frame per Second; FPS)에 기반할 수 있다.Additionally, the frequency with which each of the plurality of images is updated on the canvas for each of the plurality of images may be based on the number of frames per second (FPS).

또한, 상기 캔버스는, HTML 5 (HyperText Markup Language 5)에 기반할 수 있다.Additionally, the canvas may be based on HTML 5 (HyperText Markup Language 5).

또한, 상기 멀티뷰 영상을 상기 복수의 영상들로 분할하기 전에, 상기 멀티뷰 영상에 대한 디코딩 및 렌더링을 수행하는 것을 더 포함할 수 있다.In addition, the method may further include performing decoding and rendering on the multi-view image before dividing the multi-view image into the plurality of images.

본 발명에 따른 멀티뷰 영상을 재생하는 단말에 있어서, 사용자로부터 메시지를 입력받는 입력부; 영상 관리 장치와 데이터를 송수신하는 통신부; 상기 데이터를 저장하는 저장부; 및 상기 단말의 동작을 제어하는 제어부;를 포함하고, 상기 제어부는, 상기 영상 관리 장치로부터 멀티뷰 영상을 수신하도록 상기 통신부를 제어하고, 상기 멀티뷰 영상을 복수의 영상들로 분할하고, 상기 입력부를 통해 상기 복수의 영상들의 위치를 변경하기 위한 요청 메시지를 수신하고, 상기 요청 메시지에 따라 상기 복수의 영상들의 위치를 변경하는 것을 특징으로 할 수 있다.A terminal for playing multi-view video according to the present invention, comprising: an input unit for receiving a message from a user; A communication unit that transmits and receives data to and from the video management device; a storage unit that stores the data; and a control unit that controls the operation of the terminal, wherein the control unit controls the communication unit to receive a multi-view image from the image management device, divides the multi-view image into a plurality of images, and inputs the A request message for changing the location of the plurality of images may be received through the unit, and the location of the plurality of images may be changed according to the request message.

이 때, 상기 멀티뷰 영상 내에서의 상기 복수의 영상들 중, 제 1 영상은, 제 1 크기를 가지고, 제 2 영상 및 제 3 영상은 제 2 크기를 가지며, 제 1크기는 제 2 크기보다 클 수 있다.At this time, among the plurality of images in the multi-view image, the first image has a first size, the second image and the third image have a second size, and the first size is larger than the second size. It can be big.

또한, 상기 요청 메시지가 상기 제 2 영상과 상기 제 3 영상의 위치를 변경하는 것을 포함하는 경우, 상기 제어부는 상기 제 2 영상과 상기 제 3 영상의 위치를 변경할 수 있다.Additionally, when the request message includes changing the positions of the second video and the third video, the control unit can change the positions of the second video and the third video.

또한, 상기 요청 메시지가 상기 제 1 영상과 상기 제 2 영상의 위치를 변경하는 것을 포함하는 경우, 상기 제어부는 상기 제 1 영상을 상기 제 2 크기로 줄여, 상기 제 2 영상의 위치로 변경할 수 있다.Additionally, if the request message includes changing the positions of the first image and the second image, the control unit may reduce the first image to the second size and change the position to the second image. .

또한, 상기 제어부는, 상기 제 1 크기에 대응하는 상기 제 2 영상을 상기 영상 관리 장치로부터 수신하도록 상기 통신부를 제어하고, 상기 제 1 크기에 대응하는 상기 제 2 영상을, 상기 제 1 영상의 위치에 합성할 수 있다.In addition, the control unit controls the communication unit to receive the second image corresponding to the first size from the image management device, and receives the second image corresponding to the first size at the location of the first image. can be synthesized.

또한, 상기 멀티뷰 영상은 상기 복수의 영상들이 타일 기반 형태로 배치된 것일 수 있다.Additionally, the multi-view image may be one in which the plurality of images are arranged in a tile-based format.

또한, 상기 복수의 영상들로 분할하는 것은, 상기 타일 단위로 상기 복수의 영상들을 분할 하는 것일 수 있다.Additionally, dividing the plurality of images into the plurality of images may mean dividing the plurality of images in units of the tiles.

또한, 상기 제어부는, 상기 영상 관리 장치로부터 상기 복수의 영상들 각각에 대응하는 타일의 크기 정보 및 위치 정보를 수신하도록 상기 통신부를 제어하는 것을 포함할 수 있다.Additionally, the control unit may include controlling the communication unit to receive size information and location information of tiles corresponding to each of the plurality of images from the image management device.

또한, 상기 복수의 영상들은 상기 복수의 영상들 각각을 위한 캔버스(Canvas)에 프레임 단위로 삽입될 수 있다.Additionally, the plurality of images may be inserted frame by frame into a canvas for each of the plurality of images.

또한, 상기 복수의 영상들 각각을 위한 캔버스에, 상기 복수의 영상들 각각이 갱신되는 빈도는, 상기 초당 프레임 수(Frame per Second; FPS)에 기반할 수 있다.Additionally, the frequency with which each of the plurality of images is updated on the canvas for each of the plurality of images may be based on the number of frames per second (FPS).

또한, 상기 캔버스는, HTML 5 (HyperText Markup Language 5)에 기반할 수 있다.Additionally, the canvas may be based on HTML 5 (HyperText Markup Language 5).

또한, 상기 제어부는, 상기 멀티뷰 영상을 상기 복수의 영상들로 분할하기 전에, 상기 멀티뷰 영상에 대한 디코딩 및 렌더링을 수행하는 것을 더 포함할 수 있다.Additionally, the control unit may further include performing decoding and rendering on the multi-view image before dividing the multi-view image into the plurality of images.

본 발명에 따른 멀티뷰 영상을 재생하기 위한 멀티뷰 영상 재생 시스템에 있어서, 복수의 영상들 각각을 생성하고, 상기 복수의 영상들 각각을 영상 합성 장치에 전송하는 영상 제공 장치; 상기 영상 제공 장치로부터 상기 복수의 영상들을 수신하고, 상기 복수의 영상들을 상기 멀티뷰 영상으로 합성하는 상기 영상 합성 장치; 상기 멀티뷰 영상을 저장하고, 단말의 요청에 따라 상기 멀티뷰 영상을 상기 단말로 전송하는 영상 관리 장치; 및 상기 영상 관리 장치로부터 상기 멀티뷰 영상을 수신하고, 상기 멀티뷰 영상을 복수의 영상들로 분할하고, 상기 복수의 영상들의 위치를 변경하기 위한 요청 메시지를 수신하고, 상기 요청 메시지에 따라 상기 복수의 영상들의 위치를 변경하는 단말;을 포함할 수 있다.A multi-view video playback system for playing multi-view video according to the present invention, comprising: an image providing device that generates each of a plurality of images and transmits each of the plurality of images to an image synthesis device; the image synthesis device that receives the plurality of images from the image providing device and synthesizes the plurality of images into the multi-view image; a video management device that stores the multi-view video and transmits the multi-view video to the terminal according to a request from the terminal; and receiving the multi-view image from the video management device, dividing the multi-view image into a plurality of images, receiving a request message for changing the location of the plurality of images, and receiving the plurality of images according to the request message. It may include a terminal that changes the location of the images.

본 발명에 따르면, 타일 기반으로 합성 처리된 멀티뷰 영상을 타일 단위로 나누고, 각 영상을 HTML5 Canvas 기능을 활용하여 멀티뷰를 재생하는 기술로 합성 처리된 1개의 영상만을 디코딩하므로 단말 성능에 제한을 받지 않으며, Canvas를 활용하여 영상 간의 이동을 원활하게 해주면서 직관적인 이동 효과를 나타낼 수 있다.According to the present invention, a tile-based synthesized multi-view image is divided into tile units, and each image is played using the HTML5 Canvas function to play the multi-view. Since only one synthesized image is decoded, terminal performance is limited. You can use Canvas to smoothly move between images and create an intuitive movement effect.

또한, 본 발명은 멀티뷰 영상을 타일 기반으로 재생하여 단말 디코딩 성능에 제약을 받지 않고 N개 이상의 영상이더라도, 단일 영상 재생이 가능한 단말에게는 성능의 제약 없이 멀티뷰 영상을 제공할 수 있다. In addition, the present invention reproduces multi-view video on a tile basis, so that it is not limited by terminal decoding performance and can provide multi-view video to a terminal capable of playing a single video without performance restrictions, even if there are more than N videos.

예를 들어, 단말 성능이 매우 다양한 PC 환경뿐만 아니라, 단말 성능이 매우 제약적인 웹기반의 스마트TV 등에도 해당 발명이 적용될 수 있다.For example, the invention can be applied not only to PC environments where terminal performance is very diverse, but also to web-based smart TVs where terminal performance is very limited.

또한, HTML5 Canvas를 활용하여 타일 단위로 나눈 영상의 이동이 자유로워서 고정된 형태로 제공하는 멀티뷰가 아닌 사용자가 원하는대로 화면을 배치 할 수 있는 직관적이고 자유로운 멀티뷰 사용 경험을 제공할 수 있다.In addition, by using HTML5 Canvas, the video divided into tiles can be freely moved, providing an intuitive and free multi-view experience that allows users to arrange the screen as they wish, rather than providing a fixed multi-view.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects that can be obtained from the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below. will be.

도 1은 본 발명의 실시 예에 따른 멀티뷰 화면 재생 시스템을 설명하기 위한 도면이다.
도 2내지 도 3은 본 발명의 실시 예에 따른 멀티뷰 화면 재생 방법을 설명하기 위한 도면이다.
도 4는 본 발명의 실시 예에 따른 멀티뷰 화면에 포함된 복수의 영상들을 변경하는 방법을 설명하기 위한 도면이다.
도 5는 본 발명의 실시 예에 따른 단말이 멀티뷰 화면을 재생하는 방법을 설명하기 위한 도면이다.
도 6은 본 발명의 실시 예에 따른 단말의 구성을 설명하기 위한 도면이다.
1 is a diagram for explaining a multi-view screen playback system according to an embodiment of the present invention.
2 and 3 are diagrams for explaining a multi-view screen playback method according to an embodiment of the present invention.
Figure 4 is a diagram for explaining a method of changing a plurality of images included in a multi-view screen according to an embodiment of the present invention.
Figure 5 is a diagram for explaining a method for a terminal to play a multi-view screen according to an embodiment of the present invention.
Figure 6 is a diagram for explaining the configuration of a terminal according to an embodiment of the present invention.

본 발명의 과제 해결 수단의 특징 및 이점을 보다 명확히 하기 위하여, 첨부된 도면에 도시된 본 발명의 특정 실시 예를 참조하여 본 발명을 더 상세하게 설명한다.In order to make the characteristics and advantages of the problem-solving means of the present invention clearer, the present invention will be described in more detail with reference to specific embodiments of the present invention shown in the attached drawings.

다만, 하기의 설명 및 첨부된 도면에서 본 발명의 요지를 흐릴 수 있는 공지 기능 또는 구성에 대한 상세한 설명은 생략한다. 또한, 도면 전체에 걸쳐 동일한 구성 요소들은 가능한 한 동일한 도면 부호로 나타내고 있음에 유의하여야 한다.However, detailed descriptions of known functions or configurations that may obscure the gist of the present invention are omitted in the following description and attached drawings. Additionally, it should be noted that the same components throughout the drawings are indicated by the same reference numerals whenever possible.

이하의 설명 및 도면에서 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위한 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시 예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시 예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원 시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다.Terms or words used in the following description and drawings should not be construed as limited to their usual or dictionary meanings, and the inventor may appropriately define the concept of the term to explain his or her invention in the best way. It must be interpreted with meaning and concept consistent with the technical idea of the present invention based on the principle that it is. Therefore, the embodiments described in this specification and the configurations shown in the drawings are only one of the most preferred embodiments of the present invention, and do not represent the entire technical idea of the present invention, so at the time of filing the present application, various alternatives may be used to replace them. It should be understood that equivalents and variations may exist.

또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하기 위해 사용하는 것으로, 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용될 뿐, 상기 구성요소들을 한정하기 위해 사용되지 않는다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제2 구성요소는 제1 구성요소로 명명될 수 있고, 유사하게 제1 구성요소도 제2 구성요소로 명명될 수 있다.In addition, terms containing ordinal numbers, such as first, second, etc., are used to describe various components, and are used only for the purpose of distinguishing one component from other components and to limit the components. Not used. For example, the second component may be referred to as the first component without departing from the scope of the present invention, and similarly, the first component may also be referred to as the second component.

또한, 본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 본 명세서에서 기술되는 "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Additionally, the terms used in this specification are only used to describe specific embodiments and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In addition, terms such as "comprise" or "have" used in the specification are intended to indicate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are intended to indicate the presence of one or more of the features, numbers, steps, operations, components, parts, or combinations thereof described in the specification. It should be understood that this does not exclude in advance the presence or addition of other features, numbers, steps, operations, components, parts, or combinations thereof.

또한, 명세서에 기재된 "부", "기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, "일(a 또는 an)", "하나(one)", "그(the)" 및 유사 관련어는 본 발명을 기술하는 문맥에 있어서(특히, 이하의 청구항의 문맥에서) 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다.Additionally, terms such as “unit,” “unit,” and “module” used in the specification refer to a unit that processes at least one function or operation, and may be implemented as hardware, software, or a combination of hardware and software. In addition, the terms "a or an", "one", "the", and similar related terms are used in the context of describing the invention (particularly in the context of the claims below) as used herein. It may be used in both singular and plural terms, unless indicated otherwise or clearly contradicted by context.

상술한 용어들 이외에, 이하의 설명에서 사용되는 특정 용어들은 본 발명의 이해를 돕기 위해서 제공된 것이며, 이러한 특정 용어의 사용은 본 발명의 기술적 사상을 벗어나지 않는 범위에서 다른 형태로 변경될 수 있다.In addition to the terms described above, specific terms used in the following description are provided to aid understanding of the present invention, and the use of these specific terms may be changed to other forms without departing from the technical spirit of the present invention.

아울러, 본 발명의 범위 내의 실시 예들은 컴퓨터 실행가능 명령어 또는 컴퓨터 판독가능 매체에 저장된 데이터 구조를 가지거나 전달하는 컴퓨터 판독가능 매체를 포함한다. 이러한 컴퓨터 판독가능 매체는, 범용 또는 특수 목적의 컴퓨터 시스템에 의해 액세스 가능한 임의의 이용 가능한 매체일 수 있다. 예로서, 이러한 컴퓨터 판독 가능 매체는 RAM, ROM, EPROM, CD-ROM 또는 기타 광 디스크 저장장치, 자기 디스크 저장장치 또는 기타 자기 저장장치, 또는 컴퓨터 실행가능 명령어, 컴퓨터 판독가능 명령어 또는 데이터 구조의 형태로 된 소정의 프로그램 코드 수단을 저장하거나 전달하는 데에 이용될 수 있고, 범용 또는 특수 목적 컴퓨터 시스템에 의해 액세스 될 수 있는 임의의 기타 매체와 같은 물리적 저장 매체를 포함할 수 있지만, 이에 한정되지 않는다.Additionally, embodiments within the scope of the present invention include computer-readable media having or transmitting computer-executable instructions or data structures stored on the computer-readable media. Such computer-readable media may be any available media that can be accessed by a general-purpose or special-purpose computer system. By way of example, such computer-readable media may include RAM, ROM, EPROM, CD-ROM or other optical disk storage, magnetic disk storage or other magnetic storage, or in the form of computer-executable instructions, computer-readable instructions or data structures. It may be used to store or transmit certain program code means, and may include, but is not limited to, a physical storage medium such as any other medium that can be accessed by a general purpose or special purpose computer system. .

아울러, 본 발명은 퍼스널 컴퓨터, 랩탑 컴퓨터, 핸드헬드 장치, 멀티프로세서 시스템, 마이크로프로세서-기반 또는 프로그램 가능한 가전제품(programmable consumer electronics), 네트워크 PC, 미니컴퓨터, 메인프레임 컴퓨터, 모바일 전화, PDA, 페이저(pager) 등을 포함하는 다양한 유형의 컴퓨터 시스템 구성을 가지는 네트워크 컴퓨팅 환경에서 실시될 수 있다. 본 발명은 또한 네트워크를 통해 유선 데이터 링크, 무선 데이터 링크, 또는 유선 및 무선 데이터 링크의 조합으로 링크된 로컬 및 원격 컴퓨터 시스템 모두가 태스크를 수행하는 분산형 시스템 환경에서 실행될 수 있다. 분산형 시스템 환경에서, 프로그램 모듈은 로컬 및 원격 메모리 저장 장치에 위치될 수 있다.In addition, the present invention is applicable to personal computers, laptop computers, handheld devices, multiprocessor systems, microprocessor-based or programmable consumer electronics, network PCs, minicomputers, mainframe computers, mobile phones, PDAs, and pagers. It can be implemented in a network computing environment with various types of computer system configurations including (pager) and the like. The invention may also be practiced in distributed system environments where tasks are performed by both local and remote computer systems that are linked over a network via wired data links, wireless data links, or a combination of wired and wireless data links. In a distributed system environment, program modules may be located in local and remote memory storage devices.

또한, 처리 흐름도 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도 블록(들)에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 블록(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Additionally, it will be understood that each block of the processing flow diagrams and combinations of the flow diagram diagrams may be performed by computer program instructions. These computer program instructions can be mounted on a processor of a general-purpose computer, special-purpose computer, or other programmable data processing equipment, so that the instructions performed through the processor of the computer or other programmable data processing equipment are described in the flow chart block(s). It creates the means to perform functions. These computer program instructions may also be stored in computer-usable or computer-readable memory that can be directed to a computer or other programmable data processing equipment to implement a function in a particular manner, so that the computer-usable or computer-readable memory It is also possible to produce manufactured items containing instruction means that perform the functions described in the flowchart block(s). Computer program instructions can also be mounted on a computer or other programmable data processing equipment, so that a series of operational steps are performed on the computer or other programmable data processing equipment to create a process that is executed by the computer, thereby generating a process that is executed by the computer or other programmable data processing equipment. Instructions that perform processing equipment may also provide steps for executing the functions described in the flow diagram block(s).

또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Additionally, each block may represent a module, segment, or portion of code that includes one or more executable instructions for executing specified logical function(s). Additionally, it should be noted that in some alternative execution examples it is possible for the functions mentioned in the blocks to occur out of order. For example, it is possible for two blocks shown in succession to be performed substantially at the same time, or it is possible for the blocks to be performed in reverse order depending on the corresponding function.

본 개시의 실시예들을 구체적으로 설명함에 있어서, 특정 시스템의 예를 주된 대상으로 할 것이지만, 본 명세서에서 청구하고자 하는 주요한 요지는 유사한 기술적 배경을 가지는 여타의 통신 시스템 및 서비스에도 본 명세서에 개시된 범위를 크게 벗어나지 아니하는 범위에서 적용 가능하며, 이는 당해 기술분야에서 숙련된 기술적 지식을 가진 자의 판단으로 가능할 것이다.In describing the embodiments of the present disclosure in detail, the main focus will be on the example of a specific system, but the main point claimed in the present specification is that the scope disclosed in the present specification is applicable to other communication systems and services with similar technical background. It can be applied within a range that does not deviate significantly, and this can be done at the discretion of a person with skilled technical knowledge in the relevant technical field.

이하, 본 발명의 실시 예에 따른 멀티뷰 영상을 재생하는 방법 및 시스템에 대해서 구체적으로 살펴보도록 한다.Hereinafter, we will look in detail at the method and system for playing multi-view images according to an embodiment of the present invention.

도 1은 본 발명의 실시 예에 따른 멀티뷰 영상을 재상하기 위한 영상 합성 시스템의 구조를 설명하기 위한 도면이다.1 is a diagram illustrating the structure of an image synthesis system for reproducing multi-view images according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시 예에 따른 멀티뷰 영상을 재생하기 위한 영상 합성 시스템은 통신망(1), 영상 제공 장치(100), 영상 합성 장치(200), 영상 관리 장치(300) 및 단말(400)을 포함하여 구성될 수 있다.Referring to FIG. 1, an image synthesis system for playing multi-view images according to an embodiment of the present invention includes a communication network 1, an image providing device 100, an image synthesis device 200, an image management device 300, and It may be configured to include a terminal 400.

여기서, 단말(400)과 영상 관리 장치(300)는 통신망(1)을 통해서 연동될 수 있다. Here, the terminal 400 and the video management device 300 may be linked through the communication network 1.

이 때, 통신망(1)은 무선 통신망일 수도 있고, 유선 통신망일 수도 있다. 예를 들어, 통신망(1)은 LTE (Long Term Evolution), 5G (5 Generation) 및 WiFi 등을 이용하는 무선 통신망일 수 있다.At this time, the communication network 1 may be a wireless communication network or a wired communication network. For example, the communication network 1 may be a wireless communication network using LTE (Long Term Evolution), 5G (5 Generation), and WiFi.

구체적으로, 통신망(1)은 단말(400)과 영상 관리 장치(300)간 데이터 송수신을 위해 데이터를 전달하는 역할을 하며, 시스템 구현 방식에 따라 이더넷(Ethernet), xDSL(ADSL, VDSL), HFC(Hybrid Fiber Coaxial Cable), FTTC(Fiber to The Curb), FTTH(Fiber To The Home) 등의 유선 통신 방식을 이용할 수도 있고, WLAN(Wireless LAN), 와이파이(Wi-Fi), 와이브로(Wibro), 와이맥스(Wimax), HSDPA(High Speed Downlink Packet Access), LTE(Long Term Evolution), LTE-A (Long Term Evolution Advanced), 5G (5-Generation) 등의 무선 통신 방식을 이용할 수도 있다.Specifically, the communication network 1 serves to transmit data for data transmission and reception between the terminal 400 and the video management device 300, and depending on the system implementation method, Ethernet, xDSL (ADSL, VDSL), and HFC You can also use wired communication methods such as (Hybrid Fiber Coaxial Cable), FTTC (Fiber to The Curb), and FTTH (Fiber To The Home), as well as WLAN (Wireless LAN), Wi-Fi, Wibro, Wireless communication methods such as Wimax, HSDPA (High Speed Downlink Packet Access), LTE (Long Term Evolution), LTE-A (Long Term Evolution Advanced), and 5G (5-Generation) can also be used.

한편, 대표적으로 본 발명이 적용될 수 있는 통신 분야인 5G에 관하여 살펴보면, 5G의 세 가지 주요 요구 사항 영역은 (1) 개선된 모바일 광대역 (Enhanced Mobile Broadband, eMBB) 영역, (2) 다량의 머신 타입 통신 (massive Machine Type Communication, mMTC) 영역 및 (3) 초-신뢰 및 저 지연 통신 (Ultra-reliable and Low Latency Communications, URLLC) 영역을 포함한다. Meanwhile, looking at 5G, a communication field to which the present invention can be typically applied, the three main requirements areas of 5G are (1) improved mobile broadband (eMBB) area, and (2) large number of machine types. (3) Massive Machine Type Communication (mMTC) area and (3) Ultra-reliable and Low Latency Communications (URLLC) area.

일부 사용 예(Use Case)는 최적화를 위해 다수의 영역들이 요구될 수 있고, 다른 사용 예는 단지 하나의 핵심 성능 지표 (Key Performance Indicator, KPI)에만 포커싱될 수 있다. 5G는 이러한 다양한 사용 예들을 유연하고 신뢰할 수 있는 방법으로 지원하는 것이다. Some use cases may require multiple areas for optimization, while others may focus on just one Key Performance Indicator (KPI). 5G supports these diverse use cases in a flexible and reliable way.

eMBB는 기본적인 모바일 인터넷 액세스를 훨씬 능가하게 하며, 풍부한 양방향 작업, 클라우드 또는 증강 현실에서 미디어 및 엔터테인먼트 애플리케이션을 커버한다. 데이터는 5G의 핵심 동력 중 하나이며, 5G 시대에서 처음으로 전용 음성 서비스를 볼 수 없을 수 있다. 5G에서, 음성은 단순히 통신 시스템에 의해 제공되는 데이터 연결을 사용하여 응용 프로그램으로서 처리될 것이 기대된다. 증가된 트래픽 양(volume)을 위한 주요 원인들은 콘텐츠 크기의 증가 및 높은 데이터 전송률을 요구하는 애플리케이션 수의 증가이다. 스트리밍 서비스 (오디오 및 비디오), 대화형 비디오 및 모바일 인터넷 연결은 더 많은 장치가 인터넷에 연결될수록 더 널리 사용될 것이다. 이러한 많은 응용 프로그램들은 사용자에게 실시간 정보 및 알림을 푸쉬하기 위해 항상 켜져 있는 연결성이 필요하다. 클라우드 스토리지 및 애플리케이션은 모바일 통신 플랫폼에서 급속히 증가하고 있으며, 이것은 업무 및 엔터테인먼트 모두에 적용될 수 있다. 그리고, 클라우드 스토리지는 상향링크 데이터 전송률의 성장을 견인하는 특별한 사용 예이다. 5G는 또한 클라우드의 원격 업무에도 사용되며, 촉각 인터페이스가 사용될 때 우수한 사용자 경험을 유지하도록 훨씬 더 낮은 단-대-단(end-to-end) 지연을 요구한다. 엔터테인먼트 예를 들어, 클라우드 게임 및 비디오 스트리밍은 모바일 광대역 능력에 대한 요구를 증가시키는 또 다른 핵심 요소이다. 엔터테인먼트는 기차, 차 및 비행기와 같은 높은 이동성 환경을 포함하는 어떤 곳에서든지 스마트폰 및 태블릿에서 필수적이다. 또 다른 사용 예는 엔터테인먼트를 위한 증강 현실 및 정보 검색이다. 여기서, 증강 현실은 매우 낮은 지연과 순간적인 데이터 양을 필요로 한다.eMBB goes far beyond basic mobile Internet access and covers rich interactive tasks, media and entertainment applications in the cloud or augmented reality. Data is one of the key drivers of 5G, and we may not see dedicated voice services for the first time in the 5G era. In 5G, voice is expected to be processed simply as an application using the data connection provided by the communication system. The main reasons for the increased traffic volume are the increase in content size and the number of applications requiring high data rates. Streaming services (audio and video), interactive video and mobile Internet connections will become more prevalent as more devices are connected to the Internet. Many of these applications require always-on connectivity to push real-time information and notifications to users. Cloud storage and applications are rapidly increasing mobile communication platforms, and this can apply to both work and entertainment. And cloud storage is a particular use case driving growth in uplink data rates. 5G will also be used for remote work in the cloud and will require much lower end-to-end latency to maintain a good user experience when tactile interfaces are used. Entertainment, for example, cloud gaming and video streaming are other key factors driving increased demand for mobile broadband capabilities. Entertainment is essential on smartphones and tablets anywhere, including high mobility environments such as trains, cars and airplanes. Another use case is augmented reality for entertainment and information retrieval. Here, augmented reality requires very low latency and instantaneous amounts of data.

또한, 가장 많이 예상되는 5G 사용 예 중 하나는 모든 분야에서 임베디드 센서를 원활하게 연결할 수 있는 기능 즉, mMTC에 관한 것이다. 2020년까지 잠재적인 IoT 장치들은 204 억 개에 이를 것으로 예측된다. 산업 IoT는 5G가 스마트 도시, 자산 추적(asset tracking), 스마트 유틸리티, 농업 및 보안 인프라를 가능하게 하는 주요 역할을 수행하는 영역 중 하나이다.Additionally, one of the most anticipated 5G use cases concerns the ability to seamlessly connect embedded sensors in any field, or mMTC. By 2020, the number of potential IoT devices is expected to reach 20.4 billion. Industrial IoT is one area where 5G will play a key role in enabling smart cities, asset tracking, smart utilities, agriculture and security infrastructure.

URLLC는 주요 인프라의 원격 제어 및 자체-구동 차량(self-driving vehicle)과 같은 초 신뢰 / 이용 가능한 지연이 적은 링크를 통해 산업을 변화시킬 새로운 서비스를 포함한다. 신뢰성과 지연의 수준은 스마트 그리드 제어, 산업 자동화, 로봇 공학, 드론 제어 및 조정에 필수적이다.URLLC includes new services that will transform industries through ultra-reliable/available low-latency links, such as remote control of critical infrastructure and self-driving vehicles. Levels of reliability and latency are essential for smart grid control, industrial automation, robotics, and drone control and coordination.

5G는 초당 수백 메가 비트에서 초당 기가 비트로 평가되는 스트림을 제공하는 수단으로 FTTH (fiber-to-the-home) 및 케이블 기반 광대역 (또는 DOCSIS)을 보완할 수 있다. 이러한 빠른 속도는 가상 현실과 증강 현실뿐 아니라 4K 이상(6K, 8K 및 그 이상)의 해상도로 TV를 전달하는데 요구된다. VR(Virtual Reality) 및 AR(Augmented Reality) 애플리케이션들은 거의 몰입형(immersive) 스포츠 경기를 포함한다. 특정 응용 프로그램은 특별한 네트워크 설정이 요구될 수 있다. 예를 들어, VR 게임의 경우, 게임 회사들이 지연을 최소화하기 위해 코어 서버를 네트워크 오퍼레이터의 에지 네트워크 서버와 통합해야 할 수 있다.5G can complement fiber-to-the-home (FTTH) and cable-based broadband (or DOCSIS) as a means of delivering streams rated at hundreds of megabits per second to gigabits per second. These high speeds are required to deliver TV at resolutions above 4K (6K, 8K and beyond) as well as virtual and augmented reality. Virtual Reality (VR) and Augmented Reality (AR) applications include nearly immersive sporting events. Certain applications may require special network settings. For example, for VR games, gaming companies may need to integrate core servers with a network operator's edge network servers to minimize latency.

자동차(Automotive)는 차량에 대한 이동 통신을 위한 많은 사용 예들과 함께 5G에 있어 중요한 새로운 동력이 될 것으로 예상된다. 예를 들어, 승객을 위한 엔터테인먼트는 동시의 높은 용량과 높은 이동성 모바일 광대역을 요구한다. 그 이유는 미래의 사용자는 그들의 위치 및 속도와 관계없이 고품질의 연결을 계속해서 기대하기 때문이다. 자동차 분야의 다른 활용 예는 증강 현실 대시보드이다. 이는 운전자가 앞면 창을 통해 보고 있는 것 위에 어둠 속에서 물체를 식별하고, 물체의 거리와 움직임에 대해 운전자에게 말해주는 정보를 겹쳐서 디스플레이 한다. 미래에, 무선 모듈은 차량들 간의 통신, 차량과 지원하는 인프라구조 사이에서 정보 교환 및 자동차와 다른 연결된 디바이스들(예를 들어, 보행자에 의해 수반되는 디바이스들) 사이에서 정보 교환을 가능하게 한다. 안전 시스템은 운전자가 보다 안전한 운전을 할 수 있도록 행동의 대체 코스들을 안내하여 사고의 위험을 낮출 수 있게 한다. 다음 단계는 원격 조종되거나 자체 운전 차량(self-driven vehicle)이 될 것이다. 이는 서로 다른 자체 운전 차량들 사이 및 자동차와 인프라 사이에서 매우 신뢰성이 있고, 매우 빠른 통신을 요구한다. 미래에, 자체 운전 차량이 모든 운전 활동을 수행하고, 운전자는 차량 자체가 식별할 수 없는 교통 이상에만 집중하도록 할 것이다. 자체 운전 차량의 기술적 요구 사항은 트래픽 안전을 사람이 달성할 수 없을 정도의 수준까지 증가하도록 초 저 지연과 초고속 신뢰성을 요구한다.Automotive is expected to be an important new driver for 5G, with many use cases for mobile communications for vehicles. For example, entertainment for passengers requires simultaneous, high capacity and high mobility mobile broadband. That's because future users will continue to expect high-quality connections regardless of their location and speed. Another use case in the automotive sector is augmented reality dashboards. It identifies objects in the dark and superimposes information telling the driver about the object's distance and movement on top of what the driver is seeing through the front window. In the future, wireless modules will enable communication between vehicles, information exchange between vehicles and supporting infrastructure, and information exchange between cars and other connected devices (eg, devices accompanied by pedestrians). Safety systems can reduce the risk of accidents by guiding drivers through alternative courses of action to help them drive safer. The next step will be remotely controlled or self-driven vehicles. This requires highly reliable and very fast communication between different self-driving vehicles and between cars and infrastructure. In the future, self-driving vehicles will perform all driving activities, leaving drivers to focus only on traffic abnormalities that the vehicles themselves cannot discern. The technical requirements of self-driving vehicles call for ultra-low latency and ultra-high reliability, increasing traffic safety to levels unachievable by humans.

스마트 사회(smart society)로서 언급되는 스마트 도시와 스마트 홈은 고밀도 무선 센서 네트워크로 임베디드될 것이다. 지능형 센서의 분산 네트워크는 도시 또는 집의 비용 및 에너지-효율적인 유지에 대한 조건을 식별할 것이다. 유사한 설정이 각 가정을 위해 수행될 수 있다. 온도 센서, 창 및 난방 컨트롤러, 도난 경보기 및 가전 제품들은 모두 무선으로 연결된다. 이러한 센서들 중 많은 것들이 전형적으로 낮은 데이터 전송 속도, 저전력 및 저비용이다. 하지만, 예를 들어, 실시간 HD 비디오는 감시를 위해 특정 타입의 장치에서 요구될 수 있다.Smart cities and smart homes, referred to as smart societies, will be embedded with high-density wireless sensor networks. A distributed network of intelligent sensors will identify conditions for cost-effective and energy-efficient maintenance of a city or home. A similar setup can be done for each household. Temperature sensors, window and heating controllers, burglar alarms and home appliances are all connected wirelessly. Many of these sensors are typically low data rate, low power, and low cost. However, real-time HD video may be required in certain types of devices for surveillance, for example.

열 또는 가스를 포함한 에너지의 소비 및 분배는 고도로 분산화되고 있어, 분산 센서 네트워크의 자동화된 제어가 요구된다. 스마트 그리드는 정보를 수집하고 이에 따라 행동하도록 디지털 정보 및 통신 기술을 사용하여 이런 센서들을 상호 연결한다. 이 정보는 공급 업체와 소비자의 행동을 포함할 수 있으므로, 스마트 그리드가 효율성, 신뢰성, 경제성, 생산의 지속 가능성 및 자동화된 방식으로 전기와 같은 연료들의 분배를 개선하도록 할 수 있다. 스마트 그리드는 지연이 적은 다른 센서 네트워크로 볼 수도 있다.Consumption and distribution of energy, including heat or gas, is highly decentralized, requiring automated control of distributed sensor networks. A smart grid interconnects these sensors using digital information and communications technologies to collect and act on information. This information can include the behavior of suppliers and consumers, allowing smart grids to improve the efficiency, reliability, economics, sustainability of production and distribution of fuels such as electricity in an automated manner. Smart grid can also be viewed as another low-latency sensor network.

미션 크리티컬 애플리케이션(mission critical application)(예,e-건강(e-health))은5G사용 시나리오들 중 하나이다. 건강 부문은 이동 통신의 혜택을 누릴 수 있는 많은 응용 프로그램을 보유하고 있다. 통신 시스템은 멀리 떨어진 곳에서 임상 진료를 제공하는 원격 진료를 지원할 수 있다. 이는 거리에 대한 장벽을 줄이는데 도움을 주고, 거리가 먼 농촌에서 지속적으로 이용하지 못하는 의료 서비스들로의 접근을 개선시킬 수 있다. 이는 또한 중요한 진료 및 응급 상황에서 생명을 구하기 위해 사용된다. 이동 통신 기반의 무선 센서 네트워크는 심박수 및 혈압과 같은 파라미터들에 대한 원격 모니터링 및 센서들을 제공할 수 있다.Mission critical applications (e.g., e-health) are one of the 5G usage scenarios. The health sector has many applications that can benefit from mobile communications. Communications systems can support telemedicine, providing clinical care in remote locations. This can help reduce the barrier of distance and improve access to health services that are consistently unavailable in remote rural areas. It is also used to save lives in critical care and emergency situations. Mobile communications-based wireless sensor networks can provide remote monitoring and sensors for parameters such as heart rate and blood pressure.

무선 및 모바일 통신은 산업 응용 분야에서 점차 중요해지고 있다. 배선은 설치 및 유지 비용이 높다. 따라서, 케이블을 재구성할 수 있는 무선 링크들로의 교체 가능성은 많은 산업 분야에서 매력적인 기회이다. 그러나, 이를 달성하는 것은 무선 연결이 케이블과 비슷한 지연, 신뢰성 및 용량으로 동작하는 것과, 그 관리가 단순화될 것이 요구된다. 낮은 지연과 매우 낮은 오류 확률은 5G로 연결될 필요가 있는 새로운 요구 사항이다.Wireless and mobile communications are becoming increasingly important in industrial applications. Wiring is expensive to install and maintain. Therefore, the possibility of replacing cables with reconfigurable wireless links is an attractive opportunity for many industries. However, achieving this requires that wireless connections operate with similar latency, reliability and capacity as cables, and that their management be simplified. Low latency and very low error probability are new requirements needed for 5G connectivity.

물류(logistics) 및 화물 추적(freight tracking)은 위치 기반 정보 시스템을 사용하여 어디에서든지 인벤토리(inventory) 및 패키지의 추적을 가능하게 하는 이동 통신에 대한 중요한 사용 예이다. 물류 및 화물 추적의 사용 예는 전형적으로 낮은 데이터 속도를 요구하지만 넓은 범위와 신뢰성 있는 위치 정보가 필요하다.Logistics and freight tracking are important examples of mobile communications that enable inventory and tracking of packages anywhere using location-based information systems. Use cases in logistics and cargo tracking typically require low data rates but require wide range and reliable location information.

아울러, 이러한 통신망(1)은 예컨대, 다수의 접속망(미도시) 및 코어망(미도시)을 포함하며, 외부망, 예컨대 인터넷망(미도시)을 포함하여 구성될 수 있다. 여기서, 접속망(미도시)은 단말(400) 및 영상 관리 장치(300)와 유무선 통신을 수행하는 접속망일 수 있다. 예를 들어, BS(Base Station), BTS(Base Transceiver Station), NodeB, eNodeB, gNodeB 등과 같은 다수의 기지국과, BSC(Base Station Controller), RNC(Radio Network Controller)와 같은 기지국 제어기로 구현될 수 있다. In addition, this communication network 1 includes, for example, a plurality of access networks (not shown) and a core network (not shown), and may be configured to include an external network, such as an Internet network (not shown). Here, the access network (not shown) may be an access network that performs wired and wireless communication with the terminal 400 and the video management device 300. For example, it can be implemented with multiple base stations such as BS (Base Station), BTS (Base Transceiver Station), NodeB, eNodeB, gNodeB, and base station controllers such as BSC (Base Station Controller) and RNC (Radio Network Controller). there is.

또한, 전술한 바와 같이, 상기 기지국에 일체로 구현되어 있던 디지털 신호 처리부와 무선 신호 처리부를 각각 디지털 유니트(Digital Unit, 이하 DU라 함)와 무선 유니트(Radio Unit, 이하 RU라 함)로 구분하여, 다수의 영역에 각각 다수의 RU(미도시)를 설치하고, 다수의 RU(미도시)를 집중화된 DU(미도시)와 연결하여 구성할 수도 있다.In addition, as described above, the digital signal processing unit and the wireless signal processing unit integrated in the base station are divided into a digital unit (hereinafter referred to as DU) and a radio unit (hereinafter referred to as RU), respectively. , it can be configured by installing multiple RUs (not shown) in multiple areas and connecting multiple RUs (not shown) with a centralized DU (not shown).

또한, 접속망(미도시)과 함께 모바일 망을 구성하는 코어망(미도시)은 접속망(미도시)과 외부 망, 예컨대, 인터넷망(미도시)을 연결하는 역할을 수행한다.In addition, the core network (not shown) that constitutes the mobile network together with the access network (not shown) serves to connect the access network (not shown) with an external network, such as an Internet network (not shown).

이러한 코어망(미도시)은 앞서 설명한 바와 같이, 접속망(미도시) 간의 이동성 제어 및 스위칭 등의 이동통신 서비스를 위한 주요 기능을 수행하는 네트워크 시스템으로서, 서킷 교환(circuit switching) 또는 패킷 교환 (packet switching)을 수행하며, 모바일 망 내에서의 패킷 흐름을 관리 및 제어한다. 또한, 코어망(미도시)은 주파수 간 이동성을 관리하고, 접속망(미도시) 및 코어망(미도시) 내의 트래픽 및 다른 네트워크, 예컨대 인터넷 망(미도시)과의 연동을 위한 역할을 수행할 수도 있다. 이러한 코어망(미도시)은 SGW(Serving GateWay), PGW(PDN GateWay), MSC(Mobile Switching Center), HLR(Home Location Register), MME(Mobile Mobility Entity)와 HSS(Home Subscriber Server) 등을 더 포함하여 구성될 수도 있다.As described above, this core network (not shown) is a network system that performs major functions for mobile communication services such as mobility control and switching between access networks (not shown), and is a network system that performs circuit switching or packet switching. switching) and manages and controls packet flow within the mobile network. In addition, the core network (not shown) manages mobility between frequencies and plays a role in linking traffic within the access network (not shown) and the core network (not shown) with other networks, such as the Internet network (not shown). It may be possible. This core network (not shown) further includes Serving GateWay (SGW), PDN GateWay (PGW), Mobile Switching Center (MSC), Home Location Register (HLR), Mobile Mobility Entity (MME), and Home Subscriber Server (HSS). It may also be configured to include.

또한, 인터넷망(미도시)은 TCP/IP 프로토콜에 따라서 정보가 교환되는 통상의 공개된 통신망, 즉 공용망을 의미하는 것으로, 단말(400) 및 영상 관리 장치(300)와 연결되며, 단말(400)로부터 제공되는 정보를 코어망(미도시) 및 접속망(미도시)을 거쳐 영상 관리 장치(300)로 제공할 수 있고, 반대로 영상 관리 장치(300)로 제공되는 정보를 코어망(미도시) 및 접속망(미도시)을 거쳐 단말(400)로 제공할 수도 있다. 그러나, 이에 한정되는 것은 아니며, 영상 관리 장치(300)는 코어망(미도시)과 일체로 구현될 수도 있다.In addition, the Internet network (not shown) refers to a typical open communication network, that is, a public network, in which information is exchanged according to the TCP/IP protocol. It is connected to the terminal 400 and the video management device 300, and the terminal ( Information provided from 400) can be provided to the video management device 300 through a core network (not shown) and an access network (not shown), and conversely, information provided to the video management device 300 can be provided to the core network (not shown). ) and an access network (not shown) may be provided to the terminal 400. However, it is not limited to this, and the video management device 300 may be implemented integrally with a core network (not shown).

또한, 상술한 통신 방식 이외에도 기타 널리 공지되었거나 향후 개발될 모든 형태의 통신 방식을 포함할 수 있다. 또한, 통신망(1)은 상술한 유무선 통신망들 중 둘 이상의 통신망이 조합된 형태로 구성될 수 있다. 예를 들어, 통신망(1)은 유선 통신망과 무선 통신망이 조합되거나, 둘 이상의 무선 통신망이 조합된 형태로 구현될 수 있다.In addition, in addition to the above-mentioned communication methods, it may include all other types of communication methods that are widely known or will be developed in the future. Additionally, the communication network 1 may be configured as a combination of two or more of the wired and wireless communication networks described above. For example, the communication network 1 may be implemented as a combination of a wired communication network and a wireless communication network, or a combination of two or more wireless communication networks.

한편, 영상 관리 장치(300), 영상 합성 장치(200) 및 영상 제공 장치(100) 는 하나의 장치로 구성될 수 있다. 만약, 영상 관리 장치(300), 영상 합성 장치(200) 및 영상 제공 장치(100)가 별도의 장치로 구성되는 경우, 영상 관리 장치(300), 영상 합성 장치(200) 및 영상 제공 장치(100)는 유무선 인터페이스를 통해 연동될 수 있다.Meanwhile, the image management device 300, the image synthesis device 200, and the image providing device 100 may be configured as one device. If the video management device 300, the video synthesis device 200, and the video provision device 100 are configured as separate devices, the video management device 300, the video synthesis device 200, and the video provision device 100 ) can be linked through a wired or wireless interface.

도 1에 따른 단말(400)은 사용자의 조작에 따라 통신망(100)을 경유하여 각종 데이터를 송수신할 수 있는 사용자의 장치를 의미할 수 있다.The terminal 400 according to FIG. 1 may refer to a user's device that can transmit and receive various data through the communication network 100 according to the user's operation.

이러한 단말(400)은 통신망(1)을 통하여 음성 또는 데이터 통신을 수행할 수 있으며, 통신망(1)을 통해 영상 관리 장치(300)와 정보를 송수신 할 수 있다. 이를 위한 본 발명의 단말(400)은 통신망(1)을 통하여 데이터를 송수신하기 위한 프로그램 및 프로토콜을 저장하는 메모리, 각종 프로그램을 실행하여 연산 및 제어하기 위한 마이크로프로세서 등을 구비할 수 있다.This terminal 400 can perform voice or data communication through the communication network 1, and can transmit and receive information with the video management device 300 through the communication network 1. For this purpose, the terminal 400 of the present invention may be equipped with a memory for storing programs and protocols for transmitting and receiving data through the communication network 1, and a microprocessor for calculating and controlling various programs.

이러한 단말(400)은 우선적으로 통신망(1)에 접속된 어플리케이션(이하, '앱') 제공 장치(미도시) 예컨대, 앱 스토어 등에 접속을 수행하고 해당 앱 스토어로부터 보험 보장 내역 제공 서비스를 위한 앱을 수신하여 설치할 수 있다.This terminal 400 first connects to an application (hereinafter referred to as 'app') providing device (not shown) connected to the communication network (1), such as an app store, and provides an app for providing insurance coverage details from the app store. You can receive and install it.

또한, 이러한 단말(400)은 다양한 형태로 구현될 수 있다. 예를 들어, 본 명세서에서 기술되는 단말(400)은 스마트 폰(smart phone), 타블렛 PC(Tablet PC), PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), MP3 Player 등의 이동 단말기는 물론, 스마트 TV(Smart TV), 데스크탑 컴퓨터 등과 같은 고정 단말기가 사용될 수도 있다.Additionally, this terminal 400 may be implemented in various forms. For example, the terminal 400 described in this specification includes mobile terminals such as smart phones, tablet PCs, personal digital assistants (PDAs), portable multimedia players (PMPs), and MP3 players. , fixed terminals such as Smart TVs, desktop computers, etc. may also be used.

또한, 본 발명의 단말(400)은 디지털 기기의 컨버전스(convergence) 추세에 따라 휴대 기기의 변형이 매우 다양하여 모두 열거할 수는 없으나, 상기 언급된 유닛들과 동등한 수준의 유닛이 본 발명에 따른 단말(400)로 사용될 수 있으며, 본 발명에 따른 멀티뷰 영상에 관련된 앱을 다운 및 설치할 수 있는 장치라면, 그 어떠한 장치도 본 발명의 실시 예에 따른 단말(400)로 이용될 수 있다.In addition, the terminal 400 of the present invention has so many variations of portable devices according to the convergence trend of digital devices that it is not possible to list them all, but units equivalent to the above-mentioned units according to the present invention. Any device that can be used as the terminal 400 and can download and install an app related to the multi-view video according to the present invention can be used as the terminal 400 according to an embodiment of the present invention.

본 발명의 실시 예에 따르면, 단말(400)은 통신망(1)을 통해 영상 관리 장치(300)에게 멀티뷰 영상을 스트리밍해줄 것을 요청할 수 있다. 이 때, 단말(400)은 영상 관리 장치(300)에 저장된 복수의 멀티뷰 영상 중, 특정 멀티뷰 영상을 스트리밍해줄 것을 요청할 수 있다. According to an embodiment of the present invention, the terminal 400 may request the video management device 300 to stream a multi-view video through the communication network 1. At this time, the terminal 400 may request streaming of a specific multi-view video among a plurality of multi-view videos stored in the video management device 300.

이 때, 특정 멀티뷰 영상은 단말(400)의 사용자가 가장 큰 크기로 시청하기 원하는 영상이 멀티뷰 영상에 가장 많은 비중을 차지하는 멀티뷰 영상을 의미할 수 있다. At this time, the specific multi-view video may mean a multi-view video in which the video that the user of the terminal 400 wants to view in the largest size occupies the largest proportion of the multi-view video.

즉, 멀티뷰 영상은 복수의 영상 중, 하나의 영상이 가장 큰 크기로 배치되고, 나머지 영상들이 동일한 크기로 배치되되, 타일 형태를 기반으로 배치된 것일 수 있다.That is, in a multi-view image, among a plurality of images, one image is arranged at the largest size, and the remaining images are arranged at the same size, but may be arranged based on a tile shape.

단말(400)의 요청에 따라, 단말(400)이 영상 관리 장치(300)로부터 특정 멀티뷰 영상이 스트리밍되면, 단말(400)은 해당 특정 멀티뷰 영상을 스트리밍 기반으로 재생할 수 있다. 한편, 단말(400)이 특정 멀티뷰 영상을 재생하는 중에, 사용자를 통해 다른 멀티뷰 영상을 재생할 것을 요청받으면, 영상 관리 장치(300)에게 다른 멀티뷰 영상을 스트리밍해 줄 것을 요청할 수 있다.When a specific multi-view video is streamed from the video management device 300 to the terminal 400 at the request of the terminal 400, the terminal 400 can play the specific multi-view video based on streaming. Meanwhile, while the terminal 400 is playing a specific multi-view video, if it receives a request from the user to play another multi-view video, it can request the video management device 300 to stream another multi-view video.

영상 관리 장치(300)부터 다른 멀티뷰 영상이 스트리밍 되면, 단말(400)은 다른 멀티뷰 영상을 스트리밍 기반으로 재생하는데, 이 때, 단말(400)이 다른 멀티뷰 영상을 요청하여, 특정 멀티뷰 영상에서 다른 멀티뷰 영상으로 변경하는데 걸리는 소요시간은 일정 시간 미만(예를 들어, 300ms)일 수 있다.When another multi-view video is streamed from the video management device 300, the terminal 400 plays the other multi-view video based on streaming. At this time, the terminal 400 requests another multi-view video and specifies a specific multi-view video. The time required to change from one image to another multi-view image may be less than a certain amount of time (for example, 300 ms).

한편, 단말(400)이 스트리밍 받는 멀티뷰 영상은 영상 합성 장치(200)가 복수의 영상들을 하나의 영상으로 합성한 것이다. 따라서, 영상 관리 장치(300)로부터 멀티뷰 영상을 스트리밍 받으면, 단말(400)은 하나의 영상 파일을 스트리밍하는 것이다.Meanwhile, the multi-view video that the terminal 400 is streaming is one in which the video synthesis device 200 synthesizes a plurality of images into one image. Accordingly, when receiving streaming multi-view video from the video management device 300, the terminal 400 streams one video file.

이 때, 단말(400)은 스트리밍되는 멀티뷰 영상에 대하여 디코딩 및 렌더링을 수행할 수 있다. 또한, 단말(400)은 멀티뷰 영상을 타일 단위의 복수의 영상들로 분할할 수 있다. 예를 들어, 멀티뷰 영상은 하나의 영상이 가장 큰 크기로 배치되고, 나머지 영상들이 동일한 크기로 배치되도록 타일 단위로 구분될 수 있다.At this time, the terminal 400 can perform decoding and rendering on the streaming multi-view image. Additionally, the terminal 400 may divide the multi-view image into a plurality of images in tile units. For example, multi-view images can be divided into tiles so that one image is arranged at the largest size and the remaining images are arranged at the same size.

멀티뷰 영상 내에서의 복수의 영상들이 배치되기 위한 각 타일의 크기 및 각 타일의 위치에 관한 정보는 영상 관리 장치(300)를 통해 사전에 수신하거나, 단말(400)이 특정 멀티뷰 영상의 스트리밍을 요청할 때 함께 수신할 수 있다.Information on the size of each tile and the location of each tile for arranging a plurality of images in a multi-view image is received in advance through the image management device 300, or the terminal 400 is used to stream a specific multi-view image. You can receive it together when you request it.

단말(400)은 상술한 각 타일의 크기 및 타일의 위치에 관한 정보를 기반으로 멀티뷰 영상을 타일 단위의 복수의 영상들로 분할할 수 있다. 그 결과, 복수의 영상들 중, 하나의 영상이 가장 큰 크기로 분할 되며, 나머지 영상들은 동일한 크기로 분할 될 것이다.The terminal 400 may divide the multi-view image into a plurality of images in units of tiles based on the information about the size and location of each tile described above. As a result, among the plurality of images, one image will be divided into the largest size, and the remaining images will be divided into the same size.

단말(400)은 분할된 복수의 영상들을 각각의 HTML 5 (HypeText Markup Language) 캔버스(Canvas)에 프레임 단위로 영상을 삽입할 수 있다. 즉, 각각의 HTML 5 캔버스는 각각의 타일과 일대일로 맵핑될 수 있으며, 타일 단위로 분할된 복수의 영상들 각각은 복수의 영상들 각각에 관련된 타일과 맵핑되는 HTML 5 캔버스에 프레임 단위로 삽입될 수 있다.The terminal 400 can insert a plurality of divided images into each HTML 5 (HypeText Markup Language) canvas on a frame-by-frame basis. That is, each HTML 5 canvas can be mapped one-to-one with each tile, and each of the plurality of images divided into tile units can be inserted frame by frame into the HTML 5 canvas that is mapped to the tile related to each of the plurality of images. You can.

한편, HTML 5란, 차세대 웹문서의 표준으로 기존의 HTML에 비해 멀티미디어 등 다양한 어플리케이션까지 표현, 제공하도록 진화한 "웹프로그래밍 언어"이다. 기존의 HTML4에서 오디어, 비디오, 그래픽처리, 위치 정보 제공 등 다양한 기능을 추가로 제공함으로써, 웹 자체적으로 처리할 수 있는 기능을 대폭 향상시켰다. Meanwhile, HTML 5 is a next-generation web document standard and is a "web programming language" that has evolved to express and provide various applications such as multimedia compared to existing HTML. By providing various additional functions such as audio, video, graphics processing, and location information provision in the existing HTML4, the web's own processing capabilities have been significantly improved.

HTML 5의 기본 구조는 기존의 HTML과 동일하다. HTML은 여러가지 태그(tag)로 모든 내용이 표현된다. 그리고, HTML의 내용 안에는 HEAD 부분과 BODY부분으로 구분된다. The basic structure of HTML 5 is the same as existing HTML. In HTML, all content is expressed using various tags. And, the content of HTML is divided into a HEAD part and a BODY part.

HTML 5에서 기존의 HTML과 다른 큰 차이점은 그래픽 처리에 있다. HTML5에서는 캔버스(Canvas) 및 SVG를 이용하여 플래시, 실버라이트를 이용하여 구현한 그래픽 처리를 대체할 수 있다.The big difference between HTML 5 and existing HTML lies in graphics processing. In HTML5, Canvas and SVG can be used to replace graphics processing implemented using Flash and Silverlight.

캔버스는 그 자체가 그래픽을 구현하는 것이 아닌 웹 문서에 그래픽 구현을 위한 영역을 정의하고, 실제로는 JavaScript를 통해 Canvas API로 만든 코드를 이용하여 그래픽을 구현한다. 그리고 픽셀 기반의 즉시 모드 그래픽 시스템으로 매 프레임 마다 다시 화면을 그릴 수 있다. 웹 페이지에서 바로 비트맵을 제어할 수 있다는 장점이 있지만, 낮은 레벨에서 픽셀을 다루기 때문에 번거로운 점도 있다.Canvas does not itself implement graphics, but defines an area for graphic implementation in a web document, and actually implements graphics using code created with the Canvas API through JavaScript. And the pixel-based immediate mode graphics system allows the screen to be redrawn every frame. There is the advantage of being able to control bitmaps directly on a web page, but it is also cumbersome because pixels are handled at a low level.

캔버스를 통해서라면 브라우저 창 안에 어떤 것이든 그려내고 인터렉트한 이미지 편집도 가능하고 동영상의 제어도 가능하다. 또한, 그린스크린을 이용하면 동영상 합성도 가능하다. 또한, 별도의 플러그인을 다운로드 할 필요 없이 실시간 그래프, 애니메이션 또는 대화형 게임을 사용자에게 제공할 수도 있다.Through Canvas, you can draw anything in the browser window, edit images interactively, and control videos. Additionally, video compositing is possible using a green screen. Additionally, you can provide users with real-time graphs, animations, or interactive games without having to download separate plug-ins.

한편, SVG(Scalable Vector Graphic)은 W3C에서 1999년 개발한 XML 기반의 오픈 표준의 벡터 그래픽 파일 형식이다. SVG는 모양 기반의 유지 모드 그래픽 시스템으로 화면에 그릴 오브젝트의 리스트는 그래픽 렌더러에 있으며, 코드 내에서 지정한 오브젝트의 특성(x좌표, y좌표, 투명도)에 따라 오브젝트를 화면에 그릴 수 있다. SVG 형식의 이미지와 그 작동은 XML 텍스트 파일들로 정의되어, 검색화, 목록화, 스크립트화가 가능하며 필요하다면 압축도 가능하다. Meanwhile, SVG (Scalable Vector Graphic) is an XML-based open standard vector graphics file format developed by W3C in 1999. SVG is a shape-based maintenance mode graphics system. The list of objects to be drawn on the screen is in the graphics renderer, and objects can be drawn on the screen according to the characteristics (x-coordinate, y-coordinate, transparency) of the object specified in the code. Images in SVG format and their operations are defined as XML text files, which can be searched, cataloged, scripted, and compressed if necessary.

이런 이류로 SVG는 모든 모바일 디바이스에 적합하다. 또한, SVG는 XML 기반의 그래픽이기 때문에 일반 텍스트 에디터로 편집이 가능하다. 그러나 일반적으로 SVG형식으로 저장되는 그래픽 에디터(툴)로 제작하는 것이 생산성이 높아서 주로 그래픽 에디터로 작업하는 것이 보통이다. SVG도 캔버스와 동일하게 별도의 플러그인 없이 그래픽 사용자에게 제공될 수 있다.This makes SVG suitable for all mobile devices. Additionally, because SVG is an XML-based graphic, it can be edited with a plain text editor. However, it is generally more productive to produce with a graphic editor (tool) that is saved in SVG format, so it is common to work mainly with a graphic editor. SVG, like canvas, can be provided to graphic users without a separate plug-in.

한편, 단말(400)은 프레임 단위로 삽입된 복수의 영상들을 스트리밍 하여, 사용자에게 출력할 수 있다. 이 때, 사용자의 입력에 의해 복수의 영상들 중, 2개의 영상의 위치를 변경할 것을 요청받을 수 있다.Meanwhile, the terminal 400 can stream a plurality of images inserted in frame units and output them to the user. At this time, a request may be made to change the positions of two images among a plurality of images by user input.

이러한 경우, 단말(400)은 영상 관리 장치(300)에게 멀티뷰 영상을 교체해줄 것을 요청하지 않고, 직접 요청된 2개의 영상들 간의 위치를 변경할 수 있다. 예를 들어, 단말(400)은 요청된 2개의 영상들 각각을 위한 캔버스들 간의 위치 변경을 수행하여, 2개의 영상들의 위치를 변경할 수 있다.In this case, the terminal 400 may directly change the position between the two requested images without requesting the video management device 300 to replace the multi-view image. For example, the terminal 400 may change the positions of the two requested images by changing the positions between canvases for each of the two requested images.

즉, 별도의 스트림 교체 없이 단말(400)이 직접 요청된 2개의 영상들 간의 위치를 변경할 수 있다.That is, the terminal 400 can directly change the position between the two requested videos without separate stream replacement.

다만, 이러한 경우, 2개의 영상들 각각을 위한 캔버스의 크기 및/또는 타일의 크기는 동일한 것으로 제한될 수 있다.However, in this case, the size of the canvas and/or the size of the tile for each of the two images may be limited to being the same.

다시 말해, 요청된 2개의 영상들 각각을 위한 타일의 크기 및/또는 캔버스의 크기가 같은 경우에는, 별도의 스트림 교체 없이 단말(400)이 직접 요청된 2개의 영상들 각각을 위한 캔버스들 간의 위치 변경을 수행하여, 2개의 영상들의 위치를 변경할 수 있다.In other words, when the size of the tile and/or the size of the canvas for each of the two requested images are the same, the terminal 400 directly determines the position between the canvases for each of the two requested images without separate stream replacement. By performing a change, the positions of the two images can be changed.

만약, 요청된 2개의 영상들 각각을 위한 타일의 크기 및/또는 캔버스의 크기가 상이한 경우, 작은 크기의 영상을 큰 크기의 캔버스 및/또는 타일로 변경하면, 작은 크기의 영상을 그려야 하는 화면 영역이 커지면서 화질 열화가 발생할 수 있다.If the tile size and/or canvas size for each of the two requested images are different, if the small size image is changed to a large size canvas and/or tile, the screen area where the small size image must be drawn As this increases, image quality may deteriorate.

따라서, 단말(400)은 작은 크기의 영상을 변경되어야 하는 큰 크기의 캔버스 및/또는 타일을 기반으로, 해당 캔버스 및/또는 타일에 부합하는 크기의 영상의 스트림을 제공해줄 것을 영상 관리 장치(300)에게 요청할 수 있다. 영상 관리 장치(300)가 다시 영상의 스트림을 제공해주면, 단말(400)은 해당 영상을 큰 크기의 캔버스에 삽입하여 완료할 수 있다.Therefore, the terminal 400 requests the video management device 300 to provide a stream of video of a size matching the canvas and/or tile based on the large-sized canvas and/or tile that needs to be changed from the small-sized video. ) can be requested. When the video management device 300 provides the video stream again, the terminal 400 can insert the video into a large canvas and complete the process.

한편, 큰 크기의 영상을 작은 크기의 캔버스 및/또는 타일에 삽입하는 것은 화질 열화를 발생시키지 않고, 별도의 스트림을 다시 수신하는 것은 오히려 영상의 재생에 시간 지연을 발생시킬 뿐이다. 따라서, 큰 크기의 영상은 그 크기를 작은 크기의 캔버스 및/또는 타일에 부합하게 줄여, 작은 크기의 캔버스 및/또는 타일에 삽입하여 변경을 완료할 수 있다.Meanwhile, inserting a large-sized video into a small-sized canvas and/or tile does not cause image quality deterioration, and re-receiving a separate stream only causes a time delay in video playback. Accordingly, the change of the large-sized image can be completed by reducing its size to match the small-sized canvas and/or tile and inserting it into the small-sized canvas and/or tile.

예를 들어, 단말(400)이 스트리밍하고 있는 멀티뷰 화면에서 가장 큰 크기의 캔버스 및/타일에 대응하는 영상을 제 1 영상, 그리고 동일한 크기의 캔버스 및/타일에 대응하는 영상들을 제 2 영상 및 제 3 영상이라고 한다.For example, in the multi-view screen where the terminal 400 is streaming, the image corresponding to the largest canvas and/tile is the first image, and the images corresponding to the canvas and/tile of the same size are the second image and It is called the third video.

만약, 단말(400)이 사용자로부터 제 2 영상 및 제 3 영상의 교체를 요청받았다면, 단말(400)은 별도의 스트림 교체 없이, 즉, 영상 관리 장치(300)에 별도의 영상 전송을 요청하지 않고, 직접 요청된 제 2 영상의 제 2 캔버스 및 제 3 영상의 제 3 캔버스 간의 위치를 변경하여 영상 교체 작업을 완료할 수 있다.If the terminal 400 receives a request from the user to replace the second video and the third video, the terminal 400 does not request separate video transmission from the video management device 300 without separate stream replacement. Instead, the image replacement task can be completed by directly changing the position between the second canvas of the requested second image and the third canvas of the third image.

만약, 단말(400)이 사용자로부터 제 1 영상 및 제 2 영상의 교체를 요청받았다면, 단말(400)은 영상 관리 장치(300)에게 제 1 영상의 제 1 캔버스 및/또는 제 1 타일의 크기에 대응하는 화질 및 크기를 가지는 제 2 영상의 스트림을 전송해줄 것을 요청할 수 있다. 단말(400)이 영상 관리 장치(300)로부터 제 2 영상의 스트림을 수신하면, 수신된 제 2 영상을 제 1 캔버스 및/또는 제 1 타일에 삽입할 수 있다. 또한, 단말(400)은 제 1 영상의 크기 및 화질을 제 2 캔버스 및/또는 제 2 타일에 부합하도록 변경하고, 변경된 제 1 영상을 제 2 캔버스 및/또는 제 2 타일에 삽입하여, 제 1 영상 및 제 2 영상 간의 위치 변경을 완료할 수 있다.If the terminal 400 receives a request from the user to replace the first image and the second image, the terminal 400 informs the image management device 300 of the size of the first canvas and/or first tile of the first image. A request may be made to transmit a stream of a second video having a quality and size corresponding to . When the terminal 400 receives a stream of the second video from the video management device 300, the received second video can be inserted into the first canvas and/or the first tile. Additionally, the terminal 400 changes the size and quality of the first image to match the second canvas and/or the second tile, inserts the changed first image into the second canvas and/or the second tile, and The position change between the image and the second image may be completed.

한편, 단말(400)에 스트리밍되는 복수의 영상들은 프레임 단위로 각각의 복수의 영상들에 대응하는 캔버스에 갱신 및/또는 변경될 수 있다. 다시 말해, FPS (Frame Per Second) 단위로 캔버스의 영상을 갱신 및/또는 변경할 수 있다. 예를 들어, 30 fps의 영상이라면 초당 30번 캔버스의 영상을 갱신 및/또는 변경할 수 있다. 즉, 단말(400)에게 스트리밍 될 때, 각각의 영상들에 대응하는 캔버스을 통해 초당 30번의 프레임이 수신되고, 초당 30번의 프레임이 계속하여 캔버스를 통해 변경 및/또는 갱신되면서 단말(400)을 통해 출력될 수 있다.Meanwhile, the plurality of images streaming to the terminal 400 may be updated and/or changed on a frame-by-frame basis on the canvas corresponding to each of the plurality of images. In other words, the image on the canvas can be updated and/or changed on a per second (FPS) basis. For example, if the video is at 30 fps, the image on the canvas can be updated and/or changed 30 times per second. That is, when streaming to the terminal 400, 30 frames per second are received through the canvas corresponding to each video, and the frames 30 times per second are continuously changed and/or updated through the canvas and transmitted through the terminal 400. can be printed.

영상 관리 장치(300)는 영상 합성 장치(200)로부터 수신한 복수의 멀티뷰 영상들을 저장하고, 단말(400)의 요청에 따라, 저장된 복수의 멀티뷰 영상들 중, 하나를 스트리밍 방식을 기반으로 전송하기 위한 장치이다.The video management device 300 stores a plurality of multi-view images received from the video synthesis device 200, and, at the request of the terminal 400, selects one of the stored multi-view images based on a streaming method. It is a device for transmission.

또한, 단말(400)의 요청에 따라 제 1 멀티뷰 영상을 스트리밍 방식으로 제공하는 중, 단말(400)이 제 2 멀티뷰 영상을 제공해줄 것을 요청하면, 제 1 멀티뷰 영상의 스트리밍을 중단하고, 제 2 멀티뷰 영상을 스트리밍할 수 있다.In addition, while providing the first multi-view image in a streaming manner at the request of the terminal 400, if the terminal 400 requests to provide a second multi-view image, streaming of the first multi-view image is stopped and , the second multi-view video can be streamed.

이 때, 영상 관리 장치(300)는 제 2 멀티뷰 영상 제공을 요청 받은 시점부터 제 1 멀티뷰 영상에서 제 2 멀티뷰 영상으로 스트리밍을 변경하는데 까지 소요되는 시간을 일정 시간 미만(예를 들어, 300ms)이도록 할 수 있다.At this time, the video management device 300 sets the time required from receiving the request to provide the second multi-view video to changing the streaming from the first multi-view video to the second multi-view video to less than a certain amount of time (e.g., 300ms).

또한, 영상 관리 장치(300)는 멀티뷰 영상에 포함된 복수의 영상들 각각을 단말(400)에게 전송할 수도 있다.Additionally, the video management device 300 may transmit each of a plurality of images included in the multi-view image to the terminal 400.

예를 들어, 초기 요청 시에 단말(400)이 특정 멀티뷰 영상을 요청하여, 특정 멀티뷰 영상을 스트리밍 하는 중에, 단말(400)이 특정 멀티뷰 영상 내에 포함된 복수의 영상들 간의 위치 변경을 위하여, 가장 큰 크기의 캔버스 및/또는 타일에 대응하는 화질 및 크기로 특정 영상의 스트리밍을 요청하는 경우, 영상 관리 장치(300)는 해당 특정 영상을 가장 큰 크기의 캔버스 및/또는 타일에 대응하는 화질 및 크기로 특정 영상을 변환하여 단말(400)에게 스트리밍 및/또는 전송할 수 있다.For example, during the initial request, the terminal 400 requests a specific multi-view image, and while streaming the specific multi-view image, the terminal 400 changes the position between a plurality of images included in the specific multi-view image. To this end, when requesting streaming of a specific video with an image quality and size corresponding to the canvas and/or tile of the largest size, the video management device 300 streams the specific video to the canvas and/or tile of the largest size. A specific video can be converted to quality and size and streamed and/or transmitted to the terminal 400.

영상 제공 장치(100)는 복수의 영상들을 영상 합성 장치(200)에 전송하기 위한 장치이다. 예를 들어, 영상 제공 장치(100)는 MPEG2-TS Demuxer를 포함하는 장치일 수 있다. 또한, 복수의 영상들은 H.265 표준에 따라 인코딩된 영상들일 수 있다. The image providing device 100 is a device for transmitting a plurality of images to the image synthesis device 200. For example, the video providing device 100 may be a device that includes an MPEG2-TS Demuxer. Additionally, the plurality of images may be images encoded according to the H.265 standard.

영상 합성 장치(200)는 복수의 영상들을 복수의 멀티뷰 영상으로 합성하기 위한 장치이다. 구체적으로, 영상 합성 장치(200)는 영상 제공 장치(100)로부터 수신한 복수의 영상들을 멀티 인코더를 통해 출력한다. 또한, 복수의 영상들을 디코딩하고, 복수의 영상들 각각의 PTS(Presentation Time Stamp) 또는 UTC (Coordinated Universal Time)를 기준으로 동기화할 수 있다.The image synthesis device 200 is a device for synthesizing a plurality of images into a plurality of multi-view images. Specifically, the image synthesis device 200 outputs a plurality of images received from the image providing device 100 through a multi-encoder. Additionally, a plurality of videos can be decoded and synchronized based on the Presentation Time Stamp (PTS) or Coordinated Universal Time (UTC) of each of the plurality of videos.

여기서, PTS(Presentation Time Stamp)는, 타임 스탬프 메타 데이터 필드 에서 MPEG 전송 스트림 또는 MPEG 프로그램 스트림(예를 들면, 비디오, 오디오, 자막)이 시청자에게 제공 될 때, 프로그램의 구분된 요소 스트림들(Separate Elementary Streams)의 동기화를 달성하기 위해 사용된다. Here, PTS (Presentation Time Stamp) is a timestamp metadata field that indicates the separated element streams of the program (separate) when the MPEG transport stream or MPEG program stream (e.g. video, audio, subtitles) is provided to the viewer. It is used to achieve synchronization of Elementary Streams.

PTS는 프로그램의 전체 클록(clock) 참조, 즉, 프로그램 클록 참조 (PCR) 또는 시스템 클록 참조(SCR) 와 관련된 단위로 제공되며 전송 스트림 또는 프로그램 스트림을 통해서 전송될 수 있다.PTS is provided in units related to the overall clock reference of the program, i.e., program clock reference (PCR) or system clock reference (SCR), and can be transmitted over the transport stream or program stream.

PTS의 해상도는 프레젠테이션 동기화 작업에 적합한 90kHz이다. PCR 또는 SCR은 27MHz의 해상도를 가진다. 이러한 PTS, PCR 및 SCR의 해상도는 프레임 및 라인 동기 타이밍(Line Sync Timing), 컬러 부반송파(Colour Sub Carrier) 등과 같은 TV 신호를 구동하는 것을 포함하여 디코더의 전체 클럭을 일반적인 원격 인코더의 클럭과 동기화하는 것에 적합하다.The resolution of PTS is 90kHz, suitable for presentation synchronization tasks. PCR or SCR has a resolution of 27 MHz. The resolution of these PTS, PCR and SCR includes driving TV signals such as frame and line sync timing, color sub carrier, etc., synchronizing the decoder's overall clock with that of a typical remote encoder. suitable for

N개의 공통 스트림의 디코딩은, 공통 마스터 시간을 기반으로 스트림의 디코딩을 조정하여 동기화하는 것으로서, 하나의 스트림의 디코딩을 다른 스트림의 디코딩과 일치시키기 위해 조정하는 것보다 효율적이다. 이 때, 공통 마스터 시간은 N 디코더의 클럭 중 하나 또는 데이터 소스의 클럭 또는 외부 클럭일 수도 있다.Decoding of N common streams involves adjusting and synchronizing the decoding of the streams based on the common master time, which is more efficient than adjusting the decoding of one stream to match the decoding of another stream. At this time, the common master time may be one of the clocks of N decoders, a clock of a data source, or an external clock.

전송 스트림에는 여러 프로그램이 포함될 수 있으며 각 프로그램에는 고유한 시간 기반이 있을 수 있다. 전송 스트림 내 각 프로그램의 시간 기반은 서로 상이할 수 있다. PTS는 개별 기본 스트림의 디코딩에 적용되기 때문에 전송 스트림과 프로그램 스트림 모두 PES 패킷 계층에 있다. End-to-End 동기화는 인코더가 캡처 시간에 타임 스탬프를 저장할 때, 타임 스탬프가 관련 코딩된 데이터와 함께 디코더로 전파될 때, 디코더가 이러한 타임 스탬프를 사용하여 프레젠테이션을 예약할 때 발생할 수 있다.A transport stream can contain multiple programs, and each program can have its own time base. The time base of each program in the transport stream may be different. Since PTS applies to the decoding of individual elementary streams, both the transport stream and the program stream are in the PES packet layer. End-to-end synchronization can occur when the encoder stores timestamps at capture time, when timestamps are propagated to the decoder along with the associated coded data, and when the decoder uses these timestamps to schedule presentation.

채널과 디코딩 시스템의 동기화는 프로그램 스트림에서 SCR을 사용하고 전송 스트림에서 아날로그인 PCR을 통해 달성된다. SCR 및 PCR은 비트 스트림 자체의 타이밍을 인코딩하는 타임 스탬프이며, 동일한 프로그램의 오디오 및 비디오 PTS 값에 사용되는 동일한 시간 기반에서 파생될 수 있다. 각 프로그램에는 고유한 시간 기반이 있을 수 있으므로, 여러 프로그램을 포함하는 전송 스트림에는 각 프로그램에 대한 각각의 PCR 필드가 포함된다. 어떤 경우에는 프로그램이 PCR 필드를 공유하는 것도 가능하다.Synchronization of channels and decoding systems is achieved using SCR in the program stream and its analog, PCR, in the transport stream. SCR and PCR are timestamps that encode the timing of the bit stream itself and can be derived from the same time base used for audio and video PTS values in the same program. Because each program may have its own time base, a transport stream containing multiple programs will include a separate PCR field for each program. In some cases, it is possible for programs to share PCR fields.

또한, UTC는 전 세계 시간 연구소가 보유하는 시간의 척도이며, 매우 정확한 원자 시계로 판별된다. UTC 시간은 하루에 대략 나노초(10억분의 1초)의 정확도를 갖는다. 또한, UTC는 현재 그레고리안 연도를 기준으로 하며 위도 0도, 본초 자오선에 위치한다.Additionally, UTC is a time scale held by time research institutes around the world, and is determined to be a very accurate atomic clock. UTC time is accurate to approximately nanoseconds (billionths of a second) per day. Additionally, UTC is based on the current Gregorian year and is located at 0 degrees latitude, the prime meridian.

그레고리안 UTC는 시스템 시간 계산을 위한 시작점으로 사용된다. UTC로부터 시스템 시간을 계산하기 위해 시스템의 UTC로부터 특정 오프셋이 UTC에 추가될 수 있다. 오프셋은 시스템이 UTC의 서쪽 또는 동쪽인 시간과 분(min)를 지정할 수 있다. 본초 자오선을 기준으로 서쪽은 네거티브 오프셋을 가지며 동쪽은 포지티브 오프셋을 갖는다. 그리고, 시스템 시간을 계산하기 위해 해당 오프셋이 UTC에 적용될 수 있다. Gregorian UTC is used as the starting point for system time calculations. To calculate the system time from UTC, a certain offset from the system's UTC may be added to UTC. The offset can specify the number of hours and minutes the system is west or east of UTC. With respect to the prime meridian, west has a negative offset and east has a positive offset. And, the offset can be applied to UTC to calculate the system time.

한편, 영상 합성 장치(200)는 동시에 출력된 복수의 영상을 복수의 멀티뷰 영상들로 합성 처리할 수 있다. 이 때, 복수의 멀티뷰 영상들은 타일 형태를 기반으로 합성될 수 있다. 또한, 복수의 멀티뷰 영상들의 수는 복수의 영상들의 수와 동일할 수 있다.Meanwhile, the image synthesis device 200 can synthesize a plurality of images output simultaneously into a plurality of multi-view images. At this time, a plurality of multi-view images can be synthesized based on the tile shape. Additionally, the number of multi-view images may be equal to the number of images.

즉, 복수의 멀티뷰 영상이 타일 형태를 기반으로 합성되는 것은, 복수의 영상들 중, 하나의 영상이 멀티뷰 영상에 가장 큰 크기로 포함되고, 나머지 영상들은 멀티뷰 영상에 동일한 크기로 배치될 수 있다.In other words, a plurality of multi-view images are synthesized based on the tile shape, meaning that among the plurality of images, one image is included in the multi-view image in the largest size, and the remaining images are placed in the multi-view image with the same size. You can.

예를 들어, 제 1 멀티뷰 영상에는 복수의 영상들 중, 제 1 영상이 제 1 멀티뷰 영상 전체 화면에 70%를 차지하도록 좌측 상단에 배치되고, 나머지 영상들은 제 1 영상의 우측과 하측에 동일한 크기로 나열될 수 있다.For example, in the first multi-view image, among a plurality of images, the first image is placed at the top left so as to occupy 70% of the entire screen of the first multi-view image, and the remaining images are located on the right and bottom of the first image. They can be listed in the same size.

또한, 동일한 방법으로, 제 2 멀티뷰 영상에는 복수의 영상들 중, 제 2 영상이 제 2 멀티뷰 영상 전체 화면에 70%를 차지하도록 좌측 상단에 배치되고, 나머지 영상들은 제 2 영상의 우측과 하측에 동일한 크기로 나열될 수 있다.In addition, in the same way, among the plurality of images in the second multi-view image, the second image is placed in the upper left corner so as to occupy 70% of the entire screen of the second multi-view image, and the remaining images are located on the right and left sides of the second multi-view image. They can be listed in the same size at the bottom.

다시 말해, 복수의 영상들 모두는, 복수의 멀티뷰 영상들에서 한번씩 가장 큰 화면으로 배치될 수 있다.In other words, all of the plurality of images can be arranged on the largest screen once in the plurality of multi-view images.

영상 합성 장치(200)는 복수의 멀티뷰 영상들을 인코딩하고, 서비스 가능하도록 패키징할 수 있다. 이 때, 상술한 인코딩과 패키징 과정에서, DASH (Dynamic Adaptive Streaming over HTTP) 및/또는 CMAF (Common Media Application Format)을 이용할 수 있다.The image synthesis device 200 can encode a plurality of multi-view images and package them to enable service. At this time, in the above-described encoding and packaging process, DASH (Dynamic Adaptive Streaming over HTTP) and/or CMAF (Common Media Application Format) can be used.

DASH는 전통적인 HTTP 웹 서버로부터 전달되는, 미디어의 고품질 스트리밍을 가능하게 하는 적형형 비트레이트 스트리밍 기술의 하나이다. 애플의 HTTP 라이브 스트리밍(HLS) 솔루션과 비슷하게 DASH는 컨텐츠를 작은 크기의 HTTP 기반 파일 세그먼트들로 분리시킨다. 또한, 각 세그먼트는 영화, 스포츠 이벤트 및/또는 생방송 등과 같이 잠재적으로 긴 시간에 컨텐츠들의 재생 시간 중, 특정 길이 (예를 들어, 짧은 간격)만큼의 구간 영상을 포함하고 있다. DASH is one of the typical bitrate streaming technologies that enables high-quality streaming of media delivered from traditional HTTP web servers. Similar to Apple's HTTP Live Streaming (HLS) solution, DASH breaks content into small HTTP-based file segments. Additionally, each segment includes a section of video of a certain length (for example, a short interval) during the playback time of potentially long content such as a movie, sports event, and/or live broadcast.

이 때, 해당 컨텐츠는 다양한 비트레이트를 이용할 수 있다. 컨텐츠가 DASH 클라리언트에 의해 재생되면, 클라이언트는 비트레이트 적응 알고리즘을 사용하여, 재생 시 멈춤이나 재버퍼링을 일으키지 않고 다운로드할 수 있도록 가능한 최고 비트레이트의 세그먼트를 선별할 수 있다. At this time, the content may use various bitrates. When content is played by a DASH clarient, the client can use a bitrate adaptation algorithm to select segments with the highest possible bitrate for download without causing pauses or rebuffering during playback.

현재의 MPEG-DASH 참조 클라이언트 dash.js는 버퍼 기반(BOLA) 비트레이트 적응 알고리즘과 하이브리드(DYNAMIC) 비트레이트 적응 알고리즘을 모두 제공한다.The current MPEG-DASH reference client dash.js provides both buffer-based (BOLA) bitrate adaptation algorithm and hybrid (DYNAMIC) bitrate adaptation algorithm.

이에 따라, MPEG-DASH 클라이언트는 변화하는 네트워크 상황에 순응하고 멈춤이나 재버퍼링을 거의 일으키지 않으면서 고품질의 재생을 제공할 수 있다.As a result, MPEG-DASH clients can adapt to changing network conditions and provide high-quality playback with little stopping or re-buffering.

MPEG-DASH는 국제 표준화된 최초의 적응 비트레이트 HTTP 기반 스트리밍 솔루션이다. MPEG-DASH는 전송 프로토콜과 혼동해서는 안 되는데, MPEG-DASH가 사용하는 전송 프로토콜은 TCP이다. MPEG-DASH는 모든 월드 와이드 웹(World Wide Web) 컨텐츠의 전송에 사용되는 기존 HTTP 웹 서버 하부 구조를 사용한다. 인터넷에 연결된 텔레비전, TV 셋톱박스, 데스크톱 컴퓨터, 스마트폰, 태블릿 등과 같은 장치들이 인터넷을 경유하여 전달되는 멀티미디어 컨텐츠(예를 들어, 동영상, TV, 라디오 등)을 소비할 수 있게 해 주며 다양한 인터넷 수신 상황에 대처한다.MPEG-DASH is the first internationally standardized adaptive bitrate HTTP-based streaming solution. MPEG-DASH should not be confused with the transport protocol. The transport protocol used by MPEG-DASH is TCP . MPEG-DASH uses the existing HTTP web server infrastructure used for the delivery of all World Wide Web content. It allows devices such as televisions, TV set-top boxes, desktop computers, smartphones, tablets, etc. connected to the Internet to consume multimedia content (e.g. video, TV, radio, etc.) delivered via the Internet and provides various Internet reception capabilities. Deal with the situation.

한편, CMAF는 빠른 속도로 적응형 비트 전송을 제공하기 위한 새로운 표준이다.Meanwhile, CMAF is a new standard for providing adaptive bit transmission at high speeds.

CMAF는 비디오 스트리밍에 있어서 공통적인 미디어 포맷을 사용하여 복잡성이나 대기시간(latency)등을 감소시킬 수 있고, 동일한 컨텐츠의 다양한 복사본을 인코딩하고 저장하는 것에 대해 소요되는 투자 비용을 감소시킬 수 있다.CMAF can reduce complexity and latency by using a common media format in video streaming, and can reduce investment costs for encoding and storing multiple copies of the same content.

또한, 워크플로우를 단순화하여 복잡성을 최소화할 수 있으며, 스트리밍 효율성을 향상시켜 비디오 지연을 감소시킬 수 있다.Additionally, complexity can be minimized by simplifying the workflow, and video delay can be reduced by improving streaming efficiency.

CMAF 이전의 HLS 프로토콜은 MPEG 전송 스트림 컨테이너 형식 또는 .ts(MPEG-TS)를 사용했다. 또한, DASH와 같은 다른 HTTP 기반 프로토콜은 단편화된 MP4 형식 또는 .mp4(fMP4)를 사용했다. Prior to CMAF, the HLS protocol used the MPEG transport stream container format, or .ts (MPEG-TS). Additionally, other HTTP-based protocols such as DASH used the fragmented MP4 format, or .mp4 (fMP4).

하지만, 마이크로 소프트 사와 애플 사는 단편화된 MP4 형태의 표준화된 전송 컨테이너를 사용하는 HLS 및 DASH 프로토콜을 통해 더 많은 사용자에게 컨텐츠를 배포하는 것에 합의하였다. 즉, CMAF의 목적은 mp4만을 사용하여 콘텐츠를 배포하는 것이다. CMAF에는 지연 시간을 감소시키기 위해 청크 인코딩과 청크 전송 인코딩의 2가지 인코딩 방법이 있다. However, Microsoft and Apple have agreed to distribute content to more users through HLS and DASH protocols using standardized transport containers in the form of fragmented MP4s. In other words, the purpose of CMAF is to distribute content using only mp4. CMAF has two encoding methods to reduce latency: chunk encoding and chunk transfer encoding.

해당 프로세스를 통해 비디오를 설정된 지속 시간의 더 작은 청크로 나눌 수 있으며, 이를 통해 인코딩 후, 즉시 구분된 청크들을 출력할 수 있다. 이러한 방법을 통해, 후행 청크가 처리되는 동안 선행 청크를 거의 실시간으로 전달(예를 들어, 3~5초 이내)할 수 있다.This process allows video to be divided into smaller chunks of set duration, allowing the separated chunks to be output immediately after encoding. This way, preceding chunks can be delivered in near real-time (e.g., within 3 to 5 seconds) while subsequent chunks are being processed.

또한, 영상 합성 장치(200)는 인코딩된 복수의 멀티뷰 영상들을 영상 관리 장치(300)로 전송할 수 있다.Additionally, the image synthesis device 200 may transmit a plurality of encoded multi-view images to the image management device 300.

이제, 도 2 내지 도 5를 참조하여, 본 발명의 실시 예에 따른 멀티뷰 영상 재생 방법을 살펴보도록 한다.Now, with reference to FIGS. 2 to 5, let us look at a multi-view image playback method according to an embodiment of the present invention.

도 2 내지 도 3을 참조하면, 단말(400)은 영상 관리 장치(300)에게 멀티뷰 영상을 스트리밍해줄 것을 요청할 수 있다. 이 때, 단말(400)은 영상 관리 장치(300)에 저장된 복수의 멀티뷰 영상 중, 특정 멀티뷰 영상을 스트리밍해줄 것을 요청할 수 있다. Referring to Figures 2 and 3, the terminal 400 may request the video management device 300 to stream a multi-view video. At this time, the terminal 400 may request streaming of a specific multi-view video among a plurality of multi-view videos stored in the video management device 300.

이 때, 특정 멀티뷰 영상은 단말(400)의 사용자가 가장 큰 크기로 시청하기 원하는 영상이 멀티뷰 영상에 가장 많은 비중을 차지하는 멀티뷰 영상을 의미할 수 있다. At this time, the specific multi-view video may mean a multi-view video in which the video that the user of the terminal 400 wants to view in the largest size occupies the largest proportion of the multi-view video.

즉, 멀티뷰 영상은 복수의 영상 중, 하나의 영상이 가장 큰 크기로 배치되고, 나머지 영상들이 동일한 크기로 배치되되, 타일 형태를 기반으로 배치된 것일 수 있다.That is, in a multi-view image, among a plurality of images, one image is arranged at the largest size, and the remaining images are arranged at the same size, but may be arranged based on a tile shape.

단말(400)의 요청에 따라, 단말(400)은 영상 관리 장치(300)로부터 특정 멀티뷰 영상을 스트리밍 방식을 기반으로 수신할 수 있다(S201). According to the request of the terminal 400, the terminal 400 may receive a specific multi-view video from the video management device 300 based on a streaming method (S201).

이 때, 도 3을 참조하면, 단말(400)에 제공되는 멀티뷰 영상은 다음과 같은 과정을 통해 생성될 수 있다. 영상 제공 장치(100)가 인코딩한 복수의 영상들을 멀티 인코더로 전송하고, 멀티 인코더를 통해 영상 합성 장치(200)로 전송될 수 있다. 영상 합성 장치(200)는 복수의 영상들을 디코딩하고, 복수의 영상들 각각의 PTS(Presentation Time Stamp) 또는 UTC (Coordinated Universal Time)를 기준으로 동기화하여, 합성할 수 있다.At this time, referring to FIG. 3, the multi-view image provided to the terminal 400 may be generated through the following process. A plurality of images encoded by the image providing device 100 may be transmitted to a multi-encoder and transmitted to the image synthesis device 200 through the multi-encoder. The image synthesis apparatus 200 may decode a plurality of images, synchronize each of the multiple images based on a Presentation Time Stamp (PTS) or Coordinated Universal Time (UTC), and synthesize them.

이 때, 복수의 멀티뷰 영상이 타일 형태를 기반으로 합성되는 것은, 복수의 영상들 중, 하나의 영상이 멀티뷰 영상에 가장 큰 크기로 포함되고, 나머지 영상들은 멀티뷰 영상에 동일한 크기로 배치될 수 있다.At this time, a plurality of multi-view images are synthesized based on the tile shape, so that among the plurality of images, one image is included in the multi-view image in the largest size, and the remaining images are arranged in the same size in the multi-view image. It can be.

또한, 복수의 영상들은, 복수의 멀티뷰 영상들에서 한번씩 가장 큰 화면으로 배치될 수 있다.Additionally, a plurality of images may be arranged on the largest screen once from a plurality of multi-view images.

합성된 복수의 멀티뷰 영상들은 영상 관리 장치(300)로 전송되어 저장될 수 있으며, 단말(400)의 요청에 따라 단말에게 전송될 수 있다.The plurality of synthesized multi-view images can be transmitted to and stored in the video management device 300 and transmitted to the terminal at the request of the terminal 400.

한편, 단말(400)이 스트리밍 받는 멀티뷰 영상은 영상 합성 장치(200)가 복수의 영상들을 하나의 영상으로 합성한 것이다. 따라서, 영상 관리 장치(300)로부터 멀티뷰 영상을 스트리밍 받으면, 단말(400)은 하나의 영상 파일을 스트리밍하는 것이다.Meanwhile, the multi-view video that the terminal 400 is streaming is one in which the video synthesis device 200 synthesizes a plurality of images into one image. Accordingly, when receiving streaming multi-view video from the video management device 300, the terminal 400 streams one video file.

이 때, 단말(400)은 스트리밍되는 멀티뷰 영상에 대하여 디코딩 및 렌더링을 수행할 수 있다(S203). 또한, 단말(400)은 멀티뷰 영상을 타일 단위의 복수의 영상들로 분할할 수 있다(S205). 예를 들어, 멀티뷰 영상은 하나의 영상이 가장 큰 크기로 배치되고, 나머지 영상들이 동일한 크기로 배치되도록 타일 단위로 구분될 수 있다.At this time, the terminal 400 can perform decoding and rendering on the streaming multi-view image (S203). Additionally, the terminal 400 may divide the multi-view image into a plurality of images in tile units (S205). For example, multi-view images can be divided into tiles so that one image is arranged at the largest size and the remaining images are arranged at the same size.

멀티뷰 영상 내에서의 복수의 영상들이 배치되기 위한 각 타일의 크기 및 각 타일의 위치에 관한 정보는 영상 관리 장치(300)를 통해 사전에 수신하거나, 단말(400)이 특정 멀티뷰 영상의 스트리밍을 요청할 때 함께 수신할 수 있다.Information on the size of each tile and the location of each tile for arranging a plurality of images in a multi-view image is received in advance through the image management device 300, or the terminal 400 is used to stream a specific multi-view image. You can receive it together when you request it.

단말(400)은 상술한 각 타일의 크기 및 타일의 위치에 관한 정보를 기반으로 멀티뷰 영상을 타일 단위의 복수의 영상들로 분할할 수 있다. 그 결과, 복수의 영상들 중, 하나의 영상이 가장 큰 크기로 분할 되며, 나머지 영상들은 동일한 크기로 분할 될 것이다.The terminal 400 may divide the multi-view image into a plurality of images in units of tiles based on the information about the size and location of each tile described above. As a result, among the plurality of images, one image will be divided into the largest size, and the remaining images will be divided into the same size.

단말(400)은 분할된 복수의 영상들을 각각의 HTML 5 (HypeText Markup Language) 캔버스(Canvas)에 프레임 단위로 영상을 삽입할 수 있다(S207). 즉, 도 3에서 볼 수 있는 것과 같이, 각각의 HTML 5 캔버스는 각각의 타일과 일대일로 맵핑될 수 있으며, 타일 단위로 분할된 복수의 영상들 각각은 복수의 영상들 각각에 관련된 타일과 맵핑되는 HTML 5 캔버스에 프레임 단위로 삽입될 수 있다.The terminal 400 may insert a plurality of divided images into each HTML 5 (HypeText Markup Language) canvas on a frame-by-frame basis (S207). That is, as can be seen in Figure 3, each HTML 5 canvas can be mapped one-to-one with each tile, and each of the plurality of images divided into tile units is mapped to a tile related to each of the plurality of images. It can be inserted into the HTML 5 canvas on a frame-by-frame basis.

한편, 단말(400)은 프레임 단위로 삽입된 복수의 영상들을 스트리밍 하여, 사용자에게 출력할 수 있다. 이 때, 사용자의 입력에 의해 복수의 영상들 중, 2개의 영상의 위치를 변경할 것을 요청받을 수 있다.Meanwhile, the terminal 400 can stream a plurality of images inserted in frame units and output them to the user. At this time, a request may be made to change the positions of two images among a plurality of images by user input.

이러한 경우, 단말(400)은 영상 관리 장치(300)에게 멀티뷰 영상을 교체해줄 것을 요청하지 않고, 직접 요청된 2개의 영상들 간의 위치를 변경할 수 있다(S209). 예를 들어, 단말(400)은 요청된 2개의 영상들 각각을 위한 캔버스들 간의 위치 변경을 수행하여, 2개의 영상들의 위치를 변경할 수 있다.In this case, the terminal 400 may directly change the position between the two requested images without requesting the video management device 300 to replace the multi-view image (S209). For example, the terminal 400 may change the positions of the two requested images by changing the positions between canvases for each of the two requested images.

즉, 별도의 스트림 교체 없이 단말(400)이 직접 요청된 2개의 영상들 간의 위치를 변경할 수 있다.That is, the terminal 400 can directly change the position between the two requested videos without separate stream replacement.

다만, 이러한 경우, 2개의 영상들 각각을 위한 캔버스의 크기 및/또는 타일의 크기는 동일한 것으로 제한될 수 있다.However, in this case, the size of the canvas and/or the size of the tile for each of the two images may be limited to being the same.

다시 말해, 요청된 2개의 영상들 각각을 위한 타일의 크기 및/또는 캔버스의 크기가 같은 경우에는, 도 5 에서의 서브 영상 간 교체 시나리오에서 볼 수 있듯이, 별도의 스트림 교체 없이 단말(400)이 직접 요청된 2개의 영상들 각각을 위한 캔버스들 간의 위치 변경을 수행하여, 2개의 영상들의 위치를 변경할 수 있다.In other words, if the size of the tile and/or the size of the canvas for each of the two requested videos are the same, the terminal 400 can replace the sub-videos without separate stream replacement, as can be seen in the replacement scenario between sub-videos in FIG. 5. The positions of the two images can be changed by directly changing the positions between the canvases for each of the two requested images.

만약, 요청된 2개의 영상들 각각을 위한 타일의 크기 및/또는 캔버스의 크기가 상이한 경우, 작은 크기의 영상을 큰 크기의 캔버스 및/또는 타일로 변경하면, 작은 크기의 영상을 그려야 하는 화면 영역이 커지면서 화질 열화가 발생할 수 있다.If the tile size and/or canvas size for each of the two requested images are different, if the small size image is changed to a large size canvas and/or tile, the screen area where the small size image must be drawn As this increases, image quality may deteriorate.

따라서, 도 5에서의 메인 - 서브 영상 간 교체 시나리오에서 볼 수 있듯이, 단말(400)은 작은 크기의 영상을 변경되어야 하는 큰 크기의 캔버스 및/또는 타일을 기반으로, 해당 캔버스 및/또는 타일에 부합하는 크기의 영상의 스트림을 제공해줄 것을 영상 관리 장치(300)에게 요청할 수 있다. 영상 관리 장치(300)가 다시 영상의 스트림을 제공해주면, 단말(400)은 해당 영상을 큰 크기의 캔버스에 삽입하여 완료할 수 있다.Therefore, as can be seen in the main-sub video replacement scenario in Figure 5, the terminal 400 changes the small-sized video to the canvas and/or tile based on the large-sized canvas and/or tile that needs to be changed. The video management device 300 may be requested to provide a video stream of a matching size. When the video management device 300 provides the video stream again, the terminal 400 can insert the video into a large canvas and complete the process.

한편, 큰 크기의 영상을 작은 크기의 캔버스 및/또는 타일에 삽입하는 것은 화질 열화를 발생시키지 않고, 별도의 스트림을 다시 수신하는 것은 오히려 영상의 재생에 시간 지연을 발생시킬 뿐이다. 따라서, 큰 크기의 영상은 그 크기를 작은 크기의 캔버스 및/또는 타일에 부합하게 줄여, 작은 크기의 캔버스 및/또는 타일에 삽입하여 변경을 완료할 수 있다.Meanwhile, inserting a large-sized video into a small-sized canvas and/or tile does not cause image quality deterioration, and re-receiving a separate stream only causes a time delay in video playback. Accordingly, the change of the large-sized image can be completed by reducing its size to match the small-sized canvas and/or tile and inserting it into the small-sized canvas and/or tile.

예를 들어, 단말(400)이 스트리밍하고 있는 멀티뷰 화면에서 가장 큰 크기의 캔버스 및/타일에 대응하는 영상을 제 1 영상, 그리고 동일한 크기의 캔버스 및/타일에 대응하는 영상들을 제 2 영상 및 제 3 영상이라고 한다.For example, in the multi-view screen where the terminal 400 is streaming, the image corresponding to the largest canvas and/tile is the first image, and the images corresponding to the canvas and/tile of the same size are the second image and It is called the third video.

만약, 단말(400)이 사용자로부터 제 2 영상 및 제 3 영상의 교체를 요청받았다면, 도 5의 서브 영상 간 교체 시나리오 처럼, 단말(400)은 별도의 스트림 교체 없이, 즉, 영상 관리 장치(300)에 별도의 영상 전송을 요청하지 않고, 직접 요청된 제 2 영상의 제 2 캔버스 및 제 3 영상의 제 3 캔버스 간의 위치를 변경하여 영상 교체 작업을 완료할 수 있다.If the terminal 400 receives a request from the user to replace the second video and the third video, like the sub-video replacement scenario in FIG. 5, the terminal 400 does not require separate stream replacement, that is, the video management device ( The image replacement task can be completed by directly changing the position between the second canvas of the requested second image and the third canvas of the third image, without requesting separate image transmission to 300).

만약, 단말(400)이 사용자로부터 제 1 영상 및 제 2 영상의 교체를 요청받았다면, 도 5의 메인 - 서브 영상 간 교체 시나리오 처럼, 단말(400)은 영상 관리 장치(300)에게 제 1 영상의 제 1 캔버스 및/또는 제 1 타일의 크기에 대응하는 화질 및 크기를 가지는 제 2 영상의 스트림을 전송해줄 것을 요청할 수 있다. 단말(400)이 영상 관리 장치(300)로부터 제 2 영상의 스트림을 수신하면, 수신된 제 2 영상을 제 1 캔버스 및/또는 제 1 타일에 삽입할 수 있다. 또한, 단말(400)은 제 1 영상의 크기 및 화질을 제 2 캔버스 및/또는 제 2 타일에 부합하도록 변경하고, 변경된 제 1 영상을 제 2 캔버스 및/또는 제 2 타일에 삽입하여, 제 1 영상 및 제 2 영상 간의 위치 변경을 완료할 수 있다.If the terminal 400 receives a request from the user to replace the first video and the second video, like the main-sub video replacement scenario in FIG. 5, the terminal 400 sends the first video to the video management device 300. A request may be made to transmit a stream of a second video having image quality and size corresponding to the size of the first canvas and/or the first tile. When the terminal 400 receives a stream of the second video from the video management device 300, the received second video can be inserted into the first canvas and/or the first tile. Additionally, the terminal 400 changes the size and quality of the first image to match the second canvas and/or the second tile, inserts the changed first image into the second canvas and/or the second tile, and The position change between the image and the second image may be completed.

한편, 단말(400)에 스트리밍되는 복수의 영상들은 프레임 단위로 각각의 복수의 영상들에 대응하는 캔버스에 갱신 및/또는 변경될 수 있다. 다시 말해, FPS (Frame Per Second) 단위로 캔버스의 영상을 갱신 및/또는 변경할 수 있다. 예를 들어, 30 fps의 영상이라면 초당 30번 캔버스의 영상을 갱신 및/또는 변경할 수 있다. 즉, 단말(400)에게 스트리밍 될 때, 각각의 영상들에 대응하는 캔버스을 통해 초당 30번의 프레임이 수신되고, 초당 30번의 프레임이 계속하여 캔버스를 통해 변경 및/또는 갱신되면서 단말(400)을 통해 출력될 수 있다.Meanwhile, the plurality of images streaming to the terminal 400 may be updated and/or changed on a frame-by-frame basis on the canvas corresponding to each of the plurality of images. In other words, the image on the canvas can be updated and/or changed on a per second (FPS) basis. For example, if the video is at 30 fps, the image on the canvas can be updated and/or changed 30 times per second. That is, when streaming to the terminal 400, 30 frames per second are received through the canvas corresponding to each video, and the frames 30 times per second are continuously changed and/or updated through the canvas and are transmitted through the terminal 400. can be printed.

도 6은 본 발명에 따른 단말(400)의 구성을 설명하기 위한 도면이다.Figure 6 is a diagram for explaining the configuration of the terminal 400 according to the present invention.

도 6을 참조하면, 본 발명에 따른 단말(400)은 제어부(410), 통신부(420), 저장부(430), 입력부(440) 및 출력부(450)를 포함하여 구성될 수 있다.Referring to FIG. 6, the terminal 400 according to the present invention may be configured to include a control unit 410, a communication unit 420, a storage unit 430, an input unit 440, and an output unit 450.

입력부(440)는 숫자 및 문자 정보 등의 다양한 정보를 입력 받고, 각종 기능을 설정 및 단말(400)의 기능 제어와 관련하여 입력되는 신호를 제어부(410)로 전달한다. 또한, 입력부(440)는 사용자의 터치 또는 조작에 따른 입력 신호를 발생하는 키패드와 터치패드 중 적어도 하나를 포함하여 구성될 수 있다. 이때, 입력부(440)는 출력부(450)와 함께 하나의 터치패널(또는 터치스크린(touch screen))의 형태로 구성되어 입력과 표시 기능을 동시에 수행할 수 있다. 또한, 입력부(440)은 키보드, 키패드, 마우스, 조이스틱 등과 같은 입력 장치 외에도 향후 개발될 수 있는 모든 형태의 입력 수단이 사용될 수 있다.The input unit 440 receives various information such as number and character information, and transmits input signals related to setting various functions and controlling functions of the terminal 400 to the control unit 410. Additionally, the input unit 440 may be configured to include at least one of a keypad and a touchpad that generate an input signal according to a user's touch or manipulation. At this time, the input unit 440 is configured in the form of a touch panel (or touch screen) together with the output unit 450 and can perform input and display functions simultaneously. Additionally, the input unit 440 may use any type of input means that may be developed in the future, in addition to input devices such as a keyboard, keypad, mouse, joystick, etc.

특히, 본 발명에 따른 입력부(440)는 사용자로부터 멀티뷰 화면에 포함된 복수의 영상들 간의 위치 변경 요청을 입력받을 수 있다.In particular, the input unit 440 according to the present invention can receive a request for changing the position between a plurality of images included in the multi-view screen from the user.

출력부(450)는 단말(400)의 기능 수행 중에 발생하는 일련의 동작상태 및 동작결과 등에 대한 정보를 표시한다. 또한, 출력부(450)는 단말(400)의 메뉴 및 사용자가 입력한 사용자 데이터 등을 표시할 수 있다. 여기서, 출력부(450)는 액정표시장치(LCD, Liquid Crystal Display), 초박막 액정표시장치(TFT-LCD,Thin Film Transistor LCD), 발광다이오드(LED, Light Emitting Diode), 유기 발광다이오드(OLED, OrganicLED), 능동형 유기발광다이오드(AMOLED, Active Matrix OLED), 레티나 디스플레이(Retina Display), 플렉시블 디스플레이(Flexible display) 및 3차원(3 Dimension) 디스플레이 등으로 구성될 수 있다. 이때, 출력부(450)가 터치스크린(Touch screen) 형태로 구성된 경우, 출력부(450)는 입력부(440)의 기능 중 일부 또는 전부를 수행할 수 있다.The output unit 450 displays information about a series of operation states and operation results that occur while the terminal 400 performs its functions. Additionally, the output unit 450 can display menus of the terminal 400 and user data input by the user. Here, the output unit 450 includes a liquid crystal display (LCD), an ultra-thin film transistor LCD (TFT-LCD), a light emitting diode (LED), and an organic light emitting diode (OLED). Organic LED), active organic light emitting diode (AMOLED, Active Matrix OLED), Retina Display, flexible display, and 3 Dimensional display. At this time, when the output unit 450 is configured in the form of a touch screen, the output unit 450 may perform some or all of the functions of the input unit 440.

특히, 본 발명에 따른 출력부(450)는 복수의 영상들을 포함하는 멀티뷰 영상을 표시, 재생 및/또는 출력할 수 있다.In particular, the output unit 450 according to the present invention can display, play, and/or output a multi-view image including a plurality of images.

저장부(430)는 데이터를 저장하기 위한 장치로, 주 기억 장치 및 보조 기억 장치를 포함하고, 단말(400)의 기능 동작에 필요한 응용 프로그램을 저장한다. 이러한 저장부(430)는 크게 프로그램 영역과 데이터 영역을 포함할 수 있다. 여기서, 단말(400)은 사용자의 요청에 상응하여 각 기능을 활성화하는 경우, 제어 부(410)의 제어 하에 해당 응용 프로그램들을 실행하여 각 기능을 제공하게 된다.The storage unit 430 is a device for storing data, includes a main memory device and an auxiliary memory device, and stores application programs necessary for functional operation of the terminal 400. This storage unit 430 may largely include a program area and a data area. Here, when the terminal 400 activates each function in response to the user's request, the terminal 400 executes the corresponding application programs under the control of the control unit 410 to provide each function.

특히, 본 발명에 따른 저장부(430)는 스트리밍되는 멀티뷰 영상 전체 및/또는 멀티뷰 영상에서 분할된 복수의 영상들을 임시 또는 영구적으로 저장할 수 있다.In particular, the storage unit 430 according to the present invention can temporarily or permanently store the entire streaming multi-view video and/or a plurality of images divided from the multi-view video.

여기서, 임시로 저장한다는 의미는, 스트리밍을 위해 멀티뷰 영상 전체 및/또는 복수의 영상들을 버퍼에 저장하는 것일 수 있다. 또한, 영구적으로 저장한다는 의미는, 멀티뷰 영상 전체 및/또는 복수의 영상들을 다운로드하는 것일 수 있다.Here, temporary storage may mean storing the entire multi-view image and/or multiple images in a buffer for streaming. Additionally, permanently storing may mean downloading the entire multi-view video and/or multiple videos.

통신부(420)는 통신망(1)을 통해 영상 관리 장치(300)와 데이터를 송수신할 수 있다. 또한, 통신부(420)는 송신되는 신호의 주파수를 상승 변환 및 증폭하는 RF 송신 수단과 수신되는 신호를 저잡음 증폭하고 주파수를 하강 변환하는 RF 수신 수단, 특정 통신 방식에 따른 통신 프로토콜을 처리하기 위한 데이터 처리 수단 등을 포함한다. 이러한 통신부(420)는 무선통신 모듈(미도시) 및 유선통신 모듈(미도시) 중 적어도 하나를 포함할 수 있다. 그리고, 무선통신 모듈은 무선 통신 방법에 따라 데이터를 송수신하기 위한 구성이며, 단말(400)이 무선 통신을 이용하는 경우, 무선망 통신 모듈, 무선랜 통신 모듈 및 무선팬 통신 모듈 중 어느 하나를 이용하여 데이터를 영상 관리 장치(300)와 송수신할 수 있다. 여기서 통신부(420)는 복수의 통신 모듈들을 포함할 수 있다. 복수의 통신 모듈이 통신부(42)에 포함되어 있는 경우, 하나의 통신 모듈은 블루투스(Bluetooth)를 포함한 PAN(Personal Area Network) 방식의 통신을 수행할 수 있다.The communication unit 420 can transmit and receive data with the video management device 300 through the communication network 1. In addition, the communication unit 420 includes an RF transmitting means for up-converting and amplifying the frequency of the transmitted signal, an RF receiving means for low-noise amplifying the received signal and down-converting the frequency, and data for processing a communication protocol according to a specific communication method. Including processing means, etc. This communication unit 420 may include at least one of a wireless communication module (not shown) and a wired communication module (not shown). In addition, the wireless communication module is configured to transmit and receive data according to a wireless communication method, and when the terminal 400 uses wireless communication, it uses any one of the wireless network communication module, wireless LAN communication module, and wireless fan communication module. Data can be transmitted and received with the video management device 300. Here, the communication unit 420 may include a plurality of communication modules. When a plurality of communication modules are included in the communication unit 42, one communication module can perform PAN (Personal Area Network) type communication including Bluetooth.

또한, 다른 통신 모듈은 WLAN(Wireless LAN), 와이파이(Wi-Fi), 와이브로(Wibro), 와이맥스(Wimax), HSDPA(High Speed Downlink Packet Access) 등의 무선 통신 방식을 이용할 수 있다.Additionally, other communication modules may use wireless communication methods such as Wireless LAN (WLAN), Wi-Fi, Wibro, Wimax, and High Speed Downlink Packet Access (HSDPA).

특히, 본 발명에 따른 통신부(420)는, 영상 관리 장치(300)에게 멀티뷰 영상 및/또는 멀티뷰 영상에 포함된 복수의 영상들 중, 특정 영상에 대한 스트리밍을 요청할 수 있다. 또한, 통신부(420)는, 영상 관리 장치(300)로부터 멀티뷰 영상 및/또는 멀티뷰 영상에 포함된 복수의 영상들 중, 적어도 하나의 영상에 대한 스트리밍을 수신할 수 있다.In particular, the communication unit 420 according to the present invention may request the video management device 300 to stream a specific video among the multi-view video and/or a plurality of videos included in the multi-view video. Additionally, the communication unit 420 may receive streaming for at least one image among the multi-view image and/or a plurality of images included in the multi-view image from the image management device 300.

제어부(410)는 운영 체제(OS, Operation System) 및 각 구성을 구동시키는 프로세스 장치가 될 수 있다.The control unit 410 may be a process device that drives an operating system (OS) and each component.

즉, 제어부(410)는 단말(400)의 동작 과정 전반을 제어할 수 있다.That is, the control unit 410 can control the overall operation process of the terminal 400.

구체적으로, 본 발명의 일 실시 예에 따른 제어부(410)의 기능을 살펴보도록 한다.Specifically, let's look at the function of the control unit 410 according to an embodiment of the present invention.

제어부(410)는 영상 관리 장치(300)에게 멀티뷰 영상을 스트리밍해줄 것을 요청하도록 통신부(420)를 제어할 수 있다. 이 때, 단말(400)은 영상 관리 장치(300)에 저장된 복수의 멀티뷰 영상 중, 특정 멀티뷰 영상을 스트리밍해줄 것을 요청하도록 통신부(420)를 제어할 수 있다. The control unit 410 may control the communication unit 420 to request the video management device 300 to stream a multi-view video. At this time, the terminal 400 may control the communication unit 420 to request streaming of a specific multi-view video among the plurality of multi-view videos stored in the video management device 300.

이 때, 특정 멀티뷰 영상은 단말(400)의 사용자가 가장 큰 크기로 시청하기 원하는 영상이 멀티뷰 영상에 가장 많은 비중을 차지하는 멀티뷰 영상을 의미할 수 있다. At this time, the specific multi-view video may mean a multi-view video in which the video that the user of the terminal 400 wants to view in the largest size occupies the largest proportion of the multi-view video.

즉, 멀티뷰 영상은 복수의 영상 중, 하나의 영상이 가장 큰 크기로 배치되고, 나머지 영상들이 동일한 크기로 배치되되, 타일 형태를 기반으로 배치된 것일 수 있다.That is, in a multi-view image, among a plurality of images, one image is arranged at the largest size, and the remaining images are arranged at the same size, but may be arranged based on a tile shape.

제어부(410)의 요청에 따라, 제어부(410)는 영상 관리 장치(300)로부터 특정 멀티뷰 영상을 스트리밍 방식을 기반으로 수신하도록 통신부(420)를 제어할 수 있다. In response to a request from the control unit 410, the control unit 410 may control the communication unit 420 to receive a specific multi-view image from the video management device 300 based on a streaming method.

한편, 제어부(410)가 스트리밍 받는 멀티뷰 영상은 영상 합성 장치(200)가 복수의 영상들을 하나의 영상으로 합성한 것이다. 따라서, 영상 관리 장치(300)로부터 멀티뷰 영상을 스트리밍 받으면, 제어부(410)는 하나의 영상 파일을 스트리밍하는 것이다.Meanwhile, the multi-view image that the control unit 410 receives as a stream is one in which the image synthesis device 200 synthesizes a plurality of images into one image. Accordingly, when receiving streaming multi-view video from the video management device 300, the control unit 410 streams one video file.

이 때, 제어부(410)는 스트리밍되는 멀티뷰 영상에 대하여 디코딩 및 렌더링을 수행할 수 있다. 또한, 제어부(410)는 멀티뷰 영상을 타일 단위의 복수의 영상들로 분할할 수 있다. 예를 들어, 멀티뷰 영상은 하나의 영상이 가장 큰 크기로 배치되고, 나머지 영상들이 동일한 크기로 배치되도록 타일 단위로 구분될 수 있다.At this time, the control unit 410 may perform decoding and rendering on the streaming multi-view image. Additionally, the control unit 410 may divide the multi-view image into a plurality of images in tile units. For example, multi-view images can be divided into tiles so that one image is arranged at the largest size and the remaining images are arranged at the same size.

멀티뷰 영상 내에서의 복수의 영상들이 배치되기 위한 각 타일의 크기 및 각 타일의 위치에 관한 정보는 영상 관리 장치(300)를 통해 사전에 수신하도록 제어부(410)가 통신부(420)를 제어하거나, 제어부(410)가 특정 멀티뷰 영상의 스트리밍을 요청할 때 함께 수신하도록 통신부(420)를 제어할 수 있다.The control unit 410 controls the communication unit 420 to receive information about the size and location of each tile for arranging multiple images in the multi-view image in advance through the image management device 300. , When the control unit 410 requests streaming of a specific multi-view video, the communication unit 420 can be controlled to receive it together.

제어부(410)는 상술한 각 타일의 크기 및 타일의 위치에 관한 정보를 기반으로 멀티뷰 영상을 타일 단위의 복수의 영상들로 분할할 수 있다. 그 결과, 복수의 영상들 중, 하나의 영상이 가장 큰 크기로 분할 되며, 나머지 영상들은 동일한 크기로 분할 될 것이다.The control unit 410 may divide the multi-view image into a plurality of images in units of tiles based on the above-described information about the size and location of each tile. As a result, among the plurality of images, one image will be divided into the largest size, and the remaining images will be divided into the same size.

제어부(410)는 분할된 복수의 영상들을 각각의 HTML 5 (HypeText Markup Language) 캔버스(Canvas)에 프레임 단위로 영상을 삽입할 수 있다. 즉, 각각의 HTML 5 캔버스는 각각의 타일과 일대일로 맵핑될 수 있으며, 타일 단위로 분할된 복수의 영상들 각각은 복수의 영상들 각각에 관련된 타일과 맵핑되는 HTML 5 캔버스에 프레임 단위로 삽입될 수 있다.The control unit 410 may insert a plurality of divided images into each HTML 5 (HypeText Markup Language) canvas on a frame-by-frame basis. That is, each HTML 5 canvas can be mapped one-to-one with each tile, and each of the plurality of images divided into tile units can be inserted frame by frame into the HTML 5 canvas that is mapped to the tile related to each of the plurality of images. You can.

한편, 제어부(410)는 프레임 단위로 삽입된 복수의 영상들을 스트리밍 하여, 사용자에게 출력하도록 출력구(450)를 제어할 수 있다. 이 때, 제어부(410)는 사용자의 입력에 의해 복수의 영상들 중, 2개의 영상의 위치를 변경할 것을 입력부(440)를 통해 요청받을 수 있다.Meanwhile, the control unit 410 can control the output port 450 to stream a plurality of images inserted in frame units and output them to the user. At this time, the control unit 410 may receive a request through the input unit 440 to change the positions of two images among the plurality of images by a user's input.

이러한 경우, 제어부(410)는 영상 관리 장치(300)에게 멀티뷰 영상을 교체해줄 것을 요청하지 않고, 직접 요청된 2개의 영상들 간의 위치를 변경할 수 있다. 예를 들어, 제어부(410)는 요청된 2개의 영상들 각각을 위한 캔버스들 간의 위치 변경을 수행하여, 2개의 영상들의 위치를 변경할 수 있다.In this case, the control unit 410 may directly change the position between the two requested images without requesting the image management device 300 to replace the multi-view image. For example, the control unit 410 may change the positions of the two requested images by performing a position change between the canvases for each of the two requested images.

즉, 별도의 스트림 교체 없이 제어부(410)가 직접 요청된 2개의 영상들 간의 위치를 변경할 수 있다.That is, the control unit 410 can directly change the position between the two requested videos without separate stream replacement.

다만, 이러한 경우, 2개의 영상들 각각을 위한 캔버스의 크기 및/또는 타일의 크기는 동일한 것으로 제한될 수 있다.However, in this case, the size of the canvas and/or the size of the tile for each of the two images may be limited to being the same.

다시 말해, 요청된 2개의 영상들 각각을 위한 타일의 크기 및/또는 캔버스의 크기가 같은 경우에는, 별도의 스트림 교체 없이 제어부(410)가 직접 요청된 2개의 영상들 각각을 위한 캔버스들 간의 위치 변경을 수행하여, 2개의 영상들의 위치를 변경할 수 있다.In other words, if the tile size and/or canvas size for each of the two requested images are the same, the control unit 410 directly determines the position between the canvases for each of the two requested images without separate stream replacement. By performing a change, the positions of the two images can be changed.

만약, 요청된 2개의 영상들 각각을 위한 타일의 크기 및/또는 캔버스의 크기가 상이한 경우, 작은 크기의 영상을 큰 크기의 캔버스 및/또는 타일로 변경하면, 작은 크기의 영상을 그려야 하는 화면 영역이 커지면서 화질 열화가 발생할 수 있다.If the tile size and/or canvas size for each of the two requested images are different, if the small size image is changed to a large size canvas and/or tile, the screen area where the small size image must be drawn As this increases, image quality may deteriorate.

따라서, 제어부(410)는 작은 크기의 영상을 변경되어야 하는 큰 크기의 캔버스 및/또는 타일을 기반으로, 해당 캔버스 및/또는 타일에 부합하는 크기의 영상의 스트림을 제공해줄 것을 통신부(420)를 통해 영상 관리 장치(300)에게 요청할 수 있다. 영상 관리 장치(300)가 다시 영상의 스트림을 제공해주면, 제어부(410)는 해당 영상을 큰 크기의 캔버스에 삽입하여 완료할 수 있다.Therefore, the control unit 410 instructs the communication unit 420 to provide a stream of images of a size matching the canvas and/or tile based on the large size canvas and/or tile that needs to be changed from the small size image. A request can be made to the video management device 300 through. When the video management device 300 provides the video stream again, the control unit 410 can complete the video by inserting it into a large canvas.

한편, 큰 크기의 영상을 작은 크기의 캔버스 및/또는 타일에 삽입하는 것은 화질 열화를 발생시키지 않고, 별도의 스트림을 다시 수신하는 것은 오히려 영상의 재생에 시간 지연을 발생시킬 뿐이다. 따라서, 큰 크기의 영상은 그 크기를 작은 크기의 캔버스 및/또는 타일에 부합하게 줄여, 작은 크기의 캔버스 및/또는 타일에 삽입하여 변경을 완료할 수 있다.Meanwhile, inserting a large-sized video into a small-sized canvas and/or tile does not cause image quality deterioration, and re-receiving a separate stream only causes a time delay in video playback. Accordingly, the change of the large-sized image can be completed by reducing its size to match the small-sized canvas and/or tile and inserting it into the small-sized canvas and/or tile.

예를 들어, 제어부(410)가 스트리밍하고 있는 멀티뷰 화면에서 가장 큰 크기의 캔버스 및/타일에 대응하는 영상을 제 1 영상, 그리고 동일한 크기의 캔버스 및/타일에 대응하는 영상들을 제 2 영상 및 제 3 영상이라고 한다.For example, in the multi-view screen where the control unit 410 is streaming, the image corresponding to the largest size canvas and/tile is the first image, and the images corresponding to the canvas and/tile of the same size are the second image and It is called the third video.

만약, 제어부(410)가 입력부(440)를 통해 사용자로부터 제 2 영상 및 제 3 영상의 교체를 요청받았다면, 제어부(410)는 별도의 스트림 교체 없이, 즉, 영상 관리 장치(300)에 별도의 영상 전송을 요청하지 않고, 직접 요청된 제 2 영상의 제 2 캔버스 및 제 3 영상의 제 3 캔버스 간의 위치를 변경하여 영상 교체 작업을 완료할 수 있다.If the control unit 410 receives a request from the user to replace the second video and the third video through the input unit 440, the control unit 410 sends a separate stream to the video management device 300 without separate stream replacement. The image replacement task can be completed by directly changing the position between the second canvas of the requested second image and the third canvas of the third image, without requesting video transmission.

만약, 제어부(410)가 입력부(440)를 통해 사용자로부터 제 1 영상 및 제 2 영상의 교체를 요청받았다면, 제어부(410)는 영상 관리 장치(300)에게 제 1 영상의 제 1 캔버스 및/또는 제 1 타일의 크기에 대응하는 화질 및 크기를 가지는 제 2 영상의 스트림을 전송해줄 것을 통신부(420)를 통해 요청할 수 있다. 제어부(410)가 통신부(420)를 통해 영상 관리 장치(300)로부터 제 2 영상의 스트림을 수신하면, 제어부(410)는 수신된 제 2 영상을 제 1 캔버스 및/또는 제 1 타일에 삽입할 수 있다. 또한, 제어부(410)는 제 1 영상의 크기 및 화질을 제 2 캔버스 및/또는 제 2 타일에 부합하도록 변경하고, 변경된 제 1 영상을 제 2 캔버스 및/또는 제 2 타일에 삽입하여, 제 1 영상 및 제 2 영상 간의 위치 변경을 완료할 수 있다.If the control unit 410 receives a request from the user to replace the first image and the second image through the input unit 440, the control unit 410 sends the first canvas and/or the first image to the image management device 300. Alternatively, a request may be made through the communication unit 420 to transmit a second video stream with image quality and size corresponding to the size of the first tile. When the control unit 410 receives a stream of the second video from the video management device 300 through the communication unit 420, the control unit 410 inserts the received second video into the first canvas and/or the first tile. You can. Additionally, the control unit 410 changes the size and quality of the first image to match the second canvas and/or the second tile, inserts the changed first image into the second canvas and/or the second tile, and The position change between the image and the second image may be completed.

한편, 제어부(410)는 스트리밍되는 복수의 영상들은 프레임 단위로 각각의 복수의 영상들에 대응하는 캔버스에 갱신 및/또는 변경할 수 있다. 다시 말해, FPS (Frame Per Second) 단위로 캔버스의 영상을 갱신 및/또는 변경할 수 있다. 예를 들어, 30 fps의 영상이라면 초당 30번 캔버스의 영상을 갱신 및/또는 변경할 수 있다. 즉, 복수의 영상들이 스트리밍 될 때, 각각의 영상들에 대응하는 캔버스을 통해 초당 30번의 프레임이 수신되고, 초당 30번의 프레임이 계속하여 캔버스를 통해 변경 및/또는 갱신되면서 단말(400)을 통해 출력되도록 제어부(410)가 제어할 수 있다.Meanwhile, the control unit 410 may update and/or change the plurality of streaming images on a canvas corresponding to each of the plurality of images on a frame-by-frame basis. In other words, the image on the canvas can be updated and/or changed on a per second (FPS) basis. For example, if the video is at 30 fps, the image on the canvas can be updated and/or changed 30 times per second. That is, when a plurality of videos are streamed, 30 frames per second are received through the canvas corresponding to each video, and the 30 frames per second are continuously changed and/or updated through the canvas and output through the terminal 400. The control unit 410 can control as much as possible.

이상에서 설명한 바와 같이, 본 명세서는 다수의 특정한 구현물의 세부사항들을 포함하지만, 이들은 어떠한 발명이나 청구 가능한 것의 범위에 대해서도 제한적인 것으로서 이해되어서는 안되며, 오히려 특정한 발명의 특정한 실시형태에 특유할 수 있는 특징들에 대한 설명으로서 이해되어야 한다. 개별적인 실시형태의 문맥에서 본 명세서에 기술된 특정한 특징들은 단일 실시형태에서 조합하여 구현될 수도 있다. 반대로, 단일 실시형태의 문맥에서 기술한 다양한 특징들 역시 개별적으로 혹은 어떠한 적절한 하위 조합으로도 복수의 실시형태에서 구현 가능하다. 나아가, 특징들이 특정한 조합으로 동작하고 초기에 그와 같이 청구된 바와 같이 묘사될 수 있지만, 청구된 조합으로부터의 하나 이상의 특징들은 일부 경우에 그 조합으로부터 배제될 수 있으며, 그 청구된 조합은 하위 조합이나 하위 조합의 변형물로 변경될 수 있다.As described above, although this specification contains details of numerous specific implementations, these should not be construed as limitations on the scope of any invention or what may be claimed, but rather may be specific to particular embodiments of a particular invention. It should be understood as a description of features. Certain features described herein in the context of individual embodiments may also be implemented in combination in a single embodiment. Conversely, various features described in the context of a single embodiment can also be implemented in multiple embodiments individually or in any suitable sub-combination. Furthermore, although features may be described as operating in a particular combination and initially claimed as such, one or more features from a claimed combination may in some cases be excluded from that combination, and the claimed combination may be a sub-combination. It can be changed to a variant of a sub-combination.

마찬가지로, 특정한 순서로 도면에서 동작들을 묘사하고 있지만, 이는 바람직한 결과를 얻기 위하여 도시된 그 특정한 순서나 순차적인 순서대로 그러한 동작들을 수행하여야 한다거나 모든 도시된 동작들이 수행되어야 하는 것으로 이해되어서는 안 된다. 특정한 경우, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다. 또한, 상술한 실시 형태의 다양한 시스템 컴포넌트의 분리는 그러한 분리를 모든 실시형태에서 요구하는 것으로 이해되어서는 안되며, 설명한 프로그램 컴포넌트와 시스템들은 일반적으로 단일의 소프트웨어 제품으로 함께 통합되거나 다중 소프트웨어 제품에 패키징될 수 있다는 점을 이해하여야 한다.Likewise, although operations are depicted in the drawings in a particular order, this should not be construed as requiring that those operations be performed in the specific order or sequential order shown or that all of the depicted operations must be performed to obtain desirable results. In certain cases, multitasking and parallel processing may be advantageous. Additionally, the separation of various system components in the above-described embodiments should not be construed as requiring such separation in all embodiments, and the described program components and systems may generally be integrated together into a single software product or packaged into multiple software products. You must understand that it is possible.

본 명세서에서 설명한 주제의 특정한 실시형태를 설명하였다. 기타의 실시형태들은 이하의 청구항의 범위 내에 속한다. 예컨대, 청구항에서 인용된 동작들은 상이한 순서로 수행되면서도 여전히 바람직한 결과를 성취할 수 있다. 일 예로서, 첨부도면에 도시한 프로세스는 바람직한 결과를 얻기 위하여 반드시 그 특정한 도시된 순서나 순차적인 순서를 요구하지 않는다. 특정한 구현 예에서, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다.Specific embodiments of the subject matter described herein have been described. Other embodiments are within the scope of the following claims. For example, the operations recited in the claims can be performed in a different order and still achieve desirable results. As an example, the process depicted in the accompanying drawings does not necessarily require the specific depicted order or sequential order to achieve desirable results. In certain implementations, multitasking and parallel processing may be advantageous.

본 기술한 설명은 본 발명의 최상의 모드를 제시하고 있으며, 본 발명을 설명하기 위하여, 그리고 통상의 기술자가 본 발명을 제작 및 이용할 수 있도록 하기 위한 예를 제공하고 있다. 이렇게 작성된 명세서는 그 제시된 구체적인 용어에 본 발명을 제한하는 것이 아니다. 따라서, 상술한 예를 참조하여 본 발명을 상세하게 설명하였지만, 통상의 기술자라면 본 발명의 범위를 벗어나지 않으면서도 본 예들에 대한 개조, 변경 및 변형을 가할 수 있다.The present description sets forth the best mode of the invention and provides examples to illustrate the invention and to enable any person skilled in the art to make and use the invention. The specification prepared in this way does not limit the present invention to the specific terms presented. Accordingly, although the present invention has been described in detail with reference to the above-described examples, those skilled in the art may make modifications, changes, and variations to the examples without departing from the scope of the present invention.

따라서 본 발명의 범위는 설명된 실시 예에 의하여 정할 것이 아니고 특허청구범위에 의해 정하여져야 한다.Therefore, the scope of the present invention should not be determined by the described embodiments, but by the scope of the patent claims.

본 발명은, 타일 기반 멀티뷰 영상을 재생하는 방법 및 이를 위한 장치에 관한 것으로서, 더욱 상세하게는, 단말의 디코딩 성능에 영향을 받지 않고도, 멀티뷰 영상에 포함된 복수의 영상들의 배치를 자유롭게 변경하여 재생하는 방법 및 이를 위한 장치에 관한 것이다. The present invention relates to a method and device for playing a tile-based multi-view video, and more specifically, to freely change the arrangement of a plurality of images included in a multi-view video without being affected by the decoding performance of the terminal. It relates to a method of reproducing and a device for this.

본 발명에 따르면, 타일 기반으로 합성 처리된 멀티뷰 영상을 타일 단위로 나누고, 각 영상을 HTML5 Canvas 기능을 활용하여 멀티뷰를 재생하는 기술로 합성 처리된 1개의 영상만을 디코딩하므로 단말 성능에 제한을 받지 않으며, Canvas를 활용하여 영상 간의 이동을 원활하게 해주면서 직관적인 이동 효과를 나타낼 수 있다.According to the present invention, a tile-based synthesized multi-view image is divided into tile units, and each image is played using the HTML5 Canvas function to play the multi-view. Since only one synthesized image is decoded, terminal performance is limited. You can use Canvas to smoothly move between images and create an intuitive movement effect.

또한, 본 발명은 멀티뷰 영상을 타일 기반으로 재생하여 단말 디코딩 성능에 제약을 받지 않고 N개 이상의 영상이더라도, 단일 영상 재생이 가능한 단말에게는 성능의 제약 없이 멀티뷰 영상을 제공할 수 있다. In addition, the present invention reproduces multi-view video on a tile basis, so that it is not limited by terminal decoding performance and can provide multi-view video to a terminal capable of playing a single video without performance restrictions, even if there are more than N videos.

예를 들어, 단말 성능이 매우 다양한 PC 환경뿐만 아니라, 단말 성능이 매우 제약적인 웹기반의 스마트TV 등에도 해당 발명이 적용될 수 있다.For example, the invention can be applied not only to PC environments where terminal performance is very diverse, but also to web-based smart TVs where terminal performance is very limited.

또한, HTML5 Canvas를 활용하여 타일 단위로 나눈 영상의 이동이 자유로워서 고정된 형태로 제공하는 멀티뷰가 아닌 사용자가 원하는대로 화면을 배치 할 수 있는 직관적이고 자유로운 멀티뷰 사용 경험을 제공할 수 있다.In addition, by using HTML5 Canvas, the video divided into tiles can be freely moved, providing an intuitive and free multi-view experience that allows users to arrange the screen as they wish, rather than providing a fixed multi-view.

따라서, 본 발명은 타일 기반 멀티뷰 영상을 재생하는 방법 및 이를 위한 장치를 통해 미디어 산업 전반의 발전에 이바지할 수 있으며, 시판 또는 영업의 가능성이 충분할 뿐 아니라 현실적으로 명백하게 실시할 수 있는 정도이므로 산업상 이용가능성이 있다.Therefore, the present invention can contribute to the development of the overall media industry through a method for playing tile-based multi-view video and a device for the same, and not only has sufficient potential for commercialization or sales, but also can be clearly implemented in reality, so it can be used industrially. There is availability.

1: 통신망 100: 영상 제공 장치 200: 영상 합성 장치
300: 영상 관리 장치 400: 단말
1: Communication network 100: Video providing device 200: Video synthesis device
300: Video management device 400: Terminal

Claims (25)

단말이 멀티뷰 영상을 재생하는 방법에 있어서,
영상 관리 장치로부터 멀티뷰 영상을 수신하고,
상기 멀티뷰 영상을 복수의 영상들로 분할하고,
상기 복수의 영상들 중, 제 1 영상 및 제 2 영상의 위치를 변경하기 위한 요청 메시지를 수신하고,
상기 멀티뷰 영상 내에서 상기 제 1 영상을 포함하는 제 1 영역의 크기 및 상기 제 2 영상을 포함하는 제 2 영역의 크기가 동일한 경우:
상기 제 1 영상을 상기 제 2 영역으로 이동시키며, 상기 제 2 영상을 상기 제 1 영역으로 이동시키고,
상기 멀티뷰 영상 내에서 상기 제 1 영상을 포함하는 제 1 영역의 크기 및 상기 제 2 영상을 포함하는 제 2 영역의 크기가 상이하고, 상기 제 1 영역의 크기가 상기 제 2 영역으로 크기보다 큰 경우:
상기 제 1 영상의 품질은 유지하면서 상기 제 1 영상이 상기 제 2 영역의 크기와 동일해지도록 상기 제 1 영상의 크기를 줄인 후, 상기 제 1 영상을 상기 제 2 영역으로 이동시키고,
상기 제 1 영역의 크기에 대응하는 화질을 가지는 상기 제 2 영상을 상기 영상 관리 장치로부터 수신하여, 상기 제 1 영역에 상기 제 2 영상을 합성하는 것을 포함하는,
멀티뷰 영상 재생 방법.
In a method for a terminal to play a multi-view video,
Receive multi-view video from a video management device,
Splitting the multi-view image into a plurality of images,
Receiving a request message to change the positions of a first image and a second image among the plurality of images,
When the size of the first area including the first image and the size of the second area including the second image in the multi-view image are the same:
Moving the first image to the second area, moving the second image to the first area,
In the multi-view image, the size of the first area including the first image and the size of the second area including the second image are different, and the size of the first area is larger than the size of the second area. case:
Reduce the size of the first image so that the first image becomes the same size as the second area while maintaining the quality of the first image, and then move the first image to the second area,
Receiving the second image having an image quality corresponding to the size of the first area from the image management device, and compositing the second image into the first area,
How to play multi-view video.
삭제delete 삭제delete 삭제delete 삭제delete 제 1 항에 있어서,
상기 멀티뷰 영상은 상기 복수의 영상들이 타일 기반 형태로 배치된 것인,
멀티뷰 영상 재생 방법.
According to claim 1,
The multi-view image is one in which the plurality of images are arranged in a tile-based format,
How to play multi-view video.
제 6 항에 있어서,
상기 복수의 영상들로 분할하는 것은,
타일 단위로 상기 복수의 영상들을 분할 하는 것인,
멀티뷰 영상 재생 방법.
According to claim 6,
Splitting into the plurality of images,
Splitting the plurality of images on a tile basis,
How to play multi-view video.
제 6 항에 있어서,
상기 영상 관리 장치로부터 상기 복수의 영상들 각각에 대응하는 타일의 크기 정보 및 위치 정보를 수신하는 것을 포함하는,
멀티뷰 영상 재생 방법.
According to claim 6,
Including receiving size information and location information of a tile corresponding to each of the plurality of images from the image management device,
How to play multi-view video.
제 1 항에 있어서,
상기 복수의 영상들은 상기 복수의 영상들 각각을 위한 캔버스(Canvas)에 프레임 단위로 삽입되는,
멀티뷰 영상 재생 방법.
According to claim 1,
The plurality of images are inserted frame by frame into a canvas for each of the plurality of images,
How to play multi-view video.
제 9 항에 있어서,
상기 복수의 영상들 각각을 위한 캔버스에, 상기 복수의 영상들 각각이 갱신되는 빈도는,
초당 프레임 수(Frame per Second; FPS)에 기반하는,
멀티뷰 영상 재생 방법.
According to clause 9,
The frequency with which each of the plurality of images is updated on the canvas for each of the plurality of images is,
Based on Frames per Second (FPS),
How to play multi-view video.
제 9 항에 있어서,
상기 캔버스는, HTML 5 (HyperText Markup Language 5)에 기반한,
멀티뷰 영상 재생 방법.
According to clause 9,
The canvas is based on HTML 5 (HyperText Markup Language 5),
How to play multi-view video.
제 1 항에 있어서,
상기 멀티뷰 영상을 상기 복수의 영상들로 분할하기 전에,
상기 멀티뷰 영상에 대한 디코딩 및 렌더링을 수행하는 것을 더 포함하는,
멀티뷰 영상 재생 방법.
According to claim 1,
Before dividing the multi-view image into the plurality of images,
Further comprising performing decoding and rendering on the multi-view image,
How to play multi-view video.
멀티뷰 영상을 재생하는 단말에 있어서,
사용자로부터 메시지를 입력받는 입력부;
영상 관리 장치와 데이터를 송수신하는 통신부;
상기 데이터를 저장하는 저장부; 및
상기 단말의 동작을 제어하는 제어부;를 포함하고,
상기 제어부는,
상기 영상 관리 장치로부터 멀티뷰 영상을 수신하도록 상기 통신부를 제어하고,
상기 멀티뷰 영상을 복수의 영상들로 분할하고,
상기 입력부를 통해 상기 복수의 영상들 중, 제 1 영상 및 제 2 영상의 위치를 변경하기 위한 요청 메시지를 수신하고,
상기 멀티뷰 영상 내에서 상기 제 1 영상을 포함하는 제 1 영역의 크기 및 상기 제 2 영상을 포함하는 제 2 영역의 크기가 동일한 경우:
상기 제 1 영상을 상기 제 2 영역으로 이동시키며, 상기 제 2 영상을 상기 제 1 영역으로 이동시키고,
상기 멀티뷰 영상 내에서 상기 제 1 영상을 포함하는 제 1 영역의 크기 및 상기 제 2 영상을 포함하는 제 2 영역의 크기가 상이하고, 상기 제 1 영역의 크기가 상기 제 2 영역으로 크기보다 큰 경우:
상기 제 1 영상의 품질은 유지하면서 상기 제 1 영상이 상기 제 2 영역의 크기와 동일해지도록 상기 제 1 영상의 크기를 줄인 후, 상기 제 1 영상을 상기 제 2 영역으로 이동시키고,
상기 통신부를 통해 상기 제 1 영역의 크기에 대응하는 화질을 가지는 상기 제 2 영상을 상기 영상 관리 장치로부터 수신하여, 상기 제 1 영역에 상기 제 2 영상을 합성하는 것을 포함하는,
단말.
In a terminal that plays multi-view video,
An input unit that receives a message from the user;
A communication unit that transmits and receives data to and from the video management device;
a storage unit that stores the data; and
It includes a control unit that controls the operation of the terminal,
The control unit,
Controlling the communication unit to receive a multi-view image from the video management device,
Splitting the multi-view image into a plurality of images,
Receiving a request message to change the positions of a first image and a second image among the plurality of images through the input unit,
When the size of the first area including the first image and the size of the second area including the second image in the multi-view image are the same:
Moving the first image to the second area, moving the second image to the first area,
In the multi-view image, the size of the first area including the first image and the size of the second area including the second image are different, and the size of the first area is larger than the size of the second area. case:
Reduce the size of the first image so that the first image becomes the same size as the second area while maintaining the quality of the first image, and then move the first image to the second area,
Receiving the second image having an image quality corresponding to the size of the first area from the image management device through the communication unit, and compositing the second image into the first area,
Terminal.
삭제delete 삭제delete 삭제delete 삭제delete 제 13 항에 있어서,
상기 멀티뷰 영상은 상기 복수의 영상들이 타일 기반 형태로 배치된 것인,
단말.
According to claim 13,
The multi-view image is one in which the plurality of images are arranged in a tile-based format,
Terminal.
제 18 항에 있어서,
상기 복수의 영상들로 분할하는 것은,
타일 단위로 상기 복수의 영상들을 분할 하는 것인,
단말.
According to claim 18,
Splitting into the plurality of images,
Splitting the plurality of images on a tile basis,
Terminal.
제 18 항에 있어서,
상기 제어부는,
상기 영상 관리 장치로부터 상기 복수의 영상들 각각에 대응하는 타일의 크기 정보 및 위치 정보를 수신하도록 상기 통신부를 제어하는 것을 포함하는,
단말.
According to claim 18,
The control unit,
Including controlling the communication unit to receive size information and location information of tiles corresponding to each of the plurality of images from the image management device,
Terminal.
제 13 항에 있어서,
상기 복수의 영상들은 상기 복수의 영상들 각각을 위한 캔버스(Canvas)에 프레임 단위로 삽입되는,
단말.
According to claim 13,
The plurality of images are inserted frame by frame into a canvas for each of the plurality of images,
Terminal.
제 21 항에 있어서,
상기 복수의 영상들 각각을 위한 캔버스에, 상기 복수의 영상들 각각이 갱신되는 빈도는,
초당 프레임 수(Frame per Second; FPS)에 기반하는,
단말.
According to claim 21,
The frequency with which each of the plurality of images is updated on the canvas for each of the plurality of images is,
Based on Frames per Second (FPS),
Terminal.
제 21 항에 있어서,
상기 캔버스는, HTML 5 (HyperText Markup Language 5)에 기반한,
단말.
According to claim 21,
The canvas is based on HTML 5 (HyperText Markup Language 5),
Terminal.
제 13 항에 있어서,
상기 제어부는,
상기 멀티뷰 영상을 상기 복수의 영상들로 분할하기 전에,
상기 멀티뷰 영상에 대한 디코딩 및 렌더링을 수행하는 것을 더 포함하는,
단말.
According to claim 13,
The control unit,
Before dividing the multi-view image into the plurality of images,
Further comprising performing decoding and rendering on the multi-view image,
Terminal.
멀티뷰 영상을 재생하기 위한 멀티뷰 영상 재생 시스템에 있어서,
복수의 영상들 각각을 생성하고, 상기 복수의 영상들 각각을 영상 합성 장치에 전송하는 영상 제공 장치;
상기 영상 제공 장치로부터 상기 복수의 영상들을 수신하고, 상기 복수의 영상들을 상기 멀티뷰 영상으로 합성하는 상기 영상 합성 장치;
상기 멀티뷰 영상을 저장하고, 단말의 요청에 따라 상기 멀티뷰 영상을 상기 단말로 전송하는 영상 관리 장치; 및
상기 영상 관리 장치로부터 상기 멀티뷰 영상을 수신하고, 상기 멀티뷰 영상을 복수의 영상들로 분할하고, 상기 복수의 영상들 중, 제 1 영상 및 제 2 영상의 위치를 변경하기 위한 요청 메시지를 수신하고,
상기 멀티뷰 영상 내에서 상기 제 1 영상을 포함하는 제 1 영역의 크기 및 상기 제 2 영상을 포함하는 제 2 영역의 크기가 동일한 경우:
상기 제 1 영상을 상기 제 2 영역으로 이동시키며, 상기 제 2 영상을 상기 제 1 영역으로 이동시키고,
상기 멀티뷰 영상 내에서 상기 제 1 영상을 포함하는 제 1 영역의 크기 및 상기 제 2 영상을 포함하는 제 2 영역의 크기가 상이하고, 상기 제 1 영역의 크기가 상기 제 2 영역으로 크기보다 큰 경우:
상기 제 1 영상의 품질은 유지하면서 상기 제 1 영상이 상기 제 2 영역의 크기와 동일해지도록 상기 제 1 영상의 크기를 줄인 후, 상기 제 1 영상을 상기 제 2 영역으로 이동시키고,
상기 영상 관리 장치로부터 상기 제 1 영역의 크기에 대응하는 화질을 가지는 상기 제 2 영상을 수신하여, 상기 제 1 영역에 상기 제 2 영상을 합성하는 단말;을 포함하는,
멀티뷰 영상 재생 시스템.
In a multi-view video playback system for playing multi-view video,
an image providing device that generates each of a plurality of images and transmits each of the plurality of images to an image synthesis device;
the image synthesis device that receives the plurality of images from the image providing device and synthesizes the plurality of images into the multi-view image;
a video management device that stores the multi-view video and transmits the multi-view video to the terminal according to a request from the terminal; and
Receiving the multi-view image from the video management device, dividing the multi-view image into a plurality of images, and receiving a request message for changing the positions of the first image and the second image among the plurality of images. do,
When the size of the first area including the first image and the size of the second area including the second image in the multi-view image are the same:
Moving the first image to the second area, moving the second image to the first area,
In the multi-view image, the size of the first area including the first image and the size of the second area including the second image are different, and the size of the first area is larger than the size of the second area. case:
Reduce the size of the first image so that the first image becomes the same size as the second area while maintaining the quality of the first image, and then move the first image to the second area,
A terminal that receives the second image having an image quality corresponding to the size of the first area from the image management device and synthesizes the second image in the first area.
Multi-view video playback system.
KR1020210170029A 2021-12-01 2021-12-01 The method and apparatus for playing tile based multiview video KR102603220B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210170029A KR102603220B1 (en) 2021-12-01 2021-12-01 The method and apparatus for playing tile based multiview video

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210170029A KR102603220B1 (en) 2021-12-01 2021-12-01 The method and apparatus for playing tile based multiview video

Publications (2)

Publication Number Publication Date
KR20230082271A KR20230082271A (en) 2023-06-08
KR102603220B1 true KR102603220B1 (en) 2023-11-16

Family

ID=86765719

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210170029A KR102603220B1 (en) 2021-12-01 2021-12-01 The method and apparatus for playing tile based multiview video

Country Status (1)

Country Link
KR (1) KR102603220B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102029604B1 (en) * 2018-12-07 2019-10-08 스타십벤딩머신 주식회사 Editing system and editing method for real-time broadcasting

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101955202B1 (en) * 2012-10-31 2019-03-07 삼성에스디에스 주식회사 Device for multipoing video conference and method for displaying multi-party image using the device
US10942735B2 (en) * 2012-12-04 2021-03-09 Abalta Technologies, Inc. Distributed cross-platform user interface and application projection
KR20150008739A (en) * 2013-07-15 2015-01-23 주식회사 케이티 Server and method for providing personalize display based on video, and device
KR102126257B1 (en) * 2015-02-13 2020-06-24 에스케이텔레콤 주식회사 Method for providing of multi-view streaming service, and apparatus therefor
KR102346747B1 (en) * 2015-05-07 2022-01-04 에스케이플래닛 주식회사 System for cloud streaming service, method of cloud streaming service of providing multi-view screen based on resize and apparatus for the same
KR20170029725A (en) 2015-09-07 2017-03-16 주식회사 다림비젼 Method and apparatus for generating video lecture by synthesizing multiple images
KR102317938B1 (en) * 2019-03-19 2021-10-27 한국전자기술연구원 Division video distributed decoding method and system for tiled streaming

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102029604B1 (en) * 2018-12-07 2019-10-08 스타십벤딩머신 주식회사 Editing system and editing method for real-time broadcasting

Also Published As

Publication number Publication date
KR20230082271A (en) 2023-06-08

Similar Documents

Publication Publication Date Title
US11812080B2 (en) System and method for smooth transition of live and replay program guide displays
US11073969B2 (en) Multiple-mode system and method for providing user selectable video content
Petrangeli et al. An http/2-based adaptive streaming framework for 360 virtual reality videos
US10911512B2 (en) Personalized content streams using aligned encoded content segments
US11228801B2 (en) Method and apparatus for providing multi-view streaming service
US20190149885A1 (en) Thumbnail preview after a seek request within a video
US9998771B2 (en) Transmission apparatus, transmission method, reception apparatus, and reception method
WO2009108354A1 (en) System and method for virtual 3d graphics acceleration and streaming multiple different video streams
KR20190121867A (en) Method and apparatus for packaging and streaming virtual reality media content
JP2013134762A (en) Image processing system, image providing server, information processor, and image processing method
WO2021190221A1 (en) Method for providing and method for acquiring immersive media, apparatus, device, and storage medium
JP2021536163A (en) Systems and methods for signaling subpicture timed metadata information
EP3151574A1 (en) System and method for maintaining connection channel in multi-device interworking service
CN115134632B (en) Video code rate control method, device, medium and content delivery network CDN system
KR102603220B1 (en) The method and apparatus for playing tile based multiview video
US20220182732A1 (en) Systems and Methods of Alternative Networked Application Services
KR20140050522A (en) System and providing method for multimedia virtual system
CN111629250A (en) Display device and video playing method
KR101844931B1 (en) Data management apparatus, system and method for dividing display
CN111200580B (en) Player and playing method
EP3160156A1 (en) System, device and method to enhance audio-video content using application images
US11695488B2 (en) ATSC over-the-air (OTA) broadcast of public volumetric augmented reality (AR)
WO2023169003A1 (en) Point cloud media decoding method and apparatus and point cloud media coding method and apparatus
CN102547382A (en) Method and device for providing video files for format-limited video-playing terminals
WO2022125401A1 (en) Systems and methods of alternative networked application services

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant