KR20180112471A - Method and apparatus for syncronizing a plurality of videos - Google Patents

Method and apparatus for syncronizing a plurality of videos Download PDF

Info

Publication number
KR20180112471A
KR20180112471A KR1020170043586A KR20170043586A KR20180112471A KR 20180112471 A KR20180112471 A KR 20180112471A KR 1020170043586 A KR1020170043586 A KR 1020170043586A KR 20170043586 A KR20170043586 A KR 20170043586A KR 20180112471 A KR20180112471 A KR 20180112471A
Authority
KR
South Korea
Prior art keywords
images
similarity
synchronization
determining
degree
Prior art date
Application number
KR1020170043586A
Other languages
Korean (ko)
Other versions
KR102129126B1 (en
Inventor
안상우
양승준
이인재
김현철
서정일
석주명
임성용
조용주
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020170043586A priority Critical patent/KR102129126B1/en
Publication of KR20180112471A publication Critical patent/KR20180112471A/en
Application granted granted Critical
Publication of KR102129126B1 publication Critical patent/KR102129126B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

The present invention discloses a method for synchronizing a plurality of images, and a device thereof. According to an embodiment of the present invention, the method for synchronizing a plurality of images comprises: a step of determining similarity among a plurality of images; a step of determining synchronization among the plurality of images based on the similarity of the plurality of images; and a step of synchronizing by deleting a frame of one image among images out of synchronization as much as the number of the images out of synchronization when synchronization among the plurality of images is determined to be out of synchronization. In addition, the step of determining similarity among a plurality of images can determine similarity among a plurality of images by using at least one between a method of determining similarity of a plurality of images based on variation in a brightness value and a color value of a bonding subsequence between two images that are adjacent in terms of space, and a method of determining similarity among the plurality of images based on a scene change frame of the plurality of images. Therefore, the method for synchronizing a plurality of images, and the device thereof can synchronize a plurality of images by using similarity among the images in a real-time large angle panorama play system or a multi-surface image play system.

Description

복수의 영상 동기화 방법 및 그 장치 {METHOD AND APPARATUS FOR SYNCRONIZING A PLURALITY OF VIDEOS}[0001] METHOD AND APPARATUS FOR SYNCRONIZING A PLURALITY OF VIDEOS [0002]

본 개시는 복수의 영상의 동기화 방법 및 그 장치에 관한 것으로, 보다 구체적으로는 실시간 대화각 파노라마 재생시스템 또는 다면 영상 재생시스템에서 복수의 영상을 재생할 때 복수의 영상의 유사도를 분석하여 동기화를 지원하는 복수의 영상 동기화 방법 및 그 장치에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and apparatus for synchronizing a plurality of images and more particularly to a method and apparatus for synchronizing a plurality of images, A plurality of video synchronization methods and apparatus thereof.

최근 들어 대화각 파노라마 영상 서비스 또는 다면 영상 서비스 등 광시야각 영상 서비스에 대한 수요가 점차 증가하고 있는 추세이다. 특히, 전시관 및 체험관 등을 중심으로 멀티 프로젝터를 이용한 실사 중심의 홍보 영상 서비스 및 체험 서비스 등에 대한 요구가 증대되고 있다. 또한, 한류를 기반으로 아이돌 스타의 실황공연을 다면 영상 서비스 영화관을 통하여 사업화되고 있는 현실이다. In recent years, there has been an increasing demand for a wide viewing angle image service such as a panorama image service or a multi-view image service. Especially, there is an increasing demand for a real-image-based PR video service and experience service using a multi-projector centered on exhibition halls and experience halls. In addition, if the idol star performances are performed based on the Korean Wave, it is a reality that is commercialized through the video service movie theater.

이러한 서비스들은 점차 실시간 서비스로 진화하고 과정에 있는데, 실시간 서비스를 지원하기 위해서는 부호화/복호화 기술의 접목이 사용이 필수적이다.These services are gradually evolving and are in the process of real-time services. In order to support real-time services, it is necessary to use coding / decoding technology.

하나 이상의 HD/UHD 멀티 영상을 조합하는 방식으로 제공되는 파노라마 영상 서비스나 다면 영상 서비스를 실시간 지원하기 위해서는 멀티 영상 수만큼 부호화/복호화기를 사용한다. 그러나, 상용 부호화/복호화기를 사용할 경우에는 각 멀티 영상간의 동기화를 지원하기에 어려움이 있다. 즉, 재생시스템 환경에서 사용하게 될 상용 복호화기의 출력 멀티 영상간의 동기화는 물리적으로 복수개의 멀티 복호화기를 사용함으로 인하여 정확하게 일치한다고 보장할 수 없다. In order to support a panorama image service or a multi-image service, which is provided by combining one or more HD / UHD multi-images in real time, the number of multi-image coders / decoders is used. However, when a commercial encoder / decoder is used, it is difficult to support synchronization between each multi-image. That is, the synchronization between the output multi-images of the commercial decoder to be used in the reproduction system environment can not be guaranteed to be exactly the same due to the fact that a plurality of multi-decoders are physically used.

이는 동일한 복호화기를 사용하더라도 각 복호화기로 입력되는 멀티 영상 스트림의 입력 시간이 정확하지 않으며, 각 복호화기의 복호화 시간도 정확하게 일치한다고 볼 수 없기 때문이다. 이러한 동기화가 보장되지 않는 멀티 복호화기의 출력 멀티 영상을 각각 화면에 출력하여 대화각 파노라마 영상 서비스 또는 다면 영상 서비스를 제공할 경우, 이를 구성하는 영상간의 비동기화로 인하여 영상의 이질감이 발생하는 문제점이 있다.This is because even if the same decoder is used, the input time of the multi-picture stream input to each decoder is not accurate and the decoding time of each decoder can not be exactly matched. When the output multi-image of the multi-decoders, which are not guaranteed to be synchronized, is output to the screen to provide each panorama image service or multi-image service, .

본 개시의 기술적 과제는 상술한 문제점을 해결하기 위하여, 실시간 대화각 파노라마 재생 시스템 또는 다면 영상 재생시스템에서, 영상간 유사도를 이용하여 복수의 영상의 동기를 맞추는 복수의 영상 동기화 방법 및 그 장치를 제공하는 것이다.Disclosure of Invention Technical Problem [8] Accordingly, the present invention has been made to solve the above-mentioned problems occurring in the prior art, and it is an object of the present invention to provide a plurality of video synchronization methods and apparatuses for synchronizing a plurality of images using similarity between images in a real time interactive panorama playback system or a multi- .

본 개시에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical objects to be achieved by the present disclosure are not limited to the above-mentioned technical subjects, and other technical subjects which are not mentioned are to be clearly understood from the following description to those skilled in the art It will be possible.

본 개시의 일 양상에 따르면, 복수의 영상 동기화 방법은 복수의 영상간 유사도를 판단하는 단계; 상기 복수의 영상간 유사도를 기초로 상기 복수의 영상간 동기화 여부를 판단하는 단계 및 상기 복수의 영상간 동기가 어긋난 것으로 판단된 경우, 동기가 어긋난 영상 프레임 개수만큼 동기가 어긋난 영상 중 어느 한 영상의 프레임을 삭제하여 동기를 맞추는 단계를 포함하고, 상기 복수의 영상간 유사도를 판단하는 단계는, 공간적으로 인접한 두 영상의 접합 부분열의 밝기 값 및 색상 값의 변화량을 기초로 복수의 영상간 유사도를 판단하는 방법 및 상기 복수의 영상의 장면 전환 프레임을 기초로 상기 복수의 영상간 유사도를 판단 하는 방법 중 적어도 하나를 이용하여 상기 복수의 영상간 유사도를 판단할 수 있다.According to one aspect of the present disclosure, a plurality of image synchronization methods includes: determining similarities between a plurality of images; Determining whether or not the plurality of images are synchronized based on the similarity between the plurality of images, and determining whether or not the plurality of images are synchronized with each other based on the degree of similarity between the plurality of images, Wherein the step of determining the degree of similarity between the plurality of images includes determining a degree of similarity between a plurality of images based on a brightness value and a variation value of a color value of a joint partial column of two spatially adjacent images, And determining a degree of similarity between the plurality of images based on the scene change frames of the plurality of images.

본 개시에 대하여 위에서 간략하게 요약된 특징들은 후술하는 본 개시의 상세한 설명의 예시적인 양상일 뿐이며, 본 개시의 범위를 제한하는 것은 아니다.The features briefly summarized above for this disclosure are only exemplary aspects of the detailed description of the disclosure which follow, and are not intended to limit the scope of the disclosure.

본 개시에 따르면, 실시간 대화각 파노라마 재생시스템 또는 다면 영상 재생시스템에서, 효율적인 동기화 방법을 제공할 수 있다.According to the present disclosure, it is possible to provide an efficient synchronization method in a real-time interactive panorama playback system or a multi-image playback system.

본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable from the present disclosure are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below will be.

도 1은 본 개시의 일 실시 예에 따른 복수의 영상 동기화 방법을 설명하기 위한 순서도이다.
도 2는 본 개시의 일 실시 예에 따른 복수의 영상의 복호화 및 동기화 방법을 설명하기 위한 순서도이다.
도 3은 본 개시의 일 실시 예에 따른 공간적으로 인접한 두 영상의 접합 부분열의 유사도를 판단하는 방법을 설명하기 위한 도면이다.
도 4는 본 개시의 일 실시 예에 따른 장면 전환 프레임을 기초로 복수의 영상간 유사도를 판단하는 방법을 설명하기 위한 도면이다.
도 5는 본 개시의 일 실시 예에 따른 복수의 영상 동기화 장치를 설명하기 위한 블록도이다.
FIG. 1 is a flowchart for explaining a plurality of image synchronization methods according to an embodiment of the present disclosure.
2 is a flowchart illustrating a method of decoding and synchronizing a plurality of images according to an embodiment of the present disclosure.
3 is a view for explaining a method of determining a similarity degree of a joint portion sequence of two spatially adjacent images according to an embodiment of the present disclosure.
4 is a diagram for explaining a method of determining a degree of similarity between a plurality of images based on a scene change frame according to an embodiment of the present disclosure.
5 is a block diagram for explaining a plurality of image synchronizing apparatuses according to an embodiment of the present disclosure;

이하에서는 첨부한 도면을 참고로 하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings, which will be easily understood by those skilled in the art. However, the present disclosure may be embodied in many different forms and is not limited to the embodiments described herein.

본 개시의 실시 예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 개시에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.In the following description of the embodiments of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present disclosure rather unclear. Parts not related to the description of the present disclosure in the drawings are omitted, and like parts are denoted by similar reference numerals.

본 개시에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결관계뿐만 아니라, 그 중간에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 어떤 구성요소가 다른 구성요소를 "포함한다" 또는 "가진다"고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 배제하는 것이 아니라 또 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In the present disclosure, when an element is referred to as being "connected", "coupled", or "connected" to another element, it is understood that not only a direct connection relationship but also an indirect connection relationship May also be included. Also, when an element is referred to as " comprising "or" having "another element, it is meant to include not only excluding another element but also another element .

본 개시에 있어서, 제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 특별히 언급되지 않는 한 구성요소들간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 개시의 범위 내에서 일 실시 예에서의 제1 구성요소는 다른 실시 예에서 제2 구성요소라고 칭할 수도 있고, 마찬가지로 일 실시 예에서의 제2 구성요소를 다른 실시 예에서 제1 구성요소라고 칭할 수도 있다. In the present disclosure, the terms first, second, etc. are used only for the purpose of distinguishing one element from another, and do not limit the order or importance of elements, etc. unless specifically stated otherwise. Thus, within the scope of this disclosure, a first component in one embodiment may be referred to as a second component in another embodiment, and similarly a second component in one embodiment may be referred to as a first component .

본 개시에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위함이며, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시 예도 본 개시의 범위에 포함된다. In the present disclosure, the components that are distinguished from each other are intended to clearly illustrate each feature and do not necessarily mean that components are separate. That is, a plurality of components may be integrated into one hardware or software unit, or a single component may be distributed into a plurality of hardware or software units. Thus, unless otherwise noted, such integrated or distributed embodiments are also included within the scope of this disclosure.

본 개시에 있어서, 다양한 실시 예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들은 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시 예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시 예도 본 개시의 범위에 포함된다. 또한, 다양한 실시 예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시 예도 본 개시의 범위에 포함된다. In the present disclosure, the components described in the various embodiments are not necessarily essential components, and some may be optional components. Thus, embodiments consisting of a subset of the components described in one embodiment are also included within the scope of the present disclosure. Also, embodiments that include other elements in addition to the elements described in the various embodiments are also included in the scope of the present disclosure.

이하, 첨부한 도면을 참조하여 본 개시의 실시 예들에 대해서 설명한다.Hereinafter, embodiments of the present disclosure will be described with reference to the accompanying drawings.

도 1은 본 개시의 일 실시 예에 따른 복수의 영상 동기화 방법을 설명하기 위한 순서도이다.FIG. 1 is a flowchart for explaining a plurality of image synchronization methods according to an embodiment of the present disclosure.

도 1을 참고하면, 복수의 영상 동기화 방법은 S110 ~ S130 단계를 수행함으로써 실행될 수 있다.Referring to FIG. 1, a plurality of image synchronization methods may be executed by performing steps S110 to S130.

S110 단계에서는 복수의 영상간 유사도를 판단할 수 있다. 여기서, 복수의 영상간 유사도를 판단하는 위해 공간적으로 인접한 두 영상의 접합 부분열의 밝기 값 및 색상 값의 변화량을 기초로 복수의 영상간 유사도를 판단하는 방법 및 복수의 영상의 장면 전환 프레임을 기초로 복수의 영상간 유사도를 판단 하는 방법 중 적어도 하나를 이용할 수 있다.In step S110, the degree of similarity between a plurality of images can be determined. In order to determine the degree of similarity between a plurality of images, a method of determining a similarity between a plurality of images based on the brightness value and the color value change amount of a joint partial column of two spatially adjacent images, And a method of determining the degree of similarity between a plurality of images can be used.

공간적으로 인접한 두 영상의 접합 부분열의 밝기 값 및 색상 값의 변화량을 기초로 복수의 영상간 유사도를 판단하는 방법은 아래와 같다.A method of determining the degree of similarity between a plurality of images on the basis of the brightness value and the variation amount of the color value of the joint partial column of two spatially adjacent images is as follows.

복수의 영상 중에서 공간적으로 인접한 두 영상의 경계 부분, 즉 접합 부분 열의 각 픽셀의 밝기 값(Y) 및 색상 값(U or V) 대한 제1 델타(

Figure pat00001
) 값을 측정하여, 제1 델타 값이 기 설정된 값(Threshold value)보다 적을 경우 유사도가 높다고 판단할 수 있다. 반면 기 설정된 값보다 클 경우 유사도가 작다고 판단할 수 있다. 여기서, 델타 값이란 두 픽셀의 밝기 값 또는 색상 값의 차이 값을 의미할 수 있다.(Y or V) of each pixel in a boundary portion of two spatially adjacent images in a plurality of images, that is, a first partial delta
Figure pat00001
). If the first delta value is less than a predetermined threshold value, it can be determined that the degree of similarity is high. On the other hand, if it is larger than the preset value, it can be judged that the degree of similarity is small. Here, the delta value may mean a brightness value of two pixels or a difference value of color values.

이에 대한 구체적인 예시는 도 3의 설명과 함께 후술하도록 한다.Specific examples thereof will be described later with reference to FIG.

한편, 복수의 영상의 장면 전환 프레임을 기초로 복수의 영상간 유사도를 판단하는 방법은 아래와 같다.On the other hand, a method of determining the degree of similarity between a plurality of images based on a scene change frame of a plurality of images is as follows.

복수의 영상 중 각각의 영상에서 시간 순서에 따른 프레임 간의 픽셀의 제2 델타 값을 측정하여, 장면 전환 프레임을 검출할 수 있다. 구체적으로, 시간 순서에 따른 프레임 간의 제2 델타 값이 기 설정된 값보다 클 경우, 장면 전환 프레임으로 판단할 수 있다.It is possible to detect a scene change frame by measuring a second delta value of a pixel between frames according to a time sequence in each image among a plurality of images. Specifically, when the second delta value between frames according to the time order is greater than a predetermined value, it can be determined as a scene change frame.

그리고, 각각의 영상에서 판단된 장면 전환 프레임들이 동일한 시점(또는 프레임) 또는 기 설정된 시점 간격(또는 기 설정된 프레임 간격)내에 있는 경우, 복수의 영상간 유사도가 높은 것으로 판단할 수 있다. 반대로, 각각의 영상에서 판단된 장면 전환 프레임들이 기 설정된 시점 차이 밖에 있는 경우, 복수의 영상간 유사도가 낮은 것으로 판단할 수 있다.If the scene change frames determined in each image are within the same viewpoint (or frame) or within a predetermined viewpoint interval (or a predetermined frame interval), it can be determined that the degree of similarity between the plurality of images is high. On the contrary, when the scene change frames determined in the respective images are outside the preset view difference, it can be determined that the degree of similarity between the plurality of images is low.

한편, 각각의 영상에서 판단된 장면 전환 프레임들의 프레임 간격을 제3 델타 값이라고 가정할 수 있으며, 제3 델타 값이 기 설정된 값 보다 적을 경우 유사도가 크고, 제3 델타 값이 기 설정된 값보다 클 경우 유사도가 낮은 것으로 판단할 수 있다.If the third delta value is smaller than the preset value, the degree of similarity is large. If the third delta value is larger than the predetermined value, the frame interval of the scene change frames determined in each image is assumed to be the third delta value. It can be judged that the degree of similarity is low.

이에 대한 구체적인 예시는 도 4의 설명과 함께 후술하도록 한다.A specific example of this will be described later with reference to FIG.

S120 단계에서는 복수의 영상간 유사도를 기초로 상기 복수의 영상간 동기화 여부를 판단할 수 있다. S110 단계에서 유사도가 높다고 판단된 경우, 동일한 프레임으로 간주하여 동기가 맞는 것으로 판단할 수 있다. 그러나, 유사도가 작다고 판단되는 경우, 동일하지 않은 프레임으로 간주하여 동기가 어긋난 것으로 판단할 수 있다.In step S120, it is determined whether or not the plurality of images are synchronized based on the similarity between the plurality of images. If it is determined in step S110 that the degree of similarity is high, it can be determined that the synchronization is correct by considering the same frame. However, when it is determined that the degree of similarity is small, it can be determined that the frames are not the same and the synchronization is out of order.

한편, 복수의 영상간 동기가 어긋난 것으로 판단된 경우(S120-아니오), S130 단계를 수행할 수 있다.On the other hand, if it is determined that the synchronization between the plurality of images is out of phase (S120: NO), step S130 may be performed.

S130 단계에서는 동기가 어긋난 영상 프레임 개수만큼 동기가 어긋난 영상 중 어느 한 영상의 프레임을 삭제하여 동기를 맞출 수 있다. 구체적으로, 동기가 어긋난 영상의 프레임이 지난 후 다시 유사도가 높아지는 프레임까지의 프레임 개수를 동기화의 문제가 생긴 프레임 개수로 판단할 수 있다. 이에 따라, 동기가 어긋난 영상 중 어느 한 영상의 프레임 버퍼에서 위와 같이 판단된 프레임 개수만큼 영상 프레임을 삭제함으로써 동기를 맞출 수 있다. In step S130, it is possible to synchronize the frames by deleting frames of any one of images whose synchronization is out of phase by the number of image frames shifted. Specifically, it is possible to determine the number of frames up to the frame in which the degree of similarity increases again after the frame of the image with the out-of-sync has passed, as the number of frames in which the problem of synchronization has occurred. Accordingly, the synchronization can be achieved by deleting the image frame by the number of frames determined as above in the frame buffer of any one of the images whose synchronization is out of order.

한편, 동기화를 실현하는 방법으로 동기가 어긋난 영상 중 어느 한 영상의 프레임을 순차적으로 삭제함과 동시에 영상간 유사도를 판단하여 동기를 맞출 수 있다. On the other hand, as a method of realizing the synchronization, it is possible to sequentially delete frames of any one of the images whose synchronization is out of alignment, and to determine the similarity between images to synchronize with each other.

도 2는 본 개시의 일 실시 예에 따른 복수의 영상의 복호화 및 동기화 방법을 설명하기 위한 순서도이다.2 is a flowchart illustrating a method of decoding and synchronizing a plurality of images according to an embodiment of the present disclosure.

도 2를 참고하면, 복수의 영상의 복호화 및 동기화 방법은 S210 ~ S250 단계를 실행하여 수행될 수 있다.Referring to FIG. 2, a method of decoding and synchronizing a plurality of images may be performed by executing steps S210 to S250.

S210 단계에서는 복수의 영상을 각각 디코딩할 수 있다. 여기서, 복수의 영상은 실시간 대화각 파노라마 영상 또는 다면 영상을 구성하는 영상들을 부호화한 영상 스트림일 수 있다. 여기서, 복수의 영상을 디코딩하기 위해 복수의 영상의 수만큼 디코더를 사용할 수 있다. 이때, 복수의 디코더는 디코더 간의 동기화를 지원하기 위하여 동일한 내부 또는 외부 클럭을 사용할 수 있다.In step S210, a plurality of images can be respectively decoded. Here, the plurality of images may be a video stream obtained by coding images constituting a real-time dialogue panorama image or a multi-view image. Here, a decoder may be used for a plurality of images in order to decode a plurality of images. At this time, a plurality of decoders can use the same internal or external clock to support synchronization between the decoders.

그러나, 일반적으로 대부분의 복수의 디코더는 물리적인 외부 클럭 입력을 지원하지 않으며, 소프트웨어적인 동일 클럭을 사용한다 하더라도 복수의 디코더 간의 프로세스 시간 차이로 인하여 디코딩된 복수의 영상들이 정확하게 동기화될 수 있다고 보장할 수 없다.However, in general, most of the plurality of decoders do not support physical external clock input, and even if a same software clock is used, it is assured that a plurality of decoded images can be accurately synchronized due to a process time difference between a plurality of decoders I can not.

따라서, S220~S240 단계를 수행하여 디코딩된 복수의 영상간의 동기화 여부를 판단하고, 동기화를 실행 할 수 있다. Therefore, it is possible to determine whether or not to synchronize a plurality of decoded pictures by performing steps S220 to S240, and to perform synchronization.

S220 단계에서는 공간적으로 인접한 두 영상의 접합 부분열의 밝기 값 및 색상 값의 변화량을 기초로 복수의 영상간 유사도를 판단하는 방법 또는 장면 전환 프레임을 기초로 복수의 영상간 유사도 판단 방법 중 적어도 하나를 이용하여 복수의 영상간 유사도를 산출할 수 있다.In step S220, a method of determining a similarity between a plurality of images based on brightness values and color values of a joint partial sequence of two spatially adjacent images or a method of determining similarities between images based on a scene change frame may be used The degree of similarity between a plurality of images can be calculated.

이에 대한 설명은 도 1의 S110 에서 구체적으로 기술하였는 바, 생략하도록 한다.The description thereof has been specifically described in S110 of Fig. 1, and will be omitted.

S230 단계에서는 S220 단계에서 유사도를 판단하기 위하여 산출된 델타 값이 기 설정된 값보다 큰 경우 동기가 어긋난 것으로 판단하고, 기 설정된 값보다 적은 경우 동기가 맞는 것으로 판단할 수 있다. 여기서, 델타 값은 공간적으로 인접한 두 영상의 접합 부분열의 밝기 값 및 색상 값의 변화량을 기초로 복수의 영상간 유사도를 판단하는 방법을 이용한 경우 제1 델타 값을 의미하고, 장면 전환 프레임을 기초로 복수의 영상간 유사도 판단 방법을 이용한 경우 제3 델타 값을 의미할 수 있다.If it is determined in step S230 that the calculated delta value is greater than a predetermined value, it is determined that the synchronization is out of order. If the calculated delta value is less than the predetermined value, it is determined that the synchronization is correct. Here, the delta value indicates a first delta value when a method of determining similarity between a plurality of images based on a brightness value and a color value variation of a joint partial column of two spatially adjacent images is used, And a third delta value when a plurality of inter-image similarity determination methods are used.

S230 단계에서 델타 값이 기 설정된 값보다 큰 경우(S230-네), S240 단계가 실행되어 동기화를 실현할 수 있다.If the delta value is greater than the predetermined value in step S230 (S230- Yes), step S240 is executed to realize synchronization.

S240 단계의 동기화 실현은 도 1의 S130에서 구체적으로 기술하였는 바, 생략하도록 한다.The synchronization realization in step S240 has been described in detail in S130 of FIG. 1, and will be omitted.

그리고, S250단계에서는 복수의 영상 스트림이 끝났는지 판단하여, 끝난 경우 모든 과정을 종료하고(S250-네), 끝나지 않은 경우 복수의 영상 디코딩 과정을 재 수행할 수 있다(S250-아니오).In step S250, it is determined whether a plurality of video streams have been completed. If the video streams are finished, the entire process is terminated (S250- Yes). If not finished, a plurality of video decoding processes may be performed again (S250 -No).

도 3은 본 개시의 일 실시 예에 따른 공간적으로 인접한 두 영상의 접합 부분열의 유사도를 판단하는 방법을 설명하기 위한 도면이다.3 is a view for explaining a method of determining a similarity degree of a joint portion sequence of two spatially adjacent images according to an embodiment of the present disclosure.

도 3에서는 4K 좌영상과 4K 우영상을 조합하여 하나의 8K 파노라마 영상을 실시간 송수신하여 재생하기 위한 실시 예를 가정하여 설명한다.3, a description will be given on the assumption that an 8K panoramic image is transmitted and received in real time by combining a 4K left image and a 4K right image.

좌영상의 우측열의 밝기 값인 Y(L(x))과 우영상의 좌측열의 밝기 값인 Y(R(x))의 차이인

Figure pat00002
을 계산하고, 좌영상의 우측열의 색상 값인 U(L(x))와 우영상의 좌측열의 색상 값인 U(R(x))의 차이인
Figure pat00003
을 계산하여, 이들의 합인
Figure pat00004
값을 산출한다. 여기서,
Figure pat00006
는 수학식 1을 이용하여 계산할 수 있다.The difference between the brightness value Y (L (x)) of the right column of the left image and the brightness value Y (R (x)) of the left column of the right image
Figure pat00002
And calculates the difference between the color value U (L (x)) of the right column of the left image and the color value U (R (x)) of the left column of the right image
Figure pat00003
, And calculates the sum
Figure pat00004
Lt; / RTI > here, Wow
Figure pat00006
Can be calculated using Equation (1).

Figure pat00007
Figure pat00007

여기서,

Figure pat00008
값이 클수록 공간적으로 인접한 두 영상의 접합 부분열의 유사도가 낮고,
Figure pat00009
값이 낮을수록 공간적으로 인접한 두 영상의 접합 부분열의 유사도가 높다고 할 수 있다.here,
Figure pat00008
The larger the value, the lower the similarity of the joint partial sequences of two spatially adjacent images,
Figure pat00009
The lower the value, the higher the degree of similarity of the joint partial sequences of two spatially adjacent images.

한편,

Figure pat00010
값이 기 설정된 값 (Threshold,
Figure pat00011
)보다 클 경우 좌/우 영상의 동기가 어긋난 것으로 판단할 수 있다. 여기서, 기 설정된 값과
Figure pat00012
을 비교하는 것은 수학식 2을 이용하여 나타낼 수 있다.Meanwhile,
Figure pat00010
If the value is less than the preset value (Threshold,
Figure pat00011
), It can be determined that the synchronization of the left / right image is out of order. Here,
Figure pat00012
Can be expressed using Equation (2).

Figure pat00013
Figure pat00013

도 4는 본 개시의 일 실시 예에 따른 장면 전환 프레임을 기초로 복수의 영상간 유사도를 판단하는 방법을 설명하기 위한 도면이다.4 is a diagram for explaining a method of determining a degree of similarity between a plurality of images based on a scene change frame according to an embodiment of the present disclosure.

도 4를 참고하면, 두 영상의 장면 전환 프레임(24)을 기준으로 좌우 영상의

Figure pat00014
값이 큰 것을 확인 할 수 있다. 두 영상의 장면 전환 프레임의 간격 사이에서 좌/우 영상의 유사도가 낮은 것으로 판단되어 동기가 어긋난 것으로 간주할 수 있다. 즉, 두 영상의 장면 전환 프레임을 기준으로 영상의 유사도를 판단하여 동기 여부를 확인할 수 있다.Referring to FIG. 4, when the scene change frame 24 of the two images is used as a reference,
Figure pat00014
It can be confirmed that the value is large. The similarity of the left / right images is judged to be low between the intervals of the scene change frames of the two images, so that it can be regarded that the motions are out of order. That is, the similarity of the images can be determined based on the scene change frames of the two images, and it is possible to confirm whether or not the images are synchronized.

한편, 두 영상의 장면 전환 프레임(24)을 동일한 프레임 또는 기 설정된 프레임 간격 내에 있도록 두 영상의 장면 전환 프레임 사이에 있는 프레임 개수만큼 우영상의 프레임을 삭제하여 동기를 맞출 수 있다. On the other hand, the frame of the right image can be synchronized by deleting the frame of the right image by the number of frames between the scene change frames of the two images so that the scene change frames 24 of the two images are within the same frame or predetermined frame intervals.

도 5는 본 개시의 일 실시 예에 따른 복수의 영상 동기화 장치를 설명하기 위한 블록도이다.5 is a block diagram for explaining a plurality of image synchronizing apparatuses according to an embodiment of the present disclosure;

도 5를 참고하면, 복수의 영상을 재생하기 위한 시스템은 복수의 복호화기(510-1, 510-n), 복수의 영상 동기화 장치(520) 및 재생부(530)를 포함할 수 있다.5, a system for reproducing a plurality of images may include a plurality of decoders 510-1 and 510-n, a plurality of image synchronizing apparatuses 520, and a reproducing unit 530. FIG.

복수의 복호화기(510-1, 510-n)는 부호화된 복수의 영상을 각각 복호화할 수 있다. 여기서, 복수의 복호화기의 개수는 입력되는 복수의 영상의 개수와 동일 할 수 있다.The plurality of decoders 510-1 and 510-n can respectively decode a plurality of encoded images. Here, the number of the plurality of decoders may be the same as the number of the input images.

복수의 영상 동기화 장치(520)는 유사도 판단부(521) 및 동기화부(522)를 포함할 수 있다.The plurality of image synchronization apparatuses 520 may include a similarity determination unit 521 and a synchronization unit 522.

유사도 판단부(521)은 공간적으로 인접한 두 영상의 접합 부분열의 밝기 값 및 색상 값의 변화량을 기초로 복수의 영상간 유사도를 판단하는 방법 또는 장면 전환 프레임을 기초로 복수의 영상간 유사도 판단 방법 중 적어도 하나를 이용하여 복수의 영상간 유사도를 산출할 수 있다.The degree-of-similarity determination unit 521 determines a degree of similarity between images based on a brightness value and a variation value of a color value of a joint partial column of two spatially adjacent images or a method of determining similarity between images based on a scene change frame The degree of similarity between a plurality of images can be calculated using at least one.

이에 대한 설명은 도 1의 S110 에서 구체적으로 기술하였는 바, 생략하도록 한다.The description thereof has been specifically described in S110 of Fig. 1, and will be omitted.

동기화부(522)는 유사도 판단부(521)에서 산출된 유사도를 기초로 디코딩된 복수의 영상의 동기화 여부를 판단할 수 있다. 그리고, 동기화부(522)는 동기가 어긋난 것으로 판단된 경우, 동기가 어긋난 영상 프레임 개수만큼 동기가 어긋난 영상 중 어느 한 영상의 프레임을 삭제하여 동기를 맞출 수 있다. 구체적으로, 동기가 어긋난 영상의 프레임이 지난 후 다시 유사도가 높아지는 프레임까지의 프레임 개수를 동기화의 문제가 생긴 프레임 개수로 판단할 수 있다. 이에 따라, 동기화부(520)는 동기가 어긋난 영상 중 어느 한 영상의 프레임 버퍼에서 위와 같이 판단된 프레임 개수만큼 영상 프레임을 삭제함으로써 동기를 맞출 수 있다. 위와 같이 프레임을 삭제하는 방법으로 동기를 맞추는 방법을 프레임 스킵(skip)이라고 할 수 있다.The synchronization unit 522 may determine whether a plurality of images decoded based on the similarity calculated by the similarity degree determination unit 521 are synchronized. If it is determined that the synchronization is out of phase, the synchronization unit 522 can delete the frame of any one of the images whose synchronization is out of synchronization by the number of image frames whose synchronization is out of phase and synchronize with each other. Specifically, it is possible to determine the number of frames up to the frame in which the degree of similarity increases again after the frame of the image with the out-of-sync has passed, as the number of frames in which the problem of synchronization has occurred. Accordingly, the synchronization unit 520 can synchronize the frame by deleting the image frame by the number of frames determined as above in the frame buffer of any image out of synchronization. As described above, a method of synchronizing with a method of deleting a frame is called a frame skip.

한편, 동기화부(522)는 위와 같이 영상 프레임을 삭제함으로써 동기를 맞출 때, 삭제되는 영상 프레임에 대응하는 오디오도 동시에 삭제하여 영상과 오디오의 동기도 맞출 수 있다.On the other hand, when synchronizing by deleting the video frame as described above, the audio corresponding to the video frame to be deleted is deleted at the same time, so that the synchronization between the video and the audio can be also synchronized.

재생부(530)는 동기가 맞는 디코딩된 복수의 영상을 재생할 수 있다.The reproducing unit 530 can reproduce a plurality of decoded videos synchronized with each other.

이상 도 1 내지 도 5를 참고하여 복수의 영상 동기화 방법 및 그 장치에 대해 설명하였다.[0040] A plurality of image synchronization methods and apparatuses have been described with reference to FIGS.

본 발명의 일 실시 예에 따른 복수의 영상 동기화 방법 및 그 장치는 실시간 대화각 파노라마 재생시스템 또는 다면 영상 재생시스템에서, 효율적인 동기화 방법을 제공할 수 있다A plurality of image synchronization methods and apparatuses according to an embodiment of the present invention can provide an efficient synchronization method in a real-time interactive panorama playback system or a multi-image playback system

한편, 본 개시의 일 양상에 따르면 복수의 영상 동기화 방법을 수행하기 위해 실행가능한 명령들(executable instructions)을 가지는 소프트웨어 또는 컴퓨터-판독가능한 매체(computer-readable medium)가 제공될 수 있다. 상기 복수의 영상 동기화 방법은, 복수의 영상간 유사도를 판단하는 단계, 상기 복수의 영상간 유사도를 기초로 상기 복수의 영상간 동기화 여부를 판단하는 단계 및 상기 복수의 영상간 동기가 어긋난 것으로 판단된 경우, 동기가 어긋난 영상 프레임 개수만큼 동기가 어긋난 영상 중 어느 한 영상의 프레임을 삭제하여 동기를 맞추는 단계를 포함하고, 상기 복수의 영상간 유사도를 판단하는 단계는, 공간적으로 인접한 두 영상의 접합 부분열의 밝기 값 및 색상 값의 변화량을 기초로 복수의 영상간 유사도를 판단하는 방법 및 상기 복수의 영상의 장면 전환 프레임을 기초로 상기 복수의 영상간 유사도를 판단 하는 방법 중 적어도 하나를 이용하여 상기 복수의 영상간 유사도를 판단하는 것를 포함할 수 있다.On the other hand, according to one aspect of the present disclosure, software or a computer-readable medium having executable instructions for performing a plurality of image synchronization methods may be provided. The plurality of video synchronization methods may include the steps of determining a degree of similarity between a plurality of images, determining whether or not the plurality of images are synchronized based on the degree of similarity between the plurality of images, Wherein the step of determining the degree of similarity between the plurality of images includes a step of determining a degree of similarity between two images that are spatially adjacent to each other, A method of determining a similarity degree between a plurality of images based on a brightness value of a column and a variation value of a color value and a method of determining similarity between the plurality of images based on the scene change frames of the plurality of images, And determining the degree of similarity between the images.

본 개시의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 본 개시에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.Although the exemplary methods of this disclosure are represented by a series of acts for clarity of explanation, they are not intended to limit the order in which the steps are performed, and if necessary, each step may be performed simultaneously or in a different order. In order to implement the method according to the present disclosure, the illustrative steps may additionally include other steps, include the remaining steps except for some steps, or may include additional steps other than some steps.

본 개시의 다양한 실시 예는 모든 가능한 조합을 나열한 것이 아니고 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다.The various embodiments of the disclosure are not intended to be all-inclusive and are intended to illustrate representative aspects of the disclosure, and the features described in the various embodiments may be applied independently or in a combination of two or more.

또한, 본 개시의 다양한 실시 예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다. In addition, various embodiments of the present disclosure may be implemented by hardware, firmware, software, or a combination thereof. In the case of hardware implementation, one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays A general processor, a controller, a microcontroller, a microprocessor, and the like.

본 개시의 범위는 다양한 실시 예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다. The scope of the present disclosure is to be accorded the broadest interpretation as understanding of the principles of the invention, as well as software or machine-executable instructions (e.g., operating system, applications, firmware, Instructions, and the like are stored and are non-transitory computer-readable medium executable on the device or computer.

Claims (1)

복수의 영상 동기화 방법에 있어서,
복수의 영상간 유사도를 판단하는 단계;
상기 복수의 영상간 유사도를 기초로 상기 복수의 영상간 동기화 여부를 판단하는 단계; 및
상기 복수의 영상간 동기가 어긋난 것으로 판단된 경우, 동기가 어긋난 영상 프레임 개수만큼 동기가 어긋난 영상 중 어느 한 영상의 프레임을 삭제하여 동기를 맞추는 단계를 포함하고,
상기 복수의 영상간 유사도를 판단하는 단계는,
공간적으로 인접한 두 영상의 접합 부분열의 밝기 값 및 색상 값의 변화량을 기초로 복수의 영상간 유사도를 판단하는 방법 및 상기 복수의 영상의 장면 전환 프레임을 기초로 상기 복수의 영상간 유사도를 판단 하는 방법 중 적어도 하나를 이용하여 상기 복수의 영상간 유사도를 판단하는 것을 특징으로 하는 복수의 영상 동기화 방법.
In a plurality of video synchronization methods,
Determining a degree of similarity between a plurality of images;
Determining whether the plurality of images are synchronized based on the similarity between the plurality of images; And
And deleting a frame of one of the images whose synchronization is out of phase by the number of image frames whose synchronization is out of phase when it is determined that the synchronization between the plurality of images is out of phase,
Wherein the step of determining the degree of similarity between the plurality of images comprises:
A method of determining a degree of similarity between a plurality of images based on a brightness value and a variation value of a color value of a joint partial column of two spatially adjacent images and a method of determining similarities between the plurality of images based on the scene change frames of the plurality of images Wherein the degree of similarity between the plurality of images is determined using at least one of the plurality of images.
KR1020170043586A 2017-04-04 2017-04-04 Method and apparatus for syncronizing a plurality of videos KR102129126B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170043586A KR102129126B1 (en) 2017-04-04 2017-04-04 Method and apparatus for syncronizing a plurality of videos

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170043586A KR102129126B1 (en) 2017-04-04 2017-04-04 Method and apparatus for syncronizing a plurality of videos

Publications (2)

Publication Number Publication Date
KR20180112471A true KR20180112471A (en) 2018-10-12
KR102129126B1 KR102129126B1 (en) 2020-07-01

Family

ID=63876486

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170043586A KR102129126B1 (en) 2017-04-04 2017-04-04 Method and apparatus for syncronizing a plurality of videos

Country Status (1)

Country Link
KR (1) KR102129126B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102514580B1 (en) * 2021-10-06 2023-03-29 주식회사 마인즈랩 Video transition method, apparatus and computer program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070090184A (en) * 2004-12-08 2007-09-05 모토로라 인코포레이티드 Audio and video data processing in portable multimedia devices
KR20130117693A (en) * 2012-04-17 2013-10-28 한국전자통신연구원 Method and apparatus for synchronization compensating between left/right image frame in three dimensional system and rendering method and apparatus through said synchronization compensating
KR20140089731A (en) * 2013-01-07 2014-07-16 한국기술교육대학교 산학협력단 Apparatus and method for corrcecting synchronous error between left and right frame in 3d imaging system
JP2014194525A (en) * 2013-02-28 2014-10-09 Canon Inc Image display device, image output device, and control method of the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070090184A (en) * 2004-12-08 2007-09-05 모토로라 인코포레이티드 Audio and video data processing in portable multimedia devices
KR20130117693A (en) * 2012-04-17 2013-10-28 한국전자통신연구원 Method and apparatus for synchronization compensating between left/right image frame in three dimensional system and rendering method and apparatus through said synchronization compensating
KR20140089731A (en) * 2013-01-07 2014-07-16 한국기술교육대학교 산학협력단 Apparatus and method for corrcecting synchronous error between left and right frame in 3d imaging system
JP2014194525A (en) * 2013-02-28 2014-10-09 Canon Inc Image display device, image output device, and control method of the same

Also Published As

Publication number Publication date
KR102129126B1 (en) 2020-07-01

Similar Documents

Publication Publication Date Title
JP6562992B2 (en) Trick playback in digital video streaming
CN102098529B (en) For the treatment of the method and system of the compressed image stream of stereoscopic image streams
US9161023B2 (en) Method and system for response time compensation for 3D video processing
CN108063976B (en) Video processing method and device
US8836758B2 (en) Three-dimensional image processing apparatus and method of controlling the same
TW200426713A (en) Method and apparatus of adaptive de-interlacing of motion image
CN105306837A (en) Multi-image splicing method and device
WO2019156819A1 (en) Method and apparatus for processing and distributing live virtual reality content
JP2007122232A (en) Image processor and program
CN106470291A (en) Recover in the interruption in time synchronized from audio/video decoder
WO2011039927A1 (en) Three-dimensional video processing device and three-dimensional video processing method
CN109246477A (en) A kind of panoramic video frame interpolation method and device
JP5685682B2 (en) Video signal encoding system and encoding method
CN107484004B (en) Video processing method and device
KR20180112471A (en) Method and apparatus for syncronizing a plurality of videos
KR20190050714A (en) A METHOD AND APPARATUS FOR ENCODING/DECODING 360 Virtual Reality VIDEO
CN107205158A (en) A kind of multichannel audio-video frequency stream synchronous decoding method based on timestamp
US8879780B2 (en) Method and device for providing a content stream, content stream, method and device for processing a content stream
US20190141352A1 (en) Tile-based 360 vr video encoding method and tile-based 360 vr video decoding method
ITTO20120208A1 (en) METHOD OF GENERATION, TRANSPORT AND RECONSTRUCTION OF A STEREOSCOPIC VIDEO FLOW
US11706375B2 (en) Apparatus and system for virtual camera configuration and selection
US20160112710A1 (en) Decoder, application processor including the decoder, and method of operating the decoder
KR101720320B1 (en) Method and apparatus of error correction in multiple steam based 3D image
US20060132504A1 (en) Content combining apparatus and method
KR20200143287A (en) Method and apparatus for encoding/decoding image and recording medium for storing bitstream

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant