KR101598857B1 - Image/video coding and decoding system and method using graph based pixel prediction and depth map coding system and method - Google Patents

Image/video coding and decoding system and method using graph based pixel prediction and depth map coding system and method Download PDF

Info

Publication number
KR101598857B1
KR101598857B1 KR1020100018720A KR20100018720A KR101598857B1 KR 101598857 B1 KR101598857 B1 KR 101598857B1 KR 1020100018720 A KR1020100018720 A KR 1020100018720A KR 20100018720 A KR20100018720 A KR 20100018720A KR 101598857 B1 KR101598857 B1 KR 101598857B1
Authority
KR
South Korea
Prior art keywords
pixel
value
graph
pixels
edge map
Prior art date
Application number
KR1020100018720A
Other languages
Korean (ko)
Other versions
KR20110093532A (en
Inventor
이재준
위호천
센 고드윈
김우식
오르테가 안토니오
Original Assignee
삼성전자주식회사
유니버시티 오브 써던 캘리포니아
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사, 유니버시티 오브 써던 캘리포니아 filed Critical 삼성전자주식회사
Priority to EP10194221A priority Critical patent/EP2360927A3/en
Priority to US13/016,373 priority patent/US8554001B2/en
Publication of KR20110093532A publication Critical patent/KR20110093532A/en
Application granted granted Critical
Publication of KR101598857B1 publication Critical patent/KR101598857B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • H04N7/0806Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division the signals being two or more video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/0137Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes dependent on presence/absence of motion, e.g. of motion zones

Abstract

그래프 기반 화소 예측을 이용한 영상 부호화/복호화 시스템 및 방법 그리고 깊이 맵 부호화 시스템 및 방법이 개시된다. 부호화 시스템은 입력된 영상에서 서로 이웃한 화소간의 화소값 차이에 기초하여 에지 맵을 생성하고, 생성된 에지 맵을 통해 화소를 연결하여 그래프를 생성하고, 생성된 그래프에 기초하여 적어도 하나의 화소에 대한 예측값을 선택하고, 선택된 예측값에 기초하여 영상을 부호화 한다.A system and method for image encoding / decoding using graph-based pixel prediction and a depth map encoding system and method are disclosed. The encoding system generates an edge map based on a pixel value difference between neighboring pixels in an input image, connects the pixels through the generated edge map to generate a graph, and based on the generated graph, And the image is encoded based on the selected prediction value.

Figure R1020100018720
Figure R1020100018720

Description

그래프 기반 화소 예측을 이용한 영상 부호화/복호화 시스템 및 방법 그리고 깊이 맵 부호화 시스템 및 방법{IMAGE/VIDEO CODING AND DECODING SYSTEM AND METHOD USING GRAPH BASED PIXEL PREDICTION AND DEPTH MAP CODING SYSTEM AND METHOD}TECHNICAL FIELD [0001] The present invention relates to an image encoding / decoding system and method using a graph-based pixel prediction, a depth map encoding system, and a depth map encoding system and method.

본 발명의 실시예들은 그래프 기반 화소 예측을 이용한 영상 부호화/복호화 시스템 및 방법 그리고 깊이 맵 부호화 시스템 및 방법에 관한 것이다.Embodiments of the present invention relate to a system and method for image encoding / decoding using graph-based pixel prediction and a depth map encoding system and method.

영상(동영상 포함)을 부호화할 경우에 현재 부호화하고자 하는 화소의 주변 화소들을 사용하여 예측 부호화하는 방법이 사용되어 왔다. 예를 들어 디지털 비디오 코덱 표준인 H.264에서, 한 프레임의 영상을 4x4 화소 크기의 블록으로 분할하여 부호화하는데 있어, 한 블록을 부호화할 때에 주변 블록의 화소값을 사용하여 현재 블록의 화소값을 예측한 후에 예측된 값과 현재 블록의 화소 값의 차이를 부호화 함으로써 압축 효율을 높였다. There has been used a method of predicting a picture using a neighboring pixel of a current picture to be encoded when an image (including a moving picture) is encoded. For example, in H.264, which is a digital video codec standard, when an image of one frame is divided into blocks of 4x4 pixels, when encoding one block, the pixel values of the current block are calculated using the pixel values of the neighboring blocks After the prediction, the compression efficiency is improved by encoding the difference between the predicted value and the pixel value of the current block.

이러한 종래기술은 주변의 화소값만 가지고는 현재 블록의 화소값을 정확하게 예측하기 어렵기 때문에 현재 블록이 가지고 있는 모양 정보를 부가적으로 제공함으로써 보다 정확한 예측을 수행할 수 있다. 예를 들어 영상의 3차원 깊이 정보를 가지고 있는 깊이 맵 (depth map)을 부호화할 때에 현재 블록을 하나의 직선으로 분할하여 두 개의 영역으로 나누고 각 영역의 대표값을 부호화하는 방법 등이 이용되었다.It is difficult to precisely predict the pixel value of the current block with only surrounding pixel values, so that it is possible to perform more accurate prediction by additionally providing the shape information of the current block. For example, when a depth map having three-dimensional depth information of an image is encoded, a method of dividing the current block into one straight line, dividing the current block into two regions, and encoding a representative value of each region has been used.

본 명세서에서는 영상을 효과적으로 부호화 및 복호화 할 수 있는 시스템 및 방법이 제안된다.In this specification, a system and a method for effectively encoding and decoding an image are proposed.

입력된 영상에서 서로 이웃한 화소간의 화소값 차이에 기초하여 에지 맵을 생성하는 에지 맵 생성부, 생성된 에지 맵을 통해 화소를 연결하여 그래프를 생성하는 그래프 생성부, 생성된 그래프에 기초하여 적어도 하나의 화소에 대한 예측값을 선택하는 예측값 선택부 및 적어도 하나의 화소 및 예측값에 기초하여 적어도 하나의 화소를 예측 부호화하는 예측 부호화부를 포함하는 부호화 시스템이 제공된다.An edge map generating unit for generating an edge map based on pixel value differences between neighboring pixels in the input image, a graph generating unit for generating a graph by connecting pixels through the generated edge map, There is provided an encoding system including a predictive value selection unit for selecting a predictive value for one pixel, and a predictive encoding unit for predicting at least one pixel and at least one pixel based on the predictive value.

일측에 따르면, 에지 맵 생성부는 화소값 차이가 미리 설정된 문턱치 이상인 경우, 서로 이웃한 화소간에 에지가 존재하는 것으로 판단하여 에지 맵에 표시함으로써, 에지 맵을 생성할 수 있다. 이때, 문턱치는, 입력된 영상의 원하는 비트량(target bitrate)에 따라 에지 생성량을 조정하여 부호화된 에지 맵의 비트량을 조정할 수 있도록, 에지 생성시에 조절될 수 있다.According to one aspect, when the pixel value difference is equal to or greater than a predetermined threshold value, the edge map generating unit can determine that an edge exists between neighboring pixels and display the edge map on the edge map, thereby generating an edge map. At this time, the threshold value can be adjusted at the time of edge generation so that the bit amount of the encoded edge map can be adjusted by adjusting the edge generation amount according to the target bit rate of the input image.

다른 측면에서, 부호화 시스템은 생성된 에지 맵을 부호화하는 에지 맵 부호화부를 더 포함할 수 있고, 에지 맵 부호화부는 에지 맵을 이진 산술 부호화를 통해 압축하여 부호화할 수 있다. 이때, 부호화된 에지 맵은 입력된 영상을 부호화한 비트열에 포함될 수 있다.In another aspect, the encoding system may further include an edge map encoding unit encoding the generated edge map, and the edge map encoding unit may compress the edge map by compressing the edge map through binary arithmetic encoding. At this time, the encoded edge map may be included in the bit string in which the input image is encoded.

또 다른 측면에서, 그래프 생성부는 에지 맵의 에지에 의해 서로 분리되지 않는 복수의 화소를 연결하여 그래프를 생성할 수 있다.In another aspect, the graph generating unit can generate a graph by connecting a plurality of pixels that are not separated from each other by edges of an edge map.

입력된 영상에서 서로 이웃한 화소간의 화소값 차이에 기초하여 에지 맵을 생성하는 단계, 생성된 에지 맵을 통해 화소를 연결하여 그래프를 생성하는 단계, 생성된 그래프에 기초하여 적어도 하나의 화소에 대한 예측값을 선택하는 단계 및 적어도 하나의 화소 및 예측값에 기초하여 적어도 하나의 화소를 예측 부호화하는 단계를 포함하는 부호화 방법이 제공된다.Generating an edge map based on a pixel value difference between neighboring pixels in an input image, generating a graph by connecting pixels through the generated edge map, generating a graph based on the generated graph, Selecting a predicted value, and predicting the at least one pixel based on the at least one pixel and the predicted value.

입력된 비트열에서 에지 맵을 복호화하는 에지 맵 복호화부, 복호화된 에지 맵을 통해 화소를 연결하여 그래프를 생성하는 그래프 생성부, 생성된 그래프에 기초하여 적어도 하나의 화소에 대한 예측값을 선택하는 예측값 선택부 및 예측값 및 입력된 비트열의 화소 정보에 기초하여 적어도 하나의 화소를 복원하는 예측 보상부를 포함하는 복호화 시스템이 제공된다.An edge map decoding unit for decoding the edge map in the inputted bit stream, a graph generating unit for connecting the pixels through the decoded edge map to generate a graph, a predictive value selecting unit for selecting a predictive value for at least one pixel And a prediction compensating unit for restoring at least one pixel based on the selection unit and the predictive value and the pixel information of the input bitstream.

입력된 비트열에서 에지 맵을 복호화하는 단계, 복호화된 에지 맵을 통해 화소를 연결하여 그래프를 생성하는 단계, 생성된 그래프에 기초하여 적어도 하나의 화소에 대한 예측값을 선택하는 단계 및 예측값 및 입력된 비트열의 화소 정보에 기초하여 적어도 하나의 화소를 복원하는 단계를 포함하는 복호화 방법이 제공된다.Generating a graph by connecting pixels through a decoded edge map; selecting a prediction value for at least one pixel based on the generated graph; And reconstructing at least one pixel based on the pixel information of the bit stream.

깊이 맵 및 참조 영상에 기초하여 깊이 맵을 통해 합성될 영상의 화질을 예측하는 단계 및 예측된 화질에 기초하여 부호화 모드를 선택하는 단계를 포함하는 깊이 맵 부호화 방법이 제공된다.There is provided a depth map encoding method including a step of predicting an image quality of an image to be synthesized through a depth map based on a depth map and a reference image, and a step of selecting an encoding mode based on the predicted image quality.

깊이 맵 및 참조 영상에 기초하여 깊이 맵을 통해 합성될 영상의 화질을 예측하는 화질 예측부 및 예측된 화질에 기초하여 부호화 모드를 선택하는 부호화 모드 선택부를 포함하는 깊이 맵 부호화 시스템이 제공된다.There is provided a depth map encoding system including an image quality predicting unit for predicting an image quality of an image to be synthesized through a depth map based on a depth map and a reference image, and an encoding mode selecting unit for selecting an encoding mode based on the predicted image quality.

그래프를 이용하여 영상의 지역 정보에 따라 효과적으로 화소 예측을 수행함으로써 압축 효율을 향상시켜 복원된 영상의 화질을 향상시키는 동시에 압축된 비트량은 줄일 수 있다.By performing pixel prediction effectively according to the local information of the image using the graph, the compression efficiency can be improved to improve the quality of the reconstructed image and reduce the amount of compressed bits.

깊이 맵을 이용한 영상 합성을 통해 3차원 영상을 부호화하는 경우, 깊이 맵을 손실 부호화하여 발생하는 왜곡값이 합성된 영상에 미치는 영향을 예측하여 최적화된 부호화 모드를 결정할 수 있다.When a 3D image is encoded through image synthesis using a depth map, the optimized encoding mode can be determined by predicting the effect of the distortion value generated by loss coding the depth map on the synthesized image.

도 1은 본 발명의 일실시예에 있어서, 부호화 시스템의 내부 구성을 설명하기 위한 블록도이다.
도 2는 본 발명의 일실시예에 있어서, 복호화부의 내부 구성을 설명하기 위한 블록도이다.
도 3은 본 발명의 일실시예에 있어서, 영상의 화소를 표현한 일례이다.
도 4는 본 발명의 일실시예에 있어서, 부호화 방법을 도시한 흐름도이다.
도 5는 본 발명의 일실시예에 있어서, 복호화 시스템의 내부 구성을 설명하기 위한 블록도이다.
도 6은 본 발명의 일실시예에 있어서, 복호화 방법을 도시한 흐름도이다.
도 7은 본 발명의 일실시예에 있어서, 깊이 맵 부호화 시스템의 내부 구성을 설명하기 위한 블록도이다.
도 8은 본 발명의 일실시예에 있어서, 깊이 맵 부호화 방법을 도시한 흐름도이다.
도 9는 본 발명의 일실시예에 있어서, 깊이 맵의 왜곡을 사용하여 합성 영상에 발생하는 왜곡을 추정하는 방법을 설명하기 위한 일례이다.
1 is a block diagram for explaining an internal configuration of a coding system according to an embodiment of the present invention.
2 is a block diagram for explaining an internal configuration of a decoding unit in an embodiment of the present invention.
FIG. 3 is an example of pixels of an image according to an embodiment of the present invention.
4 is a flowchart illustrating an encoding method according to an embodiment of the present invention.
5 is a block diagram for explaining an internal configuration of a decoding system according to an embodiment of the present invention.
6 is a flowchart showing a decoding method in an embodiment of the present invention.
7 is a block diagram for explaining an internal configuration of a depth map encoding system according to an embodiment of the present invention.
8 is a flowchart illustrating a depth map encoding method according to an embodiment of the present invention.
9 is an example for explaining a method of estimating a distortion occurring in a composite image using distortion of a depth map in an embodiment of the present invention.

이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 있어서, 부호화 시스템의 내부 구성을 설명하기 위한 블록도이다. 본 실시예에 따른 부호화 시스템은 도 1에 도시된 바와 같이, 에지 맵 생성부(101), 그래프 생성부(102), 예측값 선택부(130), 예측 부호화부(104), 변환 및 양자화부(105), 엔트로피 부호화부(106), 복호화부(107) 및 에지 맵 부호화부(109)를 포함할 수 있다.1 is a block diagram for explaining an internal configuration of a coding system according to an embodiment of the present invention. 1, the coding system according to the present embodiment includes an edge map generating unit 101, a graph generating unit 102, a predicted value selecting unit 130, a predictive encoding unit 104, a transforming and quantizing unit 105, an entropy encoding unit 106, a decoding unit 107, and an edge map encoding unit 109.

에지 맵 생성부(101)는 입력된 영상에서 서로 이웃한 화소간의 화소값 차이에 기초하여 에지 맵을 생성한다. 이때, 에지 맵 생성부(101)는 화소값 차이가 미리 설정된 문턱치 이상인 경우, 서로 이웃한 화소간에 에지가 존재하는 것으로 판단하여 에지 맵에 표시함으로써, 에지 맵을 생성할 수 있다. 이 경우, 화소값 차이가 문턱치 이상이 아닌 경우에는 서로 이웃한 화소간에 에지가 존재하지 않는 것으로 판단하여 에지 맵에 표시할 수 있다. 예를 들어, 에지가 존재하는 것으로 판단된 경우에는 에지 맵의 해당 위치에 '1'의 값을, 에지가 존재하지 않는 것으로 판단된 경우에는 에지 맵의 해당 위치에 '0'의 값을 각각 부여하여 에지 맵에 표시할 수 있다. 여기서, 문턱치는 입력된 영상의 원하는 비트량(target bitrate)에 따라 에지 생성량을 조정하여 부호화된 에지 맵의 비트량을 조정할 수 있도록, 에지 생성시에 조절될 수 있다.The edge map generation unit 101 generates an edge map based on pixel value differences between neighboring pixels in the input image. At this time, when the pixel value difference is equal to or larger than a preset threshold value, the edge map generation unit 101 may determine that an edge exists between neighboring pixels and display the edge map on the edge map, thereby generating an edge map. In this case, when the pixel value difference is not equal to or greater than the threshold value, it is determined that there is no edge between neighboring pixels, and it can be displayed on the edge map. For example, when it is determined that an edge exists, the value of '1' is assigned to the corresponding position of the edge map, and when it is determined that no edge exists, the value of '0' And can be displayed on the edge map. Here, the threshold value can be adjusted at the time of edge generation so that the bit amount of the encoded edge map can be adjusted by adjusting the edge generation amount according to the target bit rate of the input image.

그래프 생성부(102)는 생성된 에지 맵을 통해 화소를 연결하여 그래프를 생성한다. 이때, 그래프 생성부(102)는 에지 맵의 에지에 의해 서로 분리되지 않는 복수의 화소를 연결하여 그래프를 생성할 수 있다. 즉, 그래프 생성부(102)는 그래프를 생성하기 위해 에지 맵을 참조하여 이웃한 두 화소 사이에 에지가 존재할 경우 두 화소를 연결하지 않고, 에지가 존재하지 않을 경우 두 화소를 연결하여 그래프를 생성할 수 있다.The graph generating unit 102 generates a graph by connecting pixels through the generated edge map. At this time, the graph generating unit 102 may generate a graph by connecting a plurality of pixels that are not separated from each other by the edge of the edge map. That is, in order to generate a graph, the graph generating unit 102 refers to the edge map to connect the two pixels when there is an edge between neighboring two pixels, and connects the two pixels when there is no edge, can do.

이때, 일례로 그래프는 아래 수학식 1과 같이 표현될 수 있다.At this time, for example, the graph can be expressed by the following equation (1).

Figure 112010013440951-pat00001
Figure 112010013440951-pat00001

여기서 'G'는 그래프를, 'V'는 영상의 화소를, 'E'는 화소간의 연결을 각각 의미할 수 있다. 이 경우, (i, j) 위치의 화소와 (i´, j´) 위치의 화소가 서로 연결된 경우, 화소간의 연결은 아래 수학식 2와 같이 표현될 수 있다.Here, 'G' may denote a graph, 'V' may denote a pixel of an image, and 'E' may denote a connection between pixels. In this case, when the pixel at the position (i, j) and the pixel at the position (i ', j') are connected to each other, the connection between the pixels can be expressed by the following equation (2).

Figure 112010013440951-pat00002
Figure 112010013440951-pat00002

이때, 연결된 화소간의 방향성은 표시하지 않을 수 있다.At this time, the directionality between connected pixels may not be displayed.

입력된 영상을 미리 설정된 화소 크기의 블록으로 분류하여 부호화하는 경우, 각각의 블록은 해당 그래프에 의해 다수의 영역으로 분할될 수 있다. 즉 서로 연결된 화소들은 하나의 경로를 생성하여 하나의 영역을 이룰 수 있다.When an input image is categorized and coded into blocks of a predetermined pixel size, each block can be divided into a plurality of regions by the corresponding graph. That is, the pixels connected to each other can form one region by creating one path.

예측값 선택부(130)는 생성된 그래프에 기초하여 적어도 하나의 화소에 대한 예측값을 선택한다. 이때, 예측값 선택부(130)는 적어도 하나의 화소가 포함된 블록과 이웃하고, 적어도 하나의 화소와 그래프로 연결된 화소 중 적어도 하나의 화소와 가장 가까운 화소의 화소값을 예측값으로서 선택할 수 있다. The predictive value selection unit 130 selects a predictive value for at least one pixel based on the generated graph. At this time, the predictive value selection unit 130 may select a pixel value of a pixel closest to a block including at least one pixel and closest to at least one pixel among at least one pixel and a graph-connected pixel as a predicted value.

또는 다른 실시예로, 예측값 선택부(130)는 적어도 하나의 화소가 포함된 블록과 이웃하고, 상기 적어도 하나의 화소와 그래프로 연결된 화소의 화소값에 서로 다른 가중치를 부여하고, 상기 서로 다른 가중치가 부여된 화소값간의 연산결과를 상기 예측값으로서 선택할 수 있다.Alternatively, the predictive value selector 130 may assign different weights to the pixel values of neighboring pixels that are adjacent to the block including at least one pixel and are graphically connected to the at least one pixel, Can be selected as the predicted value.

이러한, 예측값 선택에 대해서는 이후 도 3을 통해 더욱 자세히 설명한다.Such prediction value selection will be described later in more detail with reference to FIG.

이때, 가중치는 그래프의 스펙트럴 분포에 기초하여 결정될 수 있다. 이때, 예측값 선택부(130)는 스펙트럴 분포를 이용하기 위해, 그래프의 라플라시안(Laplace) 행렬의 아이겐(Eigen) 벡터를 계산하고, 아이겐 벡터에 기초하여 가중치를 결정할 수 있다. 예를 들어, 그래프로부터 라플라시안 행렬을 계산한 뒤 아이겐 벡터를 계산하면, 스펙트럴 분포를 나타낼 수 있다. 이때, 아이겐 값이 작은 것부터 큰 순서로, 낮은 주파수에서 높은 주파수를 나타내게 된다. 이때, 예측하고자 하는 화소의 화소값을 x로 설정하고, 아래 수학식 3과 같이 표현되는 벡터를 생성한 후, 아래 수학식 4를 통해 예측하고자 하는 화소값 x를 구할 수 있다.At this time, the weights can be determined based on the spectral distribution of the graph. At this time, the predictive value selecting unit 130 may calculate the Eigen vector of the Laplacian matrix of the graph to use the spectral distribution, and determine the weight based on the eigenvector. For example, a laplacian matrix can be calculated from a graph and a eigenvector can be calculated to represent a spectral distribution. At this time, the eigenvalues are expressed in a descending order from a small value to a high frequency in a low frequency. In this case, the pixel value x to be predicted can be obtained by setting the pixel value of the pixel to be predicted to x, generating a vector expressed by the following Equation (3), and then using Equation (4) below.

Figure 112010013440951-pat00003
Figure 112010013440951-pat00003

Figure 112010013440951-pat00004
Figure 112010013440951-pat00004

여기서, 'e'는 아이겐 벡터를, 'a2 a3 ... aN'는 예측하고자 하는 화소가 포함된 블록과 이웃한 화소들의 화소값을 각각 의미할 수 있다. 'T'는 전치(transpose)를, 연산자 '·'는 벡터 내적 연산자를 각각 의미할 수 있다.Here, 'e' may denote a eigenvector, and 'a 2 a 3 ... a N ' may denote a pixel value of a block including neighboring pixels including a pixel to be predicted. 'T' can be a transpose, and the operator '·' can mean a vector inner operator.

또 다른 실시예로, 예측값 선택부(130)는 적어도 하나의 화소가 포함된 블록과 이웃하고 그래프로 연결된 화소들의 화소값들이나 서로 다른 가중치가 부여된 화소값들을 평면 방정식에 대입하여 계산한 평면값을 예측값으로서 선택할 수도 있다.In another embodiment, the predictive value selector 130 may calculate a predictive value of a pixel value of a block including at least one pixel and a pixel value of neighboring, graphically connected pixels or pixel values assigned different weights to a plane equation As a predicted value.

이때, 각각의 영역에 대해 적합한 예측값을 찾기 위해, 블록과 이웃한 화소의 화소값으로는 복호화된 화소들의 화소값이 이용될 수 있다. 이는 이후 설명될 복호화 시스템에서도 동일한 정보를 사용하여 부호화된 화소를 복원하는 것이 가능하도록 하기 위함이다. 이러한 복호화된 블록 주변의 화소의 화소값을 이용하는 방법에 대해서는 이후 더 자세히 설명한다.At this time, the pixel values of the decoded pixels may be used as the pixel values of the block and neighboring pixels in order to find an appropriate predicted value for each area. This is for the purpose of restoring the encoded pixels using the same information in the decoding system to be described later. A method of using the pixel values of the pixels around the decoded block will be described in detail later.

예측 부호화부(104)는 적어도 하나의 화소 및 예측값에 기초하여 적어도 하나의 화소를 예측 부호화한다. 이때, 예측 부호화부(104)는 일례로 적어도 하나의 화소의 화소값과 상기 예측값간의 차이값을 부호화할 수 있다.The predictive encoding unit 104 predictively encodes at least one pixel based on at least one pixel and a predictive value. At this time, the predictive encoding unit 104 may encode the difference value between the pixel value of the at least one pixel and the predictive value.

변환 및 양자화부(105)는 예측 부호화된 화소를 변환 및 양자화한다. 즉, 블록의 예측 부호화된 차이값들은 이산 코사인 변환(Discrete Cosine Transform, DCT)과 같은 변환 및 양자화를 통해 손실 압축될 수 있다.The transform and quantization unit 105 transforms and quantizes the predictively encoded pixels. That is, the predictive-coded difference values of the block can be loss-compressed through transform and quantization such as Discrete Cosine Transform (DCT).

엔트로피 부호화부(106)는 변환 및 양자화된 화소를 엔트로피(entropy) 부호화하여 비트열을 생성한다. 이때, 엔트로피 부호화부(106)는 변환 및 양자화된 화소의 화소값 즉, 변환 및 양자화된 차이값들을 허프만 부호화나 산술 부호화와 같은 엔트로피 부호화를 통해 비트열로 압축할 수 있다.The entropy encoding unit 106 entropy-codes the transformed and quantized pixels to generate a bit stream. At this time, the entropy encoding unit 106 may compress the pixel values of the transformed and quantized pixels, that is, the transformed and quantized difference values, into bit streams through entropy encoding such as Huffman encoding or arithmetic encoding.

복호화부(107)는 변환 및 양자화된 화소를 상기 예측값에 기초하여 복호화한다. 이때, 복원된 이웃 화소들(108)은 위에서 잠시 언급한 복호화된 화소들을 의미할 수 있다. 즉, 예측값 선택부(103)에서 적어도 하나의 화소가 포함된 블록의 이웃 화소들에 대한 화소값은 대응하는 복원된 이웃 화소들의 화소값을 이용할 수 있다. 상술한 바와 같이, 이러한 복원된 이웃 화소들(108)을 예측값 선택에 이용하는 것은 복호화 시스템에서도 동일한 정보를 사용하여 부호화된 화소를 복원하는 것이 가능하도록 하기 위함이다.The decoding unit 107 decodes the converted and quantized pixels based on the predicted values. At this time, the reconstructed neighboring pixels 108 may refer to the decoded pixels mentioned above for a while. That is, the pixel value of the neighboring pixels of the block including at least one pixel in the predictive value selecting unit 103 can use the pixel values of the corresponding restored neighboring pixels. As described above, using the reconstructed neighboring pixels 108 for prediction value selection is intended to enable reconstruction of encoded pixels using the same information in a decoding system.

에지 맵 부호화부(109)는 생성된 에지 맵을 부호화한다. 이때, 에지 맵 부호화부(109)는 에지 맵을 이진 산술 부호화를 통해 압축하여 부호화할 수 있다. 이와 같이, 부호화된 에지 맵은 상술한 비트열인 입력된 영상을 부호화한 비트열에 포함될 수 있다. The edge map encoding unit 109 encodes the generated edge map. At this time, the edge map encoding unit 109 can compress the edge map by binary arithmetic coding and encode the edge map. In this way, the encoded edge map can be included in the bit string obtained by coding the inputted image, which is the bit stream described above.

도 2는 본 발명의 일실시예에 있어서, 복호화부의 내부 구성을 설명하기 위한 블록도이다. 도 2에 도시된 바와 같이, 복호화부(107)는 역변환 및 역양자화부(201) 및 예측 보상부(202)를 포함할 수 있다.2 is a block diagram for explaining an internal configuration of a decoding unit in an embodiment of the present invention. 2, the decoding unit 107 may include an inverse transform and inverse quantization unit 201 and a prediction compensation unit 202. [

역변환 및 역양자화부(201)는 변환 및 양자화부(105)를 통해 변환 및 양자화된 값들을 역변환 및 역양자화할 수 있다.The inverse transform and inverse quantization unit 201 may inversely transform and dequantize the transformed and quantized values through the transform and quantization unit 105. [

또한, 예측 보상부(202)는 역변환 및 역양자화된 값에 예측값 선택부(103)에서 선택된 예측값을 적용하여 화소들을 복원할 수 있다. 화소들을 다시 복원하는 이유는 예측값 선택부(103)에서 복원된 화소의 화소값을 이용하여 예측값을 선택함으로써, 복호화 시스템에서도 동일한 정보를 사용하여 부호화된 화소를 복원하는 것이 가능하도록 하기 위함이다.In addition, the prediction compensator 202 may restore the pixels by applying the predictive value selected by the predictive value selector 103 to the inverse-transformed and inverse-quantized values. The reason for reconstructing the pixels again is that the predicted value is selected using the pixel value of the reconstructed pixel in the predicted value selection unit 103 so that the reconstructed pixel can be reconstructed using the same information in the decoding system.

도 3은 본 발명의 일실시예에 있어서, 영상의 화소를 표현한 일례이다. 그림(300)은 복수의 화소를 나타낸 것으로, 대문자 및 소문자 알파벳들은 각각의 화소를 의미할 수 있다. 도 3의 일례에서는 알파벳 a부터 p까지의 화소들이 4x4 화소 크기의 하나의 블록을 구성하고 있다. 그림(300)에서 굵은 선은 화소들이 에지에 의해 두 개의 영역으로 나뉘어진 모습을 나타낸다. 즉, 에지에 의해 화소 a, b, c, d, e, f, g, i와 화소 h, j, k, l, m, n, o, p가 서로 분리되었다. 이때, 화소 h, j, k, l, m, n, o, p 각각에 대한 예측값으로 해당 블록과 이웃하고, 해당 화소와 그래프로 연결된 화소 중 가장 가까운 화소인 화소 L의 화소값이 선택될 수 있다. 또한, 화소 a, b, c, d, e, f, g, I 각각에 대한 예측값으로는 해당 블록과 이웃하고, 해당 화소와 그래프로 연결된 화소 중 가장 가까운 화소의 화소값이 각각 선택될 수 있다. 예를 들어, 화소 b에 대한 예측값으로는 화소 B의 화소값이, 화소 c, g에 대한 예측값으로는 화소 C의 화소값이 각각 이용될 수 있다. 화소 a, f와 같이 가장 가까운 화소가 복수개인 경우에는 특정 방향에 존재하는 화소에 우선순위를 부여할 수 있다. 도 3의 일례에서는 상단에 위치한 화소의 화소값을 예측값으로 선택하였다. 이때, 선택된 화소의 화소값을 직접 예측값으로 이용할 수도 있으나 도 1을 통해 설명한 바와 같이, 복수의 화소와 연결되는 경우, 그 화소들의 화소값에 서로 다른 가중치를 부여한 후 그 합과 같은 연산의 연산결과를 예측값으로 이용할 수도 있다. 예를 들어 4x4 블럭내 화소 a,b,c,d,e,f,g,i는 그래프의 한 경로에 포함되어 있고, 블록과 이웃한 화소 A, B, C, D, I, J, K 와 연결되어 있다. 이때, 화소 A, B, C, D, I, J, K에 대해 각각 가중치를 구하고, 각각에 대해 구해진 가중치가 w_A, w_B, w_C, w_D, w_I, w_J, w_K라고 하면, 이때, 화소 a의 예측값은, 아래 수학식 5와 같이 계산될 수 있다.FIG. 3 is an example of pixels of an image according to an embodiment of the present invention. The figure 300 shows a plurality of pixels, and upper and lower case alphabets may refer to respective pixels. In the example of FIG. 3, the pixels of the alphabets a to p constitute one block of 4x4 pixel size. The bold line in figure (300) shows that the pixels are divided into two areas by edges. That is, the pixels a, b, c, d, e, f, g and i and the pixels h, j, k, l, m, n, o and p are separated from each other by the edge. At this time, the pixel value of the pixel L, which is the closest pixel among the pixels neighboring the corresponding block and connected by the graph, is selected as the prediction value for each of the pixels h, j, k, l, m, have. The pixel values of the closest pixels neighboring the corresponding block and connected to the graph by the predicted values of the pixels a, b, c, d, e, f, . For example, a pixel value of the pixel B may be used as a predicted value for the pixel b, and a pixel value of the pixel C may be used as a predicted value for the pixel c and g. When there are a plurality of closest pixels such as pixels a and f, priority can be given to pixels existing in a specific direction. In the example of FIG. 3, the pixel value of the uppermost pixel is selected as the predicted value. In this case, the pixel value of the selected pixel may be directly used as the predicted value. However, as described with reference to FIG. 1, if the pixel value of the selected pixel is connected to a plurality of pixels, different weights are given to the pixel values of the pixels, May be used as a predicted value. For example, pixels a, b, c, d, e, f, g and i in the 4x4 block are included in one path of the graph, and pixels A, B, C, D, . In this case, weights are obtained for the pixels A, B, C, D, I, J, and K and the weights w_A, w_B, w_C, w_D, w_I, w_J, The predicted value can be calculated as shown in Equation (5) below.

Figure 112010013440951-pat00005
Figure 112010013440951-pat00005

여기서, 'a_pred'는 화소 a의 예측값을 의미할 수 있다.Here, 'a_pred' may mean the predicted value of the pixel a.

도 4는 본 발명의 일실시예에 있어서, 부호화 방법을 도시한 흐름도이다. 본 실시예에 따른 부호화 방법은 도 1을 통해 설명한 부호화 시스템에 의해 수행될 수 있다. 도 4에서는 상기 부호화 시스템에 의해 각각의 단계가 수행되는 과정을 설명함으로써, 부호화 방법을 설명한다.4 is a flowchart illustrating an encoding method according to an embodiment of the present invention. The encoding method according to the present embodiment can be performed by the encoding system described with reference to FIG. In FIG. 4, a description will be given of a coding method by explaining a process of performing each step by the coding system.

단계(410)에서 부호화 시스템은 입력된 영상에서 서로 이웃한 화소간의 화소값 차이에 기초하여 에지 맵을 생성한다. 이때, 부호화 시스템은 화소값 차이가 미리 설정된 문턱치 이상인 경우, 서로 이웃한 화소간에 에지가 존재하는 것으로 판단하여 에지 맵에 표시함으로써, 에지 맵을 생성할 수 있다. 이 경우, 화소값 차이가 문턱치 이상이 아닌 경우에는 서로 이웃한 화소간에 에지가 존재하지 않는 것으로 판단하여 에지 맵에 표시할 수 있다. 예를 들어, 에지가 존재하는 것으로 판단된 경우에는 에지 맵의 해당 위치에 '1'의 값을, 에지가 존재하지 않는 것으로 판단된 경우에는 에지 맵의 해당 위치에 '0'의 값을 각각 부여하여 에지 맵에 표시할 수 있다. 여기서, 문턱치는 입력된 영상의 원하는 비트량(target bitrate)에 따라 에지 생성량을 조정하여 부호화된 에지 맵의 비트량을 조정할 수 있도록, 에지 생성시에 조절될 수 있다.In step 410, the encoding system generates an edge map based on pixel value differences between neighboring pixels in the input image. At this time, if the pixel value difference is equal to or greater than a predetermined threshold value, the encoding system determines that an edge exists between neighboring pixels and displays the edge map on the edge map, thereby generating an edge map. In this case, when the pixel value difference is not equal to or greater than the threshold value, it is determined that there is no edge between neighboring pixels, and it can be displayed on the edge map. For example, when it is determined that an edge exists, the value of '1' is assigned to the corresponding position of the edge map, and when it is determined that no edge exists, the value of '0' And can be displayed on the edge map. Here, the threshold value can be adjusted at the time of edge generation so that the bit amount of the encoded edge map can be adjusted by adjusting the edge generation amount according to the target bit rate of the input image.

단계(420)에서 부호화 시스템은 생성된 에지 맵을 통해 화소를 연결하여 그래프를 생성한다. 이때, 부호화 시스템은 에지 맵의 에지에 의해 서로 분리되지 않는 복수의 화소를 연결하여 그래프를 생성할 수 있다. 즉, 부호화 시스템은 그래프를 생성하기 위해 에지 맵을 참조하여 이웃한 두 화소 사이에 에지가 존재할 경우 두 화소를 연결하지 않고, 에지가 존재하지 않을 경우 두 화소를 연결하여 그래프를 생성할 수 있다.In operation 420, the encoding system generates a graph by connecting pixels through the generated edge map. At this time, the encoding system can generate a graph by connecting a plurality of pixels that are not separated from each other by the edge of the edge map. That is, in order to generate the graph, the encoding system can generate the graph by connecting the two pixels when there is an edge between neighboring two pixels by referring to the edge map, and by connecting the two pixels when there is no edge.

이때, 일례로 그래프는 상술한 수학식 1과 같이 표현될 수 있다.At this time, for example, the graph can be expressed as Equation (1).

입력된 영상을 미리 설정된 화소 크기의 블록으로 분류하여 부호화하는 경우, 각각의 블록은 해당 그래프에 의해 다수의 영역으로 분할될 수 있다. 즉 서로 연결된 화소들은 하나의 경로를 생성하여 하나의 영역을 이룰 수 있다.When an input image is categorized and coded into blocks of a predetermined pixel size, each block can be divided into a plurality of regions by the corresponding graph. That is, the pixels connected to each other can form one region by creating one path.

단계(430)에서 부호화 시스템은 생성된 그래프에 기초하여 적어도 하나의 화소에 대한 예측값을 선택한다. 이때, 부호화 시스템은 적어도 하나의 화소가 포함된 블록과 이웃하고, 적어도 하나의 화소와 그래프로 연결된 화소 중 적어도 하나의 화소와 가장 가까운 화소의 화소값을 예측값으로서 선택할 수 있다. In step 430, the encoding system selects a predicted value for at least one pixel based on the generated graph. At this time, the encoding system can select a pixel value of a pixel closest to a block including at least one pixel and adjacent to at least one pixel among at least one pixel and a graph-connected pixel as a predicted value.

또는 다른 실시예로, 부호화 시스템은 적어도 하나의 화소가 포함된 블록과 이웃하고, 상기 적어도 하나의 화소와 그래프로 연결된 화소의 화소값에 서로 다른 가중치를 부여하고, 상기 서로 다른 가중치가 부여된 화소값간의 연산결과를 상기 예측값으로서 선택할 수 있다. Alternatively, the encoding system may assign different weights to the pixel values of neighboring pixels that are adjacent to the block including at least one pixel and are graphically connected to the at least one pixel, The calculation result between the values can be selected as the predicted value.

이때, 가중치는 그래프의 스펙트럴 분포에 기초하여 결정될 수 있다. 이때, 부호화 시스템은 스펙트럴 분포를 이용하기 위해, 그래프의 라플라시안 행렬의 아이겐 벡터를 계산하고, 아이겐 벡터에 기초하여 가중치를 결정할 수 있다. 예를 들어, 그래프로부터 라플라시안 행렬을 계산한 뒤 아이겐 벡터를 계산하면, 스펙트럴 분포를 나타낼 수 있다. 이때, 아이겐 값이 작은 것부터 큰 순서로, 낮은 주파수에서 높은 주파수를 나타내게 된다. 이때, 예측하고자 하는 화소의 화소값을 x로 설정하고, 상술한 수학식 3과 같이 표현되는 벡터를 생성한 후, 아래 수학식 4를 통해 예측하고자 하는 화소값 x를 구할 수 있다.At this time, the weights can be determined based on the spectral distribution of the graph. At this time, in order to use the spectral distribution, the encoding system can calculate the eigenvectors of the Laplacian matrix of the graph and determine the weights based on the eigenvectors. For example, a laplacian matrix can be calculated from a graph and a eigenvector can be calculated to represent a spectral distribution. At this time, the eigenvalues are expressed in a descending order from a small value to a high frequency in a low frequency. At this time, the pixel value x to be predicted can be obtained by setting the pixel value of the pixel to be predicted to x, generating the vector expressed by the above-described Equation 3, and then using Equation 4 below.

또 다른 실시예로, 부호화 시스템은 적어도 하나의 화소가 포함된 블록과 이웃하고 그래프로 연결된 화소들의 화소값들이나 서로 다른 가중치가 부여된 화소값들을 평면 방정식에 대입하여 계산한 평면값을 예측값으로서 선택할 수도 있다.In yet another embodiment, the encoding system may select a plane value calculated by substituting pixel values of neighboring, graphically connected pixels or pixel values assigned different weights into a plane equation with a block including at least one pixel as a predicted value It is possible.

이때, 각각의 영역에 대해 적합한 예측값을 찾기 위해, 블록과 이웃한 화소의 화소값으로는 복호화된 화소들의 화소값이 이용될 수 있다. 이는 이후 설명될 복호화 시스템에서도 동일한 정보를 사용하여 부호화된 화소를 복원하는 것이 가능하도록 하기 위함이다. 이러한 복호화된 블록 주변의 화소의 화소값을 이용하는 방법에 대해서는 이후 더 자세히 설명한다.At this time, the pixel values of the decoded pixels may be used as the pixel values of the block and neighboring pixels in order to find an appropriate predicted value for each area. This is for the purpose of restoring the encoded pixels using the same information in the decoding system to be described later. A method of using the pixel values of the pixels around the decoded block will be described in detail later.

단계(440)에서 부호화 시스템은 적어도 하나의 화소 및 예측값에 기초하여 적어도 하나의 화소를 예측 부호화한다. 이때, 부호화 시스템은 일례로 적어도 하나의 화소의 화소값과 상기 예측값간의 차이값을 부호화할 수 있다.In step 440, the encoding system predictively encodes at least one pixel based on the at least one pixel and the predicted value. At this time, the encoding system can encode the difference value between the pixel value of the at least one pixel and the predicted value, for example.

단계(450)에서 부호화 시스템은 예측 부호화된 화소를 변환 및 양자화한다. 즉, 블록의 예측 부호화된 차이값들은 이산 코사인 변환과 같은 변환 및 양자화를 통해 손실 압축될 수 있다.In step 450, the encoding system transforms and quantizes the predictively encoded pixels. That is, the predictive-coded difference values of the block can be loss-compressed through conversion and quantization such as discrete cosine transform.

단계(460)에서 부호화 시스템은 변환 및 양자화된 화소를 엔트로피 부호화하여 비트열을 생성한다. 이때, 부호화 시스템은 변환 및 양자화된 화소의 화소값 즉, 변환 및 양자화된 차이값들을 허프만 부호화나 산술 부호화와 같은 엔트로피 부호화를 통해 비트열로 압축할 수 있다.In step 460, the encoding system entropy-codes the transformed and quantized pixels to generate a bit stream. At this time, the encoding system can compress the pixel values of the transformed and quantized pixels, that is, the transformed and quantized difference values, into a bit stream through entropy encoding such as Huffman encoding or arithmetic encoding.

단계(470)에서 부호화 시스템은 생성된 에지 맵을 부호화한다. 이때, 부호화 시스템은 에지 맵을 이진 산술 부호화를 통해 압축하여 부호화할 수 있다. 이와 같이, 부호화된 에지 맵은 상술한 비트열인 입력된 영상을 부호화한 비트열에 포함될 수 있다. In step 470, the encoding system encodes the generated edge map. At this time, the encoding system can encode the edge map by compressing the edge map through binary arithmetic coding. In this way, the encoded edge map can be included in the bit string obtained by coding the inputted image, which is the bit stream described above.

부호화 시스템은 또한, 변환 및 양자화된 화소를 상기 예측값에 기초하여 복호화할 수 있다. 즉, 단계(430)에서 적어도 하나의 화소가 포함된 블록의 이웃 화소들에 대한 화소값은 대응하는 복호화된 이웃 화소들의 화소값을 이용할 수 있다. 상술한 바와 같이, 이러한 복호화된 이웃 화소들을 예측값 선택에 이용하는 것은 복호화 방법에서도 동일한 정보를 사용하여 부호화된 화소를 복원하는 것이 가능하도록 하기 위함이다.The encoding system may also decode the transformed and quantized pixels based on the predicted values. That is, in step 430, pixel values of neighboring pixels of a block including at least one pixel may use pixel values of corresponding decoded neighboring pixels. As described above, the use of such decoded neighboring pixels for prediction value selection is intended to enable the decoding method to recover the encoded pixels using the same information.

도 5는 본 발명의 일실시예에 있어서, 복호화 시스템의 내부 구성을 설명하기 위한 블록도이다. 본 실시예에 따른 복호화 시스템은 도 5에 도시된 바와 같이 에지 맵 복호화부(501), 그래프 생성부(502), 예측값 선택부(503), 엔트로피 복호화부(504), 역변환 및 역양자화부(505), 예측 보상부(507)를 포함할 수 있다.5 is a block diagram for explaining an internal configuration of a decoding system according to an embodiment of the present invention. 5, the decoding system according to the present embodiment includes an edge map decoding unit 501, a graph generating unit 502, a predicted value selecting unit 503, an entropy decoding unit 504, an inverse transforming and inverse quantizing unit 505, and a prediction compensation unit 507. [

에지 맵 복호화부(501)는 입력된 비트열에서 에지 맵을 복호화한다. 이때, 에지 맵 복호화부(501)는 이진 산술 복호화를 통해 입력된 비트열으로부터 에지 맵을 복호화할 수 있다.The edge map decoding unit 501 decodes the edge map in the inputted bit stream. At this time, the edge map decoding unit 501 can decode the edge map from the input bit stream through the binary arithmetic decoding.

그래프 생성부(502)는 복호화된 에지 맵을 통해 화소를 연결하여 그래프를 생성한다. 이때, 그래프 생성부(502)는 에지 맵의 에지에 의해 서로 분리되지 않는 복수의 화소를 연결하여 그래프를 생성할 수 있다. 즉, 그래프를 생성하는 방법은 도 1 및 도 4를 통해 설명한 방법과 동일하다.The graph generating unit 502 generates a graph by connecting pixels through the decoded edge map. At this time, the graph generating unit 502 may generate a graph by connecting a plurality of pixels that are not separated from each other by the edge of the edge map. That is, the method of generating the graph is the same as the method described with reference to FIG. 1 and FIG.

예측값 선택부(503)는 생성된 그래프에 기초하여 적어도 하나의 화소에 대한 예측값을 선택한다. 이때, 상기 입력된 비트열에 해당하는 영상은 미리 설정된 화소 크기의 블록으로 분류될 수 있고, 예측값 선택부(503)는 적어도 하나의 화소가 포함된 블록과 이웃하고, 상기 적어도 하나의 화소와 상기 그래프로 연결된 화소 중 상기 적어도 하나의 화소와 가장 가까운 화소의 화소값을 상기 예측값으로 선택하거나 또는 상기 적어도 하나의 화소가 포함된 블록과 이웃하고, 상기 적어도 하나의 화소와 상기 그래프로 연결된 화소의 화소값에 서로 다른 가중치를 부여하고, 상기 서로 다른 가중치가 부여된 화소값간의 연산결과를 상기 예측값으로서 선택할 수 있다. 즉, 예측값을 선택하는 방법 또한, 도 1 및 도 4를 통해 설명한 방법과 동일하다.The predictive value selection unit 503 selects a predictive value for at least one pixel based on the generated graph. In this case, the image corresponding to the inputted bit stream can be classified into blocks of a predetermined pixel size, the predictive value selector 503 is adjacent to a block including at least one pixel, and the at least one pixel and the graph A pixel value of a pixel closest to the at least one pixel is selected as the predicted value or a block neighboring a block including the at least one pixel, And the calculation result between the pixel values to which different weights are assigned can be selected as the predicted value. That is, the method of selecting the predicted value is also the same as the method described with reference to FIG. 1 and FIG.

엔트로피 복호화부(504)는 입력된 비트열을 엔트로피 복호화하여 화소를 복호화하고, 역변환 및 역양자화부(505)는 엔트로피 복호화된 화소를 역변환 및 역양자화한다. 즉, 복호화 시스템은 도 1 및 도 4에서 엔트로피 부호화, 변환 및 역양자화를 통해 생성된 비트열을 엔트로피 복호화, 역변환 및 역양자화를 통해 다시 원래의 값으로 복호화할 수 있다.The entropy decoding unit 504 entropy-decodes the input bitstream to decode pixels, and the inverse-transform and inverse-quantization unit 505 inversely transforms and dequantizes entropy-decoded pixels. That is, the decoding system can decode the bit stream generated through the entropy encoding, the transform and the inverse quantization in FIG. 1 and FIG. 4 into the original value through entropy decoding, inverse transform and inverse quantization.

이때, 예측값 선택부(503)는 상기 역변환 및 역양자화된 화소 중 상기 적어도 하나의 화소가 포함된 블록과 이웃한 화소 및 상기 그래프에 기초하여 상기 적어도 하나의 화소에 대한 예측값을 선택할 수 있다. 다시 말해, 상술한 블록과 이웃한 화소로서, 역변환 및 역양자화된 화소들 중 해당하는 화소들이 이용될 수 있다. 여기서, 도 5에 도시된 복원된 이웃 화소들(506)이 상기 역변환 및 역양자화된 화소 중 상기 적어도 하나의 화소가 포함된 블록과 이웃한 화소를 의미할 수 있다.At this time, the predictive value selecting unit 503 may select a predictive value for the at least one pixel based on the pixels neighboring the block including the at least one pixel among the inversely transformed and inverse-quantized pixels and the graph. In other words, corresponding pixels among the inversely transformed and dequantized pixels may be used as neighboring pixels of the above-described block. Here, the reconstructed neighboring pixels 506 shown in FIG. 5 may refer to a pixel neighboring a block including the at least one pixel among the inversely-transformed and inverse-quantized pixels.

예측 보상부(507)는 예측값 및 입력된 비트열의 화소 정보에 기초하여 적어도 하나의 화소를 복원한다. 즉, 비트열의 화소 정보는 원래의 화소값과 예측값간의 차이값을 포함하는 값으로, 예측 보상부(507)는 차이값에 예측값을 더함으로써, 적어도 하나의 화소를 복원할 수 있다.The prediction compensating unit 507 restores at least one pixel based on the predictive value and the pixel information of the input bit stream. That is, the pixel information of the bit string includes a difference value between the original pixel value and the predicted value, and the predictive compensation unit 507 can restore at least one pixel by adding a predictive value to the difference value.

도 6은 본 발명의 일실시예에 있어서, 복호화 방법을 도시한 흐름도이다. 본 실시예에 따른 복호화 방법은 도 5를 통해 설명한 복호화 시스템에 의해 수행될 수 있다. 도 6에서는 복호화 시스템에 의해 각각의 단계가 수행되는 과정을 설명함으로써 복호화 방법을 설명한다.6 is a flowchart showing a decoding method in an embodiment of the present invention. The decoding method according to the present embodiment can be performed by the decoding system described with reference to FIG. FIG. 6 illustrates a decoding method by explaining a process of performing each step by the decoding system.

단계(610)에서 복호화 시스템은 입력된 비트열을 엔트로피 복호화하여 화소를 복호화한다.In step 610, the decoding system entropy-decodes the input bit stream to decode the pixel.

단계(620)에서 복호화 시스템은 입력된 비트열에서 에지 맵을 복호화화한다. 이때, 복호화 시스템은 이진 산술 복호화를 통해 상기 입력된 비트열으로부터 상기 에지 맵을 복호화할 수 있다.In step 620, the decoding system decodes the edge map in the input bitstream. At this time, the decoding system can decode the edge map from the input bitstream through binary arithmetic decoding.

단계(630)에서 복호화 시스템은 엔트로피 복호화된 화소를 역변환 및 역양자화한다. 즉, 복호화 시스템은 단계(610) 및 단계(630)를 통해 도 1 및 도 4에서 엔트로피 부호화, 변환 및 역양자화를 통해 생성된 비트열을 엔트로피 복호화, 역변환 및 역양자화를 통해 다시 원래의 값으로 복호화할 수 있다.In operation 630, the decoding system inversely transforms and dequantizes entropy-decoded pixels. That is, the decoding system reconstructs the bitstream generated through the entropy encoding, the transform, and the inverse quantization in FIGS. 1 and 4 through the steps 610 and 630 to the original value through entropy decoding, inverse transform, and inverse quantization It can be decoded.

단계(640)에서 복호화 시스템은 복호화된 에지 맵을 통해 화소를 연결하여 그래프를 생성한다. 이때, 복호화 시스템은 에지 맵의 에지에 의해 서로 분리되지 않는 복수의 화소를 연결하여 그래프를 생성할 수 있다. 즉, 그래프를 생성하는 방법은 도 1 및 도 4를 통해 설명한 방법과 동일하다.In step 640, the decoding system generates a graph by connecting the pixels through the decoded edge map. At this time, the decoding system can generate a graph by connecting a plurality of pixels which are not separated from each other by the edge of the edge map. That is, the method of generating the graph is the same as the method described with reference to FIG. 1 and FIG.

단계(650)에서 복호화 시스템은 생성된 그래프에 기초하여 적어도 하나의 화소에 대한 예측값을 선택한다. 이때, 상기 입력된 비트열에 해당하는 영상은 미리 설정된 화소 크기의 블록으로 분류될 수 있고, 복호화 시스템은 적어도 하나의 화소가 포함된 블록과 이웃하고, 상기 적어도 하나의 화소와 상기 그래프로 연결된 화소 중 상기 적어도 하나의 화소와 가장 가까운 화소의 화소값을 상기 예측값으로 선택하거나 또는 상기 적어도 하나의 화소가 포함된 블록과 이웃하고, 상기 적어도 하나의 화소와 상기 그래프로 연결된 화소의 화소값에 서로 다른 가중치를 부여하고, 상기 서로 다른 가중치가 부여된 화소값간의 연산결과를 상기 예측값으로서 선택할 수 있다. 즉, 예측값을 선택하는 방법 또한, 도 1 및 도 4를 통해 설명한 방법과 동일하다.At step 650, the decoding system selects a prediction value for at least one pixel based on the generated graph. In this case, the image corresponding to the input bit stream may be classified into blocks of a predetermined pixel size, the decoding system may be adjacent to a block including at least one pixel, and the pixels connected to the at least one pixel A pixel value of a pixel closest to the at least one pixel is selected as the predicted value or a pixel value of a pixel neighboring a block including the at least one pixel and connected to the graph is weighted with different weights And the calculation result between the pixel values to which different weights are assigned can be selected as the predicted value. That is, the method of selecting the predicted value is also the same as the method described with reference to FIG. 1 and FIG.

또한, 복호화 시스템은 상기 역변환 및 역양자화된 화소 중 상기 적어도 하나의 화소가 포함된 블록과 이웃한 화소 및 상기 그래프에 기초하여 상기 적어도 하나의 화소에 대한 예측값을 선택할 수 있다. 즉, 상술한 블록과 이웃한 화소로서, 상기 역변환 및 역양자화된 화소들 중 대응되는 화소들이 이용될 수 있다.The decoding system may also select a prediction value for the at least one pixel based on the neighboring pixels and the graph including the at least one pixel of the inversely transformed and dequantized pixels. That is, corresponding pixels among the inversely transformed and dequantized pixels may be used as neighboring pixels of the above-described block.

단계(650)에서 복호화 시스템은 예측값 및 상기 입력된 비트열의 화소 정보에 기초하여 상기 적어도 하나의 화소를 복원한다. 즉, 비트열의 화소 정보는 원래의 화소값과 예측값간의 차이값을 포함하는 값으로, 복호화 시스템은 차이값에 예측값을 더함으로써, 적어도 하나의 화소를 복원할 수 있다.In step 650, the decoding system restores the at least one pixel based on the predicted value and the pixel information of the input bit stream. That is, the pixel information of the bit stream is a value including the difference value between the original pixel value and the predicted value, and the decoding system can restore at least one pixel by adding the predicted value to the difference value.

도 5 및 도 6에서 생략된 설명은 도 1 내지 도 4의 설명을 참고할 수 있다.The description omitted in FIGS. 5 and 6 can be referred to the description of FIG. 1 to FIG.

이후에서는 3차원 영상을 부호화하기 위해 깊이 맵을 사용하여 영상을 합성하는 방법에 대해 설명한다. 이 경우에도 본 발명의 실시예들에 따른 부호화/복호화 시스템 및 방법들이 깊이 맵을 압축하는데 효과적으로 이용될 수 있다. 이때, 그래프 기반 예측 방법과 기존의 다른 예측 방법(예를들어 H.264에서 사용되고 있는 4x4 공간 예측 방법, 16x16 공간 예측 방법, 또는 다양한 시간상 예측 방법)을 사용할 경우에 최적의 예측 방법을 결정하여 사용할 필요가 있다. 최적의 예측 방법을 결정하기 위해서는 그 방법을 사용할 경우에 발생하는 비트량과 그로 인해 발생하는 왜곡을 고려하여 율 왜곡 비용을 계산하여 가장 적은 비용을 갖는 예측 방법을 선택하여 사용할 수 있다. 이 비용을 계산하기 위하여 아래 수학식 6과 같이 표현될 수 있는 라그랑지(Lagrange) 최적화 방법이 이용될 수 있다.Hereinafter, a method of synthesizing an image using a depth map to encode a three-dimensional image will be described. In this case, the encoding / decoding system and methods according to the embodiments of the present invention can be effectively used for compressing the depth map. In this case, when the graph-based prediction method and other conventional prediction methods (eg, 4 × 4 spatial prediction method, 16 × 16 spatial prediction method, or various temporal prediction methods used in H.264) are used, an optimal prediction method is determined and used There is a need. In order to determine an optimal prediction method, a prediction method having the least cost can be selected by calculating the rate distortion cost considering the amount of bits generated and distortion caused thereby. To calculate this cost, a Lagrange optimization method, which can be expressed as Equation (6) below, can be used.

Figure 112010013440951-pat00006
Figure 112010013440951-pat00006

여기서, 'D'는 왜곡값을, 'R'은 비트율을, 'λ'는 라그란지안(Lagrangian) 계수를 각각 의미할 수 있다. 이때, 본 발명의 실시예들에서는 왜곡값을 계산하기 위하여 깊이 맵을 손실 부호화하여 발생하는 왜곡값을 바로 사용하지 않고 그 왜곡값이 합성된 영상에 미치는 영향을 예측하여 그 예측 값을 사용할 수 있다. 이는, 깊이 맵이 3차원 영상에 응용될 때에 깊이 맵 자체가 사용자에게 나타나지 않고, 다만 영상을 합성하는 데만 사용되기 때문이다. 그러므로 사용자에게 나타나는 합성된 영상에 발생하는 왜곡값을 사용하여 최적화를 수행하는 것이 바람직하다. 그러나, 최적화 수행을 위해서 각각의 예측 방법에 대해 영상을 합성하여 왜곡의 값을 계산하는 것은 너무 많은 복잡도를 요구하여 실질적으로 응용하는데 한계가 있다. 그러므로, 깊이 맵에서 발생한 왜곡을 사용하여 합성된 영상에 발생하는 왜곡을 예측함으로써 그 예측 값을 가지고 보다 정확한 최적화를 수행할 수 있다.Here, 'D' may denote a distortion value, 'R' may denote a bit rate, and 'λ' may denote a Lagrangian coefficient. At this time, in the embodiments of the present invention, in order to calculate the distortion value, the distortion value generated by the loss-coding of the depth map is not directly used but the influence of the distortion value on the synthesized image is predicted, . This is because the depth map itself is not displayed to the user when the depth map is applied to a three-dimensional image, but is used only to synthesize an image. Therefore, it is desirable to perform the optimization using the distortion value generated in the synthesized image appearing to the user. However, in order to perform the optimization, calculating the distortion value by synthesizing the images for each prediction method requires too much complexity and is practically limited. Therefore, it is possible to perform more accurate optimization with the predicted value by predicting the distortion occurring in the synthesized image using the distortion generated in the depth map.

이때, 깊이 맵과 그에 따른 영상을 부호화할 때에 현재 부호화하고자 하는 깊이 맵의 화소 위치와 같은 위치에 있는 영상의 화소 값과, 그 위치에서 깊이 맵 화소 값에 발생한 왜곡 값에 가중치를 곱하여 생성한 변위만큼 이동한 위치의 화소의 화소값의 차이를 사용하여 합성된 영상에서 발생하는 왜곡 값을 예측할 수 있다. 이 경우, 변위를 계산하기 위해 사용되는 가중치 값은 3차원 영상을 생성하기 위해 사용되는 카메라의 초점 거리와 같은 내부 계수와 카메라 위치 및 각도를 나타내는 외부 계수, 그리고 취득되는 영상이 갖는 최대 깊이 및 최소 깊이 등의 정보를 통해 계산될 수 있다.At this time, when coding the depth map and the corresponding image, the displacement value generated by multiplying the pixel value of the image at the same position as the pixel position of the depth map to be coded and the distortion value generated in the depth map pixel value at that position The distortion value generated in the synthesized image can be predicted using the difference between the pixel values of the pixels at the shifted positions. In this case, the weight value used for calculating the displacement includes an internal coefficient such as a focal distance of the camera used to generate the three-dimensional image, an external coefficient indicating the camera position and angle, and a maximum depth and a minimum Depth, and so on.

또한, 깊이 맵을 압축하기 위하여 그래프 기반 예측 방법과 다른 예측 방법들 중 하나를 선택하여 사용할 경우에 합성된 영상에서 발생하는 왜곡값을 예측한 값을 통해 최적의 예측 방법을 결정할 수 있다. 즉, 라그랑지 최적화 방법에 따라 각 예측 방법에 대해 율 왜곡 비용을 계산할 때에 예측된 왜곡값을 사용하여 율 왜곡 비용을 계산하고, 그 중에서 가장 적은 율 왜곡 비용을 갖는 예측 방법을 최적의 예측 방법으로 선택하여 사용할 수 있다.In addition, when one of the prediction methods other than the graph-based prediction method is used to compress the depth map, the optimum prediction method can be determined based on the predicted value of the distortion value generated in the synthesized image. That is, the rate distortion cost is calculated using the estimated distortion value when calculating the rate distortion cost for each prediction method according to the Lagrangian optimization method, and the prediction method having the least rate distortion cost is calculated as the optimal prediction method You can choose to use it.

도 7은 본 발명의 일실시예에 있어서, 깊이 맵 부호화 시스템의 내부 구성을 설명하기 위한 블록도이다. 본 실시예에 따른 깊이 맵 부호화 시스템은 도 7에 도시된 바와 같이, 화질 예측부(701), 부호화 모드 선택부(702), 그래프 기반 예측부(703), 공간 예측부(704), 시간 예측부(705), 예측 부호화부(706), 변환 및 양자화부(707) 및 엔트로피 부호화부(708)를 포함할 수 있다.7 is a block diagram for explaining an internal configuration of a depth map encoding system according to an embodiment of the present invention. 7, the depth map encoding system according to the present embodiment includes an image quality predicting unit 701, an encoding mode selecting unit 702, a graph-based predicting unit 703, a spatial predicting unit 704, A prediction unit 705, a predictive encoding unit 706, a transform and quantization unit 707, and an entropy encoding unit 708.

화질 예측부(701)는 깊이 맵 및 참조 영상에 기초하여 상기 깊이 맵을 통해 합성될 영상의 화질을 예측한다. 이때, 화질 예측부(701)는 깊이 맵의 화소 위치와 같은 위치에 있는 상기 참조 영상의 제1 화소값과, 상기 위치에서 상기 깊이 맵의 화소값에 발생한 왜곡값에 가중치를 부여하여 생성한 변위만큼 이동한 위치의 제2 화소값간의 차이를 사용하여 상기 합성될 영상에서 발생하는 왜곡값을 계산할 수 있다.The picture quality predicting unit 701 predicts the picture quality of the picture to be synthesized through the depth map based on the depth map and the reference picture. At this time, the picture quality predicting unit 701 assigns a weight to the first pixel value of the reference picture at the same position as the pixel position of the depth map and the distortion value generated in the pixel value of the depth map at the position, The distortion value generated in the synthesized image can be calculated using the difference between the second pixel values of the positions shifted as much as possible.

이때, 가중치는 상술한 바와 같이 3차원 영상을 생성하기 위해 사용되는 카메라의 초점 거리와 같은 내부 계수와 카메라 위치 및 각도를 나타내는 외부 계수, 그리고 취득되는 영상이 갖는 최대 깊이 및 최소 깊이 등의 정보를 통해 계산될 수 있다.In this case, as described above, the weights include information such as an internal coefficient such as a focal length of a camera used for generating a three-dimensional image, an external coefficient indicating a camera position and an angle, and a maximum depth and a minimum depth of the acquired image Lt; / RTI >

부호화 모드 선택부(702)는 예측된 화질에 기초하여 부호화 모드를 선택한다. 이때, 부호화 모드 선택부(702)는 왜곡값에 기초하여 율 왜곡(rate-distortion) 비용을 계산하여 상기 계산된 율 왜곡 비용이 최소의 값을 갖는 부호화 모드를 선택할 수 있다.The encoding mode selection unit 702 selects an encoding mode based on the predicted image quality. At this time, the encoding mode selection unit 702 may calculate a rate-distortion cost based on the distortion value, and select an encoding mode having the calculated rate-distortion cost as a minimum value.

여기서, 부호화 모드는 그래프 기반 예측 모드, 공간 예측 모드 및 시간 예측 모드 중 둘 이상을 포함할 수 있다. 즉, 부호화 모드 선택부(702)에서 그래프 기반 예측 모드가 선택되는 경우에는 그래프 기반 예측부(703)가, 공간 예측 모드가 선택되는 경우에는 공간 예측부(704)가, 그리고 시간 예측 모드가 선택되는 경우에는 시간 예측부(705)가 각각 동작할 수 있다.Here, the encoding mode may include two or more of a graph-based prediction mode, a spatial prediction mode, and a temporal prediction mode. That is, when the graph-based prediction mode is selected in the coding mode selecting unit 702, the graph-based predicting unit 703 selects the spatial prediction mode when the spatial prediction mode is selected, The time predicting unit 705 can operate.

이때, 그래프 기반 예측 모드는 합성될 영상에서 서로 이웃한 화소간의 화소값 차이에 기초하여 에지 맵을 생성하고, 상기 생성된 에지 맵을 통해 화소를 연결하여 그래프를 생성하고, 상기 생성된 그래프에 기초하여 적어도 하나의 화소에 대한 예측값을 선택하는 모드를 포함할 수 있다. 즉, 그래프 기반 예측부(103)는 도 1을 통해 설명한 에지 맵 생성부(101), 그래프 생성부(102), 예측자 선택부(103)를 포함할 수 있다. 또는, 에지 맵 부호화부(104)를 더 포함할 수도 있다. 또한, 이 경우 예측 부호화부(706), 변환 및 양자화부(707) 및 엔트로피 부호화부(708) 역시 도 1을 통해 설명한 예측 부호화부(104), 변환 및 양자화부(105) 및 엔트로피 부호화부(106)에 각각 대응될 수 있다.In the graph-based prediction mode, an edge map is generated based on pixel value differences between neighboring pixels in an image to be synthesized, a pixel is connected through the generated edge map to generate a graph, And selecting a prediction value for at least one pixel. That is, the graph-based predicting unit 103 may include the edge map generating unit 101, the graph generating unit 102, and the predictor selecting unit 103 described with reference to FIG. Alternatively, the edge map encoding unit 104 may be further included. In this case, the predictive encoding unit 706, the transforming and quantizing unit 707, and the entropy encoding unit 708 are similar to the predictive encoding unit 104, the transform and quantization unit 105 and the entropy encoding unit 106, respectively.

도 8은 본 발명의 일실시예에 있어서, 깊이 맵 부호화 방법을 도시한 흐름도이다. 본 실시예에 따른 깊이 맵 부호화 방법은 도 7을 통해 설명한 깊이 맵 부호화 시스템에 의해 수행될 수 있다. 도 8에서는 깊이 맵 부호화 시스템에 의해 각각의 단계가 수행되는 과정을 설명함으로써, 깊이 맵 부호화 방법을 설명한다.8 is a flowchart illustrating a depth map encoding method according to an embodiment of the present invention. The depth map encoding method according to the present embodiment can be performed by the depth map encoding system described with reference to FIG. FIG. 8 illustrates a depth map encoding method by explaining a process in which each step is performed by the depth map encoding system.

단계(810)에서 깊이 맵 부호화 시스템은 깊이 맵 및 참조 영상에 기초하여 상기 깊이 맵을 통해 합성될 영상의 화질을 예측한다. 이때, 깊이 맵 부호화 시스템은 깊이 맵의 화소 위치와 같은 위치에 있는 상기 참조 영상의 제1 화소값과, 상기 위치에서 상기 깊이 맵의 화소값에 발생한 왜곡값에 가중치를 부여하여 생성한 변위만큼 이동한 위치의 제2 화소값간의 차이를 사용하여 상기 합성될 영상에서 발생하는 왜곡값을 계산할 수 있다.In step 810, the depth map encoding system predicts the image quality of the image to be synthesized through the depth map based on the depth map and the reference image. At this time, the depth map encoding system assigns a weight to the first pixel value of the reference image at the same position as the pixel position of the depth map and the distortion value generated in the pixel value of the depth map at the position, The distortion value generated in the synthesized image can be calculated using the difference between the second pixel values at one position.

이때, 가중치는 상술한 바와 같이 3차원 영상을 생성하기 위해 사용되는 카메라의 초점 거리와 같은 내부 계수와 카메라 위치 및 각도를 나타내는 외부 계수, 그리고 취득되는 영상이 갖는 최대 깊이 및 최소 깊이 등의 정보를 통해 계산될 수 있다.In this case, as described above, the weights include information such as an internal coefficient such as a focal length of a camera used for generating a three-dimensional image, an external coefficient indicating a camera position and an angle, and a maximum depth and a minimum depth of the acquired image Lt; / RTI >

단계(820)에서 깊이 맵 부호화 시스템은 예측된 화질에 기초하여 부호화 모드를 선택한다. 이때, 깊이 맵 부호화 시스템은 왜곡값에 기초하여 율 왜곡(rate-distortion) 비용을 계산하여 상기 계산된 율 왜곡 비용이 최소의 값을 갖는 부호화 모드를 선택할 수 있다. 여기서, 부호화 모드는 그래프 기반 예측 모드, 공간 예측 모드 및 시간 예측 모드 중 둘 이상을 포함할 수 있다.In step 820, the depth map encoding system selects an encoding mode based on the predicted image quality. At this time, the depth map encoding system may calculate a rate-distortion cost based on the distortion value, and select an encoding mode in which the calculated rate distortion cost has a minimum value. Here, the encoding mode may include two or more of a graph-based prediction mode, a spatial prediction mode, and a temporal prediction mode.

단계(830)에서 깊이 맵 부호화 시스템은 그래프 기반 예측 모드 여부를 확인한다. 즉, 깊이 맵 부호화 시스템은 단계(830)에서 선택된 부호화 모드가 그래프 기반 예측 모드인 경우에는 단계(840)를, 그래프 기반 예측 모드가 아닌 경우에는 단계(850)를 수행할 수 있다.In step 830, the depth map encoding system checks whether or not it is a graph based prediction mode. That is, the depth map encoding system may perform step 840 if the encoding mode selected in step 830 is a graph-based prediction mode, and step 850 if the encoding mode selected in step 830 is not a graph-based prediction mode.

단계(840)에서 깊이 맵 부호화 시스템은 그래프 기반 예측 부호화를 수행하고, 단계(850)에서 깊이 맵 부호화 시스템은 공간 예측 부호화 또는 시간 예측 부호화를 수행한다. 이때, 그래프 기반 예측 부호화를 위한 단계(840)는 도 4를 통해 설명한 단계(401) 내지 단계(403)를 포함할 수 있다.In step 840, the depth map encoding system performs graph-based predictive encoding, and in step 850, the depth map encoding system performs spatial prediction encoding or temporal prediction encoding. At this time, step 840 for graph-based predictive encoding may include steps 401 to 403 described with reference to FIG.

단계(860)에서 깊이 맵 부호화 시스템은 예측 부호화된 화소를 변환 및 양자화하고, 단계(870)에서 깊이 맵 부호화 시스템은 변환 및 양자화된 화소를 엔트로피 부호화하여 비트열을 생성한다. 이러한 단계(860) 및 단계(870)은 도 4에서 설명한 단계(450) 및 단계(460)에 각각 대응될 수 있다.In step 860, the depth map encoding system transforms and quantizes predictively encoded pixels, and in step 870, the depth map encoding system entropy encodes the transformed and quantized pixels to generate a bit stream. These steps 860 and 870 may correspond to steps 450 and 460 described in FIG. 4, respectively.

도 7 및 도 8에서 생략된 내용은 도 1 내지 도 6의 설명을 참조할 수 있다.The contents omitted in Figs. 7 and 8 can be referred to the description of Fig. 1 to Fig.

도 9는 본 발명의 일실시예에 있어서, 깊이 맵의 왜곡을 사용하여 합성 영상에 발생하는 왜곡을 추정하는 방법을 설명하기 위한 일례이다. 카메라 p(901)의 위치에서 취득된 영상(902)을 카메라 p'(903)의 위치에서 취득한 영상(904)으로 합성할 경우, 제1 위치 (xim, yim)(905)의 화소는 깊이 맵에 오류가 발생하지 않은 경우, 제2 위치 (x'im, y'im)(906)로 맵핑된다. 그러나 깊이 맵에 오류가 발생하는 경우에는 변위 (tx, ty)만큼 이동하여 제3 위치 (x'im + tx, y'im + ty)(907)로 맵핑된다. 그러므로, 카메라 p(901)의 위치에서 취득된 영상에서 제1 위치 (xim, yim)(905)의 화소값과 제3 위치 (x'im + tx, y'im + ty)(907)의 화소값의 차이를 이용하여 왜곡값을 계산할 수 있다.9 is an example for explaining a method of estimating a distortion occurring in a composite image using distortion of a depth map in an embodiment of the present invention. When the image 902 acquired at the position of the camera p 901 is synthesized with the image 904 acquired at the position of the camera p '903, the pixel at the first position (x im , y im ) If no error has occurred in the depth map, it is mapped to the second position (x ' im , y' im ) 906. However, if an error occurs in the depth map, it is mapped to the third position (x ' im + tx , y' im + ty ) 907 by the displacement (tx, ty) Therefore, the pixel value of the first position ( xim , yim ) 905 and the pixel position of the third position ( x'im + tx , y'im + ty ) 907 in the image obtained at the position of the camera p (901) The distortion value can be calculated using the difference between the pixel values of the pixels.

이와 같이, 본 발명의 실시예들에 따르면, 그래프를 이용하여 영상의 지역 정보에 따라 효과적으로 화소 예측을 수행함으로써 압축 효율을 향상시켜 복원된 영상의 화질을 향상시키는 동시에 압축된 비트량은 줄일 수 있고, 깊이 맵을 이용한 영상 합성을 통해 3차원 영상을 부호화하는 경우, 깊이 맵을 손실 부호화하여 발생하는 왜곡값이 합성된 영상에 미치는 영향을 예측하여 최적화된 부호화 모드를 결정할 수 있다.As described above, according to the embodiments of the present invention, the pixel prediction is performed effectively according to the local information of the image using the graph, thereby improving the compression efficiency and improving the quality of the reconstructed image, , When the three-dimensional image is encoded through the image synthesis using the depth map, the optimized encoding mode can be determined by predicting the effect of the distortion value generated by loss-coding the depth map on the synthesized image.

본 발명의 실시 예에 따른 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. The methods according to embodiments of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the medium may be those specially designed and configured for the present invention or may be available to those skilled in the art of computer software.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.While the invention has been shown and described with reference to certain preferred embodiments thereof, it will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. This is possible.

그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined by the equivalents of the claims, as well as the claims.

101: 에지 맵 생성부
102: 그래프 생성부
103: 예측값 선택부
109: 에지 맵 부호화부
101: Edge map generating unit
102:
103:
109: edge map coding unit

Claims (27)

입력된 영상에서 서로 이웃한 화소간의 화소값 차이에 기초하여 에지 맵을 생성하는 에지 맵 생성부;
상기 생성된 에지 맵을 통해 화소를 연결하여 그래프를 생성하는 그래프 생성부;
상기 생성된 그래프에 기초하여 적어도 하나의 화소에 대한 예측값을 선택하는 예측값 선택부; 및
상기 적어도 하나의 화소 및 상기 예측값에 기초하여 상기 적어도 하나의 화소를 예측 부호화하는 예측 부호화부
를 포함하고,
상기 에지 맵 생성부는,
상기 화소값 차이가 미리 설정된 문턱치 이상인 경우, 상기 서로 이웃한 화소간에 에지가 존재하는 것으로 판단하여 에지 맵에 표시함으로써, 상기 에지 맵을 생성하고,
상기 문턱치는,
상기 입력된 영상의 원하는 비트량(target bitrate)에 따라 에지 생성량을 조정하여 부호화된 에지 맵의 비트량을 조정할 수 있도록, 에지 생성시에 조절되는, 부호화 시스템.
An edge map generation unit for generating an edge map based on a pixel value difference between neighboring pixels in an input image;
A graph generating unit for generating a graph by connecting pixels through the generated edge map;
A predicted value selection unit for selecting a predicted value for at least one pixel based on the generated graph; And
A predictive encoding unit for predicting the at least one pixel based on the at least one pixel and the predictive value,
Lt; / RTI >
Wherein the edge map generator comprises:
When the pixel value difference is equal to or greater than a preset threshold value, determining that an edge exists between the neighboring pixels and displaying the edge map on the edge map,
The threshold value,
And adjusts the bit amount of the encoded edge map by adjusting an edge generation amount according to a target bit rate of the input image.
삭제delete 삭제delete 입력된 영상에서 서로 이웃한 화소간의 화소값 차이에 기초하여 에지 맵을 생성하는 에지 맵 생성부;
상기 생성된 에지 맵을 통해 화소를 연결하여 그래프를 생성하는 그래프 생성부;
상기 생성된 그래프에 기초하여 적어도 하나의 화소에 대한 예측값을 선택하는 예측값 선택부;
상기 적어도 하나의 화소 및 상기 예측값에 기초하여 상기 적어도 하나의 화소를 예측 부호화하는 예측 부호화부; 및
상기 생성된 에지 맵을 부호화하는 에지 맵 부호화부
를 포함하고,
상기 에지 맵 부호화부는,
상기 에지 맵을 이진 산술 부호화를 통해 압축하여 부호화하고,
상기 부호화된 에지 맵은 상기 입력된 영상을 부호화한 비트열에 포함되는, 부호화 시스템.
An edge map generation unit for generating an edge map based on a pixel value difference between neighboring pixels in an input image;
A graph generating unit for generating a graph by connecting pixels through the generated edge map;
A predicted value selection unit for selecting a predicted value for at least one pixel based on the generated graph;
A predictive encoding unit that predictively encodes the at least one pixel based on the at least one pixel and the predicted value; And
An edge map encoding unit for encoding the generated edge map,
Lt; / RTI >
Wherein the edge map encoding unit comprises:
Compresses and encodes the edge map through binary arithmetic coding,
Wherein the encoded edge map is included in a bit string obtained by encoding the input image.
제1항에 있어서,
상기 그래프 생성부는,
상기 에지 맵의 에지에 의해 서로 분리되지 않는 복수의 화소를 연결하여 상기 그래프를 생성하는, 부호화 시스템.
The method according to claim 1,
Wherein the graph generating unit comprises:
And generates a graph by connecting a plurality of pixels that are not separated from each other by an edge of the edge map.
제1항에 있어서,
상기 입력된 영상은, 미리 설정된 화소 크기의 블록으로 분류되고,
상기 예측값 선택부는,
상기 적어도 하나의 화소가 포함된 블록과 이웃하고, 상기 적어도 하나의 화소와 상기 그래프로 연결된 화소 중 상기 적어도 하나의 화소와 가장 가까운 화소의 화소값을 상기 예측값으로서 선택하는, 부호화 시스템.
The method according to claim 1,
Wherein the input image is classified into blocks of a predetermined pixel size,
Wherein the predicted value selector comprises:
And selects a pixel value of a pixel neighboring the block including the at least one pixel and closest to the at least one pixel among the pixels connected to the at least one pixel by the graph as the predicted value.
제1항에 있어서,
상기 입력된 영상은, 미리 설정된 화소 크기의 블록으로 분류되고,
상기 예측값 선택부는,
상기 적어도 하나의 화소가 포함된 블록과 이웃하고, 상기 적어도 하나의 화소와 상기 그래프로 연결된 화소의 화소값에 서로 다른 가중치를 부여하고, 상기 서로 다른 가중치가 부여된 화소값간의 연산결과를 상기 예측값으로서 선택하는, 부호화 시스템.
The method according to claim 1,
Wherein the input image is classified into blocks of a predetermined pixel size,
Wherein the predicted value selector comprises:
Wherein the weighting unit assigns different weights to the pixel values of pixels adjacent to the block including at least one pixel and connected to the graph by using the at least one pixel, .
입력된 영상에서 서로 이웃한 화소간의 화소값 차이에 기초하여 에지 맵을 생성하는 에지 맵 생성부;
상기 생성된 에지 맵을 통해 화소를 연결하여 그래프를 생성하는 그래프 생성부;
상기 생성된 그래프에 기초하여 적어도 하나의 화소에 대한 예측값을 선택하는 예측값 선택부; 및
상기 적어도 하나의 화소 및 상기 예측값에 기초하여 상기 적어도 하나의 화소를 예측 부호화하는 예측 부호화부
를 포함하고,
상기 입력된 영상은, 미리 설정된 화소 크기의 블록으로 분류되고,
상기 예측값 선택부는,
상기 적어도 하나의 화소가 포함된 블록과 이웃하고, 상기 적어도 하나의 화소와 상기 그래프로 연결된 화소의 화소값에 서로 다른 가중치를 부여하고, 상기 서로 다른 가중치가 부여된 화소값간의 연산결과를 상기 예측값으로서 선택하고,
상기 가중치는 상기 그래프의 스펙트럴 분포에 기초하여 결정되는, 부호화 시스템.
An edge map generation unit for generating an edge map based on a pixel value difference between neighboring pixels in an input image;
A graph generating unit for generating a graph by connecting pixels through the generated edge map;
A predicted value selection unit for selecting a predicted value for at least one pixel based on the generated graph; And
A predictive encoding unit for predicting the at least one pixel based on the at least one pixel and the predictive value,
Lt; / RTI >
Wherein the input image is classified into blocks of a predetermined pixel size,
Wherein the predicted value selector comprises:
Wherein the weighting unit assigns different weights to the pixel values of pixels adjacent to the block including at least one pixel and connected to the graph by using the at least one pixel, , ≪ / RTI &
Wherein the weights are determined based on a spectral distribution of the graph.
입력된 영상에서 서로 이웃한 화소간의 화소값 차이에 기초하여 에지 맵을 생성하는 에지 맵 생성부;
상기 생성된 에지 맵을 통해 화소를 연결하여 그래프를 생성하는 그래프 생성부;
상기 생성된 그래프에 기초하여 적어도 하나의 화소에 대한 예측값을 선택하는 예측값 선택부; 및
상기 적어도 하나의 화소 및 상기 예측값에 기초하여 상기 적어도 하나의 화소를 예측 부호화하는 예측 부호화부
를 포함하고,
상기 입력된 영상은, 미리 설정된 화소 크기의 블록으로 분류되고,
상기 예측값 선택부는,
상기 적어도 하나의 화소가 포함된 블록과 이웃하고, 상기 적어도 하나의 화소와 상기 그래프로 연결된 화소의 화소값에 서로 다른 가중치를 부여하고, 상기 서로 다른 가중치가 부여된 화소값간의 연산결과를 상기 예측값으로서 선택하고,
상기 가중치는 상기 그래프의 라플라시안(Laplace) 행렬의 아이겐(Eigen) 벡터를 이용하여 결정되는, 부호화 시스템.
An edge map generation unit for generating an edge map based on a pixel value difference between neighboring pixels in an input image;
A graph generating unit for generating a graph by connecting pixels through the generated edge map;
A predicted value selection unit for selecting a predicted value for at least one pixel based on the generated graph; And
A predictive encoding unit for predicting the at least one pixel based on the at least one pixel and the predictive value,
Lt; / RTI >
Wherein the input image is classified into blocks of a predetermined pixel size,
Wherein the predicted value selector comprises:
Wherein the weighting unit assigns different weights to the pixel values of pixels adjacent to the block including at least one pixel and connected to the graph by using the at least one pixel, , ≪ / RTI &
Wherein the weights are determined using an Eigen vector of a Laplace matrix of the graph.
제1항에 있어서,
상기 예측 부호화부는,
상기 적어도 하나의 화소의 화소값과 상기 예측값간의 차이값을 부호화하는, 부호화 시스템.
The method according to claim 1,
Wherein the predictive-
Wherein the difference value between the pixel value of the at least one pixel and the predicted value is encoded.
제1항에 있어서,
상기 예측 부호화된 화소를 변환 및 양자화하는 변환 및 양자화부; 및
상기 변환 및 양자화된 화소를 엔트로피(entropy) 부호화하여 비트열을 생성하는 엔트로피 부호화부
를 더 포함하는 부호화 시스템.
The method according to claim 1,
A transform and quantization unit for transforming and quantizing the predictively encoded pixel; And
An entropy encoding unit that entropy-codes the transformed and quantized pixels to generate a bitstream,
Further comprising:
제11항에 있어서,
상기 변환 및 양자화된 화소를 상기 예측값에 기초하여 복호화하는 복호화부
를 더 포함하고,
상기 입력된 영상은, 미리 설정된 화소 크기의 블록으로 분류되고,
상기 예측값 선택부는,
상기 복호화된 화소 중 상기 적어도 하나의 화소가 포함된 블록과 이웃한 화소 및 상기 그래프에 기초하여 상기 적어도 하나의 화소에 대한 예측값을 선택하는, 부호화 시스템.
12. The method of claim 11,
And a decoding unit for decoding the transformed and quantized pixels based on the predicted value,
Further comprising:
Wherein the input image is classified into blocks of a predetermined pixel size,
Wherein the predicted value selector comprises:
And selects a prediction value for the at least one pixel based on the pixels neighboring the block including the at least one pixel among the decoded pixels and the graph.
입력된 비트열에서 에지 맵을 복호화하는 에지 맵 복호화부;
상기 복호화된 에지 맵을 통해 화소를 연결하여 그래프를 생성하는 그래프 생성부;
상기 생성된 그래프에 기초하여 적어도 하나의 화소에 대한 예측값을 선택하는 예측값 선택부; 및
상기 예측값 및 상기 입력된 비트열의 화소 정보에 기초하여 상기 적어도 하나의 화소를 복원하는 예측 보상부
를 포함하고,
상기 에지 맵은,
화소값 차이가 미리 설정된 문턱치 이상인 경우, 상기 화소간에 에지가 존재하는 것으로 판단하여 상기 에지 맵에 표시함으로써 생성되고,
상기 문턱치는,
입력된 영상의 원하는 비트량에 따라 에지 생성량을 조정하여 부호화된 에지 맵의 비트량을 조정할 수 있도록, 에지 생성시에 조절되는, 복호화 시스템.
An edge map decoding unit decoding the edge map in the inputted bit stream;
A graph generating unit for generating a graph by connecting pixels through the decoded edge map;
A predicted value selection unit for selecting a predicted value for at least one pixel based on the generated graph; And
A prediction compensating unit for restoring the at least one pixel based on the prediction value and the pixel information of the input bitstream,
Lt; / RTI >
The edge map includes:
When the difference between the pixel values is equal to or greater than a preset threshold value, it is determined that an edge exists between the pixels and is displayed on the edge map,
The threshold value,
Is adjusted at the time of edge generation so that the bit amount of the encoded edge map can be adjusted by adjusting the edge generation amount according to a desired bit amount of the input image.
제13항에 있어서,
상기 에지 맵 복호화부는,
이진 산술 복호화를 통해 상기 입력된 비트열으로부터 상기 에지 맵을 복호화하는, 복호화 시스템.
14. The method of claim 13,
Wherein the edge map decoding unit comprises:
And decodes the edge map from the input bitstream through binary arithmetic decoding.
제13항에 있어서,
상기 그래프 생성부는,
상기 에지 맵의 에지에 의해 서로 분리되지 않는 복수의 화소를 연결하여 상기 그래프를 생성하는, 복호화 시스템.
14. The method of claim 13,
Wherein the graph generating unit comprises:
And connecting the plurality of pixels that are not separated from each other by edges of the edge map to generate the graph.
제13항에 있어서,
상기 입력된 영상은, 미리 설정된 화소 크기의 블록으로 분류되고,
상기 예측값 선택부는,
상기 적어도 하나의 화소가 포함된 블록과 이웃하고, 상기 적어도 하나의 화소와 상기 그래프로 연결된 화소 중 상기 적어도 하나의 화소와 가장 가까운 화소의 화소값을 상기 예측값으로서 선택하는, 복호화 시스템.
14. The method of claim 13,
Wherein the input image is classified into blocks of a predetermined pixel size,
Wherein the predicted value selector comprises:
And selects the pixel value of a pixel neighboring the block including the at least one pixel and closest to the at least one pixel among the pixels connected to the at least one pixel by the graph as the predicted value.
제13항에 있어서,
상기 입력된 영상은, 미리 설정된 화소 크기의 블록으로 분류되고,
상기 예측값 선택부는,
상기 적어도 하나의 화소가 포함된 블록과 이웃하고, 상기 적어도 하나의 화소와 상기 그래프로 연결된 화소의 화소값에 서로 다른 가중치를 부여하고, 상기 서로 다른 가중치가 부여된 화소값간의 연산결과를 상기 예측값으로서 선택하는, 복호화 시스템.
14. The method of claim 13,
Wherein the input image is classified into blocks of a predetermined pixel size,
Wherein the predicted value selector comprises:
Wherein the weighting unit assigns different weights to the pixel values of pixels adjacent to the block including at least one pixel and connected to the graph by using the at least one pixel, .
제13항에 있어서,
상기 입력된 비트열을 엔트로피 복호화하여 화소를 복호화하는 엔트로피 복호화부; 및
상기 엔트로피 복호화된 화소를 역변환 및 역양자화하는 역변환 및 역양자화부
를 더 포함하는 복호화 시스템.
14. The method of claim 13,
An entropy decoding unit that entropy-decodes the input bit stream to decode the pixel; And
An inverse transform and inverse quantization unit for inversely transforming and dequantizing the entropy-
Further comprising:
제18항에 있어서,
상기 입력된 영상은, 미리 설정된 화소 크기의 블록으로 분류되고,
상기 예측값 선택부는,
상기 역변환 및 역양자화된 화소 중 상기 적어도 하나의 화소가 포함된 블록과 이웃한 화소 및 상기 그래프에 기초하여 상기 적어도 하나의 화소에 대한 예측값을 선택하는, 복호화 시스템.
19. The method of claim 18,
Wherein the input image is classified into blocks of a predetermined pixel size,
Wherein the predicted value selector comprises:
And selects a predicted value for the at least one pixel based on the pixels neighboring the block including the at least one pixel among the inversely transformed and dequantized pixels and the graph.
깊이 맵 및 참조 영상에 기초하여 상기 깊이 맵을 통해 합성될 영상의 화질을 예측하는 화질 예측부; 및
상기 예측된 화질에 기초하여 부호화 모드를 선택하는 부호화 모드 선택부
를 포함하고,
상기 화질 예측부는,
상기 깊이 맵의 화소 위치와 같은 위치에 있는 상기 참조 영상의 제1 화소값과, 상기 위치에서 상기 깊이 맵의 화소값에 발생한 왜곡값에 가중치를 부여하여 생성한 변위만큼 이동한 위치의 제2 화소값간의 차이를 사용하여 상기 합성될 영상에서 발생하는 왜곡값을 계산하는, 깊이 맵 부호화 시스템.
An image quality predicting unit for predicting an image quality of an image to be synthesized through the depth map based on the depth map and the reference image; And
And an encoding mode selection unit for selecting an encoding mode based on the predicted image quality,
Lt; / RTI >
Wherein the picture quality predicting unit,
A first pixel value of the reference image at the same position as a pixel position of the depth map and a second pixel at a position shifted by a displacement generated by weighting a distortion value generated in a pixel value of the depth map at the position, And calculates a distortion value occurring in the image to be synthesized using the difference between the values.
제20항에 있어서,
상기 부호화 모드는, 그래프 기반 예측 모드, 공간 예측 모드 및 시간 예측 모드 중 둘 이상을 포함하는, 깊이 맵 부호화 시스템.
21. The method of claim 20,
Wherein the coding mode includes at least two of a graph-based prediction mode, a spatial prediction mode, and a temporal prediction mode.
제21항에 있어서,
상기 그래프 기반 예측 부호화 모드는,
상기 합성될 영상에서 서로 이웃한 화소간의 화소값 차이에 기초하여 에지 맵을 생성하고, 상기 생성된 에지 맵을 통해 화소를 연결하여 그래프를 생성하고, 상기 생성된 그래프에 기초하여 적어도 하나의 화소에 대한 예측값을 선택하는 모드를 포함하는, 깊이 맵 부호화 시스템.
22. The method of claim 21,
Wherein the graph-based predictive encoding mode comprises:
Generating an edge map based on a pixel value difference between neighboring pixels in the image to be synthesized, connecting the pixels through the generated edge map to generate a graph, and outputting the generated edge map to at least one pixel And a mode for selecting a predicted value for the depth map.
삭제delete 제20항에 있어서,
상기 부호화 모드 선택부는,
상기 왜곡값에 기초하여 율 왜곡(rate-distortion) 비용을 계산하여 상기 계산된 율 왜곡 비용이 최소의 값을 갖는 부호화 모드를 선택하는, 깊이 맵 부호화 시스템.
21. The method of claim 20,
Wherein the encoding mode selection unit comprises:
And calculates a rate-distortion cost based on the distortion value to select an encoding mode with the calculated rate distortion cost having a minimum value.
입력된 영상에서 서로 이웃한 화소간의 화소값 차이에 기초하여 에지 맵을 생성하는 단계;
상기 생성된 에지 맵을 통해 화소를 연결하여 그래프를 생성하는 단계;
상기 생성된 그래프에 기초하여 적어도 하나의 화소에 대한 예측값을 선택하는 단계; 및
상기 적어도 하나의 화소 및 상기 예측값에 기초하여 상기 적어도 하나의 화소를 예측 부호화하는 단계
를 포함하고,
상기 에지 맵을 생성하는 단계는,
상기 화소값 차이가 미리 설정된 문턱치 이상인 경우, 상기 서로 이웃한 화소간에 에지가 존재하는 것으로 판단하여 에지 맵에 표시함으로써, 상기 에지 맵을 생성하고,
상기 문턱치는,
상기 입력된 영상의 원하는 비트량에 따라 에지 생성량을 조정하여 부호화된 에지 맵의 비트량을 조정할 수 있도록, 에지 생성시에 조절되는, 부호화 방법.
Generating an edge map based on pixel value differences between neighboring pixels in an input image;
Generating a graph by connecting pixels through the generated edge map;
Selecting a prediction value for at least one pixel based on the generated graph; And
Predicting the at least one pixel based on the at least one pixel and the predicted value
Lt; / RTI >
Wherein the step of generating the edge map comprises:
When the pixel value difference is equal to or greater than a preset threshold value, determining that an edge exists between the neighboring pixels and displaying the edge map on the edge map,
The threshold value,
And adjusting the bit amount of the encoded edge map by adjusting an edge generation amount according to a desired bit amount of the input image.
입력된 비트열에서 에지 맵을 복호화하는 단계;
상기 복호화된 에지 맵을 통해 화소를 연결하여 그래프를 생성하는 단계;
상기 생성된 그래프에 기초하여 적어도 하나의 화소에 대한 예측값을 선택하는 단계; 및
상기 예측값 및 상기 입력된 비트열의 화소 정보에 기초하여 상기 적어도 하나의 화소를 복원하는 단계
를 포함하고,
상기 에지 맵은,
화소값 차이가 미리 설정된 문턱치 이상인 경우, 상기 화소간에 에지가 존재하는 것으로 판단하여 상기 에지 맵에 표시함으로써 생성되고,
상기 문턱치는,
입력된 영상의 원하는 비트량에 따라 에지 생성량을 조정하여 부호화된 에지 맵의 비트량을 조정할 수 있도록, 에지 생성시에 조절되는, 복호화 방법.
Decoding an edge map in an input bitstream;
Generating a graph by connecting pixels through the decoded edge map;
Selecting a prediction value for at least one pixel based on the generated graph; And
Restoring the at least one pixel based on the predictive value and the pixel information of the input bitstream
Lt; / RTI >
The edge map includes:
When the difference between the pixel values is equal to or greater than a preset threshold value, it is determined that an edge exists between the pixels and is displayed on the edge map,
The threshold value,
And adjusting the bit amount of the encoded edge map by adjusting an edge generation amount according to a desired bit amount of the input image.
깊이 맵 및 참조 영상에 기초하여 상기 깊이 맵을 통해 합성될 영상의 화질을 예측하는 단계; 및
상기 예측된 화질에 기초하여 부호화 모드를 선택하는 단계
를 포함하고,
상기 화질을 예측하는 단계는,
상기 깊이 맵의 화소 위치와 같은 위치에 있는 상기 참조 영상의 제1 화소값과, 상기 위치에서 상기 깊이 맵의 화소값에 발생한 왜곡값에 가중치를 부여하여 생성한 변위만큼 이동한 위치의 제2 화소값간의 차이를 사용하여 상기 합성될 영상에서 발생하는 왜곡값을 계산하는, 깊이 맵 부호화 방법.
Estimating an image quality of an image to be synthesized through the depth map based on a depth map and a reference image; And
Selecting an encoding mode based on the predicted picture quality
Lt; / RTI >
Wherein the step of predicting the image quality comprises:
A first pixel value of the reference image at the same position as a pixel position of the depth map and a second pixel at a position shifted by a displacement generated by weighting a distortion value generated in a pixel value of the depth map at the position, And calculates a distortion value generated in the synthesized image using the difference between the values.
KR1020100018720A 2010-02-12 2010-03-02 Image/video coding and decoding system and method using graph based pixel prediction and depth map coding system and method KR101598857B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP10194221A EP2360927A3 (en) 2010-02-12 2010-12-08 Image encoding/decoding system using graph based pixel prediction and encoding system and method
US13/016,373 US8554001B2 (en) 2010-02-12 2011-01-28 Image encoding/decoding system using graph based pixel prediction and encoding system and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US30382610P 2010-02-12 2010-02-12
US61/303,826 2010-02-12

Publications (2)

Publication Number Publication Date
KR20110093532A KR20110093532A (en) 2011-08-18
KR101598857B1 true KR101598857B1 (en) 2016-03-02

Family

ID=44930206

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100018720A KR101598857B1 (en) 2010-02-12 2010-03-02 Image/video coding and decoding system and method using graph based pixel prediction and depth map coding system and method

Country Status (1)

Country Link
KR (1) KR101598857B1 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013077650A1 (en) * 2011-11-23 2013-05-30 한국전자통신연구원 Method and apparatus for decoding multi-view video
WO2014014276A1 (en) * 2012-07-17 2014-01-23 한국전자통신연구원 In-loop filtering method and apparatus using same
KR101901355B1 (en) * 2014-10-21 2018-09-21 엘지전자 주식회사 Method and apparatus for performing graph-based prediction using optimazation function
US10356420B2 (en) 2014-11-16 2019-07-16 Lg Electronics Inc. Video signal processing method using graph based transform and device therefor
WO2016129872A1 (en) * 2015-02-12 2016-08-18 엘지전자(주) Method and apparatus for processing video signal using graph-based transform
WO2016195455A1 (en) * 2015-06-04 2016-12-08 엘지전자(주) Method and device for processing video signal by using graph-based transform
WO2017010850A1 (en) * 2015-07-15 2017-01-19 엘지전자(주) Method and device for processing video signal by using separable graph-based transform
WO2017014585A1 (en) * 2015-07-21 2017-01-26 엘지전자(주) Method and device for processing video signal using graph-based transform
WO2017030418A1 (en) * 2015-08-19 2017-02-23 엘지전자(주) Method and device for encoding/decoding video signal by using optimized conversion based on multiple graph-based model
US10469838B2 (en) 2015-09-10 2019-11-05 Lg Electronics Inc. Method and apparatus for processing video signal using graph-based transformation based on prediction angle
WO2017057922A1 (en) * 2015-09-29 2017-04-06 엘지전자 주식회사 Method and device for encoding/decoding a video signal by using graph-based lifting transform
WO2017057923A1 (en) * 2015-09-29 2017-04-06 엘지전자(주) Method for encoding/decoding video signal by using single optimized graph
US11695958B2 (en) 2016-02-01 2023-07-04 Lg Electronics Inc. Method and apparatus for encoding/decoding video signal by using edge-adaptive graph-based transform
IT201700024294A1 (en) * 2017-03-03 2018-09-03 Sisvel Tech S R L METHOD AND APPARATUS TO CODIFY AND DECODE DIGITAL VIDEO IMAGES OR FLOWS

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070119879A (en) * 2006-06-16 2007-12-21 삼성전자주식회사 A method for obtaining super-resolution image from low-resolution image and the apparatus therefor
KR101366093B1 (en) * 2007-03-28 2014-02-21 삼성전자주식회사 Method and apparatus for video encoding and decoding
KR100902353B1 (en) * 2007-11-16 2009-06-12 광주과학기술원 Device and Method for estimating death map, Method for making intermediate view and Encoding multi-view using the same

Also Published As

Publication number Publication date
KR20110093532A (en) 2011-08-18

Similar Documents

Publication Publication Date Title
KR101598857B1 (en) Image/video coding and decoding system and method using graph based pixel prediction and depth map coding system and method
US8554001B2 (en) Image encoding/decoding system using graph based pixel prediction and encoding system and method
KR101702948B1 (en) Rate-Distortion Optimization Apparatus and Method for depth-image encoding
US20190364286A1 (en) Video encoding apparatus, video decoding apparatus, and video decoding method for performing intra-prediction based on directionality of neighboring block
KR100750136B1 (en) Method and apparatus for encoding and decoding of video
KR102518993B1 (en) Method for multiple interpolation filters, and apparatus for encoding by using the same
KR101403341B1 (en) Method and apparatus for video encoding and decoding
WO2010001917A1 (en) Image processing device and method
WO2008004768A1 (en) Image encoding/decoding method and apparatus
KR101263090B1 (en) Methods of encoding and decoding using multi-level prediction and apparatuses for using the same
KR20160072120A (en) Method and apparatus for coding/decoding 3d video
KR20150077392A (en) Apparatus and method for encoding and decoding based region
KR20160104646A (en) Method and apparatus for encoding, decoding a video signal using additional control of quantization error
KR101700410B1 (en) Method and apparatus for image interpolation having quarter pixel accuracy using intra prediction modes
JP2013239923A (en) Color conversion apparatus, encoder and decoder and their program
KR102550743B1 (en) Video encoding and decoding method and device using said method
KR102513756B1 (en) Image encoding method, decoding method, encoder, decoder and storage medium
KR20100009718A (en) Video encoding/decoding apparatus and mehod using direction of prediction
KR101562343B1 (en) Method and apparatus for image interpolation having quarter pixel accuracy using intra prediction modes
US20140056349A1 (en) Image encoding device and image decoding device
KR101524664B1 (en) Reference Frame Creating Method and Apparatus and Video Encoding/Decoding Method and Apparatus Using Same
KR101810198B1 (en) Method and apparatus for image interpolation having quarter pixel accuracy using intra prediction modes
KR101700411B1 (en) Method and apparatus for image interpolation having quarter pixel accuracy using intra prediction modes
KR20190091431A (en) Method and apparatus for image interpolation having quarter pixel accuracy using intra prediction modes
KR20170140805A (en) Method and apparatus for image interpolation having quarter pixel accuracy using intra prediction modes

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190130

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20200130

Year of fee payment: 5