KR20060133885A - Method for upsampling a video data - Google Patents

Method for upsampling a video data Download PDF

Info

Publication number
KR20060133885A
KR20060133885A KR1020060015408A KR20060015408A KR20060133885A KR 20060133885 A KR20060133885 A KR 20060133885A KR 1020060015408 A KR1020060015408 A KR 1020060015408A KR 20060015408 A KR20060015408 A KR 20060015408A KR 20060133885 A KR20060133885 A KR 20060133885A
Authority
KR
South Korea
Prior art keywords
pixel data
data
group
discrete cosine
pixel
Prior art date
Application number
KR1020060015408A
Other languages
Korean (ko)
Inventor
박승욱
박지호
전병문
박현욱
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of KR20060133885A publication Critical patent/KR20060133885A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/625Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using discrete cosine transform [DCT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

A method for upsampling video data is provided to generate new pixel data between pixel points while reducing blurring of upsampled image data and ringing that an image contour appears. Pixel data are added through interpolation between pixel data inside and outside a pixel data group. A part of the pixel data group to which the pixel data are added, is selected for performing first discrete cosine transform. At least one adjacent pixel data is included in the pixel data group for performing second discrete cosine transform. Data transformed by the first discrete cosine transform and the second discrete cosine transform are obtained to be separated or partially overlapped by bands for performing inverse discrete cosine transform.

Description

영상 데이터를 업샘플링하는 방법 {Method for upsampling a video data}How to upsample video data {Method for upsampling a video data}

도 1은, 업샘플링(upsampling)의 방법의 하나인 6-tap FIR 인터폴레이션(interpolation)을 나타낸 것이고,1 shows 6-tap FIR interpolation, which is one of the methods of upsampling,

도 2는 주파수 도메인(domain)에서의 제로-패딩(zero-padding)을 통한 업샘플링 방법을 나타낸 것이고,2 illustrates a method of upsampling through zero-padding in the frequency domain,

도 3은 본 발명의 일 실시예에 따른, 영상 데이터를 업샘플링하는 장치의 구성블록을 도시한 것이고,3 illustrates a configuration block of an apparatus for upsampling image data according to an embodiment of the present invention.

도 4는 도 3의 장치가, 본 발명의 일 실시예에 따른, 영상블록의 한 행 또는 열의 데이터의 일부에 대해 업샘플링하는 과정을 예시적으로 나타낸 것이고,4 exemplarily illustrates a process of upsampling a portion of data of one row or column of an image block by the apparatus of FIG. 3 according to an embodiment of the present invention;

도 5는 도 3의 장치가, 본 발명의 다른 일 실시예에 따른, 영상블록의 한 행 또는 열의 데이터의 일부에 대해 업샘플링하는 과정을 예시적으로 나타낸 것이다.5 exemplarily illustrates a process of upsampling a part of data of one row or column of an image block by the apparatus of FIG. 3 according to another embodiment of the present invention.

<도면의 주요부분에 대한 부호의 설명> <Description of the symbols for the main parts of the drawings>

31: 인터폴레이션 필터 32,34: DCT부31: interpolation filter 32, 34: DCT section

33,35: 윈도윙(windowing) 필터 36: 결합기33,35: windowing filter 36: combiner

37: IDCT부37: IDCT Division

본 발명은, 화소 데이터간에 새로운 화소 데이터를 추가하기 위해 영상 데이터를 업샘플링하는 방법에 관한 것이다. The present invention relates to a method of upsampling image data to add new pixel data between pixel data.

스케일러블 영상 코덱(SVC:Scalable Video Codec) 방식은 영상신호를 엔코딩함에 있어, 최고 화질로 엔코딩하되, 그 결과로 생성된 픽처 시퀀스의 부분 시퀀스( 시퀀스 전체에서 간헐적으로 선택된 프레임의 시퀀스 )를 디코딩해 사용해도 저화질의 영상 표현이 가능하도록 하는 방식이다. The scalable video codec (SVC) method encodes a video signal at the highest quality and decodes a partial sequence of the resulting picture sequence (a sequence of intermittently selected frames throughout the sequence). Even if it is used, it is a way to enable a low-quality video representation.

그런데, 앞서 언급한 바와 같이 스케일러블 방식으로 엔코딩된 픽처 시퀀스는 그 부분 시퀀스만을 수신하여 처리함으로써도 저화질의 영상 표현이 가능하지만, 비트레이트(bitrate)가 낮아지는 경우 화질저하가 크게 나타난다. 이를 해소하기 위해서 낮은 전송률을 위한 별도의 보조 픽처 시퀀스, 예를 들어 소화면과 초당 프레임수 등이 낮은 픽처 시퀀스를 계층적으로 제공할 수도 있다. 그런데, 하위 레이어와 상위 레이어는 동일한 영상신호원을 엔코딩하는 것이므로 양 레이어의 엔코딩 신호에는 잉여정보( 리던던시(redundancy) )가 존재한다.However, as described above, a picture sequence encoded in a scalable manner can be represented by a low quality image only by receiving and processing only a partial sequence. However, when the bit rate is lowered, the quality deterioration is large. In order to solve this problem, a separate auxiliary picture sequence for a low data rate, for example, a low picture sequence and a low picture sequence per second may be provided hierarchically. However, since the lower layer and the upper layer encode the same video signal source, there is redundant information (redundancy) in the encoding signals of both layers.

따라서, SVC방식에 의해 엔코딩되는 특정 레이어의 코딩율(coding rate)을 높이기 위해, 하위 레이어의 임의 영상 프레임내의 블록을 확대하고, 그 확대된 블 록을 기준으로 하여 그와 동시간의 현재 레이어의 영상 프레임내의 블록을 에러 데이터, 즉 레지듀얼 데이터로 만든다.Therefore, in order to increase the coding rate of a specific layer encoded by the SVC scheme, a block in an arbitrary video frame of a lower layer is enlarged, and on the basis of the enlarged block, A block in the video frame is made into error data, that is, residual data.

상기와 같이 확대된 블록은 디코더에 전송되지 않으므로, 디코더가 상기와 같이 엔코딩된 매크로 블록을 디코딩하기 위해서도, 역시 그 하위 레이어의 대응블록을 확대하여 이용하여야 한다. 또한, 상기와 같은 내부 모드의 매크로 블록의 엔코딩을 위해서 뿐만 아니라, 레이어간 레지듀얼 데이터 예측 동작을 수행하는 경우에도 하위 레이어의 블록을 확대해야 한다. Since the enlarged block is not transmitted to the decoder, the decoder must also enlarge and use the corresponding block of the lower layer in order to decode the encoded macro block as described above. In addition, not only for encoding the macroblock of the internal mode described above, but also for performing the inter-layer residual data prediction operation, the block of the lower layer should be enlarged.

이와 같이, 상이한 픽처 크기( 또는 해상도 )를 갖는 복수 레이어를 엔코딩 스트림으로 제공하는 경우에는 엔코딩 및 디코딩 과정에서 영상 블록의 확대가 필요하며, 영상 블록의 확대를 위해서는 화소 데이터 사이에 새로운 화소 데이터를 생성하는 업샘플링을 수행하게 된다.As such, when a plurality of layers having different picture sizes (or resolutions) are provided as an encoding stream, an enlargement of an image block is required during encoding and decoding, and new pixel data is generated between pixel data in order to enlarge the image block. Upsampling is performed.

또한, 임의 매크로 블록에 대한 모션추정을 함에 있어서도, 1/4펠(pel)씩 인접 프레임( 또는 프레임이 분할된 슬라이스(slice) )상에서 대상 블록을 시프트(shift)시키면서 그 대상 블록의 화소 데이터와 현재 매크로 블록 데이터를 비교하게 되므로, 프레임상의 비 정수펠(non-integer pel)의 위치( 이하, '비 화소점'이라 한다. )에 있는 화소값을 정수펠의 위치( 이하, '화소점'이라 한다. )에 있는 화소값으로부터 구해서 사용하게 된다. 따라서, 이 때에도 업샘플링이 사용된다.Also, in performing motion estimation for an arbitrary macro block, the target block is shifted on adjacent frames (or slices in which frames are divided) by 1/4 pel, and the pixel data of the target block is shifted. Since the current macroblock data is compared, the pixel value at the position of the non-integer pel on the frame (hereinafter referred to as the non-pixel point) is determined by the position of the integer pel (hereinafter referred to as the 'pixel point'). It is obtained from the pixel value in (). Thus, upsampling is also used at this time.

본 발명의 목적은, 화소점과 화소점 사이에 새로운 화소 데이터를 생성하는 영상 데이터의 업샘플링 방법을 제공하는 데 있다.An object of the present invention is to provide a method of upsampling image data for generating new pixel data between pixel points.

또한, 본 발명은, 번짐(bluring) 현상이나 링잉(ringing) 현상을 동시에 감소시키는 영상 데이터의 업샘플링 방법을 제공하는 데 있다.Another object of the present invention is to provide a method of upsampling video data which simultaneously reduces blurring and ringing.

상기한 목적을 달성하기 위해 본 발명은, 입력된 화소 데이터 군( 화소 데이터가 N개 )을 업샘플링함에 있어서, 상기 데이터 군내외의 화소 데이터간에 인터폴레이션을 통하여 화소 데이터를 추가하고, 화소 데이터가 추가된 데이터 그룹에서 일부를 선택하여 1차 이산여현 변환하며, 이와 함께, 상기 화소 데이터 군에 적어도 하나의 인접 화소 데이터를 포함시켜 2차 이산여현 변환하고, 그 변환된 데이터와 상기 1차 이산여현 변환에 의한 데이터를 대역별로 분리 또는 일부 중첩되도록 취하여 이산여현 역변환하는 과정을 수행한다.In order to achieve the above object, the present invention, in upsampling an input pixel data group (N pixel data), adds pixel data through interpolation between pixel data within and outside the data group, and adds pixel data. Select a part of the data group and perform a first discrete cosine transform; together with at least one adjacent pixel data in the pixel data group, a second discrete cosine transform is performed, and the converted data and the first discrete cosine The data is divided into bands or partially overlapped to perform discrete inverse transform.

본 발명에 따른 일 실시예에서는, 상기 인터폴레이션은, 상기 화소 데이터 군과 그 인접된 화소 데이터군의 화소 데이터들에 대해 인터폴레이션하여 4N개의 화소 데이터의 그룹을 만들고, 상기 1차 이산여현 변환은 상기 4N개의 데이터 그룹에서 상기 입력된 화소 데이터 군과 공간적으로(spatially) 대응되는 2N개의 화소 데이터와 그에 인접된 하나의 화소 데이터에 대해 수행된다.In one embodiment according to the present invention, the interpolation interpolates pixel data of the pixel data group and the adjacent pixel data group to form a group of 4N pixel data, and the first discrete cosine transform is 4N. In 2 data groups, 2N pixel data spatially corresponding to the input pixel data group and one pixel data adjacent thereto are performed.

본 발명에 따른 일 실시예에서는, 대역별로 일부 중첩되도록 취하기 위해서 2개의 윈도윙(windowing) 필터를 사용하며, 각 윈도윙 필터의 계수집합, {ak}와 {bk}는, 각각 {a0=0,a1=0,..aN-1=pI-1,aN=pI,aN+1=pI+1,..,a2N=1}( 여기서, pI는 0<pI<pI+1<1 의 조건을 만족하는 상수 )와, {b0=1,b1=1,..,bN-2=qI-1,bN-1=qI}( 여기서, qI는 1>qI-1>qI>0의 조건을 만족하는 상수 )이다.In an embodiment according to the present invention, two windowing filters are used to partially overlap each band, and the coefficient sets, {a k } and {b k }, of each windowing filter are respectively {a 0 = 0, a 1 = 0, .. a N-1 = p I-1 , a N = p I , a N + 1 = p I + 1 , .., a 2N = 1} (where p I Is a constant that satisfies the condition 0 <p I <p I + 1 <1), and (b 0 = 1, b 1 = 1, .., b N-2 = q I-1 , b N-1 = q I } (where q I is a constant that satisfies the condition 1> q I-1 > q I > 0).

본 발명에 따른 일 실시예에서는, 상기 인터폴레이션을 위해 6-tap FIR 인터폴레이션을 사용한다.In one embodiment according to the present invention, 6-tap FIR interpolation is used for the interpolation.

본 발명에 따른 일 실시예에서는, 상기 이산여현 변환을 위해 type-1 이산여현 변환을 사용한다.In one embodiment according to the present invention, a type-1 discrete cosine transform is used for the discrete cosine transform.

도 1은 업샘플링의 방법의 하나인 6-tap FIR 인터폴레이션(interpolation)이다. 이 방법에서는 하나의 화소값(F'(3))을, 그 인접된 좌우( 또는 상하 )의 각 3개씩의 화소값들[{F(3),F(2),F(1)},{F(4),F(5),F(6)}]에 기 정해진 가중치(weight)( 예를 들어, 인접된 화소점부터 시작하여 20,-5,1 )를 곱한 후, 가중치의 합으로 나누어서 구한다.1 is 6-tap FIR interpolation, which is one of the methods of upsampling. In this method, one pixel value (F '(3)) is divided into three pixel values [{F (3), F (2), F (1)}, each of its adjacent left and right (or up and down) values. {F (4), F (5), F (6)}] is multiplied by a predetermined weight (e.g., 20, -5,1 starting from adjacent pixel points), and then summed Find by dividing by.

하지만, 이 방법에 의해 업샘플링된 영상 블록은 번짐 현상(bluring effect)이 발생할 수 있고 PSNR (Peak Signal to Noise Ratio) 이 저하되는 특성이 있다.However, the up-sampled image block by this method may have a blurring effect and a decrease in peak signal to noise ratio (PSNR).

도 2는 주파수 도메인에서의 제로-패딩을 통한 업샘플링 방법으로서, 6-tap FIR 인터폴레이션에 의한 부정적 효과를 개선한 업샘플링 방법이다.FIG. 2 is an upsampling method with zero-padding in the frequency domain, and is an upsampling method that improves negative effects due to 6-tap FIR interpolation.

이 방법은, 확대할 화소수 N의 화소 군에 하나의 인접된 화소값을 더 사용하여 이산여현 변환(DCT:Discrete Cosine Transform)을 하고(S21), 그 변환된 N+1개 의 DCT 계수들에 대해 고역 밴드에 N개의 0을 패딩한 후(S22), 그 DCT 계수( 2N+1 개 )들에 대해 IDCT (inverse DCT) 를 수행한다(S23). IDCT 수행후에 얻어진 화소값( 2N+1개 )에서 하나의 값(201)을 삭제함으로써 최종적으로 2배 확대된 화소수 2N개인 화소 데이터 군을 얻게 된다.This method performs a discrete cosine transform (DCT) using one adjacent pixel value to the pixel group of pixel number N to be enlarged (S21), and converts the converted N + 1 DCT coefficients. After N zeros are padded in the high band (S22), IDCT (inverse DCT) is performed on the DCT coefficients (2N + 1) (S23). By deleting one value 201 from the pixel values (2N + 1) obtained after performing IDCT, a pixel data group having a 2N pixel size magnified 2 times is finally obtained.

그런데, 이 방식에 의하면 화면 번짐현상은 발생하지 않지만, 확대된 영상 블록에 이미지의 윤곽이 나타나는 링잉 현상(ringing effect)이 발생한다.However, according to this method, screen blurring does not occur, but a ringing effect occurs in which an outline of an image appears in an enlarged image block.

이하에서는, 화면 번짐현상이나 링잉 현상을 동시에 감소시키는, 본 발명의 실시예에 대해 첨부도면을 참조하여 상세히 설명한다. Hereinafter, embodiments of the present invention, which simultaneously reduce screen smearing and ringing, will be described in detail with reference to the accompanying drawings.

도 3은 본 발명의 실시예에 따른, 영상 데이터를 업샘플링하는 장치의 구성을 도시한 블록도이다.3 is a block diagram illustrating a configuration of an apparatus for upsampling image data according to an embodiment of the present invention.

도 3의 업샘플링 장치는, 입력되는 화소 데이터 군(30)을 공간(spatial) 도메인에서 인터폴레이션하는 필터(31)와, 상기 필터(31)의 출력 화소 데이터의 일부를 DCT 변환하는 제 1DCT부(32)와, 변환된 데이터( 이하, 'DCT 계수'라 함 )의 각각에 필터링 계수를 곱하여 DCT 계수를 windowing 출력하는 제 1윈도윙 필터(33)와, 상기 입력되는 화소 데이터 군(30)의 화소 데이터를 적어도 포함하는 데이터를 DCT 변환하는 제 2DCT부(34)와, 상기 제 2DCT부(34)에 의해 변환된 DCT 계수의 각각에 필터링 계수를 곱하여 DCT 계수를 windowing 출력하는 제 2윈도윙 필터(35)와, 상기 제 1윈도윙 필터(33)와 제 2윈도윙 필터(35)의 출력 계수들을 DCT 도메인상에서 주파수 대역별로 조합하는 결합기(36)와, 상기 조합된 DCT 계수들에 대해 IDCT를 수행하는 IDCT부(37)를 포함하여 구성된다. 상기 인터폴레이션 필터(31)는 앞서 설명된 6-tap FIR 인터폴레이션 필터일 수 있으나, 본 발명은 6-tap FIR 인터폴레이션 필터에 국한되지 않으며, 공간적(spatial) 도메인에서 화소점과 화소점사이에 비화소점 데이터를 만드는 어떠한 필터도 사용이 가능하다.The upsampling device of FIG. 3 includes a filter 31 for interpolating an input pixel data group 30 in a spatial domain, and a first DCT unit for DCT transforming a part of output pixel data of the filter 31 ( 32), a first windowing filter 33 for windowing the DCT coefficients by multiplying each of the converted data (hereinafter, referred to as 'DCT coefficients') by the filtering coefficients, and the pixel data group 30 of the inputted pixel data group 30. A second windowing filter for multiplying the second DCT 34 by DCT transforming the data including at least the pixel data and the DCT coefficients converted by the second DCT 34 to filter out the DCT coefficients for windowing the DCT coefficients. (35), a combiner (36) for combining the output coefficients of the first and second windowing filters (33) and the second windowing filter (35) by frequency band in the DCT domain, and IDCT for the combined DCT coefficients. It is configured to include an IDCT unit 37 to perform. The interpolation filter 31 may be the 6-tap FIR interpolation filter described above, but the present invention is not limited to the 6-tap FIR interpolation filter, and the non-pixel point data between the pixel point and the pixel point in the spatial domain is used. Any filter can be used to make it.

도 4는 도 3의 장치가, 영상블록의 한 행 또는 열의 데이터의 일부에 대해 행하는 과정을 도식적으로 나타낸 것으로서, 업샘플링 대상의 화소수를 4개로 한 것이다. 그러나, 본 발명은 그 화소수에 제한되지 않으며 임의 개수(N)의 화소 데이터에 대해서도 하기에 설명하는 방식에 따라 업샘플링하는 것이 가능하다.FIG. 4 is a diagram schematically illustrating a process of the apparatus of FIG. 3 performing a part of data of one row or column of an image block, wherein the number of pixels to be upsampled is four. However, the present invention is not limited to the number of pixels, and it is possible to upsample any number N of pixel data in the manner described below.

먼저, 상기 인터폴레이션 필터(31)는, 영상 블록의 임의의 한 행의 화소 데이터( 이를, 편의상 '저해상도 데이터'라 한다. )내에서 확대할 N개의 입력 화소 데이터 군에 대해 좌측 또는 우측( 또는 상측 또는 하측 )에 인접된 동일 수의 화소 데이터를 추가하여( 도 4의 예는 우측에 인접된 화소 데이터를 사용한 것이다. ), 2N개의 화소점에 대해서 각 1/2펠의 화소 데이터를 만드는 인터폴레이션을 수행한다(S41). 상기 제 1DCT부(32)는, 이 인터폴레이션에 의해 생성된 4N개의 화소 데이터( 이를 편의상 '고해상도 데이터'라 한다. )에 대해서 2N+1 개의 화소 데이터를 취하여 DCT, 예를 들어 type-1 DCT를 행한다(S42). 상기 제 1DCT부(32)가 취하는 2N+1 개는, 인터폴레이션된 4N개의 화소 데이터의 그룹에서, 확대할 N개의 입력 화소 데이터와 공간적으로(spatially)으로 대응되는 2N개와 그에 최인접된 한 개의 화소 데이터이다.First, the interpolation filter 31 is configured to be left or right (or upper) with respect to N input pixel data groups to be enlarged in any one row of pixel data (this is referred to as 'low resolution data' for convenience). Or by adding the same number of pixel data adjacent to the lower side (the example shown in FIG. 4 uses the pixel data adjacent to the right side). An interpolation is performed to create 1 / 2-pel pixel data for 2N pixel points. It performs (S41). The 1DCT unit 32 takes 2N + 1 pixel data with respect to 4N pixel data generated by this interpolation (this is referred to as 'high resolution data' for convenience), and selects a DCT, for example, type-1 DCT. It performs (S42). The 2N + 1 taken by the 1DCT unit 32 is 2N corresponding to N input pixel data to be enlarged spatially in a group of interpolated 4N pixel data, and one pixel closest thereto. Data.

상기 제 1윈도윙 필터(33)는 상기 제 1DCT부(32)에 의해 얻어진 2N+1개의 DCT 계수들에 대해, 다음과 같은 필터링 계수{ak}를 곱하여 고역밴드에 속하는 N개의 DCT 계수만{F(N+1),..,F(2N-2),F(2N-1),F(2N)}을 획득한다(S43). The first windowing filter 33 multiplies the 2N + 1 DCT coefficients obtained by the first DCT unit 32 by the following filtering coefficient {a k } and then only N DCT coefficients belonging to the high band. {F (N + 1), ..., F (2N-2), F (2N-1), F (2N)} are obtained (S43).

{ak} = {a0=0,a1=0,..,aN=0,aN+1=1,aN+2=1,..,a2N-1=1,a2N=1}{a k } = {a 0 = 0, a 1 = 0, .., a N = 0, a N + 1 = 1, a N + 2 = 1, .., a 2N-1 = 1, a 2N = 1}

한편, 상기 제 2DCT부(34)는 영상 블록의 임의의 한 행의 화소 데이터내의 N개의 화소 데이터 군에 대해 좌측 또는 우측( 또는 상측 또는 하측 )에 인접된 하나의 화소 데이터를 추가한 후( 도 4의 예는 우측에 인접된 화소 데이터를 사용한 것이다. ), DCT, 예를 들어 type-1 DCT를 수행하여 N+1개의 DCT 계수{F(0),F(1),..,F(N)}를 구한다(S44). 그리고, 상기 제 2윈도윙 필터(35)는, 필터링 계수{bk}를 상기 N+1 개의 DCT 계수에 곱함으로써, 앞서 획득된 고역밴드 성분의 DCT 계수와의 조합을 위해 저역밴드에 성분을 크기를 적절히 조절한 N개의 DCT 계수를 얻는다(S45). Meanwhile, the second DCT unit 34 adds one pixel data adjacent to the left or right side (or the upper side or the lower side) to the N pixel data groups in the pixel data of any one row of the image block (FIG. The example of 4 uses pixel data adjacent to the right side.), DCT, for example, type-1 DCT is performed to perform N + 1 DCT coefficients {F (0), F (1), .., F ( N)} is obtained (S44). The second windowing filter 35 multiplies the N + 1 DCT coefficients by a filtering coefficient {b k } to multiply the N + 1 DCT coefficients to add a component to the low band for combination with the DCT coefficients of the previously obtained high band component. N DCT coefficients of appropriately adjusted sizes are obtained (S45).

본 발명에 따른 도 4의 실시예에서는, 상기 필터링 계수{bk}를 {b0=1,b1=1,..,bN=1}로 설정하여 윈도윙한다.In the embodiment of FIG. 4 according to the present invention, the filtering coefficient {b k } is set to {b 0 = 1, b 1 = 1, .., b N = 1} for windowing.

이 필터링 계수{bk}는, 상기 제 2DCT부(34)가 변환한 N+1개의 DCT 계수를 크기변화없이 그대로 사용하기 위한 것이므로, 이 경우에는 상기 제 2윈도윙 필터(35)를 사용하지 않고 상기 제 2DCT부(34)에 의해 변환된 N+1개의 DCT 계수들을 그대로 상기 결합기(36)에 인가하여도 무방하다.The filtering coefficient {b k } is for using the N + 1 DCT coefficients converted by the second DCT 34 without changing their size. In this case, the second windowing filter 35 is not used. The N + 1 DCT coefficients converted by the second DCT 34 may be applied to the combiner 36 without change.

상기 결합기(36)는, 상기 제 1윈도윙 필터(33)로부터 얻어지는 N개의 고역성분 DCT 계수들{F(N+1),..,F(2N-2),F(2N-1),F(2N)}과 상기 제 2윈도윙 필터(35)( 또는 상기 제 2DCT부(34) )로부터 얻어지는 N+1개의 저역성분 DCT 계수들{F(0),F(1),..,F(N)}을 대역별로 배치하여 2N+1개의 DCT 계수들{F(0),F(1),..,F(2N-1),F(2N)}을 구성하고(S46), 상기 IDCT부(37)는 상기 2N+1개의 DCT 계수들에 대해, IDCT를 수행하여 2N+1개의 화소 데이터를 구하고(S47), 그 중 마지막 화소 데이터(401))는 버린다. 이 버려지는 화소 데이터(401)는, 2N+1개의 화소 데이터의 양 경계 데이터에서, 앞서의 이산여현 변환(S44)을 위해 추가된 한 개의 화소 데이터에 공간적으로(spatially) 근접한 데이터이다. 이로써 2N개, 즉 2배 확대된 화소 데이터 군{D(0),D(1),..,D(2N-1)}을 얻게 된다. The combiner 36 comprises N high-pass component DCT coefficients F (N + 1),..., F (2N-2), F (2N-1), obtained from the first windowing filter 33. F (2N)} and the N + 1 low-pass DCT coefficients {F (0), F (1),... Obtained from the second windowing filter 35 (or the second DCT part 34). F (N)} is arranged for each band to form 2N + 1 DCT coefficients {F (0), F (1), .., F (2N-1), F (2N)} (S46), The IDCT unit 37 performs IDCT on the 2N + 1 DCT coefficients to obtain 2N + 1 pixel data (S47), and discards the last pixel data 401. The discarded pixel data 401 is data spatially close to one pixel data added for the above discrete cosine transform S44 in both boundary data of 2N + 1 pixel data. As a result, the pixel data group {D (0), D (1), ..., D (2N-1)}, which is 2N magnified, is obtained.

2N개의 화소 데이터 집합{D(k)}에서, {D(i)|i=홀수,i<2N}의 화소 데이터를 취하면, 1/2펠 모션추정을 위한 화소 데이터가 된다.In the 2N pixel data set {D (k)}, if pixel data of {D (i) | i = odd, i <2N} is taken, it becomes pixel data for 1 / 2-pel motion estimation.

도 4의 실시예에서는, 윈도윙 필터를 사용하여, 고해상도 데이터로부터 얻어진 고역의 DCT계수와 저해상도 데이터로부터 얻어진 저역의 DCT계수가 상호 중첩되지 않도록 절단(truncation)시켰으나, 본 발명에 따른 다른 실시예에서는, 고해상도 데이터와 저해상도 데이터로부터 얻어진 고역 및 저역의 DCT 계수들이 일부 중첩되도록 할 수도 있다.In the embodiment of FIG. 4, the windowing filter is used to cut the high-frequency DCT coefficient obtained from the high resolution data and the low-frequency DCT coefficient obtained from the low resolution data so as not to overlap each other, but in another embodiment according to the present invention, The high and low DCT coefficients obtained from the high resolution data and the low resolution data may be partially overlapped.

도 5는 이에 따른 실시예에 의한, 영상데이터의 업샘플링 과정을 도식적으로 나타낸 것이다. 도 5의 실시예를 수행하기 위해서, 도 3의 제 1윈도윙 필터(33)는 다음과 같이 설정된 필터계수{ak}(501)를 갖게 된다.5 is a diagram illustrating an upsampling process of image data according to an embodiment according to the present invention. In order to perform the embodiment of FIG. 5, the first windowing filter 33 of FIG. 3 has a filter coefficient {a k } 501 set as follows.

{ak} = {a0=0,a1=0,..aN-1=pI-1,aN=pI,aN+1=pI+1,..,a2N=1} 여기서, 0<pI<pI+1<1 이며, pI는, 업샘플링된 영상의 화질이 부분 또는 전체적으로, 도 4에 제시된 실시예와 동일 또는 향상되게 적절히 선택되는 상수이다.{a k } = {a 0 = 0, a 1 = 0, .. a N-1 = p I-1 , a N = p I , a N + 1 = p I + 1 , .., a 2N = 1} Here, 0 <p I <p I + 1 <1, where p I is a constant appropriately selected such that the quality of the upsampled image is partially or entirely the same or improved as the embodiment shown in FIG.

마찬가지로, 상기 제 2윈도윙 필터(35)도 다음과 같이 설정된 필터계수{bk}(502)를 갖게된다.Similarly, the second windowing filter 35 also has a filter coefficient {b k } 502 set as follows.

{bk} = {b0=1,b1=1,..,bN-2=qI-1,bN-1=qI} 여기서, 1>qI-1>qI>0 이며, qI는, 업샘플링된 영상의 화질이 부분 또는 전체적으로, 도 4에 제시된 실시예와 동일 또는 향상되게 적절히 선택되는 상수이다. {b k } = {b 0 = 1, b 1 = 1, .., b N-2 = q I-1 , b N-1 = q I } where 1> q I-1 > q I > 0 Q I is a constant that is appropriately selected such that the quality of the upsampled image is at least partly or entirely equal to or improved from the embodiment shown in FIG. 4.

ak와 bk의 적절한 선택에 있어서, ak+bk=1의 조건을 만족시키는 상수들이 선택된다.In proper selection of a k and b k , constants are selected that satisfy the condition of a k + b k = 1.

도 3의 장치는, 위와 같이 설정된 필터 계수(501,502)를 사용하여 도 4의 실시예에 대해 설명한 동작과 동일한 동작(S41~S47)을 수행함으로써 주어진 영상 데이터에 대한 확대 영상 데이터 또는 1/2펠 화소점의 영상 데이터를 구하게 된다. 또한, 도 5의 실시예에서는, 상기 제 1윈도윙 필터(33)와 제 2윈도윙 필터(35)의 출력 DCT 계수들에, DCT 도메인 상에서의 동일 위치에 해당하는 값이 함께 존재하므로( 즉, 주파수 대역이 중첩되는 성분을 가지므로 ), 상기 결합기(36)는 이 들에 대해서는 양 자의 값을 더하여 하나의 DCT 계수값으로 하여 후단의 IDCT부(37)에 인가한다.The apparatus of FIG. 3 uses the filter coefficients 501 and 502 set as described above to perform the same operations S41 to S47 as those described with respect to the embodiment of FIG. Image data of the pixel point is obtained. In addition, in the embodiment of FIG. 5, the output DCT coefficients of the first windowing filter 33 and the second windowing filter 35 together exist with values corresponding to the same position on the DCT domain (that is, Since the frequency bands have components overlapping with each other, the coupler 36 adds the values of both quantums to one DCT coefficient value and applies them to the IDCT unit 37 at a later stage.

전술한 영상 데이터의 업샘플링 장치는, 영상신호의 엔코더에는 물론, 이동통신 단말기 등에 실장되거나 또는 기록매체를 재생하는 장치에 실장되는 디코더 내부에 구현될 수 있다.The above-described upsampling device for video data may be implemented in a decoder mounted on a mobile communication terminal or a device for reproducing a recording medium as well as an encoder of a video signal.

본 발명은 전술한 전형적인 바람직한 실시예에만 한정되는 것이 아니라 본 발명의 요지를 벗어나지 않는 범위 내에서 여러 가지로 개량, 변경, 대체 또는 부가하여 실시할 수 있는 것임은 당해 기술분야에 통상의 지식을 가진 자라면 용이하게 이해할 수 있을 것이다. 이러한 개량, 변경, 대체 또는 부가에 의한 실시가 이하의 첨부된 특허청구범위의 범주에 속하는 것이라면 그 기술사상 역시 본 발명에 속하는 것으로 보아야 한다. It is to be understood that the present invention is not limited to the above-described exemplary preferred embodiments, but may be embodied in various ways without departing from the spirit and scope of the present invention. If you grow up, you can easily understand. If the implementation by such improvement, change, replacement or addition falls within the scope of the appended claims, the technical idea should also be regarded as belonging to the present invention.

상술한 본 발명에 따른 실시예의 적어도 하나는, 업샘플링된 영상 데이터의 영상 번짐현상과 이미지 윤곽이 나타나는 현상을 동시에 저감(低減)시키는 효과를 가진다.At least one of the embodiments according to the present invention has the effect of simultaneously reducing the image blurring phenomenon and the appearance of the image contour of the upsampled image data.

Claims (9)

화소 데이터 군(群)을 업샘플링하는 방법에 있어서,In the method of upsampling a group of pixel data, 상기 데이터 군 내외의 화소 데이터간에, 인터폴레이션(interpolation)을 통하여 화소 데이터를 추가하고, 화소 데이터가 추가된 데이터 그룹에서 일부를 선택하여 이산여현 변환하는 1단계와,Adding pixel data through interpolation between pixel data in and out of the data group, selecting a part of the data group to which pixel data is added, and performing discrete cosine conversion; 상기 화소 데이터 군에 적어도 하나의 인접 화소 데이터를 포함시켜 이산여현 변환하고, 그 변환된 데이터와 상기 1단계에서 변환된 데이터를 대역별로 분리 또는 일부 중첩되도록 취하여 이산여현 역변환하는 2단계를 포함하여 이루어지는 방법.Including at least one adjacent pixel data in the pixel data group, and performing a discrete cosine transform, and performing the discrete cosine inversion by separating or partially overlapping the converted data and the data converted in the first step. Way. 제 1항에 있어서, The method of claim 1, 상기 화소 데이터 군의 화소 데이터 수는 N이고, The pixel data number of the pixel data group is N, 상기 1단계는, 상기 화소 데이터군에 인접된 N개의 화소 데이터를 포함하는 2N개의 화소 데이터에 대해 인터폴레이션하여 4N개의 화소 데이터의 그룹을 만들고, 그 데이터 그룹에서 2N+1개의 화소 데이터를 취하여 이산여현 변환하며,In step 1, interpolation is performed on 2N pixel data including N pixel data adjacent to the pixel data group to form a group of 4N pixel data, and 2N + 1 pixel data is taken from the data group to make a discrete cosine. To convert, 상기 2단계는, 상기 화소 데이터군에, 인접된 한 개의 화소 데이터를 추가하여 이산여현 변환하고, 그 변환된 N+1개의 데이터와, 상기 1단계에서 변환된 2N+1개의 데이터에서 고역밴드의 N개의 데이터를 취한 2N+1개의 데이터를 이산여현 역변환한후 한 개의 화소 데이터를 버림으로써 2N개의 화소 데이터를 구성하는 방법.In the second step, the adjacent pixel data is added to the pixel data group to perform discrete cosine transform. The converted N + 1 data and the 2N + 1 data converted in the first step are used for high-band. A method of constructing 2N pixel data by inversely transforming 2N + 1 data taking N data and then discarding one pixel data. 제 1항에 있어서,The method of claim 1, 상기 화소 데이터 군의 화소 데이터 수는 N이고, The pixel data number of the pixel data group is N, 상기 1단계는, 상기 화소 데이터군에 인접된 N개의 화소 데이터를 포함하는 2N개의 화소 데이터에 대해 인터폴레이션하여 4N개의 화소 데이터의 그룹을 만들고, 그 데이터 그룹에서 2N+1개의 화소 데이터를 취하여 이산여현 변환하며,In step 1, interpolation is performed on 2N pixel data including N pixel data adjacent to the pixel data group to form a group of 4N pixel data, and 2N + 1 pixel data is taken from the data group to make a discrete cosine. To convert, 상기 2단계는, 상기 화소 데이터군에, 인접된 한 개의 화소 데이터를 추가하여 이산여현 변환하고, 그 변환된 N+1개의 데이터에 제 1윈도윙 필터 계수{bk}를 곱한 데이터와, 상기 1단계에서 변환된 2N+1개의 데이터에 제 2윈도윙 필터 계수{ak}를 곱한 데이터를 주파수 성분별로 합산하여 얻은 2N+1개의 데이터를 이산여현 역변환한후 한 개의 화소 데이터를 버림으로써 2N개의 화소 데이터를 구성하는 방법.In the second step, the adjacent pixel data is added to the pixel data group, the discrete cosine transform is performed, and the data obtained by multiplying the converted N + 1 data by the first windowing filter coefficient {b k } is performed. 2N + 1 data obtained by summing the 2N + 1 data transformed in step 1 and multiplied by the second windowing filter coefficient {a k } for each frequency component, inversely transformed 2N + 1 data, and discarding one pixel data by discarding one pixel data. Method of constructing two pixel data. 제 3항에 있어서,The method of claim 3, wherein 상기 제 2윈도윙 필터 계수{ak}는 {a0=0,a1=0,..aN-1=pI-1,aN=pI,aN+1=pI+1,..,a2N=1}이고, pI는 0<pI<pI+1<1 의 조건을 만족하는 상수인 방법.The second windowing filter coefficient {a k } is {a 0 = 0, a 1 = 0, .. a N-1 = p I-1 , a N = p I , a N + 1 = p I + 1 , .., a 2N = 1} and p I is a constant satisfying the condition 0 <p I <p I + 1 <1. 제 3항에 있어서,The method of claim 3, wherein 상기 제 1윈도윙 필터 계수{bk}는 {b0=1,b1=1,..,bN-2=qI-1,bN-1=qI}이고, qI는 1>qI-1>qI>0의 조건을 만족하는 상수인 방법.The first windowing filter coefficient {b k } is {b 0 = 1, b 1 = 1, .., b N-2 = q I-1 , b N-1 = q I }, and q I is 1 > q I-1> q I > constant manner satisfying the conditions of 0. 제 2항 또는 제 3항에 있어서,The method of claim 2 or 3, 상기 2단계는, 상기 이산여현 역변환된 2N+1개의 화소 데이터의 양 경계의 데이터에서, 상기 이산여현 변환을 위해 추가된 인접된 한 개의 화소 데이터에 공간적으로(spatially) 근접한 하나의 데이터를 버리는 방법.In the second step, a method of discarding one spatially adjacent data of one adjacent pixel data added for the discrete cosine transform from the data of both boundaries of the discrete cosine inversely transformed 2N + 1 pixel data. . 제 2항 또는 제 3항에 있어서,The method of claim 2 or 3, 상기 1단계는, 상기 4N개의 화소 데이터의 그룹에서, 상기 N개의 화소 데이터 군과 공간적으로(spatially)으로 대응되는 2N개의 화소 데이터와 그에 인접된 1개의 화소 데이터를 취하여 이산여현 변환하는 방법.In the step 1, the 2N pixel data spatially corresponding to the N pixel data group and one pixel data adjacent thereto are discrete cosine transformed from the group of 4N pixel data. 제 1항에 있어서,The method of claim 1, 상기 1단계는, 6-tap FIR 인터폴레이션을 통해 상기 화소 데이터간에 화소 데이터를 추가하는 방법.The first step is to add pixel data between the pixel data through 6-tap FIR interpolation. 제 1항에 있어서,The method of claim 1, 상기 이산여현 변환은 type-1 DCT인 방법.Wherein the discrete cosine transform is type-1 DCT.
KR1020060015408A 2005-06-21 2006-02-17 Method for upsampling a video data KR20060133885A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US69226305A 2005-06-21 2005-06-21
US60/692,263 2005-06-21

Publications (1)

Publication Number Publication Date
KR20060133885A true KR20060133885A (en) 2006-12-27

Family

ID=37812601

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060015408A KR20060133885A (en) 2005-06-21 2006-02-17 Method for upsampling a video data

Country Status (1)

Country Link
KR (1) KR20060133885A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020120704A (en) * 2019-01-29 2020-08-13 キヤノンメディカルシステムズ株式会社 Image processing apparatus and image processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020120704A (en) * 2019-01-29 2020-08-13 キヤノンメディカルシステムズ株式会社 Image processing apparatus and image processing method

Similar Documents

Publication Publication Date Title
JP5590574B2 (en) Resampling and image resizing operations for multi-resolution video encoding and decoding
KR101033548B1 (en) Video encoding method, video decoding method, video encoder, and video decoder, which use smoothing prediction
US8107571B2 (en) Parameterized filters and signaling techniques
JP4844741B2 (en) Moving picture coding apparatus and moving picture decoding apparatus, method and program thereof
US10034008B2 (en) Method and apparatus for scalable video encoding using switchable de-noising filtering, and method and apparatus for scalable video decoding using switchable de-noising filtering
US20140247890A1 (en) Encoding device, encoding method, decoding device, and decoding method
KR20060043115A (en) Method and apparatus for encoding/decoding video signal using base layer
KR20060128596A (en) Video encoding method, video decoding method, video encoder, and video decoder, which use smoothing prediction
MX2013003871A (en) Method and apparatus for spatial scalability for hevc.
MX2013003868A (en) Method and apparatus for feature based video coding.
WO2011039931A1 (en) Image encoding device, image decoding device, image encoding method and image decoding method
JP4880373B2 (en) Image encoding method, encoded image decoding method, image encoding device, and encoded image decoding device
EP1878250A1 (en) Method for scalably encoding and decoding video signal
JP4844455B2 (en) Video signal hierarchical decoding device, video signal hierarchical decoding method, and video signal hierarchical decoding program
EP1878248A1 (en) Method for scalably encoding and decoding video signal
WO2006104365A1 (en) Method for scalably encoding and decoding video signal
KR20060133885A (en) Method for upsampling a video data
JP4404157B2 (en) Moving picture coding apparatus and moving picture coding method
EP1878247A1 (en) Method for scalably encoding and decoding video signal
KR100897640B1 (en) Moving image encoder and moving image decoder, and its method and computer-readable recording medium containing program thereof
JP2006180173A (en) Device and method for encoding dynamic image, and device and method for decoding dynamic image
JP4870143B2 (en) Video encoding device, video encoding method, video decoding device, video decoding method
JP2018032913A (en) Video encoder, program and method, and video decoder, program and method, and video transmission system
WO2013035358A1 (en) Device and method for video encoding, and device and method for video decoding
JP4403565B2 (en) Moving picture decoding apparatus and moving picture decoding method

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination