KR100197373B1 - Object coding apparatus - Google Patents
Object coding apparatus Download PDFInfo
- Publication number
- KR100197373B1 KR100197373B1 KR1019950044806A KR19950044806A KR100197373B1 KR 100197373 B1 KR100197373 B1 KR 100197373B1 KR 1019950044806 A KR1019950044806 A KR 1019950044806A KR 19950044806 A KR19950044806 A KR 19950044806A KR 100197373 B1 KR100197373 B1 KR 100197373B1
- Authority
- KR
- South Korea
- Prior art keywords
- block
- image
- unit
- taps
- filter
- Prior art date
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03H—IMPEDANCE NETWORKS, e.g. RESONANT CIRCUITS; RESONATORS
- H03H17/00—Networks using digital techniques
- H03H2017/0072—Theoretical filter design
- H03H2017/0081—Theoretical filter design of FIR filters
Abstract
본 발명은 동영상을 이동 물체별로 분할하고 각 이동 물체에 대해 움직임 표현 파라메타를 추정하는 방식으로 물체별로 움직임을 보상하는 물체별 부호화 장치에 관한 것으로, 입력되는 프레임 단위의 영상을 독립적인 움직임의 이동 물체별로 분할하는 영상 분할부(21), 상기 이동 물체별로 분할된 영상을 기설정 블럭 단위로 분할하는 블럭 분할부(22), 상기 기설정 블럭 단위로 분할된 각 블럭중 영상 조각을 포함한 블럭을 검출하는 영상 조각 블럭 검출부(23), 상기 영상 조각을 포함한 블럭내의 영상 조각을 이루는 픽셀수에 따라 기설정 블럭의 각 일방향 라인을 필터링하기 위한 필터탭수를 결정하는 제1 탭수 결정부(24), 상기 제1 탭수 결정부(24)에 의해 결정된 탭수에 따라 상기 각 일방향 라인을 저역 필터링하여 상기 일방향으로 영역을 확장하는 제1 FIR 확장 필터부(25), 상기 일 방향으로 영역 확장된 기설정 블럭에 대하여 상기 일 방향과 수직인 타방향 라인을 필터링하기 위한 필터탭수를 결정하는 제2 탭수 결정부(26), 상기 제1 탭수 결정부(26)에 의해 결정된 탭수에 따라 상기 기 설정된 블럭의 각 타방향 라인을 저역 필터링하여 상기 타방향으로 영역을 확장하는 FIR 확장 필터부(27)를 구비하여 구성함을 특징으로 한다.The present invention relates to an object-based encoding apparatus for compensating motion for each object by dividing a video by moving objects and estimating a motion expression parameter for each moving object. The image segmentation unit 21 for dividing each image, the block segmentation unit 22 for dividing the image divided for each moving object by a predetermined block unit, and detecting a block including an image fragment among the blocks divided in the predetermined block unit. An image fragment block detector 23 for determining a number of filter taps for filtering each one-way line of a predetermined block according to the number of pixels forming an image fragment in a block including the image fragment; A low pass filtering of each one-way line according to the number of taps determined by the first tap number determination unit 24 to expand an area in the one direction 1 FIR expansion filter unit 25, a second tap number determination unit 26 for determining the number of filter taps for filtering the line in the other direction perpendicular to the one direction with respect to the predetermined block extended in the one direction, the second And a FIR extension filter unit 27 for extending the region in the other direction by low-pass filtering each other line of the predetermined block according to the number of taps determined by the first tap number determination unit 26. .
Description
제1도는 종래 기술의 블록별 부호화 기법을 설명하기 위한 도면.1 is a diagram illustrating a conventional block-by-block encoding technique.
제2도는 본 발명의 실시예를 나타내는 상세 구성도.2 is a detailed block diagram showing an embodiment of the present invention.
제3도는 본 발명에 따른 필터링 과정을 설명하기 위한 도면.3 is a view for explaining a filtering process according to the present invention.
* 도면의 주요부분에 대한 부호의 설명* Explanation of symbols for main parts of the drawings
21 : 영상 분할부 22 : 블럭 분할부21: video divider 22: block divider
23 : 영상 조각 블럭 검출부 24,26 : 탭수 결정부23: image fragment block detection unit 24, 26: tap number determination unit
25,27 : FIR 확장 필터25,27: FIR Expansion Filter
본 발명은 동영상을 이동 물체별로 분할하고 각 이동 물체에 대해 움직임 표현 파라메타를 추정하는 방식으로 물체별로 움직임을 보상하는 물체별 부호화 장치에 있어서, 특히 움직임 파라메타로부터 신호변화를 충분히 표현하지 못하는 MF(Model Failure) 영역의 픽셀 정보를 부호화하는 물체별 부호화 장치에 관한 것이다.The present invention is an object-specific encoding apparatus for compensating motion for each object by dividing a video by moving object and estimating a motion expression parameter for each moving object, and in particular, an MF (Model) that does not sufficiently express a signal change from the motion parameter. Failure) relates to an object-specific encoding device for encoding the pixel information of the region.
최근 MPEG(Motion Picture Experts Group)4의 표준화를 앞두고 이에 수용할수 있는 저전송율 동영상 부호화기법에 대한 연구가 활발히 진행되고 있는데 이동 물체를 포함한 연속 영상의 저전송을 부호화 하기 위해서는 이동 정보를 이용하는 데이타 감축 기법이 필수적이다.Recently, studies on low-rate video encoding techniques that can be accommodated ahead of the standardization of the Motion Picture Experts Group (MPEG) 4 have been actively conducted. In order to encode low transmission of continuous images including moving objects, a data reduction technique using moving information is used. This is essential.
한편 종래의 동영상 부호화 기법들은 이동 물체의 모양 및 전역 움직임(global motion)과 무관하게 지역적인 블럭 움직임에 근거하고 있다.Meanwhile, conventional video encoding techniques are based on local block motion regardless of the shape and global motion of the moving object.
따라서 낮은 전송율에서, 블럭별 이동 보상 부호화를 적용함으로서 블럭화 현상, 모서리 떨림 현상, 반점 현상드와 같은 화질 저하가 재생 영상에 나타나게 된다.Therefore, at low data rates, by applying block-by-block motion compensation coding, image quality deterioration such as blocking, corner blur, and spot phenomenon appears in the playback image.
MPEG4에서는 상기한 문제점을 해결하기 위한 새로운 부호화 방식으로서 영상신호의 통계적 특성만을 주로 고려하는 종래의 방법과는 다르게, 인간의 시각 특성에 바탕을 두고 주관적 화질을 중시하며 아울러 전송 데이타량의 대폭적인 감축을 도모하는 동영상 부호화 기법이 연구되어 지고 있으며, 이러한 새로운 부호화 기법중에 하나가 동영상을 이동 물체별로 분할하고, 각 이동 물체에 대해 움직임 표현 파라메타를 추정하는 방식으로 물체별로 움직임을 보상하는 물체별 부호화 기법이다.In MPEG4, unlike the conventional method which considers only the statistical characteristics of video signals as a new coding scheme to solve the above problems, it focuses on subjective image quality based on human visual characteristics and drastically reduces the amount of transmission data. A video encoding technique is proposed, which is one of the new coding techniques, which divides a video by moving objects and estimates motion expression parameters for each moving object. to be.
물체별 부호화 기법은 먼저, 입력 영상을 독립적인 움직임의 이동 물체별로 분할하고 분할된 물체의 움직임 정보를 추정하는 과정을 통하여 윤곽선 정보, 움직임 정보, 색상 정보를 추출한후 추출된 윤곽선 정보, 움직임 정보, 색상 정보를 이동 물체별로 선택적으로 부호화하여 전송한다.Object-specific encoding technique first divides the input image into moving objects of independent motion and extracts contour information, motion information, and color information by estimating the motion information of the divided object, and then extracts the contour information, motion information, Color information is selectively encoded and transmitted for each moving object.
이러한 물체별 부호화 방식에서 대부분의 영역은 움직임 계수에 의해 이동 보상되어 질수 있으므로 움직임 정보와 윤곽선 정보만 전송하면 된다.In this object-specific coding scheme, most regions can be motion compensated by motion coefficients, so only motion information and contour information need to be transmitted.
그러나 움직임 계수들로 부터 신호 변화를 충분히 표현하지 못하는 영역이 발생하는데, 이러한 MF 영역은 이동 보상을 할수 없기 때문에 윤곽선 정보뿐만 아니라 밝기 정보를 전송해야 한다.However, an area that does not sufficiently express the signal change from the motion coefficients is generated. Since the MF area cannot compensate for the movement, it is necessary to transmit not only the contour information but also the brightness information.
즉, 물체별 부호화 방식에 의해 부호화를 수행할 경우 N*M 형태의 직사각형 영상이 아닌 임의의 모양의 조각들이 생기고 이를 부호화할 필요가 있다.That is, when the encoding is performed by the object-specific encoding method, pieces of arbitrary shapes are generated and not necessary to encode the N * M rectangular image.
따라서 종래에는 MF 영역 밝기 정보의 부호화를 위한 방법으로, Gilge에 의해 제안된 GOT(General Orthogonal Transform)와 Kaup and Aach에 의해 발표된 반복 부호화 기법(iterative coding scheme)이 있는데, 이는 윤곽선에 적응적으로 부호화를 하기 때문에 좋은 성능을 보이지만, 이러한 기법들은 직교하는 기저 함수가 윤곽선 형태에 따라 다르기 때문에 기저 함수를 구하는데 많은 시간과 계산이 소요된다.Therefore, conventionally, there are GOT (General Orthogonal Transform) proposed by Gilge and iterative coding scheme presented by Kaup and Aach as a method for encoding MF region brightness information. Although it shows good performance because of the encoding, these techniques require a lot of time and computation to find the basis function because the orthogonal basis functions vary depending on the contour shape.
또한 MF 영역 밝기 정보의 부호화를 위한 블럭별 변환 부호화 방식은 원하는 물체 영역 밖의 영역에 제로(zero), 평균값, 또한 그 영역의 미러(mirror)등을 채워넣는 다음 변환하는 방식으로, 제1도를 참조하여 설명하면 다음과 같다.In addition, a block-by-block transform encoding method for encoding MF region brightness information is performed by filling zero, an average value, and a mirror of the region in a region outside the desired object region, and then converting it. If described with reference to:
먼저, 제로 채워 넣기(zero stuffing) 기법은 제1도(a)에 나타난 바와 같이 물체 영역(1) 이외의 다른 영역(2)에 제로를 채워넣는 가장 단순한 방식으로서 물체와 제로 사이에 경계가 발생한다. 이 때문에 원하지 않는 고주파 성분이 많이 포함되어 부호화 할때 압축률이 많이 떨어지는 문제점이 있다.First, the zero stuffing technique is the simplest way of filling zero into an area 2 other than the object area 1 as shown in FIG. do. Because of this, there is a problem that the compression rate is much lower when encoding because a lot of unwanted high frequency components are included.
상기한 제로 채워넣기 기법의 문제점을 해결하기 위해서 제안된 방법들로서, MF 영역밖에 제로 이외의 다른 성분을 채워 넣음으로서 부호화 효율을 높이는 평균값 채워넣기 방식(제1도(b))과 미러 이미지 확장 방식(제1도(c))이 있다.As methods proposed to solve the problems of the zero filling technique described above, an average value filling method (FIG. 1 (b)) and a mirror image expansion method which increase coding efficiency by filling other components other than zero outside the MF region (FIG. 1C).
평균값 채워넣기 방식은 물체 영역(3)에 있는 밝기값의 평균값을 물체 영역 이외의 다른 영역(4)에 채워 넣는 방식이고, 미러 이미지 확장 방식은 물체 영역(5)의 밝기값을 물체 영역밖(6)에 대칭되도록 부여하는 방식으로서, 경계 지역에 대한 신호의 급격한 변화를 방지하기 때문에 고주파 성분을 줄일수 있다는 장점이 있지만 물체 영역밖에 원하지 않는 정보를 채워 넣은후 부호화를 수행하기 때문에 부호화 효율이 떨어지는 문제점이 있었다.The average value filling method is a method of filling an average value of brightness values in the object area 3 into an area 4 other than the object area, and the mirror image expansion method is used to extend the brightness value of the object area 5 outside the object area ( 6), it has the advantage of reducing the high frequency component because it prevents the abrupt change of the signal to the boundary area, but the coding efficiency is inferior because the encoding is performed after filling the unwanted information only in the object area. There was a problem.
본 발명은 상기 문제점을 해결하기 위하여 안출한 것으로서, 임의의 모양을 갖는 영상 조각 영역을 수평 및 수직 방향으로 필터링하여 영역 확장을 수행함으로서 부호화 효율을 높일수 있는 물체별 부호화 장치를 제공함에 그 목적이 있다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and an object thereof is to provide an encoding apparatus for an object that can increase encoding efficiency by performing region expansion by filtering an image fragment region having an arbitrary shape in horizontal and vertical directions. .
본 발명은 상기 목적을 달성하기 위하여 입력되는 프레임 단위의 영상을 독립적인 움직임의 이동 물체별로 분할하는 영상 분할부, 상기 이동 물체별로 분할된 영상을 기설정 블럭 단위로 분할하는 블럭 분할부, 상기 기설정 블럭 단위로 분할된 각 블럭중 영상 조각을 포함한 블럭을 검출하는 영상 조각 블럭 검출부, 상기 영상 조각을 포함한 블럭내의 영상 조각을 이루는 픽셀수에 따라 기설정 블럭의 각 일방향 라인을 필터링하기 위한 필터탭수를 결정하는 제1 탭수 결정부, 상기 제1 탭수 결정부에 의해 결정된 탭수에 따라 상기 각 일방향 라인을 저역 필터링하여 상기 일방향으로 영역을 확장하는 제1 FIR 확장 필터부, 상기 일 방향으로 영역 확장된 기설정 블럭에 대하여 상기 일방향과 수직인 타방향 라인을 필터링하기 위한 필터탭수를 결정하는 제2 탭수 결정부, 상기 제1 탭수 결정부에 의해 결정된 탭수에 따라 상기 기 설정된 블럭의 각 타방향 라인을 저역 필터링하여 상기 타방향으로 영역을 확장하는 FIR 확장 필터부를 구비하여 구성함을 특징으로 한다.According to an aspect of the present invention, there is provided an image divider for dividing an image of a frame unit input by moving objects of independent motion, a block divider for dividing an image divided by each moving object by a predetermined block unit, and An image fragment block detection unit for detecting a block including an image fragment among each block divided by a set block unit, and a filter tap number for filtering each one-way line of the preset block according to the number of pixels forming an image fragment in the block including the image fragment A first FIR extension filter part configured to low-pass each of the one-way lines and expand the area in the one direction according to the number of taps determined by the first tap number determiner, and to expand the area in the one direction Determining the number of filter taps for filtering the line in the other direction perpendicular to the one direction for the predetermined block And an FIR extension filter unit for low-pass filtering each other line of the predetermined block according to the number of taps determined by the first tap number determination unit, and extending the region in the other direction. .
이하, 첨부된 도면을 참조하여 본 발명을 상세히 설명한다.Hereinafter, with reference to the accompanying drawings will be described in detail the present invention.
제2도는 본 발명을 실시하기 위한 상세 구성도로서, 입력되는 프레임 단위의 영상을 독립적인 움직임의 이동 물체별로 분할하는 영상 분할부(21), 이동 물체별로 분할된 영상을 8*8블럭 단위로 분할하는 블럭 분할부(22), 8*8 블럭 단위로 분할된 각 블럭중 영상 조각을 포함한 블럭을 검출하는 영상 조각 블럭 검출부(23), 영상 조각 블럭 검출부(23)에 의해 검출된 영상 조각을 포함한 블럭내의 영상 조각을 이루는 픽셀수에 따라 8*8 블럭의 각 수평 라인을 필터링하기 위한 필터탭(filter tap)수를 결정하는 탭수 결정부(24), 탭수 결정부(24)에 의해 결정된 탭수에 따라 영상 조각을 포함한 8*8 블럭의 각 수평 라인을 저역 필터링하여 수평 방향으로 영역을 확장하는 FIR(Finite Impulse Response) 확장 필터부(25), FIR 확장 필터부(25)에 의해 수평 방탕으로 영역 확장된 8*8블럭의 각 수직 라인을 필터링하기 위한 필터탭(filter tap)수를 결정하는 탭수 결정부(26), 탭수 결정부(26)에 의해 결정된 탭수에 따라 수평 방향으로 영역 확장된 8*8블럭의 각 수직 라인을 저역 필터링하여 수직 방향으로 영역을 확장하는 FIR 확장 필터부(27)로 구성한다.FIG. 2 is a detailed configuration diagram for implementing the present invention. An image splitter 21 for dividing an input frame unit image into moving objects having independent motions and an image divided by moving objects in units of 8 * 8 blocks. The image fragments detected by the block dividing unit 22 for dividing, the image fragment block detecting unit 23 for detecting blocks including the image fragments among the blocks divided by 8 * 8 blocks, and the image fragment block detecting unit 23 The number of taps determined by the number of taps determiner 24 and the number of taps determiner 24 for determining the number of filter taps for filtering each horizontal line of an 8 * 8 block according to the number of pixels forming an image fragment in the containing block. The FIR (Finite Impulse Response) expansion filter unit 25 and the FIR expansion filter unit 25 expand the area in the horizontal direction by low-pass filtering each horizontal line of the 8 * 8 block including the image fragment according to Zone extended 8 * 8 blocks Each vertical number of 8 * 8 blocks extended in the horizontal direction according to the number of taps determined by the number of taps determining unit 26 and the number of taps determining unit 26 for determining the number of filter taps for filtering each vertical line The FIR extension filter portion 27 extends the region in the vertical direction by low pass filtering the line.
상기와 같이 구성된 본 발명의 실시예에 대한 동작 설명은 다음과 같다.The operation description of the embodiment of the present invention configured as described above is as follows.
먼저, 영상 분할부(21)는 입력되는 프레임 단위의 영상을 독립적인 움직임의 이동 물체별로 분할하여 분할된 물체의 움직임 정보를 추정하고 윤곽선 정보 및 색상 정보를 추출하여 이를 블록 분할부(22)에 출력하고, 블럭 분할부(22)는 이동 물체별로 분할된 영상을 8*8 블럭 단위로 분할한다.First, the image dividing unit 21 divides an input image of a frame unit for each moving object of independent motion, estimates motion information of the divided object, extracts contour information and color information, and then extracts the contour information and color information to the block dividing unit 22. The block dividing unit 22 divides the image divided by the moving object into 8 * 8 block units.
따라서 영상 조각 블럭 검출부(23)는 8*8 블럭 단위로 분할된 각 블럭중 영상 조각을 포함한 블럭을 검출하여 해당 블럭을 탭수 결정부(24)에 제공하고, 탭수 결정부(25)는 영상 조각을 포함한 블럭내의 영상 조각을 이루는 픽셀수에 따라 8*8블럭의 각 수평 라인을 필터링하기 위한 필터 탭(filter tap)수를 결정하여 FIR 확장 필터부(26)에 제공하면 FIR 확장 필터부(26)는 결정된 탭수에 따라 영상 조각을 포함한 8*8블럭의 각 수평 라인을 저역 필터링하여 수평 방향으로 영역을 확장한다.Therefore, the image fragment block detector 23 detects a block including an image fragment among blocks divided in units of 8 * 8 blocks, and provides the block to the tap number determiner 24, and the tap number determiner 25 performs image fragments. The number of filter taps for filtering each horizontal line of 8 * 8 blocks is determined and provided to the FIR extension filter unit 26 according to the number of pixels constituting the image fragment in the block including the FIR extension filter unit 26. ) Filters the horizontal lines of each 8 * 8 block including the image fragments according to the determined number of taps to expand the area in the horizontal direction.
예를들어 제3도(a)와 같이 8*8블럭의 일 수평 라인의 각 픽셀값이 0,0,a1,a2 ,a3,0,0,0로 이루어져 있다면, 이 때의 필터 탭수는 우측으로 4개의 탭수를 갖고, 좌측으로 3개의 탭수를 갖을 것이다. 한편 FIR 확장 필터부(26)는 각 탭수에 따라 8개의 FIR필터로 구성된다.For example, if each pixel value of one horizontal line of 8 * 8 blocks is 0,0, a1, a2, a3,0,0,0 as shown in FIG. 3 (a), the number of filter taps at this time is right It will have 4 taps and 3 taps to the left. On the other hand, the FIR extension filter unit 26 is composed of eight FIR filters according to the number of taps.
즉, 각 FIR 필터는 우측으로 N개의 좌측으로 M개의 필터탭을 갖되, N+M은 8개이고, 각 FIR 필터의 탭은(N=1,M=7), (N=2,M=6), (N=3,M=5), (N=4,M=4), (N=5,M=3), (N=6,M=2), (N=7,M=1)로 이루어진다.That is, each FIR filter has M filter taps to the left and N filter taps to the right, N + M is 8, and the taps of each FIR filter are (N = 1, M = 7), (N = 2, M = 6 ), (N = 3, M = 5), (N = 4, M = 4), (N = 5, M = 3), (N = 6, M = 2), (N = 7, M = 1 )
따라서 탭수 결정부(25)는 우측으로 4개의 탭, 좌측으로 3개의 탭을 결정하여 FIR 확장 필터부(26)에 제공하고, FIR 확장 필터부(26)는 탭수 결정부(25)에 의해 결정된 탭수를 갖는, 즉(N=4,M=3)의 FIR 필터로 저역 필터링하여 제3도(b)와 같이 a1, a1+a2, a1+a2+a3, a1+a2+a3, a1+a2+a3, a1+a2+a3, a2+a3, a3의 응답 성격을 갖도록 하는 것이다.Therefore, the tap number determination unit 25 determines four taps to the right and three taps to the left and provides the taps to the FIR extension filter unit 26, and the FIR extension filter unit 26 determines the number of taps determined by the tap number determination unit 25. Low-pass filtering with a tap number, i.e., (N = 4, M = 3), results in a1, a1 + a2, a1 + a2 + a3, a1 + a2 + a3, a1 + a2 as shown in FIG. + a3, a1 + a2 + a3, a2 + a3, a3.
FIR 확장 필터(26)에 의해 제3도(b)와 같이 각 수평 라인이 수평 방향으로 영역 확장된 8*8블럭에 대하여 탭수 결정부(27)는 각 수직 라인을 필터링하기 위한 필터 탭수를 결정하는데, 이러한 수직 방향의 탭수 결정은 상술한 수평 방향의 탭수 결정 방법과 같다. 또한 탭수 결정부(27)에 결정된 수직 방향의 탭수에 따라 FIR 확장 필터부(28)는 수평 방향으로 영역 확장된 8*8블럭의 각 수직 라인을 저역 필터링하여 수직 방향으로 영역을 확장하는 이때, FIR 확장 필터부(28)도 FIR 확장 필터부(26)과 같이 8개의 각기 다른 탭으로 이루어져 있어서, 상술한 FIR 확장 필터부(26)와 동일한 기능을 수행하되, 수직 방향으로 수행한다는 점이 특징이라 할수 있을 것이다.The tap number determination unit 27 determines the number of filter taps for filtering each vertical line for an 8 * 8 block in which each horizontal line is extended in the horizontal direction by the FIR extension filter 26 as shown in FIG. 3 (b). The vertical tap number determination is the same as the horizontal tap number determination method described above. In addition, according to the number of taps in the vertical direction determined by the tap number determining unit 27, the FIR expansion filter unit 28 low-pass filters each vertical line of 8 * 8 blocks that are extended in the horizontal direction to expand the area in the vertical direction. The FIR extension filter unit 28 is also composed of eight different tabs, like the FIR extension filter unit 26, and performs the same function as the above-described FIR extension filter unit 26, but is characterized in that it performs in the vertical direction. You can do it.
상술한 바와 같이 본 발명의 바람직한 실시예는 영상 조각을 수평 방향으로 필터링하고, 다시 수직 방향으로 필터링하지만 본 발명의 물체별 부호화 방식이 반드시 이에 국한되어지는 것으로 이해되어서는 안될 것이며, 영상 조각을 수평 방향이 아닌 수직 방향으로 먼저 필터링 한후, 다시 수평 방향으로 필터링하더라도 당업자라면 그 결과가 같을것임을 알수 있을 것이다.As described above, the preferred embodiment of the present invention filters the image fragments in the horizontal direction and again filters them in the vertical direction, but it should not be understood that the object-specific encoding scheme of the present invention is necessarily limited thereto. Even if the first filtering in the vertical direction rather than the direction, and then the horizontal filtering again, those skilled in the art will know that the result will be the same.
상기한 바와 같이 본 발명은 영상 조각을 일정하게 수평, 수직방향으로 필터링하여 물체를 부호화 함으로서, 부호화 효율을 향상할수 있는 효과가 있다.As described above, the present invention has an effect of improving encoding efficiency by encoding an object by regularly filtering image fragments in a horizontal and vertical direction.
Claims (2)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019950044806A KR100197373B1 (en) | 1995-11-29 | 1995-11-29 | Object coding apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019950044806A KR100197373B1 (en) | 1995-11-29 | 1995-11-29 | Object coding apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
KR970032129A KR970032129A (en) | 1997-06-26 |
KR100197373B1 true KR100197373B1 (en) | 1999-06-15 |
Family
ID=19436463
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1019950044806A KR100197373B1 (en) | 1995-11-29 | 1995-11-29 | Object coding apparatus |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100197373B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101285810B1 (en) | 2011-12-29 | 2013-07-12 | 광운대학교 산학협력단 | A Super-Resolution method by Motion Estimation with Sub-pixel Accuracy using 6-Tap FIR Filter |
-
1995
- 1995-11-29 KR KR1019950044806A patent/KR100197373B1/en not_active IP Right Cessation
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101285810B1 (en) | 2011-12-29 | 2013-07-12 | 광운대학교 산학협력단 | A Super-Resolution method by Motion Estimation with Sub-pixel Accuracy using 6-Tap FIR Filter |
Also Published As
Publication number | Publication date |
---|---|
KR970032129A (en) | 1997-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6037986A (en) | Video preprocessing method and apparatus with selective filtering based on motion detection | |
USRE41446E1 (en) | Decoding apparatus including a filtering unit configured to filter an image by application of a weighted average operation | |
US5844614A (en) | Video signal decoding apparatus | |
EP0723375B1 (en) | Post-processing device and method for eliminating blocking artifacts from decompressed images | |
JP4153202B2 (en) | Video encoding device | |
JP5351038B2 (en) | Image processing system for processing a combination of image data and depth data | |
US5805221A (en) | Video signal coding system employing segmentation technique | |
JPH08237669A (en) | Picture signal processor, picture signal processing method and picture signal decoder | |
US5706366A (en) | Apparatus for encoding an image signal having a still object using an image warping technique | |
US5787207A (en) | Method and apparatus for minimizing blockiness in reconstructed images | |
KR100197373B1 (en) | Object coding apparatus | |
JP3193078B2 (en) | System environment adaptive contour compensation method | |
JPH09326024A (en) | Picture coding and decoding method and its device | |
US6937662B2 (en) | Method and decoder for processing a digital video signal | |
JPH11298898A (en) | Block distortion reduction circuit | |
JPH0389792A (en) | Picture encoding device | |
KR100196867B1 (en) | Object coding apparatus | |
JPH10200901A (en) | Moving image coder | |
JP4674419B2 (en) | Image compression apparatus and prefilter circuit | |
JPS63121374A (en) | Motion compensation interframe coding system | |
KR100294895B1 (en) | Motion compensation moving-picture compressing method using filter | |
JPH09130794A (en) | Dynamic image decoder | |
KR0176079B1 (en) | Method of dividing variable boundarys in a parallel high definition tv decoder | |
JPH0828873B2 (en) | Image transmission equipment | |
JPH04129488A (en) | Adaptive filter system before coding of picture data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20110201 Year of fee payment: 13 |
|
LAPS | Lapse due to unpaid annual fee |