KR19990050397A - Adaptive transformation parameter detection method - Google Patents

Adaptive transformation parameter detection method Download PDF

Info

Publication number
KR19990050397A
KR19990050397A KR1019970069516A KR19970069516A KR19990050397A KR 19990050397 A KR19990050397 A KR 19990050397A KR 1019970069516 A KR1019970069516 A KR 1019970069516A KR 19970069516 A KR19970069516 A KR 19970069516A KR 19990050397 A KR19990050397 A KR 19990050397A
Authority
KR
South Korea
Prior art keywords
parameter
image
ratio
transmitting
predetermined threshold
Prior art date
Application number
KR1019970069516A
Other languages
Korean (ko)
Other versions
KR100275546B1 (en
Inventor
이창범
김상중
전경표
Original Assignee
이계철
한국전기통신공사
정선종
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이계철, 한국전기통신공사, 정선종, 한국전자통신연구원 filed Critical 이계철
Priority to KR1019970069516A priority Critical patent/KR100275546B1/en
Publication of KR19990050397A publication Critical patent/KR19990050397A/en
Application granted granted Critical
Publication of KR100275546B1 publication Critical patent/KR100275546B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 동영상 전송에서 사용되는 물체지향 부호화에서 적은 계산량으로 좋은 화질을 얻는 적응형 변환 파라미터 검출방법에 관한 것이다. 그 목적은 물체지향 부호화에서 과다한 계산량을 크게 감축하면서 화질저하는 최소화시킬 수 있는 적응형 변환 파라미터 검출방법을 제공하는 데에 있다. 그 특징은 소정의 임계값에 따른 각 물체의 비율을 계산하는 제 1 단계와, 계층적인 방법으로 소정의 크기로 축소된 차영상을 구하는 제 2 단계와, 해당 물체의 비율을 그 소정의 임계치와 비교하는 제 3 단계와, 그 해당 물체의 비율이 그 소정의 임계치보다 작으면 간이 파라미터와 그 물체의 경계정보를 전송하는 제 4 단계 및 그 해당 물체의 비율이 그 소정의 임계치보다 크면 표준 파라미터와 그 물체의 경계정보를 전송하는 제 5 단계로 이루어지는 데에 있다. 그 효과는 물체의 움직임 속도나 복잡도에 따른 계산량 증가없이 움직임 판단기준에 의해 변환 파라미터 검출방법의 선택이 실시간에 이루어 지는 데에 있다.The present invention relates to an adaptive conversion parameter detection method for obtaining good image quality with a small amount of computation in object-oriented coding used in video transmission. An object of the present invention is to provide an adaptive transform parameter detection method capable of minimizing a reduction in image quality while greatly reducing an excessive amount of computation in object-oriented encoding. The features include a first step of calculating a ratio of each object according to a predetermined threshold value, a second step of obtaining a difference image reduced to a predetermined size in a hierarchical manner, and a ratio of the corresponding object to the predetermined threshold value. A third step of comparing; and a fourth step of transmitting a simple parameter and boundary information of the object if the ratio of the object is smaller than the predetermined threshold and a standard parameter if the ratio of the object is larger than the predetermined threshold. The fifth step of transmitting the boundary information of the object. The effect is that the conversion parameter detection method is selected in real time by the motion determination criteria without increasing the amount of calculation according to the speed or complexity of the object.

Description

적응형 변환 파라미터 검출방법Adaptive transformation parameter detection method

본 발명은 동영상 전송 시스템에서 물체지향 부호화를 사용한 적응형 변환 파라미터 검출방법에 관한 것으로서, 특히 동영상 전송에서 사용되는 물체지향 부호화에서 적은 계산량으로 좋은 화질을 얻는 적응형 변환 파라미터 검출방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an adaptive transform parameter detection method using object-oriented encoding in a video transmission system, and more particularly, to an adaptive transform parameter detection method for obtaining good image quality with a small amount of computation in object-oriented encoding used in video transmission.

일반적으로, 종래의 동영상 전송 시스템에서 움직임 검출 및 보상 방법은 크게 두 가지로 나눌 수 있다. 그 중의 첫 번째는 영상을 일정한 크기의 블록으로 나눈 후, 각 블록에 대한 움직임을 검출/복원하는 블록정합 알고리듬(BMA: Block Matching Algorithm)이다. 이는 계산량은 적으나, 영상을 블록 단위로 처리하므로, 블록 경계에서 필연적으로 화질저하가 발생한다. 두 번째는 영상을 물체 단위로 움직임을 검출/복원하는 물체지향 부호화(object-oriented coding) 방법이다. 이는 이러한 영상 내에 화질저하를 보상하기 위하여 영상을 물체 단위로 처리하므로, 시각적으로 BMA보다 우수한 화질의 영상을 복원할 수 있고 정보 전송량 측면에서도 더 많은 정보를 압축할 수 있다. 그러나, 이 방법을 사용하는 경우에는 도 1에 도시된 바와 같이, 각 영상을 움직이는 물체단위로 분할한 후, 이동정보, 형태정보 및 밝기정보를 표현하는 파라미터 정보를 전송하는데, 이 때의 변환 파라미터 검출은 과다한 계산량을 요구한다는 문제점이 있었다.In general, motion detection and compensation methods in the conventional video transmission system can be divided into two. The first of these is a block matching algorithm (BMA) that detects and restores motion for each block after dividing the image into blocks of a predetermined size. Although the computation amount is small, since the image is processed in units of blocks, the image quality inevitably occurs at the block boundary. The second method is object-oriented coding that detects and restores motion in units of objects. In order to compensate for the deterioration in the image, the image is processed in units of objects, so that the image of visual quality superior to BMA can be reconstructed and more information can be compressed in terms of information transmission. However, when using this method, as shown in FIG. 1, after dividing each image into moving object units, parameter information representing movement information, shape information, and brightness information is transmitted. There is a problem that detection requires an excessive amount of computation.

도 1은 물체지향 부호화 방법의 블록도이다. 도 1을 참조하여 물체지향 부호화 방법을 설명한다.1 is a block diagram of an object-oriented encoding method. An object-oriented encoding method will be described with reference to FIG. 1.

영상분석 부분(1)은 입력영상을 각각의 물체단위로 분할하여 이전영상에 대한 합성영상을 사용해 현재영상 내에 있는 물체의 움직임 정보(Ai), 형태정보(Mi) 및 밝기정보(Si)를 추정하는 부분이다. 파라미터 부호화 부분(3)은 추정된 파라미터들을 각각의 정보에 적합하게 부호화하는 부분이다. 파라미터 메모리 부분(4)은 물체 파라미터 정보를 저장하는 부분이다. 파라미터 복호화 부분(5)에서 메모리에 저장된 정보들이 복원된다. 또한, 영상합성 부분(2)은 검출된 파라미터들을 사용하여 영상을 합성하는 부분으로서 현재 영상에 대한 파라미터들을 검출하기 위해 이전영상의 합성된 영상을 저장하는 부분이다.The image analysis part 1 divides the input image by each object unit and estimates motion information (Ai), shape information (Mi), and brightness information (Si) of the object in the current image by using the composite image of the previous image. That's the part. The parameter encoding part 3 is a part which encodes the estimated parameters suitably for each information. The parameter memory part 4 is a part for storing object parameter information. In the parameter decoding part 5, the information stored in the memory is restored. Also, the image synthesizing portion 2 is a portion for synthesizing an image using the detected parameters, and is a portion for storing the synthesized image of the previous image to detect parameters for the current image.

도 2는 기존의 물체지향 부호화 방법을 사용한 처리과정을 도시한 도면이다. 도 2를 참조하여 기존의 물체지향 부호화 방법을 사용한 처리과정을 설명한다.2 is a diagram illustrating a process using an existing object-oriented encoding method. Referring to Figure 2 will be described a process using the existing object-oriented encoding method.

이는 변환 파라미터를 계산하는 부분(10)과, 구해진 변환 파라미터에 의해 영상을 합성하는 부분(20)과, 구해진 변환 파라미터들이 정확한지를 검사하는 부분(30)으로 구성되어 있다. 변환 파라미터를 계산하는 부분(10)에서는 인접한 두 장의 영상으로부터 차영상을 구해 움직임이 있는 부분에 대해서는 표준 8-파라미터 검출 방법을 사용하여 이동정보를 구하며, 이 때의 변환 파라미터를 사용하여 영상 합성부(20)에서 합성영상을 만든다. 모델 검증부(30)에서는 합성된 영상과 원영상의 오차를 계산해 정확한 변환 파라미터가 구해졌는지를 판단하여 구해진 변환 파라미터가 적합한지를 검사하여 그 물체에 적합한 정보를 전송한다. 여기서, Sk+1은 현재의 영상을, 는 j번째 단계에서 합성된 영상을, Sk 는 합성된 이전영상을, mj는 분석되는 영역을, 그리고 Aj는 분석된 영역의 변환 파라미터를 각각 나타낸다.It is composed of a part 10 for calculating a conversion parameter, a part 20 for synthesizing an image by the obtained conversion parameter, and a part 30 for checking whether the obtained conversion parameters are correct. In the calculating part 10, the difference image is obtained from two adjacent images, and the moving part is obtained using the standard 8-parameter detection method for the moving part. In 20, a composite image is created. The model verification unit 30 calculates an error between the synthesized image and the original image, determines whether the correct conversion parameter is obtained, checks whether the obtained conversion parameter is suitable, and transmits information suitable for the object. Where S k + 1 is the current image, Is the image synthesized in step j, S k Denotes a synthesized previous image, m j denotes a region to be analyzed, and A j denotes a conversion parameter of the analyzed region.

따라서, 동영상 전송 시스템에서 물체지향 부호화 방법은 기존의 움직임 검출 방법에 비해 영상 내에 존재하는 물체 단위로 움직임을 검출/복원할 수 있어 시각적으로 보다 우수한 화질의 영상을 복원할 수 있고, 정보전송량 측면에서도 더 많은 정보를 압축할 수 있다. 그러나, 물체의 특징 및 구조들을 이용한 이동검출 방법으로서 각 영상을 움직이는 물체 단위로 분할한 후, 이동정보, 형태정보 및 밝기정보를 표현하는 파라미터 정보를 전송하는 변환 파라미터 방법은 과다한 계산량을 요구한다는 문제점이 있다.Therefore, in the video transmission system, the object-oriented encoding method can detect / restore the motion in the unit of the object existing in the image, compared to the conventional motion detection method, thereby visually reconstructing the image having better image quality, and in terms of information transmission amount. More information can be compressed. However, as a motion detection method using the features and structures of an object, the conversion parameter method of dividing each image into moving object units and then transmitting parameter information representing movement information, shape information, and brightness information requires an excessive amount of computation. There is this.

상기 문제점을 해결하기 위하여 안출된 본 발명은 물체지향 부호화에서 과다한 계산량을 크게 감축하면서 화질저하는 최소화시킬 수 있는 적응형 변환 파라미터 검출방법을 제공하는 데에 그 목적이 있다.An object of the present invention is to provide an adaptive conversion parameter detection method capable of minimizing a reduction in image quality while greatly reducing an excessive amount of computation in object-oriented coding.

상기 문제점을 해결하기 위하여 안출된 본 발명은 동영상 전송에서 사용되는 물체지향부호화에서 기존의 변환 파라미터 검출 방법이 갖는 과다한 계산량을 크게 감축하면서 화질은 기존 방법에 근접한 결과를 얻을 수 있는 적응형 변환 파라미터 검출방법을 제공하는 데에 다른 목적이 있다.In order to solve the above problems, the present invention provides an adaptive conversion parameter detection capable of achieving a result closer to that of the conventional method while greatly reducing an excessive amount of computation of the existing conversion parameter detection method in object-oriented encoding used in video transmission. There is another purpose in providing a method.

상기 목적을 달성하기 위한 본 발명의 특징은 소정의 임계값에 따른 각 물체의 비율을 계산하는 제 1 단계와, 계층적인 방법으로 소정의 크기로 축소된 차영상을 구하는 제 2 단계와, 해당 물체의 비율을 그 소정의 임계치와 비교하는 제 3 단계와, 그 해당 물체의 비율이 그 소정의 임계치보다 작으면 간이 파라미터와 그 물체의 경계정보를 전송하는 제 4 단계 및 그 해당 물체의 비율이 그 소정의 임계치보다 크면 표준 파라미터와 그 물체의 경계정보를 전송하는 제 5 단계로 이루어지는 데에 있다. 여기서, 제 1 단계는 현재영상과 이전영상의 차영상을 구하는 과정과, 이동물체에 대하여 라벨링하는 과정과, 각 물체에 대한 템포럴 코-어커런스 행렬을 계산하는 과정 및 템포럴 코-어커런스 행렬을 이용하여 임계값에 따른 각 물체의 비율을 계산하는 과정으로 이루어진다. 또한, 제 4 단계는 저해상도 차영상을 이용하여 저해상도 원영상에서 간이 파라미터를 검출하는 과정과, 간이 파라미터를 원해상도에의 영상합성 결과와 비교하여 물체별로 파라미터를 검증하는 과정과, 성공적으로 검증되면 간이 파라미터와 물체의 경계정보를 전송하는 과정 및 검증에 실패하면 그 영역에 대해 다항식 근사법에 의해 소정의 형태의 영역을 근사화하여 영역 데이터 값 대신 근사화 정보와 경계정보를 전송하는 과정으로 이루어진다. 제 5 단계는 저해상도 차영상을 이용하여 저해상도 원영상에서 표준 파라미터를 검출하는 과정과, 표준 파라미터를 원해상도에의 영상합성 결과와 비교하여 물체별로 파라미터를 검증하는 과정과, 성공적으로 검증되면 표준 파라미터와 물체의 경계정보를 전송하는 과정 및 검증에 실패하면 그 영역에 대해 다항식 근사법에 의해 소정의 형태의 영역을 근사화하여 영역 데이터 값 대신 근사화 정보와 경계정보를 전송하는 과정으로 이루어진다. 여기서, 간이 파라미터는 6-파라미터이고, 표준 파라미터는 8-파라미터이다.A feature of the present invention for achieving the above object is a first step of calculating the ratio of each object according to a predetermined threshold value, a second step of obtaining a difference image reduced to a predetermined size by a hierarchical method, and the object A third step of comparing the ratio of the to the predetermined threshold; and a fourth step of transmitting the simple parameter and boundary information of the object if the ratio of the object is less than the predetermined threshold, and the ratio of the object to If it is larger than the predetermined threshold, it consists of a fifth step of transmitting standard parameters and boundary information of the object. The first step includes obtaining a difference image between the current image and the previous image, labeling the moving object, calculating a temporal co-occurrence matrix for each object, and temporal co-occurrence matrix. It calculates the ratio of each object according to the threshold value using. In addition, the fourth step is a process of detecting a simple parameter in a low-resolution original image using a low-resolution difference image, comparing the simple parameter with the result of image synthesis to the desired resolution, and verifying the parameter for each object. If the simple parameter and the boundary information of the object are not transmitted and the verification fails, the predetermined area is approximated by the polynomial approximation method to transmit the approximation information and the boundary information instead of the area data value. The fifth step is a process of detecting standard parameters in a low resolution original image using a low resolution difference image, verifying the parameters for each object by comparing the standard parameters with the results of image synthesis at the desired resolution, and if successfully verified, the standard parameters. The process of transmitting the boundary information of the object and verification fails if the region of the predetermined form is approximated by the polynomial approximation method for the region and transmits the approximation information and the boundary information instead of the region data value. Here, the simple parameter is 6-parameter and the standard parameter is 8-parameter.

도 1은 물체지향 부호화 방법의 블록도.1 is a block diagram of an object-oriented encoding method.

도 2는 기존의 물체지향 부호화 방법을 사용한 처리과정을 도시한 도면.2 is a diagram illustrating a process using an existing object-oriented encoding method.

도 3은 본 발명의 전체 블록도.3 is a complete block diagram of the present invention.

도 4는 본 발명의 전체 처리 흐름도.4 is an overall processing flow chart of the present invention.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예들 중의 하나를 상세히 설명한다.Hereinafter, with reference to the accompanying drawings will be described in detail one of the preferred embodiments according to the present invention.

도 3은 본 발명의 전체 블록도이다. 도 3을 참조하여 본 발명의 전체 블록을 설명하면 다음과 같다.3 is an overall block diagram of the present invention. Referring to Figure 3 describes the entire block of the present invention as follows.

이를 처리 단계별로 설명하면 다음과 같다. 우선, S1에서는 영상 내의 각 물체에 대하여 물체 움직임 판단기준으로 템포럴 코-어커런스(temporal co-occurrence) 행렬을 이용하여 6-파라미터와 8-파라미터 검출방법을 적응적으로 사용하였다. 즉, 물체변화 탐지시 이동량이 적은 물체에 대해서는 간이변환 파라미터 검출방법인 6-파라미터 방법을 사용하고, 이동성이 큰 경우에는 기존에 많이 사용되는 표준변환 파라미터 검출방법인 8-파라미터 방법을 사용하였다. 여기서, 움직임 판단기준인 템포럴 코-어커런스 행렬은 시간상으로 연속한 영상에서 같은 위치의 화소쌍을 선택함으로써 다음의 수학식 1과 같이 표현된다.This is explained in the processing step as follows. First, in S1, 6-parameter and 8-parameter detection methods are adaptively used for temporal co-occurrence matrices as an object movement criterion for each object in the image. That is, the 6-parameter method, which is a simple conversion parameter detection method, is used for an object having a small amount of movement when the object change is detected, and the 8-parameter method, which is a standard detection parameter detection method that is frequently used, is used when the mobility is large. Here, the temporal co-occurrence matrix, which is a motion criterion, is expressed by Equation 1 by selecting pixel pairs of the same position in a continuous image in time.

여기서, t1과 t2는 연속 영상에서의 시간을 나타낸다. 상기 처리과정에서 g1(x,y,t1), g2(x,y,t2)란 연속영상에서의 시간 t1및 t2에서 영상 내에서의 동일위치 (x,y)에 있는 각각 i, j 값을 가지는 화소쌍의 수를 말한다. 이렇게 얻어진 모든 ft(i,j)를 행렬형태로 표현한 것이 템포럴 코-어커런스 행렬이며, 이는 영상 내에 존재하는 움직임의 양을 정량화하는 데에 사용할 수 있다. 본 발명에서는 물체의 움직임 판단은 물체의 움직임이 작고 단순한 물체인지 아니면 물체의 움직임이 복잡한지를 판단하기 위해 템포럴 코-어커런스 행렬을 사용하였으며, 그 수행과정은 다음과 같다.Here, t 1 and t 2 represent time in a continuous image. In the process, g 1 (x, y, t 1 ) and g 2 (x, y, t 2 ) are at the same position (x, y) in the image at times t 1 and t 2 in the continuous image. The number of pixel pairs having i and j values, respectively. The resulting temporal co-occurrence matrix is a matrix representation of all f t (i, j) obtained, which can be used to quantify the amount of motion in the image. In the present invention, the temporal co-occurrence matrix is used to determine whether the movement of the object is a small and simple object or the motion of the object is complex.

1) 단계 1 : 두 장의 연속영상을 사용하여 물체에 대한 템포럴 코-어커런스 행렬을 계산한다.Step 1: Compute the temporal co-occurrence matrix for the object using two consecutive images.

2) 단계 2 : 템포럴 코-어커런스 행렬에서 중요도가 높은 화소와 중요도가 낮은 화소의 경계값이 임의의 임계값 Th1보다 큰 값을 갖는 화소(중요도가 높은 화소)가 차지하는 비율 K를 계산한다.2) Step 2: Calculate the ratio K occupied by the pixel (high importance pixel) whose boundary value between the high importance pixel and the low importance pixel is larger than an arbitrary threshold Th 1 in the temporal co-occurrence matrix. .

3) 단계 3 : 단계 2에서 계산한 비율값이 임의의 임계치 Th2보다 작을 경우에는 단순한 물체로 판단하고, 임계치보다 클 경우 복잡한 움직임이 있는 물체로 판단한다.3) Step 3: When the ratio value calculated in Step 2 is smaller than the arbitrary threshold Th 2 , it is determined as a simple object, and when larger than the threshold value, it is determined as an object with complex movement.

S2에서는 계산량을 줄이기 위해 현재영상과 이전영상의 차영상을 구하여, 영상 내의 각 2 × 2 블록에 해당하는 4개의 화소 중에서 절대값이 가장 큰 값을 선택한다. 그리고, 선택된 위치에 해당되는 원해상도 영상에서 해당 화소값을 검출하여 저해상도 영상을 재구성하는 방식으로 원 차영상의 1/4 크기로 축소한다. S3에서는 축소된 저해상도 영상에서 6-파라미터 또는 8-파라미터의 변환 파라미터를 구한다. S4에서는 이 값을 이용하여 원해상도에서 영상합성을 수행한다. S5에서는 모델검증을 거쳐 구한 변환 파라미터 값을 사용한다.In S2, the difference image between the current image and the previous image is obtained in order to reduce the amount of computation, and a value having the largest absolute value is selected among four pixels corresponding to each 2 × 2 block in the image. Then, the pixel value is detected from the original resolution image corresponding to the selected position and the image is reduced to 1/4 of the original image by reconstructing the low resolution image. In S3, conversion parameters of 6- or 8-parameters are obtained from the reduced low resolution image. In S4, this value is used to perform image synthesis at the original resolution. In S5, the conversion parameter value obtained through model verification is used.

본 발명에서는 상기와 같이 움직임 판단기준으로 템포럴 코-어커런스 행렬을 사용하여 물체의 복잡도를 판단한다. 그 후, 저해상도 차영상을 이용하므로 계산량을 기존 방법에 비해 약 1/4 정도로 크게 감축 가능하다. 그러나, 이러한 계산량 감축으로 인한 복원영상의 화질 저하가 나타나며, 이를 보상하기 위해 도 4에 도시한 바와 같이 영상 내 각 물체에 대해 변환 파라미터를 적응적으로 사용하는 알고리듬을 제안하였다.In the present invention, as described above, the complexity of an object is determined using a temporal co-occurrence matrix. After that, since the low resolution difference image is used, the calculation amount can be reduced to about 1/4 compared with the conventional method. However, the deterioration of the image quality of the reconstructed image due to the reduction of the calculation amount appears, and to compensate for this, an algorithm that adaptively uses the conversion parameter for each object in the image is proposed as shown in FIG. 4.

도 4는 본 발명의 전체 처리 흐름도이다. 도 4를 참조하여 본 발명의 전체 처리과정을 설명한다.4 is an overall processing flow chart of the present invention. The overall process of the present invention will be described with reference to FIG.

S11에서는 연속된 두 영상 즉 현재영상과 이전영상의 차영상을 구한다. S12에서는 물체분할 및 이동물체에 대한 라벨링(labeling)을 수행한다. S13에서는 각 물체에 대한 템포럴 코-어커런스 행렬을 계산한다. S14에서는 주어진 임계값 Th1에 따른 각 물체의 비율 K를 계산한다. S15에서는 계층적인 방법으로 1/4 크기로 축소된 차영상을 구한다. S16에서는 해당 물체의 K 값을 임의의 임계치 Th2와 비교한다. 상기 S16에서 K 값이 Th2보다 작다고 판단되면, 단순한 물체이므로 S17에서는 저해상도 차영상을 이용하여 저해상도 원영상에서 간이 파라미터인 6-파라미터를 검출한다. S18에서는 원해상도에서의 영상을 합성한다. S19에서는 상기 S17에서의 6-파라미터와 상기 S18에서의 합성영상을 비교하여 물체별로 파라미터를 검증한다. 상기 S19에서 성공적으로 검증되면, S20에서는 6-파라미터와 물체의 경계정보를 전송한다. 그런데, 상기 S19에서 검증에 실패하면, S25에서는 이 영역에 대해 다항식 근사법에 의해 임의의 형태의 영역을 근사화하여 영역 데이터 값 대신 근사화 정보와 경계정보를 전송한다. 또한, 상기 S16에서 K 값이 임의의 임계치 Th2보다 크다고 판단되면, 복잡한 움직임 물체이므로, S21에서는 저해상도 차영상을 이용하여 저해상도 원영상에서 표준 파라미터인 8-파라미터를 검출한다. S22에서는 원영상에서의 영상을 합성한다. S23에서는 상기 S21에서의 8-파라미터와 상기 S22에서의 합성영상을 비교하여 물체별로 파라미터를 검증한다. 상기 S23에서 성공적으로 검증되면, S24에서는 8-파라미터와 물체의 경계정보를 전송한다. 그런데, 상기 S23에서 검증에 실패하면, S25에서는 이 영역에 대해 다항식 근사법에 의해 임의의 형태의 영역을 근사화하여 영역 데이터 값 대신 근사화 정보와 경계정보를 전송한다. 이로서, 전송정보량도 줄어든다.In S11, a difference image between two consecutive images, that is, the current image and the previous image is obtained. In S12, object division and labeling of the moving object are performed. In S13, a temporal co-occurrence matrix for each object is calculated. In S14, the ratio K of each object according to the given threshold Th 1 is calculated. In S15, a difference image reduced to a quarter size is obtained in a hierarchical manner. In S16, the K value of the object is compared with an arbitrary threshold Th 2 . If it is determined in step S16 that the K value is smaller than Th 2 , since it is a simple object, S17 detects a 6-parameter that is a simple parameter in the low resolution original image by using a low resolution difference image. In S18, the image at the original resolution is synthesized. In S19, the parameter is verified for each object by comparing the 6-parameter in S17 with the composite image in S18. If successfully verified in S19, S20 transmits 6-parameters and boundary information of the object. However, if the verification fails in S19, S25 approximates an arbitrary form of region by polynomial approximation to this region, and transmits approximation information and boundary information instead of region data values. In addition, if it is determined in step S16 that the K value is greater than an arbitrary threshold Th 2 , since it is a complex moving object, in S21, an 8-parameter which is a standard parameter is detected in the low resolution original image using a low resolution difference image. In S22, the image from the original image is synthesized. In S23, the parameter is verified for each object by comparing the 8-parameter in S21 with the composite image in S22. If successfully verified in S23, S24 transmits 8-parameters and boundary information of the object. However, if the verification fails in S23, S25 approximates an arbitrary form of region by polynomial approximation to this region, and transmits approximation information and boundary information instead of region data values. This reduces the amount of transmission information.

상술한 바와 같은 본 발명은 물체의 움직임 속도나 복잡도에 따른 계산량 증가없이 움직임 판단기준에 의해 변환 파라미터 검출방법의 선택이 실시간에 이루어 지는 데에 그 효과가 있다. 또한, 실시간 처리가 가능한 장점이 있다.As described above, the present invention is effective in selecting the conversion parameter detection method in real time by the motion determination criteria without increasing the amount of calculation according to the moving speed or complexity of the object. In addition, there is an advantage that can be processed in real time.

Claims (6)

소정의 임계값에 따른 각 물체의 비율을 계산하는 제 1 단계;Calculating a ratio of each object according to a predetermined threshold value; 계층적인 방법으로 소정의 크기로 축소된 차영상을 구하는 제 2 단계;Obtaining a difference image reduced to a predetermined size in a hierarchical manner; 해당 물체의 비율을 그 소정의 임계치와 비교하는 제 3 단계;A third step of comparing the proportion of the object with its predetermined threshold; 그 해당 물체의 비율이 그 소정의 임계치보다 작으면, 간이 파라미터와 그 물체의 경계정보를 전송하는 제 4 단계; 및A fourth step of transmitting the simple parameter and boundary information of the object if the ratio of the object is smaller than the predetermined threshold value; And 그 해당 물체의 비율이 그 소정의 임계치보다 크면, 표준 파라미터와 그 물체의 경계정보를 전송하는 제 5 단계로 이루어지는 것을 특징으로 적응형 변환 파라미터 검출방법.And if the ratio of the object is larger than the predetermined threshold, a fifth step of transmitting the standard parameter and the boundary information of the object. 제 1 항에 있어서,The method of claim 1, 상기 제 1 단계가,The first step, 현재영상과 이전영상의 차영상을 구하는 과정;Obtaining a difference image between the current image and the previous image; 이동물체에 대하여 라벨링하는 과정;Labeling the moving object; 각 물체에 대한 템포럴 코-어커런스 행렬을 계산하는 과정; 및Calculating a temporal co-occurrence matrix for each object; And 템포럴 코-어커런스 행렬을 이용하여 임계값에 따른 각 물체의 비율을 계산하는 과정으로 이루어지는 것을 특징으로 적응형 변환 파라미터 검출방법.And calculating a ratio of each object according to a threshold value using a temporal co-occurrence matrix. 제 1 항에 있어서,The method of claim 1, 상기 제 4 단계가,The fourth step, 저해상도 차영상을 이용하여 저해상도 원영상에서 상기 간이 파라미터를 검출하는 과정;Detecting the simple parameter in a low resolution original image using a low resolution difference image; 상기 간이 파라미터를 상기 원해상도에의 영상합성 결과와 비교하여 물체별로 파라미터를 검증하는 과정;Verifying the parameter for each object by comparing the simple parameter with the result of image synthesis at the original resolution; 성공적으로 검증되면, 상기 간이 파라미터와 상기 물체의 상기 경계정보를 전송하는 과정; 및If successfully verified, transmitting the simplified parameter and the boundary information of the object; And 검증에 실패하면, 그 영역에 대해 다항식 근사법에 의해 소정의 형태의 영역을 근사화하여 영역 데이터 값 대신 근사화 정보와 상기 경계정보를 전송하는 과정으로 이루어지는 것을 특징으로 적응형 변환 파라미터 검출방법.And if the verification fails, approximating a predetermined form of the region by the polynomial approximation method and transmitting the approximation information and the boundary information instead of the region data value. 제 1 항 또는 제 3 항에 있어서,The method according to claim 1 or 3, 상기 간이 파라미터가 6-파라미터인 것을 특징으로 적응형 변환 파라미터 검출방법.And said simple parameter is a six-parameter. 제 1 항에 있어서,The method of claim 1, 상기 제 5 단계가,The fifth step, 저해상도 차영상을 이용하여 저해상도 원영상에서 상기 표준 파라미터를 검출하는 과정;Detecting the standard parameter in a low resolution original image using a low resolution difference image; 상기 표준 파라미터를 상기 원해상도에의 영상합성 결과와 비교하여 물체별로 파라미터를 검증하는 과정;Verifying the parameter for each object by comparing the standard parameter with the result of image synthesis at the original resolution; 성공적으로 검증되면, 상기 표준 파라미터와 상기 물체의 상기 경계정보를 전송하는 과정; 및If successfully verified, transmitting the standard parameters and the boundary information of the object; And 검증에 실패하면, 그 영역에 대해 다항식 근사법에 의해 소정의 형태의 영역을 근사화하여 영역 데이터 값 대신 근사화 정보와 상기 경계정보를 전송하는 과정으로 이루어지는 것을 특징으로 적응형 변환 파라미터 검출방법.And if the verification fails, approximating a predetermined form of the region by the polynomial approximation method and transmitting the approximation information and the boundary information instead of the region data value. 제 1 항 또는 제 5 항에 있어서,The method according to claim 1 or 5, 상기 표준 파라미터가 8-파라미터인 것을 특징으로 적응형 변환 파라미터 검출방법.And said standard parameter is an 8-parameter.
KR1019970069516A 1997-12-17 1997-12-17 Adaptive mapping parameter detection method KR100275546B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019970069516A KR100275546B1 (en) 1997-12-17 1997-12-17 Adaptive mapping parameter detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019970069516A KR100275546B1 (en) 1997-12-17 1997-12-17 Adaptive mapping parameter detection method

Publications (2)

Publication Number Publication Date
KR19990050397A true KR19990050397A (en) 1999-07-05
KR100275546B1 KR100275546B1 (en) 2000-12-15

Family

ID=19527564

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019970069516A KR100275546B1 (en) 1997-12-17 1997-12-17 Adaptive mapping parameter detection method

Country Status (1)

Country Link
KR (1) KR100275546B1 (en)

Also Published As

Publication number Publication date
KR100275546B1 (en) 2000-12-15

Similar Documents

Publication Publication Date Title
US4727422A (en) Method and apparatus for efficiently communicating image sequence having improved motion compensation
JP3847827B2 (en) Motion vector detection method
US4703350A (en) Method and apparatus for efficiently communicating image sequences
JP4001400B2 (en) Motion vector detection method and motion vector detection device
JP2667375B2 (en) Video signal transmission device using video frame difference
JP3725250B2 (en) Outline coding method
EP0625853A2 (en) Moving image encoder and decoder
JPH07154784A (en) Channel error correction method for video signal by quantization of classified vector
JPS58197984A (en) Adaptive forecasting encoding device of television signal
JPH08242453A (en) Movement vector presumption device
JPH08307874A (en) Video signal encoding device
JPH1056643A (en) Device for encoding and decoding moving image recording arbitrary object
US6526095B1 (en) Inter-frame predicted image synthesizing method
US5774596A (en) Adaptive contour coding method for encoding a contour image in a video signal
KR100314098B1 (en) An interpolation method of binary shape data using an adaptive threshold by neighboring pixel values
KR100212559B1 (en) The contour coding system and motion prediction method for object
JP3946781B2 (en) Image information conversion apparatus and method
KR100275546B1 (en) Adaptive mapping parameter detection method
CN1078795C (en) Improved motion compensation method for use in image encoding system
KR20040035390A (en) Method and apparatus for motion estimation using of adaptive search pattern for video sequence compression
JP3032213B2 (en) Image encoding device and image decoding device
JPH0746595A (en) Moving image encoder and decoder
KR100275543B1 (en) A high-speed mapping parameter detection device and its detection method
JPH06169452A (en) Picture compression system having weighting on screen
JP2608909B2 (en) Video predictive coding

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20030901

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee