KR20010000250A - Method and apparatus for segmenting an image by using symmetric property - Google Patents

Method and apparatus for segmenting an image by using symmetric property Download PDF

Info

Publication number
KR20010000250A
KR20010000250A KR1020000050331A KR20000050331A KR20010000250A KR 20010000250 A KR20010000250 A KR 20010000250A KR 1020000050331 A KR1020000050331 A KR 1020000050331A KR 20000050331 A KR20000050331 A KR 20000050331A KR 20010000250 A KR20010000250 A KR 20010000250A
Authority
KR
South Korea
Prior art keywords
information
image
background
frame
motion
Prior art date
Application number
KR1020000050331A
Other languages
Korean (ko)
Other versions
KR100367409B1 (en
Inventor
최해욱
임종현
Original Assignee
안병엽
학교법인 한국정보통신학원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 안병엽, 학교법인 한국정보통신학원 filed Critical 안병엽
Priority to KR20000050331A priority Critical patent/KR100367409B1/en
Publication of KR20010000250A publication Critical patent/KR20010000250A/en
Application granted granted Critical
Publication of KR100367409B1 publication Critical patent/KR100367409B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)

Abstract

PURPOSE: An apparatus and a method for object division of MPEG-4 using a symmetrical characteristic is provided to separate a specific object from a background picture by using a symmetrical characteristic of the object. CONSTITUTION: An apparatus and a method for object division of MPEG-4 using a symmetrical characteristic comprise a pre-processing portion(22), an assignment and object division portion(24), and a post-processing portion(26). The pre-processing portion(22) generates a simplified picture by filtering an input picture, obtains information of current input picture frame, and finds motion information between a current picture frame and a previous picture frame. The assignment and object division portion(24) performs line scanning for objects of a corresponding picture by using the simplified picture information and the current picture and finds information object information separated from a background. The post-processing portion(26) selects only a moving area as a final object and generates an object picture of a divided object.

Description

대칭 특성을 이용한 MPEG-4의 객체 분할장치 및 그 방법{METHOD AND APPARATUS FOR SEGMENTING AN IMAGE BY USING SYMMETRIC PROPERTY}METHOD AND APPARATUS FOR SEGMENTING AN IMAGE BY USING SYMMETRIC PROPERTY}

본 발명은 MPEG-4(Moving Picture Experts Group)의 객체 분할장치 및 그 방법에 관한 것으로서, 특히 영상 압축전에 객체의 대칭 특성을 이용하여 배경 영상을 제외하고 특정 객체만을 분할함으로써 차세대 멀티미디어 휴대용 단말기의 영상처리량을 크게 줄일 수 있는 기술이다.The present invention relates to an object segmentation apparatus of MPEG-4 (Moving Picture Experts Group) and a method thereof. In particular, an image of a next generation multimedia portable terminal is divided by segmenting only a specific object excluding a background image by using a symmetric characteristic of an object before image compression. It is a technology that can greatly reduce the throughput.

일반적으로 MEPG 4는 멀티미디어 응용에 대한 표준, 시청각 자료를 객체 단위로 부호화하는 방식이다. 이 MEPG 4는 매우 높은 압축 효율을 얻음으로써 매우 낮은 비트율로 전송할 수 있다. 이에, 동영상의 전송에 필요한 전송 대역폭을 수십 Kbps 정도로 줄일 수 있고 전송 에러에 강한 이점을 갖고 있기 때문에 전화 회선뿐만 아니라 이동 통신망 및 인터넷망 등과 같은 에러 환경에서 멀티미디어 통신이 가능하다.In general, MEPG 4 is a method of encoding standard and audio-visual materials on a per-object basis for multimedia applications. The MEPG 4 achieves very high compression efficiency and can transmit at very low bit rates. Accordingly, since the transmission bandwidth required for transmitting a video can be reduced to about tens of Kbps and has a strong advantage in transmission error, multimedia communication is possible in an error environment such as a mobile communication network and an internet network as well as a telephone line.

한편, 영상의 객체 분할 기술은 객체간의 동질성 혹은 이질성을 바탕으로 영상내의 원하는 대상을 분리해내는 것이다. 이러한 객체 분할 기술은 MPEG-4를 적용한 휴대용 단말기의 압축 정보량을 줄이기 위해서 영상 압축 전에 배경으로부터 특정 객체, 즉 사람만을 분할시키는데 주로 이용되고 있다. 이러한 객체 분할 방법의 다양한 예는 다음과 같다.On the other hand, the object segmentation technology of the image is to separate the desired object in the image based on the homogeneity or heterogeneity between the objects. This object segmentation technique is mainly used to segment only a specific object, that is, a person, from the background before image compression in order to reduce the amount of compressed information of the portable terminal applying MPEG-4. Various examples of such an object partitioning method are as follows.

첫 번째 종래의 객체 분할 방법으로서, 탑-다운 방식의 계층적 구조를 가지는 영상분할 기술이 있다. 이 기술의 참조 문헌은 P.Salembier and J.Serra "Hierarchical morphological segmentation for image sequence coding" IEEE Trans. on IP, Vol 3, no. 5 , 1994 , pp. 639-651이다.As a first conventional object segmentation method, there is an image segmentation technique having a hierarchical structure of a top-down method. References to this technology are described in P. Salembier and J. Serra "Hierarchical morphological segmentation for image sequence coding" IEEE Trans. on IP, Vol 3, no. 5, 1994, pp. 639-651.

이 영상 분할 방법은 입력 영상에 대하여 영상을 분리하기 쉽도록 재건에 의한 오픈-클로우즈(open_close by reconstruction) 필터를 사용하여 간략화한다. 그리고, 영상 정보에서 객체화를 원하는 부분의 내부를 기본적인 색, 명도 등의 요소를 가지고 영상내의 픽셀 값들을 동질성에 근거하여 분류한다. 그리고나서 워터쉐드(watershed) 알고리즘을 이용하여 원하는 객체의 경계선 정보를 획득한다. 앞 단계에서 얻어진 자료를 바탕으로 분할된 각 영역을 다항 접근(polynomial approximation) 방식에 의해서 모델화한 후에 이를 바탕으로 경계선 정보와 분할된 영상을 출력한다.This image segmentation method is simplified using an open_close by reconstruction filter to make it easier to separate the image from the input image. In addition, the pixel information in the image is classified based on homogeneity with elements such as basic color and brightness within the portion of the image information to be objectified. Then, the boundary information of the desired object is obtained using a watershed algorithm. Based on the data obtained in the previous step, each segmented area is modeled by the polynomial approximation method, and then the boundary information and the segmented image are output based on this.

그러나, 이러한 방식은 오픈-클로우즈 필터의 특성을 높이기 위해서 동일한 과정을 수회 반복하기 때문에 제한된 성능을 가진 중앙 처리장치를 사용하는 휴대용 단말기에 적용하기에는 어렵다. 즉, 오픈-클로우즈 필터를 이용한 객체 분할방법은 영상 정보중에서 유사한 정보룰 가지는 픽셀들을 병합하는 형태로 객체를 분리하기 때문에 대상 영상이 동영상 단말기에 필요한 배경과 대상 인물을 구분해내는 것 보다 더 많은 형태의 객체로 분리가 이루어지는 단점이 있다.However, this method is difficult to apply to a portable terminal using a central processing unit with limited performance because the same process is repeated several times to improve the characteristics of the open-close filter. In other words, the object segmentation method using the open-close filter separates the object in the form of merging pixels having similar information in the image information, so the target image is more form than distinguishing the background and target person necessary for the video terminal. The disadvantage is that it is separated into objects.

두 번째 객체 분할방법으로서, 밝기 정보와 움직임 정보를 함께 이용하는 방식은 J.G Choi, S.W Lee, S. D. Kim " Spatio-temporal video segmentation using a joint similarity measure," IEEE Trans. on Circuits and Systems for Video Technology. Vol. 7, no. 2, pp 279-286 , 1997에 소개되어 있다.As a second object segmentation method, the method of using brightness information and motion information together is described by J. G Choi, S.W Lee, S. D. Kim "Satio-temporal video segmentation using a joint similarity measure," IEEE Trans. on Circuits and Systems for Video Technology. Vol. 7, no. 2, pp 279-286, 1997.

이 두 번째 방법은 다음과 같은 순서로 분할 영상을 획득하는데, 먼저 모노포로지컬 필터(morphological filter)를 이용하여 원 영상정보를 간략화한다. 그리고 현재 영상 내의 픽셀 들을 밝기에 대하여 분류를 하고, 현재 영상 내의 픽셀 들을 이전 영상 프레임과의 움직임 비교분석을 통해서 움직임 방향이 유사한 값을 갖는 군으로 분류를 한다. 그리고나서 분석한 움직임 정보와 밝기 정보를 가지고 유사한 형태를 보이는 픽셀을 병합하여 영상을 분할한다.This second method obtains a segmented image in the following order. First, the original image information is simplified by using a morphological filter. The pixels in the current image are classified with respect to brightness, and the pixels in the current image are classified into groups having similar values in the direction of motion through motion comparison analysis with the previous image frame. The image is then segmented by merging similarly shaped pixels with the analyzed motion and brightness information.

그러나, 두 번째 객체 분할 방식의 경우 많은 계산량을 요구하는 움직임 추정정보 뿐만 아니라 밝기 정보도 함께 계산해야 하기 때문에 빠른 전송 속도를 요구하는 휴대용 단말기에는 적용하기 어렵다.However, the second object segmentation method is difficult to apply to a mobile terminal requiring a fast transmission speed because it needs to calculate not only motion estimation information that requires a large amount of computation but also brightness information.

세 번째 객체 분할 방법으로서는 비디오폰 영상 부호화가 용이하도록 현재 프레임과 이전 프레임간의 변화 영역을 검출하여 변화된 부분을 객체로 분리하는 방식이다.The third object segmentation method is a method of detecting a change region between the current frame and the previous frame to separate the changed part into objects so as to facilitate videophone image encoding.

이 세 번째 방법은 변화 영역을 검출하기 위해 시간적 차이를 갖는 두 영상 정보에 대해서 밝기 차이를 구하여 밝기 차이가 있는 부분은 움직임이 존재하고 그렇지 않은 부분에 대해서는 움직임이 없는 부분으로 분류한다. 그래서 움직임이 존재하지 않는 부분은 배경, 움직임이 존재하는 부분은 객체로 분류하게 된다. 이 분류과정에서 새롭게 나타나는 배경은 계속해서 모자이크로 재구성하여 부호화 효율을 향상시킨다.In this third method, the brightness difference is obtained for two pieces of image information having a temporal difference in order to detect a change area, and a part having a difference in brightness is classified as a part having no motion. Thus, the part where motion does not exist is classified as the background and the part where motion does exist. The new background in this classification process is continuously reconstructed into mosaic to improve the coding efficiency.

그러나, 이 세 번째 경우에는 밝기 차만을 이용하여 움직임을 추정하기 때문에 카메라를 보고 대화하는 휴대용 단말기에 적용할 경우 배경과 사람을 분리하는 객체 분할이기보다는 움직임이 있는 일정 부분만을 객체화하게 된다. 즉, 사람이 움직이지 않고 말을 할 경우 입 주위를 제외한 다른 영상부분은 모두 배경으로 처리하는 오류가 발생하게 된다.However, in this third case, since the motion is estimated using only the brightness difference, when applied to a portable terminal that looks at the camera, only a part of the motion is objectified, rather than an object partition that separates the background from the person. In other words, when a person speaks without moving, an error occurs that processes all the image parts except the mouth.

네 번째 객체 분할 방법은 연속적인 3프레임 영상 정보를 활용하는 것이다.The fourth object segmentation method is to utilize continuous three-frame image information.

먼저, 어파인(affine) 움직임 모델을 이용하여 영상 전반에 대한 움직임을 추정해서 이전 영상과 현재 영상간의 변화를 구하고 현재 프레임과 비교될 프레임간의 움직임 보상을 통해서 두 영상을 매칭시킨다. 그리고 이전 영상과 현재영상간 픽셀 차이 값에 대한 평균값을 구해서 두 영상간에 급격한 변화가 없는지를 확인한다. 그 다음 이전 영상과 현재 영상의 밝기 변화를 계산하여 밝기 변화가 큰 부분을 움직임이 있다고 설정하며 이것을 바탕으로 움직임이 있는 부분을 추출하기 위한 단서를 만들어낸다. 그리고나서 밝기 차에 대한 통계를 바탕으로 움직임이 존재하는 부분과 존재하지 않는 부분으로 분리하고 프레임간의 차이로부터 개략적인 객체의 경계선을 획득하고 현재 프레임 정보를 가지고 보다 세밀한 경계선을 획득하여 분할된 영상을 출력한다.First, the motion of the entire image is estimated using an affine motion model to obtain a change between the previous image and the current image, and the two images are matched through motion compensation between frames to be compared with the current frame. In addition, the average value of pixel difference values between the previous image and the current image is obtained to confirm whether there is a sudden change between the two images. Then, the brightness change of the previous image and the current image is calculated, and the portion with the large change in brightness is set as the movement, and based on this, the clue for extracting the moving portion is generated. Then, based on the statistics on the brightness difference, the system divides the motion into the nonexistent and nonexistent parts, obtains a rough boundary of the object from the difference between the frames, and obtains a finer boundary with the current frame information. Output

그러나, 이러한 객체 분할 방식 또한 움직임 추정을 위해 오픈-클로우즈 필터를 사용하기 때문에 휴대용 단말기 적용에는 한계가 있다.However, this object segmentation method also uses an open-close filter for motion estimation, which limits the application of portable terminals.

따라서, 종래의 객체 분할 방식은 대개 오픈 클로우즈 필터를 사용하여 배경과 객체를 분할하기 때문에 처리속도와 그 계산 시간이 많아지므로 높은 데이터 처리 능력을 갖는 연산장치를 필요로 하는 단점이 있다. 또한, 정확성을 높이기 위해 빛의 밝기로 움직임을 추정할 경우 사용자가 어두운 곳에서 밝은 곳으로 이동하거나 주위 조명에 의해 빛의 밝기가 변화될 경우 빛의 변화가 있는 모든 부분을 객체로 추정하여 결국 압축 데이터량이 증가되는 문제점이 있었다.Therefore, the conventional object partitioning method has a disadvantage in that a computation apparatus having a high data processing capability is required because the processing speed and the calculation time are increased because the object and the object are usually divided using an open close filter. Also, in order to estimate the movement with the brightness of the light for the sake of accuracy, if the user moves from a dark place to a bright place or if the brightness of the light changes due to the ambient light, all the parts with the change of light are estimated as objects and eventually compressed. There was a problem that the data amount is increased.

본 발명의 목적은 상기와 같은 종래 기술의 문제점을 해결하기 위하여 사람의 인체 형태가 대칭성을 갖는 점에 착안하여 휴대폰의 카메라를 통해 입력된 소스 영상 중에서 사람(객체)과 배경 영상으로 분할하도록 전처리부, 배경과 객체 분할부, 후처리부를 구비함으로써 MPEG-4를 이용한 휴대 단말기에서 전송해야할 영상 정보(객체)를 분할하는데 걸리는 처리과정과 시간을 크게 단축하면서 정확성을 높일 수 있는 대칭 특성을 이용한 MPEG-4의 객체 분할장치를 제공하고자 한다.An object of the present invention is to focus on the symmetry of the human body form in order to solve the problems of the prior art as described above pre-processing unit to divide the person (object) and the background image from the source image input through the camera of the mobile phone , MPEG-4 using a symmetrical feature to improve accuracy while greatly reducing the processing time and time required to divide the image information (object) to be transmitted from the mobile terminal using MPEG-4 by providing a background, an object dividing unit and a post processing unit. We want to provide a 4 object splitter.

본 발명의 다른 목적은 영상을 간략화하는 전처리과정, 대칭성을 이용하여 배경과 객체를 분할하는 과정, 움직임 정보와 분할된 객체 정보를 비교하여 움직임이 있는 객체의 영상을 추출하고 모노포로지컬 필터를 통해 경계선을 처리한 후에 최종 객체 영상을 생성하는 후처리과정을 통해서 배경과 객체를 분할하기 때문에 객체 분할의 처리속도와 그 계산 시간을 종전보다 단축할 수 있으며 그 정확성을 크게 향상시킬 수 있는 대칭 특성을 이용한 MPEG-4의 객체 분할 방법을 제공하고자 한다.Another object of the present invention is to pre-process the process of simplifying the image, to divide the background and the object by using symmetry, to compare the motion information and the divided object information to extract the image of the object with a motion and through a monoscopic filter Since the background and the object are divided through the post-processing process that generates the final object image after processing the boundary line, the processing speed and calculation time of the object segmentation can be shortened than before, and the symmetry characteristic can be greatly improved. An object segmentation method of MPEG-4 is provided.

이러한 목적을 달성하기 위하여 본 발명은 영상의 어느 한 객체를 선택적으로 분할하는 MPEG-4 객체 분할장치에 있어서, 입력된 영상을 필터링하여 간략화된 영상을 생성하고 현재 입력된 영상 프레임의 정보를 얻어내고 현재 영상 프레임과 저장된 이전의 영상 프레임사이에서 움직임 정보를 찾는 전처리부와, 전처리부를 통해 간략화된 영상 정보와 현재 영상 프레임의 정보를 가지고 해당 영상의 객체들을 라인 스캐닝하여 대칭성이 있는 부분을 찾고 프레임에서 움직임이 있는 영역을 찾아 배경으로부터 분리될 객체 정보를 생성하는 배경 및 객체분할부와, 배경 및 객체분할부의 객체 정보에 따라 움직임이 있는 영역만을 최종의 객체로 선택하고 객체의 경계선처리로 분할 대상의 객체 영상을 생성하는 후처리부를 구비한다.In order to achieve the above object, the present invention provides an MPEG-4 object splitting apparatus for selectively dividing an object of an image to generate a simplified image by filtering an input image, and to obtain information of a currently input image frame. Pre-processing unit for finding motion information between the current image frame and the previous image frame stored, and through the pre-processing unit line scan the objects of the image with the simplified image information and the information of the current image frame to find the symmetrical part in the frame The background and object divider that creates object information to be separated from the background by finding the area with movement, and only the area with movement is selected as the final object according to the object information of the background and object divider, and the object is divided by boundary processing. And a post processor for generating an object image of the.

이러한 다른 목적을 달성하기 위하여 본 발명은 영상의 어느 한 객체를 선택적으로 분할하는 MPEG-4 객체 분할 방법에 있어서, 입력된 영상을 필터링하여 간략화된 영상을 생성하고 현재 입력된 영상 프레임의 정보를 얻어내고 현재 영상 프레임과 저장된 이전의 영상 프레임사이에서 움직임 정보를 찾는 단계와, 간략화된 영상 정보와 현재 영상 프레임의 정보를 가지고 해당 영상의 객체들을 라인 스캐닝하여 대칭성이 있는 부분을 찾고 프레임에서 움직임이 있는 영역을 찾아 배경으로부터 분리될 객체 정보를 생성하는 단계와, 객체 정보에 따라 움직임이 있는 영역만을 최종의 객체로 선택하고 객체의 경계선처리로 분할 대상의 객체 영상을 생성하는 단계로 이루어진다.In order to achieve the above object, the present invention provides an MPEG-4 object segmentation method for selectively segmenting any object of an image. The present invention filters the input image to generate a simplified image and obtains information on the currently input image frame. Finding motion information between the current image frame and the previously stored image frame, and scanning the objects of the image with the simplified image information and the information of the current image frame to find the symmetrical part, and Searching for a region, generating object information to be separated from the background, and selecting only a region having movement according to the object information as a final object, and generating an object image of a target to be segmented by processing the boundary of the object.

도 1은 본 발명에 따른 대칭 특성을 이용한 MPEG-4의 객체 분할장치의 전체 구성도,1 is an overall configuration diagram of an object segmentation apparatus of MPEG-4 using symmetrical characteristics according to the present invention;

도 2는 본 발명에 따른 객체 분할장치내 전처리부의 회로 구성도,2 is a circuit diagram of a preprocessor of an object partitioning apparatus according to the present invention;

도 3은 본 발명에 따른 객체 분할장치내 배경 및 객체분할부의 회로 구성도,3 is a circuit diagram illustrating a background and an object division unit in the object division apparatus according to the present invention;

도 4는 본 발명에 따른 객체 분할장치내 후처리부의 회로 구성도,4 is a circuit diagram of a post-processing unit in an object splitter according to the present invention;

도 5a 내지 도 5c는 본 발명에 따른 대칭 특성을 이용한 MPEG-4의 객체 분할 방법을 각각 전처리 단계, 배경 및 객체 분할 단계, 후처리 단계별로 구분한 플로우챠트들.5A to 5C are flowcharts illustrating a method of segmenting an object of MPEG-4 using a symmetrical characteristic according to the present invention in a preprocessing step, a background and an object partitioning step, and a post-processing step, respectively.

<도면의 주요부분에 대한 부호의 설명><Description of the code | symbol about the principal part of drawing>

10 : 입력 영상 20 : 객체 분할장치10: input image 20: object splitting device

22 : 전처리부 24 : 배경 및 객체분할부22: preprocessor 24: background and object division

26 : 후처리부 30 : 분할된 객체 영상26: post-processing unit 30: the divided object image

220 : HPF 222 : 영상 간략부220: HPF 222: video summary

224 : 프레임 버퍼 226 : 움직임 추정 분석부224: frame buffer 226: motion estimation analyzer

242 : 라인 스캔 및 에지 리코딩부242: line scan and edge recording unit

244 : 대칭성 분석부 246 : 움직임 분석부244: symmetry analysis unit 246: motion analysis unit

248 : 동일 움직임영역 병합부248: Merging the same motion area

260 : 움직임 영역 결정부260: movement area determiner

262 : 모포로지컬 필터262: Morphological Filter

264 : 분할된 객체 영상 생성부264: segmented object image generating unit

이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 대해 설명하고자 한다.Hereinafter, exemplary embodiments of the present invention will be described with reference to the accompanying drawings.

본 발명의 실시예는 MPEG-4의 객체 기반 압축 기법을 이용하기 위한 배경과 객체를 분할하여 분할된 객체의 영상인 바이너리 알파 평면(binary alpha plane) 마스크의 정보를 생성하도록 하는 것이다.An embodiment of the present invention is to divide a background and an object using MPEG-4 object-based compression scheme to generate information of a binary alpha plane mask, which is an image of a divided object.

도 1은 본 발명에 따른 대칭 특성을 이용한 MPEG-4의 객체 분할장치의 전체 구성도로서, 이를 참조하면 본 발명의 객체 분할장치는 영상을 간략화하는 전처리부(22), 배경과 객체를 분리하는 배경 및 객체분할부(24), 경계선 처리와 분할된 영상을 처리하는 후처리부(26)로 구성된다.1 is an overall configuration diagram of an object segmentation apparatus of MPEG-4 using a symmetric characteristic according to the present invention. Referring to this, the object segmentation apparatus of the present invention is a preprocessor 22 that simplifies an image, and separates an object from a background. It is composed of a background and object dividing unit 24, a post-processing unit 26 for processing the boundary line processing and the divided image.

도 2는 본 발명에 따른 객체 분할장치내 전처리부의 회로 구성도이다.2 is a circuit diagram of a preprocessor of an object partitioning apparatus according to the present invention.

도 2를 참조하면, 본 발명에서 전처리부(22)는 휴대용 단말기의 카메라로부터 입력된 영상(10)(CIF/QCIF YUV 4:2:0 포맷)의 명암(Y), 칼라(Cr,Cb)를 필터링하는 고주파 필터(220)와, 경계선을 검출하여 간략화된 영상을 생성하는 영상 간략부(222)와, 입력된 영상 프레임의 정보(Y프레임)를 얻어내는 프레임 버퍼(224)와, 현재 영상 프레임과 저장된 이전의 영상 프레임사이에서 움직임 정보를 찾는 움직임 추정 분석부(226)로 구성된다. 여기서, CIF는 352×288 픽셀 크기 이미지, QCIFF는 176×144 픽셀 크기 이미지이다.Referring to FIG. 2, in the present invention, the preprocessor 22 controls the contrast (Y) and the color (Cr, Cb) of the image 10 (CIF / QCIF YUV 4: 2: 0 format) input from the camera of the portable terminal. A high frequency filter 220 for filtering the signal, an image simplified portion 222 for generating a simplified image by detecting a boundary line, a frame buffer 224 for obtaining information (Y frame) of an input image frame, and a current image. The motion estimation analyzer 226 finds motion information between the frame and the stored previous image frame. Here, CIF is a 352 × 288 pixel size image and QCIFF is a 176 × 144 pixel size image.

상기 고주파 필터(220)는 밝기 영상 정보(Cr,Cb)를 가지고 있는 휘도(luminance) 정보(Y영상)중에서 경계선 부분을 획득한다. 본 발명에서 고주파 필터의 예는 다음의 소벨(sobel) 연산자를 이용한다.The high frequency filter 220 obtains a boundary portion from luminance information (Y image) having brightness image information (Cr, Cb). An example of the high frequency filter in the present invention uses the following sobel operator.

컬러 영상을 위 연산자를 적용하여 계산하면, 경계선 부분의 밝기 정보 값이 크게 나타난다.When the color image is calculated by applying the above operator, the brightness information of the boundary part is large.

그러면, 영상 간략부(222)는 이 컬러 정보를 가지고 모든 픽셀값에 대하여 주위 값과 컬러 정보 값이 급격히 변하는 부분을 1로 하고 그렇지 못한 부분을 0으로 하는 경계선 정보를 가지는 바이너리 평면 정보를 획득한다.Then, the image simplified unit 222 acquires the binary plane information having the boundary information which sets the portion where the ambient value and the color information value rapidly change to 1 for all pixel values and the non-zero portion for all pixel values. .

상기 움직임 추정 분석부(226)는 매크로 블록에 대한 현재 영상 프레임과 이전 영상간의 움직임 추정을 통하여 현재 영상정보의 움직임 정보를 획득한다. 이 부분은 MPEG-4 방식을 이용한 휴대용 동영상 단말기에서 영상 압축을 위해 사용되는 움직임 추정기와 동일한 방식을 채택한다.The motion estimation analyzer 226 obtains motion information of the current image information through motion estimation between the current image frame and the previous image for the macroblock. This part adopts the same method as the motion estimator used for video compression in portable video terminal using MPEG-4.

도 3은 본 발명에 따른 객체 분할장치내 배경 및 객체분할부의 회로 구성도로서, 도 3을 참조하면 본 발명의 배경 및 객체분할부(24)는 다시 영상 분할부(240a)와 움직임 검출부(240b)로 구성된다.3 is a circuit diagram illustrating a background and an object division unit in the object division apparatus according to the present invention. Referring to FIG. 3, the background and object division unit 24 of the present invention may further include an image division unit 240a and a motion detection unit ( 240b).

여기서, 영상 분할부(240a)는 전처리부(22)를 통해 간략화된 영상 정보와 현재 영상 프레임의 정보(Y 프레임)를 가지고 해당 영상의 객체들을 라인 스캐닝하고 에지부분을 검출하는 라인스캔 및 에지 리코딩부(242)와, 대칭성이 있는 부분을 찾고 프레임에서 움직임이 있는 영역을 찾아 배경으로부터 분리될 객체 정보(즉, 바이너리 알파 평면)를 생성하는 대칭성 분석부(244)로 구성된다.Here, the image dividing unit 240a uses the preprocessing unit 22 to perform line scanning and edge recording for line scanning the objects of the corresponding image and detecting edges with the simplified image information and the information of the current image frame (Y frame). The unit 242 includes a symmetry analyzer 244 that finds a symmetrical part and finds a moving area in the frame to generate object information (that is, a binary alpha plane) to be separated from the background.

본 발명의 배경 및 객체분할부(24)는 객체인 사람이 대칭적인 형태를 갖는 점에 착안하여 배경과 객체 분할한다.The background and object dividing unit 24 of the present invention divides the background and the object by focusing on the fact that a person who is an object has a symmetrical form.

먼저, 배경 및 객체분할부(24)의 라인스캔 및 에지 리코딩부(242)는 전처리부(22)에서 얻어진 간략화된 영상정보를 로우(low) 방향으로 스캐닝하면서 경계점이 나타나면 현재 픽셀의 위치를 기록한다. 그런 다음, 대칭성 분석부(244)는 한 라인의 스케닝이 끝나면 경계점이 나타난 픽셀의 위치와 해당 위치에서 컬러 영상정보를 이용하여 라인에서 유사성이 가장 큰 2점을 구하고, 두 픽셀 위치 사이를 '1' 값으로 만들어 주며 그렇지 못한 부분은 '0' 값으로 만든다. 이때 두 픽셀간의 유사성 비교를 위해서 두 픽셀의 컬러 영상 정보 값의 차가 가장 작은 것으로 결정하며 가장 작은 두 점 사이의 거리가 일정 문턱치(threshold) 값 이상일 때에 한해서 대칭되는 점으로 판단을 내린다.First, the line scan and edge recording unit 242 of the background and object divider 24 scans the simplified image information obtained by the preprocessor 22 in a low direction and records the current pixel position when the boundary point appears. do. Then, when the scanning of one line is finished, the symmetry analyzer 244 obtains two points having the highest similarity in the line by using the color image information at the position where the boundary point appears and the color image information at the corresponding position, and then calculates the '1' between the two pixel positions. 'Value, otherwise the value is set to' 0 'value. In this case, for comparison of similarity between two pixels, it is determined that the difference between the color image information values of the two pixels is the smallest, and it is determined that the point is symmetrical only when the distance between the two smallest points is more than a predetermined threshold value.

이와 같이, 영상 분할부(240a)는 객체(사람)가 대칭적인 형태를 갖는다는 점을 이용하여 배경과 객체를 분리함으로써 종래 오픈-클로우즈 필터 방식에 의해서 객체를 분리할 때 요구되는 반복 과정이 필요 없기 때문에 상대적으로 간단한 방식으로 객체를 분할할 수 있다.As such, the image divider 240a needs an iterative process required when separating an object by a conventional open-close filter method by separating an object from a background by using an object (person) having a symmetrical shape. There is no such thing as partitioning objects in a relatively simple way.

그리고 움직임 검출부(240b)는 전처리부(22)의 움직임 추정 분석부(226)를 통해 검출된 움직임 정보를 분석하는 움직임 분석부(246)와, 프레임간 동일한 움직임 영역을 병합하여 동일한 움직임 영역을 생성하는 동일 움직임 영역 병합부(248)로 구성된다.The motion detector 240b merges the motion analyzer 246 analyzing the motion information detected by the motion estimation analyzer 226 of the preprocessor 22 with the same motion region between frames to generate the same motion region. Is composed of the same motion region merging unit 248.

이 움직임 검출부(240b)는 상술한 영상 분할부(240a)의 대칭성 정보 외에 객체 분할시 나타날 수 있는 배경영상 중에서 대칭성을 갖는 부분을 제거하기 위해서 움직임 분석부(246)를 통해서 동일 움직임과 움직임이 있는 매크로 블록에 대해서 움직임이 있는 부분과 없는 부분의 분할 영상을 획득한다. 그리고 동일 움직임 영역 병합부(248)를 통해서 프레임간 동일한 움직임 영역을 병합하여 동일한 움직임 영역을 생성한다.The motion detector 240b has the same motion and motion through the motion analyzer 246 in order to remove a symmetrical portion of the background image that may appear when the object is divided, in addition to the symmetry information of the image splitter 240a. A divided image of a part with and without a motion is obtained for the macro block. The same motion region merger 248 merges the same motion region between frames to generate the same motion region.

도 4는 본 발명에 따른 객체 분할장치내 후처리부의 회로 구성도로서, 이를 참조하면 후처리부(26)는 배경 및 객체분할부(24)의 객체 정보와 동일한 움직임 영역을 입력받아 객체의 바이너리 알파 평면에서 동일한 움직임이 있는 영역을 결정하는 움직임 영역 결정부(260)와, 객체의 경계선처리를 하는 모포로지컬 필터(262)와, 움직임이 있는 영역만을 최종의 객체로 선택하여 분할 대상의 객체 영상(바이너리 알파 평면 마스크)을 생성하는 분할된 객체영상 생성부(264)로 구성된다.4 is a circuit diagram of a post-processing unit in an object partitioning apparatus according to the present invention. Referring to this, the post-processing unit 26 receives binary alpha of an object by receiving the same motion region as the background and object information of the object-dividing unit 24. The motion region determiner 260 which determines an area having the same motion in the plane, the morphological filter 262 which processes the boundary of the object, and selects only the area having the motion as the final object to display the object image to be divided ( And a divided object image generation unit 264 for generating a binary alpha plane mask).

이 후처리부(26)는 움직임 영역 결정부(260)를 통해 배경 및 객체분할부(24)의 영상 분할부(240a)에서 대칭성을 통해 얻은 분할 객체 정보중에서 움직임 검출부(240b)의 동일한 움직임 영역과 비교하여 움직임이 전혀 없는 부분을 배경영상으로 분류한다. 그리고 배경 영상 중에서 대칭성을 갖는 부분을 제거한다.The post-processing unit 26 includes the same motion region of the motion detector 240b among the divided object information obtained through symmetry in the background and the image divider 240a of the object divider 24 through the motion region determiner 260. In comparison, the part with no movement is classified as the background image. The symmetrical part of the background image is removed.

그 다음, 후처리부(26)는 기존 영상처리에서 많이 사용되는 모포로지컬 필터(262)를 이용하여 분할된 객체의 경계선 처리를 해준 후에 객체영상 생성부(264)를 통해 최종적인 객체 영상(바이너리 알파 평면 마스크)를 생성한다.Next, the post-processing unit 26 processes the boundary of the divided object using the morphological filter 262 which is frequently used in the existing image processing, and then the final object image (binary alpha) through the object image generating unit 264. Plane mask).

그러므로, 상기와 같은 구성을 갖는 본 발명의 대칭 특성을 이용한 MPEG-4의 객체 분할장치는 휴대용 단말기의 카메라로부터 입력된 영상 정보를 받아서 전처리부(22)를 통해 입력 영상을 간략화하고, 객체 및 배경 분할부(24)를 통해서 대칭성이 있는 영상을 검출해서 배경과 객체를 분리한 후에, 후처리부(26)를 통해 객체 정보에서 움직임이 있는 부분만을 최종의 객체로 생성해서 경계선 처리 및 MPEG-4 소스 코덱에서 이용될 수 있는 객체의 마스크 정보를 생성한다.Therefore, the object segmentation apparatus of MPEG-4 using the symmetry characteristic of the present invention having the above-described configuration receives the image information input from the camera of the portable terminal, and simplifies the input image through the preprocessor 22, and the object and the background. After detecting the symmetrical image through the divider 24 to separate the background and the object, the post-processing unit 26 generates only the moving part in the object information as the final object to process the boundary line and MPEG-4 source. Generates mask information for objects that can be used by the codec.

도 5a 내지 도 5c는 본 발명에 따른 대칭 특성을 이용한 MPEG-4의 객체 분할 방법을 각각 전처리 단계, 배경 및 객체 분할 단계, 후처리 단계별로 구분한 플로우챠트들로서, 이들 도면들과 상술한 구성을 참조하여 본 발명의 객체 분할 방법을 상세하게 설명하고자 한다.5A to 5C are flowcharts illustrating the object segmentation method of MPEG-4 using the symmetrical characteristics according to the present invention, respectively, in the preprocessing step, the background and the object partitioning step, and the post-processing step. With reference to the object segmentation method of the present invention will be described in detail.

도 5a를 참조하면, 본 발명의 전처리 단계는 휴대용 단말기의 카메라로부터 입력된 영상(10)(CIF/QCIF YUV 4:2:0 포맷)의 명암(Y), 칼라(Cr,Cb)를 고주파 필터(220)를 통해 필터링하고, 영상 간략부(222)를 통해서 경계선을 검출하여 간략화된 영상을 생성한다. (S10) 이와 동시에, 프레임 버퍼(224)를 통해 입력된 영상 프레임의 정보(Y프레임)를 얻어내면서 움직임 추정 분석부(226)를 통해서 현재 영상 프레임과 저장된 이전의 영상 프레임사이에서 움직임 정보를 찾는다. (S12∼S14)Referring to FIG. 5A, the preprocessing step of the present invention is a high frequency filter for contrast (Y) and color (Cr, Cb) of the image 10 (CIF / QCIF YUV 4: 2: 0 format) input from the camera of the portable terminal. The filter is filtered through 220 and the boundary line is detected by the image simpler 222 to generate a simplified image. At the same time, while obtaining the information (Y frame) of the image frame input through the frame buffer 224, the motion estimation analyzer 226 finds the motion information between the current image frame and the stored previous image frame. . (S12 to S14)

도 5b를 참조하면, 본 발명에 따른 배경 및 객체 분할 단계는 라인스캔 및 에지 리코딩부(242)가 전처리부(22)를 통해 간략화된 영상 정보와 현재 영상 프레임의 정보(Y 프레임)를 가지고 해당 영상의 객체들을 라인 스캐닝하고 에지부분(경계선)을 검출한다. 즉, 간략화된 영상 정보와 현재 영상 프레임 정보를 가지고 해당 영상의 객체들을 라인 스캐닝한다. 라인 스캐닝시 경계점이 나타나면 현재 픽셀의 경계선 위치를 기록한다. (S20∼S24)Referring to FIG. 5B, in the background and object segmentation step according to the present invention, the line scan and edge recording unit 242 has a simplified image information and information (Y frame) of the current image frame through the preprocessor 22. Line scans the objects in the image and detects edges. That is, the line scans the objects of the image with the simplified image information and the current image frame information. When the boundary point appears during line scanning, record the boundary position of the current pixel. (S20 to S24)

이러한 라인 스캐닝인 종료되면(S26), 대칭성 분석부(244)를 통해 객체의 대칭성 조사를 하게 된다. 이에 대칭성 분석부(244)는 라인 스캔된 객체의 에지점을 모두 연결하여 대칭성이 있는 부분을 찾고 대칭점의 연결 루틴을 계속 반복한다. 경계선 위치가 프레임의 끝이면 객체의 대칭성 조사를 종료하고, 프레임에서 움직임이 있는 영역을 찾아 배경으로부터 분리될 객체 정보(즉, 바이너리 알파 평면)를 생성한다. (S26∼S32)When the line scanning ends (S26), the symmetry analysis of the object is performed through the symmetry analyzer 244. The symmetry analyzer 244 connects all edge points of the line-scanned object to find a part having symmetry and repeats the connection routine of the symmetry points. When the boundary position is the end of the frame, the symmetry investigation of the object is terminated, and the object area (that is, binary alpha plane) to be separated from the background is found by finding the moving area in the frame. (S26-S32)

그리고, 움직임 검출부(240b)의 움직임 분석부(246)는 움직임 대칭성 정보 외에 객체 분할시 나타날 수 있는 배경영상중의 대칭성을 가지는 부분을 제거하기 위해서 움직임 분석을 통해 동일 움직임 및 움직임이 있는 매크로 블록을 분석한다. (S34)In addition, the motion analyzer 246 of the motion detector 240b removes macro blocks having the same motion and motion through motion analysis to remove portions having symmetry among the background images that may appear when the object is divided, in addition to the motion symmetry information. Analyze (S34)

그 다음, 움직임 검출부(240b)의 동일 움직임 영역 병합부(248)를 통해 객체 부분중에서 움직임이 있는 부분과 없는 부분의 분할 영상을 획득한다. (S36)Next, the same motion region merging unit 248 of the motion detector 240b acquires a segmented image of a part with and without a part of the object. (S36)

그러므로, 이러한 본 발명의 배경 및 객체분할 방식은 휴대용 단말기의 사용이 주로 화상회의임을 고려할 때 객체인 사람이 대칭성을 갖는 특징을 이용하여 간단하게 배경과 객체를 분리할 수 있다.Therefore, the background and object division scheme of the present invention can easily separate the background and the object by using the symmetrical feature of the person who is the object, considering that the use of the portable terminal is mainly a video conference.

도 5c를 참조하면, 본 발명의 후처리 단계는 움직임 영역 결정부(260)를 통해 배경 및 객체분할부(24)의 영상 분할부(240a)에서 대칭성을 통해 얻은 분할 객체 정보중에서 움직임 검출부(240b)의 동일한 움직임 영역과 비교하여 움직임이 전혀 없는 부분을 배경영상으로, 움직임이 있는 부분을 객체 영역으로 분리한다. 즉, 대칭성이 있는 정보라 하더라도 움직임이 없는 객체 정보에 따라 움직임이 있는 영역만을 최종의 객체(즉, 사람)로 분리한다. (S40∼S44)Referring to FIG. 5C, in the post-processing step of the present invention, the motion detector 240b is used among the divided object information obtained through the symmetry of the image divider 240a of the background and object divider 24 through the motion region determiner 260. Compared to the same motion area of), the motionless part is separated into the background image, and the motion part is separated into the object area. That is, even in the case of symmetric information, only the moving region is separated into the final object (that is, the person) according to the object information without the movement. (S40 to S44)

이때, 참고적으로 배경 영상 중에서 대칭성을 갖는 부분을 제거하여 대칭성을 갖고 움직임이 있는 배경 영상은 제거한다.At this time, for reference, the portion having the symmetry is removed from the background image to remove the background image having the symmetry and movement.

그 다음, 모포로지컬 필터(262)를 이용하여 객체의 경계선 처리를 해준 후에 객체영상 생성부(264)를 통해 MPEG-4 소스 코덱에서 이용될 수 있는 최종적인 객체 영상인 마스크 정보(바이너리 알파 평면 마스크)를 생성한다.(S46∼S48)Next, after processing the boundary of the object using the morphological filter 262, the mask information (binary alpha plane mask) which is the final object image that can be used in the MPEG-4 source codec through the object image generating unit 264 ) (S46 to S48)

이상 설명한 바와 같이, 본 발명은 차세대 멀티미디어(예컨대 IMT-2000) MPEG-4 휴대용 단말기의 객체 분할시 대칭성을 이용하여 객체(사람)와 배경 영상을 분리함으로써 종래 오픈-클로우즈 필터 방식에 비하여 적은 계산량을 요구하면서 연산 과정이 간단해진다.As described above, the present invention separates an object (person) and a background image by using symmetry in object segmentation of a next-generation multimedia (eg, IMT-2000) MPEG-4 portable terminal. The operation process is simplified while demanding.

이에 따라, 휴대용 단말기에서 배경을 분리한 객체 영상을 전송할 때 정확한 객체 정보를 전달할 수 있으며 객체 정보를 분리하는데 걸리는 시간과 과정이 종래보다 단축되므로 고품질의 영상 통신 서비스를 제공할 수 있는 이점이 있다.Accordingly, when transmitting the object image separated from the background in the portable terminal, it is possible to deliver accurate object information, and the time and process required to separate the object information is shorter than in the related art, thereby providing a high quality video communication service.

한편, 본 발명은 상술한 실시예에 국한되는 것이 아니라 후술되는 청구범위에 기재된 본 발명의 기술적 사상과 범주내에서 당업자에 의해 여러 가지 변형이 가능하다.On the other hand, the present invention is not limited to the above-described embodiment, various modifications are possible by those skilled in the art within the spirit and scope of the present invention described in the claims to be described later.

Claims (4)

영상의 어느 한 객체를 선택적으로 분할하는 MPEG-4 객체 분할장치에 있어서,In the MPEG-4 object splitter for selectively dividing any object of the image, 입력된 영상을 필터링하여 간략화된 영상을 생성하고 현재 입력된 영상 프레임의 정보를 얻어내고 상기 현재 영상 프레임과 저장된 이전의 영상 프레임사이에서 움직임 정보를 찾는 전처리부;A pre-processing unit generating a simplified image by filtering the input image, obtaining information on a currently input image frame, and searching for motion information between the current image frame and a stored previous image frame; 상기 전처리부를 통해 간략화된 영상 정보와 현재 영상 프레임의 정보를 가지고 해당 영상의 객체들을 라인 스캐닝하여 대칭성이 있는 부분을 찾고 상기 프레임에서 움직임이 있는 영역을 찾아 배경으로부터 분리될 객체 정보를 생성하는 배경 및 객체분할부; 및A background for generating object information to be separated from the background by finding a symmetrical part and finding a moving region in the frame by scanning the objects of the corresponding image with the simplified image information and the information of the current image frame through the preprocessor; Object splitting unit; And 상기 배경 및 객체분할부의 객체 정보에 따라 움직임이 있는 영역만을 최종의 객체로 선택하고 객체의 경계선처리로 분할 대상의 객체 영상을 생성하는 후처리부를 구비한 것을 특징으로 하는 대칭 특성을 이용한 MPEG-4의 객체 분할장치.MPEG-based using a symmetric feature characterized in that it comprises a post-processing unit for selecting only the moving region according to the background and the object information of the object dividing unit as the final object and generating the object image of the object to be segmented by processing the boundary of the object. 4, object divider. 제 1항에 있어서, 상기 배경 및 객체분할부는 상기 전처리부를 통해 간략화된 영상 정보와 현재 영상 프레임 정보를 가지고 해당 영상의 객체들을 라인 스캐닝하여 대칭성이 있는 부분을 찾는 대칭성 정보 추출부와, 상기 전처리부의 움직임 정보를 가지고 동일한 움직임이 있는 영역을 분할 대상의 객체 정보로 생성하는 움직임 영역 추출부를 포함하는 것을 특징으로 하는 대칭 특성을 이용한 MPEG-4의 객체 분할장치.The apparatus of claim 1, wherein the background and object dividing unit has a simplified image information and current image frame information through the preprocessing unit, and a symmetry information extracting unit which finds a symmetrical portion by line scanning the objects of the corresponding image; An object segmentation apparatus of MPEG-4 using a symmetry feature, comprising a motion region extracting unit for generating a region having the same movement and having the same movement as object information to be divided. 영상의 어느 한 객체를 선택적으로 분할하는 MPEG-4 객체 분할 방법에 있어서,In the MPEG-4 object segmentation method for selectively segmenting any object of the image, 입력된 영상을 필터링하여 간략화된 영상을 생성하고 현재 입력된 영상 프레임의 정보를 얻어내고 상기 현재 영상 프레임과 저장된 이전의 영상 프레임사이에서 움직임 정보를 찾는 단계;Generating a simplified image by filtering the input image, obtaining information of a currently input image frame, and finding motion information between the current image frame and a stored previous image frame; 상기 간략화된 영상 정보와 현재 영상 프레임의 정보를 가지고 해당 영상의 객체들을 라인 스캐닝하여 대칭성이 있는 부분을 찾고 상기 프레임에서 움직임이 있는 영역을 찾아 배경으로부터 분리될 객체 정보를 생성하는 단계; 및Generating the object information to be separated from the background by finding a symmetrical part and finding a moving area in the frame by scanning the objects of the corresponding image with the simplified image information and the information of the current image frame; And 상기 객체 정보에 따라 움직임이 있는 영역만을 최종의 객체로 선택하고 객체의 경계선처리로 분할 대상의 객체 영상을 생성하는 단계로 이루어진 것을 특징으로 하는 대칭 특성을 이용한 MPEG-4의 객체 분할 방법.Selecting only a region having movement according to the object information as a final object and generating an object image of a target to be segmented by processing the boundary of the object. 제 1항에 있어서, 상기 객체 정보를 생성하는 단계는, 상기 간략화된 영상 정보와 현재 영상 프레임 정보를 가지고 해당 영상의 객체들을 라인 스캐닝하여 대칭성이 있는 부분을 찾고, 상기 움직임 정보를 가지고 동일한 움직임이 있는 영역을 분할 대상의 객체 정보로 생성하는 것을 특징으로 하는 대칭 특성을 이용한 MPEG-4의 객체 분할 방법.The method of claim 1, wherein the generating of the object information comprises: scanning the objects of the corresponding image with the simplified image information and the current image frame information to find a symmetric part, and having the same movement with the motion information. An object segmentation method of MPEG-4 using a symmetric characteristic, characterized in that a region of a region is generated as object information of a segmentation target.
KR20000050331A 2000-08-29 2000-08-29 Method and apparatus for segmenting an image by using symmetric property KR100367409B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20000050331A KR100367409B1 (en) 2000-08-29 2000-08-29 Method and apparatus for segmenting an image by using symmetric property

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20000050331A KR100367409B1 (en) 2000-08-29 2000-08-29 Method and apparatus for segmenting an image by using symmetric property

Publications (2)

Publication Number Publication Date
KR20010000250A true KR20010000250A (en) 2001-01-05
KR100367409B1 KR100367409B1 (en) 2003-01-10

Family

ID=19685778

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20000050331A KR100367409B1 (en) 2000-08-29 2000-08-29 Method and apparatus for segmenting an image by using symmetric property

Country Status (1)

Country Link
KR (1) KR100367409B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101104992B1 (en) * 2009-06-02 2012-01-16 박성배 Safety door for the entrance

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100562937B1 (en) 2004-08-11 2006-03-22 엘지전자 주식회사 Method and Apparatus for Processing Image of Display Device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101104992B1 (en) * 2009-06-02 2012-01-16 박성배 Safety door for the entrance

Also Published As

Publication number Publication date
KR100367409B1 (en) 2003-01-10

Similar Documents

Publication Publication Date Title
JP3256474B2 (en) Apparatus and method for determining skin tone in color video signal, and apparatus and method for encoding skin area
AU2012211249B2 (en) Encoding of video stream based on scene type
US8553776B2 (en) Method and apparatus for motion vector assignment
US6909745B1 (en) Content adaptive video encoder
KR100422389B1 (en) Method and apparatus for increasing video frame rate
Metkar et al. Motion estimation techniques for digital video coding
US20100060783A1 (en) Processing method and device with video temporal up-conversion
US10165274B2 (en) Encoding of video stream based on scene type
KR100211916B1 (en) Method for determination of coding type and mode in the object coding based on shape information
US20040240543A1 (en) Low bandwidth video compression
Choe et al. An effective temporal error concealment in H. 264 video sequences based on scene change detection-PCA model
KR100367409B1 (en) Method and apparatus for segmenting an image by using symmetric property
US11538169B2 (en) Method, computer program and system for detecting changes and moving objects in a video view
Ma et al. A fast background model based surveillance video coding in HEVC
Marvasti-Zadeh et al. An efficient adaptive boundary matching algorithm for video error concealment
Doulamis et al. Improving the performance of MPEG compatible encoding at low bit rates using adaptive neural networks
Chow A limited resources-based approach to coding for wireless video sensor networks
KR100558364B1 (en) Method and apparatus for determining motion types of image based on the key frame
Aly et al. Real-time motion-based frame estimation in video lossy transmission
Jacobson et al. Motion vector refinement for FRUC using saliency and segmentation
Reddy Fast block matching motion estimation algorithms for video compression
Carpentieri et al. A Video Coder Based on Split-Merge Displacement Estimation
KR100649746B1 (en) Motion estimation method using sketch operator based block matching algorithm, coding method of moving picture and apparatus at the same of
Mohammed et al. A new video coding approach based on object-extraction
Nam et al. Face track in H. 264 compressed domain using the Face Observation-MRF model

Legal Events

Date Code Title Description
A201 Request for examination
G15R Request for early opening
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20081216

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee