KR0137923B1 - Changed region abstraction method using adjacent pixel - Google Patents

Changed region abstraction method using adjacent pixel

Info

Publication number
KR0137923B1
KR0137923B1 KR1019940038903A KR19940038903A KR0137923B1 KR 0137923 B1 KR0137923 B1 KR 0137923B1 KR 1019940038903 A KR1019940038903 A KR 1019940038903A KR 19940038903 A KR19940038903 A KR 19940038903A KR 0137923 B1 KR0137923 B1 KR 0137923B1
Authority
KR
South Korea
Prior art keywords
region
image
pixels
motion
current image
Prior art date
Application number
KR1019940038903A
Other languages
Korean (ko)
Other versions
KR960028185A (en
Inventor
정재원
이진학
문주희
김재균
Original Assignee
김주용
현대전자산업 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김주용, 현대전자산업 주식회사 filed Critical 김주용
Priority to KR1019940038903A priority Critical patent/KR0137923B1/en
Publication of KR960028185A publication Critical patent/KR960028185A/en
Application granted granted Critical
Publication of KR0137923B1 publication Critical patent/KR0137923B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 물체가 움직임으로 인하여 발생하는 움직임 영역(changed region)을 추출하기 위하여 현재 영상을 유사한 값을 갖는 영역으로 분할하고, 영상간 차분을 구해 얻어진 값이 해당 영역의 주위 화소만을 이용하여 움직임 영역인지를 판단하는 주위 화소를 이용한 움직임 영역 추출방법에 관한 것으로, 기존에는 현재 영상 전체 영역이 하나의 영역으로 분할이 되어 움지임 영역으로 판단되는 화소수가 움직이지 않은 영역으로 판단되는 화소수 보다 적게 되므로 미세한 움직임에서도 움직이지 않은 영역으로 판단되는 문제가 발생하게 되는데, 본 발명에서는 현재 영상을 유사한 값을 갖는 영역별로 분할하고, 현재 영상과 이전 영상의 차에 의해 추출된 움직임 영역을 앞서 유사한 값을 갖는 영역별로 분할한 정보를 이용하여 움직임 영역을 판단하는 기준으로 사용하는 화소를 선정하는 방법으로 현재 영상에서 유사한 값으로 분할된 영역에서 주위 화소만을 이용하여 움직임 영역인지를 판단하도록 함으로써 영상 전화기, 영상 회의 시스템 비디오 부호화 및 복호화기 등 움직임 영역을 추출할 필요가 있는 시스템에서 움직임 영역을 효과적으로 추출하게 되어 화질이 향상되며, 이에 따라 제품의 신뢰성도 높아진다.The present invention divides a current image into a region having a similar value in order to extract a changed region generated by the movement of an object, and obtains a difference between the images using only the surrounding pixels of the region. The present invention relates to a method of extracting a motion region using surrounding pixels for determining whether the image is detected. Since the entire area of the current image is divided into one region, the number of pixels determined to be a moving region is smaller than the number of pixels determined to be an unmoved region. In the present invention, a problem that is determined as a non-moving region occurs even in the fine movement. In the present invention, the current image is divided into regions having similar values, and the movement region extracted by the difference between the current image and the previous image has a similar value. The motion region is determined by using the information divided by regions. It is necessary to extract the motion region such as video phone, video conferencing system video encoder and decoder by judging whether it is a motion region by using only the surrounding pixels in the region divided into similar values in the current image. In this system, the image quality is improved by effectively extracting the motion area, which increases the reliability of the product.

Description

주위 화소를 이용한 움직임 영역 추출 방법Motion region extraction method using surrounding pixels

제 1 도는 일반적인 움직임 영역 추출 장치의 블록도,1 is a block diagram of a general motion region extraction apparatus,

제 2 도는 물체의 이동 상태도,Second degree of movement of the object,

제 3 도는 영상간 차분 신호의 상태도,3 is a state diagram of a difference signal between images;

제 4 도는 기존 방법에서 판단 기준으로 사용하는 화소,4 is a pixel used as a criterion in the conventional method,

제 5 도는 제4도에서 움직임 영역으로 판단되는 화소,FIG. 5 is a pixel determined as a motion area in FIG. 4;

제 6 도는 본 발명에 따른 움직임 영역 추출장치의 블록도6 is a block diagram of a motion region extraction apparatus according to the present invention.

제 7 도는 본 발명에서 판단 기준으로 사용하는 화소,7 is a pixel used as a criterion in the present invention;

제 8 도는 제7도에서 움직임 영역으로 판단되는 화소를 나타낸다.FIG. 8 illustrates pixels determined as a motion area in FIG. 7.

제 9 도는 본 발명을 설명하기 위한 형태학적 필터를 나타낸 도면9 is a diagram showing a morphological filter for explaining the present invention.

*도면의 주요부분에 대한 부호의 설명** Description of symbols for main parts of the drawings *

1 : 프레임 차 추출부 2 : 문턱값 처리부1: frame difference extraction unit 2: threshold processing unit

3 : 중간값 필터부4 : 작은 영역 제거부3: middle value filter part 4: small area removal part

5 : 영상 분할부 6 : 영역별 움직임 영역 판단부5: Image segmentation unit 6: Motion region determination unit for each region

7 : 주위 영역 검출부7: surrounding area detection unit

본 발명은 물체가 움직임으로 인하여 발생하는 움직임 영역(changed region)을 추출하기 위하여 현재 영상을 유사한 값을 갖는 영역(homogenous region)으로 분할(segmentation)하고, 영상간 차분을 구해 얻어진 값이 해당 영역의 주위 화소만을 이용하여 움직임 영역(changed region)인지를 판단하도록 하는 주위 화소를 이용한 움직임 영역 추출 방법에 관한 것이다.According to the present invention, a segment obtained by segmenting a current image into a homogenous region in order to extract a changed region generated by an object moving, and a value obtained by obtaining a difference between the images may be obtained. The present invention relates to a method for extracting a motion region using surrounding pixels to determine whether a moving region is used using only surrounding pixels.

여기서, 움직임 영역이란 현재 영상과 이전 영상 사이에 움직임을 통해 변화된 영상을 뜻한다.Here, the motion area means an image changed through movement between the current image and the previous image.

일반적인 움직임 영상 추출 장치는 제 1도와 같이 구성되는 바, 이는 호터(HOETER)와 디엘(DIEHL)의 논문에서 제안된 것이다.A general motion image extracting apparatus is constructed as shown in FIG. 1, which is proposed in the papers of HOETER and DIEHL.

즉, 현재 영상과 이전 영상과의 차를 구하는 프레임 차 추출부(1)와, 상기 프레임 차 추출부(1)에서 구해진 값에 대해서 해당 화소를 중심으로 윈도우(WINDOW)를 만들어 윈도우 내의 절대값 평균이 문턱값 이상이면 중앙 화소를 움직임 영역으로 판단하는 문턱값 처리부(2)와, 해당 화소를 중심으로 윈도우(WINDOW)를 만들어 윈도우 내의 중간값으로 윈도우의 중심값을 대치하는 중간값 필터부(3)와, 움직임 영역으로 판단된 영역과 움직이지 않는 영역으로 판단된 영역 중 고립된 작은 영역을 제거하는 영역 제거부(4)와, 상기 프레임 차 추출부(1)로 입력되는 현재 영상을 유사한 값을 갖는 영역별로 분할하는 영상 분할부(5) 및 상기 영역 제거부(4)에서 추출된 움직임 영역을 상기 영상 분할부(5)에서 얻은 영역별로 움직임 영역인지를 판단하는 영역별 움직임 영역 판단부(6)로 구성된다.That is, the frame difference extracting unit 1 which obtains the difference between the current image and the previous image, and the window obtained with respect to the value obtained by the frame difference extracting unit 1 are formed around the corresponding pixel to average the absolute value in the window. If the threshold value is greater than or equal to the threshold value processing unit 2 that determines the center pixel as the movement region, and the intermediate value filter unit 3 which creates a window around the pixel and replaces the center value of the window with the intermediate value in the window. ), A region removal unit 4 for removing a small isolated region among regions determined to be a movement region and a region determined to not move, and a current value input to the frame difference extracting unit 1 are similar values. The image segmentation unit 5 and the region removing unit 4 for dividing the image into regions having a motion region determine whether the region is a motion region for each region obtained by the image divider 5. Consists of a decision unit (6).

상기와 같이 구성된 움직임 영역 추출 장치의 동작은 다음과 같다.The operation of the motion region extraction apparatus configured as described above is as follows.

우선, 이전 영상과 현재 영상을 프레임 차 추출부(1)에서 입력하여 각각의 영상의 차를 구한 뒤, 문턱값 처리부(2)에서 차의 값에 대해 해당 화소를 중심으로 윈도우를 만들어 윈도우 내의 절대값 평균이 문턱값 이상이면 중앙 화소를 움직임 영역으로 판단하는 과정을 거치고, 그리고 중앙값 필터부(3)에서 해당 화소를 중심으로 윈도우를 만들어 윈도우 내의 중간값으로 윈도우의 중앙값을 대치한다. 그리고 나서, 영역 제거부(4)에서 움직임 영역으로 판단된 영역과 움직이지 않는 영역으로 판단된 영역중 고립된 작은 영역을 제거하여 움직임 영역을 추출한다.First, the difference between each image is obtained by inputting the previous image and the current image into the frame difference extracting unit 1, and then the threshold value processing unit 2 creates a window centering on the corresponding pixel for the difference of the absolute image in the window. If the average value is greater than or equal to the threshold value, a process of determining the center pixel as the moving area is performed, and the median filter unit 3 creates a window centered on the pixel and replaces the median value with the median value in the window. Then, the area removing unit 4 extracts the moving area by removing an isolated small area among the area determined as the moving area and the area determined as the non-moving area.

그리고 영상 분할부(5)에서는 상기 프레임 차 추출부(1)로 입력되는 현재 영상을 유사한 값을 갖는 영역별로 분할하고, 상기 영역 제거부(4)에서 추출된 움직임 영상을 상기 분할된 영역별로 움직임 영역인지를 판단한다.The image splitter 5 divides the current image input to the frame difference extractor 1 into regions having similar values, and moves the motion image extracted by the region remover 4 by the divided regions. Determine if it is an area.

상기와 같이 움직임 영역인지를 판단하는데 있어서, 제2도와 같이 이동한 물체는 현재 영상과 이전 영상 사이에서 차를 프레임 차 추출부(1)에서 구하면 제3도를 얻게 된다. 제3도의 중앙부분은 움직임 영역임에도 불구하고 현재 영상과 이전 영상의 값이 같기 때문에 마치 움직이지 않는 영역처럼 값이 나타나지 않는다. 제1도의 움직임 영역 추출 장치의 영상 분할부(5)에서 현재 영상을 유사한 값을 갖는 영역 별로 분할하면 제4도와 같이 현재 영상 전체 영역이 하나의 영역으로 분할이 된다. 이때 기존의 방법에서는 영역 전체에 속해 있는 화소 전체를 이용하여 해당 영역에 존재하는 화소수가 기존 화소수 보다 많으면 움직임 영역으로 판단되는데, 제3도와 같이 움직인 경우에는 제5도와 같이 움직임 영역으로 판단되는 화소수 보다 적으므로 제4도의 영역은 움직이지 않은 영역으로 판단되는 문제가 발생한다.In determining whether it is a moving area as described above, the object moved as shown in FIG. 2 obtains a third degree when the difference between the current image and the previous image is obtained by the frame difference extracting unit 1. Although the center part of FIG. 3 is a moving area, the values of the current image and the previous image are the same. When the image segmentation unit 5 of the apparatus for extracting a motion region of FIG. 1 divides the current image into regions having similar values, the entire region of the current image is divided into one region as shown in FIG. 4. In this case, if the number of pixels in the corresponding area is larger than the existing number of pixels using the entire pixels belonging to the entire area, the existing method is regarded as the moving area. Since the number of pixels is smaller than the number of pixels, a problem arises in that the region of FIG. 4 is determined as the non-moving region.

본 발명은 이러한 점을 감안하여, 현재 영상을 유사한 값을 갖는 영역별로 분할하고, 현재 영상과 이전 영상의 차에 의해 추출된 움직임 영역을 앞서 유사한 값을 갖는 영역별로 분할한 정보를 이용하여 움직임 영역인지를 판단하는 방법에서 움직임 영역을 판단하는 기준으로 사용하는 화소를 선정하는 방법을 제시함이 특징이다.In view of this, the present invention divides the current image into regions having similar values, and uses the information obtained by dividing the motion region extracted by the difference between the current image and the previous image into regions having similar values. In the method of determining recognition, a method of selecting a pixel to be used as a criterion for determining a motion region is characterized.

즉, 현재 영상을 유사한 값을 갖는 영역별로 분할하고, 현재 영상과 이전 영상의 차에 의해 추출된 움직임 영역을 상기 유사한 값을 갖는 영역별로 분할한 정보를 이용하여 움직임 영역인지를 판단하는 방법에 있어서, 현재 영상을 분할한 영역의 주위 화소만을 이용하여 해당 영역이 움직임 영역인지 또는 움직이지 않은 영역인지를 판단한다.That is, in the method of determining whether the current image is divided into regions having similar values, and whether the motion region extracted by the difference between the current image and the previous image is divided into regions having similar values, and determining whether the motion region is a motion region. The method determines whether the corresponding area is a moving area or an unmoving area by using only the surrounding pixels of the area in which the current image is divided.

이하, 본 발명의 일실시예를 첨부 도면을 참고로하여 설명하면 다음과 같다.Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings.

제6도는 본 발명의 블록도로, 상기 제1도의 기존 구성에서 영상 분할부(5)와 영역별 움직임 영역 판단부(6) 사이에 주위 영역 검출부(7)를 더 구비하여 구성된 것으로 동일부분에 대하여도 동일 부호를 사용하며, 이에 대한 설명을 생략한다.FIG. 6 is a block diagram of the present invention. In the existing configuration of FIG. 1, a peripheral region detector 7 is further provided between the image divider 5 and the region-specific motion region determiner 6. The same reference numerals are used, and description thereof will be omitted.

우선, 제1도의 움직임 영역 추출 장치의 영상 분할부(5)에서 현재 영상을 유사한 값을 갖는 영역별로 분할하면 제4도와 같이 현재 영상 전체 영역이 하나의 영역으로 분할된다. 그리고 도6의 영역별 움직임 영역 판단부(6)에서는 주위 영역 검출부(7)에서 검출된 주위 영역과 작은 영역 제거부(4)의 출력인 프레임간 변화된 영역을 이용하여 움직임 영역을 판단하게 된다.First, when the image segmentation unit 5 of the apparatus for extracting a motion region of FIG. 1 divides the current image into regions having similar values, the entire region of the current image is divided into one region as shown in FIG. 4. In the region-specific motion region determiner 6 of FIG. 6, the motion region is determined by using the inter-frame changed region which is the output of the small region remover 4 and the surrounding region detected by the surrounding region detector 7.

만일, 주위 영역의 기준 화소수에 비하여 주위영역에 위치하는 프레임간 변화된 화소의 수가 크면 해당 영역은 움짐임 영역으로 판단된다.If the number of pixels changed between frames located in the surrounding area is larger than the reference number of pixels in the surrounding area, the corresponding area is determined to be a moving area.

상기 해당 영역이란 영상 분할부(5)에 의해 분할된 영역중에서 여기서 사용된 주위 영역에 해당되는 분할 영역을 말한다.The corresponding region refers to a divided region corresponding to the peripheral region used here among the regions divided by the image divider 5.

여기서, 제7도는 현재 영상의 영역중 주위(boundary) 화소만을 표시한 것이고, 제8도는 주위(boundary) 화소중 움직임 영역으로 판단되는 부분과 움직이지 않은 영역으로 판단되는 화소 영역을 나타낸다.Here, FIG. 7 shows only peripheral pixels in the region of the current image, and FIG. 8 shows a portion of the boundary pixels, which is determined as a movement region, and a pixel region, which is determined as an unmoved region.

제8도에서 주위(boundary) 화소만을 고려하면 움직임 영역으로 판단되는 와소가 움직이지 않은 영역으로 판단되는 화소 보다 많으므로 전체 영역이 움직임 영역으로 된다.Considering only the boundary pixels in FIG. 8, the entire region becomes the movement region because the number of elements that are determined as the moving region is greater than that of the non-moving region.

이에 따라 이전 영상과 현재 영상이 겹치는 부분이 많다 할지라도, 즉 미세한 움직임일지라도 정확히 움직임 영역을 추출해 낼 수 있게 된다.Accordingly, even if there are many overlapping parts between the previous image and the current image, that is, even the fine movement, the movement region can be accurately extracted.

즉, 본 발명에서 주위영역 검출부(7)를 사용한 주위 영역 검출방법은 일반적으로 사용하는 방법을 사용할 수 있으며 본 발명은 그 중에서 제 9 도에 도시된 바와 같이 형태학적 필터를 사용할 수 있는 것으로, 제6도의 영상분할수(5)를 통해 영상 분할된 영상에 대해 제9도와 같은 필터를 사용하여 필터의 중심을 영상의 각 화소에 놓고 중심에 위치한 화소가 분할된 영상 내일 때 주위 8개 화소중 1개의 화소라도 영역 밖의 화소가 존재하면 필터 중심의 화소를 주위 영역 화소로 선택한다.That is, in the present invention, the method for detecting the surrounding area using the surrounding area detecting unit 7 may be generally used, and the present invention may use a morphological filter as shown in FIG. 9. For the image segmented through 6-degree image segmentation (5), use the same filter as in FIG. 9 to place the center of the filter on each pixel of the image, and 1 of the 8 pixels around when the pixel located in the center is within the segmented image. If there are pixels outside the region, even one pixel is selected, the pixel in the center of the filter is selected as the peripheral region pixel.

이상에서 살펴본 바와 같이 본 발명에 따르면, 영상 전화기, 영상 회의 시스템 비디오 부호화 및 복호화기 등 움직임 영역을 추출할 필요가 있는 시스템에서 움직임 영역을 효과적으로 추출함으로써 화질이 향상되어 제품의 신뢰성이 높아진다.As described above, according to the present invention, the image quality is improved by effectively extracting the motion region in a system that needs to extract the motion region, such as a video telephone, a video conferencing system video encoder, and a decoder, thereby increasing the reliability of the product.

Claims (2)

영상분할부(5)에 의해 분할된 영상에서 주위영상검출부(7)를 통하여 검출된 주위 영역과 작은 영역 제거부(4)의 출력인 프레임간 변화된 영역을 이용하여 영역별 움직임 영역 판단부(6)에서 움직임 영역을 판단할 때 주위 영역의 화소수에 비하여 주위 영역에 위치한 프레임간 변화된 화소의 수가 기준 화소수보다 크면 해당영역을 움직임 영역으로 판단하는 것을 특징으로 하는 주위 화소를 이용한 움직임 영역 추출 방법.In the image divided by the image splitter 5, the motion region determination unit 6 for each region is performed by using the peripheral region detected by the surrounding image detector 7 and the changed region between frames, which is the output of the small region remover 4. ), When the number of pixels changed between frames located in the surrounding area is larger than the reference number of pixels compared to the number of pixels in the surrounding area, the corresponding area is determined as the moving area. . 영상분할부(5)를 통과한 영상에 대해 필터를 사용하여 주위 영역 화소를 선택하는데 있어서, 상기 필터의 중심을 영상의 각 화소에 놓고 중심에 위치한 화소가 분할된 영역 내일 때 8개 화소 중 1개의 화소라도 영역 밖의 화소가 존재하면 필터 중심의 화소를 주위 영역 화소로 선택하는 것을 특징으로 하는 주위 화소를 이용한 움직임 영역 추출 방법.In selecting a peripheral region pixel using a filter for an image passing through the image splitter 5, 1 is selected from among 8 pixels when the center of the filter is placed in each pixel of the image and the pixel located at the center is in the divided region. A method of extracting a motion region using surrounding pixels, wherein a pixel at the center of the filter is selected as the surrounding region pixel when there are pixels outside the region even if there are four pixels.
KR1019940038903A 1994-12-29 1994-12-29 Changed region abstraction method using adjacent pixel KR0137923B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019940038903A KR0137923B1 (en) 1994-12-29 1994-12-29 Changed region abstraction method using adjacent pixel

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019940038903A KR0137923B1 (en) 1994-12-29 1994-12-29 Changed region abstraction method using adjacent pixel

Publications (2)

Publication Number Publication Date
KR960028185A KR960028185A (en) 1996-07-22
KR0137923B1 true KR0137923B1 (en) 1998-05-15

Family

ID=19405099

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019940038903A KR0137923B1 (en) 1994-12-29 1994-12-29 Changed region abstraction method using adjacent pixel

Country Status (1)

Country Link
KR (1) KR0137923B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100837435B1 (en) * 2006-10-25 2008-06-12 삼성전자주식회사 Photographing apparatus for controlling object tracking and method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100837435B1 (en) * 2006-10-25 2008-06-12 삼성전자주식회사 Photographing apparatus for controlling object tracking and method thereof
US8050455B2 (en) 2006-10-25 2011-11-01 Samsung Techwin Co., Ltd. Photographing apparatus and method for controlling target tracking

Also Published As

Publication number Publication date
KR960028185A (en) 1996-07-22

Similar Documents

Publication Publication Date Title
KR0151410B1 (en) Motion vector detecting method of image signal
US6035067A (en) Apparatus for tracking objects in video sequences and methods therefor
US7313254B2 (en) Method for extracting object region
JP3892059B2 (en) Moving body tracking device
US20070286499A1 (en) Method for Classifying Digital Image Data
JP4017489B2 (en) Segmentation method
KR100647284B1 (en) Apparatus and method for extracting character of image
KR100860988B1 (en) Method and apparatus for object detection in sequences
KR101717613B1 (en) The moving vehicle detection system using an object tracking algorithm based on edge information, and method thereof
KR910007362A (en) Scan Line Interpolator and Motion Detector
EP0720114A2 (en) Method and apparatus for detecting and interpreting textual captions in digital video signals
JP2002523985A (en) Problem area localization in image signals
EP2261858B1 (en) Method and apparatus for determining presence of user's hand tremor or intentional motion
KR0137923B1 (en) Changed region abstraction method using adjacent pixel
KR101822443B1 (en) Video Abstraction Method and Apparatus using Shot Boundary and caption
JPH0991453A (en) Image processing method and its unit
JP3609236B2 (en) Video telop detection method and apparatus
KR0170866B1 (en) Estimation device for moving region
Neri et al. Video sequence segmentation for object-based coders using higher order statistics
KR100194210B1 (en) Image splitting device and method
EP2988273A1 (en) Object detection device and method for detecting an object within a video sequence
Gu Text detection and extraction in MPEG video sequences
JP3145145B2 (en) Image processing device
JP3573875B2 (en) Animal extraction device
JPH03213057A (en) Picture area identifying device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20100201

Year of fee payment: 13

LAPS Lapse due to unpaid annual fee