KR100696725B1 - Shadow casting method using symmetric and distance feature of the object region - Google Patents

Shadow casting method using symmetric and distance feature of the object region Download PDF

Info

Publication number
KR100696725B1
KR100696725B1 KR1020050079891A KR20050079891A KR100696725B1 KR 100696725 B1 KR100696725 B1 KR 100696725B1 KR 1020050079891 A KR1020050079891 A KR 1020050079891A KR 20050079891 A KR20050079891 A KR 20050079891A KR 100696725 B1 KR100696725 B1 KR 100696725B1
Authority
KR
South Korea
Prior art keywords
shadow
central axis
region
detecting
value
Prior art date
Application number
KR1020050079891A
Other languages
Korean (ko)
Other versions
KR20070027929A (en
Inventor
김승호
Original Assignee
경북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경북대학교 산학협력단 filed Critical 경북대학교 산학협력단
Priority to KR1020050079891A priority Critical patent/KR100696725B1/en
Publication of KR20070027929A publication Critical patent/KR20070027929A/en
Application granted granted Critical
Publication of KR100696725B1 publication Critical patent/KR100696725B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/68Analysis of geometric attributes of symmetry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은, 실시간 동영상에서 추출된 객체에서 그림자 영역을 제거하여 정확한 객체 추적이 가능하게 하는 그림자 제거 방법에 관한 것이다.The present invention relates to a shadow removal method that enables accurate object tracking by removing a shadow area from an object extracted from a real-time video.

이를 위해, 본 발명은, (a) 입력 영상에서 객체를 추출하는 단계와, (b) 상기 객체에 대해 중심축을 검출하는 단계와, (c) 상기 검출된 중심축을 통해 그림자 방향을 검출하는 단계와, (d) 상기 그림자의 방향성 검출 후 상기 객체가 가지는 대칭성을 이용하여 그림자 후보 영역을 검출하는 단계와, (e) 상기 검출된 그림자를 제거하는 단계를 그림자 제거 방법을 제공한다.To this end, the present invention, (a) extracting the object from the input image, (b) detecting the central axis for the object, (c) detecting the shadow direction through the detected central axis and (d) detecting a shadow candidate region by using the symmetry of the object after detecting the directionality of the shadow, and (e) removing the detected shadow.

객체, 대칭성, 그림자, 거리벡터 Object, symmetry, shadow, distance

Description

객체의 대칭성과 거리 벡터를 사용한 그림자 제거방법{Shadow casting method using symmetric and distance feature of the object region}Shadow casting method using symmetric and distance feature of the object region}

도 1은 본 발명의 일실시예에 따른 그림자 제거 과정을 나타낸 순서도,1 is a flow chart showing a shadow removal process according to an embodiment of the present invention,

도 2a 및 도 2b는 추출된 객체에 대해 중심축을 선정하는 과정에서 각각 정확한 중심축을 찾은 경우와, 중심축을 잘못 찾은 경우를 나타낸 도면,2A and 2B are diagrams illustrating a case where an exact center axis is found in the process of selecting a center axis of the extracted object, and a case where the center axis is incorrectly found;

도 3은 본 발명의 일실시예에 따른 블록화된 히스토그램을 이용하여 중심축 검출과정을 나타낸 도면,3 is a diagram illustrating a central axis detection process using a blocked histogram according to an embodiment of the present invention;

도 4는 본 발명의 일실시예에 따른 그림자 방향 검출과정을 나타낸 도면,4 is a view showing a shadow direction detection process according to an embodiment of the present invention;

도 5는 본 발명의 일실시예에 따른 대칭성을 이용한 그림자 후보 영역 검출과정을 나타낸 도면,5 is a view showing a shadow candidate region detection process using symmetry according to an embodiment of the present invention;

도 6a 및 도 6b는 각각 입력영상과, 상기 입력영상에 대해 본 발명의 일실시예에 따른 수직히스토그램의 편차에 따른 가중치 적용을 나타낸 그래프,6A and 6B are graphs illustrating an application of weights according to deviations of a vertical histogram according to an embodiment of the present invention with respect to an input image and the input image, respectively;

도 7a 내지 도 7d는 각각 종래와 본 발명을 비교한 실험결과를 나타낸 도면이다.7A to 7D are diagrams showing experimental results comparing the present invention with the conventional art, respectively.

본 발명은, 객체 추출 및 추적 방법에 관한 것으로, 보다 상세하게는 실시간 동영상에서 추출된 객체에서 그림자 영역을 제거하여 정확한 객체 추적이 가능하게 하는 그림자 제거 방법에 관한 것이다.The present invention relates to a method for object extraction and tracking, and more particularly, to a method for removing shadows that enables accurate object tracking by removing a shadow area from an object extracted from a real-time video.

최근 실시간 영상에서 움직이는 객체를 추출하고 추적하는 일은 감시 시스템, 패턴 인식 시스템에서 중요한 문제가 되고 있으며, 관련된 연구가 활발히 이루어지고 있다.Recently, extracting and tracking moving objects from real-time images has become an important problem in surveillance systems and pattern recognition systems, and related researches are being actively conducted.

특히, 연속된 영상 내에서 검출된 객체의 주요한 특징벡터를 추출하고, 경로를 추적하는 것은, 감시 시스템에서 이벤트 검출(event detection)시, 중요한 특징벡터가 된다.In particular, extracting the main feature vector of the detected object in the continuous image and tracking the path becomes an important feature vector during event detection in the surveillance system.

그러나, 추출된 객체가 그림자 영역을 포함하여 추출된 경우, 정확하지 않은 특징벡터 추출의 원인이 된다.However, if the extracted object is extracted including the shadow area, it may cause incorrect feature vector extraction.

이에 그림자에 의해 발생하는 잘못된 객체 인식과 경로 추적의 문제를 해결하기 위해 많은 연구가 이루어지고 있다.Therefore, many studies have been conducted to solve the problem of incorrect object recognition and path tracking caused by shadows.

그 중에서 대표적인 방법으로는 통계적인 방법과 모델 기반(model based)방법이 있다. 전자의 경우는 노이즈(noise)의 민감도를 줄일 수 있는 장점이 있고, 후자의 경우는 좋은 결과를 얻을 수 있으나 복잡하고 시간이 많이 걸리는 단점이 있다.Representative methods are statistical method and model based method. The former has the advantage of reducing the sensitivity of the noise (noise), the latter can get a good result, but has the disadvantage of being complicated and time-consuming.

여기서, 그림자 제거 시에 주로 사용하는 특성은 스펙트럼, 공간적, 시간적 특성이다.Here, the characteristics mainly used for removing shadows are spectral, spatial and temporal characteristics.

스펙트럼 정보는 명암(brightness), 칼라(color) 정보를 이용하는 것을 말하 며, 추가적으로 영역(region)과 프레임(frame) 레벨의 공간적인 특성과 시간적인 특성을 함께 사용하면, 보다 향상된 결과를 얻을 수 있다.Spectrum information refers to the use of brightness and color information. If spatial and temporal characteristics of region and frame level are used together, improved results can be obtained. .

최근에는 물리적인 특성을 사용하는 그림자 제거 방법이 많이 연구되고 있다.Recently, many methods for removing shadows using physical properties have been studied.

본 발명은 전술한 바와 같은 문제점을 해결하기 위하여 안출된 것으로서, 객체가 가지는 대칭성을 사용하여 그림자 후보 영역을 추출한 후, 객체의 중심축으로부터의 거리에 비례한 가중치를 사용하여, 추출한 객체에 대해 그림자 제거를 수행함으로써, 정확한 객체 추적이 가능한 그림자 제거 방법을 제공하는 것을 목적으로 한다.The present invention has been made to solve the problems described above, after extracting the shadow candidate region using the symmetry of the object, using a weight proportional to the distance from the center axis of the object, the shadow with respect to the extracted object By performing the removal, an object of the present invention is to provide a method for removing shadows that enables accurate object tracking.

상기와 같은 목적을 달성하기 위하여, 본 발명의 일측면에 따르면,In order to achieve the above object, according to an aspect of the present invention,

(a) 입력 영상에서 객체를 추출하는 단계와,(a) extracting an object from an input image;

(b) 상기 객체에 대해 중심축을 검출하는 단계와,(b) detecting a central axis for the object;

(c) 상기 검출된 중심축을 통해 그림자 방향을 검출하는 단계와,(c) detecting a shadow direction through the detected central axis;

(d) 상기 그림자의 방향성 검출 후 상기 객체가 가지는 대칭성을 이용하여 그림자 후보 영역을 검출하는 단계와,(d) detecting a shadow candidate region by using the symmetry of the object after detecting the directionality of the shadow;

(e) 상기 검출된 그림자를 제거하는 단계를 포함하는 그림자 제거 방법을 제공한다.(e) providing a shadow removing method comprising the step of removing the detected shadow.

또한, 상기 (b) 단계에서, 상기 중심축은, 상기 객체에 수직 히스토그램을 구하고, 구해진 상기 수직 히스토그램을 수평으로 임의의 개수의 블록으로 나누어, 각 블록별로 가장 큰 히스토그램의 X축의 위치를 max1, max2 라 둘 때, 중심축 CP는 아래의 수식(1)에 의해 구해지는 것을 특징으로 한다.Also, in the step (b), the central axis obtains a vertical histogram on the object, divides the obtained vertical histogram into an arbitrary number of blocks horizontally, and sets the position of the X axis of the largest histogram for each block in max1 and max2. In the above, the central axis CP is characterized by being obtained by the following equation (1).

CP(x) = (max1(x) + max2(x))/2 ........(1)CP (x) = (max1 (x) + max2 (x)) / 2 ........ (1)

또한, 상기 (c) 단계에서, 상기 그림자의 방향 판단은 아래의 수식(2)에 의해 구해지는 것을 특징으로 한다.Further, in the step (c), the direction of the shadow is determined by the following formula (2).

Figure 112005048336036-pat00001
..........(2)
Figure 112005048336036-pat00001
..........(2)

여기서, Os 는 그림자 방향이고, Lx 및 Rx는 바운딩 박스의 오른쪽과 왼쪽의 끝 좌표를 나타내며, ε은 임계치를 의미한다.Here, O s is a shadow direction, Lx and Rx represent right and left end coordinates of the bounding box, and ε means a threshold.

또한, 상기 (d) 단계에서, 아래의 수식(3)에 의해 객체 영역과 그림자 후보영역으로 구분하는 것을 특징으로 한다.Further, in the step (d), it is characterized by dividing the object region and the shadow candidate region by the following equation (3).

Figure 112005048336036-pat00002
..........(3)
Figure 112005048336036-pat00002
.......... (3)

여기서, CP는 객체의 중심축이고, 객체에 포함되는 최초의 픽셀이 가지는 X축 좌표 Si l, Si r 로 나타내며, 여기서, Si x는 객체의 중심축 CP를 따라 움직이는 Y축 상의 X좌표에 있는 픽셀의 거리를 나타낸다.Here, CP is the central axis of the object and is represented by the X-axis coordinates S i l and S i r of the first pixel included in the object, where S i x is the X-coordinate on the Y axis moving along the central axis CP of the object. Represents the distance of the pixel at.

또한, 상기 (e) 단계에서, 그림자가 객체 내부에 있을 때에는 색도값을 사용하고, 외부에 있을 때는 중심축에서의 거리에 대해 가중치를 적용하여 그림자를 제거하는 것을 특징으로 한다.In the step (e), the shadow is removed when the shadow is inside the object by using a chromaticity value and by applying a weight to the distance from the central axis when the shadow is outside.

또한, 상기 가중치의 적용에 있어서, 상기 입력 영상의 매 프레임에 대해 수직 히스토그램의 편차가 소정의 값 이하인 영역부터 거리에 따른 가중치를 적용하는 것을 특징으로 한다.In the application of the weights, weights according to distances may be applied to areas in which the vertical histogram is less than or equal to a predetermined value for every frame of the input image.

또한, 상기 그림자 후보 영역의 색도 평균값과 상기 객체 영역의 색도 평균값의 차이값에, 상기 가중치를 차감시킨 값을, 임계치와 비교하여, 상기 차감시킨 값이 상기 임계치보다 작으면 배경 영상으로 판단하는 것을 특징으로 한다.In addition, the value obtained by subtracting the weight from the difference between the chromaticity average value of the shadow candidate region and the chromaticity average value of the object region is compared with a threshold value, and when the subtracted value is smaller than the threshold value, it is determined as a background image. It features.

또한, 상기 추출된 객체에 노이즈를 제거하고, 상기 각각의 객체에 대해 바운딩 박스를 씌우는 것을 특징으로 한다.The method may further include removing noise from the extracted object and covering a bounding box with respect to each object.

또한, 상기 바운딩 박스의 영역을 상위, 중간, 하위로 삼등분하고, 각각의 영역에 대한 임계치를 구하는 것을 특징으로 한다.In addition, it is characterized by dividing the area of the bounding box into upper, middle, and lower portions, and obtaining a threshold value for each region.

또한, 상기 그림자가 상기 하위 바운드에 존재할 때에는 상기 하위 바운드 영역에 대해서만 그림자를 제거하는 것을 특징으로 한다.In addition, when the shadow exists in the lower bound, the shadow is removed only for the lower bound area.

이하에서 첨부된 도면을 참조하여 본 발명의 바람직한 실시예가 상세히 설명된다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 따른 객체의 대칭성과 거리벡터를 사용한 그림자 제거 과정을 나타낸 순서도이다.1 is a flowchart illustrating a shadow removal process using a symmetry and a distance vector of an object according to an embodiment of the present invention.

먼저, 배경 모델링 (background modeling)후 생성된 배경 영상과 연속된 입력 영상과의 감산 연산에 의해 차감영상(객체)가 추출된다(S110).First, a subtraction image (object) is extracted by a subtraction operation between a background image generated after background modeling and a continuous input image (S110).

이후, 상기 추출된 객체에 대해 노이즈를 제거한 후(S120), 각각의 객체에 대해서 중심축을 검출한다(S130).Then, after removing the noise for the extracted object (S120), the central axis for each object is detected (S130).

이후, 그림자의 방향을 판단하여(S140), 그림자가 객체 외부에 있으면 대칭성을 검사해서 그림자와 객체를 구분한다(S150).Thereafter, the direction of the shadow is determined (S140), and if the shadow is outside the object, the shadow is distinguished from the object by checking symmetry (S150).

이후, 각 개체에 대해 적응적 임계치를 추출하고(S160), 색도값과 상기 임계치를 비교하여(S170), 그림자 후보 영역에서 그림자를 제거한다(S180).Thereafter, an adaptive threshold value is extracted for each individual (S160), and the shadow value is removed from the shadow candidate region by comparing the chromaticity value with the threshold value (S170).

이와 같이, 그림자가 객체 내부에 있을 때는 색도값(chromaticity)을 사용하고, 외부에 있을 때는 중심축에서의 거리에 대해 가중치를 적용하여 그림자를 제거함으로써, 객체 추적을 행한다(S190).As described above, when the shadow is inside the object, chromaticity is used, and when it is outside, the object tracking is performed by removing the shadow by applying a weight to the distance from the central axis (S190).

여기서, 본 발명의 일실시예에 따른 그림자 제거 과정은, 입력 영상에서 객체를 추출하는 제1과정과, 상기 추출된 객체에 대해 중심축을 검출하는 제2과정과, 상기 검출된 중심축을 통해 그림자 방향을 검출하는 제3과정을 포함한다.Here, the shadow removing process according to an embodiment of the present invention, the first process of extracting the object from the input image, the second process of detecting the central axis for the extracted object, and the shadow direction through the detected central axis It includes a third process of detecting the.

또한, 상기 그림자의 방향성 검출 후 상기 객체가 가지는 대칭성을 이용하여 그림자 후보 영역을 검출하는 제4과정과, 상기 검출된 그림자를 제거하는 제5과정을 포함한다.The method may further include a fourth process of detecting a shadow candidate region by using the symmetry of the object after detecting the directionality of the shadow, and a fifth process of removing the detected shadow.

이하에서 제2과정 내지 제5과정을 상세히 살펴본다.Hereinafter, the second to fifth processes will be described in detail.

1. 중심축 검출1. Central axis detection

그림자 제거를 하기 위해, 객체가 가지는 대칭성을 사용하여 그림자 영역과 객체 영역을 일차적으로 구분한다. 이때, 그 기준이 되는 중심축은 일반적으로 추출된 객체의 머리 위치를 가리킨다.To remove the shadow, the object's symmetry is first used to distinguish between the shadow and object areas. In this case, the central axis as a reference generally indicates the head position of the extracted object.

도 2a 및 도 2b는 추출된 객체에 대해 중심축을 선정하는 과정에서, 각각 정확한 중심축을 찾은 경우와, 그렇지 않고 중심축을 잘못 찾은 경우를 나타낸 도면이다.2A and 2B are diagrams illustrating a case in which an accurate center axis is found in a process of selecting a center axis of an extracted object, and a case in which the center axis is incorrectly found.

도 2a에 도시된 바와 같이, 정확한 중심축을 찾은 경우는 객체에 대해 수직 히스토그램(vertical histogram)을 구해서, 그 중에서 가장 큰 값을 가지는 X축의 좌표값을 가진다.As shown in FIG. 2A, when a correct center axis is found, a vertical histogram is obtained for the object, and has a coordinate value of the X axis having the largest value among them.

그러나, 아래 도 2b와 같이, 움직이는 객체의 수직 히스토그램에서 가장 큰 X축의 좌표가 항상 중심축을 나타내는 것은 아니다.However, as shown in FIG. 2B below, the coordinates of the largest X axis in the vertical histogram of the moving object do not always represent the central axis.

도 2b와 같이, 잘못된 중심축을 검출함으로써 정확하지 않은 대칭 정보를 얻을 수 있다.As shown in FIG. 2B, incorrect symmetric information can be obtained by detecting a wrong central axis.

도 3은 본 발명의 일실시예에 따른 그림자 제거 방법에서 블록화된 히스토그램을 통해 중심축을 검출하는 과정을 나타낸 도면이다.3 is a diagram illustrating a process of detecting a central axis through a blocked histogram in a method for removing a shadow according to an embodiment of the present invention.

도 3은 블록화된 히스토그램을 나타낸 것으로, 수직 히스토그램을 수평으로 임의의 개수의 블록(block)으로 나누어 각 블록별로 가장 큰 히스토그램의 X축의 위치를 max1, max2 라 둘 때, 중심점 CP(center point)는 아래와 같이 수학식(1)에 의해 구할 수 있다.FIG. 3 illustrates a blocked histogram. When the vertical histogram is divided into any number of blocks horizontally, and the positions of the X-axis of the largest histogram for each block are max1 and max2, the center point CP (center point) is It can obtain | require by Formula (1) as follows.

CP(x) = (max1(x) + max2(x))/2CP (x) = (max1 (x) + max2 (x)) / 2

도 3b는 도 3a의 블록화된 히스토그램을 이용하여 추출된 중심축을 보여준다.FIG. 3B shows a central axis extracted using the blocked histogram of FIG. 3A.

2. 그림자 방향 검출2. Shadow direction detection

객체의 중심점을 추출한 후 그림자의 방향을 판단하여, 그림자가 객체 내부에 있는지 외부에 있는지를 알아낸다.After extracting the center point of the object, the direction of the shadow is determined to find out whether the shadow is inside or outside the object.

이 정보를 사용해서 그림자가 내부에 있을 때는 실험적인 결과에 의해 구해진 색도값을 사용하여, 삼등분 된 객체의 하위에 적용하여 그림자를 제거한다.Using this information, when the shadow is inside, it uses the chromaticity value obtained by the experimental result to remove the shadow by applying it to the lower part of the object.

그림자의 방향을 Os로 두고, 바운딩 박스의 오른쪽과 왼쪽의 끝 좌표를 Lx, Rx로 나타내고, ε을 임계치로 할 때, 도 4와 같이 나타낼 수 있다.When the direction of the shadow is set to O s and the end coordinates of the right and left edges of the bounding box are represented by Lx and Rx, and ε is set as a threshold, it can be expressed as shown in FIG. 4.

추출된 객체의 그림자의 방향은 도 4에 정의된 변수들을 수학식 2에 대입해서 구할 수 있다.The direction of the shadow of the extracted object may be obtained by substituting the variables defined in FIG.

Figure 112005048336036-pat00003
Figure 112005048336036-pat00003

그림자가 외부에 있을 때에는 다음 대칭성을 이용한 그림자 후보영역 검출 방법을 사용해서 그림자 영역을 제거한다.When the shadow is outside, the shadow region is removed using the shadow candidate region detection method using the following symmetry.

3. 대칭성을 이용한 그림자 후보영역 검출3. Shadow candidate region detection using symmetry

도 5는 본 발명의 일실시예에 따른 그림자 제거 방법에서 대칭성을 이용한 그림자 후보 영역 검출과정을 나타낸 도면이다.5 is a diagram illustrating a shadow candidate region detection process using symmetry in a shadow removing method according to an embodiment of the present invention.

도 5에 도시된 바와 같이, 추출된 객체의 중심축과 그림자의 방향성을 알아낸 다음, 객체가 가지는 대칭성을 이용해서, 객체 영역과 그림자 후보 영역으로 구분한다.As illustrated in FIG. 5, the center axis of the extracted object and the direction of the shadow are found, and then divided into the object area and the shadow candidate area by using the symmetry of the object.

일반적으로 RGB 값은 정확한 그림자 제거를 하지 못하였다. 따라서, 그림자를 제거하기 위해 밝기 변화에 민감도가 적은 색도 값을 사용한다.In general, RGB values did not remove accurate shadows. Therefore, we use chromaticity values that are less sensitive to changes in brightness to remove shadows.

추출된 객체를 R k 라 하고, 객체의 바운딩 박스의 좌, 우를 BL, BR이라 한다. 그리고, 도 3에서 검출한 CP를 기준으로 검색하여, 객체 R k 에 포함되는 최초의 픽셀이 가지는 X축 좌표 Si l, Si r를 수학식 3에 대입하여, 객체 영역과 그림자 후보영역을 구분한다.Extracted objects R k and the left and right of the object's bounding box are called BL and BR. Then, the CP is detected based on the CP detected in FIG. 3, and the object area and the shadow candidate area are substituted by substituting the X-axis coordinates S i l and S i r of the first pixel included in the object R k into Equation 3. Separate.

Figure 112005048336036-pat00004
Figure 112005048336036-pat00004

여기서, Si xR k 의 중심축 CP를 따라 움직이는 Y축 상의 X좌표에 있는 픽셀의 거리를 나타낸다.Here, S i x represents the distance of the pixel at the X coordinate on the Y axis moving along the central axis CP of R k .

4. 그림자 제거4. Shadow Removal

객체 R k 에서 도 5의 대칭성을 이용한 방법을 사용하여 추출된 객체를 R k 1 으로, 그림자 후보영역을 R k 2 로 나타낸다.The object extracted by using the method using the symmetry of the object 5 in the R k a R k 1, shows a shadow candidate area to R k 2.

그림자를 제거하기 위해 객체 영역 R k 의 각 픽셀이 가지는 색도값 rc, gc(red, green)과, 그림자 후보 영역 R k 2 의 rc, gc의 평균을 다음 수학식 4를 사용해서 구한다.Chromaticity values with each pixel of the object region R k to remove the shadow r c, g c (red, green), and the average of the shadow candidate region R k 2 in r c, g c, and then using the equation (4) Obtain

rc = r/(r+g+b)r c = r / (r + g + b)

gc = g/(r+g+b)g c = g / (r + g + b)

도 6a 및 도 6b는 본 발명의 일실시예에 따른 그림자 제거 방법에서 수직 히스토그램의 편차에 따른 가중치 적용영역을 나타낸 도면이다.6A and 6B are diagrams showing a weighted application area according to a deviation of a vertical histogram in a shadow removing method according to an embodiment of the present invention.

도 6a는 입력 영상을 나타낸 것이고, 도 6b는 도 6a의 입력 영상의 매 프레임에 대해 수직 히스트그램의 평균을 구하여, 각각 히스토그램 편차의 평균을 나타 낸 그래프이다.FIG. 6A illustrates an input image, and FIG. 6B is a graph showing averages of histogram deviations by calculating an average of vertical histograms for each frame of the input image of FIG. 6A.

도 6b를 참조하면, 객체의 중심축으로부터 멀어진 것은 객체가 아닐 경우가 많다. 이 특성을 사용하여, 편차가 임의의 값 이하인 영역부터, 거리에 따른 가중치를 적용한다.Referring to FIG. 6B, it is often not the object that is far from the central axis of the object. Using this property, weights according to distances are applied from regions where the deviation is equal to or less than an arbitrary value.

즉, 실험 결과에 의해 얻은 임계치를 중심축과의 거리에 따라 R k 2 의 평균값과, R k 의 rc, gc간의 차이 값에 가중치가 적용된 임의의 값을 차감시킨다.That is, the subtracting an arbitrary value to the weighted difference between r c, g c k of the R 2 and the average value, R k in accordance with the threshold value obtained in the distance to the central axis by the experimental results.

이후, 비교하여 임계치보다 작은 값을 가지면 배경 영상으로 판단한다. 그러나, 전체 영역에 대해 하나의 임계치를 적용하면 객체가 손실되는 결과를 가져올 수 있다.Thereafter, the comparison is determined as a background image when the value is smaller than the threshold. However, applying one threshold across the entire area can result in the loss of objects.

이러한 문제를 해결하기 위해 바운딩 박스 내의 영역을 상위(Upper), 중간(Middle), 하위 바운드(Lower Bound)로 삼등분하고, 각각의 영역에 대한 임계치를 구한다.To solve this problem, the area in the bounding box is divided into three parts, Upper, Middle, and Lower Bounds, and a threshold for each area is obtained.

그리고, 그림자가 하위 바운드에 존재할 때는 모든 영역에 대해 하지 않고 해당 영역에 대해서만 그림자 제거를 한다.When the shadow is in the lower bound, the shadow is removed only for the region instead of for all the regions.

도 7a 내지 도 7d는 본 발명의 일실시예에 따른 그림자 제거 방법에 따른 실험결과를 나타낸 도면이다.7A to 7D are diagrams showing experimental results according to a method for removing shadows according to an embodiment of the present invention.

여기서, 실험은 RGB값을 가지는 연속된 영상 N 프레임을 사용하여, 명암(intensity)의 중심값(median value)을 사용한 배경 모델링을 행한다.Here, the experiment performs background modeling using a median value of intensity using consecutive image N frames having RGB values.

이후, N 프레임 이후에 들어오는 연속된 영상에 대해 차영상을 검출한다. 이때, 추출된 영상에 노이즈를 제거 후 추출된 각각의 객체에 대해서 바운딩 박스를 씌운다.Thereafter, a difference image is detected with respect to a continuous image coming in after N frames. At this time, the noise is removed from the extracted image, and a bounding box is placed on each extracted object.

또한, 검출된 각각의 객체의 바운딩 박스 내부 영역에 대해, 본 발명에 따른 그림자 제거 방법을 적용한 후 바운딩 박스의 사이즈를 업데이트 하는 방법을 사용한다.In addition, for the region inside the bounding box of each detected object, a method of updating the size of the bounding box after applying the shadow removing method according to the present invention is used.

도 7a 및 도 7b는 각각 종래의 100번째 프레임 및 221번째 프레임으로, 연속된 영상에서 그림자 제거가 되지 않고 단순히 차영상만 사용한 경우의 객체 추적 결과를 보여준다.7A and 7B are conventional 100th frames and 221th frames, respectively, and show object tracking results when only a difference image is used without removing shadows in a continuous image.

도 7c 및 도 7d는 각각 본발명의 100번째 프레임 및 221번째 프레임으로, 동일한 프레임에서 그림자가 제거되어 올바른 객체 추적이 이루어지고 있음을 볼 수 있다.7C and 7D are the 100th and 221th frames of the present invention, respectively, and it can be seen that shadows are removed from the same frame so that correct object tracking is performed.

이상에서, 차감 연산을 통해 추출된 객체가 가지는 대칭성과 거리 벡터를 사용하여 그림자를 제거하는 방법을 살펴보았다.In the above, the method of removing the shadow using the symmetry and the distance vector of the object extracted by the subtraction operation has been described.

또한, 그림자와 객체를 구분하는 물리적인 특성을 사용하여 유사한 색상에서도 정확한 그림자 제거가 가능하며, 그룹단위로 추출되는 객체에 대한 그림자 제거에 까지 확장 적용할 수 있다.In addition, by using the physical properties that distinguish between shadows and objects, accurate shadows can be removed even in similar colors, and it can be extended to remove shadows for objects extracted in groups.

따라서, 본 발명은 상기의 실시예에 국한되는 것은 아니며 당해 기술분야에 있어서 통상의 지식을 가진자가 본 발명의 기술적 사상의 범위를 벗어나지 않는 범위내에서 설계 변경이나 회피설계를 한다 하여도 본 발명의 범위 안에 있다 할 것이다.Therefore, the present invention is not limited to the above-described embodiments, and a person having ordinary skill in the art may change the design or avoid the design without departing from the scope of the technical idea of the present invention. Will be in range.

이상에서 살펴본 바와 같이, 본 발명은 객체가 가지는 대칭성을 사용하여 그림자 후보 영역을 추출한 후, 객체의 중심축으로부터의 거리에 비례한 가중치를 사용하여, 추출한 객체에 대해 그림자 제거를 수행한다.As described above, the present invention extracts the shadow candidate region using the symmetry of the object, and then removes the shadow from the extracted object using a weight proportional to the distance from the center axis of the object.

이를 통해, 객체 내의 그림자를 제거함으로써, 올바른 특징 벡터를 추출할 수 있고, 정확한 객체 추적이 가능하다.This removes the shadows in the object, allowing the extraction of the correct feature vector and accurate object tracking.

Claims (10)

(a) 입력 영상에서 객체를 추출하는 단계와,(a) extracting an object from an input image; (b) 상기 객체에 대해 중심축을 검출하는 단계와,(b) detecting a central axis for the object; (c) 상기 검출된 중심축을 통해 그림자 방향을 검출하는 단계와,(c) detecting a shadow direction through the detected central axis; (d) 상기 그림자의 방향성 검출 후 상기 객체가 가지는 대칭성을 이용하여 그림자 후보 영역을 검출하는 단계와,(d) detecting a shadow candidate region by using the symmetry of the object after detecting the directionality of the shadow; (e) 상기 검출된 그림자를 제거하는 단계를 포함하는 것을 특징으로 하는 그림자 제거 방법.(e) removing the detected shadow. 제1항에 있어서,The method of claim 1, 상기 (b) 단계에서,In step (b), 상기 중심축은, 상기 객체에 수직 히스토그램을 구하고, 구해진 상기 수직 히스토그램을 수평으로 임의의 개수의 블록으로 나누어, 각 블록별로 가장 큰 히스토그램의 X축의 위치를 max1, max2 라 둘 때, 중심축 CP는 아래의 수식(1)에 의해 구해지는 것을 특징으로 하는 그림자 제거 방법.The central axis is obtained by obtaining a vertical histogram for the object, dividing the obtained vertical histogram into an arbitrary number of blocks horizontally, and setting the positions of the X-axis of the largest histogram for each block as max1 and max2. The method for removing shadows, characterized by the above formula (1). CP(x) = (max1(x) + max2(x))/2 ........(1)CP (x) = (max1 (x) + max2 (x)) / 2 ........ (1) 제1항에 있어서,The method of claim 1, 상기 (c) 단계에서,In the step (c), 상기 그림자의 방향 판단은 아래의 수식(2)에 의해 구해지는 것을 특징으로 하는 그림자 제거 방법.Determination of the direction of the shadow is a shadow removal method, characterized in that obtained by the following formula (2).
Figure 112005048336036-pat00005
..........(2)
Figure 112005048336036-pat00005
..........(2)
여기서, Os 는 그림자 방향이고, Lx 및 Rx는 바운딩 박스의 오른쪽과 왼쪽의 끝 좌표를 나타내며, ε은 임계치를 의미한다.Here, O s is a shadow direction, Lx and Rx represent right and left end coordinates of the bounding box, and ε means a threshold.
제1항에 있어서,The method of claim 1, 상기 (d) 단계에서, 아래의 수식(3)에 의해 객체 영역과 그림자 후보영역으로 구분하는 것을 특징으로 하는 그림자 제거 방법.In the step (d), the shadow removal method, characterized in that divided into the object region and the shadow candidate region by the following equation (3).
Figure 112005048336036-pat00006
..........(3)
Figure 112005048336036-pat00006
.......... (3)
여기서, CP는 객체의 중심축이고, 객체에 포함되는 최초의 픽셀이 가지는 X축 좌표 Si l, Si r 로 나타내며, 여기서, Si x는 객체의 중심축 CP를 따라 움직이는 Y축 상의 X좌표에 있는 픽셀의 거리를 나타낸다.Here, CP is the central axis of the object and is represented by the X-axis coordinates S i l and S i r of the first pixel included in the object, where S i x is the X-coordinate on the Y axis moving along the central axis CP of the object. Represents the distance of the pixel at.
제1항에 있어서,The method of claim 1, 상기 (e) 단계에서, 그림자가 객체 내부에 있을 때에는 색도값을 사용하고, 외부에 있을 때는 중심축에서의 거리에 대해 가중치를 적용하여 그림자를 제거하는 것을 특징으로 하는 그림자 제거 방법. In the step (e), when the shadow is inside the object using a chromaticity value, when outside the shadow removal method characterized in that to remove the shadow by applying a weight to the distance from the central axis. 제5항에 있어서,The method of claim 5, 상기 가중치의 적용에 있어서, 상기 입력 영상의 매 프레임에 대해 수직 히스토그램의 편차가 소정의 값 이하인 영역부터 거리에 따른 가중치를 적용하는 것을 특징으로 하는 그림자 제거방법.In the applying of the weight, the shadow removal method characterized in that for applying the weight according to the distance from the region where the deviation of the vertical histogram is less than a predetermined value for every frame of the input image. 제5항에 있어서,The method of claim 5, 상기 그림자 후보 영역의 색도 평균값과 상기 객체 영역의 색도 평균값의 차이값에, 상기 가중치를 차감시킨 값을, 임계치와 비교하여, 상기 차감시킨 값이 상기 임계치보다 작으면 배경 영상으로 판단하는 것을 특징으로 하는 그림자 제거 방법.The value obtained by subtracting the weight from the difference between the chromaticity average value of the shadow candidate region and the chromaticity average value of the object region is compared with a threshold value, and when the subtracted value is smaller than the threshold value, it is determined as a background image. How to get rid of shadows. 제1항에 있어서,The method of claim 1, 상기 추출된 객체에 노이즈를 제거하고, 상기 각각의 객체에 대해 바운딩 박스를 씌우는 것을 특징으로 하는 그림자 제거 방법.And removing noise from the extracted object and covering a bounding box with respect to each of the objects. 제8항에 있어서,The method of claim 8, 상기 바운딩 박스의 영역을 상위, 중간, 하위로 삼등분하고, 각각의 영역에 대한 임계치를 구하는 것을 특징으로 하는 그림자 제거 방법.And dividing an area of the bounding box into upper, middle, and lower portions, and obtaining a threshold value for each region. 제9항에 있어서,The method of claim 9, 상기 그림자가 상기 하위 바운드에 존재할 때에는 상기 하위 바운드 영역에 대해서만 그림자를 제거하는 것을 특징으로 하는 그림자 제거 방법.And when the shadow is in the lower bound, removes the shadow only for the lower bound region.
KR1020050079891A 2005-08-30 2005-08-30 Shadow casting method using symmetric and distance feature of the object region KR100696725B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050079891A KR100696725B1 (en) 2005-08-30 2005-08-30 Shadow casting method using symmetric and distance feature of the object region

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050079891A KR100696725B1 (en) 2005-08-30 2005-08-30 Shadow casting method using symmetric and distance feature of the object region

Publications (2)

Publication Number Publication Date
KR20070027929A KR20070027929A (en) 2007-03-12
KR100696725B1 true KR100696725B1 (en) 2007-03-20

Family

ID=38100877

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050079891A KR100696725B1 (en) 2005-08-30 2005-08-30 Shadow casting method using symmetric and distance feature of the object region

Country Status (1)

Country Link
KR (1) KR100696725B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102180381B1 (en) 2019-07-26 2020-11-18 강원대학교 산학협력단 The method for removing shadow of input image
US11715216B2 (en) 2021-03-25 2023-08-01 Samsung Electronics Co., Ltd. Method and apparatus with object tracking

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100871012B1 (en) * 2007-02-14 2008-11-27 한국정보통신대학교 산학협력단 Method for ground shadow reduction in sport video
KR102156024B1 (en) * 2014-09-29 2020-09-15 에스케이텔레콤 주식회사 Shadow removal method for image recognition and apparatus using the same
CN108073857B (en) 2016-11-14 2024-02-27 北京三星通信技术研究有限公司 Dynamic visual sensor DVS event processing method and device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030062586A (en) * 2002-01-17 2003-07-28 엘지전자 주식회사 Human area detection for mobile video telecommunication system
KR20030062584A (en) * 2002-01-17 2003-07-28 엘지전자 주식회사 Object detection system
KR20040076319A (en) * 2003-02-25 2004-09-01 대한민국 (군산대학교 총장) Method for pursuiting posture of golf swinger feature

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030062586A (en) * 2002-01-17 2003-07-28 엘지전자 주식회사 Human area detection for mobile video telecommunication system
KR20030062584A (en) * 2002-01-17 2003-07-28 엘지전자 주식회사 Object detection system
KR20040076319A (en) * 2003-02-25 2004-09-01 대한민국 (군산대학교 총장) Method for pursuiting posture of golf swinger feature

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
1020030062584
1020030062586
1020040076319

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102180381B1 (en) 2019-07-26 2020-11-18 강원대학교 산학협력단 The method for removing shadow of input image
US11715216B2 (en) 2021-03-25 2023-08-01 Samsung Electronics Co., Ltd. Method and apparatus with object tracking

Also Published As

Publication number Publication date
KR20070027929A (en) 2007-03-12

Similar Documents

Publication Publication Date Title
US11341669B2 (en) People flow analysis apparatus, people flow analysis system, people flow analysis method, and non-transitory computer readable medium
JP4741650B2 (en) Method of object tracking in video sequence
CN109076198B (en) Video-based object tracking occlusion detection system, method and equipment
JP6655878B2 (en) Image recognition method and apparatus, program
US7756299B2 (en) Face region estimating device, face region estimating method, and face region estimating program
JP4767240B2 (en) Method and apparatus for detecting video boundary and computer-readable recording medium embodying the same
CN105005766B (en) A kind of body color recognition methods
US20200250840A1 (en) Shadow detection method and system for surveillance video image, and shadow removing method
EP0967574A2 (en) Method for robust human face tracking in presence of multiple persons
US20080044102A1 (en) Method and Electronic Device for Detecting a Graphical Object
JP4373840B2 (en) Moving object tracking method, moving object tracking program and recording medium thereof, and moving object tracking apparatus
KR100651034B1 (en) System for detecting targets and method thereof
KR100696725B1 (en) Shadow casting method using symmetric and distance feature of the object region
KR101737430B1 (en) A method of detecting objects in the image with moving background
CN108038869B (en) Method for detecting falling behavior of passenger in elevator car
CN106327488A (en) Adaptive foreground detection method and detection device
KR101693959B1 (en) Fire detection System and Method using Features of Spatio-temporal Video Blocks
KR20220078231A (en) Skin condition measuring apparatus, skin condition measring system and method thereof
EP3543954B1 (en) Method of processing a video
US20130287254A1 (en) Method and Device for Detecting an Object in an Image
CN113744326B (en) Fire detection method based on seed region growth rule in YCRCB color space
KR101206736B1 (en) Apparatus and method for detecting rotated face region
KR100882139B1 (en) Method for face detection
RU2676028C1 (en) Method of detecting left object in video stream
Wang et al. Accurate silhouette extraction of a person in video data by shadow evaluation

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130222

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140228

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20150217

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20160226

Year of fee payment: 10

LAPS Lapse due to unpaid annual fee