KR20100030997A - Apparatus and method for extracting feature point to recognize face/object - Google Patents

Apparatus and method for extracting feature point to recognize face/object Download PDF

Info

Publication number
KR20100030997A
KR20100030997A KR1020080090010A KR20080090010A KR20100030997A KR 20100030997 A KR20100030997 A KR 20100030997A KR 1020080090010 A KR1020080090010 A KR 1020080090010A KR 20080090010 A KR20080090010 A KR 20080090010A KR 20100030997 A KR20100030997 A KR 20100030997A
Authority
KR
South Korea
Prior art keywords
image
pixel
histogram
vector
pixels
Prior art date
Application number
KR1020080090010A
Other languages
Korean (ko)
Other versions
KR101426039B1 (en
Inventor
최진민
최진영
Original Assignee
삼성테크윈 주식회사
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성테크윈 주식회사, 서울대학교산학협력단 filed Critical 삼성테크윈 주식회사
Priority to KR1020080090010A priority Critical patent/KR101426039B1/en
Publication of KR20100030997A publication Critical patent/KR20100030997A/en
Application granted granted Critical
Publication of KR101426039B1 publication Critical patent/KR101426039B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/44Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE: An apparatus and a method for detecting feature points to recognize face/object are provided to exactly recognize the face and object although the illumination of the face or object changes and to ensure excellent recognition and processing speed. CONSTITUTION: An equalization unit(141) can obtain the image from which the illuminating effect is removed by applying pixel unit histogram equalization. A contraction unit(142) contracts the equalized image by down-sampling the image. A normalization unit(143) varies a brightness value by performing normalization to the contracted image. A vector converter(144) converts the normalized image into a vector. A controller(145) corresponds the converted vector to one point of a predetermined dimension feature space.

Description

얼굴/물체 인식을 위한 특징점 검출 장치 및 방법{Apparatus and method for extracting feature point to recognize face/object}Apparatus and method for extracting feature point to recognize face / object}

본 발명은 인식 장치 및 방법에 관한 것으로, 보다 상세하게는 조명변화에 영향을 받지 않고 얼굴이나 물체를 인식할 수 있도록 특징점을 검출하는 얼굴/물체 인식을 위한 특징점 검출 장치 및 방법에 관한 것이다.The present invention relates to a recognition apparatus and a method, and more particularly, to a feature point detection apparatus and method for face / object recognition for detecting a feature point to be able to recognize a face or an object without being affected by changes in illumination.

얼굴/물체 인식 장치는 보안 시스템이나 상업적인 활용도에서 중요성이 점점 커지고 있으며, 감시 시스템과 로봇 분야에서 그 잠재적인 활용성이 높아 선진국에서 전략 산업으로 육성하고 있으며, 우리나라에서도 최근 국가 과제의 한 부분으로 지정될 만큼 중요성을 높이 평가 받고 있는 분야이다. 그런데 조명변화에 따라 얼굴/물체 인식 장치의 인식 성능이 크게 좌우되는 문제가 있다. Face / object recognition devices are becoming more and more important in security systems and commercial applications, and their potential applications in surveillance systems and robots are growing as strategic industries in developed countries. It is an area that is highly regarded as important. However, there is a problem that the recognition performance of the face / object recognition device greatly depends on the lighting change.

다양한 조명 변화에서도 높은 인식률을 얻을 수 있는 방법들은 여러 가지 제안되어 왔다. 기존의 방법들을 크게 3가지로 분류할 수 있는데, 가장 먼저 3차원 모델을 사용하여 조명의 효과를 3차원 공간에서 계산하여 그 영향을 제거하는 방법, 두 번째로 얼굴의 눈/코/입이나 물체의 두드러진 특징을 추출하여 이를 기준으로 얼굴이나 물체에 생긴 조명을 제거하는 방법, 마지막으로 얼굴이나 물체의 2차 원 영상이미지에 영상처리 기법을 사용하여 조명 효과를 제거하는 방법이 있다. 3차원 모델을 사용하는 방법은 그 정확성이나 성능은 상당히 뛰어나지만 계산량이 많이 필요하여 인식 시스템에서 사용하기에 부적합하다. 얼굴이나 물체의 특징을 추출하는 방법은 계산량은 3차원 모델을 사용하는 방법보다 적게 필요로 하지만 특징을 잘못 추출하거나, 추출된 특징의 위치가 어긋날 경우 인식률이 크게 저하되는 문제가 있다. 마지막으로 2차원 영상이미지를 사용하는 방법은 가장 계산량이 적어서 실제 시스템에 사용하기 적합하지만, 앞의 두 가지 방법보다 인식률이 떨어지는 단점이 있다.Various methods have been proposed to obtain high recognition rate even under various lighting changes. The existing methods can be categorized into three categories. First, the effect of lighting is calculated in three-dimensional space using a three-dimensional model, and the second is the eye, nose, mouth, or object of the face. There are methods of extracting prominent features and removing lighting on faces or objects, and finally removing light effects using image processing techniques on secondary image images of faces or objects. The method using the 3D model is quite accurate or performance, but it is not suitable for use in the recognition system due to the large amount of computation. The method of extracting a feature of a face or an object requires less computation than a method of using a 3D model, but there is a problem in that a recognition rate is greatly reduced when a feature is incorrectly extracted or the extracted feature is out of position. Finally, the method of using 2D video images is the least computational and suitable for use in real systems, but the recognition rate is lower than that of the previous two methods.

본 발명이 해결하고자 하는 기술적인 과제는 다양한 조명 변화에 의해 발생하는 얼굴/물체 인식률 저하 문제를 해결하여 높은 인식 성능을 얻을 수 있는 얼굴/물체 인식을 위한 특징점 검출 장치 및 방법을 제공하는데 있다.The technical problem to be solved by the present invention is to provide a feature point detection apparatus and method for face / object recognition that can obtain a high recognition performance by solving the problem of lowering the face / object recognition rate caused by various lighting changes.

본 발명이 이루고자 하는 기술적인 과제를 해결하기 위한 얼굴/물체 인식을 위한 특징점 검출 장치는 수신된 영상으로부터 조명효과를 제거하고, 조명효과가 제거된 영상을 벡터 변환하여 특징점을 검출하는 디지털 신호처리수단을 포함하는 것이 바람직하다.In order to solve the technical problem to be solved by the present invention, a feature point detection apparatus for face / object recognition removes an illumination effect from a received image and detects the feature point by vector converting the image from which the illumination effect is removed. It is preferable to include.

본 발명에 있어서, 상기 디지털 신호 처리수단은 수신된 영상으로부터 픽셀단위 히스토그램 평활화를 적용하여 조명효과가 제거된 영상을 획득하는 평활화부; 상기 평활화된 영상을 다운샘플링하여 축소하는 축소부; 상기 축소된 영상에 정규화를 수행하여 밝기값을 변경하는 정규화부; 상기 정규화된 영상을 벡터로 변환하는 벡터 변환부; 및 상기 변환된 벡터를 소정 차원 특징 공간의 한점에 대응시키는 제어부를 포함할 수 있다.The digital signal processing means may include: a smoothing unit configured to obtain an image from which an illumination effect is removed by applying histogram smoothing on a pixel basis from a received image; A reduction unit for downsampling the smoothed image to reduce the size; A normalizer for changing a brightness value by performing normalization on the reduced image; A vector converter converting the normalized image into a vector; And a controller that corresponds the converted vector to one point of a predetermined dimension feature space.

본 발명에 있어서, 상기 평활화부는 수신된 영상에서 임의의 픽셀에 정의된 소정 크기의 윈도우에 대해 히스토그램을 생성하고, 상기 히스토그램으로부터 누적 확률 분포 함수를 구하고, 상기 누적 확률 분포 함수를 이용하여 상기 픽셀의 새로운 밝기값을 생성하는 변환 함수를 정의한 후, 이를 모든 픽셀에 적용할 수 있다. In the present invention, the smoothing unit generates a histogram for a window having a predetermined size defined in an arbitrary pixel in a received image, obtains a cumulative probability distribution function from the histogram, and uses the cumulative probability distribution function of the pixel. After defining a transform function that creates a new brightness value, we can apply it to all pixels.

본 발명에 있어서, 상기 평활화부는 상기 임의의 픽셀과 이웃하는 한 픽셀의 히스토그램을 유지하면서, 상기 윈도우와 차이가 나는 윈도우 영역의 픽셀만을 접근하여 새로운 히스토그램을 생성하고, 상기 히스토그램으로부터 누적 확률 분포 함수를 구하고, 상기 누적 확률 분포 함수를 이용하여 상기 픽셀의 새로운 밝기값을 생성하는 변환 함수를 정의한 후, 이를 모든 픽셀에 적용할 수 있다.In the present invention, the smoothing unit maintains a histogram of one pixel adjacent to the arbitrary pixel, generates a new histogram by accessing only pixels in a window area different from the window, and generates a cumulative probability distribution function from the histogram. After obtaining a transformation function for generating a new brightness value of the pixel by using the cumulative probability distribution function, it may be applied to all pixels.

본 발명에 있어서, 상기 정규화부는 상기 축소된 영상의 각 픽셀들의 밝기값 평균과 분산을 구한 후, 평균을 0, 분산을 1이 되도록 밝기값을 변경한 후, m × n 행렬을 생성할 수 있다.In the present invention, the normalization unit obtains an average and a variance of the brightness values of the pixels of the reduced image, changes the brightness value so that the average is 0 and the variance is 1, and then generates an m × n matrix. .

본 발명에 있어서, 상기 벡터 변환부는 상기 m × n 개의 행렬을 m × n 원소를 가지는 벡터로 변환하고, 상기 제어부는 상기 영상을 m × n 차원 특징 공간의 한 점으로 대응시킬 수 있다.In the present invention, the vector conversion unit converts the m × n matrices into a vector having m × n elements, and the control unit may correspond to the image as a point of the m × n dimensional feature space.

본 발명이 이루고자 하는 기술적인 과제를 해결하기 위한 얼굴/물체 인식을 위한 특징점 검출 방법은 (a) 수신된 영상으로부터 조명효과를 제거하는 단계; 및 (b) 상기 조명효과가 제거된 영상을 벡터 변환하여 특징점을 검출하는 단계를 포함하는 것이 바람직하다.A feature point detection method for face / object recognition for solving the technical problem to be achieved by the present invention comprises the steps of: (a) removing the lighting effect from the received image; And (b) vector converting the image from which the lighting effect is removed to detect a feature point.

본 발명에 있어서, 상기 (a) 단계에서 수신된 영상으로부터 픽셀단위 히스토그램 평활화를 적용하여 조명효과가 제거된 영상을 획득할 수 있다.In the present invention, it is possible to obtain an image from which the lighting effect is removed by applying histogram smoothing on a pixel basis from the image received in step (a).

본 발명에 있어서, 상기 (a) 단계는 수신된 영상에서 임의의 픽셀에 정의된 소정 크기의 윈도우에 대해 히스토그램을 생성하는 단계; 상기 히스토그램으로부터 누적 확률 분포 함수를 구하는 단계; 상기 누적 확률 분포 함수를 이용하여 상기 픽셀의 새로운 밝기값을 생성하는 변환 함수를 정의하는 단계; 및 상기 과정을 모든 픽셀에 적용하는 단계를 포함할 수 있다.In the present invention, the step (a) comprises the steps of: generating a histogram for a window of a predetermined size defined in an arbitrary pixel in the received image; Obtaining a cumulative probability distribution function from the histogram; Defining a transform function for generating a new brightness value of the pixel using the cumulative probability distribution function; And applying the process to all pixels.

본 발명에 있어서, 상기 (a) 단계는 상기 임의의 픽셀과 이웃하는 한 픽셀의 히스토그램을 유지하면서, 상기 윈도우와 차이가 나는 윈도우 영역의 픽셀만을 접근하여 새로운 히스토그램을 생성하는 단계; 상기 히스토그램으로부터 누적 확률 분포 함수를 구하는 단계; 상기 누적 확률 분포 함수를 이용하여 상기 픽셀의 새로운 밝기값을 생성하는 변환 함수를 정의하는 단계; 및 상기 과정을 모든 픽셀에 적용하는 단계를 포함할 수 있다.In the present invention, the step (a) comprises: generating a new histogram by accessing only pixels in a window area different from the window while maintaining a histogram of one pixel adjacent to the arbitrary pixel; Obtaining a cumulative probability distribution function from the histogram; Defining a transform function for generating a new brightness value of the pixel using the cumulative probability distribution function; And applying the process to all pixels.

본 발명에 있어서, 상기 (b) 단계는 (b-1) 상기 조명효과가 제거된 영상을 다운샘플링하여 축소하는 단계; (b-2) 상기 축소된 영상에 정규화를 수행하여 밝기값을 변경하는 단계; 및 (b-3) 상기 정규화된 영상을 벡터로 변환하고 소정 차원 특징 공간의 한점에 대응시키는 단계를 포함할 수 있다.In the present invention, the step (b) comprises the steps of (b-1) downsampling the image from which the lighting effect is removed; (b-2) changing the brightness value by performing normalization on the reduced image; And (b-3) converting the normalized image into a vector and corresponding to a point of a predetermined dimensional feature space.

본 발명에 있어서, (b-2) 단계는 상기 축소된 영상의 각 픽셀들의 밝기값 평균과 분산을 구한 후, 평균을 0, 분산을 1이 되도록 밝기값을 변경한 후, m × n 행렬을 생성할 수 있다.In the present invention, in the step (b-2), after calculating the average and variance of the brightness values of the pixels of the reduced image, the brightness value is changed so that the average is 0 and the variance is 1, and then the m × n matrix is obtained. Can be generated.

본 발명에 있어서, 상기 (b-3) 단계는 상기 m × n 개의 행렬을 m × n 원소를 가지는 벡터로 변환하고, 상기 영상을 m × n 차원 특징 공간의 한 점으로 대응시킬 수 있다.In the present invention, step (b-3) may convert the m × n matrices into a vector having m × n elements and map the image to a point in an m × n-dimensional feature space.

본 발명에 따르면, 얼굴이나 물체에 조명이 변하더라도 정확하게 얼굴과 물 체를 인식할 수 있고, 기존의 다른 방법들보다 인식 성능과 처리 속도가 대단히 뛰어나다. 특히 조명 변화가 심한 경우에도 뛰어난 인식 성능을 나타내기 때문에 로봇 시스템이나 감시 시스템과 같이 다른 시스템에 쉽게 응용될 수 있다.According to the present invention, the face and the object can be accurately recognized even if the illumination of the face or the object is changed, and the recognition performance and processing speed are much higher than other methods. In particular, it can be easily applied to other systems such as a robotic system or a surveillance system because of its excellent recognition performance even in the case of severe lighting changes.

도 1은 본 발명에 따른 얼굴/물체 인식을 위한 특징점 검출 장치의 구성을 보이는 블록도로서, 영상 입력수단(110), 저장수단(120), 인식수단(130) 및 디지털 신호 처리수단(140)을 포함한다. 1 is a block diagram showing the configuration of a feature point detection apparatus for face / object recognition according to the present invention, the image input means 110, the storage means 120, the recognition means 130 and the digital signal processing means 140 It includes.

영상 입력수단(110)은 특징점 검출을 위한 영상을 입력받는다. 일 예로 도 2a에 영상 입력수단(110)이 입력받은 영상이 도시되어 있다.The image input unit 110 receives an image for detecting a feature point. For example, the image received by the image input unit 110 is illustrated in FIG. 2A.

저장수단은(120)에는 영상 입력수단(110)이 수신한 영상을 저장하고, 디지털 신호 처리수단(140)에서 생성되는 각종 데이터를 비롯하여 특징점 검출값을 저장한다.The storage means 120 stores the image received by the image input means 110, and stores the feature point detection value including various data generated by the digital signal processing means 140.

인식수단(130)은 디지털 신호 처리수단(140)에서 검출된 특징점을 바탕으로 얼굴에 대한 특징점에 대하여 누구의 얼굴인지, 물체에 대한 특징점에 대하여 어떤 물체인지 판단한다.The recognition unit 130 determines whose face is the feature point for the face and which object is the feature point for the object based on the feature point detected by the digital signal processing unit 140.

디지털 신호 처리수단(140)은 영상 입력수단(110)을 통하여 수신한 영상으로부터 조명효과를 제거하고, 조명효과가 제거된 영상을 벡터 변환하여 특징점을 검출한다.The digital signal processing unit 140 removes the lighting effect from the image received through the image input unit 110 and detects the feature point by vector converting the image from which the lighting effect has been removed.

이를 위해 디지털 신호 처리수단(140)은 평활화부(141), 축소부(142), 정규화부(143), 벡터 변환부(144) 및 제어부(145)를 포함한다.To this end, the digital signal processing unit 140 includes a smoothing unit 141, a reduction unit 142, a normalization unit 143, a vector converter 144, and a controller 145.

평활화부(141)는 제어부(145)의 제어 하에, 수신된 영상으로부터 픽셀단위 히스토그램 평활화(pixel-wise histogram equalization)를 적용하여 조명효과가 제거된 영상을 생성한다.The smoothing unit 141 generates an image from which the lighting effect is removed by applying pixel-wise histogram equalization from the received image under the control of the controller 145.

평활화부(141)의 픽셀단위 히스토그램 평활하는 5가지 단계로 진행되는데, 정의된 w×w 윈도우에 대해 히스토그램을 생성하고, 히스토그램으로부터 누적 확률 분포 함수(cumulative distribution function)을 구하고, 누적 확률 분포 함수를 이용하여 변환 함수를 정의하고, 변환 함수를 이용하여 새로운 밝기값을 결정하고, 이 과정을 영상의 모든 픽셀에 적용하는 과정으로 진행된다.Five steps of smoothing the pixel histogram of the smoothing unit 141 are performed. A histogram is generated for a defined w × w window, a cumulative distribution function is obtained from the histogram, and a cumulative probability distribution function is obtained. The conversion function is defined, the new brightness value is determined using the conversion function, and the process is applied to all pixels of the image.

도 3에 도시된 바와 같이 영상에서 한 픽셀 P(x, y)에 대해 임의의 크기인 w×w 윈도우를 정의하고, 윈도우에 속한 픽셀들로 수학식 1과 같은 누적 확률 분포함수 C(i)를 구한다.As shown in FIG. 3, a w × w window having an arbitrary size is defined for one pixel P (x, y) in an image, and the cumulative probability distribution function C (i) as shown in Equation 1 is defined as pixels belonging to the window. Obtain

Figure 112008064628547-PAT00001
Figure 112008064628547-PAT00001

수학식 1에서 p(j)는 윈도우에 속한 각 픽셀의 밝기 값을 의미한다. 이 누적 확률 분포 함수 C(i)를 이용하여 수학식 2와 같은 변환 함수 ihe를 정의한다.In Equation 1, p (j) means a brightness value of each pixel belonging to the window. The cumulative probability distribution function C (i) is used to define a transform function i he as shown in Equation (2).

Figure 112008064628547-PAT00002
Figure 112008064628547-PAT00002

수학식 2에서 max와 min은 각 픽셀이 가질 수 있는 밝기값의 최대값과 최소 값을 의미한다. 이 변환 함수 ihe를 이용하여 한 픽셀 P(x, y)의 새로운 밝기값 ihe(x, y)를 계산하고, 이 과정을 영상의 모든 픽셀에 반복해서 수행하면, 조명효과가 제거된 영상을 획득할 수 있다. 도 2b에는 도 2a의 입력 영상에 대하여 평활화부(141)의 픽셀단위 히스토그램 평활화 과정을 통하여 생성된 영상 즉, 조명효과가 제거된 영상의 일 예가 도시되어 있다.In Equation 2, max and min mean maximum and minimum brightness values of each pixel. Calculate the new brightness value i he (x, y) of one pixel P (x, y) using this conversion function i he , and repeat this process for every pixel in the image. Can be obtained. FIG. 2B illustrates an example of an image generated by the pixel histogram smoothing process of the smoothing unit 141 with respect to the input image of FIG. 2A, that is, an image in which the lighting effect is removed.

윈도우의 크기가 w×w일 때, 각 픽셀에 대하여 픽셀단위 히스토그램 평활화를 수행하려면, w×w개의 픽셀에 접근해야 한다. 그러나, 영상의 모든 픽셀에 대해 픽셀단위 히스토그램 평활화를 수행한다면 w2번의 접근이 아니라 2w번의 접근 만으로도 픽셀단위 히스토그램 평활화를 수행할 수 있다.When the size of the window is w × w, to perform pixel-by-pixel histogram smoothing for each pixel, we need to access w × w pixels. However, when performing the pixels, histogram smoothing for every pixel in the image can be accessed as a single w 2 pixels perform histogram equalization only access single 2w.

도 4에 도시된 바와 같이 영상에서 한 픽셀 P(x, y)에 대해 픽셀단위 히스토그램 평활화를 수행하였다면, 픽셀 P(x, y)를 중심으로한 윈도우의 히스토그램은 알고 있는 상태이다. 픽셀 P(x, y)과 이웃하는 픽셀 P'(x+1, y)에 대해 픽셀단위 히스토그램 평활화를 수행할 때 픽셀 P(x, y)를 중심으로한 윈도우의 히스토그램을 알고 있다는 것을 이용하여, 픽셀 P(x, y)를 중심으로한 윈도우의 RO에 해당하는 픽셀들의 정보를 빼고 Rn에 해당하는 픽셀들의 정보를 더해주면 픽셀 P'(x+1, y)를 중심으로한 윈도우의 히스토그램을 구할 수 있다. 픽셀단위 히스토그램 평활화를 수행할 때 이웃한 픽셀의 히스토그램을 계속 유지하고 있으면, w2개가 아닌 2w개의 픽셀만 접근하면 새로운 히스토그램을 획득할 수 있기 때문에 고속으로 픽셀단위 히 스토그램 평활화를 수행할 수 있다.As shown in FIG. 4, if the pixel histogram smoothing is performed for one pixel P (x, y) in the image, the histogram of the window centered on the pixel P (x, y) is known. When performing pixel-by-pixel histogram smoothing on pixels P (x, y) and neighboring pixels P '(x + 1, y), we know that we know the histogram of the window centered on pixels P (x, y). By subtracting the information of pixels corresponding to R O of the window centered on the pixel P (x, y) and adding the information of the pixels corresponding to R n , the window centered on the pixel P '(x + 1, y) A histogram of can be obtained. If the histogram of the neighboring pixels is still maintained when performing the pixel histogram smoothing, it is possible to perform the pixel histogram smoothing at a high speed because a new histogram can be obtained by only approaching 2 w pixels instead of w 2 . .

축소부(142)는 제어부(145)의 제어 하에, 픽셀단위 히스토그램 평활화를 수행하여 조명효과가 제거된 영상을 다운샘플링하여 축소한다.Under the control of the controller 145, the reduction unit 142 performs a histogram smoothing on a pixel basis to downsample and reduce the image from which the lighting effect is removed.

M×N 크기의 원본 영상을 그대로 사용하는 것은 너무 차원이 커서 많은 메모리와 계산량을 필요로 한다. 따라서, 데이터의 차원을 줄여야 하는데, 축소부(142)는 영상 처리에서 많이 사용되는 다운 샘플링 방법을 이용하여 영상의 크기를 원하는 m×n(M>>m, N>>n) 크기로 축소한다. 기존의 다른 방법인 주성분 분석법 (principal component analysis:PCA), 선형 판별 분석법(linear discriminant analysis:LDA)와 같은 방법을 사용하면, 데이터의 왜곡을 최소화 하면서 영상의 크기를 축소할 수 있다. 주성분 분석법 또는 선형 판별 분석법은 많은 메모리와 계산량을 필요로 하는 문제점이 있어 본원발명에서는 다운샘플링 방법을 이용하여 단순하고 빠르게 영상을 축소한다. 도 2c에는 픽셀단위 히스토그램 평활화를 수행하여 조명효과가 제거된 영상을 축소한 예가 도시되어 있다.Using the original M × N image as it is is too large and requires a lot of memory and computation. Therefore, the dimension of the data should be reduced, and the reduction unit 142 reduces the size of the image to a desired size of m × n (M >> m, N >> n) by using a down sampling method that is frequently used in image processing. . Other methods, such as principal component analysis (PCA) and linear discriminant analysis (LDA), can be used to reduce image size while minimizing data distortion. Principal component analysis or linear discriminant analysis requires a large amount of memory and calculation amount, so in the present invention, the downsampling method is used to reduce the image simply and quickly. FIG. 2C illustrates an example in which a histogram smoothing by a pixel is performed to reduce an image from which an illumination effect is removed.

정규화부(143)는 제어부(145)의 제어 하에, 축소된 영상에 정규화를 수행하여 밝기값을 변경한다.The normalizer 143 changes the brightness value by performing normalization on the reduced image under the control of the controller 145.

정규화부(143)는 축소된 m×n 크기의 영상 각 픽셀에 대해 밝기값의 평균(mean)과 분산(variance)을 구한 후, 평균을 0, 분산을 1이 되도록 모든 점들의 밝기값을 변경한다. 정규화부(143)의 영상 정규화 과정을 통해 m×n 크기의 행렬(matrix)를 획득할 수 있고, 도 2d에 영상 정규화 과정을 통해 생성된 행렬이 도시되어 있다.The normalization unit 143 obtains the mean and the variance of the brightness values for each pixel of the reduced m × n size image, and then changes the brightness values of all the points such that the average is 0 and the variance is 1. do. An m × n matrix may be obtained through the image normalization process of the normalization unit 143, and a matrix generated through the image normalization process is illustrated in FIG. 2D.

벡터 변환부(144)는 제어부(145)의 제어 하에, 정규화된 영상을 벡터로 변환하는데, m×n 크기의 행렬을 m×n 개의 원소를 가지는 벡터로 변환한다. 도 2e에는 m×n 크기의 행렬을 m×n 개의 원소를 가지는 벡터로 변환한 예가 도시되어 있다.The vector converter 144 converts the normalized image into a vector under the control of the controller 145, and converts the m × n matrix into a vector having m × n elements. 2E shows an example of converting an m × n matrix into a vector having m × n elements.

제어부(145)는 벡터를 m×n 차원의 한 점에 대응시키며, 도 2f에 그 예가 도시되어 있다. 제어부(145)는 M×N 크기의 2차원 영상을 m×n 차원 특징 공간의 한 점으로 대응시키며, 이때 다른 조명 조건에서 획득한 동일 인물의 영상은 특징 공간에서 같은 점에 위치하도록 하고, 서로 다른 인물의 영상은 특징 공간에서 다른 점에 위치하도록 한다. 이렇게 되면 조명 효과에 따른 변화는 모두 제거되고 얼굴이나 물체의 고유 모양 차이에 따라 특징 공간에 위치하기 때문에 조명 변화에 강인한 인식 장치를 제작할 수 있다. 이렇게 변환된 m×n 차원 벡터는 기존의 여러 분류기들을 이용하여 쉽게 각 사람이나 물체들로 구분할 수 있다. 도 5에는 얼굴의 영상을 변환하면 동일 인물에 대해 다른 조명 조건에서 얻은 얼굴의 영상이미지는 다차원 공간 상의 동일 위치에 대응되며, 다른 인물에 대해 같은 조명 조건에서 얻은 얼굴의 영상이미지는 다차원 공간 상의 다른 위치에 대응되기 때문에 서로 다른 사람을 구분할 수 있다는 실시 예를 도시하고 있다.The controller 145 corresponds a vector to a point of m × n dimension, an example of which is shown in FIG. 2F. The controller 145 maps the M × N size 2D image to a point of the m × n dimension feature space, wherein the images of the same person acquired under different lighting conditions are located at the same point in the feature space, and Images of different people are located at different points in the feature space. This eliminates all changes due to lighting effects and places them in the feature space according to differences in inherent shapes of faces or objects, making it possible to create a recognition device that is robust to changes in lighting. The transformed m × n dimensional vectors can be easily classified into individual people or objects using various existing classifiers. In FIG. 5, when the image of the face is converted, the image image of the face obtained under different lighting conditions for the same person corresponds to the same position in the multi-dimensional space, and the image image of the face obtained under the same lighting condition for different characters is different in the multi-dimensional space. The embodiment illustrates that different people can be distinguished from each other by corresponding to the location.

이어서, 도 6 및 도 7을 참조하여 본 발명에 따른 얼굴/물체 인식을 위한 특징점 검출 방법을 설명한다. 본 발명에 따른 얼굴/물체 인식을 위한 특징점 검출 방법은 도 1에 도시된 바와 같은 얼굴/물체 인식을 위한 특징점 검출 장치 내부에서 수행될 수 있는데, 실시 예에 따라 동작 방법의 주 알고리즘은 장치 내의 주변 구성 요소들의 도움을 받아 추적 디지털 신호 처리수단(140) 내부에서 수행될 수 있다.Next, a feature point detection method for face / object recognition according to the present invention will be described with reference to FIGS. 6 and 7. The feature point detection method for face / object recognition according to the present invention may be performed inside the feature point detection device for face / object recognition as shown in FIG. 1. With the help of the components it can be performed inside the tracking digital signal processing means 140.

도 6은 본 발명에 따른 얼굴/물체 인식을 위한 특징점 검출 방법의 동작을 보이는 흐름도로서, 디지털 신호 처리부(140)가 영상을 수신하면(610단계), 영상에 픽셀단위 히스토그램 평활화를 적용하여 조명효과가 제거된 영상을 획득한다(620단계).FIG. 6 is a flowchart illustrating an operation of a method for detecting a feature point for face / object recognition according to the present invention. When the digital signal processor 140 receives an image (step 610), the pixel effect histogram smoothing is applied to the image. Acquire the removed image (step 620).

도 7에는 디지털 신호 처리부(140)가 적용하여 픽셀단위 히스토그램 평활화 과정의 제1 실시 예에 따른 상세 방법이 도시되어 있다.FIG. 7 illustrates a detailed method according to the first embodiment of the pixel-to-pixel histogram smoothing process applied by the digital signal processor 140.

먼저, 디지털 신호 처리부(140)는 영상에서 임의의 w×w를 정의하고, 정의된 w×w 윈도우로부터 히스토그램을 생성한다(621단계). 히스토그램 생성에 대한 내용은 이미 공지된 기술이 많으므로 이에 대한 설명은 생략하기로 한다.First, the digital signal processor 140 defines an arbitrary w × w in an image and generates a histogram from the defined w × w window (step 621). Since histogram generation has many known technologies, description thereof will be omitted.

히스토그램이 생성되면, 디지털 신호 처리부(140)는 히스토그램으로부터 누적 확률 분포 함수를 구한다(622단계). 도 3에 도시된 바와 같이 디지털 신호 처리부(140)는 영상에서 한 픽셀 P(x, y)에 대해 임의의 크기인 w×w 윈도우를 정의하고, 윈도우에 속한 픽셀들로 상기 수학식 1과 같은 누적 확률 분포함수 C(i)를 구한다. 수학식 1에서 p(j)는 윈도우에 속한 각 픽셀의 밝기 값을 의미한다.When the histogram is generated, the digital signal processor 140 obtains a cumulative probability distribution function from the histogram (step 622). As shown in FIG. 3, the digital signal processor 140 defines a w × w window having an arbitrary size for one pixel P (x, y) in an image, and the pixels belonging to the window are represented by Equation 1 above. Obtain the cumulative probability distribution function C (i). In Equation 1, p (j) means a brightness value of each pixel belonging to the window.

누적 확률 분포 함수가 구해지면, 디지털 신호 처리부(140)는 누적 확률 분포 함수를 이용하여 변환 함수를 정의한다(623단계). 디지털 신호 처리부(140)는 누적 확률 분포 함수 C(i)를 이용하여 상기 수학식 2와 같은 변환 함수 ihe를 정의 한다. 상기 수학식 2에서 max와 min은 각 픽셀이 가질 수 있는 밝기값의 최대값과 최소값을 의미한다.When the cumulative probability distribution function is obtained, the digital signal processor 140 defines a transform function using the cumulative probability distribution function (step 623). The digital signal processor 140 defines a transform function i he as shown in Equation 2 using the cumulative probability distribution function C (i). In Equation 2, max and min mean maximum and minimum brightness values of each pixel.

변환 함수가 정의되면, 디지털 신호 처리부(140)는 변환 함수를 이용하여 임의의 픽셀 P(x, y)의 새로운 밝기값 ihe(x, y)을 결정하고(624단계), 이 과정을 영상의 전체 픽셀에 적용하면(625단계), 조명효과가 제거된 영상을 획득할 수 있다. When the transform function is defined, the digital signal processor 140 determines the new brightness value i he (x, y) of the arbitrary pixel P (x, y) using the transform function (step 624), and processes the image. When applied to all pixels of the control panel (step 625), an image from which the lighting effect is removed may be obtained.

윈도우의 크기가 w×w일 때, 각 픽셀에 대하여 픽셀단위 히스토그램 평활화를 수행하려면, w×w개의 픽셀에 접근해야 한다. 그러나, 영상의 모든 픽셀에 대해 픽셀단위 히스토그램 평활화를 수행한다면 w2번의 접근이 아니라 2w번의 접근 만으로도 픽셀단위 히스토그램 평활화를 수행할 수 있다. 도 4에 도시된 바와 같이 영상에서 한 픽셀 P(x, y)에 대해 픽셀단위 히스토그램 평활화를 수행하였다면, 픽셀 P(x, y)를 중심으로한 윈도우의 히스토그램은 알고 있는 상태이다. 픽셀 P(x, y)과 이웃하는 픽셀 P'(x+1, y)에 대해 픽셀단위 히스토그램 평활화를 수행할 때 픽셀 P(x, y)를 중심으로한 윈도우의 히스토그램을 알고 있다는 것을 이용하여, 픽셀 P(x, y)를 중심으로한 윈도우의 RO에 해당하는 픽셀들의 정보를 빼고 Rn에 해당하는 픽셀들의 정보를 더해주면 픽셀 P'(x+1, y)를 중심으로한 윈도우의 히스토그램을 구할 수 있다. 픽셀단위 히스토그램 평활화를 수행할 때 이웃한 픽셀의 히스토그램을 계속 유지하고 있으면, w2개가 아닌 2w개의 픽셀만 접근하면 새로운 히스토그램을 획득할 수 있기 때문에 고속으로 픽셀단위 히스토그램 평활화를 수행할 수 있다.When the size of the window is w × w, to perform pixel-by-pixel histogram smoothing for each pixel, we need to access w × w pixels. However, when performing the pixels, histogram smoothing for every pixel in the image can be accessed as a single w 2 pixels perform histogram equalization only access single 2w. As shown in FIG. 4, if the pixel histogram smoothing is performed for one pixel P (x, y) in the image, the histogram of the window centered on the pixel P (x, y) is known. When performing pixel-by-pixel histogram smoothing on pixels P (x, y) and neighboring pixels P '(x + 1, y), we know that we know the histogram of the window centered on pixels P (x, y). By subtracting the information of pixels corresponding to R O of the window centered on the pixel P (x, y) and adding the information of the pixels corresponding to R n , the window centered on the pixel P '(x + 1, y) A histogram of can be obtained. If the histogram of the neighboring pixels is still maintained when performing the pixel histogram smoothing, the pixel histogram smoothing can be performed at high speed because a new histogram can be obtained by only approaching 2 w pixels instead of w 2 .

다시 도 6으로 돌아와서, 조명효과가 제거된 영상이 획득되면, 디지털 신호 처리부(140)는 영상의 크기를 축소한다(630단계).6, when the image in which the lighting effect is removed is obtained, the digital signal processor 140 reduces the size of the image (step 630).

M×N 크기의 원본 영상을 그대로 사용하는 것은 너무 차원이 커서 많은 메모리와 계산량을 필요로 한다. 따라서, 데이터의 차원을 줄여야 하는데, 디지털 신호 처리부(140)는 영상 처리에서 많이 사용되는 다운 샘플링 방법을 이용하여 영상의 크기를 원하는 m×n(M>>m, N>>n) 크기로 축소한다. Using the original M × N image as it is is too large and requires a lot of memory and computation. Therefore, the dimension of the data needs to be reduced. The digital signal processor 140 reduces the size of the image to a desired size of m × n (M >> m, N >> n) by using a down sampling method that is frequently used in image processing. do.

영상이 축소되면, 디지털 신호 처리부(140)는 축소된 영상에 정규화를 수행하여 행렬로 변환시킨다(640단계).When the image is reduced, the digital signal processor 140 normalizes the reduced image and converts the image into a matrix (step 640).

디지털 신호 처리부(140)는 축소된 m×n 크기의 영상 각 픽셀에 대해 밝기값의 평균(mean)과 분산(variance)을 구한 후, 평균을 0, 분산을 1이 되도록 모든 점들의 밝기값을 변경한다. 디지털 신호 처리부(140)의 영상 정규화 과정을 통해 m×n 크기의 행렬(matrix)를 획득할 수 있다.The digital signal processor 140 obtains the mean and the variance of the brightness values for each pixel of the reduced size of m × n, and then adjusts the brightness values of all points such that the average is 0 and the variance is 1. Change it. An m × n matrix may be obtained through the image normalization process of the digital signal processor 140.

행렬이 획득되면, 디지털 신호 처리부(140)는 m×n 크기의 행렬을 m×n 개의 원소를 가지는 벡터로 변환한다(650단계).When the matrix is obtained, the digital signal processor 140 converts the matrix of size m × n into a vector having m × n elements (step 650).

벡터 변환이 완료되면, 디지털 신호 처리부(140)는 벡터를 소정 (m×n) 차원 특징 공간의 한 점에 대응시킨다(660단계).When the vector conversion is completed, the digital signal processor 140 associates the vector with a point of a predetermined (m × n) dimensional feature space (step 660).

M×N 크기의 2차원 영상을 m×n 차원 특징 공간의 한 점으로 대응시키며, 이때 다른 조명 조건에서 획득한 동일 인물의 영상은 특징 공간에서 같은 점에 위치하도록 하고, 서로 다른 인물의 영상은 특징 공간에서 다른 점에 위치하도록 한다. 이렇게 되면 조명 효과에 따른 변화는 모두 제거되고 얼굴이나 물체의 고유 모양 차이에 따라 특징 공간에 위치하기 때문에 조명 변화에 강인한 인식 장치를 제작할 수 있다. 이렇게 변환된 m×n 차원 벡터는 기존의 여러 분류기들을 이용하여 쉽게 각 사람이나 물체들로 구분할 수 있다. The two-dimensional image of the M × N size is mapped to a point in the m × n-dimensional feature space, and the images of the same person acquired under different lighting conditions are located at the same point in the feature space. Position it at a different point in the feature space. This eliminates all changes due to lighting effects and places them in the feature space according to differences in inherent shapes of faces or objects, making it possible to create a recognition device that is robust to changes in lighting. The transformed m × n dimensional vectors can be easily classified into individual people or objects using various existing classifiers.

도 1은 본 발명에 따른 얼굴/물체 인식을 위한 특징점 검출 장치의 구성을 보이는 블록도 이다.1 is a block diagram showing the configuration of a feature point detection device for face / object recognition according to the present invention.

도 2는 도 1의 장치에서 얼굴/물체 인식을 위한 특징점 검출 블록의 각 동작 과정을 설명하는 도면이다.FIG. 2 is a diagram illustrating an operation process of a feature point detection block for face / object recognition in the apparatus of FIG. 1.

도 3은 도 1의 장치에서 픽셀단위 히스토그램 평활화의 제1 실시 예를 설명하기 위한 도면이다.FIG. 3 is a diagram for describing a first embodiment of pixel-to-pixel histogram smoothing in the apparatus of FIG. 1.

도 4는 도 1의 장치에서 픽셀단위 히스토그램 평활화의 제2 실시 예를 설명하기 위한 도면이다.FIG. 4 is a diagram for describing a second exemplary embodiment of pixel- histogram smoothing in the apparatus of FIG. 1.

도 5는 도 1의 장치에서 동일 인물에 대해 다른 조명 조건에서 획득한 영상과, 다른 인물에 대해 같은 조명 조건에서 획득한 영상이 다차원 공간 상에서 어느 위치에 대응되는지 보여주는 도면이다.FIG. 5 is a diagram illustrating an example of an image obtained in different lighting conditions for the same person and an image acquired under the same lighting condition for another person in a device in FIG. 1.

도 6은 본 발명에 따른 얼굴/물체 인식을 위한 특징점 검출 방법의 동작을 보이는 흐름도 이다.6 is a flowchart illustrating an operation of a method for detecting a feature point for face / object recognition according to the present invention.

도 7은 도 6 중 픽셀단위 히스토그램 평활화를 적용하여 조명 효과가 제거된 영상을 획득하는 방법을 보이는 흐름도 이다.FIG. 7 is a flowchart illustrating a method of obtaining an image in which lighting effects are removed by applying a histogram smoothing unit by pixel in FIG. 6.

Claims (13)

수신된 영상으로부터 조명효과를 제거하고, 조명효과가 제거된 영상을 벡터 변환하여 특징점을 검출하는 디지털 신호처리수단을 포함하는 얼굴/물체 인식을 위한 특징점 검출 장치.And digital signal processing means for removing the lighting effect from the received image and vector transforming the image from which the lighting effect has been removed to detect the characteristic point. 제 1항에 있어서, 상기 디지털 신호 처리수단은The method of claim 1, wherein the digital signal processing means 수신된 영상으로부터 픽셀단위 히스토그램 평활화를 적용하여 조명효과가 제거된 영상을 획득하는 평활화부;A smoothing unit configured to obtain an image from which the lighting effect is removed by applying a histogram smoothing pixel by pixel from the received image; 상기 평활화된 영상을 다운샘플링하여 축소하는 축소부;A reduction unit for downsampling the smoothed image to reduce the size; 상기 축소된 영상에 정규화를 수행하여 밝기값을 변경하는 정규화부; A normalizer for changing a brightness value by performing normalization on the reduced image; 상기 정규화된 영상을 벡터로 변환하는 벡터 변환부; 및A vector converter converting the normalized image into a vector; And 상기 변환된 벡터를 소정 차원 특징 공간의 한점에 대응시키는 제어부를 포함하는 것을 특징으로 하는 얼굴/물체 인식을 위한 특징점 검출 장치.And a controller for mapping the transformed vector to one point of a predetermined dimensional feature space. 제 2항에 있어서, 상기 평활화부는The method of claim 2, wherein the smoothing unit 수신된 영상에서 임의의 픽셀에 정의된 소정 크기의 윈도우에 대해 히스토그램을 생성하고, 상기 히스토그램으로부터 누적 확률 분포 함수를 구하고, 상기 누적 확률 분포 함수를 이용하여 상기 픽셀의 새로운 밝기값을 생성하는 변환 함수를 정의한 후, 이를 모든 픽셀에 적용하는 것을 특징으로 하는 얼굴/물체 인식을 위한 특징점 검출 장치.A transform function that generates a histogram for a window of a predetermined size defined in a given pixel in a received image, obtains a cumulative probability distribution function from the histogram, and generates a new brightness value of the pixel using the cumulative probability distribution function. The apparatus for detecting a feature point for face / object recognition according to claim 1, wherein the image is defined and then applied to all pixels. 제 3항에 있어서, 상기 평활화부는The method of claim 3, wherein the smoothing unit 상기 임의의 픽셀과 이웃하는 한 픽셀의 히스토그램을 유지하면서, 상기 윈도우와 차이가 나는 윈도우 영역의 픽셀만을 접근하여 새로운 히스토그램을 생성하고, 상기 히스토그램으로부터 누적 확률 분포 함수를 구하고, 상기 누적 확률 분포 함수를 이용하여 상기 픽셀의 새로운 밝기값을 생성하는 변환 함수를 정의한 후, 이를 모든 픽셀에 적용하는 것을 특징으로 하는 얼굴/물체 인식을 위한 특징점 검출 장치.While maintaining a histogram of one pixel neighboring the arbitrary pixel, a new histogram is generated by accessing only pixels in a window area different from the window, a cumulative probability distribution function is obtained from the histogram, and the cumulative probability distribution function is calculated. And a conversion function for generating a new brightness value of the pixel by using the same, and applying the same to all pixels. 제 3항에 있어서, 상기 정규화부는The method of claim 3, wherein the normalization unit 상기 축소된 영상의 각 픽셀들의 밝기값 평균과 분산을 구한 후, 평균을 0, 분산을 1이 되도록 밝기값을 변경한 후, m × n 행렬을 생성하는 것을 특징으로 하는 얼굴/물체 인식을 위한 특징점 검출 장치.After obtaining the average and the variance of the brightness value of each pixel of the reduced image, the brightness value is changed so that the average is 0, the variance is 1, and then generates an m × n matrix for face / object recognition Feature point detection device. 제 5항에 있어서, The method of claim 5, 상기 벡터 변환부는The vector converter 상기 m × n 개의 행렬을 m × n 원소를 가지는 벡터로 변환하고, Converting the m × n matrices into a vector having m × n elements, 상기 제어부는The control unit 상기 영상을 m × n 차원 특징 공간의 한 점으로 대응시키는 것을 특징으로 하는 얼굴/물체 인식을 위한 특징점 검출 장치.And the image is mapped to a point in an m × n dimensional feature space. (a) 수신된 영상으로부터 조명효과를 제거하는 단계; 및(a) removing the lighting effect from the received image; And (b) 상기 조명효과가 제거된 영상을 벡터 변환하여 특징점을 검출하는 단계를 포함하는 얼굴/물체 인식을 위한 특징점 검출 방법.(b) detecting a feature point by vector transforming the image from which the lighting effect has been removed. 제 7항에 있어서, 상기 (a) 단계에서8. The method of claim 7, wherein in step (a) 수신된 영상으로부터 픽셀단위 히스토그램 평활화를 적용하여 조명효과가 제거된 영상을 획득하는 것을 특징으로 하는 얼굴/물체 인식을 위한 특징점 검출 방법.A method for detecting a feature point for face / object recognition, comprising: applying a histogram smoothing on a pixel basis from a received image to obtain an image from which an illumination effect is removed. 제 8항에 있어서, 상기 (a) 단계는The method of claim 8, wherein step (a) 수신된 영상에서 임의의 픽셀에 정의된 소정 크기의 윈도우에 대해 히스토그램을 생성하는 단계;Generating a histogram for a window of a predetermined size defined for any pixel in the received image; 상기 히스토그램으로부터 누적 확률 분포 함수를 구하는 단계;Obtaining a cumulative probability distribution function from the histogram; 상기 누적 확률 분포 함수를 이용하여 상기 픽셀의 새로운 밝기값을 생성하는 변환 함수를 정의하는 단계; 및Defining a transform function for generating a new brightness value of the pixel using the cumulative probability distribution function; And 상기 과정을 모든 픽셀에 적용하는 단계를 포함하는 것을 특징으로 하는 얼굴/물체 인식을 위한 특징점 검출 방법.And applying the process to all the pixels. 제 9항에 있어서, 상기 (a) 단계는 The method of claim 9, wherein step (a) 상기 임의의 픽셀과 이웃하는 한 픽셀의 히스토그램을 유지하면서, 상기 윈도우와 차이가 나는 윈도우 영역의 픽셀만을 접근하여 새로운 히스토그램을 생성하는 단계;Generating a new histogram by accessing only pixels in a window area different from the window while maintaining a histogram of one pixel neighboring the arbitrary pixel; 상기 히스토그램으로부터 누적 확률 분포 함수를 구하는 단계;Obtaining a cumulative probability distribution function from the histogram; 상기 누적 확률 분포 함수를 이용하여 상기 픽셀의 새로운 밝기값을 생성하는 변환 함수를 정의하는 단계; 및Defining a transform function for generating a new brightness value of the pixel using the cumulative probability distribution function; And 상기 과정을 모든 픽셀에 적용하는 단계를 포함하는 것을 특징으로 하는 얼굴/물체 인식을 위한 특징점 검출 방법.And applying the process to all the pixels. 제 7항에 있어서, 상기 (b) 단계는The method of claim 7, wherein step (b) (b-1) 상기 상기 조명효과가 제거된 영상을 다운샘플링하여 축소하는 단계;(b-1) downsampling and contracting the image from which the illumination effect is removed; (b-2) 상기 축소된 영상에 정규화를 수행하여 밝기값을 변경하는 단계; 및(b-2) changing the brightness value by performing normalization on the reduced image; And (b-3) 상기 정규화된 영상을 벡터로 변환하고 소정 차원 특징 공간의 한점에 대응시키는 단계를 포함하는 것을 특징으로 하는 얼굴/물체 인식을 위한 특징점 검출 방법.(b-3) converting the normalized image into a vector and corresponding to a point in a predetermined dimensional feature space. 제 11항에 있어서, (b-2) 단계는The method of claim 11, wherein step (b-2) 상기 축소된 영상의 각 픽셀들의 밝기값 평균과 분산을 구한 후, 평균을 0, 분산을 1이 되도록 밝기값을 변경한 후, m × n 행렬을 생성하는 것을 특징으로 하 는 얼굴/물체 인식을 위한 특징점 검출 방법.After obtaining the average and the variance of the brightness values of the pixels of the reduced image, changing the brightness value so that the average is 0 and the variance is 1, and then generating an m × n matrix for face / object recognition. Feature point detection method. 제 12항에 있어서, 상기 (b-3) 단계는 The method of claim 12, wherein step (b-3) 상기 m × n 개의 행렬을 m × n 원소를 가지는 벡터로 변환하고, 상기 영상을 m × n 차원 특징 공간의 한 점으로 대응시키는 것을 특징으로 하는 얼굴/물체 인식을 위한 특징점 검출 방법.And converting the m × n matrices into a vector having m × n elements and correlating the image to a point in an m × n dimensional feature space.
KR1020080090010A 2008-09-11 2008-09-11 Apparatus and method for extracting feature point to recognize face/object KR101426039B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080090010A KR101426039B1 (en) 2008-09-11 2008-09-11 Apparatus and method for extracting feature point to recognize face/object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080090010A KR101426039B1 (en) 2008-09-11 2008-09-11 Apparatus and method for extracting feature point to recognize face/object

Publications (2)

Publication Number Publication Date
KR20100030997A true KR20100030997A (en) 2010-03-19
KR101426039B1 KR101426039B1 (en) 2014-08-01

Family

ID=42180799

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080090010A KR101426039B1 (en) 2008-09-11 2008-09-11 Apparatus and method for extracting feature point to recognize face/object

Country Status (1)

Country Link
KR (1) KR101426039B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112717125A (en) * 2012-10-03 2021-04-30 瑞士杰特贝林生物制品有限公司 Method for purifying protein

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100393071B1 (en) * 2001-08-18 2003-07-31 삼성전자주식회사 Apparatus and method for histogram equlization of image
KR100724932B1 (en) * 2005-08-02 2007-06-04 삼성전자주식회사 apparatus and method for extracting human face in a image
KR20080067793A (en) * 2007-01-17 2008-07-22 전준철 Real-time face recognition based on subspace and lvq classifier

Also Published As

Publication number Publication date
KR101426039B1 (en) 2014-08-01

Similar Documents

Publication Publication Date Title
CN110264416B (en) Sparse point cloud segmentation method and device
US10198623B2 (en) Three-dimensional facial recognition method and system
CN109583483B (en) Target detection method and system based on convolutional neural network
CN109903331B (en) Convolutional neural network target detection method based on RGB-D camera
CN112819772B (en) High-precision rapid pattern detection and recognition method
US10445602B2 (en) Apparatus and method for recognizing traffic signs
US20020051578A1 (en) Method and apparatus for object recognition
CN107067015B (en) Vehicle detection method and device based on multi-feature deep learning
KR20170006355A (en) Method of motion vector and feature vector based fake face detection and apparatus for the same
Correal et al. Automatic expert system for 3D terrain reconstruction based on stereo vision and histogram matching
KR101906796B1 (en) Device and method for image analyzing based on deep learning
JP2018022360A (en) Image analysis device, image analysis method and program
EP2309454B1 (en) Apparatus and method for detecting motion
US8538079B2 (en) Apparatus capable of detecting location of object contained in image data and detection method thereof
KR20110064117A (en) Method for determining frontal pose of face
CN107563985B (en) Method for detecting infrared image air moving target
CN116309607B (en) Ship type intelligent water rescue platform based on machine vision
WO2021084972A1 (en) Object tracking device and object tracking method
JP2011187049A (en) Method and device for classifying traffic sign
KR101478709B1 (en) Method and apparatus for extracting and generating feature point and feature descriptor rgb-d image
US20140161313A1 (en) Tracking device
JP2018120283A (en) Information processing device, information processing method and program
CN114445661B (en) Embedded image recognition method based on edge calculation
CN108647605B (en) Human eye gaze point extraction method combining global color and local structural features
KR101146417B1 (en) Apparatus and method for tracking salient human face in robot surveillance

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180627

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190626

Year of fee payment: 6