KR20090032808A - Object classifier method and system for controlling the same - Google Patents

Object classifier method and system for controlling the same Download PDF

Info

Publication number
KR20090032808A
KR20090032808A KR1020070098316A KR20070098316A KR20090032808A KR 20090032808 A KR20090032808 A KR 20090032808A KR 1020070098316 A KR1020070098316 A KR 1020070098316A KR 20070098316 A KR20070098316 A KR 20070098316A KR 20090032808 A KR20090032808 A KR 20090032808A
Authority
KR
South Korea
Prior art keywords
image
feature vector
axis
extracting
value
Prior art date
Application number
KR1020070098316A
Other languages
Korean (ko)
Inventor
이동근
정문식
박규태
황원준
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020070098316A priority Critical patent/KR20090032808A/en
Publication of KR20090032808A publication Critical patent/KR20090032808A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

An object classifying method and a system thereof are provided to prevent an inputted image from being influenced by the rotation of a subject regardless of the difference in the size of the image, corresponding to the distance between a camera and the subject, and the inclined degree of the subject corresponding to the photographing angle. A central axis extracting unit(110) extracts the central axis of an inclined image. A central axis conversion unit(120) converts the central axis which the central axis extracting unit extracts so as to coincide with the y-axis. An image vector extraction unit(130) extracts a feature vector by dividing the converted image in the lattice type based on the HOG(Histogram of Oriented Gradients) algorithm. An image determination unit(140) determines whether the image is an image of a person or vehicle by inputting the extracted feature vector into an LSVM(Linear Support Vector Machine).

Description

물체 분류 방법 및 시스템{OBJECT CLASSIFIER METHOD AND SYSTEM FOR CONTROLLING THE SAME}OBJECT CLASSIFIER METHOD AND SYSTEM FOR CONTROLLING THE SAME

본 발명은 물체 분류 방법 및 시스템에 관한 것으로, 보다 상세하게는 물체의 분류율이 대폭 향상된 물체 분류 방법 및 시스템에 관한 것이다.The present invention relates to a method and a system for classifying an object, and more particularly, to a method and a system for classifying an object.

최근 테러와 도난 사고 등이 빈번하게 발생함에 따라, 날로 보안에 대한 관심이 높아지고 있다.  그에 따라 도심의 고층 빌딩뿐 만 아니라, 아파트 단지 등의 주요 생활 환경에 CCD 카메라(charge-coupled device camera)의 설치가 늘어 나고 있다.Recently, as terrorism and theft accidents occur frequently, interest in security is increasing day by day. As a result, CCD cameras (charge-coupled device cameras) are being installed not only in urban skyscrapers, but also in major living environments such as apartment complexes.

이와 같은CCD 보안 카메라에 의한 보안 및 방범을 위해서는, 움직이는 물체에 대한 포착이 필요하며, 포착된 물체에 대하여 그 물체가 어떤 물체인지 분류하는 작업이 필요하다.For security and crime prevention by such a CCD security camera, it is necessary to capture a moving object, and to classify what the object is to the captured object.

그러나, 종래의 CCD 보안 카메라에서 사용되는 물체 분류 시스템(Object Classification System)에서는, 입력되는 영상이 카메라와 피사체와의 거리에 따라 촬영된 이미지의 크기 차이가 발생하며, 촬영 각도에 따라 피사체의 크기나 기울어진 정도가 달라지므로, 물체 분류 시스템에 의한 피사체 또는 촬영 이미지의 물체 분류율이 현저하게 떨어지는 문제점이 있었다. However, in the object classification system used in the conventional CCD security camera, the difference in the size of the captured image occurs depending on the distance between the camera and the subject, and the size of the subject depends on the shooting angle. Since the degree of inclination is different, there is a problem that the object classification rate of the subject or the photographed image by the object classification system is significantly reduced.

본 발명은 상기와 같은 종래 기술을 개선하기 위해 안출된 것으로서, CCD 카메라에서 사용되는 물체 분류 시스템에 있어서, 입력되는 영상이 카메라와 피사체와의 거리에 따른 이미지의 크기 차이와 촬영 각도에 따른 피사체의 기울어진 정도와 무관하게, 피사체의 회전(rotation)에 강인한 물체 분류 시스템을 제공하는 것을 목적으로 한다.The present invention has been made to improve the prior art as described above, in the object classification system used in the CCD camera, the input image is the size difference of the image according to the distance between the camera and the subject of the subject according to the shooting angle It is an object of the present invention to provide an object classification system that is robust to rotation of a subject regardless of the degree of inclination.

또한 본 발명은, 보안 환경 내의 사람과 차량을 자동으로 분류하여 CCD 카메라 등의 피사체의 촬영 시에, 높은 물체의 분류율을 제공할 수 있으며, 환경 노이즈에 의해 왜곡된 영상의 물체 분류 시에도 안정적인 물체 분류 방법 및 시스템을 제공하는 것을 목적으로 한다.In addition, the present invention can automatically classify people and vehicles in a security environment to provide a high object classification rate when photographing a subject such as a CCD camera, and is stable even when classifying objects in an image distorted by environmental noise. An object of the present invention is to provide a method and system for classifying objects.

상기의 목적을 이루고 종래기술의 문제점을 해결하기 위하여 본 발명의 일측에 따른 물체 분류 방법은, 이미지의 기울어진 중심축을 추출하는 단계, 상기 기울어진 이미지의 중심축을 y축과 일치하게 변환하는 단계, 상기 변환된 이미지를 격자로 나누어 피쳐 벡터(Feature Vector)를 추출하는 단계, 상기 추출된 피쳐 벡터를 이용하여, 상기 이미지가 사람 또는 차량인지의 여부를 판단하는 단계를 포함한다.In order to achieve the above object and solve the problems of the prior art, the object classification method according to one aspect of the present invention, extracting the tilted central axis of the image, converting the central axis of the tilted image to match the y-axis, Dividing the transformed image into a grid to extract a feature vector, and determining whether the image is a person or a vehicle by using the extracted feature vector.

본 발명의 또 다른 일측에 따르면, 상기 이미지의 기울어진 중심축을 추출하는 단계는, 라돈 변환(Radon Transform)을 사용하여 상기 이미지의 기울어진 중심 축을 추출한다.According to another aspect of the invention, the step of extracting the tilted central axis of the image, extracts the tilted central axis of the image using a Radon transform (Radon Transform).

본 발명의 또 다른 일측에 따르면, 상기 변환된 이미지를 격자로 나누어 피쳐 벡터(Feature Vector)를 추출하는 단계는, HOG(Histogram of Oriented Gradients) 알고리즘을 사용하여 상기 피쳐 벡터를 추출한다.According to another aspect of the present invention, the step of extracting a feature vector by dividing the transformed image into a grid, the feature vector is extracted using a histogram of oriented gradients (HOG) algorithm.

본 발명의 또 다른 일측에 따르면, HOG 알고리즘은 복수개의 픽셀로 이루어진 셀 및 상기 복수개의 셀로 이루어진 블록을 사용하여, 상기 변환된 이미지의 피쳐 벡터(Feature Vector)를 추출한다.According to another aspect of the present invention, the HOG algorithm extracts a feature vector of the converted image using a cell consisting of a plurality of pixels and a block consisting of the plurality of cells.

본 발명의 또 다른 일측에 따르면, 상기 사람 또는 차량인지의 여부를 판단하는 단계는, 상기 피쳐 벡터를 LSVM(Linear Support Vector Machine)에 입력하여 사람 또는 차량인지의 여부를 판단한다.According to another aspect of the invention, the step of determining whether the person or the vehicle, the feature vector is input to the LSVM (Linear Support Vector Machine) to determine whether or not the person or vehicle.

본 발명의 또 다른 일측에 따르면, 상기 사람 또는 차량인지의 여부를 판단하는 단계는, 상기 피쳐 벡터를 사람 분류 LSVM에 입력하여 출력정보가 양수인 경우, 사람으로 판단한다.According to yet another aspect of the present invention, in the determining of whether the person or the vehicle is input, when the output information is positive by inputting the feature vector to the person classification LSVM, the person is determined to be a person.

본 발명의 또 다른 일측에 따르면, 상기 사람 또는 차량인지의 여부를 판단하는 단계는, 상기 피쳐 벡터를 차량 분류 LSVM에 입력하여 출력정보가 양수인 경우, 차량으로 판단한다.According to another aspect of the present invention, the step of determining whether the person or the vehicle, if the output information is positive by inputting the feature vector to the vehicle classification LSVM, it is determined as a vehicle.

본 발명의 또 다른 일측에 따르면, 상기 변환된 이미지를 격자로 나누어 피쳐 벡터(Feature Vector)를 추출하는 단계는, 상기 이미지의 x축과 y축의 경도(Gradient)를 구하는 단계, 상기 이미지의 x축과 y축의 경도로부터 상기 이미지의 각 픽셀의 매그니튜드(Magnitude)값 및 방향(Orientation)값을 구하는 단계, 상 기 복수개의 픽셀로 구성되는 셀(Cell)을 오버랩(Overlap)하여 정규화(Normalize) 시키는 단계, 상기 매그니튜드값 및 방향값에 기초하여 상기 복수개의 셀로 구성되는 블록(Block)에 대한 블록 피쳐 벡터를 생성하는 단계, 및 상기 블록 피쳐 벡터를 이용하여 피쳐 벡터를 추출하는 단계를 포함한다.According to another aspect of the invention, the step of extracting a feature vector by dividing the transformed image into a grid, obtaining a gradient of the x-axis and y-axis of the image, the x-axis of the image Obtaining a magnitude and orientation value of each pixel of the image from the longitudes of the pixels and the y-axis, and normalizing the overlapping cells of the plurality of pixels. Generating a block feature vector for a block composed of the plurality of cells based on the magnitude value and the direction value, and extracting the feature vector using the block feature vector.

본 발명의 또 다른 일측에 따르면, 상기 이미지의 x축과 y축의 경도(Gradient)를 구하는 단계는, [-1 0 1]마스크를 이용하여 상기 이미지의 x축과 y축의 경도(Gradient)를 구한다.According to another aspect of the invention, the step of obtaining the gradient of the x-axis and the y-axis of the image, using the [-1 0 1] mask to obtain the gradient of the x-axis and the y-axis of the image. .

본 발명에 따르면, CCD 카메라에서 사용되는 물체 분류 시스템에 있어서, 입력되는 영상이 카메라와 피사체와의 거리에 따른 이미지의 크기 차이와 촬영 각도에 따른 피사체의 기울어진 정도와 무관하게, 피사체의 회전(rotation)에 강인한 물체 분류 시스템을 제공할 수 있다.According to the present invention, in the object classification system used in the CCD camera, the input image is rotated of the subject regardless of the difference in the size of the image according to the distance between the camera and the subject and the degree of inclination of the subject according to the shooting angle ( It is possible to provide an object classification system that is robust against rotation.

또한 본 발명에 따르면, 보안 환경 내의 사람과 차량을 자동으로 분류하여 CCD 카메라의 피사체의 촬영 시에, 높은 물체의 분류율을 제공할 수 있으며, 환경 노이즈에 의해 왜곡된 영상의 물체 분류 시에도 안정적인 물체 분류 방법 및 시스템을 제공할 수 있다.In addition, according to the present invention, it is possible to automatically classify people and vehicles in the security environment to provide a high classification rate of the object when shooting the subject of the CCD camera, stable even when classifying objects of the image distorted by environmental noise An object classification method and system can be provided.

이하 첨부된 도면들 및 첨부된 도면들에 기재된 내용들을 참조하여 본 발명의 바람직한 실시예를 상세하게 설명하지만, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나 타낸다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings and the contents described in the accompanying drawings, but the present invention is not limited or limited to the embodiments. Like reference numerals in the drawings denote like elements.

도 1은 본 발명에 따른 물체 분류 시스템을 도시한 도면이며, 도 2는 본 발명에 따른 이미지 벡터 추출부를 도시한 도면이다.1 is a view showing an object classification system according to the present invention, Figure 2 is a view showing an image vector extraction unit according to the present invention.

도 1에 도시된 바와 같이 본 발명에 따른 물체 분류 시스템은, 중심축 추출부(110), 중심축 변환부(120), 이미지 벡터 추출부(130), 및 이미지 판단부(140)를 포함하여 구성된다.As shown in FIG. 1, the object classification system according to the present invention includes a central axis extractor 110, a central axis converter 120, an image vector extractor 130, and an image determiner 140. It is composed.

중심축 추출부(110)는 이미지의 기울어진 중심축을 추출한다. The central axis extractor 110 extracts the tilted central axis of the image.

중심축 변환부(120)는 상기 중심축 추출부(110)가 추출한 상기 기울어진 이미지의 중심축을 y축과 일치하게 변환한다. 이때, 본 발명에 따르면 라돈 변환(Radon Transform)을 사용하여 상기 이미지의 기울어진 중심축을 추출할 수 있다.The central axis converter 120 converts the central axis of the inclined image extracted by the central axis extractor 110 to match the y axis. In this case, according to the present invention, the inclined central axis of the image may be extracted using a Radon transform.

이미지 벡터 추출부(130)는 상기 변환된 이미지를 격자로 나누어 피쳐 벡터(Feature Vector)를 추출하는데, 이때 HOG(Histogram of Oriented Gradients) 알고리즘을 사용하여 상기 피쳐 벡터를 추출할 수 있다.The image vector extractor 130 extracts a feature vector by dividing the converted image into a grid, and may extract the feature vector using a histogram of oriented gradients (HOG) algorithm.

상기 HOG 알고리즘은, 이미지를 바둑판 모양의 정사각형 형태로 나누어 그 각각의 정사각형 그리드(Grid) 내에 방향(Orientation)의 로컬 히스토그램을 계산하는 알고리즘을 말하며, 특히 복수개의 픽셀로 이루어진 셀 및 상기 복수개의 셀로 이루어진 블록을 사용하여, 상기 변환된 이미지의 피쳐 벡터(Feature Vector)를 추출하게 된다.The HOG algorithm refers to an algorithm that divides an image into a checkered square shape and calculates a local histogram of orientation in each of the square grids, in particular, a cell consisting of a plurality of pixels and the plurality of cells. Using a block, a feature vector of the transformed image is extracted.

보다 상세하게 설명하면, 도 2에 도시된 바와 같이, 상기 이미지 벡터 추출 부(130)는, 경도 계산부(131), 픽셀 값 추출부(132), 정규화부(133), 피쳐 벡터 생성부(134), 및 피쳐 벡터 추출부(135)를 포함하여 구성된다.In more detail, as illustrated in FIG. 2, the image vector extracting unit 130 may include a hardness calculator 131, a pixel value extractor 132, a normalizer 133, and a feature vector generator ( 134, and a feature vector extractor 135.

경도 계산부(131)는 상기 이미지의 x축과 y축의 경도(Gradient)를 구하고, 픽셀 값 추출부(132)는 상기 경도 계산부에 의해 계산한 이미지의 x축과 y축의 경도로부터 상기 이미지의 각 픽셀의 매그니튜드(Magnitude)값 및 방향(Orientation)값을 구하고, 정규화부(133)는 상기 복수개의 픽셀로 구성되는 셀(Cell)을 오버랩(Overlap)하여 정규화(Normalize)시키며, 피쳐 벡터 생성부(134)는 상기 매그니튜드값 및 방향값에 기초하여 상기 복수개의 셀로 구성되는 블록(Block)에 대한 블록 피쳐 벡터를 생성하며, 피쳐 벡터 추출부(135)는 상기 블록 피쳐 벡터를 이용하여 피쳐 벡터를 추출한다.The hardness calculator 131 obtains gradients of the x-axis and y-axis of the image, and the pixel value extractor 132 determines the hardness of the image from the x-axis and y-axis hardness of the image calculated by the hardness calculator. Obtain the Magnitude value and Orientation value of each pixel, and the normalizer 133 normalizes the cells composed of the plurality of pixels by overlapping and normalizing the feature vector generator. The block 134 generates a block feature vector for a block composed of the plurality of cells based on the magnitude value and the direction value, and the feature vector extractor 135 uses the block feature vector to generate a feature vector. Extract.

특히, 상기 경도 계산부(131)는 [-1 0 1]마스크를 이용하여 상기 이미지의 x축과 y축의 경도(Gradient)를 구한다.In particular, the hardness calculator 131 obtains gradients of the x-axis and the y-axis of the image using a mask [-1 0 1].

이미지 판단부(140)는 상기 추출된 피쳐 벡터를 이용하여, 상기 이미지가 사람 또는 차량인지의 여부를 판단한다. 이때, 상기 이미지 판단부(140)는 상기 피쳐 벡터를 LSVM(Linear Support Vector Machine)에 입력하여 사람 또는 차량인지의 여부를 판단하게 된다.The image determination unit 140 determines whether the image is a person or a vehicle by using the extracted feature vector. In this case, the image determination unit 140 may determine whether the vehicle is a person or a vehicle by inputting the feature vector to a linear support vector machine (LSVM).

도 3은 본 발명의 일례에 따른 이미지 도면이다.3 is an image diagram according to an example of the present invention.

발명에서는 도 3에 도시된 바와 같은 이미지에 라돈 변환(Radon Transform)을 적용한다. In the present invention, a Radon transform is applied to an image as shown in FIG. 3.

라돈 변환은(Radon Transform)은 허프 변환(Hough Transform)과 유사하게 라 인(Line)을 찾아내는 알고리즘으로서, 본 발명에서는 이 라돈 변환을 이용하여 기울어진 이미지(피사체)의 축을 Y축과 일치하게 변환하기 위해 사용할 수 있다.Radon Transform is an algorithm for finding lines similar to the Hough Transform. In the present invention, the radon transform is used to transform the tilted image (subject) axis to match the Y-axis. Can be used to

도 4는 본 발명의 일례에 따른 이미지의 엣지 성분을 이용하여 이미지의 중심축을 y축과 일치하게 변환하는 과정을 도시한 도면이다.4 is a diagram illustrating a process of converting a central axis of an image to match the y-axis by using an edge component of the image according to an example of the present invention.

라돈 변환(Radon Transform)을 이용하여 기울어진 이미지(410)의 엣지(Edge)정보에 의해 얼마나 기울어져 있는지를 검출하고, 그 각만큼 변환하여 중심축이 Y축과 일치되게 하여, 이미지가 기울어짐(Rotation)에 영향을 받지 않도록 한다.Radon transform is used to detect how inclined by the edge information of the inclined image 410, and converts by that angle so that the central axis coincides with the Y-axis, thereby tilting the image. Do not be affected by (Rotation).

상기와 같은 라돈 변환은 다음과 같은 수학식 1에 의하여 이루어진다.The radon transformation as described above is performed by Equation 1 below.

Figure 112007070255156-PAT00001
Figure 112007070255156-PAT00001

(x는 x축의 방향의 경도값이고, y는 y축 방향의 경도값이다.)(x is the hardness value in the x-axis direction, and y is the hardness value in the y-axis direction.)

델타(delta)함수 안에 있는 수식이 허프 변환의 수식으로 엣지(edge) 성분이 있는 좌표에는 '1'을 반환하고 그렇지 않으면 '0'을 반환한다. The expression in the delta function is a Hough transform expression and returns '1' for coordinates with edge components, otherwise it returns '0'.

도 5 및 도 6은 본 발명의 일례에 따른 이미지의 임의의 각에 대한 엣지(edge)성분이 있는 좌표의 값을 더한 그래프이며, 보다 상세하게는 도 5 및 도 6은, 도 3에 도시된 이미지에, 어떤 임의의 각에 대한 엣지 성분이 있는 좌표의 값 을 모두 더한 값을 '0도'로부터 '180도'까지 그래프로 나타낸 것이다.5 and 6 are graphs of values of coordinates with edge components for any angle of an image according to an example of the present invention, and more specifically, FIGS. 5 and 6 are shown in FIG. The image is a graph of the sum of the coordinates with the edge components for any arbitrary angle, from zero degrees to 180 degrees.

도 5에 도시된 바와 같이, '45도'와 '135도'에서 최대값을 가진다는 것을 확인할 수 있다.  As shown in FIG. 5, it can be seen that the maximum values are set at '45 degrees' and '135 degrees'.

Figure 112007070255156-PAT00002
Figure 112007070255156-PAT00002

(x는 x축의 방향의 경도값이고, y는 y축 방향의 경도값이다.)(x is the hardness value in the x-axis direction, and y is the hardness value in the y-axis direction.)

엣지 성분이 가장 강한 각을 구하고자 하면, 상기와 같은 수학식2를 이용하여 도 6에 도시된 제2 도함수(Second Derivative)값을 구하고, 그래프 상에서 최소값에 해당하는 각이 가장 강한 각이 된다.In order to find the strongest edge component, the second derivative value shown in FIG. 6 is obtained by using Equation 2 as described above, and the angle corresponding to the minimum value is the strongest angle on the graph.

본 발명에서는 사람은 수직 방향으로의 직선 성분이 강하게 나타나는 것과 차량은 수평 방향으로의 직선 성분이 강하게 나타나는 것을 바탕으로, 두 물체의 중심축의 방향을 구해 기울어진 입력 영상을 Y축의 방향과 일치되게 변환함으로써, 중심축이 기울어진 이미지에 대한 제약을 해결하는 것이 가능하다.According to the present invention, a straight line component in a vertical direction is strongly shown by a person, and a straight line component in a horizontal direction is strongly shown by a vehicle. By doing this, it is possible to solve the constraint on the image in which the central axis is tilted.

도 7은 본 발명의 일례에 따른 셀 및 블록을 도시한 도면이다.7 illustrates a cell and a block according to an example of the present invention.

HOG(Histogram of Oriented Gradients)는 이미지를 바둑판 모양의 정사각형 형태의 꼴로 나누어 그 각각의 그리드(Grid)내의 방향(Orientation)의 로컬 히스토 그램을 계산하는 알고리즘이다.Histogram of Oriented Gradients (HOG) is an algorithm that divides an image into a checkerboard square shape and calculates a local histogram of orientation in each grid.

HOG 알고리즘에 의하면, 입력된 이미지로부터 x와 y축 방향의 그라디언트(Gradient)를 각각 [-1 0 1]마스크를 이용하여 구한다.According to the HOG algorithm, gradients in the x and y-axis directions are obtained from the input image by using a [-1 0 1] mask, respectively.

Figure 112007070255156-PAT00003
Figure 112007070255156-PAT00003

(x는 x축의 방향의 경도값이고, y는 y축 방향의 경도값이다.)(x is the hardness value in the x-axis direction, and y is the hardness value in the y-axis direction.)

Figure 112007070255156-PAT00004
Figure 112007070255156-PAT00004

(x는 x축의 방향의 경도값이고, y는 y축 방향의 경도값이다.)(x is the hardness value in the x-axis direction, and y is the hardness value in the y-axis direction.)

x축과 y축 방향의 그래디언트 값으로부터, 상기와 같은 수학식 3을 이용하여 각 픽셀의 매그니튜드(Magnitude)값을 구하고, 상기와 같은 수학식 4를 이용하여 각 픽셀의 방향값(Orientation)값을 구할 수 있다.From the gradient values in the x- and y-axis directions, the Magnitude value of each pixel is obtained using Equation 3 as described above, and the Orientation value of each pixel is obtained using Equation 4 as described above. You can get it.

이후, 셀(cell)을 오버랩(Overlap)시키면서 블록 단위로 정규화 (Normalize)시킨다.Thereafter, the cells are normalized in units of blocks while overlapping cells.

이미지(입력영상)의 크기를 64 X 128크기로 가정하였을 때, 이미지를 정사각 형의 바둑판 형식으로 나누며 이때, 바둑판 하나의 크기는 8 X 8픽셀을 셀(cell)이라 부르며, 총 셀의 수는 8 X 16 = 128개가 되는 것을 알 수 있다.Assuming that the size of the image (input image) is 64 X 128, the image is divided into square tiles. In this case, the size of one board is called 8 X 8 pixels, and the total number of cells is You can see that 8 X 16 = 128.

로컬 정규화(Local Normalize) 하기 위해서 도 7에 도시된 바와 같이, 4개의 셀(710)을 정사각형 형태로 구성하여 블록(720)을 형성한다. As illustrated in FIG. 7, four cells 710 are configured in a square shape to form a block 720 in order to local normalize.

이때 블록의 크기는 16 X 16픽셀이 되며, 다음의 수학식 5를 이용하여 블록 단위로 정규화 계수(Normalize factor)를 구할 수 있다.In this case, the size of the block is 16 X 16 pixels, and a normalization factor can be obtained in units of blocks by using Equation 5 below.

Figure 112007070255156-PAT00005
Figure 112007070255156-PAT00005

(nf는 정규화 계수이고, V는 각 픽셀의 Magnitude값을 나타내는 벡터이다.)(nf is a normalization coefficient, and V is a vector representing the Magnitude value of each pixel.)

정규화 계수를 구하여 각 픽셀의 값으로 나누어주면 하나의 로컬 정규화(Local Normalization)가 완성되고, 도 7의 셀(710)을 중심셀로 하여 한 칸씩 오른쪽으로 이동시켜가며 같은 과정을 반복함으로써, 총 105(가로방향 7번, 세로방향 15번)번 로컬 정규화(Local Normalize)시킨다.When the normalization coefficient is obtained and divided by the value of each pixel, one local normalization is completed, and the same process is repeated by moving each cell to the right by using the cell 710 of FIG. Local Normalize (No. 7 in Landscape, No. 15 in Portrait)

이때, 블록과 블록 사이의 셀이 오버랩(Overlap)되는 상황이 발생하는데, 셀이 오버랩 된다 하더라도, 각각 다른 정규화 방안(Normalize scheme)을 가지기 때문에 로컬(Local)의 정보를 더 강력하게 가질 수 있는 효과가 있다.At this time, a situation in which a cell overlaps with a block between blocks occurs. Even though the cells overlap, each of the cells has a different normalization scheme, so that the local information can be stronger. There is.

도 8은 본 발명의 일례에 따른 정규화 방안(Normalize Scheme)을 도시한 도 면이다.8 illustrates a normalization scheme according to an example of the present invention.

본 발명에서는 이러한 블록 정규화 방안(Normalize Scheme)에서 사람과 차량의 공통 특징인 직선 성분이 강하다는 사실을 바탕으로, 블록(16 X 16)과 셀(8 X 8)의 정사각형 형태가 아닌, 도 8에 도시된 바와 같은 16 X 24직사각형 형태의 블록과 8 X 16 형태의 셀(810)을 이용한 정규화 방안을(Normalize scheme)으로 제시한다.In the present invention, the block normalization scheme (Normalize Scheme) is based on the fact that the linear component, which is a common feature of humans and vehicles, is strong, and not the square form of the blocks 16 X 16 and the cells 8 X 8, FIG. 8. A normalization scheme using a 16 × 24 rectangular block and an 8 × 16 cell 810 as shown in FIG.

본 발명에 따른 직사각형 형태의 방법은 정사각형 형태보다 직선 성분에 대한 정보를 보다 많이 가질 수 있는 장점이 있다. 즉, 정사각형 블록과 셀의 형태와 비교할 때 직사각형 블록과 셀 구조에서는 블록과 블록에서의 셀 간의 오버랩(overlap)을 가지는 것뿐 만 아니라 셀과 셀에서의 오버랩(Overlap)을 가지므로, 정사각형 형태보다 더 많은 이미지 정보를 가지게 되어 물체 분류의 크기(Scale)에 보다 강인한 피쳐(Feature)를 추출할 수 있는 장점이 있다. The rectangular type method according to the present invention has an advantage of having more information on linear components than the square type. In other words, when compared to the square block and the cell shape, the rectangular block and the cell structure not only have overlap between the blocks and the cells in the block, but also have overlaps between the cells and the cells. Having more image information has the advantage of extracting a feature that is more robust to the scale of the object classification.

도 9는 본 발명의 일례에 따른 각 픽셀의 방향(Orientation)이 속하는 범위에 해당하는 픽셀의 매그니튜드를 합산하는 표이다.9 is a table for summing the magnitudes of pixels corresponding to a range to which an orientation of each pixel belongs according to an example of the present invention.

도 9에 도시된 합산 표를 이용하여, 각 픽셀의 인덱스(Index)에 따른 방향값(Orientation: 910)이 어느 범위에 속하는 지를 찾아, 그 픽셀의 매그니튜드(Magnitude)를 더하는 과정이다. 상기 과정은 셀 단위로 실행되며, 셀 내의 모든 픽셀에 대한 값이 해당 빈(bin)으로 전해진 경우, 그 다음 셀을 독립된 다른 빈(Bin)에서 보우트(Vote)하여 블록 내 총 4개의 빈(bin)메모리가 형성이 된다.By using the summation table illustrated in FIG. 9, a range of directions (Orientation) 910 according to the index of each pixel is found, and the magnitude of the pixel is added. The process is performed cell-by-cell, and if the values for all the pixels in a cell are passed to the bin, then the cell is voted on another independent bin, for a total of four bins in the block. The memory is formed.

예를 들어, 임의의 위치의 방향값(Orientation)정보가 46.5도 이고, 그에 해 당하는 매그니튜드(Magnitude)가 'k'라는 값이라면, 방향값(Orientation)은 40~60도에 해당하는 빈 인덱스(Bin index) '3'에 해당하여 가중 보우트(weighted vote)값은 기존의 보우트 값(voted value: 920)인 'c'값에 'k'값을 더한 'c+k'값이 된다. 이러한 과정은 어느 특정한 각의 엣지(Edge) 정보가 크면 그 매그니튜드(Magnitude) 만큼 가중되는 특징을 가진다.For example, if the orientation information of an arbitrary position is 46.5 degrees and the corresponding Magnitude is 'k', the orientation value is an empty index corresponding to 40 to 60 degrees ( Bin index) The weighted vote value corresponds to '3' and becomes a 'c + k' value obtained by adding a 'k' value to a 'c' value, which is a conventional voted value (920). This process has a feature that if the edge information of a particular angle is large, it is weighted by its magnitude.

도 10은 본 발명의 일례에 따른 각 블록의 4개의 빈(Bin)메모리를 연결한 도면이다.FIG. 10 is a view of connecting four bin memories of each block according to an example of the present invention.

블록마다 총 4개의 빈(Bin)메모리가 완성되면, 도 10에 도시된 바와 같이, 연결(Concatenate)시켜 블록에 대한 하나의 피쳐 벡터(Feature vector)가 완성된다.When a total of four bin memories are completed for each block, as shown in FIG. 10, one feature vector for a block is completed by concatenation.

105개의 블럭에 대한 보우팅(Voting)이 완성되면 하나의 큰 피쳐 벡터(3780개)가 완성된다.Once the voting for 105 blocks is completed, one large feature vector (3780) is completed.

연쇄적으로 연결된(Concatenate) 피쳐 벡터(Feature vector)는 총 36개의 값을 가지며 한 블럭에 대한 정보를 가지고 있다. 이와 같은 피쳐 벡터들이 105개가 있으므로 각 입력영상(64 X 128)이 가지는 디멘젼(Dimension)은 3780개가 된다.A concatenate feature vector has a total of 36 values and contains information about one block. Since there are 105 such feature vectors, the dimension of each input image 64 X 128 is 3780.

완성된 피쳐 벡터(Feature vector)를 사람 분류 Linear Support Vector Machine(LSVM)에 입력시켜 영상이 사람인지 사람이 아닌지를 분류하는데, 출력정보가 양수이면 사람이고, 그 반대이면 사람이 아닌 것으로 판별한다.The completed feature vector is input to a human classification linear support vector machine (LSVM) to classify whether the image is a person or a person. If the output information is positive, it is determined to be a person and vice versa.

또한, 동일한 피쳐 벡터(Feature vector)를 차량 분류 Linear Support Vector Machine에 입력시켜 양수이면 차량으로 판별하고, 그 반대이면 사람도 차량 도 아닌 것으로 판별하게 된다.In addition, the same feature vector is input to the vehicle classification Linear Support Vector Machine, and if it is positive, the vehicle is discriminated as a vehicle.

도 11은 본 발명의 일례에 따른 물체 분류 방법을 도시한 도면이다.11 is a diagram illustrating an object classification method according to an example of the present invention.

이미지의 기울어진 중심축을 추출하여(S110), 상기 기울어진 이미지의 중심축을 y축과 일치하게 변환한다(S120).The tilted central axis of the image is extracted (S110), and the central axis of the tilted image is converted to match the y-axis (S120).

이때, 상기 이미지의 기울어진 중심축은 라돈 변환(Radon Transform)을 사용하여 상기 이미지의 기울어진 중심축을 추출한다.In this case, the inclined central axis of the image is extracted using the Radon transform.

이후, 상기 변환된 이미지를 격자로 나누어 피쳐 벡터(Feature Vector)를 추출하는데(S130), 이때 HOG(Histogram of Oriented Gradients) 알고리즘을 사용하여 상기 피쳐 벡터를 추출한다.Thereafter, the transformed image is divided into a grid to extract a feature vector (S130). At this time, the feature vector is extracted using a histogram of oriented gradients (HOG) algorithm.

특히, 상기 HOG 알고리즘은, 복수개의 픽셀로 이루어진 셀 및 상기 복수개의 셀로 이루어진 블록을 사용하여, 상기 변환된 이미지의 피쳐 벡터(Feature Vector)를 추출하게 된다.In particular, the HOG algorithm extracts a feature vector of the converted image using a cell composed of a plurality of pixels and a block composed of the plurality of cells.

이후, 상기 추출된 피쳐 벡터를 이용하여, 상기 이미지가 사람 또는 차량인지의 여부를 판단하는데(S140), 이때 상기 피쳐 벡터를 LSVM(Linear Support Vector Machine)에 입력하여 사람 또는 차량인지의 여부를 판단하게 된다.Thereafter, the extracted feature vector is used to determine whether the image is a person or a vehicle (S140). At this time, the feature vector is input to a linear support vector machine (LSVM) to determine whether the image is a person or a vehicle. Done.

상기 사람 또는 차량인지의 여부를 판단하기 위하여, 상기 피쳐 벡터를 사람 분류 LSVM에 입력하여 사람 이미지 인지의 여부를 판단하여(S150), 사람의 이미지임을 확인하게 되는데(S160), 이때 상기 사람 분류 LSVM은 출력정보가 양수인 경우, 사람으로 판단하게 된다.In order to determine whether the vehicle is a person or a vehicle, the feature vector is input to a person classification LSVM to determine whether the image is a person image (S150), and the image is a person image (S160). When the output information is positive, it is determined as a person.

판단 결과 사람의 이미지가 아닌 경우에는, 상기 피쳐 벡터를 차량 분류 LSVM에 입력하여 차량 이미지인지의 여부를 판단한다(S170). 이때 차량 분류 LSVM은 출력 정보가 양수인 경우에 차량을 판단하고(S180), 그렇지 않은 경우 상기 이미지가 사람 및 차량의 이미지가 아닌 것을 확인한다(S190).If it is determined that the image is not a human image, the feature vector is input to the vehicle classification LSVM to determine whether the image is a vehicle image (S170). At this time, the vehicle classification LSVM determines the vehicle when the output information is positive (S180), and otherwise determines that the image is not an image of a person and a vehicle (S190).

도 12는 본 발명의 일례에 따른 피쳐 벡터(Feature Vector)를 추출하는 방법을 도시한 도면으로서, 보다 상세하게는, 기울어진 이미지의 중심축을 y축과 일치하게 변화하고, 변환된 이미지를 HOG(Histogram of Oriented Gradients) 알고리즘을 사용하여 격자로 나누어 피쳐 벡터(Feature Vector)를 추출하는 방법을 설명하고 있다.FIG. 12 is a diagram illustrating a method of extracting a feature vector according to an example of the present invention. In detail, the center axis of the tilted image is changed to match the y-axis, and the transformed image is HOG ( This section describes how to extract feature vectors by dividing them into grids using the Histogram of Oriented Gradients algorithm.

먼저 상기 이미지의 x축과 y축의 경도(Gradient)를 구하는데(S210), 상기 경도는 [-1 0 1] 마스크를 이용하여 구할 수 있다.First, gradients of the x-axis and y-axis of the image are obtained (S210), and the hardness may be obtained using a [−1 0 1] mask.

상기 이미지의 x축과 y축의 경도로부터, 상기 이미지의 각 픽셀의 매그니튜드(Magnitude)값 및 방향(Orientation)값을 구하고(S220), 상기 복수개의 픽셀로 구성되는 셀(Cell)을 오버랩(Overlap)하여 정규화(Normalize) 시킨다(S230).Magnitude values and orientation values of each pixel of the image are obtained from the longitudes of the x-axis and y-axis of the image (S220), and the cells composed of the plurality of pixels are overlapped. To normalize (S230).

상기 매그니튜드값 및 방향값에 기초하여 상기 복수개의 셀로 구성되는 블록(Block)에 대한 블록 피쳐 벡터를 생성하고(S240), 상기 블록 피쳐 벡터를 이용하여 피쳐 벡터를 추출한다(S250).Based on the magnitude value and the direction value, a block feature vector for a block including the plurality of cells is generated (S240), and a feature vector is extracted using the block feature vector (S250).

또한 본 발명의 실시예들은 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터 판독 가능 매체를 포함 한다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성 된 것들 이거나 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 본 발명에서 설명된 이동 단말 또는 기지국의 동작의 전부 또는 일부가 컴퓨터 프로그램으로 구현된 경우, 상기 컴퓨터 프로그램을 저장한 컴퓨터 판독 가능 기록 매체도 본 발명에 포함된다.Embodiments of the invention also include computer-readable media containing program instructions for performing various computer-implemented operations. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program command may be those specially designed and configured for the present invention, or may be known and available to those skilled in the art. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. When all or part of the operation of the mobile terminal or base station described in the present invention is implemented as a computer program, a computer readable recording medium storing the computer program is also included in the present invention.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. As described above, the present invention has been described by way of limited embodiments and drawings, but the present invention is not limited to the above embodiments, and those skilled in the art to which the present invention pertains various modifications and variations from such descriptions. This is possible.

그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined not only by the claims below but also by the equivalents of the claims.

도 1은 본 발명에 따른 물체 분류 시스템을 도시한 도면이다.1 is a view showing an object classification system according to the present invention.

도 2는 본 발명에 따른 이미지 벡터 추출부를 도시한 도면이다.2 is a diagram illustrating an image vector extracting unit according to the present invention.

도 3은 본 발명의 일례에 따른 이미지 도면이다.3 is an image diagram according to an example of the present invention.

도 4는 본 발명의 일례에 따른 이미지의 엣지 성분을 이용하여 이미지의 중심축을 y축과 일치하게 변환하는 과정을 도시한 도면이다.4 is a diagram illustrating a process of converting a central axis of an image to match the y-axis by using an edge component of the image according to an example of the present invention.

도 5 및 도 6은 본 발명의 일례에 따른 이미지의 임의의 각에 대한 엣지(edge)성분이 있는 좌표의 값을 더한 그래프이다.5 and 6 are graphs of values of coordinates with edge components for any angle of an image according to an example of the present invention.

도 7은 본 발명의 일례에 따른 셀 및 블록을 도시한 도면이다.7 illustrates a cell and a block according to an example of the present invention.

도 8은 본 발명의 일례에 따른 정규화 방안(Normalize Scheme)을 도시한 도면이다.8 illustrates a normalization scheme according to an example of the present invention.

도 9은 본 발명의 일례에 따른 각 픽셀의 방향(Orientation)이 속하는 범위에 해당하는 픽셀의 매그니튜드를 합산하는 표이다.FIG. 9 is a table summating magnitudes of pixels corresponding to a range to which an orientation of each pixel belongs according to an example of the present disclosure.

도 10은 본 발명의 일례에 따른 각 블록의 4개의 빈(Bin)메모리를 연결한 도면이다.FIG. 10 is a view of connecting four bin memories of each block according to an example of the present invention.

도 11은 본 발명의 일례에 따른 물체 분류 방법을 도시한 도면이다.11 is a diagram illustrating an object classification method according to an example of the present invention.

도 12는 본 발명의 일례에 따른 피쳐 벡터(Feature Vector)를 추출하는 방법을 도시한 도면이다.12 is a diagram illustrating a method of extracting a feature vector according to an example of the present invention.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

100: 물체 분류 시스템 110: 중심축 추출부100: object classification system 110: central axis extraction unit

120: 중심축 변환부 130: 이미지 벡터 추출부120: central axis conversion unit 130: image vector extraction unit

140: 이미지 판단부140: image determination unit

Claims (21)

이미지의 기울어진 중심축을 추출하는 단계;Extracting the tilted central axis of the image; 상기 기울어진 이미지의 중심축을 y축과 일치하게 변환하는 단계;Converting a central axis of the tilted image to coincide with a y axis; 상기 변환된 이미지를 격자로 나누어 피쳐 벡터(Feature Vector)를 추출하는 단계; 및Dividing the converted image into a grid to extract a feature vector; And 상기 추출된 피쳐 벡터를 이용하여, 상기 이미지가 사람 또는 차량인지의 여부를 판단하는 단계Determining whether the image is a person or a vehicle by using the extracted feature vector 를 포함하는 것을 특징으로 하는 물체 분류 방법.Object classification method comprising a. 제1항에 있어서,The method of claim 1, 상기 이미지의 기울어진 중심축을 추출하는 단계는,Extracting the tilted central axis of the image, 라돈 변환(Radon Transform)을 사용하여 상기 이미지의 기울어진 중심축을 추출하는 것을 특징으로 하는 물체 분류 방법.An object classification method comprising extracting a tilted central axis of the image using a Radon transform. 제1항에 있어서,The method of claim 1, 상기 변환된 이미지를 격자로 나누어 피쳐 벡터(Feature Vector)를 추출하는 단계는,Extracting the feature vector by dividing the transformed image into a grid, HOG(Histogram of Oriented Gradients) 알고리즘을 사용하여 상기 피쳐 벡터를 추출하는 것을 특징으로 하는 물체 분류 방법.And extracting the feature vector using a histogram of oriented gradients (HOG) algorithm. 제3항에 있어서,The method of claim 3, HOG 알고리즘은, HOG algorithm, 복수개의 픽셀로 이루어진 셀 및 상기 복수개의 셀로 이루어진 블록을 사용하여, 상기 변환된 이미지의 피쳐 벡터(Feature Vector)를 추출하는 것을 특징으로 하는 물체 분류 방법.And a feature vector of the transformed image is extracted using a cell composed of a plurality of pixels and a block composed of the plurality of cells. 제1항에 있어서,The method of claim 1, 상기 사람 또는 차량인지의 여부를 판단하는 단계는,Determining whether the person or the vehicle is, 상기 피쳐 벡터를 LSVM(Linear Support Vector Machine)에 입력하여 사람 또는 차량인지의 여부를 판단하는 것을 특징으로 하는 물체 분류 방법.And classifying the feature vector into a linear support vector machine (LSVM) to determine whether the feature vector is a human or a vehicle. 제5항에 있어서,The method of claim 5, 상기 사람 또는 차량인지의 여부를 판단하는 단계는,Determining whether the person or the vehicle is, 상기 피쳐 벡터를 사람 분류 LSVM에 입력하여 출력정보가 양수인 경우, 사람으로 판단하는 것을 특징으로 하는 물체 분류 방법.And inputting the feature vector into a human classification LSVM to determine that the output information is positive. 제5항에 있어서,The method of claim 5, 상기 사람 또는 차량인지의 여부를 판단하는 단계는,Determining whether the person or the vehicle is, 상기 피쳐 벡터를 차량 분류 LSVM에 입력하여 출력정보가 양수인 경우, 차량 으로 판단하는 것을 특징으로 하는 물체 분류 방법.And classifying the feature vector into a vehicle classification LSVM and determining that the output information is positive. 제1항에 있어서,The method of claim 1, 상기 변환된 이미지를 격자로 나누어 피쳐 벡터(Feature Vector)를 추출하는 단계는,Extracting the feature vector by dividing the transformed image into a grid, 상기 이미지의 x축과 y축의 경도(Gradient)를 구하는 단계;Obtaining gradients of the x and y axes of the image; 상기 이미지의 x축과 y축의 경도로부터 상기 이미지의 각 픽셀의 매그니튜드(Magnitude)값 및 방향(Orientation)값을 구하는 단계;Obtaining Magnitude values and Orientation values of each pixel of the image from the longitudes of the x and y axes of the image; 상기 복수개의 픽셀로 구성되는 셀(Cell)을 오버랩(Overlap)하여 정규화(Normalize) 시키는 단계;Normalizing the cells including the plurality of pixels by overlapping the cells; 상기 매그니튜드값 및 방향값에 기초하여 상기 복수개의 셀로 구성되는 블록(Block)에 대한 블록 피쳐 벡터를 생성하는 단계; 및Generating a block feature vector for a block consisting of the plurality of cells based on the magnitude value and the direction value; And 상기 블록 피쳐 벡터를 이용하여 피쳐 벡터를 추출하는 단계Extracting a feature vector using the block feature vector 를 포함하는 것을 특징으로 하는 물체 분류 방법.Object classification method comprising a. 제8항에 있어서,The method of claim 8, 상기 이미지의 x축과 y축의 경도(Gradient)를 구하는 단계는,Obtaining the gradient of the x-axis and y-axis of the image, [-1 0 1]마스크를 이용하여 상기 이미지의 x축과 y축의 경도(Gradient)를 구하는 것을 특징으로 하는 물체 분류 방법. [-1 0 1] A method of classifying an object according to claim 1, wherein the gradient of the x and y axes of the image is obtained. 제8항에 있어서,The method of claim 8, 상기 매그니튜드는 다음 수학식을 이용하여 계산하는 것을 특징으로 하는 물체 분류 방법.The magnitude is calculated using the following equation.
Figure 112007070255156-PAT00006
Figure 112007070255156-PAT00006
(x는 x축의 방향의 경도값이고, y는 y축 방향의 경도값이다.)(x is the hardness value in the x-axis direction, and y is the hardness value in the y-axis direction.)
제8항에 있어서,The method of claim 8, 상기 방향값은 다음 수학식을 이용하여 계산하는 것을 특징으로 하는 물체 분류 방법.And the direction value is calculated using the following equation.
Figure 112007070255156-PAT00007
Figure 112007070255156-PAT00007
(x는 x축의 방향의 경도값이고, y는 y축 방향의 경도값이다.)(x is the hardness value in the x-axis direction, and y is the hardness value in the y-axis direction.)
제1항 내지 제11항의 방법을 실행하는 프로그램을 기록한 컴퓨터 판독가능 기록 매체.A computer-readable recording medium having recorded thereon a program for executing the method of claim 1. 이미지의 기울어진 중심축을 추출하는 중심축 추출부;A central axis extracting unit extracting a tilted central axis of the image; 상기 기울어진 이미지의 중심축을 y축과 일치하게 변환하는 중심축 변환부;A center axis converting unit converting the center axis of the tilted image to match the y axis; 상기 변환된 이미지를 격자로 나누어 피쳐 벡터(Feature Vector)를 추출하는 이미지 벡터 추출부; 및An image vector extracting unit dividing the converted image into a grid to extract a feature vector; And 상기 추출된 피쳐 벡터를 이용하여, 상기 이미지가 사람 또는 차량인지의 여부를 판단하는 이미지 판단부An image determination unit that determines whether the image is a person or a vehicle by using the extracted feature vector 를 포함하는 것을 특징으로 하는 물체 분류 시스템.Object classification system comprising a. 제13항에 있어서,The method of claim 13, 상기 중심축 추출부는,The central axis extraction unit, 라돈 변환(Radon Transform)을 사용하여 상기 이미지의 기울어진 중심축을 추출하는 것을 특징으로 하는 물체 분류 시스템.An object classification system, characterized by extracting the tilted central axis of the image using a Radon transform. 제13항에 있어서,The method of claim 13, 상기 이미지 벡터 추출부는,The image vector extraction unit, HOG(Histogram of Oriented Gradients) 알고리즘을 사용하여 상기 피쳐 벡터를 추출하는 것을 특징으로 하는 물체 분류 시스템.And extracting the feature vector using a histogram of oriented gradients (HOG) algorithm. 제15항에 있어서,The method of claim 15, 상기 HOG 알고리즘은, The HOG algorithm, 복수개의 픽셀로 이루어진 셀 및 상기 복수개의 셀로 이루어진 블록을 사용하여, 상기 변환된 이미지의 피쳐 벡터(Feature Vector)를 추출하는 것을 특징으로 하는 물체 분류 시스템.And a feature vector of the transformed image is extracted using a cell composed of a plurality of pixels and a block composed of the plurality of cells. 제15항에 있어서,The method of claim 15, 상기 이미지 판단부는,The image determining unit, 상기 피쳐 벡터를 LSVM(Linear Support Vector Machine)에 입력하여 사람 또는 차량인지의 여부를 판단하는 것을 특징으로 하는 물체 분류 시스템.And inputting the feature vector into a linear support vector machine (LSVM) to determine whether a feature is a person or a vehicle. 제15항에 있어서,The method of claim 15, 상기 이미지 벡터 추출부는,The image vector extraction unit, 상기 이미지의 x축과 y축의 경도(Gradient)를 구하는 경도 계산부;A hardness calculator for calculating gradients of the x-axis and y-axis of the image; 상기 경도 계산부에 의해 계산한 이미지의 x축과 y축의 경도로부터 상기 이미지의 각 픽셀의 매그니튜드(Magnitude)값 및 방향(Orientation)값을 구하는 픽셀 값 추출부;A pixel value extracting unit that obtains Magnitude values and Orientation values of each pixel of the image from the hardness of the x and y axes of the image calculated by the hardness calculator; 상기 복수개의 픽셀로 구성되는 셀(Cell)을 오버랩(Overlap)하여 정규화(Normalize) 시키는 정규화부;A normalizer for overlapping and normalizing a cell composed of the plurality of pixels; 상기 매그니튜드값 및 방향값에 기초하여 상기 복수개의 셀로 구성되는 블록(Block)에 대한 블록 피쳐 벡터를 생성하는 피쳐 벡터 생성부; 및A feature vector generator configured to generate a block feature vector for a block including the plurality of cells based on the magnitude value and the direction value; And 상기 블록 피쳐 벡터를 이용하여 피쳐 벡터를 추출하는 피쳐 벡터 추출부Feature vector extractor for extracting feature vectors using the block feature vectors 를 포함하는 것을 특징으로 하는 물체 분류 시스템.Object classification system comprising a. 제18항에 있어서,The method of claim 18, 상기 경도 계산부는,The hardness calculation unit, [-1 0 1]마스크를 이용하여 상기 이미지의 x축과 y축의 경도(Gradient)를 구하는 것을 특징으로 하는 물체 분류 시스템. And a gradient of the x-axis and y-axis of the image using a [-1 0 1] mask. 제18항에 있어서,The method of claim 18, 상기 픽셀 값 추출부는,The pixel value extraction unit, 다음 수학식을 이용하여 상기 매그니튜드를 계산하는 것을 특징으로 하는 물체 분류 시스템.The object classification system, characterized in that to calculate the magnitude using the following equation.
Figure 112007070255156-PAT00008
Figure 112007070255156-PAT00008
(x는 x축의 방향의 경도값이고, y는 y축 방향의 경도값이다.)(x is the hardness value in the x-axis direction, and y is the hardness value in the y-axis direction.)
제18항에 있어서,The method of claim 18, 상기 픽셀 값 추출부는,The pixel value extraction unit, 다음 수학식을 이용하여 상기 방향값을 계산하는 것을 특징으로 하는 물체 분류 시스템.The object classification system, characterized in that for calculating the direction value using the following equation.
Figure 112007070255156-PAT00009
Figure 112007070255156-PAT00009
(x는 x축의 방향의 경도값이고, y는 y축 방향의 경도값이다.)(x is the hardness value in the x-axis direction, and y is the hardness value in the y-axis direction.)
KR1020070098316A 2007-09-28 2007-09-28 Object classifier method and system for controlling the same KR20090032808A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070098316A KR20090032808A (en) 2007-09-28 2007-09-28 Object classifier method and system for controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070098316A KR20090032808A (en) 2007-09-28 2007-09-28 Object classifier method and system for controlling the same

Publications (1)

Publication Number Publication Date
KR20090032808A true KR20090032808A (en) 2009-04-01

Family

ID=40759549

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070098316A KR20090032808A (en) 2007-09-28 2007-09-28 Object classifier method and system for controlling the same

Country Status (1)

Country Link
KR (1) KR20090032808A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8369620B2 (en) 2010-10-20 2013-02-05 Electronics And Telecommunications Research Institute Object detection device and system
KR20130067612A (en) * 2011-12-14 2013-06-25 한국전자통신연구원 Feature vector classifier and recognition device using the same

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8369620B2 (en) 2010-10-20 2013-02-05 Electronics And Telecommunications Research Institute Object detection device and system
KR101405410B1 (en) * 2010-10-20 2014-06-24 고려대학교 산학협력단 Object detection device and system
KR20130067612A (en) * 2011-12-14 2013-06-25 한국전자통신연구원 Feature vector classifier and recognition device using the same

Similar Documents

Publication Publication Date Title
US20110235920A1 (en) Image signature matching device
US20110091113A1 (en) Image processing apparatus and method, and computer-readable storage medium
JP5950441B2 (en) Image recognition apparatus, image recognition method, and image recognition program
KR101548928B1 (en) Invariant visual scene and object recognition
US9740965B2 (en) Information processing apparatus and control method thereof
JP5505410B2 (en) Data processing apparatus, image collation method, program, and image collation system
CN113409372B (en) Image registration method, related device, equipment and storage medium
CN101147159A (en) Fast method of object detection by statistical template matching
JP2013161126A (en) Image recognition device, image recognition method, and image recognition program
CN109325959B (en) Method for extracting infrared image details based on Hough transform and application thereof
US8861871B2 (en) Image signature extraction device
JP2015002547A (en) Image processing apparatus, program, and image processing method
KR101208446B1 (en) Matching judgment method of matching target image
Al-Hammadi et al. Improving SURF based copy-move forgery detection using super resolution
KR20090032808A (en) Object classifier method and system for controlling the same
Isaac et al. A key point based copy-move forgery detection using HOG features
US20190279392A1 (en) Medium recognition device and medium recognition method
US8744193B2 (en) Image signature extraction device
CN113409214B (en) Rapid repairing method for damaged fingerprint image
JP4675368B2 (en) Object position estimation apparatus, object position estimation method, object position estimation program, and recording medium recording the program
CN113643369A (en) Positioning information correction method for remote sensing image
CN106887071A (en) A kind of intelligent access control system based on Quick Response Code identification
Zhu et al. A filtering strategy for interest point detecting to improve repeatability and information content
Satzoda et al. Gradient angle histograms for efficient linear hough transform
CN108803364A (en) A kind of intelligent home control system

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid