KR20090032808A - Object classifier method and system for controlling the same - Google Patents
Object classifier method and system for controlling the same Download PDFInfo
- Publication number
- KR20090032808A KR20090032808A KR1020070098316A KR20070098316A KR20090032808A KR 20090032808 A KR20090032808 A KR 20090032808A KR 1020070098316 A KR1020070098316 A KR 1020070098316A KR 20070098316 A KR20070098316 A KR 20070098316A KR 20090032808 A KR20090032808 A KR 20090032808A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- feature vector
- axis
- extracting
- value
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 물체 분류 방법 및 시스템에 관한 것으로, 보다 상세하게는 물체의 분류율이 대폭 향상된 물체 분류 방법 및 시스템에 관한 것이다.The present invention relates to a method and a system for classifying an object, and more particularly, to a method and a system for classifying an object.
최근 테러와 도난 사고 등이 빈번하게 발생함에 따라, 날로 보안에 대한 관심이 높아지고 있다. 그에 따라 도심의 고층 빌딩뿐 만 아니라, 아파트 단지 등의 주요 생활 환경에 CCD 카메라(charge-coupled device camera)의 설치가 늘어 나고 있다.Recently, as terrorism and theft accidents occur frequently, interest in security is increasing day by day. As a result, CCD cameras (charge-coupled device cameras) are being installed not only in urban skyscrapers, but also in major living environments such as apartment complexes.
이와 같은CCD 보안 카메라에 의한 보안 및 방범을 위해서는, 움직이는 물체에 대한 포착이 필요하며, 포착된 물체에 대하여 그 물체가 어떤 물체인지 분류하는 작업이 필요하다.For security and crime prevention by such a CCD security camera, it is necessary to capture a moving object, and to classify what the object is to the captured object.
그러나, 종래의 CCD 보안 카메라에서 사용되는 물체 분류 시스템(Object Classification System)에서는, 입력되는 영상이 카메라와 피사체와의 거리에 따라 촬영된 이미지의 크기 차이가 발생하며, 촬영 각도에 따라 피사체의 크기나 기울어진 정도가 달라지므로, 물체 분류 시스템에 의한 피사체 또는 촬영 이미지의 물체 분류율이 현저하게 떨어지는 문제점이 있었다. However, in the object classification system used in the conventional CCD security camera, the difference in the size of the captured image occurs depending on the distance between the camera and the subject, and the size of the subject depends on the shooting angle. Since the degree of inclination is different, there is a problem that the object classification rate of the subject or the photographed image by the object classification system is significantly reduced.
본 발명은 상기와 같은 종래 기술을 개선하기 위해 안출된 것으로서, CCD 카메라에서 사용되는 물체 분류 시스템에 있어서, 입력되는 영상이 카메라와 피사체와의 거리에 따른 이미지의 크기 차이와 촬영 각도에 따른 피사체의 기울어진 정도와 무관하게, 피사체의 회전(rotation)에 강인한 물체 분류 시스템을 제공하는 것을 목적으로 한다.The present invention has been made to improve the prior art as described above, in the object classification system used in the CCD camera, the input image is the size difference of the image according to the distance between the camera and the subject of the subject according to the shooting angle It is an object of the present invention to provide an object classification system that is robust to rotation of a subject regardless of the degree of inclination.
또한 본 발명은, 보안 환경 내의 사람과 차량을 자동으로 분류하여 CCD 카메라 등의 피사체의 촬영 시에, 높은 물체의 분류율을 제공할 수 있으며, 환경 노이즈에 의해 왜곡된 영상의 물체 분류 시에도 안정적인 물체 분류 방법 및 시스템을 제공하는 것을 목적으로 한다.In addition, the present invention can automatically classify people and vehicles in a security environment to provide a high object classification rate when photographing a subject such as a CCD camera, and is stable even when classifying objects in an image distorted by environmental noise. An object of the present invention is to provide a method and system for classifying objects.
상기의 목적을 이루고 종래기술의 문제점을 해결하기 위하여 본 발명의 일측에 따른 물체 분류 방법은, 이미지의 기울어진 중심축을 추출하는 단계, 상기 기울어진 이미지의 중심축을 y축과 일치하게 변환하는 단계, 상기 변환된 이미지를 격자로 나누어 피쳐 벡터(Feature Vector)를 추출하는 단계, 상기 추출된 피쳐 벡터를 이용하여, 상기 이미지가 사람 또는 차량인지의 여부를 판단하는 단계를 포함한다.In order to achieve the above object and solve the problems of the prior art, the object classification method according to one aspect of the present invention, extracting the tilted central axis of the image, converting the central axis of the tilted image to match the y-axis, Dividing the transformed image into a grid to extract a feature vector, and determining whether the image is a person or a vehicle by using the extracted feature vector.
본 발명의 또 다른 일측에 따르면, 상기 이미지의 기울어진 중심축을 추출하는 단계는, 라돈 변환(Radon Transform)을 사용하여 상기 이미지의 기울어진 중심 축을 추출한다.According to another aspect of the invention, the step of extracting the tilted central axis of the image, extracts the tilted central axis of the image using a Radon transform (Radon Transform).
본 발명의 또 다른 일측에 따르면, 상기 변환된 이미지를 격자로 나누어 피쳐 벡터(Feature Vector)를 추출하는 단계는, HOG(Histogram of Oriented Gradients) 알고리즘을 사용하여 상기 피쳐 벡터를 추출한다.According to another aspect of the present invention, the step of extracting a feature vector by dividing the transformed image into a grid, the feature vector is extracted using a histogram of oriented gradients (HOG) algorithm.
본 발명의 또 다른 일측에 따르면, HOG 알고리즘은 복수개의 픽셀로 이루어진 셀 및 상기 복수개의 셀로 이루어진 블록을 사용하여, 상기 변환된 이미지의 피쳐 벡터(Feature Vector)를 추출한다.According to another aspect of the present invention, the HOG algorithm extracts a feature vector of the converted image using a cell consisting of a plurality of pixels and a block consisting of the plurality of cells.
본 발명의 또 다른 일측에 따르면, 상기 사람 또는 차량인지의 여부를 판단하는 단계는, 상기 피쳐 벡터를 LSVM(Linear Support Vector Machine)에 입력하여 사람 또는 차량인지의 여부를 판단한다.According to another aspect of the invention, the step of determining whether the person or the vehicle, the feature vector is input to the LSVM (Linear Support Vector Machine) to determine whether or not the person or vehicle.
본 발명의 또 다른 일측에 따르면, 상기 사람 또는 차량인지의 여부를 판단하는 단계는, 상기 피쳐 벡터를 사람 분류 LSVM에 입력하여 출력정보가 양수인 경우, 사람으로 판단한다.According to yet another aspect of the present invention, in the determining of whether the person or the vehicle is input, when the output information is positive by inputting the feature vector to the person classification LSVM, the person is determined to be a person.
본 발명의 또 다른 일측에 따르면, 상기 사람 또는 차량인지의 여부를 판단하는 단계는, 상기 피쳐 벡터를 차량 분류 LSVM에 입력하여 출력정보가 양수인 경우, 차량으로 판단한다.According to another aspect of the present invention, the step of determining whether the person or the vehicle, if the output information is positive by inputting the feature vector to the vehicle classification LSVM, it is determined as a vehicle.
본 발명의 또 다른 일측에 따르면, 상기 변환된 이미지를 격자로 나누어 피쳐 벡터(Feature Vector)를 추출하는 단계는, 상기 이미지의 x축과 y축의 경도(Gradient)를 구하는 단계, 상기 이미지의 x축과 y축의 경도로부터 상기 이미지의 각 픽셀의 매그니튜드(Magnitude)값 및 방향(Orientation)값을 구하는 단계, 상 기 복수개의 픽셀로 구성되는 셀(Cell)을 오버랩(Overlap)하여 정규화(Normalize) 시키는 단계, 상기 매그니튜드값 및 방향값에 기초하여 상기 복수개의 셀로 구성되는 블록(Block)에 대한 블록 피쳐 벡터를 생성하는 단계, 및 상기 블록 피쳐 벡터를 이용하여 피쳐 벡터를 추출하는 단계를 포함한다.According to another aspect of the invention, the step of extracting a feature vector by dividing the transformed image into a grid, obtaining a gradient of the x-axis and y-axis of the image, the x-axis of the image Obtaining a magnitude and orientation value of each pixel of the image from the longitudes of the pixels and the y-axis, and normalizing the overlapping cells of the plurality of pixels. Generating a block feature vector for a block composed of the plurality of cells based on the magnitude value and the direction value, and extracting the feature vector using the block feature vector.
본 발명의 또 다른 일측에 따르면, 상기 이미지의 x축과 y축의 경도(Gradient)를 구하는 단계는, [-1 0 1]마스크를 이용하여 상기 이미지의 x축과 y축의 경도(Gradient)를 구한다.According to another aspect of the invention, the step of obtaining the gradient of the x-axis and the y-axis of the image, using the [-1 0 1] mask to obtain the gradient of the x-axis and the y-axis of the image. .
본 발명에 따르면, CCD 카메라에서 사용되는 물체 분류 시스템에 있어서, 입력되는 영상이 카메라와 피사체와의 거리에 따른 이미지의 크기 차이와 촬영 각도에 따른 피사체의 기울어진 정도와 무관하게, 피사체의 회전(rotation)에 강인한 물체 분류 시스템을 제공할 수 있다.According to the present invention, in the object classification system used in the CCD camera, the input image is rotated of the subject regardless of the difference in the size of the image according to the distance between the camera and the subject and the degree of inclination of the subject according to the shooting angle ( It is possible to provide an object classification system that is robust against rotation.
또한 본 발명에 따르면, 보안 환경 내의 사람과 차량을 자동으로 분류하여 CCD 카메라의 피사체의 촬영 시에, 높은 물체의 분류율을 제공할 수 있으며, 환경 노이즈에 의해 왜곡된 영상의 물체 분류 시에도 안정적인 물체 분류 방법 및 시스템을 제공할 수 있다.In addition, according to the present invention, it is possible to automatically classify people and vehicles in the security environment to provide a high classification rate of the object when shooting the subject of the CCD camera, stable even when classifying objects of the image distorted by environmental noise An object classification method and system can be provided.
이하 첨부된 도면들 및 첨부된 도면들에 기재된 내용들을 참조하여 본 발명의 바람직한 실시예를 상세하게 설명하지만, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나 타낸다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings and the contents described in the accompanying drawings, but the present invention is not limited or limited to the embodiments. Like reference numerals in the drawings denote like elements.
도 1은 본 발명에 따른 물체 분류 시스템을 도시한 도면이며, 도 2는 본 발명에 따른 이미지 벡터 추출부를 도시한 도면이다.1 is a view showing an object classification system according to the present invention, Figure 2 is a view showing an image vector extraction unit according to the present invention.
도 1에 도시된 바와 같이 본 발명에 따른 물체 분류 시스템은, 중심축 추출부(110), 중심축 변환부(120), 이미지 벡터 추출부(130), 및 이미지 판단부(140)를 포함하여 구성된다.As shown in FIG. 1, the object classification system according to the present invention includes a
중심축 추출부(110)는 이미지의 기울어진 중심축을 추출한다. The
중심축 변환부(120)는 상기 중심축 추출부(110)가 추출한 상기 기울어진 이미지의 중심축을 y축과 일치하게 변환한다. 이때, 본 발명에 따르면 라돈 변환(Radon Transform)을 사용하여 상기 이미지의 기울어진 중심축을 추출할 수 있다.The
이미지 벡터 추출부(130)는 상기 변환된 이미지를 격자로 나누어 피쳐 벡터(Feature Vector)를 추출하는데, 이때 HOG(Histogram of Oriented Gradients) 알고리즘을 사용하여 상기 피쳐 벡터를 추출할 수 있다.The
상기 HOG 알고리즘은, 이미지를 바둑판 모양의 정사각형 형태로 나누어 그 각각의 정사각형 그리드(Grid) 내에 방향(Orientation)의 로컬 히스토그램을 계산하는 알고리즘을 말하며, 특히 복수개의 픽셀로 이루어진 셀 및 상기 복수개의 셀로 이루어진 블록을 사용하여, 상기 변환된 이미지의 피쳐 벡터(Feature Vector)를 추출하게 된다.The HOG algorithm refers to an algorithm that divides an image into a checkered square shape and calculates a local histogram of orientation in each of the square grids, in particular, a cell consisting of a plurality of pixels and the plurality of cells. Using a block, a feature vector of the transformed image is extracted.
보다 상세하게 설명하면, 도 2에 도시된 바와 같이, 상기 이미지 벡터 추출 부(130)는, 경도 계산부(131), 픽셀 값 추출부(132), 정규화부(133), 피쳐 벡터 생성부(134), 및 피쳐 벡터 추출부(135)를 포함하여 구성된다.In more detail, as illustrated in FIG. 2, the image
경도 계산부(131)는 상기 이미지의 x축과 y축의 경도(Gradient)를 구하고, 픽셀 값 추출부(132)는 상기 경도 계산부에 의해 계산한 이미지의 x축과 y축의 경도로부터 상기 이미지의 각 픽셀의 매그니튜드(Magnitude)값 및 방향(Orientation)값을 구하고, 정규화부(133)는 상기 복수개의 픽셀로 구성되는 셀(Cell)을 오버랩(Overlap)하여 정규화(Normalize)시키며, 피쳐 벡터 생성부(134)는 상기 매그니튜드값 및 방향값에 기초하여 상기 복수개의 셀로 구성되는 블록(Block)에 대한 블록 피쳐 벡터를 생성하며, 피쳐 벡터 추출부(135)는 상기 블록 피쳐 벡터를 이용하여 피쳐 벡터를 추출한다.The
특히, 상기 경도 계산부(131)는 [-1 0 1]마스크를 이용하여 상기 이미지의 x축과 y축의 경도(Gradient)를 구한다.In particular, the
이미지 판단부(140)는 상기 추출된 피쳐 벡터를 이용하여, 상기 이미지가 사람 또는 차량인지의 여부를 판단한다. 이때, 상기 이미지 판단부(140)는 상기 피쳐 벡터를 LSVM(Linear Support Vector Machine)에 입력하여 사람 또는 차량인지의 여부를 판단하게 된다.The
도 3은 본 발명의 일례에 따른 이미지 도면이다.3 is an image diagram according to an example of the present invention.
발명에서는 도 3에 도시된 바와 같은 이미지에 라돈 변환(Radon Transform)을 적용한다. In the present invention, a Radon transform is applied to an image as shown in FIG. 3.
라돈 변환은(Radon Transform)은 허프 변환(Hough Transform)과 유사하게 라 인(Line)을 찾아내는 알고리즘으로서, 본 발명에서는 이 라돈 변환을 이용하여 기울어진 이미지(피사체)의 축을 Y축과 일치하게 변환하기 위해 사용할 수 있다.Radon Transform is an algorithm for finding lines similar to the Hough Transform. In the present invention, the radon transform is used to transform the tilted image (subject) axis to match the Y-axis. Can be used to
도 4는 본 발명의 일례에 따른 이미지의 엣지 성분을 이용하여 이미지의 중심축을 y축과 일치하게 변환하는 과정을 도시한 도면이다.4 is a diagram illustrating a process of converting a central axis of an image to match the y-axis by using an edge component of the image according to an example of the present invention.
라돈 변환(Radon Transform)을 이용하여 기울어진 이미지(410)의 엣지(Edge)정보에 의해 얼마나 기울어져 있는지를 검출하고, 그 각만큼 변환하여 중심축이 Y축과 일치되게 하여, 이미지가 기울어짐(Rotation)에 영향을 받지 않도록 한다.Radon transform is used to detect how inclined by the edge information of the
상기와 같은 라돈 변환은 다음과 같은 수학식 1에 의하여 이루어진다.The radon transformation as described above is performed by
(x는 x축의 방향의 경도값이고, y는 y축 방향의 경도값이다.)(x is the hardness value in the x-axis direction, and y is the hardness value in the y-axis direction.)
델타(delta)함수 안에 있는 수식이 허프 변환의 수식으로 엣지(edge) 성분이 있는 좌표에는 '1'을 반환하고 그렇지 않으면 '0'을 반환한다. The expression in the delta function is a Hough transform expression and returns '1' for coordinates with edge components, otherwise it returns '0'.
도 5 및 도 6은 본 발명의 일례에 따른 이미지의 임의의 각에 대한 엣지(edge)성분이 있는 좌표의 값을 더한 그래프이며, 보다 상세하게는 도 5 및 도 6은, 도 3에 도시된 이미지에, 어떤 임의의 각에 대한 엣지 성분이 있는 좌표의 값 을 모두 더한 값을 '0도'로부터 '180도'까지 그래프로 나타낸 것이다.5 and 6 are graphs of values of coordinates with edge components for any angle of an image according to an example of the present invention, and more specifically, FIGS. 5 and 6 are shown in FIG. The image is a graph of the sum of the coordinates with the edge components for any arbitrary angle, from zero degrees to 180 degrees.
도 5에 도시된 바와 같이, '45도'와 '135도'에서 최대값을 가진다는 것을 확인할 수 있다. As shown in FIG. 5, it can be seen that the maximum values are set at '45 degrees' and '135 degrees'.
(x는 x축의 방향의 경도값이고, y는 y축 방향의 경도값이다.)(x is the hardness value in the x-axis direction, and y is the hardness value in the y-axis direction.)
엣지 성분이 가장 강한 각을 구하고자 하면, 상기와 같은 수학식2를 이용하여 도 6에 도시된 제2 도함수(Second Derivative)값을 구하고, 그래프 상에서 최소값에 해당하는 각이 가장 강한 각이 된다.In order to find the strongest edge component, the second derivative value shown in FIG. 6 is obtained by using
본 발명에서는 사람은 수직 방향으로의 직선 성분이 강하게 나타나는 것과 차량은 수평 방향으로의 직선 성분이 강하게 나타나는 것을 바탕으로, 두 물체의 중심축의 방향을 구해 기울어진 입력 영상을 Y축의 방향과 일치되게 변환함으로써, 중심축이 기울어진 이미지에 대한 제약을 해결하는 것이 가능하다.According to the present invention, a straight line component in a vertical direction is strongly shown by a person, and a straight line component in a horizontal direction is strongly shown by a vehicle. By doing this, it is possible to solve the constraint on the image in which the central axis is tilted.
도 7은 본 발명의 일례에 따른 셀 및 블록을 도시한 도면이다.7 illustrates a cell and a block according to an example of the present invention.
HOG(Histogram of Oriented Gradients)는 이미지를 바둑판 모양의 정사각형 형태의 꼴로 나누어 그 각각의 그리드(Grid)내의 방향(Orientation)의 로컬 히스토 그램을 계산하는 알고리즘이다.Histogram of Oriented Gradients (HOG) is an algorithm that divides an image into a checkerboard square shape and calculates a local histogram of orientation in each grid.
HOG 알고리즘에 의하면, 입력된 이미지로부터 x와 y축 방향의 그라디언트(Gradient)를 각각 [-1 0 1]마스크를 이용하여 구한다.According to the HOG algorithm, gradients in the x and y-axis directions are obtained from the input image by using a [-1 0 1] mask, respectively.
(x는 x축의 방향의 경도값이고, y는 y축 방향의 경도값이다.)(x is the hardness value in the x-axis direction, and y is the hardness value in the y-axis direction.)
(x는 x축의 방향의 경도값이고, y는 y축 방향의 경도값이다.)(x is the hardness value in the x-axis direction, and y is the hardness value in the y-axis direction.)
x축과 y축 방향의 그래디언트 값으로부터, 상기와 같은 수학식 3을 이용하여 각 픽셀의 매그니튜드(Magnitude)값을 구하고, 상기와 같은 수학식 4를 이용하여 각 픽셀의 방향값(Orientation)값을 구할 수 있다.From the gradient values in the x- and y-axis directions, the Magnitude value of each pixel is obtained using
이후, 셀(cell)을 오버랩(Overlap)시키면서 블록 단위로 정규화 (Normalize)시킨다.Thereafter, the cells are normalized in units of blocks while overlapping cells.
이미지(입력영상)의 크기를 64 X 128크기로 가정하였을 때, 이미지를 정사각 형의 바둑판 형식으로 나누며 이때, 바둑판 하나의 크기는 8 X 8픽셀을 셀(cell)이라 부르며, 총 셀의 수는 8 X 16 = 128개가 되는 것을 알 수 있다.Assuming that the size of the image (input image) is 64 X 128, the image is divided into square tiles. In this case, the size of one board is called 8
로컬 정규화(Local Normalize) 하기 위해서 도 7에 도시된 바와 같이, 4개의 셀(710)을 정사각형 형태로 구성하여 블록(720)을 형성한다. As illustrated in FIG. 7, four
이때 블록의 크기는 16 X 16픽셀이 되며, 다음의 수학식 5를 이용하여 블록 단위로 정규화 계수(Normalize factor)를 구할 수 있다.In this case, the size of the block is 16 X 16 pixels, and a normalization factor can be obtained in units of blocks by using
(nf는 정규화 계수이고, V는 각 픽셀의 Magnitude값을 나타내는 벡터이다.)(nf is a normalization coefficient, and V is a vector representing the Magnitude value of each pixel.)
정규화 계수를 구하여 각 픽셀의 값으로 나누어주면 하나의 로컬 정규화(Local Normalization)가 완성되고, 도 7의 셀(710)을 중심셀로 하여 한 칸씩 오른쪽으로 이동시켜가며 같은 과정을 반복함으로써, 총 105(가로방향 7번, 세로방향 15번)번 로컬 정규화(Local Normalize)시킨다.When the normalization coefficient is obtained and divided by the value of each pixel, one local normalization is completed, and the same process is repeated by moving each cell to the right by using the
이때, 블록과 블록 사이의 셀이 오버랩(Overlap)되는 상황이 발생하는데, 셀이 오버랩 된다 하더라도, 각각 다른 정규화 방안(Normalize scheme)을 가지기 때문에 로컬(Local)의 정보를 더 강력하게 가질 수 있는 효과가 있다.At this time, a situation in which a cell overlaps with a block between blocks occurs. Even though the cells overlap, each of the cells has a different normalization scheme, so that the local information can be stronger. There is.
도 8은 본 발명의 일례에 따른 정규화 방안(Normalize Scheme)을 도시한 도 면이다.8 illustrates a normalization scheme according to an example of the present invention.
본 발명에서는 이러한 블록 정규화 방안(Normalize Scheme)에서 사람과 차량의 공통 특징인 직선 성분이 강하다는 사실을 바탕으로, 블록(16 X 16)과 셀(8 X 8)의 정사각형 형태가 아닌, 도 8에 도시된 바와 같은 16 X 24직사각형 형태의 블록과 8 X 16 형태의 셀(810)을 이용한 정규화 방안을(Normalize scheme)으로 제시한다.In the present invention, the block normalization scheme (Normalize Scheme) is based on the fact that the linear component, which is a common feature of humans and vehicles, is strong, and not the square form of the blocks 16 X 16 and the cells 8
본 발명에 따른 직사각형 형태의 방법은 정사각형 형태보다 직선 성분에 대한 정보를 보다 많이 가질 수 있는 장점이 있다. 즉, 정사각형 블록과 셀의 형태와 비교할 때 직사각형 블록과 셀 구조에서는 블록과 블록에서의 셀 간의 오버랩(overlap)을 가지는 것뿐 만 아니라 셀과 셀에서의 오버랩(Overlap)을 가지므로, 정사각형 형태보다 더 많은 이미지 정보를 가지게 되어 물체 분류의 크기(Scale)에 보다 강인한 피쳐(Feature)를 추출할 수 있는 장점이 있다. The rectangular type method according to the present invention has an advantage of having more information on linear components than the square type. In other words, when compared to the square block and the cell shape, the rectangular block and the cell structure not only have overlap between the blocks and the cells in the block, but also have overlaps between the cells and the cells. Having more image information has the advantage of extracting a feature that is more robust to the scale of the object classification.
도 9는 본 발명의 일례에 따른 각 픽셀의 방향(Orientation)이 속하는 범위에 해당하는 픽셀의 매그니튜드를 합산하는 표이다.9 is a table for summing the magnitudes of pixels corresponding to a range to which an orientation of each pixel belongs according to an example of the present invention.
도 9에 도시된 합산 표를 이용하여, 각 픽셀의 인덱스(Index)에 따른 방향값(Orientation: 910)이 어느 범위에 속하는 지를 찾아, 그 픽셀의 매그니튜드(Magnitude)를 더하는 과정이다. 상기 과정은 셀 단위로 실행되며, 셀 내의 모든 픽셀에 대한 값이 해당 빈(bin)으로 전해진 경우, 그 다음 셀을 독립된 다른 빈(Bin)에서 보우트(Vote)하여 블록 내 총 4개의 빈(bin)메모리가 형성이 된다.By using the summation table illustrated in FIG. 9, a range of directions (Orientation) 910 according to the index of each pixel is found, and the magnitude of the pixel is added. The process is performed cell-by-cell, and if the values for all the pixels in a cell are passed to the bin, then the cell is voted on another independent bin, for a total of four bins in the block. The memory is formed.
예를 들어, 임의의 위치의 방향값(Orientation)정보가 46.5도 이고, 그에 해 당하는 매그니튜드(Magnitude)가 'k'라는 값이라면, 방향값(Orientation)은 40~60도에 해당하는 빈 인덱스(Bin index) '3'에 해당하여 가중 보우트(weighted vote)값은 기존의 보우트 값(voted value: 920)인 'c'값에 'k'값을 더한 'c+k'값이 된다. 이러한 과정은 어느 특정한 각의 엣지(Edge) 정보가 크면 그 매그니튜드(Magnitude) 만큼 가중되는 특징을 가진다.For example, if the orientation information of an arbitrary position is 46.5 degrees and the corresponding Magnitude is 'k', the orientation value is an empty index corresponding to 40 to 60 degrees ( Bin index) The weighted vote value corresponds to '3' and becomes a 'c + k' value obtained by adding a 'k' value to a 'c' value, which is a conventional voted value (920). This process has a feature that if the edge information of a particular angle is large, it is weighted by its magnitude.
도 10은 본 발명의 일례에 따른 각 블록의 4개의 빈(Bin)메모리를 연결한 도면이다.FIG. 10 is a view of connecting four bin memories of each block according to an example of the present invention.
블록마다 총 4개의 빈(Bin)메모리가 완성되면, 도 10에 도시된 바와 같이, 연결(Concatenate)시켜 블록에 대한 하나의 피쳐 벡터(Feature vector)가 완성된다.When a total of four bin memories are completed for each block, as shown in FIG. 10, one feature vector for a block is completed by concatenation.
105개의 블럭에 대한 보우팅(Voting)이 완성되면 하나의 큰 피쳐 벡터(3780개)가 완성된다.Once the voting for 105 blocks is completed, one large feature vector (3780) is completed.
연쇄적으로 연결된(Concatenate) 피쳐 벡터(Feature vector)는 총 36개의 값을 가지며 한 블럭에 대한 정보를 가지고 있다. 이와 같은 피쳐 벡터들이 105개가 있으므로 각 입력영상(64 X 128)이 가지는 디멘젼(Dimension)은 3780개가 된다.A concatenate feature vector has a total of 36 values and contains information about one block. Since there are 105 such feature vectors, the dimension of each input image 64 X 128 is 3780.
완성된 피쳐 벡터(Feature vector)를 사람 분류 Linear Support Vector Machine(LSVM)에 입력시켜 영상이 사람인지 사람이 아닌지를 분류하는데, 출력정보가 양수이면 사람이고, 그 반대이면 사람이 아닌 것으로 판별한다.The completed feature vector is input to a human classification linear support vector machine (LSVM) to classify whether the image is a person or a person. If the output information is positive, it is determined to be a person and vice versa.
또한, 동일한 피쳐 벡터(Feature vector)를 차량 분류 Linear Support Vector Machine에 입력시켜 양수이면 차량으로 판별하고, 그 반대이면 사람도 차량 도 아닌 것으로 판별하게 된다.In addition, the same feature vector is input to the vehicle classification Linear Support Vector Machine, and if it is positive, the vehicle is discriminated as a vehicle.
도 11은 본 발명의 일례에 따른 물체 분류 방법을 도시한 도면이다.11 is a diagram illustrating an object classification method according to an example of the present invention.
이미지의 기울어진 중심축을 추출하여(S110), 상기 기울어진 이미지의 중심축을 y축과 일치하게 변환한다(S120).The tilted central axis of the image is extracted (S110), and the central axis of the tilted image is converted to match the y-axis (S120).
이때, 상기 이미지의 기울어진 중심축은 라돈 변환(Radon Transform)을 사용하여 상기 이미지의 기울어진 중심축을 추출한다.In this case, the inclined central axis of the image is extracted using the Radon transform.
이후, 상기 변환된 이미지를 격자로 나누어 피쳐 벡터(Feature Vector)를 추출하는데(S130), 이때 HOG(Histogram of Oriented Gradients) 알고리즘을 사용하여 상기 피쳐 벡터를 추출한다.Thereafter, the transformed image is divided into a grid to extract a feature vector (S130). At this time, the feature vector is extracted using a histogram of oriented gradients (HOG) algorithm.
특히, 상기 HOG 알고리즘은, 복수개의 픽셀로 이루어진 셀 및 상기 복수개의 셀로 이루어진 블록을 사용하여, 상기 변환된 이미지의 피쳐 벡터(Feature Vector)를 추출하게 된다.In particular, the HOG algorithm extracts a feature vector of the converted image using a cell composed of a plurality of pixels and a block composed of the plurality of cells.
이후, 상기 추출된 피쳐 벡터를 이용하여, 상기 이미지가 사람 또는 차량인지의 여부를 판단하는데(S140), 이때 상기 피쳐 벡터를 LSVM(Linear Support Vector Machine)에 입력하여 사람 또는 차량인지의 여부를 판단하게 된다.Thereafter, the extracted feature vector is used to determine whether the image is a person or a vehicle (S140). At this time, the feature vector is input to a linear support vector machine (LSVM) to determine whether the image is a person or a vehicle. Done.
상기 사람 또는 차량인지의 여부를 판단하기 위하여, 상기 피쳐 벡터를 사람 분류 LSVM에 입력하여 사람 이미지 인지의 여부를 판단하여(S150), 사람의 이미지임을 확인하게 되는데(S160), 이때 상기 사람 분류 LSVM은 출력정보가 양수인 경우, 사람으로 판단하게 된다.In order to determine whether the vehicle is a person or a vehicle, the feature vector is input to a person classification LSVM to determine whether the image is a person image (S150), and the image is a person image (S160). When the output information is positive, it is determined as a person.
판단 결과 사람의 이미지가 아닌 경우에는, 상기 피쳐 벡터를 차량 분류 LSVM에 입력하여 차량 이미지인지의 여부를 판단한다(S170). 이때 차량 분류 LSVM은 출력 정보가 양수인 경우에 차량을 판단하고(S180), 그렇지 않은 경우 상기 이미지가 사람 및 차량의 이미지가 아닌 것을 확인한다(S190).If it is determined that the image is not a human image, the feature vector is input to the vehicle classification LSVM to determine whether the image is a vehicle image (S170). At this time, the vehicle classification LSVM determines the vehicle when the output information is positive (S180), and otherwise determines that the image is not an image of a person and a vehicle (S190).
도 12는 본 발명의 일례에 따른 피쳐 벡터(Feature Vector)를 추출하는 방법을 도시한 도면으로서, 보다 상세하게는, 기울어진 이미지의 중심축을 y축과 일치하게 변화하고, 변환된 이미지를 HOG(Histogram of Oriented Gradients) 알고리즘을 사용하여 격자로 나누어 피쳐 벡터(Feature Vector)를 추출하는 방법을 설명하고 있다.FIG. 12 is a diagram illustrating a method of extracting a feature vector according to an example of the present invention. In detail, the center axis of the tilted image is changed to match the y-axis, and the transformed image is HOG ( This section describes how to extract feature vectors by dividing them into grids using the Histogram of Oriented Gradients algorithm.
먼저 상기 이미지의 x축과 y축의 경도(Gradient)를 구하는데(S210), 상기 경도는 [-1 0 1] 마스크를 이용하여 구할 수 있다.First, gradients of the x-axis and y-axis of the image are obtained (S210), and the hardness may be obtained using a [−1 0 1] mask.
상기 이미지의 x축과 y축의 경도로부터, 상기 이미지의 각 픽셀의 매그니튜드(Magnitude)값 및 방향(Orientation)값을 구하고(S220), 상기 복수개의 픽셀로 구성되는 셀(Cell)을 오버랩(Overlap)하여 정규화(Normalize) 시킨다(S230).Magnitude values and orientation values of each pixel of the image are obtained from the longitudes of the x-axis and y-axis of the image (S220), and the cells composed of the plurality of pixels are overlapped. To normalize (S230).
상기 매그니튜드값 및 방향값에 기초하여 상기 복수개의 셀로 구성되는 블록(Block)에 대한 블록 피쳐 벡터를 생성하고(S240), 상기 블록 피쳐 벡터를 이용하여 피쳐 벡터를 추출한다(S250).Based on the magnitude value and the direction value, a block feature vector for a block including the plurality of cells is generated (S240), and a feature vector is extracted using the block feature vector (S250).
또한 본 발명의 실시예들은 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터 판독 가능 매체를 포함 한다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성 된 것들 이거나 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 본 발명에서 설명된 이동 단말 또는 기지국의 동작의 전부 또는 일부가 컴퓨터 프로그램으로 구현된 경우, 상기 컴퓨터 프로그램을 저장한 컴퓨터 판독 가능 기록 매체도 본 발명에 포함된다.Embodiments of the invention also include computer-readable media containing program instructions for performing various computer-implemented operations. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program command may be those specially designed and configured for the present invention, or may be known and available to those skilled in the art. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. When all or part of the operation of the mobile terminal or base station described in the present invention is implemented as a computer program, a computer readable recording medium storing the computer program is also included in the present invention.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. As described above, the present invention has been described by way of limited embodiments and drawings, but the present invention is not limited to the above embodiments, and those skilled in the art to which the present invention pertains various modifications and variations from such descriptions. This is possible.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined not only by the claims below but also by the equivalents of the claims.
도 1은 본 발명에 따른 물체 분류 시스템을 도시한 도면이다.1 is a view showing an object classification system according to the present invention.
도 2는 본 발명에 따른 이미지 벡터 추출부를 도시한 도면이다.2 is a diagram illustrating an image vector extracting unit according to the present invention.
도 3은 본 발명의 일례에 따른 이미지 도면이다.3 is an image diagram according to an example of the present invention.
도 4는 본 발명의 일례에 따른 이미지의 엣지 성분을 이용하여 이미지의 중심축을 y축과 일치하게 변환하는 과정을 도시한 도면이다.4 is a diagram illustrating a process of converting a central axis of an image to match the y-axis by using an edge component of the image according to an example of the present invention.
도 5 및 도 6은 본 발명의 일례에 따른 이미지의 임의의 각에 대한 엣지(edge)성분이 있는 좌표의 값을 더한 그래프이다.5 and 6 are graphs of values of coordinates with edge components for any angle of an image according to an example of the present invention.
도 7은 본 발명의 일례에 따른 셀 및 블록을 도시한 도면이다.7 illustrates a cell and a block according to an example of the present invention.
도 8은 본 발명의 일례에 따른 정규화 방안(Normalize Scheme)을 도시한 도면이다.8 illustrates a normalization scheme according to an example of the present invention.
도 9은 본 발명의 일례에 따른 각 픽셀의 방향(Orientation)이 속하는 범위에 해당하는 픽셀의 매그니튜드를 합산하는 표이다.FIG. 9 is a table summating magnitudes of pixels corresponding to a range to which an orientation of each pixel belongs according to an example of the present disclosure.
도 10은 본 발명의 일례에 따른 각 블록의 4개의 빈(Bin)메모리를 연결한 도면이다.FIG. 10 is a view of connecting four bin memories of each block according to an example of the present invention.
도 11은 본 발명의 일례에 따른 물체 분류 방법을 도시한 도면이다.11 is a diagram illustrating an object classification method according to an example of the present invention.
도 12는 본 발명의 일례에 따른 피쳐 벡터(Feature Vector)를 추출하는 방법을 도시한 도면이다.12 is a diagram illustrating a method of extracting a feature vector according to an example of the present invention.
<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>
100: 물체 분류 시스템 110: 중심축 추출부100: object classification system 110: central axis extraction unit
120: 중심축 변환부 130: 이미지 벡터 추출부120: central axis conversion unit 130: image vector extraction unit
140: 이미지 판단부140: image determination unit
Claims (21)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070098316A KR20090032808A (en) | 2007-09-28 | 2007-09-28 | Object classifier method and system for controlling the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070098316A KR20090032808A (en) | 2007-09-28 | 2007-09-28 | Object classifier method and system for controlling the same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20090032808A true KR20090032808A (en) | 2009-04-01 |
Family
ID=40759549
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020070098316A KR20090032808A (en) | 2007-09-28 | 2007-09-28 | Object classifier method and system for controlling the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20090032808A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8369620B2 (en) | 2010-10-20 | 2013-02-05 | Electronics And Telecommunications Research Institute | Object detection device and system |
KR20130067612A (en) * | 2011-12-14 | 2013-06-25 | 한국전자통신연구원 | Feature vector classifier and recognition device using the same |
-
2007
- 2007-09-28 KR KR1020070098316A patent/KR20090032808A/en not_active Application Discontinuation
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8369620B2 (en) | 2010-10-20 | 2013-02-05 | Electronics And Telecommunications Research Institute | Object detection device and system |
KR101405410B1 (en) * | 2010-10-20 | 2014-06-24 | 고려대학교 산학협력단 | Object detection device and system |
KR20130067612A (en) * | 2011-12-14 | 2013-06-25 | 한국전자통신연구원 | Feature vector classifier and recognition device using the same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20110235920A1 (en) | Image signature matching device | |
US20110091113A1 (en) | Image processing apparatus and method, and computer-readable storage medium | |
JP5950441B2 (en) | Image recognition apparatus, image recognition method, and image recognition program | |
KR101548928B1 (en) | Invariant visual scene and object recognition | |
US9740965B2 (en) | Information processing apparatus and control method thereof | |
JP5505410B2 (en) | Data processing apparatus, image collation method, program, and image collation system | |
CN113409372B (en) | Image registration method, related device, equipment and storage medium | |
CN101147159A (en) | Fast method of object detection by statistical template matching | |
JP2013161126A (en) | Image recognition device, image recognition method, and image recognition program | |
CN109325959B (en) | Method for extracting infrared image details based on Hough transform and application thereof | |
US8861871B2 (en) | Image signature extraction device | |
JP2015002547A (en) | Image processing apparatus, program, and image processing method | |
KR101208446B1 (en) | Matching judgment method of matching target image | |
Al-Hammadi et al. | Improving SURF based copy-move forgery detection using super resolution | |
KR20090032808A (en) | Object classifier method and system for controlling the same | |
Isaac et al. | A key point based copy-move forgery detection using HOG features | |
US20190279392A1 (en) | Medium recognition device and medium recognition method | |
US8744193B2 (en) | Image signature extraction device | |
CN113409214B (en) | Rapid repairing method for damaged fingerprint image | |
JP4675368B2 (en) | Object position estimation apparatus, object position estimation method, object position estimation program, and recording medium recording the program | |
CN113643369A (en) | Positioning information correction method for remote sensing image | |
CN106887071A (en) | A kind of intelligent access control system based on Quick Response Code identification | |
Zhu et al. | A filtering strategy for interest point detecting to improve repeatability and information content | |
Satzoda et al. | Gradient angle histograms for efficient linear hough transform | |
CN108803364A (en) | A kind of intelligent home control system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid |