KR20090082546A - Method for recognizing a target in images - Google Patents

Method for recognizing a target in images Download PDF

Info

Publication number
KR20090082546A
KR20090082546A KR1020080008352A KR20080008352A KR20090082546A KR 20090082546 A KR20090082546 A KR 20090082546A KR 1020080008352 A KR1020080008352 A KR 1020080008352A KR 20080008352 A KR20080008352 A KR 20080008352A KR 20090082546 A KR20090082546 A KR 20090082546A
Authority
KR
South Korea
Prior art keywords
target
matching
modeling
information
calculating
Prior art date
Application number
KR1020080008352A
Other languages
Korean (ko)
Other versions
KR100933483B1 (en
Inventor
고보연
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020080008352A priority Critical patent/KR100933483B1/en
Publication of KR20090082546A publication Critical patent/KR20090082546A/en
Application granted granted Critical
Publication of KR100933483B1 publication Critical patent/KR100933483B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

A target recognition method within an image is provided to pass through 2-stage matching processes, thereby obtaining a high recognition rate regardless of rotational and size changes of a target. A boundary line of a recognition object target within a random image is extracted(S101). A reference point is set inside a random-type figure based on boundary line information of the extracted target. A distance between the set reference point and all pixels in the boundary line is calculated. A DFV(Distance Feature Vector) is produced by using the calculated distance information(S104). The produced DFV is divided into plural sections. The first modeling is performed(S105). The second modeling is performed(S106). The first matching is executed to search optimal matching order for each target(S107).

Description

영상 내의 표적 인식 방법{Method for recognizing a target in images}Method for recognizing a target in images}

본 발명은 영상 내의 표적 인식 방법에 관한 것으로서, 특히 표적의 회전 및 크기의 변화 시에도 높은 인식률을 얻을 수 있는 영상 내의 표적 인식 방법에 관한 것이다. The present invention relates to a method for recognizing a target in an image, and more particularly, to a method for recognizing a target in an image that can obtain a high recognition rate even when the rotation and size of the target change.

고해상도의 영상 내에 존재하는 표적을 인식하기 위하여 종래에는 먼저 영역기반(Region Based)의 표적정보(예컨대, 비행기, 장갑차, 탱크 등)를 추출하고, 각 구성 픽셀(화소)의 밝기를 특징벡터(Feature Vector)로 삼아 사전에 구축된 표적 DB(Database)에 저장되어 있는 기준모델과 정합 값을 계산하여 최대 정합을 갖는 모델로 표적을 식별하는 방법을 사용하였다. 그러나 이러한 방식은 표적이 회전하거나 해상도의 차이에 따라 표적의 크기가 변할 경우에 표적에 대한 인식률이 현저히 떨어지는 단점이 있다. 따라서 일반적으로 정합 시 크기를 정규화하고 임의의 회전각도에 대한 정합 값을 모두 계산하여 인식하는 방법을 사용하는데, 모든 경우에 대하여 정합 값을 계산해야 하므로 계산시간이 많이 소요되는 문제점이 있다. 또한 정확도 역시 얼마나 세밀하게 회전시키면서 정합시켰는가와 연관이 되며, 특히 크기 변화시 표적의 영역이 작아서 다른 표적 모델과 중첩될 경우 인식 자체가 불가능한 경우가 발생할 수 있다. In order to recognize a target existing in a high resolution image, conventionally, region-based target information (eg, an airplane, an armored vehicle, a tank, etc.) is first extracted, and the brightness of each component pixel (pixel) is characterized. As a vector), a target model was identified by calculating a match value with a reference model stored in a previously constructed target database (Database). However, this method has a disadvantage in that the recognition rate of the target is significantly lowered when the size of the target changes due to the rotation of the target or the difference in resolution. Therefore, in general, a method of normalizing the size and calculating all matching values for arbitrary rotation angles is used. However, since the matching values need to be calculated for all cases, there is a problem in that calculation time is required. In addition, accuracy is also related to how finely rotated the match is. In particular, when the size is changed, the area of the target is small so that the recognition itself may be impossible when overlapping with another target model.

본 발명은 상기와 같은 문제점을 감안하여 창출된 것으로서, 표적(도형) 영상의 경계를 추출하고 상대적으로 불변하는 표적(도형) 내의 기준점과 도형의 경계선상의 픽셀들 간의 거리를 특징벡터로 삼아 2단계 정합 과정을 거침으로써 표적의 회전 및 크기 변화에도 높은 인식률을 얻을 수 있는 영상 내의 표적 인식 방법을 제공함에 그 목적이 있다.The present invention has been created in view of the above problems, and extracts the boundary of a target (graphic) image and sets the distance between the reference point in the relatively invariable target (graphic) and the pixels on the boundary of the figure as feature vectors. It is an object of the present invention to provide a method for recognizing a target in an image that can obtain a high recognition rate even by changing the rotation and size of the target by the matching process.

상기의 목적을 달성하기 위하여 본 발명에 따른 영상 내의 표적 인식 방법은,In order to achieve the above object, a target recognition method in an image according to the present invention includes:

임의의 영상 내의 인식 대상 표적의 경계선을 추출하는 단계;Extracting a boundary of a target to be recognized in an image;

상기 추출된 표적의 경계선 정보를 바탕으로 경계선으로 이루어지는 임의의 형태의 도형의 내부에 기준점을 설정하는 단계;Setting a reference point in an arbitrary shape of a figure formed of a boundary line based on the extracted boundary line information of the target;

상기 설정된 기준점과 상기 경계선상의 모든 픽셀들 간의 거리를 계산하는 단계; Calculating a distance between the set reference point and all pixels on the boundary line;

상기 계산된 모든 거리 정보를 이용하여 DFV(Distance Feature Vector:거리특징벡터)를 생성하고, 생성된 DFV를 다수의 구간으로 분할하는 단계;Generating a distance feature vector (DFV) using all the calculated distance information and dividing the generated DFV into a plurality of sections;

상기 분할된 각 구간에 대하여, 사전에 구축된 기준 모델과의 최적 정합 순서를 찾기 위한 1차 모델링을 수행하는 단계;Performing first-order modeling on each of the divided sections to find an optimal matching order with a previously constructed reference model;

상기 최적 정합 순서에 대한 최종 정합 값의 계산에 필요한 정보를 생성하기 위한 2차 모델링을 수행하는 단계;Performing secondary modeling to generate information necessary for calculating a final match value for the optimal match order;

상기 1차 모델링 과정에서 추출한 정보를 이용하여 1차 정합을 수행하여, 각 표적에 대한 최적 정합 순서를 탐색하는 단계; Searching for an optimal matching order for each target by performing a first matching using the information extracted in the first modeling process;

상기 탐색된 최적 정합 순서에 따라 상기 2차 모델링 과정에서 추출한 정보를 이용하여 2차 정합을 수행하여 최종 정합 값을 계산하는 단계; 및Calculating a final match value by performing a second match using information extracted in the second modeling process according to the found optimal matching order; And

상기 계산된 최종 정합 값을 바탕으로 상기 인식 대상 표적을 식별해 내는 단계를 포함하는 점에 그 특징이 있다.Distinguishing the target to be recognized based on the calculated final match value.

여기서, 상기 1차 모델링 단계에서는 상기 분할된 각 구간별로 정점(peak point)들의 상대 크기 및 정점 간의 이격 거리에 대한 정보를 추출한다.Here, in the first modeling step, information about the relative size of the peaks and the separation distance between the vertices is extracted for each of the divided sections.

또한, 상기 2차 모델링 단계에서는 상기 1차 모델링 시 사용된 분할 구간마다 상기 DFV를 다항식의 급수형태로 근사화하고, 급수로 표현된 계수정보를 추출한다.In the second modeling step, the DFV is approximated to a series of polynomials for each divided section used in the first modeling, and coefficient information expressed as a series is extracted.

또한, 상기 1차 정합 단계에서는 상기 1차 모델링 시 추출된 구간별 정점 간의 상대 크기 및 정점 간의 이격 거리 정보를 이용하여 상기 분할된 구간만을 순환 이동시키면서 정합 값을 계산하여 최적 정합 순서를 탐색한다.In the first matching step, the optimal matching sequence is searched by calculating the matching value while cyclically moving only the divided sections using the relative size between the vertices of the sections extracted during the first modeling and the distance information between the vertices.

또한, 상기 2차 정합 단계에서는 상기 2차 모델링 시 추출된 다항식 급수계수와 정합하고자 하는 시험 표적의 특징벡터와의 정합 오차를 계산하고, 이를 바탕으로 최종 정합 값을 계산한다. In the second matching step, a matching error between the polynomial series coefficient extracted during the second modeling and the feature vector of the test target to be matched is calculated, and the final matching value is calculated based on the matching error.

이상과 같은 본 발명에 의하면, 표적 영상의 경계를 추출하고 상대적으로 불변하는 표적(도형) 내의 기준점과 도형의 경계선상의 모든 픽셀들 간의 거리를 특징벡터로 삼아 2단계 정합 과정을 거침으로써 표적의 회전 및 크기 변화에 관계없이 높은 인식률을 얻을 수 있다. According to the present invention as described above, the rotation of the target by extracting the boundary of the target image and performing a two-step matching process using the distance between all pixels on the boundary of the figure and the reference point in the relatively invariant target (graphic) as a feature vector And high recognition rate can be obtained regardless of the size change.

이하 첨부된 도면을 참조하면서 본 발명의 실시예를 상세히 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 영상 내의 표적 인식 방법을 보여주는 흐름도이다.1 is a flowchart illustrating a method of recognizing a target in an image according to the present invention.

도 1을 참조하면, 본 발명에 따른 영상 내의 표적 인식 방법에 따라 먼저 임의의 영상 내의 인식 대상 표적(도형)(200)(도 2 참조)의 경계선(201)을 추출한다(단계 S101). 이때, 이와 같은 표적(도형)(200)의 경계선(201) 추출을 위해 일반적인 영상처리기술이 사용될 수 있다. Referring to FIG. 1, a boundary line 201 of a target to be recognized (figure) 200 (see FIG. 2) in an arbitrary image is first extracted according to a target recognition method in an image according to the present invention (step S101). In this case, a general image processing technique may be used to extract the boundary line 201 of the target (figure) 200.

표적의 경계선 추출이 완료되면, 그 추출된 표적의 경계선 정보를 바탕으로 경계선으로 이루어지는 임의의 형태의 도형(200)의 내부에 기준점(202)을 설정한다(단계 S102). 그런 후, 그 설정된 기준점(202)과 상기 경계선(201) 상의 모든 픽셀들(203a∼203h) 간의 거리(projection distance)(d1∼d8)를 계산한다(단계 S103). 이때 이와 같은 거리의 계산은 기준점의 좌표값과 경계선상의 모든 픽셀들에 대한 각각의 좌표값을 구함으로써 어렵지 않게 계산할 수 있다. When the extraction of the boundary line of the target is completed, the reference point 202 is set in the inside of the figure 200 having any form of the boundary line based on the extracted boundary line information of the target (step S102). Then, a projection distance d1 to d8 between the set reference point 202 and all the pixels 203a to 203h on the boundary line 201 is calculated (step S103). In this case, the distance can be easily calculated by obtaining coordinate values of the reference point and respective coordinate values of all pixels on the boundary line.

이렇게 하여 기준점(202)과 경계선상의 모든 픽셀 간의 거리(d1∼d8)가 계산되면, 그 계산된 모든 거리 정보를 이용하여, 도 3에서와 같이, DFV(Distance Feature Vector: 거리특징벡터)를 생성하고, 생성된 DFV를 다수의 구간으로 분할한 다(단계 S104). 그리고 분할된 각 구간에 대하여, 사전에 구축된 기준 모델과의 최적 정합 순서를 찾기 위한 1차 모델링을 수행한다(단계 S105).In this way, when the distances d1 to d8 between the reference point 202 and all the pixels on the boundary line are calculated, a distance feature vector (DFV) is generated as shown in FIG. 3 using all the calculated distance information. The generated DFV is divided into a plurality of sections (step S104). For each of the divided sections, first-order modeling is performed to find an optimal matching order with a previously constructed reference model (step S105).

여기서, 이와 관련하여 상기 도 3에서의 DFV 특성을 살펴보면, 표적의 경계선 특징(기울기)에 따라 부분적으로 최고값과 최저값이 존재함을 알 수 있는데, 이들 정보를 이용하여 도 4의 (A)에서와 같이 1차 모델링을 구현하게 된다. 즉, 각 구간별로 정점 간의 상대 크기와 각 정점 간의 이격 거리를 계산하여 1차 모델링을 수립한다. 도 4의 (A)는 1차 모델링을 통해 얻은 16구간의 특징벡터를 나타낸 것으로서, 이렇게 함으로써 전체 픽셀을 순환 이동시키면서 정합을 하지 않고서도 단지 16개의 특징구간 정보만을 처리해서 최적의 정합 순서(sequence)를 찾을 수 있게 되며, 이에 따라 최적의 정합을 찾는데 소요되는 시간을 대폭 단축시킬 수 있다.In this regard, referring to the DFV characteristic of FIG. 3, it can be seen that the highest value and the lowest value exist in part according to the boundary feature of the target (tilt). First modeling is implemented as follows. That is, primary modeling is established by calculating the relative size between the vertices and the separation distance between each vertex for each section. FIG. 4 (A) shows the feature vectors of 16 sections obtained through the first-order modeling. In this way, only 16 feature section information is processed without performing matching while cyclically moving the entire pixel, thereby optimizing an optimal matching sequence. ), Which can greatly reduce the time required to find the best match.

이상에 의해, 1차 모델링이 완료되면, 상기 최적 정합 순서에 대한 최종 정합 값의 계산에 필요한 정보를 생성하기 위한 2차 모델링을 수행한다(단계 S106). 이 2차 모델링 단계에서는 상기 1차 모델링 시 사용된 분할 구간마다 상기 DFV를 다항식의 급수형태로 근사화하고, 급수로 표현된 계수정보를 추출한다. 도 4의 (B)는 2차 모델링을 통해 얻은 2차 다항식 급수 예를 보여주는 것으로서, 설정된 각 구간마다 다항식 급수형태로 근사화한 계수를 정합정보로 사용한다.As described above, when the primary modeling is completed, the secondary modeling is performed to generate information necessary for calculating the final matching value for the optimum matching sequence (step S106). In this secondary modeling step, the DFV is approximated to a series of polynomials for each divided section used in the first modeling, and coefficient information expressed as a series is extracted. 4B shows an example of the second order polynomial series obtained through the second-order modeling. Coefficients approximated in the form of the polynomial series for each section are used as matching information.

이후, 상기 1차 모델링 과정에서 추출한 정보를 이용하여 1차 정합을 수행하여, 각 표적에 대한 최적 정합 순서를 탐색한다(단계 S107). 이때, 상기 1차 정합 단계에서는 상기 1차 모델링 시 추출된 구간별 정점 간의 상대 크기 및 정점 간의 이격 거리 정보를 이용하여 상기 분할된 구간만을 순환 이동시키면서 정합 값을 계 산하여 최적 정합 순서를 탐색한다. Subsequently, the first matching is performed using the information extracted in the first modeling process to search for an optimal matching order for each target (step S107). At this time, in the first matching step, the optimal matching sequence is searched by calculating a matching value while cyclically moving only the divided sections by using the relative size between the vertices of each section extracted during the first modeling and the distance between the vertices. .

도 5는 순환 이동 정합 과정을 개념적으로 보여주는 것으로서, 하나의 표적(reference model)이 1차 모델링된 구간 길이가 N이고, 정합하고자 하는 입력 표적(test model)의 구간 길이가 M일 때, 하나씩 순환이동시키면서 정합값을 계산하여 최적 정합 순서를 탐색하게 된다. FIG. 5 conceptually illustrates a cyclic shift matching process, in which one reference model has a first modeled section length of N and a section length of an input target to be matched has a cycle of M As we move, we calculate the matching values to find the optimal matching order.

이렇게 하여 최적 정합 순서의 탐색이 완료되면, 그 탐색된 최적 정합 순서에 따라 상기 2차 모델링 과정에서 추출한 정보를 이용하여 2차 정합을 수행하여 최종 정합 값을 계산한다(단계 S108). 이때, 이 2차 정합 단계에서는 상기 2차 모델링 시 추출된 다항식 급수계수와 정합하고자 하는 시험 표적의 특징벡터와의 정합 오차를 계산하고, 이를 바탕으로 최종 정합 값을 계산한다.In this way, when the search for the optimum matching sequence is completed, the second matching is performed by using the information extracted in the second modeling process according to the found optimum matching sequence to calculate the final matching value (step S108). In this second matching step, a matching error between the polynomial series coefficient extracted during the second modeling and the feature vector of the test target to be matched is calculated, and the final matching value is calculated based on the matching error.

이상에 의해 최종 정합 값이 계산되면, 그 계산된 최종 정합 값을 바탕으로 상기 인식 대상 표적을 식별해 낸다(단계 S109). When the final matching value is calculated by the above, the recognition target is identified based on the calculated final matching value (step S109).

도 6은 이상에서와 같은 본 발명의 영상 내의 표적 인식 방법에 따른 표적(도형)에 대한 인식 실험을 위한 도형 패턴의 예를 보여주는 도면이다.FIG. 6 is a diagram illustrating an example of a figure pattern for a recognition experiment for a target (figure) according to the target recognition method in the image of the present invention as described above.

도 6에서와 같이, 표적(도형)에 대한 인식 실험을 위해 6개의 표적(도형)을 준비하였다. 데이터 세트(data set) #1이 가장 기본이 되는 표적 모델이 되고, 이 중에 좌측 상단의 6각형(1번)을 인식하고자 하는 대상 표적으로 삼아 모델링을 구축하고 인식 실험을 실시하였다. 데이터 세트 #2는 상기 데이터 세트 #1의 기본 표적 모델을 임의의 각도로 회전시킨 시험표적이며, 데이터 세트 #3은 회전 및 크기가 변경된 표적에 대한 인식 실험을 위한 것이다. As in FIG. 6, six targets (figures) were prepared for recognition experiments on the targets (figures). Data set # 1 is the most basic target model, and the modeling was built and recognition experiments were conducted using the hexagonal object (number 1) in the upper left corner as the target target. Data set # 2 is a test target which rotates the basic target model of the data set # 1 at an arbitrary angle, and data set # 3 is for recognition experiments on targets whose rotation and size are changed.

도 7은 이들 인식 실험에 대한 결과를 보여주는 도면이다. 도 7의 (A)는 데이터 세트 #1에 대해 기준 모델인 6각형 표적(1번)과 각 표적들의 2차 정합까지 수행한 결과로서 -15d 이상의 정합값 차이로 6각형을 제대로 인식한 것을 알 수 있다. 또한, 임의의 각도로 회전한 경우[도 7의 (B)]도, -15dB 이상의 정합값 차이로 인식되는 것을 알 수 있고, 크기 및 회전한 경우[도 7의 (C)]에 대해서도 -15dB 이상의 정합값 차이로 인식되는 것을 알 수 있다. 7 shows the results for these recognition experiments. FIG. 7 (A) shows that the hexagonal target (No. 1), which is the reference model, and the second matching of the targets for the data set # 1 have been correctly recognized. Can be. In addition, it can be seen that the case of rotating at an arbitrary angle (Fig. 7 (B)) is also recognized as a difference in matching value of -15 dB or more. It can be seen that it is recognized as the difference of the matching values.

따라서, 이러한 실험을 통해서도 알 수 있는 바와 같이, 본 발명의 방법은 인식하고자 하는 도형(표적)에 대하여 회전 및 크기 변화에 관계없이 높은 인식률을 얻을 수 있다. Therefore, as can be seen through such experiments, the method of the present invention can obtain a high recognition rate regardless of rotation and size change with respect to the figure (target) to be recognized.

이상, 바람직한 실시예를 통하여 본 발명에 관하여 상세히 설명하였으나, 본 발명은 이에 한정되는 것은 아니며, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 다양하게 변경, 응용될 수 있음은 당업자에게 자명하다. 따라서, 본 발명의 진정한 보호 범위는 다음의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술적 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다. As mentioned above, although the present invention has been described in detail with reference to the preferred embodiment, the present invention is not limited thereto, and it will be apparent to those skilled in the art that various changes and applications can be made without departing from the technical spirit of the present invention. Therefore, the true protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the equivalent scope should be construed as being included in the scope of the present invention.

도 1은 본 발명에 따른 영상 내의 표적 인식 방법의 실행 과정을 보여주는 흐름도.1 is a flow chart showing an execution process of a method for recognizing a target in an image according to the present invention.

도 2는 본 발명의 방법에 따라 표적(도형) 내의 기준점과 도형의 경계선상의 모든 픽셀들 간의 거리를 구하는 것을 개념적으로 보여주는 도면.FIG. 2 conceptually illustrates finding the distance between a reference point in a target (shape) and all pixels on the boundary of the figure in accordance with the method of the present invention.

도 3은 본 발명의 방법에 따라 표적(도형) 내의 기준점과 경계선상의 모든 픽셀 간의 계산된 거리 정보를 이용하여 DFV를 생성한 것을 보여주는 도면.3 shows generation of a DFV using calculated distance information between a reference point in a target (shape) and all pixels on the boundary line according to the method of the present invention.

도 4는 본 발명의 방법에 따라 1차 모델링을 통해 얻은 16구간의 특징벡터와2차 모델링을 통해 얻은 2차 다항식 급수 예를 보여주는 도면.4 is a view showing a 16-section feature vector obtained through first-order modeling and a second-order polynomial series obtained through second-order modeling according to the method of the present invention.

도 5는 본 발명의 방법에 있어서의 순환 이동 정합 과정을 개념적으로 보여주는 도면.5 conceptually illustrates a cyclic movement matching process in the method of the present invention.

도 6은 본 발명의 방법에 따른 표적(도형)에 대한 인식 실험을 위한 도형 패턴의 예를 보여주는 도면.6 shows an example of a figure pattern for a recognition experiment on a target (figure) according to the method of the present invention.

도 7은 도 6의 표적(도형)에 대한 인식 실험에 대한 결과를 보여주는 도면.FIG. 7 shows the results of a recognition experiment on the target (figure) of FIG. 6. FIG.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

200...인식대상 표적(도형) 201...경계선200 ... Recognized target (figure) 201 ... Borderline

202...기준점 203a∼203h...픽셀202 Reference points 203a to 203h ... pixels

d1∼d8...기준점과 픽셀 간의 거리 d1 to d8 ... distance between reference point and pixel

Claims (5)

임의의 영상 내의 인식 대상 표적의 경계선을 추출하는 단계;Extracting a boundary of a target to be recognized in an image; 상기 추출된 표적의 경계선 정보를 바탕으로 경계선으로 이루어지는 임의의 형태의 도형의 내부에 기준점을 설정하는 단계;Setting a reference point in an arbitrary shape of a figure formed of a boundary line based on the extracted boundary line information of the target; 상기 설정된 기준점과 상기 경계선상의 모든 픽셀들 간의 거리를 계산하는 단계; Calculating a distance between the set reference point and all pixels on the boundary line; 상기 계산된 모든 거리 정보를 이용하여 DFV(Distance Feature Vector:거리특징벡터)를 생성하고, 생성된 DFV를 다수의 구간으로 분할하는 단계;Generating a distance feature vector (DFV) using all the calculated distance information and dividing the generated DFV into a plurality of sections; 상기 분할된 각 구간에 대하여, 사전에 구축된 기준 모델과의 최적 정합 순서를 찾기 위한 1차 모델링을 수행하는 단계;Performing first-order modeling on each of the divided sections to find an optimal matching order with a previously constructed reference model; 상기 최적 정합 순서에 대한 최종 정합 값의 계산에 필요한 정보를 생성하기 위한 2차 모델링을 수행하는 단계;Performing secondary modeling to generate information necessary for calculating a final match value for the optimal match order; 상기 1차 모델링 과정에서 추출한 정보를 이용하여 1차 정합을 수행하여, 각 표적에 대한 최적 정합 순서를 탐색하는 단계; Searching for an optimal matching order for each target by performing a first matching using the information extracted in the first modeling process; 상기 탐색된 최적 정합 순서에 따라 상기 2차 모델링 과정에서 추출한 정보를 이용하여 2차 정합을 수행하여 최종 정합 값을 계산하는 단계; 및Calculating a final match value by performing a second match using information extracted in the second modeling process according to the found optimal matching order; And 상기 계산된 최종 정합 값을 바탕으로 상기 인식 대상 표적을 식별해 내는 단계를 포함하는 것을 특징으로 하는 영상 내의 표적 인식 방법.And identifying the target to be recognized based on the calculated final matched value. 제1항에 있어서, The method of claim 1, 상기 1차 모델링 단계에서 상기 분할된 각 구간별로 정점(peak point)들의 상대 크기 및 정점 간의 이격 거리에 대한 정보를 추출하는 것을 특징으로 하는 영상 내의 표적 인식 방법.In the first modeling step, the target recognition method in the image, characterized in that for extracting the information about the relative size of the peak (peak points) and the separation distance between the vertex for each divided section. 제1항에 있어서,The method of claim 1, 상기 2차 모델링 단계에서 상기 1차 모델링 시 사용된 분할 구간마다 상기 DFV를 다항식의 급수형태로 근사화하고, 급수로 표현된 계수정보를 추출하는 것을 특징으로 하는 영상 내의 표적 인식 방법. And approximating the DFV to a series of polynomials for each division section used in the first modeling in the second modeling step, and extracting coefficient information expressed in a series. 제1항에 있어서,The method of claim 1, 상기 1차 정합 단계에서 상기 1차 모델링 시 추출된 구간별 정점 간의 상대 크기 및 정점 간의 이격 거리 정보를 이용하여 상기 분할된 구간만을 순환 이동시키면서 정합 값을 계산하여 최적 정합 순서를 탐색하는 것을 특징으로 하는 영상 내의 표적 인식 방법. In the first matching step, the optimum matching sequence is searched by calculating a matching value while cyclically moving only the divided section by using the relative size between the vertices of the sections extracted during the first modeling and the distance information between the vertices. Target recognition method in the image. 제1항에 있어서,The method of claim 1, 상기 2차 정합 단계에서 상기 2차 모델링 시 추출된 다항식 급수계수와 정합하고자 하는 시험 표적의 특징벡터와의 정합 오차를 계산하고, 이를 바탕으로 최종 정합 값을 계산하는 것을 특징으로 하는 영상 내의 표적 인식 방법.In the second matching step, a target error in the image is calculated by calculating a matching error between a polynomial series coefficient extracted during the second modeling and a feature vector of a test target to be matched, and calculating a final matching value based on the matching error. Way.
KR1020080008352A 2008-01-28 2008-01-28 Target recognition method in the image KR100933483B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080008352A KR100933483B1 (en) 2008-01-28 2008-01-28 Target recognition method in the image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080008352A KR100933483B1 (en) 2008-01-28 2008-01-28 Target recognition method in the image

Publications (2)

Publication Number Publication Date
KR20090082546A true KR20090082546A (en) 2009-07-31
KR100933483B1 KR100933483B1 (en) 2009-12-23

Family

ID=41293829

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080008352A KR100933483B1 (en) 2008-01-28 2008-01-28 Target recognition method in the image

Country Status (1)

Country Link
KR (1) KR100933483B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105335985A (en) * 2014-08-01 2016-02-17 深圳中集天达空港设备有限公司 Real-time capture method and system of docking airplane on the basis of machine vision
CN105373135A (en) * 2014-08-01 2016-03-02 深圳中集天达空港设备有限公司 Method and system for guiding airplane docking and identifying airplane type based on machine vision
WO2019151555A1 (en) * 2018-01-30 2019-08-08 한화테크윈주식회사 Object detection method and robot system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3594747B2 (en) 1996-08-22 2004-12-02 豊田工機株式会社 Object recognition method and apparatus
JPH10222680A (en) 1997-02-03 1998-08-21 Matsushita Electric Ind Co Ltd Method for recognizing position
JP2007263899A (en) * 2006-03-30 2007-10-11 Toppan Printing Co Ltd Device for measuring pattern shape, and pattern shape measuring method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105335985A (en) * 2014-08-01 2016-02-17 深圳中集天达空港设备有限公司 Real-time capture method and system of docking airplane on the basis of machine vision
CN105373135A (en) * 2014-08-01 2016-03-02 深圳中集天达空港设备有限公司 Method and system for guiding airplane docking and identifying airplane type based on machine vision
CN105373135B (en) * 2014-08-01 2019-01-01 深圳中集天达空港设备有限公司 A kind of method and system of aircraft docking guidance and plane type recognition based on machine vision
US10290219B2 (en) 2014-08-01 2019-05-14 Shenzhen Cimc-Tianda Airport Support Ltd. Machine vision-based method and system for aircraft docking guidance and aircraft type identification
WO2019151555A1 (en) * 2018-01-30 2019-08-08 한화테크윈주식회사 Object detection method and robot system

Also Published As

Publication number Publication date
KR100933483B1 (en) 2009-12-23

Similar Documents

Publication Publication Date Title
Aldoma et al. Multimodal cue integration through hypotheses verification for rgb-d object recognition and 6dof pose estimation
US9524578B2 (en) Projection system, semiconductor integrated circuit, and image correction method
US20140072217A1 (en) Template matching with histogram of gradient orientations
CN105354815B (en) It is a kind of that localization method is accurately identified based on flat-type micro part
JP2011008507A (en) Image retrieval method and system
CN109241901A (en) A kind of detection and recognition methods to the three-dimensional point cloud with hole
Itkarkar et al. A survey of 2D and 3D imaging used in hand gesture recognition for human-computer interaction (HCI)
WO2020209046A1 (en) Object detection device
CN110544202A (en) parallax image splicing method and system based on template matching and feature clustering
Enjarini et al. Planar segmentation from depth images using gradient of depth feature
US20150104105A1 (en) Computing device and method for jointing point clouds
KR100933483B1 (en) Target recognition method in the image
WO2013024665A1 (en) Characteristic point coordination system, characteristic point coordination method, and recording medium
CN102509072A (en) Method for detecting salient object in image based on inter-area difference
US7142718B2 (en) Fast pattern searching
KR20050063991A (en) Image matching method and apparatus using image pyramid
US9792675B1 (en) Object recognition using morphologically-processed images
JP6393495B2 (en) Image processing apparatus and object recognition method
CN112815936A (en) Rapid all-sky-domain star map identification method and system for noise robustness
CN105718929B (en) The quick round object localization method of high-precision and system under round-the-clock circumstances not known
JP2015045919A (en) Image recognition method and robot
JP2015007919A (en) Program, apparatus, and method of realizing high accuracy geometric inspection for images different in point of view
JP5217917B2 (en) Object detection and tracking device, object detection and tracking method, and object detection and tracking program
JP2010191767A (en) Device and method for recognizing character
Koutaki et al. Fast and high accuracy pattern matching using multi-stage refining eigen template

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121102

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20131203

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20141202

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20151202

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20161202

Year of fee payment: 8

LAPS Lapse due to unpaid annual fee