KR100533209B1 - Method for detecting image - Google Patents

Method for detecting image Download PDF

Info

Publication number
KR100533209B1
KR100533209B1 KR10-2003-0034220A KR20030034220A KR100533209B1 KR 100533209 B1 KR100533209 B1 KR 100533209B1 KR 20030034220 A KR20030034220 A KR 20030034220A KR 100533209 B1 KR100533209 B1 KR 100533209B1
Authority
KR
South Korea
Prior art keywords
vector data
target
image
point
representative point
Prior art date
Application number
KR10-2003-0034220A
Other languages
Korean (ko)
Other versions
KR20040102672A (en
Inventor
최동혁
Original Assignee
최동혁
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 최동혁 filed Critical 최동혁
Priority to KR10-2003-0034220A priority Critical patent/KR100533209B1/en
Publication of KR20040102672A publication Critical patent/KR20040102672A/en
Application granted granted Critical
Publication of KR100533209B1 publication Critical patent/KR100533209B1/en

Links

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01HELECTRIC SWITCHES; RELAYS; SELECTORS; EMERGENCY PROTECTIVE DEVICES
    • H01H85/00Protective devices in which the current flows through a part of fusible material and this current is interrupted by displacement of the fusible material when this current becomes excessive
    • H01H85/02Details
    • H01H85/0208Tools for inserting and removing fuses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01HELECTRIC SWITCHES; RELAYS; SELECTORS; EMERGENCY PROTECTIVE DEVICES
    • H01H85/00Protective devices in which the current flows through a part of fusible material and this current is interrupted by displacement of the fusible material when this current becomes excessive
    • H01H85/02Details
    • H01H85/04Fuses, i.e. expendable parts of the protective device, e.g. cartridges
    • H01H85/041Fuses, i.e. expendable parts of the protective device, e.g. cartridges characterised by the type
    • H01H85/042General constructions or structure of high voltage fuses, i.e. above 1000 V
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01HELECTRIC SWITCHES; RELAYS; SELECTORS; EMERGENCY PROTECTIVE DEVICES
    • H01H85/00Protective devices in which the current flows through a part of fusible material and this current is interrupted by displacement of the fusible material when this current becomes excessive
    • H01H85/02Details
    • H01H85/22Intermediate or auxiliary parts for carrying, holding, or retaining fuse, co-operating with base or fixed holder, and removable therefrom for renewing the fuse

Landscapes

  • Image Analysis (AREA)

Abstract

영상검출방법에 대해 개시한다. 본 발명은, 영상 내에서 검출하고자 하는 대상 주변을 포함한 기준영역을 설정하고, 기준영역 내에서 물체의 골격을 정한 후, 골격에 대해 그룹화하여 대표점을 추출(설정)한 다음, 상기 대표점에 대한 위치정보데이터와, 방향 및 레벨별 영상을 추출에 따른 기준벡터데이터를 산출하여 저장하고, 검출대상 영상에 상기 기준영역과 같은 영역을 스캔하면서, 상기 스캔된 대상영역에 대해 기준벡터데이터의 대표점 위치정보데이터를 사용하여 같은 위치에 있는 대상점에 대해 대상벡터데이터를 산출하여 기 산출된 기준벡터데이터와의 유사도에 따라 물체의 검출을 판별하는 것을 특징으로 한다. An image detection method is disclosed. According to an embodiment of the present invention, a reference region including a target surrounding to be detected in an image is set, a skeleton of an object is defined in the reference region, and then grouped with respect to the skeleton to extract (set) a representative point, and then to the representative point. The position information data and the reference vector data according to the extracted direction and level images are calculated and stored, and the same region as the reference region is scanned in the detection target image, and the representative vector data of the scanned target region is represented. The object vector data may be calculated for the target point at the same position using the point position information data, and the object detection may be determined according to the similarity with the calculated reference vector data.

본 발명에 따르면, 골격에 의한 물체구조의 특징과 피라미드영상에 대한 그레이 레벨특징을 모두 사용하여 물체를 검출하여 영상감시와 같은 응용에 적용할 수 있는 장점이 있다. According to the present invention, there is an advantage that can be applied to applications such as video surveillance by detecting an object using both the characteristics of the object structure by the skeleton and the gray level feature for the pyramid image.

Description

영상검출방법{Method for detecting image} Method for detecting image

본 발명은 영상검출에 관한 것으로, 특히 영상으로부터 골격추출에 이은 대표점 추출과 함께, 상기 대표점에 대한 단계별 축소영상 및 방향별 에지영상을 이용하여 기 설정된 유사도에 따라 물체를 판별하는 영상검출방법에 관한 것이다. The present invention relates to image detection. In particular, an image detection method for discriminating an object according to a predetermined similarity by using a stepped down image and a direction-specific edge image for the representative point together with extracting a representative point followed by skeletal extraction from the image It is about.

기존 방법은 크게 두 가지로 대별되는데 첫 번째 방법이 골격을 구한 후 이 골격 자체를 그대로 특징으로 사용하여 물체를 검출하는 것이다. 또 다른 방법은 사각형 전체를 대상으로 피라미드 특징을 추출하거나 웨이브릿(wavelet) 특징을 사용하여 검출하는 것이다. Conventional methods are largely classified into two types. The first method is to obtain a skeleton and use the skeleton itself as a feature to detect an object. Another method is to extract pyramid features across the rectangle or to detect them using wavelet features.

기존 방법에서 골격을 구한 후 골격 자체를 특징으로 사용하는 경우 물체의 그레이 레벨 특성을 사용할 수 없다는 단점이 있다. 이는 물체의 구조 특징은 잘 반영하나 영상 감시와 같은 응용에서는 문제가 된다.   In case of using the skeleton itself as a feature after obtaining the skeleton in the conventional method, there is a disadvantage that the gray level characteristic of the object cannot be used. This reflects the structural features of the object well but is problematic for applications such as video surveillance.

또 다른 방법인 사각형 전체를 대상으로 피라미드나 웨이브릿 특징을 사용하는 경우 영상의 그레이 레벨 특징을 사용할 수는 있으나 물체의 구조 특징을 사용할 수 없는 단점이 있다. Another method is to use the pyramid or wavelet feature for the entire rectangle, but the gray level feature of the image can be used, but there is a disadvantage that the structural feature of the object cannot be used.

따라서, 본 발명은 상기와 같은 종래 기술을 감안하여 이루어진 것으로, 영상 내에서 검출하고자 하는 대상 주변을 포함한 기준영역을 설정하고, 검출대상의 골격을 구한 후, 골격에 대해 그룹화하여 대표점을 추출한 다음, 상기 대표점에 대한 위치데이터와 방향 및 레벨별 영상을 추출에 따른 기준벡터데이터를 산출하고, 검출하고자 하는 대상 물체를 스캔하여 물체 주변에 상기 기준영역과 동일한 영역을 취하고, 영역 내에서 상기 기준벡터데이터의 대표점 위치정보데이터를 사용하여 같은 위치에 있는 대상점에 대해 대상벡터데이터를 산출하고, 이 대상벡터데이터와 상기 기준벡터데이터와의 유사도를 구하여 기 설정된 임계값에 따라 물체임을 판별하는 영상검출방법을 제공하는 것을 목적으로 한다. Accordingly, the present invention has been made in view of the prior art as described above. After setting the reference region including the object surroundings to be detected in the image, obtaining a skeleton of the object to be detected, grouping the skeletons and extracting representative points, Computing the reference vector data according to the extraction of the position data and the direction and level image for the representative point, scanning the target object to be detected to take the same region as the reference region around the object, the reference within the region The target vector data is calculated for the target point at the same position using the position information data of the representative point of the vector data, and the similarity between the target vector data and the reference vector data is obtained to determine the object according to a preset threshold. An object of the present invention is to provide a video detection method.

상기한 본 발명의 목적을 달성하기 위한 영상검출방법은, 영상 내에서 검출하고자 하는 대상 주변을 포함한 기준영역을 설정하고, 검출대상의 골격을 구한 후, 골격에 대해 그룹화하여 대표점을 추출(설정)한 다음, 대표점에 대한 위치정보데이터를 산출하는 동시에 상기 대표점에 대해 마스크에 의한 방향별 영상 및 축소에 의한 레벨별 영상을 추출하여 기준벡터데이터를 산출하여 저장하는 검출대상 학습단계(또는 특징추출단계)를 구비하여 이루어지고, 검출대상 영상에 상기 기준영역과 같은 크기의 대상영역을 설정하여 스캔하는 스캔단계 및, 상기 스캔된 대상영역에 대해 상기 기준벡터데이터의 대표점 위치정보데이터를 사용하여 같은 위치에 있는 점에 대해 마스크에 의한 방향별 영상 및 축소에 의한 레벨별 영상을 추출하여 대상벡터데이터를 산출하여 기 산출된 기준벡터데이터와의 유사도에 따라 검출 영상을 판별하는 대상검출단계를 포함하여 이루어진 것을 특징으로 하며, In the above-described image detection method for achieving the object of the present invention, the reference region including the object surrounding to be detected in the image is set, the skeleton of the object to be detected is obtained, and the representative points are extracted (set by grouping the skeleton). Next, the target object learning step of calculating position information data for the representative point and extracting the image for each direction by the mask and the level-specific image by the reduction for the representative point and calculating and storing the reference vector data (or A feature extraction step; and scanning a target area having the same size as that of the reference area in the detection target image and scanning the representative point position information data of the reference vector data with respect to the scanned target area. Target vector data by extracting image by direction by mask and level by image by reduction for points at the same location And a target detection step of determining a detected image according to similarity with the calculated reference vector data by calculating

상기 기준벡터데이터 및 대상벡터데이터는 마스크에 의해 가로, 세로, 대각선의 방향별 에지로 만들어진 영상에 대한 방향별 벡터데이터 및 선택적 축소에 따른 축소레벨별 벡터데이터이며, The reference vector data and the target vector data are directional vector data for an image made of edges of lateral, vertical, and diagonal directions by a mask, and vector data for reduction levels according to selective reduction.

상기 축소레벨별 벡터데이터는 해당 영역에 대해 2번 축소하여 3레벨 피라미드영상을 도출하되, 축소 시 4개의 이웃점에 대해 평균값을 1개점으로 대치된 영상에 대한 벡터데이터인 것을 특징으로 할 뿐만 아니라, The vector data for each reduction level is reduced two times for a corresponding area to derive a three-level pyramid image, wherein the reduction is not only a vector data for an image in which an average value is replaced by one point for four neighboring points. ,

상기 유사도를 각 대표점의 기준벡터데이터와 대상벡터데이터에 대한 유클리드 거리(Euclid Distance)로 산출하는 것이 바람직하겠다. 즉, (reuclidean = 유클리드거리, X=기준백터데이터, Y = 대상벡터데이터)의 식을 이용한다.It is preferable to calculate the similarity as an Euclidean distance with respect to the reference vector data and the target vector data of each representative point. In other words, (r euclidean = Euclidean distance, X = reference vector data, Y = target vector data).

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 대해 설명한다. 한편, 이하의 설명에 있어서, 용어 '물체'는 영상 내의 물체를 의미한다. Hereinafter, with reference to the accompanying drawings will be described a preferred embodiment of the present invention. In the following description, the term 'object' means an object in an image.

도 1은 본 발명의 영상검출방법을 나타낸 블록도로서, 검출대상 학습단계(S100)와 스캔단계(S200) 및 대상검출단계(S300)로 구분된다. 1 is a block diagram illustrating an image detection method of the present invention, which is divided into a detection target learning step S100, a scan step S200, and a target detection step S300.

상기 검출대상 학습단계(S100)는, 영상 내에서 검출하고자 하는 대상 주변을 포함한 기준영역을 설정하고, 기준영역에서 물체의 골격을 구한 후, 골격에 대해 그룹화하여 대표점을 추출한 다음, 상기 대표점에 대해 위치정보데이터와 마스크에 의한 방향별 영상 및 축소에 의한 레벨별 영상을 추출하여 기준벡터데이터를 산출하여 저장한다. In the detection target learning step (S100), a reference region including a target surrounding to be detected in the image is set, a skeleton of an object is obtained from the reference region, and then the representative points are extracted by grouping the skeletons. The reference vector data is calculated and stored by extracting the location information data, the direction-specific image by the mask, and the level-specific image by the reduction.

상기 스캔단계(S200)는 검출대상의 영상에 상기 기준영역과 같은 영역을 설정하여 스캔하면서 대상영역을 취한다. The scanning step (S200) takes a target area while scanning by setting the same area as the reference area in the image of the detection target.

상기 대상검출단계(S300)는 상기 스캔된 대상영역에 대해 기준벡터데이터의 대표점 위치정보데이터를 사용하여 같은 위치에 있는 대상점에 대해 마스크에 의한 방향별 영상 및 축소에 의한 레벨별 영상을 추출하여 대상벡터데이터를 산출하여 기 산출된 기준벡터데이터와의 유사도에 따라 영상의 검출을 판별한다. The object detecting step (S300) extracts an image for each direction by a mask and a level-specific image by reduction for a target point at the same position using the representative point position information data of reference vector data for the scanned target area. The target vector data is calculated to determine the detection of the image according to the similarity with the previously calculated reference vector data.

도 2는 본 발명의 실시예에 따른 검출대상 학습단계(S100)를 구체적으로 나타낸 흐름도로서, 2 is a flowchart specifically showing a detection target learning step S100 according to an embodiment of the present invention.

먼저, 도 3에서 보는바와 같이 임의의 영상을 선택하고(S101), 상기 선택된 영상에서 검출하고자 하는 물체주변에 사각형을 취하여 기준영역을 설정한다(S103). 본 실시예에서는 도 3에서 보인 3개의 사각형 중 중간에 있는 사각형을 선택하였다. First, an arbitrary image is selected as shown in FIG. 3 (S101), and a reference area is set by taking a rectangle around an object to be detected in the selected image (S103). In the present embodiment, a rectangle in the middle of the three rectangles shown in FIG. 3 is selected.

상기 설정된 기준영역 내에서 도 4a에서 보인 바와 같이 대상 물체에 해당하는 골격을 추출한다(S105).A skeleton corresponding to the target object is extracted as shown in FIG. 4A within the set reference region (S105).

상기 추출된 골격에 대해 그룹화하여(S107), 도 4b에서 보는바와 같이 대표점을 추출한다(S109). By grouping the extracted skeleton (S107), as shown in Figure 4b to extract the representative point (S109).

상기 대표점에 대한 위치정보데이터를 산출하여 저장한다(S110). The location information data for the representative point is calculated and stored (S110).

그리고, 상기 대표점에 대해서 방향별로 마스크를 적용한 에지영상을 추출하게 되는데(S111), 도 5a 내지 도 5d에서 보는바와 같이 수평방향에지와 수직방향에지 및 두 가지의 대각선방향 에지영상를 각각 검출한다. Then, an edge image obtained by applying a mask to each representative point is extracted (S111). As shown in FIGS. 5A to 5D, horizontal edges, vertical edges, and two diagonal edge images are detected.

또한, 상기 대표점에 대해서 해당 영역에 대해 도 6a 내지 도 6c에서 보인바와 같이 최초영상(도 6a)과 최초영상을 2번 축소하여 1/2 축소된 영상(도 6b)과, 1/4 축소된 영상(도 6c)의 3레벨 피라미드영상을 도출하되, 축소 시 4개의 이웃점에 대해 평균값을 1개점으로 대치된 영상을 구한다(S113). 본 도면은 일부의 대표점에 대한 도면을 나타내고 있다. In addition, as shown in FIGS. 6A to 6C with respect to the representative point, the first image (FIG. 6A) and the first image are reduced twice, and the image is reduced by 1/2 (FIG. 6B) and 1/4 is reduced. A three-level pyramid image of the extracted image (FIG. 6C) is derived, and an image obtained by substituting an average value of one neighbor point for four neighboring points during reduction is obtained (S113). This figure shows the figure of some representative point.

상기 방향별, 축소별 영상으로부터 상기 4가지의 방향별 에지영상과 3가지의 축소레벨영상으로부터 12개의 값을 가지는 벡터를 대표점별로 산출하여(S115) 각 대표점에 대한 12개의 벡터데이터(기준벡터데이터)를 산출하여 저장한다. 12 vector data for each representative point are calculated by calculating a vector having 12 values from each of the four direction-wise edge images and three reduction level images for each representative point from the direction-specific and reduction-specific images (S115). Vector data) is calculated and stored.

도 7은 본 발명의 실시예에 따른 비교 대상영상에 대해 스캔을 보여주는 도면으로서, 대상영상에서 상기 기준영역과 같은 영역의 대상영역을 설정하여 모든 점들에 대해 스캔하면서 사각형을 얻는다. FIG. 7 is a diagram illustrating a scan of a comparison target image according to an exemplary embodiment of the present invention, and sets a target region in the same region as the reference region in the target image to obtain a rectangle while scanning all points.

도 8은 본 발명의 실시예에 따른 대상검출단계(S300)를 나타낸 도면으로서, 도 7에서 1회 스캔할 때마다 처리되는 과정을 나타낸다. 대상검출단계(S300)는 물체검출 대상이 되는 영상을 선택하고(S301), 상기 기준영역과 동일한 영역인 대상영역을 설정하고(S303), 도 2에서 산출한 대표점에 대한 위치정보데이터를 로딩하여(S305), 상기 위치정보에 따른 대표점에 해당되는 대상점을 선택(S107)한 다음, 상기 대상점에 대해 마스크에 의한 방향별 에지영상을 추출하고(S309), 또한 상기 대상점에 대해 축소에 따른 레벨별 영상을 추출한(S311) 다음, 상기 방향별, 레벨별 영상에 의한 대상벡터데이터를 산출하게 된다(S313). 그리고, 도 2에서 산출한 기준벡터데이터를 로딩한 다음(S315), 상기 기준벡터데이터와 대상벡터데이터를 비교하게 되는데, 이때 기준벡터데이터와 대상벡터데이터와의 유사도를 산출한다. FIG. 8 is a diagram illustrating a target detection step S300 according to an exemplary embodiment of the present invention, and illustrates a process performed every scan in FIG. 7. In the object detecting step (S300), an image to be detected is selected (S301), a target area that is the same area as the reference area is set (S303), and the position information data for the representative point calculated in FIG. 2 is loaded. (S305), select a target point corresponding to the representative point according to the position information (S107), and then extract an edge image for each direction by a mask with respect to the target point (S309), and also for the target point. After extracting the image for each level according to the reduction (S311), the target vector data based on the image for each direction and level is calculated (S313). Then, after loading the reference vector data calculated in FIG. 2 (S315), the reference vector data and the target vector data are compared, and the similarity between the reference vector data and the target vector data is calculated.

상기 유사도는 각 대표점에 대한 유클리드 거리(Euclid Distance)로 산출한 데이터를 기준으로 비교함이 바람직하겠다. The similarity may be compared based on data calculated as Euclidean distance for each representative point.

이때 대상벡터데이터에 대해 검출유사도가 기 설정된 임계값과 비교하여(S317), 산출된 유사도가 임계값보다 클 경우에는 대상 물체로 판별하거나(S319), 임계값보다 작을 경우에는 배경으로 판별한다(S321). In this case, the detection similarity of the target vector data is compared with a preset threshold value (S317). If the calculated similarity is greater than the threshold value, the object is determined as a target object (S319). S321).

이후에는 스캔이 완료되었는지의 판별에 따라(S323), 다음 점으로 스캔하여, 상기 영역설정단계(S303)를 반복적으로 진행하게 된다. Thereafter, according to the determination of whether the scan is completed (S323), the scan is performed to the next point, and the area setting step (S303) is repeatedly performed.

본 발명은 상술한 실시예에 한정되지 않으며, 본 발명의 기술적 사상 내에서 당 분야의 통상의 지식을 가진 자에 의하여 많은 변형이 가능함은 명백할 것이다. The present invention is not limited to the above-described embodiments, and it will be apparent that many modifications are possible by those skilled in the art within the technical spirit of the present invention.

상술한 바와 같이, 본 발명에 따른 영상검출방법은, 골격에 의한 물체구조의 특징과 피라미드영상에 대한 그레이 레벨특징을 모두 사용하여 물체를 검출하여 영상감시와 같은 응용에 적용할 수 있는 장점이 있다. As described above, the image detection method according to the present invention has the advantage of being applicable to an application such as video surveillance by detecting an object using both the characteristics of the object structure by the skeleton and the gray level features of the pyramid image. .

도 1은 본 발명의 영상검출방법을 나타낸 블록도. 1 is a block diagram showing an image detection method of the present invention.

도 2는 본 발명의 실시예에 따른 검출대상 학습단계(또는 특징추출단계)를 나타낸 흐름도. 2 is a flowchart illustrating a detection target learning step (or feature extraction step) according to an embodiment of the present invention.

도 3은 본 발명의 실시예에 따라 영상에서 소정의 영역을 선택한 것을 나타낸 도면. 3 is a diagram illustrating a predetermined region selected from an image according to an embodiment of the present invention.

도 4a 내지 도 4b는 본 발명의 실시예에 따른 골격 및 대표점을 추출한 것을 나타낸 도면. Figures 4a to 4b is a view showing the extraction of the skeleton and representative point according to an embodiment of the present invention.

도 5a 내지 도 5d는 본 발명의 실시예에 따른 에지영상을 추출하기 위한 마스크를 나타낸 도면. 5A to 5D illustrate masks for extracting an edge image according to an exemplary embodiment of the present invention.

도 6a 내지 도 6c는 본 발명의 실시예에 따른 일부 영역에 대한 피라미드 특징을 추출한 것을 나타낸 도면. 6A to 6C illustrate extraction of pyramid features for some regions in accordance with an embodiment of the present invention.

도 7은 본 발명의 실시예에 따른 대상영상에 대해 스캔을 보여주는 도면. 7 is a diagram illustrating a scan of a target image according to an embodiment of the present invention.

도 8은 본 발명의 실시예에 따른 대상검출단계를 나타낸 도면. 8 is a view showing a target detection step according to an embodiment of the present invention.

* 도면의 주요 부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings

S100 : 검출대상 학습단계 S100: detection target learning step

S200 : 스캔단계 S200: Scanning Step

S300 : 대상검출단계S300: target detection step

Claims (4)

영상 내에서 검출하고자 하는 대상을 포함한 그 주변의 영역을 기준영역으로 설정하고, 기준영역 내에서 물체의 골격을 정한 후, 상기 골격에서 부분별로 대표점을 추출(설정)한 다음, 상기 대표점에 대해 위치정보데이터를 산출하고, 상기 대표점에 대해 마스크에 의한 방향별 영상 및 축소에 의한 레벨별 영상을 추출하여 기준벡터데이터를 산출하고, 상기 위치정보와 기준벡터데이터를 저장하는 검출대상 학습단계(S100); Set the surrounding area including the object to be detected in the image as the reference area, define the skeleton of the object in the reference area, extract (set) the representative point for each part of the skeleton, and then A target object learning step of calculating position information data, calculating reference vector data by extracting a direction-specific image by a mask and a level-specific image by reduction, and storing the positional information and the reference vector data with respect to the representative point. (S100); 상기 기준벡터데이터와 비교하기 위한 대상벡터데이터를 산출하기 위해 상기 기준영역의 크기로 검출 대상 영상을 스캔하는 스캔단계(S200); 및 A scanning step (S200) of scanning a detection target image with a size of the reference region to calculate target vector data for comparison with the reference vector data; And 상기 스캔에 따른 선택된 영역에 대해, 상기 기준벡터데이터의 대표점 위치정보데이터를 이용하여 같은 위치에 있는 대상점을 선택하고, 이 대상점에 대해 마스크에 의한 방향별 영상 및 축소에 의한 레벨별 영상을 추출하여 대상벡터데이터를 산출하고, 상기 대상벡터데이터와 기준벡터데이터와의 유사도에 따라 대상 물체임을 판별할 때까지 진행하는 대상검출단계(S300)를 포함하여 이루어지고; For the selected area according to the scan, a target point located at the same position is selected by using the representative point position information data of the reference vector data, and the image for each target point by direction and the level by shrinking the target point A target detection step (S300) for extracting the target vector data, calculating the target vector data, and proceeding to determine the target object according to the similarity between the target vector data and the reference vector data; 상기 기준벡터데이터 및 대상벡터데이터는, 마스크에 의해 가로(0도), 세로(90도), 대각선(45도, 135도)의 방향에 의한 에지영상을 추출하여 산출한 방향별 벡터데이터 및 2번의 축소에 따른 축소레벨별 벡터데이터를 포함하며; 상기 축소레벨별 벡터데이터는 축소 시 4개의 이웃점에 대해 평균값을 1개점으로 대치된 영상벡터데이터이고;The reference vector data and the target vector data include direction-specific vector data calculated by extracting an edge image in a horizontal (0 degree), vertical (90 degree), diagonal (45 degree, 135 degree) direction by a mask and 2 Vector data for each reduction level according to the reduction of the number of times; The vector data for each reduction level is image vector data in which an average value is replaced with one point for four neighboring points during reduction; 상기 유사도는, 각 대표점에 대해 (reuclidean = 유클리드거리, X=기준백터데이터, Y = 대상벡터데이터)의 식을 이용한 유클리드 거리(Euclidean Distance)로 산출한 것을 특징으로 하는 영상검출방법.The similarity degree is about each representative point (r euclidean = Euclidean distance, X = reference vector data, Y = object vector data). 삭제delete 삭제delete 삭제delete
KR10-2003-0034220A 2003-05-29 2003-05-29 Method for detecting image KR100533209B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2003-0034220A KR100533209B1 (en) 2003-05-29 2003-05-29 Method for detecting image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2003-0034220A KR100533209B1 (en) 2003-05-29 2003-05-29 Method for detecting image

Publications (2)

Publication Number Publication Date
KR20040102672A KR20040102672A (en) 2004-12-08
KR100533209B1 true KR100533209B1 (en) 2005-12-05

Family

ID=37378895

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2003-0034220A KR100533209B1 (en) 2003-05-29 2003-05-29 Method for detecting image

Country Status (1)

Country Link
KR (1) KR100533209B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050045291A (en) * 2003-11-11 2005-05-17 김대희 Data processing of text by selective scanning and color comparison
KR101018299B1 (en) * 2009-04-28 2011-03-04 한국과학기술원 Apparatus and method for detecting a plurality of objects in an image

Also Published As

Publication number Publication date
KR20040102672A (en) 2004-12-08

Similar Documents

Publication Publication Date Title
US9239946B2 (en) Method and apparatus for detecting and processing specific pattern from image
EP0977151B1 (en) Image processing apparatus, image processing method, and storage medium
US7738734B2 (en) Image processing method
JP3636927B2 (en) Face image processing device
US10679358B2 (en) Learning image automatic sorting device, learning image automatic sorting method, and learning image automatic sorting program
EP2782065B1 (en) Image-processing device removing encircling lines for identifying sub-regions of image
JP3193240B2 (en) Image processing device
US5050229A (en) Method and apparatus for thinning alphanumeric characters for optical character recognition
JP2004220555A (en) System, method and program for extracting object region from image, and recording medium stored with the program
JP2007025902A (en) Image processor and image processing method
WO2005041128A1 (en) Face image candidate area search method, face image candidate area search system, and face image candidate area search program
JP2006323779A (en) Image processing method and device
JP2016053763A (en) Image processor, image processing method and program
JP6661082B2 (en) Image recognition device and image recognition program
KR100533209B1 (en) Method for detecting image
JP4379706B2 (en) Region extraction method
JP2007156741A (en) Character extraction method, character extraction device, and program
JP3319408B2 (en) Facial feature extraction device
JPH08190690A (en) Method for determining number plate
JP2868134B2 (en) Image processing method and apparatus
JP3417635B2 (en) Intruding object recognition method
CN113255649A (en) Image segmentation and framing method based on image recognition and terminal
JPH09128548A (en) Vehicle detecting method
JP4409713B2 (en) Document image recognition apparatus and recording medium
JPH04255080A (en) Image input device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20090929

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee