KR100533209B1 - Method for detecting image - Google Patents
Method for detecting image Download PDFInfo
- Publication number
- KR100533209B1 KR100533209B1 KR10-2003-0034220A KR20030034220A KR100533209B1 KR 100533209 B1 KR100533209 B1 KR 100533209B1 KR 20030034220 A KR20030034220 A KR 20030034220A KR 100533209 B1 KR100533209 B1 KR 100533209B1
- Authority
- KR
- South Korea
- Prior art keywords
- vector data
- target
- image
- point
- representative point
- Prior art date
Links
Classifications
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01H—ELECTRIC SWITCHES; RELAYS; SELECTORS; EMERGENCY PROTECTIVE DEVICES
- H01H85/00—Protective devices in which the current flows through a part of fusible material and this current is interrupted by displacement of the fusible material when this current becomes excessive
- H01H85/02—Details
- H01H85/0208—Tools for inserting and removing fuses
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01H—ELECTRIC SWITCHES; RELAYS; SELECTORS; EMERGENCY PROTECTIVE DEVICES
- H01H85/00—Protective devices in which the current flows through a part of fusible material and this current is interrupted by displacement of the fusible material when this current becomes excessive
- H01H85/02—Details
- H01H85/04—Fuses, i.e. expendable parts of the protective device, e.g. cartridges
- H01H85/041—Fuses, i.e. expendable parts of the protective device, e.g. cartridges characterised by the type
- H01H85/042—General constructions or structure of high voltage fuses, i.e. above 1000 V
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01H—ELECTRIC SWITCHES; RELAYS; SELECTORS; EMERGENCY PROTECTIVE DEVICES
- H01H85/00—Protective devices in which the current flows through a part of fusible material and this current is interrupted by displacement of the fusible material when this current becomes excessive
- H01H85/02—Details
- H01H85/22—Intermediate or auxiliary parts for carrying, holding, or retaining fuse, co-operating with base or fixed holder, and removable therefrom for renewing the fuse
Landscapes
- Image Analysis (AREA)
Abstract
영상검출방법에 대해 개시한다. 본 발명은, 영상 내에서 검출하고자 하는 대상 주변을 포함한 기준영역을 설정하고, 기준영역 내에서 물체의 골격을 정한 후, 골격에 대해 그룹화하여 대표점을 추출(설정)한 다음, 상기 대표점에 대한 위치정보데이터와, 방향 및 레벨별 영상을 추출에 따른 기준벡터데이터를 산출하여 저장하고, 검출대상 영상에 상기 기준영역과 같은 영역을 스캔하면서, 상기 스캔된 대상영역에 대해 기준벡터데이터의 대표점 위치정보데이터를 사용하여 같은 위치에 있는 대상점에 대해 대상벡터데이터를 산출하여 기 산출된 기준벡터데이터와의 유사도에 따라 물체의 검출을 판별하는 것을 특징으로 한다. An image detection method is disclosed. According to an embodiment of the present invention, a reference region including a target surrounding to be detected in an image is set, a skeleton of an object is defined in the reference region, and then grouped with respect to the skeleton to extract (set) a representative point, and then to the representative point. The position information data and the reference vector data according to the extracted direction and level images are calculated and stored, and the same region as the reference region is scanned in the detection target image, and the representative vector data of the scanned target region is represented. The object vector data may be calculated for the target point at the same position using the point position information data, and the object detection may be determined according to the similarity with the calculated reference vector data.
본 발명에 따르면, 골격에 의한 물체구조의 특징과 피라미드영상에 대한 그레이 레벨특징을 모두 사용하여 물체를 검출하여 영상감시와 같은 응용에 적용할 수 있는 장점이 있다. According to the present invention, there is an advantage that can be applied to applications such as video surveillance by detecting an object using both the characteristics of the object structure by the skeleton and the gray level feature for the pyramid image.
Description
본 발명은 영상검출에 관한 것으로, 특히 영상으로부터 골격추출에 이은 대표점 추출과 함께, 상기 대표점에 대한 단계별 축소영상 및 방향별 에지영상을 이용하여 기 설정된 유사도에 따라 물체를 판별하는 영상검출방법에 관한 것이다. The present invention relates to image detection. In particular, an image detection method for discriminating an object according to a predetermined similarity by using a stepped down image and a direction-specific edge image for the representative point together with extracting a representative point followed by skeletal extraction from the image It is about.
기존 방법은 크게 두 가지로 대별되는데 첫 번째 방법이 골격을 구한 후 이 골격 자체를 그대로 특징으로 사용하여 물체를 검출하는 것이다. 또 다른 방법은 사각형 전체를 대상으로 피라미드 특징을 추출하거나 웨이브릿(wavelet) 특징을 사용하여 검출하는 것이다. Conventional methods are largely classified into two types. The first method is to obtain a skeleton and use the skeleton itself as a feature to detect an object. Another method is to extract pyramid features across the rectangle or to detect them using wavelet features.
기존 방법에서 골격을 구한 후 골격 자체를 특징으로 사용하는 경우 물체의 그레이 레벨 특성을 사용할 수 없다는 단점이 있다. 이는 물체의 구조 특징은 잘 반영하나 영상 감시와 같은 응용에서는 문제가 된다. In case of using the skeleton itself as a feature after obtaining the skeleton in the conventional method, there is a disadvantage that the gray level characteristic of the object cannot be used. This reflects the structural features of the object well but is problematic for applications such as video surveillance.
또 다른 방법인 사각형 전체를 대상으로 피라미드나 웨이브릿 특징을 사용하는 경우 영상의 그레이 레벨 특징을 사용할 수는 있으나 물체의 구조 특징을 사용할 수 없는 단점이 있다. Another method is to use the pyramid or wavelet feature for the entire rectangle, but the gray level feature of the image can be used, but there is a disadvantage that the structural feature of the object cannot be used.
따라서, 본 발명은 상기와 같은 종래 기술을 감안하여 이루어진 것으로, 영상 내에서 검출하고자 하는 대상 주변을 포함한 기준영역을 설정하고, 검출대상의 골격을 구한 후, 골격에 대해 그룹화하여 대표점을 추출한 다음, 상기 대표점에 대한 위치데이터와 방향 및 레벨별 영상을 추출에 따른 기준벡터데이터를 산출하고, 검출하고자 하는 대상 물체를 스캔하여 물체 주변에 상기 기준영역과 동일한 영역을 취하고, 영역 내에서 상기 기준벡터데이터의 대표점 위치정보데이터를 사용하여 같은 위치에 있는 대상점에 대해 대상벡터데이터를 산출하고, 이 대상벡터데이터와 상기 기준벡터데이터와의 유사도를 구하여 기 설정된 임계값에 따라 물체임을 판별하는 영상검출방법을 제공하는 것을 목적으로 한다. Accordingly, the present invention has been made in view of the prior art as described above. After setting the reference region including the object surroundings to be detected in the image, obtaining a skeleton of the object to be detected, grouping the skeletons and extracting representative points, Computing the reference vector data according to the extraction of the position data and the direction and level image for the representative point, scanning the target object to be detected to take the same region as the reference region around the object, the reference within the region The target vector data is calculated for the target point at the same position using the position information data of the representative point of the vector data, and the similarity between the target vector data and the reference vector data is obtained to determine the object according to a preset threshold. An object of the present invention is to provide a video detection method.
상기한 본 발명의 목적을 달성하기 위한 영상검출방법은, 영상 내에서 검출하고자 하는 대상 주변을 포함한 기준영역을 설정하고, 검출대상의 골격을 구한 후, 골격에 대해 그룹화하여 대표점을 추출(설정)한 다음, 대표점에 대한 위치정보데이터를 산출하는 동시에 상기 대표점에 대해 마스크에 의한 방향별 영상 및 축소에 의한 레벨별 영상을 추출하여 기준벡터데이터를 산출하여 저장하는 검출대상 학습단계(또는 특징추출단계)를 구비하여 이루어지고, 검출대상 영상에 상기 기준영역과 같은 크기의 대상영역을 설정하여 스캔하는 스캔단계 및, 상기 스캔된 대상영역에 대해 상기 기준벡터데이터의 대표점 위치정보데이터를 사용하여 같은 위치에 있는 점에 대해 마스크에 의한 방향별 영상 및 축소에 의한 레벨별 영상을 추출하여 대상벡터데이터를 산출하여 기 산출된 기준벡터데이터와의 유사도에 따라 검출 영상을 판별하는 대상검출단계를 포함하여 이루어진 것을 특징으로 하며, In the above-described image detection method for achieving the object of the present invention, the reference region including the object surrounding to be detected in the image is set, the skeleton of the object to be detected is obtained, and the representative points are extracted (set by grouping the skeleton). Next, the target object learning step of calculating position information data for the representative point and extracting the image for each direction by the mask and the level-specific image by the reduction for the representative point and calculating and storing the reference vector data (or A feature extraction step; and scanning a target area having the same size as that of the reference area in the detection target image and scanning the representative point position information data of the reference vector data with respect to the scanned target area. Target vector data by extracting image by direction by mask and level by image by reduction for points at the same location And a target detection step of determining a detected image according to similarity with the calculated reference vector data by calculating
상기 기준벡터데이터 및 대상벡터데이터는 마스크에 의해 가로, 세로, 대각선의 방향별 에지로 만들어진 영상에 대한 방향별 벡터데이터 및 선택적 축소에 따른 축소레벨별 벡터데이터이며, The reference vector data and the target vector data are directional vector data for an image made of edges of lateral, vertical, and diagonal directions by a mask, and vector data for reduction levels according to selective reduction.
상기 축소레벨별 벡터데이터는 해당 영역에 대해 2번 축소하여 3레벨 피라미드영상을 도출하되, 축소 시 4개의 이웃점에 대해 평균값을 1개점으로 대치된 영상에 대한 벡터데이터인 것을 특징으로 할 뿐만 아니라, The vector data for each reduction level is reduced two times for a corresponding area to derive a three-level pyramid image, wherein the reduction is not only a vector data for an image in which an average value is replaced by one point for four neighboring points. ,
상기 유사도를 각 대표점의 기준벡터데이터와 대상벡터데이터에 대한 유클리드 거리(Euclid Distance)로 산출하는 것이 바람직하겠다. 즉, (reuclidean = 유클리드거리, X=기준백터데이터, Y = 대상벡터데이터)의 식을 이용한다.It is preferable to calculate the similarity as an Euclidean distance with respect to the reference vector data and the target vector data of each representative point. In other words, (r euclidean = Euclidean distance, X = reference vector data, Y = target vector data).
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 대해 설명한다. 한편, 이하의 설명에 있어서, 용어 '물체'는 영상 내의 물체를 의미한다. Hereinafter, with reference to the accompanying drawings will be described a preferred embodiment of the present invention. In the following description, the term 'object' means an object in an image.
도 1은 본 발명의 영상검출방법을 나타낸 블록도로서, 검출대상 학습단계(S100)와 스캔단계(S200) 및 대상검출단계(S300)로 구분된다. 1 is a block diagram illustrating an image detection method of the present invention, which is divided into a detection target learning step S100, a scan step S200, and a target detection step S300.
상기 검출대상 학습단계(S100)는, 영상 내에서 검출하고자 하는 대상 주변을 포함한 기준영역을 설정하고, 기준영역에서 물체의 골격을 구한 후, 골격에 대해 그룹화하여 대표점을 추출한 다음, 상기 대표점에 대해 위치정보데이터와 마스크에 의한 방향별 영상 및 축소에 의한 레벨별 영상을 추출하여 기준벡터데이터를 산출하여 저장한다. In the detection target learning step (S100), a reference region including a target surrounding to be detected in the image is set, a skeleton of an object is obtained from the reference region, and then the representative points are extracted by grouping the skeletons. The reference vector data is calculated and stored by extracting the location information data, the direction-specific image by the mask, and the level-specific image by the reduction.
상기 스캔단계(S200)는 검출대상의 영상에 상기 기준영역과 같은 영역을 설정하여 스캔하면서 대상영역을 취한다. The scanning step (S200) takes a target area while scanning by setting the same area as the reference area in the image of the detection target.
상기 대상검출단계(S300)는 상기 스캔된 대상영역에 대해 기준벡터데이터의 대표점 위치정보데이터를 사용하여 같은 위치에 있는 대상점에 대해 마스크에 의한 방향별 영상 및 축소에 의한 레벨별 영상을 추출하여 대상벡터데이터를 산출하여 기 산출된 기준벡터데이터와의 유사도에 따라 영상의 검출을 판별한다. The object detecting step (S300) extracts an image for each direction by a mask and a level-specific image by reduction for a target point at the same position using the representative point position information data of reference vector data for the scanned target area. The target vector data is calculated to determine the detection of the image according to the similarity with the previously calculated reference vector data.
도 2는 본 발명의 실시예에 따른 검출대상 학습단계(S100)를 구체적으로 나타낸 흐름도로서, 2 is a flowchart specifically showing a detection target learning step S100 according to an embodiment of the present invention.
먼저, 도 3에서 보는바와 같이 임의의 영상을 선택하고(S101), 상기 선택된 영상에서 검출하고자 하는 물체주변에 사각형을 취하여 기준영역을 설정한다(S103). 본 실시예에서는 도 3에서 보인 3개의 사각형 중 중간에 있는 사각형을 선택하였다. First, an arbitrary image is selected as shown in FIG. 3 (S101), and a reference area is set by taking a rectangle around an object to be detected in the selected image (S103). In the present embodiment, a rectangle in the middle of the three rectangles shown in FIG. 3 is selected.
상기 설정된 기준영역 내에서 도 4a에서 보인 바와 같이 대상 물체에 해당하는 골격을 추출한다(S105).A skeleton corresponding to the target object is extracted as shown in FIG. 4A within the set reference region (S105).
상기 추출된 골격에 대해 그룹화하여(S107), 도 4b에서 보는바와 같이 대표점을 추출한다(S109). By grouping the extracted skeleton (S107), as shown in Figure 4b to extract the representative point (S109).
상기 대표점에 대한 위치정보데이터를 산출하여 저장한다(S110). The location information data for the representative point is calculated and stored (S110).
그리고, 상기 대표점에 대해서 방향별로 마스크를 적용한 에지영상을 추출하게 되는데(S111), 도 5a 내지 도 5d에서 보는바와 같이 수평방향에지와 수직방향에지 및 두 가지의 대각선방향 에지영상를 각각 검출한다. Then, an edge image obtained by applying a mask to each representative point is extracted (S111). As shown in FIGS. 5A to 5D, horizontal edges, vertical edges, and two diagonal edge images are detected.
또한, 상기 대표점에 대해서 해당 영역에 대해 도 6a 내지 도 6c에서 보인바와 같이 최초영상(도 6a)과 최초영상을 2번 축소하여 1/2 축소된 영상(도 6b)과, 1/4 축소된 영상(도 6c)의 3레벨 피라미드영상을 도출하되, 축소 시 4개의 이웃점에 대해 평균값을 1개점으로 대치된 영상을 구한다(S113). 본 도면은 일부의 대표점에 대한 도면을 나타내고 있다. In addition, as shown in FIGS. 6A to 6C with respect to the representative point, the first image (FIG. 6A) and the first image are reduced twice, and the image is reduced by 1/2 (FIG. 6B) and 1/4 is reduced. A three-level pyramid image of the extracted image (FIG. 6C) is derived, and an image obtained by substituting an average value of one neighbor point for four neighboring points during reduction is obtained (S113). This figure shows the figure of some representative point.
상기 방향별, 축소별 영상으로부터 상기 4가지의 방향별 에지영상과 3가지의 축소레벨영상으로부터 12개의 값을 가지는 벡터를 대표점별로 산출하여(S115) 각 대표점에 대한 12개의 벡터데이터(기준벡터데이터)를 산출하여 저장한다. 12 vector data for each representative point are calculated by calculating a vector having 12 values from each of the four direction-wise edge images and three reduction level images for each representative point from the direction-specific and reduction-specific images (S115). Vector data) is calculated and stored.
도 7은 본 발명의 실시예에 따른 비교 대상영상에 대해 스캔을 보여주는 도면으로서, 대상영상에서 상기 기준영역과 같은 영역의 대상영역을 설정하여 모든 점들에 대해 스캔하면서 사각형을 얻는다. FIG. 7 is a diagram illustrating a scan of a comparison target image according to an exemplary embodiment of the present invention, and sets a target region in the same region as the reference region in the target image to obtain a rectangle while scanning all points.
도 8은 본 발명의 실시예에 따른 대상검출단계(S300)를 나타낸 도면으로서, 도 7에서 1회 스캔할 때마다 처리되는 과정을 나타낸다. 대상검출단계(S300)는 물체검출 대상이 되는 영상을 선택하고(S301), 상기 기준영역과 동일한 영역인 대상영역을 설정하고(S303), 도 2에서 산출한 대표점에 대한 위치정보데이터를 로딩하여(S305), 상기 위치정보에 따른 대표점에 해당되는 대상점을 선택(S107)한 다음, 상기 대상점에 대해 마스크에 의한 방향별 에지영상을 추출하고(S309), 또한 상기 대상점에 대해 축소에 따른 레벨별 영상을 추출한(S311) 다음, 상기 방향별, 레벨별 영상에 의한 대상벡터데이터를 산출하게 된다(S313). 그리고, 도 2에서 산출한 기준벡터데이터를 로딩한 다음(S315), 상기 기준벡터데이터와 대상벡터데이터를 비교하게 되는데, 이때 기준벡터데이터와 대상벡터데이터와의 유사도를 산출한다. FIG. 8 is a diagram illustrating a target detection step S300 according to an exemplary embodiment of the present invention, and illustrates a process performed every scan in FIG. 7. In the object detecting step (S300), an image to be detected is selected (S301), a target area that is the same area as the reference area is set (S303), and the position information data for the representative point calculated in FIG. 2 is loaded. (S305), select a target point corresponding to the representative point according to the position information (S107), and then extract an edge image for each direction by a mask with respect to the target point (S309), and also for the target point. After extracting the image for each level according to the reduction (S311), the target vector data based on the image for each direction and level is calculated (S313). Then, after loading the reference vector data calculated in FIG. 2 (S315), the reference vector data and the target vector data are compared, and the similarity between the reference vector data and the target vector data is calculated.
상기 유사도는 각 대표점에 대한 유클리드 거리(Euclid Distance)로 산출한 데이터를 기준으로 비교함이 바람직하겠다. The similarity may be compared based on data calculated as Euclidean distance for each representative point.
이때 대상벡터데이터에 대해 검출유사도가 기 설정된 임계값과 비교하여(S317), 산출된 유사도가 임계값보다 클 경우에는 대상 물체로 판별하거나(S319), 임계값보다 작을 경우에는 배경으로 판별한다(S321). In this case, the detection similarity of the target vector data is compared with a preset threshold value (S317). If the calculated similarity is greater than the threshold value, the object is determined as a target object (S319). S321).
이후에는 스캔이 완료되었는지의 판별에 따라(S323), 다음 점으로 스캔하여, 상기 영역설정단계(S303)를 반복적으로 진행하게 된다. Thereafter, according to the determination of whether the scan is completed (S323), the scan is performed to the next point, and the area setting step (S303) is repeatedly performed.
본 발명은 상술한 실시예에 한정되지 않으며, 본 발명의 기술적 사상 내에서 당 분야의 통상의 지식을 가진 자에 의하여 많은 변형이 가능함은 명백할 것이다. The present invention is not limited to the above-described embodiments, and it will be apparent that many modifications are possible by those skilled in the art within the technical spirit of the present invention.
상술한 바와 같이, 본 발명에 따른 영상검출방법은, 골격에 의한 물체구조의 특징과 피라미드영상에 대한 그레이 레벨특징을 모두 사용하여 물체를 검출하여 영상감시와 같은 응용에 적용할 수 있는 장점이 있다. As described above, the image detection method according to the present invention has the advantage of being applicable to an application such as video surveillance by detecting an object using both the characteristics of the object structure by the skeleton and the gray level features of the pyramid image. .
도 1은 본 발명의 영상검출방법을 나타낸 블록도. 1 is a block diagram showing an image detection method of the present invention.
도 2는 본 발명의 실시예에 따른 검출대상 학습단계(또는 특징추출단계)를 나타낸 흐름도. 2 is a flowchart illustrating a detection target learning step (or feature extraction step) according to an embodiment of the present invention.
도 3은 본 발명의 실시예에 따라 영상에서 소정의 영역을 선택한 것을 나타낸 도면. 3 is a diagram illustrating a predetermined region selected from an image according to an embodiment of the present invention.
도 4a 내지 도 4b는 본 발명의 실시예에 따른 골격 및 대표점을 추출한 것을 나타낸 도면. Figures 4a to 4b is a view showing the extraction of the skeleton and representative point according to an embodiment of the present invention.
도 5a 내지 도 5d는 본 발명의 실시예에 따른 에지영상을 추출하기 위한 마스크를 나타낸 도면. 5A to 5D illustrate masks for extracting an edge image according to an exemplary embodiment of the present invention.
도 6a 내지 도 6c는 본 발명의 실시예에 따른 일부 영역에 대한 피라미드 특징을 추출한 것을 나타낸 도면. 6A to 6C illustrate extraction of pyramid features for some regions in accordance with an embodiment of the present invention.
도 7은 본 발명의 실시예에 따른 대상영상에 대해 스캔을 보여주는 도면. 7 is a diagram illustrating a scan of a target image according to an embodiment of the present invention.
도 8은 본 발명의 실시예에 따른 대상검출단계를 나타낸 도면. 8 is a view showing a target detection step according to an embodiment of the present invention.
* 도면의 주요 부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings
S100 : 검출대상 학습단계 S100: detection target learning step
S200 : 스캔단계 S200: Scanning Step
S300 : 대상검출단계S300: target detection step
Claims (4)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2003-0034220A KR100533209B1 (en) | 2003-05-29 | 2003-05-29 | Method for detecting image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2003-0034220A KR100533209B1 (en) | 2003-05-29 | 2003-05-29 | Method for detecting image |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20040102672A KR20040102672A (en) | 2004-12-08 |
KR100533209B1 true KR100533209B1 (en) | 2005-12-05 |
Family
ID=37378895
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR10-2003-0034220A KR100533209B1 (en) | 2003-05-29 | 2003-05-29 | Method for detecting image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100533209B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20050045291A (en) * | 2003-11-11 | 2005-05-17 | 김대희 | Data processing of text by selective scanning and color comparison |
KR101018299B1 (en) * | 2009-04-28 | 2011-03-04 | 한국과학기술원 | Apparatus and method for detecting a plurality of objects in an image |
-
2003
- 2003-05-29 KR KR10-2003-0034220A patent/KR100533209B1/en not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
KR20040102672A (en) | 2004-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9239946B2 (en) | Method and apparatus for detecting and processing specific pattern from image | |
EP0977151B1 (en) | Image processing apparatus, image processing method, and storage medium | |
US7738734B2 (en) | Image processing method | |
JP3636927B2 (en) | Face image processing device | |
US10679358B2 (en) | Learning image automatic sorting device, learning image automatic sorting method, and learning image automatic sorting program | |
EP2782065B1 (en) | Image-processing device removing encircling lines for identifying sub-regions of image | |
JP3193240B2 (en) | Image processing device | |
US5050229A (en) | Method and apparatus for thinning alphanumeric characters for optical character recognition | |
JP2004220555A (en) | System, method and program for extracting object region from image, and recording medium stored with the program | |
JP2007025902A (en) | Image processor and image processing method | |
WO2005041128A1 (en) | Face image candidate area search method, face image candidate area search system, and face image candidate area search program | |
JP2006323779A (en) | Image processing method and device | |
JP2016053763A (en) | Image processor, image processing method and program | |
JP6661082B2 (en) | Image recognition device and image recognition program | |
KR100533209B1 (en) | Method for detecting image | |
JP4379706B2 (en) | Region extraction method | |
JP2007156741A (en) | Character extraction method, character extraction device, and program | |
JP3319408B2 (en) | Facial feature extraction device | |
JPH08190690A (en) | Method for determining number plate | |
JP2868134B2 (en) | Image processing method and apparatus | |
JP3417635B2 (en) | Intruding object recognition method | |
CN113255649A (en) | Image segmentation and framing method based on image recognition and terminal | |
JPH09128548A (en) | Vehicle detecting method | |
JP4409713B2 (en) | Document image recognition apparatus and recording medium | |
JPH04255080A (en) | Image input device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20090929 Year of fee payment: 5 |
|
LAPS | Lapse due to unpaid annual fee |