KR20120133352A - Apparatus and method for detecting target shape from image - Google Patents
Apparatus and method for detecting target shape from image Download PDFInfo
- Publication number
- KR20120133352A KR20120133352A KR1020110051989A KR20110051989A KR20120133352A KR 20120133352 A KR20120133352 A KR 20120133352A KR 1020110051989 A KR1020110051989 A KR 1020110051989A KR 20110051989 A KR20110051989 A KR 20110051989A KR 20120133352 A KR20120133352 A KR 20120133352A
- Authority
- KR
- South Korea
- Prior art keywords
- candidate
- shape
- image
- point
- candidate area
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/149—Segmentation; Edge detection involving deformable models, e.g. active contour models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/64—Analysis of geometric attributes of convexity or concavity
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
본 발명은 영상에서의 목표형상 검출장치 및 방법에 관한 것으로, 보다 상세하게는, 촬영된 영상을 처리하여 원하는 물체의 형상과 일치하는 형상을 검출하는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for detecting a target shape in an image, and more particularly, to an apparatus and method for processing a photographed image to detect a shape that matches the shape of a desired object.
최근 무인감시 시스템 등에서 사람에 의한 판단과정 없이 카메라에 의해 촬영된 영상에서 사람 등의 목표형상을 검출하는 방법이 사용되고 있다. 이러한 객체 검출기법은 건물의 무인감시 외에도 다양한 분야에 적용될 수 있는데, 일 예로서 수중에서 촬영된 영상으로부터 불가사리와 같은 목표 객체의 형상을 검출하기 위해 사용될 수 있다.Recently, in the unmanned surveillance system, a method of detecting a target shape such as a person from an image captured by a camera without a judgment process by a person has been used. The object detector method may be applied to various fields in addition to unmanned surveillance of a building. For example, the object detector method may be used to detect a shape of a target object such as a starfish from an image taken underwater.
수중에서 유해한 불가사리를 포획하기 위해 기존에는 잠수부가 직접 불가사리를 포획하거나 배에 연결된 불가사리 제거용 망이 바닥에 끌리도록 하여 제거하는 방법이 사용되었다. 그러나 사람이 직접 유해한 불가사리를 잡도록 하는 것은 위험성이 높으며, 정확한 지점을 파악하지 못한 채 무작위로 바닥을 탐색하는 방법은 비효율적이다. 따라서 수중로봇을 이용하여 수중 영상을 촬영한 후 영상에서 불가사리의 형상을 검출함으로써 수중 불가사리의 분포를 파악하고, 불가사리의 분포도가 상대적으로 높은 지역에서 그물을 이용하여 집중적으로 불가사리를 포획하도록 하는 방법이 효과적이다.In order to capture harmful starfish in the water, the divers have been used to directly remove the starfish or to remove the starfish net connected to the ship by dragging it to the bottom. However, it is dangerous to let people catch harmful starfish directly, and randomly searching the ground without knowing the exact point is inefficient. Therefore, after taking underwater images using an underwater robot, the method of detecting the starfish in the image by detecting the shape of the starfish, and using the net in the area where the distribution of the starfish is relatively high to capture the starfish intensively effective.
수중로봇을 이용한 불가사리 분포 탐색에 있어서 가장 중요한 부분이 영상으로부터 불가사리의 형상을 검출하는 기술이다. 그러나 수중에서 촬영한 영상은 일반적인 실내 영상과는 달리 많은 잡음이 포함되어 있으며, 배경과 객체를 분리하는 것이 용이하지 않고, 환경에 따라 객체의 색상과 외형이 변화하기 때문에 목표 객체인 불가사리의 형상을 검출하는 것이 쉽지 않다. 또한 불가사리가 수중의 다른 물체에 가려져 전체 형상을 검출할 수 없는 경우에 해당 객체가 불가사리인지 여부를 확실히 구별할 수 있는 방법이 필요하다.The most important part of the starfish distribution search using underwater robot is the technology of detecting the shape of starfish from the image. However, unlike the indoor indoor video, underwater video contains a lot of noise, and it is not easy to separate the background from the object, and the color and appearance of the object change depending on the environment. It is not easy to detect. In addition, when the starfish is covered by another object in the water and cannot detect the entire shape, a method is needed to clearly distinguish whether or not the object is a starfish.
본 발명이 이루고자 하는 기술적 과제는, 잡음 및 객체가 많이 포함된 영상으로부터 목표하는 객체의 형상만을 정확하게 검출할 수 있는 영상에서의 목표형상 검출장치 및 방법을 제공하는 데 있다.An object of the present invention is to provide an apparatus and method for detecting a target shape in an image capable of accurately detecting only a shape of a target object from an image including a lot of noise and objects.
본 발명이 이루고자 하는 다른 기술적 과제는, 잡음 및 객체가 많이 포함된 영상으로부터 목표하는 객체의 형상만을 정확하게 검출할 수 있는 영상에서의 목표형상 검출방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다.Another object of the present invention is to read a computer program for executing a target shape detection method in an image that can accurately detect only the shape of a target object from an image containing a lot of noise and objects. To provide a record carrier.
상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 영상에서의 목표형상 검출장치는, 입력영상을 구성하는 각 화소의 화소값의 크기에 따라 사전에 설정된 색상값을 부여하고, 상기 각 화소에 부여된 색상값을 기초로 상기 입력영상을 이진화하여 전처리 영상을 생성하는 전처리부; 상기 전처리 영상을 서로 다른 레이블이 각각 부여된 복수의 영역으로 분할하여 목표형상을 검출하기 위한 후보영역을 추출하는 레이블링부; 및 상기 후보영역의 외곽선 형상으로부터 추출된 특징이 사전에 설정된 견본형상의 특징과 일치하면 상기 후보영역을 상기 목표형상으로 결정하여 출력하는 형상 검출부;를 구비한다.In order to achieve the above technical problem, the target shape detection device in an image according to the present invention provides a preset color value according to the size of a pixel value of each pixel constituting an input image, and gives each pixel. A preprocessing unit generating a preprocessing image by binarizing the input image on the basis of the received color value; A labeling unit for dividing the preprocessed image into a plurality of regions each having different labels, and extracting candidate regions for detecting a target shape; And a shape detector configured to determine and output the candidate area as the target shape when the feature extracted from the outline shape of the candidate area matches a preset sample shape.
상기의 다른 기술적 과제를 달성하기 위한, 본 발명에 따른 영상에서의 목표형상 검출방법은, 입력영상을 구성하는 각 화소의 화소값의 크기에 따라 사전에 설정된 색상값을 부여하고, 상기 각 화소에 부여된 색상값을 기초로 상기 입력영상을 이진화하여 전처리 영상을 생성하는 전처리단계; 상기 전처리 영상을 서로 다른 레이블이 각각 부여된 복수의 영역으로 분할하여 목표형상을 검출하기 위한 후보영역을 추출하는 레이블링단계; 및 상기 후보영역의 외곽선 형상으로부터 추출된 특징이 사전에 설정된 견본형상의 특징과 일치하면 상기 후보영역을 상기 목표형상으로 결정하여 출력하는 형상 검출단계;를 갖는다.In order to achieve the above technical problem, a target shape detection method in an image according to the present invention provides a preset color value according to the size of a pixel value of each pixel constituting an input image, A preprocessing step of generating a preprocessed image by binarizing the input image based on the assigned color value; A labeling step of extracting candidate regions for detecting a target shape by dividing the preprocessed image into a plurality of regions each having different labels; And a shape detection step of determining and outputting the candidate area as the target shape when the feature extracted from the outline shape of the candidate area matches a preset sample shape feature.
본 발명에 따른 영상에서의 목표형상 검출장치 및 방법에 의하면, 입력영상에 의사컬러 변환을 수행하여 목표형상을 검출하기 위한 식별력을 향상시키고, 레이블링에 의해 추출된 후보영역의 외곽선 특징을 기초로 목표형상에 해당하는지 여부 및 종류를 용이하게 판별할 수 있다.According to the apparatus and method for detecting a target shape in an image according to the present invention, the recognition power for detecting the target shape is improved by performing pseudo color transformation on the input image, and based on the outline feature of the candidate region extracted by labeling, Whether or not it corresponds to the shape can be easily determined.
도 1은 본 발명에 따른 영상에서의 목표형상 검출장치에 대한 바람직한 실시예의 구성을 도시한 블록도,
도 2는 입력영상에 대하여 의사컬러 변환을 수행하는 일 예를 도시한 도면,
도 3은 입력영상에 의사컬러 변환이 수행된 결과를 나타낸 도면,
도 4는 레이블링부에 의한 영역 분할 과정을 나타낸 도면,
도 5는 전처리 영상으로부터 분할된 후보영역의 다양한 형태를 나타낸 도면,
도 6은 8가지의 서로 다른 스캔 방향을 도시한 도면,
도 7은 후보 볼록점들 중에서 볼록 특징점이 결정되는 일 실시예를 도시한 도면,
도 8은 볼록 특징점에 의해 외곽선이 분할된 후보영역을 도시한 도면,
도 9는 후보영역에 대하여 중심 결정부, 볼록 특징 추출부 및 오목 특징 추출부에 의해 각각 결정된 중심점, 볼록 특징점 및 오목 특징점을 도시한 도면,
도 10은 도 5의 후보영역들 각각에 대하여 견본형상의 특징과 일치하는지 여부를 판단한 결과를 나타낸 도면,
도 11은 입력영상으로부터 추출된 복수의 후보영역의 종류를 판별하는 예를 도시한 도면, 그리고,
도 12는 본 발명에 따른 영상에서의 목표형상 검출방법에 대한 바람직한 실시예의 수행과정을 도시한 흐름도이다.1 is a block diagram showing the configuration of a preferred embodiment of an apparatus for detecting a target shape in an image according to the present invention;
2 is a diagram illustrating an example of performing pseudo color conversion on an input image;
3 is a diagram illustrating a result of performing pseudo color conversion on an input image;
4 is a view illustrating a region division process by a labeling unit;
5 is a diagram illustrating various types of candidate regions segmented from a preprocessed image;
6 shows eight different scan directions;
7 illustrates an embodiment in which convex feature points are determined among candidate convex points;
8 is a view showing a candidate region in which an outline is divided by convex feature points;
9 is a view showing a center point, a convex feature point and a concave feature point respectively determined by the center determiner, the convex feature extractor and the concave feature extractor with respect to the candidate region;
FIG. 10 is a view showing a result of determining whether or not the characteristics of a sample shape correspond to each of the candidate areas of FIG. 5; FIG.
11 is a diagram illustrating an example of discriminating types of a plurality of candidate regions extracted from an input image;
12 is a flowchart illustrating a preferred embodiment of the method for detecting a target shape in an image according to the present invention.
이하에서 첨부된 도면들을 참조하여 본 발명에 따른 영상에서의 목표형상 검출장치 및 방법의 바람직한 실시예에 대해 상세하게 설명한다.Hereinafter, exemplary embodiments of an apparatus and a method for detecting a target shape in an image according to the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명에 따른 영상에서의 목표형상 검출장치에 대한 바람직한 실시예의 구성을 도시한 블록도이다.1 is a block diagram showing the configuration of a preferred embodiment of an apparatus for detecting a target shape in an image according to the present invention.
도 1을 참조하면, 본 발명에 따른 목표형상 검출장치는 전처리부(110), 레이블링부(120) 및 형상 검출부(130)를 구비한다. 또한 본 발명의 대표적인 실시예로서, 본 발명에 따른 목표형상 검출장치는 수중에서 촬영된 영상으로부터 불가사리의 형상을 검출하기 위해 사용될 수 있다. 이하에서는 수중 영상으로부터 목표로 하는 불가사리의 형상을 검출하는 경우에 본 발명에 따른 목표형상 검출장치의 구성 및 동작에 대하여 상세하게 설명한다.Referring to FIG. 1, the target shape detecting apparatus according to the present invention includes a preprocessing
이때 사전에 설정된 견본형상은 검출하고자 하는 불가사리의 표본을 다수 수집하여 표본 불가사리들의 공통적인 특징을 나타내도록 만들어진 형상에 해당하며, 본 발명에 따른 목표형상 검출장치는 수중에서 촬영된 입력영상으로부터 목표형상으로 검출될 수 있는 후보영역을 결정하고, 후보영역의 특징을 추출하여 견본형상과 대비함으로써 목표형상에 해당하는지 여부를 판단한다.In this case, the preset sample shape corresponds to a shape made to collect a plurality of samples of starfish to be detected to represent common features of the sample starfish, and the target shape detection device according to the present invention is a target shape from an input image photographed underwater. The candidate region that can be detected is determined, and the feature of the candidate region is extracted and compared with the sample shape to determine whether it corresponds to the target shape.
먼저 목표형상의 정확한 검출을 위하여 전처리부(110)에 의한 입력영상의 전처리 과정이 수행될 수 있다. 전처리부(110)는 입력영상을 구성하는 각 화소의 화소값의 크기에 따라 사전에 설정된 색상값을 부여함으로써 입력영상에 대응하는 컬러영상을 생성하고, 컬러영상의 각 화소에 부여된 색상값을 기초로 입력영상을 이진화하여 전처리 영상을 생성한다.First, the preprocessing process of the input image by the
입력영상으로부터 컬러영상을 생성하는 과정은 의사컬러 변환 알고리즘에 의해 수행된다. 인간의 눈은 256 단계의 그레이스케일 레벨 중에서 20~30 단계만을 육안으로 구분할 수 있는 반면, 컬러는 수천 가지 이상을 분별할 수 있다. 이러한 생리학적 특성을 고려하면, 후보영역을 결정하기 위해 입력영상을 이진화하기 이전에 의사컬러 변환을 수행하여 식별력을 높일 수 있다.The process of generating the color image from the input image is performed by a pseudo color conversion algorithm. The human eye can only visually distinguish between 20 and 30 levels of the 256 levels of grayscale, while the color can discern thousands or more. In consideration of the physiological characteristics, the recognition power may be improved by performing pseudo-color transformation before binarizing the input image to determine the candidate region.
의사컬러 변환은 입력영상의 각 화소에 대하여 해당 화소의 화소값을 기초로 사전에 설정된 색상값을 부여함으로써 수행된다. 이때 색상값을 부여하는 과정은 컬러 룩업 테이블(color lookup table)을 참조하여 수행된다. 도 2는 입력영상에 대하여 의사컬러 변환을 수행하는 일 예를 도시한 도면으로, 57의 화소값에 대응하여 컬러 룩업 테이블에 (9,86,7)의 RGB 색상값이 저장되어 있다. 따라서 전처리부(110)는 입력영상에서 화소값이 57인 화소에 대하여 (9,86,7)의 색상값을 부여한다.Pseudo color conversion is performed by assigning a preset color value to each pixel of the input image based on the pixel value of the corresponding pixel. In this case, the process of assigning a color value is performed by referring to a color lookup table. FIG. 2 is a diagram illustrating an example of performing pseudo color conversion on an input image, in which RGB color values of (9,86,7) are stored in a color lookup table corresponding to 57 pixel values. Therefore, the
도 3은 입력영상에 의사컬러 변환이 수행된 결과를 나타낸 도면이다. 도 3의 (a)의 입력영상에 대하여 의사컬러 변환이 수행되면 도 3의 (b)와 같은 컬러영상이 얻어진다. 도 3의 (b)를 참조하면, 의사컬러 변환에 의해 검출하고자 하는 목표형상, 즉 불가사리의 형상에 대한 식별력이 높아짐을 확인할 수 있다.3 illustrates a result of performing pseudo color conversion on an input image. When the pseudo color conversion is performed on the input image of FIG. 3A, a color image as shown in FIG. 3B is obtained. Referring to Figure 3 (b), it can be seen that the discriminating power for the target shape to be detected by the pseudo-color transformation, that is, the shape of the starfish is increased.
입력영상의 모든 화소에 대해 색상값이 부여되어 컬러영상이 생성되면, 전처리부(110)는 컬러영상의 각 화소의 색상값을 기초로 입력영상을 이진화하여 전처리 영상을 생성한다. 컬러영상을 이진화할 때에는 기존에 일반적으로 사용되는 알고리즘이 사용될 수 있으므로, 상세한 설명은 생략한다.When color values are assigned to all pixels of the input image to generate a color image, the
다음으로 레이블링부(120)는 전처리 영상을 고유의 레이블이 각각 부여된 복수의 영역으로 분할하여 목표형상을 검출하기 위한 후보영역을 추출한다. 레이블링부(120)에 의한 후보영역의 추출은 기존의 레이블링 알고리즘에 의해 수행된다.Next, the
구체적으로, 후보영역의 추출 과정은 두 가지 단계로 이루어진다. 첫 번째 단계로서, 기존의 레이블링 알고리즘에 따라 전처리 영상의 전체 화소를 위에서 아래로, 그리고 왼쪽에서 오른쪽으로 순차적으로 스캔하면서 레이블을 부여한다. 이때 주변 화소들 중에서 이미 레이블이 부여된 화소가 있으면 해당 화소의 레이블을 따르며, 주변의 둘 이상의 화소에 서로 다른 레이블이 부여되어 있으면 더 작은 값의 레이블을 부여하고, 등가 테이블을 생성하여 이후 주변 화소들의 레이블 값이 동일하게 되도록 수정한다. 도 4는 레이블링부(120)에 의한 영역 분할 과정을 나타낸 도면이다.Specifically, the extraction process of the candidate region consists of two steps. As a first step, labeling is performed by sequentially scanning the whole pixels of the preprocessed image from top to bottom and from left to right according to a conventional labeling algorithm. At this time, if there is a pixel that is already labeled among the neighboring pixels, the label of the corresponding pixel is followed. If a different label is given to two or more neighboring pixels, a label having a smaller value is assigned, and an equivalent table is created. So that their label values are the same. 4 is a diagram illustrating a region division process by the
수중 환경의 특성상 수중에서 촬영된 입력영상에는 검출의 목표가 되는 불가사리 외에도 이물질이 많이 포함되어 있다. 따라서 레이블링부(120)는 전처리 영상의 각 영역에 대한 레이블링 과정이 종료되면 사전에 설정된 임계치 이상의 화소수를 가지는 영역만 목표형상을 검출하기 위한 후보영역으로 결정하고, 나머지 영역은 잡음으로 간주하여 제거한다.Due to the nature of the underwater environment, the input image captured in the water contains a large number of foreign substances in addition to the starfish that are the target of detection. Therefore, when the labeling process for each region of the preprocessed image is finished, the
한편, 후보영역 추출의 두 번째 단계로서, 레이블링부(120)는 첫 번째 단계에서 결정된 후보영역들을 각각 스캔하여 영역의 너비 및 높이를 산출하고, 전처리 영상으로부터 분할한다. 도 5는 전처리 영상으로부터 분할된 후보영역의 다양한 형태를 나타낸 도면이다. 도 5에 도시된 것과 같은 다양한 후보영역들 중에서 견본형상의 형태와 유사한 후보영역이 목표형상으로서 검출된다.Meanwhile, as the second step of extracting the candidate area, the
형상 검출부(130)는 후보영역의 외곽선 형상으로부터 추출된 특징이 사전에 설정된 견본형상의 특징과 일치하면 후보영역을 목표형상으로 결정하여 출력한다. 이를 위해 형상 검출부(130)는 중심 결정부(132), 볼록 특징 추출부(134), 오목 특징 추출부(136) 및 형상 인식부(138)를 구비할 수 있다.The
중심 결정부(132)는 후보영역을 구성하는 화소들의 좌표정보를 기초로 후보영역의 중심점을 산출한다. 즉, 후보영역을 구성하는 각 화소의 입력영상 또는 전처리 영상에서의 x좌표 및 y좌표의 값들을 각각 더하고 후보영역의 화소수로 나누면 중심점의 좌표정보가 얻어진다.The
다음으로 볼록 특징 추출부(134)는 후보영역의 외곽선을 추적하여 목표형상의 중심으로부터 외부를 향해 돌출된 지점에 대응하는 복수의 볼록 특징점을 추출한다. 구체적으로, 볼록 특징 추출부(134)는 후보 영역을 포함하는 최소 크기의 사각형인 외곽선 추적 영역을 최대 8가지의 서로 다른 스캔 방향으로 스캔하여 후보 블록점을 결정하고, 각각의 후보 블록점으로부터 후보영역의 중심점까지의 거리를 산출한다. 도 6은 8가지의 서로 다른 스캔 방향을 도시한 도면이다.Next, the
다음으로 볼록 특징 추출부(134)는 서로 인접한 후보 블록점들, 즉 사전에 설정된 기준값 이하의 거리 내에 위치하는 후보 블록점들이 동일한 후보군에 속하도록 후보 블록점들을 분류한다. 마지막으로 각각의 후보군에 대하여 후보 블록점들 중에서 중심점으로부터의 거리가 최대인 후보 블록점을 해당 후보군의 볼록 특징점으로 결정한다. 따라서 하나의 후보영역으로부터 후보군의 개수에 대응하는 개수의 볼록 특징점이 얻어지게 된다.Next, the
다음의 표 1은 도 6에 도시된 8가지의 스캔 방향에 의해 얻어진 후보 볼록점들의 좌표를 나타낸 것이다.Table 1 below shows the coordinates of candidate convex points obtained by the eight scan directions shown in FIG. 6.
방향
direction
볼록 특징 추출부(134)는 표 1과 같은 후보 볼록점들로부터 후보영역의 중심까지의 거리를 기초로 다음의 표 2와 같은 5개의 볼록 특징점을 결정한다.The
구분
division
도 7은 후보 볼록점들 중에서 볼록 특징점이 결정되는 일 실시예를 도시한 도면으로, 도 7의 (a)에서 원으로 표시된 8개의 지점들이 표 1의 후보 볼록점들이고, (b)의 ① 내지 ⑤의 지점들이 표 2의 볼록 특징점들이다. 도 7의 (a)에 도시된 바와 같이 서로 인접한 두 개의 후보 볼록점 중에서 하나가 볼록 특징점으로 결정된다.FIG. 7 illustrates an embodiment in which convex feature points are determined among candidate convex points. Eight points indicated by circles in FIG. 7 (a) are candidate convex points in Table 1, and ① to (b) of FIG. The
다음으로 오목 특징 추출부(136)는 볼록 특징 추출부(134)에 의해 결정된 볼록 특징점들을 기초로 후보영역의 외곽선을 분할한다. 도 8은 볼록 특징점에 의해 외곽선이 분할된 후보영역을 도시한 도면으로, 5개의 볼록 특징점과 후보영역의 중심점을 각각 연결하는 선에 의해 후보영역의 외곽선이 5개의 부분 외곽선이 얻어진다.Next, the
오목 특징 추출부(136)는 각각의 부분 외곽선을 구성하는 화소들 중에서 후보영역의 중심점으로부터의 거리가 최소인 화소를 후보 오목점으로 결정하고, 이들 중에서 오목 특징점을 결정한다. 이를 위해 후보영역의 중심점으로부터 각 볼록 특징점까지의 거리의 평균(장선의 평균) 및 후보영역의 중심점으로부터 각각의 오목 특징점까지의 거리(단선의 길이)를 산출한다. 오목 특징 추출부(136)는 후보 오목점들 중에서 장선의 평균에 대한 단선의 길이의 비가 사전에 설정된 기준비율, 예를 들면 0.6보다 작은 후보 오목점을 오목 특징점으로 결정한다.The
다음의 표 3은 이상에서 설명한 오목 특징점의 결정 과정을 나타낸 것이다.Table 3 below shows the determination process of the concave feature points described above.
분phrase
minute
길이Joist
Length
길이Disconnected
Length
/장선의 평균Length of disconnection
Average of joists
특징점Concave
Feature Point
표 3에는 5개의 후보 오목점의 좌표가 표시되어 있고, 후보 오목점의 좌표를 기초로 산출된 단선의 길이가 장선의 평균에 대하여 기준비율 이하의 비를 가지므로 5개의 후보 오목점이 모두 오목 특징점으로 결정된다.Table 3 shows the coordinates of the five candidate concave points, and since the length of the single line calculated based on the coordinates of the candidate concave points has a ratio below the reference ratio with respect to the long line average, all five candidate concave points are concave feature points. Is determined.
도 9는 후보영역에 대하여 중심 결정부(132), 볼록 특징 추출부(134) 및 오목 특징 추출부(136)에 의해 각각 결정된 중심점, 볼록 특징점 및 오목 특징점을 도시한 도면이다. 각 지점들은 목표형상을 추출할 때 견본형상과 대비하기 위한 후보영역의 특징으로 사용될 수 있다.9 is a diagram illustrating a center point, a convex feature point, and a concave feature point respectively determined by the
형상 인식부(138)는 볼록 특징점 및 오목 특징점의 개수가 견본형상과 일치하면 후보영역을 목표형상으로 결정하여 출력한다.If the number of the convex feature points and the concave feature points coincide with the sample shape, the
도 10은 도 5의 후보영역들 각각에 대하여 견본형상의 특징과 일치하는지 여부를 판단한 결과를 나타낸 도면이다. 도 10을 참조하면, 목표형상으로 결정할 수 있는지 여부를 판단하는 기준으로 볼록 특징점 및 오목 특징점의 개수가 사용된다. 또한 볼록 특징점 및 오목 특징점의 개수를 통해 후보영역이 목표형상에 해당하는지 여부뿐만 아니라 구체적인 종류까지도 판별할 수 있다.FIG. 10 is a diagram illustrating a result of determining whether the candidate regions of FIG. 5 correspond to the characteristics of the sample shape. Referring to FIG. 10, the number of convex feature points and concave feature points is used as a criterion for determining whether the target shape can be determined. Further, the number of convex feature points and concave feature points may determine not only whether the candidate area corresponds to the target shape but also a specific type.
예를 들면, 목표형상이 불가사리일 때 볼록 특징점 및 오목 특징점의 개수를 기초로 후보영역이 단일 개체, 변형 개체 및 다중 개체 중 어떠한 개체에 해당하는지를 판별할 수 있다. 이와 같이 구체적인 개체의 종류를 판별하기 위해 다양한 형태의 견본형상이 사전에 저장되어 사용될 수 있다.For example, when the target shape is a starfish, it may be determined whether the candidate area corresponds to a single entity, a deformable entity, or multiple entities based on the number of convex and concave feature points. As such, various types of sample shapes may be stored and used in advance in order to determine the type of a specific individual.
도 11은 입력영상으로부터 추출된 복수의 후보영역의 종류를 판별하는 예를 도시한 도면이다. 도 11의 (a)는 도 3의 (a)의 입력영상으로부터 분할된 후보영역들을 나타낸 도면이고, (b)는 단일 개체로 판별된 후보영역, (c)는 다중 개체로 판별된 후보영역, (d)는 변형 개체로 판별된 후보영역, (e)는 불가사리가 아닌 것으로 판별된 후보영역, 그리고 (f)는 (a)의 후보영역들 중에서 결정된 목표형상을 나타낸 것이다.FIG. 11 is a diagram illustrating an example of determining types of a plurality of candidate regions extracted from an input image. (A) of FIG. 11 shows candidate regions divided from the input image of (a) of FIG. 3, (b) is a candidate region determined as a single entity, (c) is a candidate region determined as multiple entities, (d) shows a candidate region determined as a deformable entity, (e) a candidate region determined as not a starfish, and (f) shows a target shape determined from among the candidate regions in (a).
다음의 표 4는 다양한 영상에 대하여 목표형상인 불가사리의 검출을 수행한 결과를 나타낸 것이다.Table 4 below shows the results of detection of starfish, which is a target shape, on various images.
개체수Direct sen
Population
개체수candidate
Population
아님starfish
no
Avideo
A
15
15
27
27
11
11
Bvideo
B
38
38
39
39
13
13
Cvideo
C
50
50
16
16
0
0
Dvideo
D
36
36
25
25
9
9
위 표 4에서 영상 A는 복잡한 배경과 수초 등에 의해 불가사리 개체의 형태가 변형된 영상, B는 불가사리 개체가 군집을 이룬 영상, C는 불가사리가 주로 단일 개체로 분포되어 있으며 잡음이 적은 영상, 그리고 D는 영상 C와 동일한 조건이나 정면에서 촬영된 것이 아닌 영상이다. 또한 괄호 안의 숫자는 불가사리가 아님에도 불가사리인 것으로 잘못 인식된 개체의 수를 나타낸 것이다.In Table 4, image A is an image in which starfish individuals are deformed due to complex backgrounds and plants, B is an image in which starfish objects are clustered, C is a starfish mainly distributed as a single object, and noise is low, and D The image is not taken in the same condition or in the front as the image C. Also, the numbers in parentheses indicate the number of individuals that were mistaken for starfish even though they are not starfish.
표 4로부터 본 발명에 따른 목표형상 검출장치는 촬영된 영상을 수동으로 분석하지 않아도 이상에서 설명한 영상처리 과정을 통하여 자동으로 수중의 불가사리 분포 및 위치를 획득할 수 있음을 확인할 수 있다.It can be seen from Table 4 that the target shape detection apparatus according to the present invention can automatically acquire the distribution and position of the underwater starfish through the image processing described above without manually analyzing the captured image.
도 12는 본 발명에 따른 영상에서의 목표형상 검출방법에 대한 바람직한 실시예의 수행과정을 도시한 흐름도이다.12 is a flowchart illustrating a preferred embodiment of the method for detecting a target shape in an image according to the present invention.
도 12를 참조하면, 전처리부(110)는 입력영상을 구성하는 각 화소의 화소값의 크기에 따라 사전에 설정된 색상값을 부여하여 컬러영상을 생성하고, 컬러영상의 각 화소의 색상값을 기초로 입력영상을 이진화하여 전처리 영상을 생성한다(S1010). 다음으로 레이블링부(120)는 전처리 영상을 서로 다른 레이블이 각각 부여된 복수의 영역으로 분할하여 목표형상을 검출하기 위한 후보영역을 추출한다(S1020).Referring to FIG. 12, the
중심 결정부(132)는 후보영역을 구성하는 화소들의 좌표정보를 기초로 후보영역의 중심점을 산출한다(S1030). 볼록 특징 추출부(134)는 후보영역의 외곽선을 추적하여 목표형상의 중심으로부터 외부를 향해 돌출된 지점에 대응하는 복수의 볼록 특징점을 추출한다(S1040). 또한 오목 특징 추출부(136)는 볼록 특징점들을 기초로 후보영역의 외곽선을 분할하여 목표형상의 중심을 향해 함몰된 지점에 대응하는 복수의 오목 특징점을 추출한다(S1050).The
마지막으로 형상 인식부(138)는 볼록 특징점 및 오목 특징점의 개수가 견본형상과 일치하면 후보영역을 목표형상으로 결정하여 출력한다(S1060).Finally, when the number of the convex feature points and the concave feature points coincide with the sample shape, the
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The present invention can also be embodied as computer-readable codes on a computer-readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may be implemented in the form of a carrier wave (for example, transmission via the Internet) . The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
이상에서 본 발명의 바람직한 실시예에 대해 도시하고 설명하였으나, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be taken by way of limitation in the embodiment in which said invention is directed. It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the scope of the appended claims.
110 - 전처리부
120 - 레이블링부
130 - 형상 검출부
132 - 중심 결정부
134 - 볼록 특징 추출부
136 - 오목 특징 추출부
138 - 형상 인식부110-preprocessor
120-Labeling Section
130-shape detection unit
132-Center Decision
134-Convex Feature Extraction
136-Concave Feature Extraction
138-shape recognition unit
Claims (15)
상기 전처리 영상을 서로 다른 레이블이 각각 부여된 복수의 영역으로 분할하여 목표형상을 검출하기 위한 후보영역을 추출하는 레이블링부; 및
상기 후보영역의 외곽선 형상으로부터 추출된 특징이 사전에 설정된 견본형상의 특징과 일치하면 상기 후보영역을 상기 목표형상으로 결정하여 출력하는 형상 검출부;를 포함하는 것을 특징으로 하는 목표형상 검출장치.A preprocessor configured to give a preset color value according to the size of the pixel value of each pixel constituting the input image, and to generate a preprocessed image by binarizing the input image based on the color value assigned to each pixel;
A labeling unit for dividing the preprocessed image into a plurality of regions each having different labels, and extracting candidate regions for detecting a target shape; And
And a shape detector which determines and outputs the candidate area as the target shape when the feature extracted from the outline shape of the candidate area matches a preset sample shape.
상기 레이블링부는 상기 복수의 영역 중에서 사전에 설정된 임계치 이상의 화소수를 가지는 영역을 상기 후보영역으로 결정하는 것을 특징으로 하는 목표형상 검출장치.The method of claim 1,
And the labeling unit determines, as the candidate area, an area having a pixel number equal to or greater than a predetermined threshold value among the plurality of areas as the candidate area.
상기 레이블링부는 상기 전처리 영상의 각 화소를 스캔하여 서로 다른 레이블이 부여된 각각의 후보영역의 너비 및 높이를 산출하고 상기 전처리 영상으로부터 분할하는 것을 특징으로 하는 목표형상 검출장치.The method of claim 1,
And the labeling unit scans each pixel of the preprocessed image, calculates a width and a height of each candidate region to which different labels are applied, and divides the candidate label from the preprocessed image.
상기 입력영상은 수중에서 촬영된 영상이며, 상기 후보영역 및 상기 목표형상은 불가사리의 형상인 것을 특징으로 하는 목표형상 검출장치.4. The method according to any one of claims 1 to 3,
The input image is an image captured in the water, and the target region and the target shape is a target shape detection device, characterized in that the shape of the starfish.
상기 형상 검출부는,
상기 후보영역을 구성하는 화소들의 좌표정보를 기초로 상기 후보영역의 중심점을 산출하는 중심 결정부;
상기 후보영역의 외곽선을 추적하여 상기 목표형상의 중심으로부터 외부를 향해 돌출된 지점에 대응하는 복수의 볼록 특징점을 추출하는 볼록 특징 추출부;
상기 볼록 특징점들을 기초로 상기 후보영역의 외곽선을 분할하여 상기 목표형상의 중심을 향해 함몰된 지점에 대응하는 복수의 오목 특징점을 추출하는 오목 특징 추출부; 및
상기 볼록 특징점 및 상기 오목 특징점의 개수가 상기 견본형상과 일치하면 상기 후보영역을 상기 목표형상으로 결정하여 출력하는 형상 인식부;를 포함하는 것을 특징으로 하는 목표형상 검출장치.5. The method of claim 4,
The shape detection unit,
A center determiner configured to calculate a center point of the candidate area based on coordinate information of pixels constituting the candidate area;
A convex feature extraction unit which extracts a plurality of convex feature points corresponding to points protruding outward from the center of the target shape by tracing the outline of the candidate area;
A concave feature extracting unit which extracts a plurality of concave feature points corresponding to points recessed toward the center of the target shape by dividing an outline of the candidate area based on the convex feature points; And
And a shape recognizing unit for determining and outputting the candidate area as the target shape when the number of the convex feature points and the concave feature points coincides with the sample shape.
상기 볼록 특징 추출부는 상기 후보영역을 포함하는 최소 크기의 영역인 외곽선 추적 영역을 구성하는 화소들을 순차적으로 스캔하여 얻어진 후보 블록점들을 서로 인접한 정도에 따라 복수의 후보군으로 분류하고, 각각의 후보군에 속하는 상기 후보 블록점 중에서 상기 후보영역의 중심점으로부터의 거리가 최대인 후보 블록점을 상기 후보군의 볼록 특징점으로 결정하는 것을 특징으로 하는 목표형상 검출장치.6. The method of claim 5,
The convex feature extracting unit classifies candidate block points obtained by sequentially scanning pixels constituting the outline tracking area, which is the smallest area including the candidate area, into a plurality of candidate groups according to a degree adjacent to each other, and belonging to each candidate group. And a candidate block point having a maximum distance from the center point of the candidate area among the candidate block points is determined as a convex feature point of the candidate group.
상기 오목 특징 추출부는 상기 볼록 특징점들을 기초로 상기 후보영역의 외곽선을 분할하여 얻어진 복수의 부분 외곽선 각각에 대하여 상기 중심점으로부터의 거리가 최소인 화소를 후보 오목점으로 결정하고, 상기 중심점으로부터 상기 각각의 볼록 특징점까지의 거리의 평균에 대한 상기 중심점으로부터 상기 후보 오목점까지의 거리의 비가 사전에 설정된 기준비율보다 작으면 상기 후보 오목점을 상기 오목 특징점으로 결정하는 것을 특징으로 하는 목표형상 검출장치.6. The method of claim 5,
The concave feature extractor determines a pixel having a minimum distance from the center point as a candidate concave point for each of a plurality of partial outlines obtained by dividing the outline of the candidate area based on the convex feature points, and each of the partial outlines is selected from the center point. And the candidate concave point is determined as the concave feature point if the ratio of the distance from the center point to the candidate concave point to the average of the distances to the convex feature point is smaller than a preset reference ratio.
상기 전처리 영상을 서로 다른 레이블이 각각 부여된 복수의 영역으로 분할하여 목표형상을 검출하기 위한 후보영역을 추출하는 레이블링단계; 및
상기 후보영역의 외곽선 형상으로부터 추출된 특징이 사전에 설정된 견본형상의 특징과 일치하면 상기 후보영역을 상기 목표형상으로 결정하여 출력하는 형상 검출단계;를 포함하는 것을 특징으로 하는 목표형상 검출방법.A preprocessing step of giving a pre-set color value according to the size of a pixel value of each pixel constituting an input image, and generating a preprocessed image by binarizing the input image based on the color value assigned to each pixel;
A labeling step of extracting candidate regions for detecting a target shape by dividing the preprocessed image into a plurality of regions each having different labels; And
And a shape detecting step of determining and outputting the candidate area as the target shape when the feature extracted from the outline shape of the candidate area matches a preset sample shape feature.
상기 레이블링단계에서, 상기 복수의 영역 중에서 사전에 설정된 임계치 이상의 화소수를 가지는 영역을 상기 후보영역으로 결정하는 것을 특징으로 하는 목표형상 검출방법.The method of claim 8,
And in the labeling step, a region having a pixel number equal to or greater than a predetermined threshold value among the plurality of regions is determined as the candidate region.
상기 레이블링단계에서, 상기 전처리 영상의 각 화소를 스캔하여 서로 다른 레이블이 부여된 각각의 후보영역의 너비 및 높이를 산출하고 상기 전처리 영상으로부터 분할하는 것을 특징으로 하는 목표형상 검출방법.The method of claim 8,
In the labeling step, the target shape detection method, characterized in that for scanning each pixel of the pre-processing image to calculate the width and height of each candidate region given a different label and to divide from the pre-processed image.
상기 입력영상은 수중에서 촬영된 영상이며, 상기 후보영역 및 상기 목표형상은 불가사리의 형상인 것을 특징으로 하는 목표형상 검출방법.The method according to any one of claims 8 to 10,
The input image is an image photographed underwater, and the candidate region and the target shape are the shape of a starfish.
상기 형상 검출단계는,
상기 후보영역을 구성하는 화소들의 좌표정보를 기초로 상기 후보영역의 중심점을 산출하는 중심 결정단계;
상기 후보영역의 외곽선을 추적하여 상기 목표형상의 중심으로부터 외부를 향해 돌출된 지점에 대응하는 복수의 볼록 특징점을 추출하는 볼록 특징 추출단계;
상기 볼록 특징점들을 기초로 상기 후보영역의 외곽선을 분할하여 상기 목표형상의 중심을 향해 함몰된 지점에 대응하는 복수의 오목 특징점을 추출하는 오목 특징 추출단계; 및
상기 볼록 특징점 및 상기 오목 특징점의 개수가 상기 견본형상과 일치하면 상기 후보영역을 상기 목표형상으로 결정하여 출력하는 형상 인식단계;를 포함하는 것을 특징으로 하는 목표형상 검출방법.12. The method of claim 11,
The shape detection step,
A center determining step of calculating a center point of the candidate area based on coordinate information of pixels constituting the candidate area;
A convex feature extraction step of extracting a plurality of convex feature points corresponding to points protruding outward from the center of the target shape by tracing an outline of the candidate area;
A concave feature extraction step of dividing an outline of the candidate area based on the convex feature points and extracting a plurality of concave feature points corresponding to a point recessed toward the center of the target shape; And
And a shape recognizing step of determining and outputting the candidate area as the target shape when the number of the convex feature points and the concave feature points coincides with the sample shape.
상기 볼록 특징 추출단계에서, 상기 후보영역을 포함하는 최소 크기의 영역인 외곽선 추적 영역을 구성하는 화소들을 순차적으로 스캔하여 얻어진 후보 블록점들을 서로 인접한 정도에 따라 복수의 후보군으로 분류하고, 각각의 후보군에 속하는 상기 후보 블록점 중에서 상기 후보영역의 중심점으로부터의 거리가 최대인 후보 블록점을 상기 후보군의 볼록 특징점으로 결정하는 것을 특징으로 하는 목표형상 검출방법.13. The method of claim 12,
In the convex feature extraction step, candidate block points obtained by sequentially scanning pixels constituting an outline tracking area, which is a region having the smallest size including the candidate area, are classified into a plurality of candidate groups according to the extent to which they are adjacent to each other. And a candidate block point having a maximum distance from a center point of the candidate area among the candidate block points belonging to is determined as a convex feature point of the candidate group.
상기 오목 특징 추출단계에서, 상기 볼록 특징점들을 기초로 상기 후보영역의 외곽선을 분할하여 얻어진 복수의 부분 외곽선 각각에 대하여 상기 중심점으로부터의 거리가 최소인 화소를 후보 오목점으로 결정하고, 상기 중심점으로부터 상기 각각의 볼록 특징점까지의 거리의 평균에 대한 상기 중심점으로부터 상기 후보 오목점까지의 거리의 비가 사전에 설정된 기준비율보다 작으면 상기 후보 오목점을 상기 오목 특징점으로 결정하는 것을 특징으로 하는 목표형상 검출방법.13. The method of claim 12,
In the concave feature extraction step, a pixel having a minimum distance from the center point is determined as a candidate concave point for each of a plurality of partial outlines obtained by dividing the outline of the candidate area based on the convex feature points, and from the center point, And if the ratio of the distance from the center point to the candidate concave point to the average of the distances to each convex feature point is smaller than a preset reference ratio, the candidate concave point is determined as the concave feature point. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110051989A KR101249374B1 (en) | 2011-05-31 | 2011-05-31 | Apparatus and method for detecting target shape from image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110051989A KR101249374B1 (en) | 2011-05-31 | 2011-05-31 | Apparatus and method for detecting target shape from image |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20120133352A true KR20120133352A (en) | 2012-12-10 |
KR101249374B1 KR101249374B1 (en) | 2013-04-01 |
Family
ID=47516751
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110051989A KR101249374B1 (en) | 2011-05-31 | 2011-05-31 | Apparatus and method for detecting target shape from image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101249374B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150087610A (en) * | 2014-01-22 | 2015-07-30 | 한국해양과학기술원 | Method and apparatus for matching data |
KR20200054615A (en) * | 2018-11-12 | 2020-05-20 | 재단법인대구경북과학기술원 | Method and system for detecting a plurality of lowest points of a single segment in an image |
CN111667496A (en) * | 2020-05-18 | 2020-09-15 | 中国农业大学 | Method and device for segmenting image of adhered fish body |
CN117408998A (en) * | 2023-12-13 | 2024-01-16 | 真健康(广东横琴)医疗科技有限公司 | Body surface positioning marker segmentation method and device |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3561680B2 (en) * | 2000-07-14 | 2004-09-02 | 三洋電機株式会社 | Digital camera |
KR20050098211A (en) * | 2004-04-06 | 2005-10-11 | (주)브이에스테크 | A system for checking the shape of an object using a plurality of cameras being obliquely disposed |
KR20090027550A (en) * | 2007-10-24 | 2009-03-17 | 주식회사 코아로직 | System and method for detecting object of image and computer readable medium stored thereon computer executable instruction recorded with time-series data structure |
JP5487737B2 (en) * | 2009-06-08 | 2014-05-07 | カシオ計算機株式会社 | Image processing apparatus, image processing method, and image processing program |
-
2011
- 2011-05-31 KR KR1020110051989A patent/KR101249374B1/en not_active IP Right Cessation
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150087610A (en) * | 2014-01-22 | 2015-07-30 | 한국해양과학기술원 | Method and apparatus for matching data |
KR20200054615A (en) * | 2018-11-12 | 2020-05-20 | 재단법인대구경북과학기술원 | Method and system for detecting a plurality of lowest points of a single segment in an image |
CN111667496A (en) * | 2020-05-18 | 2020-09-15 | 中国农业大学 | Method and device for segmenting image of adhered fish body |
CN111667496B (en) * | 2020-05-18 | 2023-11-21 | 中国农业大学 | Adhered fish body image segmentation method and device |
CN117408998A (en) * | 2023-12-13 | 2024-01-16 | 真健康(广东横琴)医疗科技有限公司 | Body surface positioning marker segmentation method and device |
CN117408998B (en) * | 2023-12-13 | 2024-03-12 | 真健康(广东横琴)医疗科技有限公司 | Body surface positioning marker segmentation method and device |
Also Published As
Publication number | Publication date |
---|---|
KR101249374B1 (en) | 2013-04-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2302656C2 (en) | Image identification system | |
KR101035768B1 (en) | Method for setting lip region for lip reading and apparatus for the same | |
CN106991370B (en) | Pedestrian retrieval method based on color and depth | |
KR20110020718A (en) | Target analysis apparatus and method of the same | |
JP2002208014A (en) | Multi-mode digital image processing method for detecting eye | |
JP2001216515A (en) | Method and device for detecting face of person | |
WO2010131435A1 (en) | Pattern recognition apparatus and method therefor configured to recognize object and another lower-order object | |
CN103295013A (en) | Pared area based single-image shadow detection method | |
CN107977592B (en) | Image text detection method and system, user terminal and server | |
KR101249374B1 (en) | Apparatus and method for detecting target shape from image | |
CN115170792B (en) | Infrared image processing method, device and equipment and storage medium | |
Kluger et al. | Region-based cycle-consistent data augmentation for object detection | |
Palou et al. | Occlusion-based depth ordering on monocular images with binary partition tree | |
CN111915509A (en) | Protection pressing plate state identification method based on image processing shadow removal optimization | |
Ali et al. | A robust and efficient system to detect human faces based on facial features | |
KR100755800B1 (en) | Face detector and detecting method using facial color and adaboost | |
CN113920585A (en) | Behavior recognition method and device, equipment and storage medium | |
KR100543706B1 (en) | Vision-based humanbeing detection method and apparatus | |
CN117475353A (en) | Video-based abnormal smoke identification method and system | |
KR20130128097A (en) | Object recognition method and apparatus using depth information | |
KR100606404B1 (en) | Method and apparatus for detecting color code image | |
KR101357581B1 (en) | A Method of Detecting Human Skin Region Utilizing Depth Information | |
KR101032581B1 (en) | Automatic method for discriminating harmful image | |
Sirmacek | Graph theory and mean shift segmentation based classification of building facades | |
Bevilacqua et al. | Face detection by means of skin detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20160422 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20170419 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20180306 Year of fee payment: 6 |
|
LAPS | Lapse due to unpaid annual fee |