KR101490027B1 - Apparatus and method for processing image - Google Patents
Apparatus and method for processing image Download PDFInfo
- Publication number
- KR101490027B1 KR101490027B1 KR20130066808A KR20130066808A KR101490027B1 KR 101490027 B1 KR101490027 B1 KR 101490027B1 KR 20130066808 A KR20130066808 A KR 20130066808A KR 20130066808 A KR20130066808 A KR 20130066808A KR 101490027 B1 KR101490027 B1 KR 101490027B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- feature
- feature regions
- regions
- unit
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/10—Pre-processing; Data cleansing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/32—Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Bioinformatics & Computational Biology (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
본 발명은 입력 영상에서 특징 영역을 효율적으로 구성할 수 있는 영상 처리 방법 및 장치에 관한 것이다.
본 발명의 일실시예에 의한 영상 처리 방법은 표적 영상의 특징값이 저장된 데이터베이스를 유지하는 단계; 입력 영상을 수신하는 단계; 상기 입력 영상에서 부분 영상을 추출하는 단계; 상기 부분 영상에서 복수의 특징 영역을 선택하는 단계; 및 상기 복수의 특징 영역의 균일한 분포 정도를 고려하여 상기 선택된 복수의 특징 영역이 상기 표적 영상과 비교할 수 있는 후보인지 여부를 검증하는 단계를 포함할 수 있다.The present invention relates to an image processing method and apparatus capable of efficiently configuring a feature region in an input image.
According to an embodiment of the present invention, there is provided an image processing method comprising: maintaining a database storing characteristic values of a target image; Receiving an input image; Extracting a partial image from the input image; Selecting a plurality of feature regions from the partial image; And verifying whether the selected plurality of feature regions are candidates that can be compared with the target image in consideration of a uniform distribution degree of the plurality of feature regions.
Description
본 발명은 영상 처리 방법 및 장치에 관한 것으로, 보다 상세하게는 입력 영상에서 특징 영역을 효율적으로 구성할 수 있는 영상 처리 방법 및 장치에 관한 것이다.The present invention relates to an image processing method and apparatus, and more particularly, to an image processing method and apparatus capable of efficiently configuring a feature region in an input image.
표적 인식은 영상 처리 분야에서 오래도록 연구되어온 주제 중 하나이다. 표적 인식은 표적의 특징점에서 불변하는 특징정보로 표적 유사도를 계산하는 SIFT나 SURF 같은 방법, 무작위 나무들(Randomized trees)을 학습하는 방법 그리고 매우 단순화된 다수의 의사결정 나무(Decision trees)들을 사용하는 방법(Fern 알고리즘) 등이 연구되어 왔다.Target recognition is one of the longest studied topics in image processing. Target recognition is based on a method such as SIFT or SURF, which computes the target similarity from the feature points of the target to unchanging feature information, the method of learning randomized trees, and the use of a very simplified number of decision trees Method (Fern algorithm) have been studied.
표적을 검출하는 종래 기술은 입력 영상으로부터 표적 물체를 검출하기 위해 임의의 크기와 위치를 갖는 다수의 영역을 선정하고, 이 임의의 영역을 이용하여 표적을 검출하는 방식을 사용한다. 예를 들어, 상기 임의의 영역을 이용하여 표적 영상에서는 표적 영상으로부터 각각의 영역에서 추출된 특징을 학습하고, 입력 영상에서는 표적 영상과 같은 크기로 1픽셀 단위씩 이동하며 동일한 영역에서 추출된 특징을 학습해둔 특징과 비교하여 유사한 물체를 검출할 수 있다.A conventional technique for detecting a target uses a method of selecting a plurality of regions having an arbitrary size and position to detect a target object from an input image and detecting the target using the arbitrary region. For example, in the target image, the feature extracted from each region is learned from the target image using the arbitrary region, the feature extracted from the same region is shifted by one pixel unit in the same size as the target image in the input image, Similar objects can be detected compared with learned features.
상기 종래 기술은 임의의 영역을 선정할 때 아무런 조건 없이 선정을 하였기 때문에, 한쪽으로 치우쳐진 영역을 선택할 수 있으며, 이는 표적 물체와, 표적이 아닌 물체를 구별해줄 특징을 놓칠 위험이 있다.Since the prior art has selected the arbitrary region without any condition, it is possible to select a region shifted to one side, which may miss features that distinguish the target object from the non-target object.
대한민국 공개번호 제10-2011-0062413호에는 표적의 현재 중심 위치를 중심으로 제1 검색 영역을 설정하는 단계, 제1 검색 영역의 각 컬러의 중심을 산출하는 단계 및 각 컬러의 중심 및 표적이 존재하는 초기 프레임에서 기산출된 표적에 대한 각 컬러의 가중치를 이용하여 표적의 중심 위치를 추적하는 단계를 포함하는 표적 추적 방법이 개시된다.Korean Patent Publication No. 10-2011-0062413 discloses a method of setting a first search area around a current center position of a target, calculating the center of each color of the first search area, Tracking the center position of the target using the weight of each color for the pre-computed target in the initial frame.
하지만 상기 대한민국 공개번호 제10-2011-0062413호에는 선정된 영역이 기 저장된 표적 영상의 특징과 비교할 수 있는 대상이 되는지를 검증하는 방법에 대해서는 개시되어 있지 않다.However, Korean Patent Publication No. 10-2011-0062413 does not disclose a method for verifying whether a selected region is comparable to a feature of a target image previously stored.
따라서 선정된 영역과 표적 영상의 비교 전에 선정된 영역이 표적 영상과 비교할 적합한 후보인지를 검증을 통해 입력 영상에서 특징 영역을 효율적으로 구성하는 방법에 대한 연구가 필요한 실정이다.Therefore, it is necessary to study how to construct the feature region efficiently in the input image by verifying whether the selected region is a suitable candidate compared with the target image before comparing the selected region with the target image.
본 발명의 목적은 입력 영상에서 표적의 인식률을 향상시키기 위하여 입력 영상에서 특징 영역을 효율적으로 구성할 수 있는 영상 처리 방법 및 장치를 제공하는 데 있다.An object of the present invention is to provide an image processing method and apparatus capable of efficiently configuring a feature region in an input image in order to improve a recognition rate of a target in an input image.
상기 목적을 달성하기 위해 본 발명의 일실시예에 의하면, 표적 영상의 특징 정보가 저장된 데이터베이스를 유지하는 단계; 입력 영상을 수신하는 단계; 상기 입력 영상에서 부분 영상을 추출하는 단계; 상기 부분 영상에서 복수의 특징 영역을 선택하는 단계; 및 상기 복수의 특징 영역의 균일한 분포 정도를 고려하여 상기 선택된 복수의 특징 영역이 상기 표적 영상과 비교할 수 있는 후보인지 여부를 검증하는 단계를 포함하는 영상 처리 방법이 제공된다.According to an embodiment of the present invention, there is provided a method for processing a target image, the method comprising: maintaining a database storing characteristic information of a target image; Receiving an input image; Extracting a partial image from the input image; Selecting a plurality of feature regions from the partial image; And verifying whether or not the selected plurality of feature regions are candidates that can be compared with the target image in consideration of a uniform distribution degree of the plurality of feature regions.
상기 목적을 달성하기 위해 본 발명의 일실시예에 의하면, 표적 영상의 특징 정보가 저장된 데이터베이스; 입력 영상을 수신하는 영상 입력부; 상기 입력 영상에서 부분 영상을 추출하는 영상 추출부; 상기 부분 영상에서 복수의 특징 영역을 선택하는 특징 영역 선택부; 상기 복수의 특징 영역의 균일한 분포 정도를 고려하여 상기 선택된 복수의 특징 영역이 상기 표적 영상과 비교할 수 있는 후보인지 여부를 검증하는 검증부; 및 상기 데이터베이스, 상기 영상 입력부, 상기 추출부, 및 상기 검증부를 제어하는 제어부를 포함하는 영상 처리 장치가 제공된다.According to an aspect of the present invention, there is provided an image processing apparatus including a database storing characteristic information of a target image; An image input unit for receiving an input image; An image extracting unit for extracting a partial image from the input image; A feature region selection unit for selecting a plurality of feature regions from the partial image; A verifying unit for verifying whether the selected plurality of feature regions are candidates that can be compared with the target image in consideration of a uniform distribution degree of the plurality of feature regions; And a control unit for controlling the database, the image input unit, the extraction unit, and the verification unit.
본 발명의 일실시예에 의한 영상 처리 방법은 입력 영상에서 선택된 복수의 특징 영역의 균일한 분포 정도를 고려하여 상기 복수 특징 영역의 선택 적합성을 검증함으로써, 입력 영상에서 표적의 인식률을 향상시킬 수 있다.The image processing method according to an embodiment of the present invention can improve the recognition rate of the target in the input image by verifying the selection suitability of the plurality of feature regions in consideration of the uniform distribution degree of the plurality of feature regions selected from the input image .
도 1은 본 발명의 일실시예와 관련된 영상 처리 장치의 블록도이다.
도 2는 본 발명의 일실시예와 관련된 영상 처리 방법을 나타내는 흐름도이다.
도 3 내지 도 4는 본 발명의 일실시예와 관련된 영상 처리 방법 중 누적 정규화 영상을 획득하는 방법을 설명하기 위한 도면이다.
도 5는 본 발명의 일실시예와 관련된 영상 처리 방법 중 특징값 비교를 위해 사용되는 2비트 이진 형태를 설명하기 위한 도면이다.
도 6 내지 도 7은 본 발명의 일실시예와 관련된 영상 처리 방법의 설명을 위해 사용되는 누적 정규화 영상의 상관계수와 인식률과의 관계를 나타내는 도면이다.1 is a block diagram of an image processing apparatus according to an embodiment of the present invention.
2 is a flowchart illustrating an image processing method according to an embodiment of the present invention.
FIGS. 3 to 4 are diagrams for explaining a method of acquiring a cumulative normalized image among image processing methods related to an embodiment of the present invention.
5 is a diagram for explaining a 2-bit binary form used for feature value comparison among image processing methods according to an embodiment of the present invention.
FIGS. 6 to 7 are diagrams showing the relationship between the correlation coefficient of the cumulative normalized image used for explaining the image processing method according to an embodiment of the present invention and the recognition rate. FIG.
이하, 본 발명의 일실시예와 관련된 영상 처리 방법 및 장치에 대해 도면을 참조하여 설명하도록 하겠다.Hereinafter, an image processing method and apparatus according to an embodiment of the present invention will be described with reference to the drawings.
본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.As used herein, the singular forms "a", "an" and "the" include plural referents unless the context clearly dictates otherwise. In this specification, the terms "comprising ", or" comprising ", etc. should not be construed as necessarily including the various elements or steps described in the specification, Or may be further comprised of additional components or steps.
도 1은 본 발명의 일실시예와 관련된 영상 처리 장치의 블록도이다.1 is a block diagram of an image processing apparatus according to an embodiment of the present invention.
도시된 바와 같이, 영상 처리 장치(100)는 데이터베이스(110), 영상 입력부(120), 영상 추출부(130), 특징 영역 선택부(140), 검증부(150), 특징값 비교부(160), 및 제어부(170)를 포함할 수 있다.The
데이터베이스(110)는 검출하고자 하는 표적 물체가 촬영된 표적 영상의 특징값이 저장된다. 상기 표적 영상의 특징값은 학습을 통해 결정될 수 있다.The
영상 입력부(120)는 입력 영상을 수신할 수 있다. 상기 입력 영상은 표적 영상의 특징값과 비교의 대상의 되는 영상을 포함할 수 있다.The
영상 추출부(130)는 상기 입력 영상에서 일부분(이하, '부분 영상'이라 함)을 추출할 수 있다. The
특징 영역 선택부(140)는 상기 부분 영상에서 겹쳐질 수 있으며, 임의의 크기와 위치를 갖는 복수의 특징 영역을 선택할 수 있다. 즉, 특징 영역 선택부(140)는 상기 부분 영상에서 랜덤하게 복수의 특징 영역을 선택할 수 있다.The feature
검증부(150)는 상기 부분 영상에서 선택된 복수의 특징 영역이 균일하게 분포되어 있는지 여부를 검증할 수 있다. 상기 검증부(150)는 상기 선택된 복수의 특징 영역이 균일하게 분포되어 있는 경우, 상기 복수의 특징 영역을 상기 표적 영상과 비교할 수 있는 후보로 선정할 수 있다. 상기 검증은 상기 부분 영상의 누적 정규화 영상의 상관계수를 이용하여 수행될 수 있다. 상기 선택된 복수의 특징 영역의 균일한 분포 정도는 후술하도록 하겠다.The
특징값 비교부(160)는, 상기 선택된 복수의 특징 영역이 상기 표적 영상과 비교할 수 있는 후보로 검증된 경우, 상기 선택된 복수의 특징 영역의 특징값과 상기 데이터베이스(110)에 저장된 표적 영상의 특징값과 비교를 비교할 수 있다. 상기 특징값 비교를 통해 입력 영상에서 표적이 검출될 수 있다. 상기 특징값 비교는 fern 알고리즘을 이용하여 수행될 수 있다. fern 알고리즘에 대해서는 후술하도록 하겠다.The feature
제어부(170)는 상기 데이터베이스(110), 영상 입력부(120), 영상 추출부(130), 특징 영역 선택부(140), 검증부(150), 특징값 비교부(160)를 전반적으로 제어할 수 있다.The
도 2는 본 발명의 일실시예와 관련된 영상 처리 방법을 나타내는 흐름도이다.2 is a flowchart illustrating an image processing method according to an embodiment of the present invention.
데이터베이스(110)는 표적 영상의 특징값을 포함하는 특징 정보가 저장될 수 있다(S210). 상기 표적 영상의 특징값은 학습을 통해 결정될 수 있다.The
영상 입력부(120)는 표적 물체 검출의 대상이 되는 입력 영상을 수신할 수 있다(S220).The
이 경우, 영상 추출부(130)는 표적 물체를 검출의 편리를 위해 입력 영상의 부분 영상을 추출할 수 있다(S230). 예를 들어, 상기 영상 추출부(130)는 상기 표적 영상과 같은 크기로 1픽셀 단위로 이동하면서 부분 영상을 추출할 수 있다.In this case, the
특징 영역 선택부(140)는 상기 부분 영상에서 복수의 특징 영역을 선택할 수 있다(S240). 상기 복수의 특징 영역은 서로 겹쳐질 수 있으며, 임의의 크기와 위치를 갖을 수 있다. 즉, 특징 영역 선택부(140)는 상기 부분 영상에서 랜덤하게 복수의 특징 영역을 선택할 수 있다.The feature
상기 검증부(150)는 상기 선택된 복수의 특징 영역이 균일하게 구성되어 있는지를 검증할 수 있다(S250). 이는 부분 영상에서 선택된 복수의 특징 영역이 한쪽으로 치우쳐 오류가 있는 표적 물체를 검출하는 것을 방지하기 위함이다. 선택된 복수의 특징 영역이 어느 한쪽으로 치우쳐진 경우, 표적 물체와 표적이 아닌 물체를 구별해줄 특징을 놓칠 위험성이 있다.The verifying
상기 선택된 복수의 특징 영역이 균일하게 구성되어 있는지 여부에 대한 검증은 상기 누적 정규화 영상의 상관계수를 이용하여 수행될 수 있다. 누적 정규화 영상이란 각각의 영역과 동일한 영역에 일정한 값을 누적한 뒤 정규화 하여 얻어진 영상을 말한다. The verification of whether the selected plurality of feature regions are uniformly constructed can be performed using correlation coefficients of the cumulative normalized image. The accumulated normalized image is an image obtained by accumulating a certain value in the same area as each area and normalizing the accumulated value.
도 3은 일실시예와 관련된 영상 처리 방법 중 누적 정규화 영상을 획득하는 방법을 설명하기 위한 도면이다. 특히, 선택된 복수의 특징 영역의 개수에 따라 누적 정규화 영상을 생성하는 과정을 나타낸다.3 is a view for explaining a method of acquiring a cumulative normalized image among image processing methods related to an embodiment. In particular, a process of generating a cumulative normalized image according to the number of selected feature regions is shown.
도 3은 를 생성하는 과정을 단계별로 보여주고 있다. 은 n개의 특징 영역을 가지는 누적 정규화 영상을 나타낸다. 도 3(a)는 임의로 선택된 첫 번째 특징정보 영역에 대한 을 보여준다. 이하, 본 발명의 일실시예에서는 2비트 이진 형태를 특징 정보로 사용하기 때문에 특징 영역이 사각형 모양으로 형성된다. 도 3의 (b)는 임의로 선택된 네 번째까지의 영역에 대한 를 표현하고 있다. 도 3의 (c)는 임의로 선택된 스무 번째까지의 영역에 대한 을 보여준다. 도 3의 (d)는 300개의 특징정보 영역에 대한 을 나타내고 있다. 도 3의 (d)의 누적 정규화 영상을 통하여 특정 지역이 밝을수록 해당 부분의 누적양이 많고, 반대로 특정 지역이 어두울수록 해당 부분의 누적양이 적음을 시각적으로 확인할 수 있다. 만약 누적 정규화 영상에서 전체적인 아닌 지역적으로 밝고 어두운 부분이 다수 존재한다면, 특징 정보를 추출하는 영역 분포가 균일하지 않다는 것을 의미한다.3, As shown in FIG. Represents a cumulatively normalized image having n feature regions. FIG. 3 (a) is a graph showing the relationship between Lt; / RTI > Hereinafter, in the embodiment of the present invention, since the 2-bit binary form is used as the feature information, the feature region is formed in a rectangular shape. FIG. 3 (b) is a graph showing the relationship between the . FIG. 3 (c) is a graph showing the relationship between Lt; / RTI > FIG. 3 (d) shows the relationship between . The accumulative normalized image of FIG. 3 (d) can visually confirm that the cumulative amount of the portion is larger as the specific region is brighter, and conversely, as the specific region is darker, the cumulative amount of the portion is less. If there are many bright and dark parts in the cumulative normalized image as a whole and not in the region, it means that the area distribution for extracting feature information is not uniform.
도 4는 본 발명의 일실시예와 관련된 영상 처리 방법 중 누적 정규화 영상을 획득하는 방법을 설명하기 위한 도면이다.4 is a view for explaining a method of acquiring a cumulative normalized image among image processing methods according to an embodiment of the present invention.
도 4는 임의로 선택된 개의 특징정보 영역으로 생성된 표적의 누적 정규화 영상 tN과 오 검출 영상의 누적 정규화 영상 eN을 스케일링한 영상을 나타낸다.FIG. The cumulative normalized image t N of the target generated by the feature information areas and the cumulative normalized image e N of the false detection image are scaled.
도 4 (a)는 표적 영상을 나타내고, 도 4 (b)는 표적 영상의 누적 정규화 영상 tN을 나타낸다. 도 4 (c)는 오 검출 영상을 나타내고, 도 4 (d)는 오 검출 영상의 누적 정규화 영상 eN을 나타낸다. 4 (a) shows a target image, and Fig. 4 (b) shows a cumulative normalized image t N of the target image. FIG. 4 (c) shows an erroneously detected image, and FIG. 4 (d) shows a cumulatively normalized image e N of an erroneously detected image.
누적 정규화 영상 IN은 두 가지 목적을 위하여 생성된다. 첫 번째는 후술할 부분 영상에 포함된 복수의 특징 영역의 상관계수 C를 계산하기 위해서, 두 번째는 임의의 특징정보 영역이 얼마나 균일하게 구성되어 있는지를 시각적으로 쉽게 확인하기 위해서이다. 복수의 특징 영역의 상관계수 C는 상기 복수의 특징 영역이 얼마나 균일한지를 나타내는 지표로 활용될 수 있다. 예를 들어, 검증부(150)는 상기 상관 계수 C가 0에 가까울수록 복수의 특징 영역이 균일하게 분포되어 있다고 판단할 수 있다.The cumulative normalized image I N is generated for two purposes. First, in order to calculate a correlation coefficient C of a plurality of feature areas included in a partial image to be described later, the second is to visually confirm how uniformly an arbitrary feature information area is constructed. The correlation coefficient C of the plurality of feature regions can be utilized as an index indicating how uniform the plurality of feature regions are. For example, the
IN에서 누적된 값들의 균일한 분포 정도를 측정하기 위해, 수학식 1을 이용하여 상관계수 C를 계산할 수 있다.In order to measure the degree of uniform distribution of the values accumulated in I N , the correlation coefficient C can be calculated using Equation (1).
여기서, IN은 N개의 특징 영역을 가지는 누적 정규화 영상을 나타내고, X와 Y는 각각 영상의 가로, 세로 길이를 의미하고. 와 는 각각 IN의 축 평균값의 위치, 축 평균값의 위치이다. T는 정규화 단위이고, 와 는 각각 IN의 축 표준편차, 축 표준편차를 의미한다. S는 IN의 전체 합이고, C는 상관계수를 의미한다. 검증부(150)는 상관계수 C가 0에 가까울수록 특징정보 영역이 균일하게 분포되었다고 판단할 수 있다. Here, IN denotes a cumulatively normalized image having N feature regions, X and Y are It means the horizontal and vertical length of the image. Wow Respectively, The position of the axial average value, It is the position of the axis mean value. T is a normalization unit, Wow Respectively, Axis standard deviation, Axis standard deviation. S is the total sum of IN, and C is the correlation coefficient. The
도 4의 (b)와 (d)에 사용된 누적 정규화 영상은 부분 영상에서 임의로 선택된 영역의 2비트 이진 형태의 밝은 부분만 누적하였다. 시각적으로 도 4의 (a)와 (c)는 명백히 다르지만, 각각의 누적 정규화 영상인 도 4의 (b)와 (d)는 서로 유사하다. 결과적으로 선택된 복수의 특징 영역의 검증을 수행하지 않는 Fern 알고리즘은 도 4의 (c)을 (a)와 유사한 패턴으로 분류한다. 이런 잘못된 분류가 발생하는 이유는 임의로 선택된 영역의 특징정보가 도 4의 (a)와 (c)를 분류하는 특징정보를 포함하지 못했기 때문이다. 도 4와 같이 임의로 선택된 영역이 균일하게 분포되지 않을 경우 두 영상을 분류하는 특징정보를 포함하지 않을 수 있다. 반대로 임의로 선택된 영역이 균일하다면 두 영상을 분류하는 특징정보를 포함할 가능성이 높다.The cumulative normalized image used in FIGS. 4 (b) and 4 (d) accumulates only the bright portion of the 2-bit binary form of the region arbitrarily selected in the partial image. Visually, Figures 4 (a) and 4 (c) are obviously different, but the respective accumulated normalized images (b) and (d) of Figure 4 are similar to each other. As a result, the Fern algorithm that does not perform verification of a plurality of selected feature regions classifies (c) in FIG. 4 into a pattern similar to (a). The reason why such an erroneous classification occurs is that the feature information of the arbitrarily selected region does not include feature information that classifies (a) and (c) in FIG. If the arbitrarily selected regions are not uniformly distributed as shown in FIG. 4, they may not include feature information for classifying the two images. Conversely, if the arbitrarily selected region is uniform, it is highly likely to include feature information for classifying the two images.
따라서 검증부(150)의 선택된 복수 특징 영역의 검증을 통해 표적 물체의 인식률을 높일 수 있다. 검증부(150)는, 상기 복수의 특징 영역이 균일하게 분포된 경우(즉, 산출된 상관 계수 C가 0에 특정 범위 이내로 가까운 값인 경우), 상기 복수의 특징 영역을 상기 표적 영상의 특징값과 비교할 수 있는 후보로 선정할 수 있다.Therefore, the recognition rate of the target object can be increased through the verification of the selected plurality of feature regions of the
상기 복수의 특징 영역이 상기 후보로 선정되지 못한 경우, 상기 부분 영상에서 복수의 특징 영역을 선택하는 과정(S240) 및 재선택된 복수의 특징 영역의 검증 과정(S250)이 다시 수행될 수 있다.If the plurality of feature regions are not selected as candidates, a process of selecting a plurality of feature regions (S240) and a process of verifying a plurality of feature regions (S250) may be performed again.
상기 복수의 특징 영역이 상기 후보로 선정된 경우, 상기 특징값 비교부(160)는 상기 복수의 특징 영역의 특징값과 상기 데이터베이스(110)에 저장된 표적 영상의 특징값을 비교하여 유사도를 비교하여 부분 영상에 포함된 표적 물체를 검출할 수 있다(S260, S270, S280). 상기 특징값 비교는 Fern 알고리즘을 이용하여 수행될 수 있다. When the plurality of feature regions are selected as candidates, the feature
Fern 알고리즘은 임의로 선택된 단순한 특징정보들로 다수의 의사결정 나무들을 구성하여 특정 패턴을 구분하는 알고리즘이다. Fern 알고리즘은 간단하게 다음과 같이 설명될 수 있다.The Fern algorithm is an algorithm that divides a specific pattern by constructing a plurality of decision trees with arbitrarily selected simple feature information. The Fern algorithm can be briefly described as follows.
수학식 2에서 는 특징정보, 는 부류(Class), 는 Fern을 의미하며 개의 로 구성되어 있고, 각각 독립적이다. 는 이진값을 갖는 특징정보로써 수학식 3과 같이 표현될 수 있다.In Equation 2, The feature information, Class, Means Fern doggy And are independent of each other. Can be expressed as Equation (3) as feature information having a binary value.
수학식 3에서 I(dj, 1)와 I(dj, 2)와 부분 영상에서 특정 영역의 밝기 값을 의미한다. In Equation (3), I (d j , 1) and I (d j , 2) denote brightness values of a specific region in the partial image.
Fern 알고리즘은 특징 정보로 2비트 이진 형태를 사용할 수 있다.The Fern algorithm can use a 2-bit binary form as feature information.
도 5는 본 발명의 일실시예와 관련된 영상 처리 방법 중 특징값 비교를 위해 사용되는 2비트 이진 형태를 설명하기 위한 도면이다.5 is a diagram for explaining a 2-bit binary form used for feature value comparison among image processing methods according to an embodiment of the present invention.
2비트 이진 형태를 계산하는 순서는 다음과 같다. 우선 부분 영상 내에서 임의의 위치와 임의의 크기를 갖는 영역을 설정하여, 가로로 절반을 나누어 위, 아래 영역의 밝기 값의 합의 크기를 비교하고, 세로로 절반을 나누어 좌, 우 영역의 밝기 값의 합의 크기를 비교한다. 각각의 결과 값은 0 또는 1의 값을 갖는다. 가로, 세로 방향에 각각 1비트의 값이 생성되어, 총 2비트의 값을 얻게 된다. 이 결과값을 2비트 이진 형태 값으로 사용한다. 본 발명의 일실시예는 특징값 비교를 위해 2비트 이진 형태를 특징 정보로 사용한 Fern 알고리즘을 사용할 수 있다.The order of calculating the 2-bit binary form is as follows. First, a region having an arbitrary position and an arbitrary size is set in the partial image, and the size of the sum of the brightness values of the upper and lower regions is divided by dividing the half by half, and the brightness values of the left and right regions Is compared. Each result value has a value of 0 or 1. A value of 1 bit is generated in each of the horizontal and vertical directions, and a total of 2 bits is obtained. This result value is used as a 2-bit binary form value. In an embodiment of the present invention, a Fern algorithm using 2-bit binary form as feature information may be used for feature value comparison.
도 6 내지 도 7은 본 발명의 일실시예와 관련된 영상 처리 방법의 설명을 위해 사용되는 누적 정규화 영상의 상관계수와 인식률과의 관계를 나타내는 도면이다.FIGS. 6 to 7 are diagrams showing the relationship between the correlation coefficient of the cumulative normalized image used for explaining the image processing method according to an embodiment of the present invention and the recognition rate. FIG.
도 6은 표적 인식률을 평가하기 위하여 서로 다른 크기의 영상과 서로 다른 크기의 표적에 대해 인식률을 측정하였다. 실험 환경은 다음과 같이 구축되었다. 3개의 영상 집합을 사용하였으며 각각의 영상집합은 동영상에서 추출된 연속적인 10장의 영상으로 구성했다. 영상 집합의 크기는 각각 250×335, 180×90, 85×70이며, 표적은 각각 50×67, 44×29, 17×14에 해당하는 자동차로 설정하였다. FIG. 6 shows recognition rates for images of different sizes and targets of different sizes in order to evaluate the target recognition rate. The experimental environment was constructed as follows. Three sets of images were used, and each image set consisted of 10 consecutive images extracted from the video. The sizes of the image sets are 250 × 335, 180 × 90, and 85 × 70, respectively, and the targets are set to 50 × 67, 44 × 29, and 17 × 14, respectively.
실험은 3개의 영상집합에 대해 각각 임의로 100번의 특징정보를 생성하여 표적을 검출하였다. 매 검출 과정에서 표적과 유사도가 가장 높은 5개 후보를 선별하였다. 그리고 5개 후보 각각의 위치가 표적의 위치와 일치하면 올바른 인식으로 처리하였고, 표적의 위치와 일치하지 않으면 잘못된 인식으로 처리하여 최종적인 인식률을 계산하였다. 인식률은 0~1 사이의 값으로 정규화 하였으며, 상관계수는 절대값으로 계산하였다. Experiments were performed to detect target by randomly generating 100 feature information for each of three image sets. In the detection process, five candidates with the highest similarity to the target were selected. If the position of each of the five candidates matches the position of the target, it is treated as a correct recognition. If it does not match the position of the target, the recognition accuracy is calculated as a false recognition. The recognition rate is normalized to a value between 0 and 1, and the correlation coefficient is calculated as an absolute value.
도 6은 상관계수의 절대값과 인식률의 관계를 보여주고 있다. 3개의 영상집합에서 모두 상관계수의 절대값과 인식률은 반비례 하는 모습을 보여주고 있다.FIG. 6 shows the relationship between the absolute value of the correlation coefficient and the recognition rate. In all three sets of images, the absolute value of the correlation coefficient and the recognition rate are inversely proportional to each other.
도 7 (a)는 실험 영상이고, 도 7 (b)는 상관계수 0.107818일 때의 검출 결과이고, 도 7 (c)는 상관계수 0.032316일 때의 검출 결과이고, 도 7 (d)는 상관계수 0.00418일 때의 검출 결과이다.Fig. 7 (a) shows the detection result when the correlation coefficient is 0.107818, Fig. 7 (c) shows the detection result when the correlation coefficient is 0.032316, 0.00418. ≪ / RTI >
도 7 (b)는 임의의 특징정보를 서로 다른 상관계수를 갖도록 구성한 다음 도 7 (a)에 대해 표적을 검출한 결과를 나타낸다. 각 영상마다 가장 높은 유사도를 보인 5개의 후보 위치를 사각형으로 표시하였다. 도 7 (b)는 1개, 도 7 (c)는 2개, 도 7 (d)는 5개를 올바르게 인식하고 있다. 상관계수가 낮아짐에 따라 표적을 올바르게 분류하고 있다.Fig. 7 (b) shows the result of detecting the target with respect to Fig. 7 (a) after configuring any feature information to have different correlation coefficients. Five candidate positions showing the highest degree of similarity in each image are indicated by rectangles. 7, (b), (c), and (d) of FIG. As the correlation coefficient decreases, the target is correctly classified.
이상의 실험을 통해 확인할 수 있듯이, 복수의 특징 영역이 균일하게 분포함에 따라 표적 인식률이 증가함을 확인 수 있다.As can be seen from the above experiments, it can be confirmed that the target recognition rate increases with the uniform distribution of the plurality of feature regions.
상술한 영상 처리 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터로 판독 가능한 기록 매체에 기록될 수 있다. 이때, 컴퓨터로 판독 가능한 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 한편, 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.The image processing method described above may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable recording medium. At this time, the computer-readable recording medium may include program commands, data files, data structures, and the like, alone or in combination. On the other hand, the program instructions recorded on the recording medium may be those specially designed and configured for the present invention or may be available to those skilled in the art of computer software.
컴퓨터로 판독 가능한 기록매체에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM, DVD와 같은 광기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. The computer-readable recording medium includes a magnetic recording medium such as a magnetic medium such as a hard disk, a floppy disk and a magnetic tape, an optical medium such as a CD-ROM and a DVD, a magnetic disk such as a floppy disk, A magneto-optical media, and a hardware device specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like.
한편, 이러한 기록매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관 등의 전송 매체일 수도 있다.The recording medium may be a transmission medium, such as a light or metal line, a wave guide, or the like, including a carrier wave for transmitting a signal designating a program command, a data structure, and the like.
또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The program instructions also include machine language code, such as those generated by the compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
상기와 같이 설명된 영상 처리 방법 및 장치는 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The above-described image processing method and apparatus are not limited to the configuration and method of the embodiments described above, but the embodiments may be modified so that all or some of the embodiments are selectively combined .
100: 영상 처리 장치
110: 데이터베이스
120: 영상 입력부
130: 영상 추출부
140: 특징값 추출부
150: 검증부
160: 특징값 비교부
170: 제어부100: image processing device
110: Database
120:
130:
140: Feature value extraction unit
150:
160: Feature value comparison unit
170:
Claims (12)
입력 영상을 수신하는 단계;
상기 입력 영상에서 부분 영상을 추출하는 단계;
상기 부분 영상에서 복수의 특징 영역을 선택하는 단계;
상기 복수의 특징 영역을 이용하여 상기 부분 영상의 누적 정규화 영상을 생성하는 단계;
상기 누적 정규화 영상을 이용하여 상기 복수의 특징 영역의 상관 정도를 산출하고, 상기 산출된 상관 정도에 근거하여 상기 복수의 특징 영역의 균일한 분포 정도를 판단하는 단계; 및
상기 복수의 특징 영역의 균일한 분포 정도를 고려하여 상기 선택된 복수의 특징 영역이 상기 표적 영상과 비교할 수 있는 후보인지 여부를 검증하는 단계를 포함하는 것을 특징으로 하는 영상 처리 방법.Maintaining a database in which characteristic values of a target image are stored;
Receiving an input image;
Extracting a partial image from the input image;
Selecting a plurality of feature regions from the partial image;
Generating a cumulative normalized image of the partial image using the plurality of feature regions;
Calculating a degree of correlation of the plurality of feature regions using the cumulative normalized image and determining a degree of uniform distribution of the plurality of feature regions based on the calculated degree of correlation; And
And verifying whether or not the selected plurality of feature regions are candidates that can be compared with the target image in consideration of a uniform distribution degree of the plurality of feature regions.
하기 수학식으로 표현되는 상관계수로 정의되는 것을 특징으로 하는 영상 처리 방법.
[수학식 1]
(여기서, IN은 N개의 특징 영역을 가지는 누적 정규화 영상을 나타내고, X와 Y는 각각 영상의 가로, 세로 길이를 의미하고. 와 는 각각 IN의 축 평균값의 위치, 축 평균값의 위치이다. T는 정규화 단위이고, 와 는 각각 IN의 축 표준편차, 축 표준편차를 의미한다. S는 IN의 전체 합이고, C는 상관계수를 의미한다.)2. The method of claim 1,
Is defined as a correlation coefficient expressed by the following equation.
[Equation 1]
(Where I N denotes a cumulatively normalized image having N feature regions, X and Y are respectively It means the horizontal and vertical length of the image. Wow Lt; RTI ID = 0.0 > The position of the axial average value, It is the position of the axis mean value. T is a normalization unit, Wow Lt; RTI ID = 0.0 > Axis standard deviation, Axis standard deviation. S is the total sum of I N , and C is the correlation coefficient.)
상기 복수의 특징 영역의 균일한 분포 정도가 소정 기준보다 균일하지 않은 경우, 상기 부분 영상에서 복수의 특징 영역을 재선택하는 단계; 및
상기 재선택된 복수의 특징 영역의 분포의 균일 정도를 고려하여 상기 재선택된 복수의 특징 영역이 상기 표적 영상과 비교할 수 있는 후보인지 여부를 검증하는 단계를 더 포함하는 것을 특징으로 하는 영상 처리 방법.2. The image processing method according to claim 1,
Reselecting a plurality of feature regions in the partial image if the degree of uniform distribution of the plurality of feature regions is not more uniform than a predetermined reference; And
Further comprising the step of verifying whether or not the reselected plurality of feature regions are candidates that can be compared with the target image in consideration of the uniformity of distribution of the reselected plurality of feature regions.
상기 선택된 복수의 특징 영역이 상기 후보로 검증된 경우, 상기 복수의 특징 영역의 특징값과 상기 저장된 표적 영상의 특징값을 비교하는 단계를 더 포함하는 것을 특징으로 하는 영상 처리 방법.2. The image processing method according to claim 1,
And comparing the feature values of the plurality of feature regions with feature values of the stored target images when the selected plurality of feature regions are verified as candidates.
Fern 알고리즘을 이용하여 수행되는 것을 특징으로 하는 영상 처리 방법.6. The method of claim 5, wherein the feature value comparison step
Fern algorithm in accordance with an embodiment of the present invention.
입력 영상을 수신하는 영상 입력부;
상기 입력 영상에서 부분 영상을 추출하는 영상 추출부;
상기 부분 영상에서 복수의 특징 영역을 선택하는 특징 영역 선택부;
상기 복수의 특징 영역을 이용하여 상기 부분 영상의 누적 정규화 영상을 생성하고, 상기 누적 정규화 영상을 이용하여 상기 복수의 특징 영역의 상관 정도를 산출하고, 상기 산출된 상관 정도에 근거하여 상기 복수의 특징 영역의 균일한 분포 정도를 판단하고, 상기 복수의 특징 영역의 균일한 분포 정도를 고려하여 상기 선택된 복수의 특징 영역이 상기 표적 영상과 비교할 수 있는 후보인지 여부를 검증하는 검증부; 및
상기 데이터베이스, 상기 영상 입력부, 상기 영상 추출부, 및 상기 검증부를 제어하는 제어부를 포함하는 영상 처리 장치.A database storing feature values of the target image;
An image input unit for receiving an input image;
An image extracting unit for extracting a partial image from the input image;
A feature region selection unit for selecting a plurality of feature regions from the partial image;
Generating a cumulative normalized image of the partial image using the plurality of feature regions, calculating a correlation degree of the plurality of feature regions using the cumulative normalized image, A verifying unit for determining a uniform distribution of regions and verifying whether the selected plurality of feature regions are candidates for comparison with the target image in consideration of a uniform distribution degree of the plurality of feature regions; And
And a control unit for controlling the database, the image input unit, the image extraction unit, and the verification unit.
하기 수학식으로 표현되는 상관계수로 정의되는 것을 특징으로 하는 영상 처리 장치.
[수학식 1]
(여기서, IN은 N개의 특징 영역을 가지는 누적 정규화 영상을 나타내고, X와 Y는 각각 영상의 가로, 세로 길이를 의미하고. 와 는 각각 IN의 축 평균값의 위치, 축 평균값의 위치이다. T는 정규화 단위이고, 와 는 각각 IN의 축 표준편차, 축 표준편차를 의미한다. S는 IN의 전체 합이고, C는 상관계수를 의미한다.)8. The method of claim 7,
Is defined as a correlation coefficient expressed by the following equation.
[Equation 1]
(Where I N denotes a cumulatively normalized image having N feature regions, X and Y are respectively It means the horizontal and vertical length of the image. Wow Lt; RTI ID = 0.0 > The position of the axial average value, It is the position of the axis mean value. T is a normalization unit, Wow Lt; RTI ID = 0.0 > Axis standard deviation, Axis standard deviation. S is the total sum of I N , and C is the correlation coefficient.)
상기 특징 영역 선택부는, 상기 복수의 특징 영역의 균일한 분포 정도가 소정 기준보다 균일하지 않은 경우, 상기 부분 영상에서 복수의 특징 영역을 재선택하고,
상기 검증부는 상기 재선택된 복수의 특징 영역의 분포의 균일 정도를 고려하여 상기 재선택된 복수의 특징 영역이 상기 표적 영상과 비교할 수 있는 후보인지 여부를 검증하는 것을 특징으로 하는 영상 처리 장치.8. The method of claim 7,
Wherein the feature region selection unit reselects the plurality of feature regions in the partial image when the degree of uniform distribution of the plurality of feature regions is not more uniform than the predetermined reference,
Wherein the verifying unit verifies whether the reselected plurality of feature regions are candidates that can be compared with the target image in consideration of the uniformity of distribution of the reselected plurality of feature regions.
상기 복수의 특징 영역이 상기 후보로 검증된 경우, 상기 복수의 특징 영역의 특징값과 상기 저장된 표적 영상의 특징값을 비교하는 특징값 비교부를 더 포함하는 것을 특징으로 하는 영상 처리 장치.The image processing apparatus according to claim 7, wherein the image processing apparatus
Further comprising a feature value comparing unit for comparing a feature value of the plurality of feature regions with a feature value of the stored target image when the plurality of feature regions are verified as candidates.
Fern 알고리즘을 이용하여 상기 복수의 특징 영역의 특징값과 상기 저장된 표적 영상의 특징값을 비교하는 것을 특징으로 하는 영상 처리 장치.12. The apparatus of claim 11, wherein the feature value comparison unit
And compares feature values of the plurality of feature regions with feature values of the stored target image using a Fern algorithm.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20130066808A KR101490027B1 (en) | 2013-06-11 | 2013-06-11 | Apparatus and method for processing image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20130066808A KR101490027B1 (en) | 2013-06-11 | 2013-06-11 | Apparatus and method for processing image |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140144619A KR20140144619A (en) | 2014-12-19 |
KR101490027B1 true KR101490027B1 (en) | 2015-02-06 |
Family
ID=52591376
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR20130066808A KR101490027B1 (en) | 2013-06-11 | 2013-06-11 | Apparatus and method for processing image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101490027B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200076552A (en) | 2018-12-19 | 2020-06-29 | 숭실대학교산학협력단 | Automatic modulation classification through correlation analysis between the features |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101678769B1 (en) * | 2015-02-26 | 2016-11-23 | 중앙대학교 산학협력단 | Apparatus and Method for detecting object for input image |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009245287A (en) * | 2008-03-31 | 2009-10-22 | Fujitsu Ltd | Image tracking device, method and program |
KR101084594B1 (en) * | 2009-12-29 | 2011-11-17 | 전자부품연구원 | Real time image recognition system, and method thereof |
JP2013114596A (en) * | 2011-11-30 | 2013-06-10 | Kddi Corp | Image recognition device and method |
-
2013
- 2013-06-11 KR KR20130066808A patent/KR101490027B1/en not_active IP Right Cessation
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009245287A (en) * | 2008-03-31 | 2009-10-22 | Fujitsu Ltd | Image tracking device, method and program |
KR101084594B1 (en) * | 2009-12-29 | 2011-11-17 | 전자부품연구원 | Real time image recognition system, and method thereof |
JP2013114596A (en) * | 2011-11-30 | 2013-06-10 | Kddi Corp | Image recognition device and method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200076552A (en) | 2018-12-19 | 2020-06-29 | 숭실대학교산학협력단 | Automatic modulation classification through correlation analysis between the features |
Also Published As
Publication number | Publication date |
---|---|
KR20140144619A (en) | 2014-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102280395B1 (en) | Learning method, learning device for detecting lane through classification of lane candidate pixels and testing method, testing device using the same | |
US20230077355A1 (en) | Tracker assisted image capture | |
JP6972756B2 (en) | Control programs, control methods, and information processing equipment | |
CN106327526B (en) | Image target tracking method and system | |
US8280196B2 (en) | Image retrieval apparatus, control method for the same, and storage medium | |
CN108885699A (en) | Character identifying method, device, storage medium and electronic equipment | |
JP2019036009A (en) | Control program, control method, and information processing device | |
KR102195940B1 (en) | System and Method for Detecting Deep Learning based Human Object using Adaptive Thresholding Method of Non Maximum Suppression | |
KR102263717B1 (en) | Apparatus and method for analyzing abnormal behavior through object detection and tracking | |
US9245198B2 (en) | Object recognition by comparison of patterns against map of image | |
US8811750B2 (en) | Apparatus and method for extracting edge in image | |
KR102655789B1 (en) | Face detecting method and apparatus | |
KR102233175B1 (en) | Method for determining signature actor and for identifying image based on probability of appearance of signature actor and apparatus for the same | |
CN107169503B (en) | Indoor scene classification method and device | |
US20200380291A1 (en) | Image processing system | |
CN110363790B (en) | Target tracking method, apparatus and computer readable storage medium | |
US9697441B2 (en) | Feature selection method and apparatus, and pattern discrimination method and apparatus | |
CN110610123A (en) | Multi-target vehicle detection method and device, electronic equipment and storage medium | |
JP2016058085A (en) | Method and device for detecting shielding of object | |
KR101755980B1 (en) | Copy-Move Forgery Detection method and apparatus based on scale space representation | |
CN108960247B (en) | Image significance detection method and device and electronic equipment | |
KR101490027B1 (en) | Apparatus and method for processing image | |
KR20130091441A (en) | Object tracking device and method for controlling thereof | |
KR20160146458A (en) | Apparatus and method for protecting privacy | |
CN115723777A (en) | Automatic driving control method and system and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
LAPS | Lapse due to unpaid annual fee |